Minha Visão

Novo Modelo Poderia Ajudar AI Fazer Mais Escolhas Éticas

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br


A ética da inteligência artificial é um tema quente em cima da hora, especialmente com o curso controvérsias em torno software de reconhecimento facial. Agora, os matemáticos desenvolveram um modelo que pode ajudar as empresas a lugar quando comerciais AI sistemas podem fazer sombra escolhas em busca de lucros.

Moderna, AI é grande a otimizar—encontrar a rota mais curta, o perfeito preços sweet spot, ou a melhor distribuição dos recursos de uma empresa. Mas também é cego de um monte de contexto que um ser humano de tomada de decisões semelhantes iria estar ciente de, principalmente, quando se trata de ética.

Como um exemplo, a maioria das pessoas perceber que, enquanto a elevação do preço de um medicamento durante uma crise de saúde iria aumentar os lucros, também seria moralmente indefensável. Mas AI não tem nenhum senso de ética, então, se encarregou de estratégia de preços esta parece ser uma abordagem promissora.

Na verdade, em um recente papel no Real Sociedade De Ciências, os pesquisadores mostraram que IA encarregado de maximização de retornos, na verdade, é desproporcionalmente probabilidade de pegar uma antiético estratégia bastante condições gerais. Felizmente, eles também mostraram que é possível prever as circunstâncias em que este é passível de acontecer, o que pode guiar os esforços para modificar AI para evitá-lo.

O fato de que AI é provável que escolher antiético estratégias parece intuitivo. Há uma abundância de práticas comerciais antiéticas que pode colher grandes recompensas se você fugir com eles, e não menos importante, porque alguns de seus concorrentes atrevo a usá-los. Há uma razão para as empresas, muitas vezes, dobrar ou até mesmo quebrar as regras, apesar da reputação e de regulamentação reação que poderiam enfrentar.

Os potenciais repercussões deve ser de grande preocupação para as empresas a implantação do AI soluções, no entanto. Enquanto os esforços para compilação de princípios éticos para AI já estão em andamento, eles são incipientes e, em muitos contextos, há uma grande número de potenciais estratégias para escolher a partir de. Muitas vezes, esses sistemas de tomar decisões com pouca ou nenhuma intervenção humana e pode ser difícil de prever as circunstâncias sob as quais elas são, provavelmente, escolha uma antiético abordagem.

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br

E, de fato, os autores do artigo provaram matematicamente que AI projetado para maximizar o retorno é desproporcional probabilidade de pegar uma antiético estratégia, algo que eles apelidam de “antiético otimização do princípio.” Felizmente, eles dizem que é possível para os gestores de risco ou reguladores para estimar o impacto deste princípio para ajudar a detectar possíveis estratégias antiéticas.

A chave é focar as estratégias susceptíveis de proporcionar maiores retornos, como estes são os que o processo de otimização é provável liquidar. Os autores recomendam ranking das estratégias de seus retornos e, em seguida, manualmente inspecionar o mais alto-os classificados para determinar se eles são éticos ou não.

Isto não só irá eliminar o antiético estratégias mais provável a ser adotada, eles dizem, mas também irá ajudar a desenvolver a intuição sobre a forma como o AI abordagens do problema e, portanto, ter uma melhor compreensão de onde procurar outras problemáticas estratégias.

A esperança é que isso seria possível para, em seguida, redesenhar o AI para evitar esses tipos de estratégias. Se isso não for possível, os autores recomendam analisar o espaço de estratégia para estimar o quão provável é que a AI vai escolher antiético soluções.

O que eles descobriram é que, se a probabilidade de extrema retorna para um pequeno número de estratégias é alta, existem técnicas estatísticas que podem ajudar a estimar o risco de que o AI vai escolher uma antiético um. Mas se a probabilidade dos retornos é distribuído uniformemente, então é altamente provável que a melhor estratégia será antiético, e as empresas não deveriam permitir que o sistema tomar decisões sem a intervenção humana.

Mesmo quando é possível estimar o risco, os autores ainda dizem que é imprudente colocar muita fé nessas previsões. E eles sugerem que, na verdade, pode ser necessário re-pensar como IA opera para que as estratégias antiéticas são automaticamente eliminados na formação de fases.

Como exatamente o que iria acontecer é longe de ser clara, assim, neste momento, parece que pode ser uma boa idéia para manter os seres humanos, no ciclo para a maioria AI de tomada de decisão.

Crédito da imagem: Arek Socha de Pixabay

READ  Sedativos Podem Ser Perigosos, mas Este fruto com Sabor de Sono Ajuda É um Sonho tornado realidade
cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *