segunda-feira, 8 de janeiro de 2018

9 questões éticas principais em inteligência artificial

Faced with an automated future, what moral framework should guide us?
Image: Matthew Wiebe


Diante de um futuro automatizado, qual quadro moral deve nos guiar?


Otimizando a logística, detectando fraudes, compondo arte, realizando pesquisas, fornecendo traduções: sistemas de máquinas inteligentes estão transformando nossas vidas para melhor. À medida que esses sistemas se tornam mais capazes, nosso mundo se torna mais eficiente e conseqüentemente mais rico.

Gigantes tecnológicos como Alphabet, Amazon, Facebook, IBM e Microsoft - assim como indivíduos como Stephen Hawking e Elon Musk - acreditam que agora é o momento certo para falar sobre a paisagem quase ilimitada da inteligência artificial. De muitas maneiras, esta é apenas uma nova fronteira para a ética e a avaliação de riscos, como é para a tecnologia emergente. Então, quais as questões e conversas mantêm os especialistas em AI, durante a noite?

1. Desemprego. O que acontecerá após o término dos trabalhos?
A hierarquia do trabalho diz respeito, principalmente, à automação. À medida que inventávamos formas de automatizar empregos, podíamos criar espaço para que as pessoas assumissem papéis mais complexos, passando do trabalho físico, que dominava o mundo pré-industrial, para o trabalho cognitivo que caracteriza o trabalho estratégico e administrativo, em nossa sociedade globalizada.
Olhe o caso dos caminhões: atualmente empregam milhões de indivíduos, apenas nos Estados Unidos. O que acontecerá com eles se os caminhões auto-dirigidos, prometidos pelo Elon Musk, daTesla, se tornarem amplamente disponíveis na próxima década? Mas, por outro lado, se considerarmos o menor risco de acidentes, caminhões auto-dirigidos parecem uma escolha ética. O mesmo cenário poderia acontecer para os trabalhadores de escritório, bem como para a maioria da força de trabalho em países desenvolvidos.

É aqui que vemos a questão de como vamos usar o nosso tempo. A maioria das pessoas ainda confia em vender seu tempo para ter renda suficiente para se sustentar e suas famílias. Só podemos esperar que esta oportunidade permita às pessoas encontrar significado nas atividades não trabalhistas, como cuidar de suas famílias, se envolver com suas comunidades e aprender novas formas de contribuir para a sociedade humana.


Se tivermos sucesso com a transição, um dia poderemos olhar para trás e pensar que era bárbaro que os seres humanos fossem obrigados a vender a maior parte de seu tempo de vigília apenas para poder viver.
______________

É tecnicamente mais viável automatizar atividades físicas previsíveis do que atividades imprevisíveis.


2. Desigualdade. Como distribuiremos a riqueza criada pelas máquinas?
Nosso sistema econômico baseia-se na compensação pela contribuição para a economia, muitas vezes avaliada usando um salário por hora. A maioria das empresas ainda depende do trabalho horário quando se trata de produtos e serviços. Mas, usando a inteligência artificial, uma empresa pode reduzir drasticamente a dependência da força de trabalho humana, o que significa que as receitas irão para menos pessoas. Conseqüentemente, os indivíduos que possuem propriedade em empresas operadas pela IA receberão todo o dinheiro.

Já estamos vendo um fosso crescente de riqueza, onde os fundadores das startups levam para casa uma grande parcela do superávit econômico que eles criam. Em 2014, aproximadamente as mesmas receitas foram geradas pelas três maiores empresas de Detroit e as três maiores empresas do Vale do Silício ... apenas que no Vale do Silício havia 10 vezes menos empregados.


Se estamos realmente imaginando uma sociedade pós-trabalho, como estruturatemos uma economia pós-trabalhadora justa?

3. Humanidade. Como as máquinas afetam nosso comportamento e interação?
Os robôs artificialmente inteligentes estão se tornando melhores e melhores na modelagem de conversas e relacionamentos humanos. Em 2015, um bot chamado Eugene Goostman ganhou o Turing Challenge pela primeira vez. Nesse desafio, os avaliadores humanos usaram entrada de texto para conversar com uma entidade desconhecida, e adivinharam se conversavam com um ser humano ou uma máquina. Eugene Goostman enganou mais de metade dos avaliadores humanos ao pensar que estavam falando com um ser humano.


Esse marco é apenas o início de uma época em que freqüentemente interagimos com máquinas como se fossem seres humanos; seja no atendimento ao cliente ou nas vendas. Enquanto os seres humanos são limitados na atenção e bondade que podem gastar com outra pessoa, os bots artificiais podem canalizar recursos praticamente ilimitados para construir relacionamentos.



Mesmo que muitos de nós não estejamos cientes disso, já somos testemunhas de como as máquinas podem estimular os centros de recompensa, no cérebro humano. Basta ver as manchetes e os jogos de vídeo. Essas manchetes são muitas vezes otimizadas com o teste A / B, uma forma rudimentar de otimização algorítmica de conteúdo para captar nossa atenção. Este e outros métodos são usados ​​para tornar numerosos vídeos e jogos viciantes. O vício tecnológico é a nova fronteira da dependência humana. [http://kernelmag.dailydot.com/issue-sections/features-issue-sections/15708/addicting-apps-mobile-technology-health/]

Por outro lado, talvez possamos pensar em um uso diferente para o software, que já se tornou efetivo no controle da atenção humana e como desencadeador de certas ações. Quando usado corretamente, isso poderia evoluir para uma oportunidade de empurrar a sociedade para um comportamento mais benéfico. No entanto, nas mãos erradas pode ser prejudicial.

4. Estupidez artificial. Como podemos evitar erros?
A inteligência vem de aprender, seja humana ou de máquina. Os sistemas costumam ter uma fase de treinamento em que eles "aprendem" para detectar os padrões certos e agir de acordo com sua entrada. Uma vez que um sistema é totalmente treinado, ele pode então entrar na fase de teste, onde é exposto à mais exemplos e vemos como ele funciona.
Obviamente, a fase de treinamento não pode cobrir todos os exemplos possíveis com que um sistema pode lidar, no mundo real. Estes sistemas podem ser enganados de forma que os seres humanos não seriam. Por exemplo, padrões de pontos aleatórios podem levar uma máquina a "ver" coisas que não estão lá. Se confiarmos na AI para nos levar a um novo mundo de trabalho, segurança e eficiência, precisamos garantir que a máquina opere conforme planejado, e que as pessoas não possam enganá-la para usá-las para seus próprios fins.

5. Robôs racistas. Como eliminaremos o viés da AI?
Embora a inteligência artificial seja capaz de uma velocidade e capacidade de processamento muito superior à dos humanos, nem sempre pode ser confiável em ser justa e neutra. Google e sua empresa-mãe Alphabet são um dos líderes quando se trata de inteligência artificial, como visto no serviço de fotos do Google, onde AI é usado para identificar pessoas, objetos e cenas. Mas pode dar errado, como quando uma câmera 'errou a mão' [https://gizmodo.com/5256650/camera-misses-the-mark-on-racial-sensitivity] na sensibilidade racial, ou quando um software usado para prever futuros criminosos [https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing] mostrou preconceitos contra os negros.

Não devemos esquecer que os sistemas de AI são criados por seres humanos, que podem ser tendenciosos e julgadores. Mais uma vez, se usado corretamente, ou se usado por aqueles que se esforçam para o progresso social, a inteligência artificial pode se tornar um catalisador para mudanças positivas.

6. Segurança. Como podemos manter a IA a salvo dos adversários?
Quanto mais poderosa se torne uma tecnologia, mais pode ser usada por razões nefastas e boas. Isto aplica-se não só a robôs produzidos para substituir soldados humanos, como armas autônomas, assim como sistemas de AI que podem causar danos, se usados ​​maliciosamente. Como essas lutas não serão travadas apenas no campo de batalha, a segurança cibernética se tornará ainda mais importante. Afinal, estamos lidando com um sistema que é mais rápido e mais capaz que nós, em várias ordens de grandeza.
______________
Proliferação de Drones Armados


Proliferation of Armed Drones



7. 'Gênios do mal'. Como nos protegermos contra consequências não intencionais?
Não são apenas adversários com os quais nos preocupamos. E se a própria inteligência artificial se voltasse contra nós? Isso não significa transformar-se em "mau", como um ser humano, ou na forma como os desastres de AI são retratados nos filmes de Hollywood. Em vez disso, podemos imaginar um sistema de AI avançado como um "gênio em uma garrafa" que pode cumprir os desejos, mas com terríveis conseqüências imprevistas.
No caso de uma máquina, é improvável que haja maldade em jogo, apenas uma falta de compreensão do contexto completo em que o desejo foi expresso. Imagine um sistema de AI ao qual se solicita erradicar o câncer no mundo. Depois de muita computação, ele escreve uma fórmula que, na verdade, traz o fim do câncer - matando todos no planeta. O computador teria alcançado seu objetivo de "não mais câncer" de forma muito eficiente, mas não da forma como os humanos o pretendiam.

8. Singularidade. Como podemos manter o controle de um sistema inteligente complexo?
A razão pela qual os seres humanos estão no topo da cadeia alimentar não é devido à dentes afiados ou músculos fortes. O domínio humano é quase inteiramente devido à nossa engenhosidade e inteligência. Podemos obter o melhor de animais maiores, mais rápidos e mais fortes porque podemos criar e usar ferramentas para controlá-los: ferramentas físicas, como gaiolas e armas, e ferramentas cognitivas, como treinamento e condicionamento.
Isso levanta uma séria questão sobre a inteligência artificial: ela terá, um dia, a mesma vantagem sobre nós? Não podemos confiar apenas em "puxar o plug", porque uma máquina suficientemente avançada pode antecipar este movimento e se defender. Isto é o que alguns chamam de "singularidade": o ponto no tempo em que os seres humanos não são mais os seres mais inteligentes da Terra.

9. Direitos do robô. Como definimos o tratamento humano da AI?

Enquanto os neurocientistas ainda estão trabalhando para desbloquear os segredos da experiência consciente, entendemos mais sobre os mecanismos básicos de recompensa e aversão. Compartilhamos esses mecanismos com animais, mesmo os simples. De certa forma, estamos construindo mecanismos semelhantes de recompensa e aversão em sistemas de inteligência artificial. Por exemplo, o aprendizado de reforço é semelhante ao treinamento de um cachorro: o desempenho aprimorado é reforçado com uma recompensa virtual.

Neste momento, esses sistemas são bastante superficiais, mas estão se tornando mais complexos e parecidos com a vida. Podemos considerar que um sistema está sofrendo quando suas funções de recompensa lhe dão entrada negativa? Além disso, os chamados algoritmos genéticos funcionam criando muitas instâncias de um sistema ao mesmo tempo, dos quais apenas as mais bem sucedidas "sobrevivem" e se combinam para formar a próxima geração de instâncias. Isso acontece ao longo de muitas gerações e é uma maneira de melhorar um sistema. As instâncias mal sucedidas são excluídas. Em que ponto podemos considerar algoritmos genéticos como forma de assassinato em massa?

Uma vez que consideremos as máquinas como entidades que podem perceber, sentir e agir, não é um grande salto para refletir sobre seu status legal. Elas deveriam ser tratadas como animais de inteligência comparável? Consideraremos o sofrimento das máquinas "com sensações"?

Algumas questões éticas são sobre mitigação do sofrimento, algumas sobre arriscar resultados negativos. Embora consideremos esses riscos, devemos também ter em mente que, em geral, esse progresso tecnológico significa melhores vidas para todos. A inteligência artificial tem um vasto potencial e sua implementação responsável depende de nós.


TRADUÇÃO DE:

Top 9 ethical issues in artificial intelligence