Os trabalhos que a inteligência artificial criará

0
624

 

Um estudo global encontra novas categorias de empregos humanos emergentes, exigindo habilidades e treinamento que levará muitas empresas de surpresa.

Daugherty Artificial Intelligence Jobs

A ameaça que a automação eliminará uma ampla gama de empregos em toda a economia mundial está agora bem estabelecida. À medida que os sistemas de inteligência artificial (AI) se tornam cada vez mais sofisticados, outra onda de deslocamento de trabalho quase certamente ocorrerá.

Pode ser uma imagem angustiante.

Mas aqui está o que estivemos com vista: muitos novos empregos também serão criados – trabalhos que não se parecem com aqueles que existem hoje.

No estudo global da Accenture PLC sobre mais de 1.000 grandes empresas que já utilizam ou testaram sistemas de AI e de aprendizagem em máquina, identificamos o surgimento de categorias inteiras de novos empregos humanos. Esses papéis não estão substituindo os antigos. São novidades, exigem habilidades e treinamento que não têm precedentes. (O estudo da Accenture, “Como as empresas estão reimaginando processos de negócios com TI”, será publicado neste verão).

Mais especificamente, nossa pesquisa revela três novas categorias de empregos de negócios e tecnologia orientados a AI. Nós os rotulamos treinadores, explicadores e sustentadores. Os seres humanos nesses papéis complementarão as tarefas realizadas pela tecnologia cognitiva, garantindo que o trabalho das máquinas seja efetivo e responsável – que seja justo, transparente e auditável.

Formadores

Esta primeira categoria de novos empregos precisará de trabalhadores humanos para ensinar sistemas de IA como eles deveriam realizar – e está emergindo rapidamente. Em um extremo do espectro, os formadores ajudam os processadores de linguagem natural e os tradutores de idiomas a fazerem menos erros. Na outra extremidade, eles ensinam algoritmos AI como imitar comportamentos humanos.

Os chatbots do serviço ao cliente, por exemplo, precisam ser treinados para detectar as complexidades e sutilezas da comunicação humana. O Yahoo Inc. está tentando ensinar seu sistema de processamento de linguagem que as pessoas nem sempre significam literalmente o que dizem. Até agora, os engenheiros do Yahoo desenvolveram um algoritmo que pode detectar sarcasmo em redes sociais e sites com uma precisão de pelo menos 80%.

Considere, então, o trabalho de “empathy trainer” – indivíduos que ensinarão sistemas de AI a demonstrar compaixão. A starter Kemoko Inc., baseada em Nova York, d / b / a Koko, que surgiu do MIT Media Lab, desenvolveu um sistema de aprendizado de máquinas que pode ajudar assistentes digitais, como o Siri da Apple e o Alexa da Apple, abordam as questões das pessoas com simpatia e profundidade. Os humanos agora estão treinando o algoritmo Koko para responder de forma mais empática às pessoas que, por exemplo, estão frustradas com a perda de sua bagagem, que um produto que eles compraram está com defeito ou que o serviço de cabo continua a piscar, mesmo depois de repetir Tenta corrigi-lo. O objetivo é que o sistema seja capaz de conversar com pessoas através de um problema ou situação difícil usando a quantidade adequada de compreensão, compaixão e até mesmo humor.

Sem um treinador de empatia, Alexa pode responder às ansiedades de um usuário com respostas enlatadas e repetitivas, como “Lamento ouvir isso” ou “Às vezes, falar com um amigo pode ajudar”. Com o treinamento certo, Alexa se torna muito mais útil. O seguinte é uma transcrição literal de como Alexa com Koko responde a uma pessoa que diz que está preocupado que ele falhe no próximo exame: “Os exames são realmente estressantes, mas um pouco de ansiedade pode nos ajudar a ter sucesso. Afia nossas mentes. … É a maneira do seu corpo se preparar para a ação. Na verdade, é uma coisa realmente boa. Eu me pergunto se você poderia pensar em seus nervos como sua arma secreta. Mais fácil dizer do que fazer, eu sei. Mas acho que você fará muito melhor do que você pensa “.

Explicadores

A segunda categoria de novos empregos – explicadores – superará o fosso entre tecnólogos e líderes empresariais. Os explicadores ajudarão a fornecer clareza, o que se torna cada vez mais importante à medida que a opacidade dos sistemas da IA ​​aumenta. Muitos executivos estão desconfortáveis ​​com a natureza da “caixa preta” dos algoritmos de aprendizagem mecânica sofisticados, especialmente quando os sistemas que eles recomendam ações que vão contra o grão da sabedoria convencional. Na verdade, os governos já estão considerando regulamentos nesta área. Por exemplo, o novo Regulamento Geral de Proteção de Dados da União Européia , que deverá entrar em vigor em 2018, criará efetivamente um “direito à explicação”, permitindo aos consumidores questionar e lutar contra qualquer decisão tomada puramente em bases algorítmicas que as afetem.

As empresas que implementam sistemas avançados de AI precisam de um quadro de funcionários que possam explicar o funcionamento interno de algoritmos complexos para profissionais não técnicos. Por exemplo, analistas de analistas de algoritmo seriam responsáveis ​​por manter qualquer algoritmo responsável por seus resultados. Quando um sistema cometeu um erro ou quando suas decisões levam a conseqüências negativas não desejadas, o analista forense deveria realizar uma “autópsia” no evento para entender as causas desse comportamento, permitindo que ele seja corrigido. Certos tipos de algoritmos, como árvores de decisão, são relativamente simples de explicar. Outros, como os bots de aprendizagem em máquina, são mais complicados. No entanto, o analista forense precisa ter o treinamento e as habilidades adequadas para realizar autópsias detalhadas e explicar seus resultados.

Aqui, técnicas como Explicações Agnósticas do Modelo Interpretativo Local (LIME), que explica a lógica subjacente e a confiabilidade de uma predição da máquina, podem ser extremamente úteis. LIME não se preocupa com os algoritmos reais de AI utilizados. Na verdade, não precisa saber nada sobre o funcionamento interno. Para realizar uma autópsia de qualquer resultado, faz pequenas alterações nas variáveis ​​de entrada e observa como elas alteram essa decisão. Com essa informação, o analista de forense de algoritmo pode identificar os dados que levaram a um resultado particular.

Assim, por exemplo, se um sistema de recrutamento de especialistas identificou o melhor candidato para um trabalho de pesquisa e desenvolvimento, o analista usando LIME poderia identificar as variáveis ​​que levaram a essa conclusão (como educação e experiência profunda em um campo particular e estreito) como Bem como a evidência contra ela (como inexperiência em trabalhar em equipes colaborativas). Usando essas técnicas, o analista forense pode explicar por que alguém foi contratado ou promovido. Em outras situações, o analista pode ajudar a desmistificar por que um processo de fabricação orientado por AI foi interrompido ou por que uma campanha de marketing segmentou apenas um subconjunto de consumidores.

ATUALIZAÇÕES DE EMAIL DE INTELIGÊNCIA ARTIFICIAL

Receba mensalmente atualizações de e-mail sobre como a AI está afetando o desenvolvimento e a execução de estratégias nas organizações.

 

Política de Privacidade

Sustainers

A categoria final de novos empregos que nossa pesquisa identificou – sustentadores – ajudará a garantir que os sistemas de IA funcionem conforme o projeto e que as consequências não intencionais sejam abordadas com a urgência apropriada. Na nossa pesquisa, descobrimos que menos de um terço das empresas tem um alto grau de confiança na equidade e auditabilidade de seus sistemas de AI e menos da metade têm confiança similar na segurança desses sistemas. Claramente, essas estatísticas indicam problemas fundamentais que precisam ser resolvidos para o uso contínuo de tecnologias AI, e é aí que os sustentadores desempenharão um papel crucial.

Uma das funções mais importantes será o gerente de conformidade ética. Os indivíduos neste papel atuarão como um tipo de vigilante e ombudsman para defender normas de valores e morais humanos – intervindo se, por exemplo, um sistema de AI para aprovação de crédito discriminasse pessoas em determinadas profissões ou áreas geográficas específicas. Outros desvios podem ser mais sutis – por exemplo, um algoritmo de pesquisa que responde com imagens de mulheres brancas apenas quando alguém pergunta “amando a avó”. O gerente de conformidade ética poderia trabalhar com um analista de forense para descobrir os motivos subjacentes para esses resultados e depois implementar As correções apropriadas.

No futuro, a AI pode se tornar mais autônoma. Mark O. Riedl e Brent Harrison, pesquisadores da Escola de Computação Interativa do Georgia Institute of Technology, desenvolveram um protótipo de AI chamado Quixote, que pode aprender sobre ética , lendo histórias simples. De acordo com Riedl e Harrison, o sistema é capaz de engenharia reversa de valores humanos através de histórias sobre como os seres humanos interagem uns com os outros. O Quixote aprendeu, por exemplo, por que o roubo não é uma boa idéia e que o esforço para a eficiência é bom, exceto quando ele está em conflito com outras considerações importantes. Mas mesmo tendo em vista tais inovações, os gerentes de conformidade em ética humana desempenharão um papel crítico no monitoramento e ajudando a assegurar o bom funcionamento de sistemas avançados.

Os tipos de empregos que descrevemos aqui são sem precedentes e serão exigidos em escala em todas as indústrias. (Para exemplos adicionais, consulte “Funções representativas criadas pela IA”.) Esta mudança colocará uma enorme pressão sobre as operações de treinamento e desenvolvimento das organizações. Isso também pode levar a questionar muitos pressupostos que fizemos sobre os requisitos educacionais tradicionais para os papéis profissionais.

Os treinadores de empatia, por exemplo, podem não precisar de um diploma universitário. Indivíduos com educação secundária e que são intrinsecamente empáticos (uma característica mensurável) podem ser ensinados as habilidades necessárias em um programa de treinamento interno. De fato, o efeito de muitas dessas novas posições pode ser o surgimento de uma força de trabalho “sem colar” que substitui lentamente os tradicionais empregos de colarinho azul na fabricação e outras profissões. Mas onde e como esses trabalhadores serão treinados continuarão questões abertas. Em nossa opinião, as respostas precisam começar com as próprias operações de aprendizagem e desenvolvimento de uma organização.

Por outro lado, uma série de novos empregos – gerente de conformidade ética, por exemplo – provavelmente exigirá graus avançados e conjuntos de habilidades altamente especializadas. Assim, assim como as organizações devem abordar a necessidade de treinar uma parte da força de trabalho para os papéis emergentes de não colar, eles devem reimaginar seus processos de recursos humanos para atrair, treinar e reter profissionais altamente educados, cujos talentos serão altamente demandados. Tal como acontece com tantas transformações tecnológicas, os desafios são muitas vezes mais humanos do que técnicos.

Este artigo foi originalmente publicado em 27 de março de 2017. Ele foi atualizado para refletir as edições feitas para sua inclusão em nossa edição impressa do verão de 2017.

 

Participe das conversas sobre o futuro. Deixe a sua opinião

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.