Carlos Teixeira
Jornalista I Futurista
“A ameaça de eliminação de uma ampla faixa de empregos pela automação, em toda a economia mundial, está agora bem evidenciada. À medida que os sistemas de inteligência artificial (AI) se tornam cada vez mais sofisticados, outra onda de deslocamento de trabalho quase certamente ocorrerá.” A avaliação sobre as perspectivas do trabalho no futuro é parte das conclusões de um relatório elaborado por três especialistas da gigante de tecnologia Accenture.
Eles reconhecem que o cenário “pode ser de uma imagem angustiante”. Mas eles mesmo assopram com a previsão otimista de que “muitos novos empregos também serão criados”. O otimismo tem a forma de “trabalhos que não se parecem com aqueles que existem hoje”, de acordo com a definição dos próprios autores.
O estudo global da Accenture PLC envolveu a análise de mais de mil grandes empresas que já utilizam ou testaram sistemas de AI e de aprendizagem em máquina. O esforço de interpretação de dados rendeu a identificação do surgimento de categorias inteiras de empregos novos e exclusivamente humanos. Funções que não estão substituindo outras, antigas.
São novos itens nas prateleiras de atividades profissionais. A combinação das inovações vão exigindo habilidades e treinamento que não têm precedentes. Mais especificamente, dizem os executivos da Accenture, a pesquisa revela três novas categorias de empregos de negócios e tecnologias orientadas à inteligência artificial. Elas foram rotuladas como treinadoras, explicadoras e sustentadoras.
Nos papeis a desempenhar, os seres humanos complementarão as tarefas realizadas pela tecnologia cognitiva. Serão a garantia que o trabalho das máquinas seja efetivo e responsável. Que seja justo, transparente e auditável”, dizem os especialistas.
Formadores
Esta primeira categoria de novos empregos precisará de trabalhadores humanos para ensinar sistemas de IA sobre como eles devem tarefas. É uma categoria que está emergindo rapidamente. Em um extremo do espectro, os formadores ajudam os processadores de linguagem natural e os tradutores de idiomas a reduzirem erros. Na outra extremidade, eles ensinam algoritmos de AI a imitar comportamentos humanos.
Os chatbots do serviço ao cliente, por exemplo, precisam ser treinados para detectar as complexidades e sutilezas da comunicação humana. O Yahoo Inc. está tentando ensinar ao seu sistema de processamento de linguagem que as falas das pessoas nem sempre devem ser entendidas literalmente. Até agora, os engenheiros do Yahoo desenvolveram um algoritmo que pode detectar sarcasmo em mídias sociais e sites com uma precisão de pelo menos 80%.
Considere, então, o trabalho de “empathy trainer” – treinadores de empatia, indivíduos que ensinarão sistemas de AI a demonstrar compaixão. A starter Kemoko Inc., com base em Nova York, desenvolveu um sistema de aprendizado de máquinas que pode ajudar assistentes digitais, como o Siri da Apple e o Alexa da Apple, abordarem demandas das pessoas com simpatia e profundidade.
Os seres humanos agora estão treinando o algoritmo Koko para responder de forma mais empática às pessoas que, por exemplo, estão frustradas com a perda de sua bagagem, com um produto comprado que apresenta defeito ou com luzes piscando em uma máquina recém-instalada, mesmo depois de repetidas tentativas de correção. O objetivo é fazer com que o sistema tenha capacidade de conversar com pessoas através de um problema ou situação difícil, usando a quantidade apropriada de compreensão, compaixão e talvez mesmo humor.
Sem um treinador de empatia, o Alexa, assistente virtual da Amazon, pode responder às ansiedades de um usuário com respostas enlatadas e repetitivas, como “lamento ouvir isso” ou “às vezes, falar com um amigo pode ajudar.” Com o treinamento certo, o sistema se torna muito mais útil.
Explicadores
A segunda categoria de novos empregos – explicadores – superará o fosso entre tecnólogos e líderes empresariais. Os explicadores ajudarão a fornecer clareza, o que se torna cada vez mais importante à medida que a opacidade dos sistemas AI aumenta. Muitos executivos estão desconfortáveis com a natureza da “caixa preta” de algoritmos de aprendizagem sofisticados. Especialmente quando os sistemas que eles recomendam impactam as crenças convencionais.
Na verdade, os governos já estão considerando regulamentos nesta área. Por exemplo, o novo Regulamento Geral de Proteção de Dados da União Européia , que deverá entrar em vigor em 2018, criará efetivamente um “direito à explicação”, permitindo aos consumidores questionar e lutar contra qualquer decisão tomada puramente em bases algorítmicas que as afetem. As empresas que implementam sistemas avançados de AI precisarão de um quadro de funcionários que possam explicar o funcionamento interno de algoritmos complexos para profissionais não técnicos.
Por exemplo, analistas de algoritmo seriam responsáveis por manter os resultados de qualquer algoritmo. Quando um sistema cometeu um erro ou quando suas decisões levam a conseqüências negativas não desejadas, o analista forense deveria realizar uma “autópsia” no evento para entender as causas desse comportamento, permitindo que ele seja corrigido.
Certos tipos de algoritmos, como árvores de decisão, são relativamente simples de explicar. Outros, como os bots de aprendizagem em máquina, são mais complicados. No entanto, o analista forense precisa ter o treinamento adequado e habilidades para realizar autópsias detalhadas e explicar seus resultados.
Aqui, técnicas como Modelos de Interpretação Local (Lime), que explicam a lógica subjacente e a confiabilidade de uma predição de máquina, podem ser extremamente úteis. O modelo não se preocupa com os algoritmos reais de AI utilizados. Na verdade, não precisa saber nada sobre o funcionamento interno. Para realizar uma autópsia de qualquer resultado, o especialista faz pequenas mudanças nas variáveis de entrada e observa como elas alteram essa decisão. Com essa informação, o analista de forense de algoritmo pode identificar os dados que levaram a um resultado particular.
Assim, por exemplo, se um sistema especializado de recrutamento identificou o melhor candidato para um trabalho de pesquisa e desenvolvimento, o analista, usando o Lime, poderia identificar as variáveis que levaram a essa conclusão (como educação e experiência profunda em um campo particular e estreito) como bem como a evidência contra ela (como inexperiência em trabalhar em equipes colaborativas). Usando essas técnicas, o analista forense pode explicar por que alguém foi contratado ou promovido. Em outras situações, o analista pode ajudar a desmistificar por que um processo de fabricação orientado por AI foi interrompido ou por que uma campanha de marketing segmentou apenas um subconjunto de consumidores.
Sustentadores
A categoria final de novos empregos que nossa pesquisa identificou – sustentadores – ajudará a garantir que os sistemas de IA funcionem conforme o projeto e que as consequências não intencionais sejam abordadas com a urgência apropriada. A pesquisa da Accenture descobriu que menos de um terço das empresas tem um alto grau de confiança na equidade e auditabilidade de seus sistemas de AI.
E menos da metade têm confiança similar na segurança desses sistemas. Claramente, essas estatísticas indicam problemas fundamentais que precisam ser resolvidos para o uso contínuo de tecnologias AI. Nesse intervalo os sustentadores desempenharão um papel crucial.
Uma das funções mais importantes será o gerente de conformidade ética. Os indivíduos neste papel atuarão como um tipo de vigilante, um ombudsman, para defender normas de valores e morais humanos. Intervem se, por exemplo, um sistema de AI discriminasse pessoas em processos de aprovação de crédito, priorizando determinadas profissões ou áreas geográficas específicas.
Outros preconceitos podem ser mais sutis – por exemplo, um algoritmo de pesquisa que responde com imagens de mulheres brancas apenas quando alguém pergunta “adorar a avó”. O gerente de conformidade de ética poderia trabalhar com um analista de forense para descobrir as razões subjacentes a esses resultados e depois implementar as correções apropriadas.
Funções representativas criadas pela AI
FORMADORES | |
---|---|
Aspectos do idioma do cliente e treinador de significado | Ensina os sistemas de AI a olhar para além do significado literal de uma comunicação, por exemplo, detectando sarcasmo ou metáforas complexas. |
Modelador de interação com máquina inteligente | Modelos de comportamento da máquina após o comportamento dos funcionários, de modo que, por exemplo, um sistema AI pode aprender com as ações de um contador como combinar automaticamente os pagamentos com as faturas. |
Instrutor de visão do mundo | Treina os sistemas AI para desenvolver uma perspectiva global para que várias perspectivas culturais sejam consideradas ao determinar, por exemplo, se um algoritmo é “justo”. |
EXPLICADORES | |
Designer de contexto | Desenha decisões inteligentes com base no contexto empresarial, tarefa de processo e fatores individuais, profissionais e culturais. |
Analista de transparência | Classifica os diferentes tipos de opacidade (e os efeitos correspondentes no negócio) dos algoritmos AI utilizados e mantém um inventário dessa informação. |
Estrategista de utilidade AI | Determina se deve implantar o AI (versus mecanismos de regras tradicionais e scripts) para aplicativos específicos. |
Sustentadores | |
Avaliador ético de automação | Avalia o impacto não-econômico das máquinas inteligentes, tanto para cima como para baixo. |
Economista de automação | Avalia o custo do mau desempenho da máquina. |
Gerente de relações de máquinas | “Promove” algoritmos que funcionam bem em maior escala nos algoritmos comerciais e “rebaixados” com desempenho fraco. |
Os treinadores de empatia, por exemplo, podem não precisar de um diploma universitário. Indivíduos com educação secundária e que são intrinsecamente empáticos (uma característica mensurável) podem ser ensinados as habilidades necessárias em um programa de treinamento interno.
De fato, o efeito de muitas dessas novas posições pode ser o surgimento de uma força de trabalho “sem colar” que substitui lentamente os tradicionais empregos de colarinho azul na fabricação e outras profissões. Mas onde e como esses trabalhadores serão treinados continuarão questões abertas. Em nossa opinião, as respostas precisam começar com as próprias operações de aprendizagem e desenvolvimento de uma organização.
Por outro lado, uma série de novos empregos – gerente de conformidade ética, por exemplo – provavelmente exigirá graus avançados e conjuntos de habilidades altamente especializadas. Assim, assim como as organizações devem abordar a necessidade de treinar uma parte da força de trabalho para os papéis emergentes de não colar, eles devem reimaginar seus processos de recursos humanos para atrair, treinar e reter profissionais altamente educados, cujos talentos serão muito demandados. Tal como acontece com tantas transformações tecnológicas, os desafios são muitas vezes mais humanos do que técnicos.
SOBRE OS AUTORES
H. James Wilson é diretor-gerente de pesquisa em TI e negócios da Accenture Research. Paul R. Daugherty é o principal diretor de tecnologia e inovação da Accenture. Nicola Morini-Bianzino é lider global da inteligência artificial na Accenture.
Em resumo