Todos sabem que, diante da evolução da IA, com sistemas cada vez mais sofisticados, muitos trabalhos vão ser substituídos. No entanto, James Wilson, Paul R. Daugherty e Nicola Morini-Bianzino, pesquisadores do MIT, detectaram três novos tipos de trabalho inteiramente humanos relacionados à IA, que eles nomearam de “treinadores”, “explicadores” e “sustentadores”.
Segundo eles, “os humanos nessas funções vão complementar as tarefas executadas pela tecnologia cognitiva, garantindo que o trabalho das máquinas seja eficaz e responsável, ou seja, justo, transparente e auditável”.
Confira as três novas categorias abaixo:
TREINADORES Nesta categoria, profissionais humanos vão ensinar aos sistemas de IA como formular perguntas às pessoas com simpatia e profundidade. Humanos já vêm treinando, há algum tempo, algoritmos para responder melhor às pessoas que, por exemplo, ficam frustradas com a perda de sua bagagem, com a falha de um produto que compraram ou porque o serviço de TV a cabo continua falhando mesmo depois das tentativas de consertá-lo. O objetivo é que o sistema seja capaz de falar às pessoas por meio de um problema ou situação difícil, usando a quantidade apropriada de compreensão, compaixão e talvez até humor.
EXPLICADORES Explicadores vão explicar o funcionamento interno de algoritmos complexos a profissionais não técnicos, diminuindo o gap, por exemplo, entre técnicos digitais e líderes organizacionais. Eles vão proporcionar maior clareza sobre os sistemas de IA, que tendem a ser cada vez mais nebulosos. Muitos executivos não se sentem à vontade com a característica de “caixa preta” de algoritmos sofisticados das máquinas que aprendem (machine learning), especialmente quando esses sistemas recomendam ações contrárias ao senso comum. Até os governos já estão considerando regulamentações nessa área, permitindo aos consumidores questionar e combater qualquer decisão tomada que os afete com base puramente em algoritmos. Certos tipos de algoritmos são relativamente simples de explicar. Outros, como os bots de machine learning, são mais complicados. Por isso, a importância de desenvolver habilidades e treinamento adequado para preparar explicadores que esclareçam resultados e decisões dos sistemas, corrigindo eventuais erros, com consequências negativas.
SUSTENTADORES Sustentadores vão ajudar a garantir que os sistemas de IA estejam operando conforme planejado e que as consequências não intencionais sejam tratadas com a devida urgência. Os pesquisadores do MIT – Massachussets Institute of Technology - descobriram que menos de um terço das empresas confiam plenamente na imparcialidade e auditabilidade de seus sistemas de IA, e menos da metade tem confiança semelhante na segurança desses sistemas. Profissionais nesta função vão atuar como “cães de guarda” e ombudsman para defender normas, valores e moral humanos — e intervir se, por exemplo, um sistema de IA discriminar pessoas pela profissão, origem ou outras razões específicas.
Essas novas funções vão exigir bastante das áreas e organizações de Treinamento e Desenvolvimento. Como ressaltam os pesquisadores do MIT, “assim como acontece com tantas outras transformações tecnológicas, os desafios, em geral, são mais humanos que técnicos”.