Este post resulta da reflexão que me provocou a leitura de cinco artigos da McKinsey que exploram a inteligência artificial (IA), a liderança e as suas intersecções num mundo em rápida mudança.
Construir Confiança na IA Através da Explicabilidade
O artigo “Building AI trust: The key role of explainability” defende que a confiança é crucial para a adoção da IA. A falta de transparência nos sistemas de IA, ou seja, a falta de perceção clara sobre como funcionam os algoritmos ou como os mesmos são alimentados, gera preocupações sobre a possível geração de resultados imprecisos e enviesados, minando a confiança.
Este fenómeno já tinha sido por mim analisado no meu último post “AI and Leadership (powered by HBS)”, e é uma das explicações para o fenómeno chamado de “aversão aos algoritmos”.
A explicabilidade da IA (XAI) surge assim como um imperativo para a criação de confiança dos humanos, tornando os processos de tomada de decisão da IA compreensíveis para os utilizadores. A confiança na IA vem da compreensão dos resultados do software alimentado por IA e de como – pelo menos em alto nível – eles são criados.
O artigo propõe uma abordagem centrada no ser humano para a explicabilidade da IA, adaptando as explicações às necessidades de diferentes stakeholders, como executivos, líderes de governança de IA, utilizadores afetados, utilizadores empresariais, reguladores/auditores e programadores.
São apresentadas diversas técnicas de XAI, como métodos post-hoc (análise de modelos após o treino) e ante-hoc(modelos intrinsecamente explicáveis, como árvores de decisão), e explicações globais (compreensão da tomada de decisão em todos os casos) e locais (foco em decisões específicas).
Mais do que um tema regulatório (que pode e deve ser previsto na regulação da IA), a XAI vai ser um tema predominantemente de mercado. Os humanos vão querer ter provas de confiabilidade na IA, por muito conveniente que ela seja.
A Ascensão da IA e o Papel da Liderança na Era da Cognição
No artigo “Direct from Michael Dell: Leadership lessons and the future of AI”, Michael Dell, CEO da Dell Technologies, partilha a sua visão sobre a transformação impulsionada pela IA. Dell argumenta que a IA está a impulsionar uma mudança de computação para cognição, desbloqueando o poder dos dados.
“Há cerca de 60 anos, começámos esta jornada de computadores de cálculo, e basicamente é isso que temos feito desde então. Agora, com os avanços em IA e IA generativa, estamos a caminhar para a cognição e inteligência, e a desbloquear o poder dos dados com toda esta inovação.”
Dell destaca a importância de gerir dados de forma eficaz, considerando que a maioria dos dados são criados e utilizados no mundo físico.
Dell compara essa transição a um ponto na curva da destruição criativa de Schumpeter, mas com uma aceleração exponencial. A capacidade de raciocinar usando todo o conhecimento mundial sobre qualquer assunto, sintetizando-o em resultados e novas compreensões, impulsionará a descoberta científica, a produtividade e o bem-estar humano.
Dell vislumbra um futuro onde a IA tornará os humanos mais felizes, saudáveis e bem-sucedidos, aprimorando tudo o que nos propomos a realizar.
A sua convicção baseia-se na crescente importância dos dados em todos os aspetos da vida moderna. Seja no desenvolvimento de veículos autónomos, na descoberta de medicamentos ou na criação de novos modelos de negócios, tudo o que é interessante e inovador no mundo gira em torno de dados. Para Dell, os problemas mais complexos da humanidade exigem maior poder computacional e mais dados, e é nesse contexto que a IA desempenha um papel crucial.
Apesar de parecer uma perspetiva francamente otimista, não deixo de me rever nela, uma vez que a adoção da IA no nosso contexto de trabalho nos tem permitido criar cada vez mais, com resultados exponencialmente mais ricos e levando áquilo a que no meu caso chamo de “trabalho exponencialmente recompensador”.
Isso, todavia, não invalida que tenhamos de ter cuidados na adoção da IA…
Implementar a IA Generativa com Velocidade e Segurança
O artigo “Implementing generative AI with speed and safety” explora os riscos e oportunidades da IA generativa (gen AI). A McKinsey estima que a gen AI pode adicionar até 4,4 triliões de dólares à economia global. No entanto, a implementação da gen AI exige uma abordagem responsável para mitigar riscos como resultados imprecisos, enviesamentos nos dados de treino, desinformação e potencial para uso malicioso.
“Embora muitos líderes empresariais estejam determinados a capturar este valor, há um reconhecimento crescente de que as oportunidades da gen AI são acompanhadas por riscos significativos.” Como um professor meu disse sabiamente há mais de duas décadas, “o problema não está nas ferramentas, mas sim no uso que fazemos delas”.
O artigo descreve vários riscos:
- Precisão e Confiabilidade: A IA generativa pode produzir resultados imprecisos ou “alucinados”, especialmente quando treinada com dados incompletos ou tendenciosos. É essencial implementar mecanismos de validação para garantir a fiabilidade dos resultados. Este é um risco que tenho vivido “na pela” num mega-projeto em que estou a trabalhar, e em que a IA nos ajuda a traçar roteiros pedagógicos para soluções de e-learning. Treinar um algoritmo é algo que requer cuidado e paciência, mas acima de tudo um trabalho de equipa entre especialistas temáticos e especialistas pedagógicos, neste caso. O escrutínio crítico dos outputs da IA é um trabalho que requer a intervenção humana.
- Viés e Discriminação: Os modelos de IA generativa podem perpetuar e amplificar os vieses presentes nos dados de treino. Isto pode levar a resultados discriminatórios e prejudicar a justiça e a equidade. Mais um imperativo moral que tem de ser salvaguardado e auditado pelos humanos.
- Privacidade e Segurança de Dados: A IA generativa pode colocar em risco a privacidade e a segurança dos dados, especialmente quando lida com informações sensíveis. Os modelos podem ser vulneráveis a ataques ou manipulação, levando à divulgação não autorizada de dados.
- Propriedade Intelectual: A utilização de dados protegidos por direitos de autor no treino de modelos de IA generativa levanta preocupações sobre a violação de propriedade intelectual. A saída gerada pode infringir inadvertidamente os direitos de propriedade intelectual existentes.
- Segurança Cibernética: Os sistemas de IA generativa podem ser vulneráveis a ataques cibernéticos que visam manipular os resultados ou roubar dados. A proteção robusta da cibersegurança é essencial para mitigar esses riscos.
- Risco de Terceiros: A dependência de ferramentas de IA de terceiros pode introduzir riscos relacionados à segurança, privacidade e conformidade dos dados. É fundamental avaliar cuidadosamente os fornecedores de IA e implementar mecanismos de controlo adequados.
- Uso Malicioso: Atores maliciosos podem explorar a IA generativa para criar deepfakes, disseminar desinformação ou conduzir outras atividades prejudiciais. É crucial implementar salvaguardas para prevenir e detetar o uso malicioso. Tive a oportunidade de tomar contacto com os possíveis impactos deste uso malicioso num debate que tive recentemente com o José Rodrigues dos Santos na 55th International People Conference da APG, a propósito do seu mais recente romance “O Protocolo Caos”.
- Questões Éticas e Sociais: A IA generativa levanta questões éticas e sociais mais amplas, incluindo o potencial de deslocação de empregos, o impacto na criatividade humana e a necessidade de diretrizes éticas claras.
A gestão eficaz destes riscos requer uma abordagem holística que inclua a implementação de mecanismos de controlo técnico, a definição de políticas de governação claras, a promoção de uma cultura de IA responsável e o envolvimento de equipas multidisciplinares.
Além disso, é fundamental estar a par da evolução da regulamentação da IA e adaptar as práticas em conformidade. Só através de uma abordagem proativa e abrangente, as empresas podem aproveitar o potencial da IA generativa, minimizando os riscos e garantindo uma implementação ética e responsável.
O Papel das “Guardrails” na Mitigação de Riscos da IA
O artigo “What are AI guardrails?” introduz o conceito de “guardrails” como mecanismos de segurança para garantir que as ferramentas de IA operem dentro dos padrões, políticas e valores da organização.
As guardrails da IA ajudam a garantir que as ferramentas de IA de uma organização, e a sua aplicação no negócio, reflitam os padrões, políticas e valores da organização. O artigo descreve as guardrails como mecanismos que garantem a conformidade da IAg com as políticas, valores e normas organizacionais, prevenindo riscos como informações imprecisas (“alucinações”), conteúdo tóxico e violações de privacidade e regulamentações.
O artigo apresenta uma taxonomia de guardrails, cada uma abordando um risco específico:
- Guardrails de Adequação: Filtram conteúdo tóxico, prejudicial, enviesado ou baseado em estereótipos.
- Guardrails de Alucinação: Garantem que o conteúdo gerado pela IA não contenha informações factualmente erradas ou enganosas.
- Guardrails de Conformidade Regulamentar: Validam se o conteúdo gerado cumpre os requisitos regulamentares.
- Guardrails de Alinhamento: Asseguram que o conteúdo gerado se alinha com as expectativas do utilizador e não se desvia do seu propósito principal.
- Guardrails de Validação: Verificam se o conteúdo gerado cumpre critérios específicos, podendo direcionar o conteúdo para um ciclo de correção.
Neste caso, o que temos é a própria IA a ajudar a criar mecanismos de regulação do uso da IA. Mais uma vez realço que o que importa aqui é que a intervenção humana nunca seja dispensada, seja no papel de criação das regras de regulação, seja na auditoria da aplicação dos guardrails.
A IA e a Liderança Ágil: Aprendendo a Deixar Ir
O artigo “Will artificial intelligence make you a better leader?” explora a relação entre a liderança ágil e a IA. Ambos exigem a capacidade de “deixar ir” e confiar em processos desconhecidos. A IA, por natureza, exige um salto de fé, assim como abraçar a ignorância e reformular radicalmente os problemas.
Agilidade interior e IA podem parecer companheiros estranhos, mas quando se consideram factos cruciais sobre esta última, pode-se ver o seu potencial para ajudar a liderar com clareza, especificidade e criatividade.
O artigo relata um caso real de um CEO que, enfrentando conflitos internos na equipa e dificuldades na eficiência de produção, recorreu à IA para obter insights inesperados. A IA, ao analisar grandes quantidades de dados, revelou padrões ocultos de comunicação deficiente entre departamentos, levando a melhorias significativas no tempo de lançamento de produtos e nos custos.
Mais uma vez aqui o que temos é a IA como um acelerador do processo de reflexão dos líderes, através de insights que anteriormente seriam muito demorados de obter ou mesmo “invisíveis”, devido à complexidade ou ao grande volume de dados.
Mas o espírito crítico e a criatividade são competências dos humanos que lideram que se tornam muito mais necessárias neste novo paradigma de trabalho e de liderança. A IA em vez de ser um gerador de “preguiça mental” pode e deve ser usada como um “provocador intelectual” que nos deverá levar a liderar de forma mais esclarecida, criativa e acutilante.
Em conclusão, a crescente importância da IA no mundo empresarial e o seu impacto na liderança são absolutamente incontornáveis e devem ser objeto de profunda e alargada reflexão, seja para cada um de nós, seja na esfera pública.
A confiança, a explicabilidade, a gestão de dados, a mitigação de riscos e a liderança ágil são elementos cruciais para uma implementação responsável e bem-sucedida da IA. À medida que a IA evolui, os líderes devem adaptar os seus estilos de liderança para abraçar a incerteza, promover a colaboração e aproveitar o poder da IA para impulsionar a inovação e o crescimento.
Que admirável mundo novo nos espera! Vamos a isso?
O autor
Ricardo Fortes da Costa
Especialista em liderança e capital humano, com experiência executiva e multinacional. Empreendedor, professor, investigador, speaker, consultor, coach, blogger e escritor, define a sua carreira como uma busca constante de novos desafios.
Empresário e Partner da The Key Talent, é ainda Professor convidado do ISEG – Lisbon School of Economics and Management, nas áreas de leadership e human resources.
Se gostou deste artigo e quer ter acesso a mais conteúdos semelhantes, siga o blog Mentes Brilhantes cuja curadoria é efetuada pelo autor.