Intitulada “Como efetivamente a IA estar sendo aplicada nos processos de negócios e qual a sua efetividade? Exemplos e cases práticos”, a palestra, baseada em produtos e serviços oferecidos pela Gartner, apresentou um passo a passo para transformar o potencial da IA em resultados concretos.
O primeiro ponto enfatizado por Rebello foi o cuidado com os dados. Ele alertou que, antes de qualquer implementação, é preciso garantir a proteção e qualidade das informações que alimentarão os sistemas inteligentes. Para ilustrar a vulnerabilidade atual, citou o site Tudo de Todos, que expõe dados pessoais, como CPF, informações de navegação e até dados de saúde. “Nas empresas, o cuidado precisa ser redobrado. Antes de olhar para a IA, cuide dos seus dados para que ela possa lidar bem com eles”, reforçou.
Rebello defendeu que é essencial começar definindo claramente o resultado desejado de negócios e alinhando as iniciativas de IA à real capacidade da organização. “Escolha quatro objetivos de negócio e, para cada um, identifique duas capacidades que precisa desenvolver. A partir daí, construa um roadmap estratégico com métricas claras”, orientou. Ele também sugeriu o uso do Prisma, ferramenta que cruza valor de negócio e viabilidade técnica para priorizar casos de uso.
O palestrante destacou ainda a importância de redesenhar processos, criar políticas flexíveis para a IA generativa e fomentar uma cultura de aprendizado contínuo.
Sobre a escolha das ferramentas certas, Rebello apontou que o futuro será dominado por soluções autônomas, como automação robótica de processos, assistentes e agentes de IA. Esses últimos têm capacidade de memória, aprendizagem e adaptação.
No setor de transporte, ele observou que a IA generativa está em uma fase mais madura e já superou o “vale da desilusão”, termo da Gartner para o momento em que se percebe que a tecnologia não entrega imediatamente tudo o que foi prometido. Entre as inovações, destacou o Vibe Coding, abordagem que permite criar software a partir de comandos em linguagem natural, acelerando o desenvolvimento mesmo para quem não tem grande experiência em programação.
Rebello apresentou ainda um plano de ação em três etapas para empresas de transporte. A primeira, que já pode ser executada, consiste em formar uma equipe para avaliar as implicações da IA generativa e criar uma política de uso. A segunda, a ser realizada nos próximos 90 dias, prevê a seleção de casos-piloto de automação e a preparação de um ambiente para a adoção de estratégias de IA. Por fim, em até 12 meses, é preciso escalar as soluções que apresentarem bons resultados.
A inteligência artificial pode impulsionar eficiência, inovação e automação no transporte, mas seu impacto real depende, antes de tudo, da conduta e da integridade humana. Esse foi o alerta da vice-presidente do IBDEE (Instituto Brasileiro de Direito e Ética Empresarial) e ex-diretora de Compliance da Odebrecht, Olga Pontes, na palestra “Aspectos éticos e regulatórios da IA no transporte”, também realizada durante o SEST SENAT Summit.
Para a palestrante, quando se fala de IA, é inevitável associar o tema a avanços tecnológicos. Porém, ao incluir a ética na discussão, surgem outras palavras-chave: justiça, responsabilidade, respeito, segurança, cuidado e confiança. “A era é digital, mas as decisões são humanas, e não digitais. A inteligência pode ser artificial, mas os desvios e as falhas são reais”, afirmou.
Olga destacou que, embora a tecnologia possa conduzir um veículo autônomo, ela não tem sensibilidade para lidar com um acidente ou empatia diante de um problema. “A tecnologia aprende com a gente, replicando acertos e erros. Ela pode ser uma grande ferramenta de justiça, mas também pode amplificar negligências”, alertou.
A especialista dividiu os riscos da IA no transporte em dois grupos: os visíveis – como acidentes, interrupção de serviços, erros de rota, ciberataques e falsos alerta – e os invisíveis, que, segundo ela, são ainda mais perigosos. Entre esses riscos menos perceptíveis, citou os vieses de algoritmos, a dependência cega da automação, a erosão das habilidades humanas, as decisões de “caixa preta” e a normalização de desvios éticos.
A ética, observou Olga, é um alerta permanente, enquanto a legislação costuma agir de forma reativa, atuando como um freio. “Nem tudo o que está na lei é ético, e nem tudo o que é ético está na lei”, disse, defendendo que integridade é o elo entre intenção e ação.
Para reforçar o argumento, apresentou exemplos emblemáticos de tragédias causadas por decisões humanas que ignoraram riscos: o desastre do ônibus espacial Challenger, os acidentes da Boeing com o 737 Max, o caso do submarino OceanGate e a decisão da Ford de não corrigir um defeito no modelo Pinto, que poderia evitar mortes. “Não existe neutralidade quando há risco. Quem ignora contribui. Quem se cala se posiciona. Quem vê, e nada faz, participa por omissão”, afirmou.
Segundo Olga, a integridade é o que impede que metas de produtividade se sobreponham à segurança. “A integridade segura firme quando o medo diz ‘fica quieto’ e nos faz levantar a mão para dizer: aqui tem um risco, portanto não podemos seguir assim.”
Encerrando a palestra, a executiva destacou que a melhor diversidade para garantir decisões corretas no uso da tecnologia é a diversidade de pensamento. “O algoritmo pode indicar caminhos, mas a direção sempre será humana. São as pessoas que provocam as grandes transformações”, concluiu.