.jpg?w=730)
Riccardo Bocci, diretor de gerenciamento de produtos da IFS. Foto: divulgação.
Enquanto a IFS, fornecedora global de software de gestão empresarial, integra inteligência artificial (IA) em seus produtos de software corporativo, a companhia presta muita atenção em como garantir que as decisões tomadas pela IA sejam explicáveis.
A “explicabilidade” é importante para que as pessoas entendam o que a IA está fazendo e porquê, para que possam fazer seu próprio trabalho melhor. E é necessário explicar aos auditores, reguladores ou mesmo litigantes como as decisões ou determinações foram tomadas.
Mesmo que a inteligência seja artificial, a compreensão e os critérios humanos devem ser orgânicos.
As empresas de software de gestão empresarial têm algumas ferramentas à disposição para tornar a IA explicável onipresente no sistema, reduzindo o tempo de obtenção de valor e aumentando a capacidade de explicar.
O mais comum deles será considerado antigo por aqueles que estão na vanguarda, mas sim, o tema é a lógica de negócios orientada para os eventos no ERP.
Aproveitando a lógica de negócios para Automação Inteligente de Processos
O ERP e outros sistemas podem conduzir a automação inteligente de processos (IPA), usando a lógica de negócios subjacente do software. O software empresarial engloba processos e procedimentos bem claros.
Coletando e analisando os processos e os resultados que eles produzem, os modelos de machine learning (ML) podem - com histórico de transações suficiente - melhorar esses processos automatizados.
Mas o objetivo da IA e do ML não é substituir o uso de regras de negócios? Nós realmente precisamos de ambos. Precisamos de regras de negócios que definem como as decisões são tomadas, mas também precisamos que essas regras mudem com base no desdobramento das informações.
E é aí que o ML entra em cena. Um modelo de ML pode avaliar os resultados das decisões baseadas em regras e revisar as regras de forma explicável. Em última análise, o ML pode não apenas ser capaz de aumentar as regras existentes, mas também sugerir novas.
A vantagem da “capacidade de explicar” desta abordagem pode ser ainda melhor compreendida ao olhar para os dois níveis de interpretação que ela tem: “explicabilidade” local e global.
“Explicabilidade” Local
A explicabilidade local é uma trilha de auditoria simples e visual para determinar como uma decisão foi tomada e deve sempre ser oferecida quando viável.
Por que o modelo sugeriu que dobrássemos nosso estoque destas unidades, peças de reposição ou matéria-prima específicas? Por que estamos reduzindo a periodicidade de manutenção em uma determinada classe de ativos no campo de petróleo?
Aqui, gostamos de métodos visualmente intuitivos para explicabilidade local - em alguns casos, modelos explicáveis inerentes, como árvores de decisão, podem ser usados para resolver um problema e essa escolha por si só facilita a explicabilidade.
Explicabilidade Global
Às vezes, é necessária uma visão mais ampla de como o modelo realmente funciona, dentre outras coisas, para garantir que o modelo não está interpretando os dados de forma tendenciosa.
Por exemplo, houve casos de modelos tendenciosos que penalizaram certas etnias ou grupos sociais ao recomendar a concessão ou não de empréstimos.
Em outras palavras, a explicabilidade global tenta entender em um nível mais alto o raciocínio de um modelo, ao invés de focar nas etapas que levaram a uma decisão específica.
Uma abordagem de explicabilidade global também pode ajudar os técnicos de ML a ajustarem o processo de tomada de decisão do modelo para melhor desempenho e qualidade.
Ao explicar como a IA toma decisões, existem dois métodos que podemos usar com frequência em um software corporativo, e cada um tem seu lugar, dependendo do caso de uso.
Um desses métodos, a estrutura de explicação Shapley Additive (SHAP), é baseado no trabalho da teoria dos jogos de Lloyd Shapley e permite fazer a “engenharia reversa” da saída de um algoritmo preditivo e entender quais variáveis mais contribuíram para isso.
Da mesma forma, para SHAP, as Local Interpretable Model-Agnostic Explanations (LIME) podem ajudar a determinar a importância e a contribuição do recurso, mas na verdade consideram menos variáveis do que SHAP e podem, portanto, ser menos precisas.
Mas o que falta em consistência é compensado em velocidade.
Em nosso trabalho na IFS, dependendo do caso, podemos usar SHAP ou LIME para fornecer explicações para nossos processos de IA aos usuários finais.
Se o modelo for bastante simples e o caso de uso não muito sensível, LIME pode ser suficiente, mas um modelo complexo em uma indústria altamente regulamentada ou de missão crítica pode exigir mais esforço e recursos para conceder o nível apropriado de percepção.
Por Que Perguntar Por Quê?
Como humanos, queremos entender as decisões antes de aceitá-las, pelo menos até certo ponto.
Para criar o conforto necessário para facilitar a adoção de uma tecnologia como a IA, que promete nos ajudar com decisões inteligentes, podemos começar estendendo a lógica de negócios subjacente e familiar dos produtos de software corporativo existentes como um mecanismo IPA nativo.
Se você já licencia a lógica de negócios, deixe a IA ajudá-lo a levar essa lógica para o próximo nível.
*Por Riccardo Bocci, diretor de gerenciamento de produtos da IFS.