COMPREENSÃO

O caminho para a IA explicável no ERP 3e392z

Mesmo que a inteligência seja artificial, a compreensão e os critérios humanos devem ser orgânicos. 2m5712

20 de janeiro de 2021 - 08:58
Riccardo Bocci, diretor de gerenciamento de produtos da IFS. Foto: divulgação.

Riccardo Bocci, diretor de gerenciamento de produtos da IFS. Foto: divulgação.

Enquanto a IFS, fornecedora global de software de gestão empresarial, integra inteligência artificial (IA) em seus produtos de software corporativo, a companhia presta muita atenção em como garantir que as decisões tomadas pela IA sejam explicáveis.

A “explicabilidade” é importante para que as pessoas entendam o que a IA está fazendo e porquê, para que possam fazer seu próprio trabalho melhor. E é necessário explicar aos auditores, reguladores ou mesmo litigantes como as decisões ou determinações foram tomadas.

Mesmo que a inteligência seja artificial, a compreensão e os critérios humanos devem ser orgânicos.

As empresas de software de gestão empresarial têm algumas ferramentas à disposição para tornar a IA explicável onipresente no sistema, reduzindo o tempo de obtenção de valor e aumentando a capacidade de explicar.

O mais comum deles será considerado antigo por aqueles que estão na vanguarda, mas sim, o tema é a lógica de negócios orientada para os eventos no ERP.

 

Aproveitando a lógica de negócios para Automação Inteligente de Processos

O ERP e outros sistemas podem conduzir a automação inteligente de processos (IPA), usando a lógica de negócios subjacente do software. O software empresarial engloba processos e procedimentos bem claros.

Coletando e analisando os processos e os resultados que eles produzem, os modelos de machine learning (ML) podem - com histórico de transações suficiente - melhorar esses processos automatizados.

Mas o objetivo da IA e do ML não é substituir o uso de regras de negócios? Nós realmente precisamos de ambos. Precisamos de regras de negócios que definem como as decisões são tomadas, mas também precisamos que essas regras mudem com base no desdobramento das informações.

E é aí que o ML entra em cena. Um modelo de ML pode avaliar os resultados das decisões baseadas em regras e revisar as regras de forma explicável. Em última análise, o ML pode não apenas ser capaz de aumentar as regras existentes, mas também sugerir novas.

A vantagem da “capacidade de explicar” desta abordagem pode ser ainda melhor compreendida ao olhar para os dois níveis de interpretação que ela tem: “explicabilidade” local e global.

 

“Explicabilidade” Local

A explicabilidade local é uma trilha de auditoria simples e visual para determinar como uma decisão foi tomada e deve sempre ser oferecida quando viável.

Por que o modelo sugeriu que dobrássemos nosso estoque destas unidades, peças de reposição ou matéria-prima específicas? Por que estamos reduzindo a periodicidade de manutenção em uma determinada classe de ativos no campo de petróleo?

Aqui, gostamos de métodos visualmente intuitivos para explicabilidade local - em alguns casos, modelos explicáveis inerentes, como árvores de decisão, podem ser usados para resolver um problema e essa escolha por si só facilita a explicabilidade.

 

Explicabilidade Global

Às vezes, é necessária uma visão mais ampla de como o modelo realmente funciona, dentre outras coisas, para garantir que o modelo não está interpretando os dados de forma tendenciosa.

Por exemplo, houve casos de modelos tendenciosos que penalizaram certas etnias ou grupos sociais ao recomendar a concessão ou não de empréstimos.

Em outras palavras, a explicabilidade global tenta entender em um nível mais alto o raciocínio de um modelo, ao invés de focar nas etapas que levaram a uma decisão específica.

Uma abordagem de explicabilidade global também pode ajudar os técnicos de ML a ajustarem o processo de tomada de decisão do modelo para melhor desempenho e qualidade.

Ao explicar como a IA toma decisões, existem dois métodos que podemos usar com frequência em um software corporativo, e cada um tem seu lugar, dependendo do caso de uso.

Um desses métodos, a estrutura de explicação Shapley Additive (SHAP), é baseado no trabalho da teoria dos jogos de Lloyd Shapley e permite fazer a “engenharia reversa” da saída de um algoritmo preditivo e entender quais variáveis mais contribuíram para isso.

Da mesma forma, para SHAP, as Local Interpretable Model-Agnostic Explanations (LIME) podem ajudar a determinar a importância e a contribuição do recurso, mas na verdade consideram menos variáveis do que SHAP e podem, portanto, ser menos precisas.

Mas o que falta em consistência é compensado em velocidade.

Em nosso trabalho na IFS, dependendo do caso, podemos usar SHAP ou LIME para fornecer explicações para nossos processos de IA aos usuários finais.

Se o modelo for bastante simples e o caso de uso não muito sensível, LIME pode ser suficiente, mas um modelo complexo em uma indústria altamente regulamentada ou de missão crítica pode exigir mais esforço e recursos para conceder o nível apropriado de percepção.

 

Por Que Perguntar Por Quê?

Como humanos, queremos entender as decisões antes de aceitá-las, pelo menos até certo ponto.

Para criar o conforto necessário para facilitar a adoção de uma tecnologia como a IA, que promete nos ajudar com decisões inteligentes, podemos começar estendendo a lógica de negócios subjacente e familiar dos produtos de software corporativo existentes como um mecanismo IPA nativo.

Se você já licencia a lógica de negócios, deixe a IA ajudá-lo a levar essa lógica para o próximo nível.

 

*Por Riccardo Bocci, diretor de gerenciamento de produtos da IFS.

Leia mais 59b1u

PESQUISA

IBM, Flex e FIT anunciam centro para 5G 6ew2c

Há 1638 dias
MÃO DE OBRA

IA: Brasil terá que requalificar 22% até 2030 4p6952

Há 1644 dias
COMPRAS

Tivit compra startup de segurança 56p49

Há 1650 dias
IA

Microsoft agora analisa sentimentos em português 4s44

AÇÕES

XP: inteligência artificial ajuda day traders 4pt3m

IA

TIM investe em inteligência artificial com CyberLabs s1jd

FUTURO

Inteligência Artificial para impulsionar a manufatura sustentável 4c2a66

INDÚSTRIA

Beira Rio tem inteligência artificial com Paipe 3q571v

FORMAÇÃO

Softbank tem curso de inteligência artificial 4c352z

SAÚDE

Grupo Fleury tem inteligência artificial com Laura l4k4y