A literacia em saúde é condição para que haja uma boa literacia digital em saúde e que permita às pessoas não estarem em risco permanente, nem atentarem contra as suas vidas por decisões erradas. Na ponta dos dedos, e a um clique de distância, está o poder de dar poder: a Inteligência Artificial (IA). Agora com rei, pelo menos com regulamentação.
Foi aprovada a primeira lei de IA na União Europeia, que a considera o primeiro quadro jurídico abrangente sobre IA em todo o mundo. Esta norma aborda os riscos da IA com reflexos na segurança e direitos fundamentais das pessoas e das empresas neste domínio. Antes de permitir e de abrir caminhos, a União Europeia identifica a parte (não exaustiva) dos sistemas de IA que são considerados de alto risco. Então, o que é considerado alto risco para o ser humano, para a sua segurança e própria vida e direitos?
Apresentam-se riscos em vários domínios:
- nas infraestruturas críticas (por exemplo, transportes), que podem colocar em risco a vida e a saúde dos cidadãos;
- na formação escolar ou profissional, que podem determinar o acesso à educação e ao percurso profissional da vida de alguém (ex. pontuação em exames);
- em componentes de segurança dos produtos (por exemplo, aplicação de IA em cirurgia assistida por robôs);
- no emprego, gestão de trabalhadores e acesso ao trabalho independente (por exemplo, o software de classificação de currículos para procedimentos de recrutamento);
- nos serviços públicos e privados essenciais (por exemplo, quanto à pontuação de crédito que nega aos cidadãos a oportunidade de obter um empréstimo);
- na aplicação da lei que possa interferir com os direitos fundamentais das pessoas (por exemplo, avaliação da fiabilidade das provas);
- na gestão da migração, do asilo e do controlo das fronteiras (por exemplo, numa análise automatizada dos pedidos de visto);
- na administração da justiça e processos democráticos (por exemplo, soluções de IA para procurar decisões judiciais).
Os sistemas de IA de alto risco estarão sujeitos a obrigações rigorosas antes de poderem ser colocados no mercado. Diz a norma que devem ser sujeitos:
- a) a sistemas adequados de avaliação e mitigação de riscos;
- b) a uma alta qualidade dos dados que alimentam o sistema para minimizar riscos e resultados discriminatórios;
- c) ao registo de atividades para garantir a rastreabilidade dos resultados;
- d) a uma documentação detalhada que forneça todas as informações necessárias sobre o sistema e a sua finalidade para que as autoridades avaliem a sua conformidade;
- e) a informações claras e adequadas da entidade que implementa o processo;
- f) a medidas apropriadas de supervisão humana para minimizar o risco;
- g) a um alto nível de robustez, segurança e precisão.
Passar de um processo de regulamentação exige, de facto, a supervisão. Nas empresas, nas organizações de saúde do social, com as pessoas vulneráveis (migrantes, refugiados) e nas consultas dos profissionais das áreas da saúde e social, existe esta preocupação permanente de vigilância com cumprimento dos limites que a regulamentação nos apresenta. Como refere a lei, deve haver uma espécie de “risco e contra risco”, que visa provavelmente reparar os sucessivos erros drásticos que podem começar a surgir.
Neste momento, e ainda por uma questão de falta de supervisão, ainda não estão sistematizados e não são contabilizados como eventos adversos. Falta ainda, pelo menos aparentemente, a necessidade premente de formação das equipas, de cima para baixo, com feedback de baixo para cima. Mas os gestores e decisores já estão preparados para esta implementação sistemática, diária e, muitas vezes, ao segundo? Onde estão estes formadores especialistas de IA para assegurarem estas questões? Deixamos passar e ficar debaixo da mesa até que o equipamento mate o dono ou o utilizador do serviço ou produto? O rei vai meio nu?
A autora escreve segundo o novo acordo ortográfico