Aprendizado de máquina na área da saúde: regulando a transparência

0
44

18 de junho de 2020 por Rosalind English

Feche acima das mulheres asiáticas com olá! A tela da tecnologia digital da tecnologia sobre o olho.

PHG, vinculado à Universidade de Cambridge, fornece consultoria e avaliações independentes de inovações biomédicas e digitais na área da saúde. A PHG publicou recentemente uma série de relatórios explorando a interpretabilidade do aprendizado de máquina nesse contexto. O que eu vou focar neste post é o relatório considerando os requisitos do RGPD para aprendizado de máquina na área da saúde e pesquisa médica por meio de transparência, interpretabilidade ou explicação. Links para outros relatórios são fornecidos no final deste post.

Apenas um breve resumo do aprendizado de máquina na área da saúde (para detalhes, consulte o relatório da PHG Cenário de Machine Learning)

Aprendizado de máquina normalmente denota “métodos que possuem apenas inteligência específica de tarefa e não possuem os amplos poderes de cognição que se temia quando a IA é mencionada”. Inteligência artificial (AI) pode ser definido como “a ciência e a engenharia de fazer computadores se comportarem de maneiras que, até recentemente, pensávamos que requeriam inteligência humana”. Estamos apenas começando a perceber o escopo da inteligência baseada em silicone, e não em carne, nas palavras reducionistas do neurocientista e autor Sam Harris. Também é importante entender a diferença entre os tipos de programação. Como este relatório coloca,

Aprendizado de máquina como um paradigma de programação difere da programação clássica, na medida em que os sistemas de aprendizado de máquina são treinados e não explicitamente programados. A programação clássica combina regras e dados para fornecer respostas. O aprendizado de máquina combina dados e respostas para fornecer as regras

O desafio colocado pelo aprendizado de máquina é, como a IA, o problema da “caixa preta”. Em outras palavras, a “máquina” prevê variáveis ​​de entrada para variáveis ​​de saída sem explicar o que acontece no meio.

Até o C-19 e o Lockdown, pouquíssimas pessoas já ouviram falar do NHSX, um órgão virtual que incorpora equipes do Departamento de Saúde e Assistência Social e do NHS, com a responsabilidade de estabelecer uma estrutura para a IA no sistema de saúde e cuidados no Reino Unido. Agora, é claro, com seu aplicativo de rastreamento de contatos centralizado, saiu das sombras e todos os olhos estão voltados para o sucesso ou não dessa tecnologia em particular. Veja nossa postagem anterior sobre as preocupações de privacidade relacionadas ao rastreamento de contatos aqui e observe que o NHS agora abandonou seu aplicativo de rastreamento sob medida para migrar para a Apple e a tecnologia descentralizada do Google.

Mas há muito tempo se estabeleceu que esse tipo de IA – e aprendizado de máquina – promete mudar inúmeras partes diversas pesquisa médica e sua prática, e o relatório estabelece uma tabela muito clara de aplicações nessa área, desde a plotagem da variação genética até a pesquisa de novos candidatos à terapia antimicrobiana e outros tipos de descoberta de medicamentos sob medida. Tem aplicações óbvias em saúde pública, o mais tópico é a previsão de novas doenças zoonóticas. Os departamentos de radiologia das escolas médicas dos EUA se esgotam dos alunos, pois a tarefa demorada de delinear manualmente imagens radiológicas é cada vez mais dedicada a máquinas mais rápidas e sem dúvida mais precisas.

É claro, lendo estas tabelas, que “a pesquisa médica geralmente se mistura com a assistência médica, a pesquisa que sustenta a prestação de cuidados, mas também com frequência constitui assistência, assistência médica e inclui também a intenção terapêutica”.

Mas, os autores concluem neste relatório,

Há um reconhecimento crescente de que determinar a supervisão ética e regulatória apropriada da IA ​​é um desafio universal que é melhor atendido por abordagens consistentes e harmonizadas.

O que nos leva à consideração detalhada do RGPD no Regulando a transparência relatório.

Os autores apontam desde o início que o GDPR não é a única fonte de lei que pode gerar um dever de transparência, interpretabilidade ou explicabilidade. Existem várias outras bases éticas, de direito comum e de direito da UE para isso, principalmente o padrão de atendimento “centrado no paciente” para comunicar riscos em Montgomery contra Lanarkshire Health Board [2015] UKSC 11 , que pode exigir que os modelos usados ​​em um contexto clínico sejam processados ​​pelo menos um pouco interpretável, para evitar reclamações por negligência profissional.

Os autores também nos lembram que a crença comum de que a Data Protection Act 2018 é a implementação do GDPR no Reino Unido é falsa:

O GDPR é um regulamento da UE e, portanto, é diretamente aplicável (parte da lei do Reino Unido) desde a sua publicação, embora só esteja em vigor desde 25 de maio de 2018. É contrário ao direito da UE transcrever os requisitos de um regulamento para o direito interno. Consequentemente, aqueles que procuram uma base doméstica para o RGPD não devem procurar mais do que o próprio RGPD.

Depois que o Reino Unido se retirar da UE em dezembro de 2020, o GDPR se tornará o ‘GDPR aplicado’ ou o ‘GDPR do Reino Unido’, sendo transferido sob a autoridade da Lei da União Europeia (Retirada) 2018.

O relatório fornece uma explicação abrangente do alcance territorial, aplicação e direitos concedidos pelo RGPD aos quais não irei falar aqui, mas apenas apontamos alguns exemplos importantes de quão importantes são suas disposições no contexto do aprendizado de máquina em cuidados médicos.

Os autores dão um exemplo em que um modelo de aprendizado de máquina pode exigir um conjunto de entradas para o modelo processar para uma instância específica. Por exemplo, um modelo para avaliar o risco cirúrgico pode exigir informações como idade, altura e IMC para fornecer o resultado do risco cirúrgico para qualquer paciente. Dessa forma, os dados como entrada para uma instância específica de processamento podem ser capturados como “dados pessoais” no GDPR, dando origem a obrigações para os controladores de dados e direitos para os indivíduos cujos dados estão sendo processados.

No contexto da assistência médica e da pesquisa, ‘dados biométricos’, ‘dados genéticos’ e ‘dados relativos à saúde’, todos contam como dados de categoria especial no GDPR e estão sujeitos a restrições e salvaguardas especiais.

Algum aprendizado de máquina para assistência médica e pesquisa usará dados pessoais para treinar o modelo ou, como parte da função do próprio modelo, processar dados pessoais. Em vários estágios, os propósitos do processamento podem mudar. Por exemplo, um pesquisador universitário pode ‘processar’ dados pessoais para desenvolver um modelo para fins de pesquisa. Posteriormente, quando o modelo de máquina treinado é implantado, ele pode usar os dados pessoais dos pacientes para fornecer previsões para fins de assistência médica. Os direitos à informação podem se aplicar ao processamento para esses dois propósitos, exigindo a divulgação de informações para os titulares dos dados.

Existe uma derrogação específica à disposição dos responsáveis ​​pelo tratamento de dados nos termos do artigo 9.o, n.o 2. No contexto da pesquisa em saúde, os controladores geralmente contam com essa derrogação para processar dados de categorias especiais para fins de pesquisa. Além do artigo 9 (2), o artigo 89 permite derrogações aos direitos listados quando os dados são processados ​​para fins de pesquisa sujeitos à ressalva de que o direito “de outra forma provavelmente tornaria impossível / prejudicaria gravemente os objetivos do processamento e que a derrogação é acompanhadas de salvaguardas apropriadas ”. A dependência da isenção de pesquisa do Artigo 89 só é possível quando o processamento não é susceptível de levar a “danos substanciais ou angústia para o titular dos dados”.

Os requisitos do GDPR devem ser considerados em conjunto com o direito consuetudinário de confidencialidade. Em outras palavras, se as informações forem divulgadas dentro dos limites de um relacionamento clínico-paciente, e aqueles que usam o aprendizado de máquina como parte dos cuidados com a saúde podem se recusar a divulgar informações sobre o processamento que possam revelar dados sensíveis sobre outros pacientes. Isto é reconhecido pela exceção do artigo 14.º, n.º 5, alínea d), sobre a confidencialidade e as obrigações profissionais de sigilo. Em resumo, no contexto da assistência médica e da pesquisa, são relevantes algumas restrições descritas acima aos direitos e princípios de proteção de dados do titular dos dados: quando o responsável pelo tratamento não estiver mais em condições de identificar o titular dos dados (artigos 11 e 12 (2)). ); flexibilidade para fins de pesquisa encontrada no artigo 89; e as restrições relativas à divulgação de segredos comerciais e propriedade intelectual no considerando 63 e no artigo 23 (1) (i).

O relatório passa então ao assunto da tomada de decisão automatizada, abrangida pelo Artigo 22 do RGPD, e o “direito à explicação”:

O titular dos dados deve ter o direito de não estar sujeito a uma decisão baseada apenas no processamento automatizado, incluindo criação de perfil, que produza efeitos jurídicos a seu respeito ou que o afete de forma semelhante. (No 1 do artigo 22.o)

O Artigo 22 foi projetado para atender às preocupações sobre o aprendizado de máquina e o perigo do uso indevido do processamento de dados na tomada de decisões, que pode se tornar “um grande problema no futuro:” o resultado produzido pela máquina, usando software cada vez mais sofisticado, e mesmo sistemas especialistas, tem um caráter aparentemente objetivo e incontestável ao qual um tomador de decisão humano pode atribuir muito peso, abdicando assim de suas próprias responsabilidades. ”

Existem exceções, no artigo 22, a esta proibição / direito geral, sendo esta proibida quando o processamento for
A. Necessário para a execução de um contrato
B. Autorizado pela legislação da UE ou do Estado-Membro; ou
C. É baseado no consentimento explícito do titular dos dados.

Os autores do relatório consideram que tipo de “decisão” seria coberta pelo artigo 22 no contexto da assistência médica. Eles fornecem, a título de exemplo, um sistema de aprendizado de máquina de histopatologia que interpreta biópsias, classifica a amostra como cancerosa ou benigna, estratifica aquelas classificadas como cancerosas de acordo com o prognóstico e alterna os pacientes para diferentes caminhos dos pacientes (incluindo nenhum tratamento), seguindo as duas primeiras tarefas .

Essa é uma “decisão”, ou várias, para os fins do Artigo 22? E é “baseado apenas no processamento automatizado, incluindo criação de perfil”? Não é uma pergunta fácil de responder. No momento, concluímos os autores, o aprendizado de máquina atua como uma “ferramenta de apoio à decisão, como um segundo leitor ou como uma ajuda interpretativa para um profissional de saúde”.

Consequentemente, na maioria das vezes, haverá um humano que, por padrão, tem autoridade e informações para fornecer uma supervisão significativa do sistema de aprendizado de máquina. Provavelmente, a mesma análise se aplica no contexto da pesquisa, com a qualificação de que sistemas para uso em investigação, ensaios clínicos ou pesquisa podem ser “mais ambiciosos” em sua automação do que os sistemas em uso para o sistema de saúde. De qualquer forma, a maioria dos usos de aprendizado de máquina para cuidados de saúde e pesquisa não se encaixa facilmente em “efeito legal” nos termos do artigo 22 (1). Por exemplo, sistemas direcionados ao diagnóstico ou tratamento, embora possam ter graves conseqüências para o titular dos dados, não têm efeito legal diretamente.

Os autores concluem nesta seção que apenas um subconjunto de aplicativos de aprendizado de máquina contará como “uma decisão baseada apenas no processamento automatizado”. Além disso, apenas um subconjunto desse subconjunto terá efeito legal ou afetará significativamente o assunto dos dados.

Apesar da dificuldade de interpretar o Artigo 22, os autores recomendam em suas conclusões que os controladores

considere a interpretabilidade ou explicabilidade de seu sistema de aprendizado de máquina ao longo do desenvolvimento e ciclo de vida de seu sistema. Especificamente, a transparência e os requisitos associados devem ser interpretados, sendo sensíveis aos interesses de seus titulares de dados, tendo em mente o preceito geral de fornecer ao titular de dados todas as informações adicionais necessárias para garantir um processamento justo e transparente, além de levar em consideração o circunstâncias específicas e contexto em que os dados pessoais são processados ​​».

Mais leitura:

O PHG Medicina e transparência da caixa preta O projeto financiado pelo Wellcome Trust explora os aspectos técnicos, éticos e legais da interpretabilidade humana do aprendizado de máquina para pesquisa médica e de saúde por meio de seis relatórios principais.

· Cenário de aprendizado de máquina (Onde o aprendizado de máquina é usado na pesquisa médica e na área da saúde e onde pode ser usado no futuro?)

· Aprendizado de máquina interpretável (O que é a interpretabilidade humana do aprendizado de máquina? Como os modelos de aprendizado de máquina podem ser interpretados como humanos?)

· Ética da transparência e explicação (Por que o aprendizado de máquina deve ser transparente ou explicado? Que lições podem ser extraídas da literatura filosófica sobre transparência e explicação?)

· Regulando a transparência (Será que (e em caso afirmativo, até que ponto) o GDPR exige que o aprendizado de máquina no contexto da assistência médica e da pesquisa seja transparente, interpretável ou explicável?)

· Interpretabilidade por estrutura de design (Essa nova estrutura destina-se a ajudar os desenvolvedores a entender a interpretabilidade de seus modelos de aprendizado de máquina destinados a aplicações médicas)

· Mesas redondas e entrevistas (Informações sobre as mesas-redondas e entrevistas que informaram os relatórios sobre medicamentos e transparência da caixa-preta)



Fonte:
ukhumanrightsblog.com

Deixe uma resposta