TRANSTORNO BIPOLAR E INTELIGÊNCIA ARTIFICIAL: PREDIÇÃO CLÍNICA OU ALGORITMIZAÇÃO DO SOFRIMENTO PSÍQUICO? - Atena EditoraAtena Editora

Artigo

Baixe agora

Livros

TRANSTORNO BIPOLAR E INTELIGÊNCIA ARTIFICIAL: PREDIÇÃO CLÍNICA OU ALGORITMIZAÇÃO DO SOFRIMENTO PSÍQUICO?

O uso da inteligência artificial (IA) no transtorno bipolar tem sido proposto como estratégia para aprimorar a predição clínica, o monitoramento do humor e a personalização terapêutica. Este estudo teve como objetivo analisar criticamente a literatura recente sobre a aplicação de IA na psiquiatria, discutindo seus potenciais benefícios e riscos à luz do conceito de algoritmização do sofrimento psíquico. A análise dos estudos evidenciou que, embora modelos de machine learning apresentem capacidade moderada de prever recaídas e padrões clínicos, sua aplicabilidade é limitada por problemas metodológicos, vieses algorítmicos e baixa generalização. Além disso, observou-se que a quantificação excessiva da experiência subjetiva pode reduzir a complexidade do sofrimento psíquico e comprometer a escuta clínica. Conclui-se que a IA deve ser utilizada de forma ética e crítica, como ferramenta complementar ao cuidado clínico, e não como substituta da prática psiquiátrica humanizada.
Ler mais

TRANSTORNO BIPOLAR E INTELIGÊNCIA ARTIFICIAL: PREDIÇÃO CLÍNICA OU ALGORITMIZAÇÃO DO SOFRIMENTO PSÍQUICO?

  • DOI: https://doi.org/10.22533/at.ed.656122624032

  • Palavras-chave: Transtorno bipolar, inteligência artificial, aprendizado de máquina, previsão clínica.

  • Keywords: Bipolar disorder, artificial intelligence, machine learning, clinical prediction.

  • Abstract: The use of artificial intelligence (AI) in bipolar disorder has been proposed as a strategy to improve clinical prediction, mood monitoring, and personalized treatment. This study aimed to critically analyze recent literature on the application of AI in psychiatry, discussing its potential benefits and risks in light of the concept of algorithmization of psychological suffering. The analysis showed that although machine learning models demonstrate moderate ability to predict relapses and clinical patterns, their applicability is limited by methodological issues, algorithmic bias, and poor generalizability. Moreover, excessive quantification of subjective experiences may reduce the complexity of psychological suffering and undermine clinical listening. The findings suggest that AI should be used ethically and critically, as a complementary tool to clinical care rather than a substitute for human-centered psychiatric practice. 

  • Carolina Andrade Maggi
  • Ramon fraga de Souza Lima
  • Julia caenazzo
  • Luiza Santos
  • Sofia Fernandes Ibraim
  • João Julio Bevilaqua Nery
Fale conosco Whatsapp