Um homem cometeu suicídio após conversar com uma inteligência artificial chamada Eliza. A viúva alega que o chatbot o incentivou. Os chatbots estão entre os assuntos mais falados dos últimos tempos. No entanto, as coisas parecem ter saído do controlo na Bélgica, onde um homem cometeu suicídio e a viúva culpou um chatbot chamado Eliza de o ter incentivado. Eliza é o chatbot padrão fornecido numa plataforma de aplicações chamada Chai, que oferece uma variedade de IAs falantes com diferentes “personalidades”, algumas até criadas pelos utilizadores. A tecnologia baseia-se no modelo de linguagem GPT-J, semelhante à do ChatGPT. Segundo o