Language models need to be regulated

Shobita Parthasarathy in a recent interview

I had originally thought that LLMs could have democratizing and empowering impacts. When it comes to science, they could empower people to quickly pull insights out of information: by querying disease symptoms, for example, or generating summaries of technical topics.
But the algorithmic summaries could make errors, include outdated information or remove nuance and uncertainty, without users appreciating this. If anyone can use LLMs to make complex research comprehensible, but they risk getting a simplified, idealized view of science that’s at odds with the messy reality, that could threaten professionalism and authority.

Teresa Kubacka

So ziemlich alles, was beim Verfassen eines wissenschaftlichen Textes nicht schief l�aufen sollte [ist hier passiert]:
Die Künstliche Intelligenz (KI) kann wissenschaftliche Quellenangaben nahezu perfekt fälschen.
Und zwar so geschickt, dass selbst Fachleute auf dem entsprechenden Gebiet Mühe bekunden, die entsprechenden Falschinformationen als solche zu erkennen.
Die als «Datenhalluzinationen» bezeichneten Kreationen der KI können auch, aber nicht nur, auf die vom Menschen gestellten Fragen zurückgeführt werden.