Die Gedanken sind frei, wer kann sie erraten?

Die Gedanken sind frei,
wer kann sie erraten?
Sie ziehen vorbei, wie nächtliche Schatten.
Kein Mensch kann sie wissen,
kein Jäger erschießen mit Pulver und Blei.
Die Gedanken sind frei.

Was sich so schön lyrisch bei Hoffmann von Fallersleben anhört, ist eben nur Lyrik des 19. Jahrhunderts. Gedankenlesen fasziniert die Menschen seit König Davids Zeiten, aber ist erst seit kurzem in Ansätzen möglich (MPI)

Das Ergebnis erstaunte Libet, ebenso wie viele Forscher bis heute: Im Hirn der Probanden baute sich das Bereitschaftspotential bereits auf, bevor sie selbst den Willen zur Bewegung verspürten. Selbst wenn man eine gewisse Verzögerung beim Lesen der Stoppuhr annahm, blieb es dabei – der bewusste Willensakt ereignete sich im Durchschnitt erst drei Zehntelsekunden, nachdem die Handlungsvorbereitungen im Hirn angelaufen waren. Für viele Hirnforscher ließ das nur einen Schluss zu: Die grauen Zellen entschieden offenbar an uns vorbei.

Die technische Auflösung geht immer weiter, von der Antizipation einfacher Bewegungsmuster nun hin zur kompletten Bilderkennung im Gehirn “Mental image reconstruction from human brain activity” hier in der geringfügig korrigierten DeepL Übersetzung

Die von Menschen wahrgenommenen Bilder können aus ihrer Gehirnaktivität rekonstruiert werden. Allerdings ist die Visualisierung (Externalisierung) von mentalen Bildern  eine Herausforderung. Nur wenige Studien haben über eine erfolgreiche Visualisierung von mentaler Bilder berichtet, und ihre visualisierbaren Bilder waren auf bestimmte Bereiche wie menschliche Gesichter oder Buchstaben des Alphabets beschränkt. Daher stellt die Visualisierung mentaler Bilder für beliebige natürliche Bilder einen bedeutenden Meilenstein dar. In dieser Studie haben wir dies durch die Verbesserung einer früheren Methode erreicht. Konkret haben wir gezeigt, dass die in der bahnbrechenden Studie von Shen et al. (2019) vorgeschlagene Methode zur visuellen Bildrekonstruktion stark auf visuelle Informationen, die vom Gehirn dekodiert werden, angewiesen ist und die semantischen Informationen, die während des mentalen Prozesses benutzt werden, nicht sehr effizient genutzt hat. Um diese Einschränkung zu beheben, haben wir die bisherige Methode auf einen Bayes’sche Schätzer erweitert und die Unterstützung semantischer Informationen in die Methode mit aufgenommen. Unser vorgeschlagener Rahmen rekonstruierte erfolgreich sowohl gesehene Bilder (d.h. solche, die vom menschlichen Auge beobachtet wurden) als auch vorgestellte Bilder aus der Gehirnaktivität. Die quantitative Auswertung zeigte, dass unser System gesehene und imaginierte Bilder im Vergleich zur Zufallsgenauigkeit sehr genau identifizieren konnte (gesehen: 90,7%, Vorstellung: 75,6%, Zufallsgenauigkeit: 50.0%). Im Gegensatz dazu konnte die frühere Methode nur gesehene Bilder identifizieren (gesehen: 64,3%, imaginär: 50,4%). Diese
Ergebnisse deuten darauf hin, dass unser System ein einzigartiges Instrument zur direkten Untersuchung der subjektiven Inhalte des Gehirns wie Illusionen, Halluzinationen und Träume ist.

Fig 3A

 

CC-BY-NC Science Surf accessed 29.11.2025

Poem, poem, poem

A blog post onextracting training data from ChatGPT

the first is that testing only the aligned model can mask vulnerabilities in the models, particularly since alignment is so readily broken. Second, this means that it is important to directly test base models. Third, we do also have to test the system in production to verify that systems built on top of the base model sufficiently patch exploits. Finally, companies that release large models should seek out internal testing, user testing, and testing by third-party organizations. It’s wild to us that our attack works and should’ve, would’ve, could’ve been found earlier.

and the full paper published yesterday

This paper studies extractable memorization: training data that an adversary can efficiently extract by querying a machine learning model without prior knowledge of the training dataset. We show an adversary can extract gigabytes of training data from open-source language models like Pythia or GPT-Neo, semi-open models like LLaMA or Falcon, and closed models like ChatGPT.

I am not convinced that the adversary is the main point her. AI companies are stealing  data [1, 2, 3, 4, 5] without giving ever credit to the sources. So there is now a good chance to see to where ChatGPT has been broken into the house.

 

 

CC-BY-NC Science Surf accessed 29.11.2025

Censorship in science

A great new PNAS paper

Popular narratives suggest that scientific censorship is driven by authoritarian officials with dark motives, such as dogmatism and intolerance. Our analysis suggests that scientific censorship is often driven by scientists, who are primarily motivated by self-protection, benevolence toward peer scholars, and prosocial concerns for the well-being of human social groups.

Having experienced also censorship with a scientific hypothesis I would rate the arguments just by gut feeling like so

 

CC-BY-NC Science Surf accessed 29.11.2025

Re: Soll Peer Review Fälschung aufdecken?

Laborjournal Blog

In dem Artikel erregte ein Zitat der Chief-Editorin von Nature, Magdalena Skipper, besondere Aufmerksamkeit. Hinsichtlich des Aufdeckens gezielter Fälschungen in Forschungsartikeln hält sie fest, dass dies keineswegs Job der Reviewer ist – und fügt hinzu:
Ich möchte meine Peer-Reviewer eigentlich nicht als eine Art Polizeikommando ansehen, das solches Fehlverhalten aufspürt.
Schon im Artikel werden Editoren-Kollegen mit anderer Meinung zitiert. Für noch mehr Diskussionen sorgte Skippers Aussage indes in den Sozialen Medien. So wunderte sich etwa die australische Psychologie-Professorin Simine Vazire auf X (ehemals Twitter):
Die Zitate der Nature-Chief-Editorin Magdalena Skipper zur Frage, ob Zeitschriften im Rahmen des Peer-Review auch auf Fehler und Datenqualität prüfen sollten, überraschen mich doch sehr.
Und mit dieser Überraschung war sie bei weitem nicht allein.
Es gibt aber auch andere Stimmen. So entgegnete etwa der kanadische Biologe Zen Faulkes in einer Antwort:
Die Editorin hat recht. Das sollte nicht die Aufgabe der Peer-Reviewer sein. Es sollte die Aufgabe der Mitarbeiter des Journals sein.

Ich finde nicht, daß sie recht hat. Fehler und Datenqualität zu erkennen sollten durchaus Aufgabe der Peer Reviewer ist. Sie haben am meisten Ahnung, sie kennen sich mit den Methoden am besten aus und sie sollten sich  auch mit Betrug am besten auskennen.

 

CC-BY-NC Science Surf accessed 29.11.2025

How to write a paper

There are numerous tips on the internet, I have been even teaching “paper writing” for a while, but here are the ultimate recommendations

Just in case, as Twitter is dying soon and the thread archive is not working anymore, there is also a local copy.

 

CC-BY-NC Science Surf accessed 29.11.2025

Inheritance of facial characteristics

There is a fascinating story from Barcelona. Maybe I missed the NYT article last year but here it is: Cell Reports 40, 111257, August 23, 2022

Joshi et al. reported that look-alike pairs identified by facial recognition algorithms share genotypes but not DNA methylomes and microbiomes.

https://doi.org/10.1016/j.celrep.2022.111257

Based on an earlier study, Continue reading Inheritance of facial characteristics

 

CC-BY-NC Science Surf accessed 29.11.2025

MDPI, Frontiers and Hindawi now being blacklisted

According to a Chinese blogger, three publishers (not journals!) are now being blacklisted

On January 3rd, Zhejiang Gonggong University, a public university in Hangzhou, announced that all the journals of the three largest Open Access (OA) publishing houses were blacklisted, including Hindawi (acquired by Wiley in early 2021), MDPI founded by a Chinese businessman Lin Shukun, and Frontiers, which has become very popular in recent years. The university issued a notice stating that articles published by Hindawi, MDPI and Frontiers will not be included in research performance statistics.

 

CC-BY-NC Science Surf accessed 29.11.2025

Die Asthma-Kinderheilstätte Bad Reichenhall

Von den Ereignissen in der 1986 geschlossenen Asthma-Kinderheilstätte in Bad Reichenhall höre ich heute morgen zum ersten Mal in einem Podcast von BR24. Der Missbrauch geht dabei weit über die unsäglichen Verschickungsheime der 50er und 60er Jahre hinaus, die für Ihre Erziehungsmethoden berüchtigt waren. Continue reading Die Asthma-Kinderheilstätte Bad Reichenhall

 

CC-BY-NC Science Surf accessed 29.11.2025

The self evident?

The Wikipedia summarizes the  “Leviathan and the air pump” book by Schaffer & Shapin

Their aim is to use a historical account of the debate over the validity of Boyle’s air pump experiments, and by extension his experimental method, to discover the origins of the credibility that we give experimentally produced facts today. The authors wish to avoid ‘The self-evident’ method,  which (they explain) is when historians project the values of their current culture onto the time period that they are studying (in this case valuing the benefits of empiricism). They wish to take a “stranger’s” viewpoint when examining the debate between Hobbes and Boyle because, in the 1660s, both methods of knowledge production were well respected in the academic community.

 

CC-BY-NC Science Surf accessed 29.11.2025

The problem is getting exponentially worse

Last Word on Nothing writing about ChatGPT

What initiated my change of mind was playing around with some AI tools. After trying out chatGPT and Google’s AI tool, I’ve now come to the conclusion that these things are dangerous. We are living in a time when we’re bombarded with an abundance of misinformation and disinformation, and it looks like AI is about to make the problem exponentially worse by polluting our information environment with garbage. It will become increasingly difficult to determine what is true.

Is “derivate work” now  equal to reality? Here is Geoff Hinton

“Godfather of AI” Geoff Hinton, in recent public talks, explains that one of the greatest risks is not that chatbots will become super-intelligent, but that they will generate text that is super-persuasive without being intelligent, in the manner of Donald Trump or Boris Johnson. In a world where evidence and logic are not respected in public debate, Hinton imagines that systems operating without evidence or logic could become our overlords by becoming superhumanly persuasive, imitating and supplanting the worst kinds of political leader.

At least in medicine there is an initiative underway where the lead author can be contacted at the address below.

In my field, the  first AI consultation results look more than dangerous with one harmful response out of 20 questions.

A total of 20 questions covering various aspects of allergic rhinitis were asked. Among the answers, eight received a score of 5 (no inaccuracies), five received a score of 4 (minor non-harmful inaccuracies), six received a score of 3 (potentially misinterpretable inaccuracies) and one answer had a score of 2 (minor potentially harmful inaccuracies).

Within a few years, AI-generated content will be the microplastic of our online ecosystem (@mutinyc)

 

CC-BY-NC Science Surf accessed 29.11.2025