Category Archives: Noteworthy

Compliance Regeln

Was die Regeln ursprünglich sollten? Nach 9/11 und der Finanzkrise 2008 wurden die Compliance Regeln für Banküberweisungen massiv verschärft. Das Ziel war natürlich legitim: Terrorfinanzierung, Drogenhandel, Menschenhandel und Steuerflucht eindämmen. Die FATF (Financial Action Task Force) setzte globale Standards und die setzten die Banken unter enormen Compliance-Druck stellten.

Aber es wurde übertrieben und das Problem ist mittlerweile gut dokumentiert. Ich habe es selbst in Ostafrika nun erlebt.  De-Risking trifft die Falschen. Nicht Kriminelle, sondern Entwicklungsländer, Diaspora-Überweisungen, NGOs und kleine Importeure werden abgeschnitten. Die Weltbank und der IWF haben das mehrfach kritisiert – gerade Überweisungen von Migranten in die Heimat (sog. “Remittances”) sind für viele Länder wirtschaftlich wichtiger als Entwicklungshilfe.  Die Weltbank warnte explizit: Wenn der Trend anhält, könnten Menschen und Organisationen in volatileren Regionen vollständig vom regulierten Finanzsystem abgeschnitten werden – was paradoxerweise die Transparenz senkt, weil Transaktionen in unregulierte Kanäle abwandern.

Dazu sind die Compliance-Kosten sind explodiert. Banken geben laut Schätzungen weltweit über 200 Milliarden Dollar jährlich für Compliance aus – und trotzdem werden laut UNODC nur 1-2% krimineller Geldflüsse tatsächlich gestoppt. Der Aufwand ist also enorm, der Effekt gering. “Greylist”-Stigma trifft ganze Volkswirtschaften. Wird ein Land auf eine Grau- oder Schwarzliste gesetzt, ziehen sich Banken kollektiv zurück – nicht weil einzelne Transaktionen gefährlich sind, sondern aus Angst vor Haftung.  False Positives sind derNormalzustand. >90% der Alerts sind Fehlalarme, es ist kein Randphänomen, sondern ein systemisches Problem.

Korruption und illegale Kapitalflucht aus Entwicklungsländern sind real – und schaden oft genau den Empfängerländern. Die EU-Geldwäscherichtlinien haben nachweislich einige große Skandale aufgedeckt. Das Kernproblem ist nicht die Intention, sondern die Architektur: Banken werden für Verstöße mit Milliardenstrafen belegt, aber nie dafür, dass sie legitime Transaktionen blockieren. Der Anreiz ist also systematisch verzerrt – lieber zu viel ablehnen als zu wenig. Solange diese asymmetrische Haftung nicht geändert wird, werden Überweisungen nach Afrika kompliziert bleiben. Oder wir laufen weiter mit Geldbündel durch die Gegend, tricksen mit gemeinsamen Kreditkarten, benützen Remitly oder Hawala – alles das, was Compliance Regeln eigentlich verhindern wollten.

 

CC-BY-NC Science Surf , accessed 01.04.2026

Anti Diskriminierungs Fake

Die ZEIT berichtet von  einer Präsentation der Bundesbeauftragten für Antidiskriminierung, Ferda Ataman, bei der BPK  in Berlin

Viele Menschen in Deutschland glauben einer Studie zufolge an vermeintlich naturgegebene Unterschiede zwischen verschiedenen Ethnien und Kulturen. So stimmten zwei von drei Befragten der Aussage zu, dass bestimmte Kulturen “fortschrittlicher und besser” seien als andere, wie aus der Erhebung des Deutschen Zentrums für Integrations- und Migrationsforschung (DeZIM) hervorgeht. Knapp die Hälfte vertrat die Ansicht, dass gewisse Gruppen “von Natur aus fleißiger” seien als andere. 36 Prozent der Befragten stimmten der Aussage zu, dass es unterschiedliche “Rassen” gäbe.

Um eine solche Studie machen zu können, muss man:frau minimale Voraussetzungen in Testtheorie mitbringen. Basale Kenntnisse der Kulturwissenschaft, Genetik, Medizin oder Pädagogik schaden auch nicht. Leider fehlt dies aber den Leitern dieser “Studie” (download hier).

Oversampling ohne transparente Gewichtung. Die Studie überrepräsentiert bestimmte Gruppen absichtlich durch eine Vorklassifikation nach Vor- und Nachnamen aus Melderegistern. Das ist legitim – aber die Gewichtung wurde im aktuellen Bericht erstmals an Mikrozensus-Daten angepasst, was die Autoren selbst einräumen führt dazu, dass frühere Berichte “in einzelnen Zahlen leicht abweichen”. Zeitreihenvergleiche sind damit methodisch fragwürdig.

Selbstauskunft als einzige Datenquelle. Alle Kernvariablen – Einstellungen, Diskriminierungserfahrungen, Institutionenvertrauen – beruhen auf subjektiver Selbstauskunft. Es gibt keine Kreuzvalidierung mit administrativen Daten, Experimenten (Audit-Studien) oder objektiven Indikatoren.

Zirkuläre Operationalisierung von “Rassismus”. Das Instrument misst u.a. die Zustimmung zur Aussage, bestimmte Kulturen seien “fortschrittlicher und besser” als andere (66 % Zustimmung), und wertet dies als rassistische Einstellung.  Eine derartig breite Definition schließt faktische Kulturvergleiche, zivilisationstheoretische Positionen und Alltagsurteile pauschal als “Rassismus” ein – das ist eine normative Vorentscheidung, keine empirische.

Konfundierung von Ursache und Wirkung. Der Bericht berichtet Korrelationen zwischen Diskriminierungserfahrungen und Institutionenvertrauen und formuliert daraus kausale Schlüsse (“gehen einher mit”, “führen zu”). Längsschnittdaten wären nötig, um Kausalrichtung zu bestimmen – das Panel ließe das zumindest ansatzweise zu, wird aber hauptsächlich im Querschnitt ausgewertet.

Selektiver Attrition-Bias. Die Gewichtung für Panel-Ausfälle erfolgt anhand von Merkmalen wie Selbstidentifikation und Einstellungen gegenüber verschiedenen Gruppen.  Wer aus dem Panel ausscheidet, weil er das Thema Rassismus als irrelevant empfindet, wird weggewichtet – das strukturiert die Ergebnisse in Richtung der Ausgangshypothese.

Institutionelle Interessenlage. Das NaDiRa ist beim Deutschen Zentrum für Integrations- und Migrationsforschung (DeZIM) angesiedelt und wird vom Bundesministerium gefördert. Die Handlungsempfehlungen am Ende des Berichts sind das erklärte politische Ziel. Das ist kein Fehler per se, aber ein Faktor für die Interpretation.

Zusammenfassung. Die Studie ist kein Beleg für die Verbreitung von Rassismus in Deutschland, sondern eine Messung davon, wie viele Menschen bestimmten, normativ vordefinierten Aussagen zustimmen. Die Gleichsetzung von Zustimmungsraten mit “rassistischen Einstellungen” ist die Kernproblematik – sie folgt aus dem theoretischen Rahmen, nicht aus den Daten selbst.

“Garbabge in, Garbage out” – eine solche sensible Fragestellung in einem “online Tool” ohne vorherige ausführliche Validierung zu bearbeiten? Wo es so sehr auf Nuancen im Sprachgebrauch ankommt?

So ist nicht nur die PK sondern auch die Studie auch die Kernaussagen ein Musterbeispiel für politische Agenda aber nicht für eine validierte Aussage. Verständlicherweise kommt daher  vielfache Kritik-  Auszüge:

https://profile.zeit.de/2784058 … nicht jede Kultur ist gleich gut. Eine Kultur, in der es bspw. als normal gilt, dass junge Mädchen genitalverstümmelt, zwangsverheiratet und systematisch entrechtet werden, ist einer westlich liberalen Kultur moralisch unterlegen. Dasselbe gilt für kulturelle Prägungen, in denen Ehrengewalt, religiöser Fanatismus oder brutale Homosexuellenverfolgung als selbstverständlich gelten. Oder eine Kultur, die Massenmördern Märtyrerrenten zahlt und betont, wie ehrenvoll es sei, “Ungläubige” zu ermorden. Wer so tut, als dürfe man hier keine Wertung vornehmen, verwechselt Toleranz mit moralischer Beliebigkeit. Eine offene, rechtsstaatliche und freiheitliche Gesellschaft ist solchen Gesellschaftsmodellen überlegen, gerade weil sie individuelle Freiheit, körperliche Unversehrtheit und gleiche Rechte schützt, statt Unterdrückung als Tradition zu bemänteln.

https://profile.zeit.de/2965476 Damals gab es keine AfD und alles erschien aus heutiger Sicht gut. Ich werde das Gefühl nicht los, dass heute jeder vermeintliche Gutmensch fieberhaft unter jedem Stein einen Nazi sucht, um sich dann als der Bessere Bürger, sprich, auf der richtigen Seite der Brandmauer einsortieren zu können. Dieses platte und flache schwarz / weiß denken ist der Treibstoff der AfD

https://profile.zeit.de/2462818 Natürlich finde ich manche Kulturen besser als andere. Russland hat eine Kultur, die mehr von Machtdenken, Chauvinismus, und Gewalt geprägt ist, als andere. Ich halte Japan‘s Workoholic-Kultur und die Schönheitschirurgie-Obsession Korea‘s für problematisch. Ebenso Deutschland’s Bürokratie und technische Innovationsfeindlichkeit, Amerikanische Waffen-Kultur und Überheblichkeit, oder eine Kultur, die Genitalverstümmelung gut heißt. Aus diesem Mix an problematischen Aspekten verschiedener Kulturen ergibt sich zwangsläufig, dass manche Kulturen Aggregat dem Wohl der Menschheit zuträglicher (und damit „besser“) sind, als andere. Das anzuerkennen ist erst mal nicht rassistisch.

 

CC-BY-NC Science Surf , accessed 01.04.2026

Bias und Deception in den Bewertungssystemen von Google und Ebay

Google und Ebay Bewertungen steuern Warenflüsse, mehr noch als jede Werbung.

Sie aggregieren verteiltes Wissen, komprimieren es zu Signalen und machen es für Dritte nutzbar – immer unter der Voraussetzung, dass die Eingabedaten die Realität hinreichend abbilden. Diese Voraussetzung ist keine technische Selbstverständlichkeit, sondern eine normative Anforderung, die im Alltag digitaler Plattformen aber immer mehr ignoriert wird.

Nehmen wir eBay. Seit November 2025 hinterlegt die Plattform automatisch eine positive Bewertung, wenn ein Käufer nach abgeschlossenem Kauf sich nicht meldet. Die Begründung ist nachvollziehbar: Schweigen ist häufig tatsächlich Zufriedenheit, und ein dichtes Bewertungsnetz stabilisiert das Vertrauen in den Marktplatz. Aber das System misst nicht mehr damit, was es zu messen vorgibt. Eine positive Bewertung, die nicht auf erlebter Zufriedenheit beruht, sondern auf dem Ausbleiben einer Handlung, ist wie ein Datum ohne Zeitangabe – formal vorhanden, semantisch leer. Wer einen defekten Artikel erhält und es versäumt, fristgerecht zu reagieren, erscheint im System als zufriedener Käufer. Das Protokoll stimmt. Aber mit der Realität hat das nichts mehr zu tun.

Google operiert nach derselben Logik, nur mit umgekehrtem Vorzeichen. Negative Bewertungen, die nachweislich auf realen Erfahrungen beruhen – und deren Authentizität Nutzer sogar per eidesstattlicher Erklärung belegt haben – werden auf Antrag des bewerteten Unternehmens routinemäßig gelöscht, wenn das Unternehmen “Unangemessenheit” oder “Diffamierung” geltend macht. Das Ergebnis ist dasselbe wie bei eBay, nur eine Eskalationsstufe darüber: Nicht Schweigen wird als Zustimmung kodiert, sondern das Missfallen wird zum Verschwinden gebracht. Was bleibt, ist kein Abbild der Realität mehr, sondern ein gefiltertes, plattformkonformes Surrogat, das dem widersprechenden Unternehmen höhere Einnahmen beschert.

Man könnte von struktureller Deception sprechen – einer Täuschung, die nicht aus Absicht, sondern aus Design entsteht1. Das Beunruhigende daran ist gerade die Absichtslosigkeit: Weil kein einzelner Akteur mehr verantwortlich zeichnet, fehlt auch die Motivation zur Korrektur. Bei einer klassischen Lüge gibt es einen Täuschenden, der zur Rechenschaft gezogen werden kann. Bei einem absichtlich auf Täuschung konstruierten Bewertungsalgorithmus gibt es nur ein Produktteam, das auf Conversion-Raten schaut. Ethik oder Moral? Brauchen wir nicht, unvergesslich das Video vom großen Tech-CEO-Vasallen-Dinner im September 2025 auf dem betonierten Rasen vor dem Weißen Haus.

Schlimmer noch: automatisierte Systeme skalieren diesen Effekt hoch. Was im Einzelfall als Ungenauigkeit wirkt, akkumuliert sich über alle AI’s zu einem systematischen Vertrauensproblem. Vertrauenssysteme, die sich selbst korrumpieren, verlieren damit aber  jeden Tag mehr an Nützlichkeit – sie kippen um. Die Sterne leuchten noch, aber bedeuten nichts mehr. Das betrifft auch jede positive Bewertung, die nun als Werbung degradiert wird, aber eigentlich auf einer Erfahrung beruhte, sofern sie nicht auch gekauft war.

Ist das organisierter Betrug?

Juristisch kaum. Bandenmäßiger Betrug setzt nach § 263 StGB Täuschungsabsicht, Irrtumserregung und Vermögensschaden voraus – und bei der Qualifikation “bandenförmig” eine organisierte Mehrtäterstruktur mit Tatplan. Beide Unternehmen handeln aber offen: Das Schweigen-gleich-Zustimmung-Prinzip und Jederzeit-Löschen-Prinzip steht mit Sicherheit irgendwo in den Nutzungsbedingungen. Juristisch greifbar wäre allenfalls irreführende Geschäftspraxis im Sinne des UWG oder der europäischen Omnibus-Richtlinie.

Epistemisch aber – im Kern ist es natürlich Betrug. Wenn man Betrug funktional versteht, als systematische Erzeugung falscher Überzeugungen zum eigenen Vorteil, dann trifft die Beschreibung erstaunlich gut: eBay profitiert von stabilen Verkäuferbewertungen, Google von einem bereinigten Reputationssystem, das Unternehmenskunden nicht vergraullt. Dass dies ohne strafrechtlich relevante Absicht geschieht, macht es gesellschaftlich nicht weniger problematisch – es macht es nur schwerer angreifbar.

Die Omnibus-Richtlinie – EU-Richtlinie 2019/2161, in Deutschland seit Mai 2022 in Kraft, hat das UWG geändert. Der für unseren Kontext entscheidende Punkt: Plattformen sind seither verpflichtet offenzulegen, ob und wie sie Bewertungen auf Echtheit prüfen. Wer suggeriert, Bewertungen seien authentisch, ohne ein Prüfverfahren zu betreiben, handelt nun unlauter. Außerdem sind gekaufte oder anderweitig gefälschte Bewertungen ausdrücklich als unlautere Geschäftspraxis eingestuft.  Warum greift das bei eBay und Google trotzdem nicht?  Weil beide Unternehmen formal prüfen – nur eben nicht auf Wahrheit, sondern auf Regelkonformität. eBay prüft, ob eine Transaktion stattgefunden hat. Google prüft, ob eine Beschwerde vorliegt. Das genügt juristisch als “Prüfverfahren”, auch wenn das Ergebnis völlig wertlos ist. Die Richtlinie hat eine Lücke dort, wo es darauf ankäme: Sie reguliert das Verfahren, nicht die Qualität des Ergebnisses.

Die folgenden drei Fallbeispiele im Anhang illustrieren, wie Konstruktionsbias und strukturelle Täuschung in unterschiedlichen Kontexten auftreten, wobei sich der Leser gerne selbst die Konsequenzen  ableiten kann..

 

Anhang Fallbeispiel

Albert’s Auto Service Gröbenzell

Im September 2024 beauftragte ein Kunde die Werkstatt von Burim Qeriqi in Gröbenzell mit der Reparatur eines Kurzschlusses. Die Rechnung belief sich auf 255,17 Euro. Die anschließend aufgesuchte Fachwerkstatt stellte schriftlich in ihrer Rechnung fest, dass die Lampen in beiden Fassungen fehlten oder falsch angeschlossen waren, die Verkabelung der dritten Bremslampe nicht funktionierte und korrodierte Kabelverbindungen am Unterboden unangetastet geblieben waren. Die Nachbesserung kostete 720,00 Euro. Qeriqi ist, wie sich später herausstellte, kein Mitglied der KFZ-Innung – ein Umstand, der auf seiner Google-Seite naturgemäß nicht vermerkt ist. Die sachliche und belegbare Rezension des Kunden auf Google verschwand jedenfalls bald darauf. Ein Tracing der Bewertungen über achtzehn Monate ergab: Die Werkstatt löscht negative Bewertungen systematisch und umgehend. Google stellt dafür das Werkzeug bereit – ohne Prüfung der inhaltlichen Berechtigung, ohne Berücksichtigung von Belegen. Eine einzelne negative Bewertung, die zum Zeitpunkt der Recherche noch sichtbar war, illustriert eher die Geschwindigkeit des Löschvorgangs als dessen Ausnahmen. Was auf der Profilseite verbleibt, ist kein Abbild der Kundenerfahrungen, sondern das Ergebnis aktiven Reputationsmanagements – ermöglicht und abgesichert durch die Plattform.

Screenshot 16.3.2026. Die negativen Bewertungen fehlen – ist die positive Bewertungen von Claude Menu aus Nizza echt?

 

Fallbeispiel 2

Gutachter Büro Christian Sailer Aichach.

Der Gutachter wird wegen eines Wasserschadens von einem Kunden auf Rat seines Anwalts kontaktiert. Der Gutachter erscheint spät, unvorbereitet, liefert statt einer strukturierten Bestandsaufnahme einen langatmigen Vortrag. Der Kunde bricht das Gutachten ab. Die anschließende Honorarforderung landet vor Gericht und endet mit einem Vergleich – einem rechtsförmigen Abschluss, der den Sachverhalt aktenkundig macht. Der Kunde verfasst daraufhin eine präzise, tatsachenbasierte Rezension auf Google: keine Polemik, keine Vermutungen, nur der dokumentierte Hergang mit der Empfehlung keinen Blanko Werkauftrag zu unterschreiben. Das Ergebnis ist vorhersehbar. Google teilt mit, eine Beschwerde wegen Diffamierung erhalten zu haben, und löscht den Zugriff auf den Beitrag 2. Die Begründung lautet lapidar: der Inhalt “verstößt anscheinend gegen” die entsprechende Kategorie. Kein Nachweis, keine Abwägung, kein Einblick in die Prüfung, keine Reaktion auch auf die Reklamation, die Bewertung stehen zu lassen. Das Wort “anscheinend” ist dabei bezeichnend – es signalisiert, dass keine eigentliche Prüfung stattgefunden hat, sondern eine Kategorisierung. Was hier verschwindet, ist keine Meinung, sondern ein gerichtlich bestätigter Sachverhalt. Die Plattform fungiert als Zensurinstanz ohne Erkenntnisinteresse: Sie prüft nicht, ob eine Aussage wahr ist, sondern ob jemand Einspruch erhoben hat..

Screenshot 16.3.2026
Screenshot 16.3.26 mit Selbstdarstellung der Qualifikationen

 

Fallbeispiel 3

Strikeforge GbR Ebay Händler

Ein Kunde kauft auf eBay einen AirTag-Halter aus dem 3D-Drucker – billiges Filament, zu geringe Wandstärke. Das Teil bricht kurz darauf unterwegs ab, der AirTag geht verloren – 5,99 € für den Halter, 32,99€ Verlust für den AirTag summieren sich zu 39€.  Ohne Garantie, ohne Schadenersatz, dafür aber mit Belehrung durch den Verkäufer Philipp Huguenin, daß die Widerrufsfrist “bereits seit längerer Zeit abgelaufen ist. Schäden, die nach dieser Nutzungsdauer durch Belastung im Gebrauch entstehen, können wir leider nicht als Reklamation übernehmen. Vielen Dank für dein Verständnis.” Der Verkäufer dreht die Beweislast auch noch um – er definiert den Produktfehler (zu geringe Wandstärke) als Gebrauchsverschleiß und entzieht sich damit jeder Gewährleistungspflicht. Die gesetzliche Gewährleistungsfrist beträgt 2 Jahre ab Kauf – die Widerrufsfrist (14 Tage) ist etwas völlig anderes. Die  Verwechslung von Widerrufsrecht und gesetzlicher Gewährleistung zeigt entweder Unkenntnis oder Kalkül.  Der Kunde gab jedenfalls keine Bewertung ab. Nach dem Kauf erscheint auf eBay aber eine positive Bewertung für den Kauf – automatisch generiert, plattformkonform, sachlich falsch.

Screenshot 16.3.206

Das ist der Mechanismus in Reinform. Kein Verkäufer hat gelogen. Kein Algorithmus hat eine Entscheidung getroffen, die sich jemand bewusst überlegt hätte. Das System hat schlicht Schweigen als Zufriedenheit interpretiert und daraus eine Aussage gemacht. Der Verkäufer der mangelhaftenWare sammelt weiter positive Bewertungen. Der nächste Käufer verlässt sich darauf. Der AirTag des Übernächsten geht ebenfalls verloren – informiert durch ein Bewertungssystem, das funktioniert, solange man nicht fragt, was es eigentlich misst.

 

Literatur

1 Der Begriff schließt an Miranda Frickers Konzept der hermeneutical injustice an: Strukturelle Lücken im kollektiven Deutungsrepertoire führen dazu, dass bestimmte Erfahrungen nicht adäquat artikuliert – oder in diesem Fall: nicht dauerhaft dokumentiert – werden können. Fricker, M.: Epistemic Injustice. Power and the Ethics of Knowing. Oxford 2007

2 siehe auch SWR vom 7.7.2025 “Google-Bewertungen: Warum ehrliche Kritik oft gelöscht wird”

Googles Antwort: Allgemein und ausweichend
In einem offiziellen Erklärvideo beschreibt Google, wie Rezensionen geprüft werden: mithilfe von künstlicher Intelligenz und einem Moderationsteam. 2024 seien über 240 Millionen Beiträge entfernt worden.
„Unsere Richtlinien besagen eindeutig, dass Rezensionen auf echten Erfahrungen beruhen müssen – weshalb wir umgehend gegen böswillige Akteure vorgehen (…)“, schreibt Google.Sackgasse für ehrliche Meinung
Kunden, deren ehrliche Meinung immer wieder gelöscht wird, sind frustriert. Was sie erleben, nimmt ihnen das Vertrauen in das Bewertungs-System.

 

CC-BY-NC Science Surf , accessed 01.04.2026

The lifecycle of the academic journal is coming to an end now

There is a realistic and only slightly ironic new paper at arXiv  by Russel Beale, a world-renowned academic, author of one of the leading textbooks on human-computer interaction.

In this piece we reflect on the life and influence of AJ, the academic journal, charting their history and contributions to science, discussing how their influence changed society and how, in death, they will be mourned for what they once stood for but for which, in the end, they had moved so far from that they will less missed than they might have been.

Born at the ”Philosophical Transactions of the Royal Society” the academic journal matured until 1989 when the companies highjacked, then strangulated the system. The distribution of papers over the internet and open access made dissemination easier but introduced many other problems that are all coming now to an end by the introduction of AI based authoring.

And thus [the academic journal] entered the end-stage of life. No longer could people rely on the content, because the cost of creating fake material was so low, and the benefits so high. Now an academic could possibly publish half a dozen articles in a year, mostly because they could submit a hundred and hope a few got through … The conference made a comeback. With travel restrictions lifted, not only could the academic holidaying continue, but they could actually meet with fellow academics and quiz them on their findings to see if they were real: content had become checkable, and was king once again. The actual exchange of information, findings and insights because important once again.
[The academic journal] died on 1st January 2026. No flowers are expected…

“Science” still has some hopes https://www.science.org/doi/10.1126/science.adw3000 – what else should even publish?

 

CC-BY-NC Science Surf , accessed 01.04.2026

Why the “immunity debt” narrative ultimately collapsed

There was an interesting Bluesky post.

https://bsky.app/profile/nicktsergas.ca/post/3m7h36uha4k2e

I agree. Drosten said in 2022 that someone who believes that they can train their immune system through an infection should, also believe that “by eating a steak they can train their digestion”. The immunity depth hypothesis was as nonsense as the hygiene hypothesis that immunity is depraved by modern hygiene.

In reality, post-pandemic seasons returned to historical volatility rather than showing any sustained amplification. RSV and influenza displayed timing shifts and one-off rebounds, but no long-term increase in total burden.

Nations with long and strict NPIs (like New Zealand, Taiwan) should have shown the largest rebound. By 2025 this clearly did not occur. Conversely, countries with minimal restrictions (Sweden, GB) still experienced unusual RSV and influenza patterns, demonstrating the hypothesis being wrong, but taking a huge death toll from their believers.

Memory B & T cells persist; mucosal training is complex but not any “use-it-or-lose-it“. The role of routine pathogen turnover was over- and homeostatic immune regulation underestimated.

 

CC-BY-NC Science Surf , accessed 01.04.2026

Tacrolimus shares the allergy inducing pathway with vitamin D

Tacrolimus and vitamin D both suppress IL-2 production.

The mechanisms of IL-2 suppression is different however. Tacrolimus binds FKBP12 to inhibit calcineurin, blocking NFAT dephosphorylation and IL-2 gene transcription in activated T cells. Vitamin D (1,25(OH)₂D₃) activates VDR to directly inhibit IL-2 promoter. High vitamin D levels correlate with reduced IL-2  and Th1 suppression.

Oral vitamin D are pro-allergic in newborns as I have described in a dozen papers. So if the prohormone vitamin D and  the calcineurin inhibitor tacrolimus share the same immunological endpoint IL2, I would anticipate that tacrolimus can make you allergic. And well  – only today I discovered that is is true while working on an unrelated review of tacrolimus. So let‘s search the literature https://doi.org/10.1111/j.1365-2222.2011.03761.x says

Results The prevalence of sensitization was significantly higher in the tacrolimus- than in the cyclosporin A-treated group (34%, n = 34, vs. 20%, n = 20; P = 0.026). The rate of clinically relevant allergy in patients receiving tacrolimus was twice that in patients receiving  cyclosporin A (15%, n = 15, vs. 8%, n = 8; P = 0.12).

So this study  seems to confirm my hypothesis. Let’s look at another study https://doi.org/10.1016/j.aller.2017.09.030

Transplant acquired food allery was found in 7/12 (58%) children with liver transplantations and in none of the 10 children with kidney transplantations.

This study has another interesting observation. Conceptually, the “portal–hepatic immune filter + tacrolimus‑induced Th2 shift + high early antigen load in a young gut” model is consistent with this paper. The kidney, lacking this gut–portal interface and typically being transplanted in older children, sits in a different immunologic context, which likely explains why tacrolimus appears “allergy‑inducing” only in the liver setting rather than via renal blood flow .

 

CC-BY-NC Science Surf , accessed 01.04.2026

The biggest turning point in medical science that I have probably ever encountered

Vitamin D insufficiency? Gone!

I can’t even remember how many vitamin D studies I did, explaining how the prohormone has been discovered, how stupid guidelines came on to the scene.

https://academic.oup.com/jcem/article/109/8/1948/7685309

And it didn’t happen quietly. It wasn’t a minor tweak, a footnote, or an incremental update. It was a full reversal of a doctrine that has dominated labs, clinics, public-health brochures, and countless biomarker panels for decades. A classical paper even claimed that 50% of the world population is vitamin D insufficient. For years, we had to  live with the tidy triplet:

<20 ng/mL = deficiency
20–30 ng/mL = insufficiency
≥30 ng/mL = sufficiency

That middle category “insufficiency” became a diagnosis in itself. It justified mass screening. It justified supplementation campaigns. It justified entire clinical cultures built around chasing numbers.  And then 2024 arrived.

Because after reviewing all high-quality randomized trials, the Endocrine Society concluded something truly astonishing:

there is no reliable evidence that people with 25(OH)D levels between 20 and 30 ng/mL derive any clinically meaningful benefit from raising those levels

In fact, the guideline panel found that even below 20–24 ng/mL, evidence for clear benefit is surprisingly weak or uncertain — except perhaps in the very elderly, and even there the benefit didn’t map neatly to a threshold. Vitamin D physiology makes the whole “insufficiency” concept biologically dubious, because serum 25(OH)D is only an external storage marker of an intracellular prohormone system — a tank that appears “empty” only in true deficiency like rickets. Let me put that differently: The category of “vitamin D insufficiency,” introduced in 2011 and used worldwide, is now considered *scientifically unsupported*. The Society explicitly withdraws it.

That is not merely unusual. In the world of clinical guidelines, this is as close as you get to a scientific earthquake. Why did they withdraw it? Because the evidence never really showed what everyone assumed.

The new communication explains the problem with striking clarity:

1. Observational associations misled us.
Many early threshold claims came from correlations — low vitamin D and higher PTH, low vitamin D and lower bone density, etc. But none of this proved causality, and much of it turned out to be non-informative once RCTs were performed.

2. Surrogate markers were overinterpreted.
Calcium absorption, PTH suppression, even bone mineral density — these are *indirect* signals. They don’t automatically translate into fewer fractures, fewer falls, fewer infections, or longer life. And when RCTs finally tested real outcomes, the expected clinical benefits simply weren’t there.

3. Large RCTs showed no special benefit in “low–normal” ranges.
VITAL — one of the biggest vitamin D trials ever — found no difference in fractures even in participants below 24 ng/mL, and even those below 12 ng/mL did not exhibit the dramatic benefit everyone predicted (though the subgroup was very small).

4. Across thousands of participants aged 50–74, supplementation beyond the RDA made essentially no difference — including in those below the supposed thresholds.
The forest plots in the guideline communication make this visually obvious: the <20–24 ng/mL subgroups almost never differ from the overall population in any meaningful direction. (See page 5 of the document: identical risk-change estimates for falls, fractures, cancer, CVD, etc.)

We rarely see a major medical society openly dismantle one of its own most influential guidelines — not because of scandal, not because of politics, but because the evidence finally matured and said: we were wrong. And they didn’t hedge. They didn’t massage the language. They called the new stance what it is: epistemic humility.

Still not convinced? For key readings google for the approx 10 vitamin D “umbrella reviews” and the 20 studies that “vitamin D is a marker of inflammation” and not vice versa.

 

 

CC-BY-NC Science Surf , accessed 01.04.2026

Correct me if I am wrong

https://www.reddit.com/r/slatestarcodex/comments/7qguze/the_puzzle_why_do_scientists_typically_respond_to

For most researchers it takes a long time to develop ideas, run experiments, do the analysis and write up the results to the standard that journals expect. By the time that you get the reviews back for a piece of work it is likely that you are coming towards the end of your funding, or even that your funding has long since run out. If a reviewer points out a likely problem and the author recognises it as such, they are often left with the thought that they don’t have the time to go back to the drawing board. Developing a better idea can happen the next day, but it could also require several months of intense work and those months may not be available.
As a researcher you are not only emotionally invested in your hypothesis (with all the inadvertent biases you may then apply to your study) but you are literally invested with a lot of your time and money.
I wonder if the state of science publishing could be vastly improved if we started with something similar to what physicists do and expand further.
‘Physics’ has theoretical physicists who develop hypotheses, and experimental physicists then design experiments to test those hypotheses.
This could be taken a step further, in all scientific fields, for example with a further division in responsibility.

https://www.science.org/doi/epdf/10.1126/science.adk1852

Honest mistakes happen, and journals need to be accessible and on the record about their behaviors. Issuing carefully worded statements and “no comment” has no place in a generative culture. Mean-while, although there have been good recent discussions about universities and journals working together to accelerate corrections and retractions, the universities need to realize thatt hreats of litigation may not be the major consideration when so many within and outside the scientific community are losing trust in science.

https://www.science.org/doi/epdf/10.1126/science.adw5838

Media and public interest in research integrity cases – spurred by online platforms likeX, Bluesky, and PubPeer that give a front row seat to potential disputes in real time – is increasing …A university is likely to opt for silence because of fear of litigation and damage to the institution’s reputation. However ,authors should ask themselves whether silence could be interpreted by the media and public as an admission of guilt. So, in addition to consulting with institutional professionals, authors should think about talking to the media directly. This can be an opportunity to provide the unvarnished truth in response to tough questions.

 

CC-BY-NC Science Surf , accessed 01.04.2026

KI als Provokation für den Glauben?

Unter dem Titel – wenn auch ohne Fragezeichen – steht auf Feinschwarz ein  lesenswerter Beitrag.

Beiträge aus den Kirchen hingegen sind rar und erschöpfen sich in der Regel in allgemeinen Appellen: KI müsse ethischen Grundsätzen genügen und der Menschenwürde dienen (Rome Call for AI Ethics, Vatikan, 2020), dürfe nicht über Tod und Leben von Menschen entscheiden (Antiqua et nova, Vatikan, 2025) und müsse der menschlichen Freiheit dienen (Freiheit digital, EKD, 2021). …
Bislang jedenfalls reichen die Thesen der kirchlichen Verantwortungsträger nicht bis in die Gemeinden hinein: auf der Kanzel und am Ambo, in KFD und Seniorengruppen ist Künstliche Intelligenz bislang nur selten Thema. Diese pastorale und theologische Lücke ist fatal. Denn die Provokation durch KI zielt nicht nur auf Ethik und Gesellschaft, sondern ins Herz des christlichen Glaubens selbst.

Nicht nur, dass ich auch schon erlebt habe, daß eine Predigt verdächtig nach KI klang; auch ich selbst habe erst letzte Woche  von chatGPT etwas wissen wollen (nämlich wie die kognitive Disssonanz von Erwählung und kriegführenden Gott in Joel 32 und die Aussagen der Bergpredigt bei Evangelikalen wie John Stott aufgelöst wird – es kam nur blabla).

Meistens können wir aber, wie Michael Brendel richtig schreibt, mit den Antworten etwas anfangen. KI hat mehr theologische Bücher wie ich inkorporiert und “kennt” die Bible besser als ich. Und damit haben wir eine massive Provokation für den Glauben, denn KI ist wortgläubiger, als wird denken.

Der Johannesprolog bringt eine Hauptaussage des Neuen Testaments auf den Punkt: Dass das Wort göttlich ist. Gott zeigt sich nicht nur in Dornbüschen, Feuersäulen und Naturkatastrophen, sondern er kommuniziert verbal mit den Menschen. Die Gläubigen auf der anderen Seite können ihre Anliegen, ihr Lob und ihre Klagen über das Wort vor Gott bringen. Offenbarung, Liturgie und Lehre sind sprachlich vermittelt. Sakramente erlangen erst durch Worte ihre Gültigkeit. Und schließlich: Der Logos, das göttliche Wort, ist in Jesus Christus Mensch geworden. Das Wort Gottes wirkt also in der Sinn-, Heils- und Offenbarungsdimension. Und in diese Zone dringt nun Künstliche Intelligenz ein. Seit 2022 kommunizieren nicht mehr nur Menschen mit Menschen über das Medium Wort, nicht mehr nur Gott und Mensch. Seit der Veröffentlichung von ChatGPT gibt es eine kommunikative Instanz, die über Sprache Bedeutung schafft.

KI redet dabei sehr opportunistisch – jedenfalls die drei LLMs, die ich als Referenz hier habe. Sprachmodelle lernen aus massiven Mengen menschlicher Texte wo die (schriftlichen) häufigsten Muster in Dialogen eben sind: zustimmen, erklären, beschwichtigen, freundlich sein. Wenn ein Thema unklar, strittig oder risikobehaftet ist, wählen Modelle oft risikoloseste Antwort. Das wirkt wie Nach-dem-Mund-Reden, ist aber eigentlich nur eine Absicherungsstrategie. Und natürlich hat ein Modell hat keine eigenen Überzeugungen (wenn es nicht gerade wie Grok in eine bestimmte Richtung kanalisiert wird) sondern wird nur die statistisch wahrscheinlichste Antwort produzieren.

Ohne eine eigene Position kann ein LLM nicht „widersprechen“, die meisten Dreijährigen können das besser!

Die evangelische Publizistin Johanna Haberer etwa fragt pointiert, ob der Mensch sich mit KI nicht ein Ebenbild schaffe, so wie Gott sich mit den Menschen ein Ebenbild geschaffen habe. Natürlich ist der Unterschied zwischen beiden Schöpfungsakten fundamental. Ihre Schlussfolgerung trifft aber ins Schwarze: Hier wie dort stelle sich die Frage nach Verantwortung und Kontrolle.

Johanna Haberer, einer der beiden Pfarrerstöchter, trifft in der Tat den Punkt. Und so können wir auch die 3 Fragen von Brendel eindeutig beantworten.

Wie weit ist es vom Status Quo bis zur göttlichen Allwissenheit?

KI ist nur da beeindruckend wo es um gedruckte Texte geht und ihre seelenlose Reproduktion. Da immer wieder Halluzinationen auftreten, kann man:frau sich nicht auf Antworten verlassen.

KI hat schon heute Macht. Wird diese irgendwann zur Allmacht?

Da bleibe ich skeptisch, siehe Antwort auf die letzte Frage – Sprachmodelle werden immer unsere Kontrolle brauchen.

KI-Chatbots sind immer erreichbar, immer freundlich, immer hilfsbereit und scheinbar stets auf der Seite der Anwender*innen – Ist das vielleicht schon Allgüte?

Natürlich nicht – es ist die Absicherungsstrategie von oben. Nota bene:

https://doi.org/10.1038/s42256-019-0114-4

 

 

CC-BY-NC Science Surf , accessed 01.04.2026

Unknows facts about COPE

Wilmshurst about COPE then

The Committee on Publication Ethics (COPE) was formed “to address breaches of research and publication ethics”. It was a discussion forum providing advice for editors. Its aims were to find practical ways of dealing with issues of concern and to develop good practice. At that time, the members consisted of a small number of editors of medical journals in the BMJ publishing group and the Lancet. There were two individuals who were not journal editors – Professor Ian Kennedy (subsequently Sir Ian Kennedy) and me.

and now

The majority of COPE’s income is from large publishing houses that obtain COPE membership for their entire portfolio of journals. Because some publishers have enrolled more than one thousand journals and Springer Nature has enrolled more than 3000 journals, there should be a question as to whether all the editors of the journals that are members of COPE are truly signed up to adhere to COPE principles and practices, rather than passively complying with the policy of their publishers. This arrangement also means that COPE does not know precisely how many members it has because publishing houses do not keep COPE informed about the number of journals in their stable. Individual journals can enrol for a small fee. COPE makes a selling point of the fact that COPE membership enables journals to use the COPE logo.

 

 

CC-BY-NC Science Surf , accessed 01.04.2026

The famous Wilmshurst Spiegel interview

 

 

https://www.spiegel.de/international/zeitgeist/spiegel-interview-with-whistleblower-doctor-peter-wilmshurst-a-1052159.html

SPIEGEL: Is money enough?

Wilmshurst: I think for many of them enough money is all they need, really. I mean, most people have a price. But of course you have to be very friendly with them, you have to go and talk to them, have lunch with them, discuss the research. They have to forget that it is your aim to make the maximum amount of money.

SPIEGEL: And what if the professor produces results in a trial that we don’t like?

Wilmshurst: You have made the principal investigator sign a confidentiality agreement beforehand, so that you have control over the data. And you may put into the contract arrangements for a bonus in case of a positive result. (grins) This may help the researcher interpret the data in a more favorable way for you.

SPIEGEL: But there’s one obstinate researcher who keeps insisting on publishing negative results. And he doesn’t accept the bribe that we offer him. What now?

Wilmshurst: Well, you can try and discredit him, you can try to ruin his reputation and cast doubts on his results. That’s what was done with me. And then in the end you can sue him. The threat is often enough to keep him quiet.

please read the FULL interview at the link above

 

CC-BY-NC Science Surf , accessed 01.04.2026

Why the Eickelberg “Gold Standard Science” editorial is so ridiculously shallow

I sent chatGPT 5 the new JCI piece and here is what I got:

The editorial opens by invoking the new federal plan “Restoring Gold Standard Science” a phrase so inflated that it already tests the reader’s pain threshold before the first paragraph is over.

Rather than examining what this initiative actually changes, the authors simply echo its vocabulary, “rigor,” “reproducibility,” “transparency” — as if repetition itself could restore credibility. The JCI editorial “Publishing gold standard science” may not be offensive or incompetent, but it comes across as self-congratulatory and bureaucratic—essentially a polished form of institutional advertising.

It mistakes bureaucratic slogans for substance
The authors repeat official NIH language—“rigor,” “reproducibility,” “transparency,” “data sharing”—without analyzing what these terms achieve in practice. The piece confuses administrative formality with scientific reform.

“We encourage the NIH to recognize publishers’ role in conveying research results with transparency and accuracy.”

Such sentences state the obvious but contribute nothing analytic. They reinforce policy orthodoxy rather than scrutinize it.

It rehashes two-decade-old debates
Most of the text is a retelling of Begley & Ellis (2012) and Freedman & Inglese (2014). The authors restate familiar concerns about irreproducibility but add no evidence or theoretical insight—just a timeline of NIH initiatives already well known to anyone in biomedical research.

It presents correlation as insight
The figure showing that SciScore doubled between 2000 and 2012 but stagnated after 2014 directly contradicts the claim that the NIH “Rigor and Reproducibility” framework improved research quality. Instead of confronting that, the authors offer speculation about funding.

“We hypothesize that in the US, underfunding also threatens R&R. … It would be valuable to know what accounted for this apparent improvement.”

This turns a negative result into vague conjecture, avoiding the obvious conclusion that the framework had little measurable effect.

It functions as self-promotion
Large sections describe JCI’s internal procedures—manual QC, data policies, peer-review traditions—without connecting them to measurable improvements in reproducibility.

“In 2025, our staff began manual quality control measures of high-throughput sequencing and proteomic datasets prior to acceptance.”

The tone resembles a corporate sustainability report more than a scientific analysis.

It trivializes the reproducibility crisis
Although the authors admit that there is no evidence of better translation from these reforms, they close with uplifting boilerplate.

“Editors, reviewers, NIH-supported scientists, and the scientific community will continue to work with the NIH… This is a noble and worthy cause for all of us to unite in advancing together.”

The conclusion replaces reflection with ceremony.

It uses circular logic about peer review
The authors argue that disagreement among reviewers is proof of rigor, not a sign of inconsistency.

“Peer review… includes disagreement and dissent — hallmarks of scientific progress.”

This equates friction with validity; dissent becomes self-justifying evidence that the process works, which is logically empty.

It exemplifies performative virtue
Frequent references to “accountability,” “taxpayer dollars,” and “public trust” suggest moral legitimacy but not measurable outcomes. The piece sounds reassuring rather than investigative.

“Calls for restoring Gold Standard science are said to be motivated by the erosion of public trust in science.”

This is a rhetorical maneuver—invoking civic virtue while sidestepping the deeper problem of perverse incentives, selective reporting, and impact-factor economics.

It relies on inflated rhetoric
Expressions such as “robust education of scientists,” “gold standard science,” and “noble and worthy cause” give the essay a sermon-like tone. The writing feels more like grant-language or an internal memo than the reflective editorial it claims to be.

Summary
The editorial is so shallow not because it contains factual errors, but because it exemplifies performative concern for rigor: an official text celebrating reproducibility while offering no reproducible evidence. It turns the language of reform into a form of self-validation, mistaking compliance with substance.

 

CC-BY-NC Science Surf , accessed 01.04.2026

Honorable mention

I had been at previous HUGO meetings where just by alphabetic order WJST followed WATSON. But I had never been happy about that … Here are two obituaries on Jim Watson, the first is Titan of science with tragic flaws in Science

Nathaniel Comfort, a science historian at Johns Hopkins University who early in his career worked as a writer at CSHL, is completing a biography of Watson, which he has been researching for more than a decade. The working title is American Icarus, a reference to hubris. “Watson was the most important and most famous scientist of the 20th century, and the most infamous of the 21st, and in both cases, the reason is due to his genetic determinism,” says Comfort, who says his subject was guilty of “over believing in the power of DNA.”

And another from one of my favorite blogs Lionel Pachter. The official CSHL release is crossed out here

As an author, Watson wrote two books at Harvard that were and remain best sellers. The textbook Molecular Biology of the Gene, published in 1965 (7th edition, 2020), changed the nature of science textbooks, and its style was widely emulated.
In this textbook Watson got the central dogma wrong, presenting it in a profoundly misleading way. (source: Matthew Cobb, 2024).
The Double Helix (1968) was a sensation at the time of publication. Watson’s account of the events that resulted in the elucidation of the structure of DNA remains controversial, but still widely read.
Prior to the publication of The Double Helix, Francis Crick wrote that “If you publish your book now, in the teeth of my opposition, history will condemn you”. Watson published the book anyway (source: letter by Francis Crick, 1967) .

Nevertheless last week I had an honorable encounter with the esteemed colleague Peter Wilmshurst commenting also at PubPeer on a trial that went wrong.

Wilmshurst is one of the real heroes  in an era where an entire generation of scientists is in danger of sinking into the mud.

 

CC-BY-NC Science Surf , accessed 01.04.2026

Is there a data agnostic method to find repetitive data in clinical trials?

There is an interesting observation by Nick Brown over at Pubpeer who analysed a clinical dataset (see also my comment atthe BMJ)

…there is a curious repeating pattern of records in the dataset. Specifically, every 101 records, in almost every case the following variables are identical: WBC, Hb, Plt, BUN, Cr, Na, BS, TOTALCHO, LDL, HDL, TG, PT, INR, PTT

which is remarkable detective work. By plotting the full dataset as a heatmap of z scores, I can confirm his observation of clusters after sorting for modulo 101 bin.

How could we have found the repetitive values without knowing the period length? Is there any formal, data-agnostic detection method?

If we even don’t know the initial sorting variable, it may makes sense to look primarily for monotonic and nearly unique variables, i.e. that are plausible ordering variables. Clearly, that’s obs_id in the BMJ dataset.

Let us first collapse all continuous variables of a row into a string forming a fingerprint. Then we compute pairwise correlations (or Euclidean distances in this case) of all fingerprints.  If a dataset contains many identical or near-identical rows, we will see a multimodal distribution of correlations plus an additional big spike at 1.0 for duplicated rows. This is exactly what happens here.

Unfortunately this works only when mainly repetitive variables are included and not too many non repetitive variables.

Next, I thought of Principal Component Analysis (PCA) as the identical blocks may create linear dependencies and the covariance matrix is becoming rank-deficient. But unfortunately results here were not very impressive – so we better stick with the cosine similarity  above.

So rest assured we find an excess of identical values, but how to proceed?  Duplicates spaced by a fixed lag will cause an high lag k autocorrelation in each variable. Scanning k=1…N/2 reveals spikes at the duplication lag as shown by a periodogram of row-wise similarity in the BMJ dataset.

So there are peaks at around 87, 101 and 122. Unfortunately I am not an expert in time series or signal processing analysis. Can somebody else jump in here and provide some help with FFT?

There may be even an easier method, using the fingerprint-gap . For every fingerprint that occurs more than once, we sort those rows by obs_id and compute the differences of obs_id between consecutive matches.  Well, this shows just one dominant gap at 101 only!

We could test  also all relevant mod values, lets say between 50 and 150. For each candidate we compute the across-group variance of the standardized lab-means. The result is interesting

Modulus 52: variance = 0.084019
Modulus 87: variance = 0.138662
Modulus 101: variance = 0.789720

As a cross check let us  look into white blood cell counts (WBC) and hemoglobin (Hb).

I am not sure, how to interpret this. Mod 52 may reflect shorter template fragments but did not show up in the autocorrelation test. Mod 87 has rather smooth, coherent curve and is supported by autocorrelation. Mod 101 is more noisy, but gives probably the best explanation for block copying values. Maybe the authors block copied at two occasions?

On the next day, I thought of a strategy to find the exact repetition numbers. Why not looping over mod 50 through 150 and just count the number of identical blocks? This is very informative – blocks of size 2, size 3 and 4 or greater show an exact maximum at modulus 101.

 

23.3.2026 Appendix

There seems many more studies out there with copy-pastein signs including a Parkinson Cell paper, a PLoS Genetics toxicology paper and a Nat Comm fish ecology study. Here is the Github link to the implementation by Markus Eglund

Hopefully I get the pipeline right by summarizing the entropy calculation there. This  is not Shannon entropy – it is a custom measure of how informationally surprising a raw number is. The logic is:

  • Strip the decimal point and trailing zeros from the number’s string representation, then take the absolute integer value. So 0.314314, 0.5005 (trailing zeros stripped), 201616 (year exception: years 1900-2030 get a capped entropy of 100).
  • Apply a log-scaled transformation: values below 100 get log10(value); values up to 100,000 get 5×log10 - 8; larger values get log10 + 12.
  • For column sequences, sum the individual entropy scores of each value in the run.
  • Adjust downward for “regularity” – if the values in a sequence follow a regular arithmetic interval (e.g. 1.0, 2.0, 3.0), the score is reduced proportionally, because regular sequences can appear legitimately.
  • Normalise by logNumberCountModifier (log of the total number of numeric cells on the sheet) so large sheets don’t get disproportionately penalised.

The suspicion grades are fixed thresholds on the resulting normalized score. Medium and High hits qualify a sheet for AI review. The most suspicious sheets (ranked first within each file, then by score across files, capped at a configurable maximum per dataset) are passed to Gemini with a detailed prompt that includes: the raw data, the flagged duplicates, and context from the paper. The LLM decides whether the finding is genuinely suspicious or has an innocent explanation.

 

CC-BY-NC Science Surf , accessed 01.04.2026