I can’t read anymore what I would like to read — which isn’t unexpected with the doubling of papers in the last 10 years. The current rewarding system has such a focus on impact and publications – an over optimization where negative side effects are now beginning to dominate. Continue reading Science pump in, pump out
Category Archives: Software
Faxenbuch
Mag sein, aber von der Struktur unterscheidet sich diese Gesellschaft nicht vom Feudalismus des Mittelalters. Wir befinden uns in einer Leibeigenschaft. Die digitalen Feudalherren wie Facebook geben uns Land, sagen: Beackert es, ihr bekommt es kostenlos. Und wir beackern es wie verrückt, dieses Land. Am Ende kommen die Lehnsherren und holen die Ernte.
You are welcome
everyone has a right to privacy and security (2:30) this comes with a great responsibility (4:58)
Fade to grey
Steve Strange died yesterday.
Why not setting up your own server log analysis?
I have been relying for 20 years on analog for reading my webserver logs. But maybe … this is a bit outdated, while some newer systems as awstats, google analytics or piwik are too overloaded for me. My more recent approach with plugins like statpress or slimstat considerably degraded my system performance. So why not setting up an own database as this can be done in 30 minutes?
First, get sqliteadmin.php as we need to build a small database “log.sqlite3”. Create a new table by pasting
CREATE TABLE 'visit' ('id' INTEGER PRIMARY KEY AUTOINCREMENT NOT NULL, 'page' TEXT, 'dt' DATETIME DEFAULT CURRENT_TIMESTAMP, 'ip' TEXT, 'name' TEXT);
in the SQL window of sqliteadmin.php and include the following code in the header of all your pages
class MyDB extends SQLite3 { function __construct() { $this->open("log.sqlite3"); } } $db = new MyDB(); $logpage="http://".$_SERVER['HTTP_HOST'].$_SERVER['REQUEST_URI']; $logip = $_SERVER['REMOTE_ADDR']; $logip = substr($logip, 0, strrpos($logip, ".")) . ".xxx"; isset($_SERVER['PHP_AUTH_USER'])? $logname = $_SERVER['PHP_AUTH_USER'] : $logname = $_SERVER['REMOTE_USER']; $sql='INSERT INTO visit (page,ip,name) VALUES ("'.$logpage.'","'.$logip.'","'.$logname.'");'; $db->query($sql); $db->close();
That’s all we need to record. Maybe you want also a statistics page? Here is it, showing all recorded traffic (and in brackets what is going on today).
<pre>Logfile Analysis <?php class MyDB extends SQLite3 { function __construct() { $this->open("log.sqlite3"); } } $db = new MyDB(); $sql = "SELECT page, count(page) AS c FROM visit WHERE round(julianday('now') - julianday(dt)) >=0 GROUP BY page ORDER BY c DESC;"; $ret = $db->query($sql); while($row = $ret->fetchArray(SQLITE3_ASSOC) ){ $pagearray[ $row["page"] ] = $row["c"]; } $sql = "SELECT page, count(page) AS c FROM visit WHERE round(julianday('now') - julianday(dt)) =0 GROUP BY page ORDER BY c DESC;"; $ret = $db->query($sql); while($row = $ret->fetchArray(SQLITE3_ASSOC) ){ $pagetoday[ $row["page"] ] = $row["c"]; } foreach ($pagearray as $key => $page) { echo $page>5 ? "<div class=big>" . $page . "(". $pagetoday[$key] . ")" . "</div>" . $key . "<br>" : FALSE; } ?>
Looks like we used only 32 lines of code, yea, yea.
Alles übers Zitieren
Alles übers Zitieren steht bei academics.de in einem neuen Beitrag inklusive Gründe für das Zitieren, Funktion (methodisch, evolutionär, konträr…) und Zitierbarkeit besprechen.
Rstudio, knitr (Rmarkdown2) and bash
I couldn’t find any example online how to revise my R code getting the exif data from pictures
fn <- c("/usr/local/bin/exiftool /Users/wjst/Desktop/white.tif") info <- system(fn,inter=TRUE,wait=TRUE)
when moving now to knitr. So here is what worked for me as a replacement including the parsing
of exiftool output.
```{r, engine='bash', echo=FALSE} /usr/local/bin/exiftool /Users/wjst/Desktop/white.tif >/Users/wjst/Desktop/white.txt ``` ```{r Exif, echo=FALSE} fn <- '/Users/wjst/Desktop/white.txt' info <- paste(readLines(fn)) info <- strsplit(info,"[:]{1}[ ]{1}") info <- matrix(data=unlist(info), ncol = 2, byrow = TRUE) info <- gsub("(^[[:space:]]+|[[:space:]]+$)", "", info) ``` *Exif* `r kable(info)`
Was ist sicher und was nicht
Chip.de berichtet, wie die NSA Verschlüsselungen einstuft
Als “trivial” gilt etwa die Verfolgung eines Dokuments im Internet. “Gering” wird der Aufwand bezeichnet, Facebook-Chats auszulesen, “mäßig” anstrengen muss sich die NSA, um E-Mails eines russischen Mail-Providers abzufangen.
…
Das anonyme Netzwerk Tor, die Festplatten-Verschlüsselung TrueCrypt bis Version 7.1a, die Chat-Verschlüsselung Off-the Record (OTR), die E-Mail-Verschlüsselung PGP (etwa in der Implementierung Gpg4win) sowie das Protokoll ZRTP, mit dem sich Chats und Telefonate verschlüsseln lassen (zum Einsatz kommt es etwa in RedPhone und Signal), können von der NSA offenbar nicht geknackt werden.
…
Fritz Box recycled
I needed to patch an unused Fritz Box with a DHCP and name server for a new project. Running these services from a network server wasn’t really stable.
The freetz websites has all the details for the patch while I can confirm that freetz version 2.0 can power a 10 year old 1und1 branded Fritz Box SL WLAN (also known as 3020 type) running firmware 09.04.34.
I compiled everything under Ubuntu/Luna using the terminal
#!/bin/bash cat /etc/issue uname -m # update system sudo apt-get -y update sudo apt-get -y upgrade sudo apt-get -y dist-upgrade sudo apt-get -y install imagemagick subversion gcc g++ bzip2 binutils automake patch autoconf libtool pkg-config make libncurses5-dev zlib1g-dev flex bison patch texinfo tofrodos gettext pkg-config ecj fastjar realpath perl libstring-crc32-perl ruby ruby1.8 gawk python libusb-dev unzip intltool libglib2.0-dev xz-utils git-core libacl1-dev libattr1-dev libcap-dev # do NOT run the following as root cd /HOME/wjst/Desktop umask 022 svn checkout http://svn.freetz.org/branches/freetz-stable-2.0 cd freetz-2,.0 make menuconfig make
The new image may then be uploaded using the standard AVM webinterfaceat http://fritz.box . The AVM DHCP needs to be switched off.
Freetz can be reached at http://fritz.box:81 where also the dnsmasq hosts file can be programmed to reach my server at a permanent IP address.
Cause and effect in observational data: Magic, alchemy or just a new statistical tool?
Slashdot has a feature on that
Statisticians have long thought it impossible to tell cause and effect apart using observational data. The problem is to take two sets of measurements that are correlated, say X and Y, and to find out if X caused Y or Y caused X. That’s straightforward with a controlled experiment… But in the last couple of years, statisticians have developed a technique that can tease apart cause and effect from the observational data alone. It is based on the idea that any set of measurements always contain noise. However, the noise in the cause variable can influence the effect but not the other way round. So the noise in the effect dataset is always more complex than the noise in the cause dataset. .. The results suggest that the additive noise model can tease apart cause and effect correctly in up to 80 per cent of the cases (provided there are no confounding factors or selection effects).
and jmlr a more theoretical account
Based on these deliberations we propose an efficient new algorithm that is able to dis- tinguish between cause and effect for a finite sample of discrete variables.
tbc
Lights on please, any questions? Prototyping a new discussion culture
It is a ritual that I have seen for may years. All lights are switched on after a talk and the race starts for the microphones.
These are not always the best questions that are being asked after a talk. And as there is a time limit, not all questions will be asked. And why are these only oral questions while the lecture was multimedia?
Apart from the fact that asking a question is a mini-presentation of people who are not suffering from low self esteem, I think we may indeed develop new tools of communication.
Here is my current experimental setup. I open a local hotspot before the lecture where up to 250 mobile devices (phone, tablet, laptop) can connect. Each of these clients in the audience gets a comment / upload screen when following instructions given on the first slide.
All audience response is being written to a database, while attached diagrams or screenshots are being saved to a cache directory.
The talk itself is not displayed from Powerpoint but from Chrome in presentation mode. Basically this is just one single presentation page built dynamically with one divs per slide. Next slide just means scrolling to the next div and can be controlled from any tablet or phone.
Periodically the presentation page is being appended with further divs containing new question slides from the audience.
After the end of the talk, we can go to the admin page, where we may jump to single questions and display them just like the slides from my own talk.
But what is so much different now to the current practice?
- Questions are asked in time.
- Everybody can see the questions – no need for any microphone.
- There is nothing is lost as we can review the questions even weeks later.
If you interested in testing, I would be happy to share further details. The only thing you need is a local WLAN router and access to the command line where a local web server is being started.
Your own network running from a Macbook
I need a local wireless LAN for about 100 mobile phones working as message terminals for an info screen projected to a white wall. As I had an old, unused Fritz! Box, I created a WLAN there but disabled DHCP as local domains are not supported by the Fritz! OS due to security constraints.
Then I installed dnsmasq on the Macbook and a packet sniffer to see what is going on.
brew update brew install dnsmasq brew install wireshark --with-qt
while I could use the DNS server already available under Mavericks. But then things became difficult. Here is what finally worked for me. Not sure if this is really the best way to handle it…
# need to be run as root sudo -s # WiFi off networksetup -setairportpower en0 off # set IP address, net mask, and router networksetup -setmanual Wi-Fi 192.168.1.2 255.255.255.0 192.168.1.1 # set nameserver IP address networksetup -setdnsservers Wi-Fi 192.168.1.2 # start nameserver launchctl load -w /Library/LaunchDaemons/homebrew.mxcl.dnsmasq.plist # start DHCP server launchctl load -w /System/Library/LaunchDaemons/bootps.plistapachectl start # WiFi on networksetup -setairportpower en0 on # test local domain dig test.dev
And just for the records here are two configuration files for DHCP and nameserver including their directories.
sudo nano /etc/bootpd.plist
<?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd"> <plist version="1.0"> <dict> <key>bootp_enabled</key> <false/> <key>detect_other_dhcp_server</key> <true/> <key>dhcp_enabled</key> <array> <string>en0</string> </array> <key>reply_threshold_seconds</key> <integer>0</integer> <key>Subnets</key> <array> <dict> <key>allocate</key> <true/> <key>dhcp_domain_name_server</key> <array> <string>192.168.1.2</string> </array> <key>dhcp_router</key> <string>192.168.1.1</string> <key>lease_max</key> <integer>86400</integer> <key>lease_min</key> <integer>86400</integer> <key>name</key> <string>192.168.1</string> <key>net_address</key> <string>192.168.1.0</string> <key>net_mask</key> <string>255.255.255.0</string> <key>net_range</key> <array> <string>192.168.1.3</string> <string>192.168.1.254</string> </array> </dict> </array> </dict> </plist>
sudo nano /usr/local/etc/dnsmasq.conf
address=/.dev/192.168.1.2
Widmung
Was ich heute gesehen habe, ist doch etwas ungewöhnlich: Die Widmung einer Doktorarbeit wurde aus Datenschutzgründen entfernt:
Keine Ahnung was sich I.E.F. aus L. genauer B., dabei wohl gedacht hat. Mal abgesehen von grässlichem Deutsch
Eine verlässliche Vergleichbarkeit der Ergebnisse der verschiedenen Publikationen ist in Gänze nicht möglich
und etwas skurillen Testverfahren, bin ich schon irritiert, mit so etwas in Zusammenhang gebracht zu werden.
Gedemütigt dürfte aber vor allem der Adressat der Widmung sein. Eine Widmung ist nach Auskunft von Wikipedia eine Zueignung, der Ausdruck einer freundlicher Verbundenheit und des Dankes des Autors
eines Werkes an eine Person, die ihm nahesteht. Die Widmung in einem Buch hat ihren Platz auf der Widmungsseite.
Juristen sehen den Begriff Widmung sogar noch weiter reichend
Als „Widmung“ wird ein Rechtsakt bezeichnet, welcher aus einer Sache eine öffentliche Sache macht. Mit der Widmung wird erklärt, dass die betreffende Sache einem bestimmten öffentlichen Zweck dienen soll.
Nun, man kann eine Widmung weglassen, aber aus Datenschutzgründen dann von der Veröffentlichung löschen? Damit ist wohl der der Sinn der Widmung komplett abhanden gekommen.
Vielleicht ist das aber dann doch nicht wirklich tragisch, wenn man den Rest der Arbeit liest…
Wissen und Pseudowissen
Wissen und Pseudowissen sehen von weitem betrachtet ähnlich aus. Pseudowissen kommt im Mantel von anerkanntem Wissen daher, ist allerdings nie wirklich überprüft worden. Traditionelle Überlieferung eben, Hörensagen, alles plausibel, aber doch nie überprüfte Fakten. Auch in der Wissenschaft macht sich zunehmend Pseudowissen breit. Darauf kam auch Al Ani mit einem interessanten Beitrag bereits Anfang des Jahres zu sprechen
ls ich vor einigen Tagen eine Vorlesung abhielt, meldete sich eine anwesende Studentin: Sie hätte sich mit meinem Vortragsthema zwar noch nie beschäftigt, hätte aber schnell zwei von mir zitierte Quellen gegoogelt und befand diese als nicht repräsentativ.
Dieses Beispiel zeigt zwei wesentliche Merkmale des heutigen Lernverhaltens: Dieses erfolgt immer öfter nicht mehr “auf Vorrat”, sondern sozusagen „on demand”: Wenn ich es brauche, weiß ich, wo ich es herbekomme. Ein Verhalten, das sehr gut zur Bewältigung der Herausforderung passt, wie sie schnell aufeinander abfolgende, unterschiedliche Aufgabenstellungen und Projekte im digitalen Zeitalter darstellen. Lernen auf Verdacht erscheint hier nicht immer sinnvoll und möglich, da es selten absehbar ist, was auf einem in der nächsten Zeit an Anforderungen zukommen wird.
Ein solches Verhalten bedingt dann natürlich auch einen anderen Umgang mit einem exponentiell wachsenden und durch soziale Medien fast schon überbordenden angebotenen Wissen oder eher Informationen. Es geht hier zunächst darum, den Überblick zu wahren, zu navigieren…
So rational und sinnvoll ein derartiges Verhalten auch sein mag, es bedeutet offensichtlich einen Bruch mit dem bisherigen Lernverhalten und hat massive Auswirkungen auf unser Verhalten und sogar auf den Zusammenhalt der Gesellschaft als solche.
Vergessen wir für einen Augenblick, wie skurill es ist, dass dieser Beitrag auf der Huffington Post erschienen ist.
Dass Wissen stirbt, finden aber auch andere Autoren, zuletzt Knauß in der Wirtschaftswoche, wenn auch aus einem anderen Blickwinkel:
In seinem sehr lesenswerten aktuellen Werk „Die Explosion des Wissens“ erzählt der britische Ideenhistoriker Peter Burke die Geschichte des Wissens von der Epoche der Aufklärung bis zur Gegenwart nach…
Die Geschichte des Wissens wird üblicherweise als eine große Geschichte des Fortschritts gesehen, die in der „Wissensgesellschaft“ mündet, in der wir nun angeblich leben – und die immer schneller fortschreitet. Eine ewige Aufwärtsbewegung von immer mehr wissenden Menschen.
Burke aber erzählt sein Werk gerade nicht als eine solche eindimensionale Fortschrittsgeschichte. Er widmet auch dem „Wissen verlieren“ ein eigenes Kapitel. Die Geschichte des Wissens ist – wenn man weit genug zurückblickt – eine des Auf und Ab. Und es gibt gute Gründe dafür, die Gegenwart eher auf dem absteigenden Ast zu sehen.
In der Tat, wo Wissen zur Ware wird, da stirbt Wissen. Ware vergibt eben. Da nimmt nun eine ganze Generation Wissen mit, die wirklich noch etwas von der Welt wusste. Die alle keinen Wissenskanon a la Ganten oder Schwanitz brauchten, die noch eine umfassende Schulbildung und Studium vor der Massenuniversitäten genossen haben.
Und nochmal, wo Wissen nur noch als “Impact” gezählt wird, da stirbt das Wissen. Es geht hier nicht mehr um das Wissenwollen, sondern um die industrielle Datenproduktion. Wissen in den Postgraduierten Schools wird ersetzt durch “Kompetenzen”, nachrangigen Fertigkeiten (wie zum Beispiel “goggeln” oder Bewerbungskursen). Nur dumm, dass alle dieselben Bewerbungskurse machen und nur dumm, daß Googeln nicht viel nützt, wenn der Sachverhalt im erstbesten Link falsch dargestellt ist. Dass das eigentlich relevante Ergebnis erst auf Seite 10 kommt, oder überhaupt nicht im Internet steht. Wie Paul Liessmann es auf den Punkt gebracht hat “Wer keine Ahnung von Geschichte hat, dem hilft auch Wikipedia nicht weiter”. Die Fragmentierung des Wissens bedeute leider auch, dass immer weniger wirklich überprüft ist. Pseudowissen eben. Und wer es dann trotzdem noch schafft, Zusammenhänge zu erkennen, der ist weise. Meine ich jedenfalls.
Premature epiphysis closure by high vitamin D supplementation?
Having been asked this question, I was only aware of the fact that premature epiphysis closure is a side effect of isotretinoin therapy in children (Tran 2008).
While DELAYED epiphysis closure is known for rickets, it is an interesting question if vitamin D supplements given to adolescents will be leading to a premature end of longitudinal growth. Maybe this is also a difficult question as the answer will depend on long-time vitamin D, calcium and phosphate status; it will depend on dose and application scheme of any vitamin D supplement. And it will depend to some extent on the genetically determined vitamin D hydroxylase activity. The ultimate textbook (Feldman, Vitamin D, p864) writes
With treatment the unmineralized osteoid of the growth plate of the metaphysics ad epiphysis will mineralize.
This is in line with original research in rats (Boris 1978) showing
The results … indicate that the administration of la,25-(OH)2-D3 during the recovery period after EHDP administration significantly improved the uptake of 5Ca by the epiphyseal plate while reducing the plate width.
and probably also in calves ( Woddard 1997 ) although that study also included vitamin A.
This study showed that vitamin A induced growth-plate closure if calves were given an intramuscular injection of vitamins A and D (2,000,000 IU and 300,000 IU, respectively) on the first day after birth
So we need to ask first if an adolescent gets additional vitamin A for acne treatment. For vitamin D supplementation, the case is rather unlikely at the moment.. The only intervention study that I know of (Morandi 2014) missed some important aspects by focusing only on “growing pain”. As we now have the possibility of doing PET scans of the epiphysis, it would be a good research question to be safe with vitamin Du supplementation of adolescents.