Visualierung und offene Daten als Mittel der ökonomischen Forschung und der Wissenschaftspublikation
Max Roser forscht am Institute for New Economic Thinking der Universität in Oxford an Forschungsprogrammen rund um die globale Einkommensentwicklung und arbeitet empirisch an Statistiken und Analysen, um volkswirtschaftliche Zusammenhänge und Entwicklungen deutlich werden zu lassen. Aus eigener Initiative startete er das Projekt "Our World In Data", das führende Studien verschiedener Forschungsgebiete im ökonomisch-soziologischen Bereich analysiert und die dort erarbeiteten Zahlen visualisiert und neu kombiniert.
Wir sprechen über neue Ansätze in der Ökonomie-Forschung, die Bedeutung von Visualisierungen und Big Data für die Wissenschaftskommunikation sowie über den Nutzen des Internets für die Forschung und Öffentlichkeitsarbeit insgesamt.
Verwandte Episoden
Transkript
Shownotes
Links
Glossar
- University of Oxford
- Universität Innsbruck
- Philosophie
- Geowissenschaften
- Volkswirtschaft
- Adam Smith
- Karl Marx
- Einkommensverteilung
- Thomas Piketty
- Das Kapital im 21. Jahrhundert
- Occupy Wall Street
- Emmannuel Saez
- Open Data
- Finanzkrise ab 2007
- Synaspismos Rizospastikis Aristeras (Syriza)
- Manuel Eisner
- Polity
- Anocracy
- Streudiagramm (Scatter Plot)
- Weltbank
- Hans Rosling
- Tableau Software
This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License
Die Folgerungen aus den Korrelationen „Hüngersnöte und Autokratie“ sowie „Autokratie und Krieg“, dass Demokratie Hüngernöte und eine Demokratiesierung Kriege mit Demokratien verhindere, sind schon sehr gewagt. Sicherlich spielen Faktoren wie Dürre, Armut und Korruption bzw. Aggressor, Kriegsgründe, Legitimation eine wichtigere Rolle.
Der genaue Prozess der ökonomischen Forschung inklusive Reproduzierbarkeit der Erkenntnisse, Analyse und Peer-Review kommen hier zu kurz. Interessant war die Bemerkung, dass OpenSource-Daten zu einer fachlich besseren und neutraleren Forschung beiträgt.
Die Folge war interessant, ich hätte gerne aber noch eine, die mehr die Technik hinter den ganzen Visualisierungen beschreibt.
Welche Datenbanken werden benutzt (postgre, couchdb, hadoop, elasticsearch)? Wie werden Daten dort gespeichert und abgefragt? Wie kommen die Daten überhaupt in die DBs? Werden dafür ggf. ETL-Tools benutzt? Gibt es eine Server-Seitige BI-Schicht zur weiteren Aggregation und Anreicherung?
Und wie werden die Daten am Ende visualisiert und navigierbar gemacht? (D3.js, angular.js)
Pingback: Wissenschaftliche Podcasts | digithek blog