13. Januar 2022 (aktualisiert am 15.11.2022)
Am 12. Januar 2022 ist mein neues Buch erschienen: »Das liberale Propaganda-Handbuch – Dem Einfluss von Propaganda widerstehen«.
Das Buch hilft dabei, sich vor Täuschung durch Massenmedien zu schützen und zeigt auf, wie die heutigen westlichen Staaten aus liberaler Sicht einzuschätzen sind.
Der Nutzen des Buchs beruht in erster Linie auf den hierin besprochenen Begriffen und Konzepten, die alle dabei helfen, Propaganda zu erkennen und alle in allgemeiner Form und anhand von Beispielen erläutert sind. Das Buch belegt, dass Angehörige von westlichen Staaten wie Deutschland und den USA durch freiheitsfeindliche Propaganda massiv beeinflusst werden.
Den vollständigen Beitrag lesen
17. April 2020
Im ersten Teil dieses Betrags habe ich mich mit der Frage beschäftigt, wie sich die Rentabilität einer Google-Ads-Kampagne einschätzen lässt. Ich habe hierfür zwei Zeiträume unterschieden, den Vorher-Zeitraum ohne die Kampagne und den Nachher-Zeitraum mit der Kampagne. Im Vorher-Zeitraum erhielt eine Website Visits durch Klicks auf Google-Suchergebnisse und im Nachher-Zeitraum durch Klicks auf Google-Suchergebnisse und Klicks auf Textanzeigen.
Den Effekt der Kampagne hatte ich im ersten Teil geschätzt, indem ich anhand der Daten des Vorher-Zeitraums prognostizierte, wie hoch die durchschnittliche Anzahl der Visits im Nachher-Zeitraum ohne die Kampagne gewesen wäre und diesen Wert von der durchschnittlichen Anzahl der tatsächlichen Visits im Nachher-Zeitraum abzog.
Ich werde den Effekt jetzt schätzen, indem ich Daten für einen Vergleichsmarkt berücksichtige. Ähnlich wie im ersten Teil schätze ich den Effekt zunächst ohne das CausalImpact-Package, mit einem als Difference-in-Differences bezeichneten Ansatz. Anschließend verwende ich das CausalImpact-Package und vergleiche meine zwei Schätzungen.
Den vollständigen Beitrag lesen
26. März 2019
Ich hatte mich in Folge 15 mit Vorher-Nachher-Vergleichen beschäftigt. Bei diesem Verfahren vergleichen Sie den Erfolg im Nachher-Zeitraum mit dem Erfolg im Vorher-Zeitraum. Dies kann sinnvoll sein, wenn Sie Grund zu der Annahme haben, dass die beobachtete Veränderung durch eine im Nachher-Zeitraum ergriffene Marketing-Maßnahme verursacht wurde.
Ein Vorher-Nachher-Vergleich wäre für Fragen der folgenden Art unzureichend:
Sie messen die wöchentlichen Visits auf Ihrer Website, die Ihnen Google gebracht hat. Seit einiger Zeit schalten Sie auch Textanzeigen mit Google Ads und wollen wissen, ob sich dies für Sie lohnt. Im Vorher-Zeitraum hatten Sie Visits durch Klicks auf Google-Suchergebnisse, im Nachher-Zeitraum Visits durch Klicks auf Google-Suchergebnisse und Klicks auf Textanzeigen. In diesem Fall könnte das Schalten der Textanzeigen die Anzahl der Visits durch Klicks auf Google-Suchergebnisse reduziert haben.
Ein Ansatz zur Untersuchung derartiger Fragen besteht in einer modifizierten Form des Vorher-Nachher-Vergleichs:
Das von Google verwendete CausalImpact-Package vergleicht den Erfolg im Nachher-Zeitraum mit einem prognostizierten Wert, dem Erfolg im Nachher-Zeitraum, der sich ohne die Marketing-Maßnahme ergeben wäre. Die Differenz zwischen den beiden Größen dient dann als Schätzwert für den Effekt der Marketing-Maßnahme, den Causal Impact.
Den vollständigen Beitrag lesen
8. Februar 2018
Ich hatte in Folge 24, Folge 25 und Folge 26 die durchschnittlichen Konversionsraten für vier Varianten einer Landing-Page verglichen. Die Besucher wurden durch Zufallsauswahl in vier Gruppen eingeteilt. Jeder Besucher sah nur die für seine Gruppe vorgesehene Variante der Landing-Page.
Die für meinen Test gebildeten vier Gruppen umfassten jeweils 35 Leads. Für eine der vier Varianten (H1T1) ergab sich eine wesentlich höhere durchschnittliche Konversionsrate als für die anderen Varianten. Mein Permutations-F-Test zeigte, dass die Unterschiede zwischen den vier Mittelwerten nicht alle zufallsbedingt sind. Die anschließenden paarweisen Mittelwertvergleiche lieferten trotzdem kein signifikantes Ergebnis.
Ich schätze jetzt, welche Gruppengrößen für meine Mittelwertvergleiche sinnvoll gewesen wären. Anschließend bewerte ich die Güte der in Folge 26 durchgeführten Mittelwertvergleiche (vier Gruppen mit jeweils 35 Leads).
Den vollständigen Beitrag lesen
6. März 2017
In Folge 21 habe ich im Rahmen eines A/B-Tests zwei Gruppen gebildet, bestehend aus jeweils elf Leads. Mein Signifikanztest legte nahe, den bei meinem A/B-Test gefundenen Unterschied zwischen den beiden Gruppenmittelwerten als zufallsbedingt anzusehen (p-Wert gleich 0,387). In Folge 26 - vier Gruppen mit jeweils 35 Leads - legten meine p-Werte ebenfalls nahe, Kausalität zu verneinen.
Ein solches Ergebnis kann zweierlei bedeuten:
1. Möglichkeit: Der Unterschied zwischen den Gruppenmittelwerten ist in Wirklichkeit nur zufallsbedingt und die Nullhypothese H0 daher richtig. Der p-Wert (0,387) führt in diesem Fall zur richtigen Entscheidung (H0 ist richtig und wird beibehalten).
2. Möglichkeit: Der Unterschied zwischen den Gruppenmittelwerten ist in Wirklichkeit systematisch und die Nullhypothese H0 daher falsch. Der p-Wert (0,387) führt in diesem Fall zur falschen Entscheidung (H0 ist falsch und wird beibehalten).
Welche dieser beiden Möglichkeiten trifft zu? Eine Antwort auf diese Frage erhalten Sie, wenn Sie sich mich mit der Güte von Signifikanztests beschäftigen, mit der Testpower.
Den vollständigen Beitrag lesen
5. September 2016
Der R Commander ist eine grafische Benutzeroberfläche für R - ausgereift, weitgehend selbsterklärend und ebenso wie R kostenlos. Zielgruppe sind Nutzer, die nur gelegentlich mit Statistik-Software arbeiten und ein intuitiv zu bedienendes System bevorzugen, vergleichbar mit SPSS.
Mein Tutorial soll zum selbständigen Arbeiten mit dem R Commander befähigen. Hierzu bespreche ich alle meiner Ansicht nach für die Beherrschung des R Commanders bedeutsamen Arbeitstechniken, die Sie anhand meiner Beispiele sehr leicht an Ihrem Computer nachvollziehen können. Ich bespreche auch fortgeschrittene Techniken, sofern sie für gelegentliche Nutzer interessant sind, insbesondere zur Anpassung von Grafiken.
Mein Tutorial behandelt nur einen kleinen Teil der über den R Commander zugänglichen statistischen Methoden. Trotzdem: Wenn Sie sich mit meinem Tutorial beschäftigt haben, dann sollte es leicht für Sie sein, den R Commander auch für andere Aufgaben zu nutzen, zum Beispiel für eine Cluster-, Faktoren- oder Hauptkomponentenanalyse.
Den vollständigen Beitrag lesen
17. Juni 2016
Ich bin in Folge 27 für mein Zahlenbeispiel zu dem Ergebnis gekommen, dass sich die Konversionswahrscheinlichkeiten für mindestens zwei der vier Landing-Page-Varianten signifikant unterscheiden. Ich will jetzt untersuchen, für welche Varianten dies zutrifft.
Ein hierfür geeignetes Verfahren ist die logistische Regression, mit der ich die vier Landing-Page-Varianten anhand von Regressionskoeffizienten vergleichen kann.
Ich erläutere zunächst den Ansatz der logistischen Regression. Anschließend schätze ich mein logistisches Regressionsmodell und validiere es mit zwei Devianztests, einmal auf Basis der Chi-Quadrat-Verteilung und einmal als Permutationstest. Zum Schluss bespreche ich die Schätzergebnisse.
Den vollständigen Beitrag lesen
5. April 2016
Ich beschäftige mich wieder mit meinem in Folge 24 beschriebenen Test von vier Varianten einer Landing-Page. In Folge 25 und Folge 26 hatte ich die mit den vier Varianten erzielten durchschnittlichen Konversionsraten verglichen. Danach unterscheiden sich mindestens zwei der vier durchschnittlichen Konversionsraten signifikant. Meine paarweisen Mittelwertvergleiche blieben trotzdem erfolglos (alle p-Werte > 0,05).
Ich werde jetzt die vier Varianten der Landing-Page vergleichen, indem ich für jede Variante die Konversionswahrscheinlichkeit schätze und prüfe, ob zwischen diesen Werten signifikante Unterschiede bestehen.
Ähnlich wie bei den Mittelwertvergleichen teste ich zunächst anhand eines Index‘, ob eine weitergehende Untersuchung sinnvoll ist. Als Index diente bei meinen Mittelwertvergleichen der empirische F-Wert. Jetzt verwende ich als Index den empirischen Chi-Quadrat-Wert.
Den vollständigen Beitrag lesen
14. Januar 2016
Ich bin in Folge 25 für mein Zahlenbeispiel mit einem Permutations-F-Test zu dem Ergebnis gekommen, dass die durchschnittlichen Konversionsraten für mindestens zwei Varianten der Landing-Page signifikant verschieden sind.
Für die insgesamt vier Varianten der Landing-Page hatten sich die folgenden durchschnittlichen Konversionsraten ergeben (siehe Folge 24):
H1T1: 0,77
H1T2: 0,51
H2T1: 0,57
H2T2: 0,46
Ich will jetzt prüfen, welche der vier Mittelwerte sich signifikant unterscheiden. Hierzu muss ich die durchschnittlichen Konversionsraten der vier Varianten paarweise vergleichen, was auf unterschiedliche Weise geht.
Das liberale Propaganda-Handbuch, Taschenbuch, 382 Seiten
Einführung in die Statistik-Software R Commander
Business Cases für den Verkauf
Fachliteratur suchen mit Google Scholar, WorldCat etc. pp.
Ghostwriter für Dissertationen, Bachelor- und Masterarbeiten
Wissenschaftliches Ghostwriting
Content-Marketing mit White Papers für Start-up-Unternehmen im B2B-Geschäft
1. White Papers als Werbemittel
2. Fallstudien im Sinne von White Papers
Warum White Papers im B2B-Geschäft häufig wirkungsvoller sind als klassische Werbung
Lead-Management im B2B-Geschäft - warum und wie?
White Papers erstellen - von der Themenwahl bis zum Layout