Verhalten in gefundenen Daten ist nicht natürlich, es wird durch die technischen Ziele der Systeme angetrieben.
Obwohl viele gefunden Datenquellen nicht reaktiv sind, weil die Menschen ihre Daten aufgenommen werden, nicht bewusst sind (Abschnitt 2.3.1.3), Forscher sollten nicht Verhalten in diesen Online-Systeme betrachten "natürlich vorkommende" oder als "rein." In Wirklichkeit ist die digitale Systeme, die Rekordverhalten auf bestimmte Verhaltensweisen zu induzieren, wie auf Anzeigen zu klicken oder Ablegen von Inhalten hochtechnisierten werden. Die Art und Weise , die die Ziele der Systemdesigner Muster in Daten vorstellen kann , ist algorithmischen verwirrende genannt. Algorithmic Verwechselung ist relativ unbekannt Sozialwissenschaftler, aber es ist ein wichtiges Anliegen unter sorgfältiger Daten Wissenschaftler. Und im Gegensatz zu einigen der anderen Probleme mit digitalen Spuren, ist algorithmischen verwirrende weitgehend unsichtbar.
Ein relativ einfaches Beispiel für algorithmische confounding ist die Tatsache , dass auf Book gibt es eine anomal hohe Anzahl von Benutzern mit etwa 20 Freunden (Ugander et al. 2011) . Wissenschaftler mit diesem Daten zu analysieren, ohne zu verstehen, wie Facebook funktioniert zweifellos viele Geschichten über generieren konnte, wie 20 eine Art magische soziale Zahl ist. Allerdings hatte Ugander und seine Kollegen einen wesentlichen Verständnis des Prozesses, der die Daten erzeugt, und sie wussten, dass Facebook ermutigt Menschen mit wenigen Verbindungen auf Facebook, um mehr Freunde machen, bis sie 20 Freunde erreicht. Obwohl Ugander und Kollegen in der Zeitung nicht sagen, wurde diese Politik vermutlich durch Facebook erstellt, um neue Nutzer zu ermutigen, aktiver zu werden. Ohne zu wissen, über die Existenz dieser Politik aber ist es leicht, die falschen Schlüsse aus den Daten zu ziehen. Mit anderen Worten, erzählt die überraschend hohe Zahl von Menschen mit etwa 20 Freunde, die uns mehr über Facebook als das menschliche Verhalten.
Mehr verderblich als dieses vorherigen Beispiel, in dem algorithmischen verwirrende eine schrullige Ergebnis geführt, dass eine sorgfältige Forscher weiter untersuchen könnte, ist es eine noch heikler Version von algorithmischen verwirrende, der auftritt, wenn Designer von Online-Systemen der sozialen Theorien bewusst sind und dann diese Theorien in die Arbeits backen ihrer Systeme. Sozialwissenschaftler nennen Performativität: wenn Theorien die Welt so verändern , dass sie bringen die Welt mehr in Einklang mit der Theorie. In den Fällen der performative algorithmischen verwirrende, ist die verflixte Art der Daten, die wahrscheinlich unsichtbar.
Ein Beispiel für ein Muster, das durch Performativität erstellt ist transitivity in sozialen Online-Netzwerken. In den 1970er und 1980er Jahren fanden die Forscher immer wieder, dass, wenn Sie Freunde mit Alice sind und Sie sind befreundet mit Bob, dann Bob und Alice sind eher miteinander befreundet sein als zwei zufällig ausgewählte Personen. Und genau diese Muster wurde in der sozialen Graphen auf Facebook zu finden (Ugander et al. 2011) . So könnte man schließen, dass die Muster der Freundschaft auf Facebook Muster von Offline-Freundschaften zu replizieren, zumindest in Bezug auf die Transitivität. Allerdings ist die Größe der Transitivität in der Facebook Social Graph teilweise durch algorithmische verwirrende angetrieben. Das heißt, Daten Wissenschaftler bei Facebook wusste der empirischen und theoretischen Forschung über Transitivität und dann gebacken es in, wie Facebook funktioniert. Facebook hat eine "Menschen können Sie wissen," -Funktion, neue Freunde vermuten lässt, und eine Möglichkeit, dass Facebook, der entscheidet, vorzuschlagen Ihnen transitivity ist. Das heißt, Facebook eher zu empfehlen, dass Sie Freunde mit den Freunden von Ihren Freunden. Diese Maßnahme hat somit die Wirkung von Transitivität in der Facebook Social Graph zu erhöhen; in anderen Worten, bringt die Theorie der Transitivität der Welt , in Einklang mit den Vorhersagen der Theorie (Healy 2015) . Somit wird, wenn große Datenquellen Vorhersagen der Theorie der Gesellschaft zu reproduzieren erscheint, müssen wir sicher sein, dass die Theorie selbst nicht in gebacken wurde, wie das System funktioniert.
Anstatt wie von großen Datenquellen denkenden Menschen in einer natürlichen Umgebung zu beobachten, eine passende Metapher ist Menschen in einem Casino zu beobachten. Casinos sind so konzipiert Umgebungen hochtechnisierten bestimmte Verhaltensweisen zu induzieren, und ein Forscher würde nie das Verhalten in einem Casino erwarten würde ein uneingeschränktes Fenster in das menschliche Verhalten. Natürlich haben wir etwas über das menschliche Verhalten zu studieren Menschen in den Casinos in der Tat ein Casino einen idealen Rahmen, die die Beziehung zwischen Alkoholkonsum und Risiko sein könnte lernen könnten Vorlieben, aber für das Studium, wenn wir, dass die Daten ignoriert wurde in einem Casino geschaffen werden könnten wir ziehen einige schlechte Schlussfolgerungen.
Leider mit algorithmischen verwirrenden Umgang ist besonders schwierig, weil viele Funktionen von Online-Systeme proprietär sind, schlecht dokumentiert, und ändert sich ständig. Zum Beispiel, wie ich später in diesem Kapitel erklären werde, war algorithmischen verwirrende eine mögliche Erklärung für die schrittweise Abbau von Google Grippe-Trends (Abschnitt 2.4.2), aber dieser Anspruch war hart, weil das Innenleben der Google-Suche zu beurteilen Algorithmus sind urheberrechtlich geschützt. Die Dynamik der algorithmischen verwirrende ist eine Form von Systemdrift. Algorithmic verwirrende bedeutet, dass wir über jeden Anspruch auf das menschliche Verhalten, das von einem einzigen digitalen System kommt, egal wie groß sollten vorsichtig sein.