Nutzer von Sprachassistenten wie Siri und Alexa verwenden diese, um sich über Fakten wie historische Jahreszahlen und Ereignisse, aber auch über soziale, politische und moralische Fragen zu informieren. Auf diese Weise wird ihr Weltverständnis enorm durch die Geräte beeinflusst. Zugleich speist jede Anfrage den Algorithmus und reichert ihn mit weiteren Daten an. Diese Daten bilden jedoch, wie Simanowski es formuliert, nur den Mainstream ab. Denn die sprachverarbeitende KI berechne aus ihnen rein statistisch „Häufigkeiten von Wortvorkommen und Wortfolgen in thematischen Zusammenhängen“, wodurch sie in der Lage sei, „selbst eine syntaktisch richtige und semantisch stimmige Aussage zu machen“.
Simanowski verweist in diesem Zusammenhang auf das Problem, dass die Daten, mit denen die Sprachassistenten trainiert werden, nur von einem kleinen Ausschnitt der Gesellschaft ausgewählt und angepasst werden, nämlich überwiegend von jungen, weißen, männlichen, vergleichsweise wohlhabenden Softwareentwicklern aus den USA. Er sieht darin die Gefahr, dass andere Weltsichten und Weltregionen nur wenig bis gar nicht in diesen Daten repräsentiert werden.
Eine mögliche Lösung sieht Simanowski in einer „algorithmischen Reparatur“. Dabei würde sprachverarbeitende KI an Daten trainiert, die von bisher unterrepräsentierten Bevölkerungsgruppen kommen. Wichtig sei aber vor allem eines: die gesellschaftliche Aushandlung der Frage, aus welchen Datensätzen Sprach-KI lernen sollte. Bei dieser Frage gehe es letztlich um Gerechtigkeit.