?
Am Sonntag hat mich mein Schwesterherz aus Spanien noch einmal für einen Tag besucht, bevor sie wieder zurück nach Hause musste. Sie war zuletzt in unserer alten Heimat Herzogenaurach, der „Weltstadt des Sports“1Nikolas Pelke, Neuer Aufwind für die Stub, 30.3.2023, Fränkischer Tag, https://www.fraenkischertag.de/lokales/hoechstadt-herzogenaurach/politik/diskussion-um-stub-nimmt-fahrt-auf-art-242803. adidas und PUMA sind hier zu Hause, aber auch viele weniger bekannte und mehr bekannte Arbeitgeber wie der Automobilzulieferer INA Schaeffler. Ein Trauerspiel, dass eine deutsche Vorzeigestadt dieser Größe wie Herzogenaurach mit seinen knapp 14.000 täglichen Berufspendlern2 Andreas Scheuerer, Trotz Klimaschutz – Mehr und mehr Pendler im Landkreis Erlangen-Höchstadt, Fränkischer Tag, https://www.fraenkischertag.de/lokales/hoechstadt-herzogenaurach/verkehr/mehr-und-mehr-pendler-in-erlangen-hoechstadt-art-309755 außer ein paar lächerlicher Minibusse keinen ÖPNV hat 🤯
Dabei bin ich als Kind noch von dort mit der Bahn gefahren. Herzogenaurach hatte einen Bahnhof. Doch der wurde mit Teer zugekleistert, um darauf Parkplätze für Autos zu bauen. Ein Paradebeispiel für das Versagen deutscher Umweltpolitik. Ich könnte kotzen. Wie so oft bei mir schweife ich ab, anderes Thema. Meine Sis jedenfalls war dort zu Gast bei unseren Eltern. Und dann, am Sonntag, für einen Tag bei mir.
Wir haben an dem Tag einige sehr spannende Gespräche geführt, beim dem eins zum anderen und das zum übernächsten führte. Das fand ich so interessant, dass ich damit ein neues Format für meinen Blog ausprobieren möchte.
Ich hole etwas aus, um meine Idee zu erklären. An und für sich ist meine Augensteuerung, auf die ich krankheitsbedingt zum Kommunizieren angewiesen bin, auch beim Schreiben meiner Artikel ein stark limitierender Faktor. Die Geschwindigkeit, mit der ich mit meinen Augen tippen kann und die Fehlerquote lassen sehr zu wünschen übrig. Noch dazu ermüden meine Augen schnell, trocknen aus, werden rot und sind anfällig für Entzündungen3Patrick Ruppelt, Konjunktivitis oder was, Wo Sinne und Verstand aufeinander treffen, https://paddys.de/konjunktivitis-oder-was/. Doch einen Vorteil habe ich für mich entdeckt, den das Kommunizieren auf diese Weise mit sich bringt. Wenn du jeden Satz erst einmal am Tablet Computer tippen musst, bevor du auf die Taste „Sprechen“ klicken kannst um diesen Satz auszusprechen, dann ist der Weg zum Speichern dieses Satzes nicht weit. Im besten Fall, also wenn ich mich nicht vertippe, nur zwei Klicks weit entfernt. Aus allen, so gespeicherten Gesprächsfetzen lässt sich mit Leichtigkeit das originalgetreue Gespräch rekonstruieren. Es fehlen nur die Fragen, doch die ergeben sich zwingend aus dem Zusammenhang.
Am meisten Zeit nimmt für mich ehrlich gesagt das saubere Zitieren in Anspruch. Dafür ist meine Augensteuerung einfach nicht gemacht und dabei kann mir auch keine KI so recht helfen, denn meine Datenbank ist mein Kopf. Limitierender Faktor dabei, der KI beizubringen, was sie für mich machen soll, du ahnst es, sind meine Augen. Darüber schreibe ich noch einmal etwas ausführlicher und verlinke es dann hier, sobald der Artikel fertig ist. Denn die Thematik fehlender Quellenangaben war nicht selten „Reizthema“ in der Vergangenheit.
Wobei mir die KI aber sehr wohl helfen kann ist, meinem eigenen übertriebenen Anspruch an korrekte Rechtschreibung und pedantisch saubere Kommasetzung gerecht zu werden. Wenn ich einen Artikel verfasse, dann achte ich beim Schreiben so sehr darauf, dass ich die meisten Texte gar nicht Korrekturlese. Beim Gesprochenen, also in meinem Fall dem „Geschreibsprochenen“ (sorry Grammatik, das klingt einfach cooler als das grammatikalisch korrektere „geschrieben Gesprochene“), sieht das ganz und gar anders aus.
Meine Gesprächspartner*innen verbringen mehr Zeit damit, auf meine Antworten zu warten, als sich eigentlich mit mir zu unterhalten. Ich versuche, das zumindest ein bisschen zu kompensieren, indem ich beim Sprechen auf Groß- und Kleinschreibung verzichte sowie Kommata und Punkte durch doppelte Zeilenumbrüche ersetze – weil das von der Software vorgelesen identisch klingt, aber ungemein schneller über die Augensteuerung getippt werden kann. Aussprache, ein Kapitel für sich. Mir scheint, in der Medizintechnik gilt das Motto „That’ll do.“ im Sinne von „Was gut genug ist, ist uns gerade schlecht genug.“. Ich kann mich nicht erinnern, jemals eine so schlechte Aussprache gehört zu haben seit dem Sprachcomputer von Stephen Hawking. Möge er in Frieden ruhen, ein Genie seines Fachs.
Wenn ich mit meiner Mum auf Englisch rede, dann schreibe ich den Text in Microsoft Word und nutze die Funktion „Laut vorlesen“. Die englische Aussprache meines Sprachcomputers ist nicht mehr nur falsch wie die deutsche es ist, sondern man versteht schlicht und ergreifend kein einziges Wort. Im Deutschen muss man ja schon sehr gut der deutschen Sprache mächtig sein und genau hinhören, um alles zu verstehen.
Die meisten meiner Pflegekräfte wären völlig aufgeschmissen, wenn sie nicht am Bildschirm nachlesen könnten, was ich geschrieben habe. Nun frage ich mich, worin der Sinn eines Sprachcomputers für Schwerbehinderte liegt, wenn die Sprachausgabe dermaßen unverständlich ist, dass Pflegekräfte, Ärzt*innen und nicht einmal meine liebe Haushälterin etwas verstehen. Um das deutlich zu machen, meine Haushaltshilfe versteht sogar Bayrisch. Meinen Sprachcomputer, schwierig. Im Alltag nutze ich die Sprachausgabe teilweise gar nicht mehr. Es schauen sowieso alle auf meinen Monitor. Ein Umstand, der sich aus besagten Gründen nicht vermeiden lässt und was ich hasse wie die Pest und Corona zusammen. Es ist für mich als würde man in mein Gehirn schauen und meine Gedanken lesen.
Es ist schon traurig, dass die Sprachausgabe von Microsofts Schreibprogramm „Word“, die seit Version 2019 als „Nebensache“ dabei ist4Lauschen auf Ihre Word Dokumente, https://support.microsoft.com/de-de/office/lauschen-auf-ihre-word-dokumente-5a2de7f3-1ef4-4795-b24e-64fc2731b001, in allen Sprachen unendlich viel besser klingt als jene einer Spezialsoftware, die nur eine einzige Funktion hat – nämlich genau diese Sprachausgabe. Sie wurde einzig und allein dafür entwickelt, erfüllt keinen anderen Zweck und nicht einmal diesen.
Und so kommt es, dass ich beim Schreiben von gesprochenen Texten viele Wörter und mitunter ganze Sätze bewusst falsch schreibe, damit sie mein dämlicher Sprachcomputer annähernd richtig oder wenigstens sinngemäß verständlich ausspricht. Aus der Bepanthen Salbe wird daher Beh pann tehn und wenn ich Mummy um einen Kaffe bitte steht etwas in der Art wie Eid Fän ßieh ä Kapp off Koff ieh auf dem Bildschirm. Irre, oder?
So schön es ist, diesen Text mit zwei Klicks in der Zwischenablage zu speichern, um es später für meinen Blog zu verwenden, so mühselig ist es, diesen gespeicherten Text später in meinem Blog wiederzuverwenden. Was sich auch in Word seit dem letzten Jahrtausend nicht weiterentwickelt hat ist die Rechtschreibkorrektur. Sobald der Anfangsbuchstabe eines Wortes oder mehr als ein einzelner Buchstabe falsch ist, versagt das System. Irre, oder?
Hier kommt nun endlich die KI ins Spiel. Für sie ist es im Gegensatz zu mir eine Sache von ein paar Millisekunden, meine ganzen „bewussten Fehler“ rückgängig zu machen und mir einen fehlerfreien Text zurückzugeben, in den ich lediglich die Fragen meiner Schwester einfügen muss. Wobei die KI selbst das ziemlich gut kann. Irre, oder?
Warum genau das eine der großen Stärken „künstlicher Intelligenz“ (KI) ist und wie so ein aus Gesprächsfetzen rekonstruierter Dialog aussehen könnte, das erfährst du im nächsten Beitrag. Ich möchte dich nicht auf die Folter spannen, er ist einfach noch nicht ganz fertig und die Themen, zu denen mich Sis gelöchert hat, sind viel zu spannend und umfangreich, als dass ich sie am Ende dieses Beitrags noch irgendwie reinquetschen könnte. Vorfreude ist die schönste Freude. Das wird richtig gut. 😉
Episoden