Reha Stammtisch - vom 16. Juli 2025
29.07.2025 91 min
Video zur Episode
;
Zusammenfassung & Show Notes
In der Juli-Ausgabe des Papenmeier Reha Stammtisches stand die Apple-Welt im Fokus. Moderator Karl Matthias Schäfer begrüßte den renommierten Jürgen Pfleger vom ApfelFleger als Gastexperten.
Die Diskussion konzentrierte sich hauptsächlich auf die Meta Ray-Ban Glasses, die ausführlich auf ihre Praxistauglichkeit für Menschen mit Sehbeeinträchtigungen getestet wurden. Weitere Schwerpunkte waren die neuen Accessibility-Features in iOS 26 Beta sowie aktuelle Entwicklungen bei Braille-Unterstützung und KI-gestützten Sehhilfen.
Jürgen Pfleger teilte seine 15-jährige Erfahrung mit Apple-Produkten in der Blinden- und Sehbehinderten-Community und gab ehrliche Bewertungen zu den vorgestellten Technologien. Die offene Gesprächsrunde ermöglichte allen Teilnehmern, eigene Erfahrungen einzubringen und Fragen zu stellen.
Der nächste Stammtisch findet am 20. August 2025 als Windows-Edition statt.
Episode: Apple-Edition mit Jürgen Pfleger | Juli 2025
In der Juli-Ausgabe unseres Reha Stammtisches begrüßen wir einen ganz besonderen Gast: Jürgen Pfleger, die ApfelFleger-Ikone der Blinden- und Sehbehinderten-Community. Gemeinsam mit Moderator Karl Matthias Schäfer und unseren Stammtisch-Teilnehmern tauchen wir tief in die Apple-Welt ein.
Schwerpunkte dieser Folge:
- iOS 26 Beta: Was bringen die neuen Accessibility-Features wirklich?
- Meta Ray-Ban Glasses im Praxistest: Hype oder echte Hilfe?
- Aktuelle Braille-Entwicklungen bei Apple
- KI-gestützte Sehhilfen: Chancen und Grenzen
- 15 Jahre Community-Erfahrung mit Apple-Produkten
Jürgen Pfleger teilt seine langjährige Expertise und gibt ehrliche Einschätzungen zu den neuesten Entwicklungen. Unsere offene Gesprächsrunde ermöglicht es allen Teilnehmern, Fragen zu stellen und eigene Erfahrungen beizusteuern.
Der Papenmeier Reha Stammtisch findet jeden dritten Mittwoch im Monat statt und wechselt zwischen Apple- und Windows-Themen. Jeder ist herzlich eingeladen teilzunehmen!
Nächster Termin: 20. August 2025 (Windows-Edition)
Fragen und Anregungen: k.schaefer@papenmeier.de
Disclaimer:
Die in diesem Podcast geäußerten Meinungen und Empfehlungen spiegeln die persönlichen Ansichten der Teilnehmer wider und stellen keine offizielle Stellungnahme der F.H. Papenmeier GmbH & Co. KG dar. Technische Informationen und Produktempfehlungen sollten vor Anwendung individuell geprüft werden.
Die in diesem Podcast geäußerten Meinungen und Empfehlungen spiegeln die persönlichen Ansichten der Teilnehmer wider und stellen keine offizielle Stellungnahme der F.H. Papenmeier GmbH & Co. KG dar. Technische Informationen und Produktempfehlungen sollten vor Anwendung individuell geprüft werden.
Aufgezeichnet am 17. Juli 2025
Transkript
Willkommen beim REHA-Stammtisch, wo Technologie auf Erfahrung trifft und digitale Teilhabe lebendig wird.
Ihr Podcast von Partenmaier Reha Technik, moderiert von Karl-Matthias Schäfer.
Herzlich willkommen zum Mitschnitt des Partenmaier Reha Stammtisches vom 17.
Juli 2025.
Heute haben wir einen ganz besonderen Gast dabei: Jürgen Pfleger, die Apfelpfleger-Ikone der Blinden und Sehbehinderten-Szene schlechthin.
Gemeinsam mit unserem Moderator Karl Matthias Schäfer und allen Teilnehmern sprechen wir über die neuesten Entwicklungen rund um Apple von iOS 26 und den kommenden Accessibility-Features bis hin zu den viel diskutierten Meta-Ray-Ban-Glasses.
Ob Beta-Tests, Braille-Verbesserungen,
oder KI-gestützte Sehhilfen.
Wir teilen praktische Erfahrungen und ehrliche Einschätzungen in unserer offenen Runde für alle, die Apple-Technologien mit Sehbeeinträchtigungen nutzen oder nutzen möchten.
Lassen Sie uns gemeinsam in die heutige Apple-Runde starten.
So, liebe Leute, ich begrüße euch recht herzlich zu unserem Reha-Stammtisch im Juli.
Ja, im Juli, es steht
Apple an und von daher habe ich heute einen Gast bei uns, nämlich die Apfel-Ikone in der Blinden und Sehbehindertenszene schlechthin, den Jürgen Pfleger von Apfelpfleger.
Und 1, was er, glaube ich, selber noch nicht weiß,
aber der Jürgen ist der einzige Mensch, bei dem ich jemals in meinem Leben einen Computerkurs belegt habe und so irgendwas gelernt habe.
Das wusste ich nicht, tatsächlich, aber ich erinnere mich gerne an unseren Kurs.
Ja, genau, das war schön.
Es ging um Numbers und um Pages, genau das, also die Office-Programme.
So, für die, die mich nicht kennen, ich bin Karl-Matthias Schäfer, bin I.T.
Trainer bei der Firma Papenmeier, eben einerseits für
Arbeitsplätze, Einrichtungen und Training, Softwaretraining und ja, auch so ein bisschen generell im Schulungsbereich tätig und moderiere jeden Monat den Reha-Stammtisch.
Für die jetzt, die jetzt noch dazugekommen sind, die zum ersten Mal dabei sind, der Reha-Stammtisch ist ein
offenes Angebot, an dem jeder teilnehmen kann, jeden dritten Mittwoch im Monat ab 19:00 Uhr.
In den geraden Monaten beschäftigen wir uns mit Themen rund um Windows und dem Diverse Screenreader in den ungeraden, wie heute Juli, beschäftigen wir uns mit Apple Themen.
Ja, vielleicht stellst du dich mal ein bisschen ausführlicher vor, dass diejenigen, die dich nicht kennen, mal
hören, was du machst und tust, gerade im Apple Bereich?
Ja, sehr gerne.
Also, ich bin seit 2010 mit meiner Firma Apfelpfleger unterwegs.
Das Wortspiel dabei ist durchaus gewollt, gewünscht.
Apfel steht natürlich für, ist die deutsche Version für Apple und Pfleger ist eben mein Nachname und zusammen bin ich eben dann der Apfelpfleger.
Was ich mache, ist, ich trainiere seit 15 Jahren eben mittlerweile Menschen, die nicht oder wenig sehen können in der Handhabung von iPhone, iPad, eigentlich alles, wo ein Apfel drauf ist von Apple.
Also Macintosh auch, eben den Mac-Computer meine ich, Macintosh ist schon ein alter Begriff.
Genau, das ist eben so das Gängige, was vorkommt an Schulungswünschen und so.
Und das Besondere ist halt, dass ich tatsächlich alles komplett über Apple-Geräte löse.
Ich hab also kein einziges Gerät mehr von von Microsoft hier bei mir oder auch auch kein Linux oder sowas.
Und ich mach die komplette Firma über Apple.
Und der Vorteil ist halt dabei, dass ich dadurch auch 'ne ganze Menge Stolperfallen kennenlerne, die ich selber lösen muss für mich.
Und die kann ich dann später eben, diese Sachen kann ich ja an meine Kunden weitergeben.
Ich bin 50 Jahre alt, bin seit etwas über 30 Jahren blind, hab RP, kennen die meisten wahrscheinlich, denke ich mal so.
Und ja, was noch?
Ich komme ursprünglich aus Trier, bin dann irgendwann nach nach nach bin dann irgendwann nach Marburg gegangen, hab dort Abitur gemacht und studiert.
Genau, und jetzt habe ich zwei Standorte.
Ich habe einen in Marburg und der andere ist in einem kleinen Örtchen in der Nähe von Buxtehude bei Hamburg.
Das sind auch die beiden Stellen, wo ich Schulungen anbiete.
Genau, und so, Karl Matthias, reicht das?
Ja, klar, das reicht auch auf jeden Fall.
Ja, jetzt ist ja im vergangenen Monat
zu den neuen Betriebssystemversionen von Apple vorgestellt worden.
Es gibt ja schon mal eine gravierende Veränderung.
Es heißt jetzt nicht mehr iOS 19, iPad OS 19, sondern die heißen jetzt alle 26, also iOS 26, iPad OS 26, Watch OS 26 und so weiter.
Das ist ja schon mal eine der großen Veränderungen.
Und jetzt sind wir ja nun beide schon sehr früh in die Betatests mit eingestiegen.
Interessanterweise macht ja Apple dieses Jahr eine andere Politik als sonst.
Früher konnte man zu Beginn nur in den Betatest gehen, wenn man einen Entwickler-Account hatte.
Und dieses Jahr war das eben wie von vornherein auf, obwohl die offizielle
Beta für die Öffentlichkeit es noch nicht gibt, aber wir konnten dieses Jahr schon sehr früh da rein schnuppern.
Was ist denn so für dich das Wesentliche, was was du neu entdeckt hast bis jetzt?
Also, wir hatten das vorher nicht besprochen, das werdet ihr jetzt auch merken.
Es ist nämlich so, ich bin aus dem Betatesten wieder rausgegangen.
Ich mache das nicht mehr.
Das hat verschiedene Gründe.
können wir gleich uns gerne drüber unterhalten, Pro und Contra.
Und deswegen kenne ich bisher eben nur das, was mir Menschen erzählen beziehungsweise was ich so mir in Videos angeeignet habe oder was ich so bisher so gelesen habe, ne.
Und was Apple halt natürlich auch veröffentlicht hat, wobei das wesentlich interessantere ist ja für uns, was die Accessibility-Abteilung von Apple veröffentlicht hat.
Ich nehme an, die Pressemitteilung kennst du auch, ne, was sie bis Ende des Jahres an Bedienungshilfen
noch einbauen wollen.
Und das fand ich recht spannend.
Man weiß natürlich jetzt leider nicht so ganz genau, ob das wirklich noch dieses Jahr kommt, aber trotzdem ist, glaube ich, dass das Interessantere.
Und ja, also ich, ich, ich sag vielleicht gerade mal 2 Sätze noch dazu, Karl Matthias, warum, warum ich aus dem Betatesten rausgegangen bin.
Weil, weil ich gemerkt habe, dass die Funktionen teilweise in der Beta-Phase sehr instabil sind.
Und das hat eher Ängste geschürt, auch wenn ich davon erzählt habe, weil sofort immer gedacht wurde, oh, Apple hat uns vergessen, das geht nicht mehr, Voiceover spricht nicht mehr oder sowas, ne?
Und da kann man ja immer die Füße schön still halten, weil es ist ja nicht so.
Bis zum Release gibt es natürlich, wie für sehende Menschen auch, immer noch Fehler, aber das ist halt normal.
Aber Apple vergisst uns da ja nicht.
Und dann habe ich gemerkt, dass was für meine
Kunden, für die ich denke vorwiegend natürlich erstmal an meine Kunden, was für die viel wichtiger ist, als dass ich bis ins kleinste Detail mit den Beta-Neuigkeiten vertraut bin, für die ist viel wichtiger, dass ich mich mit den bestehenden Sachen so tiefgründig auskenne, dass ich ihre Probleme damit lösen kann.
Und das ist eigentlich das, dass ich mich darauf konzentriere, möglichst alles mit Apple-Bordmitteln zu lösen.
Ja, da ist viel dran, wenn man jetzt sich mal anschaut, so wie die blinden Sehbehinderten Community diskutiert.
Also hauptsächlich ist mir aufgefallen in den US-amerikanischen Medien, es gibt ja eine ganz gravierende Designänderung.
Und die soll ja, ich kann es selber nicht beurteilen, am Anfang sehr wild ausgesehen haben, aber und mittlerweile hat man es eben schon wieder zurückgenommen, also stückchenweise, weil man einfach auch damit rumprobiert.
Aber die Community hat gleich aufgeschrien und hat gesagt, Hilfe und wir können das damit nichts anfangen.
Und ja, dabei braucht man einfach nur einen Schalter zu betätigen und dann schaltet man halt wieder aus, aber die Aufregung, die ist.
die ist erst mal ziemlich groß.
Ja, genau und das hat sich ja auch, das hat sich ja auch verändert, ne, dass früher, falls ich weiß nicht, wie lange die anderen so dabei sind, aber früher war das ja auch so, das war geheim.
Wer Betatester war, der hat sich verpflichtet, nichts an die Öffentlichkeit davon zu geben und manchmal sehne ich das so ein bisschen zurück, ehrlich gesagt.
Ich auch, du auch.
Ich, ja, ja, ich habe, ich habe es früher, also ich habe ja auch immer gerne getestet, weil ich einfach immer neugierig bin, was kommt.
Ich fand das immer ganz gut früher, da konnte man schön, dass die, die, die Dinge halt an Apple berichten, wenn man sich die Mühe gemacht hat, das in Englisch zu tun, dann hat man auch durchaus öfters eine Antwort bekommen.
Und heute ist es halt, wird ja jede Entwicklerbeta, die wird ja sofort veröffentlicht von von sämtlichen Medien und so weiter.
Ja, aber trotzdem.
ist es für mich, stillt es so eine gewisse Neugier, ja, und ich meine, dass Apple uns nicht vergisst, das sieht man ja auch da dran, dass die Dinge, die für den Accessibility-Bereich interessant sind, eben schon vorher auch veröffentlicht wird, meistens im Mai.
Und da sieht man so, was kommt.
Wobei dieses Jahr ist tatsächlich für die für Voiceover-Nutzer, die mit der Sprache unterwegs sind, ist gar nicht so viel Neues, was ich bis jetzt gesehen
habe.
Aber dieses Jahr legt man den Schwerpunkt wirklich auf Braillezeilennutzer.
Ja, genau.
Da ist eine ganze Menge.
Ich habe manche Funktionen ehrlich gestanden noch nicht verstanden, so richtig.
Aber es gibt zum Beispiel eben eine schöne Notizfunktion, die ich jetzt zum Beispiel auch schon wunderbar hier nutze, dass ich nämlich im Grunde genommen einfach mit der Braillezeile, egal wo ich gerade bin,
in eine Notizfunktion gehen kann, wo ich mir Dinge aufschreibe und kann dann praktisch hin und herschalten zwischen dem, was auf dem Bildschirm tatsächlich passiert und in dem, was was in meiner, was ich in meiner Notiz stehen habe und so was.
Das finde ich ganz ganz nett.
Die anderen Sachen, die habe ich tatsächlich teilweise noch nicht begriffen.
Man kann das iPhone noch besser über noch besser
steuern über die Braillezeile, halt eben auch gar viel, viel mehr mit iPhone und iPad, ohne dass man eigentlich das Gerät noch anfassen muss.
Genau, das ist also ich, ich finde, ich finde auch, dass das, was mir, was ich halt mittlerweile gut finde, ich weiß, das hat am Anfang auch mal für große Aufregung gesorgt, mit nach dem Thema Apple vergisst und.
dass Apple eigentlich immer so rundum geht und macht für einzelne Bedienungshilfen oder Schwerpunkte von Bedienungshilfen schon immer bedeutende Neuerungen.
Wenn du dich erinnerst, mit iOS 18, da hat es 'ne enorme Verbesserung bei der virtuellen Brailleeingabe gegeben.
Ja, da weiß ich, ob du die benutzt.
Ja, doch klar, ich erinner mich, am iPad hast du sie auf jeden Fall benutzt, ne?
Da kann ich ja im Prinzip jetzt auch, wie als wenn ich 'ne Braillezeile hätte, komplett Voiceover aufsteuern.
und kann da ganz viel machen.
Also da bin ich halt sehr begeistert, weil ich das ganz viel benutze.
Ja, aber man kann vor allen Dingen das, man kann vor allen Dingen das das iPhone steuern, ohne in irgendeiner Form den Fokus zu verlieren.
Also ich finde diese, diese Funktionen von der virtuellen Braille Tastatur und gerade diesen Befehlsmodus ist, ich finde das so genial.
Also es gibt keinen Tag, ohne dass ich das benutze.
Ja, genau, auch das Markieren funktioniert jetzt richtig gut und so, ne.
Also, das finde ich auch richtig super, aber dieses Jahr sind halt die Braillezeilennutzer bei den Blinden dran, die richtig tolle Verbesserungen erfahren.
Und die Sehbehinderten, auch zumindest die sehbehinderten Mac-Nutzer, die bekommen ja bis bis irgendwann Ende des Jahres, soll das ja sein, die Möglichkeit, das iPhone als Tafelkamera für den Mac zu benutzen, ne, dass man das iPhone eben verbindet.
Bitte, aber nicht in der EU.
Wo hast du das denn her?
Ich behaupte das einfach mal so weit, dass er mit dem iPhone Zero Ring zu tun hat.
Nee, das hat nichts mit dem iPhone Merrying zu tun, das ist eine Bedienungshilfen-Version.
Man kann ja, ich kann ja jetzt schon im Zoom kann ich ja zum Beispiel schon das iPhone, die iPhone-Kamera benutzen.
Okay, gut, ne?
Also das geht, das geht, wenn ich jetzt über Zoom, wenn ich sage, meine Kamera von meinem schönen neuen MacBook ist mir zu schlecht.
Gut.
Okay.
Aber man weiß ja, ja, man weiß ja nie, was am Ende kommt, aber.
Nee, nee, das wird schon kommen.
Also, und ich glaube, ich hab ja auch, ich hab auch oft Schüler, so die ich trainiere, ne, auch durchaus Sehbehinderte.
Und das, das ist schon für die dann 'ne große Erleichterung, weil dann haben die halt Geräte weniger zu schleppen.
Und ich hab auch, erinner mich gerade an eine Schülerin, der war das halt auch immer 'n bisschen peinlich, dass sie so viele extra Geräte da mitschleppen musste.
Für so Leute ist es dann eine Erleichterung.
Man muss in der Praxis sehen, taugt das auch für jede Sehbehinderung.
Das ist ja immer bei Sehbehinderten so eine Frage.
Aber im Grunde genommen finde ich das schon eine ziemlich geniale Erfindung.
Ja, und das soll ja auch gerade für Sehbehinderte, das soll ja ein systemweit funktionierender Reader kommen.
Den konnte ich tatsächlich noch nicht ausprobieren, wo man eben überall dort, wo Texte zu lesen sind,
Wenn man über einen Reader, ähnlich wie man das ja jetzt schon im Safari auch machen kann, bestimmte Hintergründe und noch mal spezielle Einstellungen machen kann, dass der Text einfach besser lesbar wird.
Ja, also ich denke, Leute mit Sehbehinderung, die werden also auch dieses Jahr besonders von den Neuerungen profitieren.
Genau, und ich finde das auch okay, ist auch okay, oder?
Dass man quasi abwechselt.
Das Team ist ja einigermaßen begrenzt.
Apple selber gibt keine Zahlen an.
Ich weiß ungefähr, wie viele es sind.
Und die müssen natürlich ihre ihre Manpower auch so ein bisschen aufteilen, damit sie für alle was bieten können.
Haben ja letztes Jahr, weißt du ja, ganz viel für Menschen gemacht, so im Thema Sprache, dass man seine eigene Sprache benutzen kann als Sprachausgabe und so weiter.
Na ja, und es ist halt alles nur begrenzt.
machbar.
Von daher finde ich das schon gut.
Also ich würde mir noch wünschen, weiß nicht, wie es dir geht oder den anderen, die zuhören, ich würde mir noch wünschen, dass Apple auch mal wieder einen Fokus darauf legt, Bugs auszubessern, weil es doch so 'n paar unangenehmere Sachen gibt, finde ich, wie dass der Cursor immer verspringt.
Also der Voiceover Fokus oder ich hab das noch nicht bei allen beobachtet, bei mir ist es so, oft gerade bei dem bei der Home Geste, wenn man von unten hoch wischt, dann
bringt der Cursor noch mal extra weg.
Mhm, kennst du auch, O.
K.
Ja, ja und ja und ja und genau dieses Ding, das halt nicht gleich beim ersten Mal runterziehen, die Mitteilungszentrale auch voll da ist, das ist auch so eine neue Geschichte, die könnte man mal wieder in Ordnung bringen.
Genau, aber im Großen und Ganzen finde ich, ist es schon ziemlich geil, was wir da können mit den Geräten, ne, wenn man überlegt, ich weiß noch, als ich das erste Mal von vom iPhone gehört habe, 2007,
und die sind da, haben diesen riesen Run darauf gehabt, da hatte ich echt 'n bisschen ****** weil ich gedacht hab, Mist, was machen wir denn jetzt?
Ja, ne, da gab es ja nur die Notias und wenn die jetzt alle so heiß sind auf die Touchscreens, sind wir raus und Pustekuchen ist halt nicht der Fall und das finde ich, finde ich ziemlich gut.
Genau, was wo ich auch noch so gespannt drauf bin, also man will ja jetzt die.
Oberfläche vom iPad so ein bisschen an den Mac angleichen und dass man mehr mit Fenstern machen kann.
Da bin ich mal gespannt drauf, was was das für uns als blinde Nutzer tatsächlich bringt.
Im Moment kann man es fehlen, da noch die Voiceover-Funktionen.
Da bin ich aber mal gespannt drauf.
Ich habe mich gerade verschluckt.
Ich sprach vom iPad jetzt, ne?
Genau, genau.
Ja, genau.
Deswegen habe ich es nicht richtig gehört.
Also, ich muss auch sagen, das ist auch einer der Punkte, wo ich ganz besonders neugierig bin, weil ich mag mein iPad sehr gerne.
Aber wenn es 'ne Baustelle gibt, die ich reparierenswert finde für Voice-over-Nutzer, wohlgemerkt, dann ist es die Dateien-App.
Und wenn wenn die jetzt wirklich ein bisschen finderähnlicher wird und wenn sie das mit den mit den Fenstern halt dann alles so ein bisschen Mac-ähnlicher machen, dann fände ich das sehr gut.
Ich weiß nicht, arbeitest du viel mit der Dateien-App auf dem iPad?
Ja, ja, ja.
Ich hab für das ist 23 Jahre, muss das her sein, vielleicht auch schon 4 oder 5, weiß ich nicht ganz genau.
Auf jeden Fall, da konnte man wirklich in der Dateien-App umgehen mit mit der Tastatur, fast wie 'n Pfeil.
Man konnte Pfeil hoch, runter machen und ging dann von Ordner zu Ordner und so und konnte auch da eben mit Command Pfeil runter, konnte man in Ordner reingehen, Command Pfeil hoch, raus und so.
Das geht zwar jetzt immer noch, aber jetzt spricht Voiceover das ja nicht mehr und dann macht es nicht mehr so viel Sinn.
Ich habe das auch schon einige Male gemeldet an Apple.
Ja, mal gucken, ob sie es vielleicht jetzt diesmal hinkriegen.
Das fände ich halt extrem wünschenswert.
Dann könnte man das auch noch besser benutzen.
Und genau, jetzt habe ich gerade einen Gedanken noch gehabt, ist mir gerade weggerutscht, da kommt vielleicht noch.
Aber da bin ich auch wirklich extrem gespannt drauf, wie das dann am Ende sein wird.
Und genau, da wirst du ja bestimmt auch hier in deiner Gruppe dann berichten.
Ja, wenn man, ich denke, wir werden im September werden wir auf jeden Fall da eine ausführliche Besprechung machen von den Neuerinnerungen.
Wenn wir im dritten, in der dritten Septemberwoche wird iOS 26 und die anderen schon raus sein.
Ja, da werden wir das alles schon haben und dann werden wir da auf jeden Fall auch einen Schwerpunkt zu machen.
Kommen wir doch mal zu dem nächsten Themenbereich.
Ich glaube, da sind, es gibt viele, die heute Abend hier sind, weil sie darüber mal diskutieren wollen oder was hören wollen.
Wir haben sie beide, die Meta-Raven Classes.
Darf ich vorhin eine Zwischenfrage stellen?
Ja, klar, Robertus.
Wie ist das denn bei der virtuellen Brailleangabe noch mal mit diesem Finde-Befehl, geht der inzwischen?
Ich glaube, nein.
Was meinst du genau, Hubertus?
Du kannst, du kannst ja, ich weiß, ich weiß, was Hubertus meint.
Es ist, es ist ja so, dass man, wenn man jetzt mit einer physischen Brailletastatur arbeitet, dann hat man eben.
Leertaste F, so ein Cord Befehl für finden, für suchen.
Und der ist auch aufgeführt in der Befehlsliste für die virtuelle Braille Tastatur im Befehlsmodus, aber der funktioniert halt überhaupt nicht.
O.
K., verstehe.
Und das, also ich hab es, das war das erste, Hubertus, das war das erste, was ich probiert habe, als ich auf mein älteres iPhone, iPhone 13 das drauf gemacht habe und ich habe gedacht, es funktioniert immer noch nicht.
Sehr schade, schön wär es, weil wobei es, es geht doch darum, Hubertus, dass du auf dem Bildschirm Elemente finden willst, oder?
Ja, darum geht es.
Wenn du
die Braille-Tastatur, die virtuelle Braille-Tastatur einschaltest, also die Braille-Eingabe, die virtuelle.
Und kein Textfeld ist aktiv.
Dann kannst du einfach anfangen zu tippen und dann werden dir die Elemente angezeigt, die dieser Zeichenkette entsprechen.
Aber das gilt nur für Apps, ne?
Für was sonst?
Es funktioniert nicht in einem Text.
Für Texte zum Beispiel.
Ach so, im Text, nee, nee, das nicht.
Funktioniert nicht, nein.
Ja, schade, sag ich nur, schade.
Ja, aber gut, vielleicht kommt es.
Wir sind ja immer in der Beta-Phase.
Ne, wir haben jetzt letzten Endes, wir haben ja im Moment die Beta 3, die Public Beta, die öffentliche, die ist noch nicht raus.
Ne, das heißt also, wir werden bestimmt noch mindestens 4 Beta
kriegen bis September.
Und da kann noch viel passieren.
Das ist ja auch noch viel passieren.
Ganz frühes Stadium jetzt und wir machen ja nur so einen kleinen Ausblick, auf was darf ich mich vielleicht freuen, ja.
Und irgendwann kommt vielleicht für das eine oder dann doch noch die Nachricht "Welcoming soon".
Und soon ist bei Apple immer relativ.
Genau, aber da wird auch noch viel passieren, muss ja auch noch, ne?
Ich meine, es ist ja klar, dass es bei diesen Betas immer viele Bugs noch gibt und wahrscheinlich arbeitet Apple sowieso schon an iOS 26.2 oder so.
Ja, aber es es es läuft schon erstaunlich stabil dieses Jahr, muss ich schon sagen.
Also,
Also ich würde, ich würde jetzt nie auf die Idee kommen, es auf ein Produktivgerät zu machen, sollte auch niemand tun.
Aber ich muss sagen, halt, also das, was ich da habe, das das funktioniert schon hervorragend.
Prima, ja, das ist gut.
Also ich denke, da kann man schon schon einiges dann erwarten.
So wie gesagt, mein mein Favorite ist so, ich bin echt gespannt auf iPad O.S.
Ja,
Und übrigens, du hast am Anfang ja erwähnt, diese neue Betitelung der Betriebssysteme.
Ich finde das sogar gut, muss ich sagen, ne, dass man jetzt einfach auf auf das Folgejahr geht mit der mit der Nummer des Folgejahrs.
Weil tatsächlich bei der Fülle an Geräte, Geräten, die Apple mittlerweile so auf dem Markt hat, fand ich das manchmal auch schon schwierig, mich zu erinnern.
Welches Update habe ich jetzt, mit welcher Punktnummer?
Und so, also dann hat man jetzt wenigstens vorne schon mal alles gleich mit der 26 oder nächstes Jahr dann 27 und so.
Ich finde das ganz gut.
Ja, das finde ich auch, da weiß man wenigstens, woran man ist und muss ich nicht überlegen, ja, wo waren wir denn jetzt gleich?
Ja, ist mehr Klarheit, ne?
Genau, genau.
Gut, ja, es sind ja viele sind heute Abend auch hier, weil sie sich wahrscheinlich einige Informationen erhoffen oder über Dinge.
diskutieren wollen, die die Raven Metaclasses betreffen.
Wir haben sie beide schon seit längerer Zeit.
Du hattest sie ja sogar schon auf der Side City gehabt, da hatte ich meine noch nicht.
Aber ich bin jetzt auch mittlerweile schon bald zwei Monate hier am Testen und seit gestern spricht das Ding, also ich gehöre zu denen, wo es funktioniert.
Seit gestern spricht das Teil auch Deutsch und versteht mich auch, wenn ich ihm auf Deutsch was sage.
Finde ich richtig cool.
Ich habe heute den ganzen Tag immer wieder nach Updates geguckt und so bei mir geht's noch nicht.
Also ich habe bisher nur die alten Sprachen.
Im Zweifelsfall mal neu aufsetzen, das das das kann das kann helfen.
Das ist ja auch, wenn jetzt Updates verteilt werden, dann dauert es ja bei manchen Leuten unter Umständen eine Woche, bis sie funktionieren.
Keine Ahnung, wie die das machen, aber dieses Rollout dauert ja öfter mal.
Ja, die Raven Meta Classes sind.
eine große Hilfe, sofern man Lust hat, gelegentlich mal mit so einer K.
I.
zu diskutieren, dass man weiß, was man haben will oder was sie einem, wie sie es einem sagt.
Was hast denn du für Erfahrungen gemacht, wofür findest denn du denn die Möglichkeiten oder vor allen Dingen auch die Grenzen, weil
Ich erlebe gerade so ein bisschen in der blinden Sehbehinderten-Community, dass viele natürlich gespannt drauf sind, manche auch sehr, sehr euphorisch sind, aber dann eben auch, wenn man so mit dem Gerät mal in den Alltag geht, ganz schnell eben auch mit den Grenzen zu tun hat.
Also zum Beispiel, ich war jetzt vorgestern hier in Holland im Supermarkt gewesen und freute mich schon,
mich damit so ein bisschen zu orientieren und musste dann feststellen, kein Mobilfunksignal.
Und zack, war das Schöne.
Ansonsten macht die einem im Supermarkt richtig Spaß, aber ganz, ganz viele Dinge gehen.
Manche Dinge gehen eben nicht.
Manche Dinge gehen in den USA, die kann man ausprobieren, wenn man sich mal über ein VPN in den USA anmeldet und so weiter.
Wie sind denn so deine Erfahrungen?
Also, ganz breit würde ich sagen, so die Erfahrungen.
Erstmal grundsätzlich ist natürlich, das Englische schränkt einen schon etwas ein.
Ich glaube, mein Englisch ist eigentlich ganz gut, aber trotzdem bin ich dann auch manchmal überlegen, oh Moment, wie frage ich denn das jetzt nach, ne, oder so.
Und ich, ich würde mal sagen, so im Alltag finde ich
ganz praktisch, das erstmal als Headset zu benutzen.
Ich sag, sag den Leuten, die sich bei mir danach erkundigen, immer, es gibt ja 2 grobe Funktionen, 2 große Funktionen, einmal das als Headset zu benutzen, komfortabel und mit Ohren frei.
Und die andere Funktion ist eben die K.I.
Und dieses Headset alleine, das wäre mir das Geld schon wert, muss ich sagen, weil ich find den Klang sehr gut.
Und dann auch die Steuerung über die die Klopfgesten am rechten Bügel.
finde ich sehr angenehm und ich habe durch dieses Gerät angefangen, jetzt Videos zu machen und poste jetzt auch regelmäßig WhatsApp Statusmeldung.
So, ja, weil ich
hab das gecheckt und damit ist die Videoaufnahme einfach gut.
Und ich mag das, zumindest so im Freundeskreis.
Ich würde das jetzt nicht in Facebook hochladen wollen oder so, aber eben so für für in meinem Kontaktumfeld finde ich das schön, damit Leute einfach sehen können, was macht der gerade so und wie geht es ihm.
Und das traue ich mich jetzt mit der Rayban viel eher, weil die macht wohl wirklich, was ich mir, was ich mir hab beschreiben lassen,
richtig gutes Bild, es ist kaum verwackelt und es ist wohl auch scharf.
Das sind so die Dinge, die mir genannt wurden, ne.
Ich kann das jetzt nur so erzählen, ich kann das nicht behaupten, weil ich es eben selber ja nicht sehe.
Dann für mein Hobby, Tonaufnahmen zu machen, das geht auch gut, die die haben 'n ziemlich gutes Stereopanorama.
Das mach ich auch manchmal, dass ich dann einfach das Ding als Mikrofonersatz benutze und mache Aufnahmen und nehme hinterher.
nur den Ton aus dem Video und archiviere mir das in meinem Hörbilderbuch.
Ich habe so einen Ordner auf der Festplatte, den nenne ich Hörbilderbuch.
Und allein, wie gesagt, dafür hat sich das Gerät schon gelohnt.
So, und bei der KI, wenn man wenn man da eben Fragen stellt, da würde ich sagen, finde ich häufig gut, einfach was mir beschrieben wird, dass ich nachfragen kann,
Wenn ich hinten dran hänge in German, dann kann sie auch jetzt schon Deutsch sprechen, zwar nicht verstehen, aber Deutsch sprechen, wenn man sich dann mal Sachen vorlesen lässt oder auch zusammenfassen lässt.
Bisher, wenn du dazwischen willst, kann man jetzt mach einfach, ne?
Ich hab gerade, ich finde es gerade sehr interessant, was du erzählst, mach ruhig weiter.
O.
K., ich habe neulich zum Beispiel ausprobiert, da war ich in einem Restaurant.
So, und du kennst bestimmt auch.
Diesen Traum von blinden Menschen, schon als Seeing A.I.
so populär wurde, 'Oh, dann kann ich ja 'ne Speisekarte lesen', konnte ich natürlich nicht, weil das hätte, da hätte ich ja eine halbe Stunde gesessen, bis ich mal die Karte durchgelesen hätte, weil ich hätte alles lesen müssen.
Und das wäre mir viel zu mühselig gewesen mit der Brille jetzt und mit K.I.
Ist es aber möglich?
Weil, hab ich auf die Kartenseite geguckt und dann fing es dann Ding an, mir vorzulesen beziehungsweise ich hab gefragt, was da zu sehen ist.
Und dann fing es an vorzulesen, ja, das ist eine Whisky-Karte und zack, wusste ich, nee, will ich eigentlich nicht.
Hab ich umgeblättert und hab wieder gefragt.
Ja, und dann wurde bei den Speisen wurde mir dann erzählt, zusammengefasst, was es denn da so gibt.
Und aber nur kurz, nicht jetzt alles komplett vorgelesen, wie man das bei CNRI und so kennt.
sondern wirklich nur kurz und noch mit dem Preis manchmal und das fand ich sehr angenehm und dann habe ich relativ schnell diese Karte durch gehabt und sogar schneller als die Bedienung wieder da war, weil das war ja bisher immer der der gängige Weg, ne, dass man einfach wartet bis die Bedienung kommt und dann fragt man, können Sie mir vielleicht helfen mit der mit der Speisenauswahl oder so.
Das finde ich schon ziemlich genial, auch sogar nur
Ich kann da sogar noch 1 draufsetzen heute.
Ich war gerade heute, heute Mittag hier in einem Restaurant und da hatte ich eine Speisekarte, die war eben in Holländisch, Englisch und ja, stand auch ein bisschen Deutsch da.
Und dass die dreisprachig war, das habe ich gar nicht gemerkt.
Das hat man mir hinterher gesagt, weil sie hat mir automatisch erst mal gesagt, es gibt hier was, weiß ich, Nudeln, Pizza, sonst irgendwas.
Und dann habe ich gesagt, so lies mir die Pasta vor.
hat sie mir die Pasten, also Pastagerichte, aufgezählt und dann habe ich gefragt, was kosten die Tortellini mit Spinat und dann hat sie mir das gesagt, ja, und das, also das mit diesen 3 Sprachen, ich bin ja manchmal schon an durchaus an Speisekarten auch gescheitert, wenn ich gesagt hab, lies mir das vor, weil wie jede andere K.
I.
auch.
kommt sie oft mit Tabellen nicht klar.
Aber wenn man sich dann die Sachen wirklich beschreiben lässt und nicht sagt, lies vor, dann erzählst du einem, was da ist und dann kann man dann Fragen stellen und das, das geht, das ist echt teilweise irre.
Ja, ne, bin ich eben auch und da, da fängt es dann wirklich an, nützlich zu werden.
Und oder auch ja, dass wenn man irgendwas, weiß ich, irgendein vielleicht ein Fertiggericht oder irgendwas anderes aus dem Kühlschrank rausholt und fragt, was das ist,
dass einem dann eben nur kurz gesagt wird, was es ist und eben nicht die Haltbarkeit vorgelesen und der Barcode, die Ziffern und so.
Ne, das ist, finde ich schon nett.
Siehe, das war schon toll.
Ja, ja.
Oder auch Beschreibungen.
Ja.
Ich war vor kurzem jetzt in Hamburg gewesen und bin da mal mit der Kap San Diego rausgefahren und da habe ich mir also auch.
Landschaftsbeschreibungen geben lassen, die waren also auch richtig toll, mehr detaillierter, als das ein Zehnter beschreiben würde.
Ja, gut, manchmal, manchmal macht die KI halt ein paar Kapriolen, man merkt, die verändert sich, also was, was mich dann auch so ein bisschen nervt, das ist.
Das fing irgendwann damit an.
Ich konnte sagen, beschreib mir das für eine blinde Person.
Dann habe ich eine detailliertere Beschreibung bekommen.
Und dann fing irgendwann, und zwar genau da, als ich auf dem Schiff war, mir plötzlich an, die KI mich anzuleiten, wie ich als Blinder meine Umwelt
wahrnehmen soll.
Achte mal auf das, auf die Möwenschreie, ja da waren keine Möwen in dem Moment.
Oder ich hab mir dann den Weg beschreiben, vor mir beschreiben lassen und ja, da ist der Weg ist unterschiedlich gepflastert.
Achte mal auf die unterschiedlichen Klang deiner Schritte.
Das sind so Dinge, die, die nerven mich dann irgendwann, wenn das Ding versucht, mich irgendwie zu erziehen.
Keine Ahnung, ne?
So eine neue blinde K.I., was soll denn das?
Das ist dann also das, da will ich halt eben auch drauf hinaus.
Manchmal, also in den meisten Fällen, ist es wirklich gut zuverlässig, ne?
Wenn ich auch in so einen Bahnhof reingehen, weil welcher Bahnsteig ist das oder so was, das sagt sie halt auch.
Aber ich sag mal, manchmal, wenn sie besonders, wenn wenn sie irgendwas nicht kann und ich sag, welches Gleise sind hier oder welches Gleis ist hier, ja, wahrscheinlich oder möglicherweise Gleis 1 und ich weiß, dass ich in der Gegend zu 9 bin.
Das Problem ist einfach, dass das der K.
I.
schwerfällt zuzugeben, dass sie was nicht weiß.
Was ich da, warum ich das anspreche, ist ist dass man sich auf keinen Fall
absolut hundertprozentig in einer schwierigen Situation, gefährlichen Situation, drauf verlassen sollte.
Jetzt genau, jetzt fällt mir auch gerade ein, nicht dass einer auf die Idee kommt zu fragen, ist die Straße frei, kann ich rübergehen, ne?
Ja, ja, also der, meine, sie sagt ja, die Ampel ist grün, aber das Problem ist, ich hab ja dadurch, dass ein Bild gemacht wird,
habe ich ja immer eine Verzögerung drin.
Das heißt, ich habe also nicht die Information, die jetzt auf die Sekunde genau passt.
Ja, und das ist eben auch so eine, viele warten ja drauf, bis der Live-Chat kommt, der jetzt schon in den USA geht.
Ich habe das auch ausprobiert, schon, dass man wirklich.
kann man jetzt schon mit ChatGPT oder Gemini Google K.I.
schon auf Deutsch auch ausprobieren.
Also wirklich, die Videokamera ist auf und macht halt nicht ein Foto und wertet das aus, sondern ich behalte unterhalte mich direkt mit der K.I.
über das, was vor mir ist und das habe ich halt auch ausprobiert.
Ich habe es dann irgendwann wieder abgeschaltet, weil
Es braucht doch eine Zeit, es redet ziemlich viel und ich kriege in dem Moment vielleicht nicht die Information, die für mich jetzt wichtig ist.
Ja, das muss einem einfach klar sein.
Das kann, wenn ich jetzt zu Hause in meiner Küche bin, dann kann mir das sehr viel nützen, dass ich auch vor allen Dingen nicht ständig irgendwelche Kommandos geben muss.
Und ich kann mich damit unterhalten.
Das ist, das ist gut, aber.
Ja, wenn ich unterwegs bin, ist es schwierig.
Und Patrick, ich hab gesehen, dass du an deine Hand gehoben hast.
Und was ich auch gemerkt habe, ich war auf einem Vortrag gewesen.
Ich hab 'n Vortrag gehalten, auch über die Metal Raven beim Sehbehindertentag in Essen.
Und da war 'n Augenarzt, der war vor mir und ich hab mir dann die.
Das, was mit einem Beamer an die Wand geworfen wurde, habe ich mir beschreiben lassen und habe dann aber festgestellt, ja, das ist schön, dass ich mir das beschreiben lassen kann.
Nur in dem Moment, wo die Brille beschreibt, höre ich den Referenten halt nicht mehr.
Und dann habe ich dann doch lieber Bilder gemacht und habe mir das hinterher angezeigt.
Also ich sage das ganz gerne so, weil die Brille und diese Möglichkeiten, das sind super Möglichkeiten, super Chancen für uns, aber es gibt auch immer noch
Grenzen.
Es ist nicht das Allheilmittel.
Patrick, du hast dich gemeldet.
Ja, ich wollte ganz gerne mal noch mal auf das eingehen, was du gerade eben zur Live A.
I.
gesagt hast.
Du hast gesagt, mit Jet G.
P.
T.
und Jim and I.
ist es schon möglich.
Hat man da dann also ich habe selber mit Life A.
I.
noch nichts zu tun gehabt.
Gibt es da nicht dann auch 'ne Verzögerung, wie du sie eben vorher noch bei der Ampel Thematik beschrieben hast, weil wenn ich mir vorstelle, ich laufe also die Live A.
I.
läuft mit und
Ja, Voiceover oder die, die die K.I.
erzählt mir, was aktuell quasi vor meinem Auge ist.
Dann muss ja erst mal, wie soll ich sagen, es dauert ja bis die K.I.
mir was weiß ich was beschreibt, zum Beispiel keine Ahnung vor eine Bank ist vor dir oder Leute kommen entgegen, während das beschrieben wird.
Das dauert ja so 2 bis 3 Sekunden, bis der Satz quasi zu Ende ist.
Ich hoffe, ihr versteht, was ich meine und wie sind denn da deine oder eure Erfahrungen?
mit einer möglichen Verzögerung auch bei der Live-Erkennung?
Die K.I.
redet so viel, dass man die Verzögerung nicht merkt.
Also mit meiner Erfahrung, meine Erfahrung ist, das im Endeffekt, das ist zwar eine Live-Erkennung, in Wahrheit beschreibt sie aber natürlich nur ein Standbild.
Ich geb euch mal, ich geb dir mal ein Beispiel.
Ich habe zum Beispiel, bin bei mir in der in der Küche mal rumgelaufen und hab der K.I., das war allerdings ChatGPT, der Videofunktion, hab ich gezeigt, guck mal, das ist mein Schlüssel.
Aha, ja, das ist ein Schlüssel.
Und dann habe ich gesagt, ich lege den Schlüssel jetzt irgendwo hin und dann gehe ich entlang und wenn du den Schlüssel siehst, sagst du mir Bescheid.
Und dann habe ich den Schlüssel auf den Tisch gelegt, einfach und bin dann vom Flur aus in die Küche gelaufen.
Hab langsam natürlich
ne, damit die Kamera das alles mitkriegt, hab schön über den Tisch gefilmt, keine Reaktion.
Und irgendwann hab ich drauf gezeigt mit dem Finger und hab gesagt, schau mal, was liegt da, oh, da ist dein Schlüssel, und dann so, ja.
Also letztlich ist es, glaube ich, schon so, die macht dann für sich auch immer eine Momentaufnahme und beschreibt das, deswegen kann man das so tatsächlich nicht machen, dass man dann denkt, man kann auch nicht sagen, warne mich bitte vor Hindernissen oder sag mir Bescheid, wenn 'ne Treppe kommt, das funktioniert nicht.
Nee,
beruhigen, danke, weil also Frau Gett mich, aber es gibt ja, ich sag mal, ja Wünsche in ja der blinden Community, dass die Live A.I.
eben irgendwann einen eben vor Hindernissen warnen können soll in Echtzeit, da das fällt mir aktuell noch sehr schwer dran zu glauben und da glaub ich aktuell persönlich noch nicht dran.
Ja, danke schön, wird kommen, wird kommen.
Ja, man braucht vor allen Dingen momentan, braucht man eben, also müsste die App, die wir benutzen für sowas, noch in der Lage sein, den Lidar Scanner zu benutzen am iPhone.
Wenn das eine eine präzise Entfernungsmessung, ich habe da, will ich jetzt noch nicht so viel drüber reden, da kommen wir aber später im Jahr hier noch dazu.
Da ich habe eine App tatsächlich im im Test, die.
K.
I.
benutzt und eben auch in der Lage ist, die den Leiterscanner zu benutzen und da kommen wir dieser Sache schon sehr nah, aber da kommen wir vielleicht mal gucken, September oder November, werde ich da mehr drüber erzählen.
Es gibt noch 2 Wortmeldungen.
Ja, kann ich auch.
Ja, hier ist die Brigitte Schorn.
Ich habe mal eine Frage.
Ist diese Metaglasses, ist das Gerät schon erhältlich oder ist sind das jetzt Testgeräte?
Das, das ist im ganz normalen Handel.
Es gibt bei der Meta Raven Classes, die, das ist also eine Brille vom Metakonzern, Facebook und der Facebook-Konzern und die Sonnenbrille, die Brillenmarke Raven und das ist also eine Brille, die
Sieht aus wie eine Sonnenbrille und die ist im ganz normalen Handel erhältlich.
Also bei Neuseeland, bei Apollo kann man sie kaufen, wenn sie denn gerade erhältlich ist.
Fielmann und so weiter.
Also die haben die Brille.
Es ist ein Gerät, im Grunde genommen eine Sonnenbrille, die eigentlich ein Headset ist.
Das heißt, die hat eine Kamera.
die hat eine eine Leuchte, die dem Gegenüber anzeigt, wenn man diese Kamera benutzt.
Sie hat 5 Mikrofone und sie hat im Ohrbügel jeweils sehr tolle Lautsprecher.
Und man kann dann eben, wie wir das eben bei unserer Sprachassistentin von Apple kennen, ich will jetzt bei niemandem was auslösen hier.
Der ist der Iris.
Und so kann man eben sagen, halt jetzt hey meta oder okay meta.
Und dann kriegt man einen Signalton und dann kann man, dann kann man sagen, also in Englisch jetzt look and tell oder look and read.
Und in Deutsch ist es schau und beschreibe, schau und lies versteht sie irgendwie nicht.
Den Lesebefehl habe ich noch nicht rausgefunden.
Und dann bekommt man eben, wie man ähnlich, wenn man das von Sing A.I.
oder Be My A.I.
kennt, ein bisschen zusammengefasster, bekommt man eben 'ne Antwort und kann dann noch detaillierte Fragen stellen.
Also nur für diejenigen, die es noch nicht mitbekommen haben.
Und was kostet das Ding denn?
Also ich habe meine mit den getönten Gläsern für 409 Euro gekauft, sie waren aber jetzt auch schon für unter 300 erhältlich.
Also je nachdem, welchen Typ, welches Gestell man nimmt, welche Art von Gläsern man reinnimmt, man kann sich letzten Endes auch seine eigenen Gläser reinmachen lassen, dann kann das natürlich gleich erheblich höher gehen, der Preis.
Aber ich habe jetzt eine Sonnenbrille mit selbsttötenden oder eine Brille mit selbsttötenden Gläsern, habe 409 Euro bezahlt.
Ja.
Also man könnte, warte mal, wo habe ich sie denn?
Ich habe sie gerade hier.
Mal gucken, ob das geht.
Wenn ich selber Host bin, dann kann ich normalerweise Originalton einschalten und meine Airpods, die ich im Ohr hab, die haben ja, nehmen ja eigentlich meinen Ton auf.
Ich setz die Brille jetzt mal auf und ihr sagt mir gleich mal, ob ihr die Musik hört, die gleich kommt.
War das zu hören?
Nein, nein, schade.
Dann wird es, dann wird es ausgefiltert, weil ich kann mich hier nicht auf Originalton schalten.
Ja, Elimeter.
Look and tell.
Here's to be a person sitting in front of the labor.
Hope man elasts?
Yeah.
Yeah.
In a video conference or online meeting.
Tell me more in German.
Ich kann Ihnen leider nicht in einer anderen Sprache antworten als der eingestellten Lokale, die auf Englisch eingestellt ist.
kannst du das also und das war das war jetzt original K.
I.
ne, jawoll, also sie kann, sie kann das aber.
Ja klar, sie antwortet sonst sehr auf Deutsch.
Ja, heute, heute Morgen hat sie ja auch
schon mal, also meine spricht ja mittlerweile Deutsch und heute Morgen hat sie, wollte sie mir, hat sie mir in Deutsch erzählt, dass sie kein Deutsch kann.
Sehr gut, na ja, gut, da sieht man halt, Bewusstsein ist halt begrenzt, nur ne, da, genau, ja, genau, ich, ich muss aber auch sagen, ja, erzähl du, nein, nein, sag mal zu Ende.
Ich wollte sagen, ich muss auch sagen, ich finde die K.I.
von Meta, die ich bisher kennengelernt hab, die ist nicht so,
gut, wie ich das bei Open A.
I.
persönlich erlebe.
Ich arbeite gern mit Chat G.
G.
T.
und das ist doch 'n ganz anderes Level, finde ich, wie man sich da austauschen kann.
Hier bei bei Meta erlebe ich das bisher als 'ne Siri plus, möchte ich mal sagen.
Oh, jetzt habe ich das Wort gesagt, ne, wie 'ne S.
plus würde ich sagen.
Meta ist ja auch noch klein und muss noch viel lernen.
Die ist ja eigentlich eine recht junge KI im Gegensatz zu ChatGPT und so weiter.
Es sind noch ein paar Wortmeldungen.
Setia Schäfer habe ich gesehen zwischendrin.
die anderen werden mir gerade nicht angezeigt.
Also was mich interessiert ist, wenn man zum Beispiel in einem, man geht in ein Eiscafe oder wo oder wo es Buffets gibt, wo was steht, also da ist ein die und die Sorte Eis, ne, das kann man, kann ich ja zum Beispiel gar nicht erkennen.
Können diese Gläser das einem vorlesen?
Also das ist ja auch so ähnlich wie Tabelle, glaube ich, kann man sagen, ne.
Hat schon sehr oft bei mir funktioniert.
Also das, wenn ich dann, wenn ich dann so eine Seite habe, wo dann Abbildung und Schrift drauf ist, dann kommt es durcheinander.
Aber wenn ich, aber wenn ich sage, Look and tell und da, dann erzählt er mir tatsächlich, da ist ein Schokobecher und da ist das und dann kann ich detaillierte Fragen stellen.
Was ist denn in dem Krokantbecher alles drin?
Was kostet der und so weiter?
Das funktioniert meistens.
Wo übrigens?
bis jetzt jede K.
I.
App mit Fotos und scheitert, das ist bei einer Zeitungsseite.
Das heißt, das geht, das habe ich noch nicht probiert, O.
K.
Also das, was ich meine, ist quasi so 'ne, das ist ja meistens so, dass die Eissorten sind ja vor einem so und da drunter sind immer so ganz kleine Schildchen, die die ich ja sowieso nicht lesen kann, als ob die das quasi auch könnte oder ob das zu zu zu klein wäre, tatsächlich.
Es hängt wahrscheinlich tatsächlich von der Größe ab, ne.
Also, wenn es zu klein ist, dann kann sie es natürlich nicht lesen, aber die Eisverkäufer werden ja ein Interesse daran haben, dass die Kunden das erkennen können.
Und wäre auf jeden Fall 'n Versuch wert.
Aber wie Karl Matthias sagt, die, die können halt, wie soll ich sagen, die können dir wahrscheinlich sagen, ja, hier vor dir sind die und die Sorten, aber die könnten das jetzt nicht dem richtigen Bild zuordnen oder da würde ich mich nicht drauf verlassen.
Aber
denke schon, also grundsätzlich sagen, hier gibt es die, die und die Eissorten, könnte das wahrscheinlich.
O.
K., danke.
Ja, man muss halt einfach sehen, das ist jetzt eben im Grunde genommen die erste K.
I., die das macht.
Ich glaube, dass wir Blinde ja für diese ganzen K.
K.
I.
s 'ne sehr gute Übungstruppe sind.
Ja, ich glaube, dass die, dass die zum Lernen, dass wir da sehr viel dazu beitragen können, weil wir einfach intensivere Fragen stellen, als das wahrscheinlich andere tun werden.
Und man muss aber 1 sehen, das ist ja jetzt immer noch so eine gewisse Pionierarbeit und und wir sind ja auch noch Pioniere.
Wir müssen auch erst lernen, damit umzugehen und das halt einfach richtig zu zu händeln.
Ich habe halt in den letzten Wochen sehr die Erfahrung gemacht, ich habe auch sehr viele Dienstreisen gehabt, die in den letzten Wochen und es ist dann immer ganz schön, wenn man Zeit hat.
und rumprobiert und dann freut man sich an den Ergebnissen, aber wenn man unterwegs ist und man es bricht mal Hektik aus und in dem Moment meint die K.I.
mit einem diskutieren zu müssen oder wir müssen sie erst mal durch Diskussionen dahin leiten, dass sie uns sagt, was wir wollen, dann dann wird es manchmal anstrengend und auch nervig.
Das ist einfach so, das ist alles noch im Anfang.
Und dann frage ich halt doch lieber kurz einen Passant.
Ja.
Weil ich habe zum Beispiel was, was halt auch schön war vom Fotografieren.
Ich hatte immer die Vorstellung gehabt, ja, wenn ich jetzt mit so einer Brille rumlaufe, dann muss ich ja, ich sehe ja die Schilder nicht.
Jemand, der sehbehindert ist, der sieht die Schilder noch, weiß, wo er hinfotografieren muss.
Das weiß ich halt nicht unbedingt, aber ich habe halt festgestellt, klar, wenn du in den Bahnhof reinkommst, da ist ja ohnehin alles so im Blickfeld, dass es der Sehende sieht, das da gibt es kein Problem.
Und was mir halt gelungen ist, ich habe direkt vor meinem Homeoffice zu Hause ein riesengroßes Wespennest.
Kann das Fenster nicht mehr aufmachen.
Jetzt habe ich halt die Situation gehabt, ja, lasse ich dieses Wespennest wegmachen, die stehen unter Naturschutz.
Und dann ging es irgendwann, habe ich mich mit so einer Beratung auseinandergesetzt und derjenige sagte mir dann, schicken Sie mir mal ein Foto, ja.
Und dann habe ich halt tatsächlich mit der Brille
einmal aus meinem Bürofenster heraus fotografiert und einmal von unten.
Und die Leute, die waren total begeistert, wie ich als Blinder präzise fotografiere.
Ja, das war also, ich habe dann auch festgestellt, das ist eine total seltene Wespenart, die andere Wespen vertreibt.
und nicht an menschliches Essen geht, habe ich gedacht, hurra, ihr dürft bleiben.
Und habe, aber es war schon für mich ein Erlebnis eigentlich, so diese Rückmeldung über das Foto, was ich da gemacht, über die Fotos, die ich da gemacht habe, wie präzise es mir dann doch gelingt zu fotografieren auch.
Und so kann ich ja mit den Videos für WhatsApp tatsächlich, die Rückmeldung habe ich halt auch bekommen.
Und da kannst du, da kann man natürlich auch, ich meine, wenn man jetzt ein Foto hat,
was man zusammen mit der Brille fotografiert oder eben ein Video, dann kann man das ja eben, wenn man eine genauere Beschreibung haben will, auch wieder über Be My AI oder Seeing AI schicken, ne?
Das waren noch Wortmeldungen?
Ja, der Walter aus Berlin.
Matthias, ich weiß ja, dass du da einen kleinen Seerest hast und in dem Zusammenhang interessiert mich,
diese selbst eindunkelnden beziehungsweise aufhellenden Gläser, die sollen ja in letzter Zeit jetzt doch relativ schnell reagieren.
Kannst du das bestätigen?
Ja, ja, tun sie, tun sie.
Also ich kann ja nicht sagen, es wird manchmal gefragt, wie viel Prozent dunkeln die ab, das kann ich ja nicht sagen.
Ich habe tatsächlich, also ich sehe nur noch ganz, ganz wenig.
und bin aber ziemlich lichtempfindlich und ich habe mich eigentlich gefragt, ey Junge, warum hast du dich nicht längst mal mit selbsttönenden Gläsern auseinandergesetzt, das ist ja so angenehm.
Ja, und die zweite Frage in dem Zusammenhang, ich habe irgendwo gelesen, dass diese Gläser aber ihre Wirkung verlieren, wenn sie hinter beschichteten Fenstern getragen werden.
Also ich habe gerade
die Brille jetzt auf der Seite liegen gehabt und man hat mir gesagt, dass dass die, dass sie sich trotz trotz auch hinterm Fenster getönt haben.
Aber üblicherweise tun sie das nicht oder zumindest so extrem, wie das bei direktem Sonnenschein ist.
Also auch bei Autoschaden tun sie das nicht, weil die auch U.
V.
Strahlen rausfiltern.
Ja, das habe ich auch gehört, das hinter.
Aber
für selbsttönende Gläser.
Mhm.
Ja, danke, das reicht mir schon.
Mhm.
Ich hab mir auch die Brille geholt, mit der ich auch gerade jetzt hier telefoniere.
Man hört's und hab auch schon mal einen Live-Chat gemacht mit meiner Tochter über WhatsApp.
Und das hat eigentlich sehr, sehr gut geklappt.
Also sie konnte mir sagen, wo ich langgehen sollte und konnte mir dann auch sagen, was sie sieht.
Ja, das ist gute, gute, guter Punkt, den du ansprichst.
Also, ist auch 'ne schöne Funktion, dass ich über WhatsApp jeden Kontakt anrufen kann und wenn ich dann irgendwo hängen bleiben unterwegs, derjenige sieht aus der Perspektive meiner Kamera und kann mich eben auch leiten.
Also, ich hab das ausprobiert, mal im Stadt und im Gewühle und so weiter, es funktioniert eben hervorragend.
Also, da kommen dann 2 Dinge zum Teil.
Ist gleiche Trägheit vorhanden, ne?
Ja, also die Trägheit ist da, die ja natürlich auch davon abhängt, was du gerade für eine Internetverbindung hast.
Ne, da macht es schon Sinn, dass man auch mal ausprobiert, ob man jetzt mit LTE das macht unterwegs oder ob man mal auf 5G schaltet.
Das iPhone, das habe ich jetzt auch noch nicht probiert, aber es ist halt natürlich die ist klar.
Also, wenn du gerade eine Verzögerung hast im in der Internetverbindung, dann hast du auch unter Umständen eine riesen Verzögerung bis zum Abbruch der Verbindung.
Ja.
Und ich habe noch eine schöne Funktion festgestellt.
Das klappt wunderbar.
Ich habe die Brille auch mit meinem Windows-Rechner verbunden.
Das geht sogar so gut, weil ich erst Bedenken gehabt habe.
Aber ich habe die Brille dann ganz normal mit dem Windows-Rechner verbunden.
Das klappte, konnte auch alles hören.
Ich habe auch im Netz gelesen, es soll sogar telefonieren möglich sein.
Gut, das habe ich jetzt nicht probiert.
Aber das Schöne ist,
Wenn ich die Brille absetze und zusammenlege und wieder auseinandernehme, verbindet sie sich automatisch wieder mit dem iPhone.
Ja.
Ja, also ich habe sie auch schon als Headset am Mac genutzt und ich habe sie schon auch, wenn ich jetzt unterwegs bin für die Firma und richte einen Rechner ein und die Sprachausgabe will gerade momentan mal
partout nicht mit mir reden, weil sie mitten in der Installation ist oder sonst irgendwas, dann hilft mir die Brille eben auch bei einem Bildschirm von einem Rechner erkennen zum Beispiel.
Und was in der Situation auch gut ist, ist dass man die Brille mittlerweile mit 'Be My Eyes' verknüpfen kann und darüber eben auch sehende Hilfe bekommen kann.
Das geht nicht mit der AI-Funktion, aber das geht eben, wenn man wirklich ein Video, eine Person über Video anruft.
Das geht auch gut.
Aber was wir gerade bei Bernd gehört haben, also die Jürgen hat ja vorhin gesagt, wie gerne er damit Aufnahmen macht und eben die Aufnahmen von Videos extrahiert.
Die Aufnahmen, wenn ich jetzt ein Video aufnehme und so weiter, sind erheblich besser.
Wenn ich jetzt heute eine Sprachnachricht über WhatsApp verschicke oder jetzt eben wie jetzt Bernd telefoniert, da funktioniert irgendwas noch nicht mit der Übertragung.
Also das klingt, wenn man Videos
macht, klingt das viel, viel besser.
Ja.
Na, ist ja bei den Airports ähnlich, glaube ich, ne, wenn man das war bei den, ja, das war bei den Airports ähnlich, bis sie da an der Software was geschraubt haben, also da ist was möglich.
Ja, weitere Wortmeldungen, einiges.
Da gibt es ja noch einiges kommen, was uns begeistern wird.
Ja, auf jeden Fall.
Gibt es auch noch eine zweite Brille, die jetzt kommen soll oder wohl auch zu einem Handel sein soll?
die eine doppelt so lange Akkulaufzeit ermöglicht?
Ja, also das sind die Oakley Brillen, das ist eben auch 'ne Firma aus diesem Konzern, zu dem glaube ich auch Raybon gehört.
Ist dann eher so 'ne sportlichere Brille, aber ich muss sagen, Thema Akku ist ja auch 'ne Frage, die immer wieder kommt.
Da muss ich sagen, also
Im Gegensatz zu anderen Brillen, die wir jetzt als Blindenhilfsmittel können, hält die schon sehr lang.
Also so bis viereinhalb Stunden, wie so Airports halt.
Aber die Brille lädt sich ja über das Brillenetui, über das Case auf.
Und da sind halt bis zu acht Ladungen drin.
Und ich muss schon feststellen, dass ich also wunderbar über ein Wochenende gekommen bin.
wo ich doch sehr stark sie genutzt habe, ohne aufladen zu müssen.
Also von daher finde ich diesen Akku Geschichte ist klar, je mehr man hat, desto besser.
Aber es spielt jetzt bei der, also es wäre der Akku wäre jetzt kein Grund, warum ich mir die andere Brille kaufen würde.
Ja, eine bessere Kamera sollte wohl noch haben, das könnte sich vielleicht dann doch auswirken.
Ja, gut, das ist halt die Frage.
Ich glaube, für uns, was wir an Bildbeschreibungen brauchen, geht da nicht mehr ganz so viel nach oben.
Interessant wäre halt so ein Leiter Scanner, damit sie halt die Abstände einschätzen können.
Da bräuchten, da müssten sie aber insgesamt noch ein bisschen intelligenter werden.
Aber ich glaube,
ob ich jetzt keine Ahnung, 'ne 12 MP Kamera habe oder 'ne 14 MP Kamera, beziehungsweise Videos mit 3 K.
aufnehme, was die, was die Raven kann.
Und ich glaube, es sind 3 K.
und 4 K., soll die Oakley können.
Das ist dann für Leute, die professionell Videos machen oder die ihren Instagram Account bespielen wollen oder ihren YouTube Kanal, da macht es noch 'n Unterschied.
Aber ich denke, für uns
eigentlich nicht.
Kann man eigentlich den Ladestand vom Case auch irgendwie abfragen?
Ich glaube nicht, ne?
Doch, da gibt's einen Trick.
Und zwar, du nimmst die Brille aus dem Case, also gehst in der App, in die Einstellungen, wo du siehst Akku, Ladestand, Brille, 100 Prozent, dann setzt du die Brille auf, lässt sie verbinden, dann tust du sie ins Case und dann tippst du auf
diese Anzeige von der Brille und dann erscheint unten drunter die, ob das Case ganz mittel oder schwach geladen ist.
Aber es ist, es ist ja, es ist, es ist nicht so, wie man es sich wünscht.
Ja, Gudrun hier, ich sollte vielleicht lieber bei Reben nachfragen.
Ich hatte mir auch die Reben schicken lassen und die saß aber nicht gut, die rutscht mir immer von der Nase, da bin ich zum Optiker gegangen, hab da die anderen.
Brillen ausprobiert, hier die Headliner und die Skyliner, wie heißt die?
Skyliner, ja Skyliner, ja, aber sagten mir nicht zu, weil die anderen sagten, na ja, sieht sieht nicht so toll aus.
Mir ist natürlich klar, dass die größer sein müssen, weil ja die allein der Rahmen schon breiter ist durch die Technik, aber ob es da noch mal andere Modelle gibt von von Reben.
Das ist halt die Frage, ob die noch andere Modelle rausbekommen, rausbringen.
Es wird ja auch in den nächsten Monaten, Jahren werden wahrscheinlich noch mehr Brillen können.
Also Google ist mit einer am Start.
Ich gehe mal davon aus, dass Apple auch am Start wahrscheinlich erst nächstes Jahr rauskommt.
Und wenn sie uns ganz toll überraschen, vielleicht im Herbst, wer weiß.
Was machst du, Jürgen?
Nee, ich denke auch, also nächstes Jahr finde ich schon ambitioniert, weil Apple ist ja, was neue Produkte angeht, sehr zögerlich geworden, finde ich, ne, die rauszubringen.
Frühestens gehe ich davon aus, nächstes Jahr, wenn überhaupt, nächstes Jahr.
Aber ich muss sagen, das spricht mich halt auch wieder sehr an, weil wenn Apple sowas rausbringen würde, dann wäre die halt auch mit viel mehr Sachen kompatibel.
Ja, ich mein, Meta macht ja ganz bewusst ihr Gerät dicht.
Auch Meta könnte mit Seeing AI zusammenarbeiten oder mit mit anderen Apps, aber die machen dicht, weil sie halt wollen natürlich, dass es für ihre Zwecke benutzt wird.
Eigentlich ist es ja gedacht für Instagrammer und für für Facebook Leute und so, dass man unkompliziert Videos erstellen und Fotos erstellen kann und hochladen kann.
Und das haben sie auch absolut gut gemacht.
Aber dass sie halt das Gerät so schützen,
das nervt mich ein bisschen.
Ich habe mich mit dem Gründer von Beamer Eyes und neulich unterhalten und der sagte, das war schon echt aufwendig, der Prozess, um sich dort bei Meta für diese App registrieren zu lassen.
Von daher, das das finde ich halt nicht so schön und bei Apple gehe ich davon aus, wäre das wesentlich einfacher.
Die würden halt die ganzen Berechtigungen für die Apps, die es sowieso gibt, würden sie da sicherlich könnten die die einfach übernehmen oder so, ne.
Also das.
Dann könnte man es sicherlich nutzen.
Dann könnte auch zum Beispiel Open A.I.
Chat G.P.T.
mit ihrer Videofunktion über diese Brille laufen lassen.
Auch das geht im Moment nicht mit der Rayben.
Deswegen, ich hoffe sehr auf Apple, aber bis dahin tut mir die Rayben sehr gute Dienste.
Also werde ich mich doch für irgendeine Rayben entscheiden müssen.
Erstmal, ja, weil das noch ein bisschen dauert.
Ja, eben, das dauert mir noch zu lange.
Ja, also ich bereue den Chaos kein, keine Sekunde.
Ja.
Das ist vielleicht noch 'n Hinweis, hier der Günther.
Bevor man die bestellt, unbedingt in einem Brillenladen die Modelle ausprobieren, welches für den jeweiligen Kopf passt.
Weil man kann die Dinger nicht wie die normalen Brille einfach warm machen, umbiegen, fertig.
Die kann man nicht anpassen, geht nicht, Ende, aus.
Ja, das ist so.
Und in den Brillenläden haben die die nicht funktionsfähigen Dummies da, die kann man aus anziehen.
und ausprobieren und dann sieht man, welches Gestell einem passt und dann muss man halt gucken von denen, die es da gibt, welche nehme ich also von denen, die mir passen.
Ja, mich hätte noch interessiert, ob die Krankenkassen so eine Brille auch als Hilfsmittel anerkennen, sprich ob das auch bezuschusst wird.
Nein, nein, das wird auch nicht, das wird auch nicht kommen, weil es ist, es ist genau wie ein iPhone, es ist ein Gerät des täglichen Lebens.
was wo blinde Menschen zwar einen besonderen Nutzen von haben, aber es ist kein ausgewiesenes Hilfsmittel.
Also das wird das wird nicht sein.
Wir haben ja im Moment so ein bisschen das Problem, dass es ja durchaus verschiedene Hilfsmittel gibt in diesem Bereich, die die Krankenkassen bezahlen, die aber
erheblich teurer sind in vielen Bereichen.
Manchmal können sie das die ein oder andere Funktion mehr, aber im Großen und Ganzen können sie weniger und haben halt leider alte Technik drin.
Das ist im Moment das Problem.
Drücke mir, also ich werde keine, möchte keine Namen nennen, weil ich von Hilfsmittelanbieter arbeite, aber es, das ist halt einfach das Problem.
Wir haben hier ein Gerät, was für Otto Normalverbraucher
kaufbar ist und eine Preislage auch hat, die man sich zusammenkaufen kann.
Es gibt es gibt noch einige Leute, die laufen ja mit erheblich teureren Sonnenbrillen oder überhaupt Brillen rum.
Und von daher, das wird nicht passieren mit den Krankenkassen.
Genauso wenig wie die Krankenkassen ein iPhone oder einen offenen Computer finanziert, also ein Notebook oder sowas.
Ich dachte, du bist, du bist ja wirklich schon viel rumgekommen mit der Brille.
Hattest du eigentlich schon mal irgendwelche Äußerungen deiner dich umgebenden Menschen, dass du nicht ungefragt fotografieren darfst?
Nein, hatte ich noch nicht.
Also, das ist es ist eben so, bei der bei den Brillen, die ich gerade angesprochen hatte, da ist es halt so, dass die Kamera halt wirklich teilweise offen inklusive Lampe auf dem Gestell sitzt und es ist einfach erkennbar.
Bei der Raven ist es so, dass und das kommuniziere ich auch, wenn ich jetzt mit mit bei Leuten bin, kommuniziere ich auch.
Also Leute, wenn das bei mir oben auf der rechten Ecke leuchtet, dann nutze ich gerade meine Kamera.
Und das ist natürlich ein Problem im Moment in der Öffentlichkeit.
Aber es wird ohnehin jeder fotografiert.
Die Leute fotografieren mit ihren Handys.
Das kriegt man, wenn mich jemand mit dem Handy fotografiert, das kriege ich unter Umständen überhaupt nicht mit.
Wenn ich mit der Brille fotografiere, leuchtet oben rechts ein weißes Licht.
Also kein rotes, sondern ein weißes.
Ein weißes.
Ja.
Und weißes Licht ist bei teures Licht so gut wie kaum zu sehen.
Also mir hat man gesagt, es ist zu sehen.
Man kann auch die Helligkeit verstellen oder so was.
Also mir hat man gesagt, ich habe gefragt, weil das Thema beschäftigt mich natürlich auch.
Aber wie gesagt, wenn ich jetzt mit dem iPhone fotografiere und nutze be my AI oder seeing AI, Google hatte vor
einigen Jahren, 2012, 2013/14 oder so, die Google Glasses gehabt, die mussten sie damals vom Markt nehmen, weil es noch nicht so salonfähig war, dass fotografiert fotografiert wurde.
Die haben sie dann vom Markt genommen
und so, heute schert sich, da kommt noch ein Mensch drüber.
Und ich sage eben auch jedem halt, wenn ich die normalen Abfragen mache, dass ich einfach, dass ich damit gucke, dass das Bild halt einfach nicht gespeichert wird, ja.
Aber man sollte sich dessen bewusst sein.
Ich war also bei einer Großveranstaltung im Juni und habe dort einen Vortrag gehalten.
Und das war, da war ich ja gerade noch in den Anfangszeiten mit der Brille.
Und da muss ich schon, schon sagen, also ich versuch schon drauf zu achten, mit den Miniseries, den ich noch hab, dass ich halt nicht unbedingt da Leute direkt im Bild habe oder so.
Das ist ein Thema, was man auf jeden Fall ernst nehmen muss.
Habe ich mir jetzt mal in dem Zusammenhang mal eine Frage, was ist eigentlich die Vision Pro, da hab ich schon mal öfter was von gelesen, ist das auch eine Brille?
Jürgen, willst du mal was über die Vision Pro erzählen, du hast sie glaube ich ausprobiert, ne?
Ich hab es ja auch ausprobiert, ja.
Also die, die, die Visual Pro, das ist
ein A.
R.
Headset, also das ist wie 'ne Brille, aber noch viel, viel mehr.
Es es fühlt sich so 'n bisschen an, wenn man die auf hat, als hätte man Froschaugen, vorne so Glubscher und dann ist 'n Band, was um den Kopf führt, dass die die Brille einklemmt sozusagen, also ja, dieses Headset.
Und das ist deswegen so relativ groß, weil das hat 2 Bildschirme, einmal auf der Innenseite, wo man drauf guckt,
Und auf der Außenseite hat es auch, also 2 Bildschirme für jedes Auge mal, meine ich natürlich.
Außen hat es auch Bildschirme, wo der Mensch von außen drauf guckt.
Und das hat zur Folge, dass der, der von innen, der die Brille trägt, der kann da durch gucken durch die Kamera.
Also wegen der Kameras sieht der auf den Bildschirm so, als wäre das Glas und der sieht, was halt vor ihm ist.
Und wenn einer von außen.
guckt, dann sieht er die Augen desjenigen, genauso auch, als würde er durch die Brille durchgucken, als wär das Glas.
Aber das ist in Wahrheit von Kameras, die innen liegen, gefilmt und nach außen auf die Bildschirme übertragen.
So, und A.
R.
Headset bedeutet, da, da wird, da kann man die normale Realität sehen und eine zusätzliche Augmented Reality reinprojizieren.
Das Beispiel, was Apple in der eigenen Vorführung gebracht hat, ist, man ist in einer Schulklasse und wenn man so 'n Ding trägt, dann kann der Lehrer einen Dinosaurier in den Raum projizieren.
Und um den kann man drumrum gehen, man kann hoch und runter gucken, man kann ihn nur nicht anfassen, ne?
Und das ist eben das Besondere.
In der normalen Realität erscheinen Dinge, die nicht da sind.
Und das ist halt viel mehr, das Gerät richtet sich auch nicht eigentlich an Endkonsumenten, wie wir es sind, weil mit $4000,00€ waren es, glaube ich, ne, Euro ist ist die für die meisten auch 'n bisschen zu teuer oder die wollen sich das nicht leisten.
Und der das Anwendungsgebiet liegt auch eher im Businessbereich, also wenn man sich beispielsweise vorstellt.
Wenn 'ne Firma in Berlin ist und in München hat eine hat 'n Kunde 'n Problem mit irgendwelchen Maschinen zum Beispiel.
Wenn dann jemand dort in München diese Brille aufsetzt, also dieses Headset, und in Berlin sitzt einer, der der sieht sich an, was der sich so anguckt und kann da noch mehr einblenden und so, dann ist das für diese Firma aus Berlin ist das 'n Schnäppchen.
ja, nur 4000€ für so 'n Gerät zu zahlen, anstatt 'n Techniker dahin zu schicken.
Oder das wird eingesetzt für Piloten, bevor sie in Flugsimulatoren gehen.
Da können die sich viele Stunden Flugsimulator sparen.
Jetzt nicht die, also die Piloten für die, für die würden vielleicht sogar gerne, aber die Firmen, ne, ne, also die, die, die Flugfirmen, das, das ist halt schon diese Remote Computer, ne.
ja, also Remote auf jeden Fall, kann man, kann man da Sachen machen.
Aber wie gesagt, eben auch Sachen rein projizieren, die nicht wirklich nicht physisch da sind und das ist dieses Headset.
Ich hab damit gearbeitet, was heißt gearbeitet, also ich hab damit gespielt, mal 2 Stunden lang und hab da auch mit Voiceover gearbeitet und auch da ist halt Voiceover schon mit drin und auch Zoom.
Man hat da auch ganz normale Apps,
Und da kann man bestimmte Fingergesten machen, zum Beispiel hat man die Hände vor sich und wenn ich von der rechten Hand Daumen und Zeigefinger zusammentippe einmal, dann ist das Ganze wie wenn ich auf dem iPhone einmal nach rechts wische.
Mache ich das mit dem Mittelfinger der rechten Hand, geht es wieder nach links.
Und ja, ne, so kann man halt sich das vorstellen, so kann ich Voiceover bedienen.
Für sehende Menschen ist halt witzig, dass man zum Beispiel, wenn du in der Küche arbeitest und stellst dir 'n Timer, dann kannst du dir einfach so 'n virtuellen Timer über den Herd hängen und dann läuft da die Zahl und dann kannst du weggehen und wenn du wiederkommst, hängt der Timer aber immer noch da.
Also die, die diese es imitieren ist ja nicht die Wirklichkeit, sondern das, was das Ding produziert, ne.
Genau.
Absolut.
Der Timer ist ja physisch nicht da, der ist nur virtuell da.
Nur virtuell, genau.
Genau.
Und für so was ist eben die die Apple Vision Pro.
Ja, mal gucken, da gibt es unterschiedlichste Gerüchte zu, ob die jetzt weiter produziert wird, ob es ein neues Modell gibt oder ob Apple doch günstiger wird.
Letztlich kann keiner von uns wirklich hinter die Kulissen gucken, was die damit vorhaben.
Aber ich bin fest, wie, wie kann Matthias auch davon überzeugt, dass es noch ein günstigeres Modell für uns geben wird, weiß ich halt nicht.
Ja, und es ist vor allen Dingen, also da gibt es schon eine ganze Menge Anwendungsfälle, also zum Beispiel ein Monteur, der jetzt meinetwegen am Flugzeug rumschraubt oder an einem Schiff.
der kann sich dann oder irgendein Gerät repariert, der kann sich dann gleich die Reparaturanleitung mit Videos, Alben drum und dran neben dem, was er tut, halt anzeigen lassen.
Na das, also da gibt es eine ganze Menge an Nutzungsmöglichkeiten.
Mal gucken, wo die Reise hinläuft.
Apple nennt das ja Special Computing und mal gucken, was sich da.
durchsetzt.
Ich glaube, dass diese erste Variante eigentlich so ein Testballon war.
Was ist denn möglich und wie wird es angenommen?
Vielleicht, ne?
Ich habe gehört, dass das ist so, weil Tim Cook wollte eigentlich das noch nicht auf den Markt bringen.
Tim Cook ist der Chef von Apple und das aber die die Aktionäre und Investoren und so alle gesagt haben, wir müssen jetzt mal rauskommen mit dem Ding.
Die haben ja mehrere Jahre daran entwickelt und ja, mal sehen, was draus wird.
Mal gucken, was kommt.
Es gibt Wortmeldungen.
Ich wollte nur einen kurzen Hinweis geben.
Zu dieser Vision Pro kann man sich einen sehr interessanten Podcast anhören.
Bei Offside, das ist die der Podcast vom Jugendmagazin des DBSV.
OFFSIGHT muss man da eingeben.
Offside, ja, O.
K.
So, noch jemand hat Fragen, Anmerkungen?
So, vielleicht der Günther, nicht fragen, sone Anmerkung.
Also, Augmented Reality, auch zu Deutsch, virtuelle Realität, V.
R., wird ja auch oft in Spielen genutzt.
Ich gehe, gehe davon aus, dass auch so was damit möglich ist, ne.
Klar, wobei A.
R.
und V.
R.
sind natürlich 2 unterschiedliche Dinge.
Ne, also V.
R.
ist ja, dass du quasi 2 Bildschirme vor den Augen hast und und bekommst halt das, was du sonst auf dem Bildschirm siehst, direkt vor die Augen.
Und A.
R.
ist eben das der Unterschied, dass du die Realität siehst und da hinein wird was zusätzlich projiziert.
Und Spiele, habe ich gehört, kann ich leider mangels Szenen einfach nicht testen, aber Spiele gibt es auch und das stelle ich mir natürlich enorm vor, ne, dass ich dann wirklich in diesem Spiel drin bin.
Man soll ja auch damit dann Videos machen können, zum Beispiel im Urlaub.
Und wenn man sich die hinterher anguckt, kann man halt in dem Video drin nach rechts, links, oben, unten gucken und das ist dann alles gefilmt und es ist quasi ja fast, wenn man die Geräusche auch noch hat, wie wenn man dann wieder da ist.
Man guckt nach rechts und sieht dann, was da gewesen ist, als man da im Urlaub war oder nach links oder sowas, ne.
Das finde ich schon gigantisch.
Ich habe gerade gedacht, es gibt ja auch die die 2 Bildschirme, die nach außen zeigen.
Das heißt, dass andere praktisch auf meine Augen gucken.
Da kann ich dann als Schüler schlafen und der Brille sagen, nach außen bitte die Augen offen zeigen.
Ganz interessiert gucken.
Herr Dag, das könnten wir alles machen, wenn man Dagmar hat noch 'ne Anmerkung.
Könnt ihr mich hören?
Ja, mhm, ja.
Da hat ja letzte Woche in Berlin so eine Testreihe stattgefunden in dem
Kunstbibliothek der Gemäldegalerie, wo Testpersonen nachgesucht wurden.
Und da war ich auch.
Ich kann euch jetzt nicht genau sagen, ob das Division Pro war.
Und da gab es noch so ein, es nannte sich Testhandschuh, aber es waren eigentlich 3 Fingerlinge.
Und ich selber sehe ja gar nicht.
Also man hat da wohl in dieser A.
R.
Brille was sehen können.
Und ich habe es halt über die Kopfhörer gehört.
Es wurde mir eingespielt, was es ist.
Es war die Statue der Nofretete.
In echt war die gar nicht da, wie ich ja dann bemerkt habe.
Die wurde da nur eingespielt, wurde aber erklärt.
Und wenn ich mit diesen Handschuh, also mit den 3 Fingerlingen, die ich über den Fingern hatte, elektronisch, da da rumgetastet habe in der Welt, sag ich jetzt mal, in der in der Luft, dann hat er mir gesagt, die Mund, der Mund, die Halskette, die Augen, die Krone außerhalb des Bereichs, wieder mehr nach links, wieder kam ich dann zur Nofretete, wieder, hab sie am Hals berührt.
Und als ich auf der Halskette war,
Wollte ich halt wissen, also ich konnte damit jetzt nicht sprechen, also keine KI, aber ich konnte dann, ich hatte so eine kleine Fernbedienung in der Hand, konnte ich einen Knopf drücken, wo man eben was mit erweitern konnte.
Da kam dann die Beschreibung der Halskette, welche welche Steine, welche Farbe, was sie darstellen, konnte ich wieder zurückgehen und weiter wandern.
Ja, und dann konnten das eben auch andere, die noch einen Sehrest haben, machen und haben dann tatsächlich in dieser AR-Brille
da diese Nofretete gesehen und haben aber auch sich gleichzeitig diese 3 Fingerlinge, diese 3 Finger des sogenannten Handschuhs, also wenn sie so viel Seres hatten, gesehen, das waren 3 Finger und konnten sozusagen die Nofretete erwürgen.
Die haben dann ihre weißen Finger auf dieser A.
R.
Brille, also innen drin gesehen.
Mhm.
Aber du konntest nichts fühlen, ne, weil das wär ja auch witzig, wenn man dann die Handschuhe.
Die vibrierten, die vibrierten, aber wenn man so, ich sag mal, wie.
früher beim Topfschlagen beim Kindergeburtstag, dann vibriert sie mir.
Sag mal, die hat nicht gesagt heiß, heiß, heiß, heiß oder kalt, kalt.
Man spürte es an der Vibration, dass man eben dann vibriert manchmal 2 Finger, 3 Finger, da war man also ganz heiß, dicht an irgendwas und so konnte man so eine Erweiterung drücken.
Und das zweite, was ich dann noch hatte, war wohl ein Gemälde, das wurde mir dann auch angesagt über das Headset Brille.
wo ich nicht weiß, ob es die Vision Pro war.
Das habe ich jetzt gar nicht gefragt, da bin ich eben erst aufmerksam geworden.
Und das war ein Gemälde, wurde mir auch gesagt, welches Gemälde es ist.
Das war die Toten Insel von, weiß ich nicht, welchem Maler.
Und dann habe ich aber auch, weil es nach der Nofretete kam, habe ich dann wieder mit diesem 3 Fingerling in der Luft rumgetastet und konnte dieses Bild irgendwie nicht greifen, nicht finden.
Es lag sozusagen vor mir auf dem Tisch.
Ich saß an einem Tisch.
Und dann, als ich es gemerkt habe, wie weiter runterging, oh, dann vibrierte es mehr.
Dann kam ich da so ein Tisch.
Und dann habe ich gemerkt oder geschaltet, das liegt ja hier vor mir auf dem Tisch.
War gar kein Bild da.
Aber ich habe dann mit den Fingerlingen auf dem Tisch rumgewandert und dann hat es mir immer wieder gesagt, Bäume, große Berge, Bäume, Bäume, Meerbäume, grüne Bäume.
Und wenn ich dann weiter rumgewandert, dann war das Meer und dann konnte ich richtig die Meeresküste rauschen hören, die Kante von der Insel zum Meer.
Auf einmal war da ein
Boot mit einer weiß gekleideten Person, die Finger vibrierten eben immer mehr und die dann eben einen Sarg zur Toteninsel bringt.
Das waren meine Erfahrungen dafür.
Ist aber wohl eher, ja, war dann große Befragung, sage ich jetzt mal, für Museen oder so gedacht oder ob das jemals
ein serienreif wird, keine Ahnung.
Aber ich würde mir eher wünschen, dass ich im Internet zu Hause ein Bild aufrufe, dann zu Hause auf meinem Tisch mit den Fingerlingen rumfummele und mir das Bild erklären lassen kann.
Keine Ahnung.
Ich glaube, das wird irgendwann kommen.
Das ist sehr spannend, was du erzählst.
Da sieht man einfach, was geht und wir sind ja mit diesen Technologien noch unglaublich am Anfang.
Aber ich glaube, da kommen gute Zeiten auf uns zu.
Also es war wirklich spannend, muss ich ehrlich sagen, aber es war auch mein Interesse oder mein Spezielles.
Es ist nicht für jedermann was, sage ich jetzt mal so, aber für mich hat sich diese Fahrt von Braunschweig nach Berlin gelohnt.
Also ich fand es unheimlich interessant, spannend und hinterher war eine Befragung und naja, alle anderen fragen, ob einem das realistisch vorkam oder unrealistisch oder anstrengend oder nicht oder was weiß ich was alles, was man noch mehr haben möchte oder weniger oder wie auch immer.
Nee, echt spannend, fand ich eben auch sehr interessant, was ich glaub, Susi war das, erzählt hat.
Ich hab jetzt gelesen, dass in Spanien, ich glaub Madrid oder so, das entwickelt ein ein Tablet, wo man ein Fußballspiel verfolgen kann.
Also man hat ein Headset, wo dann eben natürlich alles angesagt wird, wo der Ball, wer da wo wo schießt und so.
Aber auf dem Tablet war das fühlbar, der Ball, wo der, wie, wie der wohin rollt und wer den wohin schießt und so.
Das fand ich auch äußerst interessant.
Ich glaub, in Spanien war das, wo das entwickelt wurde.
Das stimmt, ich hab das, hab ich auch gehört.
Ja, was alles möglich ist, aber na ja, nee, da war das Kader nicht irgendwie.
Ach so, wer weiß, wo das, wo das so hingeht, die Technik noch.
Ja, ist ja schön, was die Kollegin erzählt hat, die von Braunschweig nach Berlin.
gefahren ist, nur hat sie überhaupt nicht erwähnt, um was es da eigentlich ging.
Äh, das Projekt hätte mich interessiert.
Und die zweite Frage an dich, Karl Matthias Schäfer, speziell.
Du hattest vorhin eine äh KI erwähnt, die du am besten bist und ich wollte dich einfach fragen, handelt es sich dabei um die äh Smart AIS, die auch den Leiterscanner benutzt?
Genau, genau das.
Ja, Dagmar war das.
Ich kann das noch sagen, welches Projekt das war.
Das war da aber auch in einem Newsletter vom Deutschen Blindenverband, ja, wie soll ich sagen, beworben, angekündigt.
Das nannte es Erleben oder Sehen, was nicht da ist.
So ähnlich hieß es oder Entdecken, was nicht da ist.
Und dass es eben mit Hilfe der KI ja entdeckt werden kann oder oder übersehbar hörbar gemacht werden könnte mit Hilfe der KI.
Das soll wohl irgendwie ein Zusammenschluss von
Ich glaube, neun ja Forschungs europäischen, weiß ich nicht, Unis, Forschungseinrichtungen, Firmen irgendwie so sein, die da so eine Art Zusammenschluss für diese Art Entdeckung, also da was gedacht, wohl angedacht für Museen oder Kunstwerke oder Skulpturen, Gegenstände, Bilder.
Und das habe ich halt in Berlin in der, der Ort des, wo das stattgefunden hat, war die Kunstbibliothek der Gemäldegalerie in
Berlin.
Ja, schönen Dank, Dagmar.
Gibt es denn da einen Link, einen Internetlink dazu, über über den man sich informieren kann über das Projekt?
Ja, in diesem in dem Newsletter stand das drin.
Den habe ich ehrlich gesagt gar nicht aufgerufen.
Ich habe mich nur gleich angemeldet.
Man musste sich da einen Termin geben lassen.
Da haben wir den bekommen und sind hin.
Aber das ist ein Newsletter vom D.B.S.V.
Inform.
Ja.
da muss ich nachgucken, da müssen wir mal in Kontakt treten.
Du kannst ja gerne mir den, mir diesen Newsletter mal weiterleiten.
Ja, ja, den hab ich noch an K.
Punkt Schäfer at Papenmeier de.
und ich kann den dann teilen.
Ich wollte, es ist mir jetzt mehrfach der Wunsch auch an mich rangetreten worden, mal so ein Mailverteiler zu machen, dass ich eben die Leute eben auch persönlich einladen kann, die regelmäßig hier teilnehmen oder die ab und zu mal teilnehmen wollen und ich möchte es jetzt nach meinem Urlaub mal angeben.
Also, wer ohnehin wer Fragen hat, Ideen auch für den Stammtisch oder sonst irgendwas, der kann mich immer erreichen.
Die meine kompletten Kontaktdaten, die sind auf der Webseite der Firma Papenmeier und ansonsten schreib dir einfach 'ne Mail an K.
Punkt Schäfer at Papenmeier Punkt de.
Gut, noch Anmerkungen, Fragen?
Also, ich hatte tatsächlich mal 'ne Frage zur App der Mission Pro.
Ist das Eyetracking eigentlich zwingend erforderlich?
wofür erforderlich, zum Steuern?
Ja, genau.
Mhm.
Nein, das ist nicht unbedingt.
Also es gibt ja die Fingergesten, wie gesagt, aber ich denke, man wird mit den Fingergesten alleine nicht nicht so ganz weiterkommen.
Man hat dann auch Armbewegungen und so, von daher kann man, glaub ich, das Eyetracking auch einstellen, allerdings in dem Stand, wo ich das ausprobieren konnte, auf dem Stand, wo das war.
ist es trotzdem immer wieder passiert, dass ich mit den Augen irgendwo hingeguckt habe und dann ist was passiert.
Ich wusste aber nicht genau was, ich habe nur Geräusche gehört und so.
Ja, ich finde das keinen Grund.
Wünsche ich mir, dass Apple das noch ein bisschen modularer dann gemacht zum Ein und Ausschalten, optional so, ne?
Ja, ich frage eben aus dem Grund, bei mir ist die Sehachse quasi verschoben, das heißt, ich gucke zwar geradeaus, aber die Augen zeigen in eine andere Richtung und ob das dann die Brille quasi korrigieren kann.
Also du kannst davon ausgehen, dass wenn Apple tatsächlich das, sagen wir mal, auch für Blinde und Sehbehinderte serienreif hat, dann werden sie damit umgehen können.
O.
K., ist ja eigentlich wirklich sowas von genial, dass die genau dieses Produkt eben auch mit Voiceover bestückt haben, zum Beispiel.
Ja, ja.
Zeigt auch, dass sie es wirklich ernst meinen, ne?
Ja, genau, das ist so.
Ja.
Hallo, hier ist der Andreas.
Ich habe mal noch eine Frage an den Jo.
Ja, hallo Andreas.
Hallo.
Und zwar, Jürgen, wollte ich mal fragen, weil du sagtest, du bist Apple-Spezialist.
Du hast eine WhatsApp-Gruppe, an die man sich einbilden kann, anschließen kann.
Ich habe einen WhatsApp-Kanal.
Einen WhatsApp-Kanal, okay?
Genau.
Ich weiß nicht, ob du den Unterschied kennst.
Kanal, WhatsApp-Kanal, WhatsApp-Gruppe, du erzählst es ja auch gerne.
Also eine Gruppe ist ja zum Austauschen, ne, da kann jeder reinschreiben und ein Kanal ist, das ist ein Infokanal.
Also ich schreibe dort Tipps und Tricks rein.
Ich hab auch für für heute Abend, hab ich da jetzt den Link reingeschrieben, wer von den Menschen, die mir folgt, da gerne dabei sein will und so.
Da gibt es keine Diskussion, da gibt es auch keinen Spam.
Und so, da gibt es nur Infos.
Aber da kannst du dich gerne eintragen.
Generell wollte ich um einen kleinen Werbeblock bitten, Karl Matthias.
Natürlich, natürlich kannst du den haben.
Auf meiner Internetseite Apfelpfleger.de, da kann man sich halt für einen Newsletter registrieren.
Und da gibt es dann zum einen zwei Newsletter im Monat.
Zum einen ist das der Medialetter.
Das ist immer halt so ein bisschen, was gibt es Neues in der Apple-Welt.
Und dann gibt es die Einladung zu meinem Podcast oder zu meiner Zoom-Veranstaltung.
Einmal im Monat gibt es die Apfelpfleger Live Community.
Und das ist ganz ähnlich wie jetzt hier bei euch.
Nur eben, wir treffen uns eine Stunde.
Das versuche ich auch relativ strikt einzuhalten.
Und dann habe ich öfter mal auch Interviewgäste oder wir haben irgendwelche Spezialthemen oder wir machen oft einen Austausch.
und dann wird es aufgezeichnet und gibt es hinterher auch noch als Podcast zum Abonnieren für die Leute, die nicht dabei waren.
Und es ist ganz erstaunlich, wie viele Leute mich doch darauf ansprechen, die das dann auch hören.
Also das wäre meine Werbung für Apfelpfleger.
Wer Lust hat, kann sich gerne für den Newsletter anmelden und kriegt dann eben die entsprechenden Infos.
Das ist gut, danke schön.
Und noch 'ne Infos, noch 'ne Info zu den Kanälen.
die die erscheinen nicht bei Chats in WhatsApp, sondern die erscheinen bei Aktuelles.
Genau.
Und was auch doof ist, leider, wenn man meinen Kanal sucht, findet man ihn nicht, also meistens zumindest.
Ich hab bei WhatsApp nachgefragt, beim Support, und die haben gesagt, ja, die Suche sei so schlecht, ich soll am besten den Link teilen.
Ja, du kannst mir auch gerne den Link, den Link schicken und wenn dann Anfragen kommen oder so was, dann schick ich den auch gerne weiter.
Ja, super.
Im Newsletter hab ich natürlich auch den Link drin.
in meinen Newsletters, aber man braucht tatsächlich den Link.
Ja, genau, genau.
Ja, und uns hier gibt es ja auch als Podcast.
Mittlerweile sind wir auch aktuell und können zeitnah veröffentlichen.
Im Moment haben wir die gesamte Diskussion hier immer mit drin im Podcast.
Wir werden jetzt nach meinem Urlaub mal drüber reden, ob wir das Ganze ein bisschen geraffter zur Verfügung stellen, dass wir die Infos mehr zusammenfassen, dass man sich nicht unbedingt zwei Stunden anhören muss.
Da wird also auch was passieren, aber wir haben.
jetzt seit, ich glaube seit November haben wir jetzt die Podcasts, die wir aufgezeichnet, die Stammtische, die wir aufgezeichnet haben, alle online.
Ja.
Gibt es zu November und Dezember noch nicht, auch noch nicht Januar, Februar sind alle jetzt online.
Alle ab Februar, okay.
Wunderbar.
Gut, haben wir zu den Themen, die wir haben, noch Fragen, Ergänzungen, Tipps?
Das scheint nicht der Fall zu sein.
Dann möchte ich auf jeden Fall noch sagen, im August, den dritten Mittwoch im August, wieder um 19 Uhr, beschäftigen wir uns mit Windows-Themen.
Der 20.
August, genau, da beschäftigen wir uns mit Windows-Themen wieder.
Dann bedanke ich mich recht herzlich bei unserem Gast, beim Jürgen Pfleger.
War sehr toll, dass du da warst.
Ja, sehr gerne.
Vielen Dank für die Diskussion und du bringst immer wunderbare Impulse in solche Runden rein.
Prima, danke.
Ja, dann möchte ich mich von euch allen verabschieden.
Schön, dass ihr da wart und wünsche euch alles Gute.
Wenn ihr Fragen, Anregungen, Themenwünsche habt, dann immer melden.
Das war der Mitschnitt des Papenmeier Reha Stammtisches vom 17.
Juli 2025 mit unserem Gast Jürgen Pfleger von Apfelpfleger, Moderator Karl Matthias Schäfer und allen Teilnehmern unserer Gesprächsrunde.
Vielen Dank für die ausführlichen Einblicke in iOS 26, die ehrlichen Erfahrungen mit Meta Raybane Glasses und die wertvollen Tipps aus 15 Jahren Apple-Expertise.
Habt ihr Fragen zu den heutigen Themen oder Anregungen für zukünftige Stammtische?
Schreibt Matthias gerne eine E-Mail an k.schaefer@papenmeier.de.
Schaefer mit ae.
Erinnert euch, unsere Stammtische finden immer am dritten Mittwoch im Monat statt.
Der nächste Termin ist der 20.
August.
Dann wieder mit Windows-Themen.
Jeder ist herzlich eingeladen, mitzumachen.
Bis zum nächsten Mal.
Bleibt neugierig und technisch auf dem Laufenden.