Papenmeier Reha Stammtisch

Papenmeier RehaTechnik

Papenmeier Reha Stammtisch vom 19.11.2025

27.11.2025 108 min

Video zur Episode

;

Zusammenfassung & Show Notes

 In der November-Ausgabe des Reha-Stammtischs feiert das Format sein einjähriges Jubiläum. Moderator Karl Matthias Schäfer teilt aktuelle Entwicklungen aus der Apple-Welt und stellt die Gäste Anika Watzka und Yamen Mohisn von SmartAI vor. Die beiden Geschäftsführer präsentieren ihren innovativen räumlichen KI-Assistenten, der blinden und sehbehinderten Menschen bei der Navigation und Orientierung hilft. In einer lebhaften Diskussion mit den Teilnehmern werden verschiedene Aspekte wie Hardware-Optionen, Personalisierungsmöglichkeiten und Herausforderungen mit KI-Systemen erörtert. 

Titel: Reha-Stammtisch November 2025 - Apple Edition: "Räumliche KI-Assistenz für blinde und sehbehinderte Menschen"

Datum: 19.November 2025

Referenten:
  • Karl Matthias Schäfer (Moderator, Papenmeier RehaTechnik)
  • Anika Watzka (Geschäftsführerin, SmartAI)
  • Yamen Mohisn (Geschäftsführer, SmartAI)

Inhalte im Detail:

Jubiläum und Einführung
  • Feier des einjährigen Jubiläums des Reha-Stammtischs mit 12 Ausgaben (6x Windows, 6x Apple)
  • Matthias berichtet über seine Gastauftritte im "Apfelpfleger Podcast" und im Pro Retina Podcast "Blind verstehen"
  • Vorträge im Rahmen der "Woche des Sehens" zu iOS 26 und der neuen BRAILLEX-Braillezeile von Papenmeier
Apple-Neuigkeiten
  • Vorstellung neuer iPad Pro und MacBook Pro Modelle mit leistungsfähigeren Chips
  • Diskussion über Apples Auseinandersetzung mit der EU bezüglich des Digital Market Act
  • Ankündigung: WhatsApp ermöglicht bald zwei Accounts auf einem Gerät
SmartAI und räumliche KI-Assistenz
  • Vorstellung des räumlichen KI-Assistenten von SmartAI für blinde und sehbehinderte Menschen
  • Unterschied zu herkömmlichen KI-Assistenten: räumliches Verständnis der Umgebung
  • Funktionsweise: Erkennung von Objekten in der Umgebung und Navigation durch Vibration
  • Aktuell für iPhone (Pro-Modelle), später auch für Nicht-Pro-Geräte und perspektivisch für Android
Diskutierte Funktionen und Anwendungsbereiche
  • Letzte-Meter-Navigation: Führung zum genauen Ziel nach GPS-Navigation
  • Objekterkennung und -beschreibung in der Umgebung
  • Steuerung durch Sprache und Vibrationsfeedback
  • Internetverbindung erforderlich für KI-Funktionalität
Hardware-Optionen
  • Aktuelle Nutzung: Smartphone in der Hand
  • Diskutierte Alternativen:
    • Brusttasche/Brustbeutel für das Smartphone
    • Smart Glasses mit integrierter Kamera
    • Externe Kamera mit verschiedenen Befestigungsmöglichkeiten (Clip, Magnet, Stirnband)
Personalisierung und Nutzererfahrung
  • Diskussion über verschiedene Nutzerbedürfnisse je nach Seheinschränkung
  • Vorschlag für Profile nach Informationsbedarf statt nach Krankheitsbild
  • Situationsabhängige Einstellungen (bekannte vs. unbekannte Umgebung)
  • Optionen für Vibration und/oder Ton-Feedback
Herausforderungen mit KI
  • Konsistenzprobleme bei KI-Updates durch Drittanbieter
  • Datenschutz und Umgang mit Bilddaten
  • Kosten für Bildanalyse und Live-Funktionalität
  • Perspektive: Mögliches Abomodell mit kostenloser Basisversion
Zukunftspläne
  • Integration von Navigation
  • Entwicklung verschiedener Hardware-Optionen
  • Verbesserung der KI-Konsistenz durch spezialisierte Trainingsdaten
  • Langfristig mögliche Kassenzulassung als Hilfsmittel
Der Papenmeier Reha-Stammtisch findet jeden dritten Mittwoch im Monat statt und wechselt zwischen Apple- und Windows-Themen. Jeder ist herzlich eingeladen teilzunehmen!

Nächster Termin: 17. Dezember 2025 (Windows-Edition) 

Transkript

Hallo, herzlich willkommen beim Reha-Stammtisch, wo Technologie auf Erfahrung trifft und digitale Teilhabe lebendig wird. Hallo, ihr Podcast vom Papenmeier RehaTechnik, moderiert von Karl Matthias Schäfer. In unserem November- Stammtisch feierten wir das einjährige Jubiläum des Formats mit 12 erfolgreichen Ausgaben. Als Gäste begrüßten wir diesmal die Geschäftsführer von Smart Eyes, die ihre innovative KI-basierte App zur Orientierungshilfe für blinde und sehbehinderte Menschen vorstellten. Die App ermöglicht es, Objekte in der Umgebung zu erkennen und Nutzer durch Vibration zu ihnen zu leiten. Im Gespräch wurden auch die neuesten Apple-Entwicklungen diskutiert, darunter die Vorstellung neuer iPads Pro und MacBook Pro Modelle, sowie Apples anhaltende Auseinandersetzung mit der EU über die Umsetzung des Digital Markets Act. Der Reha-Stammtisch findet jeden 3. Mittwoch im Monat statt, abwechselnd als Windows- oder Apple-Edition. Lassen Sie uns nun gemeinsam in die Runde starten. Bis bald! Ja, herzlich willkommen zum Reha-Stammtisch im November. Und gerade im Monat heißt heute sind wieder Apple-Themen dran. Und vorab: Wir haben heute ein bisschen was zu feiern. Der Reha-Stammtisch wird nämlich heute ein Jahr alt. Ja, oh cool! Ja, 12 Ausgaben, 6 mal Windows, 6 mal Apple und Smartphone-Apps und so weiter. Und ja, öfters interessante Gäste, immer ganz vielfältigen Austausch. Macht einen Riesenspaß, dieses Format moderieren zu dürfen. Und ja, vorab schon mal die Ankündigung für heute: Heute haben wir wieder zwei sehr interessante Gäste, nämlich die Geschäftsführer von Smart Eyes, von der Firma Smart Eyes, die dann uns über ihre neuen Projekte später berichten. Ja, ich möchte noch darauf hinweisen: Wir lassen den Warteraum jetzt noch auf, und da ja in ungefähr in 15 Minuten schließen wir den Warteraum. Dann kann es, wenn jemand rausfliegt, ein bisschen dauern, bis er eingelassen wird und so. Ja und etwas ist inzwischen passiert: Es gibt ein paar interessante Auftritte. Leute, die bei uns waren, haben eben auch mich als Gast eingeladen. Ich war also jetzt einmal beim Jürgen Pfleger im die im Apfelfleger Podcast. Und wer sich eben noch mal für die Nutzung mit von iPhone und BRAILLEX und die neuen Braillfunktionen interessiert, der kann in der letzten Ausgabe des Apfelflügel Podcasts hier einiges von mir hören. Und dann war ich noch zu Gast in im Podcast "Blind verstehen". Das ist der Podcast der Pro Retina. Und da hatten wir eine sehr interessante Diskussion. Die hat sich nicht nur um Technik gedreht, aber auch überwiegend, und zwar: Nach welchen Kriterien entscheide ich mich für das für mich passende Hilfsmittel? Haben wir eine sehr interessante Dreierdiskussion gehabt, und ist ja auch ein Thema, die für uns als Blinde, Sehbehinderte immer wieder wichtig ist. Und ja, also ist der Podcast "Blind verstehen". Beide findet ihr, wenn ihr den jeweiligen Titel ins Suchfeld eingebt von eurem Podcatcher. Ja, dann gibt's noch zwei Vorträge von mir im Rahmen der Woche des Sehens, die dann auch bald online gehen, veröffentlicht werden. Einmal habe ich hier die neu noch mal einen Überblick gegeben, einen ausführlichen über die Neuerung für iOS 26, die für uns relevant sind. Und in einem zweiten Vortrag die neue BRAILLEX der Firma Papenmeier vorgestellt. Das waren so die Online-Auftritte. Ja, ansonsten hat sich in der Apple-Welt in den letzten Wochen nicht so viel getan. Es wurde neues iPads Pro und neues MacBook Pro vorgestellt mit einem neuen Chip, ja, der leistungsfähiger ist als das, was wir als normalen Nutzer jemals brauchen. Aber auch hier geht eben die Entwicklung immer weiter. Ansonsten dürfte es mit den Neuvorstellungen das in diesem Jahr gewesen sein. Ich denke nicht, dass jetzt noch was kommt, weil jetzt werden ja die ganzen Rabattaktionen, Black Friday und dann das Weihnachtsgeschäft mitgenommen. Also ich rechne in diesem Jahr nicht mehr mit neuen Geräten. Ansonsten streitet sich Apple momentan weiter mit der EU um den die Umsetzung des Digital Market Act. Hier geht es überwiegend darum, dass Apple sein System öffnet und eben auch anderen Herstellern mit Zusatzgeräten die gleichen Rechte gewährt wie sich selber. Und ja, da kann man einfach geteilter Meinung sein. Auf der anderen Seite kann man sagen, klar, ich möchte meine Huawei-Kopfhörer oder was auch immer genauso privilegiert eben verbinden zwischen Geräten wie eben Apple AirPods und so weiter. Aber Apple argumentiert eben, wenn wir das machen, dann müssen wir unsere Schnittstellen soweit öffnen, dass da auch eventuell Sicherheitsrisiken bestehen. Geht dann auch viel um Datenschutz und Apple hat jetzt einen offenen Brief an die EU-Kommission gerichtet. Und hier mal aufgezeigt, dass zwischen dieser Öffnung, die gefordert wird, und gleichzeitig den Bemühungen um den Schutz der Nutzer und größere Diskrepanz vorliegen. Und hier ist man also in einer harten Diskussion. Das werden dann am Ende die Gerichte entscheiden, was Apple hier tun muss. Für uns ist es insofern relevant, dass es hier eben durchaus zu einer komplizierteren Nutzung kommen kann, wenn man einfach bestimmte Dinge halt im in der Anwälteprozesse und so weiter für Geräte oder Accounts noch bewältigen muss. Das muss man übersehen. Aber ich fand das einfach sehr spannend. Ich hab mich mal damit auseinandergesetzt und mir heute mal die neuesten Berichte geben lassen, hab hier eine KI zur Hilfe genommen und habe dann gefragt, wo denn jetzt die Nachteile hier liegen können, wenn das Apple sich öffnet. Und dann kam sofort, dass es durchaus im Sinne der Barrierefreiheit hier zu Veränderungen kommen könnte. Ja, fand ich spannend, dass mich eine KI da drauf hinweist. Aber wie gesagt, das ist alles noch nicht in trockenen Tüchern. Das wird sich durchaus denke ich noch ein, zwei Jahre hinziehen. Ja. Ja, dann hab ich heute auch was Interessantes erfahren für die Leute, die mit mehreren Handys unterwegs sind. Es wird jetzt in den nächsten Wochen freigeschaltet, dass man in WhatsApp auf einem Gerät zwei Accounts verwalten kann. Ja, ja. Ist für mich war eine sehr, sehr gute Nachricht, weil das verhindert für mich ein bisschen, dass ich mit zwei Handys rumlaufen muss, eben einmal privat und im ehrenamtlichen Engagement und gleichzeitig eben dienstlich. So, was haben wir hier noch? Ja, sonst gibt es im Moment eigentlich nichts Neues. Wenn noch jemand was hat, kann er das ja später in der Diskussion gerne noch einbringen. Und dann begrüße ich jetzt mal unsere Gäste, die beiden Geschäftsführer von Smart Eyes, eine Firma, die sich sehr stark bemüht, ein geeignetes Hilfsmittel für Blinde auf den Markt zu bringen, das eben mit iPhone genutzt werden kann. Es ging zunächst mal um ein Hinderniserkennungssystem und geht eben jetzt im Wesentlichen um eine Entwicklung einer KI für diesen Bereich. Und ja, ich begrüße in dem Zusammenhang die Anika Watzka und den Yamen ja, ja. Ja. Mohisn heißt du, ne? Genau, richtig, richtig. Vielen lieben Dank. Ja, wollt ich mal vorher noch fragen, wie dein Name ausgesprochen wird, weil ich, weil der Nachname ausgesprochen wird. Ja, und der Yamen und ich, wir hatten uns letzte Woche in München getroffen und so. Also für mich war das ein extrem inspirierender Abend gewesen und auch ich bin da total glücklich raus aus dem Gespräch, weil es, ich's natürlich toll finde, wenn Menschen unsere Bedürfnisse erkennen und einfach sagen: So, ich will in dem Bereich was machen. Und die sind dann halt eben richtig mit Herz und Power dabei. Also das hat mir irre gut gefallen, unser Gespräch. Und ja, jetzt übergebe ich mal an euch beide. Ja, vielen, vielen lieben Dank, Matthias. Und bevor ich da mit der Vorstellung anfange, will ich mich herzlich bedanken bei dir, Matthias, und bei dir, Dagmar, dass ihr uns eingeladen habt. Und herzlichen Glückwunsch zum einjährigen. Richtig tolle Initiative. Das ist sehr wichtig, dass wir da zusammenkommen, dass wir diskutieren, dass wir wissen, was die Leute betroffen brauchen, dass man das Richtige dann entwickelt und auch auf den Markt bringt. Deswegen vielen lieben Dank dafür. So, ich würde sagen, ich beginn mit einer kurzen Vorstellung zu Smart Eyes, wer wir sind, was wir aktuell machen, wo es hingehen sollte aus unserer Sicht und was wir von euch bislang wissen. Und danach würde ich sagen, wir machen eine Diskussionsrunde, wo wir gerne von euch auch hören, was ihr davon haltet, was ihr gerne hättet, was euch am Herzen liegt. Und da gerne dann auch richtig offen, kritisch, direkt. Das ist das, was für uns super wichtig ist. So, also wir sind Smart Eyes, ein junges Unternehmen aus München. Ihr kennt uns vielleicht bisschen von der Hinderniserkennung. Ja, genau. Wir entwickeln gerade einen räumlichen KI-Assistenten im frühen Entwicklungsstadium. Was macht der räumliche KI-Assistent? Was heißt räumlich überhaupt? Wir kennen ja sehr viele KI-Assistenten wie BeMyEyes, auch ChatGPT und Gemini, wo ich Fragen zu meiner Umgebung stelle: Wo ist denn der Eingang? Beschreibe mir die Szene. Das alles schön und gut. Aber die hat kein räumliches Verständnis. Was wir sehr oft gehört haben von euch ist: Hey, ich komm mit GPS zu der Location, es sagt mir, du bist angekommen, du hast dein Ziel erreicht. Da ist die Arztpraxis, obwohl ist nicht wirklich der Eingang. Wo ist denn die Bushaltestelle? Wo ist denn das Gleis Nummer 20? Wo ist die Anzeigetafel? Wo ist, wo ist? Wo ist? Das wissen wir alles nicht. Und die aktuelle App, obwohl sie auch da im frühen Entwicklungsstadium ist, die gibt Informationen wie: Die Hausnummer 20 ist 5 Meter auf 1 Uhr. Der Eingang von dem Supermarkt ist auf 3 Meter, 11 Uhr. Und dann kann man fragen oder sagen: Leite mich dahin. Und dann wird man dahin geleitet mit Vibration, wie das Kinderspiel heiß und kalt. Wenn man richtig läuft, dann wird's stark vibrieren. Wenn es wenn man nicht richtig läuft, wird es schwächer vibrieren. Das Coolste dabei ist, man kann nach beliebigen Sachen fragen. Das heißt, man hat keine Liste von bestimmten Objekten, Schlüssel, Tisch, Stuhl, Tür. Man kann da wirklich beliebige Fragen stellen. Wir waren heute auf dem ABSV Hilfsmittelausstellung und da hat jemand gefragt: Wo ist mein Mann mit der orangenen Jacke? Und so richtig spezifisch. Und dann wird man genau dahin geleitet. Ja, da sind wir aber auf jeden Fall sehr früh noch dran in der Sache. Wir haben von der Community sehr viel gehört. Ich freu mich auf jeden Fall auch heute zu sehen, dass in der Teilnehmerliste sehr viele von unseren Nutzern drin sind. Und ich freu mich später auf offenes, ehrliches, kritisches Feedback auch zu der aktuellen App und auch wo es hingehen soll. Eine Sache, die vielen am Herzen liegt, das wissen wir, haben wir heute von der Hilfsmittelausstellung in Berlin mitbekommen, aber auch von unseren Nutzern: Thema Navigation. "Ja, Smart Eyes, ihr löst gerade die letzte Meile. Navigation ist schön, die letzten paar Schritte, aber die Navigation ist noch nicht gelöst. Wie wär's damit, Navigation zu integrieren?" Das sehen wir. Eins möchte ich hier betonen: Wir wollen das entwickeln, was ihr wollt. Wir richten uns nach euch. Das heißt, wir haben auch eine Community, wir holen Feedback von euch. Deswegen ist es uns wichtig, auch euch so schnell wie möglich die App oder das Hilfsmittel im frühen Entwicklungsstadium zu geben, dass ihr von Anfang an sagt: Leute, das ist die richtige Richtung oder das ist die falsche. Andere Sachen haben wir gehört. Ich geb einfach das so in die Runde, dass ihr wisst, wirklich wo wir stehen. Viele sagen: "Ja, ich will das Handy nicht in der Hand halten. Ich will eine Brusttasche." Natürlich fair und berechtigt. Und das nehmen wir auch als eine Prio. Viele sagen: "Ich will weder in der Hand noch mit der Brusttasche. Ich will Smart Glasses." Wie wär's damit zu integrieren? Andere sagen, was auch super wichtig ist: "Ich will nicht die ganze Zeit ein neues Bild machen und fragen: Hab ich jetzt den Hauseingang erreicht? Hab ich jetzt den Eingang erreicht? Ich will einmal sagen: Schau die ganze Zeit und wenn wenn du den Eingang siehst, sag mir Bescheid." Das sehen wir auch als mögliche Zukunft, Erweiterungen oder Personalisierungen und so weiter. Also das sind Sachen, die wir für die Zukunft sehen als Erweiterungen von der aktuellen Version. Genau, das ist, wo wir gerade stehen. Man kann es im Außenbereich nutzen, man kann es aber auch im Innenbereich, egal wo man ist, am Hauptbahnhof, bei einer Einrichtung, in der Arbeit oder zu Hause, wenn man paar Sachen finden will. Genau, aber auch genauso im Außenbereich, Bushaltestelle oder der Busrichtung, irgendetwas, Gleis, Anzeigetafel, solche Sachen. Ja, genau. Wir sind gerade, wie gesagt, in der Test-, Testphase. Wir suchen nach Mitgestaltern, die die App testen bis zum Limit und sagen, was nicht funktioniert und was da gemacht werden soll. Das ist es jetzt kurz gesagt, kurz beschrieben. Ich halts auch so kurz. Und ich würd sagen, wir starten mit einer Diskussionsrunde. Ihr könnt gerne Fragen stellen. Ich würde mich auch super freuen von unseren Testern, die gerade auch in der Teilnehmerliste sind, mitzubekommen, wie eure Erfahrung war, auch wenn die schlecht war. Also bitte da direkt und ehrlich sein, weil das ist genau das, was uns hilft. Und wir wir wollen die komplette Transparenz auch halten, weil das entwickeln wir Schritt für Schritt dann zusammen. Genau. Also ich geb es gerne in die Runde. Gerne könnt ihr die Hand heben oder einfach mal reden, Fragen stellen, Feedback geben, alles, was ihr möchtet. Bedürfnisse, was euch am Herzen liegt, was ihr denkt, sollen wir mitbetrachten. Ja. So. Haben wir erste Fragen? Evi? Ja, genau. Evi, du hast eine Frage. Du... Hallo, jetzt bin ich da. Ich hab bloß den Button gesucht, dass ich mein Audio aufheben kann, praktisch, also die Stummschaltung aufheben. Jetzt bin ich zu hören, oder? Ja, perfekt. Ja, ich hab die Frage, und zwar: Ist es von der Örtlichkeit egal, wo man ist, oder muss man da erst ich sage jetzt da das irgendwie einprogrammieren, die die Orte und die Hindernisse und und das alles? So, also das ist eine super Frage. Und das spaltet sich in zwei Sachen. Das Erste: Es hängt nicht von der Örtlichkeit ab, also du kannst es überall nutzen. Man muss wissen, es hängt da nicht von GPS oder Lokalisierung ab. Es hängt nur davon ab, was das Handy durch die Kamera sieht. Ich geb ein Beispiel: Das heißt, du stehst irgendwo auf dem Gehweg, suchst nach dem Eingang für den Supermarkt. Okay, du machst ein Bild. Wenn der Eingang in dem Bild drin steht, dann sagt es: "Ja, der Eingang ist 5 Meter auf 1 Uhr. Soll ich dich dahin leiten?" Wenn der Eingang nicht auf dem Bild ist, sagt es: "Ich sehe da keinen Eingang. Willst du dich bisschen nach rechts oder links drehen und neues Bild machen?" Das heißt, du kannst es überall nutzen, aber es muss gesehen werden in dem Bild. Thema Hindernisse: Es hat keine Warnung vor Hindernissen. Genau. Man kann aber schon fragen: "Ja, okay, du hast mir gesagt, wo der Eingang ist. Gibt es da etwas auf dem Weg?" Dann bekommt man nur sprachlich beschrieben: "Ja, es gibt einen E-Scooter oder es gibt einen Baum auf dem Weg, pass auf." Aber es gibt keine Warntöne die ganze Zeit, die um die Hindernisse herum begleiten. Ja, und das Smart Eyes, das verwendet man ausschließlich mit Kopfhörer wahrscheinlich? Ist wahrscheinlich am sinnvollsten? Also aktuell geht's mit Vibration. Man braucht auch keine Kopfhörer. Man kann's in der Hand halten, normal reden. Audio- Antworten kommen durch Lautsprecher, und man wird mit Vibration geleitet. Später, wenn es mit der Brusttasche kombiniert wird, dann wahrscheinlich auch Kopfhörer, entweder Knochenschall oder AirPods oder was man hat. Ja. Ja, okay, danke schön. Genau. Ich muss noch erwähnen: Wir sind aktuell auf iPhone. Wir wollen es erstmal gut gestalten auf iPhone, dass dann mehr Wert entsteht. Und dann würden wir es perspektivisch auf Android bringen. Aber erstmal der Fokus ist auf iPhone. Hier ist Angela. Ich hab mal noch eine Frage dazu, zu ja, wie ist das für Hörbehinderte? Also ich bin hörbehindert und ich hab Hörgeräte und ich verbinde mein iPhone mit den Hörgeräten. Das ist ja eine App oder ist das ein extra Gerät? Das ist eine App. Und wie es mit Hörgeräten ist, ich will die Frage weiterleiten an meine Mitgründerin Anika. Anika, du hast dich bisschen beschäftigt mit den Hörgeräten und Media-Steuerung. Ja, ja genau. Also mit den, also mit den Hörgeräten geht es gerade in dem Sinne sehr gut, weil wir Personen ja mit, Also wir leiten euch mit Vibration ans Ziel. Mit dem nächsten Update können wir euch aber auch ja genau dann eben bald durch Töne ans Ziel leiten. Die Mediensteuerung, was Jan gerade erwähnt hat, läuft normalerweise über die Hörgeräte, je nachdem welches Modell Sie da haben, aber und die Erfahrung, die wir jetzt gemacht haben mit einigen Testerinnen, war auch, dass es eine Mediensteuerung gibt auf manchen Hörgeräten. Natürlich kommt dann dazu die Frage, die ich Ihnen dann stellen müsste, ob es verschiedene Tonfrequenzen gibt, die Sie nicht so gut hören. Da müssten wir uns dann auf einstellen und Ihnen sozusagen bestimmte personalisierte Töne anbieten. Okay. Aber Sie haben ja gesagt, dass das auf einer mit einer App läuft. Und die App hab ich ja dann aufm iPhone. Ja genau, die App haben Sie auf dem iPhone, genau. Das heißt, wenn ich wenn ich meine Hörgeräte mit dem iPhone verbunden habe, kommen die akustischen Geschichten über die App vom iPhone? Ja, perfekt, wenn Sie Ihre zu meinen Hörgeräten... Ja, das ist mir nämlich wichtig, dass ich die Hörgeräte, also dass ich sozusagen, wie ich's jetzt auch mache, mit dem iPhone verbunden habe und dass alles andere eben über die App läuft. Weil Sie eben gesagt haben Lautsprecher. Also gibt es noch einen zusätzlichen Lautsprecher oder ist der Lautsprecher vom iPhone? Das ist einfach nur der vom iPhone, genau. Also wenn Sie sich mit denen... Sag ich mal ja, missverständlich ausgedrückt. Genau also, wenn Sie Ihre Hörgeräte direkt mit dem iPhone verbinden, dann sollte das so passen. Ah ja, okay, ja. Genau, gibt es weitere Fragen? Weitere Fragen, Wünsche? Ja, ja, ich würde es gerne mal testen. Ja, sehr gerne. Sehr gerne, wir schicken mal eine unsere E-Mail-Adresse hier in den Chat. Ja, die heißt hallo at SmartAIs. SmartAIs geschrieben Smart A-I-S Punkt DE. Und einfach uns gerne eine E-Mail schicken oder ja, gerne die E-Mail von euch mal schicken auch in den Chat und wir kontaktieren euch. Das, das geht ja, also wer, wer mit wer mit dem Chat nicht klarkommt, der kann die E-Mail-Adresse dann auch über meine Mail-Adresse die ja auch abfragen dann, wenn's... Genau. Ne, also wenn ihr wenn ihr Matthias schreibt auch und Matthias, du sei bitte sehr nett und schickst uns das weiter dann. Genau, dann fügen wir euch auch auf jeden Fall in die Tester-Community und bekommt auch die App auf jeden Fall. Das freut uns natürlich sehr dann, ja, ja, okay. Voraussetzung sind aber Pro-Geräte, ne? Aktuell ja. Wir sind aber sehr zuversichtlich, dass es spätestens im Januar auf Nicht-Pro funktioniert. Wenn ich Nicht-Pro sage, da gehe ich erstmal davon aus, dass es iPhones sind, die zwei Kameras haben. iPhone SE mit einer Kamera, das ist immer noch eine große Herausforderung. Ja. Weitere Fragen, Wünsche? Feedback, Kritik? Hallo, hallo Herr Hartenberg aus Nürnberg, ich habe mal eine Frage. Wenn das iPhone in der Brusttasche ist, dann müsste es ja mit Sprachsteuerung gehen normalerweise. Dann weiß ich nicht... 19 Uhr 22, genau. Mit Sprachsteuerung. Also im Prinzip redet ihr die ganze Zeit mit der App. Ihr hört euch direkt. Sobald es dann in der Brusttasche ist, würden wir dann sowas, was wir auch bei der Hinderniserkennung zum Beispiel auch gemacht haben, einfach so einen Prompt oder einen Sprachbefehl zu Siri hinzufügen, so dass ihr SmartAIs einfach so aufrufen könnt, so dass ihr dann gar nicht mehr die das Handy irgendwie aus der Tasche nehmen müsst. Ja, ja, genau, das funktioniert ja jetzt im Moment noch nicht, oder? Ja, mit der Sprachsteuerung. Also Sprachsteuerung, das auf jeden Fall. Also ihr sprecht mit SmartAIs ganz normal gerade. Und das Ganze im Handy zu haben funktioniert, in der Tasche zu haben funktioniert aktuell noch nicht, weil wir eben die Interaktion über Töne noch nicht haben, sondern wir leiten euch eben noch mit Vibrationen. Ja, okay, danke schön. Ja, wie würde das für das für das E, dieses neue aussehen für dieses, ach wie heißt das, iPhone? Was hab ich den Namen vergessen? Gibt's denn das? Ja, das was im SE der Nachfolger ist quasi. 16 E, genau das 16 E. Würde das, hat das zwei Kameras? Würde das funktionieren? Ich weiß gar nicht genau. Ja. Wird wahrscheinlich noch nicht funktionieren. Braucht ihr... Also ihr braucht wahrscheinlich noch den Lidar-Scanner. Ne, mit, mit, mit... Also wenn es zwei Kameras hat... Also iPhone Pro hat Lidar-Scanner, da funktioniert's am besten. iPhones mit zwei Kameras würden auch gehen demnächst, in den nächsten paar Monaten. iPhone nur mit einer Kamera, dieses iPhone R oder SI oder X, da geht's grad nicht, ne? Ja, also das 16 E wahrscheinlich auch nicht. Ja, genau, ich hab grad nachgeschaut, das hat auch nur eine Kamera, das 16 E tatsächlich. Ja, ja. Richtig, richtig. Weitere Fragen? Ja. Könntet ihr euch gut vorstellen, was die App da macht, wo es zu nutzen ist oder genutzt werden kann, oder ist es nicht so klar? Macht das Sinn, dass wir euch noch ein paar Beispiele nennen, damit man sich das noch ein besser, ein bisschen besser vorstellen kann? Ja, auf jeden Fall. Ja, ja, wir können mal schauen. Wir hatten ja das... Ja, da wär ich auch... Okay. Also ich glaub, so ein klassisches Beispiel ist irgendwie, Google Maps sagt mir, ich hab mein Ziel, oder sie haben ihr Ziel erreicht. Ja, und dann ist es... Sind da aber eigentlich noch 10 oder 20 Meter, bis man dann den Eingang wirklich erreicht, den man bei Google Maps eingegeben hat. Ja. Da könntet ihr dann also SmartAIs anschalten, die Umgebung scannen und und dann sagen, wo zum Beispiel ist die Hausnummer 20, sagen wir jetzt mal. Und da könntet ihr euch dann zur Haus, zum Hauseingang leiten lassen. Ja, ja. Das wär dann sozusagen diese letzte Meter-Navigation, an der wir gerade arbeiten. Ja. Etwas anderes ist zum Beispiel: "Wo ist die nächste Sitzmöglichkeit?" Ich bin irgendwie in einem Raum auf auf einer Messe oder vielleicht in einem Restaurant oder so und frag: "Hey, wo ist die nächste Sitzmöglichkeit?" Und ja, könnte mich dann dort hinleiten lassen. Das ist jetzt alles die letzte Meter-Navigation. Was eh immer geht, ist: "Beschreibe mir das Gesicht der Person vor mir" oder "Welche Farbe hat mein Hemd heute?" Also solche Fragen zur ja, die Beschreibung von jeglichen Objekten, die vor euch sind. Das geht immer, Objekten, Menschen, was auch immer. Genau. Und dann, was Jamin beschrieben hat, ist eben noch diese räumliche räumliche Beschreibung von Objekten. Also wo genau befindet sich jetzt der Ausgang, wenn der in Sichtweite ist? Der ist auf 10 Uhr in 5 Metern. Aber das iPhone das iPhone spricht dann schon, oder? Genau, das iPhone spricht. Genau, das iPhone spricht. Ist wie ein digitaler Begleiter in der Tasche, nur dass eben gar kein Mensch zwischengeschaltet werden muss, sondern SmartAIs mit euch spricht. Und man hat das in der Hand und fotografiert dann quasi so die Umgebung? Genau, aktuell ist es in der Hand. Wir sind uns aber sehr bewusst, dass das nicht optimal ist gerade, weil ihr und wir auch, wir wollen unsere Hand frei haben. Ob man jetzt mit Langstock geht oder den Führhund oder den Führhund in einer Hand, oder einfach so seine Hände frei haben will. Deshalb wär der nächste Schritt einmal, das Handy in einer Brusttasche zu verstauen und dann voraussichtlich eben auch auf Smart Glasses integrieren zu können. Genau. Eine Frage: Das geht nur bei Tageslicht, ne? Also wenn's dunkel ist, aber... Also es geht am Abend, wenn es ein bisschen Licht in der Umgebung gibt. Wenn es komplett dunkel ist, dann wirst nicht hier sehen, und dann ist es auch sehr schwierig. Ja, aber normalerweise, wenn man in einer Stadt ist oder Stadtviertel ist, wo es bisschen Lichter da auf dem Gelände gibt, dann geht's auch. Ja. Ah, okay. Erklärt noch mal so den Zusammenhang, also was die Sprache macht, dass sie das beschreibt, ist klar. Also ich steige aus dem Bus und der hält halt immer an anderen Stellen vorm Bahnhof und ich kann dem der KI dann irgendwie erklären, dass ich die, wo, dass ich wissen will, wo die Bahnhofstür ist. Ja, und die Vibration tut dann was? Mit der Vibration, wenn man richtig läuft, vibriert stark. Dann weiß man: "Ah, ich lauf in die richtige Richtung." Ja. Wenn es schwach vibriert, dann weiß man: "Okay, ich lauf da in die falsche Richtung vielleicht." Und dann dreht man sich, bis man bis man die richtige Vibration hat, starke Vibration, und dann kann man da geradeaus laufen. Dann kann man geradeauslaufen. Und wenn man dann das Ziel erreicht hat, kommt da auch eine Bestätigung: "Du hast dein Ziel erreicht" oder "Bitte schön, ich hab dich zur Bank geführt." Ja, ja, genau. Sollen wir vielleicht ganz kurz mal zu den Limitationen, weil du jetzt gerade von irgendwie Ausgang von der Bahn gesprochen hast. Aktuell können wir euch nur Dinge beschreiben, die die Kamera auch sieht, und können euch auch nur zu Objekten oder ja Texten, was auch immer, leiten, die die Kamera auch sieht. Wenn ihr jetzt zum Beispiel beim Bahnhof steht und sagt: "Hey, leite mich zu Gleis 13" und die sehen das Gleis 13 aktuell nicht, dann müsst ihr euch noch irgendwie in diese Richtung bewegen, so dass wir dann auch das das Nummernschild sehen. Genau. Ja, meine Frage bezog sich auf tatsächlich was was man sieht halt. Ich komme aus diesem Bus raus, ja, und ich sehe, ist jetzt der Eingang da? Muss ich jetzt nach links laufen oder muss ich nach rechts laufen? Aber der Eingang ist im Blickfeld. Aber der Eingang ist im Blickfeld. Genau, ja. Ja, ja, genau. Also du müsstest, wenn du aussteigst, musst du erst die Umgebung fotografieren. Kannst du dann gleichzeitig automatisch schon die Frage stellen, wo der, ist der Ausgang ist oder? Wie stell ich mir das vor? Ja. Richtig, richtig, genau. Also man hat Handy in der Hand oder in der Tasche, dann man macht ein Bild und stellt direkt die Frage: "Ja, was ist vor mir?" oder wenn man weiß, was um sich herum zu erwarten ist, dann sagt man: "Ja, wo ist denn genau der Ausgang?" Ja, ja. Entweder "Der Ausgang ist genau auf 10 Uhr X Meter" oder "Ich sehe es nicht, dreh dich um und mach bitte ein neues Bild." Heißt das, hier ist noch mal Angela, heißt das, dass man kein Button irgendwie betätigen muss, um dann die Frage zu stellen, sondern dass die KI ist immer live und hört alles, was man sagt, oder das, wie? Das ist eine sehr gute Frage. Das ist super gute Frage. Aktuell schon, man klickt einmal auf den Bildschirm, um ein neues Bild zu nehmen und also Fragen kann man immer stellen, aber neues Bild aufzunehmen muss man dann klicken auf den Bildschirm. So, wir haben von sehr vielen gehört, dass live auch gewünscht ist, aber von anderen auch gehört: "So hey, ich will nur klicken, wenn ich neues Bild nehmen will, damit ich die Möglichkeit habe, Rückfragen zu stellen." Was ist denn für euch wichtig? Ist es... Sagt ihr auch beides will ich haben oder sagt ihr: "Ich will nur die ganze Zeit live haben, der das sieht, was ich gerade oder wo ich gerade schaue?" Ich möchte gerne wählen können. Ja, also es gibt ja Situationen, wo ich, wo ich in eine live das Live haben will, wo ich da nicht ständig immer wieder nicht drauf tippen muss, sondern dass die immer an ist und sobald ich was sage, dass die was hört. Aber es gibt natürlich bestimmt auch Situationen, wo man sonst sich irgendwie unterhält und dann soll die KI natürlich nicht mitbekommen, was man sagt. Und dann das halt anders einstellen. Ja, also das fänd ich gut, wenn man das wählen könnte. Ja, kleinen Tipp, kleinen Tipp für euch vielleicht in dem in der Hinsicht. Also was ich gut, richtig gut finde, finde, wenn ihr versuchen würdet, auf den Action Button drauf zu kommen bei den neueren iPhones. Die haben ja dort, wo der frühere Kippschalter war für stumm und laut, haben die, gibt's ja einen einen sogenannten Action Button, ja, und wo man verschiedene Funktionen drauflegen kann. Also da kann man jetzt auch heut schon ein Singing AI oder eine Funktion von BeMyEyes drauflegen und so. Und wenn ihr weil das ist eine sehr, sehr einfache, auch taktile Zugangsmöglichkeit, wo man wirklich vielleicht das aktivieren könnte, ohne auf dem Bildschirm rumfummeln zu müssen. Da hast du absolut recht. Ja, ist eine gute Idee, das das fänd ich gut, wenn ihr das machen würdet, wenn ihr das realisieren könntet. Ja. Dann hätte ich noch mal eine weitere Frage. Ihr hattet gesagt, im Moment funktioniert die Vibration und es soll aber auch den ein Ton kommen. Ja, dann fände ich es gut, dass man es dann auch auswählen könnte, in welcher Kombination ich das haben will, also zum Beispiel ich möchte gerne, manchmal möchte ich gerne sowohl Vibration als auch Ton, manchmal möchte ich nur Vibration, manchmal möchte ich nur Ton. Das fänd ich gut, wenn man das auswählen könnte. Ja, guter Punkt. Ja, weil es gibt nämlich weil es gibt nämlich Leute, die wollen lieber einen Ton, es gibt Leute, die wollen lieber Vibrationen, und es gibt Leute, die wollen beides. Ja, ja, ja, das nehmen wir auch. Ja, ich seh gerade, dass zwei Fragen im Chat reingekommen sind. Einmal: "Ist für die App-Nutzung eine Internetverbindung nötig?" Ja, also WLAN oder mobile Daten. Ja, wenn du... Ja, ich kann gerne drauf eingehen. Ja, ist sehr wichtig. Danke, Sebastian, für die Fragen. Aktuell ist es sehr wichtig, Internet zu haben, weil wir auch so KI von anderen Anbietern nutzen wie OpenAI oder Google. Es gibt schon Technologien, dass man solche Features auf dem Handy hat, aber dann ist die Qualität gerade von der Forschung ja, Forschungsstand noch nicht da. Das heißt, die geben sehr viel falsche Informationen und ist noch nicht möglich, dass man es nur auf dem Handy laufen lässt. Genau, natürlich stellt man dann sich die Frage: "Was ist mit Datenschutz? Wo gehen meine Daten hin? Was passiert denn damit?" So ein läuft durch die Datenschutzbestimmungen von Google oder von OpenAI. Die, die speichern das natürlich oder die löschen das nach einer bestimmten Weile, aber alles ist anonym. Eure Daten, wenn ihr zustimmt auch und ihr mit uns die App mitgestaltet, wir speichern die, aber alles wird anonymisiert. Das heißt, personenbezogenen Daten, Gesichter oder Texte oder all das, das hilft uns, wenn ihr zustimmt, dann dass wir die aufnehmen, zu wissen, welche Fragen sind für euch wichtig, was funktioniert gerade, was funktioniert nicht. Aber das könnt ihr auch bei uns gerne jederzeit auch wieder rufen und sagen: "So, Leute, ich sage euch einfach, was ich euch sage. Ich will nicht, dass ihr die Bilder und die Fragen speichert." Ja, danke. Ich seh auch noch eine Frage von Torsten. Blick in die Zukunft wegen Kassenzulassung. Grundsätzlich wär eine Kassenzulassung möglich für eine App oder für App mit Tasche später oder für Smart Glasses. Das ist allerdings von dem regulatorischen Aufwand, Zertifizierung, Aufwand als Medizinprodukt und dann Liste als Hilfsmittel zumindest ein Jahr Arbeit und unglaublich viel Zeit und Geld an Investment. Bevor wir das angehen, möchten wir erstmal eine Version erreichen, wo ihr sagt: "So, das ist die Version, das ist die App, die mir mehr Werte bringt." Und dann kann man solche Sachen in Betracht nehmen. Danke. Ja, genau, das find ich gut. Das find ich wirklich gut, dass wir erstmal wirklich das gut entwickeln und dann ja, ja, wenn das dann gut ausgereift ist, dann halt die Möglichkeit prüfen und die Zertifizierung, weil Krankenkasse ist ja ziemlich aufwendige Geschichte, ne? Ja, hab ich gehört für die Firmen, die das machen wollen. Ja. Aber was kostet, aber apropos, was kostet das eigentlich? Aktuell ist es kostenlos. Es soll auch immer eine kostenlose Version bleiben. Irgendwann können, werden wir wahrscheinlich auch ein Abomodell einführen, wenn wir merken, es hat einen Mehrwert oder es hat Zusatzfunktionen. Weil wir müssen auch überleben, bis die Krankenkasse das zahlt oder finanziert, zumindestens für die Kosten zahlen. Ja, für die Zertifizierung und Listung. Genau, das ist ein Investment von uns und von euch auch gleichzeitig. Ja, wenn ich so direkt sagen darf, also was für uns gerade alle Geld kostet, sind die ganzen Bilder, die analysiert werden von der KI. Ja, und das das ist eben auch so eine Sache, die die wir gerade zahlen, was für uns auch total viel wert ist, weil wir das Geld dann natürlich auch in die Iteration, in die Produktentwicklung reinstecken. Aber das ist, wird unter anderem dann so Teil des die Preise sein. Genau, aber ich würd vielleicht... Ja, ja. Um da ganz transparent zu sein, also die Kosten, die wir haben, sind nicht nur die Mitarbeiterkosten und die ganze Entwicklung. Jede Frage, die ihr stellt, jedes Bild, das geschickt wird, da zahlen wir. Und wenn wir sagen, es soll ein Live-Feature geben, mit dem ich wirklich Sekunde für Sekunde reden kann und Sekunde für Sekunde Bilder schickt, das heißt, jede Sekunde entsteht, dann entstehen dann Kosten. Und das wird auch super teuer für uns sein. Deswegen könnt es in die Zukunft Limitationen geben. Sag mal, wenn es Live-Feature gibt, dann kann man so und so Minuten kostenlos nutzen. Wenn man mehr will, soll man je nachdem wie man nutzen möchte dafür zahlen aber aber das wäre ja auch ein unglaublicher Datenstrom der da abfließen müsste, das das würde ja dann doch ins Unermessliche gehen wahrscheinlich ja ja da wir sind dabei das zu evaluieren, genau ja daher ist es natürlich schon gut wenn man's halt auch auswählen könnte und ob man denn nur ein Bild macht oder eine Live-Aufnahme richtig wenn das live ist dann wird ja ständig ein Bild gemacht und das kann ich mir vorstellen das wird ziemlich teuer und wenn ein Abo-Modell dann wär's natürlich gut dass es einfach verschiedene Preiskategorien und ja Umfang von was man alles machen kann also Umfang von Datenstrom und so weiter wenn man das dann halt für sich individuell entsprechend der Lebenssituation auswählen könnte ja wenn wir wenn wir soweit sind dann reden wir noch mal mit Matthias dann lässt du uns noch mal und wir diskutieren was euch am Herzen liegt ja genau ja genau wir sehen die anderen das auch also ich würd sagen wenn's ein Live-Ding gibt soll das vielleicht einstellbar sein wie fein granuliert das sein soll weil ich sag mal zum Beispiel es geht ja dann A auf die Kosten und B auf den Akku ja und da würd ich sagen da kann's ja sein man braucht jede halbe Sekunde ein Bild weil man vielleicht schnell unterwegs ist es kann aber auch sein wenn man jetzt noch weiter weg ist es reicht auch wenn man alle 2-3 Sekunden ein Bild hat könnt ich mir vorstellen das das ist sehr cool auf jeden Fall ja ja also ich weiß nicht wie granular und wie wie live soll der Live-Feature sein ja genau wie zeitnah ja ja ja ich ich hätte auch noch eine Anmerkung bin ich zu hören ja ja ah ja der Markus ist hier ja und zwar wir hatten uns ja schon das eine oder andere mal unterhalten also ich denk nach wie vor dass der Weg gehen sollte dazu das die Kamera vom Handy zu trennen ich glaub als dass alle Dinge die man dieses Teil entweder in die Hand nehmen muss oder in eine irgendwie gestalteten Brusttasche also ihr hattet ja für das andere System diese spezielle Brusttasche ja aber auch was einfaches man wechselt so oft die Jacke man zieht schnell was drüber es regnet was auch immer ich glaub dass es nicht praktikabel ist und genauso wenig werden Leute zukünftig noch sehr viel ihr Handy in der Hand vor sich hertragen man braucht die Hände und deswegen ich weiß dass Apple das nicht erlaubt aktuell aber das sollte glaub ich das Ziel sein die Kamera Einheit und zwar auf ganz simpelsten Wege von also die ganzen Rechenleistung und so weiter alles aufm Handy ganz klar aber der bildgebende Element das sollte extern sein und sich beliebig also das kann man idealerweise ans Brillengestell dran geklippt also eine eigene Smartbrille find ich auch nicht so gut weil Leute haben dann manche haben noch Stärken Gläser drinnen oder brauchen spezielle Blindfilter und dann so eine Coolbrille ist doch auch ein Artikel der in 2 Jahren wieder ausgetauscht wird so würd ich eher was zum Anpinnen zum Anklemmen oder was wie man Button sich auf die Brust macht also eine Bodycam mit einem Magnet oder was sich an die vorne an die Brust hin oder eben meinetwegen mit so einem mit seinem Kopf mal mit dem elastischen wie auch immer dass man irgendwas in Blickrichtung kriegt aber eben die bildgebende Einheit von dem Handy trennt das glaub ich würde dann den großen Vorsprung bringen um eben nicht mehr mit dem Handy da rumzufuckeln ja aber das sollte dann auch denk ich wahlweise sein weil man muss ja auch gucken dass vielleicht nicht jeder eine Brille ja genau das sag ich ja grad du also als Button von die Brust als Hirn als Stirnband als Brillenklemme als also mit diversen Kameras das ist ja zu kaufbares Zubehör dann ja da könnt ihr ja sagen okay ich brauch jetzt den Brillenclip ich möchte den Button mit Magnet ich möchte das das elastische Stirnband ich möchte eine Mütze wo die Kamera vorne drin ist was auch immer gibt's ja alles ja also die Kombi Hardware die Hardware quasi dazu zu kaufen zu der Software in verschiedenen Varianten würd ich als also für mich jetzt als attraktiv finden ich persönlich werd nix mehr benutzen wo ich also tu ich natürlich momentan aber wo ich zukünftig das Handy von mir her tragen muss ich experimentier jetzt viel mit diesen Smart Brillen ja aber auch da ist natürlich die Lösung noch nicht fertig und da seh ich immer wieder das Problem wenn Leute sagen ja ich hab aber Stärkenbrillen oder ich hab einen speziellen Filter und so weiter und dann gibt es halt unfassbare Kosten das dann auszuschalten geht ja nicht nur um Stärken es geht ja auch um Kopfform und wenn du nicht den pauschal Schädel hast ja zum Beispiel genau also die verschiedensten Gründe durch also da würde ich auch so dass man da wirklich eine andere Lösung findet die verschiedensten Gründe gibt's find ich auch dass man eben auch auch die Smartbrille nicht unbedingt das alles Kolumbus ist sondern am Schluss ich merk grad dass das ein richtig heiß diskutiertes Thema ist richtig gut und vor allem dass da auch noch so die Konversation aufgemacht wird für was könnten denn andere Hardware sein neben Smartglasses ich glaub das wär super interessant für uns dass wir da mal so ein Stimmungsbild bekommen mit den folgenden Optionen Smart Glasses oder ja man helf mir eine Zusatzhardware welche Form die auch immer annimmt die man sich um den Hals oder an die Brille oder irgendwie anders also wir müssen jetzt als Beispiel so eine GoPro wir müssen so eine GoPro als Beispiel nehmen die GoPros gibt's doch mit den verschiedensten Haltemöglichkeiten ja mit den verschiedensten Befestigungsmöglichkeiten und da wär man halt weil jeder hat vielleicht einen anderen Bedarf wo er das Ding gerne tragen möchte ja und das fänd ich jetzt massentauglicher und möglichst wenig Hardware in dem in der Kamera sondern den Rest hat auf dem Handy dann passieren lassen ja damit er schließt damit brauch ich auch nicht mehr Rücksicht nehmen welches Handy hab ich jetzt hat das jetzt eine Kamera 2 hat es ein Lidar-Scanner oder keinen das muss dann diese externe Kamera die muss das dann können ja ja ja das ist eine gute Idee und was für mich als Hörbehinderte halt auch ein Problem ist ich hab Hinterohr-Hörgeräte das haben auch mehr die meisten sag ich mal und da ist es immer so eine Sache ob man da überhaupt gut eine Brille tragen könnte wenn es eine Glasses ist weil das hängt dann sehr vom Bügel ab ob das überhaupt tragbar ist und daher fände ich für mich persönlich eine andere Variante ja also mit der extra Kamera wie du hast du gesagt hast Markus find ich gut ja das find ich absolut super aber es wäre für mich halt eher so dieses Ding eine andere Möglichkeit als Brille okay ja weil das für mich als Hörgerät mit mit Hörgeräten zu sehr drückt ja ja okay wollen wir einmal abstimmen ich überleg gerade wie wir das am besten machen es gibt ja hier diese Reaktionen oder es gibt auch die in Chat ja Moment bitte mal kann ich darf ich noch was sagen also ich bin geburtsblind ich hab mit Kameras überhaupt keine Erfahrung ich mach die ersten Erfahrungen jetzt mit dem Handy und also ich seh mich nicht in der Lage da abzustimmen also höchstens müsste ich mich dann enthalten ja ja das kam auf den Einzelfall an zum Beispiel hab ich jetzt mein Handy in der Hosentasche da wär natürlich eine externe Kamera schön aber vielleicht find ich ja auch eine Hülle mit Kordel die ich mir um die Brust hänge weil Brusttaschen hab ich meistens nicht und das kann man ja gar nicht so sagen wenn man noch gar nicht weiß welches Equipment man dann jeweils zur Verfügung hat ja genau weil ich würde auch eher so diese diese diese Brustbeutel Variante sag ich jetzt mal so mit mit Kette um Hals oder wie auch immer ja was das Material ist aber das vor die Brust gehängt so ich würd auch gern noch was zu bedenken geben ich würd schon gern das Handy nehmen muss ich ganz ehrlich sagen okay also auf jeden Fall sehr viele Präferenzen hier das ist schön das war noch eine Meldung Arti wollte noch was sagen ja ich also ich würd noch ganz kurz auch was zu bedenken geben wollen weil das schöne ist ja mit den Smartglasses dass ich auch erstmal nicht wieder so heraussteche ich sag mal dass man sieht ach guck mal die hat so ein komisches Teil vor der Stirn das ist bestimmt eine Sehbehinderte oder so vielleicht ist das ja für manche auch wichtig dass die halt gerne eine Brille haben wo man dann nicht direkt erkennt dass irgendetwas ja ein spezielles Gerät dran hängt also ich ich kann alle Standpunkte verstehen ich bin auch geburtsblind ich kann ich müsste es auch testen ich kann's nicht beurteilen aber ist ja vielleicht auch noch ein Punkt der nicht unwichtig ist wenn man viel unterwegs ist dass man eben nicht so auffällt im Anführungsstrichen ja sehr guter Punkt also wir hören 3 potenzielle auf uns wir fallen ja sowieso auf wenn wir einen Stock in der Hand haben also das ist ja gut aber es ist natürlich auch so dass ich sag mal wenn wenn man jetzt mit klar mit so einer Brille rumrennt vielleicht tun's irgendwann alle aber es war man macht sich ja auch vielleicht nicht unbedingt Freunde wenn die Leute die einem entgegenkommen sehen oh der hat da ist der hat eine Kamera was macht der damit ja genau ja das ist auch so eine Sache die man halt mit bedenken muss ja man man könnte ja so ein so ein Button nehmen wo die der gelbe Button mit die 3 schwarzen Punkte die 3 schwarzen Punkte sind 3 Kameras ja das ist kein das ist kein das wär doch kein schlechter Punkt find ich also ich finde immer wenn ich wenn ich mein Handy vor mich her trag dann sehen die Leute auch dass ich Film oder was fotografieren also ich glaub das den Faktor ja den glaub ich muss ich mit Fragen einfach dass es so ist ja wenn man jetzt so eine externe Kamera hätte könnte die tatsächlich ja irgendwie markiert sein dass sie ein Hilfsmittel ist oder sie ist so unauffällig wie so eine Brille ja ja aber ich bin also ich wär eben für Alternativen ich bin ich sag nicht das oder das oder das ist das beste sondern mein Standpunkt ist nur ich würd mir eine externe Kamera wünschen und diese in verschiedenen Varianten dass ich wählen kann will ich eine Mütze will ich ein Stirnband will ich ein Button will ich eine Brille ja genau das ist das ist im Prinzip mein Punkt bin ich bei dir Markus kann ich nur unterstützen ja ist auf jeden Fall ein super wichtiges Thema wir sehen da die 3 Optionen Handy mit Brusttasche externe Kamera die mit Magnet irgendwo am Körper am Hemd oder sowas gefestigt wird oder Smart Glasses die Dagma hatte sehr cool vorgeschlagen jetzt im Chat wir machen eine online Abstimmung und Matthias teilt das dann und die teilt teilt das über Social Media und dann bekommen wir ein besseres größeres Stimmungsbild was euch da am liebsten ist genau das find ich super ja also wenn wenn ich könnte das jetzt nicht während der Konferenz weil das krieg ich nicht hin wenn ihr redet dann wenn also ich könnte das jetzt also jetzt zurzeit online während der Konferenz könnte ich nicht irgendwie nebenher noch eine Abstimmung machen ne ne das machen wir im Nachhinein das machen wir dann in den nächsten Zeiten Nachhinein muss man jetzt nicht es ist jetzt klar dass es verschiedene Präferenzen gibt die alle natürlich berechtigt sind genau und dann kann man's halt im Nachhinein machen gut also manchmal kommen ja noch Ideen so wenn man mal drüber geschlafen hat und so und es ist auf jeden Fall wie wie immer beim Rehastammtisch wenn wenn jemand dazu was einfällt und dann kann ich da eben gerne Dinge sammeln und an euch weitergegeben oder die Leute schreiben euch direkt wie auch immer ja das können wir ja im Nachhinein auch noch gut diskutieren ja genau also dazu der Formfaktor haben wir auf jeden Fall jetzt ein Bild das verschiedene Sachen wichtig sein können noch mal zu der Funktion sagt ihr die Richtung die Perspektive wo das sich hin entwickeln kann die lässt dir mit der Navigation eventuell noch die Navigation auch dazu eine bessere Navigation Proaktivität Personalisierung ist eine gute Richtung oder sagt ihr hey ne wir wollen da lieber was anders eventuell doch doch Navigation ist eine wichtige Sache find ich ja also Navigations also zur Hilfen sozusagen kann man ja dann dazu sagen als Ergänzung Navigationshilfen ja ja also ich glaub ich glaub der Punkt die letzten Meter ist schon ganz interessant ja idealerweise sollte das System aber trotzdem wissen wo ich mich befinde das heißt irgend eine Kopplung mit irgend einem GPS System dass das System schon mal im Hinterkopf sozusagen weiß um mich rum sollte jetzt das das das sein und dann dieses aufgenommene Bild damit wiederum abzugleichen würde wahrscheinlich dann treffsichere Ergebnisse bringen als nur rein Bild basiert zu arbeiten ja weil dann ist ein Buschstück vor oder ich pack ein Lastwagen da und vor dem Geschäft wo ich eigentlich hin will und wenn es mit der Kopplung mit wenn du Google Maps oder was zum Beispiel wär dann wüsste das System okay in die Richtung muss aber das Geschäft sein und dann sagst du dir vielleicht geh mal um den Laster rum oder so in die Richtung ne du meinst statt so hey dreh dich und mach neues Bild und dreh dich und ja genau also die rein die abschließende Bildpassierung ist vermutlich fehleranfällig ja das ist richtig was vielleicht auch noch eine Überlegung wäre dass man irgendwie ein Hinweis auf die Richtung hat weil wenn ich jetzt zum Beispiel eine schwache Navigation hab weiß jetzt nicht bin ich jetzt total weit rechts abgekommen oder bin ich jetzt total weit links abgekommen das stell ich mir auch ein bisschen schwierig vor ja verstehe verstehe dass man auch so eine beschreibende Funktion hat wo man da sich befindet rechts links ja ja und was mir auch wichtig wäre was so die Richtungsangabe da habt ihr jetzt gerade immer gesagt so auf 10 Uhr auf 11 Uhr auf 1 Uhr das find ich auch eine gute Sache ich fände es schlecht wenn das Himmelsrichtung ist Osten Westen Süden das ist auf keinen Fall also das ist auf keinen Fall okay ja wobei man dann auch angeben muss wie also in der Anleitung wie man es trägt weil das entscheidende ist ja wenn das Handy oder die Kamera auf unterschiedliche Arten befestigt sind und muss das ja nicht unbedingt mit der Körperrichtung übereinstimmen und da muss man dann nämlich schon dem Nutzer auch ein Hinweis geben wie man das also tragen muss damit die Richtung des Gerätes mit der Richtung des Körpers übereinstimmt ja ja ja das stimmt das stimmt ja vor allem bei Smartglasses versus ich hab das Handy irgendwie in der Tasche in der Brusttasche bei der Brusttasche muss ich dann den ganzen Körper oder den ganzen Oberkörper drehen bei dem Smartglasses reicht es dann wenn ich nur mein Kopf drehe ja also das ist ein super wichtiger Punkt danke ja danke was man vielleicht auch bei den Smartglasses beachten sollte lauft ihr wirklich mit den Dingern da draußen rum ich ich hätt da Schiss wenn ich da irgendwo am Park klebe am Baum oder mir inner gut ich bin nur auch kurz gewachsen sehr kurz gewachsen dass ich da dreimal in der Woche neue Smartglasses bräuchte ja ja guter Punkt ja du meinst weil du irgendwo gegen läufst oder weil ja ja oder weil die Leute oder du kriegst da paar gewedelt oder kriegst ein Rucksack ins Gesicht und ach so also ja oder du rammelst irgendwo dagegen oder also weiß ich nicht macht ihr das wirklich lauft ihr wirklich mit dem Zeug durch die Gegend ich mit den Glasses also ich dachte ja wie machst du wie machst du denn das sonst du läufst doch so sonst auch durch die Gegend ja und viele jeder Brillenträger hat ja also jeder jeder der eine Brille trägt muss sich ja mit dem Thema auseinandersetzen ja ja ja aber dann siehst du ja noch was wenn du gar nichts siehst ist das Ding ja dass du irgendwo gegen krachst ja selbst mit Stock ja trotzdem nicht ausgeschlossen aber vielleicht bin ich auch zu doof als als später Erblindeter das kann natürlich sein ja auf gar keinen Fall ja na ja es kann natürlich Situationen geben das geht ne ich kenn das schon auch es kann natürlich Situationen geben wo man dann plötzlich irgendwo an aktuellen Höhenhindernis ist ne das das gibt's also das Risiko ist natürlich immer irgendwie auch da aber ja also ich glaube es gibt ja auch genügend so oft ist es dann auch wieder nicht ich glaube es gibt ja auch genügend gesetzlich Blinde die aber noch einen kleinen vielleicht auch sehr kleinen Sehrest haben die trotzdem noch das was eine Brille vielleicht leisten können das heißt nur die Blendung zu verhindern ja aus dem mit Brillen unterwegs sind und da find ich jetzt solche Smartglasses doch als weitaus besser als die ocker mal war die tatsächlich von dem Magnet der schnell mal runter also die sollte man wirklich mit mit mit Halsband tragen ja ja ja stimmt ja klar kann es passieren dass einem so eine Brille aber mir ist die die dieses Mockglas ist schon X mal runtergefallen die sind auch nicht gleich kaputt also solange ich da niemand drauf tritt ja aber ich glaub die Gefahr haben tatsächlich viele Leute die noch Brillen tragen was wie gesagt das ist ja nicht jeder gleich vollständig blind so dass man gar keine Brille mehr verwenden müsste ja ich wollte bloß bedenken geben also es geht wahrscheinlich dann auch sehr auf den Kostenfaktor an wie oft sowas passieren darf ja bestimmt ja mich interessiert noch mal was zur Entwicklung der der KI und wie haltet ihr die KI unter Kontrolle was ich damit meine ist wir hatten ja jetzt im letzten Sommer vor einigen Monaten gab's ja einen riesen Hype um die die Meta classes ja oh und die Raven Meta classes und ja am Anfang große Euphorie inzwischen hat sich das alles ein bisschen gelegt und es war ja am Anfang auch richtig richtig eine gute Geschichte und dann hab ich so ich hab irgendwann die Erfahrung gemacht dass diese KI sich ein bisschen falsch selbständig hat als Beispiel ja ich konnte man konnte am Anfang Fragen gib mir eine genaue Beschreibung für eine blinde Person und so weiter und so fort dann hat sie das gemacht irgendwann ist das Ding gekippt und dann ist ist sie auf Gedanken gekommen zu erzählen ja vor dir ist ein Weg der ist unterschiedlich gepflastert achte mal auf den unterschiedlichen Klang deiner Stimme ja he he he ja blöde Kuh will ich nicht hören ja interessiert mich nicht und es hat sich aber halt einfach rausgestellt dass die KI dann halt ja das was sie gestern noch gemacht hat mir heute verweigert ja also ich sag mal da sind dann zum Beispiel auch so Sachen passiert ich hab Ewigkeiten immer schön gefragt welche welche ist der Bahnsteig ist das im Bahnhof und dann hab ich da ja gute Antwort gekriegt und plötzlich fing das Ding an ja wahrscheinlich Gleis 9 ich wusste ich bin bei Gleis 12/13 oder sowas oder ich stelle eine Frage welcher Zug fährt ja am nächsten als nächstes ab am beim nächsten mal Fragen das kann ich dir nicht beantworten ja und jetzt ist es ja so dass dass dass sie sich so eine KI irgendwie dynamisch weiterentwickelt und mir ist es irgendwann richtig auf die Nerven gegangen immer mit dieser KI erstmal zu diskutieren dass sie wusste was ich will ja das das geht mir im richtigen Leben schon auf die Nerven das find ich also ich find die Frage super geht uns genauso auf die Nerven wir entwickeln heute etwas wir dann machen wir die K E konsistent am nächsten Tag macht Open AI oder Google ein Update und auf einmal geht's dann nicht mehr wie kontrollieren wir das wie gehen wir damit um eins machen wir sehr viele sag mal und ja vor nicht voraus ist es zu so conditions sag mal wenn bestimmte Fragen gestellt werden dann sollen die durch bestimmte Test bestimmte Abläufe dass man genau weiß was der was die Ausgabe sein soll aber das ändert sich mit der Zeit und ich denk wir werden immer mal testen müssen und schauen wo gibt's diese inkonsistent wo halluziniert die KI wo ändert sich die KI ich denk perspektivisch und in der Zukunft dann werden wir dann viel konsistentere und auch für die die Bedürfnisse von Blinden und sehr eingeschränkten Menschen so eine KI haben wie erreichen wir das und wann erreichen wir das wieder mit Daten Gemini und Open AI die entwickeln die Modelle für sehende Leute und so geht's da weiter wenn wir aber genug Daten haben was welche Fragen da wichtig sind für Betroffene welche Antworten da genau dann kann man solche KI Modelle fein abstimmen darauf und dann wissen die KI Modelle ah okay jetzt darf ich eigentlich nur das sagen und soll ich andere Sachen da rauslassen ja genau also es dauert eine Zeit es ist eine Datensache bis dahin wird's immer eine inkonsistent geben und kann sowas immer passieren ich glaub es wär auch super wenn man sozusagen Leitlinien in denen sie sich bewegen darf ja ich glaub ich denke es wär auch super wenn man dementsprechendem KI Modell noch ein bisschen mitteilen könnte was der persönliche Bedarf ist also bin ich hochgradig sehbehindert bin ich also noch mittelsehbehindert oder bin ich vollständig oder vollständig blind ja weil dann sind die Bedürfnisse ganz anders genauso der noch der noch ein bisschen was erkennen kann der wird sagen okay ich die Bürgersteig das krieg ich noch hin die Hausnummer schon nicht mehr der nächste sagt vielleicht Hausnummer schaff ich auch gerade noch na ja ja ich brauch aber das Klingelschild am Schluss und also ich brauch mir ich brauch die ganzen feinen Details ich muss aber nicht wissen hier vorne steht eine Mülltonne die da blau ist und so deswegen wär's vielleicht gar nicht schlecht noch ich weiß nicht ob man das mit vorab Prompt dann irgendwie lösen kann dass man quasi dass der Benutzer sagen kann meine Einschränkung ist so und so stark und ich möchte gerne in dem und dem Umfang informiert werden weil mir persönlich wäre es zu viel wenn ich die ganzen großen Dinge angesagt krieg ich mich interessieren die kleineren Dinge das kann man auf jeden Fall interessant finden vielleicht ja genau also wie du sagst Markus man kann schon davor sagen hey in dem Prompt ich mag so und so ich will Informationen über das und das ich will nicht keine Informationen über die anderen Sachen und mal die Frage in die Runde ist es ausreichend eine einzige Personalisierung zu haben dass man sagt das meine sehr Einstellung und ich möchte allgemein diese Informationen haben oder sagt die je nach Kontext je nach Umgebung will ich eine andere Personalisierung und die speichern das zweite das würde ich sagen eine ja also dass dass man's nach entsprechender Situation auch haben möchte okay es gibt ja zum Beispiel Wege die kenn ich gut als Vollblinde die kenn ich gut da brauch ich nicht so viel Hilfe aber die Details sind dann wichtig es gibt aber Situationen wenn ich dann in einer völlig fremden Umgebung bin dann sieht das schon wieder ganz anders aus dann möchte ich mehr Informationen haben ja man müsste so Profile einstellen können genau Profile okay ja also nicht nur an der orientiert an der der Stärke der der der Einschränkung also ob sehbehindert ob hochgradig sehbehindert ob blind sondern eben auch ja so Profile genau das find ich auch das ist das ist gut das dem stimme ich zu auch ja würdet ihr dann ich frag mich gerade wie wir das umsetzen ich find's eine super gute Idee würdet ihr euch das so vorstellen dass wenn ihr persönlich zu Hause jetzt smarteis sagt hey ich hab AMD ich seh noch das und das und das abspeichern und dann zusätzlich hey im Hauptbahnhof will ich vor allem Informationen über die Anzeigetafeln und die Gleise oder würdet ihr euch erwarten dass solche Kontexte und solche und Seh-Level von Seh-Einschränkungen und eure Personalisierung dann bereits vorgegeben sind in der App ja ich würd eher sie kategorisieren in der Aus in einem Ausprägung der mit der Information die man bekommt also ich möchte wenig Hinweise ich möchte mehr Hinweise ich möchte noch mehr Hinweise ich möchte noch noch mehr Hinweise weil das mit diesen Augenerkrankungen ist schlecht weil es gibt so viele unterschiedliche Augenerkrankungen und das sagt auch überhaupt nichts darüber aus ja also wenn's jetzt um Sehbehinderung geht wie viel wie die Einschränkung ist und was ich brauche das ist ganz individuelle Geschichte ja das stimmt das find ich das find ich schwierig das ja da geht's schon beim Wetter los und alles wirklich so die die um am am besten ja vielleicht 4 verschiedene mindestens 4 verschiedene na Staffelungen der der der Informationen die man bekommt also ausführlicher also wie ich's eben gesagt hab das fände ich besser weil dann kann man ganz individuell selber überlegen und ausprobieren ausprobieren was denn jetzt Situation also mehr mehr situationsgebunden die verschiedenen Profile als krankheitsgebunden da hast du da hast du recht ja sich sich auszuhören stimmt es gibt ja verschiedene Navigationen okay das heißt dann demnach keine Auswahl ja es gibt ja bei verschiedenen Navigationsapps zum Beispiel auch so dass man myway pro zum Beispiel da kann ich ja eben genau einstellen welche Informationen möchte ich über meine Umgebung haben also welche Points of Interest und weil es ist ja so wenn wenn jemand sehr mobil ist und läuft durch einen Bahnhof den er kennt dann braucht er andere Informationen ja weniger Informationen als jemand der nicht so mobil ist und der oder der den Bahnhof vielleicht nicht kennt genau ja zum Beispiel und da wäre wäre es ganz gut wenn man das abstufen könnte nach irgendwelchen Kategorien die man tatsächlich entwickeln müsste und ausprobieren müsste wie viel möchte ich eigentlich haben über meine Umgebung wie viele Infos ja und dann vielleicht auch einfach dass man selber als als Benutzer auch dann noch zusätzlich eben Profile anlegen kann weil es halt Situationen gibt da brauch ich mehr Informationen es gibt Situationen da brauch ich weniger dass man das selber individuell im im im Einzelnen das wären dann zwar für uns Benutzer viele Einstellungen die man durchgehen muss und irgendwie festlegen muss aber es ist und dann ja umso feinjustierter sag ich mal es ich finde es super und das Thema klingt super logisch aber Markus Angela Matthias Annika und ich sagen ja es gibt noch weitere 22 Leute was sagt ihr einfach kurz Hand heben wenn es für euch interessant ist ansonsten Hand runterlassen dann wissen wir das ist eigentlich nur wir das wollen ist es auch etwas was alle wollen find ich auch find ich auch gut ja da ich geburtsblind bin und also außer hell und dunkel voll blind werde ist das für mich sehr einfach aber ich kann mir das schon vorstellen mit den mit verschiedenen Sehbehinderungen wenn man das halt einmal zu Hause einmal alles für sich einstellt und sagt ich bin also mein mein Sehprofil das ist ja wohl immer gleich aber dann halt mein Informationsprofil ich sag jetzt so ich bin bin heute unterwegs mit voll blind aber Profil 1 oder Informationsprofil 5 ich will das und jetzt schalt schalt dich schnell um auf Profil 3 ich brauch jetzt weniger das klingt richtig cool boah das ist mega okay ja also ich hab ein paar Hände gesehen die waren nicht so viele 2/3 ein paar Leute haben reingeredet fand ich auch gut wie ist bei den anderen auch kurz gerne reinreden wenn ja die die Evi ja also ich find es auch gut wenn man die Pro die Profile praktisch benennen kann also man muss ja nicht unbedingt Profil 1 Profil 2 sondern man kann ja dem vielleicht auch einen Namen geben also reinschreiben Profil Bahnhof oder also das kann man denn selbständig machen und das was das das was ich noch anmerken wollte bezüglich ja persönliche Daten also da könnt man doch zum Beispiel blind sehbehindert also so so Ausklapplisten machen praktisch also ja blind also blind also voll blind sehbehindert mobil oder nicht so mobil oder also das ist jetzt bloß so allgemein jetzt mal so da ja gesagt aber so Ausklapplisten das das wär sowas die Frage ist ob das funktioniert weil es gibt ja zum Beispiel sowas wie Tunnelblick das ist ja nur wieder ganz anders genau das hab ich den voll aber nur für münzgroß also da ich weiß nicht ob man da wirklich ein System reinkriegt ja was wir machen können das wird man nicht hinkriegen das ist so komplex das kriegst du nicht hin also nach den Augenkrankheiten das kann man vergessen das geht dann schon los ist die Dämmerung da ist die Sonne da ist die Sonne halb da ist sie nicht da ja da ich bin ich seh gar nichts ich brauch wirklich alles ich brauch auch eine Mülltonne weil ich gegen die laufen könnte ja gut ich hab zwar natürlich meinen Stock aber oder ich seh halt ja ich weiß nicht also ich brauch nur ganz klein was sagte der Markus doch vorhin ich brauch nur kleinere Sachen also vielleicht kann man das dann eher darüber kategorisieren und nicht jetzt über die Art der Behinderung also wenn wenn kategorisieren dann würde ich sagen blind hochgradig sehbehindert sehbehindert so ja und alles was alles was alles was was fein ist darüber hinaus ist zu schwierig ja und dann kann sich ja jeder überlegen welche zu welcher Kategorie er sich jetzt nur einordnet ich denk schon eher auch der Informationsbedarf wie es gesagt wurde dass der ausschlaggebende dass die Krankheit das Krankheitsbild tatsächlich weniger die Rolle spielt als welchen Bedarf hab ich grad brauch ich detaillierte Informationen zu allem oder brauch ich nur ja ganz erstmal ganz grobe Struktur und dann vielleicht war ich erstmal das ganz grobe um ein Stück Weges zu kommen und ganz am Schluss war ich ganz fein weil ich dann das Klingelschild dann von mir hab und so ne ja also das ja ich glaub das mit diesen mit diesen Anforderungsprofilen das glaub ich ist eher der richtige Plan als auf die Krankheit abzuziehen ja weil es hängt von der Dunkelheit zum Beispiel ab es hängt davon ab wie gut kennt man sich in der bestimmten Gegend aus das kann ja sehr unterschiedlich sein wie mobil man ist es kann davon abhängen vielleicht sogar es gibt ja sogar Sehbehinderte da hab ich mal gehört wo das Sehen schwankt die nicht jeden Tag gleich viel sehen ja gibt das auch ja so jetzt will ich auch noch mal was dazu sagen ich bin Hubertus ich hab ich hab das vorhin mit den Profilen eingebracht aber ich bin eigentlich das war eigentlich nur ganz grundsätzlich also ich finde wir reden hier über ungelegte Eier für mich also ich wir reden hier über eine App und und die gibt es im Entwicklungsstadium aber ich kenn sie nicht ich kann mir das alles nicht vorstellen ehrlich gesagt ich ich möchte die App erst testen das hatte ich ja vorhin auch schon gesagt und dann wenn ich die kenne dann kann ich mich gerne unterhalten und auch Vorschläge machen weil ich dann die App kenne und weil ich dann auch weiß worum es geht aber dieses hier das ist die anderen haben das ja alle mitgemacht und so ist ja auch ganz toll aber für mich war das nicht sehr hilfreich also schon sehr hilfreich aber nicht ja es hat mich nicht nicht wesentlich weitergebracht das ja das ist die perfekte Überleitung Brainstorming ne ja aber das ist die perfekte Überleitung zu vielleicht wie auf jeden Fall wir von unserer Seite vielleicht diese Session abrunden können indem wir euch alle fragen wer von euch wer interessiert das zu testen und die Person die interessiert sind wir können entweder hier direkt in den Chat die E-Mail-Adresse schreiben oder im Nachgang vielleicht kann Matthias da irgendwie eine Verteilerliste schreiben genau ja also ich würd die ich würd die App sehr gerne testen ich bin der Dirk Zwang ich bin eben etwas später dazu gekommen aber was mich noch eben richtig interessieren würde der Matthias hatte das angekündigt am heute und zwar wenn ich mich recht entsinne ging's doch auch da drum in Verbindung gegebenenfalls mit dem Lidar Scanner vom vom iPhone das wär doch eine interessante Sache ja will ich grade kurz was dazu sagen das war das letzte mal als wir gesprochen haben wirkt da hatte ich dir das erzählt und da hatten wir noch die Hinderniserkennung App von der Firma SmartAI und die ja ist ja haben wir vorhin im Eingang schon gehabt im Moment erstmal vom Tisch ah ja so ist eben um da darum die räumliche KI zu entwickeln aber wir beide hatten drüber gesprochen genau daher hast du die Info ja genau ich kann ich kann auch gleich was dazu sagen aber damit wir auch keine Themen überspringen also ich komm gleich in einer Sekunde noch mal drauf eine aber noch mal wegen der Testerliste wer also sollen wir das einfach durch dich Matthias dann nachher machen dass du das weiterleitest oder ihr meldet euch bei Matthias wer Interesse hat an einem Test weil ich find den Punkt super am besten hat man da die Ideen wenn man getestet hat und dann wir haben auch natürlich so wir machen online Sessions wir machen Feedback Runden dass ihr uns Feedback gebt was als nächstes kommt und dann priorisieren wir basieren darauf wie möchtet ihr Interesse ankündigen okay also ich denke ich denke entweder entweder die Leute also die Leute die Interesse haben können entweder an euch schreiben oder wenn sie sich die Adresse nicht merken können meine kennen kennen viele und können die benutzen und ich leide die Dinge dann eben dementsprechend weiter ja perfekt einfach immer k.schaefer@papenmeier.de ja die kennen viele und ich würde dann den Kontakt eben zu euch sehr schnell herstellen ich hätte noch mal eine Nachfrage zu der wenn man wenn ich jetzt die teste und wenn ich dann Rückmeldungen haben habe geht das nur in schriftlicher Form oder hab ich das jetzt eben richtig verstanden dass man dass man auch sozusagen mit euch telefonieren kann und dass verbal die Rückmeldung geben kann ja so also am besten in einer schriftlichen Form ich schreib mal die E-Mail-Adresse Ich schreib aber auch gerne in den Chat unsere Nummer. Telefonieren ist manchmal schwierig, weil wir bekommen ja sehr viele Anfragen, aber gerne. Super gerne eine WhatsApp Nachricht oder Audio. Sprachnachricht auf WhatsApp. Eine Sekunde. Ah ja, okay, das geht auch. Es gibt ja auch eine... Es gibt ja auch eine WhatsApp Gruppe zum Austauschen. Genau, gibt auch. Okay, Austausch kann ich dann mal schicken. Genau, ich hab jetzt in der... In dem Chat die E-Mail-Adresse und die Handynummer geschickt. Gerne auf WhatsApp oder die E-Mail. Ganz kurze... Ganz kurze Unterbrechung. Ganz kurze Unterbrechung. Wer jetzt gerade nicht an der Diskussion beteiligt ist oder sowas, bitte Mikro ausschalten, weil der quatscht immer eine Sprachausgabe rein. Ja, das war ich. Entschuldigung. Ich wollte dir nämlich gerade eine Mail schreiben. Ich halte schon stumm, tschuldigung. Ich beantworte... noch mal die Frage wegen der Hinderniserkennung und da auch gerne eure Meinung offen, direkt und gerne auch kritisch. So, wir haben... Wir haben sehr viel Zeit und Aufwand investiert in die Hinderniserkennung, in die Entwicklung davon. Das funktioniert auf iPhones. Auf Handys nach einem Jahr haben wir es geschafft, dass es jetzt auf iPhone Pro funktioniert. Zu einem bestimmten Grad in Echtzeit. Es war aber nicht möglich, das auf iPhone nicht Pro zu machen, weil es super wichtig ist, dass die Hinderniserkennung akkurat ist von Distanzen. Wir wollen keine falschen Pieptöne, keine späten, keine frühen. Viele haben gesagt, ist wichtig, dass das auf Android geht, dass auf iPhone nicht Pro geht. Das konnten wir leider den Wunsch nicht erfüllen. Es ist aus Stand der Technik nicht möglich einfach. Zweite Sache war die Brusttasche. Viele haben gesagt: "Ich will keine Brusttasche mit dem Kisten." Auch dass das Handy richtig ausgerichtet ist. "Ich will unbedingt die Smart Glasses oder so ein kleines Gerät." Das ist auch leider nicht möglich mit der Hinderniserkennung, weil eine Hinderniserkennung muss super genau ausgerichtet sein. Und dann haben wir gehört: "Ja, die Hinderniserkennung ist nicht mein..." Es ist auf jeden Fall ein Bedürfnis von vielen. Aber nicht von der Mehrheit. Von vielen kam es: "Ja, ich will diese letzte Meter Navigation, dieses römische K..." "E-Assistent..." "Diese Navigation, Kupplung und weitere Sachen." Deswegen haben wir es zur Priorität... Da um die Transparenz zu halten. Gerne eure Meinung dazu. Ich wollts einfach mal Transparenz in den Raum geklärt haben. Ja. Aber wir schauen ja jetzt in die Zukunft und wann entwickeln wir. Ja, geht davon aus, dass man das vielleicht so hinbekommt, dass man mit GPS dorthin kommt und dass man dann in den letzten Metern mit dem Weg letzten Meter praktischer findet. Dann findet man den Einkaufszentrum, die Tür und geht durch die Tür durch und dann schaltet man auf Einkaufsmodus um und dann kann man mit der App einkaufen. Ja, okay, das ist die... Also das ist die Richtung, die wir heute diskutiert haben und die jetzt geplant ist. Gut, ja. Wie, also das mit den Hindernissen ist jetzt komplett vom Tisch sozusagen mit dem Lidar Scanner oder Lidar Scanner? Genau, aktuell komplett vom Tisch. Es kann in der Zukunft noch mal kommen, wenn wir merken, Smart Glasses sind da reif für sowas oder andere Geräte sind da reif oder man kann es da auf mehr Geräte bringen. Dann könnte es noch mal kommen. Aber wie gesagt, wir richten uns nach euch. Also ihr bekommt jetzt die aktuelle App. Ihr könnt auch gerne in die Community wie... Ihr könnt uns gerne jederzeit auch ein Feedback schicken und das, was wir von der Mehrheit bekommen, das werden wir natürlich priorisieren. Ja genau, und da informieren... Also wir haben das Format, dass wir euch dann mit jeder Änderung informieren, was wurde priorisiert und warum. Und dann hätten wir jeden Monat spätestens dann eine Online-Session, auch ähnlich wie heute. Haben wir's inspiriert von Matthias. Ha. Dass wir auch noch mal in der Runde reden und schauen, ob wir wirklich das gemacht haben, was ihr wolltet. Ja also, was brauch ich dann jetzt aktuell für ein iPhone, um das testen zu können? Oder was brauch ich für ein iPhone? Stand heute iPhone Pro. Wir sind zuversichtlich, dass es spätestens im Januar iPhone nicht Pro auch mit inkludiert wird. Aber die, die zwei Kameras haben, es eher... Kann ich nicht versprechen, ja. Das braucht man heute. Die ewig normale Frage und die Sessions, die würden dann auch über Zoom zum Laufen oder über welche über welche Plattform geht die dann? Ja. Sehr schön, wahrscheinlich auch auf Zoom. Ja, wir werden die ankündigen per E-Mail oder WhatsApp. Genau. Ich hab auch noch eine Frage. Ich hab euch jetzt auch schon mal meine E-Mail-Adresse in den Chat geschrieben. Habt ihr eine WhatsApp Kanal, wo man also ja, doch Kanal ist das richtige, wo man euch folgen kann oder auch einen Chat, wo man sich austauscht? Oder habt ihr beides oder ja? Ja, wir haben einen WhatsApp Kanal. Gerne einfach die E-Mail schicken und dann fügen wir euch da hinzu, wer möchte. Aber es gibt eine WhatsApp Gruppe zum Diskutieren. Genau, gibt's eine WhatsApp Gruppe zum Diskutieren. Ja, ja. Wie komm ich da dran? Also wenn ich das nutzen kann, sobald es möglich ist? Gerne uns einfach eine E-Mail schreiben. Okay. Also ich hab jetzt nicht deine E-Mail-Adresse hier. Genau. Ja, ja, okay, alles klar, dann machen wir das. Danke. Super gerne, sehr coole Fragen. Sehr schön. Gibt's da noch Fragen? Gibt's da noch Wünsche? Matthias, wie ist auch mit der Zeit? Wir wollen's ja nicht über die Zeit ziehen. Du bist hier der Host. Wir sind im Grunde genommen ja offen. Vielleicht gibt's ja auch noch Themen der Teilnehmer. Ich möchte auch noch über eine Erfahrung berichten über KI-Nutzung, die ich gemacht habe später, aber wenn noch Fragen sind, dann können wir die durchaus erschöpfend beantworten. Also bei uns fällt nicht ab einem bestimmten Punkt der Hammer. Was soll es sein denn? Wir kriegen dann irgendwann... Wir kriegen dann irgendwann Hunger oder sowas. Also ich hätte noch eine Sache noch mal. Ich weiß jetzt, dass die Sache mit dem Lidar Scanner vom Tisch ist, aber der Punkt ist doch der: Die Features, die aufm iPhone dann funktionieren, die funktionieren ja sowieso auch nur auf den Pro Geräten. Und auf den normalen Geräten ja eben nicht und deswegen verstehe ich jetzt irgendwie das Problem nicht so ganz. Die aktuelle, die aktuelle App... Ja, ja, das... Also du meinst, dass es keinen Unterschied gibt? "Hey, die Hinderniserkennung hat auf iPhone Pro funktioniert und die neue auch." Wo ist der Unterschied? Oder... Nein, nein, umgedreht. Also das ist ja sowieso, dass man mit diesem Lidar Scanner das ja sowieso nur auf den Pro Geräten machen kann. Auf den normalen... Die normalen Geräte, zum Beispiel das 16e hat ja zum Beispiel auch den Lidar Scanner nicht. Ja, also... Also dann muss man sich von... Ja, dann muss man sich von... Sollte man sich von vornherein... Ich find die Lösung von Apple vielleicht auch nicht gut, aber... Ja, dann müsste man sich halt von vornherein entscheiden, wenn man da so eine Lösung möchte, dass es eben dann nur so geht. Ja, also ich erklär es noch mal auch ein bisschen von der technischen Perspektive. Was ist der Vorteil von dem iPhone Pro mit dem Lidar Scanner? Alle Apps, die irgendwas räumliches haben, werden brauchen Abstandsmessung. Der Lidar Scanner kann es am besten und sehr akkurat messen für die Hinderniserkennung. Das heißt Zentimeter-Genauigkeit. Das braucht man auf jeden Fall. Das braucht man auf jeden Fall. Die anderen Geräte, also iPhone mit zwei Kameras, kann genau... Also kann auch Abstand messen, weniger genau. Aber was heißt weniger genau? Wenn es weniger genau ist, sagen wir 20 Zentimeter Abweichung hat, dann ist super schlecht für die Hinderniserkennung, aber es geht für die letzte Meter Navigation, weil es kommt nicht auf diesen 20 Zentimeter... Das ist nicht mal ein Schritt. So die iPhones, die eine Kamera haben, da ist es mathematisch nicht möglich, Abstand zu messen. Aber in der Zukunft wird's möglich mit KI, Abstand zu messen, auch mit einer Genauigkeit von 20-30... Aber auch nicht in Echtzeit, nicht 20 mal pro Sekunde, sondern einmal pro Sekunde. Das reicht für die letzte Meter Navigation, aber eben nicht für die Hindernisse. Genau. Ja, aber wer wirklich am... Die beste Qualität haben will, der braucht iPhone Pro. Ja. Und was ich auch mal fragen wollte: Wenn man jetzt nicht testen will, sondern nur mal so den Stand, ich sag mal, gelegentlich verfolgen, um sich zu entscheiden, kauf ich mir ein iPhone Pro? Wo informiert man sich da am besten? Weil ja, wenn man jetzt, ich sag mal, wenn man jetzt sämtliche... Wenn man jetzt eh nicht selber testen kann, dann macht's ja nicht so viel Sinn, da jetzt jeden Testbericht zu lesen, sondern dann macht's ja Sinn, ja so einen Gesamtstand zu haben und zu wissen, lohnt sich das für mich wichtig genug, um mir dafür ein anderes iPhone zu kaufen? Ja. Das ist super Punkt, also... Die Optionen: Uns eine E-Mail schicken und wir nehmen... Wir nehmen dich oder die, die Interesse haben, gerne im Newsletter. Oder auch gerne auf die Webseite von uns schauen. Da gibt's immer die neuesten Informationen, wo wir gerade stehen. Also SmartAI.de. Hab ich auch in den Chat geschickt. Ja, SmartAI.de. Genau, SmartAI.de. Ja. Ja. Genau, dort gibt's hier so: "Ich will Tester werden" oder einfach "Kontakt aufnehmen". Ja, ja. Und wenn es... Wenn es Richtung Marktreife kommt, auch dann posten sie es auf jeden Fall dort. Ja, wenn man mehr Informationen haben will, dann auf jeden Fall uns schreiben. Dann nehmen wir euch dann in Newsletter. Ja, und hier werden wir das natürlich auch wohlwollend beobachten, wie sich das ganze Projekt entwickelt. Ja. Ja, und werden es dann auch berichten. Ja, dann danke ich euch beiden. Ja, für diese inspirierende Diskussion. War sehr lebhaft und ich hoffe, ich denk, wir haben eine ganze Reihe Erkenntnisse gewonnen und ich hoffe auch für euch war die Diskussion erfolgreich, dass ihr einiges mitnehmen könnt, was ihr in eure Entwicklung berücksichtigen könnt. Ja. Ja, auf jeden Fall. Also auf jeden Fall vielen Dank für euer Feedback und ja, für die Diskussionen. Ja, das kann ich auch sagen. Vielen lieben Dank an alle für das ganze Input. Es war sehr interessant mit euch zu diskutieren. Coole Ideen habt ihr eingebracht. Ich hoffe, dass wir es auch so weitermachen. Genau. Schreibt uns einfach, wer Interesse hat an einem Test. Wir halten euch auf dem Laufenden. Ja, und unser Ziel ist, wie gesagt, das mitzugestalten zusammen. Ja. Ja, dann bedanke ich mich, dass ihr da wart und könnt gerne noch bleiben. Vielleicht gibt's noch ein paar Themen aus dem Nutzerkreis hier, die wir noch besprechen wollen. Ja, perfekt. Dann lassen wir euch mal den Abend noch mal genießen, bisschen diskutieren. Und wir freuen uns... Ich hab noch mal eine Frage. Gerne. Wie wird denn das finanziert? Also man hat ja immer so ein bisschen Angst, wenn man so an andere Hersteller denkt, die dann plötzlich weg waren. Das wäre verdammt schade. Wie finanzieren sie sich oder wie ist das langfristig? Genau, wir sind aktuell von Investoren finanziert. Ja, und da... Damit zahlen wir unsere Kosten erstmal, bis wir ein Produkt auf den Markt bringen und uns damit finanzieren. Das Ziel, wie gesagt, wenn wir da mehr Wert generiert haben: Erstmal ein Abo-Modell, ein kleines Abo-Modell. Und dann perspektivisch die Hilfsmittelliste zu erreichen. Aber das dauert, weil es regulatorisch sehr komplex... Ja, ja. Man hat da ja immer ein bisschen Angst, dass dann das schnell verschwindet. Hat man ja mit Rude Go und wie das Talkies... Alles, was auch ein bisschen schade... Also wenn es mehr Wert hat und wenn wir genau das treffen, was ihr wollt, und wenn ihr uns dabei helft, dann werden wir nicht verschwinden. Dann bleiben wir. Das wäre ja schade, weil du sagst, das hört sich alles ziemlich gut an. Dann sollen wir es so versichert sein, dass es weiterläuft. Ja. Sehr schwer. Okay, die Evi hat noch mal eine Frage. Und zwar: Wie habt ihr euch da so gefunden und wie seid ihr auf den Blindenkreis gekommen? Also ihr seid ja beide sehend. Ja. Mich hat interessiert, wie die... Wie das so alles entstanden ist, also das... Die Idee auch und wie die Idee zustande kam. Ja. Hattet ihr Kontakt mit Blinden oder...? Genau. Ja. Ja. Es ist entstanden aus dem technischen Hintergrund. Mein Mitgründer Zeit und ich haben studiert autonomes Fahren, computerbasiertes Sehen, KI. Und wir dachten uns: "Hey, was kann man da cool damit machen?" Man kann Roboter programmieren, man kann autonom fahrende Autos programmieren. Aber wieso nutzt niemand diese Technologien, um Blinden und seheingeschränkten Menschen zu helfen? Dann haben wir mit vielen Betroffenen geredet. Wir haben gemerkt: Krass, es gibt sehr viele Probleme. Große wie Google kümmern sich nicht darum. Wir sehen da Potenzial, Leuten zu helfen mit den neuesten Technologien. Und wir haben uns das als Ziel gesetzt. Einige kamen dann dazu, wo wir gemerkt haben: "Wir brauchen da jemand, der wirklich den Betroffenen gut zuhört und uns dann in die richtige Richtung da steuert." Genau, und dann haben wir uns da zusammengefunden. Ja, sehr spannend. Vielen Dank, dass wir euch lächeln durften. Ja, vielen lieben Dank euch. Gut, dann wünschen wir einen schönen Abend. Vielen Dank, Matthias. Sag mal, dass ihr uns eingeladen habt für die coole Initiative. Und Glückwunsch noch mal zu dem einjährigen. Ja, okay, macht's gut. Vielen, vielen Dank, schönen Abend. Grüße, tschau, tschau. Tschüss. Ja, ich wollte... War die letzten Wochen viel unterwegs und unterwegs packt mich dann ab und zu mal der Spieltrieb. Und da hab ich zwei Erkenntnisse gewonnen, die ich gerne mit euch teilen möchte. Ich war letzte Woche in München und ich musste an einem Bahnhof umsteigen oder da musste ich mich mehrfach aufhalten über die Tage, den ich vorher nicht kannte. Und dann hab ich so im Zug gesessen. Die Bahn hatte mal wieder unfreiwillig eine Pause eingelegt. Und dann hab ich gedacht: "Och, ich probier ja doch jetzt mal, mir vom Münchner Ostbahnhof eine Bahnhofsbeschreibung geben zu lassen, dass ich nämlich da besser zurecht finde." Und dann hab ich also ChatGPT genutzt und hab mal reingeschrieben: "Gib mir bitte eine... Einen Überblick über den Münchner Ostbahnhof und bezogen auf Barrierefreiheit für blinde Menschen. Und berücksichtige besonders den Weg von den Gleisen zum Taxistand." Ja, und ich hab tatsächlich von ChatGPT eine exakte Beschreibung bekommen, wie ich da laufen kann, und hab dann auch so meine Quellen geguckt, weil es ja dann immer die Frage: Halluziniert die KI oder nicht? Und ich hab dann festgestellt, dass ChatGPT tatsächlich einen Plan dieses Bahnhofs angeschaut hat und irgendwoher auch tatsächlich die Informationen hergenommen hat, dass da eben entsprechend Leitstreifen sind und wie weit die gehen und sowas. Also fand ich sehr spannend die Erkenntnis. Ja, und es ging dann noch weiter. Ich wollte in ein Restaurant. Ja, und dort hatte eine Speisekarte, die für uns überhaupt nicht lesbar war mit Bildern und so weiter. Dann hab ich einfach den Link dieser Speisekarte dieses Restaurants genommen und habe der KI gesagt: "Lies mir bitte die Speisekarte unter diesem Link vor." Hat funktioniert. Und ich konnte dann sogar noch Fragen dazu stellen. Ja, so mal als Tipp. Also spielt da einfach mal mit rum. Ja. Ja, mit der Speisekarte hab ich auch schon mal gemacht. Das fand ich auch ganz cool. Um mich vorzubereiten, dann konnte, wusste ich als Erster, was ich wollte, und alle so: "Hä?" Ich sag: "Ja, Leute, ChatGPT." Ja, das ist schön, wie viel jetzt mittlerweile geht. Ja. Ja, das mit dem Bahnhof, da war ich sehr skeptisch. Ja, ja, deine Bahnhofserfahrung ist klasse. Also das hätte ich hätte ich auch nicht erwartet. Aber bei dem ChatGPT du musst wirklich ganz konkrete Anweisungen reinschreiben. Also ganz klar und ja. Ja, also da tu ich mich teilweise glaub ich noch manchmal schwer. Also ich hab's noch nicht benutzt. Ich hab echt immer noch ein bissl Berührungsängste. Aber vielleicht sollte ich's tatsächlich mal ausprobieren. Probier's mal mit was... Also erstmal vielleicht mit was einfachem aus. Je genauer du's also eingrenzt, tatsächlich desto besser ist das. Du kannst auch sagen: "Mit Quellen, ohne Quellen." Also das ist schon, schon... Also ich muss es erst runterladen. und da gibt's ja die kostenlose Version, a einmal, glaub ich ja, damit kannst du gut anfangen genau, als Einsteiger aber wir können ja vielleicht mal für das wäre vielleicht ein Thema mal für den Januar Reha-Stammtisch dass wir uns da mal damit befassen, wie wie schreibt man eigentlich richtig richtige Prompts für uns ne, also man kann ja soweit gehen man kann ja soweit gehen manchmal mach ich irgendwelche Tutorials da mit ChatGPT muss man natürlich immer schön kontrollieren dass es auch das Richtige drin steht aber ich schreib dann immer eben mal als Tipp auch an jedes Ende jedes Prompts stelle mir eine barrierefreie Word- Datei zum Herunterladen zur Verfügung und dann macht er kreiert er mir tatsächlich einen Link und ich kriege das in der barrierefreien Datei ja, mhm dann kann mir das runterladen also muss es dann eben nicht im Chat lesen aber wie heißt die Datei? nein, die Datei, das mach ich über ChatGPT andere können's auch und ich sage halt erstelle mir eine barrierefreie Datei wenn ich einen Prompt geschrieben habe ja, zu irgendeinem Thema also ich hätte mir jetzt diese Bahnhofsbeschreibung hätte ich auch im hinten dran schreiben können erstelle mir eine barrierefreie Datei zum Runterladen und ja aber ich bereite das mal ein bisschen vor für Januar wenn ihr Interesse habt und dann können wir uns mal drüber austauschen mit welchen Prompts bei der Arbeit mit KI wir erfolgreich sind ja, oh ja, das wär gut Matthias, Matthias, eine Frage bist du auch viel im iPhone unterwegs mit ChatGPT? ich hab dort immer die Schwierigkeit in der Antwort zu navigieren das ist nicht schön gibt's da einen heißen Tipp? gibt's da einen heißen Tipp oder es gibt einen Tipp man kann eben im Rotor dahin kommen auf Aktion und dann kann man einfach den Text kopieren und dorthin kopieren wo man's auch lesen kann ach so, okay, das mach ich okay, aber es gibt innerhalb ChatGPT keinen feinen Weg wie ich da mal ein paar Absätze hoch wieder runter und so weiter ne, das machen die immer mal wieder also du kannst natürlich den Rotor auf zeilenweises Lesen drehen, aber es ist wirklich blöd im Moment es springt immer wieder weg oder wenn du zum Beispiel jetzt jetzt ganz ans Ende willst und du willst dann noch mal so eine Frage zusätzlich schreiben, ja, zusätzlich das ist eine ziemliche Fummelei im Moment ja, okay, also da bist du da bist du mit Perplexity, geht's mir nicht alleine geht's mir nicht alleine da bist du mit Perplexity besser, übrigens mal so ein Tipp ich weiß jetzt nicht, ob das Angebot noch aktuell ist aber wer PayPal-Nutzer ist, hat die Möglichkeit ein Jahr lang Perplexity kostenlos zu nutzen mitbekommen ja, ich mein, das wär noch bis Ende dieses Jahres dieses Angebot also das sind wirklich, kostet man die Bezahlversion von Perplexity kostet wie bei allen anderen auch 22 bis 23 Euro im im Monat und man kann das also wirklich für ein Jahr kostenlos kriegen als als PayPal-Nutzer aha und dieses und und und das Display City was was ist das? Display City ist ist eigentlich nur eine andere KI das ähnlich wie ChatGPT ist, auch ähnlich aufgebaut wir legen halt sehr viel Wert auf auf Quellennachweise und so weil ja, genau, deshalb kriegt man eben mehr Quellennachweise, dass man auch sieht wo holt sich die KI eigentlich die Informationen her, mhm, ja und ich hab, find ich, hab ich hab von einem Studierenden gehört, der hat mir erzählt, er lässt von ChatGPT die Prompts schreiben die er dann in Perplexity füttert die er dann in Perplexity füttert und und Gemini stellt dann den Text noch mal um oder wie? vielleicht vielleicht darf ich euch einen anderen Tipp geben weil der Preis ja auch für Perplexity und und ChatGPT und wie sie alle heißen relativ hoch ist guckt mal unter monica.im das ist so eine Art gebündelte KI, da die arbeitet sowohl mit ChatGPT als auch mit Perplexity als auch mit Claude und sonstiges man kann immer auswählen, was man grad verwenden möchte hat aber nur einen Monatspreis oder einen Jahrespreis und je nachdem, wofür man's grade braucht ich brauch das manchmal zum Programmieren manchmal brauch ich's eher für Texte oder sonstiges das lohnt sich dann halt da in dem Programm zwischen den verschiedenen KIs einfach wechseln zu können, ob sie jetzt GPT-5 ist oder Claude 4.5 wie war das? Monica? Monica mit c und dann AI? Ne, IM IM, genau, dann gibt's eine Free-Version da kann man dann 40 Anfragen pro Tag stellen für einen geringen also für ChatGPT 4 und und Claude 3.5 und und Deepseek und keine Ahnung was, ja aber für ich guck grad nach, für 99 Dollar im Jahr beispielsweise kann man schon 5.000 monatliche Zugriffe steuern ja, ja und ich hab weil ich das auch sowohl beruflich als auch privat nutze ich hab beispielsweise die Unlimited, ich kann ja bis hin zu Bildern damit erstellen und ich kann aber auch Vergleiche machen das heißt, wenn ich einen Prompt mache und den über ChatGPT laufen lasse und ich bin mir nicht ganz sicher, kann ich den einfach mit einem Knopfdruck der nächsten KI als Futter vorwerfen sozusagen und kann dann die Versionen auch vergleichen ja, mhm und gibt es ist das nur Internetseite oder kannst du das auch über Smartphone nutzen? das kann auch über Smartphone, da ist eine App bei ah ja, gut, das guck ich mir an ich, das nutz ich ich muss ganz ehrlich gestehen ich nutz es schon seit einem halben Jahr mhm, ja, ich muss sagen, ich nutze in in letzter, ich hab ChatGPT, hab ich und ich nutze in letzter Zeit sehr viel tatsächlich von Microsoft den Copiloten und da bin ich wirklich erstaunt was die zum Beispiel alles machen da bekommt man zum Beispiel auch die Quellen angezeigt und man hat zum Beispiel einen Schalter wo man das, was man sich hat oder die Antwort, die man dann von vom Copiloten bekommt kann man kopieren und kann das denn in ein Word-Dokument einfügen zum Beispiel und das find ich richtig klasse und ich hab damit zum Beispiel mit dem Copiloten hab ich zum Beispiel die ganzen Befehle mir gesucht die ich gebraucht habe als ich meine Maschinen umgestellt habe auf Windows 11 und das hat hervorragend funktioniert und das hat alles geklappt das war Spitze, da war ich also wirklich äußerst überrascht davon, ja ja, der Copilot Copilot ist auch besser zu navigieren als jetzt ChatGPT also im Bezug auf die Fragen, die Markus gestellt hat ja, auf jeden Fall wie ist denn mit der Monica, ist die auch gut VoiceOver-tauglich? ja, ja, das werden wir testen ich hab, ich hab grade nicht akustisch nicht verstanden, wie tauglich VoiceOver, ob ich die gut mit VoiceOver bedienen kann die Monica-App, von der du erzählst sorry, ich bin sehnt das testen wir aus also nicht zum Beispiel bei Perplexity, auch da die mag ich nicht ich komm damit irgendwie nicht klar ich, da da sind so viele Schalter und so also ich hoff mal auf Monica jetzt also wie gesagt, ich kann's nur empfehlen, weil von ChatGPT über Perplexity bis hin zu Gemini sind die aktuellsten Modelle mit drin ja, ist übrigens auch schon mal so KIs nutzen am Smartphone ja, es gibt jetzt in iOS 26.2, was jetzt Mitte Dezember wahrscheinlich noch erscheint es gibt Hinweise dass man zukünftig sich die KI mit der man arbeitet über das iPhone selbst aussuchen kann dass man also eben dort, wo wir jetzt den Power-Button gedrückt halten und dann die Siri hören und so weiter da kann man dann zum Beispiel auch Gemini drauflegen das ist jetzt glaub ich in Japan haben sie damit angefangen und mussten es machen aufgrund von Regularien und ich denke, dass das in der EU auch kommt dass man sich dann die KI mit der man dort arbeitet, aussuchen kann ja das ist schon schwierig, ne ja, das können wir dann ja mal weil ich wollte dich auch noch aber das können wir dann ja mal im Januar vertiefen weil es ist glaub ich schon noch am besten wenn man ein bisschen weiß wonach man fragt weil man darf sich nicht wortwörtlich blind einfach auf das verlassen was die so behauptet ne, genau, ich bereite das mal so ein bisschen vor ja, und dann dann machen wir das mal so vielleicht als Schwerpunkt- Thema im Januar habt ihr sonst noch Ideen, was man an an Themen die man noch angehen könnte, ja ja, ich find das auch sehr gut mit dem mit der KI was du eben sagtest, Matthias was wenn du das vorbereitest sehr gut, ne, ich hatte heute nichts mehr, ja ja, ich find das KI-Thema auch super vielleicht auch ganz interessant ein kleinen Überblick die bekanntesten Modelle und was die jeweils für eine Ausrichtung haben also was denn der Schwerpunkte sind von denen weil ich find's auch wahnsinnig schwer zu entscheiden welche soll ich denn verwenden ja, gibt ja jetzt schon manche Apps, die die Auswahl ermöglichen ja, du kannst hier dein KI-Modell aussuchen und dann die mir am PC wär auch interessant, wie man's da macht, also nicht nur am iPhone ja, hmm, ja, okay, das machen wir, das gut, mhm das nächste Mal, das ist ja wieder sind ja wieder Windows-Themen dran dann machen wir dann mal was zu also was jetzt eben neue Erneuerungen in den Screen- Readern für Windows was was es Erneuerungen gibt in JAWS NVDA und Narrator und so aber so oder so es ist Dezember es ist der 17.12., aber wir machen trotzdem ja, wir machen, was das angeht, keine Weihnachtsfeier nein, wir, genau, wir machen das wir machen das so und ich hab da zwar schon Urlaub aber den Reha-Stammtisch mach ich trotzdem ja, wir wir bringen alle Glühwein mit, außer Matthias weil der muss ja reden und Plätzchen, ich dachte, der muss fahren ja, hab ich auch gedacht wir gucken und Plätzchen sind auch dabei wie ist das eigentlich mit diesem mit diesem neuen, also mit iOS, ach, wie heißt das jetzt 26 ja, das ist es eigentlich immer noch so dass die Tastatur da nicht richtig funktioniert also also diese Rückmeldung diese Tonrückmeldung weil ich freu mich immer noch ein bisschen davor, da abzudaten, weil es da ja doch die eine oder anderen was genau meinst du? ja, na viele berichten, haben irgendwie am Anfang so berichtet dass die Tastatur nicht mehr so Klickrückmeldung gibt, wenn man, wenn man wenn man schreibt, die Telefon-Tastatur und so das war beim das war beim Anmelden, das das geht aber wieder das geht wieder, das ist alles wieder also das ist alles da können wir mittlerweile bedenkenlos auf die 26 upgraden, ja, ich hab auch 26.1 also also was was ich festgestellt hab im Internet dass wenn ich auf auf einer Seite bin und ich geh praktisch, ich klick einen Link an, dann krieg ich diese Töne immer beziehungsweise VoiceOver steigt dann noch mal kurz aus und kommt aber dann irgendwann wieder mhm, das sollte jetzt in der 26.2 auch behoben sein, also ich hab's jetzt schon bei bei mir ist es, Mensch, ich hab die neueste ja, das ist diese ich hab, ich hab ja die Beta-Version, du hast die 26.1 ich hab jetzt die die 3. Version 3. Beta-Version von 26.2 und da kommt dieses Problem nicht mehr vor ja, dann vielleicht einfach einfach warten, bis das 26 Punkt 2 da ist, das ist ja nicht mehr so lange das, das ist, das kommt mit also Anfang, Mitte Dezember wird das noch kommen, vorher oh ja, ja ja, warte ich auch noch auf die 26.2, ich update von der 18, ja ich hab jetzt sogar schon auf meinem auf meinem SE 2022 hab ich's am Montag oder Dienstag hab ich's auch dann drauf gemacht und da läuft's auch gut nur was ich festgestellt hab, manchmal ich hab als Stimme hab ich die Siri-Stimme 2 diese männliche Stimme weil alles andere war ziemlich fehlerhaft und was ich festgestellt hab, manchmal ist die ist die Sprache ein wenig dann kommt die so ein Bruchteil später als man zum Beispiel beim Anmelden dieses von diesem Klickgeräusch das kommt manchmal ein bisschen versetzt später an, das ist mir also deutlich aufgefallen gegenüber dem iOS 18 also hmm, ich weiß auch nicht woran ja gut, aber das, was für SE hast du gesagt? ne, ne, ne, ich hab, ich hab 3 iPhones okay, das hier ist, ich hab 16 Pro Max mhm, okay, und da ist es auf dem 16 Pro Max da ist es auch aber ich hab mir es, also für mich wär's wahrscheinlich dann noch eher problematisch, weil es ja dann wahrscheinlich auch technisch nicht mehr so leistungsfähig ist was hast du? SE 20 hab ich mir gekauft, das ist es das SE 20 ist gekommen, ist das könnte so langsam aber sicher tatsächlich ein bisschen Performance- Performance-Probleme bekommen weil ich hab mir halt ich wollt mir ja eigentlich im Frühjahr das neue SE kaufen, das dann nicht kam deshalb hab ich mir eigentlich nur das gekauft so quasi als Übergang von Winter zum Frühjahr ja, um dann festzustellen, dass jetzt das 16 SE da ist und ich jetzt aber auch und jetzt hab ich mir aber auch gedacht, wenn jetzt lassen sie mal dieses diese App doch der große Knaller werden und dann wer ist jetzt blöd ich kauf mir jetzt ein iPhone und dann stell ich nächstes Jahr fest das war das falsche also wart ich lieber noch ein bisschen ja gut, gibt es noch weitere Themen, Fragen, Ideen? Ja wenn das nicht der Fall ist dann können wir den Schrank zumachen dann ja, wünsch ich euch einen schönen Abend und eine gute Zeit bis zum, ja nächsten, bis zum 17. Vielen Dank fürs Zuhören habt ihr Fragen zu den heutigen Themen oder Anregungen für künftige Stammtische schreibt Matthias gerne eine E-Mail an k.schaefer @papenmeier.de Schäfer mit ae und erinnert euch unsere Stammtische finden immer am 3. Mittwoch im Monat statt wobei wir zwischen Apple und Windows-Themen wechseln bis zum nächsten Mal bleibt neugierig und technisch auf dem Laufenden bis zum nächsten Mal