Papenmeier Reha Stammtisch vom 19.11.2025
27.11.2025 108 min
Video zur Episode
;
Zusammenfassung & Show Notes
In der November-Ausgabe des Reha-Stammtischs feiert das Format sein einjähriges Jubiläum. Moderator Karl Matthias Schäfer teilt aktuelle Entwicklungen aus der Apple-Welt und stellt die Gäste Anika Watzka und Yamen Mohisn von SmartAI vor. Die beiden Geschäftsführer präsentieren ihren innovativen räumlichen KI-Assistenten, der blinden und sehbehinderten Menschen bei der Navigation und Orientierung hilft. In einer lebhaften Diskussion mit den Teilnehmern werden verschiedene Aspekte wie Hardware-Optionen, Personalisierungsmöglichkeiten und Herausforderungen mit KI-Systemen erörtert.
Titel: Reha-Stammtisch November 2025 - Apple Edition: "Räumliche KI-Assistenz für blinde und sehbehinderte Menschen"
Datum: 19.November 2025
Referenten:
- Karl Matthias Schäfer (Moderator, Papenmeier RehaTechnik)
- Anika Watzka (Geschäftsführerin, SmartAI)
- Yamen Mohisn (Geschäftsführer, SmartAI)
Inhalte im Detail:
Jubiläum und Einführung
- Feier des einjährigen Jubiläums des Reha-Stammtischs mit 12 Ausgaben (6x Windows, 6x Apple)
- Matthias berichtet über seine Gastauftritte im "Apfelpfleger Podcast" und im Pro Retina Podcast "Blind verstehen"
- Vorträge im Rahmen der "Woche des Sehens" zu iOS 26 und der neuen BRAILLEX-Braillezeile von Papenmeier
Apple-Neuigkeiten
- Vorstellung neuer iPad Pro und MacBook Pro Modelle mit leistungsfähigeren Chips
- Diskussion über Apples Auseinandersetzung mit der EU bezüglich des Digital Market Act
- Ankündigung: WhatsApp ermöglicht bald zwei Accounts auf einem Gerät
SmartAI und räumliche KI-Assistenz
- Vorstellung des räumlichen KI-Assistenten von SmartAI für blinde und sehbehinderte Menschen
- Unterschied zu herkömmlichen KI-Assistenten: räumliches Verständnis der Umgebung
- Funktionsweise: Erkennung von Objekten in der Umgebung und Navigation durch Vibration
- Aktuell für iPhone (Pro-Modelle), später auch für Nicht-Pro-Geräte und perspektivisch für Android
Diskutierte Funktionen und Anwendungsbereiche
- Letzte-Meter-Navigation: Führung zum genauen Ziel nach GPS-Navigation
- Objekterkennung und -beschreibung in der Umgebung
- Steuerung durch Sprache und Vibrationsfeedback
- Internetverbindung erforderlich für KI-Funktionalität
Hardware-Optionen
- Aktuelle Nutzung: Smartphone in der Hand
- Diskutierte Alternativen:
- Brusttasche/Brustbeutel für das Smartphone
- Smart Glasses mit integrierter Kamera
- Externe Kamera mit verschiedenen Befestigungsmöglichkeiten (Clip, Magnet, Stirnband)
Personalisierung und Nutzererfahrung
- Diskussion über verschiedene Nutzerbedürfnisse je nach Seheinschränkung
- Vorschlag für Profile nach Informationsbedarf statt nach Krankheitsbild
- Situationsabhängige Einstellungen (bekannte vs. unbekannte Umgebung)
- Optionen für Vibration und/oder Ton-Feedback
Herausforderungen mit KI
- Konsistenzprobleme bei KI-Updates durch Drittanbieter
- Datenschutz und Umgang mit Bilddaten
- Kosten für Bildanalyse und Live-Funktionalität
- Perspektive: Mögliches Abomodell mit kostenloser Basisversion
Zukunftspläne
- Integration von Navigation
- Entwicklung verschiedener Hardware-Optionen
- Verbesserung der KI-Konsistenz durch spezialisierte Trainingsdaten
- Langfristig mögliche Kassenzulassung als Hilfsmittel
Der Papenmeier Reha-Stammtisch findet jeden dritten Mittwoch im Monat statt und wechselt zwischen Apple- und Windows-Themen. Jeder ist herzlich eingeladen teilzunehmen!
Nächster Termin: 17. Dezember 2025 (Windows-Edition)
Transkript
Hallo, herzlich willkommen beim Reha-Stammtisch,
wo Technologie auf Erfahrung trifft und digitale
Teilhabe lebendig wird.
Hallo, ihr Podcast vom Papenmeier RehaTechnik,
moderiert von Karl Matthias Schäfer.
In unserem November-
Stammtisch feierten wir das einjährige Jubiläum
des Formats mit 12 erfolgreichen Ausgaben.
Als Gäste
begrüßten wir diesmal die Geschäftsführer von Smart
Eyes, die ihre innovative
KI-basierte App
zur Orientierungshilfe für blinde und sehbehinderte
Menschen vorstellten.
Die App ermöglicht es,
Objekte in der Umgebung zu erkennen und Nutzer
durch Vibration
zu ihnen zu leiten.
Im Gespräch wurden auch die neuesten
Apple-Entwicklungen diskutiert,
darunter die Vorstellung neuer iPads
Pro und MacBook Pro Modelle,
sowie Apples anhaltende Auseinandersetzung mit der EU
über die Umsetzung des Digital Markets Act.
Der Reha-Stammtisch findet jeden 3.
Mittwoch im Monat statt,
abwechselnd als Windows- oder Apple-Edition.
Lassen Sie uns nun gemeinsam in die Runde starten.
Bis bald!
Ja, herzlich willkommen
zum Reha-Stammtisch im November.
Und gerade im Monat heißt
heute sind wieder Apple-Themen dran.
Und vorab: Wir haben heute ein bisschen was zu feiern.
Der Reha-Stammtisch wird nämlich heute ein
Jahr alt. Ja, oh cool! Ja, 12 Ausgaben, 6 mal Windows,
6 mal Apple
und Smartphone-Apps und so weiter.
Und ja, öfters
interessante Gäste,
immer ganz vielfältigen Austausch.
Macht einen Riesenspaß, dieses Format moderieren zu dürfen.
Und ja, vorab schon mal die Ankündigung für heute:
Heute haben wir wieder zwei sehr interessante Gäste,
nämlich die Geschäftsführer von Smart
Eyes, von der Firma Smart Eyes,
die dann uns über ihre neuen Projekte später berichten.
Ja, ich möchte noch darauf hinweisen:
Wir lassen den Warteraum jetzt noch auf,
und da ja in ungefähr in 15 Minuten
schließen wir den Warteraum.
Dann kann es, wenn jemand rausfliegt, ein bisschen dauern,
bis er eingelassen wird und so.
Ja und etwas ist inzwischen passiert:
Es gibt ein paar
interessante
Auftritte. Leute, die bei uns waren,
haben eben auch mich als Gast eingeladen.
Ich war also jetzt einmal
beim Jürgen Pfleger im die
im Apfelfleger Podcast.
Und wer sich eben noch mal für die
Nutzung mit von iPhone
und BRAILLEX und die neuen Braillfunktionen
interessiert, der kann
in der letzten Ausgabe des Apfelflügel Podcasts
hier einiges von mir hören.
Und dann war ich noch zu Gast in
im Podcast "Blind verstehen".
Das ist der Podcast der Pro Retina.
Und da hatten wir eine sehr interessante Diskussion.
Die hat sich nicht nur um Technik gedreht,
aber auch überwiegend,
und zwar: Nach welchen Kriterien
entscheide ich mich
für das für mich passende Hilfsmittel?
Haben wir eine sehr interessante Dreierdiskussion gehabt,
und ist ja auch ein Thema, die für uns als Blinde,
Sehbehinderte
immer wieder wichtig ist.
Und ja,
also ist der Podcast "Blind verstehen".
Beide findet ihr,
wenn ihr den jeweiligen Titel ins Suchfeld eingebt
von eurem Podcatcher.
Ja, dann gibt's noch zwei Vorträge von
mir im Rahmen der Woche des Sehens,
die dann auch bald
online gehen, veröffentlicht werden.
Einmal
habe ich hier die neu noch mal einen Überblick gegeben,
einen ausführlichen über die Neuerung für iOS
26, die für uns relevant sind.
Und in einem zweiten Vortrag
die neue BRAILLEX der Firma Papenmeier vorgestellt.
Das waren so die Online-Auftritte.
Ja, ansonsten
hat sich in der Apple-Welt in den letzten Wochen
nicht so viel getan.
Es wurde
neues iPads Pro und neues MacBook Pro vorgestellt
mit einem neuen Chip,
ja, der leistungsfähiger ist als das, was wir
als normalen Nutzer jemals brauchen.
Aber auch hier geht eben
die Entwicklung immer weiter. Ansonsten
dürfte es mit den Neuvorstellungen
das in diesem Jahr gewesen sein.
Ich denke nicht, dass jetzt noch was kommt,
weil jetzt werden ja die ganzen Rabattaktionen,
Black Friday
und dann das Weihnachtsgeschäft mitgenommen.
Also ich rechne in diesem Jahr
nicht mehr mit neuen Geräten.
Ansonsten
streitet sich Apple
momentan weiter
mit der EU um den
die Umsetzung des Digital Market Act.
Hier geht es überwiegend darum,
dass Apple sein System öffnet
und eben auch anderen Herstellern mit Zusatzgeräten
die gleichen Rechte gewährt wie sich selber.
Und ja, da kann man einfach geteilter Meinung sein.
Auf der anderen Seite kann man sagen,
klar, ich möchte meine
Huawei-Kopfhörer oder was auch immer genauso
privilegiert eben
verbinden
zwischen Geräten wie eben Apple AirPods und so weiter.
Aber Apple argumentiert eben,
wenn wir das machen,
dann müssen wir
unsere Schnittstellen soweit öffnen,
dass da auch eventuell Sicherheitsrisiken
bestehen. Geht dann auch viel um Datenschutz und Apple hat jetzt einen offenen Brief
an die EU-Kommission gerichtet.
Und hier mal aufgezeigt,
dass zwischen dieser Öffnung,
die gefordert wird,
und gleichzeitig den Bemühungen um
den Schutz der Nutzer und
größere Diskrepanz vorliegen.
Und hier ist man also in einer harten Diskussion.
Das werden dann am Ende die Gerichte
entscheiden, was Apple hier tun muss.
Für uns ist es insofern relevant,
dass es hier eben
durchaus zu einer
komplizierteren Nutzung kommen kann, wenn man einfach
bestimmte Dinge halt im
in der Anwälteprozesse
und so weiter für Geräte oder Accounts
noch bewältigen muss.
Das muss man übersehen.
Aber ich fand das einfach sehr spannend.
Ich hab mich mal damit auseinandergesetzt
und mir heute mal die neuesten
Berichte geben lassen, hab
hier eine KI zur Hilfe genommen
und habe dann gefragt,
wo denn jetzt die Nachteile hier liegen können,
wenn das
Apple sich öffnet. Und dann kam sofort, dass
es durchaus im Sinne der Barrierefreiheit hier
zu Veränderungen kommen könnte.
Ja, fand ich spannend,
dass mich eine KI da drauf hinweist.
Aber wie gesagt, das ist alles
noch nicht in trockenen Tüchern.
Das wird sich durchaus
denke ich noch ein, zwei Jahre hinziehen.
Ja.
Ja, dann hab ich heute auch was Interessantes erfahren
für die Leute,
die mit mehreren Handys unterwegs sind.
Es wird jetzt in den nächsten Wochen freigeschaltet,
dass man
in WhatsApp auf einem Gerät zwei Accounts verwalten kann.
Ja, ja.
Ist für mich
war eine sehr, sehr gute Nachricht,
weil das verhindert für mich ein bisschen,
dass ich mit zwei Handys rumlaufen muss,
eben einmal privat und im
ehrenamtlichen Engagement
und gleichzeitig eben dienstlich.
So, was haben wir hier noch?
Ja,
sonst gibt es im Moment eigentlich
nichts Neues. Wenn noch jemand was hat,
kann er das ja später in der Diskussion
gerne noch einbringen.
Und dann begrüße ich jetzt mal unsere Gäste,
die beiden Geschäftsführer von Smart Eyes,
eine Firma, die sich
sehr stark
bemüht, ein geeignetes
Hilfsmittel für Blinde auf den Markt zu bringen,
das eben
mit iPhone genutzt werden kann.
Es ging zunächst mal um
ein Hinderniserkennungssystem und
geht eben jetzt im Wesentlichen um eine Entwicklung
einer KI für diesen Bereich.
Und ja, ich begrüße in dem Zusammenhang
die Anika Watzka und
den Yamen
ja,
ja.
Ja.
Mohisn heißt du, ne? Genau, richtig, richtig.
Vielen lieben Dank.
Ja, wollt ich mal vorher noch fragen, wie
dein Name ausgesprochen wird,
weil ich, weil der Nachname ausgesprochen wird.
Ja, und der Yamen und ich,
wir hatten uns letzte Woche in München
getroffen und so.
Also für mich war das ein
extrem inspirierender Abend gewesen
und auch
ich bin da total glücklich raus aus dem Gespräch,
weil es, ich's natürlich toll finde, wenn Menschen
unsere Bedürfnisse erkennen und einfach sagen:
So, ich will in dem Bereich was machen.
Und die sind dann halt eben richtig mit Herz und Power
dabei. Also das hat mir
irre gut gefallen,
unser Gespräch. Und
ja, jetzt übergebe ich mal an euch beide.
Ja, vielen, vielen lieben Dank, Matthias.
Und bevor ich da mit der Vorstellung anfange,
will ich mich herzlich bedanken
bei dir, Matthias, und bei dir,
Dagmar, dass ihr uns eingeladen habt. Und
herzlichen Glückwunsch zum einjährigen.
Richtig tolle Initiative.
Das ist sehr wichtig, dass wir da zusammenkommen,
dass wir diskutieren,
dass wir wissen, was die Leute betroffen brauchen,
dass man
das Richtige dann entwickelt und auch auf den Markt
bringt. Deswegen vielen lieben Dank dafür.
So, ich würde sagen, ich beginn
mit einer kurzen Vorstellung zu Smart Eyes,
wer wir sind, was wir aktuell machen,
wo es hingehen sollte aus unserer Sicht und was
wir von euch bislang wissen.
Und danach würde ich sagen,
wir machen eine Diskussionsrunde,
wo wir gerne von euch auch hören, was ihr davon
haltet, was ihr gerne hättet,
was euch am Herzen liegt.
Und da gerne dann auch richtig offen,
kritisch, direkt.
Das ist das, was für uns super wichtig ist.
So, also wir sind Smart Eyes,
ein junges Unternehmen aus München.
Ihr kennt
uns vielleicht bisschen von der Hinderniserkennung.
Ja, genau.
Wir entwickeln gerade einen räumlichen KI-Assistenten
im frühen Entwicklungsstadium.
Was macht der räumliche KI-Assistent?
Was heißt räumlich überhaupt?
Wir kennen ja sehr viele KI-Assistenten wie BeMyEyes,
auch ChatGPT und Gemini,
wo ich Fragen zu meiner Umgebung stelle:
Wo ist denn der Eingang?
Beschreibe mir die Szene.
Das alles schön und gut.
Aber die hat kein räumliches Verständnis.
Was wir sehr oft gehört haben von euch ist:
Hey, ich komm mit GPS
zu der Location, es sagt mir, du bist angekommen,
du hast dein Ziel erreicht.
Da ist die Arztpraxis,
obwohl ist nicht wirklich der Eingang.
Wo ist denn die Bushaltestelle?
Wo ist denn das Gleis Nummer 20?
Wo ist die Anzeigetafel? Wo ist, wo ist?
Wo ist? Das wissen wir alles nicht.
Und die aktuelle App,
obwohl sie auch da im frühen Entwicklungsstadium ist,
die gibt Informationen wie:
Die Hausnummer 20 ist 5 Meter auf 1 Uhr.
Der Eingang von dem Supermarkt ist auf 3 Meter,
11 Uhr. Und dann kann man fragen oder sagen:
Leite mich dahin. Und dann wird man dahin geleitet
mit Vibration,
wie das Kinderspiel
heiß und kalt.
Wenn man richtig läuft, dann wird's stark vibrieren.
Wenn es
wenn man nicht richtig läuft, wird es
schwächer vibrieren.
Das Coolste dabei ist, man kann nach beliebigen Sachen
fragen. Das heißt,
man hat keine Liste von bestimmten Objekten,
Schlüssel, Tisch, Stuhl, Tür.
Man kann da wirklich beliebige Fragen stellen.
Wir waren heute auf dem ABSV
Hilfsmittelausstellung und da hat jemand gefragt:
Wo ist mein Mann
mit der orangenen Jacke?
Und so richtig spezifisch.
Und dann wird man genau dahin geleitet.
Ja,
da sind wir aber auf jeden Fall sehr früh noch dran
in der Sache.
Wir haben von der Community sehr viel gehört.
Ich freu mich auf jeden Fall auch heute zu sehen,
dass in der
Teilnehmerliste sehr viele von unseren Nutzern
drin sind. Und ich freu mich später auf offenes,
ehrliches, kritisches Feedback auch
zu der aktuellen App und auch
wo es hingehen soll.
Eine Sache, die vielen am Herzen liegt,
das wissen wir,
haben wir heute von der
Hilfsmittelausstellung in Berlin mitbekommen,
aber auch von unseren Nutzern:
Thema Navigation.
"Ja, Smart Eyes, ihr löst gerade die letzte Meile.
Navigation ist schön, die letzten paar Schritte,
aber die Navigation ist noch nicht gelöst.
Wie wär's damit, Navigation zu integrieren?"
Das sehen wir.
Eins möchte ich hier betonen:
Wir wollen das entwickeln, was ihr wollt.
Wir richten uns nach euch.
Das heißt, wir haben auch eine Community,
wir holen Feedback von euch.
Deswegen ist es uns wichtig, auch euch
so schnell wie möglich die App
oder das Hilfsmittel im
frühen Entwicklungsstadium zu geben,
dass ihr von Anfang an sagt:
Leute,
das ist die richtige Richtung oder das ist die falsche.
Andere Sachen haben wir gehört.
Ich geb einfach das so in die Runde,
dass ihr wisst, wirklich wo wir stehen.
Viele sagen:
"Ja, ich will das Handy nicht in der Hand halten.
Ich will eine Brusttasche."
Natürlich fair und berechtigt.
Und das nehmen wir auch als eine Prio.
Viele sagen:
"Ich will weder in der Hand noch mit der Brusttasche.
Ich will Smart Glasses."
Wie wär's damit zu integrieren?
Andere sagen, was auch super wichtig ist:
"Ich will nicht die ganze Zeit
ein neues Bild machen und fragen:
Hab ich jetzt den Hauseingang erreicht?
Hab ich jetzt den Eingang erreicht?
Ich will einmal sagen:
Schau die ganze Zeit und wenn
wenn du den Eingang siehst, sag mir Bescheid."
Das sehen wir auch als mögliche Zukunft,
Erweiterungen oder Personalisierungen
und so weiter.
Also das sind
Sachen, die wir für die Zukunft sehen
als Erweiterungen von der aktuellen Version.
Genau, das ist, wo wir gerade stehen.
Man kann es im Außenbereich nutzen,
man kann es aber auch im Innenbereich, egal
wo man ist, am Hauptbahnhof, bei einer Einrichtung,
in der Arbeit
oder zu Hause, wenn man
paar Sachen finden will.
Genau, aber auch genauso im Außenbereich,
Bushaltestelle oder der Busrichtung,
irgendetwas, Gleis, Anzeigetafel, solche Sachen.
Ja, genau. Wir sind gerade, wie gesagt, in der Test-,
Testphase. Wir suchen nach Mitgestaltern,
die die App testen bis zum Limit
und sagen, was
nicht funktioniert und was da gemacht werden soll.
Das ist es jetzt kurz gesagt, kurz beschrieben. Ich
halts auch so kurz.
Und ich würd sagen, wir starten mit einer
Diskussionsrunde.
Ihr könnt gerne Fragen stellen.
Ich würde mich auch super freuen
von unseren Testern,
die gerade auch in der Teilnehmerliste
sind,
mitzubekommen, wie eure Erfahrung war,
auch wenn die schlecht war.
Also bitte da direkt und ehrlich sein,
weil das ist genau das, was uns hilft. Und wir
wir wollen die komplette Transparenz auch halten,
weil das entwickeln wir Schritt für Schritt
dann zusammen.
Genau. Also ich geb es gerne in die Runde. Gerne
könnt ihr die Hand heben oder einfach mal
reden, Fragen stellen, Feedback geben,
alles, was ihr möchtet. Bedürfnisse,
was euch am Herzen liegt, was ihr denkt, sollen
wir mitbetrachten. Ja.
So.
Haben wir erste Fragen? Evi?
Ja, genau. Evi, du hast eine Frage. Du...
Hallo, jetzt bin ich da. Ich hab bloß den Button
gesucht, dass ich mein Audio
aufheben kann, praktisch,
also die Stummschaltung aufheben.
Jetzt bin ich zu hören, oder?
Ja, perfekt. Ja, ich hab die Frage, und zwar:
Ist es
von der Örtlichkeit egal, wo man ist,
oder muss man da erst
ich sage jetzt da
das irgendwie einprogrammieren, die
die Orte und die Hindernisse und
und das alles?
So, also das ist eine super Frage.
Und das spaltet sich in zwei Sachen.
Das Erste: Es hängt nicht von der Örtlichkeit ab, also
du kannst es überall nutzen.
Man muss wissen,
es hängt da nicht von GPS oder Lokalisierung
ab. Es hängt nur davon ab, was das Handy
durch die Kamera sieht.
Ich geb ein Beispiel: Das heißt,
du stehst irgendwo auf dem Gehweg,
suchst nach dem Eingang für den Supermarkt.
Okay, du machst ein Bild.
Wenn der Eingang in dem Bild drin steht,
dann sagt es:
"Ja, der Eingang ist 5 Meter auf 1 Uhr.
Soll ich dich dahin leiten?"
Wenn der Eingang nicht auf dem Bild ist, sagt es:
"Ich sehe da keinen Eingang.
Willst du dich bisschen nach rechts
oder links drehen und neues Bild machen?"
Das heißt, du kannst es überall nutzen, aber es muss gesehen
werden in dem Bild.
Thema Hindernisse:
Es hat keine Warnung vor Hindernissen.
Genau. Man kann aber schon fragen:
"Ja, okay, du hast mir gesagt, wo der Eingang ist.
Gibt es da etwas auf dem Weg?"
Dann bekommt man nur sprachlich beschrieben:
"Ja, es gibt einen E-Scooter oder es gibt einen Baum auf dem Weg,
pass auf." Aber es gibt
keine
Warntöne die ganze Zeit,
die um die Hindernisse herum begleiten.
Ja, und das
Smart Eyes, das
verwendet man ausschließlich mit Kopfhörer
wahrscheinlich?
Ist wahrscheinlich am sinnvollsten?
Also aktuell geht's mit Vibration.
Man braucht auch keine Kopfhörer.
Man kann's in der Hand halten,
normal reden. Audio-
Antworten kommen durch Lautsprecher,
und man wird mit Vibration geleitet.
Später, wenn es mit der Brusttasche kombiniert wird,
dann wahrscheinlich auch Kopfhörer,
entweder Knochenschall oder AirPods oder was man hat. Ja.
Ja, okay, danke schön. Genau.
Ich muss noch erwähnen: Wir sind aktuell auf iPhone.
Wir wollen es erstmal gut gestalten auf iPhone,
dass dann mehr Wert entsteht. Und dann
würden wir es perspektivisch auf Android
bringen. Aber erstmal der Fokus ist auf iPhone.
Hier ist Angela. Ich hab mal noch eine Frage dazu,
zu
ja, wie ist das für Hörbehinderte?
Also ich bin hörbehindert und ich hab Hörgeräte
und ich verbinde mein iPhone
mit den Hörgeräten.
Das ist ja eine App oder ist das ein extra Gerät?
Das ist eine App. Und wie es mit Hörgeräten ist,
ich will die Frage weiterleiten an meine Mitgründerin
Anika. Anika,
du hast dich bisschen beschäftigt mit den
Hörgeräten und
Media-Steuerung.
Ja, ja genau. Also mit den, also
mit den Hörgeräten geht
es gerade in dem Sinne sehr gut,
weil wir Personen ja mit,
Also wir leiten euch mit Vibration ans Ziel.
Mit dem nächsten Update
können wir euch aber auch
ja
genau dann eben bald durch Töne ans Ziel leiten.
Die Mediensteuerung, was Jan gerade erwähnt hat,
läuft normalerweise über die Hörgeräte,
je nachdem welches Modell Sie da haben, aber
und die Erfahrung,
die wir jetzt gemacht haben mit einigen Testerinnen,
war auch,
dass es eine Mediensteuerung gibt auf manchen Hörgeräten.
Natürlich kommt dann dazu die Frage,
die ich Ihnen dann stellen müsste,
ob es verschiedene Tonfrequenzen gibt, die Sie
nicht so gut hören.
Da müssten wir uns dann auf
einstellen und
Ihnen sozusagen bestimmte
personalisierte Töne anbieten. Okay.
Aber Sie haben ja gesagt, dass das auf einer
mit einer App läuft.
Und die App hab ich ja dann aufm iPhone.
Ja genau, die App haben Sie auf dem iPhone, genau.
Das heißt, wenn ich
wenn ich meine Hörgeräte mit dem iPhone verbunden habe,
kommen die akustischen Geschichten
über die App vom iPhone?
Ja, perfekt, wenn Sie Ihre zu meinen Hörgeräten...
Ja, das ist mir nämlich wichtig,
dass ich die Hörgeräte,
also dass ich sozusagen,
wie ich's jetzt auch mache,
mit dem iPhone verbunden habe
und dass alles andere eben über die App läuft.
Weil Sie eben gesagt haben Lautsprecher.
Also gibt es noch einen zusätzlichen Lautsprecher
oder ist der Lautsprecher vom iPhone?
Das ist einfach nur der vom iPhone, genau.
Also wenn Sie sich mit denen...
Sag ich mal ja,
missverständlich ausgedrückt. Genau also, wenn
Sie Ihre Hörgeräte direkt mit dem iPhone verbinden,
dann sollte das so passen.
Ah ja, okay, ja.
Genau, gibt es weitere Fragen?
Weitere Fragen, Wünsche?
Ja, ja, ich würde es gerne mal testen.
Ja, sehr gerne.
Sehr gerne, wir schicken mal eine
unsere E-Mail-Adresse hier in den Chat.
Ja, die heißt hallo
at SmartAIs. SmartAIs geschrieben Smart
A-I-S Punkt DE.
Und einfach uns gerne eine E-Mail schicken oder ja,
gerne die E-Mail von euch mal schicken
auch in den Chat und wir kontaktieren euch.
Das, das geht ja, also wer, wer mit
wer mit dem Chat nicht klarkommt,
der kann die E-Mail-Adresse
dann auch über meine Mail-Adresse
die ja auch abfragen dann, wenn's... Genau.
Ne, also wenn ihr
wenn ihr Matthias schreibt auch und Matthias,
du
sei bitte sehr nett und schickst uns das weiter dann.
Genau, dann fügen wir euch auch auf jeden Fall in
die Tester-Community
und bekommt auch die App auf jeden Fall.
Das freut uns natürlich sehr dann, ja, ja, okay.
Voraussetzung sind aber Pro-Geräte, ne?
Aktuell ja.
Wir sind aber sehr zuversichtlich, dass es spätestens
im Januar auf
Nicht-Pro funktioniert.
Wenn ich Nicht-Pro sage,
da gehe ich erstmal davon aus,
dass es iPhones sind, die zwei Kameras haben.
iPhone SE mit einer Kamera,
das ist immer noch eine große Herausforderung.
Ja.
Weitere Fragen, Wünsche?
Feedback, Kritik?
Hallo, hallo Herr Hartenberg aus
Nürnberg, ich habe mal eine Frage.
Wenn das iPhone in der Brusttasche ist,
dann müsste es ja mit Sprachsteuerung gehen
normalerweise. Dann weiß ich nicht...
19 Uhr 22, genau.
Mit Sprachsteuerung.
Also im Prinzip redet ihr die ganze Zeit
mit der App.
Ihr hört euch direkt.
Sobald es dann in der Brusttasche ist,
würden wir dann sowas,
was wir auch bei der Hinderniserkennung
zum Beispiel auch gemacht haben,
einfach so einen Prompt oder einen Sprachbefehl zu Siri
hinzufügen,
so dass ihr SmartAIs einfach so aufrufen könnt,
so dass ihr dann gar nicht mehr die
das Handy irgendwie aus der Tasche nehmen müsst.
Ja, ja, genau, das
funktioniert ja jetzt im Moment noch nicht, oder?
Ja, mit der Sprachsteuerung.
Also Sprachsteuerung, das auf jeden Fall.
Also ihr sprecht mit SmartAIs ganz normal gerade.
Und das Ganze im Handy zu haben funktioniert,
in der Tasche zu haben
funktioniert aktuell noch nicht,
weil wir eben die Interaktion über
Töne noch nicht haben,
sondern wir leiten euch eben noch mit Vibrationen.
Ja, okay, danke schön.
Ja, wie würde das für das für das
E, dieses neue aussehen für dieses, ach wie heißt das,
iPhone?
Was hab ich den Namen vergessen? Gibt's denn das?
Ja, das was im SE der Nachfolger ist quasi.
16 E, genau das 16 E. Würde das, hat das zwei Kameras?
Würde das funktionieren? Ich weiß gar nicht genau. Ja.
Wird wahrscheinlich noch nicht funktionieren.
Braucht ihr...
Also ihr braucht wahrscheinlich noch den Lidar-Scanner.
Ne, mit, mit, mit...
Also wenn es zwei Kameras hat...
Also iPhone Pro hat Lidar-Scanner,
da funktioniert's am besten.
iPhones mit zwei Kameras würden auch gehen
demnächst, in den nächsten paar Monaten.
iPhone nur mit einer Kamera,
dieses iPhone R oder SI oder X,
da geht's grad nicht, ne? Ja, also
das 16 E wahrscheinlich auch nicht.
Ja, genau, ich hab grad nachgeschaut,
das hat auch nur eine Kamera,
das 16 E tatsächlich. Ja, ja.
Richtig, richtig. Weitere Fragen?
Ja.
Könntet ihr euch gut vorstellen, was die App da macht,
wo es zu nutzen ist oder genutzt werden kann, oder
ist es nicht so klar?
Macht das Sinn,
dass wir euch noch ein paar Beispiele nennen,
damit man sich das noch ein besser,
ein bisschen besser vorstellen kann?
Ja, auf jeden Fall.
Ja, ja, wir können mal schauen.
Wir hatten ja das... Ja, da wär ich auch...
Okay.
Also ich glaub, so ein klassisches Beispiel ist irgendwie,
Google Maps sagt mir, ich hab mein Ziel,
oder sie haben ihr Ziel erreicht.
Ja, und dann ist es...
Sind da aber eigentlich noch 10 oder 20 Meter,
bis man dann den Eingang wirklich erreicht,
den man bei Google Maps eingegeben hat. Ja.
Da könntet ihr dann also SmartAIs anschalten,
die Umgebung scannen und
und dann sagen, wo zum Beispiel ist die Hausnummer 20,
sagen wir jetzt mal.
Und da könntet ihr
euch dann zur Haus, zum Hauseingang leiten lassen.
Ja, ja.
Das wär dann sozusagen diese letzte Meter-Navigation,
an der wir gerade arbeiten.
Ja. Etwas anderes ist zum Beispiel:
"Wo ist die nächste Sitzmöglichkeit?"
Ich bin irgendwie in einem Raum auf
auf einer Messe
oder vielleicht in einem Restaurant oder so und frag:
"Hey, wo ist die nächste Sitzmöglichkeit?"
Und ja, könnte mich dann dort hinleiten lassen.
Das ist jetzt alles die letzte Meter-Navigation.
Was eh immer geht, ist:
"Beschreibe mir das Gesicht der Person vor mir"
oder "Welche Farbe hat mein Hemd heute?"
Also solche Fragen zur
ja, die
Beschreibung von jeglichen Objekten, die vor euch sind.
Das geht immer, Objekten,
Menschen, was auch immer.
Genau.
Und dann, was Jamin beschrieben hat, ist eben noch diese
räumliche
räumliche Beschreibung von Objekten.
Also wo genau befindet sich jetzt der Ausgang,
wenn der in Sichtweite ist?
Der ist auf 10 Uhr in 5 Metern.
Aber das iPhone
das iPhone spricht dann schon, oder?
Genau, das iPhone spricht.
Genau, das iPhone spricht.
Ist wie ein digitaler Begleiter in der Tasche,
nur dass
eben gar kein Mensch zwischengeschaltet werden muss,
sondern SmartAIs mit euch spricht.
Und man hat das in der Hand
und fotografiert dann quasi so
die Umgebung? Genau, aktuell ist es in der Hand.
Wir sind uns aber sehr bewusst,
dass das nicht optimal ist gerade,
weil ihr und wir auch, wir wollen unsere Hand frei
haben.
Ob man jetzt mit Langstock geht oder den Führhund
oder den Führhund in einer Hand,
oder einfach so seine Hände frei haben will.
Deshalb wär der nächste Schritt einmal,
das Handy in einer Brusttasche zu verstauen
und dann voraussichtlich eben auch auf Smart Glasses
integrieren zu können.
Genau.
Eine Frage: Das geht nur bei Tageslicht,
ne? Also wenn's dunkel ist, aber...
Also es geht am Abend,
wenn es ein bisschen Licht in der Umgebung gibt.
Wenn es komplett dunkel ist,
dann wirst nicht hier sehen,
und dann ist es auch sehr schwierig.
Ja, aber normalerweise,
wenn man in einer Stadt ist oder Stadtviertel ist,
wo es bisschen Lichter da auf dem Gelände gibt,
dann geht's auch.
Ja. Ah, okay. Erklärt noch mal so den Zusammenhang,
also was die Sprache macht,
dass sie das beschreibt,
ist klar. Also ich steige aus dem Bus
und der hält halt immer an anderen Stellen
vorm Bahnhof und ich kann dem
der KI dann irgendwie erklären, dass ich die, wo,
dass ich wissen will, wo die Bahnhofstür ist.
Ja, und die Vibration tut dann was?
Mit der Vibration,
wenn man richtig läuft,
vibriert stark.
Dann weiß man: "Ah, ich lauf in die richtige Richtung."
Ja. Wenn es schwach vibriert,
dann weiß man:
"Okay, ich lauf da in die falsche Richtung vielleicht."
Und dann dreht man sich, bis man
bis man die richtige Vibration hat,
starke Vibration, und dann kann man da geradeaus laufen.
Dann kann man geradeauslaufen.
Und wenn man dann das Ziel erreicht hat,
kommt da auch eine
Bestätigung:
"Du hast dein Ziel erreicht"
oder "Bitte schön, ich hab dich zur Bank geführt."
Ja, ja, genau.
Sollen wir vielleicht ganz kurz mal zu den
Limitationen, weil du jetzt gerade von irgendwie
Ausgang von der Bahn gesprochen hast.
Aktuell können wir euch nur
Dinge beschreiben, die die Kamera auch sieht,
und können euch auch nur zu Objekten oder ja
Texten, was auch immer, leiten, die die Kamera auch sieht.
Wenn ihr jetzt zum Beispiel beim Bahnhof steht und sagt:
"Hey, leite mich zu Gleis 13" und die sehen das Gleis
13 aktuell nicht,
dann müsst ihr euch noch irgendwie in diese Richtung
bewegen, so dass wir dann auch das
das Nummernschild sehen.
Genau. Ja, meine Frage bezog sich auf tatsächlich was
was man sieht halt. Ich komme aus diesem Bus raus,
ja, und ich sehe, ist jetzt der Eingang da?
Muss ich jetzt nach links laufen
oder muss ich nach rechts laufen?
Aber der Eingang ist im Blickfeld.
Aber der Eingang ist im Blickfeld.
Genau, ja.
Ja, ja, genau. Also du müsstest,
wenn du aussteigst,
musst du erst die Umgebung fotografieren.
Kannst du dann
gleichzeitig automatisch schon die Frage stellen,
wo der, ist der Ausgang ist oder?
Wie stell ich mir das vor?
Ja.
Richtig, richtig, genau. Also
man hat Handy in der Hand oder in der Tasche,
dann man macht ein Bild und
stellt direkt die Frage:
"Ja, was ist vor mir?" oder
wenn man weiß, was um sich herum zu erwarten ist,
dann sagt man: "Ja, wo ist denn genau der Ausgang?"
Ja, ja.
Entweder "Der Ausgang ist genau auf 10 Uhr X Meter"
oder "Ich sehe es nicht,
dreh dich um und mach bitte ein neues Bild."
Heißt das, hier ist noch mal Angela, heißt das,
dass
man kein Button irgendwie betätigen muss, um dann
die Frage zu stellen,
sondern dass die KI ist immer live
und hört alles, was man sagt, oder das, wie?
Das ist eine sehr gute Frage.
Das ist super gute Frage. Aktuell
schon, man klickt einmal auf den Bildschirm,
um ein neues Bild zu nehmen und
also Fragen kann man immer stellen,
aber neues Bild aufzunehmen
muss man dann klicken auf den Bildschirm.
So, wir haben von sehr vielen gehört,
dass live auch gewünscht ist,
aber von anderen auch gehört: "So hey, ich will
nur klicken, wenn ich neues Bild nehmen will,
damit ich die Möglichkeit habe,
Rückfragen zu stellen."
Was ist denn für euch wichtig?
Ist es...
Sagt ihr auch beides will ich haben oder sagt ihr:
"Ich will nur die ganze Zeit live haben, der
das sieht, was ich gerade oder wo ich gerade schaue?"
Ich möchte gerne wählen können.
Ja, also es gibt ja Situationen,
wo ich, wo ich in eine live
das Live haben will,
wo ich da nicht ständig immer wieder
nicht drauf tippen muss,
sondern
dass die immer an ist und sobald ich was sage,
dass die was hört.
Aber es gibt natürlich bestimmt auch Situationen,
wo man sonst sich irgendwie
unterhält und dann soll die KI
natürlich nicht
mitbekommen, was man sagt.
Und dann das halt anders einstellen.
Ja, also das fänd ich gut, wenn man das wählen könnte.
Ja, kleinen Tipp,
kleinen Tipp für euch vielleicht in dem
in der Hinsicht.
Also was ich gut, richtig gut finde,
finde, wenn ihr versuchen würdet,
auf den Action Button drauf zu kommen
bei den neueren iPhones.
Die haben ja dort, wo der frühere
Kippschalter war für stumm und laut,
haben die, gibt's ja einen
einen sogenannten Action Button,
ja, und wo man verschiedene Funktionen drauflegen kann.
Also da kann man jetzt auch heut schon ein Singing
AI oder eine Funktion von BeMyEyes
drauflegen und so.
Und wenn ihr
weil das ist eine sehr, sehr einfache,
auch taktile Zugangsmöglichkeit,
wo man wirklich vielleicht das aktivieren könnte,
ohne auf dem Bildschirm rumfummeln zu müssen.
Da hast du absolut recht.
Ja, ist eine gute Idee, das
das fänd ich gut, wenn ihr das machen würdet,
wenn ihr das realisieren könntet.
Ja. Dann hätte ich noch mal eine weitere Frage.
Ihr hattet gesagt, im Moment
funktioniert die Vibration und es soll aber auch den
ein Ton kommen.
Ja, dann fände ich es gut,
dass man es dann auch auswählen könnte,
in welcher
Kombination ich das haben will, also zum Beispiel
ich möchte gerne, manchmal möchte ich gerne
sowohl Vibration als auch Ton,
manchmal möchte ich nur Vibration,
manchmal möchte ich nur Ton. Das fänd ich gut,
wenn man das auswählen könnte.
Ja, guter Punkt.
Ja, weil es gibt nämlich
weil es gibt nämlich Leute, die wollen lieber einen Ton,
es gibt Leute, die wollen
lieber Vibrationen, und es gibt Leute, die wollen beides.
Ja, ja, ja, das nehmen wir auch.
Ja, ich seh gerade,
dass zwei Fragen im Chat reingekommen sind.
Einmal:
"Ist für die App-Nutzung eine Internetverbindung nötig?"
Ja, also
WLAN oder mobile Daten. Ja, wenn du...
Ja, ich kann gerne drauf eingehen.
Ja, ist sehr wichtig. Danke, Sebastian, für die Fragen.
Aktuell ist es sehr wichtig, Internet zu haben,
weil wir auch
so KI von anderen Anbietern nutzen wie OpenAI
oder Google. Es gibt schon Technologien,
dass man solche Features auf dem Handy hat,
aber dann ist die Qualität gerade
von der Forschung
ja, Forschungsstand noch nicht da. Das heißt, die
geben sehr viel falsche Informationen
und ist noch nicht möglich,
dass man es nur auf dem Handy laufen lässt.
Genau, natürlich stellt man dann sich die Frage:
"Was ist mit Datenschutz?
Wo gehen meine Daten hin? Was passiert denn damit?"
So ein
läuft durch die Datenschutzbestimmungen von Google
oder von OpenAI.
Die, die speichern das natürlich oder die
löschen das nach einer bestimmten Weile,
aber alles ist anonym.
Eure Daten, wenn ihr zustimmt
auch und ihr mit uns die App mitgestaltet,
wir speichern die,
aber alles wird anonymisiert.
Das heißt, personenbezogenen Daten,
Gesichter oder Texte oder all das,
das hilft uns, wenn ihr zustimmt,
dann dass wir die aufnehmen,
zu wissen, welche Fragen sind für euch wichtig,
was funktioniert gerade,
was funktioniert nicht.
Aber das könnt ihr auch
bei uns gerne jederzeit auch wieder rufen und sagen:
"So, Leute, ich sage euch einfach, was ich euch sage.
Ich will nicht, dass ihr die Bilder und die Fragen
speichert."
Ja, danke. Ich seh auch noch eine Frage von Torsten.
Blick in die Zukunft wegen Kassenzulassung.
Grundsätzlich wär eine Kassenzulassung möglich
für eine App oder für App mit Tasche später
oder für Smart Glasses.
Das ist allerdings von dem regulatorischen Aufwand,
Zertifizierung,
Aufwand
als Medizinprodukt und dann Liste als Hilfsmittel
zumindest ein Jahr Arbeit
und unglaublich viel Zeit und Geld an Investment.
Bevor wir das angehen,
möchten wir erstmal eine Version erreichen, wo ihr sagt:
"So, das ist die Version,
das ist die App,
die mir mehr Werte bringt." Und dann kann man
solche Sachen in Betracht nehmen. Danke.
Ja, genau, das find ich gut.
Das find ich wirklich gut, dass wir erstmal
wirklich das gut entwickeln und dann ja,
ja, wenn das dann gut ausgereift ist,
dann halt die Möglichkeit
prüfen und die Zertifizierung,
weil Krankenkasse
ist ja ziemlich aufwendige Geschichte,
ne? Ja, hab ich gehört
für die Firmen, die das machen wollen.
Ja.
Aber was kostet, aber apropos, was kostet das eigentlich?
Aktuell ist es kostenlos. Es soll auch
immer eine kostenlose Version bleiben.
Irgendwann können,
werden wir wahrscheinlich auch ein Abomodell einführen,
wenn wir merken,
es hat einen Mehrwert oder es hat Zusatzfunktionen.
Weil wir müssen auch überleben, bis die Krankenkasse
das zahlt oder finanziert,
zumindestens für die Kosten zahlen.
Ja, für die Zertifizierung und Listung.
Genau, das ist ein Investment
von uns und von euch auch gleichzeitig.
Ja, wenn ich so direkt sagen darf,
also was für uns gerade
alle Geld kostet,
sind die ganzen Bilder,
die analysiert werden von der KI.
Ja, und das
das ist eben auch so eine Sache, die die wir gerade
zahlen, was für uns auch total viel wert ist,
weil wir das Geld dann natürlich auch in die Iteration,
in die Produktentwicklung reinstecken.
Aber das ist, wird unter anderem dann so Teil des
die Preise sein.
Genau, aber ich würd vielleicht... Ja, ja.
Um da ganz transparent zu sein,
also die Kosten,
die wir haben, sind nicht nur die Mitarbeiterkosten
und die ganze Entwicklung.
Jede Frage, die ihr stellt,
jedes Bild, das geschickt wird, da zahlen wir.
Und wenn wir sagen,
es soll ein Live-Feature geben,
mit dem ich wirklich
Sekunde für Sekunde reden kann und Sekunde für Sekunde
Bilder schickt,
das heißt, jede Sekunde entsteht,
dann entstehen dann Kosten.
Und das wird auch super teuer für uns sein.
Deswegen könnt es in die Zukunft Limitationen geben.
Sag mal, wenn es Live-Feature gibt,
dann kann man so und so Minuten kostenlos nutzen.
Wenn man mehr will, soll man
je nachdem wie man nutzen möchte dafür zahlen
aber aber das wäre ja auch ein unglaublicher Datenstrom
der da abfließen müsste, das
das würde ja dann doch ins Unermessliche gehen
wahrscheinlich
ja ja da wir sind dabei das zu evaluieren, genau ja
daher ist es natürlich schon
gut wenn man's halt auch auswählen könnte
und ob man denn nur ein Bild macht oder
eine Live-Aufnahme richtig
wenn das live ist dann wird ja ständig ein Bild gemacht
und das
kann ich mir vorstellen das wird ziemlich teuer
und wenn ein Abo-Modell
dann wär's natürlich gut dass es einfach verschiedene
Preiskategorien und ja Umfang von
was man alles machen kann
also Umfang von Datenstrom und so weiter
wenn man das dann halt für sich individuell
entsprechend der Lebenssituation auswählen könnte
ja wenn wir
wenn wir soweit sind
dann reden wir noch mal mit Matthias
dann lässt du uns noch mal
und wir diskutieren was euch am Herzen liegt
ja genau ja genau
wir sehen die anderen das auch also
ich würd sagen wenn's ein Live-Ding gibt soll das
vielleicht einstellbar sein
wie fein granuliert das sein soll
weil ich sag mal zum Beispiel
es geht ja dann A
auf die Kosten und B auf den Akku
ja und da würd ich sagen da kann's ja sein
man braucht jede halbe Sekunde ein Bild
weil man vielleicht schnell unterwegs ist
es kann aber auch sein
wenn man jetzt noch weiter weg ist
es reicht auch wenn man alle 2-3 Sekunden ein Bild hat
könnt ich mir vorstellen
das das ist sehr cool auf jeden Fall ja
ja also ich weiß nicht wie granular und wie
wie live soll der Live-Feature sein
ja genau wie zeitnah
ja ja ja
ich ich hätte auch noch eine Anmerkung bin ich zu hören
ja ja ah ja der Markus ist hier
ja und zwar
wir hatten uns ja schon das eine oder andere mal
unterhalten also ich denk nach wie vor
dass der Weg gehen sollte
dazu das die Kamera vom Handy zu trennen
ich glaub als dass alle Dinge
die man dieses Teil entweder in die Hand nehmen muss
oder in eine irgendwie gestalteten Brusttasche
also ihr hattet ja für das andere System
diese spezielle Brusttasche
ja aber auch was einfaches
man wechselt so oft die Jacke
man zieht schnell was drüber
es regnet was auch immer ich glaub
dass es nicht praktikabel ist
und genauso wenig werden Leute zukünftig noch
sehr viel ihr Handy in der Hand vor sich hertragen
man braucht die Hände
und deswegen ich weiß
dass Apple das nicht erlaubt aktuell
aber das sollte glaub ich das Ziel sein die Kamera
Einheit und zwar auf ganz simpelsten Wege von
also die ganzen Rechenleistung und so weiter
alles aufm Handy
ganz klar aber der bildgebende Element das sollte
extern sein und sich beliebig also das kann man
idealerweise ans
Brillengestell dran geklippt
also eine eigene Smartbrille find ich auch nicht so gut
weil Leute haben dann
manche haben noch Stärken Gläser drinnen
oder brauchen spezielle Blindfilter
und dann so eine Coolbrille ist doch auch ein Artikel
der in 2 Jahren wieder ausgetauscht wird
so würd ich eher was zum Anpinnen
zum Anklemmen oder was wie man
Button sich auf die Brust macht also eine Bodycam
mit einem Magnet oder was sich an die
vorne an die Brust hin
oder eben meinetwegen mit so einem
mit seinem Kopf mal mit dem elastischen wie auch immer
dass man irgendwas in Blickrichtung kriegt
aber eben die bildgebende Einheit von dem Handy trennt
das glaub ich würde dann
den großen Vorsprung bringen
um eben nicht mehr mit dem Handy da rumzufuckeln
ja aber das sollte dann auch denk ich wahlweise sein
weil man muss ja auch gucken
dass vielleicht nicht jeder eine Brille
ja genau
das sag ich ja grad du also als Button von die Brust
als Hirn als Stirnband als Brillenklemme als
also mit diversen Kameras
das ist ja zu kaufbares Zubehör dann
ja da könnt ihr ja sagen
okay ich brauch jetzt den Brillenclip
ich möchte den Button mit Magnet
ich möchte das
das elastische Stirnband
ich möchte eine Mütze wo die Kamera vorne drin ist
was auch immer gibt's ja alles ja
also die Kombi Hardware
die Hardware quasi dazu zu kaufen
zu der Software
in verschiedenen Varianten
würd ich als also für mich jetzt als attraktiv finden
ich persönlich werd nix mehr benutzen wo ich
also tu ich natürlich momentan
aber wo ich zukünftig das Handy von mir her
tragen muss
ich experimentier jetzt viel mit diesen Smart Brillen
ja aber auch da ist natürlich die Lösung
noch nicht fertig
und da seh ich immer wieder das Problem
wenn Leute sagen ja ich hab aber Stärkenbrillen
oder ich hab einen speziellen Filter und so weiter
und dann gibt es halt unfassbare Kosten
das dann auszuschalten geht ja nicht nur um Stärken
es geht ja auch um
Kopfform und wenn du nicht den pauschal Schädel hast
ja zum Beispiel genau also die verschiedensten Gründe
durch also da würde ich auch
so dass man da wirklich eine andere Lösung findet
die verschiedensten Gründe gibt's find ich auch
dass man eben
auch auch die Smartbrille nicht unbedingt
das alles Kolumbus ist sondern am Schluss
ich merk grad
dass das ein richtig heiß diskutiertes Thema ist
richtig gut und vor allem
dass da auch noch so die Konversation aufgemacht wird
für was könnten denn andere Hardware
sein neben Smartglasses
ich glaub das wär super interessant für uns
dass wir da mal so ein Stimmungsbild bekommen
mit den folgenden Optionen
Smart Glasses
oder ja man helf mir eine Zusatzhardware
welche Form die auch immer annimmt
die man sich um den Hals oder
an die Brille oder irgendwie anders
also wir müssen jetzt als Beispiel so eine GoPro
wir müssen so eine GoPro als Beispiel nehmen
die GoPros gibt's doch mit den verschiedensten
Haltemöglichkeiten
ja mit den verschiedensten Befestigungsmöglichkeiten
und da wär man halt
weil jeder hat vielleicht einen anderen Bedarf
wo er das Ding gerne tragen möchte
ja und
das fänd ich jetzt
massentauglicher und möglichst wenig Hardware in dem
in der Kamera
sondern
den Rest hat auf dem Handy dann passieren lassen
ja damit er schließt
damit brauch ich auch nicht mehr Rücksicht nehmen
welches Handy hab ich jetzt hat das jetzt eine Kamera 2
hat es ein Lidar-Scanner oder keinen
das muss dann diese externe Kamera
die muss das dann können
ja ja ja das ist eine gute Idee
und
was für mich als Hörbehinderte halt auch ein Problem ist
ich hab Hinterohr-Hörgeräte
das haben auch mehr die meisten sag ich mal
und da ist es immer so eine Sache
ob man da überhaupt
gut eine Brille tragen könnte wenn es eine Glasses ist
weil das hängt dann sehr vom Bügel ab ob das überhaupt
tragbar ist
und daher fände ich für mich persönlich
eine andere Variante
ja also mit der extra Kamera
wie du hast du gesagt hast Markus
find ich gut ja
das find ich absolut super aber
es wäre für mich halt eher so dieses Ding
eine andere Möglichkeit als Brille
okay ja weil das für mich als Hörgerät mit
mit Hörgeräten zu sehr drückt
ja ja okay wollen wir einmal
abstimmen
ich überleg gerade wie wir das am besten machen
es gibt ja hier diese Reaktionen
oder es gibt auch die in Chat
ja Moment bitte mal kann ich darf ich noch was sagen
also ich bin geburtsblind ich hab mit Kameras
überhaupt keine Erfahrung
ich mach die ersten Erfahrungen jetzt mit dem Handy
und
also ich seh mich nicht in der Lage da abzustimmen
also höchstens müsste ich mich dann enthalten
ja ja das kam auf den Einzelfall an
zum Beispiel hab ich jetzt mein Handy
in der Hosentasche
da wär natürlich eine externe Kamera schön
aber vielleicht find ich ja auch eine Hülle mit Kordel
die ich mir um die Brust hänge
weil Brusttaschen hab ich meistens nicht
und das kann man ja gar nicht so sagen
wenn man noch gar nicht weiß
welches Equipment man dann jeweils zur Verfügung hat
ja genau weil ich würde auch eher so diese
diese diese Brustbeutel Variante
sag ich jetzt mal so
mit mit Kette um Hals oder wie auch immer
ja
was das Material ist aber das vor die Brust gehängt
so ich würd auch gern noch was zu bedenken geben
ich würd schon gern das Handy nehmen
muss ich ganz ehrlich sagen
okay also auf jeden Fall sehr viele Präferenzen hier
das ist schön
das war noch eine Meldung
Arti wollte noch was sagen ja ich
also ich würd noch ganz kurz auch was
zu bedenken geben wollen
weil das schöne ist ja mit den Smartglasses
dass ich auch erstmal nicht wieder so heraussteche
ich sag mal dass man sieht ach guck mal
die hat so ein komisches Teil vor der Stirn
das ist bestimmt eine Sehbehinderte oder so
vielleicht ist das ja für manche auch wichtig
dass die halt gerne eine Brille haben
wo man dann nicht direkt erkennt
dass irgendetwas
ja ein spezielles Gerät dran hängt
also ich ich kann alle Standpunkte verstehen
ich bin auch geburtsblind
ich kann ich müsste es auch testen
ich kann's nicht beurteilen
aber ist ja vielleicht auch noch ein Punkt
der nicht unwichtig ist
wenn man viel unterwegs ist
dass man eben nicht so auffällt im Anführungsstrichen
ja sehr guter Punkt
also wir hören 3 potenzielle auf uns
wir fallen ja sowieso auf
wenn wir einen Stock in der Hand haben
also das ist ja gut
aber es ist natürlich auch so
dass ich sag mal wenn
wenn man jetzt mit klar mit so einer Brille rumrennt
vielleicht tun's irgendwann alle aber es war
man macht sich
ja auch vielleicht nicht unbedingt Freunde
wenn die Leute
die einem entgegenkommen sehen
oh der hat da ist der hat eine Kamera
was macht der damit ja genau
ja das ist auch so eine
Sache die man halt mit bedenken muss
ja man man könnte ja so ein so ein Button nehmen wo die
der gelbe Button mit die 3 schwarzen Punkte
die 3 schwarzen Punkte sind 3 Kameras ja
das ist kein das ist kein
das wär doch kein schlechter Punkt find ich
also ich finde immer wenn ich
wenn ich mein Handy vor mich her trag
dann sehen die Leute auch dass ich Film
oder was fotografieren
also ich glaub das
den Faktor ja
den glaub ich muss ich mit Fragen
einfach dass es so ist
ja wenn man jetzt so eine externe Kamera hätte
könnte die tatsächlich
ja irgendwie markiert sein dass sie
ein Hilfsmittel ist
oder sie ist so unauffällig wie so eine Brille
ja
ja aber ich bin also ich wär eben für Alternativen
ich bin
ich sag nicht das oder das oder das ist das beste
sondern
mein Standpunkt ist nur ich würd mir eine externe Kamera
wünschen und diese in verschiedenen
Varianten dass ich wählen kann will ich eine Mütze
will ich ein Stirnband will ich ein Button
will ich eine Brille
ja genau das ist das ist im Prinzip mein Punkt
bin ich bei dir Markus kann ich nur unterstützen ja
ist auf jeden Fall ein super wichtiges Thema
wir sehen da die 3 Optionen
Handy mit Brusttasche
externe Kamera die mit Magnet irgendwo
am Körper
am Hemd oder sowas gefestigt wird oder Smart Glasses
die Dagma hatte sehr cool vorgeschlagen jetzt im Chat
wir machen eine online Abstimmung und
Matthias teilt das dann und die teilt
teilt das über Social Media und dann bekommen wir
ein besseres größeres Stimmungsbild
was euch da am liebsten ist
genau das find ich super
ja also wenn wenn
ich könnte das jetzt nicht während der Konferenz
weil das krieg ich nicht hin
wenn ihr redet dann
wenn also ich könnte das jetzt
also jetzt zurzeit online während der Konferenz
könnte ich nicht irgendwie
nebenher noch eine Abstimmung machen
ne ne das machen wir im Nachhinein
das machen wir dann in den nächsten Zeiten
Nachhinein muss man jetzt nicht
es ist jetzt klar
dass es verschiedene Präferenzen gibt
die alle natürlich berechtigt sind
genau und dann kann man's halt im Nachhinein machen
gut also manchmal kommen ja noch Ideen
so wenn man mal drüber geschlafen hat und so
und es ist auf jeden Fall
wie wie immer beim Rehastammtisch wenn
wenn jemand
dazu was einfällt
und dann kann ich da
eben gerne Dinge sammeln und an euch weitergegeben
oder die Leute schreiben euch direkt
wie auch immer
ja das können wir ja im Nachhinein auch noch gut
diskutieren ja
genau also dazu der Formfaktor
haben wir auf jeden Fall jetzt ein Bild
das verschiedene Sachen wichtig sein können
noch mal zu der Funktion
sagt ihr die Richtung die Perspektive
wo das sich hin entwickeln kann
die lässt dir mit der Navigation
eventuell noch die Navigation
auch dazu eine bessere Navigation
Proaktivität Personalisierung ist eine gute Richtung
oder sagt ihr hey
ne wir wollen da lieber was anders eventuell
doch doch Navigation ist eine wichtige Sache find ich
ja also Navigations
also zur Hilfen
sozusagen kann man ja dann dazu sagen als Ergänzung
Navigationshilfen ja
ja
also ich glaub
ich glaub der Punkt
die letzten Meter ist schon ganz interessant
ja idealerweise sollte das System aber trotzdem wissen
wo ich mich befinde
das heißt irgend eine Kopplung mit irgend einem GPS System
dass das System schon mal im Hinterkopf sozusagen weiß
um mich rum sollte jetzt das
das das sein und dann dieses aufgenommene
Bild damit wiederum abzugleichen
würde wahrscheinlich dann
treffsichere Ergebnisse bringen als nur rein
Bild basiert zu arbeiten
ja weil dann ist ein Buschstück vor oder ich pack
ein Lastwagen da und vor dem Geschäft
wo ich eigentlich hin will
und wenn es mit der Kopplung mit
wenn du Google Maps oder was zum Beispiel wär
dann wüsste das System okay
in die Richtung muss aber das Geschäft sein
und dann sagst du dir vielleicht geh mal
um den Laster rum oder so in die Richtung
ne du meinst statt so
hey dreh dich und mach neues Bild und dreh dich
und ja genau also die rein
die abschließende Bildpassierung ist
vermutlich fehleranfällig
ja das ist richtig
was vielleicht auch noch eine Überlegung
wäre dass man irgendwie ein Hinweis auf die Richtung hat
weil wenn ich jetzt zum Beispiel eine schwache
Navigation hab
weiß jetzt nicht
bin ich jetzt total weit rechts abgekommen
oder bin ich jetzt total weit links abgekommen
das stell ich mir auch ein bisschen schwierig vor
ja
verstehe verstehe
dass man auch so eine beschreibende Funktion hat
wo man da sich befindet rechts
links ja
ja und was mir auch wichtig wäre
was so die Richtungsangabe
da habt ihr jetzt gerade immer gesagt so auf 10 Uhr
auf 11 Uhr auf 1 Uhr
das find ich auch eine gute Sache
ich fände es schlecht wenn das Himmelsrichtung ist
Osten Westen Süden das ist auf keinen Fall also
das ist auf keinen Fall
okay
ja wobei man dann auch angeben muss wie
also in der Anleitung wie man es trägt
weil das entscheidende ist ja
wenn das Handy oder die Kamera auf
unterschiedliche Arten befestigt sind
und
muss das ja nicht unbedingt mit der Körperrichtung
übereinstimmen
und da muss man dann nämlich schon dem Nutzer
auch ein Hinweis geben
wie man das also
tragen muss damit die Richtung
des Gerätes mit der Richtung des
Körpers übereinstimmt
ja ja ja das stimmt
das stimmt ja vor allem bei Smartglasses
versus ich hab das Handy irgendwie in der Tasche
in der Brusttasche
bei der Brusttasche
muss ich dann den ganzen Körper
oder den ganzen Oberkörper drehen
bei dem Smartglasses
reicht es dann wenn ich nur mein Kopf drehe ja
also das ist ein super wichtiger Punkt
danke ja danke
was man vielleicht auch bei den Smartglasses
beachten sollte
lauft ihr wirklich mit den Dingern da draußen rum
ich
ich hätt da Schiss wenn ich da irgendwo am Park klebe
am Baum oder mir inner
gut ich bin nur auch kurz gewachsen
sehr kurz gewachsen
dass ich da dreimal in der Woche neue Smartglasses
bräuchte
ja ja guter Punkt
ja du meinst weil du irgendwo gegen läufst oder weil ja
ja oder weil die Leute
oder du kriegst da paar gewedelt
oder kriegst ein Rucksack
ins Gesicht und ach so also
ja oder du rammelst irgendwo dagegen oder
also weiß ich nicht
macht ihr das wirklich
lauft ihr wirklich mit dem Zeug durch die Gegend
ich mit den Glasses
also ich dachte ja wie machst du
wie machst du denn das sonst
du läufst doch so sonst auch durch die Gegend
ja und viele jeder Brillenträger hat ja also jeder
jeder der eine Brille trägt muss sich ja
mit dem Thema auseinandersetzen
ja ja ja aber dann siehst du ja noch was
wenn du gar nichts siehst ist das Ding
ja dass du irgendwo gegen krachst
ja selbst mit Stock ja trotzdem nicht ausgeschlossen
aber vielleicht bin ich auch zu doof als
als später Erblindeter
das kann natürlich sein
ja auf gar keinen Fall
ja
na ja es kann natürlich Situationen geben das geht ne
ich kenn das schon
auch es kann natürlich Situationen geben
wo man dann plötzlich irgendwo an aktuellen
Höhenhindernis ist ne das das
gibt's
also das Risiko ist natürlich immer irgendwie auch da
aber ja also ich glaube es gibt ja auch genügend
so oft ist es dann auch wieder nicht
ich glaube es gibt ja auch genügend
gesetzlich Blinde die aber noch einen kleinen
vielleicht auch sehr kleinen Sehrest
haben die trotzdem noch
das was eine Brille vielleicht leisten können
das heißt nur die Blendung zu verhindern
ja aus dem mit Brillen unterwegs sind
und da find ich jetzt solche Smartglasses doch als
weitaus besser als die ocker
mal war die tatsächlich von dem Magnet
der schnell mal runter
also die sollte man wirklich mit mit
mit Halsband tragen
ja ja ja stimmt
ja klar kann es passieren dass einem so eine Brille
aber mir ist die die
dieses Mockglas ist schon X mal runtergefallen
die sind auch nicht gleich kaputt
also solange ich da niemand drauf tritt
ja aber ich glaub die Gefahr
haben tatsächlich viele Leute die noch Brillen tragen
was wie gesagt
das ist ja nicht jeder gleich vollständig blind
so dass man gar keine Brille mehr
verwenden müsste
ja ich wollte bloß bedenken geben also
es geht wahrscheinlich dann auch sehr auf den
Kostenfaktor an
wie oft sowas passieren darf
ja bestimmt ja
mich interessiert noch mal was zur Entwicklung
der der KI und wie haltet ihr die KI unter Kontrolle
was ich damit meine ist
wir hatten ja jetzt im letzten Sommer
vor einigen Monaten gab's ja einen riesen Hype um die
die Meta classes
ja oh und die Raven Meta classes und
ja am Anfang große Euphorie
inzwischen hat sich das alles ein bisschen gelegt
und es war ja am Anfang auch richtig
richtig eine gute Geschichte
und dann hab ich so
ich hab irgendwann die Erfahrung gemacht
dass diese KI sich ein bisschen falsch selbständig hat
als Beispiel
ja ich konnte
man konnte am Anfang Fragen gib mir eine
genaue Beschreibung für eine blinde Person
und so weiter und so fort
dann hat sie das gemacht
irgendwann ist das Ding gekippt und dann ist
ist sie auf Gedanken gekommen
zu erzählen ja vor dir ist ein Weg
der ist unterschiedlich gepflastert
achte mal auf den unterschiedlichen Klang deiner Stimme
ja he he he ja blöde Kuh will ich nicht hören ja
interessiert mich nicht
und es hat sich aber halt einfach rausgestellt
dass die KI dann halt ja
das was sie gestern noch gemacht hat
mir heute verweigert
ja also ich sag mal
da sind dann zum Beispiel auch so Sachen passiert
ich hab Ewigkeiten immer schön gefragt welche
welche ist der Bahnsteig
ist das im Bahnhof und dann hab ich da
ja
gute Antwort gekriegt und plötzlich fing das Ding an
ja wahrscheinlich Gleis 9
ich wusste ich bin bei Gleis 12/13 oder sowas
oder ich stelle eine Frage
welcher Zug fährt ja am nächsten
als nächstes ab am beim nächsten mal Fragen
das kann ich dir nicht beantworten
ja und jetzt ist es ja so dass dass
dass sie sich so eine KI
irgendwie dynamisch weiterentwickelt und
mir ist es irgendwann richtig auf die Nerven gegangen
immer mit dieser KI erstmal zu diskutieren
dass sie wusste was ich will ja das
das geht mir im richtigen Leben schon auf die Nerven
das find ich also ich find die Frage super
geht uns genauso auf die Nerven
wir entwickeln heute etwas
wir dann machen wir die K
E konsistent am nächsten Tag macht
Open AI oder Google ein Update
und auf einmal geht's dann nicht mehr
wie kontrollieren wir das wie gehen wir damit um
eins machen wir sehr viele
sag mal
und ja vor nicht voraus ist es zu so conditions
sag mal wenn
bestimmte Fragen gestellt werden dann sollen die
durch bestimmte Test
bestimmte Abläufe
dass man genau weiß was der was
die Ausgabe sein soll
aber das ändert sich mit der Zeit
und ich denk
wir werden immer mal testen müssen und schauen
wo gibt's diese inkonsistent
wo halluziniert die KI wo ändert sich die KI
ich denk perspektivisch und in der Zukunft
dann werden wir dann
viel konsistentere
und auch für die
die Bedürfnisse von Blinden
und sehr eingeschränkten Menschen
so eine KI haben wie erreichen
wir das und wann erreichen wir das wieder mit Daten
Gemini und Open AI
die entwickeln die Modelle für sehende Leute
und so geht's da weiter
wenn wir aber genug Daten haben
was welche Fragen da wichtig sind für Betroffene
welche Antworten da genau
dann kann man solche KI
Modelle fein abstimmen darauf
und dann wissen die KI Modelle
ah okay jetzt darf ich eigentlich nur das sagen
und soll ich andere Sachen da rauslassen
ja genau also es dauert eine Zeit
es ist eine Datensache
bis dahin wird's immer eine
inkonsistent geben und kann sowas
immer passieren
ich glaub es wär auch super wenn man
sozusagen Leitlinien
in denen sie sich bewegen darf
ja ich glaub ich denke es wär auch super wenn man
dementsprechendem KI Modell noch
ein bisschen mitteilen könnte
was der persönliche Bedarf ist
also bin ich hochgradig sehbehindert bin ich
also noch mittelsehbehindert oder bin ich
vollständig oder vollständig blind
ja weil dann sind die Bedürfnisse ganz anders
genauso der noch
der noch ein bisschen was erkennen kann
der wird sagen okay ich die Bürgersteig
das krieg ich noch hin
die Hausnummer schon nicht mehr
der nächste sagt vielleicht
Hausnummer schaff ich auch gerade noch
na ja ja
ich brauch aber das Klingelschild am Schluss
und also ich brauch mir
ich brauch die ganzen feinen Details
ich muss aber nicht wissen
hier vorne steht eine Mülltonne die da blau ist und so
deswegen wär's vielleicht gar nicht schlecht
noch ich weiß nicht ob man das mit vorab Prompt
dann irgendwie
lösen kann dass man quasi
dass der Benutzer sagen kann
meine Einschränkung ist so und so stark
und ich möchte gerne in dem und dem Umfang
informiert werden
weil mir persönlich wäre es zu viel
wenn ich die ganzen großen Dinge angesagt krieg ich
mich interessieren die kleineren Dinge
das kann man auf jeden Fall interessant finden
vielleicht ja
genau also wie du sagst Markus
man kann schon davor sagen
hey in dem Prompt
ich mag so und so
ich will Informationen über das und das
ich will nicht keine Informationen
über die anderen Sachen
und mal die Frage in die Runde
ist es ausreichend
eine einzige Personalisierung zu haben
dass man sagt
das meine sehr Einstellung
und ich möchte allgemein diese Informationen haben
oder sagt die je nach Kontext
je nach Umgebung will ich eine andere Personalisierung
und die speichern
das zweite das würde ich sagen eine
ja also dass dass man's
nach entsprechender Situation auch haben möchte
okay es gibt ja zum Beispiel Wege
die kenn ich gut als Vollblinde die kenn ich gut
da brauch ich nicht so viel Hilfe aber die
Details sind dann wichtig
es gibt aber Situationen wenn ich dann in einer völlig
fremden Umgebung bin
dann sieht das schon wieder ganz anders aus
dann möchte ich mehr Informationen haben
ja man müsste so Profile einstellen können
genau Profile okay
ja also nicht nur an der orientiert an der
der Stärke der
der der Einschränkung
also ob sehbehindert ob hochgradig sehbehindert
ob blind
sondern eben auch
ja so Profile genau das find ich auch das ist
das ist gut das
dem stimme ich zu auch
ja würdet ihr dann
ich frag mich gerade wie wir das umsetzen
ich find's eine super gute Idee
würdet ihr euch das so vorstellen
dass
wenn ihr persönlich zu Hause jetzt smarteis sagt
hey ich hab AMD ich seh noch das und das
und das abspeichern und dann zusätzlich hey
im Hauptbahnhof
will ich vor allem
Informationen über die Anzeigetafeln und die Gleise
oder würdet ihr euch erwarten dass solche
Kontexte und solche und
Seh-Level von Seh-Einschränkungen und eure
Personalisierung
dann bereits vorgegeben sind in der App
ja ich würd eher sie kategorisieren
in der Aus in einem
Ausprägung der mit der Information die man bekommt
also ich möchte wenig Hinweise ich möchte
mehr Hinweise
ich möchte noch mehr Hinweise
ich möchte noch noch mehr Hinweise
weil das mit diesen Augenerkrankungen ist schlecht
weil es gibt so viele
unterschiedliche Augenerkrankungen
und das sagt auch überhaupt nichts darüber aus
ja also wenn's jetzt um Sehbehinderung geht wie viel
wie die Einschränkung ist und was ich brauche
das ist ganz individuelle Geschichte
ja das stimmt das find ich das find ich schwierig das
ja da geht's schon beim Wetter los und alles
wirklich so die die um am
am besten ja vielleicht 4 verschiedene
mindestens 4 verschiedene
na Staffelungen der der
der Informationen die man bekommt also ausführlicher
also wie ich's eben gesagt hab
das fände ich besser
weil dann kann man ganz individuell
selber überlegen
und ausprobieren
ausprobieren was denn jetzt
Situation
also mehr
mehr situationsgebunden
die verschiedenen Profile als krankheitsgebunden
da hast du da hast du recht ja sich
sich auszuhören stimmt
es gibt ja verschiedene Navigationen
okay das heißt dann demnach keine Auswahl
ja es gibt ja
bei verschiedenen Navigationsapps zum Beispiel auch so
dass man
myway pro zum Beispiel
da kann ich ja eben genau einstellen
welche
Informationen möchte ich über meine
Umgebung haben also welche Points of Interest
und weil es ist ja so wenn wenn jemand
sehr mobil ist und läuft durch einen Bahnhof den er kennt
dann braucht er andere Informationen
ja weniger Informationen als jemand der
nicht so mobil ist
und der oder der den Bahnhof vielleicht nicht kennt
genau ja zum Beispiel und da wäre
wäre es ganz gut wenn man das abstufen könnte
nach irgendwelchen Kategorien
die man tatsächlich entwickeln
müsste und ausprobieren müsste
wie viel möchte ich eigentlich haben
über meine Umgebung
wie viele Infos
ja und dann vielleicht auch einfach
dass man selber als
als Benutzer auch dann noch zusätzlich
eben Profile anlegen kann
weil es halt Situationen gibt da brauch
ich mehr Informationen
es gibt Situationen da brauch ich weniger
dass man das selber individuell
im im im Einzelnen das wären dann zwar für uns Benutzer
viele Einstellungen
die man durchgehen muss und irgendwie
festlegen muss aber es ist
und dann ja umso
feinjustierter sag ich mal es
ich finde es super und das Thema klingt super logisch
aber Markus Angela
Matthias
Annika und ich sagen ja es gibt noch weitere 22 Leute
was sagt ihr einfach kurz Hand heben
wenn es für euch interessant ist
ansonsten Hand runterlassen
dann wissen wir
das ist eigentlich nur wir das wollen
ist es auch etwas was alle wollen find ich auch
find ich auch gut
ja
da ich geburtsblind bin und also außer hell und dunkel
voll blind werde
ist das für mich sehr einfach
aber ich kann mir das schon vorstellen mit den
mit verschiedenen Sehbehinderungen
wenn man das halt einmal
zu Hause einmal alles für sich einstellt und sagt
ich bin
also mein mein Sehprofil das ist ja wohl immer gleich
aber dann halt mein
Informationsprofil
ich sag jetzt so ich bin bin heute unterwegs mit
voll blind aber Profil 1 oder Informationsprofil 5
ich will das und jetzt schalt
schalt dich schnell um auf Profil 3
ich brauch jetzt weniger
das klingt richtig cool boah das ist mega okay
ja also ich hab ein paar Hände gesehen
die waren nicht so viele
2/3 ein paar Leute haben reingeredet
fand ich auch gut
wie ist bei den
anderen auch kurz
gerne reinreden wenn ja die die Evi
ja also ich find es auch gut wenn man
die Pro die Profile
praktisch benennen kann also
man muss ja nicht unbedingt Profil 1
Profil 2 sondern
man kann ja dem vielleicht auch einen Namen geben
also reinschreiben
Profil Bahnhof oder
also das kann man denn selbständig machen und das was
das das was ich noch anmerken wollte
bezüglich
ja persönliche Daten
also da könnt man doch zum Beispiel blind
sehbehindert also so so
Ausklapplisten machen praktisch
also
ja blind also
blind also voll blind sehbehindert
mobil oder nicht so mobil oder
also das ist jetzt bloß so allgemein
jetzt mal so da ja gesagt
aber so Ausklapplisten das das wär sowas
die Frage ist ob das funktioniert
weil es gibt ja zum Beispiel sowas wie Tunnelblick
das ist ja nur wieder ganz anders
genau das hab ich den voll aber nur für münzgroß
also da
ich weiß nicht ob man da wirklich ein System reinkriegt
ja was wir machen können
das wird man nicht hinkriegen das ist so komplex
das kriegst du nicht hin
also nach den Augenkrankheiten das kann man vergessen
das geht dann schon los
ist die Dämmerung da ist die Sonne da
ist die Sonne halb da
ist sie nicht da ja da
ich bin ich seh gar nichts
ich brauch wirklich alles
ich brauch auch eine Mülltonne weil ich gegen die laufen
könnte ja gut ich hab zwar natürlich meinen Stock aber
oder ich seh halt
ja ich weiß nicht
also ich brauch nur ganz klein
was sagte der Markus doch vorhin
ich brauch nur
kleinere Sachen
also vielleicht kann man das dann eher
darüber kategorisieren
und nicht jetzt über die Art der Behinderung
also wenn
wenn kategorisieren dann würde ich sagen blind
hochgradig sehbehindert
sehbehindert so ja und alles was
alles was alles was was fein ist darüber hinaus
ist zu schwierig
ja und dann kann sich ja jeder überlegen welche
zu welcher Kategorie er sich jetzt nur einordnet
ich denk schon eher auch der Informationsbedarf
wie es gesagt wurde
dass der ausschlaggebende
dass die Krankheit
das Krankheitsbild tatsächlich weniger
die Rolle spielt als welchen Bedarf hab ich grad
brauch ich detaillierte Informationen zu allem
oder brauch ich nur
ja ganz
erstmal ganz grobe Struktur und dann vielleicht
war ich erstmal das ganz grobe
um ein Stück Weges zu kommen
und ganz am Schluss war ich ganz fein
weil ich dann
das Klingelschild dann von mir hab und so
ne ja also das
ja
ich glaub das mit diesen mit diesen Anforderungsprofilen
das glaub ich ist eher der richtige Plan
als auf die Krankheit abzuziehen
ja weil es hängt von der Dunkelheit zum Beispiel ab
es hängt davon ab
wie gut kennt man sich in der bestimmten Gegend aus
das kann ja sehr unterschiedlich sein
wie mobil man ist
es kann davon abhängen
vielleicht sogar
es gibt ja sogar Sehbehinderte da hab ich mal gehört
wo das Sehen
schwankt die nicht jeden Tag gleich viel sehen
ja gibt das auch ja
so jetzt will ich auch noch mal was dazu sagen
ich bin Hubertus
ich hab
ich hab das vorhin mit den Profilen eingebracht
aber ich bin eigentlich
das war eigentlich nur ganz grundsätzlich also ich
finde wir reden hier über ungelegte Eier für mich also
ich wir reden hier über eine App
und und die gibt es im Entwicklungsstadium aber
ich kenn sie nicht
ich kann mir das alles nicht vorstellen
ehrlich gesagt ich ich möchte die App erst testen
das hatte ich ja vorhin auch schon gesagt
und dann wenn ich die kenne
dann kann ich mich gerne unterhalten und auch
Vorschläge machen
weil ich dann die App
kenne und weil ich dann auch weiß
worum es geht
aber dieses hier
das ist
die anderen haben das ja alle mitgemacht und so
ist ja auch ganz toll
aber für mich war das
nicht sehr hilfreich
also schon sehr hilfreich aber nicht
ja
es hat mich nicht nicht wesentlich weitergebracht das
ja das ist die perfekte Überleitung
Brainstorming ne
ja aber das ist die perfekte Überleitung
zu vielleicht
wie auf jeden Fall wir von unserer Seite
vielleicht diese Session
abrunden können
indem wir euch alle
fragen wer von euch wer interessiert das zu testen
und die Person die interessiert sind
wir können entweder hier direkt in den Chat
die E-Mail-Adresse schreiben
oder im Nachgang vielleicht kann
Matthias da irgendwie eine Verteilerliste schreiben
genau ja also ich würd die ich würd die
App sehr gerne testen
ich bin der Dirk Zwang
ich bin eben etwas später dazu gekommen
aber was mich noch eben richtig interessieren würde
der Matthias hatte das angekündigt am heute
und zwar wenn ich mich recht entsinne
ging's doch auch da drum in Verbindung
gegebenenfalls mit dem Lidar Scanner
vom vom iPhone das wär doch eine interessante Sache
ja will ich grade kurz was dazu sagen
das war das letzte mal als wir gesprochen haben
wirkt da hatte ich dir das erzählt
und da hatten wir noch
die Hinderniserkennung App von der Firma
SmartAI und die ja ist
ja haben wir vorhin im
Eingang schon gehabt im Moment erstmal vom Tisch
ah ja so
ist eben um da darum die räumliche KI zu entwickeln
aber wir beide hatten drüber gesprochen
genau daher hast du die Info
ja genau ich kann
ich kann auch gleich was dazu sagen
aber damit wir auch keine Themen überspringen
also ich komm
gleich in einer Sekunde noch mal drauf eine
aber noch mal wegen der Testerliste wer
also sollen wir das einfach
durch dich Matthias dann nachher machen
dass du das weiterleitest
oder ihr meldet euch bei Matthias
wer Interesse hat an einem Test
weil ich find den Punkt super
am besten hat man da die Ideen wenn man getestet
hat und dann
wir haben auch natürlich so wir machen online Sessions
wir machen
Feedback Runden
dass ihr uns Feedback gebt was als nächstes kommt
und dann priorisieren
wir basieren darauf
wie möchtet ihr
Interesse ankündigen
okay also ich denke
ich denke entweder
entweder die Leute
also die Leute die Interesse haben
können entweder an euch schreiben
oder wenn sie sich die Adresse nicht merken können
meine kennen kennen viele und können die benutzen
und ich leide die Dinge dann eben
dementsprechend weiter ja perfekt einfach immer
k.schaefer@papenmeier.de
ja die kennen viele
und ich würde dann den Kontakt eben zu euch
sehr schnell herstellen
ich hätte noch mal eine
Nachfrage zu der wenn man
wenn ich jetzt die teste
und wenn ich dann Rückmeldungen haben habe
geht das nur in
schriftlicher Form
oder hab ich das jetzt eben richtig verstanden
dass man
dass man auch sozusagen mit euch telefonieren kann
und dass verbal
die Rückmeldung geben kann
ja so also am besten in einer schriftlichen Form
ich schreib mal die E-Mail-Adresse
Ich schreib aber auch gerne in den Chat unsere Nummer.
Telefonieren ist manchmal schwierig,
weil wir bekommen ja sehr viele Anfragen, aber gerne.
Super gerne eine WhatsApp Nachricht oder Audio.
Sprachnachricht auf WhatsApp. Eine Sekunde.
Ah ja, okay, das geht auch.
Es gibt ja auch eine...
Es gibt ja auch eine WhatsApp Gruppe zum Austauschen.
Genau, gibt auch.
Okay, Austausch kann ich dann mal schicken.
Genau, ich hab jetzt in der...
In dem Chat die E-Mail-Adresse
und die Handynummer geschickt.
Gerne auf WhatsApp oder die E-Mail.
Ganz kurze...
Ganz kurze Unterbrechung.
Ganz kurze Unterbrechung.
Wer jetzt gerade nicht an der Diskussion
beteiligt ist oder sowas,
bitte Mikro ausschalten,
weil der quatscht immer eine Sprachausgabe rein.
Ja, das war ich.
Entschuldigung.
Ich wollte dir nämlich gerade eine Mail schreiben.
Ich halte schon stumm, tschuldigung.
Ich beantworte...
noch mal die Frage wegen der Hinderniserkennung
und da auch gerne eure Meinung offen, direkt
und gerne auch kritisch.
So, wir haben...
Wir haben sehr viel Zeit und Aufwand investiert
in die Hinderniserkennung,
in die Entwicklung davon.
Das funktioniert auf iPhones.
Auf Handys nach einem Jahr haben wir es geschafft,
dass es jetzt auf iPhone Pro funktioniert.
Zu einem bestimmten Grad
in Echtzeit. Es war aber nicht möglich,
das auf iPhone nicht Pro zu machen,
weil es super wichtig ist,
dass die Hinderniserkennung akkurat ist von Distanzen.
Wir wollen keine falschen Pieptöne,
keine späten, keine frühen.
Viele haben gesagt, ist wichtig,
dass das auf Android geht,
dass auf iPhone nicht Pro geht.
Das konnten wir leider den Wunsch nicht erfüllen.
Es ist aus Stand der Technik nicht möglich einfach.
Zweite Sache war die Brusttasche.
Viele haben gesagt:
"Ich will keine Brusttasche mit dem Kisten."
Auch dass das Handy richtig ausgerichtet
ist. "Ich will unbedingt die Smart Glasses
oder so ein kleines Gerät."
Das ist auch leider
nicht möglich mit der Hinderniserkennung,
weil eine Hinderniserkennung muss super
genau ausgerichtet sein.
Und dann haben wir gehört:
"Ja, die Hinderniserkennung ist nicht mein..."
Es ist auf jeden Fall ein Bedürfnis von vielen.
Aber nicht von der Mehrheit. Von vielen kam es:
"Ja, ich will diese letzte Meter Navigation,
dieses römische K..."
"E-Assistent..."
"Diese Navigation, Kupplung und weitere Sachen."
Deswegen haben wir es zur Priorität...
Da um die Transparenz
zu halten.
Gerne eure Meinung dazu.
Ich wollts einfach mal Transparenz
in den Raum geklärt haben. Ja.
Aber wir schauen
ja jetzt in die Zukunft und wann entwickeln wir.
Ja, geht davon aus,
dass man das vielleicht so hinbekommt,
dass man mit GPS
dorthin kommt und dass man dann in den letzten Metern
mit dem Weg letzten Meter praktischer findet.
Dann findet man den Einkaufszentrum,
die Tür und geht durch
die Tür
durch und dann schaltet man auf Einkaufsmodus um
und dann kann man mit der App einkaufen.
Ja, okay, das ist die...
Also das ist die Richtung,
die wir heute diskutiert haben und
die jetzt geplant ist.
Gut, ja.
Wie, also das mit den Hindernissen
ist jetzt komplett vom Tisch
sozusagen mit dem Lidar Scanner oder Lidar Scanner?
Genau, aktuell komplett vom Tisch.
Es kann in der Zukunft noch mal kommen, wenn wir merken,
Smart Glasses sind
da reif für sowas oder andere Geräte sind
da reif oder man kann es da auf mehr Geräte bringen.
Dann könnte es noch mal kommen.
Aber wie gesagt, wir richten uns nach euch.
Also ihr bekommt jetzt die aktuelle App.
Ihr könnt auch gerne in die Community wie...
Ihr könnt uns gerne jederzeit auch ein Feedback schicken
und das, was wir von der Mehrheit bekommen,
das werden wir natürlich priorisieren.
Ja genau, und da informieren...
Also wir haben das Format, dass wir euch dann
mit jeder Änderung informieren,
was wurde priorisiert und warum.
Und dann hätten wir
jeden Monat spätestens dann eine Online-Session,
auch ähnlich wie heute.
Haben wir's
inspiriert von Matthias.
Ha.
Dass wir auch noch mal in der Runde reden und schauen,
ob wir wirklich das gemacht haben, was ihr wolltet.
Ja also, was brauch ich dann jetzt aktuell für ein iPhone,
um das testen zu können?
Oder was brauch ich für ein iPhone?
Stand heute iPhone Pro.
Wir sind zuversichtlich,
dass es spätestens im Januar
iPhone nicht Pro auch mit inkludiert wird.
Aber die, die zwei Kameras haben, es eher...
Kann ich nicht versprechen, ja.
Das braucht man heute.
Die ewig normale Frage und die Sessions,
die würden dann auch über Zoom
zum Laufen oder über welche
über welche Plattform geht die dann? Ja.
Sehr schön, wahrscheinlich auch auf Zoom.
Ja, wir werden die ankündigen per E-Mail oder WhatsApp.
Genau.
Ich hab auch noch eine Frage.
Ich hab euch jetzt auch schon mal meine
E-Mail-Adresse in den Chat geschrieben.
Habt ihr eine WhatsApp
Kanal, wo man also ja, doch Kanal ist das richtige,
wo man euch folgen kann oder auch einen Chat,
wo man sich austauscht?
Oder habt ihr beides oder ja?
Ja, wir haben einen WhatsApp Kanal.
Gerne einfach die E-Mail schicken
und dann fügen wir euch da hinzu,
wer möchte.
Aber es gibt eine WhatsApp Gruppe zum Diskutieren.
Genau, gibt's eine WhatsApp Gruppe zum Diskutieren.
Ja, ja.
Wie komm ich da dran?
Also wenn ich das nutzen kann, sobald es möglich ist?
Gerne uns einfach eine E-Mail schreiben.
Okay.
Also ich hab jetzt nicht deine E-Mail-Adresse hier.
Genau.
Ja, ja, okay, alles klar, dann machen wir das. Danke.
Super gerne, sehr coole Fragen.
Sehr schön. Gibt's da noch Fragen?
Gibt's da noch Wünsche?
Matthias, wie ist auch mit der Zeit?
Wir wollen's ja nicht über die Zeit ziehen.
Du bist hier der Host.
Wir sind im Grunde genommen ja offen.
Vielleicht gibt's ja auch noch Themen der Teilnehmer.
Ich möchte auch noch über eine Erfahrung berichten
über KI-Nutzung, die ich gemacht habe später, aber
wenn noch Fragen sind,
dann können wir die durchaus erschöpfend beantworten.
Also bei uns fällt nicht
ab einem bestimmten Punkt der Hammer.
Was soll es sein denn? Wir kriegen dann irgendwann...
Wir kriegen dann irgendwann Hunger oder sowas.
Also ich hätte noch eine Sache noch mal.
Ich weiß jetzt,
dass die Sache mit dem Lidar Scanner vom Tisch ist,
aber der Punkt ist doch der:
Die Features,
die aufm iPhone dann funktionieren,
die funktionieren ja sowieso auch nur auf den Pro
Geräten.
Und auf den normalen Geräten ja eben
nicht und deswegen
verstehe ich jetzt irgendwie das Problem nicht so ganz.
Die aktuelle, die aktuelle App...
Ja, ja, das...
Also du meinst, dass es keinen Unterschied gibt?
"Hey, die Hinderniserkennung hat auf iPhone Pro
funktioniert und die neue auch."
Wo ist der Unterschied? Oder...
Nein, nein, umgedreht.
Also das ist ja sowieso,
dass man mit diesem Lidar Scanner
das ja sowieso nur auf den Pro
Geräten machen kann.
Auf den normalen...
Die normalen Geräte,
zum Beispiel das 16e hat ja zum Beispiel
auch den Lidar Scanner nicht.
Ja, also...
Also dann muss man sich von... Ja, dann muss man sich von...
Sollte man sich von vornherein...
Ich find die Lösung von
Apple vielleicht auch nicht gut, aber...
Ja, dann müsste man sich halt von vornherein entscheiden,
wenn man da so eine Lösung möchte,
dass es eben dann nur so geht.
Ja, also ich erklär es
noch mal auch ein bisschen von der technischen
Perspektive.
Was ist der Vorteil von dem iPhone
Pro mit dem Lidar Scanner?
Alle Apps, die irgendwas räumliches haben, werden
brauchen Abstandsmessung.
Der Lidar Scanner
kann es am besten und sehr akkurat messen
für die Hinderniserkennung.
Das heißt Zentimeter-Genauigkeit.
Das braucht man auf jeden Fall.
Das braucht man auf jeden Fall.
Die anderen Geräte, also iPhone mit zwei Kameras, kann genau...
Also kann auch Abstand messen,
weniger genau. Aber was heißt weniger genau?
Wenn es weniger genau ist,
sagen wir 20 Zentimeter Abweichung hat,
dann ist super schlecht für die Hinderniserkennung,
aber es geht für die letzte Meter Navigation,
weil es kommt nicht auf diesen 20 Zentimeter...
Das ist nicht mal ein Schritt.
So die iPhones, die eine Kamera haben,
da ist es mathematisch nicht möglich, Abstand zu messen.
Aber in der Zukunft wird's möglich mit KI,
Abstand zu messen, auch mit einer Genauigkeit von 20-30...
Aber auch nicht in Echtzeit, nicht 20 mal pro Sekunde,
sondern einmal
pro Sekunde. Das reicht für die letzte Meter Navigation,
aber eben nicht für die Hindernisse. Genau.
Ja, aber wer wirklich am...
Die beste Qualität haben will, der braucht iPhone Pro. Ja.
Und was ich auch mal fragen wollte:
Wenn man jetzt nicht testen will,
sondern nur mal so den Stand,
ich sag mal,
gelegentlich verfolgen, um sich zu entscheiden,
kauf ich mir ein iPhone Pro?
Wo informiert man sich da am besten? Weil
ja, wenn man jetzt, ich sag mal, wenn man jetzt sämtliche...
Wenn man jetzt eh nicht selber testen kann,
dann macht's ja nicht so viel Sinn, da jetzt
jeden Testbericht zu lesen,
sondern dann macht's ja Sinn,
ja so einen Gesamtstand zu haben und zu wissen,
lohnt sich das
für mich wichtig genug, um mir dafür ein anderes iPhone
zu kaufen? Ja.
Das ist super Punkt, also...
Die Optionen: Uns eine E-Mail schicken und wir nehmen...
Wir nehmen dich oder die, die Interesse haben,
gerne im Newsletter.
Oder auch gerne auf die Webseite von uns schauen.
Da gibt's immer die neuesten Informationen,
wo wir gerade stehen.
Also SmartAI.de.
Hab ich auch in den Chat geschickt.
Ja, SmartAI.de.
Genau, SmartAI.de.
Ja.
Ja.
Genau, dort gibt's hier so: "Ich will
Tester werden" oder einfach "Kontakt aufnehmen".
Ja, ja. Und wenn es...
Wenn es Richtung Marktreife kommt, auch dann
posten sie es auf jeden Fall dort.
Ja, wenn man mehr Informationen haben will,
dann auf jeden Fall uns schreiben.
Dann nehmen wir euch dann in Newsletter.
Ja, und hier werden wir das natürlich auch
wohlwollend
beobachten, wie sich das ganze Projekt entwickelt.
Ja.
Ja, und werden es dann auch berichten.
Ja, dann danke ich euch beiden.
Ja, für diese inspirierende Diskussion.
War sehr lebhaft und ich hoffe,
ich denk, wir haben eine
ganze Reihe Erkenntnisse
gewonnen und ich hoffe auch
für euch war die Diskussion
erfolgreich, dass ihr einiges mitnehmen könnt,
was ihr in eure Entwicklung berücksichtigen könnt.
Ja.
Ja, auf jeden Fall.
Also
auf jeden Fall vielen Dank für euer Feedback und ja,
für die Diskussionen.
Ja, das kann ich auch sagen.
Vielen lieben Dank an alle für das ganze Input.
Es war sehr interessant mit euch zu diskutieren.
Coole Ideen habt ihr eingebracht.
Ich hoffe, dass wir es auch so weitermachen.
Genau.
Schreibt uns einfach, wer Interesse hat an einem Test.
Wir halten euch auf dem Laufenden.
Ja, und unser Ziel ist, wie gesagt, das mitzugestalten
zusammen. Ja.
Ja, dann bedanke ich mich, dass ihr da wart
und könnt gerne noch bleiben.
Vielleicht
gibt's noch ein paar Themen aus dem Nutzerkreis hier,
die wir noch besprechen
wollen. Ja, perfekt.
Dann lassen wir euch mal
den Abend noch mal genießen,
bisschen diskutieren.
Und wir freuen uns... Ich hab noch mal eine Frage.
Gerne. Wie wird denn das finanziert?
Also man hat ja immer so ein bisschen Angst,
wenn man so an andere
Hersteller denkt, die dann plötzlich weg waren.
Das wäre verdammt schade.
Wie finanzieren sie sich oder wie
ist das langfristig?
Genau, wir sind aktuell von Investoren finanziert.
Ja, und da...
Damit zahlen wir unsere Kosten erstmal,
bis wir ein Produkt auf den Markt
bringen und uns damit finanzieren.
Das Ziel, wie gesagt,
wenn wir da mehr Wert generiert haben:
Erstmal ein Abo-Modell, ein kleines Abo-Modell.
Und dann
perspektivisch die Hilfsmittelliste zu erreichen.
Aber das dauert, weil es regulatorisch sehr komplex...
Ja, ja.
Man hat da ja immer ein bisschen Angst, dass dann das
schnell verschwindet.
Hat man ja mit Rude Go und wie das Talkies...
Alles, was auch ein bisschen schade... Also
wenn es mehr Wert hat
und wenn wir genau das treffen, was ihr wollt,
und wenn ihr uns dabei helft,
dann werden wir nicht verschwinden.
Dann bleiben wir.
Das wäre ja schade, weil du sagst, das hört sich alles
ziemlich gut an.
Dann sollen wir es so
versichert sein, dass es weiterläuft.
Ja.
Sehr schwer. Okay, die Evi hat noch mal eine Frage.
Und zwar: Wie habt ihr euch
da so gefunden und wie seid ihr auf den Blindenkreis gekommen?
Also ihr seid ja beide sehend.
Ja.
Mich hat interessiert, wie die...
Wie das so alles entstanden ist, also das...
Die Idee auch und wie die Idee zustande kam. Ja.
Hattet ihr Kontakt mit Blinden oder...? Genau.
Ja.
Ja.
Es ist entstanden aus dem technischen Hintergrund.
Mein Mitgründer Zeit und ich
haben studiert
autonomes Fahren, computerbasiertes Sehen, KI.
Und wir dachten uns:
"Hey, was kann man da cool damit machen?"
Man kann Roboter programmieren,
man kann autonom fahrende Autos programmieren.
Aber wieso nutzt niemand
diese Technologien,
um Blinden und seheingeschränkten Menschen zu helfen?
Dann haben wir mit vielen Betroffenen geredet.
Wir haben gemerkt: Krass, es gibt sehr viele Probleme.
Große wie Google kümmern sich nicht darum. Wir sehen da
Potenzial,
Leuten zu helfen mit den neuesten Technologien.
Und wir haben uns das als Ziel gesetzt.
Einige kamen dann dazu,
wo wir gemerkt haben:
"Wir brauchen da jemand, der
wirklich den Betroffenen gut zuhört
und uns dann in die richtige Richtung da steuert."
Genau, und dann haben wir uns da zusammengefunden.
Ja, sehr spannend.
Vielen Dank, dass wir euch lächeln durften.
Ja, vielen lieben Dank euch.
Gut, dann wünschen wir einen schönen Abend.
Vielen Dank, Matthias.
Sag mal,
dass ihr uns eingeladen habt für die coole Initiative.
Und Glückwunsch noch mal zu dem einjährigen.
Ja, okay, macht's gut.
Vielen, vielen Dank, schönen Abend. Grüße, tschau, tschau.
Tschüss.
Ja, ich wollte...
War die letzten Wochen viel unterwegs
und unterwegs packt mich dann ab und zu mal der
Spieltrieb.
Und da hab ich zwei Erkenntnisse gewonnen,
die ich gerne mit euch teilen möchte.
Ich war letzte Woche in München
und ich musste an einem Bahnhof umsteigen oder
da musste ich mich mehrfach aufhalten über die Tage,
den ich vorher nicht kannte.
Und dann hab ich so im Zug gesessen.
Die Bahn hatte
mal wieder unfreiwillig eine Pause eingelegt.
Und dann hab ich gedacht:
"Och, ich probier ja doch jetzt mal,
mir vom Münchner Ostbahnhof eine
Bahnhofsbeschreibung geben zu lassen,
dass ich nämlich da besser zurecht finde."
Und dann hab ich also
ChatGPT genutzt und hab mal reingeschrieben:
"Gib mir bitte eine...
Einen Überblick über den Münchner Ostbahnhof
und
bezogen auf Barrierefreiheit für blinde Menschen.
Und berücksichtige besonders den Weg von den Gleisen
zum Taxistand."
Ja, und ich hab tatsächlich von ChatGPT
eine exakte Beschreibung bekommen,
wie ich da laufen kann, und hab dann auch so meine
Quellen geguckt,
weil es ja dann immer die Frage: Halluziniert
die KI oder nicht?
Und ich hab dann festgestellt, dass
ChatGPT
tatsächlich einen Plan dieses Bahnhofs angeschaut hat
und irgendwoher auch tatsächlich
die Informationen
hergenommen hat,
dass da eben entsprechend
Leitstreifen sind und wie weit die gehen
und sowas. Also fand ich sehr spannend die Erkenntnis.
Ja, und es ging dann noch weiter.
Ich wollte
in ein Restaurant. Ja, und
dort hatte
eine Speisekarte,
die für uns überhaupt nicht lesbar war
mit Bildern und so weiter.
Dann hab ich einfach den Link
dieser Speisekarte
dieses Restaurants genommen
und habe der KI gesagt:
"Lies mir bitte die Speisekarte unter diesem Link vor."
Hat funktioniert.
Und ich konnte dann sogar noch Fragen dazu stellen.
Ja, so mal als Tipp. Also
spielt da einfach mal mit rum. Ja.
Ja, mit der Speisekarte hab ich auch schon mal gemacht.
Das fand ich auch ganz cool.
Um mich vorzubereiten,
dann konnte, wusste ich als Erster,
was ich wollte, und alle so:
"Hä?" Ich sag: "Ja, Leute, ChatGPT."
Ja, das ist schön, wie viel jetzt mittlerweile geht.
Ja.
Ja, das mit dem Bahnhof, da war ich sehr skeptisch.
Ja, ja, deine Bahnhofserfahrung ist klasse.
Also das hätte ich
hätte ich auch nicht erwartet.
Aber bei dem ChatGPT
du musst wirklich ganz konkrete
Anweisungen reinschreiben.
Also
ganz klar und ja.
Ja, also da tu ich mich teilweise
glaub ich noch manchmal schwer.
Also ich hab's noch nicht benutzt.
Ich hab echt immer noch ein bissl Berührungsängste.
Aber
vielleicht sollte ich's tatsächlich mal ausprobieren.
Probier's mal mit was...
Also erstmal vielleicht mit was einfachem aus.
Je genauer du's also eingrenzt, tatsächlich
desto besser ist das.
Du kannst auch sagen: "Mit Quellen, ohne Quellen."
Also das ist schon, schon...
Also ich muss es erst runterladen.
und da gibt's ja die kostenlose Version, a
einmal, glaub ich
ja, damit kannst du gut anfangen
genau, als Einsteiger
aber wir können ja vielleicht mal
für das wäre vielleicht ein Thema
mal für den Januar Reha-Stammtisch
dass wir uns da mal damit befassen, wie
wie schreibt man eigentlich richtig
richtige Prompts für uns
ne, also man kann ja soweit gehen
man kann ja soweit gehen
manchmal mach ich irgendwelche Tutorials da
mit ChatGPT
muss man natürlich immer schön kontrollieren
dass es auch das Richtige drin steht
aber ich schreib dann immer eben mal als Tipp auch
an jedes Ende jedes Prompts
stelle mir eine barrierefreie Word-
Datei zum Herunterladen zur Verfügung und dann macht
er kreiert er mir tatsächlich einen Link
und ich kriege das in der barrierefreien Datei
ja, mhm
dann kann mir das runterladen
also muss es dann eben nicht im Chat lesen
aber wie heißt die Datei?
nein, die Datei, das mach ich über ChatGPT
andere können's auch und ich sage halt
erstelle mir eine barrierefreie Datei
wenn ich einen Prompt geschrieben habe
ja, zu irgendeinem Thema
also ich hätte mir jetzt diese Bahnhofsbeschreibung
hätte ich auch im
hinten dran schreiben können
erstelle mir eine barrierefreie Datei zum Runterladen
und ja
aber ich bereite das mal ein bisschen vor für Januar
wenn ihr Interesse habt
und dann können wir uns mal drüber austauschen
mit welchen Prompts
bei der Arbeit mit KI wir erfolgreich sind
ja, oh ja, das wär gut
Matthias, Matthias, eine Frage
bist du auch viel im iPhone unterwegs mit ChatGPT?
ich hab dort immer die Schwierigkeit
in der Antwort zu navigieren
das ist nicht schön
gibt's da einen heißen Tipp?
gibt's da einen heißen Tipp oder es gibt einen Tipp
man kann eben im Rotor
dahin kommen auf Aktion
und dann kann man einfach den Text kopieren und
dorthin kopieren
wo man's auch lesen kann
ach so, okay, das mach ich
okay, aber es gibt innerhalb ChatGPT keinen feinen Weg
wie ich da mal ein paar Absätze hoch
wieder runter und so weiter
ne, das machen die immer mal wieder
also du kannst natürlich den Rotor
auf zeilenweises Lesen drehen, aber
es ist wirklich blöd im Moment
es springt immer wieder weg
oder wenn du zum Beispiel jetzt
jetzt ganz ans Ende willst
und du willst dann noch mal so eine Frage
zusätzlich schreiben, ja, zusätzlich
das ist eine ziemliche Fummelei im Moment
ja, okay, also da bist du
da bist du mit Perplexity, geht's mir nicht alleine
geht's mir nicht alleine
da bist du mit Perplexity
besser, übrigens mal so ein Tipp
ich weiß jetzt nicht, ob das Angebot noch aktuell ist
aber wer PayPal-Nutzer ist, hat die Möglichkeit
ein Jahr lang Perplexity kostenlos zu nutzen mitbekommen
ja, ich mein, das wär noch bis Ende dieses Jahres
dieses Angebot
also das sind wirklich, kostet
man die Bezahlversion von Perplexity kostet
wie bei allen anderen auch 22 bis 23 Euro im
im Monat und
man kann das also wirklich für ein Jahr
kostenlos kriegen als
als PayPal-Nutzer
aha
und dieses und und und das Display City
was was ist das?
Display City ist
ist eigentlich nur eine andere KI
das ähnlich wie ChatGPT ist, auch ähnlich aufgebaut
wir legen halt sehr viel Wert auf auf Quellennachweise und so
weil ja, genau, deshalb kriegt man eben mehr
Quellennachweise, dass man auch sieht
wo holt sich die KI eigentlich die Informationen
her, mhm, ja und ich hab, find ich, hab
ich hab von einem Studierenden gehört, der hat mir erzählt, er
lässt von
ChatGPT die Prompts schreiben
die er dann in Perplexity füttert
die er dann in Perplexity füttert
und
und Gemini stellt dann den Text noch mal um oder wie?
vielleicht
vielleicht darf ich euch einen anderen Tipp geben
weil der Preis ja
auch für Perplexity und und ChatGPT
und wie sie alle heißen
relativ hoch ist
guckt mal unter monica.im
das ist so eine Art gebündelte KI, da
die arbeitet sowohl mit ChatGPT
als auch mit Perplexity
als auch mit Claude und sonstiges
man kann immer auswählen, was man grad verwenden möchte
hat aber nur einen Monatspreis oder einen Jahrespreis
und je nachdem, wofür man's grade braucht
ich brauch das manchmal zum Programmieren
manchmal brauch ich's eher für
Texte oder sonstiges
das lohnt sich dann halt
da in dem Programm zwischen den verschiedenen
KIs einfach wechseln zu können, ob sie jetzt
GPT-5 ist oder Claude 4.5
wie war das? Monica?
Monica mit c und dann AI? Ne, IM
IM, genau, dann gibt's eine Free-Version
da kann man dann 40 Anfragen
pro Tag stellen
für einen geringen
also für ChatGPT 4 und und Claude 3.5
und und Deepseek und keine Ahnung was, ja
aber für
ich guck grad nach, für 99 Dollar im Jahr
beispielsweise kann man schon 5.000
monatliche Zugriffe steuern
ja, ja und ich hab
weil ich das auch sowohl beruflich
als auch privat nutze
ich hab beispielsweise die Unlimited, ich kann
ja bis hin zu Bildern damit erstellen
und ich kann aber auch Vergleiche machen
das heißt, wenn ich einen
Prompt mache und den über ChatGPT
laufen lasse
und ich bin mir nicht ganz sicher, kann ich den
einfach mit einem Knopfdruck der nächsten KI
als Futter vorwerfen sozusagen
und kann dann die Versionen auch vergleichen
ja, mhm und gibt es
ist das nur Internetseite oder
kannst du das auch über Smartphone nutzen?
das kann auch über Smartphone, da ist eine App bei
ah ja, gut, das guck ich mir an
ich, das nutz ich
ich muss ganz ehrlich gestehen
ich nutz es schon seit einem halben Jahr
mhm, ja, ich muss sagen, ich nutze in
in letzter, ich hab ChatGPT, hab ich
und ich nutze in letzter Zeit sehr viel
tatsächlich von Microsoft den Copiloten
und da bin ich wirklich
erstaunt
was die zum Beispiel
alles machen
da bekommt man zum Beispiel auch die Quellen
angezeigt und man hat zum Beispiel einen Schalter
wo man das, was man sich hat
oder die Antwort, die man dann von
vom Copiloten bekommt
kann man kopieren und kann das denn in ein
Word-Dokument einfügen zum Beispiel
und das find ich richtig klasse und
ich hab damit zum Beispiel
mit dem Copiloten hab ich zum Beispiel die ganzen
Befehle mir gesucht
die ich gebraucht habe
als ich meine Maschinen umgestellt habe auf Windows 11
und das hat hervorragend funktioniert
und das hat alles geklappt
das war Spitze, da war ich also wirklich
äußerst überrascht davon, ja
ja, der Copilot
Copilot ist auch besser zu navigieren als jetzt
ChatGPT
also im Bezug auf die Fragen, die Markus gestellt hat
ja, auf jeden Fall
wie ist denn mit der Monica, ist die auch gut
VoiceOver-tauglich?
ja, ja, das werden wir testen
ich hab, ich hab grade
nicht akustisch nicht verstanden, wie tauglich
VoiceOver, ob ich die gut mit VoiceOver bedienen kann
die Monica-App, von der du erzählst
sorry, ich bin sehnt
das testen wir aus
also nicht zum Beispiel bei Perplexity, auch da
die mag ich nicht
ich komm damit irgendwie nicht klar
ich, da da sind so viele Schalter und so
also ich hoff mal auf Monica jetzt
also wie gesagt, ich kann's nur empfehlen, weil
von ChatGPT über Perplexity bis hin zu Gemini
sind die aktuellsten Modelle mit drin
ja, ist übrigens auch schon mal
so KIs nutzen am Smartphone
ja, es gibt jetzt in iOS 26.2, was jetzt
Mitte Dezember wahrscheinlich noch erscheint
es gibt Hinweise
dass man zukünftig sich die KI
mit der man
arbeitet über das iPhone selbst aussuchen kann
dass man also eben dort, wo wir jetzt
den
Power-Button gedrückt halten und dann die Siri
hören und so weiter
da kann man dann zum Beispiel auch Gemini drauflegen
das ist jetzt glaub ich
in Japan haben sie damit angefangen
und
mussten es machen aufgrund von Regularien
und ich denke, dass das in der EU auch kommt
dass man sich dann die KI
mit der man dort arbeitet, aussuchen kann
ja
das ist schon schwierig, ne
ja, das können wir dann ja mal
weil ich wollte dich auch noch
aber das können wir dann ja mal im Januar vertiefen
weil es ist glaub ich schon noch am besten
wenn man ein bisschen weiß
wonach man fragt
weil man darf sich nicht
wortwörtlich blind einfach auf das verlassen
was die so behauptet
ne, genau, ich bereite das mal so ein bisschen vor
ja, und dann
dann machen wir das mal so vielleicht als Schwerpunkt-
Thema im Januar
habt ihr sonst noch Ideen, was man an
an Themen die man noch angehen könnte, ja
ja, ich find das auch sehr gut mit dem mit der KI
was du eben sagtest, Matthias
was wenn du das vorbereitest
sehr gut, ne, ich hatte heute nichts mehr, ja
ja, ich find das KI-Thema auch super
vielleicht auch ganz interessant
ein kleinen Überblick
die bekanntesten Modelle und was die jeweils für
eine Ausrichtung haben
also was denn der Schwerpunkte sind von denen
weil ich find's auch
wahnsinnig schwer zu entscheiden
welche soll ich denn verwenden
ja, gibt ja jetzt schon manche Apps, die
die Auswahl ermöglichen
ja, du kannst hier dein KI-Modell aussuchen
und dann die mir
am PC wär auch interessant, wie man's da macht, also
nicht nur am iPhone
ja, hmm, ja, okay, das machen wir, das gut, mhm
das nächste Mal, das ist ja wieder
sind ja wieder Windows-Themen dran
dann machen wir dann mal was zu
also was jetzt eben neue Erneuerungen in den Screen-
Readern für Windows
was was es Erneuerungen gibt in JAWS
NVDA und Narrator und so
aber so oder so
es ist Dezember
es ist der 17.12., aber wir machen trotzdem
ja, wir machen, was das angeht, keine Weihnachtsfeier
nein, wir, genau, wir machen das
wir machen das so
und ich hab da zwar schon Urlaub
aber den Reha-Stammtisch mach ich trotzdem
ja, wir
wir bringen alle Glühwein mit, außer Matthias
weil der muss ja reden
und Plätzchen, ich dachte, der muss fahren
ja, hab ich auch gedacht
wir gucken und Plätzchen sind auch dabei
wie ist das eigentlich mit diesem
mit diesem neuen, also mit iOS, ach, wie heißt das jetzt
26
ja, das ist es eigentlich immer noch so
dass die Tastatur da nicht richtig funktioniert
also also diese Rückmeldung
diese Tonrückmeldung
weil ich freu mich immer noch ein bisschen davor, da
abzudaten, weil es da ja doch die eine oder anderen
was genau meinst du?
ja, na
viele berichten, haben irgendwie am Anfang so berichtet
dass die Tastatur
nicht mehr so Klickrückmeldung gibt, wenn man, wenn man
wenn man schreibt, die Telefon-Tastatur und so
das war beim
das war beim Anmelden, das das geht aber wieder
das geht wieder, das ist alles wieder
also das ist alles
da können wir mittlerweile bedenkenlos auf die 26
upgraden, ja, ich hab auch 26.1
also also was
was ich festgestellt hab im Internet
dass wenn ich
auf
auf einer Seite bin und ich geh praktisch, ich klick
einen Link an, dann krieg ich diese Töne immer
beziehungsweise VoiceOver
steigt dann noch mal kurz aus und kommt
aber dann irgendwann wieder
mhm, das sollte jetzt in der 26.2
auch behoben sein, also ich hab's jetzt schon bei
bei mir ist es, Mensch, ich hab die neueste
ja, das ist diese
ich hab, ich hab ja die Beta-Version, du hast die 26.1
ich hab jetzt die
die 3. Version
3. Beta-Version von 26.2 und da kommt dieses Problem
nicht mehr vor
ja, dann vielleicht einfach
einfach warten, bis das 26
Punkt 2 da ist, das ist ja nicht mehr so lange
das, das ist, das kommt mit
also Anfang, Mitte Dezember wird das noch kommen, vorher
oh ja, ja
ja, warte ich auch noch auf die 26.2, ich update
von der 18, ja
ich hab jetzt sogar schon auf meinem
auf meinem SE 2022 hab ich's am
Montag oder Dienstag hab ich's auch dann drauf gemacht
und da läuft's auch gut
nur was ich festgestellt hab, manchmal
ich hab als Stimme hab ich die Siri-Stimme 2
diese männliche Stimme
weil alles andere war ziemlich fehlerhaft
und was ich festgestellt hab, manchmal ist die
ist die Sprache ein wenig
dann kommt die so ein Bruchteil später als man
zum Beispiel beim Anmelden dieses
von diesem Klickgeräusch
das kommt manchmal
ein bisschen versetzt
später an, das ist mir also
deutlich aufgefallen gegenüber dem
iOS 18
also hmm, ich weiß auch nicht woran
ja gut, aber das, was für SE hast du gesagt?
ne, ne, ne, ich hab, ich hab 3 iPhones
okay, das hier ist, ich hab 16 Pro Max
mhm, okay, und da ist es auf dem 16 Pro Max
da ist es auch
aber ich hab mir es, also für mich wär's
wahrscheinlich dann noch eher
problematisch, weil es ja dann
wahrscheinlich auch technisch
nicht mehr so leistungsfähig ist
was hast du?
SE 20 hab ich mir gekauft, das ist es
das SE 20 ist gekommen, ist
das könnte so langsam aber sicher
tatsächlich ein bisschen Performance-
Performance-Probleme bekommen
weil ich hab mir halt
ich wollt mir ja eigentlich im Frühjahr das neue SE
kaufen, das dann nicht kam
deshalb hab ich mir eigentlich nur das gekauft
so quasi als Übergang von Winter zum Frühjahr
ja, um dann festzustellen, dass jetzt das 16
SE da ist und ich jetzt aber auch
und jetzt hab ich mir aber auch gedacht, wenn jetzt
lassen sie mal dieses
diese App doch der große Knaller werden und dann
wer ist jetzt blöd
ich kauf mir jetzt ein iPhone
und dann stell ich nächstes Jahr fest
das war das falsche
also wart ich lieber noch ein bisschen
ja gut, gibt es noch weitere Themen, Fragen, Ideen? Ja
wenn das nicht der Fall ist
dann
können wir den Schrank zumachen
dann ja, wünsch ich euch einen
schönen Abend und eine gute Zeit
bis zum, ja nächsten, bis zum 17.
Vielen Dank fürs Zuhören
habt ihr Fragen zu den heutigen Themen oder Anregungen
für künftige Stammtische
schreibt Matthias gerne eine E-Mail an k.schaefer
@papenmeier.de
Schäfer mit ae
und erinnert euch
unsere Stammtische finden immer am 3.
Mittwoch im Monat statt
wobei wir zwischen Apple und Windows-Themen wechseln
bis zum nächsten Mal
bleibt neugierig und technisch auf dem Laufenden
bis zum nächsten Mal