Webtalker ist ein webbasiertes AAC-System (Unterstützte und Alternative Kommunikation). Diese FAQ beantwortet die wichtigsten Fragen zu Funktionsweise, Bedienung und Zugänglichkeit.
Was ist Webtalker?
Webtalker ist eine browserbasierte Kommunikationshilfe für Menschen, die Sprache nicht oder nur eingeschränkt nutzen können. Es basiert auf dem Prinzip der AAC (Augmentative and Alternative Communication) – also der unterstützten Kommunikation.
Das System zeigt ein Raster mit Bildsymbolen (ARASAAC-Piktogramme). Durch Antippen oder Anschauen eines Symbols wird der zugehörige Begriff gesprochen. Mehrere Symbole können zu einem Satz zusammengestellt werden.
Wie funktioniert das Symbolgitter?
Das Symbolgitter zeigt alle verfügbaren Kommunikationssymbole auf einer Seite. Jedes Symbol hat:
- Ein Bild (ARASAAC-Piktogramm) zur visuellen Wiedererkennung
- Einen Text darunter (das gesprochene Wort)
- Einen blauen Ring (erscheint bei Augensteuerung, zeigt den Fortschritt)
Ordner-Symbole (erkennbar am Ecketikett) öffnen eine Unterseite mit thematisch verwandten Symbolen – z. B. „Essen & Trinken", „Gefühle" oder „Personen". Mit dem ← Zurück-Button gelangt man zur vorherigen Ebene.
Antippen eines Symbols fügt es dem Satz-Bereich oben hinzu. Mit ▶ Sprechen wird der zusammengebaute Satz vorgelesen.
Was ist Augensteuerung und wie funktioniert sie?
Die Augensteuerung ermöglicht die vollständige Bedienung ohne Hände. Die Webcam des Geräts verfolgt die Blickrichtung mit Hilfe der KI-Bibliothek WebGazer.js.
Das Prinzip: Jedes Symbol hat einen unsichtbaren Dwell-Ring. Richtet der Nutzer den Blick auf ein Symbol und hält ihn dort für die eingestellte Dwell-Zeit (Standard: 1,5 Sekunden), wird das Symbol automatisch aktiviert – wie ein Klick.
Schritt-für-Schritt: Augensteuerung nutzen
- Auf den 👁-Button in der Toolbar klicken.
- Im Browser-Dialog die Kamera freigeben.
- Warten bis der Button zu 👁✓ wechselt (KI-Modell lädt, ca. 5–20 Sek. beim ersten Mal, danach gecacht).
- Blick auf ein Symbol richten → der blaue Ring füllt sich langsam.
- Ring vollständig gefüllt → Symbol wird gesprochen und ggf. Unterseite geöffnet.
- Blick wegnehmen → Ring setzt sich zurück.
- 👁-Button erneut klicken zum Deaktivieren.
Was ist Dwell-Time und wie stelle ich sie ein?
Die Dwell-Time (Blickdauer) ist die Zeit in Sekunden, die der Blick auf einem Symbol verweilen muss, bevor es aktiviert wird.
- Kurze Dwell-Time (0,5 – 1 s): Schnellere Bedienung, aber mehr versehentliche Aktivierungen.
- Lange Dwell-Time (2 – 3 s): Weniger Fehler, aber langsamere Kommunikation.
- Standard: 1,5 Sekunden – guter Ausgangspunkt für die meisten Nutzer.
Einstellung: ⚙-Button → Schieberegler „Blickdauer" → Wert zwischen 0,5 und 3 Sekunden wählen.
Wie kalibriere ich die Augensteuerung?
Die Kalibrierung verbessert die Genauigkeit der Blickerkennung erheblich, indem das System lernt, wie die Augen des jeweiligen Nutzers funktionieren.
Ablauf:
- ⚙-Button → „Augensteuerung kalibrieren" klicken (oder direkt
/calibration.htmlaufrufen). - „Kalibrierung starten" klicken und Kamera freigeben.
- Auf jeden leuchtenden blauen Punkt schauen und ihn 5× anklicken (der Blick sollte dabei direkt auf dem Punkt ruhen).
- Nach allen 9 Punkten wird ein Genauigkeitstest durchgeführt.
- Ergebnis: Gut (< 80 px), Ausreichend (80–150 px) oder Schlecht (> 150 px).
- „Speichern & zurück" klicken – Daten werden lokal gespeichert.
Gast-Modus vs. Angemeldet – was sind die Unterschiede?
| Funktion | Gast | Angemeldet |
|---|---|---|
| Basis-AAC-Template nutzen | ✅ | ✅ |
| Symbole suchen | ✅ | ✅ |
| Sprachausgabe (TTS) | ✅ | ✅ |
| Augensteuerung | ✅ | ✅ |
| Augensteuerung kalibrieren | ✅ (nur lokal) | ✅ (servergespeichert) |
| KI-Satzerweiterung | ✅ | ✅ |
| Eigene Templates | ❌ | ✅ |
| Template bearbeiten/erstellen | ❌ | ✅ (Admin) |
| Nutzerverwaltung | ❌ | ✅ (Admin) |
Zum Anmelden: 👤-Button in der Toolbar klicken.
Wie funktioniert die KI-Satzerweiterung?
Die KI-Satzerweiterung hilft dabei, aus einzelnen ausgewählten Symbolen einen grammatikalisch vollständigen Satz zu bilden.
Ablauf:
- Mehrere Symbole auswählen (erscheinen als Chips im Satz-Bereich oben).
- 🤖-Button klicken.
- Die KI (Ollama/Gemma, läuft lokal auf dem Server) erweitert die Stichwörter zu einem vollständigen Satz.
- Der vorgeschlagene Satz erscheint in einem blauen Banner – mit ▶ vorlesen oder verwerfen.
Wie funktioniert die Sprachausgabe?
Webtalker nutzt die Web Speech API des Browsers für Text-zu-Sprache (TTS). Es werden die im Browser installierten Systemstimmen verwendet.
Einstellungen (⚙-Button):
- Stimme: Auswahl aus allen verfügbaren Stimmen auf dem Gerät
- Sprechgeschwindigkeit: Langsamer oder schneller (0,5× bis 2×)
- Tonhöhe: Tiefer oder höher
- Lautstärke: 0–100 %
Ein einzelnes Symbol wird direkt beim Antippen vorgelesen. Der gesamte Satz wird mit dem ▶ Sprechen-Button vorgelesen.
Wie funktioniert die Symbol-Suche?
Mit dem 🔍-Button öffnet sich eine Suchleiste. Durch Eingabe eines Begriffs werden passende Symbole aus der ARASAAC-Datenbank angezeigt.
- Die Suche funktioniert auf Deutsch und Englisch (je nach eingestellter Sprache).
- Treffergenauigkeit: zuerst exakte Treffer, dann Präfix-Treffer.
- Ein gefundenes Symbol kann direkt angeklickt/ausgewählt werden – es wird gesprochen und dem Satz hinzugefügt.
Was ist Spracherkennung und wie nutze ich sie?
Mit dem 🎙-Button kann Sprache als Eingabe verwendet werden. Gesprochene Worte werden automatisch in Symbol-Suchen übersetzt.
- Nur in Chrome und Edge vollständig unterstützt.
- Mikrofon-Freigabe im Browser erforderlich.
- Erkannte Wörter werden automatisch gesucht und das beste Ergebnis ausgewählt.
Webtalker is a web-based AAC system (Augmentative and Alternative Communication). This FAQ answers the most important questions about how it works, how to use it, and its accessibility features.
What is Webtalker?
Webtalker is a browser-based communication aid for people who cannot use speech or who have limited speech capabilities. It is based on the principle of AAC (Augmentative and Alternative Communication).
The system displays a grid of picture symbols (ARASAAC pictograms). By tapping or gazing at a symbol, the corresponding word is spoken aloud. Multiple symbols can be combined to form a sentence.
How does the symbol grid work?
The symbol grid displays all available communication symbols on a single screen. Each symbol has:
- An image (ARASAAC pictogram) for visual recognition
- A label below it (the spoken word)
- A blue dwell ring (visible during eye tracking, shows progress)
Folder symbols (identifiable by a corner tab) open a sub-page with thematically related symbols – e.g. "Food & Drinks", "Feelings" or "People". Use the ← Back button to return to the previous level.
Tapping a symbol adds it to the sentence area at the top. The ▶ Speak button reads the assembled sentence aloud.
What is eye tracking and how does it work?
Eye tracking enables completely hands-free operation. The device's webcam tracks the direction of the user's gaze using the AI library WebGazer.js.
The principle: Each symbol has an invisible dwell ring. When the user directs their gaze at a symbol and holds it there for the set dwell time (default: 1.5 seconds), the symbol is automatically activated – just like a tap or click.
Step-by-step: Using eye tracking
- Click the 👁 button in the toolbar.
- Grant camera access in the browser dialog.
- Wait until the button changes to 👁✓ (the AI model is loading – about 5–20 seconds the first time, then cached).
- Look at a symbol → the blue ring slowly fills.
- Ring completely filled → symbol is spoken and a sub-page may open.
- Look away → ring resets.
- Click the 👁 button again to deactivate.
What is dwell time and how do I adjust it?
Dwell time is the number of seconds the gaze must rest on a symbol before it is activated.
- Short dwell time (0.5 – 1 s): Faster interaction, but more accidental activations.
- Long dwell time (2 – 3 s): Fewer mistakes, but slower communication.
- Default: 1.5 seconds – a good starting point for most users.
Adjustment: ⚙ button → "Dwell Time" slider → choose a value between 0.5 and 3 seconds.
How do I calibrate eye tracking?
Calibration significantly improves gaze accuracy by teaching the system how the individual user's eyes work.
Process:
- Click ⚙ → "Calibrate Eye Tracking" (or go directly to
/calibration.html). - Click "Start Calibration" and grant camera access.
- Look at each glowing blue dot and click it 5 times (keep your gaze directly on the dot while clicking).
- After all 9 dots, an accuracy test is run automatically.
- Result: Good (< 80 px), Adequate (80–150 px) or Poor (> 150 px).
- Click "Save & Return" – data is stored locally in your browser.
Guest mode vs. signed in – what are the differences?
| Feature | Guest | Signed In |
|---|---|---|
| Use basic AAC template | ✅ | ✅ |
| Search symbols | ✅ | ✅ |
| Text-to-speech (TTS) | ✅ | ✅ |
| Eye tracking | ✅ | ✅ |
| Calibrate eye tracking | ✅ (local only) | ✅ (server-saved) |
| AI sentence expansion | ✅ | ✅ |
| Custom templates | ❌ | ✅ |
| Edit / create templates | ❌ | ✅ (Admin) |
| User management | ❌ | ✅ (Admin) |
To sign in: click the 👤 button in the toolbar.
How does the AI sentence expansion work?
The AI sentence expansion helps turn individual selected symbols into a grammatically complete sentence.
Process:
- Select multiple symbols (they appear as chips in the sentence area at the top).
- Click the 🤖 button.
- The AI (Ollama/Gemma, running locally on the server) expands the keywords into a full sentence.
- The suggested sentence appears in a blue banner – use ▶ to read it aloud or dismiss it.
How does text-to-speech work?
Webtalker uses the browser's Web Speech API for text-to-speech (TTS), utilizing the voices installed on your device.
Settings (⚙ button):
- Voice: Choose from all available voices on the device
- Speech rate: Slower or faster (0.5× to 2×)
- Pitch: Lower or higher
- Volume: 0–100%
A single symbol is read aloud immediately when tapped. The full sentence is read aloud with the ▶ Speak button.
How does symbol search work?
The 🔍 button opens a search bar. Typing a term displays matching symbols from the ARASAAC database.
- Search works in German and English (depending on the selected language).
- Priority: exact matches first, then prefix matches.
- A found symbol can be tapped directly – it is spoken and added to the sentence.
What is speech recognition and how do I use it?
The 🎙 button enables speech as an input method. Spoken words are automatically translated into symbol searches.
- Fully supported in Chrome and Edge only.
- Microphone access must be granted in the browser.
- Recognized words are automatically searched and the best result is selected.