Amir SadeghipourA computational model of motor cognition for iconic gesture processing | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ISBN: | 978-3-8440-3451-6 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Reihe: | Robotik | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Schlagwörter: | Artificial Intelligence; Gesture Studies; Cognitive Science | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Publikationsart: | Dissertation | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sprache: | Englisch | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Seiten: | 298 Seiten | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Abbildungen: | 85 Abbildungen | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Gewicht: | 444 g | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Format: | 24,0 x 17,0 cm | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Bindung: | Paperback | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Preis: | 49,80 € | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Erscheinungsdatum: | März 2015 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Kaufen: | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Download: | Verfügbare Online-Dokumente zu diesem Titel: Sie benötigen den Adobe Reader, um diese Dateien ansehen zu können. Hier erhalten Sie eine kleine Hilfe und Informationen, zum Download der PDF-Dateien. Bitte beachten Sie, dass die Online-Dokumente nicht ausdruckbar und nicht editierbar sind.
Benutzereinstellungen für registrierte Online-Kunden Sie können hier Ihre Adressdaten ändern sowie bereits georderte Dokumente erneut aufrufen.
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Weiterempfehlung: | Sie möchten diesen Titel weiterempfehlen? | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Rezensionsexemplar: | Hier können Sie ein Rezensionsexemplar bestellen. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Verlinken: | Sie möchten diese Seite verlinken? Hier klicken. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Export Zitat: |
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zusammenfassung: | In this PhD thesis, I propose a computational cognitive model for processing iconic gestures performed with hands and arms. Among different social behaviors, investigating gestures has gained special attention during the last decades. In the field of human-computer interaction, advances in motion tracking systems have opened the gateway to the broader application of gesture-based user interfaces. Virtual humanoid agents are been increasingly used in human-computer interaction as user friendly interfaces that allow for intuitive and natural face-to-face communication. Against this background, I propose a model that endows artificial humanoid agents with the ability to gesture. This capacity includes, for instance, fast and reliable recognition of highly diverse gesture performances, the ability to learn how to perform gestures through imitation, and to establish gestural alignment during interaction with human users. To this end, I propose a cognitive model of the human sensorimotor system based on neuroscience and psychological empirical evidence, and couched in current cognitive theories. To implement information processing within this cognitive model, I propose two computational approaches with complementary strengths and weaknesses: (1) Empirical Bayesian Belief Update (EBBU) features the fast, incremental and cognitively plausible recognition of gestures during interaction with humans. (2) Feature-based Stochastic Context-Free Grammar (FSCFG) learns discriminative or descriptive grammar models of gesture performances. |