Secondo un brevetto depositato negli Stati Uniti l’assistente vocale Siri non ascolterà esclusivamente le richieste degli utenti, ma anche le loro emozioni. La fotocamera frontale degli iPhone analizzerà le espressioni facciali e lo stato emotivo dell’utente attraverso il tono di voce mentre si formulerà una domanda per fare in modo da ridurre i casi di incomprensioni e interpretazioni errate.
Il sistema funziona attraverso l’analisi del volto, come i muscoli muscoli facciali per attribuire all’utente un determinato stato emotivo. L’analisi, abbinata al comando vocale, aiuterà Siri a rispondere nel caso di richieste che hanno più di una interpretazione. Potrebbe inoltre rivelarsi utile per determinare se una risposta di Siri ha soddisfatto l’utente. Restano i soliti dubbi relativi alla privacy.
Fonte: Ansa