IT202100014480A1 - Sistema informativo, robotizzato, interagibile empaticamente con un interlocutore umano - Google Patents
Sistema informativo, robotizzato, interagibile empaticamente con un interlocutore umano Download PDFInfo
- Publication number
- IT202100014480A1 IT202100014480A1 IT102021000014480A IT202100014480A IT202100014480A1 IT 202100014480 A1 IT202100014480 A1 IT 202100014480A1 IT 102021000014480 A IT102021000014480 A IT 102021000014480A IT 202100014480 A IT202100014480 A IT 202100014480A IT 202100014480 A1 IT202100014480 A1 IT 202100014480A1
- Authority
- IT
- Italy
- Prior art keywords
- command
- puppet
- robot
- mimicry
- control means
- Prior art date
Links
- 241000282414 Homo sapiens Species 0.000 title claims description 26
- 210000003128 head Anatomy 0.000 claims description 14
- 230000001755 vocal effect Effects 0.000 claims description 13
- 230000033001 locomotion Effects 0.000 claims description 11
- 238000013473 artificial intelligence Methods 0.000 claims description 8
- 230000002996 emotional effect Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000003278 mimic effect Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims 2
- 230000006854 communication Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000037230 mobility Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000033764 rhythmic process Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 208000027534 Emotional disease Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 229920001821 foam rubber Polymers 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Massaging Devices (AREA)
- Threshing Machine Elements (AREA)
- Bending Of Plates, Rods, And Pipes (AREA)
Description
DESCRIZIONE
annessa a domanda di brevetto per INVENZIONE INDUSTRIALE avente per titolo
SISTEMA INFORMATIVO, ROBOTIZZATO, INTERAGIBILE
EMPATICAMENTE CON UN INTERLOCUTORE UMANO
Il presente trovato concerne un sistema informativo, robotizzato atto ad interagire con un interlocutore umano, con una comunicazione empatica, affettiva, tramite pupazzi parlanti.
Nell'ambito della comunicazione uomo-macchina, la tecnica nota conosce gi? dei sistemi informativi, dotati di intelligenza artificiale, i quali sono capaci di intercomunicare in modo naturale, selettivo e mirato con l'interlocutore fornendo ad esso informazioni e dati utili per il proprio dominio di appartenenza (ad esempio: dentista, fisioterapista, pediatria, turismo, reception hotel, etc.) mediante una interazione di tipo fonetico, vocale.
Tali sistemi hanno una capacit? di comunicazione essenzialmente informativa e verbale essendo incapaci di cogliere aspetti emozionali dell'utente e poi di servirsi di questi per modellare in tempo reale la propria comunicazione su un piano empatico, coinvolgente dal punto di vista emozionale e, ancor meno per eventualmente anche adattarla ai cambiamenti di stato d?animo occorrenti nel prosieguo della comunicazione medesima.
Le scienze robotiche, d'altra parte, si interessano da tempo di riprodurre artificialmente e quanto pi? fedelmente possibile certe caratteristiche di espressione mimica facciale, tipiche, degli umani, ad esempio certe smorfie della bocca, oppure certi ammiccamenti degli occhi, che possano essere interpretati da un osservatore come segni convenzionali riconoscibili, in quanto consolidati dalle consuetudini sociali di certi ambienti, per esprimere approvazione, disapprovazione, autorizzazione, diniego ecc.
In tale contesto, tuttavia, ed almeno per quanto noto ai richiedenti, la ricerca ? ancora finalizzata allo scopo di conseguire le soluzioni tecniche che siano in grado di simulare, artificialmente e quanto pi? fedelmente possibile, la singola forma di attuazione di dettaglio di certe gestualit? umane e in particolare di certe espressioni mimiche facciali.
Diversamente dalla tecnica nota, il presente trovato si prefigge lo scopo di realizzare artificialmente non tanto, la riproduzione pi? o meno accurata di certi dettagli dell'anatomia umana utile per conferire un aspetto umanoide ad un dispositivo artificiale, ma quello di fornire ad un interlocutore umano informazioni e risposte dedicate ad ogni specifico impiego di suo interesse e, al tempo stesso di farlo utilizzando toni di voce ed impressioni visive umani, emozionali ed empatici che mettano l?interlocutore, qualunque esso sia, a proprio agio nell?ambito del processo comunicativo.
Un secondo scopo del trovato ? quello di ricercare una tale soluzione che sia in grado di cogliere anche le mutazioni di tale stato d'animo, durante il corso stesso del processo comunicativo e, retroattivamente, di adattare e modulare in tempo reale la propria azione comunicativa con l'obiettivo di tenerne costantemente alta l'efficacia funzionale e conseguentemente di mantenere un elevato livello di coinvolgimento dell?interlocutore destinatario.
In accordo con l'invenzione il trovato raggiunge tali risultati mediante un sistema informativo come definito nelle allegate rivendicazioni.
Ulteriori caratteristiche tecniche e vantaggi del trovato saranno evidenti dalla descrizione che segue di una preferita, indicativa, ma non limitativa, forma di attuazione dello stesso. Illustrata negli uniti disegni in cui:
- la figura 1 mostra uno schema che rappresenta simbolicamente i soggetti coinvolti nel sistema informativo insieme con le loro reciproche interazioni funzionali;
- la figura 2 ? una vista di una struttura di robot facente parte del sistema di cui alle precedenti figure; - la figura 3 mostra un ulteriore schema che rappresenta simbolicamente i dispositivi fisici interessati dal sistema informativo insieme con le loro reciproche interazioni funzionali;
- la figura 4 ? uno schema a blocchi descrittivo delle funzionalit? del sistema.
Con riferimento alle figure degli uniti disegni in figura 1 con (1) ? individuato nel suo insieme un sistema informativo robotizzato atto ad operare interattivamente con un interlocutore umano indicato con (5).
Il sistema (1) essenzialmente comprende: un corpo (2) di burattino provvisto di: un involucro (3) esteriore in materiale preferibilmente morbido, quale pelouche, gommapiuma, tessuto imbottito, ed altri materiali simili; un robot (4) di animazione del corpo (2), la cui struttura ? visibile in figura 2; mezzi di comunicazione vocale e mezzi di comando e controllo del corpo (2) di burattino o pupazzo, indicati nella loro globalit? con (6).
Pi? in particolare, con il termine di corpo (2) di burattino si intende contraddistinguere anche un generico pupazzo, un peluche, o una marionetta preferibilmente a forma di animale con sembianze umanizzate, ovvero dotato di sembianze animali su un corpo da umano, cos? come frequentemente ricorre in certe rappresentazioni grafiche, di fantasia, dei personaggi dei fumetti.
Il corpo (2) di burattino ? provvisto al proprio interno di una cavit? tale da poter alloggiare e contenere il robot (4) almeno nella sua massima parte.
Il corpo (2) di burattino consiste dunque in una sorta di involucro (3) morbido che ricopre il robot (4) posto al suo interno e che pu? cambiare di volta in volta la propria apparenza esteriore a seconda del tipo di interlocutore (5) umano destinatario della comunicazione.
A seconda della configurazione d?aspetto istantaneo del corpo (2) di burattino o del pupazzo che dir si voglia, e parallelamente alla configurazione, i mezzi vocali si conformeranno con una vocalit? coerente ed emozionale, nel senso che se il corpo (2) di burattino o pupazzo sar?, ad esempio un elefante, esso avr? anche una voce pi? grossa e profonda di quella di un gattino e viceversa.
Quanto al robot (4), la figura 2 evidenzia che esso comprende una struttura brachimorfa fondamentalmente materializzata da una catena cinematica di tre membri, a due a due consecutivi ed articolati tra loro.
Un primo membro (15) inferiore, fisso, materializza una base destinata ad alloggiare almeno in parte all'interno del busto (8) del corpo (2) di burattino.
Un secondo membro (17), posto superiormente al membro (15) inferiore di base, supporta a sua volta, girevolmente ed attorno ad un asse Z, verticale, un terzo membro (16) ad esso superiore, che ? destinato a sua volta a trovare accoglimento all'interno di una testa (7) del corpo (2) di burattino.
Il terzo membro (16) ? provvisto poi di un effettore (18) corredato di due branche (18a,18b),a forma sostanzialmente piatta, le quali sono articolate tra loro, essendo associabili ad una bocca (19) del corpo (2) di burattino eventualmente provvista almeno di mandibola (19m) mobile. Il terzo membro (16) ? vincolato al secondo membro (17) da giunti rotoidali che lasciano al terzo membro (16) alcune libert? di movimento relativo rispetto al secondo membro (17) che lo sostiene.
Un primo grado di tali libert?, ? identificabile infatti nella possibilit? di rotazione del terzo membro (16) intorno ad un asse (X) orizzontale, elongato nella direzione longitudinale delle branche (18a,18b), ovvero al terzo membro (16) ? consentito all?occorrenza di oscillare su comando motorizzato e controllato verso destra o sinistra.
Un secondo grado di libert? ? rappresentato dalla possibilit? del terzo membro (16) di ruotare intorno ad un asse (Y) ortogonale all'asse (X) e trasversale alle branche (18a,18b).
Un ulteriore grado di libert?, il terzo, ? rappresentato dall'escursione angolare, intorno all'asse (Y), verso l'alto e verso il basso del terzo membro (16); un quarto grado di libert?, ancora intorno all'asse (Y) permette alle branche (18a,18b) di aprirsi e chiudersi, rispettivamente allontanandosi ed avvicinandosi l'una all'altra.
In sintesi, per effetto della struttura e delle mobilit? possedute complessivamente dal robot (4), il corpo (2) di burattino ? in grado di disporre di una mobilit? cosiddetta di "imbardata" potendo compiere escursioni di rotazione, angolare, intorno all'asse (Z) verticale; una mobilit? cosiddetta di "rollio" potendo ruotare intorno all'asse (X) con possibilit? di inclinare la testa (7) a destra e a sinistra; una mobilit? cosiddetta di "beccheggio", che si estrinseca in escursioni angolari intorno all'asse (Y) che consentono di reclinare la testa (7) in avanti o all'indietro; oltre anche un?ulteriore mobilit? intesa come apertura e chiusura della bocca (7) mediante una corrispondente escursione angolare intorno ad una direzione coincidente o parallela all'asse (Y) delle branche (18a,18b) dell'effettore (18).
Sfruttando le mobilit? sopraddette, riferite alla rappresentazione di uno specifico animale concretizzato dal corpo (2) di burattino e, combinando ad esso una vocalit? emozionale coerente e coordinata ? possibile permettere al corpo (2) di burattino di parlare in modo sincronico con voce e gesto rispondendo in modo corretto, amichevole ed affettivo, ai quesiti posti dal suo interlocutore (5) umano.
Pi? in particolare, al fine di concorrere al raggiungimento di tale risultato, i mezzi (6) di comando e di controllo del robot (4) comprendono a loro volta due distinti ambiti: uno locale indicato con (6A) ed uno remoto indicato con (6B). Nell'ambito (6A) locale, un computer (20) operante in combinazione con una scheda (21) di interfaccia, simbolicamente rappresentata in figura 1, gestisce dei servomeccanismi di azionamento delle motorizzazioni dei singoli gradi di libert? sopradescritti del robot (4), servomeccanismi, il cui comando e pilotaggio sono attuati mediante un software dedicato residente nel computer (20).
All'interno del corpo (2) di burattino, all'altezza di occhi (7v) dello stesso, e al di sopra del terzo membro (16) del robot (4) possono trovare vantaggiosa collocazione anche dei mezzi (40) sensori di visione attuati da una videocamera, oltrech? ulteriori servomeccanismi - non illustrati- che possono attuare la chiusura e l'apertura comandata degli occhi (7v), ovvero di palpebre che possono essere azionate contemporaneamente o in modo indipendente l'una dall'altra.
I mezzi (6) di comando e di controllo del robot (4) residenti nell'ambito (6A) locale sopra descritto consentono di pilotare e gestire le mobilit? del robot (4), ovvero le mobilit? che esso imprime al corpo (2) di burattino in modo da configurare l'apparenza esteriore di quest'ultimo in conformit? con una mimica corporea riconoscibile dall?interlocutore (5) umano come una mimica simil-umana; mimica che ? tale da fornire espressivit? peraltro qualitativamente diverse atte a suscitare sentimenti ed emozioni positive nell?interlocutore (5) umano, ovvero reazioni emotive, di simpatia, fiducia, autorevolezza, passionalit? ecc., a seconda delle circostanze.
I mezzi (6) di comando e controllo possono essere integrati da una serie di accessori esemplificati in un pannello schematizzato di Figura 3.
In detto pannello sono riconoscibili, rappresentate in forma iconica e/o schematica, un microfono (22) atto a ricevere input audio provenienti dall?interlocutore (5) umano; una cassa (23) altoparlante per la diffusione in uscita della voce con cui il sistema (1) interloquisce con l?interlocutore (5) umano; una scheda (25) di rete wireless per interagire con l'ambito remoto (6B) dei mezzi (6) di comando e di controllo; un sensore di movimento (24) per attivare automaticamente l'operativit? del sistema (1) contestualmente al rilievo della presenza di un interlocutore (5) umano in prossimit? del corpo (2) di burattino; un ricevitore/trasmettitore (27) per controlli da remoto del sistema (1).
Tornando alla Figura 1, ? da notarsi in particolare che l'ambito (6B) remoto dei mezzi (6) di comando e controllo comprende un sistema "cloud" dislocato su rete Internet in cui risiede un?intelligenza artificiale (IA) in grado di interagire con l'ambito (6A) locale dei mezzi (6) di comando e di controllo del sistema (1) informativo, robotizzato.
L'intelligenza artificiale (IA) ? in grado di interagire con il computer (20) locale ricevendo in ingresso, e provenienti da questo, delle stringhe vocali, simbolicamente rappresentate con un blocco (26); ? in grado di analizzare, catalogare ed elaborare le stringhe vocali (blocco 27) e di inviarle poi dati e risultati sotto forma di risposte ed interazioni empatiche al computer (20) che, in funzione di questi pilota corrispondentemente il robot (4) guidandolo ad assumere le mimica corporea pi? adatta alla circostanza.
In uso, il funzionamento del trovato pu? essere meglio descritto con l'ausilio dello schema a blocchi di Figura 4.
Da questo si rileva che la voce dell?interlocutore (5) umano percepita dal microfono (22) una volta trasdotta in una corrispondente stringa audio raggiunge il sistema cloud (30) remoto.
In esso, la stringa audio viene analizzata - all'interno di un blocco (31) - nelle sue componenti fisiche di frequenza, intensit?, volume, tonalit? e colore; dopodich? in un blocco (32) viene elaborata e codificata una conseguente risposta che l'intelligenza artificiale (IA, blocco 33) classifica previa profilazione tipologia dell?interlocutore (5) che sta interagendo con il corpo (2) di burattino. Mediante comparazione selettiva del profilo dell?interlocutore (5) con un insieme di profili campione memorizzati in una banca dati, l'intelligenza artificiale (IA) invia al computer (20) i parametri adatti per comandare la configurazione del robot (4) ottimale per detto interlocutore (5). L'insieme dei movimenti del robot (4) viene anche coordinato in fase temporale con la risposta vocale, cosicch? la risposta vocale viene accompagnata da una mimica corporea del corpo (2) di burattino che ? congruente non solo alla risposta, ma anche allo stato emozionale dell?interlocutore (5) umano che percepisce nella comunicazione scambiata con un corpo (2) di burattino un senso di espressivit? del tutto naturale nel ricevere le richieste informazioni di proprio interesse.
Quanto alla classificazione tipologia con cui comparare il profilo di mimica corporea con cui il corpo (2) di burattino interagir? con l?interlocutore (5) utente, lo schema di figura 4 esemplifica una casistica del tutto indicativa e non limitativa di quattro tipologie di atteggiamento empatico.
Un primo tipo di atteggiamento empatico qualificato in termini di "simpatia" si traduce in una serie comandi di robot (4) che portano il corpo (2) di burattino a disporsi in una configurazione in cui: la testa (7) ? inclinata in alto di circa 15 gradi; la bocca ? aperta con un angolo di circa 20 gradi; la testa ? ruotata a destra o a sinistra di 10 gradi; gli occhi sono rivolti verso l'alto ed il ritmo vocale che accompagna il movimento in contestuale coordinazione temporale ? definibile come "allegro".
Un secondo tipo di atteggiamento qualificato in termini "di fiducia", viene interpretato dal corpo (2) di burattino con una configurazione che prevede, invece, che il corpo (2) di burattino assuma la testa dritta, la bocca aperta con ampiezza di circa 30 gradi, la testa ruotata in avanti e indietro di 10 gradi; gli occhi dritti, il tutto essendo coordinato con un ritmo della voce calmo. Ad un atteggiamento "di autorevolezza", corrispondono invece: testa dritta; rotazioni a destra e a sinistra di 10 gradi; bocca aperta a 20 gradi; occhi dritti; ritmo vocale netto e veloce con pause lunghe.
Un atteggiamento "passionale" prevede invece: testa inclinata in alto e in basso di 15 gradi; bocca aperta a 20 gradi; testa ruotata a destra e sinistra di 10 gradi; occhi fermi, ritmo tra veloce e calmo con movimenti morbidi.
E' chiaro che la famiglia di atteggiamenti tipizzati ? destinata ad accrescere il numero dei comportamenti campione, nonch? il grado di precisione psicologica degli stessi a seguito del miglioramento di autocorrezione che deriva dall'autoapprendimento, dalla memorizzazione e dalle reiterazioni correttive che, tipicamente, si accompagnano ai sistemi di intelligenza artificiale.
In estrema sintesi il sistema (1) ? in grado di identificare e riconoscere la categoria dell?interlocutore (5) umano (ad esempio: bambino, bambina, ragazzo, ragazza, uomo, donna, ?) e in base alla profilazione della sua categoria e del suo stato d'animo, ovvero del suo stato emozionale, imposta un tono di voce ed una espressiva corporea specifiche che sono congruenti, coordinate tra loro, e tali da conseguire una comunicazione interattiva, del tutto naturale, di massimo coinvolgimento e al tempo stesso di massima efficacia, bench? questa si instauri tra un interlocutore umano ed una macchina.
Il trovato sopra descritto raggiunge pienamente gli scopi precedentemente dichiarati e si qualifica per essere in grado di soddisfare - peraltro a costo relativamente basso - una vastissima possibilit? di impiego nei pi? svariati campi applicativi che possono andare, ad esempio, dal supporto psicologico di pazienti pediatrici o geriatrici; ai servizi di ricettivit? alberghiera o fieristica; ai servizi informativi di impiego generale; all'intrattenimento; all'insegnamento, e cos? via.
Claims (13)
1. Sistema informativo, robotizzato, interagibile con un interlocutore (5) umano, caratterizzato dal fatto di comprendente
un corpo (2) di burattino o pupazzo, provvisto di un involucro (3), ricoprente una cavit? interna a detto corpo (2);
un robot (4) alloggiato a scomparsa nella cavit? del corpo (2), a riscontro con il relativo involucro (3) e conferente a detto corpo (2) una mimica corporea riconoscibile come simile-umana dall?interlocutore (5) umano;
mezzi (23) vocali per comunicare con detto interlocutore (5) umano; e
mezzi (6) di comando e controllo per pilotare e gestire il robot (4) in correlazione coordinata con detti mezzi (23) vocali ed in funzione produttiva di una detta mimica corporea, congruente con un riconoscimento categoriale ed una profilazione emotiva del detto interlocutore (5) umano interagente con detto sistema (1).
2. Sistema, secondo la rivendicazione 1, in cui detto corpo (2) di burattino o pupazzo ? provvisto almeno di una testa (7) e di un busto (8) reciprocamente articolati, caratterizzato dal fatto che detto robot (4) ? configurabile per conferire alla testa (7) del burattino una mobilit?, relativa al busto (8), congruente e temporalmente coordinata con detta mimica corporea.
3. Sistema, secondo la rivendicazione 2, caratterizzato dal fatto che la testa (7) del burattino ? provvista di almeno due gradi di libert? rotazionali intorno a rispettivi assi di una terna (X,Y,Z) triassiale cartesiana associata a detta testa (7).
4. Sistema, secondo la rivendicazione 1, in cui detto corpo (2) di burattino ? provvisto di occhi (9), apribili e chiudibili, caratterizzato dal fatto che detti mezzi (6) di comando e controllo ulteriormente comandano l'apertura e la chiusura degli occhi (9), congruente e temporalmente coordinata con detta mimica corporea.
5. Sistema, secondo la rivendicazione 1, in cui detto corpo di burattino ? provvisto di bocca (10), apribile e chiudibile, caratterizzato dal fatto che detti mezzi (6) di comando e controllo comandano l'apertura e la chiusura della bocca (10), congruente e temporalmente coordinata con detta mimica corporea.
6. Sistema, secondo la rivendicazione 1, comprendente almeno un sensore (11) audio, caratterizzato dal fatto che detto sensore (11) audio ? interfacciato con detti mezzi (6) di comando e controllo del robot (4) per comandare l'attivazione della mimica corporea del corpo (2) del burattino o pupazzo in funzione di un segnale vocale di ingresso proveniente da detto sensore (11) audio.
7. Sistema, secondo la rivendicazione 1, comprendente almeno un sensore (12) visivo, caratterizzato dal fatto che detto sensore (12) visivo ? interfacciato con detti mezzi di comando e controllo del robot (4) per comandare l'attivazione della mimica corporea del corpo (2) del burattino o pupazzo in funzione di un segnale di ingresso, proveniente da detto sensore (12) visivo.
8. Sistema, secondo la rivendicazione 1, comprendente un attuatore (13) vocale, caratterizzato dal fatto che detto attuatore (13) vocale ? interfacciato con detti mezzi (6) di comando e controllo del robot (4) per comandare detto attuatore (13) vocale in relazione congruente e coordinata con detta mimica corporea.
9. Sistema, secondo una qualsiasi di dette rivendicazioni, caratterizzato dal fatto di comprendere mezzi (IA) di intelligenza artificiale interfacciati con detti mezzi (6) di comando e controllo del robot (4) per il riconoscimento e l'implementazione di una detta mimica corporea che ? scelta in una famiglia di espressivit? tipizzate congruenti e coordinate con la mimica corporea dell?interlocutore (5) umano momentaneamente interagente con detto sistema.
10. Sistema, secondo la rivendicazione 1, caratterizzato dal fatto che detto robot (4) ha una struttura brachimorfa comprendente un catena cinematica provvista di una base (15) fissa che supporta almeno un membro (16) mobile vincolato alla base (15) con tre giunti rotazionali angolarmente oscillanti intorno ad altrettanti assi (X,Y,Z) di rotazione di un riferimento cartesiano tridimensionale orientabile nello spazio, detto membro (16) possedendo un movimento di rotazione intorno ad una prima direzione (X) orizzontale; un movimento di beccheggio intorno ad una seconda direzione (Y) orizzontale ed un movimento di imbardata intorno all'asse (Z) verticale rispetto a detta base (15).
11. Sistema, secondo la rivendicazione 10, caratterizzato dal fatto che detto movimento di rotazione ? scelto con ampiezza angolare compresa tra -10 ? e 10? rispetto alla prima direzione orizzontale (X).
12. Sistema, secondo la rivendicazione 10, caratterizzato dal fatto che detto movimento di beccheggio ? scelto con ampiezza angolare compresa tra -15? e 15? intorno all'orizzontale (Y).
13. Sistema, secondo la rivendicazione 10, caratterizzato dal fatto che detto movimento di imbardata ha un'ampiezza di -10 ? e 10?, rispetto alla base (15) ed intorno all'asse verticale (Z).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102021000014480A IT202100014480A1 (it) | 2021-06-03 | 2021-06-03 | Sistema informativo, robotizzato, interagibile empaticamente con un interlocutore umano |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT102021000014480A IT202100014480A1 (it) | 2021-06-03 | 2021-06-03 | Sistema informativo, robotizzato, interagibile empaticamente con un interlocutore umano |
Publications (1)
Publication Number | Publication Date |
---|---|
IT202100014480A1 true IT202100014480A1 (it) | 2022-12-03 |
Family
ID=77910839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT102021000014480A IT202100014480A1 (it) | 2021-06-03 | 2021-06-03 | Sistema informativo, robotizzato, interagibile empaticamente con un interlocutore umano |
Country Status (1)
Country | Link |
---|---|
IT (1) | IT202100014480A1 (it) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2933067A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
KR102012968B1 (ko) * | 2018-08-07 | 2019-08-27 | 주식회사 서큘러스 | 인터렉션 로봇의 제어 방법 및 제어 서버 |
WO2020190362A2 (en) * | 2020-01-17 | 2020-09-24 | Futurewei Technologies, Inc. | A social interaction robot |
JP2020196087A (ja) * | 2019-06-03 | 2020-12-10 | 学校法人塚本学院 | 動作表現機構 |
-
2021
- 2021-06-03 IT IT102021000014480A patent/IT202100014480A1/it unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2933067A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
KR102012968B1 (ko) * | 2018-08-07 | 2019-08-27 | 주식회사 서큘러스 | 인터렉션 로봇의 제어 방법 및 제어 서버 |
JP2020196087A (ja) * | 2019-06-03 | 2020-12-10 | 学校法人塚本学院 | 動作表現機構 |
WO2020190362A2 (en) * | 2020-01-17 | 2020-09-24 | Futurewei Technologies, Inc. | A social interaction robot |
Non-Patent Citations (2)
Title |
---|
ALBERT BRIGHT: "When robots rule the world? Sophia the Robot. WebSummit", 9 December 2019 (2019-12-09), XP055893754, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=YXWYMCKwMN0> [retrieved on 20220221] * |
GRESHKO MICHAEL: "Meet Sophia, the Robot That Looks Almost Human", HTTPS://WWW.NATIONALGEOGRAPHIC.COM/, 18 May 2018 (2018-05-18), XP055893728, Retrieved from the Internet <URL:https://www.nationalgeographic.com/photography/article/sophia-robot-artificial-intelligence-science> [retrieved on 20220221] * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101169674B1 (ko) | 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법 | |
CA2882968C (en) | Facilitating generation of autonomous control information | |
El Saddik | The potential of haptics technologies | |
Ishiguro | Android science: conscious and subconscious recognition | |
Kanda et al. | A humanoid robot that pretends to listen to route guidance from a human | |
Iglesias et al. | Computer graphics access for blind people through a haptic and audio virtual environment | |
US20220347860A1 (en) | Social Interaction Robot | |
Ishiguro | Interactive humanoids and androids as ideal interfaces for humans | |
CN206021605U (zh) | 智能机器人点读系统 | |
Eppe et al. | Deep neural object analysis by interactive auditory exploration with a humanoid robot | |
Van Erp et al. | What comes after telepresence? embodiment, social presence and transporting one’s functional and social self | |
CN109192050A (zh) | 体验式语言教学方法、装置及教育机器人 | |
Jadhav et al. | A study to design vi classrooms using virtual reality aided telepresence | |
CN111515970A (zh) | 一种互动方法、拟态机器人和相关装置 | |
Specian et al. | Quori: A community-informed design of a socially interactive humanoid robot | |
Or | Towards the development of emotional dancing humanoid robots | |
IT202100014480A1 (it) | Sistema informativo, robotizzato, interagibile empaticamente con un interlocutore umano | |
CN206614555U (zh) | 机器人 | |
Lee et al. | Semi-autonomous robot avatar as a medium for family communication and education | |
Watanabe | E-cosmic: embodied communication system for mind connection | |
WO2020166373A1 (ja) | 情報処理装置および情報処理方法 | |
Hackel et al. | Designing a sociable humanoid robot for interdisciplinary research | |
Palacín et al. | The Assistant Personal Robot Project: From the APR-01 to the APR-02 Mobile Robot Prototypes. Designs 2022, 6, 66 | |
Delaunay | A retro-projected robotic head for social human-robot interaction | |
Vélez et al. | ROBSNA: Social robot for interaction and learning therapies |