JP2017010516A - 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器 - Google Patents

人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器 Download PDF

Info

Publication number
JP2017010516A
JP2017010516A JP2015238074A JP2015238074A JP2017010516A JP 2017010516 A JP2017010516 A JP 2017010516A JP 2015238074 A JP2015238074 A JP 2015238074A JP 2015238074 A JP2015238074 A JP 2015238074A JP 2017010516 A JP2017010516 A JP 2017010516A
Authority
JP
Japan
Prior art keywords
user
intention
information
processing
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015238074A
Other languages
English (en)
Other versions
JP6625418B2 (ja
Inventor
佳霖 李
Chia-Ling Lee
佳霖 李
鯤 景
Kun Jing
鯤 景
行飛 葛
Xingfei Ge
行飛 葛
華 呉
Hua Wu
華 呉
倩 徐
Qian Xu
倩 徐
海峰 王
Haifeng Wang
海峰 王
▲ウェン▼玉 孫
Wenyu Sun
▲ウェン▼玉 孫
甜 呉
Tian Wu
甜 呉
岱松 関
Daisong Guan
岱松 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2017010516A publication Critical patent/JP2017010516A/ja
Application granted granted Critical
Publication of JP6625418B2 publication Critical patent/JP6625418B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

【課題】人工知能に基づく高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションの方法、装置及び端末機器を提供する。
【解決手段】人工知能に基づくヒューマンコンピュータインターアクションの方法は、ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信するステップと、前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップと、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップとを含む。
【選択図】図1

Description

本発明は、スマートデバイス技術に関し、特に人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器に関する。
中国社会におけるますます進む高齢化、少子化と都市化に伴って、以下の問題が生じた。
1、若者は仕事でストレスが溜まり、分身もなく、家族の高齢者や児童に付き添う余裕がない。
2、親と子女が離ればなれになっていることがごく普通になり、家族のメンバー、親戚が違う場所に住んでおり、家庭内のコミュニケーションコストが高く、親密で有効で便利な交流方法もない。
3、年老いた老人及び幼い児童は、思いやり、コミュニケーション、教育、情報獲得の支援を他の誰よりも必要とするが、子女又は親がいないとなると、とても無理である。
4、若者が他所で働くとき、いつでもどこでも自分の「家」(家電制御も含む)、「家族」(前世代である親、次世代である児童を含む)と連絡を取りたがる。このような連絡方法には、家族にサービスを提供するため、より低い利用制限とより高い親密度が要求される。
5、離ればなれの家族同士は、より親密で便利な連絡手段を求める。中国における伝統的な家族観念により、やむを得ず家族と離れるとき、すべての人はある方法を通していつでも家族と一家の団欒を楽しみたがる。
6、年老いた老人及び幼い児童が日常の看護、付き添い及び助けの重要対象であるにもかかわらず、看護、付き添い、助け、教育という責任を背負う若者は、仕事で厳しいノルマを抱え、老人と児童の傍に付き添えない。
しかしながら、従来の技術では、前記問題に対する解決方法を提供できず、高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションが不可能であるため、ユーザのニーズを満たすことができず、ユーザエクスペリエンスもよくない。
本発明は、先行技術に存在する技術問題点の少なくとも1つを解決することを目的とする。
そのため、本発明は人工知能に基づくヒューマンコンピュータインターアクションの方法を提供することを目的とする。該方法により、良好なヒューマンコンピュータインターアクションを実現することができ、高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションを実現することが可能となる。
本発明は、人工知能に基づくヒューマンコンピュータインターアクションに係る装置を提供することを第2の目的とする。
本発明は端末機器を提供することを第3の目的とする。
前記目的を達成するため、本発明の実施形態1に係る人工知能に基づくヒューマンコンピュータインターアクションの方法は、ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信するステップと、前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップと、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップとを含む。
本発明の実施形態に係る人工知能に基づくヒューマンコンピュータインターアクションの方法は、マルチモードの入力信号を受信した後、前記マルチモードの入力信号に基づいて、前記ユーザの意図を判定し、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックすることにより、良好なヒューマンコンピュータインターアクションを実現することができ、高機能で高付き添う型のインテリジェントヒューマンコンピュータインターアクションも実現でき、更にユーザエクスペリエンスを向上させることができる。
前記目的を達成するため、本発明の実施形態2に係る人工知能に基づくヒューマンコンピュータインターアクションの装置は、ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信する受信モジュールと、前記受信モジュールが受信したマルチモードの入力信号に基づいて前記ユーザの意図を判定する意図判定モジュールと、前記意図判定モジュールが判定した前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックする処理モジュールとを含む。
本発明の実施形態に係る人工知能に基づくヒューマンコンピュータインターアクションの装置は、受信モジュールがマルチモードの入力信号を受信した後、意図判定モジュールが前記マルチモードの入力信号に基づいて、前記ユーザの意図を判定し、処理モジュールが前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックすることにより、良好なヒューマンコンピュータインターアクションを実現することができ、高機能で高付き添う型のインテリジェントヒューマンコンピュータインターアクションも実現でき、更にユーザエクスペリエンスを向上させることができる。
前記目的を達成するため、本発明の実施形態3に係る端末機器は、受信部、処理部、記憶部、回路基板と電源回路を含む。そのうち、前記回路基板はケースによって囲まれた空間内部に配置され、前記処理部と前記記憶部は回路基板に配置され、前記電源回路は前記端末装置の各回路又は装置に給電し、前記記憶部は実行可能なプログラムコードを記憶し、前記受信部はユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信し、前記処理部は、前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップと、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップとを実行できるように、前記記憶部に記憶された実行可能なプログラムコードを読み取って実行可能なプログラムコードに対応するプログラムを実行する。
本発明の実施形態に係る端末装置は、受信部がマルチモードの入力信号を受信した後、処理部が前記マルチモードの入力信号に基づいて、前記ユーザの意図を判定した後、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックすることにより、良好なヒューマンコンピュータインターアクションを実現することができ、高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションを実現でき、更にユーザエクスペリエンスを向上させることができる。
本発明の一実施形態による人工知能に基づくヒューマンコンピュータインターアクションの方法を示すフローチャートである。 本発明の一実施形態による人工知能に基づくヒューマンコンピュータインターアクションの装置を示す模式図である。 本発明の他の実施形態による人工知能に基づくヒューマンコンピュータインターアクションの装置を示す模式図である。 本発明の一実施形態による端末装置を示す模式図である。 本発明の一実施形態による知能ロボットを示す図である。 本発明の一実施形態による知能ロボットによるスクリーンインターアクションを示す図である。
本発明の付加的側面及び利点は、下記の説明において部分的に表され、一部は下記の説明により明らかとなり、又は本発明の実行により理解されうる。
本発明の上述、及び/又は、付加的側面と利点は、下記図面を参照した実施形態に関する説明において、明らかとなり、理解容易となる。
以下、本発明の実施の形態について詳細に説明する。実施の形態の実例は図面において示されるが、同一又は類似の符号が、同一若しくは類似の部品、又は、同一若しくは類似の機能を有する部品を表す。以下、図面を参照しながら説明する実施形態は例示的なものであり、本発明を広義に理解するために用いられる。実施形態は、本発明を制限するよう解釈されるべきではない。逆に、本発明の実施形態は、添付の請求の範囲に含まれる要旨及び内包範囲におけるあらゆる変形・変更及び均等物を含む。
高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションを行わない、従来の技術における問題を解決するために、本発明は人工知能に基づいて、高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションを実現した。人工知能(Artificial Intelligence、AIと略称する)とは、人間の知能をシミュレート・延伸・拡張するための、論理、方法、技術及び応用システムを研究・開発する新しい科学技術である。人工知能は計算機科学のブランチであり、知能の本質を捉えようとすると同時に、人間の知能と同様に反応する新しい知能ロボットを作り出すよう試みる。該分野の研究はロボット、音声認識、画像認識、自然言語処理とエキスパートシステム等を含む。
人工知能は人間の意識、思考の情報処理をシミュレートする。人工知能は人間の知能ではないが、人間と同様に考えることができ、人間の知能を超えることも可能である。人工知能は幅広い科学を含み、機械学習、計算機資格等の異なる分野からなる。要約すれば、人工知能研究の主たる目標は機械に人間の知能でしか完成できない複雑な仕事を務めさせることである。
図1は本発明の一実施形態による人工知能に基づくヒューマンコンピュータインターアクションの方法を示すフローチャートである。図1に示すように、該人工知能に基づくヒューマンコンピュータインターアクションの方法は、以下のステップを含むことが可能である。
ステップ101は、ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信するステップである。
具体的には、ユーザの入力する音声信号はユーザがマイクにより入力可能であり、前記画像信号はカメラにより入力可能であり、前記環境センサー信号は光センサー、温湿度センサー、有毒ガスセンサー、粒子状物質センサー、タッチモジュール、地理的位置定位モジュールと重力センサーの中の一つ又は複数のセンサーにより入力される信号である。
ステップ102は、上述したマルチモードの入力信号に基づいて、上記のユーザの意図を判定するステップである。
ステップ103は、上記のユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップである。
具体的には、処理結果を前記ユーザにフィードバックするステップは、処理結果を画像、文字列から音声、ロボットの身体の動き及び/又はロボットの点灯フィードバック等を通じ、ユーザにフィードバックすることを含みうる。本実施形態は処理結果をフィードバックする方法を制限しない。
本実施形態の例示では、前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップは、前記ユーザが入力した音声信号に対して音声認識を行い、音声認識の結果に基づいて、画像信号及び/又はセンサー信号と結合して前記ユーザの意図を判定することになる。
又は、前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップは、前記ユーザが入力した音声信号に対して音声認識を行い、音源定位を通じてディスプレイを前記ユーザのいる方位に回し、カメラ支援顔認識機能を利用して前記ユーザの個人情報を識別するステップと、音声認識の結果、前記ユーザの個人情報、及び保存された前記ユーザの嗜好情報に基づいて前記ユーザの意図を判定するステップとを含んでもよい。
本実施形態において、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、前記ユーザの意図に基づいて、クラウド側のデータベースにおいて個別的データマッチングをし、前記ユーザに相応しい推奨情報を取得して前記ユーザに対して出力することになる。その中で、前記ユーザに相応しい推奨情報を前記ユーザに対して出力することは、前記ユーザに相応しい推奨情報を前記ユーザに音声出力することもできるし、又は前記ユーザに相応しい推奨情報を文字列としてディスプレイに表示することもできる。本実施形態は前記ユーザに相応しい推奨情報を前記ユーザに対して出力する方法を制限しない。
更に、前記推奨情報にアドレス情報が含まれる場合、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、前記ユーザのいる場所から前記アドレス情報が指し示した場所までの交通ルートを取得し、前記ユーザの行動のパターンに従って前記ユーザに相応しい交通手段を取得し、前記交通手段を前記ユーザに推奨することになる。その中で、前記交通手段を前記ユーザに推奨することとして、前記交通手段を前記ユーザに対して音声出力することも可能であり、又は前記交通手段を文字列としてディスプレイに表示することも可能である。本実施形態は前記交通手段を前記ユーザに対して出力する方法を制限しない。
つまり、本実施形態は、人間との数回の会話交流を実現でき、自然言語、表情を通じて人間とコミュニケーションすることができ、個別的学習能力を備え、インテリジェントクラウド側のサーバに接続することにより関連知識を取得し、同時にターゲットを絞ってユーザに提供する。
例えば、お年寄りが外出して何らかのイベントに参加することを希望する場合で、付近に面白そうなイベントがあるかどうかを知らない場合がある。この場合、本実施形態に係る方法がなければ、通常の解決方法として、お年寄りは子女に電話をかけて聞くか、又は家を出て近所の人や町内会に問い合わせるしかない。
しかし、本実施形態に係る方法を利用すれば、お年寄りは、知能ロボット等の本実施形態に係る方法を実現する端末装置に向かって、「度ロボットちゃん、この近くに私に相応しいイベントがありませんか」と質問することができる。
知能ロボットは音源定位を通じて知能ロボットのディスプレイ(例えば、知能ロボットの顔)をお年寄りのいる方位に回し、HDカメラ支援顔認識機能を利用して話者の姓名、年齢、性別等の個人情報を正確に識別し、話者の日常的な行動と好み、年齢と性別等の情報に基づいて、話者が入力した音声の意図を判定し、入力された音声の意図に基づいてクラウド側のデータベース中において個別的データマッチングをし、話者に最も相応しい推奨情報を選び出し、前記推奨情報として、「度はお好きになるかもしれないイベントを見つけました。今日の午後2時にここから800メートルの南湖公園でお年寄りのための社交ダンスパーティーがありますが、いかがでしょうか」と前記話者に対して音声出力する。その中で、該推奨情報にはアドレス情報「南湖公園」が含まれている。
ユーザが「よいですね。このイベントが気に入りました。どうやって行けるのですか」と返答したとする。ユーザが入力した音声を受信した後、知能ロボットは前記ユーザにより入力された音声に対して音声認識を行い、音声認識の結果に基づいてユーザの意図が南湖公園に行きたいものであると判定すると、知能ロボットは地理的位置定位モジュールにより入力された信号に基づいてユーザの居る場所を確定し、自動的にユーザのいる場所から南湖公園までの交通ルートを検索し、前記ユーザの日常的な行動のパターンに従って前記ユーザに相応しい交通手段をスマートに取得し、その交通手段として、「ここから南湖まで800メートルであり、徒歩時間がおよそ15分で、徒歩ルートの地図を用意しました」とユーザに推奨する。
本実施形態の別の例示において、前記ユーザの意図に時間情報が含まれ、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、前記ユーザの意図の時間情報に基づいて目覚まし時計の時刻を設定し、その設定結果を前記ユーザにフィードバックすることになる。その中で、設定結果を前記ユーザにフィードバックするには、設定結果をユーザに対して音声出力してもよいし、又は設定結果を文字列としてユーザに対し表示してもよいし、当然ながら他のフィードバック方法を利用してもよい。本発明はこれを制限しない。
更に、設定結果をユーザにフィードバックした後、ユーザに提示することもでき、前記ユーザに伝言メッセージを記録するように促し、前記目覚まし時計の設定時刻になると、アラームを鳴らし、前記ユーザの伝言メッセージを再生する。
例えば、朝7時に母親は早起きして出張に行かなければならないが、児童のトットちゃんがまだ熟睡しているとする。家を出るとき、母親が知能ロボットに、「度ロボットちゃん、8時にトットちゃんを起こしてもらえませんか」と言う。音声を受信した後、知能ロボットが音声認識の結果に基づいてユーザの意図に時間情報が含まれていると識別すると、知能ロボットがユーザの意図における時間情報に基づいて目覚まし時計の時刻を設定、その設定結果を前記ユーザにフィードバックする。設定結果をユーザにフィードバックした後、更にユーザに提示することもでき、知能ロボットが「大丈夫です、目覚まし時計の時刻を設定しておきました。1時間後のちょうど8時にトットちゃんを起こします。トットちゃんが起きてから何か伝言がありますか」と返答する。
「ありがとう、度ちゃん。トットちゃんに伝えてください。朝ごはんができていて、電子レンジにおいておきました。今日はトットちゃんの誕生日ですから、おめでとうと伝えてください」と母親が言う。この場合、知能ロボットがユーザの伝言メッセージを記録し、前記目覚まし時計の設定時刻になるとアラームを鳴らし、前記ユーザの伝言メッセージを再生する。
本実施形態の別の例示において、マルチモードの入力信号を受信する前に、ユーザと関連する別のユーザが送信したマルチメディア情報を受信することができ、更にユーザにマルチメディア情報を再生するかどうかを提示する。ここにおいて、ユーザにマルチメディア情報を再生するかどうかを提示するには、ユーザにマルチメディア情報を再生するかどうかを提示する機能を果たすことができれば、音声提示を用いても、文字提示を用いても、又はその他の提示方法を用いてもかまわない。
前記ユーザの意図が、前記マルチメディア情報の再生に賛成であれば、ユーザの意図を処理するステップは、ユーザと関連する別のユーザが送信したマルチメディア情報を再生することになる。
更に、前記ユーザと関連する別のユーザが送信したマルチメディア情報を再生した後、ユーザから送信された音声を受信し、前記音声をユーザと関連する別のユーザに送信することもできる。その中で、前記音声をユーザと関連する別のユーザに送信するには、音声を直接ユーザと関連する別のユーザにより使われているスマートデバイスにインストールされたアプリケーション(Application、以下Appと略称する)に送信するか、又は音声を文字に変換してユーザと関連する別のユーザにより使われているスマートデバイスにインストールされたAppに送信する。
例えば、昼12時に、トットちゃんが家で食事をしている。
知能ロボットがユーザ(トットちゃん)と関連する別のユーザ(トットちゃんの母親)から送信されてマルチメディア情報(例えばビデオ)を受信した場合、知能ロボットがユーザにそのマルチメディア情報を再生するかどうかを提示する。すると知能ロボットは「こんにちは、トットちゃん、度がお母さんから送信されたビデオを受け取りましたが、今ご覧になりますか」と音声出力する。
トットちゃんが「すぐ再生してください」と返答する。トットちゃんが入力した音声を受信した後、知能ロボットが音声認識を行い、音声認識の結果に基づいてユーザの意図が前記動画情報の再生に同意するものであると判定すると、知能ロボットの顔のスクリーンにおいて自動的に母親が出張先で録画した誕生日祝福ビデオを再生する。
母親から送信されたビデオを再生した後、更にトットちゃんからの音声として、「度ちゃん、お母さんに伝えてください。ありがとう、愛している、いい旅をして早く帰れるようにって。」を受信することもできる。
この場合、知能ロボットは自動的にトットちゃんからの音声を文字に変換し、母親の携帯電話にインストールされていたAppに送信する。
本実施形態の別の例示において、ユーザの意図がマルチメディア情報の再生を要求することであってもよい。この場合、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、無線ネットワークを通じてクラウド側のサーバから前記ユーザが要求したマルチメディア情報を取得し、取得されたメルチメディア情報を再生することになる。
更に、マルチモードの入力信号を受信する前に、前記ユーザと関連する別のユーザが送信した通話リクエストを受信することができ、更に前記ユーザに通話に応答するかどうかを提示する。前記ユーザの意図が通話に応答することである場合、ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、ユーザと前記ユーザと関連する別のユーザとを通話させ、通話中、カメラを制御して話者である前記ユーザの方位を検出し、カメラを話者に回し、ユーザと関連する別のユーザが、前記別のユーザにより使われているスマートデバイスにインストールされたAppを通じて前記ユーザが関心を寄せている顔をクリックすると、ビデオカメラ顔追跡機能が作動し、カメラに前記ユーザが関心を寄せている顔を追跡させることになる。
例えば、夜の9時に、トットちゃんは家で友達とお誕生日会を開いている。
「度ちゃん、今日は私の誕生日ですから、誕生日の歌を一曲再生してもらえませんか」とトットちゃんが知能ロボットに聞く。知能ロボットは、前記音声を受信した後、音声認識の結果に基づいてトットちゃんが入力した音声の意図がマルチメディア情報(例えば、オーディオ情報である誕生日の歌)の再生であると判定する。
すると、知能ロボットは無線ネットワーク(Wireless Fidelity、以下WiFiと略称する)を通じてスマートクラウド側のサーバから誕生日の歌を検索し、それを再生するように自動的にローカルにダウンロードし、ユーザに処理結果として、「大丈夫です。今すぐ再生します」とフィードバックする。
再生を終えた後、知能ロボットがトットちゃんの母親から送信されたビデオ通話のリクエストを受信した。すると、知能ロボットがトットちゃんに「ビデオ通話のリクエストを受け取りました。お母さんがトットちゃんとビデオ通話をしようとしていますが、接続しますか。」と提示する。
「すぐ接続してください」とトットちゃんが言う。トットちゃんが入力した音声を受信した後、知能ロボットは、トットちゃんが入力したこの音声の意図が通話に接続することであると判定した後、遠くの余所で出張している母親により使われているスマートフォンにインストールされたAppと知能ロボットのHDビデオカメラとを接続し、母親をトットちゃん及びその友達とビデオ通話させる。ビデオ通話中、知能ロボットが自身のカメラを制御して自動的に話者の方位を確かめ、カメラを話者に回す。カメラを回すとき、インテリジェントなデュアルレンズカメラを切替えるアルゴリズムによってカメラの画面の安定化が保証され、揺れが生じない。母親の方は自分の使うスマートデバイスにインストールされたAppを通じてビデオの中の顔をクリックし、ビデオカメラ顔追跡機能を作動し、知能ロボットのカメラに母親が関心を寄せている顔を追跡し続けさせる。
つまり、本実施形態による人工知能に基づくヒューマンコンピュータインターアクションの方法は、いつでも家族と連絡を取ることが実現し、新しいインテリジェントなインターアクションの手段を有し、前記方法を実現する端末デバイスが家族間のコミュニケーション、手伝い、提示の架け橋になることができる。
本実施形態の他の例示において、前記環境センサーの信号は現在の環境の環境情報を提示するものである場合、マルチモードの入力信号を受信した後、前記環境情報に含まれている指標において警告閾値を超えた指標があるとき、危険警報をし、同時に危険を処理する方法を出力し、並びにカメラを作動して撮影する。その中で、前記警告閾値は前記環境情報の指標に応じて別々に設定できるが、本実施形態においては警告閾値の大小を制限しない。
つまり、人工知能に基づくヒューマンコンピュータインターアクションの方法は更に家族を災害から保護することができる。
例えば、本実施形態に係る方法に関する端末装置は、例えば知能ロボットに搭載されたPM2.5粒子状物質センサー、有毒ガスセンサー及び/又は温湿度センサー等のようなセンサーが知能ロボットの現在の環境の環境情報を取得することができるため、いつでもホーム環境の健康度をモニタリングすることができる。前記環境情報に含まれている指標において警告閾値を超えた指標があるとき、例えば家でガス漏れのような有毒ガス漏れが発生したとき、すぐに危険警報を送信し、音声で危険警告をし、同時に危険を処理する方法を知らせ、並びに自動的に危険状況を家族の携帯電話に送信し、自動的に警戒モードに入り、カメラを作動して家全体を撮影し記録する。
更に、前記環境情報に含まれている指標においてモード切替閾値に達した指標があるとき、スマートハウス制御システムによって前記モード切替閾値に達した指標に対応する家電のモードを制御し、家電の管理を実現する。その中で、前記モード切替閾値は同様に前記環境情報の指標に応じで別々に設定することができ、本実施形態においては警告閾値を制限しない。
例えば、本実施形態に係る方法に関する端末装置は、例えば知能ロボットに搭載されたPM2.5粒子状物質センサー、有毒ガスセンサー及び/又は温湿度センサー等のようなセンサーが、ホームの大気質や温湿度などのような知能ロボットの現在の環境の環境情報を取得することができる。大気質の濃度が高くなり、大気質のモード切替閾値に達した場合、知能ロボットが自動的にブルートゥーススマートハウス制御システムを通じて空気清浄器をつける。部屋の温度が高すぎたり低すぎたりして温度のモード切替閾値に達した場合、自動的にエアコンをつける。留守をして電気を消すのを忘れ、電気のモード切替閾値に達した場合、自動的に電気を消す。
本実施形態の他の例示において、前記ユーザの意図が問題の解答を求めることであるとする。この場合、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、ユーザが入力した音声に含まれている問題に対して、検索して前記問題の解答を取得し、前記解答をユーザに対して出力することになる。その中で、前記解答をユーザに対して出力するには、前記解答をユーザに対して音声出力してもよいし、前記解答を文字列としてユーザに対して表示してもよい。
更に、前記解答をユーザに対して出力した後、ユーザが入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報をユーザに対して出力することもできる。その中で、前記推奨情報をユーザに対して出力するには、前記推奨情報をユーザに対して音声出力してもよいし、前記推奨情報を文字列としてユーザに対して表示してもよい。
例えば、学習と成長盛りにある児童は世界のどんなものに対しても探求する好奇心を持っている。児童がよく「これは何ですか」又は「どうしてですか」のような質問をよく親に聞く。知能ロボットのような本実施形態による人工知能に基づくヒューマンコンピュータインターアクションの方法を利用した端末装置がなければ、親たちは自分の知識の制限のせいで答えられないことがよくあり、いくら考えても答えられなかったり、コンピュータの電源を入れていろいろ調べたりして、効率が悪く不便である。しかし、知能ロボットがそばにいると、児童はいつでもさまざまな質問を知能ロボットに聞くことができる。例えば、「度ちゃん、なぜ葉っぱは緑色なんですか」と聞く。児童から入力された前記音声を受信した後、知能ロボットが前記音声に対して音声認識を行い、音声認識の結果に基づいて児童が入力した前記音声の意図が問題の解答を求めることであると判定すると、知能ロボットが児童が入力した音声に含まれた問題をクラウドを通じてインテリジェントな検索を行い、多量のインターネット上の情報から最良の結果を選び出し、その解答として、「葉っぱが緑色であるのは、葉緑素があるからである。葉緑素とは植物の細胞葉緑体の中にある大切な緑色の色素であり、水、空気および光エネルギーを利用して植物に必要とされる養分を作ることができる。葉緑素が緑色であるため、植物の葉っぱも緑色であるわけである。」を児童に対して音声出力する。
児童の問題に答えた後、知能ロボットは児童が入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報を児童に対して出力することもできる。具体的には、知能ロボットは自動的に児童が聞いた前記問題に基づいて拡散的な教育と啓発として、「葉緑素を知りましたが、なぜ秋になると葉っぱが枯れるのかトットちゃんはわかりますか」等々をする。
その他、文字の勉強、英単語の習得、児童に物語を読むことなどさまざまな教育シーンがある。
3歳〜5歳の児童が、言語の急速な発展の時期で他人との会話を必要とする成長過程にある場合おいて、知能ロボットは、一日中休むことなく児童と話すことができ、児童の言語システムの成長を支援できる。知能ロボットがそばにいると、児童教育が新しい時代に入ることができる。
前記人工知能に基づくヒューマンコンピュータインターアクションの方法は、マルチモードの入力信号を受信した後、前記マルチモードの入力信号に基づいて前記ユーザの意図を判定し、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックすることにより、良好なヒューマンコンピュータインターアクションを実現することができ、高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションも実現することができ、更にユーザエクスペリエンスを向上させることができる。
図2は本発明の一実施形態による人工知能に基づくヒューマンコンピュータインターアクションの装置を示す模式図である。本実施形態による人工知能に基づくヒューマンコンピュータインターアクションの装置は端末機器又は端末機器の一部として本発明の図1に示した実施形態のフローチャートを実現することができる。図2に示したように、前記人工知能に基づくヒューマンコンピュータインターアクションの装置は受信モジュール21、意図判定モジュール22と処理モジュール23とを含むことができる。
その中で、受信モジュール21は、ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信する。
具体的には、ユーザが入力した音声信号はユーザがマイクにより入力することができ、前記画像信号はカメラにより入力することができ、前記環境センサー信号は光センサー、温湿度センサー、有毒ガスセンサー、粒子状物質センサー、タッチモジュール、地理的位置定位モジュールと重力センサーの中の一つ又は複数のセンサーによって入力される信号である。
意図判定モジュール22は、受信モジュール21が受信したマルチモードの入力信号に基づいて前記ユーザの意図を判定する。
処理モジュール23は、意図判定モジュールが判定した前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックする。
具体的には、処理モジュールが処理結果を前記ユーザにフィードバックするステップは、処理モジュール23が処理結果を画像、文字列、音声、ロボットの身体の動き及び/又はロボットの点灯フィードバック等を通じてユーザにフィードバックすることを含むことができる。本実施形態は処理結果をフィードバックする方法を制限しない。
本実施形態の例示において、意図判定モジュール22は、具体的に前記ユーザが入力した音声信号に対して音声認識を行い、音声認識の結果に基づいて、画像信号及び/又はセンサー信号と結合して前記ユーザの意図を判定する。
又は、意図判定モジュール22は、具体的に前記ユーザが入力した音声信号に対して音声認識を行い、音源定位を通じてディスプレイを前記ユーザのいる方位に回し、カメラ支援顔認識機能を利用して前記ユーザの姓名、年齢、性別等の個人情報を識別し、音声認識の結果、前記ユーザの個人情報、保存された前記ユーザの日常的な行動や好み等の嗜好情報に基づいて前記ユーザの意図を判定する。
本例示において、処理モジュール23は、具体的に前記ユーザの意図に基づいて、クラウド側のデータベースにおいて個別的データマッチングをし、前記ユーザに相応しい推奨情報を取得して前記ユーザに対して出力する。その中で、前記ユーザに相応しい推奨情報を前記ユーザに出力することは、処理モジュール23によって前記ユーザに相応しい推奨情報を前記ユーザに対して音声出力することもできるし、又は前記ユーザに相応しい推奨情報を文字列としてディスプレイに表示することもできる。本実施形態は処理モジュールが前記ユーザに相応しい推奨情報を前記ユーザに対して出力する方法を制限しない。
更に、前記推奨情報にアドレス情報が含まれ、処理モジュール23は、具体的に前記ユーザのいる場所から前記アドレス情報が指し示す場所までの交通ルートを取得し、前記ユーザの行動のパターンに従って前記ユーザに相応しい交通手段を取得し、前記交通手段を前記ユーザに推奨する。その中で、処理モジュール23が前記交通手段を前記ユーザに推奨するには、処理モジュール23が前記交通手段を前記ユーザに対して音声出力することも可能であり、又は前記交通手段を文字列としてディスプレイに表示することも可能である。本実施形態は処理モジュール23が前記交通手段を前記ユーザに推奨する方法を制限しない。
つまり、本実施形態によるヒューマンコンピュータインターアクションの装置は、人間との数回の会話交流を実現でき、自然言語、表情を通じて人間とコミュニケーションすることができ、個別的学習能力を備え、インテリジェントクラウド側のサーバに接続することにより関連知識を取得し、同時にターゲットを絞ってユーザに提供する。
例えば、お年寄りが外出して何かのイベントに参加することを希望する場合で、付近に面白そうなイベントがあるかどうかを知らない場合がある。この場合、本実施形態の装置がなければ、通常の解決方法として、お年寄りは子女に電話をかけて聞くか、又は家を出て近所の人や町内会に問い合わせるしかない。
しかし、本実施形態によるヒューマンコンピュータインターアクションの装置があれば、お年寄りは本実施形態によるヒューマンコンピュータインターアクションの装置に向かって、「度ロボットちゃん、この近くに私に相応しいイベントがありませんか」と質問することができる。
受信モジュール21が前記音声を受信した後、意図判定モジュール22が音源定位を通じて知能ロボットのディスプレイ(例えば、知能ロボットの顔)をお年寄りのいる方位に回し、HDカメラ支援顔認識機能を利用して話者の姓名、年齢、性別等の個人情報を正確に識別し、話者の日常的な行動や好み、年齢と性別等の情報に基づいて、話者が入力した音声の意図を判定し、その後処理モジュール23が入力された音声の意図に基づいてクラクラウド側のデータベースの中において個別的データマッチングをし、話者に最も相応しい推奨情報を選び出し、前記推奨情報として、「度はお好きになるかもしれないイベントを見つけました。今日の午後2時にここから800メートルの南湖公園でお年寄りのための社交ダンスパーティーがありますが、いかがでしょうか」を前記話者に対して音声出力する。その中で、該推奨情報にはアドレス情報「南湖公園」が含まれている。
ユーザが「よいですね。このイベントが気に入りました。どうすれば行けるのですか」と返答したとする。ユーザが入力した音声を受信した後、意図判定モジュール22が前記ユーザにより入力された音声に対して音声認識を行い、音声認識の結果に基づいてユーザの意図が南湖公園に行きたいものであると判定すると、処理モジュール23が地理的位置定位モジュールにより入力された信号に基づいてユーザの居る場所を確定し、自動的にユーザのいる場所から南湖公園までの交通ルートを検索し、前記ユーザの日常的な行動のパターンに従って前記ユーザに相応しい交通手段をスマートに取得し、その交通手段として、「ここから南湖まで800メートルであり、徒歩時間がおよそ15分であり、徒歩ルートの地図を用意しました」とユーザに推奨する。
図3は本発明の別の実施形態によるヒューマンコンピュータインターアクションの装置を示す模式図である。図2に示した装置と比べて、図3に示した装置は更に提示モジュール24と記録モジュール25とを含む。
本実施形態の他の例示において、前記ユーザの意図に時間情報が含まれ、処理モジュール23は、具体的に前記ユーザの意図の時間情報に基づいて目覚まし時計の時刻を設定し、その設定結果を前記ユーザにフィードバックする。その中で、処理モジュール23によって設定結果を前記ユーザにフィードバックするには、処理モジュール23によって設定結果をユーザに対して音声出力してもよいし、又は処理モジュール23によって設定結果を文字列としてユーザに対して表示してもよいし、当然ながら他のフィードバック方法を利用してもよい。本発明はこれを制限しない。
提示モジュール24は、処理モジュール23が設定結果を前記ユーザにフィードバックした後、前記ユーザに提示する。
記録モジュール25は、前記ユーザの伝言メッセージを記録する。
提示モジュール24は、更に前記目覚まし時計の設定時刻になると、アラームを鳴らす。
処理モジュール23は、更に記録モジュール25が記録したユーザの伝言メッセージを再生する。
例えば、朝7時に母親は早起きして出張に行かなければならないが、児童のトットちゃんがまだ熟睡しているとする。家を出るとき、母親が知能ロボットに、「度ロボットちゃん、8時にトットちゃんを起こしてもらえませんか」と言う。受信モジュール21が音声を受信した後、意図判定モジュール22が音声認識の結果に基づいてユーザの意図に時間情報が含まれていると識別すると、処理モジュール23がユーザの意図における時間情報に基づいて目覚まし時計の時刻を設定、その設定結果を前記ユーザにフィードバックする。設定結果をユーザにフィードバックした後、提示モジュール24が更にユーザに提示可能であるため、「大丈夫です、目覚まし時計の時刻を設定しておきました。1時間後のちょうど8時にトットちゃんを起こします。トットちゃんが起きてから何か伝言がありますか」と返答する。
「ありがとう、度ちゃん。トットちゃんに伝えてください。朝ごはんができていて、電子レンジにおいておきました。今日はトットちゃんの誕生日ですから、おめでとうと伝えてください」と母親が言う。この場合、記録モジュール25がユーザの伝言メッセージを記録し、前記目覚まし時計の設定時刻になると提示モジュール24がアラームを鳴らし、前記ユーザの伝言メッセージを再生する。
本実施形態の別の例示において、受信モジュール21は、マルチモードの入力信号を受信する前に、更に前記ユーザと関連する別のユーザが送信したマルチメディア情報を受信することもできる。
提示モジュール24は、更に前記ユーザに前記マルチメディア情報を再生するかどうかを提示する。ここにおいて、提示モジュール24がユーザにマルチメディア情報を再生するかどうかを提示するには、ユーザにマルチメディア情報を再生するかどうかを提示する機能を果たせれば、音声提示を用いても、文字提示を用いても、又はその他の提示方法を用いてもかまわない。
前記ユーザの意図が前記マルチメディア情報の再生に賛成することであれば、処理モジュール23は、具体的にユーザと関連する別のユーザが送信したマルチメディア情報を再生する。
更に、前記ヒューマンコンピュータインターアクションの装置は送信モジュール26を含むこともできる。
受信モジュール21は、処理モジュール23が前記ユーザと関連する別のユーザが送信したマルチメディア情報を再生した後、更に前記ユーザが送信した音声を受信することもできる。
送信モジュール26は、受信モジュール21が受信した音声を前記ユーザと関連する別のユーザに送信する。その中で、送信モジュール26が前記音声をユーザと関連する別のユーザに送信するには、送信モジュール26が音声を直接的にユーザと関連する別のユーザが使われているスマートデバイスにインストールされたAppに送信するか、又は音声を文字に変換してユーザと関連する別のユーザが使われているスマートデバイスにインストールされたAppに送信する。
例えば、昼12時に、トットちゃんが家で食事をしている。
受信モジュール21がユーザ(トットちゃん)と関連する別のユーザ(トットちゃんの母親)から送信されてマルチメディア情報(例えばビデオ)を受信した場合、提示モジュール24がユーザにそのマルチメディア情報を再生するかどうかを提示する。「こんにちは、トットちゃん、度がお母さんから送信されたビデオを受け取りましたが、今ご覧になりますか」と音声出力をする。
トットちゃんが「すぐ再生してください」と返答する。受信モジュール21がトットちゃんの入力した音声を受信した後、意図判定モジュール22が音声認識を行い、音声認識の結果に基づいてユーザの意図が前記動画情報の再生に同意するものであると判定すると、処理モジュール23がスクリーンにおいて自動的に母親が出張先で録画した誕生日祝福ビデオを再生する。
母親から送信されたビデオを再生した後、受信モジュール21が更にトットちゃんからの音声として、「度ちゃん、お母さんに伝えてください。ありがとう、愛している、いい旅をして早く帰れるようにって」を受信することもできる。
この場合、送信モジュール26は、自動的にトットちゃんからの音声を文字に変換し、母親の携帯電話にインストールされているAppに送信する。
本実施形態の他の例示において、ユーザの意図がマルチメディア情報の再生を要求することであってもよい。この場合、処理モジュール23は、無線ネットワークを通じてクラウド側のサーバから前記ユーザが要求したマルチメディア情報を取得し、取得されたメルチメディア情報を再生する。
更に、受信モジュール21は、マルチモードの入力信号を受信する前に、前記ユーザと関連する別のユーザが送信した通話リクエストを受信することもできる。
提示モジュール24は、前記ユーザに対し通話に応答するかどうかを提示する。
前記ユーザの意図が通話に応答することである場合、処理モジュール23は、前記ユーザを前記ユーザと関連する別のユーザとを通話させ、通話中、カメラを制御して話者である前記ユーザの方位を検出し、前記カメラを話者に回し、前記ユーザと関連する別のユーザが、前記別のユーザにより使われるスマートデバイスにインストールされたAppを通じて前記ユーザが関心を寄せている顔をクリックすると、ビデオカメラ顔追跡機能が作動し、カメラに前記ユーザが関心を寄せている顔を追跡させる。
例えば、夜の9時に、トットちゃんは家で友達とお誕生日会を開いている。
「度ちゃん、今日は私の誕生日ですから、誕生日の歌を一曲再生してもらえませんか」とトットちゃんが知能ロボットに聞く。受信モジュール21が前記音声を受信した後、意図判定モジュール22が音声認識の結果に基づいてトットちゃんが入力した音声の意図がマルチメディア情報(例えば、オーディオ情報である誕生日の歌)の再生であると判定する。
すると、処理モジュール23がWiFiを通じてスマートクラウド側のサーバから誕生日の歌を検索し、それを再生するよう自動的にローカルにダウンロードし、ユーザに処理結果として、「大丈夫です。今すぐ再生します。」とフィードバックする。
再生を終えた後、受信モジュール21がトットちゃんの母親から送信されたビデオ通話のリクエストを受信した。すると、提示モジュール24がトットちゃんに「ビデオ通話のリクエストを受け取りました。お母さんがトットちゃんとビデオ通話をしようとしているが、接続しますか。」と提示する。
「すぐ接続してください」とトットちゃんが言う。受信モジュール21がトットちゃんの入力した音声を受信した後、意図判定モジュール22がトットちゃんの入力したこの音声の意図が通話に接続することであると判定した後、処理モジュール23が遠くの余所において出張中の母親により使われているスマートフォンにインストールされたAppと知能ロボットとのHDビデオカメラを接続し、母親を、トットちゃん及びその友達とビデオ通話させる。ビデオ通話中、処理モジュール23が自身のカメラを制御して自動的に話者の方位を確かめ、カメラを話者に回す。カメラが回るとき、インテリジェントなデュアルレンズカメラを切替えるアルゴリズムによってカメラの画面の安定化が保証され、揺れが生じない。母親の方は自分の使うスマートデバイスにインストールされているAppを通じてビデオの中の顔をクリックし、ビデオカメラ顔追跡機能を作動し、知能ロボットのカメラに母親が関心を寄せている顔を追跡し続けさせる。
つまり、本実施形態による人工知能に基づくヒューマンコンピュータインターアクションの装置は、いつでも家族と連絡を取ることを実現させ、新しいインテリジェントなインターアクションの手段を有し、前記方法を実現する端末デバイスが家族間のコミュニケーション、手伝い、提示の架け橋になることができる。
本実施形態の他の例示において、前記環境センサーの信号は、現在の環境の環境情報を提示する。
処理モジュール23は、前記環境情報に含まれている指標において警告閾値を超えた指標があるとき、危険警報をし、同時に危険を処理する方法を出力し、並びにカメラを作動して撮影する。その中で、前記警告閾値は前記環境情報の指標に応じて別々に設置できるが、本実施形態においては警告閾値の大小を制限しない。
つまり、前記人工知能に基づくヒューマンコンピュータインターアクションの装置は更に家族を災害から保護することが可能である。
例えば、ヒューマンコンピュータインターアクションの装置におけるセンサーは、PM2.5粒子状物質センサー、有毒ガスセンサー及び/又は温湿度センサー等を含むことができる。前記センサーの信号は、知能ロボットの現在の環境の環境情報を提示することができるため、いつでもホーム環境の健康度をモニタリングすることができる。前記環境情報に含まれている指標において警告閾値を超えた指標があるとき、例えば家でガス漏れのような有毒ガス漏れが発生したとき、処理モジュール23がすぐに危険警報を送信し、音声で危険警告をし、同時に危険を処理する方法を知らせ、並びに自動的に危険状況を家族の携帯電話に送信し、自動的に警戒モードに入り、カメラを作動して家全体を撮影し記録する。
更に、処理モジュール23は、前記環境情報に含まれている指標においてモード切替閾値に達した指標があるとき、スマートハウス制御システムによって前記モード切替閾値に達した指標に対応する家電のモードを制御し、家電の管理を実現する。その中で、前記モード切替閾値は同様に前記環境情報の指標に応じで別々に設置することができ、本実施形態においては警告閾値を制限しない。
例えば、前記ヒューマンコンピュータインターアクションの装置におけるセンサーは、PM2.5粒子状物質センサー、有毒ガスセンサー及び/又は温湿度センサー等を含むことができ、前記センサーの信号はホームの大気質や温湿度などのような現在の環境の環境情報を提示することができる。大気質の濃度が高くなり、大気質のモード切替閾値に達した場合、処理モジュール23が自動的にブルートゥーススマートハウス制御システムを通じて空気清浄器をつける。部屋の温度が高すぎたり低すぎたりして温度のモード切替閾値に達した場合、処理モジュール23が自動的にエアコンをつける。留守をして電気を消すのを忘れ、電気のモード切替閾値に達した場合、処理モジュール23が自動的に電気を消す。
本実施形態の別の例示において、前記ユーザの意図が問題の解答を求めることである。この場合、処理モジュール23は、具体的に前記ユーザが入力した音声に含まれている問題に対して、検索して前記問題の解答を取得し、前記解答をユーザに対して出力する。その中で、処理モジュール23が前記解答をユーザに対して出力するには、前記解答をユーザに対して音声出力してもよいし、前記解答を文字列としてユーザに対して表示してもよい。
更に、処理モジュール23は、前記解答をユーザに対して出力した後、前記ユーザが入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報をユーザに対して出力することもできる。その中で、処理モジュール23が前記推奨情報をユーザに対して出力するには、前記推奨情報をユーザに対して音声出力してもよいし、前記推奨情報を文字列としてユーザに対して表示してもよい。
例えば、学習と成長盛りにある児童は世界のどんなものに対しても探求する好奇心を持っている。児童がよく「これは何ですか」又は「どうしてですか」のような質問をよく親に聞く。本実施形態による人工知能に基づくヒューマンコンピュータインターアクションの装置がなければ、親たちは自分の知識の制限のせいで答えられないことがよくあり、いくら考えても答えられなかったり、コンピュータの電源を入れていろいろ調べたりし、効率が悪く不便である。しかし、本実施形態による人工知能に基づくヒューマンコンピュータインターアクションの装置があると、児童はいつでもさまざまな質問をヒューマンコンピュータインターアクションの装置に聞くことができる。例えば、「度ちゃん、なぜ葉っぱは緑色なんですか」と聞く。受信モジュール21が児童から入力された前記音声を受信した後、意図判定モジュール22が前記音声に対して音声認識を行い、音声認識の結果に基づいて児童が入力した前記音声の意図が問題の解答を求めることであると判定すると、処理モジュール23は児童が入力した音声に含まれている問題を、クラウドを通じてインテリジェントな検索を行い、多量のインターネット上の情報から最良の結果を選び出し、その解答として、「葉っぱが緑色であるのは、葉緑素があるからである。葉緑素とは植物の細胞葉緑体の中にある大切な緑色の色素であり、水、空気および光エネルギーを利用して植物に必要とされる養分を作ることができる。葉緑素が緑色であるため、植物の葉っぱも緑色であるわけである。」とユーザに対して音声出力する。
児童の問題に答えた後、処理モジュール23は児童が入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報を児童に対し出力することもできる。具体的には、処理モジュール23は自動的に児童が聞いた前記問題に基づいて拡散的な教育と啓発として、「葉緑素を知りましたが、なぜ秋になると葉っぱが枯れるのかトットちゃんはわかりますか」等々の質問をする。
その他、文字の勉強、英単語の習得、児童に物語を読むことなどさまざまな教育シーンがある。
3歳〜5歳の児童が、言語の急速な発展の時期で他人との会話を必要とする成長過程にある場合において、知能ロボットは、一日中休むことなく児童と話すことができ、児童の言語システムの成長を支援できる。知能ロボットがそばにいると、児童教育が新しい時代に入ることができる。
前記人工知能に基づくヒューマンコンピュータインターアクションの装置は、受信モジュール21がマルチモードの入力信号を受信した後、前記マルチモードの入力信号に基づいて、意図判定モジュール22が前記ユーザの意図を判定し、処理モジュール23が前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックすることにより、良好なヒューマンコンピュータインターアクションを実現することができ、高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションも実現することができ、更にユーザエクスペリエンスを向上させることができる。
図4は本発明の一実施形態による端末機器を示す図である。本実施形態による端末機器は本発明の図1に示したフローチャートを実現することができる。図4に示したように、該端末機器は、受信部41、処理部42、記憶部43、回路基板44と電源回路45とを含むことができる。そのうち、回路基板44はケースによって囲まれた空間内部に配置され、処理部42と記憶部43は回路基板に配置され、電源回路45は前記端末装置の各回路又は装置に給電し、記憶部43は実行可能なプログラムコードを記憶する。
受信部41は、ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信する。
具体的には、ユーザが入力した音声信号はユーザがマイクにより入力することができ、前記画像信号はカメラにより入力することができ、前記環境センサー信号は光センサー、温湿度センサー、有毒ガスセンサー、粒子状物質センサー、タッチモジュール、地理的位置定位モジュールと重力センサーの中の一つ又は複数のセンサーによって入力される信号である。
処理部42は、前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップと、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップとを実行できるように、記憶部43に記憶された実行可能なプログラムコードを読み取って実行可能なプログラムコードに対応するプログラムを実行する。
具体的には、処理部42が処理結果を前記ユーザにフィードバックするステップは、処理部42が処理結果を画像、文字列、音声、ロボットの身体の動き及び/又はロボットの点灯フィードバック等を通じてユーザにフィードバックすることを含むことができる。本実施形態は処理結果をフィードバックする方法を制限しない。
本実施形態の例示において、処理部42は、具体的に前記ユーザが入力した音声信号に対して音声認識を行い、音声認識の結果に基づいて、画像信号及び/又はセンサー信号と結合して前記ユーザの意図を判定する。
又は、前記端末機器は更にカメラ46を含むこともできる。処理部42は、具体的に前記ユーザが入力した音声信号に対して音声認識を行い、音源定位を通じてディスプレイを前記ユーザのいる方位に回し、カメラ46支援顔認識機能を利用して前記ユーザの姓名、年齢、性別等の個人情報を識別し、音声認識の結果、前記ユーザの個人情報、保存された前記ユーザの日常的な行動や好み等の嗜好情報に基づいて前記ユーザの意図を判定する。
本例示において、処理部42は、具体的に前記ユーザの意図に基づいて、クラウド側のデータベースにおいて個別的データマッチングをし、前記ユーザに相応しい推奨情報を取得して前記ユーザに対して出力する。その中で、処理部42によって前記ユーザに相応しい推奨情報を前記ユーザに対して出力することは、前記ユーザに相応しい推奨情報を前記ユーザに対し音声出力することもできるし、又は前記ユーザに相応しい推奨情報を文字列としてディスプレイに表示することもできる。本実施形態は処理モジュールが前記ユーザに相応しい推奨情報を前記ユーザに対して出力する方法を制限しない。
更に、前記推奨情報にアドレス情報が含まれ、処理部42は、具体的に前記ユーザのいる場所から前記アドレス情報が指し示す場所までの交通ルートを取得し、前記ユーザの行動のパターンに従って前記ユーザに相応しい交通手段を取得し、前記交通手段を前記ユーザに推奨する。その中で、処理部42によって前記交通手段を前記ユーザに推奨するには、前記交通手段を前記ユーザに対して音声出力することもできるし、又は前記交通手段を文字列としてディスプレイに表示することもできる。本実施形態は前記交通手段を前記ユーザに推奨する方法を制限しない。
つまり、本実施形態による端末機器は、人間との数回の会話交流を実現でき、自然言語、表情を通じて人間とコミュニケーションすることができ、個別的学習能力を備え、インテリジェントクラウド側のサーバに接続することにより関連知識を取得し、同時にターゲットを絞ってユーザに提供する。
例えば、お年寄りが外出して何らかのイベントに参加することを希望する場合で、付近に面白そうなイベントがあるかどうかを知らない場合がある。この場合、本実施形態の端末機器がなければ、通常の解決方法として、お年寄りは子女に電話をかけて聞くか、又は家を出て近所の人や町内会に問い合わせるしかない。
しかし、本実施形態による端末機器があれば、お年寄りは本実施形態による端末機器に向かって、「度ロボットちゃん、この近くに私に相応しいイベントがありませんか」と質問することができる。
受信部41が前記音声を受信した後、処理部42が音源定位を通じて端末機器のディスプレイ(例えば、知能ロボットの顔)をお年寄りのいる方位に回し、HDカメラ46支援顔認識機能を利用して話者の姓名、年齢、性別等の個人情報を正確に識別し、話者の日常的な行動や好み、年齢と性別等の情報に基づいて、話者が入力した音声の意図を判定し、その後処理部42が入力された音声の意図に基づいてクラウド側のデータベースの中において個別的データマッチングをし、話者に最も相応しい推奨情報を選び出し、前記推奨情報として、「度はお好きになるかもしれないイベントを見つけました。今日の午後2時にここから800メートルの南湖公園でお年寄りのための社交ダンスパーティーがありますが、いかがでしょうか」を前記話者に対し音声出力する。その中で、該推奨情報にはアドレス情報「南湖公園」が含まれている。
ユーザが「よいですね。このイベントが気に入りました。どうすれば行けるんですか」と返答したとする。受信部41が前記ユーザにより入力された音声を受信した後、処理部42が前記ユーザにより入力された音声に対して音声認識を行い、音声認識の結果に基づいてユーザの意図が南湖公園に行きたいものであると判定すると、処理部42が地理的位置定位モジュールにより入力された信号に基づいてユーザの居る場所を確定し、自動的にユーザのいる場所から南湖公園までの交通ルートを検索し、前記ユーザの日常的な行動のパターンに従って前記ユーザに相応しい交通手段をスマートに取得し、その交通手段として、「ここから南湖まで800メートルであり、徒歩時間はおよそ15分で、徒歩ルートの地図を用意しました」とユーザに推奨する。
本実施形態の別の例示において、前記ユーザの意図に時間情報が含まれ、処理部42は、具体的に前記ユーザの意図の時間情報に基づいて目覚まし時計の時刻を設定し、その設定結果を前記ユーザにフィードバックする。その中で、処理部42によって設定結果を前記ユーザにフィードバックするには、処理部42によって設定結果をユーザに対して音声出力してもよいし、又は設定結果を文字列としてユーザに対して表示してもよいし、当然ながら他のフィードバック方法を利用してもよい。本発明はこれを制限しない。
更に、処理部42は、設定結果を前記ユーザにフィードバックした後、前記ユーザに伝言メッセージを記録するように促し、前記目覚まし時計の設定時刻になると、アラームを鳴らし、前記ユーザの伝言メッセージを再生する。
例えば、朝7時に母親は早起きして出張に行かなければならないが、児童のトットちゃんがまだ熟睡しているとする。家を出るとき、母親が知能ロボットに、「度ロボットちゃん、8時にトットちゃんを起こしてもらえませんか」と言う。受信部41が音声を受信した後、処理部42が音声認識の結果に基づいてユーザの意図に時間情報含まれていると識別すると、処理部42がユーザの意図における時間情報に基づいて目覚まし時計の時刻を設定、その設定結果を前記ユーザにフィードバックする。設定結果をユーザにフィードバックした後、処理部42が更にユーザに提示することもできるため、「大丈夫です、目覚まし時計の時刻を設定しておきました。1時間後のちょうど8時にトットちゃんを起こします。トットちゃんが起きてから何か伝言がありますか」と返答する。
「ありがとう、度ちゃん。トットちゃんに伝えてください。朝ごはんができていて、電子レンジにおいておきました。今日はトットちゃんの誕生日ですから、おめでとうと伝えてください」と母親が言う。この場合、処理部42がユーザの伝言メッセージを記録し、前記目覚まし時計の設定時刻になるとアラームを鳴らし、前記ユーザの伝言メッセージを再生する。
本実施形態の他の例示において、受信部41は、マルチモードの入力信号を受信する前に、更に前記ユーザと関連する別のユーザが送信したマルチメディア情報を受信することもできる。
処理部42は、更に前記ユーザに前記マルチメディア情報を再生するかどうかを提示する。ここで、処理部42がユーザにマルチメディア情報を再生するかどうかを提示するには、ユーザにマルチメディア情報を再生するかどうかを提示する機能を果たせれば、音声提示を用いても、文字提示を用いても、又はその他の提示方法を用いてもかまわない。
前記ユーザの意図が前記マルチメディア情報の再生に賛成することであれば、処理部42は、具体的には、ユーザと関連する別のユーザが送信したマルチメディア情報を再生する。
更に、前記端末機器は送信部47を含むこともできる。
受信部41は、処理部42が前記ユーザと関連する別のユーザが送信したマルチメディア情報を再生した後、更に前記ユーザが送信した音声を受信することもできる。
送信部47は、前記音声を前記ユーザと関連する別のユーザに送信する。その中で、送信部47が前記音声をユーザと関連する別のユーザに送信するには、送信部47が音声を直接、ユーザと関連する別のユーザにより使われるスマートデバイスにインストールされたAppに送信するか、又は音声を文字に変換してユーザと関連する別のユーザににより使われるスマートデバイスにインストールされたAppに送信する。
例えば、昼12時に、トットちゃんが家で食事をしている。
受信部41がユーザ(トットちゃん)と関連する別のユーザ(トットちゃんの母親)から送信されたマルチメディア情報(例えばビデオ)を受信した場合、処理部42はユーザにそのマルチメディア情報を再生するかどうかを提示する。「こんにちは、トットちゃん、度がお母さんから送信されたビデオを受け取りましたが、今ご覧になりますか」と音声出力する。
トットちゃんが「すぐ再生してください」と返答する。受信部41はトットちゃんが入力した音声を受信した後、処理部42は音声認識を行い、音声認識の結果に基づいてユーザの意図が前記動画情報の再生に同意するものであると判定すると、処理部42はスクリーンにおいて自動的に母親が出張先で録画した誕生日祝福ビデオを再生する。
母親から送信されたビデオを再生した後、受信部41は更にトットちゃんからの音声として、「度ちゃん、お母さんに伝えてください。ありがとう、愛している、いい旅をして早く帰れるようにって」を受信することもできる。
この場合、送信部47は、自動的にトットちゃんからの音声を文字に変換し、母親の携帯電話にインストールされていたAppに送信する。
本実施形態の他の例示において、ユーザの意図がマルチメディア情報の再生を要求することであってもよい。この場合、処理部42は、無線ネットワークを通じてクラウド側のサーバから前記ユーザが要求したマルチメディア情報を取得し、取得されたメルチメディア情報を再生する。
更に、受信部41は、マルチモードの入力信号を受信する前に、前記ユーザと関連する別のユーザが送信した通話リクエストを受信することもできる。
処理部42は、前記ユーザに通話に応答するかどうかを提示する。
前記ユーザの意図が通話に応答することである場合、処理部42は、前記ユーザと前記ユーザと関連する別のユーザとを通話させ、通話中、カメラを制御して話者である前記ユーザの方位を検出し、前記カメラを話者に回し、前記ユーザと関連する別のユーザが、前記別のユーザにより使われるスマートデバイスにインストールされたAppを通じて、前記ユーザが関心を寄せている顔をクリックすると、ビデオカメラ顔追跡機能が作動し、カメラ46に前記ユーザが関心を寄せている顔を追跡させる。
例えば、夜の9時に、トットちゃんは家で友達とお誕生日会を開いている。
「度ちゃん、今日は私の誕生日ですから、誕生日の歌を一曲再生してもらえませんか」とトットちゃんが端末機器に聞く。受信部41が前記音声を受信した後、処理部42が音声認識の結果に基づいてトットちゃんが入力した音声の意図がマルチメディア情報(例えば、オーディオ情報である誕生日の歌)の再生であると判定する。
すると、処理部42がWiFiを通じてスマートにクラウド側のサーバから誕生日の歌を検索し、それを再生するように自動的にローカルにダウンロードし、ユーザに処理結果として、「大丈夫です。今すぐ再生します。」とフィードバックする。
再生を終えた後、受信部41がトットちゃんの母親から送信されたビデオ通話のリクエストを受信した。すると、処理部42がトットちゃんに「ビデオ通話のリクエストを受け取りました。お母さんがトットちゃんとビデオ通話をしようとしていますが、接続しますか。」と提示する。
「すぐ接続してください」とトットちゃんが言う。受信部41はトットちゃんが入力した音声を受信した後、処理部42はトットちゃんにより入力されたこの音声の意図が通話に接続することであると判定した後、処理部42は遠くの余所で出張している母親により使われるスマートフォンにインストールされたAppと知能ロボットとのHDビデオカメラを接続し、母親を、トットちゃん及びその友達とビデオ通話をさせる。ビデオ通話中、処理部42が自身のカメラ46を制御して自動的に話者の方位を確かめ、カメラを話者に回す。カメラ46が回るとき、インテリジェントなデュアルレンズカメラを切替えるアルゴリズムによってカメラの画面の安定化が保証され、揺れが生じない。母親の方は自分の使うスマートデバイスにインストールされたAppを通じてビデオの中の顔をクリックし、ビデオカメラ顔追跡機能を作動し、知能ロボットのカメラに母親が関心を寄せている顔を追跡し続けさせる。
つまり、本実施形態による端末機器は、いつでも家族と連絡を取ることが実現し、新しいインテリジェントなインターアクションの手段を有し、前記方法を実現する端末デバイスが家族間のコミュニケーション、手伝い、提示の架け橋になれる。
本実施形態の他の例示においては、前記端末機器は更にセンサー48を含むこともでき、センサー48により獲得された環境センサー信号が現在の環境の環境情報を提示する。
処理部42は、更に前記環境情報に含まれる指標において警告閾値を超えた指標があるとき、危険警報をし、同時に危険を処理する方法を出力し、並びにカメラを作動して撮影する。その中で、前記警告閾値は前記環境情報の指標に応じて別々に設定できるが、本実施形態においては警告閾値の大小を制限しない。
つまり、前記人工知能に基づくヒューマンコンピュータインターアクションの端末機器は更に家族を災害から保護することができる。
例えば、センサー48は、PM2.5粒子状物質センサー、有毒ガスセンサー及び/又は温湿度センサー等を含むことができる。センサー48が獲得された環境センサー信号は現在の環境の環境情報を提示することができるため、いつでもホーム環境の健康度をモニタリングすることができる。前記環境情報に含まれている指標において警告閾値を超えた指標があるとき、例えば家でガス漏れのような有毒ガス漏れが発生したとき、処理部42がすぐに危険警報を送信し、音声で危険警告をし、同時に危険を処理する方法を知らせ、並びに自動的に危険状況を家族の携帯電話に送信し、自動的に警戒モードに入り、カメラを作動して家全体を撮影し記録する。
更に、処理部42は、前記環境情報に含まれている指標においてモード切替閾値に達した指標があるとき、スマートハウス制御システムによって前記モード切替閾値に達した指標に対応する家電のモードを制御し、家電の管理を実現する。その中で、前記モード切替閾値は同様に前記環境情報の指標に応じで別々に設定することができ、本実施形態においては警告閾値を制限しない。
例えば、センサー48は、PM2.5粒子状物質センサー、有毒ガスセンサー及び/又は温湿度センサー等を含むことができ、センサー48が獲得された環境センサー信号はホームの大気質や温湿度などのような現在の環境の環境情報を提示することができる。大気質の濃度が高くなり、大気質のモード切替閾値に達した場合、処理部42が自動的にブルートゥーススマートハウス制御システムを通じて空気清浄器をつける。部屋の温度が高すぎたり低すぎたりして温度のモード切替閾値に達した場合、処理部42が自動的にエアコンをつける。留守をして電気を消すのを忘れ、電気のモード切替閾値に達した場合、処理部42が自動的に電気を消す。
本実施形態の他の例示において、前記ユーザの意図が問題の解答を求めることであるとする。この場合、処理部42は、具体的に前記ユーザが入力した音声に含まれている問題に対して、検索して前記問題の解答を取得し、前記解答をユーザに出力する。その中で、処理部42が前記解答をユーザに出力するには、前記解答をユーザに対して音声出力してもよいし、前記解答を文字列としてユーザに対して表示してもよい。
更に、処理部42は、前記解答をユーザに出力した後、前記ユーザが入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報をユーザに出力することもできる。その中で、処理部42が前記推奨情報をユーザに出力するには、前記推奨情報をユーザに対して音声出力してもよいし、前記推奨情報を文字列としてユーザに対して表示してもよい。
例えば、学習と成長盛りにある児童は世界のどんなものに対しても探求する好奇心を持っている。児童がよく「これは何ですか」又は「どうしてですか」のような質問をよく親に聞く。本実施形態による端末機器がなければ、親たちは自分の知識の制限のせいで答えられないことがよくあり、いくら考えても答えられなかったり、コンピュータの電源を入れいろいろ調べたりしても、効率悪く不便である。しかし、前記端末機器がそばにいるとなると、児童はいつでもさまざまな質問を端末機器に聞くことができる。例えば、「度ちゃん、なぜ葉っぱは緑色なんですか」と聞く。受信部41が児童から入力された前記音声を受信した後、処理部42が前記音声に対して音声認識を行い、音声認識の結果に基づいて児童が入力した前記音声の意図が問題の解答を求めることであると判定すると、処理部42が児童の入力した音声に含まれている問題を、クラウドを通じてインテリジェントな検索を行い、多量のインターネット上の情報から最良の結果を選び出し、その解答として、「葉っぱが緑色であるのは、葉緑素があるからである。葉緑素とは植物の細胞葉緑体の中にある大切な緑色の色素であり、水、空気および光エネルギーを利用して植物に必要とされる養分を作ることができる。葉緑素が緑色であるため、植物の葉っぱも緑色であるわけである。」とユーザに音声出力する。
児童の問題に答えた後、処理部42は児童が入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報を児童に出力することもできる。具体的には、処理部42は更に自動的に児童が聞いた前記問題に基づいて拡散的な教育と啓発として、「葉緑素を知りましたが、なぜ秋になると葉っぱが枯れるのかトットちゃんはわかりますか」等々の質問をする。
その他、文字の勉強、英単語の習得、児童に物語を読むことなどさまざまな教育シーンがある。
3歳〜5歳の児童が、言語の急速な発展の時期で他人との会話を必要とされる成長過程にある場合において、知能ロボットは一日中休むことなく児童と話すことができ、児童の言語システムの成長を支援できる。知能ロボットがそばにいると、児童教育が新しい時代に入ることができる。
前記端末機器は、受信部41がマルチモードの入力信号を受信した後、処理部42が前記マルチモードの入力信号に基づいて、前記ユーザの意図を判定し、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックすることにより、良好なヒューマンコンピュータインターアクションを実現することができ、高機能で高付き添い型のインテリジェントヒューマンコンピュータインターアクションも実現でき、更にユーザエクスペリエンスを向上させることができる。
図4に示した端末機器の具体的な形態は、知能ロボットであってもよい。図5は本発明の一実施形態による知能ロボットを示す図である。該知能ロボットは頭と体の三つの自由度を持つデスクトップロボット(体は360度水平回転でき、頭部は180度水平回転でき、同時に頭部はプラス又はマイナス60度以内なら俯いたり仰向いたりすることができ、歩行能力を備えても備えなくてもよい)であってもよい。図5に示したように、知能ロボットには、高品質のステレオスピーカー、カメラ(高解像度で、顔認識及びオートフォーカス等の機能を実現できる)、高解像度のディスプレイ、高速中央処理装置(Central Processing Unit、以下CPUと略称する)、接触式充電コンセント、及び感度の高いセンサー、集成ネットワークモジュールが配置されている。その中で、知能ロボットに搭載されたセンサーは、湿度センサー、温度センサー、粒子状物質(PM2.5)センサーとガスセンサーのような有毒ガスセンサー等を含むことができ、ネットワークモジュールは赤外線、WiFi、ブルートゥース等のモジュールを含むことができる。
また、前記知能ロボットは新しいマルチモード情報のインターアクション手段(視覚、聴覚、触覚、嗅覚及び/又は自然言語交流フィードバック)を備えている。家庭に用いられ、家族、インテリジェント装置、情報とサービスとを繋がるスマートな架け橋となり、家庭内のコミュニケーション、情感付き添い、監督保護、情報提供の支援及び教育等のニーズを満たすことができ、新しいマルチモード情報のインターアクション手段を備える。図6は本発明の一実施形態による知能ロボットによるスクリーンインターアクションを示す図である。図6に示したように、知能ロボットは、ビデオ通話、情感交流、情報伝達及び/又は音楽などのマルチメディアの再生等のマルチモードのインターアクションを行うことができる。
また、知能ロボットには相応したAppがあり、家を出た後の遠隔通信とビデオ通話を行うことができる。
本実施形態による知能ロボットには、オープンシステムプラットホームがあり、継続的にアップグレードすることができる。知能ロボットに相応したオープンオペレーティングシステムプラットホームがある。オープンインタフェースプロトコルにより、プロバイダは知能ロボットにさまざまなコンテンツとアプリケーションを開発することができる。ソフトウェアにおいて、WiFiを通じて自動的にネットワークに接続することにより、知能ロボットは継続的にソフトの更新とアップグレードを行い、クラウドシステムも24時間絶えずインターネット上の多量の新しい情報を取得することができるため、すべての更新とアップグレードは知能ロボットのバックステージにおいて静かに完成され、ユーザは複雑なソフト更新をする必要もなくなる。
本発明の説明には、用語「第一」、「第二」等は単に説明のためのみに用いられ、相対的な重要性に明示的にも暗示的にも関連づけられ使用されるものではない。また、本発明の説明には、別途、明確に限定した場合を除き、用語「複数」は二つ又は二つ以上を指すものとする。
フローチャートにおいてまたはここで他の方式で説明された論理またはステップは、一つ又は複数の論理機能又はステップを実現するための実行可能な命令の符号のモジュール、断片又は部分であり、並びに本発明の好ましい実施形態は他の形態も含み、例示された又は議論された順序(関与された機能とほぼ同じ方式又は逆の順序を含む)によらず実行できることは当業者であれば理解すべきである。
本発明の各部分は、ハードウェア、ソフトウエア、ファームウェア、またはそれらの組み合わせで実現することができる。上記実施形態において、複数のステップ又は方法は、メモリに格納され且つ適切な命令実行システムにより実行されるソフトウェアまたはファームウェアで実現することができる。例えば、ハードウェアで実現する場合、他の実施形態と同様に、当該技術分野で公知の以下の技術におけるいずれか1つ又はそれらの組み合わせで実現することができる。データ信号に論理機能を実現するための論理ゲート回路を有するディスクリート論理回路、適切な組み合わせ論理ゲート回路を有する専用集積回路、プログラマブルゲートアレイ(Programmable Gate Array以下PGAと略称する)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array 以下PFGAと略称する)などである。
上述の実施形態を実現する方法に係る、全部又は部分のステップは、プログラムによって関連するハードウェアに命令を実行して完成でき、前記プログラムはコンピュータの読み取り可能な記憶媒体に記憶され、プログラムを実行するとき、実施形態のステップの一つ又はその組合せを含むことが本技術分野の一般の技術者は理解すべきである。
また、本発明の実施形態に係る各機能ユニットは一つの処理モジュールに集成されてもよいし、各ユニット各自の物理的存在であってもよいし、ソフトウェアによるモジュールを利用してもよい。前記統合されたモジュールはハードウェアを利用してもできるし、ソフトウェアを利用してもできる。前記統合されたモジュールはソフトウェアを利用して独立するプロダクトとして販売又は利用されるとき、コンピュータの読み取り可能な記憶媒体に記憶されてもよい。
前記記憶媒体はROM、読み出し専用メモリ、ディスク又はCD等である。
本明細書の説明において、用語の“一つの実施形態”、“一部の実施形態”、“例示”、“具体的な例示”、又は“一部の例示”等の言葉は、当該実施形態又は例示と合わせて説明された具体的な特徴、構成、材料又は特性が、本発明の少なくとも一つの実施形態又は例示に含まれることを意味する。本明細書において、上記の用語の概略表現は必ずしも同じ実施形態又は例示を指さず、且つ、任意の一つ又は複数の実施形態や例示において、説明された具体的な特徴、構成、材料又は特性を適当な方法で組み合わせることもできる。
以上本発明の実施形態を示して説明したが、当業者にとって理解できるのは、上記の実施形態は例示的なものに限らないということであり、また本発明を制限するように解釈する事は出来ないということである。本発明の原理と要旨から逸脱しない範囲で、これらの実施形態に対し様々な変更、修正、置換および変形をすることが可能である。

Claims (51)

  1. ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信するステップと、
    前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップと、
    前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップと、
    を含むことを特徴とする人工知能に基づくヒューマンコンピュータインターアクションの方法。
  2. 前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップは、
    前記ユーザが入力した音声信号に対して音声認識を行い、音声認識の結果に基づいて、画像信号及び/又はセンサー信号と結合して前記ユーザの意図を判定すること、
    を特徴とする請求項1に記載の方法。
  3. 前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップは、
    前記ユーザが入力した音声信号に対して音声認識を行い、音源定位を通じてディスプレイを前記ユーザのいる方位に回し、カメラ支援顔認識機能を利用して前記ユーザの個人情報を識別するステップと、
    前記音声認識の結果、前記ユーザの個人情報、及び保存された前記ユーザの嗜好情報に基づいて前記ユーザの意図を判定するステップと、
    を含むことを特徴とする請求項1に記載の方法。
  4. 前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、
    前記ユーザの意図に基づいて、クラウド側のデータベースにおいて個別的データマッチングをし、前記ユーザに相応しい推奨情報を取得して前記ユーザに出力すること、
    を特徴とする請求項1又は2に記載の方法。
  5. 前記推奨情報にアドレス情報が含まれる場合において、
    前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、
    前記ユーザのいる場所から前記アドレス情報が指し示した場所までの交通ルートを取得し、前記ユーザの行動のパターンに従って前記ユーザに相応しい交通手段を取得し、前記交通手段を前記ユーザに推奨すること、
    を特徴とする請求項4に記載の方法。
  6. 前記ユーザの意図に時間情報が含まれる場合において、
    前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、
    前記ユーザの意図の時間情報に基づいて目覚まし時計の時刻を設定し、その設定結果を前記ユーザにフィードバックすること、
    を特徴とする請求項2又は3に記載の方法。
  7. 前記設定結果をユーザにフィードバックした後、更に、
    前記ユーザに伝言メッセージを記録するように促し、前記目覚まし時計の時刻になると、アラームを鳴らし、前記ユーザの伝言メッセージを再生すること、
    を特徴とする請求項6に記載の方法。
  8. 前記マルチモードの入力信号を受信する前に、更に、
    前記ユーザと関連する別のユーザが送信したマルチメディア情報を受信し、前記ユーザにマルチメディア情報を再生するかどうかを提示すること、
    を特徴とする請求項2又は3に記載の方法。
  9. 前記ユーザの意図が、前記マルチメディア情報の再生に賛成するものである場合において、
    前記ユーザの意図を処理するステップは、前記ユーザと関連する別のユーザが送信したマルチメディア情報を再生すること、
    を特徴とする請求項8に記載の方法
  10. 前記ユーザと関連する別のユーザが送信したマルチメディア情報を再生した後、更に、
    前記ユーザから送信された音声を受信し、前記音声を前記ユーザと関連する別のユーザに送信すること、
    を特徴とする請求項9に記載の方法。
  11. 前記ユーザの意図がマルチメディア情報の再生を要求するものである場合において、
    前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、
    無線ネットワークを通じてクラウド側のサーバから前記ユーザが要求したマルチメディア情報を取得し、取得されたメルチメディア情報を再生すること、
    を特徴とする請求項2又は3に記載の方法。
  12. 前記マルチモードの入力信号を受信する前に、更に、
    前記ユーザと関連する別のユーザが送信した通話リクエストを受信し、前記ユーザに通話に応答するかどうかを提示すること、
    を特徴とする請求項2又は3に記載の方法。
  13. 前記ユーザの意図が通話に応答するものである場合において、
    前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、
    前記ユーザを前記ユーザと関連する別のユーザとを通話させ、通話中、カメラを制御して話者である前記ユーザの方位を検出し、カメラを話者に回すステップと、
    前記ユーザと関連する別のユーザが、前記別のユーザにより使われるスマートデバイスにインストールされたAppを通じて、前記ユーザが関心を寄せる顔をクリックすると、ビデオカメラ顔追跡機能が作動し、カメラに前記ユーザが関心を寄せる顔を追跡させるステップと、
    を含むことを特徴とする請求項12に記載の方法。
  14. 前記環境センサーの信号は、現在の環境の環境情報を提示するものであり、
    前記マルチモードの入力信号を受信した後、更に、
    前記環境情報に含まれている指標において警告閾値を超えた指標があるとき、危険警報をし、同時に危険を処理する方法を出力し、並びにカメラを作動して撮影すること、
    を特徴とする請求項1に記載の方法。
  15. 前記マルチモードの入力信号を受信した後、更に、
    前記環境情報に含まれている指標においてモード切替閾値に達した指標があるとき、スマートハウス制御システムによって前記モード切替閾値に達した指標に対応する家電のモードを制御すること、
    を特徴とする請求項11に記載の方法。
  16. 前記ユーザの意図が問題の解答を求めるものである場合において、
    前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップは、
    前記ユーザが入力した音声に含まれている問題に対して、検索して前記問題の解答を取得し、前記解答をユーザに出力すること、
    を特徴とする請求項2又は3に記載の方法。
  17. 前記解答をユーザに出力した後、更に、
    前記ユーザが入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報をユーザに出力すること、
    を特徴とする請求項16に記載の方法。
  18. ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信する受信モジュールと、
    前記受信モジュールが受信したマルチモードの入力信号に基づいて前記ユーザの意図を判定する意図判定モジュールと、
    前記意図判定モジュールが判定した前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックする処理モジュールと、
    を含むことを特徴とする人工知能に基づくヒューマンコンピュータインターアクションの装置。
  19. 前記意図判定モジュールは、
    具体的に前記ユーザが入力した音声信号に対して音声認識を行い、音声認識の結果に基づいて、画像信号及び/又はセンサー信号と結合して前記ユーザの意図を判定すること、
    を特徴とする請求項18に記載の装置。
  20. 前記意図判定モジュールは、
    具体的に前記ユーザが入力した音声信号に対して音声認識を行い、音源定位を通じてディスプレイを前記ユーザのいる方位に回し、カメラ支援顔認識機能を利用して前記ユーザの個人情報を識別し、前記音声認識の結果、前記ユーザの個人情報、及び保存された前記ユーザの嗜好情報に基づいて前記ユーザの意図を判定すること、
    を特徴とする請求項18に記載の装置。
  21. 前記処理モジュールは、
    具体的に前記ユーザの意図に基づいて、クラウド側のデータベースにおいて個別的データマッチングをし、前記ユーザに相応しい推奨情報を取得して前記ユーザに出力すること、
    を特徴とする請求項19又は20に記載の装置。
  22. 前記推奨情報にアドレス情報が含まれる場合において、前記処理モジュールは、具体的に前記ユーザのいる場所から前記アドレス情報が指し示す場所までの交通ルートを取得し、前記ユーザの行動のパターンに従って前記ユーザに相応しい交通手段を取得し、前記交通手段を前記ユーザに推奨すること、
    を特徴とする請求項21に記載の装置。
  23. 前記ユーザの意図に時間情報が含まれる場合において、
    前記処理モジュールは、
    具体的に前記ユーザの意図の時間情報に基づいて目覚まし時計の時刻を設定し、その設定結果を前記ユーザにフィードバックすること、
    を特徴とする請求項19又は20に記載の装置。
  24. 前記処理モジュールによって設定結果を前記ユーザにフィードバックした後、前記ユーザに提示し、並びに前記目覚まし時計の時刻になると、アラームを鳴らす提示モジュールと、
    前記ユーザの伝言メッセージを記録する記録モジュールと、
    を更に含み、
    前記処理モジュールは、更に前記記録モジュールが記録したユーザの伝言メッセージを再生すること、
    を特徴とする請求項23に記載の装置。
  25. 前記受信モジュールは、マルチモードの入力信号を受信する前に、前記ユーザと関連する別のユーザが送信したマルチメディア情報を受信し、
    前記ユーザに前記マルチメディア情報を再生するかどうかを提示する提示モジュール、
    を更に含むこと特徴とする請求項19又は20に記載の装置。
  26. 前記ユーザの意図が前記マルチメディア情報の再生に賛成するものである場合において、
    前記処理モジュールは、具体的にユーザと関連する別のユーザが送信したマルチメディア情報を再生すること、
    を特徴とする請求項25に記載の装置。
  27. 前記受信モジュールは、処理モジュールが前記ユーザと関連する別のユーザが送信したマルチメディア情報を再生した後、前記ユーザが送信した音声を受信し、
    前記受信モジュールが受信した音声を前記ユーザと関連する別のユーザに送信する送信モジュール、
    を更に含むことを特徴とする請求項26に記載の装置。
  28. 前記ユーザの意図がマルチメディア情報の再生を要求するものである場合において、
    前記処理モジュールは、無線ネットワークを通じてクラウド側のサーバから前記ユーザが要求したマルチメディア情報を取得し、取得されたメルチメディア情報を再生すること、
    を特徴とする請求項19又は20に記載の装置。
  29. 前記受信モジュールは、マルチモードの入力信号を受信する前に、前記ユーザと関連する別のユーザが送信した通話リクエストを受信し、
    前記ユーザに通話に応答するかどうかを提示する提示モジュール、
    を更に含むことを特徴とする請求項19又は20に記載の装置。
  30. 前記ユーザの意図が通話に応答するものである場合において、
    前記処理モジュールは、
    前記ユーザと、前記ユーザと関連する別のユーザと、を通話させ、通話中、カメラを制御して、話者である前記ユーザの方位を検出し、前記カメラを話者に回し、前記ユーザと関連する別のユーザが、前記別のユーザにより使われているスマートデバイスにインストールされたAppを通じて前記ユーザが関心を寄せる顔をクリックすると、ビデオカメラ顔追跡機能が作動し、カメラに前記ユーザが関心を寄せる顔を追跡させること、
    を特徴とする請求項29に記載の装置。
  31. 前記環境センサーの信号は、現在の環境の環境情報を提示し、
    前記処理モジュールは、前記環境情報に含まれている指標において警告閾値を超えた指標があるとき、危険警報をし、同時に危険を処理する方法を出力し、並びにカメラを作動して撮影すること、
    を特徴とする請求項18に記載の装置。
  32. 前記処理モジュールは、前記環境情報に含まれている指標においてモード切替閾値に達した指標があるとき、スマートハウス制御システムによって前記モード切替閾値に達した指標に対応する家電のモードを制御すること、
    を特徴とする請求項31に記載の装置。
  33. 前記ユーザの意図が問題の解答を求めるものである場合において、
    前記処理モジュールは、具体的に前記ユーザが入力した音声に含まれている問題に対して、検索して前記問題の解答を取得し、前記解答をユーザに出力すること、
    を特徴とする請求項19又は20に記載の装置。
  34. 前記処理モジュールは、前記解答をユーザに出力した後、前記ユーザが入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報をユーザに出力すること、
    を特徴とする請求項33に記載の装置。
  35. 受信部と、処理部と、記憶部と、回路基板と、電源回路と、を含み、そのうち、
    前記回路基板はケースによって囲まれた空間内部に配置され、処理部と記憶部は回路基板に配置され、電源回路は前記端末装置の各回路又は装置に給電し、記憶部は実行可能なプログラムコードを記憶し、
    前記受信部は、ユーザが入力した音声信号、画像信号及び/又は環境センサー信号を含むマルチモードの入力信号を受信し、
    前記処理部は、前記マルチモードの入力信号に基づいて前記ユーザの意図を判定するステップと、前記ユーザの意図を処理し、処理結果を前記ユーザにフィードバックするステップと、を実行できるように、前記記憶部に記憶された実行可能なプログラムコードを読み取って前記実行可能なプログラムコードに対応するプログラムを実行すること、
    を特徴とする端末機器。
  36. 前記処理部は、具体的に前記ユーザが入力した音声信号に対して音声認識を行い、音声認識の結果に基づいて、画像信号及び/又はセンサー信号と結合して前記ユーザの意図を判定すること、
    を特徴とする請求項35に記載の端末機器。
  37. カメラを更に含み、
    前記処理部は、具体的に前記ユーザが入力した音声信号に対して音声認識を行い、音源定位を通じてディスプレイを前記ユーザのいる方位に回し、前記カメラ支援顔認識機能を利用して前記ユーザの個人情報を識別し、前記音声認識の結果、前記ユーザの個人情報、保存された前記ユーザの嗜好情報に基づいて前記ユーザの意図を判定すること、
    を特徴とする請求項35に記載の端末機器。
  38. 前記処理部は、具体的に前記ユーザの意図に基づいて、クラウド側のデータベースにおいて個別的データマッチングをし、前記ユーザの推奨情報を取得し、前記ユーザに相応しい推奨情報を前記ユーザに出力すること、
    を特徴とする請求項36又は37に記載の端末機器。
  39. 前記推奨情報にアドレス情報が含まれる場合において、
    前記処理部は、具体的に前記ユーザのいる場所から前記アドレス情報が指し示した場所までの交通ルートを取得し、前記ユーザの行動のパターンに従って前記ユーザに相応しい交通手段を取得し、前記交通手段を前記ユーザに推奨すること、
    を特徴とする請求項38に記載の端末機器。
  40. 前記ユーザの意図に時間情報が含まれる場合において、
    前記処理部は、具体的に前記ユーザの意図に係る前記時間情報に基づいて目覚まし時計の時刻を設定し、その設定結果を前記ユーザにフィードバックすること、
    を特徴とする請求項36又は37に記載の装置。
  41. 前記処理部は、設定結果を前記ユーザにフィードバックした後、前記ユーザに伝言メッセージを記録するように促し、前記目覚ましい時計の時刻になると、アラームを鳴らし、前記ユーザの伝言メッセージを再生すること、
    を特徴とする請求項40に記載の端末機器。
  42. 前記受信部は、マルチモードの入力信号を受信する前に、更に前記ユーザと関連する別のユーザが送信したマルチメディア情報を受信し、
    前記処理部は、更に前記ユーザに前記マルチメディア情報を再生するかどうかを提示すること、
    を特徴とする請求項36又は37に記載の端末機器。
  43. 前記ユーザの意図が前記マルチメディア情報の再生に賛成するものである場合において、
    前記処理部は、具体的に前記ユーザと関連する別のユーザが送信したマルチメディア情報を再生すること、
    を特徴とする請求項42に記載の端末機器。
  44. 前記受信部は、前記処理部が前記ユーザと関連する別のユーザが送信したマルチメディア情報を再生した後、更に、前記ユーザが送信した音声を受信し、
    前記音声を前記ユーザと関連する別のユーザに送信する送信部、
    を更に含むことを特徴とする請求項43に記載の端末機器。
  45. 前記ユーザの意図がマルチメディア情報の再生を要求するものである場合において、
    前記処理部は、無線ネットワークを通じてクラウド側のサーバから前記ユーザが要求したマルチメディア情報を取得し、取得されたメルチメディア情報を再生すること、
    を特徴とする請求項36又は37に記載の端末機器。
  46. 前記受信部は、マルチモードの入力信号を受信する前に、前記ユーザと関連する別のユーザが送信した通話リクエストを受信し、
    前記処理部は、前記ユーザに通話に応答するかどうかを提示すること、
    を特徴とする請求項36又は37に記載の端末機器。
  47. カメラを更に含み、
    前記ユーザの意図が通話に応答するものである場合において、
    前記処理部は、前記ユーザを、前記ユーザと関連する別のユーザと、通話させ、通話中、カメラを制御して話者である前記ユーザの方位を検出し、前記カメラを話者に回し、前記ユーザと関連する別のユーザが、前記別のユーザにより使われるスマートデバイスにインストールされたAppを通じて、前記ユーザが関心を寄せる顔をクリックすると、ビデオカメラ顔追跡機能が作動し、前記カメラに前記ユーザが関心を寄せる顔を追跡させること、
    を特徴とする請求項46に記載の端末機器。
  48. センサーを更に含み、
    前記センサーの信号が現在の環境の環境情報を提示し、
    前記処理部は、更に前記環境情報に含まれている指標において警告閾値を超えた指標があるとき、危険警報をし、同時に危険を処理する方法を出力し、並びにカメラを作動して撮影すること、
    を特徴とする請求項35に記載の端末機器。
  49. 前記処理部は、前記環境情報に含まれている指標においてモード切替閾値に達した指標があるとき、スマートハウス制御システムによって前記モード切替閾値に達した指標に対応する家電のモードを制御すること、
    を特徴とする請求項48に記載の端末機器。
  50. 前記ユーザの意図が問題の解答を求めるものである場合において、
    前記処理部は、具体的に前記ユーザが入力した音声に含まれている問題に対して、検索して前記問題の解答を取得し、前記解答をユーザに出力すること、
    を特徴とする請求項36又は37に記載の端末機器。
  51. 前記処理部は、前記解答をユーザに出力した後、前記ユーザが入力した音声に含まれている問題と関連する推奨情報を取得し、前記推奨情報をユーザに出力すること、
    を特徴とする請求項50に記載の端末機器。
JP2015238074A 2015-06-24 2015-12-04 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器 Active JP6625418B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510355757.7 2015-06-24
CN201510355757.7A CN104951077A (zh) 2015-06-24 2015-06-24 基于人工智能的人机交互方法、装置和终端设备

Publications (2)

Publication Number Publication Date
JP2017010516A true JP2017010516A (ja) 2017-01-12
JP6625418B2 JP6625418B2 (ja) 2019-12-25

Family

ID=54165774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015238074A Active JP6625418B2 (ja) 2015-06-24 2015-12-04 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器

Country Status (5)

Country Link
US (1) US20160379107A1 (ja)
EP (1) EP3109800A1 (ja)
JP (1) JP6625418B2 (ja)
KR (1) KR20170000752A (ja)
CN (1) CN104951077A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040603A (ja) * 2017-08-28 2019-03-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音楽推薦方法、装置、設備及びプログラム
JP2019164345A (ja) * 2018-03-19 2019-09-26 三星電子株式会社Samsung Electronics Co.,Ltd. サウンドデータを処理するシステム、ユーザ端末及びシステムの制御方法
WO2021149898A1 (ko) * 2020-01-20 2021-07-29 주식회사 원더풀플랫폼 인공지능형 멀티미디어장치 제어 방법 및 시스템
WO2023017732A1 (ja) * 2021-08-10 2023-02-16 本田技研工業株式会社 読み聞かせ情報作成装置、読み聞かせロボット、読み聞かせ情報作成方法、プログラム

Families Citing this family (233)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
BR112015018905B1 (pt) 2013-02-07 2022-02-22 Apple Inc Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105264524B (zh) 2013-06-09 2019-08-02 苹果公司 用于实现跨数字助理的两个或更多个实例的会话持续性的设备、方法、和图形用户界面
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
CN106570443A (zh) * 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
CN105426436B (zh) * 2015-11-05 2019-10-15 百度在线网络技术(北京)有限公司 基于人工智能机器人的信息提供方法和装置
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
CN105446146B (zh) * 2015-11-19 2019-05-28 深圳创想未来机器人有限公司 基于语义分析的智能终端控制方法、系统及智能终端
CN105487663B (zh) * 2015-11-30 2018-09-11 北京光年无限科技有限公司 一种面向智能机器人的意图识别方法和系统
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
CN105425970B (zh) * 2015-12-29 2019-02-26 深圳微服机器人科技有限公司 一种人机互动的方法、装置及机器人
CN105446156B (zh) * 2015-12-30 2018-09-07 百度在线网络技术(北京)有限公司 基于人工智能的家用电器的控制方法、装置和系统
CN106972990B (zh) * 2016-01-14 2020-06-02 芋头科技(杭州)有限公司 基于声纹识别的智能家居设备
CN105739688A (zh) * 2016-01-21 2016-07-06 北京光年无限科技有限公司 一种基于情感体系的人机交互方法、装置和交互系统
WO2017130496A1 (ja) 2016-01-25 2017-08-03 ソニー株式会社 通信システムおよび通信制御方法
CN105740948B (zh) * 2016-02-04 2019-05-21 北京光年无限科技有限公司 一种面向智能机器人的交互方法及装置
JPWO2017145929A1 (ja) * 2016-02-25 2018-10-25 シャープ株式会社 姿勢制御装置、ロボット及び姿勢制御方法
CN105843382B (zh) * 2016-03-18 2018-10-26 北京光年无限科技有限公司 一种人机交互方法及装置
CN105844329A (zh) * 2016-03-18 2016-08-10 北京光年无限科技有限公司 面向智能机器人的思维数据处理方法及系统
KR102537543B1 (ko) * 2016-03-24 2023-05-26 삼성전자주식회사 지능형 전자 장치 및 그 동작 방법
CN105868827B (zh) * 2016-03-25 2019-01-22 北京光年无限科技有限公司 一种智能机器人多模态交互方法和智能机器人
CN105893771A (zh) * 2016-04-15 2016-08-24 北京搜狗科技发展有限公司 一种信息服务方法和装置、一种用于信息服务的装置
CN106411834A (zh) * 2016-04-18 2017-02-15 乐视控股(北京)有限公司 基于陪伴设备的会话方法、设备及系统
CN105894405A (zh) * 2016-04-25 2016-08-24 百度在线网络技术(北京)有限公司 基于人工智能的点餐交互系统和方法
CN105957525A (zh) * 2016-04-26 2016-09-21 珠海市魅族科技有限公司 一种语音助手的交互方法以及用户设备
CN105898487B (zh) * 2016-04-28 2019-02-19 北京光年无限科技有限公司 一种面向智能机器人的交互方法和装置
CN105912128B (zh) * 2016-04-29 2019-05-24 北京光年无限科技有限公司 面向智能机器人的多模态交互数据处理方法及装置
KR101904453B1 (ko) * 2016-05-25 2018-10-04 김선필 인공 지능 투명 디스플레이의 동작 방법 및 인공 지능 투명 디스플레이
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
CN107490971B (zh) * 2016-06-09 2019-06-11 苹果公司 家庭环境中的智能自动化助理
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
CN106157949B (zh) * 2016-06-14 2019-11-15 上海师范大学 一种模块化机器人语音识别算法及其语音识别模块
CN106663160B (zh) * 2016-06-28 2019-10-29 苏州狗尾草智能科技有限公司 一种技能包的搜索与定位方法、系统及机器人
CN106003047B (zh) * 2016-06-28 2019-01-22 北京光年无限科技有限公司 一种面向智能机器人的危险预警方法和装置
WO2018000267A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
WO2018000268A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
CN106462804A (zh) * 2016-06-29 2017-02-22 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
WO2018000260A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
CN106078743B (zh) * 2016-07-05 2019-03-01 北京光年无限科技有限公司 智能机器人,应用于智能机器人的操作系统及应用商店
CN106663127A (zh) * 2016-07-07 2017-05-10 深圳狗尾草智能科技有限公司 一种虚拟机器人的交互方法、系统及机器人
WO2018006370A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 一种虚拟3d机器人的交互方法、系统及机器人
CN106662932A (zh) * 2016-07-07 2017-05-10 深圳狗尾草智能科技有限公司 一种基于意图识别控制家电的方法、系统及机器人
CN106203050A (zh) * 2016-07-22 2016-12-07 北京百度网讯科技有限公司 智能机器人的交互方法及装置
CN106250533B (zh) * 2016-08-05 2020-06-02 北京光年无限科技有限公司 一种面向智能机器人的富媒体播放数据处理方法和装置
CN107734213A (zh) * 2016-08-11 2018-02-23 漳州立达信光电子科技有限公司 智能家用电子装置与系统
CN106239506B (zh) * 2016-08-11 2018-08-21 北京光年无限科技有限公司 智能机器人的多模态输入数据处理方法及机器人操作系统
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
GB2553840B (en) * 2016-09-16 2022-02-16 Emotech Ltd Robots, methods, computer programs and computer-readable media
CN106331841B (zh) * 2016-09-19 2019-09-17 海信集团有限公司 网速信息指示方法及装置
US10460383B2 (en) 2016-10-07 2019-10-29 Bank Of America Corporation System for transmission and use of aggregated metrics indicative of future customer circumstances
US10476974B2 (en) 2016-10-07 2019-11-12 Bank Of America Corporation System for automatically establishing operative communication channel with third party computing systems for subscription regulation
US10614517B2 (en) 2016-10-07 2020-04-07 Bank Of America Corporation System for generating user experience for improving efficiencies in computing network functionality by specializing and minimizing icon and alert usage
US10621558B2 (en) 2016-10-07 2020-04-14 Bank Of America Corporation System for automatically establishing an operative communication channel to transmit instructions for canceling duplicate interactions with third party systems
US10510088B2 (en) 2016-10-07 2019-12-17 Bank Of America Corporation Leveraging an artificial intelligence engine to generate customer-specific user experiences based on real-time analysis of customer responses to recommendations
TW201814554A (zh) * 2016-10-12 2018-04-16 香港商阿里巴巴集團服務有限公司 搜索方法、裝置、終端設備和操作系統
US10650055B2 (en) * 2016-10-13 2020-05-12 Viesoft, Inc. Data processing for continuous monitoring of sound data and advanced life arc presentation analysis
CN106426203A (zh) * 2016-11-02 2017-02-22 旗瀚科技有限公司 一种主动触发机器人交流的系统及方法
CN106774837A (zh) * 2016-11-23 2017-05-31 河池学院 一种智能机器人的人机交互方法
CN106598241A (zh) * 2016-12-06 2017-04-26 北京光年无限科技有限公司 一种用于智能机器人的交互数据处理方法及装置
CN108231073B (zh) * 2016-12-16 2021-02-05 深圳富泰宏精密工业有限公司 语音控制装置、系统及控制方法
KR101962151B1 (ko) * 2017-01-02 2019-03-27 엘지전자 주식회사 커뮤니케이션 로봇
KR101961376B1 (ko) * 2017-01-02 2019-03-22 엘지전자 주식회사 커뮤니케이션 로봇
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN106737750A (zh) * 2017-01-13 2017-05-31 合肥优智领英智能科技有限公司 一种人机交互式智能机器人
JP2018126810A (ja) * 2017-02-06 2018-08-16 川崎重工業株式会社 ロボットシステム及びロボット対話方法
KR20180096078A (ko) 2017-02-20 2018-08-29 엘지전자 주식회사 모듈형 가정용 로봇
JP6751536B2 (ja) * 2017-03-08 2020-09-09 パナソニック株式会社 装置、ロボット、方法、及びプログラム
CN107122040A (zh) * 2017-03-16 2017-09-01 杭州德宝威智能科技有限公司 一种人工智能机器人与智能显示终端间的交互系统
CN107038220B (zh) * 2017-03-20 2020-12-18 北京光年无限科技有限公司 用于生成备忘录的方法、智能机器人及系统
CN107015781B (zh) * 2017-03-28 2021-02-19 联想(北京)有限公司 语音识别方法和系统
WO2018176413A1 (en) * 2017-03-31 2018-10-04 Microsoft Technology Licensing, Llc Providing news recommendation in automated chatting
CN106990782A (zh) * 2017-04-13 2017-07-28 合肥工业大学 一种移动式智能家居控制中心
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
KR102025391B1 (ko) * 2017-05-15 2019-09-25 네이버 주식회사 사용자의 발화 위치에 따른 디바이스 제어
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN107331390A (zh) * 2017-05-27 2017-11-07 芜湖星途机器人科技有限公司 机器人语音识别召唤者的主动跟随系统
CN107065815A (zh) * 2017-06-16 2017-08-18 深圳市新太阳数码有限公司 一种老年人情感智能控制系统
KR102281530B1 (ko) 2017-06-21 2021-07-26 주식회사 고퀄 사용자와의 인터랙션이 가능한 기기를 위한 중계 장치 및 이를 이용한 중계 방법
KR102060775B1 (ko) * 2017-06-27 2019-12-30 삼성전자주식회사 음성 입력에 대응하는 동작을 수행하는 전자 장치
CN109202922B (zh) * 2017-07-03 2021-01-22 北京光年无限科技有限公司 用于机器人的基于情感的人机交互方法及装置
CN107423950B (zh) * 2017-07-07 2021-07-23 北京小米移动软件有限公司 闹钟设置方法和装置
KR102390685B1 (ko) * 2017-08-31 2022-04-26 엘지전자 주식회사 전자 장치 및 그 제어 방법
CN108304434B (zh) * 2017-09-04 2021-11-05 腾讯科技(深圳)有限公司 信息反馈方法和终端设备
CN107553505A (zh) * 2017-10-13 2018-01-09 刘杜 自主移动讲解系统平台机器人及讲解方法
CN107770380B (zh) * 2017-10-25 2020-12-08 百度在线网络技术(北京)有限公司 信息处理方法和装置
US11113608B2 (en) 2017-10-30 2021-09-07 Accenture Global Solutions Limited Hybrid bot framework for enterprises
CN108040264B (zh) * 2017-11-07 2021-08-17 苏宁易购集团股份有限公司 一种用于电视节目选台的音箱语音控制方法及设备
CN107918653B (zh) * 2017-11-16 2022-02-22 百度在线网络技术(北京)有限公司 一种基于喜好反馈的智能播放方法和装置
CN107992543B (zh) * 2017-11-27 2020-11-17 上海智臻智能网络科技股份有限公司 问答交互方法和装置、计算机设备及计算机可读存储介质
CN108115691A (zh) * 2018-01-31 2018-06-05 塔米智能科技(北京)有限公司 一种机器人交互系统及方法
CN108393898A (zh) * 2018-02-28 2018-08-14 上海乐愚智能科技有限公司 一种智能陪伴方法、装置、机器人及存储介质
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
CN108429997A (zh) * 2018-03-28 2018-08-21 上海与德科技有限公司 一种信息播报方法、装置、存储介质及智能音箱
KR102396255B1 (ko) * 2018-05-03 2022-05-10 손영욱 클라우드 기반 인공지능 음성인식을 이용한 맞춤형 스마트팩토리 생산관리 통합 서비스 제공 방법
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
CN110609943A (zh) * 2018-05-28 2019-12-24 九阳股份有限公司 一种智能设备的主动交互方法及服务机器人
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US11188810B2 (en) 2018-06-26 2021-11-30 At&T Intellectual Property I, L.P. Integrated assistance platform
CN108920639B (zh) * 2018-07-02 2022-01-18 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备
CN108762512A (zh) * 2018-08-17 2018-11-06 浙江核聚智能技术有限公司 人机交互装置、方法及系统
CN109117856B (zh) * 2018-08-23 2021-01-29 中国联合网络通信集团有限公司 基于智能边缘云的人及物追踪方法、装置及系统
CN109036565A (zh) * 2018-08-29 2018-12-18 上海常仁信息科技有限公司 一种基于机器人的智慧家庭生活管理系统
KR101992380B1 (ko) * 2018-09-12 2019-06-24 엘지전자 주식회사 커뮤니케이션 로봇
KR102090636B1 (ko) * 2018-09-14 2020-03-18 엘지전자 주식회사 로봇, 로봇 시스템 및 그 동작 방법
US10832676B2 (en) 2018-09-17 2020-11-10 International Business Machines Corporation Detecting and correcting user confusion by a voice response system
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN109283851A (zh) * 2018-09-28 2019-01-29 广州智伴人工智能科技有限公司 一种基于机器人的智能家居系统
TWI725340B (zh) * 2018-09-28 2021-04-21 威鋒電子股份有限公司 可攜式通訊裝置的座體及其操作方法
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
CN109445288B (zh) * 2018-09-28 2022-04-15 深圳慧安康科技有限公司 一种智慧家庭普及应用的实现方法
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN111105792A (zh) 2018-10-29 2020-05-05 华为技术有限公司 语音交互处理方法及装置
CN109040324A (zh) * 2018-10-30 2018-12-18 上海碧虎网络科技有限公司 车载数据服务推广方法、装置及计算机可读存储介质
CN109376228B (zh) * 2018-11-30 2021-04-16 北京猎户星空科技有限公司 一种信息推荐方法、装置、设备及介质
CN109686365B (zh) * 2018-12-26 2021-07-13 深圳供电局有限公司 一种语音识别方法和语音识别系统
CN109726330A (zh) * 2018-12-29 2019-05-07 北京金山安全软件有限公司 一种信息推荐方法及相关设备
KR20210099564A (ko) * 2018-12-31 2021-08-12 인텔 코포레이션 인공 지능을 이용한 보안 시스템
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
CN109933272A (zh) * 2019-01-31 2019-06-25 西南电子技术研究所(中国电子科技集团公司第十研究所) 多模态深度融合机载座舱人机交互方法
CN109948153A (zh) * 2019-03-07 2019-06-28 张博缘 一种涉及视频和音频多媒体信息处理的人机交流系统
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN109979462A (zh) * 2019-03-21 2019-07-05 广东小天才科技有限公司 一种结合上下文语境获取意图的方法和系统
CN109949723A (zh) * 2019-03-27 2019-06-28 浪潮金融信息技术有限公司 一种通过智能语音对话进行产品推荐的装置及方法
CN109889643A (zh) * 2019-03-29 2019-06-14 广东小天才科技有限公司 一种语音留言播报方法和装置,及存储介质
CN110009943A (zh) * 2019-04-02 2019-07-12 徐顺球 一种便于多种模式调节的教育机器人
DE102019205205B3 (de) * 2019-04-11 2020-09-03 BSH Hausgeräte GmbH Interaktionseinrichtung
CN111805550A (zh) * 2019-04-11 2020-10-23 广东鼎义互联科技股份有限公司 用于行政服务大厅办事咨询、排队取号的机器人系统
CN110059250A (zh) * 2019-04-18 2019-07-26 广东小天才科技有限公司 信息推荐方法、装置、设备和存储介质
CN110091336A (zh) * 2019-04-19 2019-08-06 阳光学院 一种智能语音机器人
CN110000791A (zh) * 2019-04-24 2019-07-12 深圳市三宝创新智能有限公司 一种桌面机器人的运动控制装置及方法
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
CN111949773A (zh) * 2019-05-17 2020-11-17 华为技术有限公司 一种阅读设备、服务器以及数据处理的方法
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
TWI769383B (zh) * 2019-06-28 2022-07-01 國立臺北商業大學 具擬真回覆之通話系統及方法
KR20210024861A (ko) 2019-08-26 2021-03-08 삼성전자주식회사 대화 서비스를 제공하는 방법 및 전자 디바이스
CN110569806A (zh) * 2019-09-11 2019-12-13 上海软中信息系统咨询有限公司 一种人机交互系统
CN110599127A (zh) * 2019-09-12 2019-12-20 花豹科技有限公司 智能提醒方法及计算机设备
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
CN110865705B (zh) * 2019-10-24 2023-09-19 中国人民解放军军事科学院国防科技创新研究院 多模态融合的通讯方法、装置、头戴设备及存储介质
CN110909036A (zh) * 2019-11-28 2020-03-24 珠海格力电器股份有限公司 功能模块的推荐方法及装置
US10860059B1 (en) * 2020-01-02 2020-12-08 Dell Products, L.P. Systems and methods for training a robotic dock for video conferencing
CN110928521A (zh) * 2020-02-17 2020-03-27 恒信东方文化股份有限公司 一种智能语音交流方法及其交流系统
US11290834B2 (en) 2020-03-04 2022-03-29 Apple Inc. Determining head pose based on room reverberation
CN113556649B (zh) * 2020-04-23 2023-08-04 百度在线网络技术(北京)有限公司 智能音箱的播报控制方法和装置
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
CN111931036A (zh) * 2020-05-21 2020-11-13 广州极天信息技术股份有限公司 一种多模态融合交互系统、方法、智能机器人及存储介质
US11593678B2 (en) 2020-05-26 2023-02-28 Bank Of America Corporation Green artificial intelligence implementation
CN111767371B (zh) * 2020-06-28 2024-03-12 微医云(杭州)控股有限公司 一种智能问答方法、装置、设备及介质
CN111835923B (zh) * 2020-07-13 2021-10-19 南京硅基智能科技有限公司 一种基于人工智能的移动式语音交互对话系统
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN111918133A (zh) * 2020-07-27 2020-11-10 深圳创维-Rgb电子有限公司 辅导和监督学生写作业的方法、电视机和存储介质
CN112099630B (zh) * 2020-09-11 2024-04-05 济南大学 一种多模态意图逆向主动融合的人机交互方法
CN112308530A (zh) * 2020-11-09 2021-02-02 珠海格力电器股份有限公司 提示信息的生成方法和装置、存储介质、电子装置
CN114760331A (zh) * 2020-12-28 2022-07-15 深圳Tcl新技术有限公司 一种基于物联网的事件处理方法、系统、终端及存储介质
CN114762981B (zh) * 2020-12-30 2024-03-15 广州富港生活智能科技有限公司 交互方法及相关装置
CN112966193B (zh) * 2021-03-05 2023-07-25 北京百度网讯科技有限公司 出行意图推断方法、模型训练方法、相关装置及电子设备
US20230032760A1 (en) * 2021-08-02 2023-02-02 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot
CN113645346B (zh) * 2021-08-11 2022-09-13 中国联合网络通信集团有限公司 功能触发方法、装置、服务器及计算机可读存储介质
CN113746833B (zh) * 2021-09-02 2023-06-16 上海商汤智能科技有限公司 通信方法及装置、电子设备和存储介质
CN114285930B (zh) * 2021-12-10 2024-02-23 杭州逗酷软件科技有限公司 交互方法、装置、电子设备以及存储介质
WO2023238150A1 (en) * 2022-06-07 2023-12-14 Krishna Kodey Bhavani An ai based device configured to electronically create and display desired realistic character
CN115545960B (zh) * 2022-12-01 2023-06-30 江苏联弘信科技发展有限公司 一种电子信息数据交互系统及方法
CN116208712A (zh) * 2023-05-04 2023-06-02 北京智齿众服技术咨询有限公司 一种提升用户意向的智能外呼方法、系统、设备及介质
CN117029863B (zh) * 2023-10-10 2023-12-22 中汽信息科技(天津)有限公司 一种反馈式交通路径规划方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999067067A1 (fr) * 1998-06-23 1999-12-29 Sony Corporation Robot et systeme de traitement d'information
JP2002000574A (ja) * 2000-06-22 2002-01-08 Matsushita Electric Ind Co Ltd 介護支援用ロボットおよび介護支援システム
JP2004214895A (ja) * 2002-12-27 2004-07-29 Toshiba Corp 通信補助装置
JP2004357915A (ja) * 2003-06-04 2004-12-24 Matsushita Electric Ind Co Ltd センシング玩具
JP2006038894A (ja) * 2004-07-22 2006-02-09 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP2008233345A (ja) * 2007-03-19 2008-10-02 Toshiba Corp インタフェース装置及びインタフェース処理方法
JP2015513670A (ja) * 2012-02-27 2015-05-14 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 可能な提供者を決定するためのシステム及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102081403B (zh) * 2009-12-01 2012-12-19 张越峰 具有智能多媒体播放功能的自动引导车
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US10391636B2 (en) * 2013-03-15 2019-08-27 Sqn Venture Income Fund, L.P. Apparatus and methods for providing a persistent companion device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999067067A1 (fr) * 1998-06-23 1999-12-29 Sony Corporation Robot et systeme de traitement d'information
JP2002000574A (ja) * 2000-06-22 2002-01-08 Matsushita Electric Ind Co Ltd 介護支援用ロボットおよび介護支援システム
JP2004214895A (ja) * 2002-12-27 2004-07-29 Toshiba Corp 通信補助装置
JP2004357915A (ja) * 2003-06-04 2004-12-24 Matsushita Electric Ind Co Ltd センシング玩具
JP2006038894A (ja) * 2004-07-22 2006-02-09 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP2008233345A (ja) * 2007-03-19 2008-10-02 Toshiba Corp インタフェース装置及びインタフェース処理方法
JP2015513670A (ja) * 2012-02-27 2015-05-14 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 可能な提供者を決定するためのシステム及び方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040603A (ja) * 2017-08-28 2019-03-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音楽推薦方法、装置、設備及びプログラム
JP2019164345A (ja) * 2018-03-19 2019-09-26 三星電子株式会社Samsung Electronics Co.,Ltd. サウンドデータを処理するシステム、ユーザ端末及びシステムの制御方法
JP7317529B2 (ja) 2018-03-19 2023-07-31 三星電子株式会社 サウンドデータを処理するシステム、及びシステムの制御方法
WO2021149898A1 (ko) * 2020-01-20 2021-07-29 주식회사 원더풀플랫폼 인공지능형 멀티미디어장치 제어 방법 및 시스템
WO2023017732A1 (ja) * 2021-08-10 2023-02-16 本田技研工業株式会社 読み聞かせ情報作成装置、読み聞かせロボット、読み聞かせ情報作成方法、プログラム

Also Published As

Publication number Publication date
CN104951077A (zh) 2015-09-30
EP3109800A1 (en) 2016-12-28
KR20170000752A (ko) 2017-01-03
JP6625418B2 (ja) 2019-12-25
US20160379107A1 (en) 2016-12-29

Similar Documents

Publication Publication Date Title
JP6625418B2 (ja) 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器
KR102306624B1 (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
US9814993B2 (en) Interactive toy plaything having wireless communication of interaction-related information with remote entities
US9396437B2 (en) Interface apparatus and method for providing interaction of a user with network entities
JP6773190B2 (ja) 情報処理システム、制御方法、および記憶媒体
ES2608565T3 (es) Método y un dispositivo para controlar una muñeca con una aplicación y operar la muñeca interactiva
US20160193732A1 (en) Engaging in human-based social interaction with members of a group using a persistent companion device
CN107000210A (zh) 用于提供持久伙伴装置的设备和方法
CN105409197A (zh) 用于提供持久伙伴装置的设备和方法
Lottridge et al. Sharing empty moments: design for remote couples
US20140347181A1 (en) Sensor-enabled media device
US11074491B2 (en) Emotionally intelligent companion device
CN105893771A (zh) 一种信息服务方法和装置、一种用于信息服务的装置
CN106295217A (zh) 一种孕育机器人
JP7136099B2 (ja) 情報処理装置、情報処理方法、およびプログラム
TWI581842B (zh) 操作互動式玩偶之方式及裝置
WO2016052520A1 (ja) 対話装置
US20150142924A1 (en) Method for providing contents and electronic device using the same
CN110047341A (zh) 情景语言学习设备、系统和方法
US20220358853A1 (en) Ornament Apparatus, Systems and Methods
JP5989822B2 (ja) 音声システム
KR102547972B1 (ko) 오디오 출력 시스템 및 방법
Cordeiro Sound Based Social Networks
WO2024080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Orlov The Future of Voice First Technology and Older Adults

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171218

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191127

R150 Certificate of patent or registration of utility model

Ref document number: 6625418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250