JP7092110B2 - 情報処理装置、情報処理方法、並びにプログラム - Google Patents

情報処理装置、情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP7092110B2
JP7092110B2 JP2019504444A JP2019504444A JP7092110B2 JP 7092110 B2 JP7092110 B2 JP 7092110B2 JP 2019504444 A JP2019504444 A JP 2019504444A JP 2019504444 A JP2019504444 A JP 2019504444A JP 7092110 B2 JP7092110 B2 JP 7092110B2
Authority
JP
Japan
Prior art keywords
user
information
request
robot
agent device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019504444A
Other languages
English (en)
Other versions
JPWO2018163811A1 (ja
Inventor
直之 佐藤
祐介 工藤
富士夫 荒井
邦在 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018163811A1 publication Critical patent/JPWO2018163811A1/ja
Application granted granted Critical
Publication of JP7092110B2 publication Critical patent/JP7092110B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Description

本技術は情報処理装置、情報処理方法、並びにプログラムに関し、例えば、伝えたい情報を、確実にユーザに伝えるときに用いて好適な情報処理装置、情報処理方法、並びにプログラムに関する。
動物を模写したロボットや、人型のロボットなどがある。そのようなロボットは、人(ユーザ)とコミュニケーションをとったり、人を癒やしたりする。そのようなロボットに関する提案もなされている(例えば、特許文献1参照)。特許文献1では、外部からの働きかけに応じた動作及び/又は内部状態に基づいて自律的に行動するロボットの感情をより豊かにするための手段について提案されている。
特開2005-169567号公報
例えば、動物を模写したロボットは、ペットを飼いたい人のために開発され、猫や犬などを模写したものがある。そのようなロボット、例えば猫を模写したロボットは、猫のような鳴き声を発するが、人間の言葉は話さないようにし、猫のように動作することが望まれている。よって、ユーザに何らかの情報、例えば、遊びたいといった情報を音声や表示などで明確に伝える手段がなかった。
ロボットに限らず、ユーザに何らかの情報を伝えたい場合に、音声や表示などで伝える手段を有さない装置では、伝えることができない。そこで、ユーザに伝えたい情報がある場合、伝えることができるようにし、ユーザが情報を得られないといったことがないようにすることが望まれていた。
本技術は、このような状況に鑑みてなされたものであり、ユーザに情報をより確実に伝えるようにすることができるようにするものである。
本技術の一側面の情報処理装置は、ネットワークに接続されている他の装置からユーザに対して伝達したい情報があるとの要求を取得する取得部と、前記取得部により前記要求を取得した場合、前記他の装置に前記ユーザが注目しているか否かを検出する検出部と、前記検出部により前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達する伝達制御部とを備える。
本技術の一側面の情報処理方法は、ネットワークに接続されている他の装置からユーザに対して伝達したい情報があるとの要求を取得し、前記要求を取得した場合、前記他の装置に前記ユーザが注目しているか否かを検出し、前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達するステップを含む。
本技術の一側面のプログラムは、コンピュータに、ネットワークに接続されている他の装置からユーザに対して伝達したい情報があるとの要求を取得し、前記要求を取得した場合、前記他の装置に前記ユーザが注目しているか否かを検出し、前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達するステップを含む処理を実行させる。
本技術の一側面の情報処理装置、情報処理方法、並びにプログラムにおいては、ネットワークに接続されている他の装置からユーザに対して伝達したい情報があるとの要求が取得され、要求が取得された場合、他の装置にユーザが注目しているか否かが検出され、他の装置にユーザが注目していると検出されたとき、情報がユーザに伝達される。
なお、情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、または、記録媒体に記録して、提供することができる。
本技術の一側面によれば、ユーザに情報をより確実に伝えることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術が適用されるシステムの一実施の形態の構成を示す図である。 エージェント装置の構成例を示す図である。 システムの動作例について説明するためのフローチャートである。 リクエストのデータ構造について説明するための図である。 返答のデータ構造について説明するための図である。 完了通知のデータ構造について説明するための図である。 エージェント装置の処理について説明するためのフローチャートである。 システムの他の動作例について説明するためのフローチャートである。 リクエストの他のデータ構造について説明するための図である。 エージェント装置の他の処理について説明するためのフローチャートである。 システムの他の動作例について説明するためのフローチャートである。 システムの他の動作例について説明するためのフローチャートである。 システムの他の構成例について説明するための図である。 システムの他の構成例について説明するための図である。 記録媒体について説明するための図である。
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。
<システムの構成例>
図1は、本技術を適用した情報処理システムの一実施の形態の構成を示す図である。図1に示した情報処理システムは、ローカルネットワーク11に、エージェント装置21が接続されている。また、ローカルネットワーク11には、ロボット31、冷蔵庫32、テレビジョン受像機33、照明装置34も接続されている。
ローカルネットワーク11は、家庭内に構築されたネットワークであるとする。またローカルネットワーク11は、例えば、無線または/および有線で構成されたLAN(Local Area Network)やWAN(Wide Area Network)であり、接続されている装置同士でデータの授受が行えるように構成されている。
なお、ロボット31、冷蔵庫32、テレビジョン受像機33、照明装置34は、異なるLANに接続され、それらのLANがWANに接続されているような構成であっても良い。すなわち、異なるネットワークに接続されている装置で構成されるシステムに対しても本技術を適用することはできる。
エージェント装置21は、ローカルネットワーク11に接続されている装置からの情報を、ユーザに提示したり、他の装置で情報を提示させたりするための制御を行う。ここでは、エージェント装置21は、このような情報の処理を行う情報処理装置として機能する場合を例に挙げて説明を続けるが、他の機能、例えばユーザからの依頼により、外部のサーバにアクセスして情報を検索したり、その検索した情報を提示したりする機能を有していても良い。
ロボット31は、愛玩ロボットなどと称されるロボットであるとする。ロボット31は、人、動物などを模写した外観を有し、ユーザとコミュニケーションをとることで、ユーザのペットとして、友達として、機能する装置である。
冷蔵庫32、テレビジョン受像機33、照明装置34は、IoT(Internet of Things)デバイスと称される装置に属しているとし、ネットワークに接続され、情報を交換する機能を、本来の機能の他に有している。
<エージェント装置の構成例>
図2は、エージェント装置21の構成例を示す図である。エージェント装置21は、音声出力部51、表示出力部52、通信部53、画像取得部54、画像認識部55、注目位置検出部56、伝達情報処理部57、伝達制御部58、および出力制御部59を含む構成とされている。
音声出力部51は、スピーカを含む構成とされ、音声を出力し、ユーザに対して、音声で情報を伝達する。表示出力部52は、ディスプレイを含む構成とされ、テキストや画像を出力し、ユーザに対して、表示により情報を伝達する。
通信部53は、他の装置とローカルネットワーク11を介してデータ(情報)の授受を行う。画像取得部54は、カメラなどの撮像装置を含む構成とされ、例えばユーザやロボット31などを撮像する。画像認識部55は、画像取得部54で取得された画像を用いて、ユーザを認識する。
画像認識部55は、ユーザを認識するために、ユーザの顔の情報、例えば顔から抽出された特徴点の情報などを、予め保持している。画像認識部55は、保持している情報と、画像取得部54から供給された画像から得られる情報を比較し、登録されているユーザであるか否かを判定し、ユーザを特定する。また、ロボット31などの装置の認識も行う。
注目位置検出部56は、画像認識部55で認識されたユーザがいる場所の検出や、ユーザが向いている方向、その視線の先にある装置などを検出する。例えば、画像取得部54は、複数の部屋からそれぞれ画像を取得し、どの部屋から得られた画像にユーザが写っているかを判定することで、部屋が特定される。また、画像取得部54で取得された画像を解析することで、ユーザの視線の方向を解析することができる。またその視線方向にある装置を検出することもできる。
伝達情報処理部57は、通信部53を介して他の装置から供給された、ユーザに伝達を依頼された情報に関する処理を行う。例えば、ユーザに情報の伝達の依頼を出してきた装置を特定し、その特定された装置が設置されている場所を特定し、伝達内容を特定する。
伝達制御部58は、伝達情報処理部57から、ユーザに伝達する情報として特定された情報を、ユーザに伝達するための制御を行う。詳細は後述するが、伝達情報処理部57により、例えば、冷蔵庫32からユーザに情報Aの伝達が依頼された場合であり、注目位置検出部56で検出されたユーザの視線の先にある装置が、例えばテレビジョン受像機33といった表示デバイスを有する装置である場合、情報Aを、ユーザが見ているテレビジョン受像機33に表示するといった制御を行う。
出力制御部59は、伝達制御部58からの指示に基づき、音声出力部51、表示出力部52、通信部53のいずれか1つまたは複数を制御し、情報を出力する。上記した例では、表示出力部52を制御し、テレビジョン受像機33において情報Aが表示されるような制御が行われる。
<システムにおける処理>
<ロボットからの情報を伝達する場合の第1の実施の形態>
ここで、図1に示したシステムにおける処理について説明を加える。またここでは、ロボット31からの情報を、ユーザに伝達する場合を例に挙げて説明する。
ロボット31からの情報を、ユーザに伝達する場合として、ここではロボット31にユーザの視線が向いたときに情報を伝達する処理(第1の実施の形態とする)と、ロボット31にユーザの視線があるときに情報を伝達する処理(第2の実施の形態とする)とに分けて説明を行う。
第1の実施の形態について、図3に示したフローチャートを参照して説明する。
ステップS11において、ロボット31は、エージェント装置21に対して、リクエストを送信する。ステップS31において、エージェント装置21は、ロボット31からのリクエストを受信する。送受信されるリクエストは、例えば、図4に示すようなデータである。
図4を参照するに、 “method” : “Request To Tell User” 、 “id” :”48 とのデータから、ユーザに対して情報を伝えたいリクエストであり、このリクエストを識別するためのIDが“48”であることが示されている。
また、 ”message” : “please play with me.”, “type” : “speech” , “Target Type” : “Adult” , “when” : “look At Target” とのデータから、大人のユーザに対して、ユーザがターゲットを見たとき、すなわちこの場合、ロボット31を見たときに、“遊んで”と音声で伝えてほしいとのリクエストであることが示されている。
なおここでは、“Target Type” : “Adult”である場合を例に挙げて説明を続けるが、“Target Type” : “Female”や、“Target Type” : “Children”であっても良く対象が女性や子供であっても良い。
また、“Target User” : “Family 01”や、“Target User” : “Family any”といったデータでも良い。このようなデータの場合、例えば、“01”で表されるのがお父さんである場合、対象が、お父さんとの指定がなされていることが示されている。このような指定がなされている場合には、お父さんが認識された時点で、お父さんに対してリクエストが実行される。また、”any”の場合、対象が家族であり、家族であると認識されたときにリクエストが実行される。
また、 “target 3Dmodel Url” : “https://xxx.com/3Dmodel/xxx” とのデータから、ロボット31の外観の情報があるURLが提示されている。このような情報は、エージェント装置21が、例えば、画像取得部54で取得された画像を解析し、ロボット31であるか否かを判定するときの情報として用いられる。このような情報は、必要に応じて提示されれば良く、例えば、エージェント装置21側で、一度このURLにアクセスし、ロボット31の外観の情報をダウンロードしているようなときには、リクエストに含まれてなくても良い。
また “time out” : “120sec” とのデータから、このリクエストの有効期間が設定されており、この場合、120秒の間にユーザがロボット31を見なかったときには、このリクエストは破棄されることが示されている。
このようなデータが、リクエストとして、ロボット31からエージェント装置21に対して送信される。なお、このデータは一例であり、限定を示す記載ではない。以下に示すデータも同様に、一例を示すものであり、限定を示す記載ではない。よって、他のデータ構造や、他のデータが含まれていても良い。
エージェント装置21は、ステップS31において、ロボット31からのリクエストを受け取ると、ステップS32において、返答を送信する。ステップS12において、ロボット31は、エージェント装置21からの返答を受信する。送受信される返答は、例えば、図5に示すようなデータである。
図5を参照するに、 “result” : “Accept” , “id” : “48” とのデータから、ロボット31からのリクエストIDが48で識別されるリクエストが、エージェント装置21により受け付けられたことが示されている。
このようなデータが、返答として、エージェント装置21からロボット31に対して送信される。エージェント装置21は、返答をロボット31に送信するとともに、受け付けたリクエストに対する処理を開始する。
ステップS33において、エージェント装置21は、ユーザの視線がロボット31にあることを認識する。エージェント装置21は、ユーザの視線がロボット31にあることを認識すると、ステップS34において、“遊んで”とユーザに音声で伝達する。このようにして、エージェント装置21は、ロボット31からのリクエストに応じた処理を実行する。
エージェント装置21は、リクエストに対する処理を完了すると、ステップS35において、処理が完了したことを表す完了通知をロボット31に対して送信する。ロボット31は、ステップS13において、エージェント装置21からの完了通知を受信する。送受信される完了通知は、例えば、図6に示すようなデータである。
図6を参照するに “result” : “OK” , “id” : “48” とのデータから、ロボット31からのリクエストIDが48のリクエストに対する処理が正常に実行されたことが示されている。
なお、有効期間内、この場合、120秒の間に、ユーザがロボット31側を見ることなく、ロボット31からのリクエストが実行されなかった場合、“result” : “NG” , “id” : “48” とのデータが、エージェント装置21からロボット31に対して送信される。
このように、ロボット31自体は、“遊んで”といった人間の言葉を発することができない仕様とされている場合、ロボット31の代わりにエージェント装置21が、ロボット31からの伝言(情報)として“遊んで”とユーザに伝える。よって、ユーザに対して情報を伝達する手段を有しない装置であっても、エージェント装置21により、情報を伝達することが可能となる。
また、ユーザが情報の発信元である装置、この場合、ロボット31を見ているときに、“遊んで”といった情報が伝達されるため、確実に情報を伝達することが可能となる。
換言すれば、情報の発信元を見ているときに、情報が伝達されることで、ユーザが注目しているときに情報を伝達することができ、その情報自体にユーザを注目させることができるようになるため、情報の内容をユーザに確実に伝えることができる。
また、情報の発信元を見ているときに、情報を提示することで、伝達された情報だけでなく、見ている装置(発信元)からの情報であることを確実にユーザに伝えることが可能となる。
図3に示したフローチャートに基づく処理が実行されるときのエージェント装置21の処理の詳細について、図7のフローチャートを参照して説明する。
ステップS71において、ユーザに伝えたい情報があるか否かが判定される。この判定は、例えば、伝達制御部58(図2)が、他の装置からリクエストを受信したか否かを判定することで行われる。例えば、通信部53により他の装置、例えば、ロボット31からリクエストが受信されると、そのリクエストは、伝達情報処理部57に供給される。
伝達情報処理部57は、通信部53を介して供給されたリクエスト、例えば、図4に示したようなデータが供給されると、そのデータを解析し、例えば、上記した例のように、ロボット31がユーザに“遊んで”と伝達してほしいとのリクエストであるという解析結果を、伝達制御部58に供給する。
伝達制御部58は、伝達情報処理部57からの解析結果を受け取り、その解析結果が、伝えたい情報があるという解析結果を含む場合、ステップS71において、伝えたい情報があると判定し、処理をステップS72に進める。
ステップS71において、伝えたい情報があると判定されるまで、ステップS71の処理が繰り返され、待機状態が維持される。
ステップS72において、エージェント装置21は、注目すべき装置や場所に関する情報を取得する。上記した例においては、注目すべき装置は、ロボット31であり、ロボット31がいる場所に関する情報が取得される。
伝達制御部58は、ロボット31が、どの部屋に設置されているかという情報を事前に取得している場合、その情報を用いて、ロボット31の位置を特定する。
例えば、冷蔵庫32やテレビジョン受像機33(図1)などは、一度設置されたら、その設置位置が変更されることは少ない。このような装置の場合、一度位置が特定されたときに、その位置情報が登録され、その登録されている情報が、ステップS72における処理が実行されるときに用いられるようにしても良い。またユーザにより位置情報が登録されるようにし、その情報が用いられるようにしても良い。
ロボット31のように、位置が変更される可能性がある装置の場合、上記したように、登録されている情報が用いられて、位置などが特定されるようにしても良いが、画像認識により位置が特定されるようにしても良い。例えば、図4に示したリクエストのデータには、ロボット31の外観のデータがあるURLの情報も含まれている。伝達制御部58は、リクエストのデータに含まれるURLにアクセスし、ロボット31の外観のデータを取得する。
また、伝達制御部58は、画像取得部54で取得された画像を解析し、取得したロボット31の外観のデータを用いて、一致する物体が画像内に撮像されていないか否かを判定する。画像内に、ロボット31が撮像されていることが判定されることで、その画像が撮像された部屋に、ロボット31が居ると特定することができる。
このように、事前に登録されている情報から位置が特定できる場合には、登録されている情報を用いて位置が特定され、そのような情報が利用できない場合には、他の方法、例えば、上記したような画像認識により、位置が特定される。
ステップS73において、状況に合わせた注目移動のための制御が行われる。上記した例において、ユーザがロボット31の方を向いていない場合、ロボット31にユーザが注目するような処理が実行される。例えば、出力制御部59が、音声出力部51を制御して、“ロボットが呼んでます”といったメッセージを出力することで、ロボット31にユーザが注目するような処理が実行される。
なお、ステップS73における処理は、省略されても良い。例えば、他の装置からのリクエストに、ユーザに注目してほしいといったリクエストも含まれていた場合には、このような処理が実行され、このようなリクエストが含まれていない場合には、行われないようにしても良い。
ステップS74において、エージェント装置21は、ユーザが、注目すべき装置や場所に移動したか否かを判定する。換言すれば、ステップS74において、ユーザの視線が、注目させたい位置にあるか否かが判定される。例えば、注目位置検出部56(図2)は、画像取得部54で取得された画像を解析し、ユーザの視線方向を検出する。その検出された視線の方向が、ステップS72において取得された注目すべき装置や、その装置がある場所に一致するか否かを、伝達制御部58が判定することで、ステップS74における処理は実行される。
ステップS74において、ユーザが注目すべき装置や場所に移動した(ユーザの視線が、注目すべき装置や場所にある)と判定されなかった場合、処理は、ステップS71に戻され、それ以降の処理が繰り返される。この場合、ユーザの視線が、注目すべき装置や場所に移動するまで処理が繰り返されることになる。
なお、リクエストの有効期間が設定されている場合、有効期間内であるか否かの判定が、ステップS74の前の時点、または、ステップS74において、ユーザが注目すべき装置や場所に移動していないと判定されたときに、実行されるようにしても良い。
一方、ステップS74において、ユーザが注目すべき装置や場所に移動したと判定された場合、ステップS75に処理は進められる。ステップS75において、ユーザに対して情報が伝達される。上記した例においては、ユーザに対してロボット31が遊ぼうといっているという情報が伝達される。例えば、出力制御部59が、伝達制御部58の指示により、音声出力部51を制御することで、“遊ぼう”といった音声が出力される。
ステップS76において、ユーザが情報を理解したか否かが判定される。例えば、ユーザが“わかった”といった理解を表す音声を出したとき、うなずくといった動作を行ったとき、また、“遊ぼう”というメッセージに対して、実際にロボット31と遊びだしたときなど、ユーザが情報を理解したと判定され、処理は、ステップS77に進められる。
一方、ステップS76において、ユーザは情報を理解していないと判定された場合、ステップS71に処理は戻され、それ以降の処理が繰り返される。
なお、ステップS76の処理は省略され、ステップS75において情報の伝達に係わる処理が終了されると、ステップS77に処理が進められるようにしても良い。
ステップS77において、伝えたい情報が削除される。すなわち、他の装置から受け取ったリクエストは削除される。なお、リクエストが削除されるとき、図3のフローチャートを参照して説明したように、ステップS35の処理として、リクエストを出してきた装置に対してリクエストに対する処理は正常に実行された、または実行されなかったという完了通知が出されるようにしても良い。
このように、エージェント装置21は、他の装置からリクエストがあった場合、そのリクエストに対する処理を実行する。
<ロボットからの情報を伝達する場合の第2の実施の形態>
図1に示したシステムにおける処理について説明を加える。ここではロボット31にユーザの視線があるときに情報を伝達する処理(第2の実施の形態)について、図8に示したフローチャートを参照して説明する。
ステップS101において、ロボット31は、ユーザの視線がロボット31(自己)にあることを認識する。この認識は、ロボット31自体が、ユーザの視線を検知する機能を有し、その機能によりユーザの視線が、自己に向けられていることを認識するように構成することができる。
また、上記した第1の実施の形態と同じく、エージェント装置21が、ユーザの視線を検知し、その検知した視線の先にロボット31があるか否かを判定し、ユーザの視線は、ロボット31にあると判定されたとき、エージェント装置21からロボット31に対して、そのような判定結果が伝えられることにより、ロボット31がユーザの視線が自己に向けられていることを認識するように構成することもできる。
ステップS101において、ロボット31は、ユーザの視線がロボット31にあると認識すると、ステップS102において、エージェント装置21に対してリクエストを出す。ステップS131において、エージェント装置21は、ロボット31からのリクエストを受信する。送受信されるリクエストは、例えば、図9に示すようなデータである。
図9に示したリクエストに関するデータと、図4に示したリクエストに関するデータとで、同一のデータについては説明を省略する。図9に示したリクエストに関するデータは、 “when” : “immediate”とのデータとなっており、ユーザに直ちに“遊んで”と音声で伝えてほしいとのリクエストであることが示されている。
このようなデータが、リクエストとして、ロボット31からエージェント装置21に対して送信される。
エージェント装置21は、ステップS131において、ロボット31からのリクエストを受け取ると、ステップS132において、“遊んで”とユーザに音声で伝達する。このようにして、エージェント装置21は、ロボット31からのリクエストに応じた処理を実行する。
エージェント装置21は、リクエストに対する処理を完了すると、ステップS133において、処理が完了したことを表す完了通知をロボット31に対して送信する。ロボット31は、ステップS103において、エージェント装置21からの完了通知を受信する。送受信される完了通知は、例えば、図6に示したようなデータであり、図6に示したデータに関しては既に説明したので、ここではその説明は省略する。
このように、ロボット31自体は、「遊んで」といった人間の言葉を発することができない場合、ロボット31の代わりにエージェント装置21がユーザに、ロボット31からの伝言(情報)を伝達する。よって、ユーザに対して情報を伝達する手段を有しない装置であっても、エージェント装置21により、情報を伝達することが可能となる。
図8に示したフローチャートに基づく処理が実行されるときのエージェント装置21の処理の詳細について、図9のフローチャートを参照して説明する。図9に示したフローチャートの処理は、他の装置からのリクエストを受けたときに、エージェント装置21で開始される。
ステップS171において、画像が取得される。この画像は、ステップS172において、ユーザの視線を認識している装置や、その装置の位置に関する情報などを取得するために取得される。ステップS172における処理は、図7のフローチャートにおけるステップS72の処理と同様に行うことができる。すなわち、取得された画像から、ユーザの視線を認識している装置(リクエストを出してきた装置)が特定され、その装置がある場所が特定される。
ステップS173において、伝達する情報があるか否かが判定される。受信されたデータを解析し、ユーザに伝達したい情報があるとのリクエストであるか否かが判定される。ステップS173において、伝達する情報はないと判定された場合、図10に示したフローチャートの処理は終了される。なお、伝達する情報がないと判定された場合であっても、他の装置からのリクエストに対する処理は行われる。
一方、ステップS173において、伝達する情報があると判定された場合、ステップS174に処理は進められる。ステップS174において、他の装置からのリクエストに応じて、ユーザに対して情報が伝達される。例えば、上記した例においては、ユーザに対してロボット31からのメッセージとして“遊んで”との情報が、音声で伝達される。
ステップS175において、伝えたい情報が削除される。すなわち、他の装置から受け取ったリクエストは削除される。なお、リクエストが削除されるとき、図8のフローチャートを参照して説明したように、リクエストを出してきた装置に対してリクエストに対する処理は正常に実行された、または実行されなかったという完了通知が出されるようにしても良い。
このように、エージェント装置21は、他の装置からリクエストがあった場合、そのリクエストに対する処理を実行する。
<他の具体例1>
上記した実施の形態においては、ロボット31からのリクエストを処理する場合を例に挙げて説明したが、ロボット31以外の装置からのリクエストを処理する場合を例に挙げて説明を続ける。
図11のフローチャートを参照し、照明装置34からのリクエストを処理する場合を例に挙げた説明を行う。
ステップS201において、照明装置34は、電球が切れたことを検知する。ステップS202において、照明装置34は、電球が切れたことを、ユーザに伝えてほしいとのリクエストを、エージェント装置21に対して出す。このとき授受されるリクエストのデータは、例えば、図4を参照して説明したようなデータ構造とすることでき、その内容は、ユーザに対して電球が切れたことを知らせてほしいという内容とすることができる。
ステップS221において、エージェント装置21は、照明装置34からのリクエストを受信すると、ステップS222において、リクエストを受け付けたことを示す返答を、照明装置34に対して出す。そのような返答を、ステップS203において、照明装置34は受け取る。このとき授受される返答のデータは、例えば、図5を参照して説明したようなデータ構造とすることができる。
エージェント装置21は、照明装置34からのリクエストに応じるための処理を開始する。ステップS223において、エージェント装置21は、ユーザの視線がテレビジョン受像機33にあることを認識する。照明装置34は、ユーザに情報を伝達する手段として、音声を出力したり、メッセージを表示したりする手段を有さない装置であるため、そのような手段を有するテレビジョン受像機33にて、情報を伝達するようにする。
そこで、エージェント装置21は、ステップS223において、情報を表示するテレビジョン受像機33に、ユーザの視線があるかを検出し、検出したときに、ユーザの視線がテレビジョン受像機33にあると認識し、処理をステップS224に進める。
ステップS224において、エージェント装置21は、テレビジョン受像機33にメッセージを出すように指示を出す。この指示には、例えば、“電球が切れました”といったメッセージを表示するといった指示が含まれる。
ステップS241において、テレビジョン受像機33は、エージェント装置21からの指示を受け取ると、ステップS242において、受け取った指示に基づく処理を実行する。すなわちこの場合、テレビジョン受像機33は、画面上に、“電球が切れました”というメッセージを表示する。
または、“電球を見て”といったようなメッセージでも良く、ユーザが電球(照明装置34)側に視線を向けるようにするためのメッセージが表示されるようにしても良い。そして、ユーザが電球の方に視線を向けたことが検知された後、テレビジョン受像機33に、“電球が切れました”というメッセージが表示されるようにしても良い。
このように、ユーザに対して情報を伝達する手段を有さない装置、この場合、照明装置34は、エージェント装置21を介してテレビジョン受像機33という他の装置で、情報を伝達する。また、エージェント装置21は、テレビジョン受像機33にユーザの視線があるタイミングで、換言すれば、情報を伝達する装置に、ユーザが注目しているタイミングで、情報が提示されるように制御を行う。
このような処理がエージェント装置21において実行される場合も、上記した図7に示したフローチャートに基づく処理がエージェント装置21において実行される。
図7に示したフローチャートを再度参照して、簡便に説明を加える。ステップS71において、エージェント装置21は、照明装置34からリクエストを受け取った時点で、伝達したい情報があると判定し、処理をステップS72に進める。
ステップS72において、注目すべき装置や場所の情報として、テレビジョン受像機33の情報が取得される。この場合、メッセージを表示するために、ユーザに注目させたい装置としてテレビジョン受像機33が選択され、テレビジョン受像機33に関する情報が取得される。
ステップS73において、状況に合わせた注目移動のための制御が行われるが、この制御は省略することも可能であるし、例えば、“テレビジョン受像機を見て”といったメッセージが出音されるようにしても良い。
ステップS74において、ユーザの注目が、注目すべき装置、この場合、テレビジョン受像機33にあるか否かが判定される。ステップS74において、ユーザの注目が、テレビジョン受像機33にあると判定されたときに、処理は、ステップS75に進められ、情報の伝達が行われる。例えば、ユーザがテレビジョン受像機33で番組を見ているときに、“電球が切れました”といったメッセージや、“電球を見てください”といったメッセージが、ディスプレイに表示される。このようなメッセージが表示されるようにするための処理が、ステップS75において、エージェント装置21により実行される。
ステップS76において、ユーザが情報を理解したか否かが判定される。例えば、ユーザの視線が、電球の方に向いたと判定された場合に、ユーザが情報を理解したと判定される。そして、ステップS77において、照明装置34からのリクエストは削除され、照明装置34からのリクエストに対する処理は終了される。
次に、図12のフローチャートを参照し、照明装置34からのリクエストを処理する場合の他の例について説明する。
照明装置34において実行されるステップS261乃至S263の処理は、図11のフローチャートにおけるステップS201乃至S203と同様に行われるため、その説明は省略する。また、エージェント装置21において実行されるステップS281,S282の処理は、図11のフローチャートにおけるステップS221,S222と同様に行われるため、その説明は省略する。
ステップS283において、エージェント装置21は、ユーザの視線が電球近くにあると認識すると、処理を、ステップS284に進め、ユーザに対して情報を提示する。この場合、エージェント装置21が、例えば、“電球が切れています”といったメッセージを発話することで、ユーザに照明装置34からリクエストされていた情報が伝達される。
このように、エージェント装置21自体が、照明装置34からの情報を、伝達するようにしても良い。また、ユーザが照明装置34(電球)を見ているときに、照明装置34からの情報が伝達されるようにすることができる。
<他の具体例2>
さらに具体例について説明を加える。なお、システムにおける基本的な処理の流れは、上記した場合と同様であるため、重複する説明は適宜省略する。
他の具体例として、冷蔵庫32からのリクエストを処理する場合を例に挙げた説明を行う。
冷蔵庫32が庫内に賞味期限(消費期限)切れの商品を検知した場合、エージェント装置21に対して、ユーザに賞味期限切れの食品があるという情報を伝達してほしいというリクエストを出す。
冷蔵庫32からのリクエストを受信したエージェント装置21は、ユーザが冷蔵庫32の近傍にいることや、冷蔵庫32の庫内を見ていることなどを検知し、そのタイミングで、ユーザに対して、“賞味期限切れの食品があります”といったメッセージを発話する。
または、冷蔵庫32からのリクエストを受信したエージェント装置21は、例えば、リクエストを受信したときに、ユーザがテレビジョン受像機33で番組を視聴していた場合、ユーザに対して、“賞味期限切れの食品があります”といったメッセージをテレビジョン受像機33に表示させる。
または、冷蔵庫32は、ユーザが近傍にいるときや、庫内をみていることを検知したときに、エージェント装置21に対してリクエストを出すようにしても良い。そして、エージェント装置21は、冷蔵庫32からのリクエストを受信した時点で、ユーザに対して、“賞味期限切れの食品があります”といったメッセージを発話する。
このように、冷蔵庫32が情報の発信元となっている場合、ユーザが冷蔵庫32に注目しているとき(注目できるとき)に、情報の発信元である冷蔵庫32からの情報が伝達される。または、冷蔵庫32が情報の発信元となっている場合、ユーザが情報を伝達できる手段を有する例えばテレビジョン受像機33に注目しているとき(注目できるとき)に、情報の発信元である冷蔵庫32からの情報が伝達される。
他の具体例として、換気扇(不図示)からのリクエストを処理する場合を例に挙げた説明を行う。
換気扇は、換気扇が汚れ、掃除が必要になってきたことを検知した場合、エージェント装置21に対して、ユーザに掃除の時期であるという情報を伝達してほしいというリクエストを出す。
換気扇は、リクエストを出すとともに、ファンの音が大きくなるような制御を開始する。ファンの音が大きくなることで、ユーザが換気扇に注目すると、そのことを検知したエージェント装置21が、ユーザに対して、“掃除の時期です”といったメッセージを発話する。
ファンの音が大きくなるような制御は、エージェント装置21が、換気扇からのリクエストを受信した後に、ユーザが換気扇の近くいることを検知したときに、換気扇に指示を出すことで開始されるようにしても良い。この場合、エージェント装置21は、換気扇にユーザが注目するように制御を行い、その結果、ユーザが換気扇に注目したときに、換気扇からの情報が、ユーザに提示される。
このように、換気扇が情報の発信元となっている場合、ユーザが換気扇に注目するような処理を、換気扇自体またはエージェント装置21が行い、その結果、ユーザが換気扇に注目しているときに、情報の発信元である換気扇からの情報が伝達される。
他の具体例として、掃除ロボット(不図示)からのリクエストを処理する場合を例に挙げた説明を行う。
掃除ロボットが段差などにより動けなくなったことを検知した場合、エージェント装置21に対して、動けなくなったという情報を伝達してほしいというリクエストを出す。
エージェント装置21は、掃除ロボットが居る位置を検知し、その近くにある照明装置34を検索し、その照明装置34を点滅させる。照明装置34が点滅し、その点滅にユーザが気づき、その照明装置34側に視線を向けたことや、その照明装置34側に近づいたことを、エージェント装置21が検知した場合、ユーザに対して、“掃除ロボットが動けなくなっています”といったメッセージを発話する。
このように、掃除ロボットが情報の発信元となっている場合、ユーザが掃除ロボットに注目するような処理を、エージェント装置21が行い、その結果、ユーザが掃除ロボットに注目(掃除ロボット付近を注目)しているときに、情報の発信元である掃除ロボットからの情報が伝達される。
<他の具体例3>
さらに具体例について説明を加える。上記した具体例は、エージェント装置21が家庭内にある場合を例に挙げて説明したが、エージェント装置21は、家庭内に限らず、他の場所に設置されていても良い。例えば、車に搭載されていても良い。
図13は、車の運転席側から運転者(ユーザ)が見える計器類などを示した図である。運転者は、フロントパネル201にあるスピードメータ202、燃料計203、およびタコメータ204を見ることができる。エージェント装置21は、図13には図示していないが、これらを管理する装置として車内に搭載されている。
例えば、スピードメータ202は、制限速度を超えた速度であることを検知した場合、スピードが出すぎているという情報を、ユーザに伝達したいというリクエストをエージェント装置21に対して出す。
エージェント装置21は、ユーザの視線を検知し、ユーザがフロントパネル201(内のスピードメータ202)に視線があることを検知したとき、例えば、スピードメータ202を発光させる、“スピードが出ています”といったメッセージを発話するなどの処理を実行することで、ユーザに情報を伝達する。
また例えば、燃料計203は、燃料が残り少なくなったことを検知した場合、燃料が少なくなったという情報を、ユーザに伝達したいというリクエストをエージェント装置21に対して出す。
エージェント装置21は、ユーザの視線を検知し、ユーザがフロントパネル201(内の燃料計203)に視線があることを検知したとき、例えば、燃料計203を発光させる、“燃料が少なくなりました”といったメッセージを発話するなどの処理を実行することで、ユーザに情報を伝達する。
また例えば、エージェント装置21が、しばらくメンテナンスがされていないことを検知したときに、ユーザの視線を検知し、ユーザがフロントパネル201に視線があることを検知したとき、例えば、メンテナンスを表すアイコンを発光させる、タコメータ204を発光させる、“メンテナンスをしてください”といったメッセージを発話するなどの処理を実行することで、ユーザに情報を伝達する。
図14は、車の運転席側から運転者(ユーザ)が見える計器類などを示した図であり、図13に示した例とは異なる例を示す図である。フロントパネル251には、ディスプレイ252が備えられ、そのディスプレイ252に、図13に示したスピードメータ202、燃料計203、およびタコメータ204などが表示される。
例えば、制限速度を超えた速度であることが検知された場合、エージェント装置21は、ディスプレイ252に、スピードメータ202を表示させる。この表示は、エージェント装置21が、ユーザの視線を検知し、ユーザがフロントパネル251に視線があることを検知したときに行われる。
または、エージェント装置21が、ユーザの視線を検知し、ユーザがフロントパネル251に視線があることを検知したときに、ディスプレイ252に表示されているスピードメータ202の表示を明るく表示する、点滅して表示するなどの制御を行うことで、ユーザに情報を伝達する。
また例えば、燃料が残り少なくなったことが検知された場合、エージェント装置21は、ディスプレイ252に、燃料計203を表示させる。この表示は、エージェント装置21が、ユーザの視線を検知し、ユーザがフロントパネル251に視線があることを検知したときに行われる。
または、エージェント装置21が、ユーザの視線を検知し、ユーザがフロントパネル251に視線があることを検知したときに、ディスプレイ252に表示されている燃料計203の表示を明るく表示する、点滅して表示するなどの制御を行うことで、ユーザに情報を伝達する。
また例えば、エージェント装置21が、しばらくメンテナンスがされていないことを検知したときに、ユーザの視線を検知し、ユーザがディスプレイ252に視線があることを検知したとき、例えば、メンテナンスを表すアイコンを表示させる、表示されているメンテナンスを表すアイコンを発光させるなどの処理を実行することで、ユーザに情報を伝達する。
この場合も、ユーザに音声により、情報が伝達されるようにしても良い。
このように、ユーザに伝達したい情報が発生したとき、情報を伝達する位置にユーザの視線があるときに、情報が伝達される。よって、確実に情報を伝達することができるようになる。
<記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成も取ることができる。
(1)
他の装置からの情報を取得する取得部と、
前記他の装置にユーザが注目しているか否かを検出する検出部と、
前記検出部により前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達する伝達制御部と
を備える情報処理装置。
(2)
前記伝達制御部は、前記検出部で前記他の装置にユーザが注目していると検出されるまで、前記情報の伝達を行わない
前記(1)に記載の情報処理装置。
(3)
前記情報は、前記他の装置に前記ユーザが注目しているときに出された情報である
前記(1)または(2)に記載の情報処理装置。
(4)
前記伝達制御部は、前記ユーザが、表示デバイスを有する装置に注目しているとき、前記表示デバイスに前記情報を表示する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記伝達制御部は、前記ユーザを前記他の装置に注目させるための処理を実行した後、前記情報を前記ユーザに伝達する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記伝達制御部は、表示デバイスを有する装置に、前記他の装置に注目させるためのメッセージを表示し、その結果、前記ユーザが前記他の装置に注目した後、前記情報を前記ユーザに伝達する
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記他の装置は、複数の計器であり、
前記検出部は、前記計器に前記ユーザが注目しているか否かを検出し、
前記伝達制御部は、前記計器で前記情報を伝達する
前記(1)に記載の情報処理装置。
(8)
前記他の装置は、複数の計器であり、
前記検出部は、前記計器を表示する表示デバイスに前記ユーザが注目しているか否かを検出し、
前記伝達制御部は、情報を出してきた前記計器を前記表示デバイスに表示する
前記(1)に記載の情報処理装置。
(9)
他の装置からの情報を取得し、
前記他の装置にユーザが注目しているか否かを検出し、
前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達する
ステップを含む情報処理方法。
(10)
コンピュータに、
他の装置からの情報を取得し、
前記他の装置にユーザが注目しているか否かを検出し、
前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達する
ステップを含む処理を実行させるためのプログラム。
11 ローカルネットワーク, 21 エージェント装置, 31 ロボット, 32 冷蔵庫, 33 テレビジョン受像機, 34 照明装置, 51 音声出力部, 52 表示装置部, 53 通信部, 54 画像取得部, 55 画像認識部, 56 注目位置検出部, 57 伝達情報処理部, 58 伝達制御部, 59 出力制御部, 201 フロントパネル, 202 スピードメータ, 203 燃料計, 204 タコメータ

Claims (8)

  1. ネットワークに接続されている他の装置からユーザに対して伝達したい情報があるとの要求を取得する取得部と、
    前記取得部により前記要求を取得した場合、前記他の装置に前記ユーザが注目しているか否かを検出する検出部と、
    前記検出部により前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達する伝達制御部と
    を備える情報処理装置。
  2. 前記伝達制御部は、前記検出部で前記他の装置にユーザが注目していると検出されるまで、前記情報の伝達を行わない
    請求項1に記載の情報処理装置。
  3. 前記情報は、前記他の装置に前記ユーザが注目しているときに出された情報である
    請求項1に記載の情報処理装置。
  4. 前記伝達制御部は、前記ユーザが、表示デバイスを有する装置に注目しているとき、前記表示デバイスに前記情報を表示する
    請求項1に記載の情報処理装置。
  5. 前記伝達制御部は、前記ユーザを前記他の装置に注目させるための処理を実行した後、前記情報を前記ユーザに伝達する
    請求項1に記載の情報処理装置。
  6. 前記伝達制御部は、表示デバイスを有する装置に、前記他の装置に注目させるためのメッセージを表示し、その結果、前記ユーザが前記他の装置に注目した後、前記情報を前記ユーザに伝達する
    請求項1に記載の情報処理装置。
  7. ネットワークに接続されている他の装置からユーザに対して伝達したい情報があるとの要求を取得し、
    前記要求を取得した場合、前記他の装置に前記ユーザが注目しているか否かを検出し、
    前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達する
    ステップを含む情報処理方法。
  8. コンピュータに、
    ネットワークに接続されている他の装置からユーザに対して伝達したい情報があるとの要求を取得し、
    前記要求を取得した場合、前記他の装置に前記ユーザが注目しているか否かを検出し、
    前記他の装置に前記ユーザが注目していると検出されたとき、前記情報を前記ユーザに伝達する
    ステップを含む処理を実行させるためのプログラム。
JP2019504444A 2017-03-07 2018-02-21 情報処理装置、情報処理方法、並びにプログラム Active JP7092110B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017042681 2017-03-07
JP2017042681 2017-03-07
PCT/JP2018/006113 WO2018163811A1 (ja) 2017-03-07 2018-02-21 情報処理装置、情報処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2018163811A1 JPWO2018163811A1 (ja) 2020-01-09
JP7092110B2 true JP7092110B2 (ja) 2022-06-28

Family

ID=63448543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019504444A Active JP7092110B2 (ja) 2017-03-07 2018-02-21 情報処理装置、情報処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20190387061A1 (ja)
EP (1) EP3594783A4 (ja)
JP (1) JP7092110B2 (ja)
WO (1) WO2018163811A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136740A1 (ja) 2012-03-14 2013-09-19 株式会社デンソー 運転支援装置および運転支援方法
JP2015185088A (ja) 2014-03-26 2015-10-22 日産自動車株式会社 情報呈示装置及び情報呈示方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2325722A1 (en) * 2003-03-21 2011-05-25 Queen's University At Kingston Method and apparatus for communication between humans and devices
JP4556425B2 (ja) 2003-12-11 2010-10-06 ソニー株式会社 コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
US8957847B1 (en) * 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
US8594845B1 (en) * 2011-05-06 2013-11-26 Google Inc. Methods and systems for robotic proactive informational retrieval from ambient context
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US9213659B2 (en) * 2013-12-03 2015-12-15 Lenovo (Singapore) Pte. Ltd. Devices and methods to receive input at a first device and present output in response on a second device different from the first device
US20150348513A1 (en) * 2014-05-27 2015-12-03 Lenovo (Singapore) Pte. Ltd. Gaze based notification placement
US9811954B2 (en) * 2014-12-02 2017-11-07 Honeywell International, Inc. Near-to-eye display systems and methods for verifying aircraft components

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136740A1 (ja) 2012-03-14 2013-09-19 株式会社デンソー 運転支援装置および運転支援方法
JP2015185088A (ja) 2014-03-26 2015-10-22 日産自動車株式会社 情報呈示装置及び情報呈示方法

Also Published As

Publication number Publication date
US20190387061A1 (en) 2019-12-19
JPWO2018163811A1 (ja) 2020-01-09
WO2018163811A1 (ja) 2018-09-13
EP3594783A1 (en) 2020-01-15
EP3594783A4 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
US20220012470A1 (en) Multi-user intelligent assistance
US11010601B2 (en) Intelligent assistant device communicating non-verbal cues
JP6739907B2 (ja) 機器特定方法、機器特定装置及びプログラム
CN112166350B (zh) 智能设备中的超声感测的系统和方法
US20120226981A1 (en) Controlling electronic devices in a multimedia system through a natural user interface
JP2018190413A (ja) ユーザ発話の表現法を把握して機器の動作やコンテンツ提供範囲を調整し提供するユーザ命令処理方法およびシステム
US20170199934A1 (en) Method and apparatus for audio summarization
EP3613045B1 (en) Methods, systems, and media for providing information relating to detected events
WO2020195821A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム
KR20190053001A (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP6891601B2 (ja) ロボットの制御プログラム、ロボット装置、及びロボットの制御方法
US20150022329A1 (en) Assisted Animal Communication
US10743061B2 (en) Display apparatus and control method thereof
JP7092110B2 (ja) 情報処理装置、情報処理方法、並びにプログラム
WO2020202862A1 (ja) 応答生成装置及び応答生成方法
CN115461811A (zh) 用于多方交互的多模态波束成形和注意力过滤
JP2019061334A (ja) 機器制御装置、機器制御方法及び機器制御システム
JP7070546B2 (ja) 情報処理装置および情報処理方法
KR20210051349A (ko) 전자장치 및 그 제어방법
US11375275B2 (en) Method and system for using lip sequences to control operations of a device
US20210063978A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP7036561B2 (ja) 家電システム
EP3776537A1 (en) Intelligent assistant device communicating non-verbal cues
JP6688820B2 (ja) 出力装置、出力方法、および出力プログラム
US20210166688A1 (en) Device and method for performing environmental analysis, and voice-assistance device and method implementing same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R151 Written notification of patent or utility model registration

Ref document number: 7092110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151