JP6713057B2 - 移動体制御装置および移動体制御プログラム - Google Patents

移動体制御装置および移動体制御プログラム Download PDF

Info

Publication number
JP6713057B2
JP6713057B2 JP2018550031A JP2018550031A JP6713057B2 JP 6713057 B2 JP6713057 B2 JP 6713057B2 JP 2018550031 A JP2018550031 A JP 2018550031A JP 2018550031 A JP2018550031 A JP 2018550031A JP 6713057 B2 JP6713057 B2 JP 6713057B2
Authority
JP
Japan
Prior art keywords
scene
reaction
unit
mobile
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018550031A
Other languages
English (en)
Other versions
JPWO2018087971A1 (ja
Inventor
田中 伸治
伸治 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JPWO2018087971A1 publication Critical patent/JPWO2018087971A1/ja
Application granted granted Critical
Publication of JP6713057B2 publication Critical patent/JP6713057B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明の一態様は移動体制御装置および移動体制御プログラムに関する。
近年、人工知能を備えた装置の開発が盛んに行われている。例えば、特許文献1には、ユーザから知らないことを聞かれた場合にユーザにその答えを問い返し、その質問内容と答えを記憶して、次からの対話に用いるようにする音声対話装置が開示されている。
日本国特許公開公報「特開2004−109323号公報(2004年4月8日公開)」
しかしながら、従来技術では、装置に対し、対話以外の動作(例えば、自発的な発話)をより自然に行わせることについて、十分な検討がなされていない。そこで、本発明者らは、独自の観点に基づき、移動体装置に対し、対話以外の場面においても、動作をより自然に行わせるための技術について鋭意検討を重ねている。
本発明の一態様は、上記課題に鑑みてなされたものであり、移動体装置に対し、対話以外の場面においても、動作をより自然に行わせることができる移動体制御装置および移動体制御プログラムを提供することを主たる目的とする。
上記の課題を解決するために、本発明の一態様に係る移動体制御装置は、画像取得部と、動作制御部と、一つ以上のプロセッサとを備え、前記画像取得部は、特定の移動体装置の周囲の撮像画像を取得し、前記一つ以上のプロセッサは、前記画像取得部が取得した撮像画像を参照して前記移動体装置が配置されたシーンを推定するシーン推定処理と、前記推定したシーンに応じた動作を決定する動作決定処理と、前記移動体装置に前記決定した動作をさせる動作制御処理とを行う。
本発明の一態様によれば、特定の移動体装置が配置されたシーンを推定し、当該移動体装置に対し、当該移動体装置が配置されたシーンに合った動作を行わせることができる。
本発明の実施形態1に係る移動体制御装置の要部構成を示すブロック図である。 本発明の実施形態1に係る移動体制御装置のハードウェア構成の一例を示すブロック図である。 本発明の実施形態1に係る移動体制御装置の動作の一例を説明するフローチャートである。 本発明の実施形態1に係る移動体制御装置による物体の検出の一例を説明するための図である。 本発明の実施形態2に係る移動体制御装置の要部構成を示すブロック図である。 本発明の実施形態3に係る移動体制御装置の要部構成を示すブロック図である。 本発明の実施形態3に係る移動体制御装置による端末の発話の例を説明するための図である。 本発明の実施形態4に係る移動体制御装置の要部構成を示すブロック図である。 制御部として利用可能なコンピュータの構成を例示したブロック図である。
〔実施形態1〕
以下、本発明の実施形態1について、詳細に説明する。
(移動体制御装置1の要部構成)
図1は、本実施形態に係る移動体制御装置1の要部構成を示すブロック図である。移動体制御装置1は、図1に示すように、制御部(プロセッサ)2、撮像部3、音声出力部4、物体DB5a、シーンDB(対応付け情報記憶部)5bおよび動作DB(第二の対応付け情報記憶部)5cを備えている。
制御部2、撮像部3、音声出力部4、物体DB5a、シーンDB5bおよび動作DB5cは、それぞれ単体のハードウェアによって構成されていてもよいし、複数のハードウェアによって分散的に構成されてもよい。
制御部2は、機能ブロックとして、画像取得部21、物体検出部22、画像認識部23、シーン推定部24、発話内容決定部(動作決定部)25および発話制御部(動作制御部)26を備えている。制御部2は、1または複数のプロセッサである。制御部2としては、1個のプロセッサがすべての機能ブロックの処理を実行してもよいし、複数のプロセッサが各機能ブロックの処理を分けて実行してもよい。
撮像部3は、例えば、一つ以上のカメラであり、特定の移動体装置の周囲を撮像する。画像取得部21は、撮像部3を介して、当該特定の移動体装置の周囲の撮像画像を取得する。画像取得部21は、単一の撮像画像を取得するものであってもよいし、複数の撮像画像を取得するものであってもよい。画像取得部21が複数の撮像画像を取得する場合、(i)撮像部3は互いに異なる方向を撮像する複数のカメラを備えており、画像取得部21は各カメラからそれぞれ撮像画像を取得するようになっていてもよいし、(ii)撮像部3は移動(回転を含む)可能なカメラを備えており、画像取得部21は当該カメラを移動させながら、または当該カメラの向きを変えながら複数の撮像画像を取得するようになっていてもよい。これにより、画像取得部21、当該特定の移動体装置の周囲の撮像画像を好適に取得することができる。
物体検出部22は、画像取得部21が取得した撮像画像中に含まれる物体(例えば、移動体装置が家の中にある場合には、テレビ、ソファー、テーブルなど)を検出する(シーン推定処理の一部)。詳細には、物体検出部22は、物体が映っている可能性がある撮像画像中のエリアを特定し、当該エリアを切り出して検出画像データを生成する。物体検出部22は、撮像画像中に、物体が映っている可能性のあるエリアが複数含まれている場合には、複数のエリアを特定し、複数の検出画像データを生成する。
画像認識部23は、物体DB5aを参照して、物体検出部22が生成した検出画像データに基づき、物体検出部22が検出した物体の名称またはID等を識別する(シーン推定処理の一部)。物体DB5aには、各物体の名称またはID等を識別するために用いられる情報が予め記憶されている。例えば、物体DB5aには、検出画像データの特徴量をとらえるためのパラメーターや複数の特徴量を各物体の名称またはID等へ変換するための情報が予め記憶されている。
シーン推定部24は、シーンDB5bを参照して、画像認識部23が識別した物体の名称またはID等の組み合わせから、当該特定の移動体装置が配置されたシーンを推定する(シーン推定処理)。なお、本明細書において「移動体装置が配置されたシーン」とは、移動体装置が配置された場所の種類を意味し、例えば、家の中であれば、リビング、寝室、キッチンなどの部屋であり得る。シーンDB5bには、各物体と各シーンとの対応付けを示す対応付け情報が予め記憶されている。より詳細には、例えば、各シーンに対応付けて、当該シーンにおいて存在する可能性が高い物体の名称またはID等が予め記憶されている。
発話内容決定部25は、動作DB5cを参照して、シーン推定部24が推定したシーンに応じた発話内容を決定する(動作決定処理)。動作DB5cには、各シーンに対応付けて、当該シーンに応じた発話候補を規定する情報が予め記憶されている。
音声出力部4は、例えば、スピーカである。発話制御部26は、発話内容決定部25が決定した発話内容を音声に変換し、音声出力部4から出力させる(動作制御処理)。発話制御部26は、例えば、公知の音声合成技術を用いて音声を合成してもよい。
なお、各機能ブロック間におけるデータ(画像含む)の受け渡しの方法は特に限定されず、例えば、後述するように、記憶部を介して受け渡しをしてもよいし、通信インターフェースを介して受け渡しをしてもよい。
(移動体制御装置1のハードウェア構成)
図2は、本実施形態に係る移動体制御装置1のハードウェア構成の一例を示すブロック図である。移動体制御装置1は、一例において、図2に示すように、サーバ8と、端末(移動体装置)9とを備えている。
サーバ8は、通信部7a、記憶部10a、および、制御部11aを備えている。通信部7aは、端末9と通信するための通信インターフェースである。記憶部10aには、一部または全部のDBが格納されている。また、記憶部10aは、各ブロック間のデータの入出力にも用いられる。制御部11aは、サーバ8の各構成要素を統括的に制御する機能を備えている演算装置である。制御部11aは、図1の制御部2の一部または全部の機能ブロックの処理を実行することが可能である。
端末9は、スマートフォン等の携帯電話端末、タブレット等の携帯情報端末、携帯可能な小型ロボット、ロボット掃除機等の自走可能なロボット等であり得るが、それらに限定されることはなく、携帯されることにより、または、自ら動くことにより移動可能な装置(移動体装置)であればよい。
端末9は、撮像部3、音声出力部4、通信部7b、記憶部10b、および、制御部11bを備えている。通信部7bは、サーバ8と通信するための通信インターフェースである。記憶部10bには、一部または全部のDBが格納されている。また、記憶部10bは、各ブロック間のデータの入出力にも用いられる。制御部11bは、端末9の各構成要素を統括的に制御する機能を備えている演算装置である。制御部11bは、図1の制御部2の一部または全部の機能ブロックの処理を実行することが可能である。
また、サーバ8の制御部11aと、端末9の制御部11bとは、図1の制御部2の各機能ブロックの処理を分けて実行することが可能である。例えば、図1において、制御部2の枠組み内に点線にて境界を示したように、サーバ8の制御部11aが、シーン推定部24および発話内容決定部25の処理を実行し、端末9の制御部11bが、画像取得部21、物体検出部22、画像認識部23および発話制御部26の処理を実行してよい。また、他の分け方で、制御部11aと制御部11bとが、制御部2の各機能ブロックの処理を実行してもよい。
(移動体制御装置1の動作)
図3は、本実施形態に係る移動体制御装置1の動作の一例を説明するフローチャートである。
まず、画像取得部21は、撮像部3を介して、端末9の周囲の撮像画像を取得する(ステップS1)。撮像画像は、例えば、記憶部10bに記憶される。
続いて、物体検出部22は、撮像画像に対し、物体検出の処理を行うことにより、物体が映っている可能性のあるエリアを特定する。このとき、物体検出部22は、1または複数のエリアを特定する可能性がある。そして、物体検出部22は、撮像画像から各エリアを切り出すことによって、当該エリアに対応する検出画像データを生成する(ステップS2)。なお、物体検出部22が物体を検出しなかった場合(生成した検出画像データが0個の場合)は、ステップS3以降の処理は行われない。
物体検出の処理のアルゴリズムとしては、セレクティブサーチ(Selective Search)やオブジェクトネス(Objectness)などの公知のアルゴリズムを用いることができる。また、エリアの特定は、例えば、エリアを表す座標情報によって特定することができる。座標情報の表現方法としては、例えば、(左上頂点座標、横幅、縦幅)や、(左上頂点座標、右下頂点座標)などが挙げられるが、特に限定されない。
図4は、移動体制御装置1による物体の検出の一例を説明するための図である。撮像画像100中には、リンゴおよびバナナが映っている。物体検出部22は、撮像画像100から、リンゴが映っているエリア101と、バナナが映っているエリア102とを特定し、それぞれのエリアを切り出して、検出画像データ1と、検出画像データ2とをそれぞれ生成する。
続いて、画像認識部23は、物体DB5aを参照し、物体検出部22によって生成された各検出画像データに対し、映っている物体の名称を識別する画像認識の処理を行う。画像認識の処理のアルゴリズムとしては、近年、畳み込みニューラルネットワークを用いたディープラーニング技術が高い精度を出しており、好適に用いることができる。また、他の画像認識の処理のアルゴリズムとして、パターンマッチング等を挙げることができる。
表1は、画像認識部23による処理の結果の一例を示す表である。表1に示すように、検出画像データ1、検出画像データ2、・・・、検出画像データnに対して、それぞれ名称1、名称2、・・・、名称nが識別される。例えば、図4に示すエリア101からの検出画像データに対しては「リンゴ」が、エリア102からの検出画像データに対しては「バナナ」が、それぞれ識別される。なお、名称を示すデータは、文字列である必要はなく、名称に対応づけられた数値などのインデックスやID等としてもよい。
Figure 0006713057
次に、シーン推定部24は、画像認識部23が識別した物体の名称等の組み合わせ(セット)を取得し、シーンDB5bに記憶されている各物体と各シーンとの対応付けを示す対応付け情報を参照して、スコアリングを行う(ステップS4)。
スコアリングの処理では、シーン推定部24は、画像認識部23が識別した各物体に対応付けされたシーンに加点する。以下、例を挙げてスコアリングの処理の詳細を説明する。
表2は、シーンDB5bに記憶されている対応付け情報の一例を示す表である。表2の各行は、シーン(部屋の種類)を示している。表2の各列は、物体の名称を示している。各升目には、当該升目が属する列に示される物体が、当該升目が属する行に示されるシーンに配置される確率が高い程値が大きくなるように、数値が予め割り当てられている。
Figure 0006713057
そして、シーン推定部24は、表2の各行(シーン)について、画像認識部23が識別した物体に対応する列の数値を合成し、これを各シーンのスコアとする。そして、シーン推定部24は、最もスコアが高かったシーンを、端末9が配置されたシーンとして推定する(ステップS5)。
一例を挙げれば、画像認識部23が識別した物体が「テレビ」と「ソファー」であった場合には、表3に示すように、シーン「リビング」の行において、「テレビ」に対応する列の数値は10、「ソファー」に対応する列の数値は9であるため、シーン「リビング」のスコアは19となる。同様に、シーン「キッチン」のスコアは1となり、シーン「寝室」のスコアは7となり、シーン「洗面所」のスコアは0となる。その結果、シーン推定部24は、最もスコアの高いシーン「リビング」を、端末9が配置されたシーンとして推定する。
Figure 0006713057
他の例を挙げれば、画像認識部23が識別した物体が「スポンジ」と「フライパン」と「せっけん」であった場合には、表4に示すように、シーン「キッチン」の行において、「スポンジ」に対応する列の数値は10、「フライパン」に対応する列の数値は10、「せっけん」に対応する列の数値は3であるため、シーン「キッチン」のスコアは23となる。同様に、シーン「リビング」のスコアは0となり、シーン「寝室」のスコアは0となり、シーン「洗面所」のスコアは13となる。その結果、シーン推定部24は、最もスコアの高いシーン「キッチン」を、端末9が配置されたシーンとして推定する。
Figure 0006713057
続いて、発話内容決定部25は、動作DB5cを参照して、シーン推定部24が推定したシーンに応じて、発話内容を決定する(ステップS6)。例えば、シーン推定部24が、端末9が配置されたシーンとしてシーン「キッチン」を推定し、動作DB5cに、シーン「キッチン」に対応付けて、表5に示すような発話候補が記憶されていた場合には、発話内容決定部25は、「タイマーをセットしますか?」、「何の料理のレシピを出しますか?」などの発話候補から一つの発話候補を選択することにより、端末9に発話させる発話内容を決定する。
Figure 0006713057
そして、発話制御部26は、発話内容決定部25が決定した発話内容の音声を合成し、音声出力部4から、あたかも端末9が自発的に発話しているかのように音声出力させる。
以上の通り、移動体制御装置1は、撮像画像に基づいて端末9が配置されたシーン(部屋の種類)を推定し、端末9に対し、当該シーンに合った発話を行わせることができるため、端末9の発話をより自然に行わせることができる。
(変形例1)
なお、移動体制御装置1の制御部2は、物体検出部22、画像認識部23およびシーン推定部24によるシーン推定処理とは異なる方法で、シーンを推定するようになっていてもよい。
例えば、一変形例において、制御部2は、撮像画像そのものを、ディープラーニング技術を用いて直接画像認識することにより、端末9が配置されたシーンを推定してもよい。但し、このようなディープラーニング技術を実現するためには、各シーンに対応する撮像画像を多数取得して、機械学習を行う必要がある。しかしながら、例えば、シーンが部屋である場合、プライバシーの問題が生じるため、機械学習のための画像を多数取得することは困難である。一方、実施形態1で説明したように、各物体について、ディープラーニング技術を用いて画像認識する手法によれば、機械学習のための画像は、各物体の撮像画像となるため、プライバシーの問題は生じず、機械学習のための画像を容易に収集することができる。
(変形例2)
また、移動体制御装置1は、端末9に発話以外の動作をさせる構成になっていてもよい。
例えば、一変形例において、移動体制御装置1は、発話内容決定部25の代わりに動作内容決定部を備え、発話制御部26の代わりに動作制御部を備えている。そして、動作DB5cには、各シーンに対応付けて、動作候補が記憶されている。動作内容決定部は、シーン推定部24が推定したシーンに応じた動作内容を、端末9に動作させる動作内容として決定する。例えば、シーン推定部24が、端末9が配置されたシーンとしてシーン「リビング」を推定し、動作DB5cに、シーン「リビング」に対応付けて、表6に示すような動作候補が記憶されていた場合には、動作内容決定部は、踊る、歌うなどの動作候補から一つの動作候補を選択することにより、端末9に動作させる動作内容を決定する。
Figure 0006713057
そして、動作制御部は、動作内容決定部が決定した動作内容を、端末9に実施させる。これにより、移動体制御装置1は、撮像画像に基づいて端末9が配置されたシーン(部屋の種類)を推定し、端末9に対し、当該シーンに合った動作(特に、自発的な動作)を行わせることができるため、端末9の動作をより自然に行わせることができる。
(変形例3)
また、移動体制御装置1は、サーバ8を含まず、端末9のみに全ての構成が備えられている構成になっていてもよい。すなわち、図1に示す移動体制御装置1が、端末9である構成である。
〔実施形態2〕
本発明の実施形態2について、図5に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
図5は、本実施形態に係る移動体制御装置1aの要部構成を示すブロック図である。図5に示すように、(i)移動体制御装置1aがGPS(Global Positioning System)12を備えている点、(ii)制御部2が位置情報取得部27を備えている点、さらに(iii)位置情報取得部27がGPS12から位置情報を取得し、シーン推定部24が、位置情報取得部27が取得した位置情報をさらに参照してシーンを推定している点が、実施形態1の移動体制御装置1と異なっている。
例えば、一態様において、シーン推定部24は、位置情報に応じて、端末9が、ユーザの家の中にあるか否かを判定する。判定の方法は特に限定されず、公知の方法を用いることができる。例えば、位置情報取得部27が、複数の時刻において端末9の位置情報を取得し、夜の時間帯において、端末9があることが多い位置を、ユーザの家の位置と特定してもよい。そして、シーン推定部24は、現在の位置情報が、ユーザの家の位置から所定の範囲内にあるか否かを判定することにより、端末9が、ユーザの家の中にあるか否かを判定することができる。そして、シーン推定部24は、端末9が、ユーザの家の中にある場合にのみ、シーンを推定するようにしてもよい。
また、他の態様において、シーンDB5bには、場所毎の対応付け情報が記憶されており、シーン推定部24は、位置情報に応じて特定した場所に対応する対応付け情報を参照して、シーンを推定するようになっていてもよい。場所としては、上述したユーザの家の他に、例えば、商業施設等が想定される。例えば、シーンDB5bには、表7に示すような、商業施設用の対応付け情報が記憶されており、シーン推定部24は、位置情報が商業施設の範囲内である場合に、当該商業施設用の対応付け情報を参照して、シーン(売り場)を推定するようになっていてもよい。そして、発話内容決定部25は、売り場に応じて発話内容を決定する。例えば、シーン推定部24が推定したシーンが家電売り場である場合には、発話内容決定部25は、家電に関する話題や家電の詳しい情報などを発話内容として決定する。
Figure 0006713057
これにより、移動体制御装置1aは、端末9が配置されたシーンをより好適に推定することができる。
〔実施形態3〕
本発明の実施形態3について、図6〜図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
図6は、本実施形態に係る移動体制御装置1bの要部構成を示すブロック図である。図6に示すように、(i)制御部2が日時取得部28を備えている点、(ii)発話内容決定部25が、日時取得部28が取得した日時情報をさらに参照して発話内容を決定している点が、実施形態1の移動体制御装置1と異なっている。上記「日時情報」とは、時間的な位置を示す情報であり、時刻(時、分、秒、ミリ秒等)および暦(年、月、週、旬、日等)の少なくとも1つを示す情報である。
ここで、動作DB5cには、各シーンに対応付けて、発話候補、および、日時の条件を示す情報が記憶されている。発話内容決定部25は、シーン推定部24が推定したシーン、ならびに、日時取得部28が取得した日時情報に応じた発話内容を、端末9に発話させる発話内容として決定する。
例えば、シーン推定部24が、端末9が配置されたシーンとしてシーン「リビング」を推定し、動作DB5cに、シーン「リビング」に対応付けて、表8に示すような動作候補が記憶されていた場合には、発話内容決定部25は、日時(時刻)が所定の条件を満たしたとき、「そろそろ○○の番組が始まるよ。」と言った発話や、その月に含まれる特定の曜日の回数が所定の条件を満たしたとき、「今週の水曜は不燃ごみを出せる日だよ。」といった発話を行い、日時(暦)が所定の条件を満たしたとき、「そろそろ○○がおいしい季節だね。」といった発話を行う。
Figure 0006713057
そして、発話制御部26は、発話内容決定部25が決定した発話内容を、端末9に実施させる。これにより、移動体制御装置1bは、撮像画像に基づいて端末9が配置されたシーン(部屋の種類)を推定し、端末9に対し、当該シーンだけではなく、日時、または日時の区間の情報(例えば、特定の月における特定の曜日の回数のようなカウント情報)に合った発話を行わせることができるため、端末9の発話をより自然に行わせることができる。
図7は、本実施形態における端末9の発話の例を示す図である。図7に示すように、端末9が寝室に配置され、時刻が夜である場合、端末9は、「明日は何時起きですか?」、「おやすみなさい」といった発話を行う。また、端末9がキッチンに配置されている場合、端末9は、「料理のレシピを出しますか?」といった発話を行ったり、時刻が、事前に設定された料理のできあがり時間であった場合には、「料理のできあがりの時間だよ」といった発話を行ったりする。また、端末9がリビングに配置され、時刻が所定のテレビ番組の開始時刻である場合、端末9は、「もうすぐ○○の放送時間だよ」といった発話を行う。また、端末9がリビングに配置され、時刻が朝で、天気予報が雨の場合には、端末9は、「今日は雨みたいだから傘をもってね」といった発話を行う。このように、発話内容決定部25は、時刻情報を、夜、昼といった予め定められている時間帯や、事前にセットしたタイマーの終了時刻等の随時セットされる時刻、テレビ番組の開始時刻等の予め定められている時刻等と比較することにより、発話内容を決定してもよいし、発話内容の決定には、日時から得られるテレビ番組や天気予報等の情報を用いてもよい。また、発話内容決定部25は、暦情報を、春夏秋冬といった予め定められている期間や、事前にセットした予定日等の随時セットされる日付、イベントの開催日等の予め定められている日付等と比較することにより、発話内容を決定してもよい。
これにより、移動体制御装置1bは、より自然な発話内容を端末9に発話させることができる。
〔実施形態4〕
本発明の実施形態4について、図8に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
図8は、本実施形態に係る移動体制御装置1cの要部構成を示すブロック図である。図8に示すように、(i)移動体制御装置1cが音声入力部6および反応DB(反応記憶部)5dを備えている点、(ii)制御部2が音声認識部(反応検出部)29および反応蓄積部30を備えている点、(iii)音声出力部4が出力した端末9の発話に対するユーザの反応が音声入力部6を介して入力され、(iv)音声入力部6に入力されたユーザの反応を、音声認識部29が識別し、(v)シーン推定部24が、画像認識部23が識別した物体の組み合わせに応じてシーンを区別し、(vi)反応蓄積部30が、音声認識部29が識別したユーザの反応の種類を、シーン推定部24が区別したシーン、および、音声出力部4が出力した端末9の発話に対応付けて反応DB5dに蓄積し、(vii)発話内容決定部25が、シーン推定部24が区別したシーンと反応DB5dとを参照して、発話内容を決定する点が、実施形態1の移動体制御装置1と異なっている。
音声入力部6は、例えば、マイクを備え、入力情報としてユーザによる音声データを取得する。音声認識部29は、音声入力部6が取得した音声データにおいて、人の音声の始まりおよび終わりを検知して、人の音声部分を抽出し、抽出した音声部分の音声認識を行うことにより、ユーザによる音声データからユーザの反応内容を特定する。
また、シーン推定部24は、シーン推定の処理が行われたとき、さらに、画像認識部23が識別した物体の組み合わせ毎に、シーンを区別して、それぞれ反応DB5dに登録する。例えば、表9のように、新しい物体の組み合わせでシーンを推定する毎に、それぞれ部屋1、部屋2、・・・として反応DB5dに登録する。同じ物体の組み合わせのシーン、または似通った物体の組み合わせのシーンは、同じ部屋とみなして登録してもよい。
Figure 0006713057
そして、反応蓄積部30は、音声認識部29が特定したユーザの反応内容に応じて、ユーザの反応内容の種別(肯定的、否定的等)を判定し、表10のように、判定した反応内容の種別を、シーン推定部24によって区別されたシーン、および、ユーザの反応した発話内容に対応付けて反応DB5dに記憶させる。
Figure 0006713057
また、発話内容決定部25は、反応DB5dを参照し、シーン推定部24によって区別されたシーンに対応付けて否定的な反応内容が記憶されている発話内容は選択しないように発話内容を決定する。
例えば、部屋1において、端末9が特定の発話内容を発話したときに、ユーザから否定的な反応があった場合、反応蓄積部30は、反応DB5dに、部屋1および当該特定の発話内容と対応付けして、否定的な反応を示すフラグを記憶させる。否定的な反応とは、例えば、無言や語尾が「〜ではない」、「〜しない」などの反応である。また、否定的な反応があった場合、シーン、および、ユーザの反応した発話内容に対応付いたカウンターを増やし、閾値を超えたときにフラグを記憶させてもよい。その後、発話内容決定部25は、部屋1と同じ物体の組み合わせが識別された、または似通った物体の組み合わせが識別された部屋において、発話内容を決定する際に、反応DB5dを参照し、当該特定の発話内容に否定的な反応を示すフラグが記憶されているため、当該特定の発話内容を避けて、発話内容を決定する。
これにより、端末9の発話内容について、各シーンにおけるユーザの反応を細やかに反映させることができるため、端末9の発話をより自然に行わせることができる。
〔実施形態5〕
上記各実施形態では、1つのサーバ8を用いる例を説明したが、サーバ8の有する各機能が、個別のサーバにて実現されていてもよい。そして、複数のサーバを適用する場合においては、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。
〔実施形態6〕
移動体制御装置1、1a、1b、1c、サーバ8、端末9の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、移動体制御装置1、1a、1b、1cの制御部2、サーバ8の制御部11a、端末9の制御部11bのそれぞれを、図9に示すようなコンピュータ(電子計算機)を用いて構成することができる。
図9は、移動体制御装置1、1a、1b、1cの制御部2、サーバ8の制御部11a、端末9の制御部11bとして利用可能なコンピュータ50の構成を例示したブロック図である。コンピュータ50は、バス56を介して互いに接続された演算装置51と、主記憶装置52と、補助記憶装置53と、入出力インターフェース54と、通信インターフェース55とを備えている。演算装置51、主記憶装置52、および補助記憶装置53は、それぞれ、例えばCPU、RAM(random access memory)、ハードディスクドライブやフラッシュメモリなどのストレージであってもよい。入出力インターフェース54には、ユーザがコンピュータ50に各種情報を入力するための入力装置60、および、コンピュータ50がユーザに各種情報を出力するための出力装置70が接続される。入力装置60および出力装置70は、コンピュータ50に内蔵されたものであってもよいし、コンピュータ50に接続された(外付けされた)ものであってもよい。例えば、入力装置60は、キーボード、マウス、タッチセンサなどであってもよく、出力装置70は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置60および出力装置70の双方の機能を有する装置を適用してもよい。そして、通信インターフェース55は、コンピュータ50が外部の装置と通信するためのインターフェースである。
補助記憶装置53には、コンピュータ50を移動体制御装置1、1a、1b、1cの制御部2、サーバ8の制御部11a、端末9の制御部11bとして動作させるための各種のプログラムが格納されている。そして、演算装置51は、補助記憶装置53に格納された上記プログラムを主記憶装置52上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ50を、移動体制御装置1、1a、1b、1cの制御部2、サーバ8の制御部11a、端末9の制御部11bが備える各部として機能させる。なお、補助記憶装置53が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。
また、上記プログラムは、コンピュータ50の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る移動体制御装置(1、1a、1b、1c)は、画像取得部(21)と、動作制御部(26)と、一つ以上のプロセッサ(制御部2)とを備え、前記画像取得部は、特定の移動体装置(端末9)の周囲の撮像画像を取得し、前記一つ以上のプロセッサは、前記画像取得部が取得した撮像画像を参照して前記移動体装置が配置されたシーンを推定するシーン推定処理と、前記推定したシーンに応じた前記移動体装置の動作を決定する動作決定処理と、前記移動体装置に前記決定した動作をさせる動作制御処理とを行う。
上記の構成によれば、特定の移動体装置が配置されたシーンを推定し、当該移動体装置に対し、当該シーンに合った動作を行わせることができる。
本発明の態様2に係る移動体制御装置は、上記態様1において、前記シーン推定処理は、前記撮像画像に含まれる物体を識別し、前記識別した物体の組み合わせに応じたシーンを推定するものであってもよい。
上記の構成によれば、特定の移動体装置が配置されたシーンを好適に推定することができる。
本発明の態様3に係る移動体制御装置は、上記態様2において、前記物体と前記シーンとの対応付けを示す対応付け情報を記憶する対応付け情報記憶部(シーンDB5b)をさらに備えており、前記シーン推定処理は、前記対応付け情報を参照して前記識別した物体の組み合わせに応じたシーンを推定するものであってもよい。
上記の構成によれば、特定の移動体装置が配置されたシーンを好適に推定することができる。
本発明の態様4に係る移動体制御装置(1a)は、上記態様1〜3において、前記移動体装置の位置情報を取得する位置情報取得部(27)をさらに備えており、前記シーン推定処理は、前記撮像画像に加えて、前記位置情報取得部が取得した前記位置情報をさらに参照して前記シーンを推定するものであってもよい。
上記の構成によれば、特定の移動体装置が配置されたシーンを好適に推定することができる。
本発明の態様5に係る移動体制御装置は、上記態様1〜4において、前記シーン推定処理は、前記シーンとして、前記移動体装置が配置された部屋を推定するものであってもよい。
上記の構成によれば、特定の移動体装置が家の中にいるときに、当該移動体装置が配置されたシーンを好適に推定することができる。
本発明の態様6に係る移動体制御装置は、上記態様1〜5において、前記シーンと前記動作の対応付けを示す第二の対応付け情報を記憶する第二の対応付け情報記憶部(動作DB5c)をさらに備えており、前記動作決定処理は、前記第二の対応付け情報を参照して前記推定したシーンに応じた動作を決定するものであってもよい。
上記の構成によれば、特定の移動体装置が配置されたシーンに応じた動作を好適に決定することができる。
本発明の態様7に係る移動体制御装置は、上記態様1〜6において、前記動作決定処理は、前記推定したシーンに応じた発話内容を決定するものであり、前記動作制御処理は、前記移動体装置に前記決定した発話内容を発話させるものであってもよい。
上記の構成によれば、特定の移動体装置の発話をより自然に行わせることができる。
本発明の態様8に係る移動体制御装置(1b)は、上記態様1〜7において、前記動作決定処理は、日時情報を参照して、前記推定したシーンに応じた動作を決定するものであってもよい。
上記の構成によれば、特定の移動体装置の発話をより自然に行わせることができる。
本発明の態様9に係る移動体制御装置(1c)は、上記態様1において、前記移動体装置に前記決定した動作をさせたことに対するユーザからの反応を検出する反応検出部(音声認識部29)と、反応記憶部(反応DB5d)とをさらに備え、前記シーン推定処理は、前記撮像画像に含まれる物体を識別し、前記識別した物体の組み合わせに応じたシーンを推定するものであり、前記一つ以上のプロセッサは、前記識別した物体の組み合わせ毎に、前記シーンを区別し、前記反応検出部が検出した反応の種類を、当該反応に対応する前記決定した動作および前記区別したシーンに対応付けて前記反応記憶部に記憶させ、前記動作決定処理は、前記反応記憶部に記憶されている前記区別したシーンに対応付けられた前記反応の種類を参照して、前記推定したシーンに応じた動作を決定するものであってもよい。
上記の構成によれば、特定の移動体装置の発話内容について、各シーンにおけるユーザの反応を細やかに反映させることができるため、当該移動体装置の発話をより自然に行わせることができる。
本発明の各態様に係る動作装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記動作装置が備える各部(ソフトウェア要素)として動作させることにより上記動作装置をコンピュータにて実現させる動作装置の動作プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明の態様11に係る移動体制御方法は、特定の移動体装置(端末9)の周囲の撮像画像を取得する画像取得工程(ステップS1)と、前記画像取得工程によって取得した撮像画像を参照して前記移動体装置(端末9)が配置されたシーンを推定するシーン推定処理工程(ステップS2〜ステップS5)と、前記シーン推定処理工程において推定したシーンに応じた前記移動体装置(端末9)の動作を決定する動作決定処理工程(ステップS6)と、前記移動体装置(端末9)に、前記動作決定処理工程において決定した動作をさせる動作制御処理工程と、を包含している。
上記の構成によれば、本発明の態様1と同様の効果を奏する。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 移動体制御装置
2 制御部(プロセッサ)
3 撮像部
4 音声出力部
5a 物体DB
5b シーンDB(対応付け情報記憶部)
5c 動作DB(第二の対応付け情報記憶部)
5d 反応DB(反応記憶部)
6 音声入力部
7a、7b 通信部
8 サーバ
9 端末(移動体装置)
10a、10b 記憶部
11a、11b 制御部
12 GPS
21 画像取得部
22 物体検出部
23 画像認識部
24 シーン推定部
25 発話内容決定部(動作決定部)
26 発話制御部(動作制御部)
27 位置情報取得部
28 日時取得部
29 音声認識部(反応検出部)
30 反応蓄積部
100 撮像画像
101、102 エリア

Claims (10)

  1. 画像取得部と、一つ以上のプロセッサとを備え、
    前記画像取得部は、特定の移動体装置の周囲の撮像画像を取得し、
    前記一つ以上のプロセッサは、
    前記画像取得部が取得した撮像画像を参照して前記移動体装置が配置されたシーンを推定するシーン推定処理と、
    前記推定したシーンに応じた前記移動体装置の動作を決定する動作決定処理と、
    前記移動体装置に前記決定した動作をさせる動作制御処理と
    を行い、
    前記移動体装置に前記決定した動作をさせたことに対するユーザからの反応を検出する反応検出部と、
    反応記憶部と
    をさらに備え、
    前記シーン推定処理は、前記撮像画像に含まれる物体を識別し、前記識別した物体の組み合わせに応じたシーンを推定するものであり、
    前記一つ以上のプロセッサは、
    前記識別した物体の組み合わせ毎に、前記シーンを区別し、
    前記反応検出部が検出した反応の種類を、当該反応に対応する前記決定した動作および前記区別したシーンに対応付けて前記反応記憶部に記憶させ、
    前記動作決定処理は、前記反応記憶部に記憶されている前記区別したシーンに対応付けられた前記反応の種類を参照して、前記推定したシーンに応じた動作を決定するものであることを特徴とする移動体制御装置。
  2. 前記シーン推定処理は、前記撮像画像に含まれる物体を識別し、前記識別した物体の組み合わせに応じたシーンを推定するものであることを特徴とする請求項1に記載の移動体制御装置。
  3. 前記物体と前記シーンとの対応付けを示す対応付け情報を記憶する対応付け情報記憶部をさらに備えており、
    前記シーン推定処理は、前記対応付け情報を参照して前記識別した物体の組み合わせに応じたシーンを推定するものであることを特徴とする請求項2に記載の移動体制御装置。
  4. 前記移動体装置の位置情報を取得する位置情報取得部をさらに備えており、
    前記シーン推定処理は、前記撮像画像に加えて、前記位置情報取得部が取得した前記位置情報をさらに参照して前記シーンを推定するものであることを特徴とする請求項1〜3の何れか一項に記載の移動体制御装置。
  5. 前記シーン推定処理は、前記シーンとして、前記移動体装置が配置された部屋を推定するものであることを特徴とする請求項1〜4の何れか一項に記載の移動体制御装置。
  6. 前記シーンと前記動作の対応付けを示す第二の対応付け情報を記憶する第二の対応付け情報記憶部をさらに備えており、
    前記動作決定処理は、前記第二の対応付け情報を参照して前記推定したシーンに応じた動作を決定するものであることを特徴とする請求項1〜5の何れか一項に記載の移動体制御装置。
  7. 前記動作決定処理は、前記推定したシーンに応じた発話内容を決定するものであり、
    前記動作制御処理は、前記移動体装置に前記決定した発話内容を発話させることを特徴とする請求項1〜6の何れか一項に記載の移動体制御装置。
  8. 前記動作決定処理は、日時情報を参照して、前記推定したシーンに応じた動作を決定するものであることを特徴とする請求項1〜7の何れか一項に記載の移動体制御装置。
  9. 移動体制御装置のための移動性制御プログラムであって、
    前記移動体制御装置は、画像取得部と、一つ以上のプロセッサとを備え、
    前記画像取得部は、特定の移動体装置の周囲の撮像画像を取得し、
    前記移動性制御プログラムは、前記一つ以上のプロセッサに、
    前記画像取得部が取得した撮像画像を参照して前記移動体装置が配置されたシーンを推定するシーン推定処理と、
    前記推定したシーンに応じた動作を決定する動作決定処理と、
    前記移動体装置に前記決定した動作をさせる動作制御処理とを実行させ
    前記移動体制御装置は、前記移動体装置に前記決定した動作をさせたことに対するユーザからの反応を検出する反応検出部と、反応記憶部とをさらに備え、
    前記シーン推定処理は、前記撮像画像に含まれる物体を識別し、前記識別した物体の組み合わせに応じたシーンを推定するものであり、
    前記移動性制御プログラムは、前記一つ以上のプロセッサに、
    前記識別した物体の組み合わせ毎に、前記シーンを区別し、
    前記反応検出部が検出した反応の種類を、当該反応に対応する前記決定した動作および前記区別したシーンに対応付けて前記反応記憶部に記憶させ、
    前記動作決定処理として、前記反応記憶部に記憶されている前記区別したシーンに対応付けられた前記反応の種類を参照して、前記推定したシーンに応じた動作を決定する処理を実行させることを特徴とする移動体制御プログラム
  10. 移動体制御装置が実行する移動体制御方法であって、
    特定の移動体装置の周囲の撮像画像を取得する画像取得工程と、
    前記画像取得工程によって取得した撮像画像を参照して前記移動体装置が配置されたシーンを推定するシーン推定処理工程と、
    前記シーン推定処理工程において推定したシーンに応じた前記移動体装置の動作を決定する動作決定処理工程と、
    前記移動体装置に、前記動作決定処理工程において決定した動作をさせる動作制御処理工程と、
    前記移動体装置に前記決定した動作をさせたことに対するユーザからの反応を検出する反応検出処理工程と、を包含しており、
    前記シーン推定処理工程において、前記撮像画像に含まれる物体を識別し、前記識別した物体の組み合わせに応じたシーンを推定し、
    前記識別した物体の組み合わせ毎に、前記シーンを区別するシーン区別処理工程と、
    前記反応検出処理工程において検出した反応の種類を、当該反応に対応する前記決定した動作および前記区別したシーンに対応付けて記憶する反応種類記憶処理工程と、をさらに包含しており、
    前記動作決定処理工程において、記憶している前記区別したシーンに対応付けられた前記反応の種類を参照して、前記推定したシーンに応じた動作を決定することを特徴とする移動体制御方法。
JP2018550031A 2016-11-08 2017-08-10 移動体制御装置および移動体制御プログラム Active JP6713057B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016218446 2016-11-08
JP2016218446 2016-11-08
PCT/JP2017/029022 WO2018087971A1 (ja) 2016-11-08 2017-08-10 移動体制御装置および移動体制御プログラム

Publications (2)

Publication Number Publication Date
JPWO2018087971A1 JPWO2018087971A1 (ja) 2019-09-26
JP6713057B2 true JP6713057B2 (ja) 2020-06-24

Family

ID=62110619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018550031A Active JP6713057B2 (ja) 2016-11-08 2017-08-10 移動体制御装置および移動体制御プログラム

Country Status (5)

Country Link
US (1) US11119722B2 (ja)
EP (1) EP3540591A4 (ja)
JP (1) JP6713057B2 (ja)
CN (1) CN109906435A (ja)
WO (1) WO2018087971A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11119722B2 (en) * 2016-11-08 2021-09-14 Sharp Kabushiki Kaisha Movable body control apparatus and recording medium
CN107766303A (zh) * 2017-10-23 2018-03-06 百度在线网络技术(北京)有限公司 向用户提供3d阅读场景
JP7278847B2 (ja) * 2019-04-19 2023-05-22 東芝ライフスタイル株式会社 遠隔操作システム、遠隔操作端末、遠隔操作プログラム
JP7417944B2 (ja) * 2020-07-21 2024-01-19 パナソニックIpマネジメント株式会社 自律走行型掃除機、自律走行型掃除機の制御方法、及び、プログラム
JP7558718B2 (ja) 2020-08-25 2024-10-01 日本信号株式会社 床掃除機
CN114371632A (zh) * 2021-12-29 2022-04-19 达闼机器人有限公司 智能设备控制方法、装置、服务器和存储介质
US12033340B2 (en) 2022-03-24 2024-07-09 Honda Motor Co., Ltd. System, information processing apparatus, vehicle, and method

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7640164B2 (en) * 2002-07-04 2009-12-29 Denso Corporation System for performing interactive dialog
JP3945356B2 (ja) 2002-09-17 2007-07-18 株式会社デンソー 音声対話装置及びプログラム
JP2004227276A (ja) 2003-01-23 2004-08-12 Advanced Telecommunication Research Institute International 人間のコミュニケーション行動記録システムおよび方法
JP2007150681A (ja) 2005-11-28 2007-06-14 Univ Waseda 位置特定システム及び位置特定方法
WO2009076203A1 (en) 2007-12-05 2009-06-18 Florida Gulf Coast University System and methods for facilitating collaboration of a group
US10086265B2 (en) * 2008-07-11 2018-10-02 Disney Enterprises, Inc. Video teleconference object enable system
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
JP5560794B2 (ja) * 2010-03-16 2014-07-30 ソニー株式会社 制御装置、制御方法およびプログラム
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US20130330693A1 (en) * 2011-02-15 2013-12-12 Axon Sports, Llc Interactive Cognitive Recognition Sports Training System and Methods
CN104718007A (zh) * 2012-10-04 2015-06-17 迪士尼企业公司 用于沉浸式环境的交互对象
JP2014137750A (ja) * 2013-01-17 2014-07-28 Hitachi Solutions Ltd 情報処理装置、情報処理システム及び情報処理プログラム
KR102236203B1 (ko) * 2014-05-27 2021-04-05 삼성전자주식회사 서비스를 제공하는 방법 및 그 전자 장치
US10341544B2 (en) * 2014-07-23 2019-07-02 Orcam Technologies Ltd. Determining a matching score between users of wearable camera systems
US9855658B2 (en) * 2015-03-19 2018-01-02 Rahul Babu Drone assisted adaptive robot control
CN105760106B (zh) * 2016-03-08 2019-01-15 网易(杭州)网络有限公司 一种智能家居设备交互方法和装置
US10678398B2 (en) * 2016-03-31 2020-06-09 Intel Corporation Prioritization for presentation of media based on sensor data collected by wearable sensor devices
US10068134B2 (en) * 2016-05-03 2018-09-04 Microsoft Technology Licensing, Llc Identification of objects in a scene using gaze tracking techniques
CN105856243A (zh) * 2016-06-28 2016-08-17 湖南科瑞特科技股份有限公司 一种移动智能机器人
US11119722B2 (en) * 2016-11-08 2021-09-14 Sharp Kabushiki Kaisha Movable body control apparatus and recording medium

Also Published As

Publication number Publication date
EP3540591A1 (en) 2019-09-18
US11119722B2 (en) 2021-09-14
US20190272143A1 (en) 2019-09-05
WO2018087971A1 (ja) 2018-05-17
CN109906435A (zh) 2019-06-18
JPWO2018087971A1 (ja) 2019-09-26
EP3540591A4 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
JP6713057B2 (ja) 移動体制御装置および移動体制御プログラム
US10628714B2 (en) Entity-tracking computing system
CN111543902B (zh) 地面清洁方法、装置、智能清洁设备和存储介质
US20200074179A1 (en) Information processing apparatus, information processing method, and program
JP4462339B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US10245732B2 (en) Reception system and reception method
CN114391163A (zh) 手势检测系统和方法
CN104508597A (zh) 用于控制扩增实境的方法及设备
KR20200024675A (ko) 휴먼 행동 인식 장치 및 방법
JP2009031951A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
CN111643017B (zh) 基于日程信息的清扫机器人控制方法、装置和清扫机器人
US10952658B2 (en) Information processing method, information processing device, and information processing system
JP6600359B2 (ja) モニタリング
CN109986553B (zh) 一种主动交互的机器人、系统、方法及存储装置
CN113497912A (zh) 通过语音和视频定位的自动取景
JP6855737B2 (ja) 情報処理装置、評価システムおよびプログラム
JP2009042910A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20180139592A1 (en) Information processing apparatus, information processing method, and program
JP2005199373A (ja) コミュニケーション装置及びコミュニケーション方法
JP2019192145A (ja) 情報処理装置、情報処理方法及びプログラム
EP3244293B1 (en) Selection option information presentation system and method
CN112426100B (zh) 一种控制方法、装置及存储介质
CN114202773A (zh) 活动检测方法、装置、电子设备以及存储介质
Chang et al. COMPUTER VISION-BASED ACTION MONITORING SYSTEM IN ASSEMBLY LINES
CN117270852A (zh) 虚实场景联合观测及解译方法及系统、介质、电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200602

R150 Certificate of patent or registration of utility model

Ref document number: 6713057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150