JP2019217558A - Interactive system and control method for the same - Google Patents
Interactive system and control method for the same Download PDFInfo
- Publication number
- JP2019217558A JP2019217558A JP2018114261A JP2018114261A JP2019217558A JP 2019217558 A JP2019217558 A JP 2019217558A JP 2018114261 A JP2018114261 A JP 2018114261A JP 2018114261 A JP2018114261 A JP 2018114261A JP 2019217558 A JP2019217558 A JP 2019217558A
- Authority
- JP
- Japan
- Prior art keywords
- person
- robot
- interest
- dialogue
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は対話システムに関し、特に、複数の人物が行き交う環境において利用され、対話対象となりうる人物を識別し、事前に対話の準備を行う対話ロボットシステム及び対話ロボットの制御方法に関するものである。 The present invention relates to a dialogue system, and more particularly to a dialogue robot system that is used in an environment where a plurality of people come and go, identifies a person who can be a dialogue target, and prepares for a dialogue in advance, and a dialogue robot control method.
近年、小売店や公共施設において、来店客に対し、従業員に代わって対話サービスを提供するロボットの開発が盛んである。特に人通りの多い環境でロボットを利用するにあたっては、ロボットは、周囲を行き交う複数の人物の中から対話対象となる人物を選択して、対応しなければならない。 2. Description of the Related Art In recent years, robots have been actively developed in retail stores and public facilities to provide interactive services on behalf of employees to visitors. In particular, when using a robot in an environment with many people, the robot must respond by selecting a person to be a conversation target from a plurality of people moving around.
ロボットが複数人の人物から対話対象を選択する技術が、特許文献1に記載されている。この特許文献1は、ロボット付近の領域内に存在する人物の関心度を定義し、関心度の高い人物を対話対象として選択している。ここでの関心度は、人物ごとの顔の向き、視線の向き、ジェスチャや発話の有無に応じてスコア付けがなされ、スコアに応じて対話対象の順位付けを行うものである。
A technology in which a robot selects a conversation target from a plurality of persons is described in
特許文献1における技術は、人物ごとの顔の向き、視線の向き、ジェスチャや発話の有無によりスコア付けを行っており、既にロボットの周囲に人物が集まっている状況において機能する。
The technique in
しかしながら、対話ロボットは、実際、人が行き交う環境下に設置されたり、それらの人物の中から対話対象となりうる人物を選択し、能動的に声掛けをしたり、実際に人物に声を掛けられる以前に体を向け、カメラで人物を撮像し認識するなど対話に備える必要がある。 However, a dialogue robot is actually installed in an environment where people come and go, selects a person who can be a conversation target from among those people, actively speaks, and can actually speak to the person It is necessary to turn to the body before and prepare for dialogue such as capturing and recognizing a person with a camera.
対話ロボットにとっては、あらかじめ指定された領域に人物が入り込む、ないしは実際に人物に声を掛けられるまでは、人物が対話対象になりえるかを判断することができない。また、ロボットは、指定された領域に入り込んだ人物が、そのまま素通りするのか、対話意思を持つのかは、実際に人物がロボットに話しかけられるまでに判定することに対応していない。 The interactive robot cannot judge whether a person can be a conversation target until the person enters a predetermined area or actually speaks to the person. In addition, the robot does not support determining whether a person who has entered a designated area passes through or has a dialogue intention before the person actually speaks to the robot.
そこで、本発明の課題は、ロボットが、複数人が行き交う環境下で利用される際、人物が対話意思や関心を持っているかを、ロボットが人物の関心度を判定し、事前に対話対象となる人物を絞り込む対話ロボットシステムおよび対話ロボットの制御方法を提供することである。 Therefore, the problem of the present invention is that when a robot is used in an environment where a plurality of people come and go, the robot determines the degree of interest of the person to determine whether the person has a dialogue intention or interest, and determines the degree of interest of the person beforehand. An object of the present invention is to provide a dialogue robot system and a control method of a dialogue robot for narrowing down persons.
上記課題を解決するための代表的な一側面は、周囲を撮像する撮像装置と、撮像装置からの画像情報から人物を検出し、検出された人物を前記撮像装置の複数の画像で追跡し、追跡された人物の関心度を、複数の画像における人物の顔の向きと胴体の向きの変化に基づいて算出し、算出された関心度に基づいて対話候補とする計算機とを有する。 A representative aspect for solving the above-described problem is an imaging device that images the surroundings, a person is detected from image information from the imaging device, and the detected person is tracked with a plurality of images of the imaging device. A computer that calculates the degree of interest of the tracked person based on changes in the orientation of the person's face and body in a plurality of images, and sets the degree of interest as a dialogue candidate based on the calculated degree of interest.
人物がロボットに接近する以前に、ロボットが自装置に対話意思ないしは関心を持つ人物を絞り込むことができる。 Before the person approaches the robot, the robot can narrow down persons who are willing or interested in talking to the own device.
以下、各実施例を、図面を用いて説明する。 Hereinafter, each embodiment will be described with reference to the drawings.
図1は、対話ロボットシステムの概略図である。人物が往来する環境下における、対話ロボットシステム(以下、対話システム)100の使用状態例を示す。対話システム100は、人物と対話する対話ロボット110と(以下、単にロボットと称する)、ロボット110からの信号に基づき、ロボット110を制御する遠隔サーバー130から構成されている。
FIG. 1 is a schematic diagram of the interactive robot system. An example of a use state of a dialogue robot system (hereinafter, dialogue system) 100 in an environment where a person comes and goes will be described. The
ロボット110は、カメラ120、スピーカ121、マイクアレイ122、内部サーバー123、表示装置124、駆動装置125、第1通信インターフェイス(以下、IFと示す)126を備えて構成される。遠隔サーバー130は、ロボット110の動作を制御するための制御信号を送る計算機であり、第1通信IF126と通信を行う第2通信IF131を備える。尚、第1通信I/F126、第2通信IF131は、無線インターフェイスであり、無線通信を利用してデータの送受信を行うLANシステム、例えば、IEEE 802.11に規定されるものがあげられる。第1通信IFと第2通信IFの間は、インターネット等のネットワークを介することもある。
The
カメラ120は画像を取り込む撮像装置であり、マイクアレイ122は環境音や人物の音声を取り込む。表示装置124は人物に情報を提示するもので、例えば、ディスプレイやプロジェクション映像である。また、ロボット110の顔や表情を表現してもよい。駆動手段125は、ロボット110の腕や足など関節に位置し、感情表現のための動作や、移動を実現する、例えばモーターや減速機である。
The
内部サーバー123は計算機であり、第1通信IF126を介して、カメラ120やマイクアレイ122で得たデータを遠隔サーバー130に送信する。また、遠隔サーバー130は第2通信IF131を備え、第1通信IF126から画像、音声データ、信号を受信し、受信信号に応じてロボット110を制御する信号を第2通信IF131、第1通信IF126を介してロボット110へと送信する。
The
尚、遠隔サーバー130のロボット110を制御する機能を内部サーバー123に処理させることもでき、その際は遠隔サーバー130、第1通信インターフェイス126は不要となり、ロボット110が独立して人物と対話する構成とすることができる。以上の構成の対話システムは、主として、ロボットの周囲の人物に対し、対話を働きかけたり、対話を行う対話ロボットとして利用される。
In addition, the function of controlling the
<システム構成例>
図2は、対話システム100を構成するロボット110と、遠隔サーバー130のシステムのハードウェア構成例を示す図である。
<System configuration example>
FIG. 2 is a diagram illustrating an example of a hardware configuration of a system of the
ロボット110はカメラ120と、マイクアレイ122と、第1出力デバイス140と搭載し、これらは内部サーバー123とバス129で接続されている。第1出力デバイス140は、スピーカ121と、表示装置124と、駆動装置125とを含む。内部サーバー123は第1プロセッサ127と、第1記憶デバイス128と、第1通信インターフェイス126と、それらを接続するバス129を有する。また、カメラ120は深度センサであってもよい。
The
第1プロセッサ127は、ロボット110に備わる出力デバイス140を制御し、内部サーバー123の機能を実現する。第1記憶デバイス128は、第1プロセッサ127の作業エリアとなり、機能を実現する各種プログラムとデータを記憶する非一時的なまたは一時的な記憶媒体である。第1記憶デバイス128は、例えばROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、GPU(Graphics Processing Unit)、フラッシュメモリがある。第1出力デバイス140としては、例えば表示装置124、スピーカ121がある。第1通信IF126は、遠隔サーバー130と無線通信するか、ネットワーク(図示せず)を介して接続し、データを送受信する。
The
カメラ120は、ロボット110の周囲を撮影する撮像デバイスであって、例えば、被写体までの距離を計測可能な3次元測量機能を備えていてもよい。駆動装置125は、たとえばモーターであってもよく、ロボット110を駆動させる機構である。例えば、ロボット110を歩行動作、ないしは車輪によって移動させてもよいし、ロボット110の腕や指を動かしロボット110の感情を表現してもよいし、首を振ることでカメラ120の向きを変える駆動装置である。
The
遠隔サーバー130は、第2通信IF131と、第2プロセッサ132と、第2記憶デバイス133と、これらを接続するバス134を有する。第2記憶デバイス133は、第2プロセッサ132の作業エリアとなり、第2記憶デバイス133は、遠隔サーバの機能を実現する各種プログラムやデータを記憶する非一時的なまたは一時的な記憶媒体である。第2記憶デバイス133としては例えばROM、RAM、HDD、GPU、フラッシュメモリがある。第2通信IF131は、ロボット110と無線通信するか、ネットワーク(図示せず)を介して接続し、データを送受信する。
The
<制御システムの機能的構成例>
図3は、対話システム100の機能的構成例を示すブロック図である。
<Example of functional configuration of control system>
FIG. 3 is a block diagram illustrating a functional configuration example of the
内部サーバー123はカメラ120からの画像データを受信する画像受信部120Aと、遠隔サーバー130とデータを送受するための第1通信IF126と、スピーカ121や表示装置124を制御する出力デバイス制御部303と、駆動装置125を制御する駆動制御部304と、を有する。出力デバイス制御部303と駆動制御部304とは、第1記憶デバイス128に記憶されたプログラムを第1プロセッサ127が実行することにより実現される。例えば、マイクアレイ122やスピーカ121を用いて、人物と会話をするよう出力デバイス制御部303による第1の出力デバイスの制御、駆動制御部304による駆動装置125の制御を実現する。また、ロボット110の感情表現のための動作や、ロボット110の移動を実現する。
The
遠隔サーバー130は、第2通信IF131と、人検出部312と、人特徴抽出部313と、人追跡部314と、時系列特徴抽出部315と、関心行動識別部316と、反応確認部317と、を有する。人検出部312と、人特徴抽出部313と、人追跡部314と、時系列特徴抽出部315と、関心行動識別部316と、反応確認部317のそれぞれの機能は、第2記憶デバイス133に記憶されたプログラムを第2プロセッサ132が実行することにより実現される。人特徴抽出部313は、頭検出部321と、頭方定部322と、胴方定部323とを有する。
The
カメラ120によって撮像されたロボット110の周囲の環境は、画像情報として画像受信部120A、第1通信IF126、第2通信IF131を介して遠隔サーバー130に送信される。
The environment around the
人検出部312は、カメラ120からの画像情報から人物が存在する領域を推定する。人物が存在する領域とは、人物の領域を囲う矩形の位置であってもよい。人検出部312で推定された領域、または領域内の画像情報は、人特徴抽出部313と、人追跡部314と、へ送信される。人検出部312にて実行される人検出処理は、現在公知のものとなっており、具体的には、画素ごとに周囲の画素値との勾配から人物の輪郭を特徴にし、存在を推定するものや、畳み込みフィルタを利用したConvolutional Neural Network(以下CNN)を利用し、人物の存在を示す矩形で表すものでもよい。人検出部312では、上述した技術を利用することで、複数人が存在している場合でも、人ごとに領域情報を取得することができる。
The
人特徴抽出部313では、例えば、人検出部312で得られた人ごとの領域に対し、人物の画像中における特徴を抽出する。人特徴抽出部313にて抽出される特徴は、画像情報一枚における人領域内の人ごとの特徴である。人特徴抽出部313では、具体的には、頭検出部321と、頭方定部322と、胴方定部323とを有する。人検出部312で得られた人物の特徴は、時系列特徴抽出部315にて、時間的に連続する人ごとの特徴を抽出する際に用いてもよい。
The human feature extraction unit 313 extracts, for example, a feature in an image of a person from a region for each person obtained by the
頭検出部321は、人検出部312により抽出された領域内での頭部の領域を検出する。頭部の領域は、具体的には、頭部を囲う矩形の位置であってもよく、CNN(Conventional Neural Network)に基づく検出器を用いる。なお、人物が正面を向いている際には、顔を検出してもよい。顔の検出に関しては、Harr−Like特徴を用いる。顔検出についてもCNNを利用した検出器を用いてもよい。
The
頭方定部322は、頭検出部321にて同定された頭部の領域内の情報を用いて頭部の方向を推定する。頭部の方向推定手法として、顔が利用可能な向きであれば、現在、画像処理において既知となっているような、顔の特徴点を抽出し、画像上の特徴点の配置から顔の方向を推定する手段を利用してもよい。また、上述の方向推定結果を基に得られた値に対し、閾値を定めることでカメラ120の方向を向いているか、向いていないかの2値の識別を行ってもよい。また、例えば、人の頭部画像CNNを入力とし、頭部の方向を出力する識別器を利用して学習したり、方向の値を直接出力してもよいし、もしくは、方向推定を行う識別器を事前に学習し、実行時には識別器の中間層の特徴量を利用してもよい。
The
胴方定部323は、人検出部310から得られる領域内で人物の体の方向を推定する。体の方向を推定する手段として、カメラ120が深度センサであるならば、深度画像を入力とする機械学習の推定を基に人物の骨格を推定し、推定された骨格の位置を基に体の方向を決定する。もしくは、人物の画像と、それに対応する体の向きのラベル付与した多数の事例を用い、体の向きを推定する識別器を作成し、判定に用いてもよい。このとき、前述の識別器は、方向値を直接出力してもよいし、識別器の中間層出力を出力してもよい。
The
人特徴抽出部313は、上述の説明では、一例として、頭方向、胴体方向と分けて出力したが、人が写る画像と、それに対応するラベルを基に識別器を作成することもできる。具体的には、人の画像と、その人物が実際に対話したか否かのラベルを事例として集めておき、事例を基準に判断してもよい。 In the above description, the human feature extraction unit 313 outputs the head direction and the body direction separately, for example. However, the human feature extraction unit 313 can also create a classifier based on an image of a person and a label corresponding to the image. Specifically, images of a person and labels indicating whether or not the person actually interacted may be collected as cases, and the judgment may be made based on the cases.
人追跡部314では、人検出部313にて推定された人領域に基づいて、連続する画像フレーム間で同一人物の対応を取る。連続するフレーム間での、人追跡技術は、人検出部313の出力の領域内での特徴量と、連続するフレームでの特徴量とを比較し、類似する特徴であるならば同一人物としてもよく、フレーム間の対応付けを行う。
The
時系列特徴抽出部315では、人特徴抽出部313と人追跡部314とから人物ごとに、時系列的な行動特徴を抽出する。具体的には、胴方定部323の複数の時間フレームにわたる胴方向の推移から、人物の移動方向を抽出する。また、ロボット110に接近してくる、もしくは、素通りする人物の時系列特徴を抽出してもよい。この具体的処理については後述する。
The time-series
関心行動識別部316は、時系列特徴抽出部315において抽出した時系列特徴を基に、画像中の人物ごとにロボット110への関心度を持つかを識別し、人物が対話候補であるかを判定する。人物の関心度が高いと判定された場合、人物を対話候補であると判定し、第2通信IF131と、第1通信IF126を介して、出力デバイス制御部303と駆動制御部304に対して制御信号を送る。制御信号については、後述する。
The interest
制御信号を受け取った出力デバイス制御部303は、第1出力デバイス140のスピーカ121と、表示装置124を制御し、駆動制御部304は、駆動装置125を制御する。出力デバイス制御部303は、人物に対して、たとえば、表示装置124の表示の変更や、スピーカ121からの声かけを行う。駆動制御部304は、駆動装置125を制御することで手招きなどの動作など、働きかけを行う。
The output
反応確認部317では、例えば、出力デバイス制御部303にて制御された第1出力デバイス140のスピーカ121と、表示装置124と、駆動制御部304にて制御された駆動装置125と、による働きかけを行われた人物の反応を確認する。出力デバイス制御部303と、駆動制御部304と、により、働きかけが行われた時刻に近い時刻で、働きかけに相関のある人物の反応に変化が得られるかを検出してもよい。
In the
<対話対象識別のための処理>
図7は、対話システム100が対話対象となる人物を識別するため実行されるフローチャートを示す。
<Process for identifying conversation target>
FIG. 7 shows a flowchart executed by the
まず、ステップS701では、ロボット110のカメラ120は、周囲の画像を撮影し画像情報を遠隔サーバー130の人検出部311に送信する。人検出部311では送信された画像情報を取得する。
First, in step S701, the
次にステップS702では、人検出部312は、取得した画像情報を基に、人検出処理を実行する。この人検出処理において、人検出部312は、人物が存在するかを判定し、存在する場合は、人物の領域を例えば、矩形領域といった形で、人物ごとに個別に取得することになる。
Next, in step S702, the
次いで、ステップS703では、人追跡部314は、人検出部312の出力を受け、現在の取得フレームに検出された人物が、直近の過去の取得フレームにて検出されたかを判定し、フレーム間の人物対応付けを行う。一方で直近の過去の取得フレームに該当する人物が存在しない場合は、人追跡部314は、新たな人物を検出したものとし、第2記憶デバイス133に新たな人物として登録する。新たな人物について特徴を記憶し、次回以降の取得フレームで、人追跡部314は対応付けを実行する。ここで用いられる人追跡技術は、例えば、人物の領域内の画像特徴量の類似度を測ることで実現される。人追跡技術では、遮蔽物などで画像から追跡対象を見失ったとしても、その後追跡対象が出現した場合に、追跡を続行できる場合があることが知られている。
Next, in step S703, the
次に、ステップS704にて、時系列特徴抽出部315と関心行動識別部316は、人物がロボット110に対して対話の意思、ないしは、関心を持つかを判定し、人物を対話候補とする第一の推定処理01を行う。第一の推定処理01にて対話の意思、ないしは関心を持つと判断された人物は、対話候補となる(S705)。ステップS704の具体的処理については後述する。
Next, in step S704, the time-series
ステップS706では、第一の推定処理01によって、対話候補と判定された人物に対して、ロボット110は、働きかけを行う。働きかけの具体的な処理については後述する。
In step S706, the
ステップS707では、反応確認部317は、ステップS706にて働きかけたロボット110の行動に対する人物の反応を観測し、働きかけに対する反応を確認したならば対話対象であると判定する。
In step S707, the
ステップS708では、ステップS707において、対話対象と判定された人物と対話を行う準備を行う。具体的には、例えば、駆動装置125がロボット110の移動機能を有しているのであれば、対話を行う前に対話対象に歩み寄ってもよい。または、駆動装置125がロボット110の旋回機能を有しているのであれば、対話を行う前に事前にロボット110の体の向きを対話対象に向けてもよい。このとき、カメラ120を人物に向け、人物の画像を正面から撮像してもよい。撮像した人物の画像に対し、第1記憶デバイス128もしくは、第2記憶デバイス133が、人物の外見的特徴を推定する手段を備えているのであれば、対話を行う前に推定を行ってもよい。ここでの外見的特徴とは、例えば顔画像を基にした人物の年齢や性別である。
In step S708, preparations are made for a dialogue with the person determined to be a dialogue target in step S707. Specifically, for example, if the
ステップS709では、実際には対話意図を持つ人物を、誤って対話意図を持たないと判定した場合、ロボット110は、該当人物に接近され、話しかけられた場合に対応する例外処理を行う。
In step S709, when it is determined that a person who actually has a dialogue intention does not have a dialogue intention, the
ステップS710では、第二の推定処理02によって、対話対象であると判定された人物、ないしはステップS709にてロボット110に話しかけてきた人物に対して、例えば、スピーカ121によるロボット110の発話と、駆動装置125によるロボット110のジェスチャ、表示装置124による情報提示などにより、対話サービスを提供する。人物との対話において、ロボット110は、例えばステップS708にて撮像した人物の画像から判定された例えば年齢性別など外見的特徴を基に、例えば口調を変えてもよい。
In step S710, for the person determined to be the conversation target by the second estimation process 02, or the person who talked to the
実施例1では、人物のロボット110に対する対話意思、ないしは関心を、ステップS704の第一の推定部と、ステップS707の第二の推定部と、を用いた2段階の判定を行うことで人物の対話意図、ないしは関心度を精度よく算出できる。
In the first embodiment, a person's dialogue intention or interest in the
<第一の推定処理01の具体的処理>
図4は、第1の推定処理01の具体的処理手順を示したフロー図である。第1の推定処理01は、人検出部312にて、人物を検出し、人追跡部314にて、フレーム間にて追跡が可能となった人物から、ロボット110への対話意思ないしは、関心度を推定し、対話候補を判定するためのものである。
<Specific processing of the first estimation processing 01>
FIG. 4 is a flowchart showing a specific processing procedure of the first estimation processing 01. In a first estimation process 01, a
まず、ステップS404では、頭検出部321と頭方定部322により、人物の頭部の領域から、頭部の方向を推定して、こちらを向いているか識別する。こちらを向いているかの判定は、頭方定部322にて推定された人物の頭の向きと、こちらを向いているかを判定するための閾値を定め、その大小関係から、こちらを向いているかを判定する。また、こちらを向いている、顔もしくは頭の事例と、そうでいない顔もしくは頭の事例を集め、識別器を作成して判定に利用してもよい。
First, in step S404, the
ステップS405では、ステップS404にて第2プロセッサ132が、頭部がこちらを向いていると判定した時刻Tfを、第2記憶デバイス133に記録する。
In step S405, the
ステップS406では、胴方定部323と時系列特徴抽出部315とにより、人物がこちらに向かう動きか、離れる動きか、素通りか、人物の進行方向を判定する。判定には、人物の移動ベクトルを抽出して判断する。あるいは、人物の移動の事例を集め、識別器を作成したのち、判定に利用してもよい。
In step S <b> 406, the body
ステップS407において、関心行動識別部316は、現在のフレームにおける、人物ごとのロボット110への関心度を計算する。例えば、頭がこちらを向いていること、人物の胴体が接近動作であることにより、スコアを加算してもよい。
In step S407, the interest
他のスコアの算出方法については、接近動作であるが、頭がこちらを向いていない場合、時刻Tfと現在時刻の差分に応じた減衰を考慮したスコアを加算することもできる。また、接近動作であると判断できない素通り動作ならば、スコアを加算しないようにすることもできる。他には、ステップS407にて算出されたスコアを、関心行動識別部316は、各人物に対し、複数にわたって算出されたスコアに時間平均し加算することで、対象となる人物の関心度としたり、人物が後頭部をみせ、遠ざかる動作を所定時間継続するならば、関心行動識別部316は、スコアをリセットないしは、減算してよい。
Another method of calculating the score is an approaching motion, but when the head is not facing this direction, a score that takes into account the attenuation according to the difference between the time Tf and the current time can be added. If the operation is a straightforward operation that cannot be determined to be an approaching operation, the score may not be added. Alternatively, the interest
図8は、ロボットと人物の位置関係の変化と関心度の関係を示す図である。ロボット110と、所定の時間内における人物の挙動の変化により、関心行動識別部316は人物の関心度を算出する。
FIG. 8 is a diagram illustrating the relationship between the change in the positional relationship between the robot and the person and the degree of interest. The interest
図8(a)は、所定時間内に、人物が位置810から、ロボットへ向かう経路812を経て、位置811へと移動した例である。このとき、人物の頭部の向きはロボット110の方向を向いている。この例では、関心行動識別部316は、対話意思があるとし関心度(対話意志スコア)を加算する。
FIG. 8A shows an example in which a person has moved from a
図8(b)は、所定時間内に、人物が位置820から、ロボットへ向かう経路822を経て、位置821へと移動した例である。このとき、位置820では、人物の頭部はロボット110を向いていたが、位置821において、ロボット110の方向を向いていない。関心行動識別部316は、関心度スコアを減衰したうえで加算する。
FIG. 8B shows an example in which a person has moved from a
図8(c)は、人物が位置830から経路832を経て、位置831へと移動し、ロボットへ頭部を向けていない例である。このとき、関心行動識別部316は、関心度のスコアを加算しない。
FIG. 8C illustrates an example in which a person moves from a
図8(d)は、人物が位置840から、ロボットから遠ざかる経路842を経て、位置841へと至り、人物の頭部がロボットを向いていない場合である。このとき、関心行動識別部316は、人物の対話意思ないしは関心度のスコアをリセットする。あるいは、減算してよい。
FIG. 8D illustrates a case where the person reaches the
次いでステップS408にて、関心行動識別部316は、複数のフレームにわたって算出された(ステップS407にて算出される)スコアを用いて、人物のロボット110への対話意思ないしは、関心度とする。尚、算出された関心度は、第2記憶デバイス133に、図10に示すように格納される。
Next, in step S408, the interest
図9は、ロボット110に対する人物の3フレーム分の移動の様子を示したものである。また、図10は、ロボット110に対する人物の3フレーム分の移動について、関心度の算出例を示した表である。それぞれのケースにおいて、図8でのスコア付けを基に、人物の接近行動、頭の向きを用いて、人物の挙動から、関心行動識別部316における、対話意思、ないしは関心度の算出手法の一例を示している。図10では、それぞれのフレームごとのスコア付けとして1フレーム目のスコアをC1、2フレーム目のスコアをC2、3フレーム目のスコアをC3、ないしは3フレーム分のスコア付けの一例として、時間平均したスコア付けを示している。図10の関心度は、第2の記憶デバイス133に記憶され、実際にロボット110が利用される場面でも、同様の関心度表として利用できる。即ち、複数人の人物が行き交う環境下で、カメラ120により撮像された複数の人物を識別するためのIDは(A)〜(D)で、各人物の時間平均の関心度を同様に求めてテーブルとして管理する。
FIG. 9 shows how a person moves by three frames with respect to the
図9(a)は、人物がロボット110へ接近する、3フレーム分の様子を示している。経路901と、経路902と、経路903と、はそれぞれのフレームの人物の移動経路を示しており、それぞれのフレームにおいて、人物の頭はロボット110を向いており、人物は、ロボット110方向へと接近している。これは図8(a)の動きに対応し、関心行動識別部316は、この動きのスコアを「1」とする。それぞれのフレームにおけるスコアはC1=1、C2=1、C3=1となり、3フレーム分の人物の挙動から対話意図を、時間平均で評価すると「1」となる。
FIG. 9A shows a state in which a person approaches the
図9(b)では、人物がロボット110を素通りする行動のうち3フレーム分の様子を示している。経路911と、経路912と、経路913と、はそれぞれのフレームの人物の移動経路を示しており、図8(c)の動きに対応し、関心行動識別部316はスコアを例えば0とする。このとき、関心行動識別部316は、それぞれのフレームにおけるスコアをC1=0、C2=0、C3=0となり、3フレーム分の挙動から対話意図を、時間平均で評価すると「0」となる。
FIG. 9 (b) shows three frames of the behavior of the person passing through the
図9(c)では、人物がロボット110へ接近する行動のうち、3フレーム分の様子を示している。人物は当初、頭部をロボット110へ向けている。その後の移動経路921、経路922、経路923においてロボット110へ接近する行動であるが、頭部はロボット方向を向いておらず、図8(b)の動きに対応している。経路921では、頭部がロボット方向を向かなくなってから1フレーム経過した接近動作であるため、関心行動識別部316は、スコアをC1=1/1とする。経路922では、頭部がロボット110方向を向かなくなってから2フレーム経過した接近動作であるため、スコアをC2=1/2とする。経路923では、人物の頭部がロボット110方向を向かなくなってから3フレーム経過しているため、スコアをC3=1/3とする。図9(c)の3フレーム分の挙動から対話意図を評価すると、関心行動識別部316は、例えば時間平均で11/18とスコアをつけることになる。
FIG. 9C shows three frames of the action of the person approaching the
図9(d)では、人物のロボット110前での挙動のうち、3フレーム分の動作を示している。経路941でロボット110へと頭を向け接近する図8(a)の動作であり、経路942でロボット110に対して頭部を背け、経路943でロボット110から遠ざかる図8(d)の動作である。関心行動識別部316は、経路941のスコアC1=1である。経路942では、立ち止まり行動であるため、スコアC2=0とし、経路943では、頭を背け遠ざかる動作であるため、スコアをリセットする。そのため、図9(d)では、人物の対話意図は、図8(d)の動作によりリセットされ、関心行動識別部316は、時間平均で評価するなら関心度スコア「0」となる。
FIG. 9D shows three frames of the behavior of the person in front of the
関心行動識別部316は、時系列特徴抽出部315にて抽出した特徴を基に、人物がロボット110に対して対話意思ないしは関心を持つかを識別し、スコアを算出する。この際、算出されるスコアは、複数人の人物が行き交う環境下で、ロボット110が対話候補を選択するための順位付けに用いることができる。また、ここでは、閾値を設け、閾値を超えない人物を順位付けから除外することもできる。例えば、図9と図10の例では、閾値を0.5とすることで、(a)と(c)を対話候補として識別でき、順位付けを行い、素通りする人物(b)や、遠ざかる人物(d)を対話候補から除外できる。また、閾値を上げて例えば、0.7とすることで、よそ見をしながら近づいてくる(C)を対話候補から除外することもできる。ロボット110の前を素通りする人物に対しては、ロボット110は対話候補とみなさないとすることができため、計算処理を単純化し、関心度スコアの処理速度を高速化させることができる。複数人が候補対象となる場合、計算した関心度の上位2名といった具合に、人物の関心度の相対評価により対話候補とすることもできる。
The interest
なお、図4では、第1の推定処理01の一例を示したが、関心行動識別部316は、これに限らず深層学習を利用した関心度の尤度を推定してもよい。
Although FIG. 4 illustrates an example of the first estimation process 01, the interest
時系列特徴抽出部315では、具体的には、ロボット110の付近を行き交う人物の動作を動画像として入力する。動画像は連続する画像の集合であり、人特徴抽出部313が画像フレームごとに人物の特徴量を抽出する。ここで抽出される特徴量は、頭方定部321が出力する頭方定部特徴量、胴方定部323が出力する胴方定部特徴量、頭方定部特徴量と胴方定部特徴量とを一つにまとめた特徴量であってもよい。その後、関心行動識別部316は、各フレームの特徴量を動画像の全フレームから抽出し、関心度の尤度を出力してもよい。このとき、教師データとしては入力として、ロボットの前を行き交う人物の動画像とし、実際に来たかどうかの教師ラベルの事例を基に識別器を作成し、判定に用いてもよい。なお、上述した手法は接近してくる人物の対話意図を識別する手段の一例であり、これらに限らない。
Specifically, the time-series
<働きかけの具体的処理>
図5は、関心度を持つと判断された対話候補に対してロボットが働きかけの方法を選択するためのフローチャートである。具体的には、対話候補が存在する際にロボット110に対して送信される制御信号によって、出力デバイス制御部303と、駆動制御部304ともより制御することになる。この処理は、第2のプロセッサ132が第2の記憶デバイス133に格納されたプログラムを実行することにより行われる。ここでは、制御信号による制御対象は関心を持つ人物の人数によって変更してもよい。
<Specific processing of approach>
FIG. 5 is a flowchart for selecting a method for the robot to work on a dialogue candidate determined to have a degree of interest. Specifically, the output
まず、ステップS501では関心行動識別部316は、対話候補が存在するかを判定する。対話候補が存在しない場合、制御信号を送信することはない。
次に、ステップS502では、関心行動識別部316は、対話候補が複数存在するかを判定する。対話候補が複数か一人かに応じて、制御する出力デバイス104もしくは駆動装置125を選択するためである。
First, in step S501, the interest
Next, in step S502, the interest
次に、対話候補が複数存在しない場合にはステップS503に進み、人検出部313は、人物が複数存在するかを判定する。 Next, when there is no plurality of conversation candidates, the process proceeds to step S503, and the person detection unit 313 determines whether there are a plurality of people.
次に、人物が一人だけの場合ステップS504に進み、関心行動識別部316は出力デバイス制御部303に対してスピーカ121を制御するよう制御信号を送る。具体的には、あいさつなどの声掛けを行うよう制御する。
Next, when there is only one person, the process proceeds to step S504, and the interest
ステップS503で人物が複数存在すると判断された場合、或いは、ステップS502で対話候補が複数存在すると判断された場合、ステップS505に進む。ステップS505では、関心行動識別部316は出力デバイス制御部303に対し、第1の出力デバイス140の内、表示装置124に対する制御信号を送る。これにより、表示装置124にロボットの顔を表示するなどの描画や、表情を変更するなどをして、関心度の高い対話候補に働きかけを行う。また、駆動制御部304は、駆動装置125を制御するのであれば、具体的には、関心度の高い人物に向かい、手を振る、会釈などしてロボット110の対話の意思を表現してもよい。
If it is determined in step S503 that there are a plurality of persons, or if it is determined that there are a plurality of dialogue candidates in step S502, the process proceeds to step S505. In step S505, the interest
ここで、制御対象を周囲の人数に応じて分けた理由は、声掛けは、関心度の低い人物の注意をひいてしまう恐れがあり、関心行動識別部316の判定結果への影響を避けるためである。なお、対話候補が一人のみ存在する場合には遠くから声を掛けてもよい。
Here, the reason why the control target is divided according to the number of people in the vicinity is that there is a fear that the voice call may draw attention of a person with a low degree of interest, so as to avoid affecting the determination result of the interest
<第二の推定処理02の具体的処理>
反応確認部317は、出力デバイス制御部303、もしくは、駆動制御部304により働きかけた人物の反応を観測する。これにより、反応確認部317は、第2の推定処理02を実現し、対話候補の中から対話対象となりうる人物を抽出する。
<Specific processing of the second estimation processing 02>
The
図6は、出力デバイス制御部303と駆動制御部304とによる、対話候補への働きかけを行った際の第2の推定処理02を示したフローチャートである。
FIG. 6 is a flowchart illustrating a second estimation process 02 performed by the output
まずステップS601では、出力デバイス制御部303と駆動制御部304は、出力デバイス140を制御することで、対話候補となる人物に働きかけを行う。このステップでは、第1プロセッサ127は、第1記憶デバイス128にて、働きかけを行った時刻Taを記憶する。この時刻Taは、第2記憶デバイス133に記録してもよい。
First, in step S601, the output
次に、ステップS602では、反応確認部317は、ステップS601にて制御されたロボット110の働きかけに対する対話候補の反応の変化を判定する。具体的には、反応確認部317は、頭方定部322にて時間ごとに検出される頭の向きが、時刻Taに対して、例えば1秒以内など、極めて近い時刻以内にロボット110方向に向くように変化した際には、ロボット110のアクションに対する対話候補の反応であるとし、対話候補を対話対象であると判定する。また、例えば、反応確認部317は、胴方定部323にて、時刻Taに対して、例えば5秒以内など、近い時刻で、対話候補の進行方向がロボット110方向へ変更されると判定される、ないしは、ロボット110方向に向かうまま変更しないと判定されるのであれば、対話対象と判定する。
Next, in step S602, the
次に、ステップS603では、反応確認部317は、ステップS602にて対話対象と判定された人物に対して、ロボット110があらかじめ体を向けたり、或いは、人物に向かって移動するよう駆動制御部304に制御信号を送る。出力デバイス制御部303に対し、スピーカ121を用いて、対話対象に声を掛けるよう制御信号を送信してもよい。
Next, in step S603, the
ステップS602にて、反応確認部317が、対話候補の反応を確認できず、対話対象として判定できなかった際に、時系列特徴抽出部315は、対話候補の人物がロボット110へと接近するか否かを判断する(ステップS604)。ここでの接近とするか否かの判断は、ロボット110の周囲の領域に対話候補人物が進入侵入したかにより判断する。この領域の広さは、対象となる人物のロボットへの接近速度に応じて変化するものであってさせることもできる。また、一定時間経ってもよい対象が接近しない場合や、対象人物がロボット110から一定の距離はなれば場合には、当該人物に対する処理は終了する。
In step S602, when the
最後にステップS605では、ステップS603にて対話対象であると判定された人物に対して、対話を行う準備を行う。例えば、人物との対話の開始にあたって、駆動装置125は、ロボット110の旋回機能を有しているのであれば、対話対象に対して、ロボット110に正対姿勢を取らせる。また、駆動装置125が移動手段を含む場合には、駆動制御部304は、ロボット110を対話対象の近くまで接近させ、その後、出力デバイス制御部303は、たとえばスピーカ121を用いて、対話対象に声を掛けてもよい。
Finally, in step S605, preparations are made for a dialogue with the person determined to be a dialogue target in step S603. For example, at the start of a dialogue with a person, if the
領域は、具体的には、たとえば、ロボット110が正対姿勢を取るのであれば、その動作を完了するために必要な時間と、対話候補の接近速度を基に決定する可変の領域の範囲であるとしてよい。
Specifically, for example, if the
以上のように、本実施の形態に示す対話システム100によれば、遠方より接近してくる複数の人物の接近動作の特徴から対話候補とする第1の推定と、対話候補に働きかけを行うことで、これに対する対話候補の反応行動から対話対象とする第2の推定により、ロボットが、複数人が行き交う環境下で利用される際、人物が対話意思や関心を持っているかを、人物がロボットに接近前に判定し、事前に対話対象となる人物を絞り込む対話ロボットシステムおよび対話ロボットの制御方法を提供することができる。また、ロボットが能動的に人物を選択して話しかけることができるため、人物に効果的に対話対象とすることができる。さらに、接近される前にカメラを向けるなどし、人物の認識のための処理を実行することで、人物の外見的特徴を対話開始前に抽出可能となり、対話内容に反映させることができる。
As described above, according to the
100:対話システム、110:ロボット、120:カメラ、121:スピーカ、122:マイクアレイ、123:内部サーバー、124:表示装置、125:駆動部、126:第1通信IF、127:第1プロセッサ、128:第1記憶デバイス、130:遠隔サーバー、131:第2通信IF、132:第2プロセッサ、133:第2記憶デバイス、140:第1出力デバイス、303:出力デバイス制御部、304:駆動制御部、312:人検出部、313:人特徴抽出部、314:人追跡部、315:時系列特徴抽出部、316:関心行動識別部、317:反応確認部、321:頭検出部、322:頭方定部、323:胴方定部。 100: Dialogue system, 110: Robot, 120: Camera, 121: Speaker, 122: Microphone array, 123: Internal server, 124: Display device, 125: Drive unit, 126: First communication IF, 127: First processor, 128: first storage device, 130: remote server, 131: second communication IF, 132: second processor, 133: second storage device, 140: first output device, 303: output device control unit, 304: drive control Section, 312: person detection section, 313: person feature extraction section, 314: person tracking section, 315: time series feature extraction section, 316: interest behavior identification section, 317: reaction confirmation section, 321: head detection section, 322: Head part fixed part, 323: Body part fixed part.
Claims (14)
前記撮像装置からの画像情報から人物を検出し、前記検出された人物を前記撮像装置の複数の画像で追跡し、前記追跡された人物の関心度を、前記複数の画像における前記人物の顔の向きと胴体の向きの変化に基づいて算出し、前記算出された関心度に基づいて対話候補とする計算機とを有することを特徴とする対話システム。 An imaging device for imaging the surroundings;
Detecting a person from the image information from the imaging device, tracking the detected person in a plurality of images of the imaging device, the degree of interest of the tracked person, the face of the person in the plurality of images A dialog system comprising: a computer that calculates a change based on the change in the orientation and the orientation of the torso and sets the computer as a dialog candidate based on the calculated degree of interest.
前記ロボットは、表示装置及び駆動装置の何れか一つを有し、
前記計算機は、前記対話候補に対して前記スピーカ、前記表示装置、及び前記駆動装置の何れかによる働きかけを行う制御信号を送信し、所定時間内に前記対話候補から反応があったと判定された人物を対話対象とすることを特徴とする請求項1記載の対話システム。 A robot having the imaging device and a speaker;
The robot has one of a display device and a driving device,
The computer transmits a control signal for causing the speaker, the display device, or the driving device to act on the interaction candidate, and a person determined to have received a response from the interaction candidate within a predetermined time. 2. The dialogue system according to claim 1, wherein the target is a dialogue target.
前記計算機は、前記撮像装置からの画像情報に複数の人物が撮像されている場合は、人物ごとに関心度を計算し、前記複数の人物の内から関心度が閾値より高い人物が複数の場合、前記ロボットの前記表示装置の表示切替制御を行うことを特徴とする請求項1記載の対話システム。 A robot having the imaging device and a display device;
The computer calculates a degree of interest for each person when a plurality of persons are imaged in the image information from the imaging device, and when a plurality of persons whose degree of interest is higher than a threshold value among the plurality of persons, The interactive system according to claim 1, wherein display control of the display device of the robot is performed.
前記撮像装置は前記駆動装置による旋回により、前記対話対象となる人物を正面より撮像することを特徴とする請求項2記載の対話システム。 The driving device turns the robot,
The interactive system according to claim 2, wherein the imaging device images the person to be interacted with from the front by turning by the driving device.
前記ロボットに搭載された撮像装置により周囲を撮像し、前記計算機が前記撮像された撮像装置によって撮像された画像情報から人物を検出し、前記検出された人物を追跡し、前記追跡された人物の関心度を、前記複数の画像における前記人物の顔の向きと胴体の向きの変化に基づいて算出し、前記算出された関心度に基づいて対話候補とすることを特徴とする対話システムの制御方法。 A control method for a dialogue system having a robot and a computer,
The surroundings are imaged by an imaging device mounted on the robot, the computer detects a person from image information imaged by the imaged imaging device, tracks the detected person, and tracks the detected person. A control method for a dialogue system, comprising: calculating a degree of interest based on a change in the orientation of the person's face and body in the plurality of images, and using the calculated degree of interest as a dialogue candidate. .
前記ロボットの周囲を撮像する撮像装置と、
前記撮像装置からの画像情報から人物を検出する人物検出部と、
前記撮像装置からの複数の画像から同一人物を追跡する人追跡部と、
前記人追跡部により追跡された人物の前記ロボットに対する関心度を、前記複数の画像における前記人物の顔の向きと胴体の向きの変化に基づいて算出する時系列特徴抽出部と、前記算出された関心度に基づいて対話候補とする関心行動識別部とを有することを特徴とする対話システム。 In a dialogue system using a robot installed in an environment where multiple people come and go,
An imaging device for imaging the periphery of the robot,
A person detection unit that detects a person from image information from the imaging device,
A person tracking unit that tracks the same person from a plurality of images from the imaging device,
A time-series feature extraction unit that calculates the degree of interest of the person tracked by the person tracking unit with respect to the robot based on changes in the orientation of the person's face and body in the plurality of images; A dialogue system comprising: an interest behavior identification unit that determines a dialogue candidate based on the degree of interest.
前記対話候補に対し、前記出力デバイス或いは駆動装置の何れかを制御することで、前記人物に対して働きかけ、前記人物が前記働きかけに対し反応の有無を確認する反応確認部とを有することを特徴とする請求項13記載の対話システム。 The robot has at least one of an output device or a driving device,
By controlling either the output device or the driving device with respect to the dialogue candidate, there is provided a reaction confirming unit for acting on the person and confirming whether or not the person has responded to the act. The interactive system according to claim 13, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018114261A JP7045938B2 (en) | 2018-06-15 | 2018-06-15 | Dialogue system and control method of dialogue system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018114261A JP7045938B2 (en) | 2018-06-15 | 2018-06-15 | Dialogue system and control method of dialogue system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019217558A true JP2019217558A (en) | 2019-12-26 |
JP7045938B2 JP7045938B2 (en) | 2022-04-01 |
Family
ID=69095340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018114261A Active JP7045938B2 (en) | 2018-06-15 | 2018-06-15 | Dialogue system and control method of dialogue system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7045938B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021083981A (en) * | 2019-11-29 | 2021-06-03 | 株式会社三洋物産 | Game machine |
CN112905780A (en) * | 2021-03-31 | 2021-06-04 | 闽江学院 | Artificial intelligence dialogue device |
CN112905781A (en) * | 2021-03-31 | 2021-06-04 | 闽江学院 | Artificial intelligence dialogue method |
CN113126629A (en) * | 2021-04-29 | 2021-07-16 | 清华大学深圳国际研究生院 | Method for robot to actively search target and intelligent robot |
JP2021104175A (en) * | 2019-12-26 | 2021-07-26 | 株式会社平和 | Game machine |
JP2021104174A (en) * | 2019-12-26 | 2021-07-26 | 株式会社平和 | Game machine |
CN113176775A (en) * | 2020-01-24 | 2021-07-27 | 株式会社日立制作所 | Method for controlling a mobile robot and robot |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156689A (en) * | 2005-12-02 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | Light source position detection device and face recognition device using the same and self-propelled robot |
JP2007249427A (en) * | 2006-03-14 | 2007-09-27 | Honda Motor Co Ltd | Information management system |
US20150183112A1 (en) * | 2012-07-23 | 2015-07-02 | Future Robot Co., Ltd | Method and device for generating robot control scenario |
JP2017064853A (en) * | 2015-09-30 | 2017-04-06 | 大日本印刷株式会社 | Robot, content deciding device, content deciding method, and program |
JP2017159410A (en) * | 2016-03-10 | 2017-09-14 | 大日本印刷株式会社 | Guide robot control system, program, and guide robot |
JP2018051648A (en) * | 2016-09-27 | 2018-04-05 | 大日本印刷株式会社 | Robot control device, robot, robot control method and program |
-
2018
- 2018-06-15 JP JP2018114261A patent/JP7045938B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156689A (en) * | 2005-12-02 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | Light source position detection device and face recognition device using the same and self-propelled robot |
JP2007249427A (en) * | 2006-03-14 | 2007-09-27 | Honda Motor Co Ltd | Information management system |
US20150183112A1 (en) * | 2012-07-23 | 2015-07-02 | Future Robot Co., Ltd | Method and device for generating robot control scenario |
JP2017064853A (en) * | 2015-09-30 | 2017-04-06 | 大日本印刷株式会社 | Robot, content deciding device, content deciding method, and program |
JP2017159410A (en) * | 2016-03-10 | 2017-09-14 | 大日本印刷株式会社 | Guide robot control system, program, and guide robot |
JP2018051648A (en) * | 2016-09-27 | 2018-04-05 | 大日本印刷株式会社 | Robot control device, robot, robot control method and program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021083981A (en) * | 2019-11-29 | 2021-06-03 | 株式会社三洋物産 | Game machine |
JP2021104175A (en) * | 2019-12-26 | 2021-07-26 | 株式会社平和 | Game machine |
JP2021104174A (en) * | 2019-12-26 | 2021-07-26 | 株式会社平和 | Game machine |
CN113176775A (en) * | 2020-01-24 | 2021-07-27 | 株式会社日立制作所 | Method for controlling a mobile robot and robot |
CN113176775B (en) * | 2020-01-24 | 2024-03-29 | 株式会社日立制作所 | Method for controlling moving robot and robot |
CN112905780A (en) * | 2021-03-31 | 2021-06-04 | 闽江学院 | Artificial intelligence dialogue device |
CN112905781A (en) * | 2021-03-31 | 2021-06-04 | 闽江学院 | Artificial intelligence dialogue method |
CN112905780B (en) * | 2021-03-31 | 2022-04-29 | 闽江学院 | Artificial intelligence dialogue device |
CN112905781B (en) * | 2021-03-31 | 2022-05-03 | 闽江学院 | Artificial intelligence dialogue method |
CN113126629A (en) * | 2021-04-29 | 2021-07-16 | 清华大学深圳国际研究生院 | Method for robot to actively search target and intelligent robot |
CN113126629B (en) * | 2021-04-29 | 2022-11-29 | 清华大学深圳国际研究生院 | Method for robot to actively search target and intelligent robot |
Also Published As
Publication number | Publication date |
---|---|
JP7045938B2 (en) | 2022-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7045938B2 (en) | Dialogue system and control method of dialogue system | |
US7340100B2 (en) | Posture recognition apparatus and autonomous robot | |
KR102364993B1 (en) | Gesture recognition method, apparatus and device | |
EP3656302B1 (en) | System and method for human gait analysis | |
US9224037B2 (en) | Apparatus and method for controlling presentation of information toward human object | |
EP2877254B1 (en) | Method and apparatus for controlling augmented reality | |
KR101295003B1 (en) | Intelligent robot, system for interaction between intelligent robot and user, and method for interaction between intelligent robot and user | |
JP4435212B2 (en) | Posture recognition device and autonomous robot | |
JP5001930B2 (en) | Motion recognition apparatus and method | |
JP6460862B2 (en) | Gesture recognition device, system and program thereof | |
CN113658254B (en) | Method and device for processing multi-modal data and robot | |
JP7000759B2 (en) | Guidance device, guidance system, guidance method and program | |
CN107618036B (en) | Control device, control system, and control method | |
CN106296730A (en) | A kind of Human Movement Tracking System | |
US20200272810A1 (en) | Response apparatus and response method | |
US20190295526A1 (en) | Dialogue control device, dialogue system, dialogue control method, and recording medium | |
US20230073265A1 (en) | Information processing device and action mode setting method | |
JP6887035B1 (en) | Control systems, control devices, control methods and computer programs | |
WO2020125252A1 (en) | Robot conversation switching method and apparatus, and computing device | |
De Beugher et al. | Semi-automatic hand annotation making human-human interaction analysis fast and accurate | |
JP2020092370A (en) | Imaging control device, imaging system, and imaging control method | |
Tapu et al. | Face recognition in video streams for mobile assistive devices dedicated to visually impaired | |
JP2020204826A (en) | Learning device, robot system and learning method | |
JP7088108B2 (en) | Tracking methods, tracking devices, and programs | |
JP2019003494A (en) | Robot management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7045938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |