JP6607092B2 - Guide robot control system, program, and guide robot - Google Patents

Guide robot control system, program, and guide robot Download PDF

Info

Publication number
JP6607092B2
JP6607092B2 JP2016045573A JP2016045573A JP6607092B2 JP 6607092 B2 JP6607092 B2 JP 6607092B2 JP 2016045573 A JP2016045573 A JP 2016045573A JP 2016045573 A JP2016045573 A JP 2016045573A JP 6607092 B2 JP6607092 B2 JP 6607092B2
Authority
JP
Japan
Prior art keywords
guidance
user
unit
control system
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016045573A
Other languages
Japanese (ja)
Other versions
JP2017159396A (en
Inventor
直之 伊藤
靖寿 松葉
征二 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016045573A priority Critical patent/JP6607092B2/en
Priority to PCT/JP2016/081751 priority patent/WO2017086108A1/en
Publication of JP2017159396A publication Critical patent/JP2017159396A/en
Application granted granted Critical
Publication of JP6607092B2 publication Critical patent/JP6607092B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、案内ロボット制御システム、プログラム及び案内ロボットに関する。   The present invention relates to a guide robot control system, a program, and a guide robot.

従来、来訪者に対して案内サービスを提供するロボットが開示されている(例えば、特許文献1)。   Conventionally, a robot that provides a guidance service to visitors has been disclosed (for example, Patent Document 1).

特開2008−260107号公報JP 2008-260107 A

特許文献1に記載のロボットは、来訪者等のユーザの移動に関するパターンに応じた案内サービスを提供するものであったので、ユーザの意図によらずに、案内サービスを強制的に提供する可能性があった。   Since the robot described in Patent Document 1 provides a guidance service according to a pattern related to the movement of a user such as a visitor, there is a possibility that the guidance service is forcibly provided regardless of the user's intention. was there.

そこで、本発明は、ユーザの意図を考慮して声掛けを行うことができる案内ロボット制御システム、プログラム及び案内ロボットを提供することを目的とする。   Therefore, an object of the present invention is to provide a guidance robot control system, a program, and a guidance robot that can perform a voice call in consideration of a user's intention.

本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、ユーザに対する案内データを記憶する案内データ記憶部と、時系列に連続した複数のフレーム画像を取得する画像取得手段と、前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記フレーム画像ごとにユーザが見ている方向を判別する方向判別手段と、前記方向判別手段により判別した方向に基づいて、時間経過に伴う前記方向の変化の大きさを表す方向変化量を算出する方向変化量算出手段と、前記方向変化量算出手段によって算出した方向の変化に基づいて、案内をするか否かを判断する案内判断手段と、前記案内判断手段により案内をすると判断された場合に、前記案内データ記憶部から案内データを抽出してロボットによる案内を行う案内手段と、を備える案内ロボット制御システムである。
第2の発明は、第1の発明の案内ロボット制御システムにおいて、前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザと、ロボットとの距離を算出する距離算出手段を備え、前記案内判断手段は、前記距離算出手段が算出した前記距離が規定範囲内である場合に、案内をすると判断すること、を特徴とする案内ロボット制御システムである。
第3の発明は、第1の発明又は第2の発明の案内ロボット制御システムにおいて、前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動速度を算出する移動速度算出手段を備え、前記案内判断手段は、前記移動速度算出手段が算出した前記移動速度が規定範囲内である場合に、案内をすると判断すること、を特徴とする案内ロボット制御システムである。
第4の発明は、第3の発明の案内ロボット制御システムにおいて、ロボットは、移動が可能であり、前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、前記移動方向算出手段により算出した前記ユーザの移動方向及び前記移動速度算出手段が算出した前記移動速度に基づいて、前記ロボットを移動させる移動制御手段と、備えること、を特徴とする案内ロボット制御システムである。
第5の発明は、第1の発明から第3の発明までのいずれかの案内ロボット制御システムにおいて、前記方向判別手段は、前記ユーザの眼球と瞳孔との相対位置に基づき、前記ユーザが見ている方向を判別し、前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記ユーザの顔データを取得する顔取得手段と、前記フレーム画像ごとに前記ユーザの顔の向きを判別する顔方向判別手段と、を備え、前記案内判断手段は、前記移動方向算出手段が算出した前記ユーザの移動方向と、前記顔方向判別手段で判別した複数のフレーム画像に共通の顔の向きとが異なる方向である場合に、案内をすると判断すること、を特徴とする案内ロボット制御システムである。
第6の発明は、第5の発明の案内ロボット制御システムにおいて、前記方向判別手段は、前記顔取得手段により取得した顔データに基づいて、顔の器官を検出し、それらの位置関係から顔の向きを判定し、前記ユーザの見ている方向を取得すること、を特徴とする案内ロボット制御システムである。
第7の発明は、第1の発明から第6の発明までのいずれかの案内ロボット制御システムにおいて、前記画像取得手段により取得した少なくとも1つ以上の前記フレーム画像を分析して、前記ユーザの表情を判別する表情判別手段を備え、前記案内データ記憶部は、表情に対応する案内データを記憶し、前記案内手段は、前記案内データ記憶部を参照して、前記表情判別手段により判別された前記ユーザの表情に基づく案内データを抽出して案内を行うこと、を特徴とする案内ロボット制御システムである。
第8の発明は、第7の発明の案内ロボット制御システムにおいて、案内データによる案内をした後に、少なくとも前記画像取得手段による処理と、前記表情判別手段による処理とを実行し、案内前の前記ユーザの表情と、案内後の前記ユーザの表情とを比較する表情比較手段を備え、前記案内手段は、前記案内データ記憶部を参照して、前記表情比較手段による比較結果に基づく案内データを抽出して案内を行うこと、を特徴とする案内ロボット制御システムである。
第9の発明は、第1の発明から第8の発明までのいずれかの案内ロボット制御システムにおいて、前記画像取得手段により取得した少なくとも1つ以上の前記フレーム画像を分析して、前記ユーザの属性を判別する属性判別手段を備え、前記案内データ記憶部は、ユーザの属性に対応する案内データを記憶し、前記案内手段は、前記案内データ記憶部を参照して、前記属性判別手段により判別した前記ユーザの属性に対応する案内データを抽出して案内を行うこと、を特徴とする案内ロボット制御システムである。
第10の発明は、第1の発明から第9の発明までのいずれかの案内ロボット制御システムとして、ロボットのプロセッサを機能させるためのプログラムである。
第11の発明は、ユーザに対する案内データを記憶する案内データ記憶部と、撮影部と、時系列に連続した複数のフレーム画像を取得する画像取得手段と、前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記フレーム画像ごとにユーザが見ている方向を判別する方向判別手段と、前記方向判別手段により判別した方向に基づいて、時間経過に伴う前記方向の変化の大きさを表す方向変化量を算出する方向変化量算出手段と、前記方向変化量算出手段によって算出した方向の変化に基づいて、案内をするか否かを判断する案内判断手段と、前記案内判断手段により案内をすると判断された場合に、前記案内データ記憶部から案内データを抽出して案内を行う案内手段と、を備える案内ロボットである。
The present invention solves the above problems by the following means.
According to a first aspect of the present invention, there is provided a guide data storage unit that stores guide data for a user, an image acquisition unit that acquires a plurality of frame images continuous in time series, and an analysis of the plurality of frame images acquired by the image acquisition unit And a direction determining unit that determines a direction that the user is viewing for each frame image, and a direction change amount that represents a magnitude of a change in the direction over time based on the direction determined by the direction determining unit. Based on the direction change calculated by the direction change amount calculating means, guidance determining means for determining whether or not to guide based on the direction change calculated by the direction change amount calculating means, and the guidance determining means A guidance robot control system comprising: guidance means for extracting guidance data from the guidance data storage unit and performing guidance by a robot.
According to a second invention, in the guidance robot control system according to the first invention, a distance calculation unit that calculates a distance between the user and the robot based on the position information of the user in the frame image acquired by the image acquisition unit. The guidance determination unit is configured to determine that guidance is performed when the distance calculated by the distance calculation unit is within a specified range.
According to a third aspect of the present invention, in the guidance robot control system according to the first or second aspect, the movement for calculating the moving speed of the user based on the position information of the user in the frame image acquired by the image acquisition means. The guidance robot control system includes a speed calculation unit, and the guidance determination unit determines to perform guidance when the movement speed calculated by the movement speed calculation unit is within a predetermined range.
According to a fourth aspect of the present invention, in the guidance robot control system of the third aspect, the robot can move, and the moving direction of the user based on the position information of the user in the frame image acquired by the image acquiring means. And a movement control means for moving the robot based on the movement direction of the user calculated by the movement direction calculation means and the movement speed calculated by the movement speed calculation means. The guide robot control system characterized by the above.
According to a fifth aspect of the present invention, in the guidance robot control system according to any one of the first to third aspects of the invention, the direction determining means is based on a relative position between the user's eyeball and pupil, and is viewed by the user. A plurality of frames acquired by the image acquisition means, and a movement direction calculation means for calculating a movement direction of the user based on position information of the user in the frame image acquired by the image acquisition means. Analyzing the image and acquiring face data of the user; and face direction determining means for determining the orientation of the user's face for each of the frame images, wherein the guidance determining means includes the movement When the moving direction of the user calculated by the direction calculating unit is different from the direction of the face common to the plurality of frame images determined by the face direction determining unit, It is determined that the to a guidance robot control system according to claim.
According to a sixth aspect of the present invention, in the guidance robot control system according to the fifth aspect of the invention, the direction determining means detects a facial organ based on the face data acquired by the face acquiring means, A guidance robot control system characterized by determining a direction and acquiring a direction that the user is looking at.
According to a seventh invention, in the guided robot control system according to any one of the first invention to the sixth invention, the user's facial expression is analyzed by analyzing at least one frame image acquired by the image acquisition means. The guidance data storage unit stores guidance data corresponding to a facial expression, and the guidance unit refers to the guidance data storage unit and is determined by the facial expression determination unit. A guidance robot control system characterized by extracting guidance data based on a user's facial expression and performing guidance.
According to an eighth aspect of the present invention, in the guidance robot control system according to the seventh aspect of the present invention, after guiding by guidance data, at least the processing by the image acquisition means and the processing by the facial expression discrimination means are executed, and the user before guidance Facial expression comparing means for comparing the facial expression of the user and the facial expression of the user after guidance, the guidance means refers to the guidance data storage unit and extracts guidance data based on the comparison result by the facial expression comparison means This is a guidance robot control system characterized by performing guidance.
According to a ninth invention, in the guided robot control system according to any one of the first to eighth inventions, the attribute of the user is analyzed by analyzing at least one of the frame images acquired by the image acquisition means. Attribute determining means for determining the guide data, the guide data storage unit stores guide data corresponding to a user attribute, and the guide means is determined by the attribute determination unit with reference to the guide data storage unit A guidance robot control system characterized in that guidance is performed by extracting guidance data corresponding to the attribute of the user.
A tenth invention is a program for causing a processor of a robot to function as any of the guidance robot control systems from the first invention to the ninth invention.
An eleventh aspect of the invention is directed to a guide data storage unit that stores guide data for a user, a photographing unit, an image acquisition unit that acquires a plurality of frame images continuous in time series, and the plurality of frames acquired by the image acquisition unit. Based on the direction discriminating means for analyzing the frame image and discriminating the direction in which the user is looking for each frame image, and the magnitude of change in the direction with time based on the direction discriminated by the direction discriminating means. Direction change amount calculating means for calculating a direction change amount to be expressed, guidance determination means for determining whether or not to guide based on a change in direction calculated by the direction change amount calculation means, and guidance by the guidance determination means When it is determined to do, the guidance robot is provided with guidance means for extracting guidance data from the guidance data storage unit and performing guidance.

本発明によれば、ユーザの意図を考慮して声掛けを行うことができる案内ロボット制御システム、プログラム及び案内ロボットを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the guidance robot control system, program, and guidance robot which can call out in consideration of a user's intention can be provided.

第1実施形態に係る案内ロボット制御システムの運用に適する場面例を示す図である。It is a figure which shows the example of a scene suitable for operation | use of the guidance robot control system which concerns on 1st Embodiment. 第1実施形態に係るコミュニケーションロボットの機能ブロック図である。It is a functional block diagram of the communication robot which concerns on 1st Embodiment. 第1実施形態に係るコミュニケーションロボットの案内データ記憶部の例を示す図である。It is a figure which shows the example of the guidance data storage part of the communication robot which concerns on 1st Embodiment. 第1実施形態に係るコミュニケーションロボットでのロボット制御処理を示すフローチャートである。It is a flowchart which shows the robot control process in the communication robot which concerns on 1st Embodiment. 第1実施形態に係るコミュニケーションロボットでの画像分析処理を示すフローチャートである。It is a flowchart which shows the image analysis process in the communication robot which concerns on 1st Embodiment. 第1実施形態に係るコミュニケーションロボットでのユーザ決定処理を示すフローチャートである。It is a flowchart which shows the user determination process in the communication robot which concerns on 1st Embodiment. 第1実施形態に係るコミュニケーションロボットでの案内後処理を示すフローチャートである。It is a flowchart which shows the guidance post-process in the communication robot which concerns on 1st Embodiment. 第1実施形態に係る案内ロボット制御システムの具体例を示す図である。It is a figure which shows the specific example of the guidance robot control system which concerns on 1st Embodiment. 第2実施形態に係る案内ロボット制御システムの運用に適する場面例を示す図である。It is a figure which shows the example of a scene suitable for operation | use of the guidance robot control system which concerns on 2nd Embodiment. 第2実施形態に係る案内ロボット制御システムの機能ブロック図である。It is a functional block diagram of the guidance robot control system which concerns on 2nd Embodiment. 第2実施形態に係るコミュニケーションロボットの案内データ記憶部の例を示す図である。It is a figure which shows the example of the guidance data storage part of the communication robot which concerns on 2nd Embodiment. 第2実施形態に係るコミュニケーションロボットでのロボット制御処理を示すフローチャートである。It is a flowchart which shows the robot control process in the communication robot which concerns on 2nd Embodiment. 第2実施形態に係るコミュニケーションロボットでの画像分析処理を示すフローチャートである。It is a flowchart which shows the image analysis process in the communication robot which concerns on 2nd Embodiment. 第2実施形態に係るコミュニケーションロボットでのユーザ決定処理を示すフローチャートである。It is a flowchart which shows the user determination process in the communication robot which concerns on 2nd Embodiment. 第2実施形態に係る案内ロボット制御システムの具体例を示す図である。It is a figure which shows the specific example of the guidance robot control system which concerns on 2nd Embodiment. 変形形態に係る案内ロボット制御システムの具体例を示す図である。It is a figure which shows the specific example of the guidance robot control system which concerns on a deformation | transformation form.

以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(第1実施形態)
<案内ロボット制御システム100>
図1は、第1実施形態に係る案内ロボット制御システム100の運用に適する場面例を示す図である。
案内ロボット制御システム100は、コミュニケーションロボット1(案内ロボット)を用いたシステムである。コミュニケーションロボット1は、例えば、展示場内、店舗内等のスペースSに配置されている。なお、コミュニケーションロボット1は、スペースSを見渡せる位置に配置することが望ましい。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(First embodiment)
<Guiding robot control system 100>
FIG. 1 is a diagram illustrating an example of a scene suitable for operation of the guidance robot control system 100 according to the first embodiment.
The guide robot control system 100 is a system using the communication robot 1 (guide robot). The communication robot 1 is disposed in a space S such as an exhibition hall or a store, for example. The communication robot 1 is preferably arranged at a position where the space S can be looked over.

コミュニケーションロボット1は、例えば、高さが1m程度の人型のロボットである。
そして、コミュニケーションロボット1は、スペースSにいるユーザPを含む(図1の例では、ユーザP1〜P3)フレーム画像を取得して分析し、声掛け対象のユーザPを判断して、ユーザPに対して声掛け(案内)をする。コミュニケーションロボット1は、以下に説明する例では、きょろきょろしているユーザPを、何か困っていると推測して、声掛け対象であると判断する。
The communication robot 1 is, for example, a humanoid robot having a height of about 1 m.
The communication robot 1 acquires and analyzes a frame image including the user P in the space S (users P1 to P3 in the example of FIG. 1), determines the user P to be called, Make a voice call (guidance). In the example described below, the communication robot 1 estimates that the user P who is currently in trouble is in trouble, and determines that it is a subject to call.

<コミュニケーションロボット1>
図2は、第1実施形態に係るコミュニケーションロボット1の機能ブロック図である。
図3は、第1実施形態に係るコミュニケーションロボット1の案内データ記憶部22の例を示す図である。
図2に示すように、コミュニケーションロボット1は、制御部10と、記憶部20と、カメラ31(撮影部)と、スピーカ32と、モータ部33とを備える。
制御部10は、コミュニケーションロボット1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
<Communication robot 1>
FIG. 2 is a functional block diagram of the communication robot 1 according to the first embodiment.
FIG. 3 is a diagram illustrating an example of the guidance data storage unit 22 of the communication robot 1 according to the first embodiment.
As shown in FIG. 2, the communication robot 1 includes a control unit 10, a storage unit 20, a camera 31 (imaging unit), a speaker 32, and a motor unit 33.
The control unit 10 is a central processing unit (CPU) that controls the entire communication robot 1. The controller 10 executes various functions in cooperation with the hardware described above by appropriately reading and executing an operating system (OS) and application programs stored in the storage unit 20.

制御部10は、画像取得部11(画像取得手段)と、画像分析部12と、ユーザ決定処理部13と、案内データ抽出部15と、移動制御部16(移動制御手段)と、案内部17(案内手段)と、表情比較部18(表情比較手段)とを備える。
画像取得部11は、カメラ31を介してフレーム画像を複数取得する。取得した複数のフレーム画像は、時系列に連続したものである。
画像分析部12は、画像取得部11が取得したフレーム画像を分析する。画像分析部12は、方向判別部12a(方向判別手段)と、距離算出部12b(距離算出手段)と、表情判別部12c(表情判別手段)と、属性判別部12d(属性判別手段)とを備える。
方向判別部12aは、フレーム画像に含まれるユーザPごとに、そのユーザPの見ている方向を判別する。
距離算出部12bは、フレーム画像に含まれるユーザPごとに、コミュニケーションロボット1とそのユーザPとの距離を算出する。
表情判別部12cは、フレーム画像に含まれるユーザPごとに、そのユーザPの顔の表情を判別する。
属性判別部12dは、フレーム画像に含まれるユーザPごとに、そのユーザPの属性を判別する。ここで、ユーザPの属性とは、例えば、年齢、性別等をいう。
The control unit 10 includes an image acquisition unit 11 (image acquisition unit), an image analysis unit 12, a user determination processing unit 13, a guidance data extraction unit 15, a movement control unit 16 (movement control unit), and a guidance unit 17. (Guide means) and a facial expression comparison unit 18 (facial expression comparison means).
The image acquisition unit 11 acquires a plurality of frame images via the camera 31. The acquired plurality of frame images are continuous in time series.
The image analysis unit 12 analyzes the frame image acquired by the image acquisition unit 11. The image analyzing unit 12 includes a direction determining unit 12a (direction determining unit), a distance calculating unit 12b (distance calculating unit), an expression determining unit 12c (expression determining unit), and an attribute determining unit 12d (attribute determining unit). Prepare.
The direction determination unit 12a determines, for each user P included in the frame image, the direction in which the user P is viewing.
The distance calculation unit 12b calculates the distance between the communication robot 1 and the user P for each user P included in the frame image.
The facial expression determination unit 12c determines the facial expression of the user P for each user P included in the frame image.
The attribute determination unit 12d determines the attribute of the user P for each user P included in the frame image. Here, the attribute of the user P refers to, for example, age, sex, and the like.

ユーザ決定処理部13は、画像分析部12によって分析されたフレーム画像に基づき、声掛けをするユーザPを決定する。ユーザ決定処理部13は、方向変化量算出部13a(方向変化量算出手段)と、移動速度算出部13b(移動速度算出手段)と、移動方向算出部13c(移動方向算出手段)と、案内判断部13d(案内判断手段)とを備える。
方向変化量算出部13aは、方向判別部12aにより判別されたそのユーザPの見ている方向の時間経過に伴う変化の大きさである方向変化量を算出する。
移動速度算出部13bは、距離算出部12bにより算出されたそのユーザPの距離の時間経過に伴う変化に基づいて、移動速度を算出する。
移動方向算出部13cは、距離算出部12bにより算出されたそのユーザPの距離の時間経過に伴う変化に基づいて、移動方向を算出する。
案内判断部13dは、方向変化量等に基づいて、声掛けするユーザPを決定する。
The user determination processing unit 13 determines a user P to speak on the basis of the frame image analyzed by the image analysis unit 12. The user determination processing unit 13 includes a direction change amount calculation unit 13a (direction change amount calculation unit), a movement speed calculation unit 13b (movement speed calculation unit), a movement direction calculation unit 13c (movement direction calculation unit), and guidance determination. 13d (guidance judgment means).
The direction change amount calculation unit 13a calculates a direction change amount that is the magnitude of a change with time in the direction that the user P is viewing determined by the direction determination unit 12a.
The movement speed calculation unit 13b calculates the movement speed based on the change of the distance of the user P calculated by the distance calculation unit 12b with time.
The movement direction calculation unit 13c calculates the movement direction based on the change of the distance of the user P calculated by the distance calculation unit 12b over time.
The guidance determination unit 13d determines the user P to call out based on the direction change amount and the like.

案内データ抽出部15は、決定したユーザPに対して案内する案内データを、案内データ記憶部22から抽出する。
移動制御部16は、移動方向算出部13cにより算出された移動方向に基づいて、決定したユーザPに近づくようにコミュニケーションロボット1を移動させる。
案内部17は、案内データ抽出部15により抽出された案内データを、スピーカ32を介して出力する。
表情比較部18は、案内前後での表情判別部12cにより判別された顔の表情を比較する。
なお、各処理の詳細については、後述する。
The guidance data extraction unit 15 extracts guidance data for guiding the determined user P from the guidance data storage unit 22.
The movement control unit 16 moves the communication robot 1 to approach the determined user P based on the movement direction calculated by the movement direction calculation unit 13c.
The guide unit 17 outputs the guide data extracted by the guide data extraction unit 15 via the speaker 32.
The facial expression comparison unit 18 compares facial expressions determined by the facial expression determination unit 12c before and after guidance.
Details of each process will be described later.

記憶部20は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶領域である。
記憶部20は、プログラム記憶部21と、案内データ記憶部22と、画像データ記憶部23とを備える。
プログラム記憶部21は、プログラムを記憶する記憶領域である。プログラム記憶部21は、上述した制御部10の各種機能を実行するための制御プログラム21a(プログラム)を記憶している。
案内データ記憶部22は、コミュニケーションロボット1が発する案内データを記憶する記憶領域である。案内データ記憶部22は、図3に示すように、ユーザPの顔の表情及び属性に対応付けて、声掛けをする案内データを記憶している。また、声掛け後のユーザPの顔の表情に対応付けて、次の案内データを記憶している。
図2に戻り、画像データ記憶部23は、画像取得部11が取得したフレーム画像を記憶する記憶領域である。
The storage unit 20 is a storage area such as a semiconductor memory element for storing programs, data, and the like necessary for the control unit 10 to execute various processes.
The storage unit 20 includes a program storage unit 21, a guidance data storage unit 22, and an image data storage unit 23.
The program storage unit 21 is a storage area for storing a program. The program storage unit 21 stores a control program 21a (program) for executing the various functions of the control unit 10 described above.
The guide data storage unit 22 is a storage area for storing guide data issued by the communication robot 1. As shown in FIG. 3, the guidance data storage unit 22 stores guidance data for calling in association with facial expressions and attributes of the user P. Further, the next guidance data is stored in association with the facial expression of the user P after calling.
Returning to FIG. 2, the image data storage unit 23 is a storage area for storing the frame image acquired by the image acquisition unit 11.

カメラ31は、撮影装置である。カメラ31は、例えば、コミュニケーションロボット1の目の部分に対応する位置に設けられている。そして、カメラ31は、コミュニケーションロボット1が向いた方向の被写体を撮影する。
スピーカ32は、音声出力装置である。スピーカ32は、例えば、コミュニケーションロボット1の口の部分に対応する位置に設けられている。そして、スピーカ32は、制御部10の指示に基づいて音声を出力する。
The camera 31 is a photographing device. The camera 31 is provided, for example, at a position corresponding to the eye part of the communication robot 1. Then, the camera 31 captures a subject in the direction that the communication robot 1 faces.
The speaker 32 is an audio output device. The speaker 32 is provided, for example, at a position corresponding to the mouth portion of the communication robot 1. The speaker 32 outputs sound based on an instruction from the control unit 10.

モータ部33は、コミュニケーションロボット1に動作をさせるためのモータである。モータ部33は、頭部モータ33aと、足部モータ33bとを備える。
頭部モータ33aは、コミュニケーションロボット1の頭部を動かすモータである。頭部モータ33aは、制御部10によって制御され、スペースS内にいる様々なユーザPを被写体として撮影するために、頭部を上下左右に動かす。
足部モータ33bは、コミュニケーションロボット1の足部にあり、コミュニケーションロボット1を移動させるためのモータである。
The motor unit 33 is a motor for causing the communication robot 1 to operate. The motor unit 33 includes a head motor 33a and a foot motor 33b.
The head motor 33 a is a motor that moves the head of the communication robot 1. The head motor 33a is controlled by the control unit 10 and moves the head up, down, left, and right in order to photograph various users P in the space S as subjects.
The foot motor 33 b is a motor for moving the communication robot 1 on the foot of the communication robot 1.

<コミュニケーションロボット1の処理>
次に、コミュニケーションロボット1の処理について説明する。
図4は、第1実施形態に係るコミュニケーションロボット1でのロボット制御処理を示すフローチャートである。
図5は、第1実施形態に係るコミュニケーションロボット1での画像分析処理を示すフローチャートである。
図6は、第1実施形態に係るコミュニケーションロボット1でのユーザ決定処理を示すフローチャートである。
図7は、第1実施形態に係るコミュニケーションロボット1での案内後処理を示すフローチャートである。
<Processing of communication robot 1>
Next, processing of the communication robot 1 will be described.
FIG. 4 is a flowchart showing a robot control process in the communication robot 1 according to the first embodiment.
FIG. 5 is a flowchart showing image analysis processing in the communication robot 1 according to the first embodiment.
FIG. 6 is a flowchart showing a user determination process in the communication robot 1 according to the first embodiment.
FIG. 7 is a flowchart showing post-guidance processing in the communication robot 1 according to the first embodiment.

図4のステップS(以下、「S」という。)10において、コミュニケーションロボット1の制御部10(画像取得部11)は、画像取得処理を行う。画像取得処理において、制御部10は、常にカメラ31を介してフレーム画像を取得しており、取得したフレーム画像に1以上のユーザPを含むか否かを判断する。そして、フレーム画像に1以上のユーザPを含むと判断された場合には、制御部10は、適宜のタイミング(例えば、0.1秒ごと)で取得したフレーム画像を、画像データ記憶部23に記憶させる。
S11において、制御部10は、処理条件になったか否かを判断する。処理条件とは、例えば、画像データ記憶部23に複数のフレーム画像(例えば、30枚)が記憶された場合や、規定の時間(例えば、3秒)が経過した場合等をいう。処理条件になったと判断された場合(S11:YES)には、制御部10は、処理をS12に移す。他方、処理条件になっていないと判断された場合(S11:NO)には、制御部10は、処理をS10に移す。
In step S (hereinafter referred to as “S”) 10 in FIG. 4, the control unit 10 (image acquisition unit 11) of the communication robot 1 performs an image acquisition process. In the image acquisition process, the control unit 10 always acquires a frame image via the camera 31, and determines whether or not the acquired frame image includes one or more users P. When it is determined that one or more users P are included in the frame image, the control unit 10 stores the frame image acquired at an appropriate timing (for example, every 0.1 second) in the image data storage unit 23. Remember.
In S11, the control unit 10 determines whether or not a processing condition has been met. The processing condition refers to, for example, a case where a plurality of frame images (for example, 30 images) are stored in the image data storage unit 23, or a case where a predetermined time (for example, 3 seconds) has elapsed. If it is determined that the processing condition is satisfied (S11: YES), the control unit 10 moves the process to S12. On the other hand, when it is determined that the processing condition is not satisfied (S11: NO), the control unit 10 moves the process to S10.

S12において、制御部10(画像分析部12)は、画像データ記憶部23に記憶されたフレーム画像を分析する画像分析処理を行う。
ここで、画像分析処理について、図5に基づき説明する。
図5のS30において、制御部10は、画像データ記憶部23から1つのフレーム画像を抽出する。
S31において、制御部10(方向判別部12a)は、フレーム画像に含まれるユーザPごとに、ユーザPの見ている方向を判別する。例えば、フレーム画像に2人のユーザP1,P2が含まれる場合には、制御部10は、ユーザP1の見ている方向と、ユーザP2の見ている方向とを各々判別する。制御部10は、例えば、フレーム画像から顔画像を検出し、顔の各パーツ(器官)の配置位置に基づいて、顔の向きを判別できる。よって、制御部10は、判別した顔の向きをユーザPの見ている方向することができる。
この顔の各器官(目、鼻、口等)の位置を求める手法としては、様々な公知の手法があるが、例えば、回帰モデルを用いた顔の器官検出手法を用いることができる。そして、回帰モデルを用いた顔の器官検出手法に関しては、例えば、米国特許出願公開第2014/0185924号明細書に記載されている。
In S <b> 12, the control unit 10 (image analysis unit 12) performs an image analysis process for analyzing the frame image stored in the image data storage unit 23.
Here, the image analysis processing will be described with reference to FIG.
In S <b> 30 of FIG. 5, the control unit 10 extracts one frame image from the image data storage unit 23.
In S31, the control unit 10 (direction determination unit 12a) determines the direction in which the user P is viewing for each user P included in the frame image. For example, when two users P1 and P2 are included in the frame image, the control unit 10 determines the direction that the user P1 is viewing and the direction that the user P2 is viewing. For example, the control unit 10 can detect a face image from the frame image and determine the orientation of the face based on the arrangement position of each part (organ) of the face. Therefore, the control unit 10 can change the orientation of the determined face to the direction in which the user P is looking.
There are various known methods for obtaining the position of each organ (face, nose, mouth, etc.) of the face. For example, a facial organ detection method using a regression model can be used. A facial organ detection method using a regression model is described in, for example, US Patent Application Publication No. 2014/0185924.

S32において、制御部10(距離算出部12b)は、フレーム画像に含まれるユーザPごとにユーザPと、コミュニケーションロボット1との距離を算出する。制御部10は、例えば、フレーム画像に含まれるユーザPの大きさや、フレーム画像の背景等に基づいて、ユーザPと、コミュニケーションロボット1との大まかな距離を算出できる。
S33において、制御部10(表情判別部12c)は、フレーム画像に含まれるユーザPごとに顔の表情を判別する。制御部10は、顔の表情として、目、鼻、口の形状等から、例えば、笑顔(ポジティブな表情)であるか、悲しい顔(ネガティブな表情)であるか等を判別できる。
In S32, the control unit 10 (distance calculation unit 12b) calculates the distance between the user P and the communication robot 1 for each user P included in the frame image. For example, the control unit 10 can calculate a rough distance between the user P and the communication robot 1 based on the size of the user P included in the frame image, the background of the frame image, and the like.
In S33, the control unit 10 (expression determination unit 12c) determines the facial expression for each user P included in the frame image. As the facial expression, the control unit 10 can determine, for example, whether it is a smile (positive expression) or a sad face (negative expression) from the shape of eyes, nose, mouth, and the like.

S34において、制御部10は、画像データ記憶部23に含まれる処理対象のフレーム画像の全てに対して処理をしたか否かを判断する。処理対象のフレーム画像の全てに対して処理をした場合(S34:YES)には、制御部10は、本処理を終了し、処理を図4に移す。他方、処理対象のフレーム画像の全てに対して処理をしていない場合(S34:NO)には、制御部10は、処理をS35に移す。
S35において、制御部10は、画像データ記憶部23に含まれる処理対象のフレーム画像のうち、未処理のフレーム画像を1つ抽出する。その後、制御部10は、処理をS31に移す。
In S <b> 34, the control unit 10 determines whether or not all of the processing target frame images included in the image data storage unit 23 have been processed. When processing has been performed on all the frame images to be processed (S34: YES), the control unit 10 ends this processing and shifts the processing to FIG. On the other hand, when the processing has not been performed for all the frame images to be processed (S34: NO), the control unit 10 moves the process to S35.
In S <b> 35, the control unit 10 extracts one unprocessed frame image from the processing target frame images included in the image data storage unit 23. Thereafter, the control unit 10 moves the process to S31.

図4に戻り、S13において、制御部10(ユーザ決定処理部13)は、ユーザ決定処理を行う。
ここで、ユーザ決定処理について、図6に基づき説明する。
図6のS40において、制御部10は、画像分析処理をしたフレーム画像を時系列に並べる。
S41において、制御部10(方向変化量算出部13a)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとの方向変化量を算出する。ここで、方向変化量とは、時間経過に伴うユーザPの見ている方向の変化の大きさを表すものをいう。具体的には、ユーザPが激しくきょろきょろしている場合には、きょろきょろしている度合いが高く、制御部10は、方向変化量を高く算出する。
Returning to FIG. 4, in S <b> 13, the control unit 10 (user determination processing unit 13) performs user determination processing.
Here, the user determination process will be described with reference to FIG.
In S40 of FIG. 6, the control unit 10 arranges the frame images subjected to the image analysis process in time series.
In S41, the control unit 10 (direction change amount calculation unit 13a) calculates the direction change amount for each user P based on the plurality of rearranged frame images. Here, the amount of change in direction refers to the amount of change in the direction in which the user P is looking as time passes. Specifically, when the user P is drenching violently, the degree of choking is high, and the control unit 10 calculates the direction change amount to be high.

S42において、制御部10(移動速度算出部13b)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとの移動速度を算出する。制御部10は、複数のフレーム画像のユーザPの位置の変化に基づいて、移動速度を算出できる。なお、制御部10は、移動速度として、規定範囲より速いか否かを算出するものであってもよい。
S43において、制御部10(移動方向算出部13c)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとの移動方向を算出する。制御部10は、複数のフレーム画像のユーザPの位置の変化に基づいて、移動方向を算出できる。
S44において、制御部10(ユーザ決定処理部13)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとに最も多く表れていた表情を判別する。
In S42, the control unit 10 (movement speed calculation unit 13b) calculates the movement speed for each user P based on the plurality of rearranged frame images. The control unit 10 can calculate the moving speed based on the change in the position of the user P in the plurality of frame images. Note that the control unit 10 may calculate whether the moving speed is faster than a specified range.
In S43, the control unit 10 (movement direction calculation unit 13c) calculates the movement direction for each user P based on the rearranged frame images. The control unit 10 can calculate the moving direction based on the change in the position of the user P in the plurality of frame images.
In S <b> 44, the control unit 10 (user determination processing unit 13) determines the facial expression that appears most frequently for each user P based on the rearranged frame images.

S45において、制御部10(案内判断部13d)は、各指標に基づいて、声掛け優先度を算出する。
ここで、声掛け優先度は、方向変化量と、ユーザPの位置と、移動速度と、表情とに対して各々重み付けをして算出された度合いである。この例では、困っているユーザPを優先して声掛けをするので、重み付けの度合いは、方向変化量に対するものを最も高くする。そして、制御部10は、方向変化量が大きく、移動速度が小さく、表情がネガティブである場合には、声掛け優先度が最も高くなるように重み付けをする。また、制御部10は、ユーザPとコミュニケーションロボット1との距離が、規定範囲(例えば、10m)内である場合に、そのユーザPを声掛け対象にする。
In S45, the control unit 10 (guidance determination unit 13d) calculates a voice call priority based on each index.
Here, the voice call priority is a degree calculated by weighting each of the direction change amount, the position of the user P, the moving speed, and the facial expression. In this example, since the user P who is in trouble is given priority, the degree of weighting is set highest for the direction change amount. Then, when the direction change amount is large, the moving speed is small, and the facial expression is negative, the control unit 10 performs weighting so that the calling priority is the highest. In addition, when the distance between the user P and the communication robot 1 is within a specified range (for example, 10 m), the control unit 10 sets the user P as a calling target.

S46において、制御部10(案内判断部13d)は、声掛け優先度に基づいて声掛けするユーザPを決定する。
なお、ユーザPが、方向変化量が小さい場合には、移動速度が遅く、表情がネガティブであっても優先度が小さい値になる。そのような場合、つまり、優先度が所定値未満であれば、制御部10は、声掛けするユーザPがいないと判断してもよい。
その後、制御部10は、本処理を終了し、処理を図4に移す。
In S46, the control unit 10 (guidance determination unit 13d) determines the user P to call out based on the calling priority.
Note that when the user P has a small direction change amount, the moving speed is slow, and the priority is a small value even if the facial expression is negative. In such a case, that is, if the priority is less than the predetermined value, the control unit 10 may determine that there is no user P to call.
Then, the control part 10 complete | finishes this process, and moves a process to FIG.

図4に戻り、S14において、制御部10(ユーザ決定処理部13)は、ユーザ決定処理によりユーザPが決定されたか否かを判断する。ユーザPが決定された場合(S14:YES)には、制御部10は、処理をS15に移す。他方、ユーザPが決定されなかった場合(S14:NO)には、制御部10は、本処理を終了する。
S15において、制御部10(属性判別部12d)は、決定したユーザPの属性を判別する。具体的には、制御部10は、フレーム画像から抽出したユーザPの画像から、おおよその年齢等を判別する。制御部10は、年齢を判別せずとも、子供であるか、大人であるかを判別するものであってもよい。その場合には、制御部10は、ユーザPの画像から身長を推定して、子供か否かを判別してもよい。
Returning to FIG. 4, in S <b> 14, the control unit 10 (user determination processing unit 13) determines whether or not the user P is determined by the user determination processing. When the user P is determined (S14: YES), the control unit 10 moves the process to S15. On the other hand, when the user P is not determined (S14: NO), the control unit 10 ends this process.
In S15, the control unit 10 (attribute determination unit 12d) determines the attribute of the determined user P. Specifically, the control unit 10 determines an approximate age or the like from the image of the user P extracted from the frame image. Control part 10 may discriminate whether it is a child or an adult, without distinguishing age. In that case, the control unit 10 may estimate the height from the image of the user P and determine whether or not the child is a child.

S16において、制御部10(案内データ抽出部15)は、図6のS44で判別したユーザPの表情及びS15で判別した属性に基づいて、案内データ記憶部22(図3)を参照して案内データを抽出する。
S17において、制御部10(移動制御部16)は、移動処理を行う。移動処理として、制御部10は、図6のS42及びS43で算出したユーザPの移動速度及び移動方向に基づき、モータ部33(足部モータ33b)を制御して、ユーザPに近づくようにコミュニケーションロボット1を移動させる。
S18において、制御部10(案内部17)は、案内処理を行う。案内処理として、制御部10は、移動後にユーザPに対して話しかける(声掛けする)ように、S16で抽出した案内データを、スピーカ32を介して出力する。
In S16, the control unit 10 (guidance data extraction unit 15) refers to the guidance data storage unit 22 (FIG. 3) based on the facial expression of the user P determined in S44 of FIG. 6 and the attribute determined in S15. Extract data.
In S17, the control unit 10 (movement control unit 16) performs a movement process. As the moving process, the control unit 10 controls the motor unit 33 (foot motor 33b) based on the moving speed and moving direction of the user P calculated in S42 and S43 in FIG. The robot 1 is moved.
In S18, the control unit 10 (guide unit 17) performs a guide process. As the guidance process, the control unit 10 outputs the guidance data extracted in S <b> 16 via the speaker 32 so as to talk (speak) to the user P after moving.

S19において、制御部10は、案内後処理を行う。
ここで、案内後処理について、図7に基づき説明する。
図7のS50において、制御部10(画像取得部11)は、カメラ31を介して、案内データを出力後のユーザPを含むフレーム画像を取得する。
S51において、制御部10(表情判別部12c)は、取得したフレーム画像を分析して顔の表情を判別する。
S52において、制御部10(表情比較部18)は、表情比較処理を行う。表情比較処理として、制御部10は、案内データの出力前の顔の表情(図6のS44での処理)と、S51で取得した顔の表情とを比較する。
In S19, the control unit 10 performs post-guidance processing.
Here, the post-guidance process will be described with reference to FIG.
In S50 of FIG. 7, the control unit 10 (image acquisition unit 11) acquires a frame image including the user P after outputting the guidance data via the camera 31.
In S51, the control unit 10 (expression determination unit 12c) determines the facial expression by analyzing the acquired frame image.
In S52, the control unit 10 (facial expression comparison unit 18) performs facial expression comparison processing. As the facial expression comparison process, the control unit 10 compares the facial expression before the guidance data is output (the process in S44 of FIG. 6) with the facial expression acquired in S51.

S53において、制御部10(案内データ抽出部15)は、表情の比較結果に応じた案内データを、案内データ記憶部22(図3)から抽出する。
S54において、制御部10(案内部17)は、案内処理として、S53において抽出した案内データを、スピーカ32を介して出力させる。その後、制御部10は、処理を図4に移す。
図4に戻り、制御部10は、本処理を終了する。
In S53, the control unit 10 (guidance data extraction unit 15) extracts the guidance data corresponding to the comparison result of facial expressions from the guidance data storage unit 22 (FIG. 3).
In S <b> 54, the control unit 10 (guidance unit 17) outputs the guidance data extracted in S <b> 53 via the speaker 32 as a guidance process. Thereafter, the control unit 10 shifts the processing to FIG.
Returning to FIG. 4, the control unit 10 ends this process.

<具体例の説明>
ここで、この案内ロボット制御システム100を用いた具体例について説明する。
図8は、第1実施形態に係る案内ロボット制御システム100の具体例を示す図である。
まず、コミュニケーションロボット1の制御部10は、図8(A)に示すような、迷子になり、きょろきょろしている子供C1のフレーム画像を取得する(図4のS10)ことで、声掛け対象であると判断する(図4のS14がYES)。
次に、制御部10は、案内データ記憶部22(図3参照)から、属性が子供であり、表情がネガティブである場合の、声掛け時の案内データを抽出する(図4のS16)。
そして、図8(A)及び(B)に示すように、制御部10は、子供C1の位置に向かって移動して(図4のS17)、抽出した案内データを、スピーカ32を介して出力する(図4のS18)。
<Description of specific examples>
Here, a specific example using the guidance robot control system 100 will be described.
FIG. 8 is a diagram illustrating a specific example of the guidance robot control system 100 according to the first embodiment.
First, the control unit 10 of the communication robot 1 obtains a frame image of the child C1 who is lost and crawls as shown in FIG. 8A (S10 in FIG. 4). It is determined that there is (S14 in FIG. 4 is YES).
Next, the control unit 10 extracts guidance data at the time of calling from the guidance data storage unit 22 (see FIG. 3) when the attribute is a child and the facial expression is negative (S16 in FIG. 4).
Then, as shown in FIGS. 8A and 8B, the control unit 10 moves toward the position of the child C1 (S17 in FIG. 4), and outputs the extracted guidance data via the speaker 32. (S18 in FIG. 4).

これにより、コミュニケーションロボット1は、子供C1の状態を、子供C1の動作や表情によって推測して、子供C1の意図に合った声掛けをすることができる。
その後、制御部10は、子供C1のフレーム画像を取得し、図8(C)に示すように、子供C1の表情がネガティブのままであれば、制御部10は、案内データ記憶部22から声掛け後の該当の表情の案内データを抽出して、スピーカ32を介して出力する(図4のS19)。
Thereby, the communication robot 1 can guess the state of the child C1 based on the movement and expression of the child C1, and can make a voice call that matches the intention of the child C1.
Thereafter, the control unit 10 acquires a frame image of the child C1. If the facial expression of the child C1 remains negative as shown in FIG. 8C, the control unit 10 reads the voice data from the guidance data storage unit 22. Guidance data of the corresponding facial expression after being hung is extracted and output through the speaker 32 (S19 in FIG. 4).

このように、第1実施形態の案内ロボット制御システム100によれば、以下のような効果がある。
(1)複数のフレーム画像からユーザPの見ている方向の変化量を算出する。方向変化量は、ユーザPがきょろきょろしているような場合には、大きい値になるので、コミュニケーションロボット1は、そのユーザPが困っていると判断して声掛けをする。よって、ユーザPの見ている方向の変化量の大きさによって、困っているか否かというユーザPの状態を推測し、困っていると推測したユーザPに対して、コミュニケーションロボット1がユーザPの意図に合った声掛けを優先的に行うことができる。
Thus, according to the guidance robot control system 100 of the first embodiment, the following effects are obtained.
(1) The amount of change in the direction in which the user P is looking is calculated from a plurality of frame images. Since the direction change amount becomes a large value when the user P is joking, the communication robot 1 determines that the user P is in trouble and calls out. Therefore, the state of the user P as to whether or not the user P is in trouble is inferred based on the magnitude of the amount of change in the direction in which the user P is looking. It is possible to preferentially make a voice call that suits the intention.

(2)ユーザPの位置とコミュニケーションロボット1の位置とが、規定範囲内である場合には、コミュニケーションロボット1がユーザPに対して声掛けをする。よって、近くにいるユーザPに対して、コミュニケーションロボット1が優先的に話しかけることができる。
(3)ユーザPの移動速度が規定範囲内である場合には、コミュニケーションロボット1がユーザPに対して声掛けをする。よって、ユーザPがゆっくり歩いていたり、立ち止まったりする場合に、コミュニケーションロボット1が優先的に話しかけることができる。
(4)ユーザPの移動位置を推測して、コミュニケーションロボット1が近づくことで、ユーザPに対するコミュニケーションロボット1による話しかけが、より自然に行われるようにできる。
(2) When the position of the user P and the position of the communication robot 1 are within the specified range, the communication robot 1 speaks to the user P. Therefore, the communication robot 1 can preferentially talk to the user P nearby.
(3) When the moving speed of the user P is within the specified range, the communication robot 1 calls out to the user P. Therefore, when the user P is walking slowly or stops, the communication robot 1 can speak with priority.
(4) When the movement position of the user P is estimated and the communication robot 1 approaches, the conversation by the communication robot 1 with respect to the user P can be performed more naturally.

(5)ユーザPの表情に基づいて、案内データを選定して、コミュニケーションロボット1が、ユーザPに対して声掛けをする。よって、コミュニケーションロボット1は、ユーザPの表情に合った内容の案内による話しかけをすることができる。
(6)声掛け前後のユーザPの表情の変化に基づいて、コミュニケーションロボット1は、さらに次の案内をする。よって、コミュニケーションロボット1は、よりコミュニケーションがとれた内容の話しかけをすることができる。
(5) The guidance robot is selected based on the facial expression of the user P, and the communication robot 1 speaks to the user P. Therefore, the communication robot 1 can talk by guiding the content that matches the facial expression of the user P.
(6) Based on the change in the facial expression of the user P before and after calling, the communication robot 1 further provides the next guidance. Therefore, the communication robot 1 can talk about the content with which communication was more possible.

(7)ユーザPの年齢等の属性をフレーム画像から判別して、ユーザPの属性に対応する案内データを選定して、コミュニケーションロボット1が、ユーザPに対して声掛けをする。よって、ユーザPの属性に合った内容の案内による話しかけをすることができる。
(8)フレーム画像の取得から案内データの出力までの全ての処理を、コミュニケーションロボット1が行うことができる。よって、コミュニケーションロボット1のみを準備すればよく、設置を容易に行うことができる。
(7) The attribute such as the age of the user P is discriminated from the frame image, the guidance data corresponding to the attribute of the user P is selected, and the communication robot 1 speaks to the user P. Therefore, it is possible to talk by guiding the content that matches the attribute of the user P.
(8) The communication robot 1 can perform all processing from acquisition of frame images to output of guidance data. Therefore, only the communication robot 1 needs to be prepared, and installation can be performed easily.

(第2実施形態)
第2実施形態では、コミュニケーションロボットにユーザの呼び込みを行わせるものについて説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
(Second Embodiment)
In the second embodiment, a description will be given of what causes a communication robot to call a user. In the following description, parts that perform the same functions as those in the first embodiment described above are given the same reference numerals or the same reference numerals at the end, and redundant descriptions are omitted as appropriate.

<案内ロボット制御システム200>
図9は、第2実施形態に係る案内ロボット制御システム200の運用に適する場面例を示す図である。
図10は、第2実施形態に係る案内ロボット制御システム200の機能ブロック図である。
図11は、第2実施形態に係るコミュニケーションロボット201の案内データ記憶部222の例を示す図である。
<Guiding robot control system 200>
FIG. 9 is a diagram illustrating an example of a scene suitable for operation of the guidance robot control system 200 according to the second embodiment.
FIG. 10 is a functional block diagram of the guidance robot control system 200 according to the second embodiment.
FIG. 11 is a diagram illustrating an example of the guide data storage unit 222 of the communication robot 201 according to the second embodiment.

案内ロボット制御システム200は、コミュニケーションロボット201を、例えば、展示ブースや店舗の出入口等のスペース200Sの入口に配置する。そして、案内ロボット制御システム200は、ユーザP(この例では、ユーザP4)に対してスペース200Sへの入室等をさせるための呼び込みを、コミュニケーションロボット201が行うために用いるシステムである。
案内ロボット制御システム200は、コミュニケーションロボット201と、カメラ205とを備える。コミュニケーションロボット201と、カメラ205とは、スペース200Sの入口付近に設置される。
The guidance robot control system 200 arranges the communication robot 201 at the entrance of a space 200S such as an exhibition booth or a store entrance. The guidance robot control system 200 is a system used by the communication robot 201 to call the user P (in this example, the user P4) to enter the space 200S.
The guidance robot control system 200 includes a communication robot 201 and a camera 205. The communication robot 201 and the camera 205 are installed near the entrance of the space 200S.

カメラ205は、この例では、監視カメラである。カメラ205は、スペース200Sを通りかかるユーザPのフレーム画像を取得して、コミュニケーションロボット201に対してフレーム画像を送信する。
コミュニケーションロボット201は、カメラ205から受信したユーザPのフレーム画像を分析し、声掛け対象のユーザPを判断して、ユーザPに対して案内をする。コミュニケーションロボット201は、カメラ205の前を通り過ぎるユーザPに対して、スペース200Sに対する興味がありそうか否かを判断して声掛けをする。
In this example, the camera 205 is a surveillance camera. The camera 205 acquires a frame image of the user P passing through the space 200S and transmits the frame image to the communication robot 201.
The communication robot 201 analyzes the frame image of the user P received from the camera 205, determines the user P to be called, and provides guidance to the user P. The communication robot 201 makes a call to the user P passing in front of the camera 205 by determining whether he / she is interested in the space 200S.

<コミュニケーションロボット201>
図10に示すように、コミュニケーションロボット201は、制御部210と、記憶部220と、スピーカ32と、モータ部33とを備える。
制御部210は、画像受付部211(画像取得手段)と、画像分析部212と、ユーザ決定処理部213と、顔データ照合部(顔照合手段)214と、案内データ抽出部215と、移動制御部16と、案内部17と、表情比較部18とを備える。
画像受付部211は、カメラ205が送信したフレーム画像を受信することで、フレーム画像を受け付ける。
<Communication robot 201>
As shown in FIG. 10, the communication robot 201 includes a control unit 210, a storage unit 220, a speaker 32, and a motor unit 33.
The control unit 210 includes an image reception unit 211 (image acquisition unit), an image analysis unit 212, a user determination processing unit 213, a face data verification unit (face verification unit) 214, a guidance data extraction unit 215, and movement control. A unit 16, a guide unit 17, and a facial expression comparison unit 18 are provided.
The image receiving unit 211 receives a frame image by receiving the frame image transmitted by the camera 205.

画像分析部212は、画像受付部211が受け付けたフレーム画像を分析する。画像分析部212は、方向取得部212a(ユーザ方向取得手段)と、距離算出部12bと、表情判別部212cと、顔取得部212e(顔取得手段)とを備える。
方向取得部212aは、フレーム画像を分析してユーザPを特定し、ユーザPごとにそのユーザPの見ている方向を判別して、ユーザPの見ている方向を取得する。
表情判別部212cは、顔取得部212eが取得したユーザPの顔データに基づいて、そのユーザPの顔の表情を判別する。
顔取得部212eは、フレーム画像に含まれるユーザPごとに、そのユーザPの顔データを取得する。
The image analysis unit 212 analyzes the frame image received by the image reception unit 211. The image analysis unit 212 includes a direction acquisition unit 212a (user direction acquisition unit), a distance calculation unit 12b, a facial expression determination unit 212c, and a face acquisition unit 212e (face acquisition unit).
The direction acquisition unit 212a analyzes the frame image to identify the user P, determines the direction that the user P is viewing for each user P, and acquires the direction that the user P is viewing.
The facial expression determination unit 212c determines the facial expression of the user P based on the face data of the user P acquired by the face acquisition unit 212e.
The face acquisition unit 212e acquires the face data of the user P for each user P included in the frame image.

ユーザ決定処理部213は、画像分析部212によって分析されたフレーム画像に基づき、時間経過に伴う変化によって、声掛けをするユーザPを決定する。ユーザ決定処理部213は、移動速度算出部13bと、移動方向算出部13cと、案内判断部213dとを備える。
案内判断部213dは、方向取得部212aにより取得したユーザPの見ている方向、移動方向算出部13cにより算出した移動方向等に基づいて、声掛けするユーザPを決定する。
顔データ照合部214は、顔データ記憶部224に記憶された顔データと、顔取得部212eにより取得した顔データとを照合する。
案内データ抽出部215は、ユーザ決定処理部213により決定したユーザPに対して案内する案内データを、案内データ記憶部222から抽出する。その際、案内データ抽出部215は、顔データ照合部214により照合できた場合には、前回とは異なる案内データを抽出する。
Based on the frame image analyzed by the image analysis unit 212, the user determination processing unit 213 determines a user P who is to speak to by a change with time. The user determination processing unit 213 includes a movement speed calculation unit 13b, a movement direction calculation unit 13c, and a guidance determination unit 213d.
The guidance determination unit 213d determines the user P to call on, based on the viewing direction of the user P acquired by the direction acquisition unit 212a, the movement direction calculated by the movement direction calculation unit 13c, and the like.
The face data collation unit 214 collates the face data stored in the face data storage unit 224 and the face data acquired by the face acquisition unit 212e.
The guidance data extraction unit 215 extracts guidance data for guiding the user P determined by the user determination processing unit 213 from the guidance data storage unit 222. At that time, the guidance data extraction unit 215 extracts guidance data different from the previous one when the face data matching unit 214 can collate.

記憶部220は、プログラム記憶部21と、案内データ記憶部222と、画像データ記憶部23と、顔データ記憶部224とを備える。
プログラム記憶部21は、上述した制御部210の各種機能を実行するための制御プログラム221aを記憶している。
案内データ記憶部222は、図11に示すように、ユーザPの顔の表情に対応付けて、声掛けをする案内データを記憶している。また、声掛け後のユーザPの顔の表情に対応付けて、次の案内データを記憶している。
顔データ記憶部224は、顔データを記憶する記憶領域である。顔データ記憶部224は、案内データを出力した場合に、顔取得部212eが取得した顔データと、出力した案内データとを対応付けて記憶する。
The storage unit 220 includes a program storage unit 21, a guidance data storage unit 222, an image data storage unit 23, and a face data storage unit 224.
The program storage unit 21 stores a control program 221a for executing various functions of the control unit 210 described above.
As shown in FIG. 11, the guidance data storage unit 222 stores guidance data for calling in association with facial expressions of the user P. Further, the next guidance data is stored in association with the facial expression of the user P after calling.
The face data storage unit 224 is a storage area for storing face data. When the guide data is output, the face data storage unit 224 stores the face data acquired by the face acquisition unit 212e in association with the output guide data.

<カメラ205>
カメラ205は、例えば、Webカメラに代表されるライブカメラである。カメラ205は、ステレオカメラであってもよい。ステレオカメラとは、複数個のレンズで微妙にずれた位置から同時に撮影し、視差を生み出すことによって、物体の奥行きに関する情報を取得できるようにしたカメラをいう。
カメラ205は、画像取得部251と、画像送信部252とを備える。
画像取得部251は、フレーム画像を取得する制御部である。
画像送信部252は、取得したフレーム画像を、通信ネットワークNを介して送信する制御部である。
コミュニケーションロボット201と、カメラ205とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線や携帯端末通信網等である。また、通信ネットワークNは、例えば、Bluetooth(登録商標)規格に基づく短距離無線通信等を用いるものであってもよい。
<Camera 205>
The camera 205 is a live camera represented by a web camera, for example. The camera 205 may be a stereo camera. A stereo camera refers to a camera that can capture information about the depth of an object by simultaneously capturing images from slightly shifted positions with a plurality of lenses and generating parallax.
The camera 205 includes an image acquisition unit 251 and an image transmission unit 252.
The image acquisition unit 251 is a control unit that acquires a frame image.
The image transmission unit 252 is a control unit that transmits the acquired frame image via the communication network N.
The communication robot 201 and the camera 205 are communicably connected via a communication network N. The communication network N is, for example, an Internet line or a mobile terminal communication network. Further, the communication network N may use, for example, short-range wireless communication based on the Bluetooth (registered trademark) standard.

<コミュニケーションロボット201の処理>
次に、コミュニケーションロボット201の処理について説明する。
図12は、第2実施形態に係るコミュニケーションロボット201でのロボット制御処理を示すフローチャートである。
図13は、第2実施形態に係るコミュニケーションロボット201での画像分析処理を示すフローチャートである。
図14は、第2実施形態に係るコミュニケーションロボット201でのユーザ決定処理を示すフローチャートである。
<Processing of communication robot 201>
Next, processing of the communication robot 201 will be described.
FIG. 12 is a flowchart showing robot control processing in the communication robot 201 according to the second embodiment.
FIG. 13 is a flowchart showing image analysis processing in the communication robot 201 according to the second embodiment.
FIG. 14 is a flowchart illustrating user determination processing in the communication robot 201 according to the second embodiment.

図12のS210において、コミュニケーションロボット201の制御部210(画像受付部211)は、カメラ205が送信したフレーム画像を受信する。そして、制御部210は、受信したフレーム画像を、画像データ記憶部23に記憶させる。
S211において、制御部210(画像分析部212)は、画像データ記憶部23に記憶されたフレーム画像を分析する画像分析処理を行う。
ここで、画像分析処理について、図13に基づき説明する。
In S210 of FIG. 12, the control unit 210 (image reception unit 211) of the communication robot 201 receives the frame image transmitted by the camera 205. Then, the control unit 210 stores the received frame image in the image data storage unit 23.
In S211, the control unit 210 (image analysis unit 212) performs an image analysis process for analyzing the frame image stored in the image data storage unit 23.
Here, the image analysis processing will be described with reference to FIG.

図13のS230において、制御部210(方向取得部212a)は、フレーム画像に含まれるユーザPを検出し、ユーザPの見ている方向を取得する。例えば、フレーム画像に2人のユーザP1,P2が含まれる場合には、制御部210は、ユーザP1及びP2を検出し、各々のユーザPの見ている方向を取得する。
ユーザPの検出としては、様々な公知の手法があるが、例えば、動体検知の手法を用いることができる。動体検知の手法は、予め、ユーザPが写っていないフレーム画像を、背景画像データとして記憶しておき、背景画像データと、処理対象のフレーム画像との差分を求めることで、動体であるユーザPを検出するものである。また、HOG特徴量を用いた人検出等を用いることもできる。HOG特徴量を用いた人検出に関しては、「N. Dalal and B.Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886−893, 2005」に記載されている。
In S230 of FIG. 13, the control unit 210 (direction acquisition unit 212a) detects the user P included in the frame image, and acquires the direction in which the user P is looking. For example, when two users P1 and P2 are included in the frame image, the control unit 210 detects the users P1 and P2, and acquires the direction in which each user P is looking.
There are various known methods for detecting the user P. For example, a moving object detection method can be used. In the moving object detection method, a frame image in which the user P is not captured is stored as background image data in advance, and a difference between the background image data and the frame image to be processed is obtained, so that the user P who is a moving object. Is detected. Further, human detection using the HOG feature amount can also be used. Human detection using HOG features is described in “N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, pages 886-893, 2005”.

また、ユーザPの見ている方向として、制御部210は、例えば、ユーザPの顔の向きを取得する。ユーザPの顔の向きは、顔検出の手法を用いて、制御部210(顔取得部212e)によって顔が検出ができた場合に、カメラ205に対して正面方向であるとするものである。顔検出の手法としては、様々な公知の手法があるが、例えば、Haar−like特徴を用いた顔検出を用いることができる。Haar−like特徴を用いた顔検出に関しては、「P. Viola and M. J. Jones: “Rapid Object Detection Using a Boosted Cascade of Simple Features”,Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.511−518, (2001).」に記載されている。
なお、制御部210は、フレーム画像から顔画像を検出し、その中から目を抽出して、眼球と瞳孔との相対位置に基づいてユーザPの見ている方向を取得してもよい。
Further, as the direction in which the user P is viewing, the control unit 210 acquires, for example, the direction of the face of the user P. The face direction of the user P is assumed to be the front direction with respect to the camera 205 when the face can be detected by the control unit 210 (face acquisition unit 212e) using a face detection method. There are various known methods for detecting a face. For example, face detection using a Haar-like feature can be used. For face detection using Haar-like features, see “P. Viola and M. J. Jones:“ Rapid Object Detection Using the Coordinates of the Cofesto et Ecée et al. ”Proceedings of the Effort. , Pp. 511-518, (2001).
Note that the control unit 210 may detect a face image from the frame image, extract an eye from the face image, and acquire the direction in which the user P is looking based on the relative position between the eyeball and the pupil.

S231及びS232の処理は、第1実施形態(図5)のS32及びS33の処理と同様である。なお、S232では、制御部210(顔取得部212e)が顔データを取得し、取得した顔データに基づいて、制御部210(表情判別部212c)が表情を判別する。その後、制御部210は、処理を図12に移す。   The processing of S231 and S232 is the same as the processing of S32 and S33 of the first embodiment (FIG. 5). In S232, the control unit 210 (face acquisition unit 212e) acquires face data, and the control unit 210 (expression determination unit 212c) determines the expression based on the acquired face data. Thereafter, the control unit 210 shifts the processing to FIG.

図12に戻り、S212において、制御部210(ユーザ決定処理部213)は、ユーザ決定処理を行う。
ここで、ユーザ決定処理について、図14に基づき説明する。
図14のS240において、制御部210は、画像分析処理をしたフレーム画像を時系列に並べる。
S241において、制御部210(方向取得部212a)は、並べ替え後の複数のフレーム画像に基づき、ユーザPごとの見ている方向を取得する。ここでは、複数のフレーム画像において、ユーザPが見ている方向が同じ方向である場合に、制御部210は、その方向を、見ている方向として取得する。よって、例えば、ユーザPがきょろきょろしている場合には、制御部210は、見ている方向を取得しない。
Returning to FIG. 12, in S212, the control unit 210 (user determination processing unit 213) performs user determination processing.
Here, the user determination process will be described with reference to FIG.
In S240 of FIG. 14, the control unit 210 arranges the frame images subjected to the image analysis process in time series.
In S241, the control unit 210 (direction acquisition unit 212a) acquires the viewing direction for each user P based on the plurality of rearranged frame images. Here, in a plurality of frame images, when the direction in which the user P is viewing is the same direction, the control unit 210 acquires the direction as the viewing direction. Therefore, for example, when the user P is jogging, the control unit 210 does not acquire the viewing direction.

S242からS244までの処理は、第1実施形態(図6)のS42からS44までの処理と同様である。なお、ユーザPごとの移動方向の算出においては、例えば、Mean−shift特徴を用いた人体トラッキングを用いることができる。Mean−shift特徴を用いた人体トラッキングに関しては、「Collins R.: ‘Mean−Shift Blob Tracking through Scale Space’, Proc. IEEE Conf. Computer Vision and Pattern Recognition, Wisconsin, USA, 2003, pp. 234−240.」に記載されている。   The processing from S242 to S244 is the same as the processing from S42 to S44 in the first embodiment (FIG. 6). In the calculation of the moving direction for each user P, for example, human body tracking using the Mean-shift feature can be used. Regarding human body tracking using the Mean-shift feature, see “Collins R .: 'Mean-Shift Blob Tracking through Scale Scale,” Proc. IEEE Conf. ."It is described in.

S245において、制御部210(案内判断部213d)は、各指標に基づいて、声掛け優先度を算出する。
ここで、声掛け優先度は、ユーザPの見ている方向と、移動方向と、ユーザPの位置と、移動速度とに対して各々重み付けをして算出された度合いである。この例では、スペース200Sに興味を持っているが、通り過ぎようとしているユーザPを優先して声掛けをするので、重み付けの度合いは、ユーザPの見ている方向と、移動方向が異なる方向であり、ユーザPが正面方向(カメラ205の方向)を向いている場合を、最も高くする。そして、制御部210は、上記の条件を満たし、移動速度が遅い場合には、声掛け優先度が最も高くなるように重み付けをする。また、制御部210は、ユーザPとコミュニケーションロボット201との距離が、規定範囲(例えば、5m)内である場合に、そのユーザPを声掛け対象にする。
S246において、制御部210(案内判断部213d)は、声掛け優先度に基づいて声掛けするユーザPを決定する。
In S245, the control unit 210 (guidance determination unit 213d) calculates the calling priority based on each index.
Here, the voice call priority is a degree calculated by weighting each of the direction that the user P is viewing, the moving direction, the position of the user P, and the moving speed. In this example, the user 200 who is interested in the space 200S is preferentially spoken to the user P who is about to pass, so the degree of weighting is different in the direction in which the user P is viewing and the direction of movement. Yes, when the user P is facing the front direction (the direction of the camera 205), the highest is set. Then, when the above condition is satisfied and the moving speed is slow, the control unit 210 performs weighting so that the calling priority is the highest. In addition, when the distance between the user P and the communication robot 201 is within a specified range (for example, 5 m), the control unit 210 sets the user P as a calling target.
In S246, the control unit 210 (guidance determination unit 213d) determines the user P to call on the basis of the calling priority.

なお、ユーザPが正面方向を向いていない場合には、ユーザPの見ている方向と、移動方向が異なる方向であって、ユーザPとコミュニケーションロボット201との距離が、規定範囲内であっても、制御部210は、声掛けするユーザPがいないと判断してもよい。
その後、制御部210は、本処理を終了し、処理を図12に移す。
If the user P is not facing the front direction, the direction of movement of the user P is different from the direction of movement, and the distance between the user P and the communication robot 201 is within the specified range. Alternatively, the control unit 210 may determine that there is no user P to call out.
Thereafter, the control unit 210 ends this processing and shifts the processing to FIG.

図12に戻り、S213において、制御部210(ユーザ決定処理部213)は、ユーザ決定処理によりユーザPが決定されたか否かを判断する。ユーザPが決定された場合(S213:YES)には、制御部210は、処理をS214に移す。他方、ユーザPが決定されなかった場合(S213:NO)には、制御部210は、本処理を終了する。
S214において、制御部210(顔データ照合部214)は、図13のS232において取得した顔データを、顔データ記憶部224の顔データと照合する。
S215において、制御部210(顔データ照合部214)は、照合できたか否かを判断する。照合できた場合(S215:YES)には、制御部210は、処理をS216に移す。他方、照合できなかった場合(S215:NO)には、制御部210は、処理をS216aに移す。なお、照合できた場合とは、過去にそのユーザPに対する声掛けをした場合である。
Returning to FIG. 12, in S213, the control unit 210 (user determination processing unit 213) determines whether or not the user P is determined by the user determination processing. When the user P is determined (S213: YES), the control unit 210 moves the process to S214. On the other hand, when the user P is not determined (S213: NO), the control unit 210 ends this process.
In S214, the control unit 210 (face data collation unit 214) collates the face data acquired in S232 of FIG. 13 with the face data in the face data storage unit 224.
In S215, the control unit 210 (face data collation unit 214) determines whether or not collation has been completed. If the verification is successful (S215: YES), the control unit 210 moves the process to S216. On the other hand, when collation cannot be performed (S215: NO), the control unit 210 moves the process to S216a. In addition, the case where it can collate is a case where the user P was called in the past.

S216において、制御部210は、顔データ記憶部224及び案内データ記憶部222を参照し、出力済の案内データとは異なる案内データであって、ユーザPの表情に対応した案内データを、案内データ記憶部222から抽出する。
他方、S216aにおいて、制御部210は、案内データ記憶部222を参照し、ユーザPの表情に対応した案内データを抽出する。
S217及びS218の処理は、第1実施形態(図4)のS17及びS18の処理と同様である。
S219において、制御部210は、ユーザPの顔データと、出力した案内データとを対応付けて、顔データ記憶部224に記憶させる。
S220において、制御部210は、案内後処理を行う。案内後処理は、第1実施形態(図7)と同様である。その後、制御部210は、本処理を終了する。
In S <b> 216, the control unit 210 refers to the face data storage unit 224 and the guidance data storage unit 222. The control data is guidance data that is different from the output guidance data and that corresponds to the facial expression of the user P. Extracted from the storage unit 222.
On the other hand, in S216a, the control unit 210 refers to the guidance data storage unit 222 and extracts guidance data corresponding to the facial expression of the user P.
The processing of S217 and S218 is the same as the processing of S17 and S18 of the first embodiment (FIG. 4).
In S <b> 219, the control unit 210 associates the face data of the user P with the output guidance data and causes the face data storage unit 224 to store them.
In S220, control unit 210 performs post-guidance processing. The post-guidance process is the same as in the first embodiment (FIG. 7). Thereafter, the control unit 210 ends this process.

<具体例の説明>
次に、この案内ロボット制御システム200を用いた具体例について説明する。
図15は、第2実施形態に係る案内ロボット制御システム200の具体例を示す図である。
コミュニケーションロボット201及びカメラ205は、スペース200Sの入口付近に設置されている。そして、カメラ205の画像取得部251は、フレーム画像を随時取得し、画像送信部252は、取得したフレーム画像を、コミュニケーションロボット201に対して随時送信している。
<Description of specific examples>
Next, a specific example using this guidance robot control system 200 will be described.
FIG. 15 is a diagram illustrating a specific example of the guidance robot control system 200 according to the second embodiment.
The communication robot 201 and the camera 205 are installed near the entrance of the space 200S. The image acquisition unit 251 of the camera 205 acquires frame images as needed, and the image transmission unit 252 transmits the acquired frame images to the communication robot 201 as needed.

制御部210は、図15(A)に示すように、スペース200Sの前を歩いており、顔の向きがコミュニケーションロボット201を向いているユーザP4を、声掛け対象とする(図12のS213がYES)。
次に、制御部210は、取得した顔データが顔データ記憶部224に記憶されているか否かを判断し、記憶されていないと判断した場合に、案内データ記憶部222(図11参照)から、表情に対応した声掛け時の案内データを抽出する(図12のS216a)。そして、コミュニケーションロボット201は、抽出した案内データを、スピーカ32を介して出力する(図12のS218)。この例は、コミュニケーションロボット201は、ユーザP4に対して「どうぞ店内にお立ち寄りください。」と声掛けをする。
そして、そこでユーザP4が立ち止まってコミュニケーションロボット201を見た場合には、さらに声掛けをする(図12のS220)。
As shown in FIG. 15 (A), the controller 210 walks in front of the space 200S and targets the user P4 whose face is facing the communication robot 201 (S213 in FIG. YES).
Next, the control unit 210 determines whether or not the acquired face data is stored in the face data storage unit 224. If the control unit 210 determines that the acquired face data is not stored, the control unit 210 determines from the guidance data storage unit 222 (see FIG. 11). Then, guidance data at the time of calling corresponding to the facial expression is extracted (S216a in FIG. 12). Then, the communication robot 201 outputs the extracted guidance data via the speaker 32 (S218 in FIG. 12). In this example, the communication robot 201 calls the user P4 “Please drop in at the store”.
Then, when the user P4 stops and looks at the communication robot 201, he further calls (S220 in FIG. 12).

しばらくたって、同じユーザP4が、図15(B)に示すように、スペース200Sの前を歩いており、顔の向きがコミュニケーションロボット201を向いている場合には、制御部210は、ユーザP4を、声掛け対象とする(図12のS213がYES)。
次に、制御部210は、取得した顔データが顔データ記憶部224に記憶されているか否かを判断し、先ほど案内をしたユーザP4であると判断した場合に、案内データ記憶部222(図11参照)から、表情に対応した、先ほどとは異なる声掛け時の案内データを抽出する(図12のS216)。そして、コミュニケーションロボット201は、抽出した案内データを、スピーカ32を介して出力する(図12のS218)。この例は、コミュニケーションロボット201は、ユーザP4に対して「さっきも通ったよね?」と声掛けをする。
After a while, when the same user P4 is walking in front of the space 200S and the face is facing the communication robot 201 as shown in FIG. 15B, the control unit 210 moves the user P4 to the user P4. , A voice call target (S213 in FIG. 12 is YES).
Next, the control unit 210 determines whether or not the acquired face data is stored in the face data storage unit 224. If the control unit 210 determines that the user P4 has previously guided, the control data storage unit 222 (FIG. 11), the guidance data at the time of calling different from the previous one corresponding to the facial expression is extracted (S216 in FIG. 12). Then, the communication robot 201 outputs the extracted guidance data via the speaker 32 (S218 in FIG. 12). In this example, the communication robot 201 calls out to the user P4, “You have already passed?”.

このように、第2実施形態によれば、案内ロボット制御システム200は、以下のような効果がある。
(1)コミュニケーションロボット201は、ユーザPの見ている方向と、ユーザPの移動方向との関係によって、そのユーザPに声掛けをするか否かを判断して声掛けをする。よって、例えば、スペース200Sの前を通り過ぎながらスペース200Sの方向を見ているユーザPに対して、このスペース200Sに興味があると推測して、ユーザPに声掛けをすることができる。
(2)コミュニケーションロボット201は、ユーザPの見ている方向を、ユーザPの顔が検出できたか否かによって取得できるので、処理を容易に行うことができる。
Thus, according to the second embodiment, the guidance robot control system 200 has the following effects.
(1) The communication robot 201 determines whether or not to speak to the user P based on the relationship between the direction in which the user P is viewing and the moving direction of the user P. Therefore, for example, the user P who is looking in the direction of the space 200S while passing in front of the space 200S can be inferred that he / she is interested in the space 200S and can speak to the user P.
(2) Since the communication robot 201 can acquire the direction in which the user P is looking based on whether or not the user P's face has been detected, the processing can be easily performed.

(3)コミュニケーションロボット201は、案内した相手であるユーザPの顔データを記憶しておくので、同じユーザPに対して、次に案内をする場合には、前回のものとは異なる案内データを出力することができる。よって、顔認証の機能を用いることで、案内を変えることができるため、異なる声掛けをすることができる。
(4)コミュニケーションロボット201は、カメラ205が取得したフレーム画像を用いて処理をするので、コミュニケーションロボット201が移動しても、カメラ205は固定されており、フレーム画像を取得する位置が変わらないので、例えば、時系列に並べた複数のフレーム画像の処理を容易に行うことができる。
(3) Since the communication robot 201 stores the face data of the user P who has been guided, when the next guidance is given to the same user P, different guidance data from the previous one is provided. Can be output. Therefore, since the guidance can be changed by using the face authentication function, different voice calls can be made.
(4) Since the communication robot 201 performs processing using the frame image acquired by the camera 205, even if the communication robot 201 moves, the camera 205 is fixed and the position for acquiring the frame image does not change. For example, it is possible to easily process a plurality of frame images arranged in time series.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely a list of the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used combining suitably, detailed description is abbreviate | omitted.

(変形形態)
(1)第1実施形態では、コミュニケーションロボットがカメラを備え、第2実施形態では、コミュニケーションロボットがカメラからフレーム画像を受信するものを例に説明したが、これに限定されない。
例えば、第1実施形態では、コミュニケーションロボットがカメラからフレーム画像を受信してもよい。その場合には、カメラの位置は、コミュニケーションロボットの近傍に限定されず、スペースの天井等に設置してもよい。また、複数台のカメラからフレーム画像を取得してもよい。
また、第2実施形態では、カメラを備えたコミュニケーションロボットを使用してもよい。その場合には、画像処理を容易に行うようにするために、コミュニケーションロボットは、移動をせずにフレーム画像の取得位置を変えない方が望ましい。
(Deformation)
(1) In the first embodiment, the communication robot includes a camera. In the second embodiment, the communication robot receives a frame image from the camera. However, the present invention is not limited to this.
For example, in the first embodiment, the communication robot may receive a frame image from a camera. In that case, the position of the camera is not limited to the vicinity of the communication robot, and may be installed on the ceiling of the space. In addition, frame images may be acquired from a plurality of cameras.
In the second embodiment, a communication robot including a camera may be used. In that case, in order to easily perform image processing, it is desirable that the communication robot does not move and does not change the acquisition position of the frame image.

(2)各実施形態では、コミュニケーションロボットが各種処理を行うものを例に説明したが、これに限定されない。コミュニケーションロボットに対して通信可能に接続されたサーバを備え、サーバが各種処理を行ってもよい。その場合には、コミュニケーションロボットは、少なくとも、サーバが送信した案内データを出力するスピーカと、コミュニケーションロボットが動作をするためのモータ部とを備えるものであればよい。また、コミュニケーションロボットと、サーバとの両方の装置によって各種処理を行ってもよい。   (2) In each embodiment, the communication robot performs various processes as an example, but the present invention is not limited to this. A server that is communicably connected to the communication robot may be provided, and the server may perform various processes. In that case, the communication robot only needs to include at least a speaker that outputs guidance data transmitted from the server and a motor unit for operating the communication robot. Various processes may be performed by both the communication robot and the server.

(3)各実施形態では、適宜のタイミングで取得したフレーム画像を用いるものを例に説明したが、これに限定されない。例えば、動画データを用いてもよい。その場合には、動画データから複数のフレーム画像を取得して、フレーム画像ごとに画像分析処理をすればよい。
(4)各実施形態では、取得したフレーム画像に含まれる全てのユーザに対して、画像分析処理を行うものを例に説明したが、これに限定されない。取得したフレーム画像から1のユーザを選択し、選択したユーザの画像を分析して声掛け対象にするか否かを判断してもよい。
(5)各実施形態では、案内データを出力後、案内データ出力前後でのユーザの表情を比較してさらに案内データを出力するものを例に説明したが、これに限定されない。例えば、ユーザがコミュニケーションロボットから離れるまでは、案内データを出力し続けてもよい。
(3) In each embodiment, the example using the frame image acquired at an appropriate timing has been described as an example, but the present invention is not limited to this. For example, moving image data may be used. In that case, a plurality of frame images may be acquired from the moving image data, and image analysis processing may be performed for each frame image.
(4) In each embodiment, the example in which image analysis processing is performed on all users included in the acquired frame image has been described as an example, but the present invention is not limited to this. One user may be selected from the acquired frame images, and an image of the selected user may be analyzed to determine whether or not to make a call target.
(5) In each embodiment, the guide data is output and then the user's facial expressions before and after the guide data is output are compared to output the guide data. However, the present invention is not limited to this. For example, the guidance data may continue to be output until the user leaves the communication robot.

(6)第1実施形態では、ユーザの見ている方向を、顔の方向として、首を動かしている場合に、きょろきょろしているとして方向変化量を大きくするものを説明したが、これに限定されない。例えば、ユーザの見ている方向を、目線の方向としてもよい。例えば、制御部は、フレーム画像から顔画像を検出し、その中から目を抽出することで、眼球と瞳孔との相対位置に基づいて目線の向きを取得できる。その場合、ユーザの移動方向と、顔の向きが異なり、ユーザの見ている方向がきょろきょろしている場合に、声掛け対象にすることができる。   (6) In the first embodiment, the direction in which the user is viewing is set as the face direction, and when the neck is moved, the direction change amount is increased as if it is staggered. However, the present invention is not limited to this. Not. For example, the direction that the user is viewing may be the direction of the line of sight. For example, the control unit can acquire the orientation of the line of sight based on the relative position between the eyeball and the pupil by detecting a face image from the frame image and extracting the eye from the face image. In that case, when the user's moving direction is different from the face direction, and the user's viewing direction is different, the user can make a voice call.

(7)第2実施形態では、Webカメラやステレオカメラを用いるものを例に説明したが、これに限定されない。例えば、Kinect(登録商標)に代表される深度情報を取得するセンサを有するカメラを用いてもよい。このkinectを用いれば、フレーム画像からユーザの顔を検出し、ユーザの移動方向を算出する処理をより簡易に行うことができる。
(8)第2実施形態では、ユーザの属性に関する処理をしていないが、第1実施形態と同様に、ユーザの属性を判別して、判別したユーザの属性に対応する案内データを抽出するようにしてもよい。
(7) In the second embodiment, an example using a Web camera or a stereo camera has been described, but the present invention is not limited to this. For example, a camera having a sensor that acquires depth information represented by Kinect (registered trademark) may be used. By using this kinect, the process of detecting the user's face from the frame image and calculating the moving direction of the user can be performed more easily.
(8) In the second embodiment, the processing related to the user attribute is not performed. However, as in the first embodiment, the user attribute is determined, and the guidance data corresponding to the determined user attribute is extracted. It may be.

(9)第2実施形態では、コミュニケーションロボットが以前に声掛けしたユーザと同じであると判断した場合には、以前とは異なる案内データを出力させるものを説明したが、これに限定されない。例えば、図16に示すように、ユーザの移動方向に応じて、異なる案内データを出力させるものであってもよい。
図16は、変形形態に係る案内ロボット制御システム300の具体例を示す図である。
図16(A)は、スペース300Sに向かって歩いており、顔の向きがコミュニケーションロボット301(カメラ305)を向いているユーザP5を、声掛け対象とした場合である。この場合には、コミュニケーションロボット301は、移動方向に対応した案内データである「いらっしゃいませ。ご案内しましょうか?」を出力して、ユーザP5に声掛けをする。
(9) In the second embodiment, although it has been described that the communication robot outputs the guidance data different from the previous when it is determined that the communication robot is the same as the user who spoke before, the present invention is not limited to this. For example, as shown in FIG. 16, different guidance data may be output according to the moving direction of the user.
FIG. 16 is a diagram illustrating a specific example of a guidance robot control system 300 according to a modification.
FIG. 16A shows a case where the user P5 who is walking toward the space 300S and whose face is facing the communication robot 301 (camera 305) is the target of voice call. In this case, the communication robot 301 outputs the guidance data corresponding to the moving direction, “Welcome. Would you like to guide you?” And speaks to the user P5.

次に、図16(B)は、スペース300Sから出てきて、顔の向きがコミュニケーションロボット301を向いているユーザP6を、声掛け対象とした場合である。この場合には、コミュニケーションロボット301は、移動方向に対応した案内データである「ありがとうございました」を出力して、ユーザP6に声掛けをする。
このように、コミュニケーションロボット301は、ユーザPの移動方向に対応した案内データを抽出して出力する。よって、コミュニケーションロボット301は、スペース300Sに入るユーザP5と、スペース300Sから出てきたユーザP6とに対して、異なる声掛けをすることができ、ユーザPの状況に対応した異なる適切な声掛けを、コミュニケーションロボット301にさせることができる。
Next, FIG. 16B shows a case where the user P6 who comes out of the space 300S and whose face is facing the communication robot 301 is targeted for speaking. In this case, the communication robot 301 outputs “Thank you” which is guidance data corresponding to the moving direction, and speaks to the user P6.
Thus, the communication robot 301 extracts and outputs guidance data corresponding to the moving direction of the user P. Therefore, the communication robot 301 can make different calls to the user P5 entering the space 300S and the user P6 coming out of the space 300S, and different appropriate calls according to the situation of the user P. The communication robot 301 can be used.

1,201,301 コミュニケーションロボット
10,210 制御部
11 画像取得部
12,212 画像分析部
12a 方向判別部
12b 距離算出部
12c,212c 表情判別部
12d 属性判別部
13,213 ユーザ決定処理部
13a 方向変化量算出部
13b 移動速度算出部
13c 移動方向算出部
13d,213d 案内判断部
16 移動制御部
17 案内部
18 表情比較部
20,220 記憶部
21a,221a 制御プログラム
22,222 案内データ記憶部
31,205,305 カメラ
32 スピーカ
33 モータ部
100,200,300 案内ロボット制御システム
211 画像受付部
212a 方向取得部
212e 顔取得部
214 顔データ照合部
224 顔データ記憶部
251 画像取得部
252 画像送信部
C1 子供
P,P1〜P6 ユーザ
S,200S,300S スペース
1,201,301 Communication robot 10,210 Control unit 11 Image acquisition unit 12,212 Image analysis unit 12a Direction determination unit 12b Distance calculation unit 12c, 212c Expression determination unit 12d Attribute determination unit 13,213 User determination processing unit 13a Direction change Quantity calculation unit 13b Movement speed calculation unit 13c Movement direction calculation unit 13d, 213d Guidance determination unit 16 Movement control unit 17 Guide unit 18 Expression comparison unit 20,220 Storage unit 21a, 221a Control program 22,222 Guide data storage unit 31,205 , 305 Camera 32 Speaker 33 Motor unit 100, 200, 300 Guide robot control system 211 Image receiving unit 212a Direction acquisition unit 212e Face acquisition unit 214 Face data collation unit 224 Face data storage unit 251 Image acquisition unit 252 Image transmission unit C1 child P, P1 to P6 User S, 200S, 300S Space

Claims (10)

ユーザに対する案内データを記憶する案内データ記憶部と、
時系列に連続した複数のフレーム画像を取得する画像取得手段と、
前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記フレーム画像ごとに、前記ユーザの眼球と瞳孔との相対位置に基づき、ユーザが見ている方向を判別する方向判別手段と、
前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、
前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記ユーザの顔データを取得する顔取得手段と、
前記フレーム画像ごとに前記ユーザの顔の向きを判別する顔方向判別手段と、
前記方向判別手段により判別した方向に基づいて、時間経過に伴う前記方向の変化の大きさを表す方向変化量を算出する方向変化量算出手段と、
前記方向変化量算出手段によって算出した方向の変化に基づいて、案内をするか否かを判断する案内判断手段と、
前記案内判断手段により案内をすると判断された場合に、前記案内データ記憶部から案内データを抽出してロボットによる案内を行う案内手段と、
を備え
前記案内判断手段は、さらに、前記移動方向算出手段が算出した前記ユーザの移動方向と、前記顔方向判別手段で判別した複数のフレーム画像に共通の顔の向きとが異なる方向である場合に、案内をすると判断すること、
を特徴とする案内ロボット制御システム。
A guidance data storage unit for storing guidance data for the user;
Image acquisition means for acquiring a plurality of frame images continuous in time series;
Analyzing the plurality of frame images acquired by the image acquisition unit, and for each frame image , based on a relative position between the user's eyeball and pupil, a direction determination unit that determines a direction in which the user is viewing;
A moving direction calculating means for calculating the moving direction of the user based on the position information of the user in the frame image acquired by the image acquiring means;
Analyzing the plurality of frame images acquired by the image acquisition means, and acquiring face data of the user;
Face direction determining means for determining the orientation of the user's face for each frame image;
Direction change amount calculating means for calculating a direction change amount representing the magnitude of change in the direction with time based on the direction determined by the direction determining means;
Guidance determining means for determining whether or not to guide based on a change in direction calculated by the direction change amount calculating means;
Guidance means for extracting guidance data from the guidance data storage unit and performing guidance by a robot when the guidance judgment means judges to guide;
Equipped with a,
The guidance determination unit is further configured in a case where the movement direction of the user calculated by the movement direction calculation unit is different from the direction of the face common to the plurality of frame images determined by the face direction determination unit. To decide to give guidance,
Guide robot control systems that characterized the.
請求項1に記載の案内ロボット制御システムにおいて、
前記方向判別手段は、前記顔取得手段により取得した顔データに基づいて、顔の器官を検出し、それらの位置関係から顔の向きを判定し、前記ユーザの見ている方向を取得すること、
を特徴とする案内ロボット制御システム。
In the guidance robot control system according to claim 1 ,
The direction determining means detects facial organs based on the face data acquired by the face acquiring means, determines the orientation of the face from their positional relationship, and acquires the direction that the user is viewing;
Guide robot control system characterized by
請求項1又は請求項2に記載の案内ロボット制御システムにおいて、
前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザと、ロボットとの距離を算出する距離算出手段を備え、
前記案内判断手段は、前記距離算出手段が算出した前記距離が規定範囲内である場合に、案内をすると判断すること、
を特徴とする案内ロボット制御システム。
In the guidance robot control system according to claim 1 or 2 ,
A distance calculating unit that calculates a distance between the user and the robot based on the position information of the user in the frame image acquired by the image acquiring unit;
The guidance determination means determines to provide guidance when the distance calculated by the distance calculation means is within a specified range;
Guide robot control system characterized by
請求項1から請求項3までのいずれかに記載の案内ロボット制御システムにおいて、
前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動速度を算出する移動速度算出手段を備え、
前記案内判断手段は、前記移動速度算出手段が算出した前記移動速度が規定範囲内である場合に、案内をすると判断すること、
を特徴とする案内ロボット制御システム。
In the guidance robot control system according to any one of claims 1 to 3 ,
A moving speed calculating means for calculating the moving speed of the user based on the position information of the user in the frame image acquired by the image acquiring means;
The guidance determination means determines to provide guidance when the movement speed calculated by the movement speed calculation means is within a specified range;
Guide robot control system characterized by
請求項4に記載の案内ロボット制御システムにおいて、
ロボットは、移動が可能であり、
前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、
前記移動方向算出手段により算出した前記ユーザの移動方向及び前記移動速度算出手段が算出した前記移動速度に基づいて、前記ロボットを移動させる移動制御手段と、
備えること、
を特徴とする案内ロボット制御システム。
In the guidance robot control system according to claim 4 ,
The robot can move,
A moving direction calculating means for calculating the moving direction of the user based on the position information of the user in the frame image acquired by the image acquiring means;
A movement control means for moving the robot based on the movement direction of the user calculated by the movement direction calculation means and the movement speed calculated by the movement speed calculation means;
Preparing,
Guide robot control system characterized by
請求項1から請求項5までのいずれかに記載の案内ロボット制御システムにおいて、
前記画像取得手段により取得した少なくとも1つ以上の前記フレーム画像を分析して、前記ユーザの表情を判別する表情判別手段を備え、
前記案内データ記憶部は、表情に対応する案内データを記憶し、
前記案内手段は、前記案内データ記憶部を参照して、前記表情判別手段により判別された前記ユーザの表情に基づく案内データを抽出して案内を行うこと、
を特徴とする案内ロボット制御システム。
In the guidance robot control system according to any one of claims 1 to 5 ,
Analyzing at least one or more of the frame images acquired by the image acquisition means, comprising facial expression determination means for determining the facial expression of the user;
The guidance data storage unit stores guidance data corresponding to facial expressions,
The guidance means refers to the guidance data storage unit and performs guidance by extracting guidance data based on the facial expression of the user determined by the facial expression determination means;
Guide robot control system characterized by
請求項6に記載の案内ロボット制御システムにおいて、
案内データによる案内をした後に、少なくとも前記画像取得手段による処理と、前記表情判別手段による処理とを実行し、
案内前の前記ユーザの表情と、案内後の前記ユーザの表情とを比較する表情比較手段を備え、
前記案内手段は、前記案内データ記憶部を参照して、前記表情比較手段による比較結果に基づく案内データを抽出して案内を行うこと、
を特徴とする案内ロボット制御システム。
In the guidance robot control system according to claim 6 ,
After performing the guidance by the guidance data, at least the processing by the image acquisition unit and the processing by the facial expression discrimination unit are executed,
A facial expression comparison means for comparing the facial expression of the user before guidance with the facial expression of the user after guidance;
The guidance means refers to the guidance data storage unit and performs guidance by extracting guidance data based on a comparison result by the facial expression comparison means;
Guide robot control system characterized by
請求項1から請求項7までのいずれかに記載の案内ロボット制御システムにおいて、
前記画像取得手段により取得した少なくとも1つ以上の前記フレーム画像を分析して、前記ユーザの属性を判別する属性判別手段を備え、
前記案内データ記憶部は、ユーザの属性に対応する案内データを記憶し、
前記案内手段は、前記案内データ記憶部を参照して、前記属性判別手段により判別した前記ユーザの属性に対応する案内データを抽出して案内を行うこと、
を特徴とする案内ロボット制御システム。
In the guidance robot control system according to any one of claims 1 to 7 ,
Analyzing at least one or more of the frame images acquired by the image acquisition unit, and determining attribute of the user,
The guidance data storage unit stores guidance data corresponding to user attributes,
The guidance means refers to the guidance data storage unit and performs guidance by extracting guidance data corresponding to the attribute of the user determined by the attribute determination means;
Guide robot control system characterized by
請求項1から請求項8までのいずれかに記載の案内ロボット制御システムとして、ロボットのプロセッサを機能させるためのプログラム。 The program for functioning the processor of a robot as a guidance robot control system in any one of Claim 1-8 . ユーザに対する案内データを記憶する案内データ記憶部と、
撮影部と、
前記撮影部を介して時系列に連続した複数のフレーム画像を取得する画像取得手段と、
前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記フレーム画像ごとに、前記ユーザの眼球と瞳孔との相対位置に基づき、ユーザが見ている方向を判別する方向判別手段と、
前記画像取得手段が取得したフレーム画像における前記ユーザの位置情報に基づいて、前記ユーザの移動方向を算出する移動方向算出手段と、
前記画像取得手段により取得した前記複数のフレーム画像を分析して、前記ユーザの顔データを取得する顔取得手段と、
前記フレーム画像ごとに前記ユーザの顔の向きを判別する顔方向判別手段と、
前記方向判別手段により判別した方向に基づいて、時間経過に伴う前記方向の変化の大きさを表す方向変化量を算出する方向変化量算出手段と、
前記方向変化量算出手段によって算出した方向の変化に基づいて、案内をするか否かを判断する案内判断手段と、
前記案内判断手段により案内をすると判断された場合に、前記案内データ記憶部から案内データを抽出して案内を行う案内手段と、
を備え
前記案内判断手段は、さらに、前記移動方向算出手段が算出した前記ユーザの移動方向と、前記顔方向判別手段で判別した複数のフレーム画像に共通の顔の向きとが異なる方向である場合に、案内をすると判断すること、
を特徴とする案内ロボット。
A guidance data storage unit for storing guidance data for the user;
A shooting section;
Image acquisition means for acquiring a plurality of frame images continuous in time series via the imaging unit;
Analyzing the plurality of frame images acquired by the image acquisition unit, and for each frame image , based on a relative position between the user's eyeball and pupil, a direction determination unit that determines a direction in which the user is viewing;
A moving direction calculating means for calculating the moving direction of the user based on the position information of the user in the frame image acquired by the image acquiring means;
Analyzing the plurality of frame images acquired by the image acquisition means, and acquiring face data of the user;
Face direction determining means for determining the orientation of the user's face for each frame image;
Direction change amount calculating means for calculating a direction change amount representing the magnitude of change in the direction with time based on the direction determined by the direction determining means;
Guidance determining means for determining whether or not to guide based on a change in direction calculated by the direction change amount calculating means;
Guidance means for performing guidance by extracting guidance data from the guidance data storage unit when it is judged by the guidance judgment means to be guided;
Equipped with a,
The guidance determination unit is further configured in a case where the movement direction of the user calculated by the movement direction calculation unit is different from the direction of the face common to the plurality of frame images determined by the face direction determination unit. To decide to give guidance,
Guide robot said.
JP2016045573A 2015-11-16 2016-03-09 Guide robot control system, program, and guide robot Expired - Fee Related JP6607092B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016045573A JP6607092B2 (en) 2016-03-09 2016-03-09 Guide robot control system, program, and guide robot
PCT/JP2016/081751 WO2017086108A1 (en) 2015-11-16 2016-10-26 Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016045573A JP6607092B2 (en) 2016-03-09 2016-03-09 Guide robot control system, program, and guide robot

Publications (2)

Publication Number Publication Date
JP2017159396A JP2017159396A (en) 2017-09-14
JP6607092B2 true JP6607092B2 (en) 2019-11-20

Family

ID=59854509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016045573A Expired - Fee Related JP6607092B2 (en) 2015-11-16 2016-03-09 Guide robot control system, program, and guide robot

Country Status (1)

Country Link
JP (1) JP6607092B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020075290A1 (en) * 2018-10-12 2021-10-28 株式会社ユニキャスト Customer support system
JP7032284B2 (en) * 2018-10-24 2022-03-08 Kddi株式会社 A device, program and method for estimating the activation timing based on the image of the user's face.
JP7273637B2 (en) * 2019-07-17 2023-05-15 本田技研工業株式会社 ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4622702B2 (en) * 2005-05-27 2011-02-02 株式会社日立製作所 Video surveillance device
JP4896550B2 (en) * 2006-03-14 2012-03-14 本田技研工業株式会社 Information management system
JP4786516B2 (en) * 2006-12-13 2011-10-05 三菱重工業株式会社 Service target person discrimination method in robot service system and robot service system using the method
JP2008260107A (en) * 2007-04-13 2008-10-30 Yaskawa Electric Corp Mobile robot system
JP5103682B2 (en) * 2007-10-24 2012-12-19 株式会社国際電気通信基礎技術研究所 Interactive signage system
JP5157595B2 (en) * 2008-04-01 2013-03-06 トヨタ自動車株式会社 Customer service system and customer service method
JP5732632B2 (en) * 2011-02-03 2015-06-10 株式会社国際電気通信基礎技術研究所 Robot system and space formation recognition device used therefor

Also Published As

Publication number Publication date
JP2017159396A (en) 2017-09-14

Similar Documents

Publication Publication Date Title
KR102196686B1 (en) Identity authentication method and device
US9224037B2 (en) Apparatus and method for controlling presentation of information toward human object
JP6013241B2 (en) Person recognition apparatus and method
JP5864783B2 (en) Method and apparatus for operator absent image capture
JP4642128B2 (en) Image processing method, image processing apparatus and system
JP6921694B2 (en) Monitoring system
CN107392137B (en) Face recognition method and device
KR101159164B1 (en) Fake video detecting apparatus and method
US10311287B2 (en) Face recognition system and method
KR100824757B1 (en) Gait recognition method
KR101724971B1 (en) System for recognizing face using wide angle camera and method for recognizing face thereof
JP6607092B2 (en) Guide robot control system, program, and guide robot
JP6610349B2 (en) Guide robot control system, program, and guide robot
US10360441B2 (en) Image processing method and apparatus
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JP7188446B2 (en) Authentication device, authentication method, authentication program and recording medium
CN111626240B (en) Face image recognition method, device and equipment and readable storage medium
KR102063745B1 (en) Apparatus and method for user identifying based on face profiling
JP5940944B2 (en) Viewing situation determination apparatus, discriminator construction apparatus, viewing situation judgment method, discriminator construction method, and program
KR20140022627A (en) Apparatus and method for authentication
JP2020052788A (en) Image processing system and method therefor, and program
KR20070118806A (en) Method of detecting face for embedded system
KR101718244B1 (en) Apparatus and method of processing wide angle image for recognizing face
CN115668186A (en) Authentication method, information processing device, and authentication program
KR102386918B1 (en) Device and method for authenticating mobile user based on Artificial Intelligence

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6607092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees