JP7273638B2 - ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM - Google Patents
ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM Download PDFInfo
- Publication number
- JP7273638B2 JP7273638B2 JP2019132084A JP2019132084A JP7273638B2 JP 7273638 B2 JP7273638 B2 JP 7273638B2 JP 2019132084 A JP2019132084 A JP 2019132084A JP 2019132084 A JP2019132084 A JP 2019132084A JP 7273638 B2 JP7273638 B2 JP 7273638B2
- Authority
- JP
- Japan
- Prior art keywords
- visitor
- robot
- unit
- facility
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007726 management method Methods 0.000 title claims description 50
- 238000003384 imaging method Methods 0.000 claims description 44
- 238000004891 communication Methods 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 13
- 230000009471 action Effects 0.000 claims description 3
- 230000008451 emotion Effects 0.000 description 48
- 238000000034 method Methods 0.000 description 24
- 206010027940 Mood altered Diseases 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 17
- 230000036651 mood Effects 0.000 description 13
- 239000000284 extract Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 241000219122 Cucurbita Species 0.000 description 1
- 235000009852 Cucurbita pepo Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、ロボット管理装置およびロボット管理方法ならびにこれらを用いるロボット管理システムに関する。 The present invention relates to a robot management device, a robot management method, and a robot management system using these.
昨今、人手不足を解消する手段の一つとして、案内ロボットを用いたロボット制御システムに関する様々な技術が提案されている(例えば特許文献1参照)。特許文献1記載のロボット制御システムでは、施設に配置される案内ロボット(コミュニケーションロボット)と施設に設置されるセンサとを連携させて、来訪者に対する適当な接客を可能にしている。
In recent years, as one means of resolving the labor shortage, various techniques related to robot control systems using guide robots have been proposed (see, for example, Patent Document 1). In the robot control system described in
しかし、施設に設置されるセンサを用いて来訪者を特定する場合、来訪者の位置や姿勢により来訪者の特定が困難な場合がある。例えば、会話をしながら来訪する場合等、歩く方向と顔の向きとが異なる場合には来訪者の特定が困難となる。来訪者の特定が困難になると、案内ロボットを用いた効率的な接客も困難となる。 However, when identifying a visitor using a sensor installed in a facility, it may be difficult to identify the visitor depending on the position and posture of the visitor. For example, when a visitor visits while talking, it is difficult to identify the visitor when the direction of walking is different from the direction of the face. If it becomes difficult to identify a visitor, it becomes difficult to serve customers efficiently using a guidance robot.
本発明の一態様は、施設に来訪した来訪者に対しサービスを行う自走可能な案内ロボットを管理するロボット管理装置である。ロボット管理装置は、施設に設置された撮像部により撮像される施設内画像を取得する施設内画像取得部と、施設内画像取得部が取得した施設内画像から施設に来訪した来訪者を特定する来訪者特定部と、施設内画像取得部が取得した施設内画像から施設に来訪した来訪者グループを特定する来訪者グループ特定部と、来訪者の下に案内ロボットが派遣されるように案内ロボットに移動を指示するロボット移動指示部と、を備え、ロボット移動指示部は、来訪者特定部が施設内画像に基づいて来訪者を特定不能と判定した場合には、特定不能と判定された来訪者の下に案内ロボットが派遣されるように案内ロボットに移動を指示し、来訪者グループ特定部にて特定された来訪者グループの中に、来訪者特定部により特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に案内ロボットが派遣されるように案内ロボットに移動を指示する。 One aspect of the present invention is a robot management device that manages a self-propelled guide robot that provides services to visitors visiting a facility. The robot management device includes an in-facility image acquisition unit that acquires an in-facility image captured by an imaging unit installed in the facility, and identifies visitors who have visited the facility from the in-facility image acquired by the in-facility image acquisition unit. A visitor identification unit, a visitor group identification unit that identifies a visitor group that has visited the facility from the image of the facility acquired by the image acquisition unit of the facility, and a guidance robot that dispatches a guidance robot under the visitor and a robot movement instruction unit that instructs the movement of the visitor, and when the visitor identification unit determines that the visitor cannot be identified based on the in-facility image, the robot movement instruction unit determines that the visitor is unidentifiable. Instruct the guide robot to move so that the guide robot is dispatched under the visitor, and the visitor who is determined to be unidentifiable by the visitor identification unit in the visitor group identified by the visitor group identification unit exists, the guide robot is instructed to move so that the guide robot is dispatched under the visitor group to which the visitor determined to be unidentifiable belongs.
また本発明の他の態様は、施設に来訪した来訪者に対しサービスを行う自走可能な案内ロボットを管理するロボット管理方法である。ロボット管理方法は、コンピュータによりそれぞれ実行される、施設に設置された撮像部により撮像される施設内画像を取得する施設内画像取得ステップと、施設内画像取得ステップにて取得した施設内画像から施設に来訪した来訪者を特定する来訪者特定ステップと、施設内画像取得ステップにて取得した施設内画像から施設に来訪した来訪者グループを特定する来訪者グループ特定ステップと、来訪者の下に案内ロボットが派遣されるように案内ロボットに移動を指示するロボット移動指示ステップと、を備える。ロボット移動指示ステップは、来訪者特定ステップにて施設内画像に基づいて来訪者を特定不能と判定された場合には、特定不能と判定された来訪者の下に案内ロボットが派遣されるように案内ロボットに移動を指示し、来訪者グループ特定ステップにて特定された来訪者グループの中に、来訪者特定ステップにより特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に案内ロボットが派遣されるように案内ロボットに移動を指示する。
Another aspect of the present invention is a robot management method for managing a self-propelled guide robot that provides services to visitors visiting a facility. The robot management method includes an in-facility image acquisition step of acquiring an in-facility image captured by an imaging unit installed in the facility, and an in-facility image acquired in the in-facility image acquisition step, which is executed by a computer. a visitor group identification step of identifying a visitor who has visited the facility, a visitor group identification step of identifying a visitor group who has visited the facility from the image of the facility acquired in the facility image acquisition step, and guidance under the visitor and a robot movement instruction step for instructing the guide robot to move so that the robot is dispatched. In the step of instructing movement of the robot, when it is determined that the visitor cannot be specified based on the image inside the facility in the step of specifying the visitor, a guide robot is dispatched to the visitor who is determined as being unspecifiable. If the visitor group identified in the visitor group identification step includes a visitor determined to be unidentifiable by the visitor identification step after instructing the guide robot to move, the visitor is determined to be unidentifiable. The guide robot is instructed to move so that the guide robot is dispatched under the visitor group to which the visitor belongs .
さらに本発明の他の態様であるロボット管理システムは、上述のロボット管理装置と、施設に設置され、ロボット管理装置と通信可能な撮像部と、施設に配置され、自走可能かつロボット管理装置と通信可能な案内ロボットと、を備える。 Further, a robot management system according to another aspect of the present invention includes the above-described robot management device, an imaging unit installed in a facility and capable of communicating with the robot management device, and a self-propelled robot management device installed in the facility. a communicable guide robot;
本発明によれば、施設に来訪した来訪者に対して、案内ロボットを用いた効率的な接客を適当に行うことができる。 ADVANTAGE OF THE INVENTION According to this invention, the efficient customer service using a guide robot can be appropriately performed with respect to the visitor who visited the facility.
以下、図1~図7を参照して本発明の一実施形態について説明する。本発明の実施形態に係るロボット管理装置は、施設内に設置された撮像部が撮像する施設内画像に基づいて、施設に来訪した来訪者を特定する。例えば、施設内画像に写る来訪者の顔画像に基づいて来訪者を特定する。 An embodiment of the present invention will be described below with reference to FIGS. 1 to 7. FIG. A robot management device according to an embodiment of the present invention identifies a visitor who has visited a facility based on an in-facility image captured by an imaging unit installed in the facility. For example, the visitor is identified based on the face image of the visitor appearing in the image inside the facility.
このとき、施設内画像に基づいて来訪者を特定不能な場合には、特定不能と判定された来訪者の下に案内ロボットを派遣させる。例えば、施設内画像から来訪者の顔画像が抽出不能(認識不能)の場合には、来訪者を特定不能と判定し、特定不能と判定された来訪者の下に案内ロボットを派遣させる。 At this time, if the visitor cannot be identified based on the in-facility image, a guide robot is dispatched to the visitor who is determined to be unidentifiable. For example, when the face image of the visitor cannot be extracted (recognized) from the image inside the facility, the visitor is determined to be unidentifiable, and a guidance robot is dispatched to the visitor determined to be unidentifiable.
このように、特定不能と判定された来訪者の下に案内ロボットを派遣させることで、該来訪者が施設内画像により特定可能となるような該来訪者の位置または姿勢の変化を案内ロボットが促したり、案内ロボットに来訪者の顔画像を直接撮像させたりすることができる。例えば、案内ロボットが移動してくることで来訪者が案内ロボットの方を向くと、撮像部により来訪者の顔を撮像し易くなるとともに、案内ロボットが来訪者の顔を直接撮像可能になる。これにより、特定不能と判定された来訪者を特定することが可能となる。その結果、例えば、撮像部と案内ロボットとを連携させた適当な接客が可能になる。 In this way, by dispatching the guide robot to the visitor who is determined to be unidentifiable, the guide robot can detect changes in the position or posture of the visitor so that the visitor can be identified by the image of the facility. It is possible to prompt the visitor, or to have the guide robot directly capture the face image of the visitor. For example, when the guide robot moves and the visitor turns to face the guide robot, it becomes easier for the imaging unit to capture an image of the visitor's face, and the guide robot can directly capture an image of the visitor's face. This makes it possible to identify the visitor who has been determined to be unidentifiable. As a result, for example, it is possible to provide appropriate customer service through cooperation between the imaging unit and the guide robot.
例えば、機嫌の悪い来訪者に案内ロボットを派遣させてコミュニケーションをとらせるサービスを行うことが可能になるので、来訪者の機嫌を向上させたり、機嫌の悪化を抑制したりすることができる。例えば長時間待たされて機嫌の悪くなった来訪者の下に案内ロボットを派遣してコミュニケーションをとらせることで、機嫌よくさせたり、さらに機嫌が悪くなることを抑制したりすることができる。これにより、その後の施設員等による接客をスムーズに行わせることができる。 For example, it is possible to provide a service in which a visitor who is in a bad mood is sent a guide robot to communicate with the visitor. For example, by dispatching a guide robot to a visitor who has been kept waiting for a long time and is in a bad mood to communicate with the visitor, it is possible to make the visitor feel better or to prevent the visitor from being in a bad mood. As a result, it is possible to smoothly serve customers by staff members of the facility after that.
また例えば、来訪者に対して、案内ロボットに予め要件を訊かせたり、簡単な案内をさせたりすることができる。例えば、長時間待たされている来訪者や長い待ち時間が予想される来訪者グループに対して、予め、案内ロボットに要件等を訊かせたり、簡単な案内をさせたりすることができる。これにより、その後の施設員等による効率的な接客が可能になる。 Also, for example, it is possible to have the guide robot ask the visitor about their requirements in advance or provide simple guidance. For example, for a visitor who has been waiting for a long time or a group of visitors who are expected to wait for a long time, the guide robot can be made to ask requirements and the like or provide simple guidance in advance. This enables efficient customer service by facility staff and the like thereafter.
このように、ロボット管理装置を用いることで、案内ロボットを用いた効率的かつスムーズな接客が可能になる。 Thus, by using the robot management device, efficient and smooth customer service using the guide robot becomes possible.
本実施形態のロボット管理システムでは、上述のロボット管理装置と、施設内に設置され、ロボット管理装置と通信可能なカメラ等の撮像部と、施設に配置され、自走可能かつロボット管理装置と通信可能な上述の案内ロボットとを用い、上述のようなロボット派遣案内サービスを提供する。このように、ロボット管理システムを用いてロボット派遣案内サービスを提供することで、例えば、案内ロボットを用いた効率的かつスムーズな接客が可能になる。 In the robot management system of this embodiment, the robot management device described above, an imaging unit such as a camera installed in the facility and capable of communicating with the robot management device, A robot-dispatched guidance service as described above is provided using the possible guidance robots described above. In this way, by providing a robot dispatch guide service using a robot management system, for example, efficient and smooth customer service using a guide robot becomes possible.
上述のようなロボット派遣案内サービスを提供する事業体としては、例えば、各種商品を小売販売する販売店、美術館、博物館、画廊およびギャラリー等の美術関連施設、科学館、記念館、展覧会、ワークショップ等が挙げられる。各種商品を小売販売する販売店としては、例えば、デパート、スーパー、専門販売店等が挙げられる。専門販売店としては、各種専門販売店や自動車販売店等が挙げられる。以下の実施形態では、ロボット管理装置をサーバ装置により構成し、このサーバ装置を自動車販売店に設置して、自動車販売店のショールームを来訪した来訪者の下に、該ショールームに配置した案内ロボットを派遣する例を説明する。 As a business entity that provides the robot dispatch guide service as described above, for example, retail stores that sell various products, art museums, museums, galleries and other art related facilities such as galleries, science museums, memorial halls, exhibitions, workshops, etc. shops and the like. Stores that retail various products include, for example, department stores, supermarkets, specialty stores, and the like. Examples of specialty stores include various specialty stores and car dealers. In the following embodiments, the robot management device is configured by a server device, this server device is installed in an automobile dealership, and a guide robot arranged in the showroom is placed under a visitor who visits the showroom of the automobile dealership. An example of dispatching will be explained.
図1は、本発明の実施形態に係るロボット管理装置を構成するサーバ装置4を用いたロボット管理システム100の概略構成図である。図1に示すように、本実施形態に係るサーバ装置4を用いたロボット管理システム100では、展示車両2が展示される自動車販売店のショールーム1に自走可能な案内ロボット3が配置される。そして、ショールーム1に訪れる来訪者をショールーム1の天井10に設置された複数の撮像部11それぞれにて撮像し、撮像したショールーム内画像から来訪者を特定する。
FIG. 1 is a schematic configuration diagram of a
例えば、図1に示すように、三人の来訪者A,B,Cで構成される友人グループ101と、二人の来訪者D,Eで構成される親子グループ102がショールーム1を訪れる場合、サーバ装置4は、撮像部11が撮像した友人グループ101を含むショールーム内画像から、来訪者A~Cを特定し、撮像部11が撮像した親子グループ102を含むショールーム内画像から、来訪者D,Eを特定する。サーバ装置4は、これらショールーム内画像から来訪者A~Eの顔画像を抽出(顔を認識)し、顔画像に基づいて来訪者A~Eを特定する。
For example, as shown in FIG. 1, when a
このとき、これらショールーム内画像に基づいて来訪者A~Eを特定不能な場合には、サーバ装置4は、特定不能と判定された来訪者A~Eの下に案内ロボット3を派遣させる。例えば、親子グループ102の来訪者E(例えば子供)を特定不能な場合には、サーバ装置4は、案内ロボット3が来訪者E(例えば子供)の下に派遣されるように、案内ロボット3に来訪者Eの下への移動を指示する。案内ロボット3が来訪者Eの下に移動することで、例えば、来訪者Eが案内ロボット3に気付き、案内ロボット3の方を向くことで来訪者Eの位置や姿勢を変化させることができる。
At this time, if the visitors A to E cannot be identified based on these in-showroom images, the
ここで、案内ロボット3について、図2を参照しながら簡単に説明する。図2は、図1に示すロボット管理システム100を構成する案内ロボット3を模式的に示す斜視図である。図2に示すように、案内ロボット3は、直立させた略ひょうたん型に形成されており、括れ部302を中心に上方が頭部301を構成し、下方が胴部303を構成する。案内ロボット3は、頭部301が胴部303よりも僅かに大きい略2頭身に形成されており、全体として愛嬌や温かみのある形状となっている。本実施形態では、案内ロボット3は110cm前後の身長を有する。
Here, the
また案内ロボット3には手足がなく、胴部303の下端に設けられる走行装置304により前後左右および斜め方向等、360度如何なる方向にも移動自在に構成される。なお、走行装置304の具体的構成については、ここではその説明を省略する。このように案内ロボット3は、頭部301が胴部303よりも若干大きく、かつ手足のない形状を有することで、例えば子供が抱きつき易く、子供とのコミュニケーションを図りやすい形状となっている。また案内ロボット3は、走行装置304が前後方向および左右方向に揺れながらの動作を可能とするので、来訪者が接近等に気付き易く、来訪者とのコミュニケーションを図りやすい動き等が可能となっている。
Further, the
案内ロボット3の頭部301には、水平方向に長い略楕円形状の顔部305が設けられており、顔部305は案内ロボット3の表情や簡単な文字画像等を表示可能に構成される。本実施形態では、案内ロボット3の顔部305には眼を表現する一対の擬似眼306,306が表示されており、一対の擬似眼306,306で色んな表情を表現可能に構成されている。例えば、一対の擬似眼306,306の形状を変化させることで、喜怒哀楽等の表情を表現可能になる。本実施形態では、さらに口を表現する擬似口307が表示されており、一対の擬似眼306,306および擬似口307の形状を変化させることで、表情の変化を分かり易くさせている。
A
また案内ロボット3は、顔部305の中で一対の擬似眼306,306の位置を移動可能に構成される。案内ロボット3は、顔部305内で一対の擬似眼306,306の位置を変えることで視線を動かす動作を表現する。案内ロボット3は、来訪者の前で一対の擬似眼306,306の位置を変えて視線を動かす動作を表現することで、来訪者の視線を誘導する。このとき案内ロボット3に視線の移動に連動させて回転動作等を行わせることで、より来訪者の視線を誘導し易くなる。
Further, the
上述のように形成された案内ロボット3を例えば特定不能な来訪者Eの下に派遣させることで、例えば、撮像部11により来訪者Eの顔が撮像可能となるように来訪者Eの位置や姿勢を変化させる動き(誘導する動き)を案内ロボット3にさせたり、案内ロボット3に来訪者Eの顔を直接撮像させたりすることが可能になる。その結果、例えば来訪者Eが特定可能になり、案内ロボットを用いた効率的かつスムーズな接客が可能になる。このような自動車販売店によるロボット派遣案内サービスの提供を良好に実現するため、本実施形態では、以下のようなサーバ装置4を用いたロボット管理システム100を構成する。
By dispatching the
図3は、図1に示すロボット管理システム100の要部構成を示すブロック図であり、図4は、図3に示すサーバ装置4の要部構成を示すブロック図である。図1に示すように、本実施形態に係るロボット管理システム100は、自動車販売店のショールーム1の天井10に設置される撮像部11と、ショールーム1内に配置される自走可能な案内ロボット3と、自動車販売店が有するサーバ装置4とを備える。
FIG. 3 is a block diagram showing the essential configuration of the
図3に示すように、撮像部11、案内ロボット3およびサーバ装置4は、無線通信網、インターネット、電話回線網などの通信ネットワーク5に接続される。図3には、便宜上、1つの撮像部11しか示されていないが、図1に示すように、撮像部11は実際には複数存在する。同様に、図3には、1つの案内ロボット3しか示されていないが、案内ロボット3を複数配置することも可能である。なお、案内ロボット3をショールーム1内に多数配置すると、来場者に威圧感を与えかねず、自動車販売店側のコストも増大することから、案内ロボット3の台数は少ないことが好ましい。
As shown in FIG. 3, the
図3に示すように、撮像部11は、通信部111と、カメラ部112と、センサ部113と、記憶部114と、演算部115とを有する。通信部111は、通信ネットワーク5を介してサーバ装置4および案内ロボット3と無線通信可能に構成される。カメラ部112は、CCDやCMOS等の撮像素子を有するカメラであり、ショールーム1を訪れた来訪者を撮像可能に構成される。センサ部113は、動体検知センサや人感センサ等のセンサであり、ショールーム1を訪れた来訪者のショールーム内の位置や動きを検出可能に構成される。カメラ部112およびセンサ部113は、ショールーム1を訪れる来訪者がショールーム1内の何れの位置に居ても撮像および検知可能となるように、ショールーム1の天井10に複数配置される。
As shown in FIG. 3 , the
記憶部114は、図示しない揮発性または不揮発性メモリを有する。記憶部114には、演算部115が実行する各種プログラムやデータ等が記憶される。例えば記憶部114には、カメラ部112が撮像したショールーム内画像およびセンサ部113が検出した来訪者の位置情報が一時的に記憶させる。
演算部115はCPUを有し、通信部111を介して撮像部11の外部から受信した信号および記憶部114に記憶された各種プログラム等に基づいて所定の処理を実行し、通信部111、カメラ部112、センサ部113および記憶部114に所定の制御信号を出力する。
The
例えば演算部115は、通信部111を介してサーバ装置4から受信した信号および所定のプログラムに基づいて、カメラ部112にショールーム1を撮像させる制御信号を出力するとともに、センサ部113に来訪者の位置を検出させる制御信号を出力する。そして演算部115は、撮像したショールーム内画像および検出した来訪者の位置情報を、通信部111を介してサーバ装置4に送信させる制御信号を出力する。演算部115でのこの処理により、ショールーム1内が撮像されるとともに来訪者の位置が検出され、サーバ装置4にショールーム内画像および来訪者の位置情報が送信される。
For example, the
図3に示すように、案内ロボット3は、機能的構成として、通信部31と、入力部32と、出力部33と、カメラ部34と、走行部35と、センサ部36と、記憶部37と、演算部38とを有する。通信部31は、通信ネットワーク5を介してサーバ装置4および撮像部11と無線通信可能に構成される。入力部32は、メンテナンス時等に操作可能な各種スイッチボタン(図示せず)、および来訪者等の音声を入力可能なマイク(図示せず)等を有する。
As shown in FIG. 3 , the
出力部33は、音声を出力可能なスピーカ(図示せず)と、画像を表示可能な表示部331とを有する。表示部331は案内ロボット3の上述した顔部305を構成し、表示部331には上述した一対の擬似眼306,306や文字画像等が表示される。表示部331は、一対の擬似眼306,306や文字画像等を表示可能に構成されていればよく、例えば液晶パネルや、プロジェクタおよびスクリーン等により構成される。
The
カメラ部34は、CCDやCMOS等の撮像素子を有するカメラであり、ショールーム1を訪れた来訪者を撮像可能に構成される。カメラ部34は、例えば、案内ロボット3の頭部301に設けられる。頭部301にカメラ部34を設けることで、来訪者の顔を撮像し易くなる。またカメラ部34は、来訪者の顔を撮像する観点から、案内ロボット3の一対の擬似眼306,306の近くに設けることが好ましい。
The
走行部35は、案内ロボット3を自走させる上述の走行装置304により構成される。走行部35はバッテリおよびモータを有しており、バッテリの電気でモータを駆動して走行するように構成される。走行部35は、公知の電動技術を用いて構成可能である。センサ部36は、走行速度センサ、加速度センサおよびジャイロセンサ等の案内ロボット3の走行および停止状態を検出するセンサや、障害物センサ、人感センサおよび動体センサ等の案内ロボット3の周囲の状態を検出するセンサ等の各種センサを有する。
The traveling
記憶部37は、図示しない揮発性または不揮発性メモリを有する。記憶部37には、演算部38が実行する各種プログラムや各種データ等が記憶される。また記憶部37には、来訪者との接客内容に関するデータ等が一時的に記憶される。例えば、案内ロボット3が訊き出した来訪者の要件や案内ロボット3が行った来訪者への説明等が一時的に記憶される。
The
記憶部37には、メモリが担う機能的構成の一例として、ショールームデータベース371と、コミュニケーション用データベース372とが記憶される。ショールームデータベース371には、例えば、ショールーム1内に配置される展示車両2やテーブル等の配置に対応したデータが記憶される。ショールームデータベース371は、案内ロボット3がショールーム内を移動する際に参照される。コミュニケーション用データベース372には、案内ロボット3が来訪者とコミュニケーションを図る際の音声認識処理や音声出力処理に対応したデータ等が記憶される。コミュニケーション用データベース372は、案内ロボット3が来訪者とコミュニケーションを図る際に参照される。
The
演算部38はCPUを有し、通信部31を介して案内ロボット3の外部から受信した信号、入力部32を介して入力された信号、センサ部36により検出された信号、記憶部37に記憶された各種プログラムや各種データ等に基づいて所定の処理を実行し、通信部31、出力部33、カメラ部34、走行部35および記憶部37に所定の制御信号を出力する。
The
例えば演算部38は、通信部31を介してサーバ装置4から受信した信号およびセンサ部36が検出する信号に基づいて、走行部35および記憶部37に制御信号を出力する。演算部38でのこの処理により、案内ロボット3が来訪者の下に派遣される。また例えば演算部38は、通信部31を介してサーバ装置4から受信した信号に基づいて、カメラ部34および通信部31に制御信号を出力する。演算部38でのこの処理により、来訪者の顔が撮像され、撮像された顔画像がサーバ装置4に送信される。
For example, the
また例えば演算部38は、通信部111を介してサーバ装置4から受信した信号に基づいて、出力部33(表示部331)に制御信号を出力する。演算部38でのこの処理により、案内ロボット3の表情を変えたり、一対の擬似眼306,306の視線を変化させたりする。また例えば演算部38は、入力部32を介して入力された信号に基づいて、出力部33および記憶部37に制御信号を出力する。演算部38でのこの処理により、案内ロボット3が来訪者とコミュニケーションを図れるようになる。
Further, for example, the
図4に示すように、サーバ装置4は、通信部41と、入力部42と、出力部43と、記憶部44と、演算部45とを有する。サーバ装置4は、クラウド上で仮想サーバ機能を利用して構成することもでき、各機能を分散して構成することもできる。
As shown in FIG. 4 , the
通信部41は、通信ネットワーク5を介して、撮像部11および案内ロボット3と無線通信可能に構成される(図3参照)。入力部42は、タッチパネルやキーボード等のユーザが操作可能な各種スイッチ、および音声を入力可能なマイク等を有する。なお、ここでいうユーザとは、本実施形態においては、自動車販売店の店員である。出力部43は、例えば文字や画像を表示可能なモニタ、音声を出力可能なスピーカ等を有する。
The
記憶部44は、図示しない揮発性または不揮発性メモリを有する。記憶部44には、演算部45が実行する各種プログラムや各種データ等が記憶される。記憶部44は、メモリが担う機能的構成として、案内ロボットデータベース441と、ショールームデータベース442と、来訪者データベース443と有する。
The
案内ロボットデータベース441は、ロボット派遣案内サービスに用いられる案内ロボット3のロボットID等の案内ロボット3に関する基本情報およびメンテナンス情報等を記憶する。ショールームデータベース442は、ショールーム1内に配置される展示車両2やテーブル等の配置に対応したデータを記憶する。なお、ショールームデータベース442は、案内ロボット3の有する記憶部37に記憶されるショールームデータベース371と同様の構成を有しており、どちらかを有する構成であってもよい。
The
来訪者データベース443は、ショールーム1を来訪する来訪者の来訪者情報を記憶する。来訪者情報としては、来訪者の住所、氏名、年齢、職業、性別といった来訪者の基本情報に加え、来訪者の顔画像および来訪履歴等が含まれる。来訪履歴の中には、来訪時における商談内容に加え、商談前の雑談等も含まれる。
The
また来訪者データベース443は、来訪者がグループを構成して来訪した場合には、来訪者グループと対応付けて来訪者を記憶する。例えば、来訪者が家族グループで来訪した場合には、当該来訪者をこの家族グループと対応付けて記憶し、来訪者が友人グループで来訪した場合には、当該来訪者をこの友人グループと対応付けて記憶する。このように来訪者は、複数のグループに所属する場合があり、来訪者データベース443には、来訪者マップが形成される。
In addition, the
演算部45はCPUを有し、入力部42を介して受信した信号、通信部41を介してサーバ装置4の外部から受信した信号、および記憶部44に記憶された各種プログラムや各種データ等に基づいて所定の処理を実行し、通信部41、出力部43および記憶部44に制御信号を出力する。
The
図4に示すように、演算部45は、プロセッサが担う機能的構成として、施設内画像取得部451と、ロボット画像取得部452と、ロボット視線指示部453と、来訪者特定部454と、来訪者グループ特定部455と、グループ感情特定部456と、ロボット移動指示部457とを有する。
As shown in FIG. 4 , the
施設内画像取得部451は、ショールーム1内に設置された複数の撮像部11により撮像されるショールーム内画像を取得する。具体的には、施設内画像取得部451は、複数の撮像部11により撮像されたショールーム1の内部(展示車両2が展示してあるスペース)の画像(静止画および動画を含む)データを、通信部41を介して入力する。本実施形態では、施設内画像取得部451は、複数の撮像部11にショールーム内画像を撮像させ、撮像させたショールーム内画像を取得する。具体的には、施設内画像取得部451は、複数の撮像部11にショールーム1を撮像させる制御信号を通信部41を介して出力し、複数の撮像部11が撮像したショールーム内画像データを通信部41を介して入力する。
The in-facility
ロボット画像取得部452は、ショールーム1に配置された案内ロボット3が撮像した来訪者の顔画像を含む画像を取得する。具体的には、ロボット画像取得部452は、案内ロボット3が撮像した来訪者の顔画像を含む画像(静止画および動画を含む)データを、通信部41を介して入力する。本実施形態では、ロボット画像取得部452は、案内ロボット3に来訪者の顔を撮像させ、撮像させた顔画像を含む画像を取得する。具体的には、ロボット画像取得部452は、案内ロボット3に来訪者の顔を撮像させる制御信号を通信部41を介して出力し、案内ロボット3が撮像した来訪者の顔画像を含む画像データを、通信部41を介して入力する。
The robot
ロボット視線指示部453は、案内ロボット3の一対の擬似眼306,306の視線の方向を指示する。具体的には、ロボット視線指示部453は、案内ロボット3の一対の擬似眼306,306の位置および動きを指示する制御信号を、通信部41を介して案内ロボット3に出力する。
The robot line-of-
案内ロボット3は、通信部31を介して当該制御信号を入力すると、入力した当該制御信号に基づいて表示部331を制御して、一対の擬似眼306,306の位置を変化させる。すなわち、視線を動かす。案内ロボット3が視線を動かすと、来訪者は案内ロボット3の視線につられて、案内ロボット3の視線の方向を見る。このように、案内ロボット3が視線を動かすことで、来訪者の視線を誘導して来訪者の位置または姿勢の変化を促すことができる。例えば、案内ロボット3の視線を撮像部11に向けることで、来訪者の視線を撮像部11に向けることができる。そして、来訪者が撮像部11を見ると、撮像部11によって来訪者の顔を撮像することができる。
When the control signal is input via the
来訪者特定部454は、施設内画像取得部451が取得したショールーム内画像からショールーム1に来訪した来訪者を特定する。例えば来訪者特定部454は、ショールーム内画像から人物を抽出し、抽出した人物から顔画像をさらに抽出(認識)する。そして、来訪者データベース443に記憶された来訪者データの中から、抽出した顔画像と一致する顔画像を有する来訪者データを検索し、来訪者を特定する。抽出した顔画像と一致する顔画像を有する来訪者データがない場合には、新規の来訪者として、来訪者データベース443に記憶させる。
The
また来訪者特定部454は、ショールーム内画像から抽出した人物から顔画像が抽出(認識)できず、来訪者が特定不能と判定した場合には、ロボット移動指示部457に制御信号を出力する。ロボット移動指示部457は、この制御信号を入力すると、この人物の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。そして、ロボット画像取得部452が案内ロボット3にこの人物の顔を撮像させる。案内ロボット3が撮像した上記人物の顔画像を含む画像は、通信部41を介してロボット画像取得部452に入力され、来訪者特定部454は、ロボット画像取得部452に入力された上記人物の顔画像を用いて、上述と同様の方法にて来訪者を特定する。
When the
来訪者グループ特定部455は、施設内画像取得部451が取得したショールーム内画像からショールーム1に来訪した来訪者グループを特定する。例えば来訪者グループ特定部455は、ショールーム内画像から複数の来訪者を抽出し、これら来訪者の距離感または顔の向き等から、これら来訪者がグループを構成するか否かを判定する。例えば、所定時間以上、一定の距離を保つ複数の来訪者を来訪者グループと特定する。また例えば、互いが会話をする向きに顔を向け合う行為をする複数の来訪者を来訪者グループと特定する。このとき来訪者グループ特定部455は、来訪者グループを構成する複数の来訪者の人数も特定する。
The visitor
また来訪者グループ特定部455は、来訪者特定部454が特定した複数の来訪者が来訪者グループを構成するか否かを特定する。例えば来訪者グループ特定部455は、来訪者特定部454が特定した各来訪者の、来訪者データベース443に記憶された来訪者情報から来訪者グループ情報を抽出し、抽出した来訪者グループ情報からこれら来訪者が来訪者グループを構成するか否かを特定する。
The visitor
グループ感情特定部456は、来訪者グループ特定部455にて特定された来訪者グループを構成する複数の来訪者の感情をショールーム内画像に基づいて推定し、来訪者グループのグループ感情を特定する。グループ感情特定部456は、例えば来訪者グループが機嫌の良いグループ(例えば楽しそうなグループ)であるか、機嫌の悪いグループ(例えばイライラしたり、怒ったりしているグループ)であるかを特定する。
The group
グループ感情特定部456は、推定する複数の来訪者の感情の割合に基づいてグループ感情を特定する。例えばグループ感情特定部456は、グループ内で機嫌の良い来訪者の割合が高い(機嫌の悪い来訪者の割合が低い)グループを機嫌の良いグループと特定し、機嫌の悪い来訪者の割合が高い(機嫌の良い来訪者の割合が低い)グループを機嫌の悪いグループと特定する。すなわち、本実施形態における感情の割合とは、グループ内における各感情(機嫌が悪いや機嫌が良い等)の割合を意味する。
The group
例えばグループ感情特定部456は、図1に示すように、三人の来訪者A,B,Cで構成される友人グループ101と、二人の来訪者D,Eで構成される親子グループ102がショールーム1を来訪した場合、複数の撮像部11が撮像したショールーム内画像から、友人グループ101および親子グループ102のグループ感情を特定する。グループ感情特定部456は、友人グループ101を構成する来訪者A~Cの感情を推定し、例えば、来訪者Aおよび来訪者Bの機嫌がよく、来訪者Cの機嫌が悪いと推定した場合、友人グループ101のグループ感情を「機嫌やや良」と特定する。同様に、グループ感情特定部456は、親子グループ102を構成する来訪者D,Eの感情を推定し、例えば、来訪者D(例えば親)の機嫌が良く、来訪者E(例えば子供)の機嫌が悪いと推定した場合、親子グループ102のグループ感情を「機嫌やや悪」と特定する。
For example, as shown in FIG. 1, the group
グループ感情としては、例えば、機嫌の良い来訪者のみ「機嫌良」、機嫌の良い来訪者が相対的に多い「機嫌やや良」、機嫌の良い来訪者と機嫌の悪い来訪者とが同程度「普通」、機嫌の悪い来訪者が相対的に多い「機嫌やや悪」、機嫌の悪い来訪者のみ「機嫌悪」等が挙げられる。またこのとき、来訪者が子供の場合は、子供の来訪者の感情を重視するようにグループ感情を特定してもよく、少しでも機嫌の悪い来訪者がいる来訪者グループを「機嫌やや悪」に特定してもよい。 For group emotions, for example, only visitors in a good mood are in a good mood, visitors in a good mood are relatively in a good mood, and visitors in a good mood and visitors in a bad mood are equally likely to be in a good mood. "Normal", "Slightly bad mood" with relatively many visitors in a bad mood, and "Bad mood" only with visitors in a bad mood. At this time, if the visitor is a child, the group emotion may be specified so as to emphasize the emotion of the child visitor. may be specified.
各来訪者の感情は、来訪者の仕草や挙動等に基づいて推定することができる。例えば、ショールーム内画像から抽出した来訪者の顔画像や、来訪者の動作等から来訪者の感情を推定する。例えば、来訪者が怒った顔をしている場合や、周りを見回していたり、貧乏ゆすりなどしていたりして落ち着きがない場合等は、機嫌が悪いと推定する。一方、来訪者がうれしそうな顔をしている場合や、来訪者同士で会話をしている場合等は、機嫌が良いと推定する。 The emotion of each visitor can be estimated based on the visitor's gestures, behavior, and the like. For example, the emotion of the visitor is estimated from the face image of the visitor extracted from the image inside the showroom, the behavior of the visitor, and the like. For example, if the visitor looks angry, looks around, or is unsettled by extortion, etc., it is assumed that the visitor is in a bad mood. On the other hand, if the visitor looks happy or is having a conversation with another visitor, it is estimated that the visitor is in a good mood.
またグループ感情特定部456は、ロボット画像取得部452が取得したロボット撮像画像に基づいて来訪者の感情を推定し、該来訪者グループのグループ感情を更新する。グループ感情特定部456は、例えば、ショールーム内画像に基づいて来訪者が特定不能等の理由により、来訪者グループの下に案内ロボット3が派遣されて、案内ロボット3により来訪者が撮像された場合には、案内ロボット3が撮像した来訪者の顔画像に基づいて来訪者の感情を推定し、これに基づいてグループ感情を更新する。
Also, the group
ロボット移動指示部457は、グループ感情特定部456にて特定されたグループ感情に基づいて、来訪者グループの下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。具体的には、ロボット移動指示部457は、来訪者グループの下への案内ロボット3の移動を指示する制御信号を、通信部41を介して案内ロボット3に出力する。
The robot
このときロボット移動指示部457は、グループ感情特定部456にて特定したグループ感情が相対的に悪い来訪者グループを優先して、該来訪者グループの下への案内ロボットの移動を指示する。例えば、グループ感情が「機嫌悪」の来訪者グループと、グループ感情が「機嫌やや悪」の来訪者グループとが存在した場合、グループ感情が「機嫌悪」の来訪者グループを優先して、該来訪者グループの下への案内ロボット3の移動を指示する。
At this time, the robot
またロボット移動指示部457は、グループ感情特定部456が特定したグループ感情が同じとなる来訪者グループが複数存在する場合には、人数の少ない来訪者グループを優先して、該来訪者グループの下への案内ロボット3の移動を指示する。例えば、グループ感情が「機嫌やや悪」と特定された来訪者グループが2グループ存在し、一方の来訪者グループが3人で構成され、他方の来訪者グループが5人で構成されている場合には、3人で構成される来訪者グループを優先して、該来訪者グループの下への案内ロボット3の移動を指示する。
Further, when there are a plurality of visitor groups having the same group emotion specified by the group
さらにロボット移動指示部457は、来訪者特定部454がショールーム内画像に基づいて来訪者を特定不能と判定した場合には、特定不能と判定された来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。例えばロボット移動指示部457は、来訪者特定部454から出力される来訪者特定不能の制御信号を入力すると、来訪者特定部454にてショールーム内画像から抽出した人物の近傍に、案内ロボット3が派遣されるように案内ロボット3に移動を指示する。
Furthermore, when the
このときロボット移動指示部457は、来訪者特定部454にてショールーム内画像から抽出した人物が来訪者グループを構成する場合には、該人物が属する来訪者グループの近傍に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。そしてロボット移動指示部457は、特定不能と判定された来訪者が施設内画像取得部451により取得されるショールーム内画像により特定可能となるような該来訪者の位置または姿勢の変化を促す動作を案内ロボット3に指示する。例えばロボット移動指示部457は、特定不能と判定された来訪者が撮像部11の方を向く位置または姿勢となるように、案内ロボット3に動作を指示する。
At this time, if the person extracted from the in-showroom image by the
例えばロボット移動指示部457は、案内ロボット3の後方に撮像部11を位置させた状態で、特定不能と判定された来訪者の下への案内ロボット3の移動を指示する。特定不能と判定された来訪者は、近づいて来る案内ロボット3に気付くと案内ロボット3の方を見るので、案内ロボット3の後方に位置する撮像部11により来訪者の顔が撮像可能となる。このとき、案内ロボット3に特定不能と判定された来訪者が気付き易い動作を行わせるとよい。このようにして、来訪者の位置または姿勢の変化を促す。
For example, the robot
またロボット視線指示部453が、案内ロボット3の一対の擬似眼306,306の視線の方向を指示することで、該来訪者の視線を誘導して該来訪者の位置または姿勢の変化を促すことが好ましい。例えば一対の擬似眼306,306の視線の方向を撮像部11の方に移動する動作をさせることで、来訪者の視線を撮像部11の方に誘導することが好ましい。このとき、例えばロボット移動指示部457が案内ロボット3に視線の移動と連動させた回転動作等を行わせることで、視線を誘導し易くなる。
Further, the robot line-of-
図5は、図3のサーバ装置4の演算部45で実行される案内ロボット派遣処理の一例を示すフローチャートである。図6は、図3のサーバ装置4の演算部45で実行される来訪者特定処理の一例を示すフローチャートであり、図7は、図3のサーバ装置4の演算部45で実行される来訪者グループ特定処理の一例を示すフローチャートである。図5に示す案内ロボット派遣処理は、例えば、ショールーム1を開店すると開始され、閉店するまで実行される。
FIG. 5 is a flow chart showing an example of the guide robot dispatching process executed by the
図5に示すように、まず、ステップS1において、施設内画像取得部451での処理により、ショールーム1に設置された複数の撮像部11により撮像されるショールーム内画像を取得する(施設内画像取得ステップ)。次いで、ステップS2で、施設内画像取得ステップにて取得したショールーム内画像からショールーム1に来訪した来訪者を特定する来訪者特定処理を実行する(来訪者特定ステップ)。
As shown in FIG. 5, first, in step S1, an in-facility
来訪者特定処理(来訪者特定ステップ)では、図6に示すように、先ず、ステップS20で、来訪者特定部454での処理により、施設内画像取得ステップにて取得したショールーム内画像から施設に来訪した人物を抽出する。次いで、ステップS21で、来訪者特定部454での処理により、抽出した人物の顔画像を抽出可能(認識可能)か否かを判定する。ステップS21で否定されるとステップS22に進み、ロボット移動指示部457での処理により、抽出不能と判定された人物の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する(ロボット移動指示ステップ)。
In the visitor identification process (visitor identification step), as shown in FIG. Extract the person who visited. Next, in step S21, it is determined whether or not the face image of the extracted person can be extracted (recognized) by processing in the
次いで、ステップS23で、来訪者特定部454での処理により、抽出不能と判定された人物の顔画像を取得可能か否かを判定する。ステップS23で否定されるとステップS24に進み、ロボット視線指示部453での処理により、案内ロボット3の一対の擬似眼306,306の視線の方向を指示し、来訪者の視線を誘導して該来訪者の位置または姿勢の変化を促す(ロボット視線指示ステップ)。
Next, in step S23, it is determined whether or not the facial image of the person determined to be unextractable can be acquired through the process of the
次いで、ステップS25で、来訪者特定部454での処理により、抽出不能と判定された人物の顔画像を取得可能か否かを判定する。ステップS25で否定されるとステップS26に進み、ロボット画像取得部452での処理により、案内ロボット3に顔を撮像させ、抽出不能と判定された人物の顔画像を取得する(ロボット画像取得ステップ)。
Next, in step S25, it is determined whether or not the facial image of the person determined to be unextractable can be obtained by the process of the
一方、ステップS21、ステップS23、ステップS25のそれぞれで肯定されると、またはステップS26で抽出不能(特定不能)と判定された人物の顔画像を取得すると、次いで、ステップS27で、来訪者特定部454での処理により、来訪者の顔画像を抽出(認識)する。次いで、ステップS28で、来訪者特定部454での処理により、来訪者を特定する。
On the other hand, if each of steps S21, S23, and S25 is affirmative, or if the face image of the person determined to be unextractable (identifiable) is acquired in step S26, then in step S27, the visitor identification unit The process at 454 extracts (recognizes) the face image of the visitor. Next, in step S28, the visitor is identified by processing in the
来訪者特定処理(来訪者特定ステップ)を実行すると、図5に示すように、次いで、ステップS3で、来訪者グループを特定する来訪者グループ特定処理を実行する(来訪者グループ特定ステップ)。 After executing the visitor identification process (visitor identification step), as shown in FIG. 5, next, in step S3, a visitor group identification process for identifying a visitor group is executed (visitor group identification step).
来訪者グループ特定処理(来訪者グループ特定ステップ)では、図7に示すように、先ず、ステップS30で、来訪者グループ特定部455での処理により、来訪者特定ステップで特定された来訪者を特定する。次いで、ステップS31で、特定された来訪者が来訪者グループを構成するか否かを判定する。ステップS31で否定されるとステップS1に戻る。一方、ステップS31で肯定されるとステップS32に進み、来訪者グループを特定する。
In the visitor group identification process (visitor group identification step), as shown in FIG. 7, first, in step S30, the visitor identified in the visitor identification step is identified by processing in the visitor
来訪者グループ特定処理を実行すると、図5に示すように、次いで、ステップS4で、グループ感情特定部456での処理により、複数の来訪者それぞれの感情を推定する(グループ感情特定ステップ)。次いで、ステップS5で、グループ感情特定部456での処理により、推定した複数の来訪者それぞれの感情に基づいて来訪者グループのグループ感情を特定する(グループ感情特定ステップ)。次いで、ステップS6で、ロボット移動指示部457での処理により、来訪者グループのグループ感情に基づいて、来訪者グループの下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する(ロボット移動指示ステップ)。
Once the visitor group identification process is executed, as shown in FIG. 5, in step S4, the group
次いで、ステップS7で、ショールーム1の閉店時間か否かを判定し、ステップS7で否定されるとステップS1に戻り、上述を繰り返す。一方、ステップS7で肯定されると、処理を終了する。
Next, in step S7, it is determined whether or not the
本実施形態によれば以下のような作用効果を奏することができる。
(1)自動車販売店のショールーム1に来訪した来訪者に対しサービスを行う自走可能な案内ロボット3を管理するサーバ装置4である。サーバ装置4は、ショールーム1に設置された複数の撮像部11により撮像されるショールーム内画像を取得する施設内画像取得部451と、施設内画像取得部451が取得したショールーム内画像からショールーム1に来訪した来訪者を特定する来訪者特定部454と、来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示するロボット移動指示部457と、を備える。ロボット移動指示部457は、来訪者特定部454がショールーム内画像に基づいて来訪者を特定不能と判定した場合には、特定不能と判定された来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。
According to this embodiment, the following effects can be obtained.
(1) A
この構成により、自動車販売店のショールーム1に来訪した来訪者に対して、案内ロボット3を用いた効率的な接客を適当に行うことができる。例えば、特定不能と判定された来訪者の下に案内ロボット3を派遣させることで、該来訪者がショールーム内画像により特定可能となるような該来訪者の位置または姿勢の変化を促したり、案内ロボット3に来訪者の顔画像を撮像させたりすることができる。
With this configuration, it is possible to appropriately and efficiently serve a visitor who visits the
例えば、案内ロボット3が移動してくることで来訪者が案内ロボット3の方を向くと、撮像部11により来訪者の顔を撮像し易くなるとともに、案内ロボット3が来訪者の顔を直接撮像可能になる。これにより、特定不能と判定された来訪者を特定することが可能となる。その結果、例えば、撮像部11と案内ロボット3とを連携させた適当な接客が可能になる。
For example, when the visitor turns to the
例えば、機嫌の悪い来訪者に案内ロボットを派遣させてコミュニケーションをとらせることが可能になるので、来訪者の機嫌を向上させたり、機嫌の悪化を抑制したりすることができる。例えば長時間待たされて機嫌の悪くなった来訪者の下に案内ロボットを派遣してコミュニケーションをとらせることで、機嫌よくさせたり、さらに機嫌が悪くなることを抑制したりすることができる。これにより、その後の自動車販売店側の販売員(例えば営業マン)等による商談等の接客をスムーズに行わせることができる。 For example, it is possible to dispatch a guide robot to a visitor who is in a bad mood to communicate with the visitor. For example, by dispatching a guide robot to a visitor who has been kept waiting for a long time and is in a bad mood to communicate with the visitor, it is possible to make the visitor feel better or to prevent the visitor from being in a bad mood. As a result, subsequent customer service such as business negotiations by a salesperson (for example, a salesperson) of the automobile dealer can be smoothly performed.
また例えば、来訪者に対して、案内ロボットに予め要件を訊かせたり、簡単な案内をさせたりすることができる。例えば、長時間待たされている来訪者や長い待ち時間が予想される来訪者グループに対して、予め、案内ロボットに要件等を訊かせたり、簡単な案内をさせたりすることができる。これにより、その後の販売員(例えば営業マン)等による効率的な接客が可能になる。 Also, for example, it is possible to have the guide robot ask the visitor about their requirements in advance or provide simple guidance. For example, for a visitor who has been waiting for a long time or a group of visitors who are expected to wait for a long time, the guide robot can be made to ask requirements and the like or provide simple guidance in advance. This enables efficient customer service by a salesperson (for example, a salesperson) afterward.
このように、本実施形態に係るサーバ装置4を用いることで、例えば、案内ロボット3を用いた効率的かつスムーズな接客が可能になる。
Thus, by using the
(2)施設内画像取得部451が取得したショールーム内画像からショールーム1に来訪した来訪者グループを特定する来訪者グループ特定部455をさらに備える。ロボット移動指示部457は、来訪者グループ特定部455にて特定された来訪者グループの中に、来訪者特定部454により特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。例えば、グループでショールーム1に来訪した場合は、向かい合って話をしながら来訪する場合が多く、この場合は来訪者の顔の認識が困難となるが、案内ロボット3を派遣することで、全ての来訪者の顔を認識することが可能になる。
(2) Further provided is a visitor
(3)ロボット移動指示部457は、来訪者特定部454により特定不能と判定された来訪者の近傍への移動を案内ロボット3に指示し、特定不能と判定された来訪者が施設内画像取得部451により取得されるショールーム内画像により特定可能となるような来訪者の位置または姿勢の変化を促す動作を指示する。例えば、ロボット移動指示部457は、特定不能と判定された来訪者が撮像部11の方を向く位置または姿勢となるように、案内ロボット3に移動を指示する。これにより、特定不能と判定された来訪者の顔を認識可能となり、特定不能と判定された来訪者を特定可能となる。
(3) The robot
(4)案内ロボット3が視線を移動可能な一対の擬似眼306,306を有し、案内ロボット3の一対の擬似眼306,306の視線の方向を指示するロボット視線指示部453をさらに備える。ロボット視線指示部453は、ロボット移動指示部457により来訪者の近傍に移動した案内ロボット3の一対の擬似眼306,306の視線の方向を指示することで、来訪者の視線を誘導して来訪者の位置または姿勢の変化を促す。これにより、特定不能と判定された来訪者の顔の認識が容易となり、特定不能と判定された来訪者を特定可能となる。
(4) The
(5)自動車販売店のショールーム1に来訪した来訪者に対しサービスを行う自走可能な案内ロボット3を管理するロボット管理方法である。ロボット管理方法は、サーバ装置4が、ショールーム1に設置された複数の撮像部11により撮像されるショールーム内画像を取得する施設内画像取得ステップと、施設内画像取得ステップにて取得したショールーム内画像からショールームに来訪した来訪者を特定する来訪者特定ステップと、来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示するロボット移動指示ステップと、を実行する。ロボット移動指示ステップは、来訪者特定ステップにてショールーム内画像に基づいて来訪者を特定不能と判定された場合には、特定不能と判定された来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。
(5) A robot management method for managing a self-propelled
この方法により、上述のサーバ装置4のように、自動車販売店のショールーム1に来訪した来訪者に対して、案内ロボット3を用いた効率的な接客を適当に行うことができる。例えば、案内ロボット3を用いた効率的かつスムーズな接客が可能になる。
By this method, like the
(6)ロボット管理システム100は、上述のサーバ装置4と、ショールーム1に設置され、サーバ装置4と通信可能な複数の撮像部11と、ショールーム1に配置され、自走可能かつサーバ装置4と通信可能な案内ロボット3と、を備える。これにより、自動車販売店のショールーム1に来訪した来訪者に対して、案内ロボット3を用いた効率的な接客を適当に行うことができる。例えば、案内ロボット3を用いた効率的かつスムーズな接客が可能になる。
(6) The
上記実施形態では、サーバ装置4の演算部45は、施設内画像取得部451と、ロボット画像取得部452と、ロボット視線指示部453と、来訪者特定部454と、来訪者グループ特定部455と、グループ感情特定部456と、ロボット移動指示部457とを備えて構成したが、本発明はこれに限定されない。演算部45は、施設内画像取得部451と、来訪者特定部454と、ロボット移動指示部457とを備えていればよい。また演算部45は、来訪者グループ特定部455を備えることが好ましく、ロボット視線指示部453を備えることがさらに好ましい。
In the above-described embodiment, the
上記実施形態では、サーバ装置4の演算部45で実行される案内ロボット派遣処理として、施設内画像取得ステップと、来訪者特定ステップと、来訪者グループ特定ステップと、グループ感情特定ステップと、ロボット移動指示ステップとを備えて構成したが、本発明はこれに限定されない。案内ロボット派遣処理は、施設内画像取得ステップと、来訪者特定ステップと、来訪者特定ステップにおけるロボット移動指示ステップとを備えていればよい。
In the above-described embodiment, the guidance robot dispatching process executed by the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態により本発明が限定されるものではない。 The above description is merely an example, and the present invention is not limited by the above-described embodiments as long as the features of the present invention are not impaired.
1 ショールーム(施設)、3 案内ロボット、4 サーバ装置(ロボット管理装置)、5 通信ネットワーク、11 撮像部、100 ロボット管理システム、101 友人グループ(来訪者グループ)、102 親子グループ(来訪者グループ)、306 一対の擬似眼、451 施設内画像取得部、452 ロボット画像取得部、453 ロボット視線指示部、454 来訪者特定部、455 来訪者グループ特定部、456 グループ感情特定部、457 ロボット移動指示部、A~E 来訪者 1 showroom (facility), 3 guide robot, 4 server device (robot management device), 5 communication network, 11 imaging unit, 100 robot management system, 101 friend group (visitor group), 102 parent-child group (visitor group), 306 pair of pseudo eyes, 451 in-facility image acquisition unit, 452 robot image acquisition unit, 453 robot gaze instruction unit, 454 visitor identification unit, 455 visitor group identification unit, 456 group emotion identification unit, 457 robot movement instruction unit, A to E Visitors
Claims (5)
前記施設に設置された撮像部により撮像される施設内画像を取得する施設内画像取得部と、
前記施設内画像取得部が取得した前記施設内画像から施設に来訪した来訪者を特定する来訪者特定部と、
前記施設内画像取得部が取得した前記施設内画像から施設に来訪した来訪者グループを特定する来訪者グループ特定部と、
来訪者の下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示するロボット移動指示部と、を備え、
前記ロボット移動指示部は、前記来訪者特定部が前記施設内画像に基づいて来訪者を特定不能と判定した場合には、特定不能と判定された来訪者の下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示し、前記来訪者グループ特定部にて特定された来訪者グループの中に、前記来訪者特定部により特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示する、ことを特徴とするロボット管理装置。 A robot management device that manages a self-propelled guide robot that provides services to visitors visiting a facility,
an in-facility image acquisition unit that acquires an in-facility image captured by an imaging unit installed in the facility;
a visitor identification unit that identifies a visitor who has visited the facility from the in-facility image acquired by the in-facility image acquisition unit;
a visitor group identifying unit that identifies a group of visitors who have visited the facility from the in-facility image acquired by the in-facility image acquiring unit;
a robot movement instruction unit that instructs the guide robot to move so that the guide robot is dispatched under the visitor;
When the visitor identification unit determines that the visitor cannot be identified based on the in-facility image, the robot movement instruction unit dispatches the guide robot to the visitor who is determined to be unidentifiable. When the visitor group identified by the visitor group identification unit includes a visitor who is determined to be unidentifiable by the visitor identification unit, 1. A robot management apparatus, comprising: a robot management apparatus that instructs a guide robot to move so that the guide robot is dispatched to a visitor group to which a visitor determined to be unidentifiable belongs.
前記ロボット移動指示部は、前記来訪者特定部により特定不能と判定された来訪者の近傍への移動を前記案内ロボットに指示し、特定不能と判定された来訪者が前記施設内画像取得部により取得される施設内画像により特定可能となるような該来訪者の位置または姿勢の変化を促す動作を指示する、ことを特徴とするロボット管理装置。 The robot movement instruction unit instructs the guide robot to move to the vicinity of the visitor determined to be unidentifiable by the visitor identification unit, and the visitor determined to be unidentifiable is 1. A robot management apparatus, characterized in that it instructs an action that prompts a change in the position or posture of the visitor so as to be identifiable from an acquired in-facility image.
前記案内ロボットが視線を移動可能な擬似眼を有し、 The guide robot has a pseudo eye capable of moving a line of sight,
前記案内ロボットの前記擬似眼の視線の方向を指示するロボット視線指示部をさらに備え、 further comprising a robot line-of-sight instruction unit for instructing a line-of-sight direction of the pseudo eye of the guide robot;
前記ロボット視線指示部は、前記ロボット移動指示部により来訪者の近傍に移動した前記案内ロボットの前記擬似眼の視線の方向を指示することで、該来訪者の視線を誘導して該来訪者の位置または姿勢の変化を促す、ことを特徴とするロボット管理装置。 The robot line-of-sight instruction unit instructs the direction of the line-of-sight of the pseudo eyes of the guide robot that has moved to the vicinity of the visitor by the robot movement instruction unit, thereby guiding the line of sight of the visitor. A robot management device characterized by prompting a change in position or posture.
コンピュータによりそれぞれ実行される、 respectively executed by a computer,
前記施設に設置された撮像部により撮像される施設内画像を取得する施設内画像取得ステップと、 an in-facility image acquisition step of acquiring an in-facility image captured by an imaging unit installed in the facility;
前記施設内画像取得ステップにて取得した前記施設内画像から施設に来訪した来訪者を特定する来訪者特定ステップと、 a visitor identification step of identifying a visitor who has visited the facility from the in-facility image acquired in the in-facility image acquisition step;
前記施設内画像取得ステップにて取得した前記施設内画像から施設に来訪した来訪者グループを特定する来訪者グループ特定ステップと、 a visitor group identification step of identifying a visitor group who has visited the facility from the in-facility image acquired in the in-facility image acquisition step;
来訪者の下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示するロボット移動指示ステップと、を備え、 a robot movement instruction step of instructing the guide robot to move so that the guide robot is dispatched under the visitor;
前記ロボット移動指示ステップは、前記来訪者特定ステップにて前記施設内画像に基づいて来訪者を特定不能と判定された場合には、特定不能と判定された来訪者の下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示し、前記来訪者グループ特定ステップにて特定された来訪者グループの中に、前記来訪者特定ステップにより特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示する、ことを特徴とするロボット管理方法。 In the robot movement instruction step, when the visitor identification step determines that the visitor cannot be identified based on the in-facility image, the guide robot is dispatched under the visitor who is determined to be unidentifiable. When the visitor group identified in the visitor group identification step includes a visitor determined to be unidentifiable by the visitor identification step 1. A robot management method comprising: instructing a guide robot to move so that the guide robot is dispatched under a visitor group to which a visitor determined to be unidentifiable belongs.
前記施設に設置され、前記ロボット管理装置と通信可能な撮像部と、 an imaging unit installed in the facility and capable of communicating with the robot management device;
前記施設に配置され、自走可能かつ前記ロボット管理装置と通信可能な前記案内ロボットと、を備えるロボット管理システム。 A robot management system comprising the guide robot disposed in the facility, capable of self-propelled communication, and capable of communicating with the robot management device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019132084A JP7273638B2 (en) | 2019-07-17 | 2019-07-17 | ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM |
CN202010642902.0A CN112238458B (en) | 2019-07-17 | 2020-07-06 | Robot management device, robot management method, and robot management system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019132084A JP7273638B2 (en) | 2019-07-17 | 2019-07-17 | ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018482A JP2021018482A (en) | 2021-02-15 |
JP7273638B2 true JP7273638B2 (en) | 2023-05-15 |
Family
ID=74170809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019132084A Active JP7273638B2 (en) | 2019-07-17 | 2019-07-17 | ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7273638B2 (en) |
CN (1) | CN112238458B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113561195A (en) * | 2021-07-20 | 2021-10-29 | 柒久园艺科技(北京)有限公司 | Robot guide exhibition hall internet of things system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005193351A (en) | 2004-01-09 | 2005-07-21 | Honda Motor Co Ltd | Face image acquiring method and its system |
JP2006123102A (en) | 2004-10-29 | 2006-05-18 | Advanced Telecommunication Research Institute International | Eyeball control device, eyeball control method and eyeball control program |
JP2016068197A (en) | 2014-09-30 | 2016-05-09 | 富士ソフト株式会社 | robot |
JP2017222021A (en) | 2016-06-14 | 2017-12-21 | グローリー株式会社 | Shop reception system |
JP2018055232A (en) | 2016-09-27 | 2018-04-05 | 大日本印刷株式会社 | Content providing device, content providing method, and program |
JP2018051669A (en) | 2016-09-28 | 2018-04-05 | 大日本印刷株式会社 | Robot system and program |
JP2018098545A (en) | 2016-12-08 | 2018-06-21 | カシオ計算機株式会社 | Robot, operation control system, operation control method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017221924A1 (en) * | 2016-06-22 | 2017-12-28 | ローレル精機株式会社 | Counter reception system and service robot |
KR20180109124A (en) * | 2017-03-27 | 2018-10-08 | (주)로직아이텍 | Convenient shopping service methods and systems using robots in offline stores |
JP2019049785A (en) * | 2017-09-08 | 2019-03-28 | 株式会社日立ビルシステム | Robot management system and commodity proposing method |
CN109348170B (en) * | 2018-09-21 | 2021-01-01 | 北京大学(天津滨海)新一代信息技术研究院 | Video monitoring method and device and video monitoring equipment |
-
2019
- 2019-07-17 JP JP2019132084A patent/JP7273638B2/en active Active
-
2020
- 2020-07-06 CN CN202010642902.0A patent/CN112238458B/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005193351A (en) | 2004-01-09 | 2005-07-21 | Honda Motor Co Ltd | Face image acquiring method and its system |
JP2006123102A (en) | 2004-10-29 | 2006-05-18 | Advanced Telecommunication Research Institute International | Eyeball control device, eyeball control method and eyeball control program |
JP2016068197A (en) | 2014-09-30 | 2016-05-09 | 富士ソフト株式会社 | robot |
JP2017222021A (en) | 2016-06-14 | 2017-12-21 | グローリー株式会社 | Shop reception system |
JP2018055232A (en) | 2016-09-27 | 2018-04-05 | 大日本印刷株式会社 | Content providing device, content providing method, and program |
JP2018051669A (en) | 2016-09-28 | 2018-04-05 | 大日本印刷株式会社 | Robot system and program |
JP2018098545A (en) | 2016-12-08 | 2018-06-21 | カシオ計算機株式会社 | Robot, operation control system, operation control method, and program |
Also Published As
Publication number | Publication date |
---|---|
CN112238458A (en) | 2021-01-19 |
CN112238458B (en) | 2024-03-15 |
JP2021018482A (en) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200064976A (en) | Portable virtual reality device | |
US11307593B2 (en) | Artificial intelligence device for guiding arrangement location of air cleaning device and operating method thereof | |
US7584158B2 (en) | User support apparatus | |
KR101088083B1 (en) | Intelligent display apparutus having publicity function and method of performing publicity function | |
JP4369326B2 (en) | Facility information providing system and facility information providing method | |
JP2005293052A (en) | Robot for dealing with customer | |
JP2003050559A (en) | Autonomously movable robot | |
KR20200066280A (en) | Foldable virtual reality device | |
US20180025283A1 (en) | Information processing apparatus, information processing method, and program | |
US20210334640A1 (en) | Artificial intelligence server and method for providing information to user | |
JP2005131713A (en) | Communication robot | |
JP7000759B2 (en) | Guidance device, guidance system, guidance method and program | |
JP7273638B2 (en) | ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM | |
JP7273637B2 (en) | ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM | |
JP6739017B1 (en) | Tourism support device, robot equipped with the device, tourism support system, and tourism support method | |
JP7575307B2 (en) | CONTROL DEVICE, CONTROL METHOD, AND ROBOT CONTROL SYSTEM | |
US20220297308A1 (en) | Control device, control method, and control system | |
JP2011033837A (en) | Interaction support device, interaction support device, and program | |
US12205122B2 (en) | Customer service system, server, control method, and storage medium | |
US20220300982A1 (en) | Customer service system, server, control method, and storage medium | |
US20210256263A1 (en) | Information processing apparatus, information processing method, and program | |
KR20220004156A (en) | Car cabin interaction method, device and vehicle based on digital human | |
US20220301029A1 (en) | Information delivery system, information delivery method, and storage medium | |
JP2022116625A (en) | Control device and program | |
JP2021126911A (en) | Environmental information providing system, environmental information providing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7273638 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |