JP7273638B2 - ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM - Google Patents

ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM Download PDF

Info

Publication number
JP7273638B2
JP7273638B2 JP2019132084A JP2019132084A JP7273638B2 JP 7273638 B2 JP7273638 B2 JP 7273638B2 JP 2019132084 A JP2019132084 A JP 2019132084A JP 2019132084 A JP2019132084 A JP 2019132084A JP 7273638 B2 JP7273638 B2 JP 7273638B2
Authority
JP
Japan
Prior art keywords
visitor
robot
unit
facility
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019132084A
Other languages
Japanese (ja)
Other versions
JP2021018482A (en
Inventor
浩之 坂口
智宏 塚本
夢 ▲柳▼田
敬一郎 新井
由樹 達富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019132084A priority Critical patent/JP7273638B2/en
Priority to CN202010642902.0A priority patent/CN112238458B/en
Publication of JP2021018482A publication Critical patent/JP2021018482A/en
Application granted granted Critical
Publication of JP7273638B2 publication Critical patent/JP7273638B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Description

本発明は、ロボット管理装置およびロボット管理方法ならびにこれらを用いるロボット管理システムに関する。 The present invention relates to a robot management device, a robot management method, and a robot management system using these.

昨今、人手不足を解消する手段の一つとして、案内ロボットを用いたロボット制御システムに関する様々な技術が提案されている(例えば特許文献1参照)。特許文献1記載のロボット制御システムでは、施設に配置される案内ロボット(コミュニケーションロボット)と施設に設置されるセンサとを連携させて、来訪者に対する適当な接客を可能にしている。 In recent years, as one means of resolving the labor shortage, various techniques related to robot control systems using guide robots have been proposed (see, for example, Patent Document 1). In the robot control system described in Patent Literature 1, a guide robot (communication robot) installed in a facility and a sensor installed in the facility are linked to enable appropriate customer service to visitors.

特許第6142306号公報Japanese Patent No. 6142306

しかし、施設に設置されるセンサを用いて来訪者を特定する場合、来訪者の位置や姿勢により来訪者の特定が困難な場合がある。例えば、会話をしながら来訪する場合等、歩く方向と顔の向きとが異なる場合には来訪者の特定が困難となる。来訪者の特定が困難になると、案内ロボットを用いた効率的な接客も困難となる。 However, when identifying a visitor using a sensor installed in a facility, it may be difficult to identify the visitor depending on the position and posture of the visitor. For example, when a visitor visits while talking, it is difficult to identify the visitor when the direction of walking is different from the direction of the face. If it becomes difficult to identify a visitor, it becomes difficult to serve customers efficiently using a guidance robot.

本発明の一態様は、施設に来訪した来訪者に対しサービスを行う自走可能な案内ロボットを管理するロボット管理装置である。ロボット管理装置は、施設に設置された撮像部により撮像される施設内画像を取得する施設内画像取得部と、施設内画像取得部が取得した施設内画像から施設に来訪した来訪者を特定する来訪者特定部と、施設内画像取得部が取得した施設内画像から施設に来訪した来訪者グループを特定する来訪者グループ特定部と、来訪者の下に案内ロボットが派遣されるように案内ロボットに移動を指示するロボット移動指示部と、を備え、ロボット移動指示部は、来訪者特定部が施設内画像に基づいて来訪者を特定不能と判定した場合には、特定不能と判定された来訪者の下に案内ロボットが派遣されるように案内ロボットに移動を指示し、来訪者グループ特定部にて特定された来訪者グループの中に、来訪者特定部により特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に案内ロボットが派遣されるように案内ロボットに移動を指示する。 One aspect of the present invention is a robot management device that manages a self-propelled guide robot that provides services to visitors visiting a facility. The robot management device includes an in-facility image acquisition unit that acquires an in-facility image captured by an imaging unit installed in the facility, and identifies visitors who have visited the facility from the in-facility image acquired by the in-facility image acquisition unit. A visitor identification unit, a visitor group identification unit that identifies a visitor group that has visited the facility from the image of the facility acquired by the image acquisition unit of the facility, and a guidance robot that dispatches a guidance robot under the visitor and a robot movement instruction unit that instructs the movement of the visitor, and when the visitor identification unit determines that the visitor cannot be identified based on the in-facility image, the robot movement instruction unit determines that the visitor is unidentifiable. Instruct the guide robot to move so that the guide robot is dispatched under the visitor, and the visitor who is determined to be unidentifiable by the visitor identification unit in the visitor group identified by the visitor group identification unit exists, the guide robot is instructed to move so that the guide robot is dispatched under the visitor group to which the visitor determined to be unidentifiable belongs.

また本発明の他の態様は、施設に来訪した来訪者に対しサービスを行う自走可能な案内ロボットを管理するロボット管理方法である。ロボット管理方法は、コンピュータによりそれぞれ実行される、施設に設置された撮像部により撮像される施設内画像を取得する施設内画像取得ステップと、施設内画像取得ステップにて取得した施設内画像から施設に来訪した来訪者を特定する来訪者特定ステップと、施設内画像取得ステップにて取得した施設内画像から施設に来訪した来訪者グループを特定する来訪者グループ特定ステップと、来訪者の下に案内ロボットが派遣されるように案内ロボットに移動を指示するロボット移動指示ステップと、を備える。ロボット移動指示ステップは、来訪者特定ステップにて施設内画像に基づいて来訪者を特定不能と判定された場合には、特定不能と判定された来訪者の下に案内ロボットが派遣されるように案内ロボットに移動を指示し、来訪者グループ特定ステップにて特定された来訪者グループの中に、来訪者特定ステップにより特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に案内ロボットが派遣されるように案内ロボットに移動を指示する
Another aspect of the present invention is a robot management method for managing a self-propelled guide robot that provides services to visitors visiting a facility. The robot management method includes an in-facility image acquisition step of acquiring an in-facility image captured by an imaging unit installed in the facility, and an in-facility image acquired in the in-facility image acquisition step, which is executed by a computer. a visitor group identification step of identifying a visitor who has visited the facility, a visitor group identification step of identifying a visitor group who has visited the facility from the image of the facility acquired in the facility image acquisition step, and guidance under the visitor and a robot movement instruction step for instructing the guide robot to move so that the robot is dispatched. In the step of instructing movement of the robot, when it is determined that the visitor cannot be specified based on the image inside the facility in the step of specifying the visitor, a guide robot is dispatched to the visitor who is determined as being unspecifiable. If the visitor group identified in the visitor group identification step includes a visitor determined to be unidentifiable by the visitor identification step after instructing the guide robot to move, the visitor is determined to be unidentifiable. The guide robot is instructed to move so that the guide robot is dispatched under the visitor group to which the visitor belongs .

さらに本発明の他の態様であるロボット管理システムは、上述のロボット管理装置と、施設に設置され、ロボット管理装置と通信可能な撮像部と、施設に配置され、自走可能かつロボット管理装置と通信可能な案内ロボットと、を備える。 Further, a robot management system according to another aspect of the present invention includes the above-described robot management device, an imaging unit installed in a facility and capable of communicating with the robot management device, and a self-propelled robot management device installed in the facility. a communicable guide robot;

本発明によれば、施設に来訪した来訪者に対して、案内ロボットを用いた効率的な接客を適当に行うことができる。 ADVANTAGE OF THE INVENTION According to this invention, the efficient customer service using a guide robot can be appropriately performed with respect to the visitor who visited the facility.

本発明の実施形態に係るロボット管理装置を構成するサーバ装置を用いたロボット管理システムの概略構成図。1 is a schematic configuration diagram of a robot management system using a server device that constitutes a robot management device according to an embodiment of the present invention; FIG. 図1に示すロボット管理システムを構成する案内ロボットを模式的に示す斜視図。FIG. 2 is a perspective view schematically showing a guide robot that constitutes the robot management system shown in FIG. 1; 図1に示すロボット管理システムの要部構成を示すブロック図。FIG. 2 is a block diagram showing the main configuration of the robot management system shown in FIG. 1; 図3に示すサーバ装置の要部構成を示すブロック図。FIG. 4 is a block diagram showing the main configuration of the server device shown in FIG. 3; 図3のサーバ装置の演算部で実行される案内ロボット派遣処理の一例を示すフローチャート。FIG. 4 is a flowchart showing an example of a guide robot dispatching process executed by a computing unit of the server device of FIG. 3; FIG. 図3のサーバ装置の演算部で実行される来訪者特定処理の一例を示すフローチャート。FIG. 4 is a flowchart showing an example of visitor identification processing executed by a computing unit of the server device of FIG. 3; FIG. 図3のサーバ装置の演算部で実行される来訪者グループ特定処理の一例を示すフローチャート。FIG. 4 is a flowchart showing an example of visitor group identification processing executed by a computing unit of the server device of FIG. 3; FIG.

以下、図1~図7を参照して本発明の一実施形態について説明する。本発明の実施形態に係るロボット管理装置は、施設内に設置された撮像部が撮像する施設内画像に基づいて、施設に来訪した来訪者を特定する。例えば、施設内画像に写る来訪者の顔画像に基づいて来訪者を特定する。 An embodiment of the present invention will be described below with reference to FIGS. 1 to 7. FIG. A robot management device according to an embodiment of the present invention identifies a visitor who has visited a facility based on an in-facility image captured by an imaging unit installed in the facility. For example, the visitor is identified based on the face image of the visitor appearing in the image inside the facility.

このとき、施設内画像に基づいて来訪者を特定不能な場合には、特定不能と判定された来訪者の下に案内ロボットを派遣させる。例えば、施設内画像から来訪者の顔画像が抽出不能(認識不能)の場合には、来訪者を特定不能と判定し、特定不能と判定された来訪者の下に案内ロボットを派遣させる。 At this time, if the visitor cannot be identified based on the in-facility image, a guide robot is dispatched to the visitor who is determined to be unidentifiable. For example, when the face image of the visitor cannot be extracted (recognized) from the image inside the facility, the visitor is determined to be unidentifiable, and a guidance robot is dispatched to the visitor determined to be unidentifiable.

このように、特定不能と判定された来訪者の下に案内ロボットを派遣させることで、該来訪者が施設内画像により特定可能となるような該来訪者の位置または姿勢の変化を案内ロボットが促したり、案内ロボットに来訪者の顔画像を直接撮像させたりすることができる。例えば、案内ロボットが移動してくることで来訪者が案内ロボットの方を向くと、撮像部により来訪者の顔を撮像し易くなるとともに、案内ロボットが来訪者の顔を直接撮像可能になる。これにより、特定不能と判定された来訪者を特定することが可能となる。その結果、例えば、撮像部と案内ロボットとを連携させた適当な接客が可能になる。 In this way, by dispatching the guide robot to the visitor who is determined to be unidentifiable, the guide robot can detect changes in the position or posture of the visitor so that the visitor can be identified by the image of the facility. It is possible to prompt the visitor, or to have the guide robot directly capture the face image of the visitor. For example, when the guide robot moves and the visitor turns to face the guide robot, it becomes easier for the imaging unit to capture an image of the visitor's face, and the guide robot can directly capture an image of the visitor's face. This makes it possible to identify the visitor who has been determined to be unidentifiable. As a result, for example, it is possible to provide appropriate customer service through cooperation between the imaging unit and the guide robot.

例えば、機嫌の悪い来訪者に案内ロボットを派遣させてコミュニケーションをとらせるサービスを行うことが可能になるので、来訪者の機嫌を向上させたり、機嫌の悪化を抑制したりすることができる。例えば長時間待たされて機嫌の悪くなった来訪者の下に案内ロボットを派遣してコミュニケーションをとらせることで、機嫌よくさせたり、さらに機嫌が悪くなることを抑制したりすることができる。これにより、その後の施設員等による接客をスムーズに行わせることができる。 For example, it is possible to provide a service in which a visitor who is in a bad mood is sent a guide robot to communicate with the visitor. For example, by dispatching a guide robot to a visitor who has been kept waiting for a long time and is in a bad mood to communicate with the visitor, it is possible to make the visitor feel better or to prevent the visitor from being in a bad mood. As a result, it is possible to smoothly serve customers by staff members of the facility after that.

また例えば、来訪者に対して、案内ロボットに予め要件を訊かせたり、簡単な案内をさせたりすることができる。例えば、長時間待たされている来訪者や長い待ち時間が予想される来訪者グループに対して、予め、案内ロボットに要件等を訊かせたり、簡単な案内をさせたりすることができる。これにより、その後の施設員等による効率的な接客が可能になる。 Also, for example, it is possible to have the guide robot ask the visitor about their requirements in advance or provide simple guidance. For example, for a visitor who has been waiting for a long time or a group of visitors who are expected to wait for a long time, the guide robot can be made to ask requirements and the like or provide simple guidance in advance. This enables efficient customer service by facility staff and the like thereafter.

このように、ロボット管理装置を用いることで、案内ロボットを用いた効率的かつスムーズな接客が可能になる。 Thus, by using the robot management device, efficient and smooth customer service using the guide robot becomes possible.

本実施形態のロボット管理システムでは、上述のロボット管理装置と、施設内に設置され、ロボット管理装置と通信可能なカメラ等の撮像部と、施設に配置され、自走可能かつロボット管理装置と通信可能な上述の案内ロボットとを用い、上述のようなロボット派遣案内サービスを提供する。このように、ロボット管理システムを用いてロボット派遣案内サービスを提供することで、例えば、案内ロボットを用いた効率的かつスムーズな接客が可能になる。 In the robot management system of this embodiment, the robot management device described above, an imaging unit such as a camera installed in the facility and capable of communicating with the robot management device, A robot-dispatched guidance service as described above is provided using the possible guidance robots described above. In this way, by providing a robot dispatch guide service using a robot management system, for example, efficient and smooth customer service using a guide robot becomes possible.

上述のようなロボット派遣案内サービスを提供する事業体としては、例えば、各種商品を小売販売する販売店、美術館、博物館、画廊およびギャラリー等の美術関連施設、科学館、記念館、展覧会、ワークショップ等が挙げられる。各種商品を小売販売する販売店としては、例えば、デパート、スーパー、専門販売店等が挙げられる。専門販売店としては、各種専門販売店や自動車販売店等が挙げられる。以下の実施形態では、ロボット管理装置をサーバ装置により構成し、このサーバ装置を自動車販売店に設置して、自動車販売店のショールームを来訪した来訪者の下に、該ショールームに配置した案内ロボットを派遣する例を説明する。 As a business entity that provides the robot dispatch guide service as described above, for example, retail stores that sell various products, art museums, museums, galleries and other art related facilities such as galleries, science museums, memorial halls, exhibitions, workshops, etc. shops and the like. Stores that retail various products include, for example, department stores, supermarkets, specialty stores, and the like. Examples of specialty stores include various specialty stores and car dealers. In the following embodiments, the robot management device is configured by a server device, this server device is installed in an automobile dealership, and a guide robot arranged in the showroom is placed under a visitor who visits the showroom of the automobile dealership. An example of dispatching will be explained.

図1は、本発明の実施形態に係るロボット管理装置を構成するサーバ装置4を用いたロボット管理システム100の概略構成図である。図1に示すように、本実施形態に係るサーバ装置4を用いたロボット管理システム100では、展示車両2が展示される自動車販売店のショールーム1に自走可能な案内ロボット3が配置される。そして、ショールーム1に訪れる来訪者をショールーム1の天井10に設置された複数の撮像部11それぞれにて撮像し、撮像したショールーム内画像から来訪者を特定する。 FIG. 1 is a schematic configuration diagram of a robot management system 100 using a server device 4 that constitutes a robot management device according to an embodiment of the present invention. As shown in FIG. 1, in a robot management system 100 using a server device 4 according to this embodiment, a self-propelled guide robot 3 is arranged in a showroom 1 of an automobile dealership where exhibition vehicles 2 are exhibited. A plurality of imaging units 11 installed on the ceiling 10 of the showroom 1 captures an image of a visitor visiting the showroom 1, and the visitor is identified from the captured image of the inside of the showroom.

例えば、図1に示すように、三人の来訪者A,B,Cで構成される友人グループ101と、二人の来訪者D,Eで構成される親子グループ102がショールーム1を訪れる場合、サーバ装置4は、撮像部11が撮像した友人グループ101を含むショールーム内画像から、来訪者A~Cを特定し、撮像部11が撮像した親子グループ102を含むショールーム内画像から、来訪者D,Eを特定する。サーバ装置4は、これらショールーム内画像から来訪者A~Eの顔画像を抽出(顔を認識)し、顔画像に基づいて来訪者A~Eを特定する。 For example, as shown in FIG. 1, when a friend group 101 consisting of three visitors A, B, and C and a parent-child group 102 consisting of two visitors D and E visit showroom 1, The server device 4 identifies visitors A to C from the in-showroom image including the friend group 101 captured by the imaging unit 11, and identifies visitors D, C from the in-showroom image including the parent-child group 102 captured by the imaging unit 11. Identify E. The server device 4 extracts (recognizes the faces of) the facial images of the visitors A to E from these in-showroom images, and identifies the visitors A to E based on the facial images.

このとき、これらショールーム内画像に基づいて来訪者A~Eを特定不能な場合には、サーバ装置4は、特定不能と判定された来訪者A~Eの下に案内ロボット3を派遣させる。例えば、親子グループ102の来訪者E(例えば子供)を特定不能な場合には、サーバ装置4は、案内ロボット3が来訪者E(例えば子供)の下に派遣されるように、案内ロボット3に来訪者Eの下への移動を指示する。案内ロボット3が来訪者Eの下に移動することで、例えば、来訪者Eが案内ロボット3に気付き、案内ロボット3の方を向くことで来訪者Eの位置や姿勢を変化させることができる。 At this time, if the visitors A to E cannot be identified based on these in-showroom images, the server device 4 dispatches the guide robot 3 to the visitors A to E determined as unidentifiable. For example, if the visitor E (for example, a child) in the parent-child group 102 cannot be specified, the server device 4 instructs the guide robot 3 to dispatch the guide robot 3 to the visitor E (for example, a child). Instruct the visitor E to move down. By moving the guide robot 3 under the visitor E, for example, the visitor E notices the guide robot 3, and by turning toward the guide robot 3, the position and posture of the visitor E can be changed.

ここで、案内ロボット3について、図2を参照しながら簡単に説明する。図2は、図1に示すロボット管理システム100を構成する案内ロボット3を模式的に示す斜視図である。図2に示すように、案内ロボット3は、直立させた略ひょうたん型に形成されており、括れ部302を中心に上方が頭部301を構成し、下方が胴部303を構成する。案内ロボット3は、頭部301が胴部303よりも僅かに大きい略2頭身に形成されており、全体として愛嬌や温かみのある形状となっている。本実施形態では、案内ロボット3は110cm前後の身長を有する。 Here, the guide robot 3 will be briefly described with reference to FIG. FIG. 2 is a perspective view schematically showing the guide robot 3 that constitutes the robot management system 100 shown in FIG. As shown in FIG. 2, the guide robot 3 is formed in an upright, approximately gourd shape, with a constricted portion 302 at the center and a head portion 301 above it and a body portion 303 below it. The guide robot 3 has a head 301 slightly larger than the torso 303, and has a shape of approximately two heads, and has a charming and warm shape as a whole. In this embodiment, the guide robot 3 has a height of around 110 cm.

また案内ロボット3には手足がなく、胴部303の下端に設けられる走行装置304により前後左右および斜め方向等、360度如何なる方向にも移動自在に構成される。なお、走行装置304の具体的構成については、ここではその説明を省略する。このように案内ロボット3は、頭部301が胴部303よりも若干大きく、かつ手足のない形状を有することで、例えば子供が抱きつき易く、子供とのコミュニケーションを図りやすい形状となっている。また案内ロボット3は、走行装置304が前後方向および左右方向に揺れながらの動作を可能とするので、来訪者が接近等に気付き易く、来訪者とのコミュニケーションを図りやすい動き等が可能となっている。 Further, the guide robot 3 has no hands and feet, and is configured to be movable in any direction of 360 degrees, such as front, back, left, right, oblique directions, etc., by a traveling device 304 provided at the lower end of the body portion 303 . Note that the description of the specific configuration of the travel device 304 is omitted here. In this way, the guide robot 3 has a shape in which the head 301 is slightly larger than the body 303 and has no limbs, so that it is easy for a child to hug and communicate with the child. In addition, since the guide robot 3 can move while the traveling device 304 swings in the front-rear direction and the left-right direction, it is possible for the visitor to easily notice the approach and to facilitate communication with the visitor. there is

案内ロボット3の頭部301には、水平方向に長い略楕円形状の顔部305が設けられており、顔部305は案内ロボット3の表情や簡単な文字画像等を表示可能に構成される。本実施形態では、案内ロボット3の顔部305には眼を表現する一対の擬似眼306,306が表示されており、一対の擬似眼306,306で色んな表情を表現可能に構成されている。例えば、一対の擬似眼306,306の形状を変化させることで、喜怒哀楽等の表情を表現可能になる。本実施形態では、さらに口を表現する擬似口307が表示されており、一対の擬似眼306,306および擬似口307の形状を変化させることで、表情の変化を分かり易くさせている。 A head portion 301 of the guide robot 3 is provided with a horizontally elongated substantially elliptical face portion 305. The face portion 305 is configured to be able to display the expression of the guide robot 3, a simple character image, and the like. In this embodiment, a pair of pseudo eyes 306, 306 representing eyes are displayed on the face portion 305 of the guide robot 3, and the pair of pseudo eyes 306, 306 are configured to be able to express various facial expressions. For example, by changing the shape of the pair of pseudo eyes 306, 306, facial expressions such as emotions can be expressed. In this embodiment, a pseudo mouth 307 expressing a mouth is also displayed, and by changing the shape of the pair of pseudo eyes 306 and 306 and the pseudo mouth 307, the change in facial expression is made easier to understand.

また案内ロボット3は、顔部305の中で一対の擬似眼306,306の位置を移動可能に構成される。案内ロボット3は、顔部305内で一対の擬似眼306,306の位置を変えることで視線を動かす動作を表現する。案内ロボット3は、来訪者の前で一対の擬似眼306,306の位置を変えて視線を動かす動作を表現することで、来訪者の視線を誘導する。このとき案内ロボット3に視線の移動に連動させて回転動作等を行わせることで、より来訪者の視線を誘導し易くなる。 Further, the guide robot 3 is configured to be able to move the positions of the pair of pseudo eyes 306 , 306 within the face 305 . The guide robot 3 changes the positions of the pair of pseudo eyes 306 and 306 within the face 305 to express the action of moving the line of sight. The guide robot 3 guides the visitor's line of sight by changing the positions of the pair of pseudo eyes 306 in front of the visitor to express movement of the line of sight. At this time, by causing the guide robot 3 to rotate in conjunction with the movement of the line of sight, it becomes easier to guide the line of sight of the visitor.

上述のように形成された案内ロボット3を例えば特定不能な来訪者Eの下に派遣させることで、例えば、撮像部11により来訪者Eの顔が撮像可能となるように来訪者Eの位置や姿勢を変化させる動き(誘導する動き)を案内ロボット3にさせたり、案内ロボット3に来訪者Eの顔を直接撮像させたりすることが可能になる。その結果、例えば来訪者Eが特定可能になり、案内ロボットを用いた効率的かつスムーズな接客が可能になる。このような自動車販売店によるロボット派遣案内サービスの提供を良好に実現するため、本実施形態では、以下のようなサーバ装置4を用いたロボット管理システム100を構成する。 By dispatching the guidance robot 3 formed as described above to, for example, an unidentifiable visitor E, the position and position of the visitor E can be determined so that the face of the visitor E can be imaged by the imaging unit 11, for example. It is possible to cause the guide robot 3 to move to change its posture (movement to guide), or to directly image the face of the visitor E with the guide robot 3 . As a result, for example, the visitor E can be specified, and efficient and smooth customer service using the guide robot is possible. In order to satisfactorily provide such a robot dispatch guide service by car dealers, in the present embodiment, a robot management system 100 using the following server device 4 is configured.

図3は、図1に示すロボット管理システム100の要部構成を示すブロック図であり、図4は、図3に示すサーバ装置4の要部構成を示すブロック図である。図1に示すように、本実施形態に係るロボット管理システム100は、自動車販売店のショールーム1の天井10に設置される撮像部11と、ショールーム1内に配置される自走可能な案内ロボット3と、自動車販売店が有するサーバ装置4とを備える。 FIG. 3 is a block diagram showing the essential configuration of the robot management system 100 shown in FIG. 1, and FIG. 4 is a block diagram showing the essential configuration of the server device 4 shown in FIG. As shown in FIG. 1, a robot management system 100 according to the present embodiment includes an imaging unit 11 installed on the ceiling 10 of a showroom 1 of a car dealership, and a self-propelled guide robot 3 installed in the showroom 1. and a server device 4 owned by a car dealer.

図3に示すように、撮像部11、案内ロボット3およびサーバ装置4は、無線通信網、インターネット、電話回線網などの通信ネットワーク5に接続される。図3には、便宜上、1つの撮像部11しか示されていないが、図1に示すように、撮像部11は実際には複数存在する。同様に、図3には、1つの案内ロボット3しか示されていないが、案内ロボット3を複数配置することも可能である。なお、案内ロボット3をショールーム1内に多数配置すると、来場者に威圧感を与えかねず、自動車販売店側のコストも増大することから、案内ロボット3の台数は少ないことが好ましい。 As shown in FIG. 3, the imaging unit 11, the guide robot 3, and the server device 4 are connected to a communication network 5 such as a wireless communication network, the Internet, or a telephone line network. Although FIG. 3 shows only one imaging unit 11 for the sake of convenience, there are actually a plurality of imaging units 11 as shown in FIG. Similarly, although only one guide robot 3 is shown in FIG. 3, multiple guide robots 3 can be arranged. If a large number of guide robots 3 are arranged in the showroom 1, the visitor may feel intimidated and the cost of the car dealer increases.

図3に示すように、撮像部11は、通信部111と、カメラ部112と、センサ部113と、記憶部114と、演算部115とを有する。通信部111は、通信ネットワーク5を介してサーバ装置4および案内ロボット3と無線通信可能に構成される。カメラ部112は、CCDやCMOS等の撮像素子を有するカメラであり、ショールーム1を訪れた来訪者を撮像可能に構成される。センサ部113は、動体検知センサや人感センサ等のセンサであり、ショールーム1を訪れた来訪者のショールーム内の位置や動きを検出可能に構成される。カメラ部112およびセンサ部113は、ショールーム1を訪れる来訪者がショールーム1内の何れの位置に居ても撮像および検知可能となるように、ショールーム1の天井10に複数配置される。 As shown in FIG. 3 , the imaging section 11 has a communication section 111 , a camera section 112 , a sensor section 113 , a storage section 114 and a calculation section 115 . The communication unit 111 is configured to be able to wirelessly communicate with the server device 4 and the guide robot 3 via the communication network 5 . The camera unit 112 is a camera having an imaging device such as a CCD or CMOS, and is configured to be able to capture an image of a visitor visiting the showroom 1 . The sensor unit 113 is a sensor such as a moving body detection sensor or a human sensor, and is configured to be able to detect the position and movement of a visitor who has visited the showroom 1 within the showroom. A plurality of camera units 112 and sensor units 113 are arranged on the ceiling 10 of the showroom 1 so that a visitor who visits the showroom 1 can be imaged and detected at any position within the showroom 1 .

記憶部114は、図示しない揮発性または不揮発性メモリを有する。記憶部114には、演算部115が実行する各種プログラムやデータ等が記憶される。例えば記憶部114には、カメラ部112が撮像したショールーム内画像およびセンサ部113が検出した来訪者の位置情報が一時的に記憶させる。 Storage unit 114 has a volatile or non-volatile memory (not shown). The storage unit 114 stores various programs and data executed by the calculation unit 115 . For example, the storage unit 114 temporarily stores an image of the inside of the showroom captured by the camera unit 112 and the position information of the visitor detected by the sensor unit 113 .

演算部115はCPUを有し、通信部111を介して撮像部11の外部から受信した信号および記憶部114に記憶された各種プログラム等に基づいて所定の処理を実行し、通信部111、カメラ部112、センサ部113および記憶部114に所定の制御信号を出力する。 The calculation unit 115 has a CPU and executes predetermined processing based on signals received from outside the imaging unit 11 via the communication unit 111 and various programs stored in the storage unit 114. A predetermined control signal is output to the unit 112 , the sensor unit 113 and the storage unit 114 .

例えば演算部115は、通信部111を介してサーバ装置4から受信した信号および所定のプログラムに基づいて、カメラ部112にショールーム1を撮像させる制御信号を出力するとともに、センサ部113に来訪者の位置を検出させる制御信号を出力する。そして演算部115は、撮像したショールーム内画像および検出した来訪者の位置情報を、通信部111を介してサーバ装置4に送信させる制御信号を出力する。演算部115でのこの処理により、ショールーム1内が撮像されるとともに来訪者の位置が検出され、サーバ装置4にショールーム内画像および来訪者の位置情報が送信される。 For example, the calculation unit 115 outputs a control signal for causing the camera unit 112 to capture an image of the showroom 1 based on the signal received from the server device 4 via the communication unit 111 and a predetermined program, and outputs a control signal to the sensor unit 113 to capture the image of the visitor. Outputs a control signal to detect the position. Then, the calculation unit 115 outputs a control signal for transmitting the captured image of the inside of the showroom and the detected position information of the visitor to the server device 4 via the communication unit 111 . By this processing in the calculation unit 115 , the inside of the showroom 1 is imaged, the position of the visitor is detected, and the image inside the showroom and the position information of the visitor are transmitted to the server device 4 .

図3に示すように、案内ロボット3は、機能的構成として、通信部31と、入力部32と、出力部33と、カメラ部34と、走行部35と、センサ部36と、記憶部37と、演算部38とを有する。通信部31は、通信ネットワーク5を介してサーバ装置4および撮像部11と無線通信可能に構成される。入力部32は、メンテナンス時等に操作可能な各種スイッチボタン(図示せず)、および来訪者等の音声を入力可能なマイク(図示せず)等を有する。 As shown in FIG. 3 , the guide robot 3 includes a communication section 31 , an input section 32 , an output section 33 , a camera section 34 , a traveling section 35 , a sensor section 36 and a storage section 37 as functional components. , and a calculation unit 38 . The communication unit 31 is configured to be able to wirelessly communicate with the server device 4 and the imaging unit 11 via the communication network 5 . The input unit 32 has various switch buttons (not shown) that can be operated during maintenance and the like, a microphone (not shown) that can input voices of visitors, and the like.

出力部33は、音声を出力可能なスピーカ(図示せず)と、画像を表示可能な表示部331とを有する。表示部331は案内ロボット3の上述した顔部305を構成し、表示部331には上述した一対の擬似眼306,306や文字画像等が表示される。表示部331は、一対の擬似眼306,306や文字画像等を表示可能に構成されていればよく、例えば液晶パネルや、プロジェクタおよびスクリーン等により構成される。 The output unit 33 has a speaker (not shown) capable of outputting audio, and a display unit 331 capable of displaying images. The display unit 331 constitutes the above-described face portion 305 of the guide robot 3, and the display unit 331 displays the above-described pair of pseudo eyes 306, 306, character images, and the like. The display unit 331 may be configured to be able to display the pair of pseudo eyes 306, 306, character images, and the like, and is configured by, for example, a liquid crystal panel, a projector, a screen, and the like.

カメラ部34は、CCDやCMOS等の撮像素子を有するカメラであり、ショールーム1を訪れた来訪者を撮像可能に構成される。カメラ部34は、例えば、案内ロボット3の頭部301に設けられる。頭部301にカメラ部34を設けることで、来訪者の顔を撮像し易くなる。またカメラ部34は、来訪者の顔を撮像する観点から、案内ロボット3の一対の擬似眼306,306の近くに設けることが好ましい。 The camera unit 34 is a camera having an imaging element such as a CCD or CMOS, and is configured to be able to capture an image of a visitor visiting the showroom 1 . The camera unit 34 is provided on the head 301 of the guide robot 3, for example. By providing the camera unit 34 on the head 301, it becomes easier to capture an image of the visitor's face. In addition, the camera unit 34 is preferably provided near the pair of pseudo eyes 306, 306 of the guide robot 3 from the viewpoint of capturing an image of the visitor's face.

走行部35は、案内ロボット3を自走させる上述の走行装置304により構成される。走行部35はバッテリおよびモータを有しており、バッテリの電気でモータを駆動して走行するように構成される。走行部35は、公知の電動技術を用いて構成可能である。センサ部36は、走行速度センサ、加速度センサおよびジャイロセンサ等の案内ロボット3の走行および停止状態を検出するセンサや、障害物センサ、人感センサおよび動体センサ等の案内ロボット3の周囲の状態を検出するセンサ等の各種センサを有する。 The traveling unit 35 is composed of the above-described traveling device 304 that allows the guide robot 3 to travel by itself. The running unit 35 has a battery and a motor, and is configured to run by driving the motor with electricity from the battery. The running portion 35 can be configured using known electric technology. The sensor unit 36 detects the running and stopped states of the guide robot 3, such as a running speed sensor, an acceleration sensor, and a gyro sensor; It has various sensors such as a sensor for detection.

記憶部37は、図示しない揮発性または不揮発性メモリを有する。記憶部37には、演算部38が実行する各種プログラムや各種データ等が記憶される。また記憶部37には、来訪者との接客内容に関するデータ等が一時的に記憶される。例えば、案内ロボット3が訊き出した来訪者の要件や案内ロボット3が行った来訪者への説明等が一時的に記憶される。 The storage unit 37 has a volatile or non-volatile memory (not shown). The storage unit 37 stores various programs executed by the calculation unit 38, various data, and the like. In addition, the storage unit 37 temporarily stores data and the like regarding the content of customer service with the visitor. For example, the visitor's requirements asked by the guide robot 3, the explanation given by the guide robot 3 to the visitor, and the like are temporarily stored.

記憶部37には、メモリが担う機能的構成の一例として、ショールームデータベース371と、コミュニケーション用データベース372とが記憶される。ショールームデータベース371には、例えば、ショールーム1内に配置される展示車両2やテーブル等の配置に対応したデータが記憶される。ショールームデータベース371は、案内ロボット3がショールーム内を移動する際に参照される。コミュニケーション用データベース372には、案内ロボット3が来訪者とコミュニケーションを図る際の音声認識処理や音声出力処理に対応したデータ等が記憶される。コミュニケーション用データベース372は、案内ロボット3が来訪者とコミュニケーションを図る際に参照される。 The storage unit 37 stores a showroom database 371 and a communication database 372 as an example of a functional configuration of memory. The showroom database 371 stores, for example, data corresponding to the arrangement of the display vehicles 2 and tables arranged in the showroom 1 . The showroom database 371 is referred to when the guide robot 3 moves within the showroom. The communication database 372 stores data and the like corresponding to voice recognition processing and voice output processing when the guide robot 3 communicates with a visitor. The communication database 372 is referred to when the guide robot 3 communicates with the visitor.

演算部38はCPUを有し、通信部31を介して案内ロボット3の外部から受信した信号、入力部32を介して入力された信号、センサ部36により検出された信号、記憶部37に記憶された各種プログラムや各種データ等に基づいて所定の処理を実行し、通信部31、出力部33、カメラ部34、走行部35および記憶部37に所定の制御信号を出力する。 The calculation unit 38 has a CPU, and stores signals received from the outside of the guide robot 3 via the communication unit 31, signals input via the input unit 32, signals detected by the sensor unit 36, and stored in the storage unit 37. It executes predetermined processing based on various programs, various data, etc., and outputs predetermined control signals to the communication section 31 , the output section 33 , the camera section 34 , the running section 35 and the storage section 37 .

例えば演算部38は、通信部31を介してサーバ装置4から受信した信号およびセンサ部36が検出する信号に基づいて、走行部35および記憶部37に制御信号を出力する。演算部38でのこの処理により、案内ロボット3が来訪者の下に派遣される。また例えば演算部38は、通信部31を介してサーバ装置4から受信した信号に基づいて、カメラ部34および通信部31に制御信号を出力する。演算部38でのこの処理により、来訪者の顔が撮像され、撮像された顔画像がサーバ装置4に送信される。 For example, the calculation unit 38 outputs control signals to the traveling unit 35 and the storage unit 37 based on signals received from the server device 4 via the communication unit 31 and signals detected by the sensor unit 36 . By this processing in the calculation unit 38, the guide robot 3 is dispatched to the visitor. Further, for example, the calculation unit 38 outputs control signals to the camera unit 34 and the communication unit 31 based on signals received from the server device 4 via the communication unit 31 . By this processing in the calculation unit 38 , the visitor's face is imaged, and the imaged face image is transmitted to the server device 4 .

また例えば演算部38は、通信部111を介してサーバ装置4から受信した信号に基づいて、出力部33(表示部331)に制御信号を出力する。演算部38でのこの処理により、案内ロボット3の表情を変えたり、一対の擬似眼306,306の視線を変化させたりする。また例えば演算部38は、入力部32を介して入力された信号に基づいて、出力部33および記憶部37に制御信号を出力する。演算部38でのこの処理により、案内ロボット3が来訪者とコミュニケーションを図れるようになる。 Further, for example, the calculation unit 38 outputs a control signal to the output unit 33 (display unit 331) based on the signal received from the server device 4 via the communication unit 111. FIG. By this processing in the calculation unit 38, the facial expression of the guide robot 3 is changed, and the line of sight of the pair of pseudo eyes 306, 306 is changed. Further, for example, the calculation unit 38 outputs control signals to the output unit 33 and the storage unit 37 based on the signal input via the input unit 32 . This processing by the calculation unit 38 enables the guide robot 3 to communicate with the visitor.

図4に示すように、サーバ装置4は、通信部41と、入力部42と、出力部43と、記憶部44と、演算部45とを有する。サーバ装置4は、クラウド上で仮想サーバ機能を利用して構成することもでき、各機能を分散して構成することもできる。 As shown in FIG. 4 , the server device 4 has a communication section 41 , an input section 42 , an output section 43 , a storage section 44 and a calculation section 45 . The server device 4 can be configured using a virtual server function on the cloud, or can be configured by distributing each function.

通信部41は、通信ネットワーク5を介して、撮像部11および案内ロボット3と無線通信可能に構成される(図3参照)。入力部42は、タッチパネルやキーボード等のユーザが操作可能な各種スイッチ、および音声を入力可能なマイク等を有する。なお、ここでいうユーザとは、本実施形態においては、自動車販売店の店員である。出力部43は、例えば文字や画像を表示可能なモニタ、音声を出力可能なスピーカ等を有する。 The communication unit 41 is configured to be able to wirelessly communicate with the imaging unit 11 and the guide robot 3 via the communication network 5 (see FIG. 3). The input unit 42 has various switches such as a touch panel and a keyboard that can be operated by the user, a microphone that can input voice, and the like. In addition, a user here is a salesclerk of a car dealer in this embodiment. The output unit 43 has, for example, a monitor capable of displaying characters and images, a speaker capable of outputting sound, and the like.

記憶部44は、図示しない揮発性または不揮発性メモリを有する。記憶部44には、演算部45が実行する各種プログラムや各種データ等が記憶される。記憶部44は、メモリが担う機能的構成として、案内ロボットデータベース441と、ショールームデータベース442と、来訪者データベース443と有する。 The storage unit 44 has a volatile or non-volatile memory (not shown). The storage unit 44 stores various programs executed by the calculation unit 45, various data, and the like. The storage unit 44 has a guide robot database 441, a showroom database 442, and a visitor database 443 as functional components of memory.

案内ロボットデータベース441は、ロボット派遣案内サービスに用いられる案内ロボット3のロボットID等の案内ロボット3に関する基本情報およびメンテナンス情報等を記憶する。ショールームデータベース442は、ショールーム1内に配置される展示車両2やテーブル等の配置に対応したデータを記憶する。なお、ショールームデータベース442は、案内ロボット3の有する記憶部37に記憶されるショールームデータベース371と同様の構成を有しており、どちらかを有する構成であってもよい。 The guide robot database 441 stores basic information about the guide robot 3 such as the robot ID of the guide robot 3 used for the robot dispatch guide service, maintenance information, and the like. The showroom database 442 stores data corresponding to the arrangement of the display vehicles 2 and tables arranged in the showroom 1 . The showroom database 442 has the same configuration as the showroom database 371 stored in the storage unit 37 of the guide robot 3, and may have either configuration.

来訪者データベース443は、ショールーム1を来訪する来訪者の来訪者情報を記憶する。来訪者情報としては、来訪者の住所、氏名、年齢、職業、性別といった来訪者の基本情報に加え、来訪者の顔画像および来訪履歴等が含まれる。来訪履歴の中には、来訪時における商談内容に加え、商談前の雑談等も含まれる。 The visitor database 443 stores visitor information of visitors who visit the showroom 1 . The visitor information includes the visitor's basic information such as the visitor's address, name, age, occupation, and sex, as well as the visitor's face image and visit history. The visit history includes not only the content of business negotiations at the time of the visit, but also chat before the business negotiations.

また来訪者データベース443は、来訪者がグループを構成して来訪した場合には、来訪者グループと対応付けて来訪者を記憶する。例えば、来訪者が家族グループで来訪した場合には、当該来訪者をこの家族グループと対応付けて記憶し、来訪者が友人グループで来訪した場合には、当該来訪者をこの友人グループと対応付けて記憶する。このように来訪者は、複数のグループに所属する場合があり、来訪者データベース443には、来訪者マップが形成される。 In addition, the visitor database 443 stores the visitor in association with the visitor group when the visitor constitutes a group and visits. For example, when a visitor comes as a family group, the visitor is associated with the family group and stored, and when the visitor comes as a friend group, the visitor is associated with the friend group. memorize. A visitor may belong to a plurality of groups in this way, and a visitor map is formed in the visitor database 443 .

演算部45はCPUを有し、入力部42を介して受信した信号、通信部41を介してサーバ装置4の外部から受信した信号、および記憶部44に記憶された各種プログラムや各種データ等に基づいて所定の処理を実行し、通信部41、出力部43および記憶部44に制御信号を出力する。 The computing unit 45 has a CPU and processes signals received via the input unit 42, signals received from outside the server device 4 via the communication unit 41, and various programs and data stored in the storage unit 44. Based on this, a predetermined process is executed, and a control signal is output to the communication section 41 , the output section 43 and the storage section 44 .

図4に示すように、演算部45は、プロセッサが担う機能的構成として、施設内画像取得部451と、ロボット画像取得部452と、ロボット視線指示部453と、来訪者特定部454と、来訪者グループ特定部455と、グループ感情特定部456と、ロボット移動指示部457とを有する。 As shown in FIG. 4 , the processor 45 includes an in-facility image acquisition unit 451 , a robot image acquisition unit 452 , a robot line-of-sight instruction unit 453 , a visitor identification unit 454 , a visitor identification unit 454 , and a visitor identification unit 454 . It has a person group identification unit 455 , a group emotion identification unit 456 and a robot movement instruction unit 457 .

施設内画像取得部451は、ショールーム1内に設置された複数の撮像部11により撮像されるショールーム内画像を取得する。具体的には、施設内画像取得部451は、複数の撮像部11により撮像されたショールーム1の内部(展示車両2が展示してあるスペース)の画像(静止画および動画を含む)データを、通信部41を介して入力する。本実施形態では、施設内画像取得部451は、複数の撮像部11にショールーム内画像を撮像させ、撮像させたショールーム内画像を取得する。具体的には、施設内画像取得部451は、複数の撮像部11にショールーム1を撮像させる制御信号を通信部41を介して出力し、複数の撮像部11が撮像したショールーム内画像データを通信部41を介して入力する。 The in-facility image acquisition unit 451 acquires in-showroom images captured by the plurality of imaging units 11 installed in the showroom 1 . Specifically, the in-facility image acquisition unit 451 acquires image data (including still images and moving images) of the interior of the showroom 1 (the space where the exhibition vehicle 2 is displayed) captured by the plurality of imaging units 11, Input via the communication unit 41 . In the present embodiment, the in-facility image acquisition unit 451 causes the plurality of imaging units 11 to capture images of the inside of the showroom, and acquires the captured images of the inside of the showroom. Specifically, the in-facility image acquisition unit 451 outputs a control signal for causing the plurality of image capturing units 11 to image the showroom 1 via the communication unit 41, and communicates the showroom image data captured by the plurality of image capturing units 11. Input via the unit 41 .

ロボット画像取得部452は、ショールーム1に配置された案内ロボット3が撮像した来訪者の顔画像を含む画像を取得する。具体的には、ロボット画像取得部452は、案内ロボット3が撮像した来訪者の顔画像を含む画像(静止画および動画を含む)データを、通信部41を介して入力する。本実施形態では、ロボット画像取得部452は、案内ロボット3に来訪者の顔を撮像させ、撮像させた顔画像を含む画像を取得する。具体的には、ロボット画像取得部452は、案内ロボット3に来訪者の顔を撮像させる制御信号を通信部41を介して出力し、案内ロボット3が撮像した来訪者の顔画像を含む画像データを、通信部41を介して入力する。 The robot image acquisition unit 452 acquires an image including a visitor's face image captured by the guide robot 3 arranged in the showroom 1 . Specifically, the robot image acquisition unit 452 inputs image (including still images and moving images) data including the face image of the visitor captured by the guide robot 3 via the communication unit 41 . In this embodiment, the robot image acquisition unit 452 causes the guide robot 3 to image the visitor's face, and acquires an image including the imaged face image. Specifically, the robot image acquisition unit 452 outputs a control signal for causing the guide robot 3 to image the visitor's face via the communication unit 41, and the image data including the visitor's face image captured by the guide robot 3 is generated. is input through the communication unit 41 .

ロボット視線指示部453は、案内ロボット3の一対の擬似眼306,306の視線の方向を指示する。具体的には、ロボット視線指示部453は、案内ロボット3の一対の擬似眼306,306の位置および動きを指示する制御信号を、通信部41を介して案内ロボット3に出力する。 The robot line-of-sight instruction unit 453 indicates the line-of-sight direction of the pair of pseudo eyes 306 and 306 of the guide robot 3 . Specifically, the robot line-of-sight instruction unit 453 outputs a control signal for instructing the positions and movements of the pair of pseudo eyes 306 and 306 of the guide robot 3 to the guide robot 3 via the communication unit 41 .

案内ロボット3は、通信部31を介して当該制御信号を入力すると、入力した当該制御信号に基づいて表示部331を制御して、一対の擬似眼306,306の位置を変化させる。すなわち、視線を動かす。案内ロボット3が視線を動かすと、来訪者は案内ロボット3の視線につられて、案内ロボット3の視線の方向を見る。このように、案内ロボット3が視線を動かすことで、来訪者の視線を誘導して来訪者の位置または姿勢の変化を促すことができる。例えば、案内ロボット3の視線を撮像部11に向けることで、来訪者の視線を撮像部11に向けることができる。そして、来訪者が撮像部11を見ると、撮像部11によって来訪者の顔を撮像することができる。 When the control signal is input via the communication unit 31, the guide robot 3 controls the display unit 331 based on the input control signal to change the positions of the pair of pseudo eyes 306,306. In other words, move your line of sight. When the guide robot 3 moves its line of sight, the visitor is attracted by the line of sight of the guide robot 3 and looks in the direction of the line of sight of the guide robot 3. - 特許庁In this way, by moving the line of sight of the guide robot 3, it is possible to guide the line of sight of the visitor and encourage a change in the position or posture of the visitor. For example, by directing the line of sight of the guide robot 3 to the imaging unit 11 , the visitor's line of sight can be directed to the imaging unit 11 . Then, when the visitor looks at the imaging unit 11, the imaging unit 11 can capture an image of the visitor's face.

来訪者特定部454は、施設内画像取得部451が取得したショールーム内画像からショールーム1に来訪した来訪者を特定する。例えば来訪者特定部454は、ショールーム内画像から人物を抽出し、抽出した人物から顔画像をさらに抽出(認識)する。そして、来訪者データベース443に記憶された来訪者データの中から、抽出した顔画像と一致する顔画像を有する来訪者データを検索し、来訪者を特定する。抽出した顔画像と一致する顔画像を有する来訪者データがない場合には、新規の来訪者として、来訪者データベース443に記憶させる。 The visitor identification unit 454 identifies a visitor who has visited the showroom 1 from the in-showroom image acquired by the in-facility image acquisition unit 451 . For example, the visitor identification unit 454 extracts a person from the in-showroom image, and further extracts (recognizes) a face image from the extracted person. The visitor data stored in the visitor database 443 is searched for visitor data having a face image that matches the extracted face image, and the visitor is specified. If there is no visitor data having a face image that matches the extracted face image, the visitor is stored in the visitor database 443 as a new visitor.

また来訪者特定部454は、ショールーム内画像から抽出した人物から顔画像が抽出(認識)できず、来訪者が特定不能と判定した場合には、ロボット移動指示部457に制御信号を出力する。ロボット移動指示部457は、この制御信号を入力すると、この人物の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。そして、ロボット画像取得部452が案内ロボット3にこの人物の顔を撮像させる。案内ロボット3が撮像した上記人物の顔画像を含む画像は、通信部41を介してロボット画像取得部452に入力され、来訪者特定部454は、ロボット画像取得部452に入力された上記人物の顔画像を用いて、上述と同様の方法にて来訪者を特定する。 When the visitor identification unit 454 determines that the visitor cannot be identified because the face image cannot be extracted (recognized) from the person extracted from the in-showroom image, the visitor identification unit 454 outputs a control signal to the robot movement instruction unit 457 . When receiving this control signal, the robot movement instructing section 457 instructs the guide robot 3 to move so that the guide robot 3 is dispatched under this person. Then, the robot image acquiring unit 452 causes the guide robot 3 to take an image of the person's face. The image including the face image of the person captured by the guide robot 3 is input to the robot image acquisition unit 452 via the communication unit 41, and the visitor identification unit 454 identifies the person input to the robot image acquisition unit 452. The facial image is used to identify the visitor in a manner similar to that described above.

来訪者グループ特定部455は、施設内画像取得部451が取得したショールーム内画像からショールーム1に来訪した来訪者グループを特定する。例えば来訪者グループ特定部455は、ショールーム内画像から複数の来訪者を抽出し、これら来訪者の距離感または顔の向き等から、これら来訪者がグループを構成するか否かを判定する。例えば、所定時間以上、一定の距離を保つ複数の来訪者を来訪者グループと特定する。また例えば、互いが会話をする向きに顔を向け合う行為をする複数の来訪者を来訪者グループと特定する。このとき来訪者グループ特定部455は、来訪者グループを構成する複数の来訪者の人数も特定する。 The visitor group identification unit 455 identifies a visitor group who has visited the showroom 1 from the in-showroom image acquired by the in-facility image acquisition unit 451 . For example, the visitor group identification unit 455 extracts a plurality of visitors from the in-showroom image, and determines whether or not these visitors form a group based on the sense of distance or face orientation of these visitors. For example, a plurality of visitors who keep a certain distance for a predetermined time or longer are specified as a visitor group. Also, for example, a plurality of visitors who face each other in a conversation direction are identified as a visitor group. At this time, the visitor group identifying unit 455 also identifies the number of visitors who constitute the visitor group.

また来訪者グループ特定部455は、来訪者特定部454が特定した複数の来訪者が来訪者グループを構成するか否かを特定する。例えば来訪者グループ特定部455は、来訪者特定部454が特定した各来訪者の、来訪者データベース443に記憶された来訪者情報から来訪者グループ情報を抽出し、抽出した来訪者グループ情報からこれら来訪者が来訪者グループを構成するか否かを特定する。 The visitor group identification unit 455 also identifies whether or not the plurality of visitors identified by the visitor identification unit 454 form a visitor group. For example, the visitor group identification unit 455 extracts visitor group information from the visitor information stored in the visitor database 443 of each visitor identified by the visitor identification unit 454, and extracts the visitor group information from the extracted visitor group information. Specifies whether the visitor constitutes a visitor group.

グループ感情特定部456は、来訪者グループ特定部455にて特定された来訪者グループを構成する複数の来訪者の感情をショールーム内画像に基づいて推定し、来訪者グループのグループ感情を特定する。グループ感情特定部456は、例えば来訪者グループが機嫌の良いグループ(例えば楽しそうなグループ)であるか、機嫌の悪いグループ(例えばイライラしたり、怒ったりしているグループ)であるかを特定する。 The group emotion specifying unit 456 estimates the emotions of a plurality of visitors forming the visitor group specified by the visitor group specifying unit 455 based on the in-showroom image, and specifies the group emotion of the visitor group. The group emotion identification unit 456 identifies, for example, whether the visitor group is in a good mood (for example, a happy group) or a bad mood group (for example, a frustrated or angry group). .

グループ感情特定部456は、推定する複数の来訪者の感情の割合に基づいてグループ感情を特定する。例えばグループ感情特定部456は、グループ内で機嫌の良い来訪者の割合が高い(機嫌の悪い来訪者の割合が低い)グループを機嫌の良いグループと特定し、機嫌の悪い来訪者の割合が高い(機嫌の良い来訪者の割合が低い)グループを機嫌の悪いグループと特定する。すなわち、本実施形態における感情の割合とは、グループ内における各感情(機嫌が悪いや機嫌が良い等)の割合を意味する。 The group emotion identification unit 456 identifies the group emotion based on the estimated ratio of emotions of the plurality of visitors. For example, the group emotion identification unit 456 identifies a group in which the percentage of visitors in a good mood is high (the percentage of visitors in a bad mood is low) as a group in a good mood, and identifies a group in which the percentage of visitors in a bad mood is high. Identify the group (low percentage of happy visitors) as the bad group. That is, the ratio of emotions in this embodiment means the ratio of each emotion (bad mood, good mood, etc.) in the group.

例えばグループ感情特定部456は、図1に示すように、三人の来訪者A,B,Cで構成される友人グループ101と、二人の来訪者D,Eで構成される親子グループ102がショールーム1を来訪した場合、複数の撮像部11が撮像したショールーム内画像から、友人グループ101および親子グループ102のグループ感情を特定する。グループ感情特定部456は、友人グループ101を構成する来訪者A~Cの感情を推定し、例えば、来訪者Aおよび来訪者Bの機嫌がよく、来訪者Cの機嫌が悪いと推定した場合、友人グループ101のグループ感情を「機嫌やや良」と特定する。同様に、グループ感情特定部456は、親子グループ102を構成する来訪者D,Eの感情を推定し、例えば、来訪者D(例えば親)の機嫌が良く、来訪者E(例えば子供)の機嫌が悪いと推定した場合、親子グループ102のグループ感情を「機嫌やや悪」と特定する。 For example, as shown in FIG. 1, the group emotion identification unit 456 has a friend group 101 made up of three visitors A, B, and C, and a parent-child group 102 made up of two visitors D, E. When the showroom 1 is visited, the group emotions of the friend group 101 and the parent-child group 102 are identified from the images of the showroom captured by the plurality of imaging units 11 . Group emotion identification unit 456 estimates the emotions of visitors A to C that make up friend group 101. For example, when it is estimated that visitors A and B are in a good mood and visitor C is in a bad mood, The group feeling of the friend group 101 is specified as "slightly good mood". Similarly, the group emotion identification unit 456 estimates the emotions of the visitors D and E that make up the parent-child group 102, and If it is estimated that the person is in a bad mood, the group emotion of the parent-child group 102 is specified as "slightly in a bad mood."

グループ感情としては、例えば、機嫌の良い来訪者のみ「機嫌良」、機嫌の良い来訪者が相対的に多い「機嫌やや良」、機嫌の良い来訪者と機嫌の悪い来訪者とが同程度「普通」、機嫌の悪い来訪者が相対的に多い「機嫌やや悪」、機嫌の悪い来訪者のみ「機嫌悪」等が挙げられる。またこのとき、来訪者が子供の場合は、子供の来訪者の感情を重視するようにグループ感情を特定してもよく、少しでも機嫌の悪い来訪者がいる来訪者グループを「機嫌やや悪」に特定してもよい。 For group emotions, for example, only visitors in a good mood are in a good mood, visitors in a good mood are relatively in a good mood, and visitors in a good mood and visitors in a bad mood are equally likely to be in a good mood. "Normal", "Slightly bad mood" with relatively many visitors in a bad mood, and "Bad mood" only with visitors in a bad mood. At this time, if the visitor is a child, the group emotion may be specified so as to emphasize the emotion of the child visitor. may be specified.

各来訪者の感情は、来訪者の仕草や挙動等に基づいて推定することができる。例えば、ショールーム内画像から抽出した来訪者の顔画像や、来訪者の動作等から来訪者の感情を推定する。例えば、来訪者が怒った顔をしている場合や、周りを見回していたり、貧乏ゆすりなどしていたりして落ち着きがない場合等は、機嫌が悪いと推定する。一方、来訪者がうれしそうな顔をしている場合や、来訪者同士で会話をしている場合等は、機嫌が良いと推定する。 The emotion of each visitor can be estimated based on the visitor's gestures, behavior, and the like. For example, the emotion of the visitor is estimated from the face image of the visitor extracted from the image inside the showroom, the behavior of the visitor, and the like. For example, if the visitor looks angry, looks around, or is unsettled by extortion, etc., it is assumed that the visitor is in a bad mood. On the other hand, if the visitor looks happy or is having a conversation with another visitor, it is estimated that the visitor is in a good mood.

またグループ感情特定部456は、ロボット画像取得部452が取得したロボット撮像画像に基づいて来訪者の感情を推定し、該来訪者グループのグループ感情を更新する。グループ感情特定部456は、例えば、ショールーム内画像に基づいて来訪者が特定不能等の理由により、来訪者グループの下に案内ロボット3が派遣されて、案内ロボット3により来訪者が撮像された場合には、案内ロボット3が撮像した来訪者の顔画像に基づいて来訪者の感情を推定し、これに基づいてグループ感情を更新する。 Also, the group emotion specifying unit 456 estimates the visitor's emotion based on the robot-captured image acquired by the robot image acquisition unit 452, and updates the group emotion of the visitor group. For example, when the guide robot 3 is dispatched to the visitor group and the visitor is imaged by the guide robot 3 because the visitor cannot be specified based on the showroom image, the group emotion identification unit 456 3, the emotion of the visitor is estimated based on the face image of the visitor captured by the guide robot 3, and the group emotion is updated based on this.

ロボット移動指示部457は、グループ感情特定部456にて特定されたグループ感情に基づいて、来訪者グループの下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。具体的には、ロボット移動指示部457は、来訪者グループの下への案内ロボット3の移動を指示する制御信号を、通信部41を介して案内ロボット3に出力する。 The robot movement instruction unit 457 instructs the guide robot 3 to move so that the guide robot 3 is dispatched under the visitor group based on the group emotion specified by the group emotion specification unit 456 . Specifically, the robot movement instruction unit 457 outputs a control signal to the guide robot 3 via the communication unit 41 to instruct the guide robot 3 to move under the visitor group.

このときロボット移動指示部457は、グループ感情特定部456にて特定したグループ感情が相対的に悪い来訪者グループを優先して、該来訪者グループの下への案内ロボットの移動を指示する。例えば、グループ感情が「機嫌悪」の来訪者グループと、グループ感情が「機嫌やや悪」の来訪者グループとが存在した場合、グループ感情が「機嫌悪」の来訪者グループを優先して、該来訪者グループの下への案内ロボット3の移動を指示する。 At this time, the robot movement instruction unit 457 gives priority to the visitor group identified by the group emotion identification unit 456 and whose group emotion is relatively bad, and instructs the guide robot to move below the visitor group. For example, if there are a visitor group whose group feeling is "bad mood" and a visitor group whose group feeling is "slightly bad mood", the visitor group whose group emotion is "bad mood" is prioritized. The guide robot 3 is instructed to move under the visitor group.

またロボット移動指示部457は、グループ感情特定部456が特定したグループ感情が同じとなる来訪者グループが複数存在する場合には、人数の少ない来訪者グループを優先して、該来訪者グループの下への案内ロボット3の移動を指示する。例えば、グループ感情が「機嫌やや悪」と特定された来訪者グループが2グループ存在し、一方の来訪者グループが3人で構成され、他方の来訪者グループが5人で構成されている場合には、3人で構成される来訪者グループを優先して、該来訪者グループの下への案内ロボット3の移動を指示する。 Further, when there are a plurality of visitor groups having the same group emotion specified by the group emotion specifying unit 456, the robot movement instruction unit 457 gives priority to a visitor group with a small number of people, and places the visitor group under the visitor group. to instruct the movement of the guide robot 3. For example, if there are two visitor groups whose group feeling is "slightly bad mood", one visitor group consists of three people, and the other visitor group consists of five people. gives priority to a visitor group consisting of three people, and instructs the movement of the guide robot 3 under the visitor group.

さらにロボット移動指示部457は、来訪者特定部454がショールーム内画像に基づいて来訪者を特定不能と判定した場合には、特定不能と判定された来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。例えばロボット移動指示部457は、来訪者特定部454から出力される来訪者特定不能の制御信号を入力すると、来訪者特定部454にてショールーム内画像から抽出した人物の近傍に、案内ロボット3が派遣されるように案内ロボット3に移動を指示する。 Furthermore, when the visitor specifying unit 454 determines that the visitor cannot be specified based on the in-showroom image, the robot movement instructing unit 457 dispatches the guide robot 3 to the visitor who is determined to be unspecifiable. The guide robot 3 is instructed to move. For example, when the robot movement instruction unit 457 receives a control signal output from the visitor identification unit 454 indicating that the visitor cannot be identified, the guide robot 3 moves near the person extracted from the showroom image by the visitor identification unit 454. The guide robot 3 is instructed to move so as to be dispatched.

このときロボット移動指示部457は、来訪者特定部454にてショールーム内画像から抽出した人物が来訪者グループを構成する場合には、該人物が属する来訪者グループの近傍に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。そしてロボット移動指示部457は、特定不能と判定された来訪者が施設内画像取得部451により取得されるショールーム内画像により特定可能となるような該来訪者の位置または姿勢の変化を促す動作を案内ロボット3に指示する。例えばロボット移動指示部457は、特定不能と判定された来訪者が撮像部11の方を向く位置または姿勢となるように、案内ロボット3に動作を指示する。 At this time, if the person extracted from the in-showroom image by the visitor identification unit 454 constitutes a visitor group, the robot movement instruction unit 457 dispatches the guide robot 3 to the vicinity of the visitor group to which the person belongs. The guide robot 3 is instructed to move. Then, the robot movement instruction unit 457 performs an operation to prompt a change in the position or posture of the visitor determined to be unidentifiable so that the visitor can be identified by the in-showroom image acquired by the in-facility image acquisition unit 451 . The guide robot 3 is instructed. For example, the robot movement instruction unit 457 instructs the guide robot 3 to move so that the visitor determined to be unidentifiable faces the imaging unit 11 in a position or posture.

例えばロボット移動指示部457は、案内ロボット3の後方に撮像部11を位置させた状態で、特定不能と判定された来訪者の下への案内ロボット3の移動を指示する。特定不能と判定された来訪者は、近づいて来る案内ロボット3に気付くと案内ロボット3の方を見るので、案内ロボット3の後方に位置する撮像部11により来訪者の顔が撮像可能となる。このとき、案内ロボット3に特定不能と判定された来訪者が気付き易い動作を行わせるとよい。このようにして、来訪者の位置または姿勢の変化を促す。 For example, the robot movement instruction unit 457 instructs the guide robot 3 to move under the visitor determined to be unidentifiable, with the imaging unit 11 positioned behind the guide robot 3 . A visitor determined to be unidentifiable looks at the guide robot 3 when he/she notices the approaching guide robot 3, so that the visitor's face can be imaged by the imaging unit 11 positioned behind the guide robot 3. - 特許庁At this time, it is preferable to make the guide robot 3 perform an action that is easy for the visitor determined to be unidentifiable to notice. In this way, a change in the position or posture of the visitor is encouraged.

またロボット視線指示部453が、案内ロボット3の一対の擬似眼306,306の視線の方向を指示することで、該来訪者の視線を誘導して該来訪者の位置または姿勢の変化を促すことが好ましい。例えば一対の擬似眼306,306の視線の方向を撮像部11の方に移動する動作をさせることで、来訪者の視線を撮像部11の方に誘導することが好ましい。このとき、例えばロボット移動指示部457が案内ロボット3に視線の移動と連動させた回転動作等を行わせることで、視線を誘導し易くなる。 Further, the robot line-of-sight instruction unit 453 instructs the line-of-sight direction of the pair of pseudo eyes 306, 306 of the guide robot 3, thereby guiding the line of sight of the visitor and prompting a change in the position or posture of the visitor. is preferred. For example, it is preferable to guide the visitor's line of sight toward the imaging unit 11 by moving the direction of the line of sight of the pair of pseudo eyes 306 and 306 toward the imaging unit 11 . At this time, for example, the robot movement instructing unit 457 causes the guide robot 3 to perform a rotating motion or the like in conjunction with the movement of the line of sight, thereby making it easier to guide the line of sight.

図5は、図3のサーバ装置4の演算部45で実行される案内ロボット派遣処理の一例を示すフローチャートである。図6は、図3のサーバ装置4の演算部45で実行される来訪者特定処理の一例を示すフローチャートであり、図7は、図3のサーバ装置4の演算部45で実行される来訪者グループ特定処理の一例を示すフローチャートである。図5に示す案内ロボット派遣処理は、例えば、ショールーム1を開店すると開始され、閉店するまで実行される。 FIG. 5 is a flow chart showing an example of the guide robot dispatching process executed by the computing unit 45 of the server device 4 of FIG. FIG. 6 is a flow chart showing an example of visitor identification processing executed by the calculation unit 45 of the server device 4 in FIG. 3, and FIG. 9 is a flowchart showing an example of group identification processing; The guide robot dispatching process shown in FIG. 5 is started, for example, when the showroom 1 is opened and is executed until the showroom is closed.

図5に示すように、まず、ステップS1において、施設内画像取得部451での処理により、ショールーム1に設置された複数の撮像部11により撮像されるショールーム内画像を取得する(施設内画像取得ステップ)。次いで、ステップS2で、施設内画像取得ステップにて取得したショールーム内画像からショールーム1に来訪した来訪者を特定する来訪者特定処理を実行する(来訪者特定ステップ)。 As shown in FIG. 5, first, in step S1, an in-facility image acquisition unit 451 acquires an in-showroom image captured by a plurality of imaging units 11 installed in the showroom 1 (acquisition of in-facility image). step). Next, in step S2, a visitor identification process is executed to identify a visitor who has visited the showroom 1 from the in-facility image acquired in the in-facility image acquisition step (visitor identification step).

来訪者特定処理(来訪者特定ステップ)では、図6に示すように、先ず、ステップS20で、来訪者特定部454での処理により、施設内画像取得ステップにて取得したショールーム内画像から施設に来訪した人物を抽出する。次いで、ステップS21で、来訪者特定部454での処理により、抽出した人物の顔画像を抽出可能(認識可能)か否かを判定する。ステップS21で否定されるとステップS22に進み、ロボット移動指示部457での処理により、抽出不能と判定された人物の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する(ロボット移動指示ステップ)。 In the visitor identification process (visitor identification step), as shown in FIG. Extract the person who visited. Next, in step S21, it is determined whether or not the face image of the extracted person can be extracted (recognized) by processing in the visitor identification unit 454. FIG. If the result in step S21 is NO, the process advances to step S22, where the robot movement instruction unit 457 instructs the guide robot 3 to move so that the guide robot 3 is dispatched under the person determined to be unextractable ( robot movement instruction step).

次いで、ステップS23で、来訪者特定部454での処理により、抽出不能と判定された人物の顔画像を取得可能か否かを判定する。ステップS23で否定されるとステップS24に進み、ロボット視線指示部453での処理により、案内ロボット3の一対の擬似眼306,306の視線の方向を指示し、来訪者の視線を誘導して該来訪者の位置または姿勢の変化を促す(ロボット視線指示ステップ)。 Next, in step S23, it is determined whether or not the facial image of the person determined to be unextractable can be acquired through the process of the visitor identification unit 454. FIG. If the result in step S23 is NO, the process proceeds to step S24, where the direction of the line of sight of the pair of pseudo eyes 306, 306 of the guide robot 3 is instructed by processing in the robot line of sight instruction unit 453 to guide the line of sight of the visitor. Prompting the visitor to change his/her position or posture (robot gaze direction step).

次いで、ステップS25で、来訪者特定部454での処理により、抽出不能と判定された人物の顔画像を取得可能か否かを判定する。ステップS25で否定されるとステップS26に進み、ロボット画像取得部452での処理により、案内ロボット3に顔を撮像させ、抽出不能と判定された人物の顔画像を取得する(ロボット画像取得ステップ)。 Next, in step S25, it is determined whether or not the facial image of the person determined to be unextractable can be obtained by the process of the visitor identification unit 454. FIG. If the result in step S25 is NO, the process proceeds to step S26, where the robot image acquisition unit 452 causes the guide robot 3 to take an image of the face and acquires the face image of the person determined to be unextractable (robot image acquisition step). .

一方、ステップS21、ステップS23、ステップS25のそれぞれで肯定されると、またはステップS26で抽出不能(特定不能)と判定された人物の顔画像を取得すると、次いで、ステップS27で、来訪者特定部454での処理により、来訪者の顔画像を抽出(認識)する。次いで、ステップS28で、来訪者特定部454での処理により、来訪者を特定する。 On the other hand, if each of steps S21, S23, and S25 is affirmative, or if the face image of the person determined to be unextractable (identifiable) is acquired in step S26, then in step S27, the visitor identification unit The process at 454 extracts (recognizes) the face image of the visitor. Next, in step S28, the visitor is identified by processing in the visitor identification unit 454. FIG.

来訪者特定処理(来訪者特定ステップ)を実行すると、図5に示すように、次いで、ステップS3で、来訪者グループを特定する来訪者グループ特定処理を実行する(来訪者グループ特定ステップ)。 After executing the visitor identification process (visitor identification step), as shown in FIG. 5, next, in step S3, a visitor group identification process for identifying a visitor group is executed (visitor group identification step).

来訪者グループ特定処理(来訪者グループ特定ステップ)では、図7に示すように、先ず、ステップS30で、来訪者グループ特定部455での処理により、来訪者特定ステップで特定された来訪者を特定する。次いで、ステップS31で、特定された来訪者が来訪者グループを構成するか否かを判定する。ステップS31で否定されるとステップS1に戻る。一方、ステップS31で肯定されるとステップS32に進み、来訪者グループを特定する。 In the visitor group identification process (visitor group identification step), as shown in FIG. 7, first, in step S30, the visitor identified in the visitor identification step is identified by processing in the visitor group identification unit 455. do. Next, in step S31, it is determined whether or not the specified visitor constitutes a visitor group. If the result in step S31 is NO, the process returns to step S1. On the other hand, if the result in step S31 is affirmative, the process proceeds to step S32 to specify a visitor group.

来訪者グループ特定処理を実行すると、図5に示すように、次いで、ステップS4で、グループ感情特定部456での処理により、複数の来訪者それぞれの感情を推定する(グループ感情特定ステップ)。次いで、ステップS5で、グループ感情特定部456での処理により、推定した複数の来訪者それぞれの感情に基づいて来訪者グループのグループ感情を特定する(グループ感情特定ステップ)。次いで、ステップS6で、ロボット移動指示部457での処理により、来訪者グループのグループ感情に基づいて、来訪者グループの下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する(ロボット移動指示ステップ)。 Once the visitor group identification process is executed, as shown in FIG. 5, in step S4, the group emotion identification unit 456 estimates the emotions of each of the plurality of visitors (group emotion identification step). Next, in step S5, the group emotion identification unit 456 identifies the group emotion of the visitor group based on the estimated emotions of each of the plurality of visitors (group emotion identification step). Next, in step S6, the robot movement instructing unit 457 instructs the guide robot 3 to move so that the guide robot 3 is dispatched under the visitor group based on the group emotion of the visitor group ( robot movement instruction step).

次いで、ステップS7で、ショールーム1の閉店時間か否かを判定し、ステップS7で否定されるとステップS1に戻り、上述を繰り返す。一方、ステップS7で肯定されると、処理を終了する。 Next, in step S7, it is determined whether or not the showroom 1 is closing time. On the other hand, if the result in step S7 is affirmative, the process ends.

本実施形態によれば以下のような作用効果を奏することができる。
(1)自動車販売店のショールーム1に来訪した来訪者に対しサービスを行う自走可能な案内ロボット3を管理するサーバ装置4である。サーバ装置4は、ショールーム1に設置された複数の撮像部11により撮像されるショールーム内画像を取得する施設内画像取得部451と、施設内画像取得部451が取得したショールーム内画像からショールーム1に来訪した来訪者を特定する来訪者特定部454と、来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示するロボット移動指示部457と、を備える。ロボット移動指示部457は、来訪者特定部454がショールーム内画像に基づいて来訪者を特定不能と判定した場合には、特定不能と判定された来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。
According to this embodiment, the following effects can be obtained.
(1) A server device 4 that manages a self-propelled guide robot 3 that provides services to visitors visiting the showroom 1 of an automobile dealer. The server device 4 includes an in-facility image acquisition unit 451 that acquires an in-showroom image captured by a plurality of image pickup units 11 installed in the showroom 1, and an in-facility image acquisition unit 451 that acquires the in-facility image acquired by the in-facility image acquisition unit 451 to the showroom 1. It comprises a visitor identification unit 454 that identifies a visitor who has visited, and a robot movement instruction unit 457 that instructs the guide robot 3 to move so that the guide robot 3 is dispatched under the visitor. When the visitor specifying unit 454 determines that the visitor cannot be specified based on the in-showroom image, the robot movement instruction unit 457 instructs the robot movement instruction unit 457 to dispatch the guide robot 3 to the visitor who is determined to be unspecifiable. to instruct the guide robot 3 to move.

この構成により、自動車販売店のショールーム1に来訪した来訪者に対して、案内ロボット3を用いた効率的な接客を適当に行うことができる。例えば、特定不能と判定された来訪者の下に案内ロボット3を派遣させることで、該来訪者がショールーム内画像により特定可能となるような該来訪者の位置または姿勢の変化を促したり、案内ロボット3に来訪者の顔画像を撮像させたりすることができる。 With this configuration, it is possible to appropriately and efficiently serve a visitor who visits the showroom 1 of the car dealer using the guide robot 3 . For example, by dispatching the guide robot 3 under the visitor who is determined to be unidentifiable, the visitor can be identified by the image in the showroom, prompting a change in the position or posture of the visitor, or guiding the visitor. The robot 3 can be made to take a visitor's face image.

例えば、案内ロボット3が移動してくることで来訪者が案内ロボット3の方を向くと、撮像部11により来訪者の顔を撮像し易くなるとともに、案内ロボット3が来訪者の顔を直接撮像可能になる。これにより、特定不能と判定された来訪者を特定することが可能となる。その結果、例えば、撮像部11と案内ロボット3とを連携させた適当な接客が可能になる。 For example, when the visitor turns to the guide robot 3 as the guide robot 3 moves, it becomes easier for the imaging unit 11 to capture an image of the visitor's face, and the guide robot 3 directly captures the visitor's face. be possible. This makes it possible to identify the visitor who has been determined to be unidentifiable. As a result, for example, it is possible to provide appropriate customer service by cooperating the imaging unit 11 and the guide robot 3 .

例えば、機嫌の悪い来訪者に案内ロボットを派遣させてコミュニケーションをとらせることが可能になるので、来訪者の機嫌を向上させたり、機嫌の悪化を抑制したりすることができる。例えば長時間待たされて機嫌の悪くなった来訪者の下に案内ロボットを派遣してコミュニケーションをとらせることで、機嫌よくさせたり、さらに機嫌が悪くなることを抑制したりすることができる。これにより、その後の自動車販売店側の販売員(例えば営業マン)等による商談等の接客をスムーズに行わせることができる。 For example, it is possible to dispatch a guide robot to a visitor who is in a bad mood to communicate with the visitor. For example, by dispatching a guide robot to a visitor who has been kept waiting for a long time and is in a bad mood to communicate with the visitor, it is possible to make the visitor feel better or to prevent the visitor from being in a bad mood. As a result, subsequent customer service such as business negotiations by a salesperson (for example, a salesperson) of the automobile dealer can be smoothly performed.

また例えば、来訪者に対して、案内ロボットに予め要件を訊かせたり、簡単な案内をさせたりすることができる。例えば、長時間待たされている来訪者や長い待ち時間が予想される来訪者グループに対して、予め、案内ロボットに要件等を訊かせたり、簡単な案内をさせたりすることができる。これにより、その後の販売員(例えば営業マン)等による効率的な接客が可能になる。 Also, for example, it is possible to have the guide robot ask the visitor about their requirements in advance or provide simple guidance. For example, for a visitor who has been waiting for a long time or a group of visitors who are expected to wait for a long time, the guide robot can be made to ask requirements and the like or provide simple guidance in advance. This enables efficient customer service by a salesperson (for example, a salesperson) afterward.

このように、本実施形態に係るサーバ装置4を用いることで、例えば、案内ロボット3を用いた効率的かつスムーズな接客が可能になる。 Thus, by using the server device 4 according to the present embodiment, for example, efficient and smooth customer service using the guide robot 3 becomes possible.

(2)施設内画像取得部451が取得したショールーム内画像からショールーム1に来訪した来訪者グループを特定する来訪者グループ特定部455をさらに備える。ロボット移動指示部457は、来訪者グループ特定部455にて特定された来訪者グループの中に、来訪者特定部454により特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。例えば、グループでショールーム1に来訪した場合は、向かい合って話をしながら来訪する場合が多く、この場合は来訪者の顔の認識が困難となるが、案内ロボット3を派遣することで、全ての来訪者の顔を認識することが可能になる。 (2) Further provided is a visitor group identification unit 455 that identifies a visitor group who has visited the showroom 1 from the in-facility image acquisition unit 451 acquired by the showroom image acquisition unit 451 . If the visitor group identified by the visitor group identifying unit 455 includes a visitor who is determined to be unidentifiable by the visitor identifying unit 454, the robot movement instruction unit 457 determines that the visitor group cannot be identified. The guide robot 3 is instructed to move so that the guide robot 3 is dispatched under the visitor group to which the received visitor belongs. For example, when a group visits the showroom 1, they often face each other and talk while visiting. In this case, it is difficult to recognize the visitor's face. It becomes possible to recognize the face of a visitor.

(3)ロボット移動指示部457は、来訪者特定部454により特定不能と判定された来訪者の近傍への移動を案内ロボット3に指示し、特定不能と判定された来訪者が施設内画像取得部451により取得されるショールーム内画像により特定可能となるような来訪者の位置または姿勢の変化を促す動作を指示する。例えば、ロボット移動指示部457は、特定不能と判定された来訪者が撮像部11の方を向く位置または姿勢となるように、案内ロボット3に移動を指示する。これにより、特定不能と判定された来訪者の顔を認識可能となり、特定不能と判定された来訪者を特定可能となる。 (3) The robot movement instruction unit 457 instructs the guide robot 3 to move to the vicinity of the visitor determined to be unidentifiable by the visitor identification unit 454, and the visitor determined to be unidentifiable obtains an image of the inside of the facility. An instruction is given to prompt a change in the position or posture of the visitor that can be identified by the image of the inside of the showroom acquired by the unit 451 . For example, the robot movement instruction unit 457 instructs the guide robot 3 to move so that the visitor determined to be unidentifiable faces the imaging unit 11 in a position or posture. As a result, it becomes possible to recognize the face of the visitor determined to be unidentifiable, and to identify the visitor determined to be unidentifiable.

(4)案内ロボット3が視線を移動可能な一対の擬似眼306,306を有し、案内ロボット3の一対の擬似眼306,306の視線の方向を指示するロボット視線指示部453をさらに備える。ロボット視線指示部453は、ロボット移動指示部457により来訪者の近傍に移動した案内ロボット3の一対の擬似眼306,306の視線の方向を指示することで、来訪者の視線を誘導して来訪者の位置または姿勢の変化を促す。これにより、特定不能と判定された来訪者の顔の認識が容易となり、特定不能と判定された来訪者を特定可能となる。 (4) The guide robot 3 has a pair of pseudo eyes 306, 306 whose line of sight is movable, and further includes a robot line of sight instruction unit 453 that indicates the direction of the line of sight of the pair of pseudo eyes 306, 306 of the guide robot 3. The robot line-of-sight instruction unit 453 directs the line-of-sight direction of the pair of pseudo eyes 306, 306 of the guide robot 3 moved to the vicinity of the visitor by the robot movement instruction unit 457, thereby guiding the visitor's line of sight. Prompt a change in a person's position or posture. This makes it easier to recognize the face of the visitor who is determined to be unidentifiable, and allows the visitor who is determined to be unidentifiable to be identified.

(5)自動車販売店のショールーム1に来訪した来訪者に対しサービスを行う自走可能な案内ロボット3を管理するロボット管理方法である。ロボット管理方法は、サーバ装置4が、ショールーム1に設置された複数の撮像部11により撮像されるショールーム内画像を取得する施設内画像取得ステップと、施設内画像取得ステップにて取得したショールーム内画像からショールームに来訪した来訪者を特定する来訪者特定ステップと、来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示するロボット移動指示ステップと、を実行する。ロボット移動指示ステップは、来訪者特定ステップにてショールーム内画像に基づいて来訪者を特定不能と判定された場合には、特定不能と判定された来訪者の下に案内ロボット3が派遣されるように案内ロボット3に移動を指示する。 (5) A robot management method for managing a self-propelled guide robot 3 that provides services to visitors visiting the showroom 1 of an automobile dealer. The robot management method includes an in-facility image acquisition step in which the server device 4 acquires an in-facility image captured by a plurality of imaging units 11 installed in the showroom 1, and an in-facility image acquisition step in which the in-facility image is acquired. A visitor identification step for identifying a visitor who has visited the showroom from the display device, and a robot movement instruction step for instructing the movement of the guidance robot 3 so that the guidance robot 3 is dispatched under the visitor are executed. In the robot movement instruction step, when it is determined that the visitor cannot be specified based on the image in the showroom in the visitor specification step, the guide robot 3 is dispatched to the visitor who is determined to be unspecifiable. to instruct the guide robot 3 to move.

この方法により、上述のサーバ装置4のように、自動車販売店のショールーム1に来訪した来訪者に対して、案内ロボット3を用いた効率的な接客を適当に行うことができる。例えば、案内ロボット3を用いた効率的かつスムーズな接客が可能になる。 By this method, like the server device 4 described above, it is possible to appropriately and efficiently serve visitors who visit the showroom 1 of the car dealer using the guide robot 3 . For example, efficient and smooth customer service using the guide robot 3 is possible.

(6)ロボット管理システム100は、上述のサーバ装置4と、ショールーム1に設置され、サーバ装置4と通信可能な複数の撮像部11と、ショールーム1に配置され、自走可能かつサーバ装置4と通信可能な案内ロボット3と、を備える。これにより、自動車販売店のショールーム1に来訪した来訪者に対して、案内ロボット3を用いた効率的な接客を適当に行うことができる。例えば、案内ロボット3を用いた効率的かつスムーズな接客が可能になる。 (6) The robot management system 100 includes the server device 4 described above, a plurality of imaging units 11 installed in the showroom 1 and capable of communicating with the server device 4, and the server device 4 arranged in the showroom 1 and capable of self-running. and a guide robot 3 capable of communication. As a result, efficient customer service using the guide robot 3 can be appropriately performed for visitors visiting the showroom 1 of the automobile dealer. For example, efficient and smooth customer service using the guide robot 3 is possible.

上記実施形態では、サーバ装置4の演算部45は、施設内画像取得部451と、ロボット画像取得部452と、ロボット視線指示部453と、来訪者特定部454と、来訪者グループ特定部455と、グループ感情特定部456と、ロボット移動指示部457とを備えて構成したが、本発明はこれに限定されない。演算部45は、施設内画像取得部451と、来訪者特定部454と、ロボット移動指示部457とを備えていればよい。また演算部45は、来訪者グループ特定部455を備えることが好ましく、ロボット視線指示部453を備えることがさらに好ましい。 In the above-described embodiment, the computing unit 45 of the server device 4 includes the in-facility image acquisition unit 451, the robot image acquisition unit 452, the robot line-of-sight instruction unit 453, the visitor identification unit 454, and the visitor group identification unit 455. , the group emotion specifying unit 456 and the robot movement instructing unit 457, but the present invention is not limited to this. The calculation unit 45 may include an in-facility image acquisition unit 451 , a visitor identification unit 454 , and a robot movement instruction unit 457 . The calculation unit 45 preferably includes a visitor group identification unit 455 , and more preferably includes a robot line-of-sight instruction unit 453 .

上記実施形態では、サーバ装置4の演算部45で実行される案内ロボット派遣処理として、施設内画像取得ステップと、来訪者特定ステップと、来訪者グループ特定ステップと、グループ感情特定ステップと、ロボット移動指示ステップとを備えて構成したが、本発明はこれに限定されない。案内ロボット派遣処理は、施設内画像取得ステップと、来訪者特定ステップと、来訪者特定ステップにおけるロボット移動指示ステップとを備えていればよい。 In the above-described embodiment, the guidance robot dispatching process executed by the calculation unit 45 of the server device 4 includes an in-facility image acquisition step, a visitor identification step, a visitor group identification step, a group emotion identification step, and a robot movement. However, the present invention is not limited to this. The guide robot dispatching process may include an in-facility image acquisition step, a visitor identification step, and a robot movement instruction step in the visitor identification step.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態により本発明が限定されるものではない。 The above description is merely an example, and the present invention is not limited by the above-described embodiments as long as the features of the present invention are not impaired.

1 ショールーム(施設)、3 案内ロボット、4 サーバ装置(ロボット管理装置)、5 通信ネットワーク、11 撮像部、100 ロボット管理システム、101 友人グループ(来訪者グループ)、102 親子グループ(来訪者グループ)、306 一対の擬似眼、451 施設内画像取得部、452 ロボット画像取得部、453 ロボット視線指示部、454 来訪者特定部、455 来訪者グループ特定部、456 グループ感情特定部、457 ロボット移動指示部、A~E 来訪者 1 showroom (facility), 3 guide robot, 4 server device (robot management device), 5 communication network, 11 imaging unit, 100 robot management system, 101 friend group (visitor group), 102 parent-child group (visitor group), 306 pair of pseudo eyes, 451 in-facility image acquisition unit, 452 robot image acquisition unit, 453 robot gaze instruction unit, 454 visitor identification unit, 455 visitor group identification unit, 456 group emotion identification unit, 457 robot movement instruction unit, A to E Visitors

Claims (5)

施設に来訪した来訪者に対しサービスを行う自走可能な案内ロボットを管理するロボット管理装置であって、
前記施設に設置された撮像部により撮像される施設内画像を取得する施設内画像取得部と、
前記施設内画像取得部が取得した前記施設内画像から施設に来訪した来訪者を特定する来訪者特定部と、
前記施設内画像取得部が取得した前記施設内画像から施設に来訪した来訪者グループを特定する来訪者グループ特定部と、
来訪者の下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示するロボット移動指示部と、を備え、
前記ロボット移動指示部は、前記来訪者特定部が前記施設内画像に基づいて来訪者を特定不能と判定した場合には、特定不能と判定された来訪者の下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示し、前記来訪者グループ特定部にて特定された来訪者グループの中に、前記来訪者特定部により特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示する、ことを特徴とするロボット管理装置。
A robot management device that manages a self-propelled guide robot that provides services to visitors visiting a facility,
an in-facility image acquisition unit that acquires an in-facility image captured by an imaging unit installed in the facility;
a visitor identification unit that identifies a visitor who has visited the facility from the in-facility image acquired by the in-facility image acquisition unit;
a visitor group identifying unit that identifies a group of visitors who have visited the facility from the in-facility image acquired by the in-facility image acquiring unit;
a robot movement instruction unit that instructs the guide robot to move so that the guide robot is dispatched under the visitor;
When the visitor identification unit determines that the visitor cannot be identified based on the in-facility image, the robot movement instruction unit dispatches the guide robot to the visitor who is determined to be unidentifiable. When the visitor group identified by the visitor group identification unit includes a visitor who is determined to be unidentifiable by the visitor identification unit, 1. A robot management apparatus, comprising: a robot management apparatus that instructs a guide robot to move so that the guide robot is dispatched to a visitor group to which a visitor determined to be unidentifiable belongs.
請求項1に記載のロボット管理装置において、 The robot management device according to claim 1,
前記ロボット移動指示部は、前記来訪者特定部により特定不能と判定された来訪者の近傍への移動を前記案内ロボットに指示し、特定不能と判定された来訪者が前記施設内画像取得部により取得される施設内画像により特定可能となるような該来訪者の位置または姿勢の変化を促す動作を指示する、ことを特徴とするロボット管理装置。 The robot movement instruction unit instructs the guide robot to move to the vicinity of the visitor determined to be unidentifiable by the visitor identification unit, and the visitor determined to be unidentifiable is 1. A robot management apparatus, characterized in that it instructs an action that prompts a change in the position or posture of the visitor so as to be identifiable from an acquired in-facility image.
請求項2に記載のロボット管理装置において、 In the robot management device according to claim 2,
前記案内ロボットが視線を移動可能な擬似眼を有し、 The guide robot has a pseudo eye capable of moving a line of sight,
前記案内ロボットの前記擬似眼の視線の方向を指示するロボット視線指示部をさらに備え、 further comprising a robot line-of-sight instruction unit for instructing a line-of-sight direction of the pseudo eye of the guide robot;
前記ロボット視線指示部は、前記ロボット移動指示部により来訪者の近傍に移動した前記案内ロボットの前記擬似眼の視線の方向を指示することで、該来訪者の視線を誘導して該来訪者の位置または姿勢の変化を促す、ことを特徴とするロボット管理装置。 The robot line-of-sight instruction unit instructs the direction of the line-of-sight of the pseudo eyes of the guide robot that has moved to the vicinity of the visitor by the robot movement instruction unit, thereby guiding the line of sight of the visitor. A robot management device characterized by prompting a change in position or posture.
施設に来訪した来訪者に対しサービスを行う自走可能な案内ロボットを管理するロボット管理方法であって、 A robot management method for managing a self-propelled guide robot that provides services to visitors visiting a facility,
コンピュータによりそれぞれ実行される、 respectively executed by a computer,
前記施設に設置された撮像部により撮像される施設内画像を取得する施設内画像取得ステップと、 an in-facility image acquisition step of acquiring an in-facility image captured by an imaging unit installed in the facility;
前記施設内画像取得ステップにて取得した前記施設内画像から施設に来訪した来訪者を特定する来訪者特定ステップと、 a visitor identification step of identifying a visitor who has visited the facility from the in-facility image acquired in the in-facility image acquisition step;
前記施設内画像取得ステップにて取得した前記施設内画像から施設に来訪した来訪者グループを特定する来訪者グループ特定ステップと、 a visitor group identification step of identifying a visitor group who has visited the facility from the in-facility image acquired in the in-facility image acquisition step;
来訪者の下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示するロボット移動指示ステップと、を備え、 a robot movement instruction step of instructing the guide robot to move so that the guide robot is dispatched under the visitor;
前記ロボット移動指示ステップは、前記来訪者特定ステップにて前記施設内画像に基づいて来訪者を特定不能と判定された場合には、特定不能と判定された来訪者の下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示し、前記来訪者グループ特定ステップにて特定された来訪者グループの中に、前記来訪者特定ステップにより特定不能と判定された来訪者が存在する場合には、特定不能と判定された来訪者の属する来訪者グループの下に前記案内ロボットが派遣されるように該案内ロボットに移動を指示する、ことを特徴とするロボット管理方法。 In the robot movement instruction step, when the visitor identification step determines that the visitor cannot be identified based on the in-facility image, the guide robot is dispatched under the visitor who is determined to be unidentifiable. When the visitor group identified in the visitor group identification step includes a visitor determined to be unidentifiable by the visitor identification step 1. A robot management method comprising: instructing a guide robot to move so that the guide robot is dispatched under a visitor group to which a visitor determined to be unidentifiable belongs.
請求項1から3のいずれか1項に記載のロボット管理装置と、 a robot management device according to any one of claims 1 to 3;
前記施設に設置され、前記ロボット管理装置と通信可能な撮像部と、 an imaging unit installed in the facility and capable of communicating with the robot management device;
前記施設に配置され、自走可能かつ前記ロボット管理装置と通信可能な前記案内ロボットと、を備えるロボット管理システム。 A robot management system comprising the guide robot disposed in the facility, capable of self-propelled communication, and capable of communicating with the robot management device.
JP2019132084A 2019-07-17 2019-07-17 ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM Active JP7273638B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019132084A JP7273638B2 (en) 2019-07-17 2019-07-17 ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM
CN202010642902.0A CN112238458B (en) 2019-07-17 2020-07-06 Robot management device, robot management method, and robot management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019132084A JP7273638B2 (en) 2019-07-17 2019-07-17 ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM

Publications (2)

Publication Number Publication Date
JP2021018482A JP2021018482A (en) 2021-02-15
JP7273638B2 true JP7273638B2 (en) 2023-05-15

Family

ID=74170809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132084A Active JP7273638B2 (en) 2019-07-17 2019-07-17 ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM

Country Status (2)

Country Link
JP (1) JP7273638B2 (en)
CN (1) CN112238458B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113561195A (en) * 2021-07-20 2021-10-29 柒久园艺科技(北京)有限公司 Robot guide exhibition hall internet of things system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005193351A (en) 2004-01-09 2005-07-21 Honda Motor Co Ltd Face image acquiring method and its system
JP2006123102A (en) 2004-10-29 2006-05-18 Advanced Telecommunication Research Institute International Eyeball control device, eyeball control method and eyeball control program
JP2016068197A (en) 2014-09-30 2016-05-09 富士ソフト株式会社 robot
JP2017222021A (en) 2016-06-14 2017-12-21 グローリー株式会社 Shop reception system
JP2018051669A (en) 2016-09-28 2018-04-05 大日本印刷株式会社 Robot system and program
JP2018055232A (en) 2016-09-27 2018-04-05 大日本印刷株式会社 Content providing device, content providing method, and program
JP2018098545A (en) 2016-12-08 2018-06-21 カシオ計算機株式会社 Robot, operation control system, operation control method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6785308B2 (en) * 2016-06-22 2020-11-18 ローレル精機株式会社 Counter reception system and service robot
KR20180109124A (en) * 2017-03-27 2018-10-08 (주)로직아이텍 Convenient shopping service methods and systems using robots in offline stores
JP2019049785A (en) * 2017-09-08 2019-03-28 株式会社日立ビルシステム Robot management system and commodity proposing method
CN109348170B (en) * 2018-09-21 2021-01-01 北京大学(天津滨海)新一代信息技术研究院 Video monitoring method and device and video monitoring equipment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005193351A (en) 2004-01-09 2005-07-21 Honda Motor Co Ltd Face image acquiring method and its system
JP2006123102A (en) 2004-10-29 2006-05-18 Advanced Telecommunication Research Institute International Eyeball control device, eyeball control method and eyeball control program
JP2016068197A (en) 2014-09-30 2016-05-09 富士ソフト株式会社 robot
JP2017222021A (en) 2016-06-14 2017-12-21 グローリー株式会社 Shop reception system
JP2018055232A (en) 2016-09-27 2018-04-05 大日本印刷株式会社 Content providing device, content providing method, and program
JP2018051669A (en) 2016-09-28 2018-04-05 大日本印刷株式会社 Robot system and program
JP2018098545A (en) 2016-12-08 2018-06-21 カシオ計算機株式会社 Robot, operation control system, operation control method, and program

Also Published As

Publication number Publication date
CN112238458A (en) 2021-01-19
JP2021018482A (en) 2021-02-15
CN112238458B (en) 2024-03-15

Similar Documents

Publication Publication Date Title
KR20200064976A (en) Portable virtual reality device
US7584158B2 (en) User support apparatus
US11307593B2 (en) Artificial intelligence device for guiding arrangement location of air cleaning device and operating method thereof
KR101088083B1 (en) Intelligent display apparutus having publicity function and method of performing publicity function
US20160025499A1 (en) Intelligent mobility aid device and method of navigating and providing assistance to a user thereof
JP4369326B2 (en) Facility information providing system and facility information providing method
CN107206601A (en) Customer service robot and related systems and methods
JP2005293052A (en) Robot for dealing with customer
KR20200066280A (en) Foldable virtual reality device
JP2003050559A (en) Autonomously movable robot
JP2002006784A (en) Floating type robot
US20180025283A1 (en) Information processing apparatus, information processing method, and program
US20190354178A1 (en) Artificial intelligence device capable of being controlled according to user action and method of operating the same
US20210334640A1 (en) Artificial intelligence server and method for providing information to user
WO2021067881A1 (en) Hardware for entertainment content in vehicles
JP7000759B2 (en) Guidance device, guidance system, guidance method and program
JP6109288B2 (en) Information processing apparatus, information processing method, and program
JP7273638B2 (en) ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM
JP2005131713A (en) Communication robot
JP7273637B2 (en) ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM
US20220300012A1 (en) Control device, control method, and control system
US20220297308A1 (en) Control device, control method, and control system
JP2011033837A (en) Interaction support device, interaction support device, and program
WO2011068390A2 (en) Device and method for inducing use
US20220300982A1 (en) Customer service system, server, control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R150 Certificate of patent or registration of utility model

Ref document number: 7273638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150