JP7148296B2 - In-vehicle robot - Google Patents

In-vehicle robot Download PDF

Info

Publication number
JP7148296B2
JP7148296B2 JP2018128572A JP2018128572A JP7148296B2 JP 7148296 B2 JP7148296 B2 JP 7148296B2 JP 2018128572 A JP2018128572 A JP 2018128572A JP 2018128572 A JP2018128572 A JP 2018128572A JP 7148296 B2 JP7148296 B2 JP 7148296B2
Authority
JP
Japan
Prior art keywords
robot
vehicle
camera
unit
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018128572A
Other languages
Japanese (ja)
Other versions
JP2020009075A (en
Inventor
憲和 奈良
学 森田
俊啓 望月
哲郎 村上
和宏 奥津
晋史 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018128572A priority Critical patent/JP7148296B2/en
Publication of JP2020009075A publication Critical patent/JP2020009075A/en
Application granted granted Critical
Publication of JP7148296B2 publication Critical patent/JP7148296B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車載用ロボットに関する。 The present invention relates to a vehicle-mounted robot.

カーナビゲーション装置は目的地への経路誘導を行うだけでなく、車両に関する様々な情報を扱い、ユーザの利便性を向上している。特許文献1には、ナビゲーション装置と人形を連携させてユーザへ情報提供する技術が開示されている。 A car navigation system not only provides route guidance to a destination, but also handles various information related to the vehicle to improve convenience for the user. Patent Literature 1 discloses a technique for providing information to a user by linking a navigation device and a doll.

特開2002-71372号公報JP-A-2002-71372

特許文献1に開示された発明では、ナビゲーション装置から入力された情報に基づく情報提供しか実現できず改善の余地がある。 The invention disclosed in Patent Document 1 can only provide information based on information input from a navigation device, and there is room for improvement.

本発明の第1の態様による車載用ロボットは、車載装置が搭載される車両に搭載されるロボットであって、前記車載装置から前記車両に関する情報である車両情報を取得する通信部と、前記車両の外部または前記車両の内部を撮影するカメラと、前記車両情報および前記カメラによる撮影結果を用いて当該車載用ロボットの動作を決定する制御部とを備える。 A vehicle-mounted robot according to a first aspect of the present invention is a robot mounted in a vehicle on which an in-vehicle device is mounted, comprising: a communication unit that acquires vehicle information, which is information about the vehicle, from the vehicle-mounted device; or a camera that captures an image of the exterior of the vehicle or the interior of the vehicle; and a control unit that determines the operation of the vehicle-mounted robot using the vehicle information and the imaged result of the camera.

本発明によれば、車載用ロボットが車載装置から取得する情報と車載用ロボットが備えるカメラによる撮影結果を用いて動作できる。 According to the present invention, the in-vehicle robot can operate using the information acquired from the in-vehicle device and the photographed result by the camera provided in the in-vehicle robot.

ロボットシステムSのハードウエア構成図Hardware configuration diagram of robot system S ロボットシステムSの車両5における配置を示す図FIG. 4 is a diagram showing the arrangement of the robot system S on the vehicle 5; ロボット1の正面図Front view of robot 1 ロボ表示部12に表示される画像の例を示す図FIG. 4 shows an example of an image displayed on the robot display unit 12; ロボット1およびナビゲーション装置2の機能構成図Functional configuration diagram of robot 1 and navigation device 2 車両5の始動時におけるロボットシステムSの動作を示すシーケンス図A sequence diagram showing the operation of the robot system S when the vehicle 5 is started. 車両5の始動後におけるロボットシステムSの動作を示すシーケンス図4 is a sequence diagram showing the operation of the robot system S after the vehicle 5 is started; FIG. 車両5の始動後におけるロボットシステムSの動作を示すシーケンス図4 is a sequence diagram showing the operation of the robot system S after the vehicle 5 is started; FIG. 車両5の走行時におけるロボットシステムSの動作を示すシーケンス図A sequence diagram showing the operation of the robot system S when the vehicle 5 is running. 車両5の一時停止時におけるロボットシステムSの動作を示すシーケンス図A sequence diagram showing the operation of the robot system S when the vehicle 5 is temporarily stopped. 車両5が狭隘路を通行する際のロボットシステムSの動作を示すシーケンス図A sequence diagram showing the operation of the robot system S when the vehicle 5 travels through a narrow road. 車両5が長時間走行している場合のロボットシステムSの動作を示すシーケンス図A sequence diagram showing the operation of the robot system S when the vehicle 5 is running for a long time. 車両5が目的地の周辺に到着した場合のロボットシステムSの動作を示すシーケンス図4 is a sequence diagram showing the operation of the robot system S when the vehicle 5 has arrived near the destination; FIG.

―実施の形態―
以下、図1~図13を参照して、本発明に係るロボットシステムの実施の形態を説明する。車両5の乗員のうち、運転席に座っている者を運転者と呼ぶ。車両5の乗員であって、運転者に限らない全員をユーザと呼ぶ。
-Embodiment-
1 to 13, an embodiment of a robot system according to the present invention will be described below. Among the occupants of the vehicle 5, the person sitting in the driver's seat is called the driver. All the passengers of the vehicle 5, not limited to the driver, are called users.

(ハードウエア構成)
図1はロボットシステムSのハードウエア構成図である。ロボットシステムSは車両5に搭載される。ロボットシステムSは、ロボット1と、ナビゲーション装置2と、間接照明31と、スピーカー32と、周辺カメラ33と、GPS受信機34と、マイク35とを備える。
(Hardware configuration)
FIG. 1 is a hardware configuration diagram of the robot system S. As shown in FIG. A robot system S is mounted on a vehicle 5 . The robot system S includes a robot 1 , a navigation device 2 , an indirect lighting 31 , a speaker 32 , a peripheral camera 33 , a GPS receiver 34 and a microphone 35 .

ロボット1は、ロボカメラ11と、ロボ表示部12と、ロボライト13と、モータ14と、ロボ演算部15と、ロボ記憶部16と、ロボ通信部17とを備える。ロボカメラ11はロボ表示部12と一体に構成されるカメラユニットであり、撮影して得られる画像はロボ演算部15がアクセス可能である。ロボカメラ11は高精細でゆがみが少ないことが望ましい。ロボ表示部12はたとえば液晶ディスプレイである。ロボ表示部12は、ロボ演算部15の動作指令に基づき、ユーザへ、特に運転者へ提供する情報を表示する。 The robot 1 includes a robo camera 11 , a robo display unit 12 , a robo light 13 , a motor 14 , a robo computing unit 15 , a robo storage unit 16 , and a robo communication unit 17 . The robo-camera 11 is a camera unit integrated with the robo-display unit 12 , and the robo-calculation unit 15 can access images obtained by photographing. It is desirable that the robot camera 11 has high definition and little distortion. The robot display unit 12 is, for example, a liquid crystal display. The robot display unit 12 displays information to be provided to the user, especially to the driver, based on the operation command of the robot calculation unit 15 .

ロボライト13はロボ表示部12と一体に構成されるライトであり、ロボ演算部15からの動作指令により点灯、消灯、点滅、点灯色の変更などが可能である。さらにロボライト13は、ロボ演算部15の動作指令にしたがって、色を次々に変化させて虹色に光らせることもできる。モータ14は3軸モータであり、ロボ演算部15の動作指令によりロボット1をXYZの3軸周りに自在に回転できる。ロボ演算部15は、ロボット1の動作指令に関する演算を行う装置である。ロボ演算部15により実現される機能は後述する。 The robot light 13 is a light integrated with the robot display unit 12 and can be turned on, off, blinked, and changed in lighting color according to an operation command from the robot calculation unit 15 . Furthermore, the robot light 13 can change colors one after another according to the operation command of the robot calculation unit 15 to make it shine in rainbow colors. The motor 14 is a three-axis motor, and can freely rotate the robot 1 around three axes of XYZ according to an operation command from the robot calculation unit 15 . The robot calculation unit 15 is a device that performs calculations related to operation commands for the robot 1 . Functions realized by the robot computation unit 15 will be described later.

ロボ演算部15は、中央演算装置であるCPU、再構成可能な論理回路、およびハードウエア回路の少なくとも1つを含んで構成される。ロボ演算部15にCPUを含む場合は、ロボ記憶部16または不図示のROMなどに格納されたプログラムを不図示のRAMに展開して実行する。ロボ記憶部16は、読み書き可能な不揮発性の記憶装置、たとえばフラッシュメモリである。ロボ通信部17は、ナビゲーション装置2やロボットシステムSを構成する他の装置との通信を行うための通信インタフェースである。ロボ通信部17はたとえばCAN(登録商標)やIEEE802.3に対応する。 The robot operation unit 15 includes at least one of a CPU as a central processing unit, a reconfigurable logic circuit, and a hardware circuit. When the robot calculation unit 15 includes a CPU, a program stored in the robot storage unit 16 or a ROM (not shown) is loaded into a RAM (not shown) and executed. The robot storage unit 16 is a readable/writable non-volatile storage device such as a flash memory. The robot communication unit 17 is a communication interface for communicating with the navigation device 2 and other devices constituting the robot system S. FIG. The robot communication unit 17 is compatible with CAN (registered trademark) and IEEE802.3, for example.

ナビゲーション装置2は、車両5を目的地に誘導するためのナビゲーション情報を運転者に提供する装置である。ナビゲーション装置2は、ナビ表示部22と、ナビ演算部25と、ナビ記憶部26と、ナビ通信部27とを備える。ナビ表示部22はたとえば液晶ディスプレイである。ナビ表示部22は、ナビ演算部25の動作指令に基づき、ユーザへ、特に運転者へ提供する情報を表示する。ナビ演算部25は、中央演算装置であるCPU、再構成可能な論理回路、およびハードウエア回路の少なくとも1つを含んで構成される。ナビ演算部25にCPUを含む場合は、ナビ記憶部26または不図示のROMなどに格納されたプログラムを不図示のRAMに展開して実行する。ナビ演算部25により実現される機能は後述する。 The navigation device 2 is a device that provides the driver with navigation information for guiding the vehicle 5 to the destination. The navigation device 2 includes a navigation display section 22 , a navigation calculation section 25 , a navigation storage section 26 and a navigation communication section 27 . The navigation display unit 22 is, for example, a liquid crystal display. The navigation display unit 22 displays information to be provided to the user, especially to the driver, based on the operation command of the navigation calculation unit 25 . The navigation calculation unit 25 includes at least one of a CPU as a central processing unit, a reconfigurable logic circuit, and a hardware circuit. When a CPU is included in the navigation calculation unit 25, a program stored in the navigation storage unit 26 or a ROM (not shown) is developed in a RAM (not shown) and executed. Functions realized by the navigation calculation unit 25 will be described later.

ナビ記憶部26は、書き込み可能な不揮発性の記憶装置、たとえばフラッシュメモリである。ただしナビ記憶部26に読み出し専用の記憶領域が含まれてもよい。ナビ通信部27は、ロボットシステムSを構成する他の装置、および車両5の外部のサーバとの通信を行うための通信インタフェースである。ナビ通信部27はたとえば、車両5の内部の機器と通信するためのCANまたはIEEE802.3の通信モジュールと、車両5の外部のサーバと通信するための無線通信モジュールとを含む。ナビ通信部27は車両5に搭載された様々な機器と通信可能であり、たとえばイグニッションスイッチの動作状態や、車両5の速度、ステアリングホイールの角度などの情報が得られる。 The navigation storage unit 26 is a writable non-volatile storage device such as a flash memory. However, the navigation storage unit 26 may include a read-only storage area. The navigation communication unit 27 is a communication interface for communicating with other devices constituting the robot system S and a server outside the vehicle 5 . Navigation communication unit 27 includes, for example, a CAN or IEEE 802.3 communication module for communicating with equipment inside vehicle 5 and a wireless communication module for communicating with a server outside vehicle 5 . The navigation communication unit 27 can communicate with various devices mounted on the vehicle 5, and obtain information such as the operating state of the ignition switch, the speed of the vehicle 5, the angle of the steering wheel, and the like.

間接照明31は、車両5の内部の4か所に配される多色の光源である。間接照明31が配される4か所とは、運転席の前方下部、運転席のドア側の側面下部、助手席の前方下部、および助手席のドア側の側面下部である。間接照明31は様々な色を発光可能であり、ロボット1の動作指令により点灯、消灯、および点灯色の変更を行う。 The indirect lighting 31 is a multicolor light source arranged at four locations inside the vehicle 5 . The four places where the indirect lighting 31 is arranged are the lower front portion of the driver's seat, the lower side portion of the door side of the driver's seat, the lower front portion of the passenger's seat, and the lower side portion of the door side of the passenger's seat. The indirect lighting 31 can emit light of various colors, and is turned on, off, and changed in lighting color according to an operation command from the robot 1 .

スピーカー32は、ナビゲーション装置2から出力される信号に基づき音声を出力する。周辺カメラ33は、車両5の4隅に配されるカメラであり、車両5の周辺を撮影する。周辺カメラ33が撮影して得られた映像は、ナビゲーション装置2に出力される。周辺カメラ33は平時は動作しておらず、ロボット1の動作指令により動作を開始する。GPS受信機34は、衛星航法システムを構成する複数の衛星から電波を受信し、その電波に含まれる信号を解析することで自車両の位置、すなわち緯度と経度を算出する。GPS受信機34は算出した緯度と経度をナビゲーション装置2に出力する。マイク35は運転者の発話が入力可能なマイクロフォンであり、運転席の付近に設けられる。マイク35は得られた音声信号をナビゲーション装置2に出力する。 The speaker 32 outputs sound based on the signal output from the navigation device 2 . The peripheral cameras 33 are cameras arranged at the four corners of the vehicle 5 and photograph the periphery of the vehicle 5 . A video image obtained by the peripheral camera 33 is output to the navigation device 2 . The peripheral camera 33 does not normally operate, and starts operating in response to an operation command from the robot 1 . The GPS receiver 34 receives radio waves from a plurality of satellites that constitute the satellite navigation system, and analyzes the signals contained in the radio waves to calculate the position of the vehicle, that is, the latitude and longitude. The GPS receiver 34 outputs the calculated latitude and longitude to the navigation device 2 . A microphone 35 is a microphone capable of inputting the driver's speech, and is provided near the driver's seat. The microphone 35 outputs the obtained audio signal to the navigation device 2 .

(車内の配置)
図2はロボットシステムSの車両5における配置を示す図である。ただし図2ではロボットシステムSに含まれる一部の装置の記載を省略している。
(arrangement in the car)
FIG. 2 is a diagram showing the arrangement of the robot system S on the vehicle 5. As shown in FIG. However, in FIG. 2, description of some devices included in the robot system S is omitted.

ロボット1は車両5のダッシュボードの上であって、車両5の幅方向で略中央に設置される。ロボット1の通常の姿勢、たとえば電源オフ時や特段の処理を行わない場合の姿勢は、車室内の後方正面を向いている。ロボット1の通常の姿勢におけるロボット1のロボ表示部12の正面の向きを図2では矢印で示している。間接照明31は、前述のとおり、運転席の前方下部、運転席のドア側の側面下部、助手席の前方下部、および助手席のドア側の側面下部に配される。周辺カメラ33は車両5の四隅に配置され、4つの周辺カメラ33により車両5の全周が撮影可能である。 The robot 1 is installed on the dashboard of the vehicle 5 and substantially in the center of the vehicle 5 in the width direction. The normal posture of the robot 1, for example, the posture when the power is turned off or when no special processing is performed, is facing the rear front in the vehicle compartment. The arrow in FIG. 2 indicates the front direction of the robot display unit 12 of the robot 1 in the normal posture of the robot 1 . As described above, the indirect lighting 31 is arranged in the lower front portion of the driver's seat, the lower side portion of the door side of the driver's seat, the lower front portion of the front passenger seat, and the lower side portion of the door side of the passenger seat. The peripheral cameras 33 are arranged at the four corners of the vehicle 5 , and the four peripheral cameras 33 can photograph the entire periphery of the vehicle 5 .

ロボット1のモータ14の回転方向を明確にするために、便宜的にXYZ軸を定義する。X軸は車両5の前後方向に平行、Y軸は車両5の幅方向に平行、Z軸は車両5の天地方向に平行である。ロボット1をZ軸を中心に回転させることで、ロボット1のロボ表示部12を運転席に向かせることができる。以下ではZ軸を中心とする回転をヨー方向の回転とも呼ぶ。ロボット1をY軸を中心に回転させることで、ロボット1のロボ表示部12を天井や床に向けさせることができる。以下ではY軸を中心とする回転をピッチ方向の回転とも呼ぶ。ロボット1をX軸を中心に回転させることで、ロボット1のロボ表示部12が平面内で回転し、いわばロボット1が首をかしげるような動作をさせることができる。以下ではX軸を中心とする回転をロール方向の回転とも呼ぶ。 In order to clarify the rotation direction of the motor 14 of the robot 1, XYZ axes are defined for convenience. The X axis is parallel to the longitudinal direction of the vehicle 5 , the Y axis is parallel to the width direction of the vehicle 5 , and the Z axis is parallel to the vertical direction of the vehicle 5 . By rotating the robot 1 around the Z axis, the robot display unit 12 of the robot 1 can be directed toward the driver's seat. In the following, rotation about the Z axis is also referred to as rotation in the yaw direction. By rotating the robot 1 about the Y axis, the robot display section 12 of the robot 1 can be directed toward the ceiling or the floor. In the following, rotation about the Y-axis is also called rotation in the pitch direction. By rotating the robot 1 about the X-axis, the robot display unit 12 of the robot 1 rotates within a plane, and the robot 1 can be made to tilt its head. In the following, rotation about the X-axis is also called rotation in the roll direction.

(ロボット1の正面図)
図3はロボット1の正面図である。図2に示したロボット1の位置に当てはめると、図3の下部は車両5のダッシュボードであり、図3の左右方向は車両5の幅方向である。ロボット1は円形のロボ表示部12を備え、その周囲を縁取るようにロボライト13が配される。そしてロボカメラ11は、ロボ表示部12やロボライト13と一体に構成されている。なお図3ではロボカメラ11はロボライト13の上部に位置しているが、ロボカメラ11がロボ表示部12の領域に埋め込まれてもよい。
(Front view of robot 1)
FIG. 3 is a front view of the robot 1. FIG. When applied to the position of the robot 1 shown in FIG. 2, the lower part of FIG. 3 is the dashboard of the vehicle 5, and the lateral direction of FIG. The robot 1 has a circular robot display part 12, and a robot light 13 is arranged so as to frame the periphery thereof. The robot camera 11 is integrated with the robot display unit 12 and the robot light 13 . Although the robot camera 11 is positioned above the robot light 13 in FIG. 3, the robot camera 11 may be embedded in the robot display unit 12 area.

(ロボ表示部12の表示例)
図4はロボ表示部12に表示される画像の例を示す図である。ロボ表示部12は液晶ディスプレイなので様々な画像や文字を表示可能である。ロボ表示部12には、たとえば図4(a)に示すように上部に2つの丸を表示して、ロボ表示部12をロボット1の顔に見立てた表示を行うことができる。また図4(b)では、ロボカメラ11による撮影を行っていることを示すためのカメラのアイコンを両目とともに表示している。図4(c)では運転者への挨拶メッセージを表示している。図4(d)では車両5の乗員構成を画像で表示している。図4(e)ではマイクのアイコンを表示し、音声認識を受け付けていることを示している。
(Display example of robot display unit 12)
FIG. 4 is a diagram showing an example of an image displayed on the robot display section 12. As shown in FIG. Since the robot display unit 12 is a liquid crystal display, it can display various images and characters. For example, as shown in FIG. 4A, two circles can be displayed in the upper part of the robot display section 12 so that the robot display section 12 can be displayed as if it were the face of the robot 1 . Also, in FIG. 4B, a camera icon is displayed together with both eyes to indicate that the robot camera 11 is taking pictures. FIG. 4(c) displays a greeting message to the driver. In FIG. 4(d), the occupant composition of the vehicle 5 is displayed as an image. In FIG. 4E, a microphone icon is displayed to indicate that voice recognition is being accepted.

(機能構成)
図5はロボット1およびナビゲーション装置2の機能構成図である。これらは、ロボ演算部15およびナビ演算部25により実現される機能である。また図5ではロボ記憶部16に格納される情報とナビ記憶部26に格納される情報も併せて示している。ロボ記憶部16にはロボ用ユーザDB161が格納される。ロボ用ユーザDB161には、運転者の顔写真とユーザIDとが関連付けられて格納される。
(Functional configuration)
FIG. 5 is a functional configuration diagram of the robot 1 and the navigation device 2. As shown in FIG. These are functions realized by the robot computation unit 15 and the navigation computation unit 25 . 5 also shows information stored in the robot storage unit 16 and information stored in the navigation storage unit 26. As shown in FIG. A robot user DB 161 is stored in the robot storage unit 16 . The robot user DB 161 stores the driver's face photograph and the user ID in association with each other.

ナビ記憶部26には、ナビ用ユーザDB261と、ナビ地図262と、POIDB263と、定型文264とが格納される。ナビ用ユーザDB261には、ユーザIDとユーザの氏名とユーザの予定表を閲覧するための情報が関連付けられて格納される。ただしユーザの氏名はニックネームでもよい。ユーザの予定表を閲覧するための情報とは、たとえばスケジュール管理用のオンラインサービスのURL、そのサービスのID、およびパスワードである。 In the navigation storage unit 26, a navigation user DB 261, a navigation map 262, a POIDB 263, and fixed phrases 264 are stored. The navigation user DB 261 stores the user ID, the user's name, and information for browsing the user's schedule in association with each other. However, the user's name may be a nickname. The information for browsing the user's schedule is, for example, the URL of the online service for schedule management, the ID of the service, and the password.

ナビ地図262は、ナビゲーションに必要な地図情報である。ナビ地図262には道路の道幅や道路区画線の有無などの情報が含まれる。POIDB263は、POI(Point Of Interest)を検索するためのデータベースである。POIには駐車場も含まれる。定型文264は、状況ごとの様々な定型文である。 The navigation map 262 is map information necessary for navigation. The navigation map 262 includes information such as the width of roads and the presence or absence of road division lines. The POIDB 263 is a database for searching POIs (Point Of Interest). POIs also include parking lots. The standardized sentences 264 are various standardized sentences for each situation.

ロボット1はその機能として、ロボ主制御部151と、顔認識部152と、属性推定部153と、感情推定部154と、色算出部155と、視線検知部156と、物体認識部157とを備える。 The robot 1 has, as its functions, a robot main control unit 151, a face recognition unit 152, an attribute estimation unit 153, an emotion estimation unit 154, a color calculation unit 155, a gaze detection unit 156, and an object recognition unit 157. Prepare.

ロボ主制御部151は、ナビゲーション装置2から受ける様々な動作指令に応じてロボット1を制御する。ロボ主制御部151は必要に応じて顔認識部152と、属性推定部153と、感情推定部154と、色算出部155と、視線検知部156とに動作指令を出力する。 The robot main control unit 151 controls the robot 1 according to various motion commands received from the navigation device 2 . The robot main control unit 151 outputs operation commands to the face recognition unit 152, the attribute estimation unit 153, the emotion estimation unit 154, the color calculation unit 155, and the gaze detection unit 156 as necessary.

顔認識部152は、ロボカメラ11が撮影して得られた顔(以下、「撮影された顔」と呼ぶ)と、ロボ用ユーザDB161に含まれる顔の一致を判断する。顔の一致の判断は、たとえば既知のアルゴリズムである特徴量の算出および特徴量の類似度の評価により実現できる。顔認識部152は、撮影された顔がロボ用ユーザDB161に格納されたいずれかの顔と一致すると、その顔に関連付けられたユーザIDを返す。 The face recognition unit 152 determines whether the face captured by the robot camera 11 (hereinafter referred to as “captured face”) matches the face included in the robot user DB 161 . Determination of matching of faces can be realized, for example, by calculating a feature amount and evaluating the similarity of the feature amount, which is a known algorithm. When the photographed face matches one of the faces stored in the robot user DB 161, the face recognition unit 152 returns the user ID associated with that face.

属性推定部153は、撮影された顔の属性を推定する。属性とは、性別およびおおよその年齢である。また犬や猫も属性に含まれる。すなわち属性推定部153による推定結果は、子供の男の子、成人女性、犬などである。属性推定部153はたとえば、撮影された顔のパーツごと、および顔全体の特徴量を算出し、ロボ記憶部16に格納された属性別の特徴量の統計情報を用いて判断を行う。 The attribute estimating unit 153 estimates attributes of the photographed face. Attributes are gender and approximate age. Dogs and cats are also included in the attributes. That is, the estimation result by the attribute estimation unit 153 is child boy, adult female, dog, and the like. For example, the attribute estimating unit 153 calculates the feature amount for each part of the photographed face and for the entire face, and makes determination using the statistical information of the feature amount for each attribute stored in the robot storage unit 16 .

感情推定部154は、撮影された顔の感情を推定する。属性推定部153はたとえば、撮影された顔のパーツごと、および顔全体の特徴量を算出し、ロボ記憶部16に格納された感情別の特徴量の統計情報を用いて、最も特徴量が類似する感情を選択することで感情を推定する。 Emotion estimation unit 154 estimates the emotion of the photographed face. For example, the attribute estimating unit 153 calculates the feature amount for each part of the photographed face and for the entire face, and uses the statistical information of the feature amount for each emotion stored in the robot storage unit 16 to determine which feature amount is the most similar. The emotion is estimated by selecting the emotion to be performed.

色算出部155は、感情推定部154が推定した感情が入力され、感情色と誘導色を算出する。感情色とは、感情推定部154が推定した感情に対応する色であり、誘導色とは車両の運転の観点から誘導することが好ましい感情に対応する色である。感情色はたとえばシャイエの色彩心理学など色彩心理の研究に基づいて決定することができる。たとえば「喜」の感情には「黄」、「怒」の感情には「赤」、「哀」の感情には「青」が対応する。感情と感情色の関係は、あらかじめ関連付けられてロボ記憶部16に格納される。誘導色はたとえば感情色の補色を用いることができる。 The color calculation unit 155 receives the emotion estimated by the emotion estimation unit 154 and calculates the emotion color and the induced color. The emotion color is a color corresponding to an emotion estimated by the emotion estimation unit 154, and the induced color is a color corresponding to an emotion that is preferably induced from the viewpoint of driving the vehicle. Emotional colors can be determined based on studies of color psychology, such as Shaie's color psychology. For example, "yellow" corresponds to the emotion of "happiness", "red" corresponds to the emotion of "anger", and "blue" corresponds to the emotion of "sorrow". The relationship between emotion and emotion color is associated in advance and stored in the robot storage unit 16 . The induced color can be, for example, the complementary color of the emotion color.

視線検知部156は、運転者がロボット1を注視しているか否かを判断する。視線検知部156は、ロボカメラ11が撮影して得られた画像から運転者の目の領域を抽出し、目の領域における黒目の位置を特定する。そして前述の黒目の位置から運転者が注視している方向を算出し、ロボット1と運転者の位置・姿勢関係と合致すると判断すると、運転者がロボット1を注視していると判断する。 The line-of-sight detection unit 156 determines whether or not the driver is gazing at the robot 1 . The line-of-sight detection unit 156 extracts the driver's eye region from the image captured by the robot camera 11 and specifies the position of the iris in the eye region. Then, the direction in which the driver is gazing is calculated from the position of the iris described above, and if it is determined that it matches the position/posture relationship between the robot 1 and the driver, it is determined that the driver is gazing at the robot 1 .

上記手法はあくまで一例である。たとえば顔の向きを検知する処理をさらに加えてもよい。運転者の顔がロボット1の方向を向いているか否かを検知したうえで、上述した目の領域を特定する処理に進むようにしてもよい。このようにすることで、運転者がロボット1を注視しているか否かを判断しやすくなる。 The above method is just an example. For example, a process of detecting the orientation of the face may be added. After detecting whether or not the driver's face is facing the direction of the robot 1, the process of specifying the eye area may be performed. By doing so, it becomes easier to determine whether the driver is gazing at the robot 1 or not.

物体認識部157は、ロボカメラ11で撮影して得られた映像に含まれる、車両5の進行の妨げとなる物体を認識する。認識すべき物体とは、車両、人間、自転車、およびバイクなどである。物体認識部157は既知の手法により物体を認識し、たとえばパターンマッチングにより物体を識別する。 The object recognition unit 157 recognizes an object that is included in the image captured by the robot camera 11 and that hinders the vehicle 5 from advancing. Objects to be recognized include vehicles, people, bicycles, and motorcycles. The object recognition unit 157 recognizes the object by a known technique, and identifies the object by pattern matching, for example.

ナビ主制御部251は、車両5から収集する様々な情報に基づきロボット1に動作指令を出力する。たとえばナビ主制御部251は、車両5から収集する情報に基づき後述するいずれのシーンに該当するかを判断し、該当するシーンごとにあらかじめ定められた処理を行う。ナビ主制御部251は必要に応じて読み上げ部252、および音声認識部253に動作指令を出力する。またナビ主制御部251は、設定された目的地までの走行ルートをナビ地図262を参照して検索する機能、および入力された条件に合致するPOIをPOIDB263を用いて検索する機能を有する。 The navigation main control unit 251 outputs motion commands to the robot 1 based on various information collected from the vehicle 5 . For example, the navigation main control unit 251 determines which scene (to be described later) corresponds to the information collected from the vehicle 5, and performs predetermined processing for each corresponding scene. The navigation main control unit 251 outputs operation commands to the reading unit 252 and the voice recognition unit 253 as necessary. The navigation main control unit 251 also has a function of searching for a travel route to a set destination by referring to the navigation map 262 and a function of searching POIs that match the input conditions using the POIDB 263 .

読み上げ部252は、ナビ主制御部251から入力されたテキスト文章をスピーカー32から出力可能な音声信号に変換する。読み上げ部252は、既知の技術を用いた音声合成機能を有し、男女いずれの声も出力可能である。音声認識部253は、マイク35に入力されたユーザの発話を認識して文字列としてナビ主制御部251に出力する。音声認識部253は既知の技術を用いており、たとえば周波数解析や隠れマルコフモデルにより実現される。 The reading unit 252 converts the text sentence input from the navigation main control unit 251 into an audio signal that can be output from the speaker 32 . The reading unit 252 has a speech synthesis function using known technology, and can output both male and female voices. The speech recognition unit 253 recognizes the user's speech input to the microphone 35 and outputs it to the navigation main control unit 251 as a character string. The speech recognition unit 253 uses a known technology, and is realized by, for example, frequency analysis or hidden Markov model.

(動作例)
以下、図6~図13を参照してシーンごとのロボットシステムSの動作例を説明する。以下で特に説明しない場合は、ロボット1を動作させるのはロボ主制御部151であり、ナビゲーション装置2を動作させるのはナビ主制御部251である。なお以下に説明する動作例では、ナビゲーション装置2にはあらかじめユーザにより目的地が設定されていることとする。
(Operation example)
Hereinafter, operation examples of the robot system S for each scene will be described with reference to FIGS. 6 to 13. FIG. Unless otherwise described below, it is the robot main control section 151 that operates the robot 1 and the navigation main control section 251 that operates the navigation device 2 . In the operation example described below, it is assumed that the user has previously set a destination in the navigation device 2 .

(始動時)
図6は車両5の始動時におけるロボットシステムSの動作を示すシーケンス図である。
(at startup)
FIG. 6 is a sequence diagram showing the operation of the robot system S when the vehicle 5 is started.

ユーザが車両5のイグニッションスイッチをオンにすると(S301)、ロボット1およびナビゲーション装置2が起動する。ナビゲーション装置2のナビ主制御部251は、起動するとロボット1に起動時処理指令を出力する(S302)。ロボット1のロボ主制御部151は、起動時処理指令を受信すると、ロボ表示部12を運転席に向かせ、さらに挨拶の一種であるお辞儀をさせる(S303)。すなわちS303ではロボット1は、まずロボ表示部12をヨー方向に回転させて運転席を向かせ、次にロボ表示部12をピッチ方向下方向に回転させる。 When the user turns on the ignition switch of the vehicle 5 (S301), the robot 1 and the navigation device 2 are activated. When activated, the navigation main control unit 251 of the navigation device 2 outputs a activation processing command to the robot 1 (S302). When the robot main control unit 151 of the robot 1 receives the activation processing command, it directs the robot display unit 12 to the driver's seat and bows as a greeting (S303). That is, in S303, the robot 1 first rotates the robot display unit 12 in the yaw direction to face the driver's seat, and then rotates the robot display unit 12 downward in the pitch direction.

このS303は、ユーザにロボット1の存在を知らせるだけでなく、次のステップの撮影において運転者の顔を撮影しやすくする利点がある。一般に、ロボット1が動作するとユーザはロボット1に注目し、ロボット1に顔を向けるためである。なおナビゲーション装置2は、ロボット1がお辞儀する前後において、「こんにちは」などの挨拶の音声を出力してもよい。 This S303 not only informs the user of the presence of the robot 1, but also has the advantage of facilitating the photographing of the driver's face in the photographing of the next step. This is because, in general, when the robot 1 moves, the user pays attention to the robot 1 and faces the robot 1 . The navigation device 2 may output a greeting voice such as "Hello" before and after the robot 1 bows.

そしてロボット1は、運転者をロボカメラ11で撮影して顔認識部152により認識する(S304)。ロボット1は、運転者を撮影する際にロボ表示部12にカメラのマークを表示して撮影を行うことをユーザに通知する。ロボ表示部12にカメラのマークを表示する例は、たとえば図4(b)に示すものである。次にロボット1は、運転者が登録済みであるか否か、換言すると運転者の写真がロボ用ユーザDB161に含まれており、過去にこの車両5を運転したか否かを判断する。ロボット1は登録済であったと判断すると、ナビゲーション装置2に運転者のユーザIDを通知する(S306)。なおS304を否定判断する場合の動作は後に説明する。 Then, the robot 1 photographs the driver with the robot camera 11 and recognizes it with the face recognition unit 152 (S304). When photographing the driver, the robot 1 displays a camera mark on the robot display unit 12 to notify the user that the photograph will be taken. An example of displaying a camera mark on the robot display section 12 is shown in FIG. 4B, for example. Next, the robot 1 determines whether the driver has been registered, in other words, whether the driver's photo is included in the robot user DB 161 and whether the vehicle 5 has been driven in the past. When it is determined that the robot 1 has already been registered, it notifies the user ID of the driver to the navigation device 2 (S306). The operation when a negative determination is made in S304 will be described later.

ロボット1からユーザIDを受信したナビゲーション装置2は、ナビ用ユーザDB261を検索してそのユーザIDが示すユーザ名を取得し(S310)、そのユーザ名をロボット1に通知する(S311)。ユーザ名の通知を受けたロボット1は、ユーザ名をロボ表示部12に表示する(S312)。ロボ表示部12にユーザ名を表示する例は、たとえば図4(c)に示すものである。表示部にユーザ名を表示することで、運転者に認識が行われたことを明示できる。 Upon receiving the user ID from the robot 1, the navigation device 2 searches the navigation user DB 261 to obtain the user name indicated by the user ID (S310), and notifies the robot 1 of the user name (S311). The robot 1 that has received the notification of the user name displays the user name on the robot display section 12 (S312). An example of displaying the user name on the robot display section 12 is shown in FIG. 4(c), for example. By displaying the user name on the display unit, it is possible to clearly indicate to the driver that recognition has been performed.

上述したS311の次にナビゲーション装置2は、ロボット1から受信したユーザIDが示すユーザの予定を検索し(S313)、検索された予定を読み上げる(S314)。予定の読み上げには、読み上げ部252が利用される。なお以下では特に説明しないが、全ての音声出力には読み上げ部252が利用される。ナビゲーション装置2による予定の検索は、ナビ用ユーザDB261を参照してURL、ID、およびパスワードを特定し、ナビ通信部27を利用してアクセスすることで得られる。ナビゲーション装置2はたとえば、S313においてユーザがこれから「XX展示会」に行くことが分かった場合に「今日のXX展示会は楽しみですね」という音声を出力する。 After S311 described above, the navigation device 2 retrieves the schedule of the user indicated by the user ID received from the robot 1 (S313), and reads out the retrieved schedule (S314). The read-aloud unit 252 is used for reading out the schedule. Although not specifically described below, the read-aloud unit 252 is used for all voice output. A search for a schedule by the navigation device 2 is obtained by referring to the navigation user DB 261 to specify the URL, ID, and password, and accessing using the navigation communication unit 27 . For example, when the navigation device 2 finds in S313 that the user is going to the "XX exhibition", it outputs a voice saying "I'm looking forward to today's XX exhibition".

ロボット1はS305において否定判断をすると、S320に進んで属性推定部153を用いて撮影した運転者の性別判定を行う。そしてロボット1は判定した性別の情報をナビゲーション装置2に伝達する(S321)。ナビゲーション装置2はロボット1から性別の情報を受信すると、運転者が初回の乗車であると判断して初回乗車用の音声を出力する(S322)。この音声は、挨拶、ロボット1の自己紹介、および運転者の名前を尋ねるものである。またこの時の音声は、運転者の性別に応じたものとする。たとえば運転者を男性と推定した場合には男性の声で合成した音声を出力し、運転者を女性と推定した場合には女性の声で合成した音声を出力する。S322において出力される音声はたとえば、「はじめまして、私はミロです。あなたのお名前を教えてください。」である。 When the robot 1 makes a negative determination in S305, the robot 1 proceeds to S320 and uses the attribute estimation unit 153 to determine the gender of the photographed driver. Then, the robot 1 transmits the determined gender information to the navigation device 2 (S321). When the navigation device 2 receives the sex information from the robot 1, it judges that the driver is riding for the first time and outputs the voice for the first time riding (S322). This voice is a greeting, a self-introduction of the robot 1, and a request for the driver's name. Also, the voice at this time shall correspond to the sex of the driver. For example, if the driver is presumed to be male, a synthesized male voice is output, and if the driver is presumed to be female, a synthesized female voice is output. The speech output in S322 is, for example, "Nice to meet you, I'm Milo. Please tell me your name."

運転者が自身の名前を発話すると、ナビゲーション装置2は音声認識部253を用いてユーザの発話を音声認識して文字に変換し、ユーザ名としてナビ用ユーザDB261に登録する(S324)。このときナビ用ユーザDB261には、新たに発行するユーザIDとともにこのユーザ名が登録される。そしてナビゲーション装置2は、ロボット1にユーザIDを通知する。ロボット1は、通知されたユーザIDとS304において撮影した画像とを関連付けてロボ用ユーザDB161に登録する。なおロボット1は、S305を肯定判断する場合はS312の実行後に、またはS305において否定判断をする場合は任意のタイミングで、顔の向きを正面、すなわち図2に示す方向に向きなおす。 When the driver speaks his/her own name, the navigation device 2 uses the speech recognition unit 253 to recognize the speech of the user, converts it into characters, and registers it as the user name in the navigation user DB 261 (S324). At this time, this user name is registered in the navigation user DB 261 together with the newly issued user ID. The navigation device 2 then notifies the robot 1 of the user ID. The robot 1 associates the notified user ID with the image taken in S304 and registers them in the robot user DB 161 . If the determination in S305 is affirmative, the robot 1 turns its face to the front, that is, the direction shown in FIG.

(始動後)
図7は車両5の始動後におけるロボットシステムSの動作を示すシーケンス図である。図7に示すシーケンス図は、始動時の動作を示す図6の直後に開始されてもよいし、図6に示す処理からしばらく、たとえば1分間の時間をあけて実行されてもよい。
(after starting)
FIG. 7 is a sequence diagram showing the operation of the robot system S after the vehicle 5 is started. The sequence diagram shown in FIG. 7 may be started immediately after FIG. 6 showing the operation at startup, or may be executed after a while, for example, one minute, from the process shown in FIG.

まずナビゲーション装置2は、ロボット1に起動後処理指令を出力する(S329)。ロボット1はこの起動後処理指令を受信すると、車室内の正面、すなわち図2の矢印の方向を向いて撮影を行う(S330)。ただしS330は車両5の乗員全員を撮影することが目的なので、ロボカメラ11の視野角が狭い場合には、ヨー方向に首を振りながら複数枚の画像を撮影してもよい。次にロボット1は属性推定部153を用いて、S330において撮影した画像から車両5の乗員構成、すなわち車両5に乗車している人数およびその属性を認識する。なお人間以外の生き物、たとえば犬や猫も併せて認識し、乗員構成に含めてもよい。そしてロボット1は、S331における認識の結果をナビゲーション装置2に通知する(S332)。 First, the navigation device 2 outputs a post-activation processing command to the robot 1 (S329). When the robot 1 receives this post-activation processing command, it faces the front of the vehicle interior, that is, in the direction of the arrow in FIG. 2 and takes an image (S330). However, since the purpose of S330 is to photograph all the occupants of the vehicle 5, when the viewing angle of the robot camera 11 is narrow, a plurality of images may be photographed while shaking the head in the yaw direction. Next, the robot 1 uses the attribute estimation unit 153 to recognize the occupant composition of the vehicle 5, that is, the number of people on board the vehicle 5 and their attributes from the image captured in S330. Creatures other than humans, such as dogs and cats, may also be recognized and included in the occupant composition. The robot 1 then notifies the navigation device 2 of the result of recognition in S331 (S332).

ナビゲーション装置2は、ロボット1から通知された乗員構成に対応する音声を出力する(S333)。なおここで受信した乗員構成は後の処理でも利用するので、目的地に到着するまでは一時的に保存する。乗員構成に対応する音声とはたとえば、人数が多い場合に「大勢でのお出かけいいですね」であり、子供が含まれる場合に「お子さんと一緒でいいですね」である。ロボット1は、S331における認識結果に基づき、人数や属性をロボ表示部12に表示する(S334)。ロボ表示部12に人数や属性を表示する例は、たとえば図4(d)に示すものである。図4(d)では、運転席と助手席に大人が座っており、後部座席に子供が座っていることを示している。 The navigation device 2 outputs a sound corresponding to the passenger configuration notified from the robot 1 (S333). Since the crew configuration received here is also used in later processing, it is temporarily stored until the destination is reached. For example, the voice corresponding to the passenger composition is "It's nice to go out with a lot of people" when there are many people, and "It's nice to go out with your children" when there are children. The robot 1 displays the number of people and attributes on the robot display section 12 based on the recognition result in S331 (S334). An example of displaying the number of people and attributes on the robot display section 12 is shown in FIG. 4(d), for example. FIG. 4(d) shows that adults are sitting in the driver's seat and passenger's seat, and a child is sitting in the rear seat.

(呼びかけ)
図8は車両5の始動後におけるロボットシステムSの動作を示すシーケンス図である。図7に示すシーケンス図は、始動後の動作を示す図7の直後に開始されてもよいし、図6および図7に示す処理の最中に実行されてもよい。
(Call)
FIG. 8 is a sequence diagram showing the operation of the robot system S after the vehicle 5 is started. The sequence diagram shown in FIG. 7 may be started immediately after FIG. 7 showing the operation after startup, or may be executed during the processes shown in FIGS.

まずナビゲーション装置2は、ロボット1に眼鏡処理指令を出力する(S339)。ロボット1はこの眼鏡処理指令を受信すると、図6のS304において撮影した画像をロボ主制御部151が認識し(S340)、眼鏡をかけているか否かを判断する(S341)。ロボ主制御部151はたとえば、均一な色が広がっている領域の形状が眼鏡の形状に類似する度合いを評価することで、眼鏡をかけているか否かを判断する。 First, the navigation device 2 outputs a glasses processing command to the robot 1 (S339). When the robot 1 receives this spectacles processing command, the robot main control unit 151 recognizes the image captured in S304 of FIG. 6 (S340), and determines whether or not the robot is wearing spectacles (S341). For example, the robot main control unit 151 determines whether or not the user is wearing eyeglasses by evaluating the degree to which the shape of the region in which the uniform color spreads resembles the shape of the eyeglasses.

ロボット1は、運転者が眼鏡をかけていないと判断する場合はそのまま処理を終了し、眼鏡をかけていると判断する場合はその旨をナビゲーション装置2に通知する(S342)。ナビゲーション装置2は、運転者が眼鏡をかけている旨の通知を受信すると、あらかじめ定められた、眼鏡に関する音声を出力する(S343)。眼鏡に関する音声とはたとえば、「メガネがとってもにあっているね。ミロも真似してみたよ」、である。 If the robot 1 determines that the driver is not wearing glasses, the process is terminated, and if it is determined that the driver is wearing glasses, the robot 1 notifies the navigation device 2 to that effect (S342). When the navigation device 2 receives the notification that the driver is wearing the glasses, the navigation device 2 outputs a predetermined voice regarding the glasses (S343). An example of a speech related to glasses is, "Your glasses really suit you. I tried to imitate Milo."

ロボット1は、ロボ表示部12に眼鏡の画像を表示する(S344)。ロボ表示部12に眼鏡を表示する例はたとえば次のものである。すなわちロボ表示部12の上部に眼鏡を表示し、ロボ表示部12の全体をロボット1の顔に見立てると、ロボット1が眼鏡をかけているように表示される。 The robot 1 displays the image of the glasses on the robot display unit 12 (S344). An example of displaying glasses on the robot display unit 12 is as follows. That is, if glasses are displayed above the robot display section 12 and the entire robot display section 12 is likened to the face of the robot 1, the robot 1 is displayed as if it were wearing glasses.

(走行時)
図9は車両5の走行時におけるロボットシステムSの動作を示すシーケンス図である。図9に示すシーケンス図は、走行時に常時実行されてもよいし、所定の時間間隔、たとえば30分ごとに実行されてもよいし、走行開始後に1回のみ実行されてもよい。
(during running)
FIG. 9 is a sequence diagram showing the operation of the robot system S when the vehicle 5 is running. The sequence diagram shown in FIG. 9 may be executed all the time during running, may be executed at predetermined time intervals, for example, every 30 minutes, or may be executed only once after the start of running.

ナビゲーション装置2は、車両5が走行したことを検出すると、ロボット1に走行時処理指令を出力する(S350)。走行時処理指令を受信したロボット1は、運転者を撮影し(S351)、撮影して得られた画像を処理対象とし、感情推定部154を用いて運転者の感情を推定する(S352)。次にロボット1は、推定した感情に対応する色である感情色を色算出部155を用いて算出し、間接照明31を感情色に点灯させる(S353)。 When the navigation device 2 detects that the vehicle 5 has traveled, it outputs a travel processing command to the robot 1 (S350). The robot 1, which has received the processing command for running, takes a picture of the driver (S351), uses the captured image as a processing object, and uses the emotion estimation unit 154 to estimate the emotion of the driver (S352). Next, the robot 1 uses the color calculation unit 155 to calculate the emotion color corresponding to the estimated emotion, and lights the indirect lighting 31 in the emotion color (S353).

次にロボット1は、誘導することが好ましい感情の色である誘導色を色算出部155を用いて算出し、間接照明31を誘導色に点灯させる(S354)。ただしS353からS354への遷移には所定の時間間隔をあけて、瞬時に間接照明31の色が変化することがないようにする。そしてロボット1は、ナビゲーション装置2に間接照明31の点灯が完了した旨の完了通知を出力する(S355)。 Next, the robot 1 uses the color calculation unit 155 to calculate an induced color, which is the color of emotion that is preferable to induce, and lights the indirect lighting 31 in the induced color (S354). However, the transition from S353 to S354 is performed at predetermined time intervals so that the color of the indirect illumination 31 does not change instantaneously. Then, the robot 1 outputs a completion notification to the effect that lighting of the indirect lighting 31 is completed to the navigation device 2 (S355).

ロボット1から完了通知を受信したナビゲーション装置2は、ナビ通信部27を用いて車両5がこれから走行する道路の道路状況を検索する。道路状況とは、混雑の程度や通行の可否などである。ナビゲーション装置2は、道路状況を音声出力してユーザに伝達する(S357)。この音声出力はたとえば、「これから向かう道路は空いています」である。次にナビゲーション装置2は、ロボット1にも道路状況を伝達する(S358)。ただしロボット1への道路状況の伝達は、たとえば0~10の数字で行い、混雑の程度が軽いほど小さい数字とし、混雑の程度が重いほど大きな数字とする。また通行が不可の場合には最も大きい10とする。 The navigation device 2 that has received the completion notification from the robot 1 uses the navigation communication unit 27 to search the road conditions of the road on which the vehicle 5 will travel. The road conditions include the degree of congestion and whether or not the road is passable. The navigation device 2 outputs the road conditions by voice and conveys them to the user (S357). This speech output is, for example, "the road to which we are headed is clear". Next, the navigation device 2 also transmits the road conditions to the robot 1 (S358). However, the road conditions are communicated to the robot 1 using, for example, a number from 0 to 10. The less crowded the number, the smaller the number, and the heavier the congestion, the larger the number. In addition, when passage is impossible, the largest 10 is used.

ロボット1は、ナビゲーション装置2から道路状況が伝達されると伝達された道路状況に応じた表情をロボ表示部12に表示する(S359)。道路状況に応じた表情とは、混雑の程度が軽いほど喜んだ顔であり、混雑の程度が重くなるにつれて悲しげな表情となり、通行不可の場合には怒りの表情となる。次にロボット1は、ロボ表示部12に時刻を表示して(S360)走行時処理を終了する。ただしS359からS360への遷移には所定の時間間隔をあける。 When the road conditions are transmitted from the navigation device 2, the robot 1 displays an expression corresponding to the transmitted road conditions on the robot display unit 12 (S359). The facial expression according to the road conditions is a happy face when the degree of congestion is light, a sad expression as the degree of congestion is heavy, and an angry expression when the road is impassable. Next, the robot 1 displays the time on the robot display section 12 (S360) and ends the running process. However, a predetermined time interval is provided between the transition from S359 to S360.

(一時停止時)
図10は信号待ちなどの車両5の一時停止時におけるロボットシステムSの動作を示すシーケンス図である。図10に示すシーケンス図は、車両5が一時停止するたびに実行されてもよいし、前回の実行から所定の時間間隔以上が経過していることを条件として実行してもよいし、走行開始後に1回のみ実行されてもよい。
(when paused)
FIG. 10 is a sequence diagram showing the operation of the robot system S when the vehicle 5 is temporarily stopped such as waiting for a signal. The sequence diagram shown in FIG. 10 may be executed each time the vehicle 5 is paused, may be executed on the condition that a predetermined time interval or more has elapsed since the previous execution, or may be executed on the condition that a predetermined time interval or more has elapsed since the previous execution. It may be executed only once later.

ナビゲーション装置2は、GPS受信機34から位置情報を取得し、車両5が目的地以外で停止したことを検出すると、ロボット1に停止時処理指令を出力する(S370)。ロボット1は、ナビゲーション装置2から停止時処理指令を受信すると視線検知部156による運転者の視線検知を開始する(S371)。ロボット1は、運転者の視線を検知したか否かを判断し(S372)、視線を検知するまでS372に留まる。ロボット1は、運転者の視線を検知したと判断すると、ナビゲーション装置2に視線を検知した旨を通知し(S374)、ロボ表示部12を運転者の方に向ける(S375)。そしてロボット1は、ロボ表示部12に音声認識を開始した旨の表示を行うとともに音声認識を開始する。音声認識を開始した旨の表示とは、たとえば図4(e)に示すようにマイクのアイコンの表示である。 When the navigation device 2 acquires position information from the GPS receiver 34 and detects that the vehicle 5 has stopped at a place other than the destination, it outputs a stop processing command to the robot 1 (S370). When the robot 1 receives the stop processing command from the navigation device 2, the line-of-sight detection unit 156 starts detecting the driver's line of sight (S371). The robot 1 determines whether or not the line of sight of the driver is detected (S372), and stays in S372 until the line of sight is detected. When the robot 1 determines that the line of sight of the driver has been detected, the robot 1 notifies the navigation device 2 that the line of sight has been detected (S374), and turns the robot display unit 12 toward the driver (S375). Then, the robot 1 displays on the robot display unit 12 that voice recognition has started, and starts voice recognition. The indication that speech recognition has started is, for example, the indication of a microphone icon as shown in FIG. 4(e).

ロボット1から視線を検知した旨の通知を受けたナビゲーション装置2は、運転者に音声認識を開始する旨の音声出力を行う。音声認識を開始する旨の音声出力とはたとえば、「見つめられてドキッとしました。どうしたの?」である。その後、運転者が指示や質問を発話すると、音声認識部253がその発話を認識してナビ主制御部251に出力し、ナビ主制御部251が発話内容に対応する処理を行う。たとえば発話内容が「音楽が聴きたい」の場合には音楽の再生を開始し、発話内容が「目的地をYYYに変更」であればナビゲーションの目的地をYYYに変更して走行経路を再計算する。 The navigation device 2, which has received the notification from the robot 1 that the line of sight has been detected, outputs voice to the driver indicating that voice recognition is to be started. The speech output indicating the start of speech recognition is, for example, "I was shocked when you stared at me. What happened?". After that, when the driver utters an instruction or question, the speech recognition unit 253 recognizes the utterance and outputs it to the navigation main control unit 251, and the navigation main control unit 251 performs processing corresponding to the content of the utterance. For example, if the utterance content is "I want to listen to music," music playback is started, and if the utterance content is "Change the destination to YYY," the navigation destination is changed to YYY and the travel route is recalculated. do.

なお、ここではロボット1からの音声出力に応じた運転者の応答があった際に、その応答内容に応じた処理をナビゲーション装置2が実行する例を説明したが、ロボット1の処理はこれに限られない。たとえば車両5が一時停止をしたタイミングで、その都度ロボット1はロボカメラ11を用いて運転者の顔を撮影し、既知のパターンマッチングなどの技術を用いて運転者の疲れを推定してもよい。そしてロボット1は運転者が疲れていると判断すると休憩の提案を行う。この場合にロボット1は、現在の時間帯やナビ通信部27などで受信した天気の情報を加味して、時間帯や天気に適した休憩施設を検索してもよい。 In this example, when the driver responds to the voice output from the robot 1, the navigation device 2 executes processing according to the content of the response. Not limited. For example, each time the vehicle 5 stops, the robot 1 may use the robot camera 11 to photograph the driver's face and estimate the driver's fatigue using a known pattern matching technique. . Then, when the robot 1 judges that the driver is tired, it proposes a break. In this case, the robot 1 may search for a rest facility suitable for the time period and weather, taking into consideration the current time period and weather information received by the navigation communication unit 27 or the like.

(狭隘路への接近)
図11は、車両5が狭隘路を通行する際のロボットシステムSの動作を示すシーケンス図である。図11に示すシーケンス図は、車両5が狭隘路を通行するたびに実行される。
(Approaching a narrow road)
FIG. 11 is a sequence diagram showing the operation of the robot system S when the vehicle 5 travels through a narrow road. The sequence diagram shown in FIG. 11 is executed each time the vehicle 5 passes through a narrow road.

ナビゲーション装置2は、地図情報および車両5の進行方向から車両5が狭隘路に接近していると判断すると、ロボット1に狭隘路接近時処理指令を出力する(S380)。本実施の形態における狭隘路とは、道路区画線がない道路、または1車線分しか道路区画線がなく、車両同士のすれ違いが容易ではない道路である。ナビゲーション装置2から狭隘路接近時処理指令を受信したロボット1は、複数回の首振りおよびロボライト13の発光を行う(S381)。S381における首振りとは、1軸または複数の軸を回転軸とする所定角度の往復運動である。この首振り動作により、ロボット1がこれから動き始めることをユーザに知らせることができる。 When the navigation device 2 determines that the vehicle 5 is approaching a narrow road from the map information and the traveling direction of the vehicle 5, it outputs a narrow road approach processing command to the robot 1 (S380). A narrow road in the present embodiment is a road with no road markings, or a road with only one lane of road markings, which makes it difficult for vehicles to pass each other. The robot 1, which has received the narrow road approach processing command from the navigation device 2, swings its head a plurality of times and emits light from the robot light 13 (S381). Swinging in S381 is a reciprocating motion of a predetermined angle with one or more axes as the rotation axis. This swinging motion informs the user that the robot 1 is about to start moving.

ナビゲーション装置2は、狭隘路接近時処理指令を出力すると、ユーザに対して注意喚起の音声出力を行う(S382)。注意喚起の音声出力とはたとえば、「狭い道に入りますね。気を付けて運転してね。僕も気を付けて周辺をチェックするよ」である。次にナビゲーション装置2は、車両5が狭隘路に進入したか否かを判断し(S383)、狭隘路へ進入したと判断するまでS383に留まる。ナビゲーション装置2は車両5が狭隘路に進入したと判断すると、ロボット1に狭隘路進入時処理指令を出力する(S384)。 When the navigation device 2 outputs the narrow road approach processing command, the navigation device 2 outputs a voice to alert the user (S382). For example, the warning voice output is "You are about to enter a narrow road. Please drive carefully. I will also be careful and check the surroundings." Next, the navigation device 2 determines whether or not the vehicle 5 has entered the narrow road (S383), and stays in S383 until it determines that the vehicle has entered the narrow road. When the navigation device 2 determines that the vehicle 5 has entered a narrow road, it outputs a narrow road entry process command to the robot 1 (S384).

ナビゲーション装置2から狭隘路進入時処理指令を受信したロボット1は、ロボ表示部12をヨー方向に180度回転させて車両5の進行方向を向く。そしてロボット1は、ロボカメラ11による撮影と、物体認識部157による障害物の認識とを開始する(S385)。前述のとおりロボット1のロボ表示部12にはロボカメラ11が搭載されているので、S385の処理によりロボカメラ11は車両5の前方の様子を撮影可能となる。次にロボット1は、物体認識部157が障害物を検出したか否かを判断し(S386)、障害物を検出するまでS386に留まる。ロボット1は障害物を検出したと判断すると、ナビゲーション装置2に検知した旨を通知する(S387)。 When the robot 1 receives a narrow road entry processing command from the navigation device 2 , the robot display unit 12 rotates 180 degrees in the yaw direction to face the traveling direction of the vehicle 5 . Then, the robot 1 starts photographing with the robot camera 11 and obstacle recognition with the object recognition unit 157 (S385). Since the robot display unit 12 of the robot 1 is equipped with the robot camera 11 as described above, the robot camera 11 can photograph the front of the vehicle 5 by the processing of S385. Next, the robot 1 determines whether or not the object recognition unit 157 has detected an obstacle (S386), and stays in S386 until the obstacle is detected. When the robot 1 determines that it has detected an obstacle, it notifies the navigation device 2 of the detection (S387).

ロボット1から検知の通知を受信したナビゲーション装置2は、周辺カメラ33を起動し(S388)、ユーザに検出とカメラ起動を知らせる音声出力を行う(S389)。検出とカメラ起動を知らせる音声出力とはたとえば、「狭い道で対向車が近づいています。カメラを起動します」である。そしてナビゲーション装置2は、周辺カメラ33が撮影して得られた映像をナビ表示部22に表示する(S390)。ユーザはナビ表示部22に映し出される周辺カメラ33の映像も参照して、狭隘路を安全に走行できる。また狭隘路に進入しても、車両や人間が検出されない場合には車載カメラは起動されないため、不必要にナビ表示部22に注視することを避けられる。 The navigation device 2 that has received the notification of detection from the robot 1 activates the peripheral camera 33 (S388), and performs audio output to inform the user of the detection and activation of the camera (S389). An audio output informing detection and camera activation is, for example, "an oncoming vehicle is approaching on a narrow road. Camera is activated." Then, the navigation device 2 displays the image obtained by the peripheral camera 33 on the navigation display section 22 (S390). The user can also refer to the image of the peripheral camera 33 displayed on the navigation display unit 22 to drive safely on the narrow road. Even if the vehicle enters a narrow road, the in-vehicle camera is not activated unless a vehicle or a person is detected.

ナビゲーション装置2は、周辺カメラ33の映像を表示しているか否かにかかわらず、狭隘路に進入した後は車両5が狭隘路を出たか否かを判断する(S391)。車両5が狭隘路を出たか否かは、地図情報と車両5の現在位置により判断可能である。ナビゲーション装置2は車両5が狭隘路を出ていないと判断する場合はS391に留まり、車両5が狭隘路を出たと判断するとロボット1に狭隘路退出時処理指令を出力する(S392)。ナビゲーション装置2から狭隘路退出時処理指令を受信したロボット1は、S385とは逆にロボ表示部12を回転させて車室内を向かせてロボカメラ11による撮影を停止する(S393)。またナビゲーション装置2は、S388を実行していた場合には周辺カメラ33を停止させる。なおナビ表示部22の表示は、周辺カメラ33の映像からたとえばもともと表示していた地図画面に遷移させるようにしてもよい。 After entering the narrow road, the navigation device 2 determines whether the vehicle 5 has exited the narrow road regardless of whether or not the image of the surrounding camera 33 is displayed (S391). Whether or not the vehicle 5 has left the narrow road can be determined from the map information and the current position of the vehicle 5 . If the navigation device 2 determines that the vehicle 5 has not exited the narrow road, it remains at S391, and if it determines that the vehicle 5 has exited the narrow road, it outputs a narrow road exit processing command to the robot 1 (S392). Contrary to S385, the robot 1, having received the narrow road exit processing command from the navigation device 2, rotates the robot display unit 12 to face the interior of the vehicle and stops photographing by the robot camera 11 (S393). Also, the navigation device 2 stops the peripheral camera 33 when S388 is executed. The display on the navigation display unit 22 may be changed from the image of the peripheral camera 33 to, for example, the originally displayed map screen.

ナビゲーション装置2は、ロボカメラ11による撮影を終了する旨の音声出力を行う(S394)。ロボカメラ11による撮影を終了する旨の音声出力とはたとえば、「広い道に出たのでカメラを終了します」である。なおS387の後に、ロボット1はS393を実行してもよい。 The navigation device 2 outputs a voice indicating that the photographing by the robot camera 11 is finished (S394). For example, the voice output indicating that the photographing by the robot camera 11 is to be finished is "Since you are on the wide road, the camera is to be finished". After S387, the robot 1 may execute S393.

(長時間運転時)
図12は、車両5が長時間走行している場合のロボットシステムSの動作を示すシーケンス図である。ここでいう長時間の走行とは、たとえば2時間以上走行していることである。
(when driving for a long time)
FIG. 12 is a sequence diagram showing the operation of the robot system S when the vehicle 5 is running for a long time. Long-time running here means, for example, running for two hours or longer.

ナビゲーション装置2は、車両5が長時間走行していると判断すると、ロボット1に休憩誘導指令を出力する(S401)。休憩誘導指令を受信したロボット1は、ロボ表示部12を運転者に向けてロボライト13を発光させる。次にナビゲーション装置2は、従前に受信した(図7のS332)車両5の乗員構成の情報を参照する(S403)。そしてナビゲーション装置2は、乗員構成に応じた呼びかけ文を生成し(S404)、出力する(S405)。呼びかけ文は、乗員構成のパターンごとにあらかじめ作成されている。ナビゲーション装置2は、現在の乗員構成があらかじめ定めたいずれのパターンに該当するかを判断することで、呼びかけ文を生成する。ここでいう呼びかけ文とは、たとえばユーザに対する立ち寄り施設の提案などである。 When the navigation device 2 determines that the vehicle 5 has been running for a long time, it outputs a rest guidance command to the robot 1 (S401). The robot 1 that has received the instruction to guide the driver to take a break directs the robot display unit 12 toward the driver and causes the robot light 13 to emit light. Next, the navigation device 2 refers to the previously received (S332 in FIG. 7) information on the passenger composition of the vehicle 5 (S403). Then, the navigation device 2 generates an appeal sentence according to the passenger composition (S404) and outputs it (S405). The appeal sentence is created in advance for each pattern of the crew composition. The navigation device 2 generates an appeal sentence by determining which pattern the current crew configuration corresponds to. Here, the call-out sentence is, for example, a proposal for a facility to drop by to the user.

たとえば乗員構成に犬が含まれる場合の呼びかけ文は「ワンちゃんが入れるカフェを見つけたよ。休憩にどうですか?」である。たとえば乗員構成に子供が含まれる場合の呼びかけ文は、「子供が入れるレストランを見つけたよ。休憩にどうですか?」である。たとえば乗員構成に犬および子供が含まれる場合の呼びかけ文は「ワンちゃんと子供が入れるカフェを見つけたよ。休憩にどうですか?」である。 For example, if a dog is included in the crew composition, the callout is "I found a cafe where dogs can go. Would you like to take a break?" For example, if a child is included in the crew composition, the call-out might be "I found a restaurant for children. How about a break?" For example, if the crew includes dogs and children, the callout might be "I found a café where dogs and children can go. How about a break?"

次にナビゲーション装置2は、乗員構成に応じたキーワードを用いてPOI検索を行う(S406)。検索用のキーワードは、乗員構成のパターンごとにあらかじめ作成されている。ナビゲーション装置2は、現在の乗員構成があらかじめ定めたいずれのパターンに該当するかを判断することで、キーワードを決定する。 Next, the navigation device 2 performs a POI search using a keyword according to the passenger composition (S406). Keywords for retrieval are created in advance for each passenger composition pattern. The navigation device 2 determines a keyword by determining which pattern the current crew composition corresponds to.

たとえば乗員構成に子供や犬が含まれない場合は、検索キーワードを「カフェ」とする。たとえば乗員構成に犬が含まれる場合は、検索キーワードを「カフェ、ペット可」とする。なお検索キーワードに含まれる句点はアンド条件であることを表している。たとえば乗員構成に子供が含まれる場合は、検索キーワードを「レストラン、子供向き」とする。たとえば乗員構成に犬と子供が含まれる場合は、検索キーワードを「カフェ、ペット可」とする。次にナビゲーション装置2は、S407における検索結果をナビ表示部22に表示する。その後、ユーザがナビ表示部22に示されたいずれかのPOIを選択すると、ナビゲーション装置2は選択されたPOIを目的地としてナビゲーションを開始する。 For example, if the passenger composition does not include children or dogs, the search keyword is "cafe". For example, if dogs are included in the crew composition, the search keyword is "café, pets allowed". A full stop included in the search keyword indicates an AND condition. For example, if children are included in the crew composition, the search keyword is "restaurants, suitable for children". For example, if the crew composition includes dogs and children, the search keyword is "café, pets allowed". Next, the navigation device 2 displays the search result in S407 on the navigation display section 22. FIG. After that, when the user selects one of the POIs displayed on the navigation display section 22, the navigation device 2 starts navigation with the selected POI as the destination.

(目的地周辺)
図13は、車両5が目的地の周辺に到着した場合のロボットシステムSの動作を示すシーケンス図である。ナビゲーション装置2は、ユーザにより設定された目的地と車両5の現在地の距離が、あらかじめ定められた距離以下、たとえば200メートル以下になると目的地周辺に到着したと判断する。
(around destination)
FIG. 13 is a sequence diagram showing the operation of the robot system S when the vehicle 5 has arrived near the destination. The navigation device 2 determines that the vehicle has reached the vicinity of the destination when the distance between the destination set by the user and the current location of the vehicle 5 is less than a predetermined distance, for example, less than 200 meters.

ナビゲーション装置2は、まず現在地周辺の駐車場を検索する(S411)。次にナビゲーション装置2は、ロボット1にドライバ注視指令を出力する(S412)。ドライバ注視指令を受けたロボット1は、ロボ表示部12を運転者に向けてロボライト13を発光させる(S413)。次にナビゲーション装置2は、ユーザに目的地周辺に到着した旨の音声出力を行う(S414)。目的地周辺に到着した旨の音声出力とはたとえば、「そろそろ目的地なので近くの駐車場を探しました」である。次にナビゲーション装置2は、S411により検索して得られた駐車場の情報をナビ表示部22に表示する。 The navigation device 2 first searches for parking lots around the current location (S411). Next, the navigation device 2 outputs a driver gaze command to the robot 1 (S412). The robot 1 that has received the driver gaze command directs the robot display unit 12 to the driver and causes the robot light 13 to emit light (S413). Next, the navigation device 2 performs voice output to the effect that the user has arrived at the vicinity of the destination (S414). The voice output indicating that the vehicle has arrived at the vicinity of the destination is, for example, "It is about time to reach the destination, so I searched for a nearby parking lot." Next, the navigation device 2 displays the parking lot information retrieved in S411 on the navigation display unit 22 .

その後に車両5が所定の距離を走行すると、または所定の時間が経過すると、音声出力を行い(S416)、再びロボット1にドライバ注視指令を出力する(S417)。S416における音声出力はたとえば「運転お疲れさまでした」である。なおナビゲーション装置2がユーザの予定を把握している場合には、S416においてユーザの予定を併せて通知してもよい。再びドライバ注視指令を受けたロボット1は、ロボ表示部12を運転者に向けてロボライト13を発光させる(S418)。以上が目的地の周辺に到着した場合の処理である。 After that, when the vehicle 5 travels a predetermined distance, or when a predetermined time elapses, a voice output is performed (S416), and the driver's gaze command is output to the robot 1 again (S417). The voice output in S416 is, for example, "Thank you for driving." If the navigation device 2 has grasped the user's schedule, the user's schedule may also be notified in S416. The robot 1, which has received the driver gaze command again, directs the robot display unit 12 to the driver and causes the robot light 13 to emit light (S418). The above is the processing when the vehicle reaches the vicinity of the destination.

上述した実施の形態によれば、次の作用効果が得られる。
(1)ロボット1は、ナビゲーション装置2が搭載される車両5に搭載される。ナビゲーション装置2から車両5に関する情報を取得するロボ通信部17と、車両5の外部または車両5の内部を撮影するロボカメラ11と、ナビゲーション装置2から取得した情報を用いてロボット1の動作を決定するロボ主制御部151とを備える。そのためロボット1はナビゲーション装置2と連携し、ナビゲーション装置2が有する車両5に関する情報とロボカメラ11による撮影結果を用いて動作できる。
According to the embodiment described above, the following effects are obtained.
(1) The robot 1 is mounted on the vehicle 5 on which the navigation device 2 is mounted. A robot communication unit 17 that acquires information about the vehicle 5 from the navigation device 2, a robot camera 11 that captures the exterior of the vehicle 5 or the interior of the vehicle 5, and the information acquired from the navigation device 2 to determine the motion of the robot 1. A robot main control unit 151 is provided. Therefore, the robot 1 cooperates with the navigation device 2 and can operate using the information about the vehicle 5 possessed by the navigation device 2 and the imaging result of the robot camera 11 .

(2)ロボ主制御部151は、ナビゲーション装置2から車両5のイグニッションスイッチがオンにされたことを認識すると、お辞儀などの挨拶を行う(図6のS303)。そのためユーザにロボット1の存在を気づかせ、楽しませることができる。またユーザをロボット1に注目させることができる。 (2) When the robot main control unit 151 recognizes that the ignition switch of the vehicle 5 has been turned on from the navigation device 2, it bows and greets (S303 in FIG. 6). Therefore, the user can be made aware of the presence of the robot 1 and entertained. Also, the user can be made to pay attention to the robot 1 .

(3)ロボ主制御部151は、挨拶の後にロボカメラ11を用いて運転席の方向を撮影する。ロボット1が挨拶をすることにより運転者がロボット1の方を向いていることが期待できるので、そのタイミングで撮影することにより、運転者を正面から撮影できる。運転者を正面から撮影することで、画像認識精度を向上することができる。 (3) After the greeting, the robot main control unit 151 uses the robot camera 11 to photograph the direction of the driver's seat. When the robot 1 greets the driver, it can be expected that the driver is facing the robot 1. By taking a picture at that timing, the driver can be photographed from the front. Image recognition accuracy can be improved by photographing the driver from the front.

(4)ロボ主制御部151は、挨拶を行う前に、当該ロボットの正面を運転席に向かせる。ロボット1に動きがあることでユーザはロボット1により注目しやすくなり、運転者を正面から撮影できる可能性が高まる。またロボカメラ11の正面で運転者を撮影できるので、ひずみの少ないレンズの中心領域で運転者を撮影できる。運転者を正面から撮影することで、画像認識精度を向上することができる。 (4) The robot main control unit 151 directs the front of the robot to the driver's seat before greeting. The movement of the robot 1 makes it easier for the user to pay attention to the robot 1, increasing the possibility of photographing the driver from the front. Also, since the driver can be photographed in front of the robot camera 11, the driver can be photographed in the central area of the lens with little distortion. Image recognition accuracy can be improved by photographing the driver from the front.

(5)ロボ主制御部151は、撮影により得られた情報に基づきユーザを特定し、ユーザの予定を取得して出力する。そのためユーザの利便性を向上できる。 (5) The robot main control unit 151 identifies the user based on the information obtained by photographing, and acquires and outputs the user's schedule. Therefore, user convenience can be improved.

(6)ロボ主制御部151は、車両5のイグニッションスイッチがオンにされたことを認識すると、ロボカメラ11を用いて車両5の車室内を撮影し、撮影して得られた情報から車両5に乗車している人員の構成を推定する。そのためロボット1は、車両5に乗車している人員の構成に応じた動作ができる。 (6) When the robot main control unit 151 recognizes that the ignition switch of the vehicle 5 has been turned on, the robot camera 11 is used to photograph the interior of the vehicle 5, and from the information obtained by photographing, the vehicle 5 is detected. Estimate the composition of the personnel on board. Therefore, the robot 1 can move according to the composition of the people riding in the vehicle 5 .

(7)車両5には発光色を変更可能な間接照明31が備えられる。ロボ主制御部151は、車両5が走行していることを認識すると、感情推定部154により車両5の運転者の感情を推定し、推定した感情に基づいた色を色算出部155が決定し、間接照明31の発光色をその色に制御する。そのためロボット1は、間接照明31を制御して運転者の気分を運転に適したものに誘導することができる。 (7) The vehicle 5 is equipped with the indirect lighting 31 whose emission color can be changed. When the robot main control unit 151 recognizes that the vehicle 5 is running, the emotion estimation unit 154 estimates the emotion of the driver of the vehicle 5, and the color calculation unit 155 determines a color based on the estimated emotion. , controls the emission color of the indirect illumination 31 to that color. Therefore, the robot 1 can control the indirect lighting 31 to induce the driver's mood to be suitable for driving.

(8)ロボット1は、車両5の運転者による当該ロボットへの視線を検知する視線検知部156を備える。ロボ主制御部151は、車両5が停止していることを認識した場合は、視線検知部156が視線を検出すると運転者への問いかけを行い、車両5が走行していることを認識した場合は運転者への問いかけを行わない。そのためロボット1は、運転者に対して問いかけをしても安全な場合のみ、視線検知に基づく問いかけを行うことができる。 (8) The robot 1 includes a line-of-sight detection unit 156 that detects the line of sight of the driver of the vehicle 5 toward the robot. When the robot main control unit 151 recognizes that the vehicle 5 is stopped, when the line-of-sight detection unit 156 detects the line of sight, the robot main control unit 151 asks the driver, and when it recognizes that the vehicle 5 is running. does not interrogate the driver. Therefore, the robot 1 can ask the driver based on line-of-sight detection only when it is safe to ask the driver.

(9)ロボット1はロボカメラ11と、ロボカメラ11の撮影方向を車両5の車室側と車両5の外部に切り替え可能なモータ14を備える。ロボ主制御部151は、車両5が狭隘路に接近していることを認識すると、アクチュエータに往復運動をさせる(図11のS381)。そのためロボット1は、ユーザにロボット1がこれから動作することを緩やかに知らせることができる。ロボット1が急に動作すると不安感を与える恐れがあるが、準備動作のように小さな動きをあらかじめ行うことでこのような不安を避けることができる。 (9) The robot 1 includes a robo-camera 11 and a motor 14 capable of switching the imaging direction of the robo-camera 11 between the interior side of the vehicle 5 and the outside of the vehicle 5 . When the robot main control unit 151 recognizes that the vehicle 5 is approaching a narrow road, it causes the actuator to reciprocate (S381 in FIG. 11). Therefore, the robot 1 can gently notify the user that the robot 1 will move. A sudden movement of the robot 1 may give a feeling of uneasiness, but such an uneasiness can be avoided by performing a small movement in advance such as a preparatory movement.

(10)車両5は車両5の周辺を撮影する周辺カメラ33を備える。ロボ主制御部151は、車両5が狭隘路に進入したことを認識すると、モータ14を用いてロボカメラ11を車両5の外部に向けてロボカメラ11による撮影を開始し、ロボカメラ11が撮影して得られた情報に車両5の障害物が含まれると、ナビゲーション装置2に通知を行い、ナビゲーション装置2が周辺カメラ33を起動する(図11のS387、S388)。そのため必要な場合のみ周辺カメラ33を起動させることができる。 (10) The vehicle 5 is equipped with a surrounding camera 33 that captures the surroundings of the vehicle 5 . When the robot main control unit 151 recognizes that the vehicle 5 has entered the narrow road, the robot camera 11 is directed to the outside of the vehicle 5 using the motor 14 and starts shooting with the robot camera 11. If the obtained information includes an obstacle on the vehicle 5, the navigation device 2 is notified, and the navigation device 2 activates the peripheral camera 33 (S387, S388 in FIG. 11). Therefore, the peripheral camera 33 can be activated only when necessary.

(11)ロボ主制御部151は、車両5が長時間走行していることを認識すると、車両5の乗員構成に応じた呼びかけを行う。 (11) When the robot main control unit 151 recognizes that the vehicle 5 has been running for a long time, it calls out according to the occupant composition of the vehicle 5 .

(変形例1)
顔認識部152、属性推定部153、感情推定部154、および物体認識部157の少なくとも1つは、あらかじめなされた学習により作成された推論モデルを利用した推論により実行されてもよい。換言すると、顔認識部152、属性推定部153、感情推定部154、および物体認識部157には、いわゆる人工知能を利用することができる。またこれらの処理はナビゲーション装置2が行ってもよいし、車両5の外部に存在するサーバ内で行ってもよい。
(Modification 1)
At least one of the face recognition unit 152, the attribute estimation unit 153, the emotion estimation unit 154, and the object recognition unit 157 may be executed by inference using an inference model created by learning in advance. In other words, the face recognition unit 152, the attribute estimation unit 153, the emotion estimation unit 154, and the object recognition unit 157 can utilize so-called artificial intelligence. These processes may be performed by the navigation device 2 or may be performed in a server located outside the vehicle 5 .

(変形例2)
ロボ主制御部151は、周辺カメラ33を起動する条件、厳密には周辺カメラ33を起動するための検知通知(S387)を行う条件に、運転者がサイドミラーを見ていることを加えてもよい。その場合は図11を参照して説明した処理が次のように変更される。ロボ主制御部151は、図11のS386において肯定判断すると、ロボカメラ11の撮影方向を車室内に戻して運転者を撮影し、運転者がサイドミラーを見ているか否かを判断する。運転者がサイドミラーを見ていると判断するとS387の処理を実行し、運転者がサイドミラーを見ていないと判断するとS386を否定判断する場合と同様にS386に留まる。
(Modification 2)
The robot main control unit 151 adds the fact that the driver is looking at the side mirror to the condition for activating the peripheral camera 33, or more precisely, the condition for performing the detection notification (S387) for activating the peripheral camera 33. good. In that case, the processing described with reference to FIG. 11 is changed as follows. When the robo-main control unit 151 makes an affirmative determination in S386 of FIG. 11, the imaging direction of the robo-camera 11 is returned to the interior of the vehicle to photograph the driver, and determines whether the driver is looking at the side mirror. If it is determined that the driver is looking at the side mirrors, the process of S387 is executed.

(変形例3)
ロボカメラ11は、ロボット1と分離して設けられてもよい。この場合は、ロボカメラ11の姿勢を変化させるためのモータがさらに備えられる。
(Modification 3)
The robo-camera 11 may be provided separately from the robot 1 . In this case, a motor for changing the attitude of the robot camera 11 is further provided.

(変形例4)
読み上げ部252はロボット1に備えられてもよい。この場合は、定型文264もロボット1に備えられる。
(Modification 4)
The reading unit 252 may be provided in the robot 1 . In this case, the fixed phrase 264 is also provided in the robot 1 .

(変形例5)
音声認識部253はロボット1に備えられてもよい。この場合は、マイク35の出力が直接、またはナビゲーション装置2を介してロボット1に入力される。
(Modification 5)
The voice recognition section 253 may be provided in the robot 1 . In this case, the output of the microphone 35 is input to the robot 1 either directly or via the navigation device 2 .

(変形例6)
ロボ用ユーザDB161にはユーザの顔写真の代わりに顔の特徴量が格納されてもよい。
(Modification 6)
The robot user DB 161 may store facial features instead of facial photographs of users.

上述した実施の形態および変形例において、ロボット1のプログラムがロボ記憶部16に格納される場合に、ロボット1が不図示の入出力インタフェースを備え、必要なときに入出力インタフェースとロボット1が利用可能な媒体を介して、他の装置からプログラムが読み込まれてもよい。ここで媒体とは、たとえば入出力インタフェースに着脱可能な記憶媒体、または通信媒体、すなわち有線、無線、光などのネットワーク、または当該ネットワークを伝搬する搬送波やディジタル信号、を指す。また、プログラムにより実現される機能の一部または全部がハードウエア回路やFPGAにより実現されてもよい。 In the above-described embodiment and modification, when the program of the robot 1 is stored in the robot storage unit 16, the robot 1 is provided with an input/output interface (not shown), and the input/output interface and the robot 1 are used when necessary. Programs may be loaded from other devices via any available medium. Here, the medium refers to, for example, a storage medium that can be attached to and detached from an input/output interface, or a communication medium, that is, a wired, wireless, or optical network, or a carrier wave or digital signal that propagates through the network. Also, part or all of the functions realized by the program may be realized by a hardware circuit or FPGA.

上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 Each of the embodiments and modifications described above may be combined. Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other aspects conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1…ロボット
2…ナビゲーション装置
5…車両
7…ロボ通信部
11…ロボカメラ
12…ロボ表示部
13…ロボライト
14…モータ
15…ロボ演算部
16…ロボ記憶部
17…ロボ通信部
22…ナビ表示部
25…ナビ演算部
26…ナビ記憶部
27…ナビ通信部
31…間接照明
33…周辺カメラ
151…ロボ主制御部
152…顔認識部
153…属性推定部
154…感情推定部
155…色算出部
156…視線検知部
157…物体認識部
251…ナビ主制御部
252…読み上げ部
253…音声認識部
REFERENCE SIGNS LIST 1 robot 2 navigation device 5 vehicle 7 robot communication unit 11 robot camera 12 robot display unit 13 robot light 14 motor 15 robot operation unit 16 robot storage unit 17 robot communication unit 22 navigation display unit 25...Navi calculation unit 26...Navi storage unit 27...Navi communication unit 31...Indirect illumination 33...Peripheral camera 151...Robo main control unit 152...Face recognition unit 153...Attribute estimation unit 154...Emotion estimation unit 155...Color calculation unit 156 ... line-of-sight detection unit 157 ... object recognition unit 251 ... navigation main control unit 252 ... reading unit 253 ... voice recognition unit

Claims (3)

車載装置が搭載される車両に搭載される車載用ロボットであって、
前記車載装置から前記車両に関する情報である車両情報を取得する通信部と、
前記車両の外部または前記車両の内部を撮影するカメラと、
前記車両情報および前記カメラによる撮影結果を用いて当該車載用ロボットの動作を決定する制御部と
前記カメラの撮影方向を前記車両の車室側と前記車両の外部に切り替え可能なアクチュエータとを備え、
前記制御部は、前記車両情報から前記車両が狭隘路に接近していることを認識すると、前記アクチュエータに往復運動をさせる車載用ロボット。
An in-vehicle robot mounted in a vehicle in which an in-vehicle device is mounted,
a communication unit that acquires vehicle information, which is information about the vehicle, from the in-vehicle device;
a camera that captures the exterior of the vehicle or the interior of the vehicle;
a control unit that determines the motion of the in-vehicle robot using the vehicle information and the photographed result of the camera ;
an actuator capable of switching the imaging direction of the camera between the interior side of the vehicle and the exterior of the vehicle;
The in-vehicle robot , wherein the controller causes the actuator to reciprocate when recognizing from the vehicle information that the vehicle is approaching a narrow road .
請求項1に記載の車載用ロボットであって、
前記車両は前記車両の周辺を撮影する周辺カメラをさらに備え、
前記制御部は、前記車両情報から前記車両が狭隘路に進入したことを認識すると、前記アクチュエータを用いて前記カメラを前記車両の外部に向けて前記カメラによる撮影を開始し、前記カメラが撮影して得られた情報に前記車両の障害物が含まれると、前記周辺カメラを起動する車載用ロボット。
The in-vehicle robot according to claim 1 ,
The vehicle further comprises a peripheral camera that captures the surroundings of the vehicle,
When the control unit recognizes from the vehicle information that the vehicle has entered a narrow road, the control unit uses the actuator to direct the camera to the outside of the vehicle to start photographing with the camera, and the camera starts photographing. an in-vehicle robot that activates the peripheral camera when the information obtained by the above includes an obstacle on the vehicle.
車載装置が搭載される車両に搭載される車載用ロボットであって、
前記車載装置から前記車両に関する情報である車両情報を取得する通信部と、
前記車両の外部または前記車両の内部を撮影するカメラと、
前記車両情報および前記カメラによる撮影結果を用いて当該車載用ロボットの動作を決定する制御部とを備え、
前記制御部は、前記車両情報から前記車両が長時間走行していることを認識すると、前記車両の乗員構成に応じた呼びかけを行う車載用ロボット。
An in-vehicle robot mounted in a vehicle in which an in-vehicle device is mounted,
a communication unit that acquires vehicle information, which is information about the vehicle, from the in-vehicle device;
a camera that captures the exterior of the vehicle or the interior of the vehicle;
a control unit that determines the operation of the in-vehicle robot using the vehicle information and the imaging result of the camera;
The in-vehicle robot, when the control unit recognizes from the vehicle information that the vehicle has been running for a long time, makes a call according to the composition of the occupants of the vehicle.
JP2018128572A 2018-07-05 2018-07-05 In-vehicle robot Active JP7148296B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018128572A JP7148296B2 (en) 2018-07-05 2018-07-05 In-vehicle robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018128572A JP7148296B2 (en) 2018-07-05 2018-07-05 In-vehicle robot

Publications (2)

Publication Number Publication Date
JP2020009075A JP2020009075A (en) 2020-01-16
JP7148296B2 true JP7148296B2 (en) 2022-10-05

Family

ID=69151673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018128572A Active JP7148296B2 (en) 2018-07-05 2018-07-05 In-vehicle robot

Country Status (1)

Country Link
JP (1) JP7148296B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7495595B2 (en) 2020-02-14 2024-06-05 テイ・エス テック株式会社 Service providing device
CN112565609B (en) * 2020-12-08 2022-08-12 浙江合众新能源汽车有限公司 Image processing method and system based on vehicle-mounted machine system and vehicle-mounted robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002166379A (en) 2000-09-19 2002-06-11 Toyota Motor Corp Robot to be mounted on movable body and movable body with the robot
JP2009023613A (en) 2007-07-23 2009-02-05 Denso Corp User entertainment system for automobile
JP2010127779A (en) 2008-11-27 2010-06-10 Denso It Laboratory Inc Information serving apparatus, information serving method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002166379A (en) 2000-09-19 2002-06-11 Toyota Motor Corp Robot to be mounted on movable body and movable body with the robot
JP2009023613A (en) 2007-07-23 2009-02-05 Denso Corp User entertainment system for automobile
JP2010127779A (en) 2008-11-27 2010-06-10 Denso It Laboratory Inc Information serving apparatus, information serving method and program

Also Published As

Publication number Publication date
JP2020009075A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP4353310B2 (en) In-vehicle device
JP3873386B2 (en) Agent device
JPH11259446A (en) Agent device
US10994612B2 (en) Agent system, agent control method, and storage medium
JP7250547B2 (en) Agent system, information processing device, information processing method, and program
JP6083441B2 (en) Vehicle occupant emotion response control device
JP6115577B2 (en) Vehicle occupant emotion response control device
JPH11250395A (en) Agent device
JP6213489B2 (en) Vehicle occupant emotion response control device
US11904900B2 (en) Autonomous vehicle for blind people
JP7148296B2 (en) In-vehicle robot
JP2016137200A (en) Control device for coping with feeling of passenger for vehicle
WO2021258671A1 (en) Assisted driving interaction method and apparatus based on vehicle-mounted digital human, and storage medium
JP4253918B2 (en) Agent device
JP6213488B2 (en) Vehicle occupant emotion response control device
JP2016137202A (en) Control device for coping with feeling of passenger for vehicle
JP7537259B2 (en) Attention target sharing device, attention target sharing method
JP7543082B2 (en) Information presentation device, information presentation method, and information presentation program
JP2021068357A (en) Sightseeing support device, robot mounted with the same, sightseeing support system, and sightseeing support method
JP7122408B2 (en) Information processing device and information processing method
JP2020095389A (en) Point information recording system, point information guide system, point information recording program and point information guide program
JP2020106997A (en) In-vehicle device and communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7148296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150