JP2011235700A - Annunciation device, annunciation method, program, and medium - Google Patents

Annunciation device, annunciation method, program, and medium Download PDF

Info

Publication number
JP2011235700A
JP2011235700A JP2010107382A JP2010107382A JP2011235700A JP 2011235700 A JP2011235700 A JP 2011235700A JP 2010107382 A JP2010107382 A JP 2010107382A JP 2010107382 A JP2010107382 A JP 2010107382A JP 2011235700 A JP2011235700 A JP 2011235700A
Authority
JP
Japan
Prior art keywords
facial expression
notification
expression
lamp
needle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010107382A
Other languages
Japanese (ja)
Inventor
Kazuhiro Kawachi
和広 河内
Toru Nada
徹 名田
Makiko Tauchi
真紀子 田内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2010107382A priority Critical patent/JP2011235700A/en
Publication of JP2011235700A publication Critical patent/JP2011235700A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an annunciation device, along with an annunciation method, program and medium, capable of improving user-friendliness, without giving a user with a sense of redundancy.SOLUTION: The annunciation device 1 includes: a timer unit 2a for timing time; a time display unit 2b for displaying the time by a pointer 3; and an expression generation unit 2c for generating expression by using the pointer 3 as at least part of expression components. The device also includes an annunciation unit 2d for performing annunciation, based on generation of the expression corresponding to types of contents (warning, attention, standby, welcome, reward, cancellation and reception) of the annunciation by the expression generation unit 2c, when the annunciation is needed.

Description

本発明は、乗用車、トラック、バス等の車両に適用して好適なユーザに対する報知装置、報知方法、プログラム及び媒体に関する。   The present invention relates to a notification device, a notification method, a program, and a medium for a user suitable for application to vehicles such as passenger cars, trucks, and buses.

車両情報等を含む様々な情報をユーザに対して提示し報知する報知装置としては、従来から種々のものが提案されている。近年では、このような報知装置により遊び心や親近感を持たせ報知の中身をわかりやすくしてユーザフレンドリーなものとすることを目的とした提案がなされている。例えば、特許文献1に記載の報知装置においては、報知内容を動作や表情により報知する報知用立体物としてのぬいぐるみをインストルメントパネルの中央部に搭載することが提案されている。   Various devices have been proposed as notification devices that present and notify various information including vehicle information and the like to the user. In recent years, proposals have been made for the purpose of making the contents of the notification easy to understand and user-friendly by providing such a notification device with such a notification device. For example, in the notification device described in Patent Document 1, it has been proposed that a stuffed animal as a notification three-dimensional object that notifies notification contents by an action or a facial expression is mounted at the center of the instrument panel.

また、同様の目的で、特許文献2に記載の報知装置においては、画像表示装置上に表示される擬人画像としてのエージェントの動作や表情により又はこれらを伴うことに基づいて報知内容を報知することが提案されている。   For the same purpose, in the notification device described in Patent Document 2, the notification content is notified based on or accompanied by the action or expression of the agent as an anthropomorphic image displayed on the image display device. Has been proposed.

特開2002−104103号公報JP 2002-104103 A 特開2005−265852号公報JP 2005-265852 A

ところが、上述したような報知装置においては、以下のような問題がある。特許文献1に記載の報知装置においては、インストルメントパネル近傍の装備として元来必要でないぬいぐるみを設けるスペースを確保する必要が生じて、個々のユーザの感性によっては不必要感、冗長感を与えてしまうという不都合を招く。   However, the notification device as described above has the following problems. In the notification device described in Patent Document 1, it is necessary to secure a space for providing a stuffed animal that is not originally necessary as equipment in the vicinity of the instrument panel, and depending on the sensitivity of individual users, an unnecessary feeling and a redundant feeling are given. Inconvenience.

また、特許文献2に記載の報知装置においては、エージェントはあくまでカーナビゲーションシステム等の画像表示装置の画面表示上のものであって親近感を高める効果が薄いという不都合を招く。すなわち、従来技術の報知装置においては、ユーザに冗長感を与えることなくユーザフレンドリー性を高めることができないという課題があった。   Further, in the notification device described in Patent Document 2, the agent is only on the screen display of an image display device such as a car navigation system, and there is a disadvantage that the effect of enhancing the affinity is small. That is, in the conventional notification device, there is a problem that user friendliness cannot be improved without giving the user a sense of redundancy.

本発明は、上記問題に鑑み、ユーザに冗長感を与えることなくユーザフレンドリー性を高めることができる報知装置、報知方法、プログラム及び媒体を提供することを目的とする。   An object of this invention is to provide the alerting | reporting apparatus, alerting | reporting method, program, and medium which can improve user friendliness without giving a user a sense of redundancy in view of the said problem.

上記の問題を解決するため、
本発明に係る報知装置は、
時刻を計時する計時手段と、
指針により前記時刻を表示する時刻表示手段と、
前記指針を表情構成要素の少なくとも一部として表情を生成する表情生成手段と、
を含み、
報知が必要な場合に、前記表情生成手段による前記報知の内容の種別に対応した前記表情の生成に基づいて前記報知を行う報知手段を含むことを特徴とする。
To solve the above problem,
The notification device according to the present invention is:
A time measuring means for measuring time;
Time display means for displaying the time by a pointer;
Facial expression generation means for generating a facial expression using the pointer as at least a part of a facial expression component;
Including
In the case where notification is required, it includes notification means for performing the notification based on generation of the facial expression corresponding to the type of content of the notification by the facial expression generation means.

また上記課題を解決するため、
本発明に係る報知方法は、
時刻を計時する計時ステップと、
指針により前記時刻を表示する時刻表示ステップと、
前記指針を表情構成要素の少なくとも一部として表情を生成する表情生成ステップと、
を含み、
報知が必要な場合に、前記表情生成ステップによる前記報知の内容の種別に対応した前記表情の生成に基づいて前記報知を行う報知ステップを含むことを特徴とする。
In order to solve the above problems,
The notification method according to the present invention includes:
A time measuring step for measuring time;
A time display step for displaying the time by a pointer;
A facial expression generating step for generating a facial expression using the pointer as at least a part of a facial expression component;
Including
When notification is required, the method includes a notification step of performing the notification based on generation of the facial expression corresponding to a type of content of the notification in the facial expression generation step.

また、本発明に係るプログラムは、
前記報知方法をコンピュータに実行させるプログラムである。
The program according to the present invention is
A program for causing a computer to execute the notification method.

さらに、本発明に係る媒体は、
前記プログラムを記憶した媒体である。
Furthermore, the medium according to the present invention is:
A medium storing the program.

本発明によれば、ユーザに冗長感を与えることなくユーザフレンドリー性を高めることができる報知装置、報知方法、プログラム及び媒体を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the alerting | reporting apparatus, alerting | reporting method, program, and medium which can improve user friendliness without giving a user a sense of redundancy can be provided.

本発明に係る報知装置の一実施形態を示す模式ブロック図である。It is a schematic block diagram which shows one Embodiment of the alerting | reporting apparatus which concerns on this invention. 本発明に係る報知装置の一実施形態の設置形態を示す模式図である。It is a schematic diagram which shows the installation form of one Embodiment of the alerting | reporting apparatus which concerns on this invention. 本発明に係る報知装置の生成する表情の区分、報知の内容の種別、区分と種別の対応を示す模式図である。It is a schematic diagram which shows the classification | category of the facial expression which the alerting | reporting apparatus which concerns on this invention produces | generates, the classification of the content of alerting | reporting, and a response | compatibility with a classification | category and a classification. 本発明に係る報知装置の生成する表情を報知の内容を示す模式図である。It is a schematic diagram which shows the content of alerting | reporting the facial expression which the alerting | reporting apparatus which concerns on this invention produces | generates. 本発明に係る報知装置の時刻表示の態様を示す模式図である。It is a schematic diagram which shows the aspect of the time display of the alerting | reporting apparatus which concerns on this invention. 本発明に係る報知装置の制御内容を示すフローチャートである。It is a flowchart which shows the control content of the alerting | reporting apparatus which concerns on this invention. 図6に示したフローチャートのステップS5の具体的処理内容を詳細に示すサブルーチンである。7 is a subroutine showing in detail the specific processing content of step S5 of the flowchart shown in FIG. 本発明に係る報知装置の一実施形態を示す模式ブロック図である。It is a schematic block diagram which shows one Embodiment of the alerting | reporting apparatus which concerns on this invention. 本発明に係る報知装置の生成する警戒表情を示す模式図である。It is a schematic diagram which shows the warning expression which the alerting | reporting apparatus which concerns on this invention produces | generates. 本発明に係る報知装置の警戒時における態様を示す模式図である。It is a schematic diagram which shows the aspect at the time of warning of the alerting | reporting apparatus which concerns on this invention. 本発明に係る報知装置のエコモードにおける表示態様を示す模式図である。It is a schematic diagram which shows the display mode in the eco mode of the alerting | reporting apparatus which concerns on this invention. 本発明に係る報知装置の経路案内モードにおける表示態様を示す模式図である。It is a schematic diagram which shows the display mode in the route guidance mode of the alerting | reporting apparatus which concerns on this invention. 本発明に係る報知装置をモード遷移を伴わせて実行した場合の制御内容を示すフローチャートである。It is a flowchart which shows the control content at the time of performing the alerting | reporting apparatus which concerns on this invention with mode transition. 図13に示したフローチャートのステップS02の処理内容を詳細に示すサブルーチンである。14 is a subroutine showing in detail the processing content of step S02 of the flowchart shown in FIG. 図14に示したサブルーチンの変形例を示すサブルーチンである。15 is a subroutine showing a modification of the subroutine shown in FIG. 図13に示したエコモードのステップS10の変形例を示すフローチャートである。It is a flowchart which shows the modification of step S10 of eco mode shown in FIG. 本発明に係る報知装置のエコモードにおける表情の表示態様を示す模式図である。It is a schematic diagram which shows the display mode of the facial expression in the eco mode of the alerting | reporting apparatus which concerns on this invention. 図16に示したステップS10−1の処理内容の詳細を示すサブルーチンである。It is a subroutine which shows the detail of the processing content of step S10-1 shown in FIG. 図1のコミュニケーションロボットECUをメータECUに置換した態様を示す模式図である。It is a schematic diagram which shows the aspect which replaced the communication robot ECU of FIG. 1 with meter ECU. 図1の指針駆動部4を独立駆動式のものに変更した態様を示す模式図である。It is a schematic diagram which shows the aspect which changed the pointer drive part 4 of FIG. 1 into the thing of an independent drive type. 図1の指針3、指針駆動部4、各灯具5をディスプレイに置換した態様を示す模式図である。It is a schematic diagram which shows the aspect which substituted the pointer 3, the pointer drive part 4, and each lamp | ramp 5 of FIG. 1 with the display.

以下、本発明を実施するための形態について、添付図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る報知装置を構成するコミュニケーションロボットの一実施形態を示す模式図である。図2は図1に示すコミュニケーションロボットの車室内における配置態様を示す模式図である。   FIG. 1 is a schematic diagram showing an embodiment of a communication robot constituting a notification device according to the present invention. FIG. 2 is a schematic diagram showing an arrangement mode of the communication robot shown in FIG.

本発明に係るコミュニケーションロボット1は、図1に示すように、コミュニケーションロボットECU2と、指針3と、指針駆動部4と、各灯具5と、スピーカ6と、アクチュエータ7と、マイク8とを含んで構成される。   As shown in FIG. 1, the communication robot 1 according to the present invention includes a communication robot ECU 2, a pointer 3, a pointer driving unit 4, lamps 5, a speaker 6, an actuator 7, and a microphone 8. Composed.

コミュニケーションロボットECU2は、CAN(Controller Area Network)等の通信規格に接続されており、CANを介してエンジンECU10、ブレーキECU11、EPSECU12、ボディECU13、ナビゲーションECU14を始めとした各種のECUと通信可能に接続される。   The communication robot ECU 2 is connected to a communication standard such as CAN (Controller Area Network), and connected to various ECUs such as the engine ECU 10, the brake ECU 11, the EPS ECU 12, the body ECU 13, and the navigation ECU 14 via the CAN. Is done.

コミュニケーションロボットECU2は、例えばCPU、ROM、RAM、フラッシュメモリ及びそれらを相互に接続するデータバスと入出力インターフェースから構成される。コミュニケーションロボットECU2は、ROM又はフラッシュメモリに格納されたプログラムに従い、以下に述べるそれぞれの制御を行い、計時手段2a、時刻表示手段2b、表情生成手段2c、報知手段2dを構成する。   The communication robot ECU 2 includes, for example, a CPU, a ROM, a RAM, a flash memory, a data bus that connects them, and an input / output interface. The communication robot ECU 2 performs the following controls according to a program stored in the ROM or flash memory, and constitutes a time measuring means 2a, a time display means 2b, a facial expression generation means 2c, and a notification means 2d.

指針3は一方の針と他方の針を含み、ここでは短針である時針3aと長針である分針3bを備えており、時針3aと分針3bは図1中右上に示すように、円板状の盤面Pに盤面Pの中心を回転中心Cとして、周方向に回転可能に設けられる。盤面Pはその外周側を図示しない筐体により支持される。   The pointer 3 includes one hand and the other needle, and here includes an hour hand 3a which is a short hand and a minute hand 3b which is a long hand, and the hour hand 3a and the minute hand 3b are formed in a disk shape as shown in the upper right in FIG. The board surface P is provided so as to be rotatable in the circumferential direction with the center of the board surface P as the rotation center C. The board surface P is supported on its outer peripheral side by a housing (not shown).

なお、本実施例1においては、コミュニケーションロボットECU2は、筐体内部かつ盤面Pの背面側の背面盤との間に内蔵され、電源線と信号線を端子として含む図示しないコネクタにより車両側のCAN及び電源線に接続され、図示しないアダプタにより筐体は、車両のインストルメントパネルに着脱自在に固定される。   In the first embodiment, the communication robot ECU 2 is built in the housing and between the rear panel on the back side of the panel surface P and is connected to the vehicle side CAN by a connector (not shown) including a power line and a signal line as terminals. The housing is detachably fixed to the instrument panel of the vehicle by an adapter (not shown) connected to the power line.

指針駆動部4は、図示しないモータと複数のギアを含む減速機構により構成される周知の時計機構である。モータは計時手段2aが例えば水晶振動子の発振に基づく周知の計時方法により計時した時刻に対応した時刻表示手段2bの指令又は表情生成手段2cの生成する表情に対応する疑似時刻に対応する疑似指令に基づいて回転される。   The pointer driving unit 4 is a well-known timepiece mechanism including a speed reduction mechanism including a motor (not shown) and a plurality of gears. The motor is a pseudo command corresponding to a pseudo time corresponding to a command of the time display unit 2b corresponding to a time measured by a known clocking method based on, for example, oscillation of a crystal resonator or a facial expression generated by the facial expression generating unit 2c. Rotated based on

この減速機構はモータの回転を減速して分針3bに伝達し一時間毎に周上一回転させるとともに、時針3aに対してもモータの回転を減速して伝達し一時間毎に周上十二分の一回転させる。図1右上図中における上方は零時及び正午において時針3a及び分針3bがともに位置する基準位置を示す。コミュニケーションロボット1の回転中心Cは図2に示すようにデフォルト状態では車両後方かつ運転席と助手席の左右中央に指向させる。   This speed reduction mechanism decelerates the rotation of the motor and transmits it to the minute hand 3b to rotate it once every hour, and at the same time, decelerates and transmits the rotation of the motor to the hour hand 3a as well. Rotate a minute. The upper part in the upper right diagram in FIG. 1 indicates a reference position where both the hour hand 3a and the minute hand 3b are located at midnight and noon. As shown in FIG. 2, the rotation center C of the communication robot 1 is directed to the rear side of the vehicle and the left and right center of the driver seat and the passenger seat in the default state.

各灯具5は、図1中右上に示すように盤面P上において配置される灯具であって、左右一対の棒状灯具5a、左右一対の目用灯具5b、左右一対の笑顔用灯具5c、口用灯具5d、環状灯具5e、主部分5fmと副部分5fsから構成される針灯具5f、周上灯具5gを含んでいる。各灯具5は、それぞれ複数種類の色で発光可能なLEDにより構成される。   Each lamp 5 is a lamp arranged on the board surface P as shown in the upper right in FIG. 1, and is a pair of left and right bar lamps 5a, a pair of left and right eye lamps 5b, a pair of left and right smiling lamps 5c, and a mouthpiece. It includes a lamp 5d, an annular lamp 5e, a needle lamp 5f composed of a main part 5fm and a sub-part 5fs, and a circumferential lamp 5g. Each lamp 5 is composed of LEDs that can emit light in a plurality of colors.

左右一対の棒状灯具5aは、一方が回転中心Cから視て右方と上方の間に延びる形態、より具体的には上方から右側へ60度の位置に設置され、他方が回転中心Cから視て左方と上方の間に延びる形態、より具体的には上方から左側へ60度の位置にそれぞれ設置される。   One of the pair of left and right rod-shaped lamps 5a is installed at a position extending 60 degrees from the right to the upper side as viewed from the rotation center C. More specifically, the other is viewed from the rotation center C. In the form extending between the left side and the upper side, more specifically, it is installed at a position of 60 degrees from the upper side to the left side.

左右一対の円状の目用灯具5bは、一方が回転中心Cから視て右方と上方の間の位置に設置され、他方が回転中心Cから視て左方と上方の間の位置にそれぞれ設置される。なお、より具体的には、本実施例では後述する心配表情を15時42分に相当する位置の時針3aと分針3bにより表現するため、円状の目用灯具5bの外縁が15時42分に相当する位置の時針3aと分針3bのそれぞれの下縁に接する又は目用灯具5bの直径の1/3程度オーバーラップする位置に、目用灯具5bを配置する。   One of the pair of left and right circular eye lamps 5b is installed at a position between the right side and the upper side when viewed from the rotation center C, and the other is positioned at a position between the left side and the upper side when viewed from the rotation center C. Installed. More specifically, in this embodiment, the expression of worry described later is expressed by the hour hand 3a and the minute hand 3b at a position corresponding to 15:42, so that the outer edge of the circular eye lamp 5b is 15:42. The eye lamp 5b is arranged at a position in contact with the lower edge of each of the hour hand 3a and the minute hand 3b at a position corresponding to or overlapping with about 1/3 of the diameter of the eye lamp 5b.

左右一対の笑顔用灯具5cは、回転中心Cの左方及び右方に、円状の目用灯具5bの上側に位置してかつ目用灯具5bの中心を基準とした周方向に延びる円弧状を形成するように配置される。   The pair of left and right smiling lamps 5c are arcuately located on the left and right sides of the center of rotation C and above the circular eye lamp 5b and extending in the circumferential direction with reference to the center of the eye lamp 5b. Are arranged to form.

円状の口用灯具5dは、回転中心Cの下方に位置して配置される。   The circular mouth lamp 5d is disposed below the rotation center C.

円環状の環状灯具5eは、時針3a及び分針3bの外周側に位置して盤面P上に配置される。   The annular annular lamp 5e is disposed on the board surface P so as to be positioned on the outer peripheral side of the hour hand 3a and the minute hand 3b.

針灯具5fは、時針3a及び分針3bの双方の正面側に配置され、回転中心C側から径方向外側に向けて延在する主部分5fmと、主部分5fmの径方向外側に主部分5fmより短い長さで延在して径方向外側端に尖突形状を有する副部分5fsとを含む。時針3aにおいては、主部分5fmのみが点灯され、分針3bにおいては主部分5fmと副部分5fsの双方が点灯される。   The needle lamp 5f is disposed on the front side of both the hour hand 3a and the minute hand 3b, and extends from the rotation center C side toward the radially outer side, and the main portion 5fm radially outward of the main portion 5fm. And a sub-part 5fs extending in a short length and having a pointed shape at the radially outer end. Only the main portion 5fm is lit on the hour hand 3a, and both the main portion 5fm and the sub portion 5fs are lit on the minute hand 3b.

周上灯具5gは、環状灯具5eの内周側に、上方、右方、下方、左方及びこれらの周方向における中間の周上合計八箇所に等間隔に設置され、径方向外側を頂点とし径方向内側を底辺とする三角形状を有している。   Circumferential lamps 5g are installed at equal intervals on the inner peripheral side of the annular lamp 5e at a total of eight locations on the upper, right, lower, left, and intermediate positions in the circumferential direction, with the radially outer side as the apex. It has a triangular shape with the radially inner side as the base.

スピーカ6は、上述した筐体の側面又は背面に設けられて、コミュニケーションロボットECU2の報知手段2dに基づいて、報知の内容を発話する発話手段を構成する。   The speaker 6 is provided on the side surface or the back surface of the housing described above, and constitutes an utterance unit that utters the content of the notification based on the notification unit 2 d of the communication robot ECU 2.

アクチュエータ7は、上述した回転中心Cを、上下方向を軸として乗員から視て左右方向に揺動させる左右方向アクチュエータと、左右方向を軸として乗員から視て上下方向に揺動させる上下方向アクチュエータを含む構成である。   The actuator 7 includes a left-right actuator that swings the rotation center C in the left-right direction as viewed from the occupant with the up-down direction as an axis, and a vertical actuator that swings in the up-down direction as viewed from the occupant with the left-right direction as an axis. It is the composition which includes.

アクチュエータ7は、マイク8により音声入力がなされた場合に報知手段2dの制御に基づいて回転中心Cを揺動させ、盤面P及び筐体は上下方向に揺動されて、ユーザに対して入力完了に伴う受付や歓迎や慰労に伴うリアクションを表現する。   The actuator 7 swings the rotation center C based on the control of the notification means 2d when a voice input is made by the microphone 8, and the panel surface P and the casing are swung vertically to complete the input to the user. Express the reactions associated with reception and welcome and comfort.

また、報知の内容が例えば助手席のシートベルトの装着し忘れである場合には、回転中心Cを揺動させて助手席側に指向させ、主に運転者への報知である場合には、回転中心Cを運転席に指向させ、それ以外の場合には、運転席と助手席の左右方向中央に指向させる。   Further, when the content of the notification is, for example, forgetting to attach the seat belt of the passenger seat, the rotation center C is swung and directed toward the passenger seat side, and when the notification is mainly notification to the driver, The center of rotation C is directed to the driver's seat, and in other cases, the center of rotation C is directed to the center in the left-right direction of the driver's seat and the passenger seat.

マイク8は、上述した筐体の側面又は背面に設けられる、周知のマイクロフォンであってユーザの音声入力を可能とするものである。   The microphone 8 is a well-known microphone provided on the side surface or the back surface of the above-described housing, and enables the user's voice input.

次に本実施例1のコミュニケーションロボット1が実現可能な表情の形態と、対応させる報知の内容の種別との関係を、図3を用いて示す。本実施例1においては、表情をまず、否定的表情、肯定的表情に分類し、否定的表情はさらに悲哀表情と心配表情に分類し、肯定的表情はさらに普通表情と笑顔表情に分類して使用する。   Next, the relationship between the form of facial expression that can be realized by the communication robot 1 according to the first embodiment and the type of content of notification to be associated will be described with reference to FIG. In the first embodiment, facial expressions are first classified into negative facial expressions and positive facial expressions, negative facial expressions are further classified into sad and worried facial expressions, and positive facial expressions are further classified into normal facial expressions and smiling facial expressions. use.

車両がユーザに対して又はユーザ以外の人に対して報知する内容の種別は、図3に示すように、警告、注意、待機、歓迎、慰労、解消、受付の種別があり、警告には悲哀表情を対応させ、注意には心配表情を対応させる。待機には、普通表情を対応させる。歓迎、慰労、解消、受付には笑顔表情を対応させる。   As shown in FIG. 3, there are warning, caution, standby, welcome, comfort, cancellation, and reception types that the vehicle notifies the user or non-users. Corresponding facial expressions, and worrying facial expressions. A normal expression is used for waiting. Welcome, comfort, cancellation, and reception with a smiling expression.

コミュニケーションロボットECU2の報知手段2dが車両情報を含む各情報をCAN上で取得して、各情報が以下の報知必要情報に該当する場合には、報知が必要であると判定する。   When the notification unit 2d of the communication robot ECU 2 acquires each piece of information including vehicle information on the CAN and each piece of information corresponds to the following notification necessary information, it is determined that the notification is necessary.

報知必要情報は以下の通りである。報知必要情報は、例えばEPSECU12やブレーキECU11、エンジンECU10、ボディECU13からCAN上において取得される情報であり、パワステやブレーキの異常発生つまり車両の故障を示す故障情報と、燃料が減った、スマートエントリーキーが持ち出された、シートベルトが装着されていない、ハザードランプを消し忘れた、ルームランプを消し忘れた、窓の閉め忘れ等の車両の状態変化、操作失念又は誤操作等の状態変化情報を含む。   The information necessary for notification is as follows. The information required for notification is, for example, information acquired on the CAN from the EPS ECU 12, the brake ECU 11, the engine ECU 10, and the body ECU 13. The smart entry in which power steering or brake abnormality occurs, that is, failure information indicating vehicle failure, and fuel is reduced. Includes state change information such as key changes, forgetting to turn off the hazard lamp, forgetting to turn off the hazard lamp, forgetting to turn off the room lamp, forgetting to close the window, etc. .

さらに、報知必要情報は、スピーカ6等の発話手段による発話に対応してのマイク8等の音声入力手段による入力を車両側のコミュニケーションロボットECU2が待っていることを示す待機情報、故障又は状態変化、操作失念又は誤操作が解消された場合、スマートエントリーキーが戻ってきた場合、イグニッションキーオン時のシステムチェックの結果が良好であった場合の解消情報を含む。   Further, the notification necessary information includes standby information indicating that the communication robot ECU 2 on the vehicle side is waiting for an input by the voice input means such as the microphone 8 corresponding to the utterance by the utterance means such as the speaker 6, a failure or a state change. When the forgotten operation or erroneous operation is resolved, the smart entry key is returned, and the result of the system check when the ignition key is turned on is included.

加えて、報知必要情報は、スマートエントリーキーを所持したユーザが乗り込んだ場合の歓迎情報、イグニッションキーをオフとする直前の運転終了間際に本日の走行距離や平均燃費等を報知する場合の慰労情報、音声入力手段による入力が実際になされた場合、マイク8をカーナビゲーションシステムの音声入力に用いる場合の目的地設定による入力完了情報をも含む。   In addition, notification-required information includes welcome information when a user who has a smart entry key gets in, comfort information when notifying today's mileage, average fuel consumption, etc. just before the end of driving just before turning off the ignition key When the input by the voice input means is actually made, the input completion information by the destination setting when the microphone 8 is used for the voice input of the car navigation system is also included.

図4に本実施例1で用いるそれぞれの表情を示す。図4中最左は悲哀表情を示し、ここでは「あちゃー」顔と称する。表情生成手段2cは時刻表示手段2bに計時手段2aが計時した時刻に対応する信号を指針駆動部4に対して出力することを停止させ、指針駆動部4に対して例えば8時19分である疑似時刻の疑似信号を出力し、分針3bと時針3aの相対位置を制御する。さらに、表情生成手段2cは、各灯具5のうち、棒状灯具5a、針灯具5fのうち主部分5fm、口用灯具5d、環状灯具5eのみを赤色点灯する。   FIG. 4 shows the facial expressions used in the first embodiment. The leftmost part of FIG. 4 shows a sad expression, referred to herein as an “Acha” face. The facial expression generating means 2c stops the time display means 2b from outputting a signal corresponding to the time measured by the time measuring means 2a to the pointer driving unit 4, and is 8:19 for the pointer driving unit 4, for example. A pseudo signal of pseudo time is output, and the relative position of the minute hand 3b and the hour hand 3a is controlled. Furthermore, the facial expression generating means 2c lights only the main part 5fm, the mouth lamp 5d, and the annular lamp 5e among the lamps 5 in the bar-shaped lamp 5a and the needle lamp 5f.

図4中、左から二番目は心配表情を示す。表情生成手段2cは時刻表示手段2bに計時手段2aが計時した時刻に対応する信号を指針駆動部4に対して出力することを停止させ、指針駆動部4に対して例えば15時42分である疑似時刻の疑似信号を出力し、分針3bと時針3aの相対位置を制御する。さらに、表情生成手段2cは、各灯具5のうち、針灯具5fのうち主部分5fm、目用灯具5b、口用灯具5d、環状灯具5eのみを黄色点灯する。   In FIG. 4, the second from the left shows an anxious expression. The facial expression generating means 2c stops the time display means 2b from outputting a signal corresponding to the time counted by the time measuring means 2a to the pointer driving section 4, and is 15:42 for the pointer driving section 4, for example. A pseudo signal of pseudo time is output, and the relative position of the minute hand 3b and the hour hand 3a is controlled. Furthermore, the facial expression generating means 2c turns on only the main portion 5fm, the eye lamp 5b, the mouth lamp 5d, and the annular lamp 5e among the lamp lamps 5f.

なお、前者の8時19分の疑似時刻に基づく分針3bと時針3aとにより下方側に形成される相対角度は、後者の15時42分の疑似時刻に基づく分針3bと時針3aとにより下方側に形成される相対角度よりも小さいもので、ともに分針3bと時針3aが左右対称の相対位置にあれば、これらの疑似時刻は他の時刻であっても良い。   The relative angle formed on the lower side by the minute hand 3b and hour hand 3a based on the former pseudo time of 8:19 is lower on the lower side by the minute hand 3b and hour hand 3a based on the latter pseudo time of 15:42. If the minute hand 3b and the hour hand 3a are both in a symmetrical relative position, the pseudo time may be another time.

図4中、右から二番目は普通表情を示す。表情生成手段2cは時刻表示手段2bに計時手段2aが計時した時刻に対応する信号を指針駆動部4に対して出力することを停止させ、指針駆動部4に対して例えば0時00分の疑似時刻の疑似信号を出力し、分針3bと時針3aの周方向の位置を一致させるとともに上方に指向するように移動させ、ともに目立たない位置に収納する。さらに、表情生成手段2cは、各灯具5のうち、目用灯具5b、口用灯具5d、環状灯具5eのみを緑色点灯する。   In FIG. 4, the second from the right shows a normal expression. The facial expression generating means 2c stops the time display means 2b from outputting a signal corresponding to the time counted by the time measuring means 2a to the pointer driving section 4, and the pseudo expression driving section 4 is simulated, for example, at 0:00. A pseudo signal of the time is output, the positions of the minute hand 3b and the hour hand 3a in the circumferential direction are matched and moved so as to be directed upward, and both are stored at inconspicuous positions. Furthermore, the facial expression generation means 2c lights only the eye lamp 5b, the mouth lamp 5d, and the annular lamp 5e among the lamps 5 in green.

図4中、最右は笑顔表情を示す。表情生成手段2cは時刻表示手段2bに計時手段2aが計時した時刻に対応する信号を指針駆動部4に対して出力することを停止させ、指針駆動部4に対して例えば0時00分である疑似時刻の疑似信号を出力し、分針3bと時針3aの周方向の位置を一致させるとともに上方に指向するように移動させ、ともに目立たない位置に収納する。さらに、表情生成手段2cは、各灯具5のうち、笑顔用灯具5c、口用灯具5d、環状灯具5eのみを青色点灯する。   In FIG. 4, the rightmost side shows a smiling expression. The facial expression generating means 2c stops the time display means 2b from outputting a signal corresponding to the time measured by the time measuring means 2a to the pointer driving unit 4, and is 0:00 for the pointer driving unit 4, for example. A pseudo signal of the pseudo time is output, and the positions of the minute hand 3b and the hour hand 3a in the circumferential direction are made coincident with each other and moved upward, and both are stored in an inconspicuous position. Further, the facial expression generating means 2c lights only the smiling lamp 5c, the mouth lamp 5d, and the annular lamp 5e among the respective lamps 5 in blue.

なお、表情を生成しない場合には、コミュニケーションロボット1は単なる時計として機能し、この場合には、例えば、図5に示すような表示形態を取る。つまり、分針3bと時針3aは、計時手段2aが計時した時刻に対応する信号を時計表示手段2bが指針駆動部4に出力することに基づいて制御され、時針3aの針灯具5fの主部分5fmと、分針3bの主部分5fm及び副部分5fsが時計表示手段2bにより青色点灯され、周上灯具5gのうち上下左右に位置するものが白色点灯される。   When no facial expression is generated, the communication robot 1 functions as a simple clock. In this case, for example, the display form shown in FIG. 5 is taken. In other words, the minute hand 3b and the hour hand 3a are controlled based on the time display means 2b outputting a signal corresponding to the time measured by the time measuring means 2a to the pointer driving unit 4, and the main portion 5fm of the hand lamp 5f of the hour hand 3a. Then, the main portion 5fm and the sub portion 5fs of the minute hand 3b are lit in blue by the clock display means 2b, and those located on the upper, lower, left and right of the circumferential lamp 5g are lit in white.

以上述べた四種類の表情において、それぞれ対応する報知の内容が報知手段2dのスピーカ6の制御に基づいて音声により発話され、音声により発話されている期間は表情生成手段2cの制御に基づいて、いずれの表情においても口用灯具5dは点滅される。   In the four types of facial expressions described above, the corresponding notification contents are uttered by voice based on the control of the speaker 6 of the notification means 2d, and the period during which the voice is spoken is determined based on the control of the expression generation means 2c. The mouth lamp 5d flashes in any facial expression.

以下に、本実施例1のコミュニケーションロボットECU2の制御内容についてフローチャートを用いて説明する。   Hereinafter, the control contents of the communication robot ECU 2 according to the first embodiment will be described with reference to flowcharts.

図6は、本実施例1のコミュニケーションロボット1の制御内容を示すフローチャートである。図7は、図6のステップS5の具体的処理内容について詳細に示すサブルーチンである。   FIG. 6 is a flowchart showing the control contents of the communication robot 1 according to the first embodiment. FIG. 7 is a subroutine showing in detail the specific processing contents of step S5 of FIG.

図6のステップS1において、コミュニケーションロボットECU2の計時手段2aは、上述した周知の手法により時刻を計時する。つづいて、ステップS2において、コミュニケーションロボットECU2の報知手段2dは、CAN上から車両情報を含む各情報を取得し、ステップS3において報知手段2dは、各情報が含むコード情報から各情報が上述した報知必要情報に該当し報知が必要であるか否かを判定し、肯定である場合にはステップS4にすすみ、否定である場合にはステップS6にすすむ。   In step S1 of FIG. 6, the time measuring means 2a of the communication robot ECU 2 measures the time by the known method described above. Subsequently, in step S2, the notification unit 2d of the communication robot ECU 2 acquires each piece of information including vehicle information from the CAN. In step S3, the notification unit 2d notifies each piece of information described above from the code information included in each piece of information. It is determined whether it corresponds to necessary information and notification is necessary. If the result is affirmative, the process proceeds to step S4. If the result is negative, the process proceeds to step S6.

ステップS4において、報知手段2dは、報知内容の種別が警告、注意、待機、歓迎、慰労、解消、受付のいずれであるかを判定して、ステップS5において種別に対応させて表情を選択し、表情生成手段2cが指針3により表情を生成して、これに基づいて報知を行う。   In step S4, the notification means 2d determines whether the type of the notification content is warning, caution, standby, welcome, comfort, cancellation, or reception, and selects a facial expression corresponding to the type in step S5, The facial expression generation means 2c generates a facial expression with the pointer 3, and performs notification based on the facial expression.

ステップS5についてより詳細に述べる。図7に示すように、ステップS501において、表情生成手段2cは、報知の種別が警告であるか否かを判定し、肯定であれば、ステップS506にすすみ、否定であればステップ502にすすむ。   Step S5 will be described in more detail. As shown in FIG. 7, in step S501, the facial expression generation means 2c determines whether or not the type of notification is a warning. If yes, the process proceeds to step S506, and if not, the process proceeds to step 502.

ステップS502において、表情生成手段2cは、報知の種別が注意であるか否かを判定し、肯定であればステップS511にすすみ、否定であればステップS503にすすむ。ステップS503において、表情生成手段2cは、報知の内容の種別が待機であるか否かを判定し、肯定であればステップS516にすすみ否定であれば、ステップS504にすすんで、報知の種別が歓迎、解消、慰労、受付であると判定し、ステップS521にすすむ。   In step S502, the facial expression generation unit 2c determines whether or not the type of notification is caution. If the determination is affirmative, the process proceeds to step S511, and if the determination is negative, the process proceeds to step S503. In step S503, the facial expression generation means 2c determines whether or not the type of notification content is standby. If yes, the process proceeds to step S516. If negative, the process proceeds to step S504, and the notification type is welcome. It is determined that it is cancellation, comfort, and reception, and the process proceeds to step S521.

ステップS506において、表情生成手段2cは、警告に対応させた悲哀表情である図4最左の「アチャー」顔を選択し、ステップS507において、表情生成手段2cは8時19分の疑似指令を指針駆動部4に出力し、ステップS508において、棒状灯具5a、口用灯具5d、環状灯具5e、針灯具5fの主部分5fmを赤色点灯し、目用灯具5b、周上灯具5g、笑顔用灯具5c、針灯具5fの副部分5fsは消灯する。   In step S506, the facial expression generation means 2c selects the leftmost “Acher” face in FIG. 4 which is a sad expression corresponding to the warning. In step S507, the facial expression generation means 2c points to the 8:19 pseudo-command. In step S508, the rod-shaped lamp 5a, the mouth lamp 5d, the annular lamp 5e, and the main portion 5fm of the needle lamp 5f are lit red, and the eye lamp 5b, the upper lamp 5g, and the smile lamp 5c. The sub portion 5fs of the needle lamp 5f is turned off.

ステップS509において、報知手段2dはアクチュエータ7を制御して回転中心Cを運転席に指向させ、ステップS510において、スピーカ6により報知の内容を発話させ、口用灯具5dを点滅させる。   In step S509, the notification unit 2d controls the actuator 7 to direct the center of rotation C toward the driver's seat, and in step S510, the speaker 6 speaks the content of the notification and blinks the mouth lamp 5d.

ステップS511において、表情生成手段2cは、注意に対応させた心配表情である図4左から二つ目の表情を選択する。ステップS512において、表情生成手段2cは15時42分の疑似指令を指針駆動部4に出力し、ステップS513において、目用灯具5b、口用灯具5d、環状灯具5e、針灯具5fの主部分5fmを黄色点灯し、棒状灯具5a、周上灯具5g、笑顔用灯具5c、針灯具5fの副部分5fsは消灯する。   In step S511, the facial expression generation means 2c selects the second facial expression from the left in FIG. 4, which is a worrying facial expression associated with attention. In step S512, the facial expression generating means 2c outputs a pseudo command of 15:42 to the pointer driving unit 4, and in step S513, the main part 5fm of the eye lamp 5b, the mouth lamp 5d, the annular lamp 5e, and the needle lamp 5f. Is turned on in yellow, and the rod-shaped lamp 5a, the peripheral lamp 5g, the smiling lamp 5c, and the sub-part 5fs of the needle lamp 5f are turned off.

ステップS514において、報知手段2dはアクチュエータ7を制御して回転中心Cを運転席又は助手席に指向させ、ステップS515において、スピーカ6により報知の内容を発話させ、同時に、口用灯具5dを点滅させる。   In step S514, the notification means 2d controls the actuator 7 so that the center of rotation C is directed to the driver seat or the passenger seat, and in step S515, the content of the notification is uttered by the speaker 6 and at the same time the mouth lamp 5d is blinked. .

ステップS509において、報知手段2dはアクチュエータ7を制御して回転中心Cを運転席に指向させ、ステップS510において、スピーカ6により報知の内容を発話させ、口用灯具5dを点滅させる。   In step S509, the notification unit 2d controls the actuator 7 to direct the center of rotation C toward the driver's seat, and in step S510, the speaker 6 speaks the content of the notification and blinks the mouth lamp 5d.

ステップS516において、表情生成手段2cは、待機に対応させた普通表情である図4右から二つ目の表情を選択する。ステップS517において、表情生成手段2cは0時00分の疑似指令を指針駆動部4に出力し、ステップS518において、目用灯具5b、口用灯具5d、環状灯具5eを緑色点灯し、棒状灯具5a、笑顔用灯具5c、周上灯具5g、針灯具5fの主部部分5fm及び副部分5fsは消灯する。   In step S516, the facial expression generation means 2c selects the second facial expression from the right in FIG. 4, which is an ordinary facial expression corresponding to standby. In step S517, the facial expression generating means 2c outputs a 0:00 pseudo instruction to the pointer driving unit 4, and in step S518, the eye lamp 5b, the mouth lamp 5d, and the annular lamp 5e are lit in green, and the bar lamp 5a. The main part 5fm and the sub part 5fs of the smiling lamp 5c, the peripheral lamp 5g, and the needle lamp 5f are turned off.

ステップS519において、報知手段2dはアクチュエータ7を制御して回転中心Cを運転席に指向させ、ステップS520において、スピーカ6により報知の内容を発話させ、同時に、口用灯具5dを点滅させる。   In step S519, the notification means 2d controls the actuator 7 to direct the rotation center C toward the driver's seat, and in step S520, the speaker 6 speaks the content of the notification, and at the same time blinks the mouth lamp 5d.

ステップS521において、表情生成手段2cは、歓迎、慰労、解消、受付に対応させた笑顔表情である図4最右の表情を選択する。ステップS522において、表情生成手段2cは0時00分の疑似指令を指針駆動部4に出力し、ステップS523において、笑顔用灯具5c、口用灯具5d、環状灯具5eを青色点灯し、棒状灯具5a、目用灯具5b、周上灯具5g、針灯具5fの主部分5fm及び副部分5fsは消灯する。   In step S521, the facial expression generation means 2c selects the rightmost facial expression in FIG. 4, which is a smiling facial expression corresponding to welcome, comfort, cancellation, and reception. In step S522, the facial expression generating means 2c outputs a 0:00 pseudo instruction to the pointer driving unit 4, and in step S523, the smiling lamp 5c, the mouth lamp 5d, and the annular lamp 5e are lit in blue, and the bar lamp 5a. The main lamp 5fm and the sub lamp 5fs of the eye lamp 5b, the peripheral lamp 5g, and the needle lamp 5f are turned off.

ステップS524において、報知手段2dはアクチュエータ7を制御して回転中心Cを運転席に指向させ、ステップS525において、スピーカ6により報知の内容を発話させ、同時に、口用灯具5dを点滅させる。   In step S524, the notification unit 2d controls the actuator 7 to direct the center of rotation C toward the driver's seat. In step S525, the speaker 6 speaks the content of the notification and simultaneously blinks the mouth lamp 5d.

上述した図6及び図7に示したフローチャートを実行することにより、本発明に係る報知方法の、時刻表示ステップ、表情生成ステップ、報知ステップのそれぞれが実行される。   By executing the flowcharts shown in FIGS. 6 and 7 described above, each of the time display step, the expression generation step, and the notification step of the notification method according to the present invention is executed.

上述した本実施例1によれば、以下のような作用効果を得ることができる。すなわち、上述した報知の内容の種別に応じて、指針3を用いて生成した表情と、種別に対応させたカラーリングの発光とを伴わせて、報知の内容をユーザに伝達することができるので、ユーザにより親しみを持たせ遊び心を持ったコミュニケーションロボット1の有するユーザフレンドリー性を実感してもらうことができる。   According to the first embodiment described above, the following operational effects can be obtained. That is, according to the type of the notification content described above, the notification content can be transmitted to the user with the facial expression generated using the pointer 3 and the coloring emission corresponding to the type. The user-friendliness of the communication robot 1 that is more friendly and playful to the user can be realized.

また、生成した表情は種別に対応させたものであり、かつ、報知の内容の種別をユーザが連想しやすい表情としているため、ユーザが報知の内容について具体的内容を知るまえに大まかな種別を容易に感知することができ、より詳細な内容を例えばメータパネル上の具体的なインジケータにより認知することを促すことができる。   In addition, the generated facial expression is associated with the type, and the type of notification content is a facial expression that is easy for the user to associate. Therefore, before the user knows the specific content of the notification content, a rough type is selected. It can be easily sensed and more detailed content can be urged to be recognized by a specific indicator on the meter panel, for example.

また、種別に対応させた表情のうち、悲哀表情と心配表情、普通表情についてはほぼ指針3の動作のみで表現することができるので、上述した親しみ感と遊び心を持たせるに当たって、通常の時計の制御上の変更のみに基づいて格別のハード上の変更を伴うことなく、報知の内容の種別に対応させた表情を生成することができる。   Also, among the facial expressions corresponding to the types, sadness expressions, worried expressions, and normal expressions can be expressed only with the movement of the pointer 3, so that the familiarity and playfulness described above can be achieved. A facial expression corresponding to the type of the content of the notification can be generated without any special hardware change based only on the control change.

すなわち、高度な表情生成機能を有したロボットではなくある程度簡易なハード構成でありかつ時計という周知かつ必須のものを利用して、表情生成を行い、表情生成に基づく報知を行うことができるので、コストの増大を抑制した上でユーザフレンドリー性を高めることができる。   In other words, it is not a robot with an advanced facial expression generation function, it is a somewhat simple hardware configuration and a well-known and essential watch is used to generate facial expressions, so that notification based on facial expression generation can be performed, User friendliness can be improved while suppressing an increase in cost.

さらに、普通表情と笑顔表情の区別についても、簡易なLEDを用いて笑顔用灯具5cを予め備えることにより容易に生成することができるので、より簡易なハード上の変更に基づいてより表情のバリエーションを増やすことができる。   Further, the distinction between the normal expression and the smile expression can be easily generated by providing the smile lamp 5c in advance using a simple LED, and therefore more variations in expression based on simpler hardware changes. Can be increased.

加えて、本実施例1のコミュニケーションロボット1は、報知の必要がない場合においては通常の時計として機能するものであり、従来技術のように報知の必要がない場合において存在意義がないことに起因してユーザに冗長感を与えることがなく、外観的に通常の時計の形態を保持している。   In addition, the communication robot 1 of the first embodiment functions as a normal watch when there is no need for notification, and is not meaningful when there is no need for notification as in the prior art. Thus, the user does not give the user a feeling of redundancy, and the appearance of a normal watch is maintained.

このことから、本実施例1のコミュニケーションロボット1は、ユーザに違和感を与えることがないと言う有利な作用効果を得ることができる。また、アナログ式の指針式の時計を利用して表情を生成することができるので、既存の親しみやすい時計の形態を意図的に残して、ユーザに親近感を与え、装置そのものの人間味を高めることができる。   From this, the communication robot 1 of the present Example 1 can obtain the advantageous effect that it does not give the user a sense of incongruity. In addition, since the facial expression can be generated using an analog pointer-type watch, the existing friendly watch form is intentionally left, giving the user a sense of familiarity and enhancing the humanity of the device itself Can do.

なお、表情に対応させて選択される各灯具の発光する色についても、上述した組合せはあくまで例示であるが、一般的に赤色は警告、黄色は注意、緑又は青はそれ以外を指すものであるため、本実施例においてはこれに準拠したものとしている。   Note that the above-mentioned combinations are only examples for the colors emitted by the respective lamps selected according to the facial expression, but generally red indicates a warning, yellow indicates a caution, and green or blue indicates the other. For this reason, this embodiment is based on this.

上述した実施例1において述べた報知の内容の種別はあくまで例示的なものであり、例えば、ユーザ以外の接近等に伴う警戒や、スマートエントリーキーを所持したユーザが乗り込んだ直後におけるシステムチェック結果が良好である場合の報知、ユーザの選択に基づいての燃費の良否の報知、経路探索後の経路案内をも含めることができる。以下それについての実施例2について述べる。   The types of notification contents described in the first embodiment described above are merely exemplary. For example, alerts associated with approaches other than the user, or system check results immediately after a user having a smart entry key boarded Notification when it is good, notification of fuel efficiency based on the user's selection, and route guidance after route search can also be included. The second embodiment will be described below.

図8は本実施例2のコミュニケーションロボット1の構成を示す模式ブロック図である。図9は本実施例2のコミュニケーションロボット1における警戒表情の例示を示す模式図である。図10は本実施例2のコミュニケーションロボット1における警戒表情の例示を示す模式図である。   FIG. 8 is a schematic block diagram illustrating the configuration of the communication robot 1 according to the second embodiment. FIG. 9 is a schematic diagram illustrating an example of a warning expression in the communication robot 1 of the second embodiment. FIG. 10 is a schematic diagram illustrating an example of a warning expression in the communication robot 1 of the second embodiment.

図11は本実施例2のコミュニケーションロボット1のエコモードにおける表示形態の例示を示す模式図である。図12は本実施例2のコミュニケーションロボット1の経路案内モードにおける表示形態の例示を示す模式図である。   FIG. 11 is a schematic diagram illustrating an example of a display form in the eco mode of the communication robot 1 according to the second embodiment. FIG. 12 is a schematic diagram illustrating an example of a display form in the route guidance mode of the communication robot 1 according to the second embodiment.

本実施例2のコミュニケーションロボット1は、図8に示すように、図1に示したものに対してセレクトスイッチ9を加えたものである。構成上の相違点は、セレクトスイッチ9を含むことのみであるため、相違点のみを説明し重複する説明は割愛する。   As shown in FIG. 8, the communication robot 1 of the second embodiment is obtained by adding a select switch 9 to the one shown in FIG. Since the only difference in configuration is that the select switch 9 is included, only the difference will be described and redundant description will be omitted.

セレクトスイッチ9は、エコモード、経路探索モードを選択可能とするスイッチであって選択手段を構成し、これも筐体の側面又は背面に設けられる。   The select switch 9 is a switch that enables selection of the eco mode and the route search mode, and constitutes a selection means, which is also provided on the side surface or the back surface of the housing.

本実施例2のコミュニケーションロボットECU2の報知手段2dは、主にボディECU13から取得されるスマートエントリーキーを所持したユーザの接近及び乗車又は降車及び離隔を含む情報に基づいて、車両がキーロック状態であるか否かを判定する。   The notification means 2d of the communication robot ECU 2 of the second embodiment is based on information including the approach of the user who possesses the smart entry key acquired from the body ECU 13 and the boarding or getting off and leaving the vehicle. It is determined whether or not there is.

報知手段2dは、キーロック状態である場合にはセキュリティモードに移行して、表情生成手段2cは、報知の内容を警戒に設定して警戒表情を生成し、キーアンロック状態に移行した場合には、セキュリティモードを終了する。   When the notification means 2d is in the key lock state, it shifts to the security mode, and the facial expression generation means 2c generates the warning expression by setting the content of the notification to be warning, and when it shifts to the key unlock state. Exits the security mode.

図9は警戒表情の例示を示す。表情生成手段2cは時刻表示手段2bに計時手段2aが計時した時刻に対応する信号を指針駆動部4に対して出力することを停止させ、指針駆動部4に対して例えば0時00分の疑似時刻の疑似信号を出力し、分針3bと時針3aの周方向の位置を一致させて重ねるとともに上方に指向するように移動させ、ともに目立たない位置に収納する。   FIG. 9 shows an example of a warning expression. The facial expression generating means 2c stops the time display means 2b from outputting a signal corresponding to the time counted by the time measuring means 2a to the pointer driving section 4, and the pseudo expression driving section 4 is simulated, for example, at 0:00. A pseudo signal of the time is output, and the circumferential positions of the minute hand 3b and the hour hand 3a are overlapped and moved so as to be directed upward, and both are stored in an inconspicuous position.

さらに、表情生成手段2cは、各灯具5のうち、棒状灯具5a、口用灯具5d、環状灯具5eのみを赤色で点滅する。これととともに、報知手段2dは、アクチュエータ7を制御して中心軸線Cを図10に示すように車両前方に指向させる。   Furthermore, the facial expression generating means 2c blinks only the rod-shaped lamp 5a, the mouth lamp 5d, and the annular lamp 5e among the lamps 5 in red. At the same time, the notification means 2d controls the actuator 7 to direct the central axis C toward the front of the vehicle as shown in FIG.

セレクトスイッチ9でエコモードが選択された場合には、報知手段2dは、指針3による時計表示を継続しながら、環状灯具5eの発光する色及び針灯具5fの発光する色を燃費の良否に対応させて変更する。例えば、図11に示すように、悪の場合には黄色、普通の場合には青色、良の場合には緑色とする。なお、エコモードにおいては緑色が最もエコを意識する色とし青色よりも良い状態に設定している。   When the eco mode is selected by the select switch 9, the notification means 2d responds to the fuel efficiency of the color emitted by the annular lamp 5e and the color emitted by the needle lamp 5f while continuing the clock display by the hands 3. Let me change it. For example, as shown in FIG. 11, it is yellow when it is bad, blue when it is normal, and green when it is good. In the eco mode, green is the most eco-conscious color and is set to a better state than blue.

セレクトスイッチ9で経路案内モードが選択された場合には、報知手段2dは、表情生成手段2cにより実施例1で述べた図4中右から二つ目の普通表情を生成するとともに、スピーカ6を用いて目的地を入力させる内容を発話した後、ユーザがマイク8により目的地を音声入力すると、図4中最右の笑顔表示を行い、音声入力内容をカーナビゲーションECU14に通知する。   When the route guidance mode is selected by the select switch 9, the notifying means 2d generates the second normal facial expression from the right in FIG. When the user utters the content for inputting the destination using the microphone 8 and then the user inputs the destination by voice, the rightmost smile display in FIG. 4 is displayed and the voice input content is notified to the car navigation ECU 14.

カーナビゲーションECU14は、三角測量と自律航法に基づいて車両の位置を演算した後、目的地までの経路を周知の探索方法により探索し、探索された経路と車両の現在の位置をコミュニケーションロボットECU2に通知する。   After calculating the position of the vehicle based on triangulation and autonomous navigation, the car navigation ECU 14 searches for a route to the destination by a well-known search method, and the communication robot ECU 2 determines the searched route and the current position of the vehicle. Notice.

ユーザが車両を走行させて次に例えば右折する交差点が前方に位置する場合に、報知手段2dは、交差点よりも前方における車両の方向を第一方向、交差点よりも手前に置ける車両の方向を第二方向として設定する。   When an intersection where a user runs the vehicle and then turns right, for example, is located forward, the notification means 2d sets the direction of the vehicle in front of the intersection in the first direction and the direction of the vehicle in front of the intersection. Set as two-way.

ここで報知手段2dは、図12に示すように、第一方向に分針3bを一致させ、第二方向に時針3aを一致させるように指針駆動部4に対して適宜の疑似信号を出力して制御し、第一方向に位置する周上灯具5gを白色点灯させ、第二方向に一致する周上灯具5g又は口用灯具5dを白色点灯させて、所謂TbyT表示によりユーザを案内する。   Here, as shown in FIG. 12, the notification means 2d outputs an appropriate pseudo signal to the pointer drive unit 4 so that the minute hand 3b is aligned in the first direction and the hour hand 3a is aligned in the second direction. The peripheral lamp 5g positioned in the first direction is lit in white, and the peripheral lamp 5g or the mouth lamp 5d matching the second direction is lit in white, and the user is guided by the so-called TbyT display.

以下に、本実施例2のコミュニケーションロボットECU2の制御内容について以下のフローチャートを用いて説明する。図13は、本実施例2のコミュニケーションロボットECU2の制御内容を示すフローチャートである。図14は、図13のステップS02の具体的処理内容を詳細に示すサブルーチンである。   Hereinafter, the control contents of the communication robot ECU 2 according to the second embodiment will be described with reference to the following flowchart. FIG. 13 is a flowchart showing the control contents of the communication robot ECU 2 of the second embodiment. FIG. 14 is a subroutine showing in detail the specific processing contents of step S02 of FIG.

図13に示すステップS01において、報知手段2dは、CAN上から取得された情報に基づいて車両がキーロック状態であるか否かを判定し、肯定であれば、ステップS02にすすみ、否定であればステップS1にすすむ。   In step S01 shown in FIG. 13, the notification means 2d determines whether or not the vehicle is in the key lock state based on the information acquired from the CAN. If the determination is affirmative, the process proceeds to step S02, and the determination is negative. If so, the process proceeds to step S1.

ステップS02において、報知手段2dは報知の種類を警戒に設定し、表情生成手段2cにより図9及び図10に示す警戒表情を生成する。ステップS03において、報知手段2dは、車両がキーアンロック状態に移行したか否かを判定し、肯定であればステップS1にすすみ、否定であればステップS02の手前に戻る。   In step S02, the notification unit 2d sets the type of notification to warning, and the facial expression generation unit 2c generates the warning facial expression shown in FIGS. In step S03, the notification unit 2d determines whether or not the vehicle has shifted to the key unlock state. If the determination is affirmative, the process proceeds to step S1, and if the determination is negative, the notification means 2d returns to the position before step S02.

より詳細には、図14のステップS021に示すように、セキュリティモードへの移行とともに報知手段2dは警戒表情を選択し、ステップS022において、表情生成手段2cは0時00分の疑似指令を出力し、ステップS023に示すように、棒状灯具5a、口用灯具5d、環状灯具5eを赤色点滅させ、それ以外の各灯具5を消灯し、ステップS024においてアクチュエータ7の制御に基づいて回転中心Cを車両前方に指向させる。   More specifically, as shown in step S021 of FIG. 14, the notification unit 2d selects a warning expression as the mode is shifted to the security mode, and in step S022, the expression generation unit 2c outputs a pseudo command of 0:00. As shown in step S023, the rod-shaped lamp 5a, the mouth lamp 5d, and the annular lamp 5e are blinked in red, and the other lamps 5 are turned off. In step S024, the rotation center C is controlled based on the control of the actuator 7. Point forward.

図13のステップS1において、コミュニケーションロボットECU2の計時手段2aは、上述した周知の手法により時刻を計時する。つづいて、ステップS2において、コミュニケーションロボットECU2の報知手段2dは、CAN上から車両情報を含む各情報を取得する。ステップS7において報知手段2dは、セレクトスイッチ9により経路案内モードが選択されているか否かを判定し、肯定であればステップS11にすすみ、否定であればステップS8にすすむ。   In step S1 of FIG. 13, the time measuring means 2a of the communication robot ECU 2 measures the time by the known method described above. Subsequently, in step S2, the notification unit 2d of the communication robot ECU 2 acquires each piece of information including vehicle information from the CAN. In step S7, the notification unit 2d determines whether or not the route guidance mode is selected by the select switch 9, and proceeds to step S11 if affirmative, or proceeds to step S8 if negative.

ステップS8において報知手段2dは、セレクトスイッチ9によりエコモードが選択されているか否かを判定し、肯定であればステップS19にすすみ、否定であればステップS3にすすむ。   In step S8, the notification unit 2d determines whether or not the eco mode is selected by the select switch 9. If the determination is affirmative, the process proceeds to step S19, and if the determination is negative, the process proceeds to step S3.

ステップS3において報知手段2dは、各情報が含むコード情報から各情報が上述した報知必要情報に該当し報知が必要であるか否かを判定し、肯定であれ場合にはステップS4にすすみ、否定である場合にはステップS6にすすむ。   In step S3, the notification unit 2d determines whether each information corresponds to the above-described notification necessary information and notification is necessary from the code information included in each information, and proceeds to step S4 if the determination is affirmative. If so, the process proceeds to step S6.

ステップS4において、報知手段2dは、報知内容の種別が警告、注意、待機、歓迎、慰労、解消、受付のいずれであるかを判定して、ステップS5において種別に対応させて表情を選択して、表情生成手段2cが指針3により表情を生成して、これに基づいて報知を行う。なお、ステップS5の詳細は実施例1の図7に示したものと同様である。   In step S4, the notification means 2d determines whether the type of notification content is warning, attention, standby, welcome, comfort, cancellation, or reception, and selects a facial expression corresponding to the type in step S5. The facial expression generation means 2c generates an facial expression with the pointer 3, and performs notification based on the facial expression. The details of step S5 are the same as those shown in FIG.

ステップS9において、時刻表示手段2bは指針3により時刻表示を行い、ステップS10において、燃費の良否に対応させて環状灯具5eの発光する色を選択して燃費の良否を表示する。   In step S9, the time display means 2b displays the time by the hands 3, and in step S10, the color emitted by the annular lamp 5e is selected in accordance with the fuel efficiency, and the fuel efficiency is displayed.

ステップS11において、報知手段2dはカーナビゲーションECU14から取得した探索された経路と車両の現在の位置に基づいて第一方向及び第二方向を設定し、分針3bを第一方向へ時針3aを第二方向へ指向させて、対応する周上灯具5g又は口用灯具5dを点灯させる。   In step S11, the notification unit 2d sets the first direction and the second direction based on the searched route acquired from the car navigation ECU 14 and the current position of the vehicle, and sets the minute hand 3b to the first direction and the second hand 3a to the second direction. The corresponding peripheral lamp 5g or mouth lamp 5d is turned on in the direction.

本実施例2のコミュニケーションロボット1によれば、実施例1に述べたことに加えて、さらに以下のような作用効果を得ることができる。つまり、上述したセキュリティモードにおいてコミュニケーションロボット1に警戒表情を具備させて、警戒機能及び番犬機能を具備させることができる。従って、ユーザ以外の接近をより効果的に防止することができる。   According to the communication robot 1 of the second embodiment, the following operational effects can be obtained in addition to those described in the first embodiment. That is, the communication robot 1 can be provided with a warning expression in the security mode described above, and can be provided with a warning function and a watchdog function. Accordingly, it is possible to more effectively prevent an approach other than the user from approaching.

ここで、警戒機能及び番犬機能とは、ユーザ以外の人間が車両に接近した場合に、当該人間に警戒感を示し、過度の接近を予め防止し、盗難や器物損壊の被害を予め回避するものである。   Here, the warning function and the watchdog function are those that show a sense of vigilance to a person other than the user when approaching the vehicle, prevent excessive access in advance, and prevent damages such as theft and damage to the equipment in advance. It is.

なお、上述した実施例2においては、警戒表情を生成するに当たって棒状灯具5aを用いたが、もちろん指針3を用いることができる。以下にそれについての実施例3について述べる。   In the second embodiment described above, the bar lamp 5a is used for generating the warning expression, but the pointer 3 can be used as a matter of course. The third embodiment will be described below.

本実施例3のハード構成は実施例2の図8に示したものと同様であり、相違点はフローチャートの一ステップのみであるため、重複する説明については割愛する。   The hardware configuration of the third embodiment is the same as that shown in FIG. 8 of the second embodiment, and the difference is only one step in the flowchart. Therefore, redundant description is omitted.

図13のステップS02について、図14に換えて図15のサブルーチンを用いる。すなわち、図15に示すように、ステップS0211において報知手段2dが警戒表情を選択した後、ステップS0212において、表情生成手段2cは指針駆動部4に対して10時09分の疑似時刻の疑似指令を出力する。   In step S02 of FIG. 13, the subroutine of FIG. 15 is used instead of FIG. That is, as shown in FIG. 15, after the notification means 2d selects a warning expression in step S0211, in step S0212 the expression generation means 2c gives a pseudo command of a pseudo time of 10:09 to the pointer drive unit 4. Output.

さらに、ステップS213において、針灯具5fの主部分5fm、口用灯具5d、環状灯具5eのみを赤色点滅し、それ以外の灯具は消灯し、ステップS0214において、回転中心Cを車両前方に指向させる。   Furthermore, in step S213, only the main portion 5fm of the needle lamp 5f, the mouth lamp 5d, and the annular lamp 5e flash red, and the other lamps are turned off. In step S0214, the rotation center C is directed forward of the vehicle.

これとともに、報知手段2dは、ユーザ以外の接近を例えばボディECU13からのドアノブ操作検知信号により検知した場合に指針駆動部4に出力する疑似指令を、例えば11時05分等である疑似時刻のより時針3aと分針3bの上側の角度が小さく鋭角をなす疑似指令に変更する。   At the same time, the notifying means 2d outputs a pseudo command to be output to the pointer driving unit 4 when an approach other than the user is detected by, for example, a door knob operation detection signal from the body ECU 13, based on a pseudo time such as 11:05. The pseudo command is changed so that the angle above the hour hand 3a and the minute hand 3b is small and forms an acute angle.

本実施例3によれば、セキュリティモード移行後の番犬機能をさらに高めることができる。つまり、時針3aと分針3bとのなす角度を自由に設定できるため、セキュリティモードに移行した後、さらにユーザ以外が接近してドアノブに触れた場合には、時針3aと分針3bとのなす上側の角度を更に鋭角にして警戒の度合を高めることもできる。   According to the third embodiment, the watchdog function after shifting to the security mode can be further enhanced. In other words, since the angle formed by the hour hand 3a and the minute hand 3b can be freely set, after the transition to the security mode, when a person other than the user approaches and touches the door knob, the upper hand formed by the hour hand 3a and the minute hand 3b The angle can be further sharpened to increase the degree of vigilance.

上述した実施例3においては、エコモードにおいて燃費の良否を環状灯具5eの発光する色により表現したが、コミュニケーションロボットECU2の表情生成手段2cにより生成した表情により表現することももちろんできる。以下それについての実施例4について述べる。   In the third embodiment described above, whether the fuel efficiency is good or not in the eco mode is expressed by the color emitted by the annular lamp 5e. However, it can be expressed by the expression generated by the expression generation means 2c of the communication robot ECU 2. Hereinafter, Example 4 will be described.

本実施例3のハード構成も実施例1の図8に示したものと同様であり、相違点はフローチャートのエコモードにおけるステップのみであるため、重複する説明については割愛する。図16は、本実施例4のコミュニケーションロボット1の制御内容を示すフローチャートである。   The hardware configuration of the third embodiment is the same as that shown in FIG. 8 of the first embodiment, and the only difference is the step in the eco mode of the flowchart. FIG. 16 is a flowchart illustrating the control contents of the communication robot 1 according to the fourth embodiment.

図16は、図13に示したものにおいて、ステップS8の肯定後のステップS9を削除し、ステップS10をステップS10−1に置換したものである。すなわちステップS10−1に示すように、表情生成手段2cは燃費の良否に対応させて指針3に基づいて図17に示すように表情を選択する。ここで、発光する色については、普通を青色とし、燃費良を緑色としている。   FIG. 16 is obtained by deleting step S9 after the affirmation of step S8 and replacing step S10 with step S10-1 in the configuration shown in FIG. That is, as shown in step S10-1, the facial expression generating means 2c selects an facial expression as shown in FIG. Here, as for the color to emit light, the normal color is blue and the fuel efficiency is green.

この場合のステップS10−1における具体定処理内容は、実施例1の図7に示したフローチャートにおいて、種別が警告である場合を除き、注意を燃費が悪に置き換え、待機を燃費が普通に置き換え、歓迎、慰労、解消、受付を燃費が良と置き換えたものと同様である。すなわち、図18のステップS1001からステップS1014に示すようなサブルーチンを用いる。   In this case, the specific processing contents in step S10-1 are as follows. In the flowchart shown in FIG. 7 of the first embodiment, the attention is replaced with bad fuel consumption and the standby is replaced with normal fuel consumption unless the type is warning. , Welcome, comfort, cancellation, reception is similar to replacing fuel economy with good. That is, a subroutine as shown in steps S1001 to S1014 in FIG. 18 is used.

本実施例4においては、実施例2に較べて、エコモード内における燃費の良否をよりユーザにわかりやすく伝えることができる。なお、本実施例4においては、エコモードにおいて時計機能を使うことはできないため、実施例4と実施例2は上述したセレクトスイッチ9により適宜選択可能なものとする。   In the fourth embodiment, compared with the second embodiment, the user can be more easily informed of the quality of fuel consumption in the eco mode. In the fourth embodiment, since the clock function cannot be used in the eco mode, the fourth and second embodiments can be appropriately selected by the above-described select switch 9.

上述した実施例1〜4においては、制御をコミュニケーションロボットECU2が行うものとし、コミュニケーションロボットECU2を時計の盤面Pを支持する筐体内部に設ける構成を示したが、制御機能については例えばメータECUに負担させ、筐体内部には制御機能を具備しない形態とすることもできる。すなわち、図19に示すように、制御主体をメータECU2とすることもできる。   In the above-described first to fourth embodiments, the communication robot ECU 2 performs control, and the configuration in which the communication robot ECU 2 is provided inside the casing that supports the clock face P of the watch is shown. It is also possible to use a configuration in which the control function is not provided inside the housing. That is, as shown in FIG. 19, the control body can be the meter ECU 2.

図19に示す実施例5においては、実施例1において述べた図示しないコネクタは、図19中白丸でしめす、メータECU2と指針駆動部4、各灯具5、スピーカ6、マイク8、アクチュエータ7、セレクトスイッチ9との接続線を端子とするものに置換される。この形態においては、筐体をより小さくして、コミュニケーションロボット1のインストルメントパネル外部に位置する部分を小型化することができる。   In the fifth embodiment shown in FIG. 19, the connector (not shown) described in the first embodiment is indicated by a white circle in FIG. 19, the meter ECU 2 and the pointer drive unit 4, each lamp 5, the speaker 6, the microphone 8, the actuator 7, and the select. It is replaced with one having a connection line with the switch 9 as a terminal. In this embodiment, the housing can be made smaller, and the portion of the communication robot 1 located outside the instrument panel can be downsized.

上述した実施例1〜5においては、指針3を駆動する方式を一のモータに対して時針3aと分針3bが連動して駆動される所謂従動式のものとしたが、図20に示すように、時針3aと分針3bを二のモータにより独立して駆動する独立駆動式とすることもできる。   In the first to fifth embodiments described above, the method for driving the pointer 3 is a so-called driven type in which the hour hand 3a and the minute hand 3b are driven in conjunction with one motor, but as shown in FIG. The hour hand 3a and the minute hand 3b may be independently driven so as to be independently driven by two motors.

本実施例6によれば、時刻表示手段2bによる時刻表示と、表情生成手段2cによる表情の生成との間に発生する、時針3aと分針3bの移動に伴う遷移時間をより短くすることができ、制御の応答性を高めることができる。   According to the sixth embodiment, the transition time accompanying the movement of the hour hand 3a and the minute hand 3b, which occurs between the time display by the time display unit 2b and the generation of the facial expression by the facial expression generation unit 2c, can be further shortened. , Control responsiveness can be enhanced.

また、実施例3に示したように、時針3aと分針3bにより警戒表情を生成した場合であって、ユーザ以外の人間が接近してドアノブに触れたような場合に、警戒表情を構成する時針3aと分針3bのなす上側の角度を更に鋭角にする場合において、従動式のものであれば変化前と変化後との間の遷移領域においては、時針3aと分針3bを継続的に左右対称とすることが困難である。   Further, as shown in the third embodiment, when a warning expression is generated by the hour hand 3a and the minute hand 3b, and a person other than the user approaches and touches the door knob, the hour hand constituting the warning expression In the case where the upper angle formed by 3a and the minute hand 3b is further acute, if it is a driven type, the hour hand 3a and the minute hand 3b are continuously symmetrical in the transition region between before and after the change. Difficult to do.

ところが、本実施例6の独立駆動式のものであれば、時針3aに対しては疑似時の疑似信号を、分針3bに対しては疑似分の疑似信号をそれぞれ出力することで、左右対称を保ちながら、連続的に時針3aと分針3bの角度を変更して、あたかも人間の眉毛が連続的に動いているように見える動作形態を模擬的に実現することができる。   However, in the case of the independent drive type of the sixth embodiment, a pseudo-time pseudo signal is output to the hour hand 3a, and a pseudo-minute pseudo signal is output to the minute hand 3b, thereby achieving left-right symmetry. While maintaining, the angle of the hour hand 3a and the minute hand 3b can be continuously changed, and an operation mode that looks as if the human eyebrows are continuously moving can be realized in a simulated manner.

さらに、実施例1に示した悲哀表情と、心配表情相互間におけるような時針3aと分針3bのある程度微妙な相互位置関係についても、より設定を容易なものとすることができる。   Furthermore, it is possible to further easily set the mutual positional relationship between the hour hand 3a and the minute hand 3b, such as between the sad expression and the worry expression shown in the first embodiment, to some extent.

また、上述した実施例1〜6においては、機械式の時計を用いたが、図21に示すように、これを画面表示上の時計に置き換え、指針3及び各灯具5は例えば液晶式やプラズマディスプレイ式のディスプレイ20に表示される画像に基づくものとし、指針駆動部2eをコミュニケーションロボットECU2が含む構成としても良い。   Moreover, in Examples 1-6 mentioned above, although the mechanical type | mold timepiece was used, as shown in FIG. 21, this is replaced with the timepiece on a screen display, and the pointer | guide 3 and each lamp | ramp 5 are liquid crystal type or plasma, for example. The communication robot ECU 2 may include the pointer driving unit 2e based on an image displayed on the display-type display 20.

本実施例7によっても、実施例6と同様に、時刻表示手段2bによる時刻表示と、表情生成手段2cによる表情の生成との間に発生する、時針3aと分針3bの移動に伴う遷移時間をより短くすることができ、装置全体の簡略化を図ることもできる。   Also in the seventh embodiment, similarly to the sixth embodiment, the transition time accompanying the movement of the hour hand 3a and the minute hand 3b, which occurs between the time display by the time display means 2b and the generation of the facial expression by the facial expression generation means 2c, is obtained. It can be made shorter, and the whole apparatus can be simplified.

また、実施例3に示したように、時針3aと分針3bにより警戒表情を生成した場合であって、ユーザ以外の人間が接近してドアノブに触れたような場合に、警戒表情を構成する時針3aと分針3bのなす上側の角度を更に鋭角にする場合において、本実施例7のディスプレイ式のものであれば、時針3a及び分針3bを画像処理により独立して動作させ左右対称を保ちながら、連続的に時針3aと分針3bの角度を変更して、これも、実施例6と同様に、あたかも人間も眉毛が連続的に動く形態を模擬することができる。   Further, as shown in the third embodiment, when a warning expression is generated by the hour hand 3a and the minute hand 3b, and a person other than the user approaches and touches the door knob, the hour hand constituting the warning expression In the case where the upper angle formed by 3a and the minute hand 3b is made to be an acute angle, if it is of the display type of the seventh embodiment, the hour hand 3a and the minute hand 3b are independently operated by image processing, and left-right symmetry is maintained. The angle of the hour hand 3a and the minute hand 3b is continuously changed, and this can also simulate the manner in which the human eyebrows move continuously as in the sixth embodiment.

以上本発明の好ましい実施例について詳細に説明したが、本発明は上述した実施例に制限されることなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形および置換を加えることができる。   Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and substitutions are made to the above-described embodiments without departing from the scope of the present invention. be able to.

本発明は、報知装置、報知方法、プログラム及び媒体に関するものであり、多様化した市場のニーズに対応させてユーザに冗長感を与える不都合を招くことなく高いユーザフレンドリー性を実現し提供することができる。このため、本発明は、乗用車、トラック、バス等の様々な車両はもちろん産業用機器や建設用機器、設備等広範囲な機器及び設備に適用して有益なものである。   The present invention relates to a notification device, a notification method, a program, and a medium, and realizes and provides high user friendliness without incurring inconvenience of giving users a sense of redundancy in response to diversified market needs. it can. Therefore, the present invention is useful when applied to a wide range of equipment and facilities such as industrial equipment, construction equipment, and facilities as well as various vehicles such as passenger cars, trucks, and buses.

1 コミュニケーションロボット
2 コミュニケーションロボットECU
2a 計時手段
2b 時刻表示手段
2c 表情生成手段
2d 報知手段
(2e 指針駆動部)
3 指針
3a 時針
3b 分針
4 指針駆動部
5 各灯具
5a 棒状灯具
5b 目用灯具
5c 笑顔用灯具
5d 口用灯具
5e 環状灯具
5f 針灯具
5fm 主部分
5fs 副部分
5g 周上灯具
6 スピーカ(発話手段)
7 アクチュエータ(駆動機構)
8 マイク(音声入力手段)
9 セレクトスイッチ(選択手段)
10 エンジンECU
11 ブレーキECU
12 EPSECU
13 ボディECU
14 ナビゲーションECU
20 ディスプレイ
1 Communication robot 2 Communication robot ECU
2a Timekeeping means 2b Time display means 2c Facial expression generation means 2d Notification means (2e Pointer drive unit)
3 Pointer 3a Hour hand 3b Minute hand 4 Pointer drive unit 5 Each lamp 5a Bar lamp 5b Eye lamp 5c Smile lamp 5d Mouth lamp 5e Ring lamp 5f Needle lamp 5fm Main part 5fs Sub-part 5g Circumference lamp means 6
7 Actuator (drive mechanism)
8 Microphone (voice input means)
9 Select switch (selection means)
10 Engine ECU
11 Brake ECU
12 EPSECU
13 Body ECU
14 Navigation ECU
20 display

Claims (29)

時刻を計時する計時手段と、指針により前記時刻を表示する時刻表示手段と、前記指針を表情構成要素の少なくとも一部として表情を生成する表情生成手段と、を含み、報知が必要な場合に、前記表情生成手段による前記報知の内容の種別に対応した前記表情の生成に基づいて前記報知を行う報知手段を含むことを特徴とする報知装置。   In the case where notification is required, including time measuring means for measuring time, time display means for displaying the time by a pointer, and facial expression generating means for generating a facial expression using the pointer as at least a part of a facial expression component, An informing device comprising: informing means for informing based on generation of the facial expression corresponding to a type of content of the informing by the expression generating means. 前記表情生成手段は、前記指針を構成する複数の針のうち任意の組合せの一方の針と他方の針との相対位置に基づいて前記表情を生成することを特徴とする請求項1に記載の報知装置。   2. The expression according to claim 1, wherein the expression generating unit generates the expression based on a relative position between one needle and the other needle in an arbitrary combination among the plurality of needles constituting the pointer. Notification device. 前記表情生成手段は、零時又は正午における前記指針の基準位置を上方として、前記一方の針を当該針の回転中心の右方と下方の間に位置させるとともに前記他方の針を前記回転中心の左方と下方の間に位置させることにより前記表情のうち否定的表情を生成することを特徴とする請求項2に記載の報知装置。   The expression generating means sets the reference position of the pointer at midnight or noon to the upper side, positions the one needle between the right side and the lower side of the rotation center of the needle, and sets the other needle to the rotation center. The informing device according to claim 2, wherein a negative facial expression is generated among the facial expressions by being positioned between the left side and the lower side. 前記否定的表情が心配表情と悲哀表情の双方を含み、前記表情生成手段は、前記心配表情を生成する場合の前記一方の針と前記他方の針のなす下方側の角度を、前記悲哀表情を生成する場合の前記一方の針と前記他方の針のなす下方側の角度よりも大きく設定することを特徴とする請求項3に記載の報知装置。   The negative facial expression includes both a worried facial expression and a sad facial expression, and the facial expression generating means determines the downward angle formed by the one needle and the other needle when generating the anxious facial expression as the sad facial expression. The notification device according to claim 3, wherein the notification device is set to be larger than an angle on a lower side formed by the one needle and the other needle in the case of generation. 前記回転中心から右方と上方の間又は左方と上方の間に延びる一対の棒状灯具を含み、前記表情生成手段は前記悲哀表情を生成する場合に、前記一対の棒状灯具をともに点灯させることを特徴とする請求項4に記載の報知装置。   A pair of rod-shaped lamps extending between the right and upper or the left and upper from the rotation center, and the facial expression generating means lights both the pair of rod-shaped lamps when generating the sad expression The notification device according to claim 4. 前記回転中心の右方と下方の間又は左方と下方の間に位置する一対の目用灯具を含み、前記表情生成手段は前記心配表情を生成する場合に、前記一対の目用灯具を点灯させることを特徴とする請求項5に記載の報知装置。   A pair of eye lamps positioned between the right side and the lower side of the rotation center or between the left side and the lower side, and the facial expression generating means turns on the pair of eye lamps when generating the concerned facial expression The notification device according to claim 5, wherein: 前記表情生成手段は、前記一方の針を前記回転中心の右方と上方の間に位置させるとともに前記他方の針を前記回転中心の左方と上方の間に位置させることにより前記表情のうち警戒表情を生成することを特徴とする請求項6に記載の報知装置。   The facial expression generation means is configured to place one of the needles between the right side and the upper side of the rotation center and to place the other needle between the left side and the upper side of the rotation center, so The notification apparatus according to claim 6, wherein a facial expression is generated. 前記表情生成手段は、警戒の程度が高くなることに応じて前記一方の針と前記他方の針の上方側の相対角度を小さくすることを特徴とする請求項7に記載の報知装置。   The notification apparatus according to claim 7, wherein the facial expression generation unit decreases a relative angle between the one needle and the other needle in accordance with an increase in the degree of vigilance. 前記表情生成手段は、前記一方の針と前記他方の針の周方向の位置を一致させることにより前記表情のうち警戒表情又は肯定的表情を生成することを特徴とする請求項6に記載の報知装置。   The notification according to claim 6, wherein the facial expression generation means generates a warning facial expression or a positive facial expression among the facial expressions by matching the circumferential positions of the one needle and the other needle. apparatus. 前記表情生成手段は、前記一対の棒状部材を点灯させることにより前記警戒表情を生成することを特徴とする請求項9に記載の報知装置。   The notification apparatus according to claim 9, wherein the facial expression generation unit generates the warning facial expression by lighting the pair of rod-shaped members. 前記表情生成手段は、前記一対の目用灯具を点灯させることにより前記肯定的表情のうち普通表情を生成することを特徴とする請求項9に記載の報知装置。   The notification apparatus according to claim 9, wherein the facial expression generation unit generates a normal facial expression among the positive facial expressions by turning on the pair of eye lamps. 前記回転中心の右方及び左方に位置する笑顔用灯具を含み、前記表情生成手段は、前記笑顔用灯具を点灯することにより前記肯定的表情のうち笑顔表情を生成することを特徴とする請求項9に記載の報知装置。   The facial expression generator includes a smile lamp positioned to the right and left of the center of rotation, and the facial expression generating means generates a smile facial expression among the positive facial expressions by turning on the smile lamp. Item 10. The notification device according to Item 9. 前記回転中心の下方に位置する口用灯具と、発話手段を含み、前記報知手段は当該発話手段により前記報知の内容を発話させるとともに、当該口用灯具を点滅させることを特徴とする請求項7〜12のいずれか一項に記載の報知装置。   8. The mouth lamp located below the rotation center and speech means, wherein the notification means speaks the content of the notification by the speech means and blinks the mouth lamp. The notification apparatus as described in any one of -12. 前記表情生成手段は、前記報知手段が前記発話手段により前記報知の内容を発話させない場合に、前記口用灯具を点灯させることを特徴とする請求項13に記載の報知装置。   14. The notification apparatus according to claim 13, wherein the facial expression generation means turns on the mouth lamp when the notification means does not cause the utterance means to utter the content of the notification. 前記一方の針及び前記他方の針の外周側に位置する環状灯具を含み、当該環状灯具は前記表情の種類に対応した色で発光可能であって、前記表情生成手段は当該環状灯具の発光する色を前記表情の種類に応じて選択することを特徴とする請求項14に記載の報知装置。   An annular lamp located on the outer peripheral side of the one needle and the other needle, the annular lamp can emit light in a color corresponding to the type of facial expression, and the facial expression generating means emits light from the annular lamp The notification device according to claim 14, wherein a color is selected according to a type of the facial expression. 前記一方の針及び前記他方の針が針灯具を含み、当該針灯具と前記一対の棒状灯具と前記一対の目用灯具と前記一対の笑顔用灯具と前記口用灯具のいずれもが前記表情の種類に対応した色で発光可能であって、前記表情生成手段は当該発光する色を前記表情の種類に応じて選択することを特徴とする請求項15に記載の報知装置。   The one needle and the other needle include a needle lamp, and the needle lamp, the pair of rod-shaped lamps, the pair of eye lamps, the pair of smile lamps, and the mouth lamp all have the facial expression. 16. The notification device according to claim 15, wherein the notification device can emit light in a color corresponding to a type, and the facial expression generation unit selects the color to be emitted according to the type of the facial expression. 前記表情の種類が警戒である場合には、前記表情生成手段は当該針灯具又は前記一対の棒状灯具と前記口用灯具及び前記環状灯具を点滅させることを特徴とする請求項16に記載の報知装置。   The notification according to claim 16, wherein when the type of expression is vigilance, the expression generation means blinks the needle lamp or the pair of rod-shaped lamps, the mouth lamp, and the annular lamp. apparatus. 前記回転中心の指向方向を上下方向軸を中心に回転可能とする駆動機構を含み、当該駆動機構は、前記表情が前記警戒表情である場合には、前記指向方向を車両の前方又は側方とし、前記表情が前記警戒表情以外である場合には、前記報知の内容に対応させて車両の前記運転席と助手席の中間又は前記運転席又は前記助手席に指向するそれぞれの方向に適宜変更することを特徴とする請求項17に記載の報知装置。   A drive mechanism that allows the pointing direction of the center of rotation to rotate about a vertical axis, and when the facial expression is the warning expression, the driving mechanism sets the directing direction to the front or side of the vehicle. When the facial expression is other than the warning facial expression, the direction of the vehicle is changed appropriately between the driver seat and the passenger seat of the vehicle or in the directions directed to the driver seat or the passenger seat according to the content of the notification. The notification device according to claim 17. 前記駆動機構が前記回転中心の指向方向を左右方向軸を中心に回転可能とし、前記表情が前記笑顔表情である場合に、当該左右方向軸を中心に前記回転中心を揺動させることを特徴とする請求項18に記載の報知装置。   The drive mechanism is capable of rotating the directing direction of the rotation center about a left-right direction axis, and swings the rotation center about the left-right direction axis when the facial expression is the smile expression. The notification device according to claim 18. 前記報知手段は、前記報知の内容の種別を前記表情の種類に対応させることを特徴とする請求項19に記載の報知装置。   The notification device according to claim 19, wherein the notification means associates the content type of the notification with the expression type. 音声入力手段を含むとともに、前記報知の内容の種別は、前記車両の故障に伴う警告、前記車両の状態変化、操作失念又は誤操作に伴う注意、前記発話手段による発話に対応しての前記音声入力手段による入力の待機、前記車両へのユーザの接近に伴う歓迎及び当該ユーザの運転終了に伴う慰労又は前記故障又は前記状態変化、操作失念又は誤操作の解消又は前記音声入力手段による入力の受付、前記車両への前記ユーザ以外の接近に伴う警戒の少なくともいずれかを含むことを特徴とする請求項20に記載の報知装置。   The type of the content of the notification includes voice input means corresponding to a warning associated with a failure of the vehicle, a change in the state of the vehicle, attention due to a forgotten operation or an erroneous operation, and speech input in response to a speech by the speech means Waiting for input by means, welcome accompanying the user's approach to the vehicle and comfort accompanying the user's end of driving or failure or change of state, forgotten operation or erroneous operation, or accepting input by the voice input means, The notification device according to claim 20, comprising at least one of alerts associated with an approach other than the user to the vehicle. 前記報知手段は、前記警告には前記悲哀表情を、前記注意には前記心配表情を、前記待機又は前記通常には前記普通表情を、前記歓迎又は前記慰労又は前記解消又は前記受付には前記笑顔表情を、前記警戒には前記警戒表情を対応させることを特徴とする請求項21に記載の報知装置。   The notification means includes the sad expression for the warning, the worry expression for the caution, the normal expression for the standby or the normal expression, and the smile for the welcome or the comfort or the cancellation or the reception. The notifying device according to claim 21, wherein the alert expression is associated with the alert expression. 前記環状灯具の発光する色に応じて燃費の良否を報知するエコモードを選択可能とする選択手段を含み、前記選択手段により前記エコモードが選択された場合に、前記報知手段は前記燃費の良否に対応させた前記環状灯具の発光する色を選択することを特徴とする請求項22に記載の報知装置。   Selection means for enabling selection of an eco-mode for notifying whether or not the fuel efficiency is good according to the color emitted by the annular lamp, and when the eco-mode is selected by the selection means, the notifying means The notification device according to claim 22, wherein a color emitted by the annular lamp corresponding to the lamp is selected. 前記報知手段は前記環状灯具の発光する色と一致する色で前記針灯具を発光させることを特徴とする請求項23に記載の報知装置。   The notification device according to claim 23, wherein the notification means causes the needle lamp to emit light in a color that matches a color emitted by the annular lamp. 経路を案内する経路案内モードを前記選択手段により選択可能なものとするとともに、前記環状灯具の内周側の周上に所定間隔で設置された周上灯具を含み、前記選択手段により前記経路案内モードが選択された場合に、前記報知手段は、前記一方の針を交差点通過後の前記経路の第一方向に指向させ、前記他方の針を交差点通過前の前記経路の第二方向に指向させ、前記第一方向及び前記第二方向のそれぞれに一致する位置の前記周上灯具を点灯することを特徴とする請求項24に記載の報知装置。   A route guidance mode for guiding a route is selectable by the selection means, and includes a circumferential lamp installed at predetermined intervals on the inner circumference side of the annular lamp, and the route guidance is performed by the selection means. When the mode is selected, the notifying means directs the one needle in the first direction of the route after passing the intersection and directs the other needle in the second direction of the route before passing the intersection. The notification device according to claim 24, wherein the circumferential lamp is turned on at a position corresponding to each of the first direction and the second direction. 前記針灯具の前記回転中心の径方向の長さを、前記指針を構成する複数の針相互間で共通とし、前記針灯具の発光部分の前記径方向の長さを対応する前記針に応じて調節可能とすることを特徴とする請求項25に記載の報知装置。   The length in the radial direction of the rotation center of the needle lamp is common among a plurality of needles constituting the pointer, and the length in the radial direction of the light emitting portion of the needle lamp is set according to the corresponding needle. The notification device according to claim 25, wherein the notification device is adjustable. 時刻を計時する計時ステップと、指針により前記時刻を表示する時刻表示ステップと、前記指針を表情構成要素の少なくとも一部として表情を生成する表情生成ステップと、を含み、報知が必要な場合に、前記表情生成ステップによる前記報知の内容の種別に対応した前記表情の生成に基づいて前記報知を行う報知ステップを含むことを特徴とする報知方法。   A time measuring step for measuring time, a time displaying step for displaying the time by a pointer, and a facial expression generating step for generating a facial expression using the pointer as at least a part of a facial expression component. A notification method comprising the notification step of performing the notification based on the generation of the facial expression corresponding to the type of content of the notification by the facial expression generation step. 請求項27に記載の報知方法をコンピュータに実行させるプログラム。   The program which makes a computer perform the alerting | reporting method of Claim 27. 請求項28に記載のプログラムを記憶した媒体。   A medium storing the program according to claim 28.
JP2010107382A 2010-05-07 2010-05-07 Annunciation device, annunciation method, program, and medium Pending JP2011235700A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010107382A JP2011235700A (en) 2010-05-07 2010-05-07 Annunciation device, annunciation method, program, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010107382A JP2011235700A (en) 2010-05-07 2010-05-07 Annunciation device, annunciation method, program, and medium

Publications (1)

Publication Number Publication Date
JP2011235700A true JP2011235700A (en) 2011-11-24

Family

ID=45324175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010107382A Pending JP2011235700A (en) 2010-05-07 2010-05-07 Annunciation device, annunciation method, program, and medium

Country Status (1)

Country Link
JP (1) JP2011235700A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022051777A (en) * 2018-06-12 2022-04-01 トヨタ自動車株式会社 Cockpit for vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022051777A (en) * 2018-06-12 2022-04-01 トヨタ自動車株式会社 Cockpit for vehicle
JP7327536B2 (en) 2018-06-12 2023-08-16 トヨタ自動車株式会社 vehicle cockpit

Similar Documents

Publication Publication Date Title
WO2014170987A1 (en) Moving body state notification device, server device, and moving body state notification method
AU2013203009B2 (en) User terminal device and control method thereof
CN110225847B (en) Method and system for indicating the state of a seat in a vehicle and the use state of the vehicle
US20230110773A1 (en) Control system and method using in-vehicle gesture input
KR20170017178A (en) Driver assistance apparatus and vehicle including the same
US20200122629A1 (en) Control apparatus and lighting system
EP3279897B1 (en) Safety device for a vehicle
JP2007249477A (en) Onboard information transmission device
JP2009020731A (en) System for warning to item left behind in vehicle
WO2017199524A1 (en) Vehicle-mounted warning system
JP2013241156A (en) Vehicle lamp
US10207584B2 (en) Information providing apparatus for vehicle
JP2011235700A (en) Annunciation device, annunciation method, program, and medium
JP4926182B2 (en) Signal recognition apparatus, signal recognition method, signal recognition program, and recording medium
WO2021258671A1 (en) Assisted driving interaction method and apparatus based on vehicle-mounted digital human, and storage medium
KR20120053104A (en) Exterior lamp control system and warning sound control system for vehicle interworking with samrt phone
WO2023216579A1 (en) Method and apparatus for controlling light display device
JP2010056041A (en) Guide light
JP7148296B2 (en) In-vehicle robot
JP5340660B2 (en) Vehicle occupant awakening device
JP6533923B2 (en) Device and program
JP2020154098A (en) On-vehicle apparatus control system, on-vehicle apparatus controller, on-vehicle apparatus control method and program
JP6819529B2 (en) Information processing equipment, information processing system, and information processing method
KR101744742B1 (en) Sound recognition apparatus, vehicle having the same and method for thereof
JP2020157853A (en) In-vehicle agent system, control method of in-vehicle agent system, and program