JP2020067713A - Display controller, display system, method for controlling display, and display control program - Google Patents

Display controller, display system, method for controlling display, and display control program Download PDF

Info

Publication number
JP2020067713A
JP2020067713A JP2018198698A JP2018198698A JP2020067713A JP 2020067713 A JP2020067713 A JP 2020067713A JP 2018198698 A JP2018198698 A JP 2018198698A JP 2018198698 A JP2018198698 A JP 2018198698A JP 2020067713 A JP2020067713 A JP 2020067713A
Authority
JP
Japan
Prior art keywords
display
display control
displayed
operator
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018198698A
Other languages
Japanese (ja)
Inventor
聡 大橋
Satoshi Ohashi
聡 大橋
貴 菊地
Takashi Kikuchi
貴 菊地
智愛 若狭
Chie Wakasa
智愛 若狭
純 住田
Jun Sumida
純 住田
真帆 宮本
Maho Miyamoto
真帆 宮本
宮坂 峰輝
Mineteru Miyasaka
峰輝 宮坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2018198698A priority Critical patent/JP2020067713A/en
Publication of JP2020067713A publication Critical patent/JP2020067713A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a display controller which can avoid display information corresponding to the result of operations on an operation target apparatus from being displayed so as to be fixed to the display part of the operation target apparatus.SOLUTION: The controller of the device acquires the result of operations of an operation target apparatus by an operator, determines the position of displaying display information corresponding to the result of operations by projection, and displays the display information in the determined position by projection.SELECTED DRAWING: Figure 10

Description

本願は、操作対象機器を操作した際の操作結果を表示させる表示制御装置の技術分野に関する。   The present application relates to a technical field of a display control device that displays an operation result when an operation target device is operated.

ユーザにサービスを提供する機器は、サービスに関する所定の設定項目についてユーザに設定してもらい、その設定内容に従ってサービスを提供する。このとき、ユーザが設定を行うための操作の結果は、当該機器が備える表示部に表示されるのが一般的である(例えば、特許文献1)。   A device that provides a service to a user asks the user to set a predetermined setting item related to the service, and provides the service according to the setting content. At this time, the result of the operation for the user to make settings is generally displayed on the display unit included in the device (for example, Patent Document 1).

特開2014−238711号公報JP, 2014-238711, A

しかしながら、特許文献1に記載の技術では、操作結果が表示部に固定的に表示されるため、操作者が見づらい場合があった。   However, in the technique described in Patent Document 1, the operation result is fixedly displayed on the display unit, which may be difficult for the operator to see.

本願発明は、こうした事情に鑑み、操作対象機器に対する操作結果に対応する表示情報を操作対象機器の表示部に固定的に表示することを避けることができる表示制御装置等を提供することを課題の一例とする。   In view of such circumstances, the present invention provides a display control device and the like that can avoid displaying fixedly the display information corresponding to the operation result on the operation target device on the display unit of the operation target device. As an example.

請求項1に記載の発明は、操作者による操作対象機器の操作結果を取得する取得手段と、前記操作結果に対応する表示情報を投影により表示する位置を決定する決定手段と、前記決定手段により決定された位置に前記表示情報を投影により表示させる表示制御手段と、を備えることを特徴とする。   The invention according to claim 1 includes: an acquisition unit that acquires an operation result of an operation target device by an operator; a determination unit that determines a position at which display information corresponding to the operation result is displayed by projection; and the determination unit. Display control means for displaying the display information by projection at the determined position.

請求項11に記載の発明は、表示制御装置による表示制御方法であって、操作者による操作対象機器の操作結果を取得する取得工程と、前記操作結果に対応する表示情報を投影により表示する位置を決定する決定工程と、前記決定工程により決定された位置に前記表示情報を投影により表示させる表示制御工程と、を含むことを特徴とする。   The invention according to claim 11 is a display control method by a display control device, comprising an acquisition step of acquiring an operation result of an operation target device by an operator, and a position at which display information corresponding to the operation result is displayed by projection. And a display control step of displaying the display information by projection at the position determined by the determining step.

請求項12に記載の発明は、コンピュータを、操作者による操作対象機器の操作結果を取得する取得手段、前記操作結果に対応する表示情報を投影により表示する位置を決定する決定手段、前記決定手段により決定された位置に前記表示情報を投影により表示させる表示制御手段、として機能させることを特徴とする。   According to a twelfth aspect of the present invention, the computer is configured to acquire an operation result of an operation target device operated by an operator, a determination unit that determines a position at which display information corresponding to the operation result is displayed by projection, and the determination unit. It is characterized by causing it to function as display control means for displaying the display information by projection at the position determined by.

実施形態における表示制御装置100の構成例を示すブロック図である。It is a block diagram showing an example of composition of display control device 100 in an embodiment. 第1実施例における車載装置200の構成例を示すブロック図である。It is a block diagram which shows the structural example of the vehicle-mounted apparatus 200 in 1st Example. 第1実施例におけるメニュー画面(メニュー操作ガイド画像)の階層の一例を示す図である。It is a figure which shows an example of the hierarchy of the menu screen (menu operation guide image) in 1st Example. (A)は、第1実施例における、ディスプレイ214cに表示されるトップメニューの操作画面400の一例を示す図であり、(B)は、第1実施例における、トップメニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。(A) is a diagram showing an example of a top menu operation screen 400 displayed on the display 214c in the first embodiment, and (B) is a left example of the top menu operation guide image in the first embodiment. It is a figure which shows a mode projected on the back of a hand. (A)は、第1実施例における、ディスプレイ214cに表示されるA/Cメニューの操作画面410の一例を示す図であり、(B)は、第1実施例における、A/Cメニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。(A) is a diagram showing an example of an A / C menu operation screen 410 displayed on the display 214c in the first embodiment, and (B) is an operation of the A / C menu in the first embodiment. It is a figure which shows a mode that the example of a guide image was projected on the back of a left hand. (A)は、第1実施例における、ディスプレイ214cに表示されるAUDIOメニューの操作画面420の一例を示す図であり、(B)は、第1実施例における、AUDIOメニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。(A) is a diagram showing an example of an operation screen 420 of the AUDIO menu displayed on the display 214c in the first embodiment, and (B) is an example of an operation guide image of the AUDIO menu in the first embodiment. It is a figure which shows a mode that it projected on the back of a left hand. (A)は、第1実施例における、ディスプレイ214cに表示されるNAVIメニューの操作画面430の一例を示す図であり、(B)は、第1実施例における、NAVIメニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。(A) is a diagram showing an example of a NAVI menu operation screen 430 displayed on the display 214c in the first embodiment, and (B) is an example of a NAVI menu operation guide image in the first embodiment. It is a figure which shows a mode that it projected on the back of a left hand. (A)は、第1実施例における、ディスプレイ214cに表示される目的地メニューの操作画面440の一例を示す図であり、(B)は、第1実施例における、目的地メニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。(A) is a diagram showing an example of a destination menu operation screen 440 displayed on the display 214c in the first embodiment, (B) is a destination menu operation guide image in the first embodiment. It is a figure which shows a mode that one example was projected on the back of the left hand. 第1実施例における制御部211による表示制御処理の一例を示すフローチャートである。6 is a flowchart showing an example of display control processing by a control unit 211 in the first embodiment. 第2実施例における制御部211による表示制御処理の一部を示すフローチャートである。9 is a flowchart showing a part of display control processing by a control unit 211 in the second embodiment. 変形例2における左手の甲にトレース線371を表す画像を表示する際の表示例を示す図である。FIG. 11 is a diagram showing a display example when displaying an image showing a trace line 371 on the back of the left hand in the second modification. 変形例3における左手の甲に音声入力表記381を表す画像を表示する際の表示例を示す図である。21 is a diagram showing a display example when an image representing the voice input notation 381 is displayed on the back of the left hand in Modification 3.

本願発明を実施するための形態について、図1を用いて説明する。   A mode for carrying out the present invention will be described with reference to FIG.

図1に示すように、表示制御装置100は取得手段101、決定手段102、表示制御手段103を備える。   As shown in FIG. 1, the display control device 100 includes an acquisition unit 101, a determination unit 102, and a display control unit 103.

取得手段101は、操作者による操作対象機器の操作結果を取得する。   The acquisition unit 101 acquires the operation result of the operation target device by the operator.

決定手段102は、前記操作結果に対応する表示情報を投影により表示する位置を決定する。   The deciding means 102 decides the position where the display information corresponding to the operation result is displayed by projection.

表示制御手段103は、決定手段102により決定された位置に前記表示情報を投影により表示させる。   The display control means 103 causes the display information to be displayed by projection at the position determined by the determination means 102.

表示制御装置100によれば、操作結果に対応する表示情報を投影により表示する位置が決定され、当該決定された位置に表示情報が投影により表示される。したがって、操作結果に対応する表示情報を操作対象機器の表示部に固定的に表示することを避けることができる。   According to the display control device 100, the position where the display information corresponding to the operation result is displayed by projection is determined, and the display information is displayed at the determined position by projection. Therefore, it is possible to avoid fixedly displaying the display information corresponding to the operation result on the display unit of the operation target device.

[1.第1実施例]
次に、上述した実施形態に対応する第1実施例について説明する。なお、以下に説明する第1実施例は、本願発明を、車両に搭載される車載装置200に適用した場合の実施例である。
[1. First embodiment]
Next, a first example corresponding to the above-described embodiment will be described. The first embodiment described below is an embodiment in which the present invention is applied to an in-vehicle device 200 mounted on a vehicle.

[1.1.車載装置200の構成]
図2を用いて、第1実施例における車載装置200の構成について説明する。図2に示すように、車載装置200は、制御部211と、HDD(Hard Disk Drive)やSSD(Solid State Drive)等からなる記憶部212と、キーボード又はリモートコントローラ、タッチパネル等からなる入力部213と、表示ユニット214と、バスライン215と、入出力インターフェース部220と、車速センサ221と、角速度センサ222と、加速度センサ223と、舵角センサ224と、GNSS(Global Navigation Satellite System)受信部225と、カメラ226と、マイク227と、スピーカー228と、空調機器229と、を備えて構成されている。また、車載装置200は、投影機250と接続されている。投影機250は、制御部211から受信した制御情報及び画像情報に基づいて、指定された位置に指定された画像を投影させる。
[1.1. Configuration of in-vehicle apparatus 200]
The configuration of the in-vehicle apparatus 200 according to the first embodiment will be described with reference to FIG. As shown in FIG. 2, the in-vehicle apparatus 200 includes a control unit 211, a storage unit 212 including an HDD (Hard Disk Drive) and an SSD (Solid State Drive), and an input unit 213 including a keyboard, a remote controller, a touch panel, or the like. A display unit 214, a bus line 215, an input / output interface unit 220, a vehicle speed sensor 221, an angular velocity sensor 222, an acceleration sensor 223, a steering angle sensor 224, and a GNSS (Global Navigation Satellite System) receiving unit 225. A camera 226, a microphone 227, a speaker 228, and an air conditioner 229. The vehicle-mounted device 200 is also connected to the projector 250. The projector 250 projects the designated image at the designated position based on the control information and the image information received from the control unit 211.

記憶部212は、表示ユニット214や投影機250が画像を表示するための情報を記憶する。例えば、タッチによる操作のための操作画面や、ジェスチャーによる操作のための操作ガイド画像を表示するための画像を記憶する。また、記憶部212は、ナビゲーション用に、地図を表示するための地図データや、経路を探索する際に用いる地図情報、道路リンク情報などを記憶する。更に、記憶部212は、ナビゲーションに用いられる音声や楽曲などを出力するための音情報を記憶する。更にまた、記憶部212は、オペレーティングシステムや、アプリケーションプログラム等の各種プログラムを記憶する。特に、記憶部212は、投影機250に操作ガイド画像を表示させるための表示制御プログラムを記憶している。なお、各種プログラムは、例えば、サーバ装置等からネットワークを介して取得されるようにしても良いし、CD、DVD、USBメモリ等の記録媒体に記録されたものを読み込むようにしても良い。   The storage unit 212 stores information for the display unit 214 and the projector 250 to display an image. For example, an operation screen for touch operation and an image for displaying an operation guide image for gesture operation are stored. The storage unit 212 also stores map data for displaying a map, map information used when searching a route, road link information, and the like for navigation. Further, the storage unit 212 stores sound information for outputting a voice or a music used for navigation. Furthermore, the storage unit 212 stores various programs such as an operating system and application programs. In particular, the storage unit 212 stores a display control program for displaying the operation guide image on the projector 250. The various programs may be acquired from a server device or the like via a network, or may be read from programs recorded in a recording medium such as a CD, a DVD, or a USB memory.

入力部213は、ユーザの入力操作を受け付けて、操作内容を示す操作信号を制御部211に送信する。   The input unit 213 receives a user's input operation and transmits an operation signal indicating the operation content to the control unit 211.

表示ユニット214は、制御部211の制御下で画像情報に基づいて画像を表示する。表示ユニット214は、グラフィックスコントローラ214aと、VRAM(Video RAM)等のメモリからなるバッファメモリ214bと、液晶ディスプレイ等からなるディスプレイ214c等を備えて構成されている。この構成においてグラフィックスコントローラ214aは、バスライン215を介して制御部211から送られる制御情報に基づいて、表示ユニット214全体の制御を行う。また、バッファメモリ214bは、即時表示可能な画像情報を一時的に記憶する。そして、グラフィックスコントローラ214aから出力される画像情報に基づいて、ディスプレイ214cに画像が表示される。なお、ディスプレイ214cはタッチパネル機能を有し、ディスプレイ214cへのタッチを検出して、タッチされた位置を示すタッチ位置信号を制御部211に送信する。つまり、ディスプレイ214cは入力部213の一部として機能する場合がある。そして、制御部211は、タッチ位置信号の示す位置と、タッチされた際にタッチされた位置に表示していた表示内容との対応関係から操作内容を特定する。   The display unit 214 displays an image based on the image information under the control of the control unit 211. The display unit 214 includes a graphics controller 214a, a buffer memory 214b including a memory such as VRAM (Video RAM), a display 214c including a liquid crystal display, and the like. In this configuration, the graphics controller 214a controls the entire display unit 214 based on the control information sent from the control unit 211 via the bus line 215. Further, the buffer memory 214b temporarily stores image information that can be displayed immediately. Then, an image is displayed on the display 214c based on the image information output from the graphics controller 214a. The display 214c has a touch panel function, detects a touch on the display 214c, and transmits a touch position signal indicating the touched position to the control unit 211. That is, the display 214c may function as a part of the input unit 213. Then, the control unit 211 identifies the operation content from the correspondence relationship between the position indicated by the touch position signal and the display content displayed at the touched position.

車速センサ221は、例えば車載装置200が搭載されている車両から取得される車速パルス等を用いた速度検出処理等を用いて当該車両の現在速度を検出し、速度データを出力する。角速度センサ222は、当該車両の、例えば方向変化の角速度を検出し、単位時間当たりの角速度データ及び相対方位データを出力する。加速度センサ223は、当該車両の例えば前後方向の加速度を検出し、単位時間当たりの加速度データ等を出力する。舵角センサ224は、当該車両の舵角を検出し、舵角データ等を出力する。GNSS受信部225は、GNSS衛星からの航法電波を受信し、GNSS測位データを出力する。   The vehicle speed sensor 221 detects the current speed of the vehicle using speed detection processing or the like using a vehicle speed pulse or the like acquired from the vehicle in which the in-vehicle apparatus 200 is mounted, and outputs speed data. The angular velocity sensor 222 detects, for example, the angular velocity of the direction change of the vehicle, and outputs the angular velocity data and the relative azimuth data per unit time. The acceleration sensor 223 detects, for example, the acceleration in the front-rear direction of the vehicle and outputs acceleration data per unit time or the like. The steering angle sensor 224 detects the steering angle of the vehicle and outputs steering angle data and the like. The GNSS receiving unit 225 receives navigation radio waves from GNSS satellites and outputs GNSS positioning data.

カメラ226は車両内を撮影し、撮影した画像を示すカメラ画像情報を制御部211に送信する。   The camera 226 photographs the inside of the vehicle and transmits camera image information indicating the photographed image to the control unit 211.

マイク227は車両に搭乗する搭乗者の音声を示すマイク音声情報に変換して制御部211に送信する。   The microphone 227 converts into microphone voice information indicating the voice of the passenger riding in the vehicle and transmits the microphone voice information to the control unit 211.

スピーカー228は、制御部211から受信した電気信号に基づいて、音を出力する。なお、制御部211はスピーカー228に送信する電気信号を音データ及び設定された設定音量に基づいて生成することによりスピーカー228から出力される音と音量を制御する。   The speaker 228 outputs sound based on the electric signal received from the control unit 211. The control unit 211 controls the sound and volume output from the speaker 228 by generating an electric signal to be transmitted to the speaker 228 based on the sound data and the set volume setting.

空調機器229は、制御部、コンプレッサー、エキスパンションバルブ、エバボレーター、コンデンサー、レシーバータンク等を含んで構成され、制御部211から受信した風量情報、温度情報に基づいて、風量情報が示す風量とする制御と、車室内を温度情報が示す温度とする制御を行う。   The air conditioner 229 is configured to include a control unit, a compressor, an expansion valve, an evaporator, a condenser, a receiver tank, and the like, and based on the air volume information and the temperature information received from the control unit 211, the air volume information indicated by the air volume information is controlled. , The temperature inside the vehicle is controlled by the temperature information.

制御部211は、制御部211全体を制御するCPU211aと、制御部211を制御する制御プログラム等が予め記憶されているROM211bと、各種データを一時的に格納するRAM211cと、により構成されている。そして、CPU211aが、ROM211bや記憶部212に記憶された各種プログラムを読み出し実行することにより各種手段として機能する。制御部211又はCPU211aは、「コンピュータ」に対応する。   The control unit 211 includes a CPU 211a that controls the entire control unit 211, a ROM 211b in which a control program for controlling the control unit 211 is stored in advance, and a RAM 211c that temporarily stores various data. Then, the CPU 211a functions as various means by reading and executing various programs stored in the ROM 211b and the storage unit 212. The control unit 211 or the CPU 211a corresponds to a “computer”.

制御部211は、車速センサ221、角速度センサ222、加速度センサ223、舵角センサ224、GNSS受信部225、カメラ226、マイク227、スピーカー228及び空調機器229と、バスライン215及び入出力インターフェース部220を介して接続されている。   The control unit 211 includes a vehicle speed sensor 221, an angular velocity sensor 222, an acceleration sensor 223, a steering angle sensor 224, a GNSS receiving unit 225, a camera 226, a microphone 227, a speaker 228, an air conditioner 229, a bus line 215, and an input / output interface unit 220. Connected through.

制御部211は、GNSS測位データに基づく衛星測位や、速度データ、角速度データ、相対方位データ、加速度データ、舵角データ等に基づく自立測位、又は、これらを組み合わせたハイブリッド測位等を行い、自車両の現在位置(緯度、経度、高度)を示す現在位置情報を取得する。そして、制御部211は、目的地が設定された場合には現在位置から目的地までの経路を探索して、当該経路を案内する。   The control unit 211 performs satellite positioning based on GNSS positioning data, independent positioning based on speed data, angular velocity data, relative azimuth data, acceleration data, steering angle data, or hybrid positioning that combines these, and the like. The current position information indicating the current position (latitude, longitude, altitude) of is acquired. Then, when the destination is set, the control unit 211 searches for a route from the current position to the destination and guides the route.

制御部211は、車載装置200をナビゲーション装置として機能させる処理、スピーカー228に対して電気信号を送信することにより音を出力させ、車載装置200をオーディオ機器として機能させる処理、また、空調機器229に対して風量情報、温度情報を送信することにより風量と車室内の温度を変化させ、車載装置200を空調装置として機能させる処理を実行する。そして、制御部211は、これらの機能に関して、操作者のディスプレイ214cに対するタッチによる操作やジェスチャーによる操作を受け付ける。   The control unit 211 causes the vehicle-mounted device 200 to function as a navigation device, outputs a sound by transmitting an electric signal to the speaker 228, and causes the vehicle-mounted device 200 to function as an audio device. On the other hand, by transmitting the air volume information and the temperature information, the air volume and the temperature in the vehicle compartment are changed, and the processing for causing the vehicle-mounted device 200 to function as the air conditioner is executed. Then, the control unit 211 receives an operation by a touch on the display 214c or an operation by a gesture with respect to these functions.

具体的には、制御部211は、操作者がタッチによる操作を行うための操作画面をディスプレイ214cに表示させたり、操作者がジェスチャーによる操作を行うための操作ガイド画像を操作者の人体の一部に投影機250により投影して表示させたりする。ここでいう人体の一部は、ジェスチャーを行う部分(例えば、左手、右手、左足、右足)とすることができる。また、ジェスチャーを行う部分のうち、特に、操作者が視認可能な位置(例えば、左手でジェスチャーを行う場合、左手の甲又は掌のうち操作者の顔に向いている面)とすることが好ましい。なお、本実施例では、操作ガイド画像を操作者の左手に投影して表示させることとする。そのため、制御部211は公知の画像解析プログラムを用いてカメラ画像情報を解析し、常時、操作者の左手の位置や向きを特定するとともに当該位置や向きを示す左手情報をRAM211cや記憶部212に記録する。また、制御部211は、常時、カメラ画像情報を解析することにより操作者が行ったジェスチャーを検出し、ジェスチャーに対応する操作に応じた処理を実行する。なお、ジェスチャーの検出はカメラ画像情報の解析によるものに限らず、光センサー等を用いて検出することとしてもよい。また、操作ガイド画像は、その時点で可能な操作に対応するジェスチャーの方法を示す記号や図柄等を表示する。更に、操作ガイド画像は、静止画像であっても動画像であってもよく、本実施例では、静止画像である場合について説明する。   Specifically, the control unit 211 causes the display 214c to display an operation screen for the operator to perform an operation by touch, and displays an operation guide image for the operator to perform an operation by a gesture on the human body of the operator. For example, it is projected by the projector 250 and displayed on the section. The part of the human body referred to here can be a part for performing a gesture (for example, left hand, right hand, left foot, right foot). In addition, it is preferable that the position of the gesture is particularly visible to the operator (for example, when performing the gesture with the left hand, the back of the left hand or the surface of the palm facing the operator's face). In this embodiment, the operation guide image is projected and displayed on the operator's left hand. Therefore, the control unit 211 analyzes the camera image information using a known image analysis program, always specifies the position and orientation of the left hand of the operator, and stores the left hand information indicating the position and orientation in the RAM 211c and the storage unit 212. Record. In addition, the control unit 211 always detects a gesture made by the operator by analyzing the camera image information, and executes processing according to the operation corresponding to the gesture. The detection of the gesture is not limited to the analysis of the camera image information, and the detection may be performed using an optical sensor or the like. In addition, the operation guide image displays a symbol, a pattern, or the like indicating a method of a gesture corresponding to an operation that can be performed at that time. Further, the operation guide image may be a still image or a moving image, and in this embodiment, a case where it is a still image will be described.

制御部211は、操作者がタッチによる操作とジェスチャーによる操作の何れでも操作ができるように、互いに対になっている操作画面と操作ガイド画像であって、その時点で可能な操作を示す操作画面と操作ガイド画像を同時に表示する。これにより、操作者は、例えば、2段階の操作を行う必要がある場合に、
(1)1段階目をタッチによる操作、2段階目をジェスチャーによる操作、
(2)1段階目をタッチによる操作、2段階目をタッチによる操作、
(3)1段階目をジェスチャーによる操作、2段階目をタッチによる操作、
(4)1段階目をジェスチャーによる操作、2段階目をジェスチャーによる操作、
の何れとすることもできる。なお、操作画面と操作ガイド画像を常に同時に表示するのではなく、例えば、所定の条件が充足された場合に操作ガイド画像を表示させることとしてもよい。例えば、操作ガイド画像を表示させるためのジェスチャーを定めておき、制御部211が、当該ジェスチャーを検出した場合にのみ操作ガイド画像を表示することとしてもよい。
The control unit 211 is an operation screen and an operation guide image that are paired with each other so that the operator can perform both a touch operation and a gesture operation, and an operation screen indicating an operation that can be performed at that time. And the operation guide image are displayed at the same time. This allows the operator to, for example, perform two-step operation when
(1) Touch operation in the first step, gesture operation in the second step,
(2) Touch operation in the first step, touch operation in the second step,
(3) Gesture operation in the first step, touch operation in the second step,
(4) Gesture operation in the first step, gesture operation in the second step,
It can be any of Note that the operation screen and the operation guide image may not be always displayed at the same time, but the operation guide image may be displayed, for example, when a predetermined condition is satisfied. For example, a gesture for displaying the operation guide image may be set in advance, and the control unit 211 may display the operation guide image only when the gesture is detected.

ここで、図3を用いて、操作画面や操作ガイド画像として表示されるメニューの階層について説明する。図3は、メニューの階層の一例を示す図である。図3に示すように、最上位階層としてトップメニューが設けられ、トップメニューの一つ下の第2階層としてA/Cメニュー、AUDIOメニュー及びNAVIメニューが設けられ、NAVIメニューの一つ下の第3階層として目的地メニューが設けられている。本実施例では、それぞれのメニューに対応する操作画面や操作ガイド画像が表示される。以下、図4−図8を用いて、各メニューに対応する操作画面や操作ガイド画像について説明する。   Here, the hierarchy of the menu displayed as the operation screen or the operation guide image will be described with reference to FIG. FIG. 3 is a diagram showing an example of a menu hierarchy. As shown in FIG. 3, a top menu is provided as the highest layer, and an A / C menu, an AUDIO menu, and a NAVI menu are provided as the second layer below the top menu, and the third layer is one layer below the NAVI menu. As a destination menu is provided. In this embodiment, operation screens and operation guide images corresponding to the respective menus are displayed. The operation screens and operation guide images corresponding to the respective menus will be described below with reference to FIGS.

図4(A)は、第1実施例における、ディスプレイ214cに表示されるトップメニューの操作画面400の一例を示す図であり、図4(B)は、第1実施例における、トップメニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。   FIG. 4A is a diagram showing an example of a top menu operation screen 400 displayed on the display 214c in the first embodiment, and FIG. 4B is a top menu operation guide image in the first embodiment. It is a figure which shows a mode that one example was projected on the back of the left hand.

図4(A)に示すように、トップメニューにそれぞれ対応する操作画面400及び操作ガイド画像は、制御部211が、操作者によるトップメニューを表示するための操作(「トップメニュー表示操作」という場合がある)を検出した場合に表示される。なお、制御部211がトップメニュー表示操作を検出する方法は問わない。例えば、制御部211は、図示しないトップメニュー表示ボタンに対するタッチを検出したことや、トップメニュー表示操作を意味する音声を示すマイク音声情報を検出したこと、又は、トップメニュー表示操作を意味するジェスチャーをカメラ画像情報に基づいて検出したことなどに基づいて、トップメニュー表示操作を検出することができる。なお、トップメニュー表示操作がジェスチャーによるものである場合には、当該ジェスチャーが行われた体の部分にトップメニュー等に対応する操作ガイド画像を表示することとしてもよい。   As shown in FIG. 4A, the operation screen 400 and the operation guide image respectively corresponding to the top menu are operated by the controller 211 for displaying the top menu by the operator (sometimes referred to as “top menu display operation”). Is displayed when is detected. The method by which the control unit 211 detects the top menu display operation does not matter. For example, the control unit 211 detects a touch on a top menu display button (not shown), detects microphone voice information indicating a voice indicating a top menu display operation, or detects a gesture indicating a top menu display operation as camera image information. It is possible to detect the top menu display operation based on the detection based on the above. When the top menu display operation is performed by a gesture, an operation guide image corresponding to the top menu or the like may be displayed on the body part where the gesture is performed.

トップメニューに対応する操作画面400は、A/Cボタン401、AUDIOボタン402及びNAVIボタン403を含む。制御部211は、A/Cボタン401が表示されている部分がタッチされると、A/Cメニューに対応する操作画面をディスプレイ214cに表示させ、A/Cメニューに対応する操作ガイド画像を操作者の左手に投影表示させる。また、制御部211は、AUDIOボタン402が表示されている部分がタッチされると、AUDIOメニューに対応する操作画面をディスプレイ214cに表示させ、AUDIOメニューに対応する操作ガイド画像を操作者の左手に投影表示させる。更に、制御部211は、NAVIボタン403が表示されている部分がタッチされると、NAVIメニューに対応する操作画面をディスプレイ214cに表示させ、NAVIメニューに対応する操作ガイド画像を操作者の左手に投影表示させる。   The operation screen 400 corresponding to the top menu includes an A / C button 401, an AUDIO button 402, and a NAVI button 403. When the portion where the A / C button 401 is displayed is touched, the control unit 211 causes the display 214c to display the operation screen corresponding to the A / C menu and operates the operation guide image corresponding to the A / C menu. It is projected and displayed on the left hand of the worker. When the portion where the AUDIO button 402 is displayed is touched, the control unit 211 causes the display 214c to display the operation screen corresponding to the AUDIO menu, and the operation guide image corresponding to the AUDIO menu is displayed on the left hand of the operator. Projected display. Further, when the portion where the NAVI button 403 is displayed is touched, the control unit 211 causes the display 214c to display the operation screen corresponding to the NAVI menu, and the operation guide image corresponding to the NAVI menu is displayed on the left hand of the operator. Projected display.

図4(B)に示すように、トップメニューに対応する操作ガイド画像は、NAVIメニューを表示させるための操作に対応するジェスチャーの方法を示す矢印301A、左手図柄301B及びNAVI表記301Cを含む。矢印301A及び左手図柄301Bは、NAVIメニューを表示させるための操作の方法が、左手の人差し指を一本立てて、且つ、反時計回りに動かすことであることを示している。NAVI表記301Cは、矢印301A及び左手図柄301Bの近傍に表示されることで、これらがNAVIメニューを表示させるための操作の方法を示していることを表している。制御部211は、NAVIメニューを表示させるための操作に対応するジェスチャーを検出すると、NAVIメニューに対応する操作画面をディスプレイ214cに表示させ、NAVIメニューに対応する操作ガイド画像を操作者の左手に投影表示させる。   As shown in FIG. 4B, the operation guide image corresponding to the top menu includes an arrow 301A, a left-hand symbol 301B, and a NAVI notation 301C indicating a gesture method corresponding to the operation for displaying the NAVI menu. The arrow 301A and the left-hand symbol 301B indicate that the operation method for displaying the NAVI menu is to raise one index finger of the left hand and move it counterclockwise. The NAVI notation 301C is displayed in the vicinity of the arrow 301A and the left-hand symbol 301B, and indicates that these indicate an operation method for displaying the NAVI menu. When the control unit 211 detects the gesture corresponding to the operation for displaying the NAVI menu, the control unit 211 displays the operation screen corresponding to the NAVI menu on the display 214c and projects the operation guide image corresponding to the NAVI menu on the left hand of the operator. Display it.

また、トップメニューに対応する操作ガイド画像は、AUDIOメニューを表示させるための操作に対応するジェスチャーの方法を示す矢印302A、左手図柄302B及びAUDIO表記302Cを含む。矢印302A及び左手図柄302Bは、AUDIOメニューを表示させるための操作の方法が、左手の人差し指を一本立てて、且つ、上下に動かすことであることを示している。AUDIO表記302Cは、矢印302A及び左手図柄302Bの近傍に表示されることで、これらがAUDIOメニューを表示させるための操作の方法を示していることを表している。制御部211は、AUDIOメニューを表示させるための操作に対応するジェスチャーを検出すると、AUDIOメニューに対応する操作画面をディスプレイ214cに表示させ、AUDIOメニューに対応する操作ガイド画像を操作者の左手に投影表示させる。   Further, the operation guide image corresponding to the top menu includes an arrow 302A, a left-hand pattern 302B, and an AUDIO notation 302C indicating a gesture method corresponding to the operation for displaying the AUDIO menu. The arrow 302A and the left-hand symbol 302B indicate that the operation method for displaying the AUDIO menu is to raise one index finger of the left hand and move it up and down. The AUDIO notation 302C is displayed in the vicinity of the arrow 302A and the left-hand symbol 302B, and indicates that these indicate an operation method for displaying the AUDIO menu. When the control unit 211 detects a gesture corresponding to the operation for displaying the AUDIO menu, the control unit 211 displays an operation screen corresponding to the AUDIO menu on the display 214c and projects an operation guide image corresponding to the AUDIO menu on the left hand of the operator. Display it.

更に、トップメニューに対応する操作ガイド画像は、A/Cメニューを表示させるための操作に対応するジェスチャーの方法を示す矢印303A、左手図柄303B及びA/C表記303Cを含む。矢印303A及び左手図柄303Bは、A/Cメニューを表示させるための操作の方法が、左手の人差し指を一本立てて、且つ、左右に動かすことであることを示している。A/C表記303Cは、矢印303A及び左手図柄303Bの近傍に表示されることで、これらがA/Cメニューを表示させるための操作の方法を示していることを表している。制御部211は、A/Cメニューを表示させるための操作に対応するジェスチャーを検出すると、A/Cメニューに対応する操作画面をディスプレイ214cに表示させ、A/Cメニューに対応する操作ガイド画像を操作者の左手に投影表示させる。   Further, the operation guide image corresponding to the top menu includes an arrow 303A, a left hand pattern 303B, and an A / C notation 303C indicating a gesture method corresponding to the operation for displaying the A / C menu. The arrow 303A and the left-hand symbol 303B indicate that the operation method for displaying the A / C menu is to raise one index finger of the left hand and move it to the left and right. The A / C notation 303C is displayed in the vicinity of the arrow 303A and the left-hand symbol 303B to indicate that these indicate an operation method for displaying the A / C menu. When detecting the gesture corresponding to the operation for displaying the A / C menu, the control unit 211 causes the display 214c to display the operation screen corresponding to the A / C menu and displays the operation guide image corresponding to the A / C menu. Project it on the left hand of the operator.

図5(A)は、第1実施例における、ディスプレイ214cに表示されるA/Cメニューの操作画面410の一例を示す図であり、図5(B)は、第1実施例における、A/Cメニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。   FIG. 5A is a diagram showing an example of the operation screen 410 of the A / C menu displayed on the display 214c in the first embodiment, and FIG. 5B is a view showing A / C in the first embodiment. It is a figure which shows a mode that the example of the operation guide image of C menu was projected on the back of the left hand.

A/Cメニューにそれぞれ対応する操作画面410及び操作ガイド画像は、制御部211が、操作者によるA/Cボタン401が表示されている部分に対するタッチを検出した場合、又は、A/Cメニューを表示させるための操作に対応するジェスチャーを検出した場合に表示される。   The operation screen 410 and the operation guide image respectively corresponding to the A / C menu are displayed when the control unit 211 detects a touch on the portion where the A / C button 401 is displayed by the operator, or when the A / C menu is displayed. Displayed when a gesture corresponding to the operation for displaying is detected.

図5(A)に示すように、A/Cメニューに対応する操作画面410は、ONボタン411A、OFFボタン411B、風量UPボタン412A、風量DOWNボタン412B、風量インジケーター412C、温度UPボタン413A、温度DOWNボタン413B、温度インジケーター413C、及びトップボタンTを含む。制御部211は、ONボタン411Aが表示されている部分がタッチされると、空調機器229を作動させ、OFFボタン411Bが表示されている部分がタッチされると、空調機器229を停止させる。また、制御部211は、風量UPボタン412Aが表示されている部分がタッチされると、空調機器229にその時点における風量から1段階上げた風量を示す風量情報を送信するとともに、風量インジケーター412Cのメモリを1増加させ、一方、風量DOWNボタン412Aが表示されている部分がタッチされると、空調機器229にその時点における風量から1段階下げた風量を示す風量情報を送信するとともに、風量インジケーター412Cのメモリを1減少させる。更に、制御部211は、温度UPボタン413Aが表示されている部分がタッチされると、空調機器229にその時点における温度から1℃上げた温度を示す温度情報を送信するとともに、温度インジケーター413Cの指示する温度を1℃加算し、一方、温度DOWNボタン413Aが表示されている部分がタッチされると、空調機器229にその時点における温度から1℃下げた温度を示す温度情報を送信するとともに、温度インジケーター413Cの指示する温度を1℃減算する。更にまた、制御部211は、トップボタンTが表示されている部分がタッチされると、トップメニュー400に対応する操作画面をディスプレイ214cに表示させ、トップメニューに対応する操作ガイド画像を操作者の左手に投影表示させる(以下、他の操作画面のトップボタンTについても同様)。なお、風量インジケーター412Cは、設定風量を指示する。また、温度インジケーター413Cは、設定温度を指示する。   As shown in FIG. 5A, the operation screen 410 corresponding to the A / C menu has an ON button 411A, an OFF button 411B, an air volume UP button 412A, an air volume DOWN button 412B, an air volume indicator 412C, a temperature UP button 413A, and a temperature. It includes a DOWN button 413B, a temperature indicator 413C, and a top button T. When the portion where the ON button 411A is displayed is touched, the control unit 211 operates the air conditioning equipment 229, and when the portion where the OFF button 411B is displayed is touched, the control portion 211 stops the air conditioning equipment 229. Further, when the portion where the air volume UP button 412A is displayed is touched, the control unit 211 transmits air volume information indicating the air volume increased by one step from the air volume at that time to the air conditioner 229, and the air volume indicator 412C displays. When the memory is incremented by 1 and the portion where the air volume DOWN button 412A is displayed is touched, the air volume information indicating the air volume reduced by one stage from the air volume at that time is transmitted to the air conditioner 229, and the air volume indicator 412C. Decrease your memory by 1. Further, when the portion where the temperature UP button 413A is displayed is touched, the control unit 211 transmits temperature information indicating a temperature increased by 1 ° C. from the temperature at that time to the air conditioner 229, and the temperature indicator 413C displays. When the indicated temperature is incremented by 1 ° C. and the portion where the temperature DOWN button 413A is displayed is touched, the temperature information indicating the temperature reduced by 1 ° C. from the temperature at that time is transmitted to the air conditioner 229, and The temperature indicated by the temperature indicator 413C is subtracted by 1 ° C. Furthermore, when the portion where the top button T is displayed is touched, the control unit 211 causes the display 214c to display the operation screen corresponding to the top menu 400, and the operation guide image corresponding to the top menu is displayed on the left hand of the operator. It is projected and displayed (hereinafter, the same applies to the top button T on other operation screens). The air volume indicator 412C indicates the set air volume. In addition, the temperature indicator 413C indicates the set temperature.

図5(B)に示すように、A/Cメニューに対応する操作ガイド画像は、空調機器229を動作させるための操作に対応するジェスチャーの方法を示す矢印311A及び左手図柄311Bを含む。矢印311A及び左手図柄311Bは、空調機器229を動作させるための操作の方法が、左手の人差し指を一本立てて、且つ、上下に動かすことであることを示している。ON表記311Cは、矢印311A及び左手図柄311Bの近傍に表示されることで、これらが空調機器229を動作させるための操作の方法を示していることを表している。制御部211は、空調機器229を動作させるための操作に対応するジェスチャーを検出すると、空調機器229を作動させるための制御情報を空調機器229に送信する。   As shown in FIG. 5B, the operation guide image corresponding to the A / C menu includes an arrow 311A and a left-hand design 311B indicating a gesture method corresponding to the operation for operating the air conditioner 229. The arrow 311A and the left-hand pattern 311B indicate that the operation method for operating the air conditioner 229 is to raise one index finger of the left hand and move it up and down. The ON notation 311C is displayed in the vicinity of the arrow 311A and the left-hand symbol 311B to indicate that these indicate an operation method for operating the air conditioner 229. When the control unit 211 detects a gesture corresponding to an operation for operating the air conditioning equipment 229, the control unit 211 transmits control information for operating the air conditioning equipment 229 to the air conditioning equipment 229.

また、A/Cメニューに対応する操作ガイド画像は、空調機器229を停止させるための操作に対応するジェスチャーの方法を示す矢印312A及び左手図柄311Bを含む。矢印312A及び左手図柄311Bは、空調機器229を停止させるための操作の方法が、左手の人差し指を一本立てて、且つ、左右に動かすことであることを示している。OFF表記312Cは、矢印312A及び左手図柄311Bの近傍に表示されることで、これらが空調機器229を停止させるための操作の方法を示していることを表している。制御部211は、空調機器229を停止させるための操作に対応するジェスチャーを検出すると、空調機器229を停止させるための制御情報を空調機器229に送信する。なお、図5(B)では、空調機器229を動作させるための操作と、停止させるための操作に対応するジェスチャーについてそれぞれ左手図柄を表示するのではなく、左手図柄311Bを共用としたが、別々に左手図柄を表示させてもよい。また、空調機器229の動作中は、空調機器229を動作させるための操作を行う必要が無いため矢印311A及びON表記311Cを非表示としてもよく、また、空調機器229の停止中は、空調機器229を停止させるための操作を行う必要が無いため矢印312A及びOFF表記312Cを非表示としてもよい。   The operation guide image corresponding to the A / C menu includes an arrow 312A and a left-hand design 311B indicating a gesture method corresponding to the operation for stopping the air conditioner 229. An arrow 312A and a left-hand pattern 311B indicate that the operation method for stopping the air conditioner 229 is to raise one index finger of the left hand and move it to the left and right. The OFF notation 312C is displayed in the vicinity of the arrow 312A and the left-hand symbol 311B, and indicates that these indicate an operation method for stopping the air conditioner 229. When detecting the gesture corresponding to the operation for stopping the air conditioning equipment 229, the control unit 211 transmits the control information for stopping the air conditioning equipment 229 to the air conditioning equipment 229. Note that in FIG. 5B, the left-hand design 311B is shared instead of displaying the left-hand design for each of the gestures corresponding to the operation for operating the air conditioner 229 and the operation for stopping the air-conditioning equipment 229. The left-hand design may be displayed on. Further, since it is not necessary to perform an operation for operating the air conditioning equipment 229 while the air conditioning equipment 229 is operating, the arrow 311A and the ON notation 311C may be hidden, and while the air conditioning equipment 229 is stopped, the air conditioning equipment 229 may be hidden. Since it is not necessary to perform the operation for stopping 229, the arrow 312A and the OFF notation 312C may be hidden.

更に、A/Cメニューに対応する操作ガイド画像は、温度を変更するための操作に対応するジェスチャーの方法を示す矢印313A及び左手図柄313Bを含む。矢印313A及び左手図柄313Bは、温度を変更するための操作の方法が、左手の人差し指と中指を二本立てて、且つ、時計回り又は反時計回りに動かすことを示している。UP表記313Cは、時計回りが温度を上昇させるための操作の方法を示していることを表しており、一方、DOWN表記313Dは、反時計回りが温度を下降させるための操作の方法を示していることを表している。制御部211は、温度を上昇させるための操作に対応するジェスチャーを検出すると、空調機器229にその時点における温度から1℃上げた温度を示す温度情報を送信するとともに、温度インジケーター313Eの指示する温度を1℃加算し、一方、温度を下降させるための操作に対応するジェスチャーを検出すると、空調機器229にその時点における温度から1℃下げた温度を示す温度情報を送信するとともに、温度インジケーター313Eの指示する温度を1℃減算する。なお、温度インジケーター313Eは、設定温度を指示する。   Further, the operation guide image corresponding to the A / C menu includes an arrow 313A and a left-hand design 313B indicating a gesture method corresponding to the operation for changing the temperature. The arrow 313A and the left-hand pattern 313B indicate that the operation method for changing the temperature is to set two index fingers and the middle finger of the left hand and move them clockwise or counterclockwise. UP notation 313C indicates that clockwise indicates an operation method for increasing the temperature, while DOWN notation 313D indicates an operation method for counterclockwise decreasing the temperature. It means that there is. When the control unit 211 detects a gesture corresponding to an operation for raising the temperature, the control unit 211 transmits temperature information indicating a temperature increased by 1 ° C. from the temperature at that time to the air conditioning device 229, and the temperature indicated by the temperature indicator 313E. On the other hand, when a gesture corresponding to the operation for lowering the temperature is detected, the temperature information indicating the temperature reduced by 1 ° C. from the temperature at that time is transmitted to the air conditioner 229, and the temperature indicator 313E displays Subtract 1 ° C from the indicated temperature. The temperature indicator 313E indicates the set temperature.

更にまた、A/Cメニューに対応する操作ガイド画像は、風量を変更するための操作に対応するジェスチャーの方法を示す矢印314A及び左手図柄314Bを含む。矢印314A及び左手図柄314Bは、風量を変更するための操作の方法が、左手の人差し指を一本立てて、且つ、時計回り又は反時計回りに動かすことを示している。UP表記314Cは、時計回りが風量を上げるための操作の方法を示していることを表しており、一方、DOWN表記314Dは、反時計回りが風量を下げるための操作の方法を示していることを表している。制御部211は、風量を上げるための操作に対応するジェスチャーを検出すると、空調機器229にその時点における風量から1段階上げた風量を示す風量情報を送信するとともに、風量インジケーター314Eの指示するメモリを1増加させ、一方、風量を下げるための操作に対応するジェスチャーを検出すると、空調機器229にその時点における風量から1段階下げた風量を示す風量情報を送信するとともに、風量インジケーター314Eの指示するメモリを1減少させる。なお、風量インジケーター314Eは、設定風量を指示する。   Furthermore, the operation guide image corresponding to the A / C menu includes an arrow 314A and a left-hand design 314B indicating a gesture method corresponding to the operation for changing the air volume. The arrow 314A and the left-hand pattern 314B indicate that the method of operation for changing the air volume is to raise one index finger of the left hand and move it clockwise or counterclockwise. UP notation 314C indicates that clockwise indicates an operation method for increasing the air volume, while DOWN notation 314D indicates that counterclockwise indicates an operation method for lowering the air volume. Is represented. When detecting the gesture corresponding to the operation for increasing the air volume, the control unit 211 transmits the air volume information indicating the air volume increased by one step from the air volume at that time to the air conditioner 229, and stores the memory instructed by the air volume indicator 314E. On the other hand, when a gesture corresponding to an operation for increasing the air volume is detected by 1, the air volume information indicating the air volume reduced by one step from the air volume at that time is transmitted to the air conditioner 229, and the memory indicated by the air volume indicator 314E. Decrease by 1. The air volume indicator 314E indicates the set air volume.

図6(A)は、第1実施例における、ディスプレイ214cに表示されるAUDIOメニューの操作画面420の一例を示す図であり、図6(B)は、第1実施例における、AUDIOメニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。   FIG. 6A is a diagram showing an example of the operation screen 420 of the AUDIO menu displayed on the display 214c in the first embodiment, and FIG. 6B is the operation of the AUDIO menu in the first embodiment. It is a figure which shows a mode that the example of a guide image was projected on the back of a left hand.

AUDIOメニューにそれぞれ対応する操作画面420及び操作ガイド画像は、制御部211が、操作者によるAUDIOボタン402が表示されている部分に対するタッチを検出した場合、又は、AUDIOメニューを表示させるための操作に対応するジェスチャーが検出した場合に表示される。   The operation screen 420 and the operation guide image respectively corresponding to the AUDIO menu are used when the control unit 211 detects a touch on the part where the AUDIO button 402 is displayed by the operator, or when an operation for displaying the AUDIO menu is performed. Displayed when the corresponding gesture is detected.

図6(A)に示すように、AUDIOメニューに対応する操作画面420は、再生ボタン421A、停止ボタン421B、送りボタン421C、戻しボタン421D、音量UPボタン422A、音量DOWNボタン422B、音量インジケーター423、音量バー424、及び曲目表記425及びトップボタンTを含む。制御部211は、再生ボタン421Aが表示されている部分がタッチされると、曲を再生させ、停止ボタン421Bが表示されている部分がタッチされると、曲の再生を停止させる。また、制御部211は、送りボタン421Cが表示されている部分がタッチされると、再生する曲を次の曲に切り替え、一方、戻しボタン421Dが表示されている部分がタッチされると、再生中の曲について頭から再生をやり直す。更に、制御部211は、音量UPボタン422Aが表示されている部分がタッチされると、再生する曲の音量を上げるとともに、音量インジケーター423及び音量バー424の指示する音量を上げ、一方、音量DOWNボタン422Bが表示されている部分がタッチされると、再生する曲の音量を下げるとともに、音量インジケーター423及び音量バー424の指示する音量を下げる。なお、音量インジケーター423及び音量バー424は、設定音量を指示する。また、曲目表記425は、再生中の曲目を表す。   As shown in FIG. 6A, the operation screen 420 corresponding to the AUDIO menu has a play button 421A, a stop button 421B, a feed button 421C, a return button 421D, a volume UP button 422A, a volume DOWN button 422B, a volume indicator 423, It includes a volume bar 424, and a music notation 425 and a top button T. The control unit 211 plays the song when the portion where the play button 421A is displayed is touched, and stops the playing of the song when the portion where the stop button 421B is displayed is touched. Also, the control unit 211 switches the song to be played to the next song when the portion where the feed button 421C is displayed is touched, and when the portion where the return button 421D is displayed is touched, the control unit 211 plays the song. Replay the song inside from the beginning. Further, when the portion where the volume UP button 422A is displayed is touched, the control unit 211 raises the volume of the song to be played back and raises the volume instructed by the volume indicator 423 and the volume bar 424, while the volume DOWN. When the portion where the button 422B is displayed is touched, the volume of the song to be played back is lowered and the volume indicated by the volume indicator 423 and the volume bar 424 is lowered. The volume indicator 423 and the volume bar 424 indicate the set volume. Also, the song title 425 represents the song being played.

図6(B)に示すように、AUDIOメニューに対応する操作ガイド画像は、曲を再生させるための操作に対応するジェスチャーの方法を示す矢印321A及び左手図柄321Bを含む。矢印321A及び左手図柄321Bは、曲を再生させるための操作の方法が、左手の人差し指を一本立てて、且つ、上下に動かすことであることを示している。再生記号321Cは、矢印321A及び左手図柄321Bの近傍に表示されることで、これらが曲を再生させるための操作の方法を示していることを表している。制御部211は、曲を再生させるための操作に対応するジェスチャーを検出すると、曲を再生させる。   As shown in FIG. 6 (B), the operation guide image corresponding to the AUDIO menu includes an arrow 321A and a left-hand symbol 321B indicating a gesture method corresponding to an operation for reproducing a song. The arrow 321A and the left-hand symbol 321B indicate that the operation method for reproducing the song is to raise one index finger of the left hand and move it up and down. The reproduction symbol 321C is displayed in the vicinity of the arrow 321A and the left-hand symbol 321B to indicate that these indicate an operation method for reproducing the music. When the control unit 211 detects the gesture corresponding to the operation for playing the song, the control unit 211 plays the song.

また、AUDIOメニューに対応する操作ガイド画像は、曲の再生を停止させるための操作に対応するジェスチャーの方法を示す矢印322A及び左手図柄321Bを含む。矢印322A及び左手図柄321Bは、曲の再生を停止させるための操作の方法が、左手の人差し指を一本立てて、且つ、左右に動かすことであることを示している。停止記号322Cは、矢印322A及び左手図柄321Bの近傍に表示されることで、これらが曲の再生を停止させるための操作の方法を示していることを表している。制御部211は、曲の再生を停止させるための操作に対応するジェスチャーを検出すると、曲の再生を停止する。なお、図6(B)では、曲を再生させるための操作と、曲の再生を停止させるための操作に対応するジェスチャーについてそれぞれ左手図柄を表示するのではなく、左手図柄321Bを共用としたが、別々に左手図柄を表示させてもよい。   Further, the operation guide image corresponding to the AUDIO menu includes an arrow 322A and a left-hand symbol 321B indicating a method of a gesture corresponding to the operation for stopping the reproduction of the music. The arrow 322A and the left-hand symbol 321B indicate that the operation method for stopping the reproduction of the music is to raise one index finger of the left hand and move it to the left and right. The stop symbol 322C is displayed in the vicinity of the arrow 322A and the left-hand symbol 321B to indicate that these indicate an operation method for stopping the reproduction of the music. When the control unit 211 detects the gesture corresponding to the operation for stopping the reproduction of the music, the control unit 211 stops the reproduction of the music. In FIG. 6 (B), the left-hand design 321B is shared instead of displaying the left-hand design for each of the gestures corresponding to the operation for playing the song and the operation for stopping the playback of the song. , The left-hand design may be displayed separately.

更に、AUDIOメニューに対応する操作ガイド画像は、音量を変更するための操作に対応するジェスチャーの方法を示す矢印323A及び左手図柄323Bを含む。矢印323A及び左手図柄323Bは、音量を変更するための操作の方法が、左手の人差し指と中指を二本立てて、且つ、時計回り又は反時計回りに動かすことを示している。UP表記323Cは、時計回りが音量を上げるための操作の方法を示していることを表しており、一方、DOWN表記323Dは、反時計回りが音量を下げるための操作の方法を示していることを表している。制御部211は、音量を上げるための操作に対応するジェスチャーを検出すると、音量を上げるとともに、音量インジケーター323Eの指示する音量を上げ、一方、音量を下げるための操作に対応するジェスチャーを検出すると、音量を下げるとともに、音量インジケーター323Eの指示する音量を下げる。なお、音量インジケーター323Eは、設定音量を指示する。   Furthermore, the operation guide image corresponding to the AUDIO menu includes an arrow 323A and a left-hand symbol 323B indicating a method of gesture corresponding to the operation for changing the volume. The arrow 323A and the left-hand symbol 323B indicate that the operation method for changing the volume is to set two index fingers and the middle finger of the left hand and move them clockwise or counterclockwise. UP notation 323C indicates that clockwise indicates an operation method for increasing the volume, while DOWN notation 323D indicates that counterclockwise indicates an operation method for decreasing the volume. Is represented. When the control unit 211 detects the gesture corresponding to the operation for increasing the volume, the control unit 211 raises the volume and raises the volume instructed by the volume indicator 323E, while detecting the gesture corresponding to the operation for lowering the volume, The volume is lowered and the volume indicated by the volume indicator 323E is lowered. The volume indicator 323E indicates the set volume.

更にまた、AUDIOメニューに対応する操作ガイド画像は、曲送り操作と曲戻し操作に対応するジェスチャーの方法を示す矢印324A及び左手図柄324Bを含む。矢印324A及び左手図柄324Bは、曲送り操作と曲戻し操作の方法が、左手の人差し指を一本立てて、且つ、時計回り又は反時計回りに動かすことを示している。送り表記324Cは、時計回りが曲送り操作の方法を示していることを表しており、一方、戻し表記324Dは、反時計回りが曲戻し操作の方法を示していることを表している。制御部211は、曲送り操作に対応するジェスチャーを検出すると、再生する曲を次の曲に切り替え、一方、曲戻し操作に対応するジェスチャーを検出すると、再生中の曲について頭から再生をやり直す。   Furthermore, the operation guide image corresponding to the AUDIO menu includes an arrow 324A and a left-hand symbol 324B indicating a gesture method corresponding to the music feed operation and the music return operation. The arrow 324A and the left-hand symbol 324B indicate that the method of the music feeding operation and the music returning operation moves the index finger of the left hand upright and moves it clockwise or counterclockwise. The feed notation 324C indicates that clockwise indicates the method of the music feed operation, while the return notation 324D indicates that counterclockwise indicates the method of the music return operation. When the control unit 211 detects the gesture corresponding to the music piece forwarding operation, it switches the music piece to be reproduced to the next music piece.

図7(A)は、第1実施例における、ディスプレイ214cに表示されるNAVIメニューの操作画面430の一例を示す図であり、図7(B)は、第1実施例における、NAVIメニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。   FIG. 7 (A) is a diagram showing an example of the NAVI menu operation screen 430 displayed on the display 214c in the first embodiment, and FIG. 7 (B) is an operation of the NAVI menu in the first embodiment. It is a figure which shows a mode that the example of a guide image was projected on the back of a left hand.

NAVIメニューにそれぞれ対応する操作画面430及び操作ガイド画像は、制御部211が、操作者によるNAVIボタン403が表示されている部分に対するタッチを検出した場合、又は、NAVIメニューを表示させるための操作に対応するジェスチャーが検出した場合に表示される。   The operation screen 430 and the operation guide image respectively corresponding to the NAVI menu are used when the control unit 211 detects a touch on the portion where the NAVI button 403 is displayed by the operator, or when the operation for displaying the NAVI menu is performed. Displayed when the corresponding gesture is detected.

図7(A)に示すように、NAVIメニューに対応する操作画面430は、地図と、現在地ボタン431、目的地ボタン432、自宅ボタン433及びトップボタンTを含む。制御部211は、現在地ボタン431が表示されている部分がタッチされると、現在地を示す地図を含む操作画面430をディスプレイ214cに表示させる。また、制御部211は、目的地ボタン432が表示されている部分がタッチされると、目的地メニューに対応する操作画面をディスプレイ214cに表示させ、目的地メニューに対応する操作ガイド画像を操作者の左手に投影表示させる。更に、制御部211は、自宅ボタン433が表示されている部分がタッチされると、自宅への経路案内を開始する。   As shown in FIG. 7A, the operation screen 430 corresponding to the NAVI menu includes a map, a current location button 431, a destination button 432, a home button 433, and a top button T. When the part where the current position button 431 is displayed is touched, the control unit 211 causes the display 214c to display an operation screen 430 including a map indicating the current position. Further, when the portion where the destination button 432 is displayed is touched, the control unit 211 causes the display 214c to display the operation screen corresponding to the destination menu, and the operator can display the operation guide image corresponding to the destination menu. It is projected and displayed on the left hand of. Further, when the portion where the home button 433 is displayed is touched, the control unit 211 starts route guidance to the home.

図7(B)に示すように、NAVIメニューに対応する操作ガイド画像は、自宅への経路案内を開始させるための操作に対応するジェスチャーの方法を示す矢印331A及び左手図柄331Bを含む。矢印331A及び左手図柄331Bは、自宅への経路案内を開始させるための操作の方法が、左手の人差し指と中指を二本立てて、且つ、反時計回りに動かすことであることを示している。自宅表記331Cは、矢印331A及び左手図柄331Bの近傍に表示されることで、これらが自宅への経路案内を開始させるための操作の方法を示していることを表している。制御部211は、自宅への経路案内を開始させるための操作に対応するジェスチャーを検出すると、自宅への経路案内を開始する。   As shown in FIG. 7B, the operation guide image corresponding to the NAVI menu includes an arrow 331A and a left-hand symbol 331B indicating a gesture method corresponding to an operation for starting route guidance to a home. The arrow 331A and the left-hand pattern 331B indicate that the operation method for starting the route guidance to the home is to set two index fingers and the middle finger of the left hand and move them counterclockwise. The home notation 331C is displayed in the vicinity of the arrow 331A and the left-hand symbol 331B to indicate that these indicate an operation method for starting route guidance to the home. When detecting a gesture corresponding to the operation for starting the route guidance to the home, the control unit 211 starts the route guidance to the home.

また、NAVIメニューに対応する操作ガイド画像は、現在地を示す地図を表示させるための操作に対応するジェスチャーの方法を示す矢印332A及び左手図柄332Bを含む。矢印332A及び左手図柄332Bは、現在地を示す地図を表示させるための操作の方法が、左手の人差し指を一本立てて、且つ、上下に動かすことであることを示している。現在地表記332Cは、矢印332A及び左手図柄332Bの近傍に表示されることで、これらが現在地を示す地図を表示させるための操作の方法を示していることを表している。制御部211は、現在地を示す地図を表示させるための操作に対応するジェスチャーを検出すると、現在地を示す地図をディスプレイ214cに表示させる。   Further, the operation guide image corresponding to the NAVI menu includes an arrow 332A and a left-hand symbol 332B indicating a gesture method corresponding to the operation for displaying the map showing the current location. The arrow 332A and the left-hand pattern 332B indicate that the operation method for displaying the map showing the current position is to raise one index finger of the left hand and move it up and down. The present location notation 332C is displayed in the vicinity of the arrow 332A and the left-hand symbol 332B to indicate that these indicate an operation method for displaying a map showing the present location. When the control unit 211 detects the gesture corresponding to the operation for displaying the map indicating the current position, the control unit 211 causes the display 214c to display the map indicating the current position.

更に、NAVIメニューに対応する操作ガイド画像は、目的地メニューを表示させるための操作に対応するジェスチャーの方法を示す矢印333A及び左手図柄333Bを含む。矢印333A及び左手図柄333Bは、目的地メニューを表示させるための操作の方法が、左手の人差し指を一本立てて、且つ、左右に動かすことであることを示している。目的地表記333Cは、矢印333A及び左手図柄333Bの近傍に表示されることで、これらが目的地メニューを表示させるための操作の方法を示していることを表している。制御部211は、目的地メニューを表示させるための操作に対応するジェスチャーを検出すると、目的地メニューに対応する操作画面をディスプレイ214cに表示させ、目的地メニューに対応する操作ガイド画像を操作者の左手に投影表示させる。   Furthermore, the operation guide image corresponding to the NAVI menu includes an arrow 333A and a left-hand symbol 333B indicating a gesture method corresponding to the operation for displaying the destination menu. The arrow 333A and the left-hand pattern 333B indicate that the method of operation for displaying the destination menu is to raise one index finger of the left hand and move it to the left and right. The destination notation 333C is displayed in the vicinity of the arrow 333A and the left-hand symbol 333B, and indicates that these indicate an operation method for displaying the destination menu. When detecting the gesture corresponding to the operation for displaying the destination menu, the control unit 211 causes the display 214c to display the operation screen corresponding to the destination menu and displays the operation guide image corresponding to the destination menu of the operator. Project it on the left hand.

図8(A)は、第1実施例における、ディスプレイ214cに表示される目的地メニューの操作画面440の一例を示す図であり、図8(B)は、第1実施例における、目的地メニューの操作ガイド画像の一例を左手の甲に投影した様子を示す図である。   FIG. 8A is a diagram showing an example of a destination menu operation screen 440 displayed on the display 214c in the first embodiment, and FIG. 8B is a destination menu in the first embodiment. FIG. 6 is a diagram showing an example of the operation guide image of FIG.

目的地メニューにそれぞれ対応する操作画面440及び操作ガイド画像は、制御部211が、操作者による目的地ボタン432が表示されている部分に対するタッチを検出した場合、又は、目的地メニューを表示させるための操作に対応するジェスチャーが検出した場合に表示される。   The operation screen 440 and the operation guide image respectively corresponding to the destination menu are displayed when the control unit 211 detects a touch on the portion where the destination button 432 is displayed by the operator, or to display the destination menu. This is displayed when the gesture corresponding to the operation of is detected.

図8(A)に示すように、目的地メニューに対応する操作画面430は、履歴ボタン441、電話番号ボタン442、名称ボタン443及びトップボタンTを含む。制御部211は、履歴ボタン441が表示されている部分がタッチされると、目的地として設定又は検索された地点の履歴が操作者に提示される。例えば、ディスプレイ214cに、地点の履歴のリストが何れかの当該地点を選択できるように提示され、操作者は目的地として設定することができる。また、制御部211は、電話番号ボタン442が表示されている部分がタッチされると、電話番号を入力するための方法が操作者に提示され、操作者は電話番号を入力することにより目的地となる施設を検索することができ、当該施設を目的地として設定することができる。電話番号を入力するための方法としては従来公知の方法、例えば、ディスプレイ214cにテンキーを表示してタッチ入力させる方法や、マイク227を用いて音声入力する方法を採用することができる。更に、制御部211は、名称ボタン443が表示されている部分がタッチされると、名称を入力するための方法が操作者に提示され、操作者は名称を入力することにより目的地となる施設を検索することができ、当該施設を目的地として設定することができる。名称を入力するための方法としては従来公知の方法、例えば、ディスプレイ214cに50音を表示してタッチ入力させる方法や、マイク227を用いて音声入力する方法を採用することができる。   As shown in FIG. 8A, the operation screen 430 corresponding to the destination menu includes a history button 441, a telephone number button 442, a name button 443, and a top button T. When the portion where the history button 441 is displayed is touched, the control unit 211 presents the operator with the history of the point set or searched as the destination. For example, a list of history of points is presented on the display 214c so that one of the points can be selected, and the operator can set it as a destination. In addition, when the portion where the telephone number button 442 is displayed is touched, the control unit 211 presents the operator with a method for inputting the telephone number, and the operator inputs the telephone number to the destination. It is possible to search for a facility to be set and to set the facility as a destination. As a method for inputting a telephone number, a conventionally known method, for example, a method of displaying a ten key on the display 214c for touch input, or a method of inputting voice using the microphone 227 can be adopted. Further, when the portion where the name button 443 is displayed is touched, the control unit 211 presents the operator with a method for inputting the name, and the operator inputs the name to become the destination facility. Can be searched and the facility can be set as the destination. As a method for inputting the name, a conventionally known method, for example, a method of displaying the Japanese syllabary on the display 214c for touch input, or a method of inputting voice using the microphone 227 can be adopted.

図8(B)に示すように、目的地メニューに対応する操作ガイド画像は、人体におけるジェスチャーにより動かされる部分を特定する画像(「ジェスチャー情報」の一例)であって、ジェスチャーにより動かされる操作者の左手の薬指に対応する記号341A及び履歴表記341Bと、ジェスチャーにより動かされる中指に対応する記号342A及び電話番号表記342Bと、ジェスチャーにより動かされる人差し指に対応する記号343A及び名称表記343Bと、を含む。記号341A、342A、343Aは、それぞれが対応する指を折り曲げるジェスチャーにより履歴表示、電話番号入力、名称入力に関する操作が可能であることを示している。なお、操作者には、予め、操作者の左手に表示された操作ガイド画像に従って、記号341A、342A、343Aが表示されている指を折り曲げることにより、対応する表記341B、342B、343Bが示す項目を選択できることを知らせておくこととする。制御部211は、薬指を曲げるジェスチャーを検出した場合には、目的地として設定又は検索された地点の履歴を操作者に提示する。例えば、ディスプレイ214cに、地点の履歴のリストが何れかの当該地点を選択できるように提示され、操作者は目的地として設定することができる。また、制御部211は、中指を曲げるジェスチャーを検出した場合には、電話番号を入力するための方法を操作者に提示する。これにより、操作者は電話番号を入力することにより目的地となる施設を検索することができ、当該施設を目的地として設定することができる。電話番号を入力するための方法としては従来公知の方法、例えば、ディスプレイ214cにテンキーを表示してタッチ入力させる方法や、マイク227を用いて音声入力する方法を採用することができる。更に、制御部211は、人差し指を曲げるジェスチャーを検出した場合には、名称を入力するための方法を操作者に提示する。これにより、操作者は名称を入力することにより目的地となる施設を検索することができ、当該施設を目的地として設定することができる。名称を入力するための方法としては従来公知の方法、例えば、ディスプレイ214cに50音を表示してタッチ入力させる方法や、マイク227を用いて音声入力する方法を採用することができる。   As shown in FIG. 8B, the operation guide image corresponding to the destination menu is an image (an example of “gesture information”) that identifies a portion of the human body that is moved by a gesture, and is an operator who is moved by the gesture. Including a symbol 341A corresponding to the ring finger of the left hand and a history notation 341B, a symbol 342A corresponding to the middle finger moved by the gesture and a telephone number notation 342B, and a symbol 343A corresponding to the index finger moved by the gesture and a name notation 343B. . Symbols 341A, 342A, and 343A indicate that operations relating to history display, telephone number input, and name input can be performed by a gesture of bending the corresponding finger. It should be noted that for the operator, in accordance with the operation guide image displayed on the left hand of the operator in advance, by bending the finger displaying the symbols 341A, 342A, 343A, the items indicated by the corresponding notations 341B, 342B, 343B. I will let you know that you can choose. When detecting the gesture of bending the ring finger, the control unit 211 presents the operator with the history of the point set or searched as the destination. For example, a list of history of points is presented on the display 214c so that one of the points can be selected, and the operator can set it as a destination. In addition, when the control unit 211 detects a gesture of bending the middle finger, the control unit 211 presents the operator with a method for inputting a telephone number. Thereby, the operator can search for the facility which is the destination by inputting the telephone number, and can set the facility as the destination. As a method for inputting a telephone number, a conventionally known method, for example, a method of displaying a ten key on the display 214c for touch input, or a method of inputting voice using the microphone 227 can be adopted. Further, when detecting the gesture of bending the index finger, the control unit 211 presents the operator with a method for inputting a name. Thus, the operator can search for the facility which is the destination by inputting the name, and can set the facility as the destination. As a method for inputting the name, a conventionally known method, for example, a method of displaying the Japanese syllabary on the display 214c for touch input, or a method of inputting voice using the microphone 227 can be adopted.

[1.2.制御部211による表示制御処理]
次に、図9に示すフローチャートを用いて、制御部211による表示制御処理について説明する。なお、図9は、制御部211による表示制御処理の一例を示すフローチャートである。
[1.2. Display Control Processing by Control Unit 211]
Next, the display control processing by the control unit 211 will be described using the flowchart shown in FIG. Note that FIG. 9 is a flowchart showing an example of display control processing by the control unit 211.

まず、制御部211は、トップメニュー表示操作を検出すると(ステップS101)、左手情報を取得する(ステップS102)。   First, when the control unit 211 detects a top menu display operation (step S101), it acquires left-hand information (step S102).

次に、制御部211は、ステップS102で取得した左手情報に基づいて操作者の左手の位置と向きを特定し、操作者の左手の甲又は掌にトップメニューに対応する操作ガイド画像を投影機250により投影して表示させる(ステップS103)。   Next, the control unit 211 specifies the position and orientation of the left hand of the operator based on the left hand information acquired in step S102, and uses the projector 250 to display an operation guide image corresponding to the top menu on the back or palm of the left hand of the operator. The image is projected and displayed (step S103).

次に、制御部211は、ディスプレイ214cにトップメニューに対応する操作画面400を表示させる(ステップS104)。   Next, the control unit 211 causes the display 214c to display the operation screen 400 corresponding to the top menu (step S104).

次に、制御部211は、操作画面へのタッチ、又は、ジェスチャーを検出する(ステップS105)。具体的には、制御部211は、A/Cボタン401、AUDIOボタン402、NAVIボタン403の何れかが表示されている部分に対するタッチ、又は、A/Cメニュー、AUDIOメニュー、NAVIメニューの何れかを表示させるための操作に対応するジェスチャーを検出する。   Next, the control unit 211 detects a touch on the operation screen or a gesture (step S105). Specifically, the control unit 211 touches a portion where any one of the A / C button 401, the AUDIO button 402, and the NAVI button 403 is displayed, or selects one of the A / C menu, the AUDIO menu, and the NAVI menu. The gesture corresponding to the operation for displaying is detected.

次に、制御部211は、NAVIが選択されたか否かを判定する(ステップS106)。具体的には、制御部211は、ステップS105の処理においてNAVIボタン403が表示されている部分に対するタッチ、又は、NAVIメニューを表示させるための操作に対応するジェスチャーを検出したか否かを判定する。   Next, the control unit 211 determines whether NAVI has been selected (step S106). Specifically, the control unit 211 determines whether or not the touch on the portion where the NAVI button 403 is displayed or the gesture corresponding to the operation for displaying the NAVI menu is detected in the process of step S105. .

制御部211は、ステップS106の処理においてNAVIが選択されていない(すなわち、A/C又はAUDIOが選択された)と判定した場合には(ステップS106:NO)、左手情報を取得し、操作者の左手に、操作者により選択されたA/Cメニュー又はAUDIOメニューの何れかに対応する操作ガイド画像を表示させる(ステップS107)。次いで、制御部211は、ディスプレイ214cに、操作者により選択されたA/Cメニュー又はAUDIOメニューの何れかに対応する操作画面を表示させる(ステップS108)。次いで、制御部211は、操作画面へのタッチ又はジェスチャーを検出し(ステップS109)、ステップS117の処理に移行する。   When the control unit 211 determines that NAVI is not selected (that is, A / C or AUDIO is selected) in the process of step S106 (step S106: NO), the control unit 211 acquires left-hand information, and the operator The operation guide image corresponding to either the A / C menu or the AUDIO menu selected by the operator is displayed on the left hand of (step S107). Next, the control unit 211 causes the display 214c to display an operation screen corresponding to either the A / C menu or the AUDIO menu selected by the operator (step S108). Next, the control unit 211 detects a touch or gesture on the operation screen (step S109), and shifts to the processing of step S117.

一方、制御部211は、ステップS106の処理においてNAVIが選択されたと判定した場合には(ステップS106:YES)、左手情報を取得し、操作者の左手にNAVIメニューに対応する操作ガイド画像を投影機250により投影して表示させる(ステップS110)。次いで、制御部211は、ディスプレイ214cにNAVIメニューに対応する操作画面430を表示させる(ステップS111)。次いで、制御部211は、操作画面へのタッチ又はジェスチャーを検出する(ステップS112)。   On the other hand, when the control unit 211 determines that NAVI is selected in the process of step S106 (step S106: YES), it acquires left-hand information and projects an operation guide image corresponding to the NAVI menu on the operator's left hand. The image is projected and displayed by the machine 250 (step S110). Next, the control unit 211 causes the display 214c to display the operation screen 430 corresponding to the NAVI menu (step S111). Next, the control unit 211 detects a touch or a gesture on the operation screen (step S112).

次に、制御部211は、目的地が選択されたか否かを判定する(ステップS113)。具体的には、制御部211は、ステップS112の処理において目的地ボタン432が表示されている部分に対するタッチ、又は、目的地メニューを表示させるための操作に対応するジェスチャーを検出したか否かを判定する。   Next, the control unit 211 determines whether or not the destination has been selected (step S113). Specifically, the control unit 211 determines whether or not a gesture corresponding to the touch on the portion where the destination button 432 is displayed or the operation for displaying the destination menu is detected in the process of step S112. judge.

制御部211は、ステップS113の処理において目的地が選択されていない(すなわち、現在地又は自宅が選択された)と判定した場合には(ステップS113:NO)、ステップS117の処理に移行する。   When the control unit 211 determines in the process of step S113 that the destination is not selected (that is, the current position or the home is selected) (step S113: NO), the control unit 211 proceeds to the process of step S117.

一方、制御部211は、ステップS113の処理において目的地が選択されたと判定した場合には(ステップS113:YES)、左手情報を取得し、操作者の左手に目的地メニューに対応する操作ガイド画像を投影機250により投影して表示させる(ステップS114)。次いで、制御部211は、ディスプレイ214cに目的地メニューに対応する操作画面440を表示させる(ステップS115)。次いで、制御部211は、操作画面へのタッチ又はジェスチャーを検出し(ステップS116)、ステップS117の処理に移行する。   On the other hand, when the control unit 211 determines that the destination has been selected in the process of step S113 (step S113: YES), the left hand information is acquired and the operation guide image corresponding to the destination menu is displayed on the left hand of the operator. Is projected and displayed by the projector 250 (step S114). Next, the control unit 211 causes the display 214c to display the operation screen 440 corresponding to the destination menu (step S115). Next, the control unit 211 detects a touch or a gesture on the operation screen (step S116), and shifts to the processing of step S117.

次に、制御部211は、ステップS105の処理、ステップS109の処理、ステップS112の処理又はステップS116の処理で検出したタッチ又はジェスチャーに対応する操作に応じた処理を実行する(ステップS117)。例えば、制御部211は、制御部211は、A/Cメニューに対応する操作画面410(図5(A))の温度UPボタン413Aが表示されている部分に対するタッチを検出した場合、又は、A/Cメニューに対応する操作ガイド画像(図5(B))が表示されている際に、左手の人差し指と中指を二本立てて、且つ、時計回りに動かすジェスチャーを検出した場合には、空調機器229にその時点における温度から1℃上げた温度を示す温度情報を送信する処理を実行する。また、制御部211は、NAVIメニューに対応する操作画面430(図7(A))の現在地ボタン431が表示されている部分に対するタッチを検出した場合、又は、NAVIメニューに対応する操作ガイド画像(図7(B))が表示されている際に、左手の人差し指を一本立てて、且つ、上下に動かすジェスチャーを検出した場合には、現在地を示す地図を含む操作画面430をディスプレイ214cに表示させる処理を実行する。   Next, the control unit 211 executes processing corresponding to the operation corresponding to the touch or gesture detected in the processing of step S105, the processing of step S109, the processing of step S112, or the processing of step S116 (step S117). For example, when the control unit 211 detects a touch on a portion where the temperature UP button 413A of the operation screen 410 (FIG. 5A) corresponding to the A / C menu is detected, or A When the operation guide image (FIG. 5 (B)) corresponding to the / C menu is displayed, when the gesture of moving the index finger and the middle finger of the left hand upright and moving clockwise is detected, the air conditioner 229 is detected. Then, a process of transmitting temperature information indicating a temperature increased by 1 ° C. from the temperature at that time is executed. Further, when the control unit 211 detects a touch on a portion of the operation screen 430 (FIG. 7A) corresponding to the NAVI menu, where the current location button 431 is displayed, or the operation guide image corresponding to the NAVI menu ( 7 (B)) is displayed, if a gesture of raising one index finger of the left hand and moving up and down is detected, an operation screen 430 including a map showing the current position is displayed on the display 214c. Execute the process.

次に、制御部211は、左手情報を取得し、操作者の左手に、ステップS105の処理、ステップS109の処理、ステップS112の処理又はステップS116の処理で検出したタッチ又はジェスチャーによる操作の結果に対応する操作結果情報を投影機250により投影して表示させる(ステップS118)。例えば、制御部211は、ステップS117の処理において現在の設定温度に1℃加算した温度を示す温度情報を空調機器229に送信する処理を実行した場合には、設定温度を1℃加算したことを示す操作結果情報を表示させるべく、温度インジケーター313Eの示す設定温度を1℃加算して表示させる。   Next, the control unit 211 acquires the left-hand information and displays the result of the touch or gesture operation detected by the process of step S105, the process of step S109, the process of step S112, or the process of step S116 on the left hand of the operator. The corresponding operation result information is projected by the projector 250 and displayed (step S118). For example, when the control unit 211 executes the process of transmitting the temperature information indicating the temperature obtained by adding 1 ° C. to the current set temperature in the process of step S117 to the air conditioner 229, the controller 211 indicates that the set temperature is added by 1 ° C. In order to display the operation result information shown, the set temperature indicated by the temperature indicator 313E is added by 1 ° C. and displayed.

次に、制御部211は、ステップS105の処理、ステップS109の処理、ステップS112の処理又はステップS116の処理で検出したタッチ又はジェスチャーによる操作の結果に対応する操作結果情報をディスプレイ214cに表示させる(ステップS119)。例えば、制御部211は、ステップS117の処理において現在の設定温度に1℃加算した温度を示す温度情報を空調機器229に送信する処理を実行した場合には、設定温度を1℃加算したことを示す操作結果情報を表示させるべく、温度インジケーター413Cの示す設定温度を1℃加算して表示させる。   Next, the control unit 211 causes the display 214c to display the operation result information corresponding to the result of the operation by the touch or gesture detected in the process of step S105, the process of step S109, the process of step S112, or the process of step S116 ( Step S119). For example, when the control unit 211 executes the process of transmitting the temperature information indicating the temperature obtained by adding 1 ° C. to the current set temperature in the process of step S117 to the air conditioner 229, the controller 211 indicates that the set temperature is added by 1 ° C. In order to display the operation result information shown, the set temperature indicated by the temperature indicator 413C is added by 1 ° C. and displayed.

次に、制御部211は、タッチ又はジェスチャーを更に検出したか否かを判定する(ステップS120)。制御部211は、タッチ又はジェスチャーを更に検出したと判定した場合には(ステップS120:YES)、ステップS117の処理に移行する。例えば、制御部211は、ステップS109の処理において温度を上昇させるための操作に対応するジェスチャーを検出したことに基づいて、ステップS117の処理において現在の設定温度に1℃加算した温度を示す温度情報を空調機器229に送信する処理を実行した後、温度を上昇させるための操作に対応するジェスチャーを更に検出したと判定した場合には、再度、ステップS117の処理において現在の設定温度に1℃加算した温度を示す温度情報を空調機器229に送信する処理を実行し、温度インジケーター313Eの示す設定温度を1℃加算して表示させ(ステップS118)、温度インジケーター413Cの示す設定温度を1℃加算して表示させる(ステップS119)。すなわち、ステップS117からステップ119の処理を2回繰り返すことにより、設定温度を2℃加算することとなる。一方、制御部211は、ジェスチャーを更に検出しないと判定した場合には(ステップS120:NO)、制御部211による表示制御処理を終了する。   Next, the control unit 211 determines whether or not a touch or gesture is further detected (step S120). When the control unit 211 determines that a touch or gesture is further detected (step S120: YES), the control unit 211 proceeds to the process of step S117. For example, the control unit 211 detects the gesture corresponding to the operation for raising the temperature in the process of step S109, and based on the detection of the gesture, the temperature information indicating the temperature obtained by adding 1 ° C. to the current set temperature in the process of step S117. If it is determined that the gesture corresponding to the operation for raising the temperature is further detected after the process of transmitting the temperature to the air conditioner 229 is added, 1 ° C. is added to the current set temperature again in the process of step S117. The temperature information indicating the temperature is transmitted to the air conditioner 229, the set temperature indicated by the temperature indicator 313E is increased by 1 ° C. and displayed (step S118), and the set temperature indicated by the temperature indicator 413C is increased by 1 ° C. Are displayed (step S119). That is, the set temperature is increased by 2 ° C. by repeating the processing of steps S117 to 119 twice. On the other hand, when the control unit 211 determines that the gesture is not further detected (step S120: NO), the display control process by the control unit 211 ends.

[2.第2実施例]
次に、上述した実施形態に対応する第2実施例について説明する。なお、以下に説明する第2実施例は、第1実施例とほぼ同様であるため第1実施例との相違点を中心に説明し、第1実施例と同様の部材、処理については同一の符号を用いて説明する。
[2. Second embodiment]
Next, a second example corresponding to the above-described embodiment will be described. Since the second embodiment described below is substantially the same as the first embodiment, differences from the first embodiment will be mainly described, and the same members and processes as those of the first embodiment are the same. Description will be given using reference numerals.

第1実施例では、車載装置200の制御部211は、図9のステップS118の処理において、操作者の左手に、ステップS105の処理、ステップS109の処理、ステップS112の処理又はステップS116の処理で検出したタッチ又はジェスチャーによる操作結果に対応する操作結果情報を表示させた。これに対して、第2実施例における制御部211は、操作結果情報を表示する表示位置を決定する処理を行ってから、当該処理で決定した表示位置に操作結果情報を表示させる。以下、当該処理について、図11を用いて説明する。図11は、第2実施例における制御部211による表示制御処理の一部(第1実施例の表示制御処理と相違する部分(ステップS118))を示すフローチャートである。   In the first embodiment, the control unit 211 of the in-vehicle apparatus 200 performs the processing of step S105, the processing of step S109, the processing of step S112, or the processing of step S116 on the left hand of the operator in the processing of step S118 of FIG. The operation result information corresponding to the operation result by the detected touch or gesture was displayed. On the other hand, the control unit 211 in the second embodiment performs the process of determining the display position for displaying the operation result information, and then displays the operation result information at the display position determined by the process. The process will be described below with reference to FIG. FIG. 11 is a flowchart showing a part of the display control process (the part different from the display control process of the first embodiment (step S118)) by the control unit 211 in the second embodiment.

図10に示すように、制御部211は、図9のステップS117の処理に次いで、ステップS105の処理、ステップS109の処理、ステップS112の処理又はステップS116の処理で検出したタッチ又はジェスチャーによる操作結果に対応する操作結果情報を表示する表示位置を決定する(ステップS201)。   As shown in FIG. 10, the control unit 211 follows the process of step S117 of FIG. 9 and then the operation result by the touch or gesture detected in the process of step S105, the process of step S109, the process of step S112, or the process of step S116. The display position for displaying the operation result information corresponding to is determined (step S201).

次に、制御部211は、ステップS201の処理で決定した表示位置に操作結果情報を投影機250により投影して表示させ(ステップS202)、図9のステップS119の処理に移行する。   Next, the control unit 211 causes the projector 250 to project and display the operation result information at the display position determined in the process of step S201 (step S202), and proceeds to the process of step S119 of FIG.

次に、ステップS201の処理に関して、制御部211が操作結果情報を表示する表示位置を決定する方法である表示位置決定方法について説明する。   Next, regarding the processing of step S201, a display position determination method that is a method for the control unit 211 to determine the display position for displaying the operation result information will be described.

まず、第1の表示位置決定方法は、表示位置を操作者又は同乗者(車載装置200が搭載されている車両に同乗している人物)の見ている位置(視線が注がれているところである視点)とする方法である。第1の表示位置決定方法では、制御部211は、操作者又は同乗者の視点を特定して当該視点を表示位置として決定する。視点を特定する方法としては、例えば、操作者や同乗者の顔(特に目)を撮影するカメラ226からのカメラ画像情報を解析する方法など、従来公知の手法を採用することができる。なお、制御部211は、カメラ画像情報を解析することにより、同乗者の存在及び同乗者の視点を検出することとする。   First, in the first display position determination method, the display position is the position (where the line of sight is focused) seen by the operator or fellow passenger (a person who is in the vehicle equipped with the in-vehicle apparatus 200). A certain viewpoint). In the first display position determination method, the control unit 211 specifies the viewpoint of the operator or fellow passenger and determines the viewpoint as the display position. As a method of specifying the viewpoint, for example, a conventionally known method such as a method of analyzing camera image information from the camera 226 that captures the face (especially eyes) of the operator or the passenger can be adopted. Note that the control unit 211 detects the presence of the fellow passenger and the viewpoint of the fellow passenger by analyzing the camera image information.

第2の表示位置決定方法は、表示位置を操作対象機器の近傍(操作対象機器から所定の範囲内)とする方法である。例えば、車載装置200から30cm以内の位置で表示位置を決定することとしてもよいし、また、車載装置200が車両のインストルメントパネルに埋め込まれている場合には、インストルメントパネルの何れかの部分を表示位置に決定することとしてもよい。このとき、投影機250で投影した画像が見やすい部分を決定するのが好ましい。   The second display position determination method is a method of setting the display position in the vicinity of the operation target device (within a predetermined range from the operation target device). For example, the display position may be determined at a position within 30 cm from the vehicle-mounted device 200. Further, when the vehicle-mounted device 200 is embedded in the instrument panel of the vehicle, any part of the instrument panel may be determined. May be determined as the display position. At this time, it is preferable to determine a portion where the image projected by the projector 250 is easy to see.

第3の表示位置決定方法は、表示位置を操作者や同乗者が見えやすい位置とする方法である。例えば、操作者が見えやすいように、搭乗者や同乗者の上部にある天井部、当該搭乗者や同乗者の側方にあるドアや窓、又は、当該搭乗者や同乗者の人体の一部(例えば、上肢、下肢(大腿部)など)を、表示位置として決定することとしてもよい。また、後部座席に搭乗している同乗者が見えやすいように、当該同乗者の前方にあるシートの背面部分を、表示位置として決定することとしてもよい。これらの位置は、予め位置を示す位置情報を記憶部212に記憶させておくこととしてもよいし、車内を撮影するカメラ226からのカメラ画像情報を解析して特定することとしてもよい。   The third display position determination method is a method of setting the display position so that the operator and fellow passengers can easily see it. For example, to make it easy for the operator to see, the ceiling above the passenger or passenger, the door or window on the side of the passenger or passenger, or a part of the passenger or passenger's body (For example, the upper limb, the lower limb (thigh), etc.) may be determined as the display position. Further, the back portion of the seat in front of the passenger may be determined as the display position so that the passenger riding in the rear seat can easily see the passenger. For these positions, position information indicating the positions may be stored in the storage unit 212 in advance, or the camera image information from the camera 226 that captures the inside of the vehicle may be analyzed and specified.

なお、制御部211は、第1の表示位置決定方法から第3の表示位置決定方法の中で挙げた位置の中から少なくとも何れかの位置を選択することにより表示位置を決定することとしてもよい。また、制御部211は、複数の表示位置を決定し、これらの表示位置に同時に操作結果情報を表示させることとしてもよい。   Note that the control unit 211 may determine the display position by selecting at least one of the positions listed in the first display position determination method to the third display position determination method. . In addition, the control unit 211 may determine a plurality of display positions and simultaneously display the operation result information at these display positions.

以上説明したように、第2実施例における車載装置200は、制御部211(「取得手段」、「決定手段」、「表示制御手段」)が、操作者による車載装置200(「操作対象機器」の一例)の操作結果を取得し、操作結果に対応する操作結果情報(「表示情報」の一例)を投影により表示する位置を決定し、当該決定した位置に操作結果情報を投影により表示させる。   As described above, in the in-vehicle apparatus 200 according to the second embodiment, the control unit 211 (“acquisition unit”, “determination unit”, “display control unit”) has the in-vehicle apparatus 200 (“operation target device”) operated by the operator. Of the operation result), the position at which the operation result information (an example of “display information”) corresponding to the operation result is displayed by projection is determined, and the operation result information is displayed at the determined position by projection.

したがって、第2実施例における車載装置200によれば、操作結果情報を投影により表示する位置が決定され、当該決定された位置に操作結果情報が投影により表示される。したがって、操作結果情報を車載装置200のディスプレイ214cに固定的に表示することを避けることができる。   Therefore, according to the in-vehicle apparatus 200 in the second embodiment, the position at which the operation result information is displayed by projection is determined, and the operation result information is displayed at the determined position by projection. Therefore, it is possible to avoid fixedly displaying the operation result information on the display 214c of the in-vehicle apparatus 200.

また、第2実施例における車載装置200の制御部211は、操作者の人体の一部を、操作結果情報を表示する位置に決定することができる。これにより、操作者は、操作結果情報を見やすくなる。また、制御部211が、操作者の上肢を、操作結果情報を表示する位置に決定した場合、操作者は操作結果情報をより見やすくなる。   In addition, the control unit 211 of the in-vehicle apparatus 200 according to the second embodiment can determine a part of the human body of the operator as the position where the operation result information is displayed. This makes it easier for the operator to see the operation result information. Further, when the control unit 211 determines the upper limb of the operator at the position where the operation result information is displayed, the operator can more easily see the operation result information.

更に、第2実施例における車載装置200の制御部211(「視点検出手段」の一例)は、操作者の視線が注がれているところである視点を検出し、当該検出した視点を、操作結果情報を表示する位置に決定することができる。この場合、操作者の視線が注がれているところに操作結果情報が表示されることから、操作者は操作結果情報を見やすい。   Further, the control unit 211 (an example of “viewpoint detecting means”) of the vehicle-mounted apparatus 200 in the second embodiment detects a viewpoint where the operator's line of sight is focused, and sets the detected viewpoint as the operation result. The position to display the information can be determined. In this case, since the operation result information is displayed where the operator's line of sight is focused, the operator can easily see the operation result information.

更にまた、第2実施例における車載装置200の制御部211が、車載装置200から所定の範囲内で、操作結果情報を表示する位置を決定することができる。この場合、操作者は、車載装置200から視線をあまり移動させることなく操作結果情報を見ることができる。   Furthermore, the control unit 211 of the in-vehicle apparatus 200 in the second embodiment can determine the position where the operation result information is displayed within a predetermined range from the in-vehicle apparatus 200. In this case, the operator can view the operation result information without moving the line of sight from the vehicle-mounted apparatus 200.

更にまた、第2実施例における車載装置200の制御部211(「人物検出手段」の一例)が、同乗者(「操作者と同一空間にいる人物」の一例)を検出し、当該同乗者から視認可能な位置を、操作結果情報を表示する位置に決定することができる。この場合、同乗者は、操作結果情報を視認することができる。   Furthermore, the control unit 211 (an example of “person detecting means”) of the vehicle-mounted apparatus 200 in the second embodiment detects a fellow passenger (an example of “person in the same space as the operator”), and detects from the fellow passenger. The visible position can be determined as the position where the operation result information is displayed. In this case, the passenger can visually recognize the operation result information.

更にまた、第2実施例における車載装置200の制御部211は、操作結果情報を表示する複数の位置を決定し、当該複数の位置に操作結果情報を投影により表示させることができる。これにより、複数の位置に操作結果情報が表示されることから、操作者は見やすい位置に表示された操作結果情報を見ることができ、利便性が向上する。   Furthermore, the control unit 211 of the in-vehicle apparatus 200 according to the second embodiment can determine a plurality of positions for displaying the operation result information and display the operation result information on the plurality of positions by projection. Accordingly, since the operation result information is displayed at a plurality of positions, the operator can see the operation result information displayed at the position that is easy to see, which improves convenience.

更にまた、第2実施例における車載装置200の制御部211は、操作者の人体の一部の動きであるジェスチャーによる操作結果を取得する。これにより、操作者は正しく操作ができたか確認しづらいジェスチャーによる操作について、操作結果情報から正しく操作ができたか確認することができる。   Furthermore, the control unit 211 of the in-vehicle apparatus 200 according to the second embodiment acquires an operation result of a gesture that is a motion of a part of the human body of the operator. Thereby, the operator can confirm whether or not the operation by the gesture, which is difficult to confirm whether or not the operation was correctly performed, can be correctly performed from the operation result information.

[3.変形例]
次に、本実施例の変形例について説明する。なお、以下に説明する変形例は適宜組み合わせることができる。
[3. Modification]
Next, a modification of the present embodiment will be described. The modifications described below can be combined as appropriate.

[3.1.変形例1]
第1実施例及び第2実施例では、左手を動かすジェスチャーによる操作について説明したが、その他の体の部分(例えば、右手、左足、右足など)を動かすジェスチャーによる操作について本発明を適用することができる。なお、図4(B)に示すように、ジェスチャーを行う左手に操作ガイド画像を表示させる場合には、左手を表す左手図柄301B、302B、303Bを用いたが、ジェスチャーを行う体の一部を操作ガイド画像に用いることとしてもよい。例えば、ジェスチャーを右手で行う場合には、右手を表す右手図柄を操作ガイド画像に用いることとする。
[3.1. Modification 1]
In the first and second embodiments, the operation by the gesture of moving the left hand has been described, but the present invention may be applied to the operation by the gesture of moving other body parts (for example, the right hand, the left foot, the right foot). it can. As shown in FIG. 4B, when the operation guide image is displayed on the left hand performing the gesture, the left-hand symbols 301B, 302B, 303B representing the left hand are used. It may be used for the operation guide image. For example, when the gesture is performed with the right hand, the right hand pattern representing the right hand is used as the operation guide image.

[3.2.変形例2]
第1実施例及び第2実施例では、図5に示したように、操作結果情報の一例として、ジェスチャーにより空調装置としての車載装置200を操作した結果を示す温度インジケーター313Eを表示することとしたが、操作のために行われたジェスチャーを示す情報を操作結果情報として表示することとしてもよい。例えば、制御部211は、左手を掌(又は甲)の向きを維持したまま回転させるジェスチャーの軌跡を検出した場合には、図11に示すように、当該軌跡を示すトレース線371を表す画像を左手に表示させることとしてもよい。なお、トレース線371を表示する場所は、操作者の体の他の部分でもよい。また、ジェスチャーを行っている部分(この例では左手)に表示させる場合には、操作者が視認できるように操作者の顔に向いている部分に表示させるのが好ましい。
[3.2. Modification 2]
In the first and second embodiments, as shown in FIG. 5, as an example of the operation result information, a temperature indicator 313E indicating the result of operating the vehicle-mounted device 200 as the air conditioner by a gesture is displayed. However, the information indicating the gesture performed for the operation may be displayed as the operation result information. For example, when the control unit 211 detects the trajectory of the gesture of rotating the left hand while maintaining the orientation of the palm (or the instep), as illustrated in FIG. 11, an image representing the trace line 371 indicating the trajectory is displayed. It may be displayed on the left hand. The place where the trace line 371 is displayed may be another part of the operator's body. Further, when the gesture is displayed on the part (left hand in this example), it is preferable to display on the part facing the operator's face so that the operator can visually recognize it.

[3.3.変形例3]
第1実施例及び第2実施例では、制御部211は、操作結果情報を表示することとしたが、操作結果情報を表示する際、ジェスチャーによる操作以外の方法による操作の結果を表示することとしてもよい。例えば、リモコンや操作対象機器が備えるボタンを押下する操作、音声による操作などに応じた操作結果情報を表示することとしてもよい。音声による操作の結果を示す操作結果情報を表示する場合には、図12に示すように、操作のために発した音声に対応する文字を示す音声入力表記381を表す画像を左手に表示することとしてもよい。このとき、制御部211は、マイク227から受信したマイク音声情報について従来公知の音声認識処理を行い、認識した音声に対応する文字を示す音声入力表記381を表す画像を投影機250により投影して表示させることとしてもよい。なお、音声入力表記381を表示する場所は、操作者の体の他の部分でもよい。また、体の一部に表示させる場合には、操作者が視認できるように操作者の顔に向いている部分に表示させるのが好ましい。
[3.3. Modification 3]
In the first and second embodiments, the control unit 211 displays the operation result information. However, when displaying the operation result information, the control unit 211 displays the operation result by a method other than the gesture operation. Good. For example, the operation result information may be displayed in response to an operation of pressing a button included in the remote controller or the operation target device, an operation by voice, or the like. When displaying the operation result information indicating the result of the operation by voice, as shown in FIG. 12, an image showing the voice input notation 381 indicating the characters corresponding to the voice uttered for the operation should be displayed on the left hand. May be At this time, the control unit 211 performs conventionally known voice recognition processing on the microphone voice information received from the microphone 227, and projects an image representing the voice input notation 381 indicating the character corresponding to the recognized voice with the projector 250. It may be displayed. The place where the voice input notation 381 is displayed may be another part of the operator's body. Further, when displaying on a part of the body, it is preferable to display on a part facing the operator's face so that the operator can visually recognize it.

[3.4.変形例4]
第1実施例及び第2実施例では、操作の際のジェスチャーを示す操作ガイド画像と、操作の結果を示す操作結果情報を人体の一部に表示させることとしたが、操作ガイド画像又は操作結果情報の何れか一方を表示させることとしてもよい。なお、操作ガイド画像や操作結果情報を表示する場所は、操作者の体の一部であればよく、例えば、ジェスチャーが行われる部分であってもよい。また、体の一部に表示させる場合には、操作者が視認できるように操作者の顔に向いている部分に表示させるのが好ましい。
[3.4. Modification 4]
In the first embodiment and the second embodiment, the operation guide image showing the gesture during the operation and the operation result information showing the result of the operation are displayed on a part of the human body. However, the operation guide image or the operation result is displayed. Either one of the information may be displayed. The place where the operation guide image and the operation result information are displayed may be a part of the operator's body, and may be a part where a gesture is performed, for example. Further, when displaying on a part of the body, it is preferable to display on a part facing the operator's face so that the operator can visually recognize it.

[3.5.変形例5]
第1実施例及び第2実施例では、制御部211は、トップメニュー表示操作に基づいてトップメニューを表示し、その中から、A/Cメニュー、AUDIOメニュー、又はNAVIメニューを操作者に選択させることとしたが、A/Cメニュー、AUDIOメニュー、又はNAVIメニューを直接表示する操作を定めておき、当該操作が検出された場合には、トップメニューを表示させることなく、該当するメニューを表示させることとしてもよい。例えば、制御部211は、A/Cメニューを表示させるA/Cメニュー表示操作が検出された場合に、直ちに、A/Cメニューに対応する操作画面及び操作ガイド画像を表示させることとしてもよい。なお、A/Cメニュー表示操作は予め操作者が把握できるようにしておくこととする。これにより、A/Cメニューを表示させたい場合に、わざわざ、トップメニュー表示操作に基づいてトップメニューを表示させることなく、直ちに、A/Cメニューを表示させることができ、操作者の利便性が向上する。なお、A/Cメニュー表示操作がジェスチャーによるものであって、当該A/Cメニュー表示操作に基づいてA/Cメニューを表示させる場合には、A/Cメニュー表示操作に対応するジェスチャーが行われる体の一部にA/Cメニューを表示させることとしてもよい。例えば、A/Cメニュー表示操作が左手に関するジェスチャーである場合には、左手にA/Cメニューを表示させる。このとき、操作者が視認できるように操作者の顔に向いている部分に表示させるのが好ましい。
[3.5. Modification 5]
In the first and second embodiments, the control unit 211 displays the top menu based on the top menu display operation, and allows the operator to select the A / C menu, the AUDIO menu, or the NAVI menu. However, if an operation for directly displaying the A / C menu, AUDIO menu, or NAVI menu is defined, and if the operation is detected, the corresponding menu may be displayed without displaying the top menu. Good. For example, the control unit 211 may immediately display the operation screen and the operation guide image corresponding to the A / C menu when the A / C menu display operation for displaying the A / C menu is detected. It should be noted that the A / C menu display operation is to be grasped by the operator in advance. As a result, when an A / C menu is desired to be displayed, the A / C menu can be immediately displayed without the purpose of displaying the top menu based on the top menu display operation, which improves the convenience of the operator. . If the A / C menu display operation is a gesture and the A / C menu is displayed based on the A / C menu display operation, the gesture corresponding to the A / C menu display operation is performed. The A / C menu may be displayed on a part of the body. For example, when the A / C menu display operation is a gesture related to the left hand, the A / C menu is displayed on the left hand. At this time, it is preferable to display in a portion facing the operator's face so that the operator can visually recognize it.

[3.6.変形例6]
第1実施例及び第2実施例では、操作者は自宅への経路案内を開始させる場合、トップメニューからNAVIメニューを選択し、NAVIメニューに対応する操作画面430の自宅ボタン433にタッチするか、NAVIメニューに対応する操作ガイド画像に基づいて左手の人差し指と中指を二本立てて、且つ、反時計回りに動かすジェスチャーを行うという手順を踏むこととしたが、これに代えて、予め設定された操作に対応するジェスチャーの方法を示す操作ガイド画像を体の一部(操作者が視認可能な位置であることが好ましい)に表示させておくこととし、制御部211は、当該体の一部によるジェスチャーであって、操作ガイド画像に示された方法のジェスチャーが検出された場合には、当該ジェスチャーに対応する操作に応じた処理を実行することとしてもよい。
[3.6. Modification 6]
In the first and second embodiments, when the operator starts route guidance to the home, the operator selects the NAVI menu from the top menu and touches the home button 433 on the operation screen 430 corresponding to the NAVI menu or the NAVI menu. Based on the operation guide image corresponding to the menu, I decided to perform the gesture of standing two index fingers and the middle finger of the left hand and making a counterclockwise motion, but instead of this, it corresponds to the preset operation The operation guide image indicating the gesture method to be performed is displayed on a part of the body (preferably at a position visible to the operator), and the control unit 211 is a gesture by the part of the body. Then, when the gesture of the method shown in the operation guide image is detected, the operation corresponding to the gesture is detected. It is also possible to run the management.

[3.7.変形例7]
第1実施例及び第2実施例では、図8(B)に示したように、目的地メニューに対応する操作ガイド画像は、人体におけるジェスチャーにより動かされる部分を特定する画像であって、ジェスチャーにより動かされる操作者の左手の薬指に対応する記号341A及び履歴表記341Bと、ジェスチャーにより動かされる中指に対応する記号342A及び電話番号表記342Bと、ジェスチャーにより動かされる人差し指に対応する記号343A及び名称表記343Bと、を含み、それぞれが対応する指を折り曲げるジェスチャーにより履歴表示、電話番号入力、名称入力に関する操作が可能であることを示した。これに代えて、例えば、操作者の右手に「履歴」を表す画像(「ジェスチャー情報」の一例)、左手に「電話番号」を表す画像(「ジェスチャー情報」の一例)、左足に「名称」を表す画像(「ジェスチャー情報」の一例)を表示し、右手、左手、左足を動かすそれぞれのジェスチャーにより履歴表示、電話番号入力、名称入力に関する操作が可能であることを示してもよい。
[3.7. Modification 7]
In the first and second embodiments, as shown in FIG. 8B, the operation guide image corresponding to the destination menu is an image that identifies a portion of the human body that is moved by a gesture, and Symbol 341A and history notation 341B corresponding to the ring finger of the operator's left hand to be moved, symbol 342A and telephone number notation 342B corresponding to the middle finger moved by the gesture, and symbol 343A and name notation 343B corresponding to the index finger moved by the gesture. It is shown that it is possible to perform operations related to history display, phone number input, and name input by the gestures of bending the corresponding fingers. Instead, for example, an image showing "history" on the operator's right hand (an example of "gesture information"), an image showing a "phone number" on the left hand (an example of "gesture information"), and a "name" on the left foot May be displayed (an example of “gesture information”) to indicate that operations related to history display, telephone number input, and name input are possible with each gesture of moving the right hand, left hand, and left foot.

[3.8.変形例8]
第1実施例及び第2実施例における図4(B)、図5(B)、図6(B)、図7(B)では、複数の操作に対応するジェスチャーの方法を表す操作ガイド画像について説明し、図8(B)では、複数の操作に対応する動かすべき人体の部分を示す操作ガイド画像について説明したが、必ずしも複数の操作について表示する必要はなく、前者であれば、その時点で操作可能な一部(例えば一つ)の操作に対応するジェスチャーの方法を表す操作ガイド画像とし、後者であれば、その時点で操作可能な一部(例えば一つ)の操作に対応する動かすべき人体の部分を示す操作ガイド画像とすることとしてもよい。
[3.8. Modification 8]
In FIG. 4B, FIG. 5B, FIG. 6B, and FIG. 7B in the first and second embodiments, the operation guide image indicating the gesture method corresponding to a plurality of operations is shown. 8B, the operation guide image showing the portion of the human body to be moved corresponding to the plurality of operations has been described, but it is not always necessary to display the plurality of operations, and in the former case, at that time An operation guide image representing a gesture method corresponding to some operable (eg, one) operation, and in the latter case, should be moved corresponding to some operable (eg, one) operation at that time. The operation guide image showing the human body part may be used.

100 表示制御装置
101 取得手段
102 決定手段
103 表示制御手段
200 車載装置
211 制御部
211a CPU
211b ROM
211c RAM
212 記憶部
213 入力部
214 表示ユニット
214a グラフィックスコントローラ
214b バッファメモリ
214c ディスプレイ
215 バスライン
220 入出力インターフェース部
221 車速センサ
222 角速度センサ
223 加速度センサ
224 舵角センサ
225 GNSS受信部
226 カメラ
227 マイク
228 スピーカー
229 空調機器
250 投影機
100 display control device 101 acquisition means 102 determination means 103 display control means 200 vehicle-mounted device 211 control unit 211a CPU
211b ROM
211c RAM
212 storage unit 213 input unit 214 display unit 214a graphics controller 214b buffer memory 214c display 215 bus line 220 input / output interface unit 221 vehicle speed sensor 222 angular velocity sensor 223 acceleration sensor 224 steering angle sensor 225 GNSS receiver 226 camera 227 microphone 228 speaker 229 Air conditioner 250 Projector

Claims (12)

操作者による操作対象機器の操作結果を取得する取得手段と、
前記操作結果に対応する表示情報を投影により表示する位置を決定する決定手段と、
前記決定手段により決定された位置に前記表示情報を投影により表示させる表示制御手段と、
を備えることを特徴とする表示制御装置。
Acquisition means for acquiring the operation result of the operation target device by the operator,
Determining means for determining the position where the display information corresponding to the operation result is displayed by projection;
Display control means for displaying the display information at a position determined by the determination means by projection;
A display control device comprising:
請求項1に記載の表示制御装置であって、
前記決定手段は、前記操作者の人体の一部を前記位置に決定することを特徴とする表示制御装置。
The display control device according to claim 1, wherein
The display control device, wherein the determination means determines a part of the human body of the operator at the position.
請求項2に記載の表示制御装置であって、
前記人体の一部は上肢であることを特徴とする表示制御装置。
The display control device according to claim 2, wherein
A display control device, wherein a part of the human body is an upper limb.
請求項1に記載の表示制御装置であって、
前記操作者の視点を検出する視点検出手段を更に備え、
前記決定手段は、前記検出された視点を前記位置に決定することを特徴とする表示制御装置。
The display control device according to claim 1, wherein
Further comprising viewpoint detection means for detecting the viewpoint of the operator,
The display control device, wherein the determining means determines the detected viewpoint at the position.
請求項1に記載の表示制御装置であって、
前記決定手段は、前記操作対象機器から所定の範囲内で前記位置を決定することを特徴とする表示制御装置。
The display control device according to claim 1, wherein
The display control device, wherein the determining means determines the position within a predetermined range from the operation target device.
請求項1に記載の表示制御装置であって、
前記操作者と同一空間にいる人物を検出する人物検出手段を更に備え、
前記決定手段は、前記人物から視認可能な前記位置を決定することを特徴とする表示制御装置。
The display control device according to claim 1, wherein
Further comprising a person detecting means for detecting a person in the same space as the operator,
The display control device, wherein the determination unit determines the position that can be visually recognized by the person.
請求項1乃至6の何れか一項に記載の表示制御装置であって、
前記決定手段は、複数の前記位置を決定し、
前記表示制御手段は、前記決定手段により決定された複数の位置に前記表示情報を投影により表示させることを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 6,
The determining means determines a plurality of the positions,
The display control device displays the display information by projection at a plurality of positions determined by the determination device.
請求項1乃至7の何れか一項に記載の表示制御装置であって、
前記取得手段は、前記操作者の人体の一部の動きであるジェスチャーによる前記操作結果を取得することを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 7,
The display control device, wherein the acquisition unit acquires the operation result by a gesture that is a motion of a part of the human body of the operator.
請求項8に記載の表示制御装置であって、
前記操作結果は、前記操作者の人体の一部の動きであるジェスチャーの軌跡であり、
前記表示情報は、前記軌跡を示し、
前記表示制御手段は、前記軌跡を投影により表示させることを特徴とする表示制御装置。
The display control device according to claim 8,
The operation result is a trajectory of a gesture that is a movement of a part of the human body of the operator,
The display information indicates the locus,
The display control device, wherein the display control means displays the trajectory by projection.
請求項1乃至9の何れか一項に記載の表示制御装置と、前記表示情報を投影により表示する表示装置と、を備えることを特徴とする表示システム。   A display system comprising: the display control device according to any one of claims 1 to 9; and a display device that displays the display information by projection. 表示制御装置による表示制御方法であって、
操作者による操作対象機器の操作結果を取得する取得工程と、
前記操作結果に対応する表示情報を投影により表示する位置を決定する決定工程と、
前記決定工程により決定された位置に前記表示情報を投影により表示させる表示制御工程と、
を含むことを特徴とする表示制御方法。
A display control method by a display control device,
An acquisition step of acquiring the operation result of the operation target device by the operator,
A determining step of determining a position at which display information corresponding to the operation result is displayed by projection;
A display control step of displaying the display information by projection at the position determined by the determination step,
A display control method comprising:
コンピュータを、
操作者による操作対象機器の操作結果を取得する取得手段、
前記操作結果に対応する表示情報を投影により表示する位置を決定する決定手段、
前記決定手段により決定された位置に前記表示情報を投影により表示させる表示制御手段、
として機能させることを特徴とする表示制御プログラム。
Computer,
Acquisition means for acquiring the operation result of the operation target device by the operator,
Deciding means for deciding a position where the display information corresponding to the operation result is displayed by projection,
Display control means for displaying the display information at a position determined by the determination means by projection;
A display control program characterized by causing it to function as.
JP2018198698A 2018-10-22 2018-10-22 Display controller, display system, method for controlling display, and display control program Pending JP2020067713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018198698A JP2020067713A (en) 2018-10-22 2018-10-22 Display controller, display system, method for controlling display, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018198698A JP2020067713A (en) 2018-10-22 2018-10-22 Display controller, display system, method for controlling display, and display control program

Publications (1)

Publication Number Publication Date
JP2020067713A true JP2020067713A (en) 2020-04-30

Family

ID=70390353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018198698A Pending JP2020067713A (en) 2018-10-22 2018-10-22 Display controller, display system, method for controlling display, and display control program

Country Status (1)

Country Link
JP (1) JP2020067713A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022168696A1 (en) * 2021-02-05 2022-08-11 株式会社デンソー Display system for displaying gesture operation result

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022168696A1 (en) * 2021-02-05 2022-08-11 株式会社デンソー Display system for displaying gesture operation result

Similar Documents

Publication Publication Date Title
US8532871B2 (en) Multi-modal vehicle operating device
US7577518B2 (en) Navigation system
CN105283356B (en) Application control method and information terminal
JP5028038B2 (en) In-vehicle display device and display method for in-vehicle display device
KR101646139B1 (en) Navigation method of mobile terminal and apparatus thereof
JP4736982B2 (en) Operation control device, program
JPH0933278A (en) Display device for operation of on-vehicle equipment
JP2007042029A (en) Display device and program
JP2016038621A (en) Space input system
JP5494318B2 (en) Mobile terminal and communication system
JP2002328031A (en) Navigation system
JP4708103B2 (en) Navigation device
JP2020067713A (en) Display controller, display system, method for controlling display, and display control program
JP2002022470A (en) Navigation system
JP2002350163A (en) Navigation device
JP2010190593A (en) Map display system
JP2008014871A (en) On-vehicle electronic device
JP2004053304A (en) Navigation device
JP2020067712A (en) Display controller, display system, method for controlling display, and display control program
JP2008185452A (en) Navigation device
JP2008045968A (en) On-vehicle information terminal
JP2010281572A (en) On-vehicle device and method for controlling the on-vehicle device
JP6798608B2 (en) Navigation system and navigation program
JP2013250132A (en) On-vehicle device and on-vehicle information system
JP2021174236A (en) Control device, computer program, and control system