JP2020126282A - Input system and input method - Google Patents

Input system and input method Download PDF

Info

Publication number
JP2020126282A
JP2020126282A JP2017116226A JP2017116226A JP2020126282A JP 2020126282 A JP2020126282 A JP 2020126282A JP 2017116226 A JP2017116226 A JP 2017116226A JP 2017116226 A JP2017116226 A JP 2017116226A JP 2020126282 A JP2020126282 A JP 2020126282A
Authority
JP
Japan
Prior art keywords
display
gesture
recognition space
gesture recognition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017116226A
Other languages
Japanese (ja)
Inventor
中井 潤
Jun Nakai
潤 中井
隆 大河平
Takashi Ogahira
隆 大河平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017116226A priority Critical patent/JP2020126282A/en
Priority to PCT/JP2018/022305 priority patent/WO2018230526A1/en
Publication of JP2020126282A publication Critical patent/JP2020126282A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Abstract

To realize a comfortable gesture operation input in a vehicle.SOLUTION: A display 30 presents information to passengers in a vehicle. A gesture detection sensor 50 recognizes a passenger's gesture operation performed in a gesture recognition space set near the display 30. A display 41 is installed outside the gesture recognition space. An optical plate 42 is installed between the gesture recognition space and the display 41, and images the gesture guide image displayed on the display 41 in the gesture recognition space. The display 30 displays information that reflects gesture operation recognized by the gesture detection sensor 50.SELECTED DRAWING: Figure 5

Description

本発明は、車両内におけるジェスチャ入力を用いた入力システム、入力方法に関する。 The present invention relates to an input system and an input method using gesture input in a vehicle.

近年、空中に映像を表示させる空中ディスプレイの開発が進められている。例えば、映像を、特殊な光学プレートを通過させることにより、実像の反対側の等距離の空中に実像を結像させる技術が開発されている(例えば、特許文献1参照)。当該光学プレートは、短冊状の鏡面ガラスを積層して形成した光学部材を2つ、交差させて接合することにより1枚のプレートを形成している。ディスプレイ等から発光された光が、直交する2つの光学部材で反射し、反対側の空中で再び結像する。 In recent years, development of an aerial display for displaying an image in the air has been advanced. For example, a technique has been developed in which a real image is formed in the air at an equal distance on the opposite side of the real image by passing the image through a special optical plate (see, for example, Patent Document 1). The optical plate is formed by laminating two optical members formed by laminating strip-shaped mirror-like glasses so as to cross each other and joining them. Light emitted from a display or the like is reflected by two optical members that are orthogonal to each other and forms an image again in the air on the opposite side.

また近年、タッチパネルやボタンに触れることなく、手の動きで操作入力するジェスチャ操作の開発が進められている。ジェスチャ操作は操作対象に触れる必要がないため、離れた位置から操作対象を操作することができる。 Further, in recent years, development of a gesture operation in which an operation input is performed by a motion of a hand without touching a touch panel or a button has been advanced. Since the gesture operation does not need to touch the operation target, the operation target can be operated from a distant position.

特許4865088号Patent 4865088

近年、車両の電装化が加速しており、車両内においてタッチ操作やボタン操作する機会が増えている。車両内において搭乗者は基本的に、シートに座った状態で各種機器を操作する必要があり、操作部の位置によっては手を大きく伸ばす必要がある。従って車両内の機器の操作に、ジェスチャ操作を導入すれば、搭乗者の操作にかかる負担を軽減することが期待できる。 In recent years, the electrification of vehicles has been accelerated, and the opportunities for touch operation and button operation inside the vehicle are increasing. In the vehicle, the occupant basically needs to operate various devices while sitting on a seat, and depending on the position of the operation part, the occupant needs to extend his/her hand greatly. Therefore, if the gesture operation is introduced into the operation of the device in the vehicle, it can be expected that the burden on the operation of the passenger can be reduced.

しかしながら、ジェスチャ操作は空中で行われるため、ジェスチャ操作の認識範囲から外れると操作入力が機器に認識されなくなる。その状況は、ジェスチャ操作を行っている搭乗者にとって大きなストレスとなる。 However, since the gesture operation is performed in the air, the operation input is not recognized by the device if it is out of the recognition range of the gesture operation. The situation becomes a great stress to the passenger who is performing the gesture operation.

本発明はこうした状況に鑑みなされたものであり、その目的は、車両内において快適にジェスチャ操作を行うことができる技術を提供することにある。 The present invention has been made in view of such a situation, and an object thereof is to provide a technique capable of comfortably performing a gesture operation in a vehicle.

上記課題を解決するために、本発明のある態様の入力システムは、車両内の搭乗者に情報を提示するためのディスプレイと、前記ディスプレイの近傍に設定されたジェスチャ認識空間内で行われる搭乗者のジェスチャ操作を認識するセンサと、前記ジェスチャ認識空間の外に設置される表示器と、前記ジェスチャ認識空間と前記表示器の間に設置され、前記表示器に表示されたジェスチャガイド映像を前記ジェスチャ認識空間に結像させる光学プレートと、を備える。前記ディスプレイは、前記センサにより認識されたジェスチャ操作を反映した情報を表示する。 In order to solve the above problems, an input system according to an aspect of the present invention is a display for presenting information to an occupant in a vehicle, and an occupant performed in a gesture recognition space set near the display. Sensor for recognizing the gesture operation, a display installed outside the gesture recognition space, and a gesture guide image displayed on the display installed between the gesture recognition space and the display. And an optical plate for forming an image in the recognition space. The display displays information that reflects the gesture operation recognized by the sensor.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を装置、システム、方法、プログラム、プログラムを記録した記録媒体、それらを搭載した自動運転車両などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above constituents, the expression of the present invention converted between an apparatus, a system, a method, a program, a recording medium storing the program, an automatic driving vehicle equipped with them, and the like are also included in the present invention. Is effective as a mode.

本発明によれば、車両内において快適にジェスチャ操作を行うことができる。 According to the present invention, it is possible to comfortably perform a gesture operation in a vehicle.

図1(a)、(b)は、ジェスチャ入力の構成例を示す図である。1A and 1B are diagrams showing a configuration example of gesture input. 図2(a)、(b)は、ジェスチャ入力と空中ディスプレイを組み合わせた構成例を示す図である。2A and 2B are diagrams showing a configuration example in which a gesture input and an aerial display are combined. 図3(a)−(c)は、本発明の実施の形態に係る入力システムの、車両内における設置例を示す図である。FIGS. 3A to 3C are diagrams showing an installation example in a vehicle of the input system according to the embodiment of the present invention. 光学プレートと表示器の設置方法の一例を示す図である。It is a figure which shows an example of the installation method of an optical plate and a display. 本発明の実施の形態に係る入力システムの構成を示すブロック図である。It is a block diagram which shows the structure of the input system which concerns on embodiment of this invention. 図6(a)−(c)は、本発明の実施の形態に係る入力システムを用いたジェスチャ操作の具体例を示す図である。6A to 6C are diagrams showing a specific example of the gesture operation using the input system according to the embodiment of the present invention. 本発明の実施の形態に係る入力システムの動作を示すフローチャートである。It is a flow chart which shows operation of the input system concerning an embodiment of the invention. 図8(a)、(b)は、変形例に係る入力システムの、車両内における設置例を示す図である。FIG. 8A and FIG. 8B are diagrams showing an installation example in the vehicle of the input system according to the modified example.

図1(a)、(b)は、ジェスチャ入力の構成例を示す図である。図1(a)は、ジェスチャ検知センサ50としてカメラを使用する構成例である。当該構成例では、情報表示用のディスプレイ30の下側に、ジェスチャ検知用のカメラが設置される。カメラの向きは、ディスプレイ30の画面から所定の距離、手前に離れた空間が画角に収まるように設定される。この画面手前のカメラの画角に収まる空間が、ジェスチャ認識空間S1となる。 1A and 1B are diagrams showing a configuration example of gesture input. FIG. 1A is a configuration example in which a camera is used as the gesture detection sensor 50. In the configuration example, a gesture detection camera is installed below the display 30 for displaying information. The orientation of the camera is set such that a space away from the screen of the display 30 by a predetermined distance is within the angle of view. The space within the angle of view of the camera in front of the screen is the gesture recognition space S1.

図1(b)は、ジェスチャ検知センサ50として、高感度な静電容量式のタッチパネルセンサを使用する構成例である。当該構成例では、ディスプレイ30の表面に、静電容量式のタッチパネルセンサが設置される。ディスプレイ30の表面に近接する、非接触の空間がジェスチャ認識空間S1となる。ユーザはこのジェスチャ認識空間S1内でホバー操作を行うことができる。ジェスチャ認識空間S1は、タッチパネルセンサの感度が高いほど広くなる。なお、カメラや静電容量式のタッチパネルセンサに代えて、赤外線センサや超音波センサ等を使用することも可能である。 FIG. 1B is a configuration example in which a highly sensitive capacitive touch panel sensor is used as the gesture detection sensor 50. In the configuration example, a capacitive touch panel sensor is installed on the surface of the display 30. The non-contact space that is close to the surface of the display 30 is the gesture recognition space S1. The user can perform a hover operation in this gesture recognition space S1. The gesture recognition space S1 becomes wider as the sensitivity of the touch panel sensor is higher. Note that an infrared sensor, an ultrasonic sensor, or the like can be used instead of the camera or the capacitive touch panel sensor.

ジェスチャ入力、特に図1(a)に示した構成例のジェスチャ入力には、以下の課題がある。(1)操作者がジェスチャ認識空間S1の範囲でジェスチャ操作を行うことが難しい。操作者から見てジェスチャ認識空間S1は何もない空間であり、操作者がその空間範囲を把握することは難しい。(2)ディスプレイ30にジェスチャ操作用のガイドを表示させると、操作者以外にとっては煩わしい。(3)目の前に表示されるディスプレイ30や目の前にある機器を操作するには、直接接触して操作するのが自然であり、ジェスチャ操作のメリットが訴求しにくい。 Gesture input, particularly the gesture input of the configuration example shown in FIG. 1A, has the following problems. (1) It is difficult for the operator to perform a gesture operation within the range of the gesture recognition space S1. The gesture recognition space S1 is an empty space seen from the operator, and it is difficult for the operator to grasp the spatial range. (2) Displaying a guide for gesture operation on the display 30 is troublesome for anyone other than the operator. (3) In order to operate the display 30 displayed in front of the eyes and the device in front of the eyes, it is natural to directly touch and operate, and it is difficult to appeal the merit of the gesture operation.

そこで本発明の実施の形態では、ジェスチャ入力と空中ディスプレイを組み合わせて使用する。具体的には空中ディスプレイを使用して、ジェスチャ認識空間S1にジェスチャ操作のガイド映像を空中表示させる。 Therefore, in the embodiment of the present invention, the gesture input and the aerial display are used in combination. Specifically, an aerial display is used to display a gesture operation guide image in the air in the gesture recognition space S1.

図2(a)、(b)は、ジェスチャ入力と空中ディスプレイを組み合わせた構成例を示す図である。図2(a)は、ジェスチャ検知センサ50としてカメラを使用する構成例であり、図2(b)は、ジェスチャ検知センサ50として静電容量式のタッチパネルセンサを使用する構成例である。 2A and 2B are diagrams showing a configuration example in which a gesture input and an aerial display are combined. FIG. 2A is a configuration example in which a camera is used as the gesture detection sensor 50, and FIG. 2B is a configuration example in which a capacitive touch panel sensor is used as the gesture detection sensor 50.

空中ディスプレイは、表示器41と光学プレート42で実現される。上述した特殊加工が施された光学プレート42は、光学プレート42を挟んで一方側に設置された表示器41に表示された映像を、光学プレート42の反対側の線対称な空間位置に結像させることができる。光学プレート42及び表示器41の設置位置は、ディスプレイ30の手前に設定されたジェスチャ認識空間S1に表示させるべきガイド映像I1の位置と、上記反射の関係をもとに決定される。 The aerial display is realized by the display 41 and the optical plate 42. The optical plate 42 that has been subjected to the special processing described above forms the image displayed on the display 41 installed on one side of the optical plate 42 at a spatially symmetrical position on the opposite side of the optical plate 42. Can be made. The installation positions of the optical plate 42 and the display 41 are determined based on the relationship between the position of the guide image I1 to be displayed in the gesture recognition space S1 set in front of the display 30 and the reflection.

ジェスチャ入力と空中ディスプレイを組み合わせると、以下のメリットがある。(1)操作者のみ視認可能な空中ジェスチャ操作ガイドを表示することにより、ジェスチャ認識空間S1の範囲内でのジェスチャ操作が容易になる。(2)操作者のみ視認可能な空中ジェスチャ操作ガイドを表示することにより、操作者以外に煩わしさが発生しない。(3)ジェスチャ操作ガイドを表示するのみであるため、操作者の視覚的な煩わしさが少ない。(4)目の前に表示されるディスプレイや目の前の機器以外の機器を直感的に操作可能になる。(5)通常の情報表示用のディスプレイ30とは別に、ジェスチャ操作ガイド用の空中ディスプレイを装備することにより、提示する情報量を確保することができる。 Combining gesture input and aerial display has the following advantages. (1) By displaying the aerial gesture operation guide visible only to the operator, the gesture operation within the range of the gesture recognition space S1 becomes easy. (2) By displaying the aerial gesture operation guide visible only to the operator, no annoyance occurs to anyone other than the operator. (3) Since only the gesture operation guide is displayed, the operator is less visually annoyed. (4) It becomes possible to intuitively operate devices other than the display displayed in front of the eyes and the device in front of the eyes. (5) The amount of information to be presented can be secured by providing an aerial display for a gesture operation guide in addition to the display 30 for displaying normal information.

なお2017年現在の空中ディスプレイ技術は、一般的な液晶ディスプレイや有機ELディスプレイと比較して低輝度・低解像度であり、小さな文字や、絵などの表示には適していない。また、半透過な状態で映像が空中に浮かび上がるためコントラストが低く、明るい環境下では視認性が低下する。従って、空中ディスプレイは通常のディスプレイ30との併用が好ましい。なお2017年現在の空中ディスプレイ技術は、一般的なディスプレイより狭視野角であるため、特定の操作者にのみ情報を提示するという観点では優位性がある。 The aerial display technology as of 2017 has lower brightness and lower resolution than general liquid crystal displays and organic EL displays, and is not suitable for displaying small characters and pictures. In addition, since the image floats in the air in the semi-transparent state, the contrast is low, and the visibility is reduced in a bright environment. Therefore, the aerial display is preferably used together with the normal display 30. Since the aerial display technology as of 2017 has a narrower viewing angle than a general display, it is advantageous from the viewpoint of presenting information only to a specific operator.

以下、ジェスチャ入力と空中ディスプレイを組み合わせた入力システムを、車両内で使用する例を説明する。上述の空中ディスプレイは、表示器41と光学プレート42が必要であり、ディスプレイ30の下側に、表示器41と光学プレート42を格納するスペースが必要である。 Hereinafter, an example of using an input system combining a gesture input and an aerial display in a vehicle will be described. The above-described aerial display requires the display 41 and the optical plate 42, and a space below the display 30 to store the display 41 and the optical plate 42 is required.

図3(a)−(c)は、本発明の実施の形態に係る入力システムの、車両内における設置例を示す図である。図3(a)は車両内の運転席付近の模式図である。情報提示用のディスプレイ30が、ダッシュボード4の上に設置されている。情報提示用のディスプレイ30には例えば、カーナビゲーション装置のセンタディスプレイを使用することができる。なお、ダッシュボード4上のホルダに固定されたスマートフォンやタブレットのディスプレイであってもよい。 FIGS. 3A to 3C are diagrams showing an installation example in a vehicle of the input system according to the embodiment of the present invention. FIG. 3A is a schematic view of the vicinity of the driver's seat in the vehicle. A display 30 for presenting information is installed on the dashboard 4. As the display 30 for presenting information, for example, a center display of a car navigation device can be used. It may be a display of a smartphone or a tablet fixed to a holder on the dashboard 4.

ジェスチャ認識空間S1は、ディスプレイ30の表示面に対して手前下方の空間に設定される。具体的にはダッシュボード4のディスプレイ30の設置位置から手前下方に傾斜しながら延びるセンタコンソール5の傾斜面に設置される。図3(a)では、当該傾斜面の上側にジェスチャ認識空間S1が設定されているが、当該傾斜面の中央部または下側に設定されてもよい。ステアリングホイール3aはセンタコンソール5の傾斜面の右側に設置されており、運転者はジェスチャ認識空間S1に対して、左手で容易にリーチすることができる。 The gesture recognition space S1 is set to a space below and near the display surface of the display 30. Specifically, it is installed on the inclined surface of the center console 5 extending from the installation position of the display 30 of the dashboard 4 to the lower front side while inclining. Although the gesture recognition space S1 is set on the upper side of the inclined surface in FIG. 3A, it may be set on the central portion or the lower side of the inclined surface. The steering wheel 3a is installed on the right side of the inclined surface of the center console 5, and the driver can easily reach the gesture recognition space S1 with his/her left hand.

図3(b)は、ディスプレイ30と光学プレート42の位置関係を示す概略図である。センタコンソール5の傾斜面と平行に光学プレート42が設置される。光学プレート42の上空に左矢印のガイド映像Iaが空中表示される。図3(c)は、ディスプレイ30と光学プレート42と表示器41の位置関係を側面方向から見た模式図である。運転者の視点E1からは、センタコンソール5の傾斜面にガイド映像Iaが浮かび上がって見える。 FIG. 3B is a schematic diagram showing the positional relationship between the display 30 and the optical plate 42. The optical plate 42 is installed parallel to the inclined surface of the center console 5. The guide image Ia of the left arrow is displayed in the air above the optical plate 42. FIG. 3C is a schematic view of the positional relationship among the display 30, the optical plate 42, and the display 41 as seen from the side surface direction. From the driver's viewpoint E1, the guide image Ia appears to stand out on the inclined surface of the center console 5.

図4は、光学プレート42と表示器41の設置方法の一例を示す図である。表示器41は格納ボックス45に収納されて設置される。格納ボックス45の内側は低反射処理が施されている。表示器41には通常の液晶ディスプレモジュール(LCM)を使用することができる。表示器41の表示面側の表面にはライトコントロールフィルム(LCF)43が貼り付けられている。ライトコントロールフィルム43は拡散光を抑制し、光の平行度を向上させるフィルムであり、表示器41を正面から見た場合の輝度・視認性を向上させることができる。格納ボックス45の上蓋の位置に光学プレート42が設置される。 FIG. 4 is a diagram showing an example of a method of installing the optical plate 42 and the display 41. The display 41 is installed in the storage box 45. The inside of the storage box 45 is subjected to low reflection processing. A normal liquid crystal display module (LCM) can be used for the display 41. A light control film (LCF) 43 is attached to the display surface of the display 41. The light control film 43 is a film that suppresses diffused light and improves the parallelism of light, and can improve the brightness and visibility when the display 41 is viewed from the front. The optical plate 42 is installed at the position of the upper lid of the storage box 45.

このように光学プレート42の一方側に設置される表示器41を格納ボックス45で覆うことにより、表示器41の周囲を暗くすることができ、光学プレート42の反対側の空中に結像される映像I1の視認性を向上させることができる。また表示器41にライトコントロールフィルム43を貼り、格納ボックス45の内側に低反射処理を施すことにより、空中にゴースト映像が結像されることを防止することができる。図4に示した格納ボックス45が例えば、図3(a)に示したセンタコンソール5の傾斜面の内側に設置される。 Thus, by covering the display 41 installed on one side of the optical plate 42 with the storage box 45, the periphery of the display 41 can be darkened, and an image is formed in the air on the opposite side of the optical plate 42. The visibility of the image I1 can be improved. Further, by attaching the light control film 43 to the display 41 and applying the low reflection processing to the inside of the storage box 45, it is possible to prevent the formation of a ghost image in the air. The storage box 45 shown in FIG. 4 is installed, for example, inside the inclined surface of the center console 5 shown in FIG.

図5は、本発明の実施の形態に係る入力システム2の構成を示すブロック図である。入力システム2は、制御装置10、ディスプレイ30、空中映像表示装置40及びジェスチャ検知センサ50を含む。空中映像表示装置40は主要部材として、表示器41及び光学プレート42を含む。なお図4に示したライトコントロールフィルム43は必須ではなく省略可能である。 FIG. 5 is a block diagram showing the configuration of the input system 2 according to the embodiment of the present invention. The input system 2 includes a control device 10, a display 30, an aerial image display device 40, and a gesture detection sensor 50. The aerial image display device 40 includes a display 41 and an optical plate 42 as main components. The light control film 43 shown in FIG. 4 is not essential and can be omitted.

制御装置10は処理部11、I/O部12、及び記録部13を備える。処理部11は、画面制御部111、ガイド制御部112、検知情報取得部113、操作内容判定部114、及び機器制御部115を含む。処理部11の機能はハードウェア資源とソフトウェア資源の協働により実現できる。ハードウェア資源としてCPU、GPU、DSP、FPGA、ROM、RAM、その他のLSIを利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション、ファームウェア等のプログラムを利用できる。記録部13は不揮発性メモリであり、NAND型フラッシュメモリチップ、SSD、HDD等の記録媒体を備える。 The control device 10 includes a processing unit 11, an I/O unit 12, and a recording unit 13. The processing unit 11 includes a screen control unit 111, a guide control unit 112, a detection information acquisition unit 113, an operation content determination unit 114, and a device control unit 115. The function of the processing unit 11 can be realized by cooperation of hardware resources and software resources. CPU, GPU, DSP, FPGA, ROM, RAM and other LSIs can be used as hardware resources. Programs such as an operating system, applications, and firmware can be used as software resources. The recording unit 13 is a non-volatile memory and includes a recording medium such as a NAND flash memory chip, SSD, and HDD.

制御装置10は、専用の筐体内に実装されてもよいし、カーナビゲーション装置や、ディスプレイオーディオ等のヘッドユニット内に実装されてもよい。後者の場合、制御装置10の機能を実装した基板を、それらの筐体内に追加する形態でもよいし、それらの既存のハードウェア資源を時分割で活用する形態でもよい。また、スマートフォンやタブレット等の外部から持ち込まれた情報機器のハードウェア資源を活用する形態でもよい。 The control device 10 may be mounted in a dedicated housing or may be mounted in a head unit such as a car navigation device or a display audio. In the latter case, a board on which the function of the control device 10 is mounted may be added in the housing, or the existing hardware resources thereof may be utilized in a time-sharing manner. Further, it is also possible to use a hardware resource of an information device brought in from the outside such as a smartphone or a tablet.

ディスプレイ30は上述のように車室内に設置されるディスプレイであり、液晶ディスプレイや有機ELディスプレイを使用することができる。ジェスチャ検知センサ50は、車室内のディスプレイ30の近傍に設定されたジェスチャ認識空間S1内で行われる搭乗者のジェスチャ操作を認識するセンサである。上述のようにカメラ、非接触式のタッチパネル等を使用することができる。 The display 30 is a display installed in the vehicle compartment as described above, and a liquid crystal display or an organic EL display can be used. The gesture detection sensor 50 is a sensor that recognizes a gesture operation performed by a passenger in a gesture recognition space S1 set near the display 30 in the vehicle interior. As described above, a camera, a non-contact type touch panel or the like can be used.

I/O部12は、処理部11から供給される画像信号をディスプレイ30に出力し、処理部11から供給される画像信号を表示器41に出力し、ジェスチャ検知センサ50から供給される検知信号を処理部11に出力する。 The I/O unit 12 outputs the image signal supplied from the processing unit 11 to the display 30, the image signal supplied from the processing unit 11 to the display 41, and the detection signal supplied from the gesture detection sensor 50. Is output to the processing unit 11.

画面制御部111は、ディスプレイ30に表示させるべ画像データを生成し、ディスプレイ30に出力して表示させる。ガイド制御部112は、ジェスチャ認識空間S1にジェスチャガイド映像として空中に表示させるべき画像データを生成し、表示器41に出力して表示させる。例えばガイド制御部112は、ジェスチャガイド映像として、操作内容を示すシンボル映像を空中に表示させる。例えば、丸、三角、四角、バツ印、矢印、十字などの図形シンボルマークを空中に表示させてもよいし、操作内容を表象するアイコンを空中に表示させてもよい。 The screen control unit 111 generates image data to be displayed on the display 30 and outputs the image data to the display 30 for display. The guide control unit 112 generates image data to be displayed in the air as a gesture guide image in the gesture recognition space S1 and outputs the image data to the display 41 for display. For example, the guide control unit 112 displays, as a gesture guide image, a symbol image indicating the operation content in the air. For example, graphic symbol marks such as circles, triangles, squares, crosses, arrows, and crosses may be displayed in the air, or icons representing the operation content may be displayed in the air.

またガイド制御部112は、ジェスチャガイド映像として、ジェスチャ認識空間S1の範囲を規定する映像を空中に表示させてもよい。例えば、ジェスチャ認識空間S1の枠の映像を空中映像させてもよい。またジェスチャ認識空間S1の各頂点の位置に点の映像を空中表示させてもよい。 Further, the guide control unit 112 may display an image defining the range of the gesture recognition space S1 in the air as the gesture guide image. For example, the image of the frame of the gesture recognition space S1 may be an aerial image. In addition, an image of a point may be displayed in the air at the position of each vertex of the gesture recognition space S1.

検知情報取得部113は、ジェスチャ検知センサ50により検知された検知情報を取得する。例えば、カメラで撮影されたジェスチャ認識空間S1の画像データを取得する。操作内容判定部114は、検知情報取得部113により取得された検知情報をもとに操作内容を判定する。例えば、取得された画像内からオブジェクトとして手を検出し、検出した手の動きを追従する。操作内容判定部114は、検出した手の動きからジェスチャ操作内容を特定する。なお画像内における手の探索範囲は、ガイド映像が表示される近傍の領域に絞り込んでもよい。 The detection information acquisition unit 113 acquires the detection information detected by the gesture detection sensor 50. For example, the image data of the gesture recognition space S1 captured by the camera is acquired. The operation content determination unit 114 determines the operation content based on the detection information acquired by the detection information acquisition unit 113. For example, a hand is detected as an object from the acquired image, and the detected movement of the hand is followed. The operation content determination unit 114 identifies the gesture operation content from the detected hand movement. The search range of the hand in the image may be narrowed down to the area near the guide image.

画面制御部111は、操作内容判定部114により判定されたジェスチャ操作を反映した画像をディスプレイ30に表示させる。画面制御部111は、ジェスチャ操作の受け付け完了を示す画像(マーク、アイコン、ピクト、シンボルなど)を表示させる。また画面制御部111は、受け付けたジェスチャ操作に対応する機器動作の状況を示す画像(例えば、処理中のアイコン、処理完了のアイコン)を表示させる。 The screen control unit 111 causes the display 30 to display an image that reflects the gesture operation determined by the operation content determination unit 114. The screen control unit 111 displays an image (mark, icon, pictogram, symbol, etc.) indicating completion of acceptance of the gesture operation. Further, the screen control unit 111 displays an image (for example, a processing-in-progress icon, a processing-completion icon) indicating the status of the device operation corresponding to the received gesture operation.

機器制御部115は、車両内の機器に対する、操作内容判定部114により判定されたジェスチャ操作に対応する操作内容を実行する。例えば、カーナビゲーション装置の操作、ディスプレイオーディオの操作、エアコンの操作、パワーウインドウの操作、ルームランプの点灯/消灯操作などを実行する。なお、ウインカの点灯/消灯、ギアシフト、クラクションの鳴動、パッシング、ワイパーの始動/終了など車両の運転操作を実行してもよい。 The device control unit 115 executes the operation content corresponding to the gesture operation determined by the operation content determination unit 114 with respect to the device in the vehicle. For example, the operation of the car navigation device, the operation of the display audio, the operation of the air conditioner, the operation of the power window, the operation of turning on/off the room lamp, and the like are executed. In addition, driving operation of the vehicle such as turning on/off of a turn signal, gear shift, horn ringing, passing, start/end of a wiper may be executed.

図6(a)−(c)は、本発明の実施の形態に係る入力システム2を用いたジェスチャ操作の具体例を示す図である。図6(a)は、操作者の目の前(ジェスチャ操作を実施する近辺)にある機器の、表示されていない機能を実行する場合の例である。 FIGS. 6A to 6C are diagrams showing a specific example of the gesture operation using the input system 2 according to the embodiment of the present invention. FIG. 6A is an example of a case where a device that is in front of the operator's eyes (around where the gesture operation is performed) executes a function that is not displayed.

図6(a)において、ディスプレイ30はカーナビゲーション装置のディスプレイであり、カーナビゲーション装置の音声案内の音量をジェスチャ操作で変更する。光学プレート42の上空のジェスチャ認識空間S1には、左矢印のガイド映像Iaと右矢印のガイド映像Ibが空中に結像されている。操作者が、左矢印のガイド映像Iaを左方向にはらうジェスチャで音量が低下し、右矢印のガイド映像Ibを右方向にはらうジェスチャで音量が増大する。図6(a)では、左矢印のガイド映像Iaを左方向にはらうことにより、音量が低下し、ディスプレイ30に表示されたボリュームバー30aの目盛りが低下している。 In FIG. 6A, a display 30 is a display of a car navigation device, and the volume of voice guidance of the car navigation device is changed by a gesture operation. In the gesture recognition space S1 above the optical plate 42, a left arrow guide image Ia and a right arrow guide image Ib are imaged in the air. The operator lowers the volume with a gesture of leftwardly guiding the guide image Ia, and increases the volume with a gesture of rightwardly guiding the right guide image Ib. In FIG. 6A, by moving the guide image Ia indicated by the left arrow to the left, the volume is reduced and the scale of the volume bar 30a displayed on the display 30 is reduced.

図6(b)は、操作者の目の前にない機器を操作する場合の例である。光学プレート42の上空のジェスチャ認識空間S1には、上矢印のガイド映像Icが空中に結像されている。操作者が、上矢印のガイド映像Icを上方向にはらうジェスチャで右ウインカが点滅する。右ウインカが点滅すると、ディスプレイ30の画面に、右ウインカが点滅していることを示すアイコン30bが表示される。なお図示しないが右ウインカの点滅中、下矢印のガイド映像が空中に結像され、操作者が下矢印のガイド映像を下方向にはらうジェスチャで右ウインカが消灯する。 FIG. 6B shows an example of operating a device that is not in front of the operator's eyes. In the gesture recognition space S1 above the optical plate 42, the guide image Ic of the up arrow is imaged in the air. The operator blinks the guide image Ic of the up arrow in the upward direction, and the right blinker blinks. When the right blinker blinks, an icon 30b indicating that the right blinker is blinking is displayed on the screen of the display 30. Although not shown, while the right blinker is blinking, the guide image of the down arrow is imaged in the air, and the right blinker is turned off by the gesture that the operator glances down the guide image of the down arrow.

図6(c)は、操作者の目の前だが、手が届きにくい機器を操作する場合の例である。 図6(c)において、ディスプレイ30はカーナビゲーション装置のディスプレイであり、ディスプレイ30に表示された地図をフリック又はスワイプする。ディスプレイ30の画面には地図30cが表示され、光学プレート42の上空のジェスチャ認識空間S1には、左矢印のガイド映像Iaと右矢印のガイド映像Ibが空中に結像されている。操作者が、左矢印のガイド映像Iaを左方向にはらうジェスチャで地図30cが左方向にフリック又はスワイプされ、右矢印のガイド映像Ibを右方向にはらうジェスチャで地図30cが右方向にフリック又はスワイプされる。手の動きが所定速度未満の場合はフリック操作になり、所定速度以上の場合はスワイプ操作となる。図6(c)では、左矢印のガイド映像Iaを左方向にはらうことにより、地図30cが左方向にフリックされている。 FIG. 6C is an example in the case of operating a device that is hard to reach, but in front of the operator. In FIG. 6C, the display 30 is a display of the car navigation device, and flicks or swipes the map displayed on the display 30. A map 30c is displayed on the screen of the display 30, and a guide image Ia indicated by the left arrow and a guide image Ib indicated by the right arrow are imaged in the air in the gesture recognition space S1 above the optical plate 42. The operator flicks or swipes the map 30c leftward with the gesture of leftwardly guiding the guide image Ia, and flicks or swipes the map 30c rightward with the gesture of rightwardly guiding the guide image Ib. To be done. When the hand movement is less than the predetermined speed, the flick operation is performed, and when the hand movement is more than the predetermined speed, the swipe operation is performed. In FIG. 6C, the map 30c is flicked to the left by moving the guide image Ia indicated by the left arrow to the left.

図7は、本発明の実施の形態に係る入力システム2の動作を示すフローチャートである。ガイド制御部112は、ジェスチャ認識空間S1に所定のガイド映像を空中表示させる(S10)。検知情報取得部113は、ジェスチャ検知センサ50により検知された、操作者のジェスチャ操作に基づく検知情報を取得する(S11)。操作内容判定部114は、取得された検知情報をもとに操作内容を特定する(S12)。画面制御部111は、特定された操作内容の受付完了を示す画像をディスプレイ30に表示させる(S13)。機器制御部115は、特定された操作内容に応じて機器を制御する(S14)。 FIG. 7 is a flowchart showing the operation of the input system 2 according to the embodiment of the present invention. The guide control unit 112 displays a predetermined guide image in the air in the gesture recognition space S1 (S10). The detection information acquisition unit 113 acquires detection information based on the gesture operation of the operator detected by the gesture detection sensor 50 (S11). The operation content determination unit 114 identifies the operation content based on the acquired detection information (S12). The screen control unit 111 causes the display 30 to display an image indicating completion of acceptance of the specified operation content (S13). The device control unit 115 controls the device according to the specified operation content (S14).

以上説明したように本実施の形態によれば、ジェスチャ認識空間S1にガイド映像を表示させることにより、ジェスチャ認識空間S1の範囲内でのジェスチャ操作が容易になり、ジェスチャ操作が空振りになる確率を大きく低下させることができる。従って車両内の搭乗者が快適にジェスチャ操作を行うことができる。 As described above, according to the present embodiment, by displaying the guide image in the gesture recognition space S1, the gesture operation within the range of the gesture recognition space S1 is facilitated, and the probability that the gesture operation will be missed is increased. It can be greatly reduced. Therefore, the passenger in the vehicle can comfortably perform the gesture operation.

また運転者の方向に向けてガイド映像を空中表示させると、狭視野角の特性から助手席に座っている搭乗者には当該ガイド映像が見えない。従って、対象者以外の搭乗者の視覚的な煩わしさが発生しない。また、ジェスチャ操作時のみガイド映像を空中表示させれば、対象者の視覚的な煩わしさも発生しない。また情報表示用の既存のディスプレイと併用することにより、情報提示量を確保することができる。空中表示だけでは提示する情報量が制限される。 Further, when the guide image is displayed in the air in the direction of the driver, a passenger sitting in the passenger seat cannot see the guide image due to the characteristics of the narrow viewing angle. Therefore, the visual annoyance of passengers other than the target person does not occur. Further, if the guide image is displayed in the air only during the gesture operation, the visual annoyance of the subject does not occur. In addition, the amount of information presented can be secured by using it together with an existing display for displaying information. The amount of information presented is limited only by the aerial display.

以上、本発明を実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiment. It should be understood by those skilled in the art that these embodiments are mere examples, and that various modifications can be made to the combinations of their respective constituent elements and respective processing processes, and that such modifications are also within the scope of the present invention. By the way.

図8(a)、(b)は、変形例に係る入力システム2の、車両内における設置例を示す図である。図8(a)に示す変形例では、ジェスチャ認識空間S1は、ダッシュボード4の中央部の上に設置される。空中映像表示装置40はダッシュボード4の中央部の内部に設置される。情報提示用のディスプレイ30は、センタコンソール5の傾斜面のジェスチャ認識空間S1に近接する位置に設置される。情報提示用のディスプレイ30には例えば、ディスプレイオーディオ等のヘッドユニットのディスプレイを使用することができる。 FIGS. 8A and 8B are diagrams showing an installation example of the input system 2 according to the modified example in a vehicle. In the modification shown in FIG. 8A, the gesture recognition space S1 is installed on the central portion of the dashboard 4. The aerial image display device 40 is installed inside the central portion of the dashboard 4. The display 30 for presenting information is installed at a position close to the gesture recognition space S1 on the inclined surface of the center console 5. As the display 30 for presenting information, for example, a display of a head unit such as a display audio can be used.

図8(b)に示す変形例では、表示器41及び光学プレート42を備える空中映像表示装置40が、ステアリングコラム3bのステアリングホイール3aとの接合部分の上部に埋め込まれる。ガイド映像I1は、運転者から見てステアリングホイール3aの奥(ステアリングコラム3bの上空)に結像される。情報提示用のディスプレイには、インストルメントパネル6の内のディスプレイを使用することができる。 In the modification shown in FIG. 8B, the aerial image display device 40 including the display 41 and the optical plate 42 is embedded in the upper portion of the joint portion of the steering column 3b with the steering wheel 3a. The guide image I1 is formed behind the steering wheel 3a (above the steering column 3b) when viewed from the driver. A display in the instrument panel 6 can be used as a display for presenting information.

また図4では、表示器41に液晶ディスプレイモジュールを使用する例を説明したが、表示映像が限定される用途では、基板上に複数の発光ダイオードを設置して表示器41を作成してもよい。例えば、ジェスチャ認識空間S1の頂点に輝点を表示させるだけの場合、基板上の所定の位置に8個の発光ダイオードを設置するだけで表示器41を作成することができる。 Further, in FIG. 4, an example in which a liquid crystal display module is used for the display 41 has been described, but in applications where the display image is limited, a plurality of light emitting diodes may be installed on the substrate to form the display 41. .. For example, when only the bright spots are displayed at the vertices of the gesture recognition space S1, the display 41 can be created by installing eight light emitting diodes at predetermined positions on the substrate.

このような液晶層通過による減衰が発生しない表示器41を使用する場合、夜間の車室内では空中映像が眩しく見える場合がある。ガイド制御部112は、車両内の明るさに応じて発光ダイオードの輝度を調整してもよい。車両内の明るさは、車両に設置された照度センサ(不図示)により検知された照度情報をもとに判定する。なお気象庁または民間気象会社のサーバから無線通信ネットワークを介して、現在位置の照度を取得してもよい。ガイド制御部112は、車両内の照度が低いほど発光ダイオードの輝度を低下させる。発光ダイオードの輝度は、駆動電流またはPWM比を調整することによりコントロールすることができる。なお表示器41に液晶ディスプレイモジュールを使用している場合は、もともとの表示輝度が低いため夜間に輝度を低下させる必要性は低いが、液晶ディスプレイモジュール使用時における輝度コントロールを排除するものではない。 When using the display device 41 in which the attenuation due to the passage of the liquid crystal layer does not occur, the aerial image may look dazzling in the vehicle interior at night. The guide controller 112 may adjust the brightness of the light emitting diode according to the brightness inside the vehicle. The brightness inside the vehicle is determined based on the illuminance information detected by an illuminance sensor (not shown) installed in the vehicle. The illuminance at the current position may be acquired from a server of the Meteorological Agency or a private weather company via a wireless communication network. The guide controller 112 lowers the brightness of the light emitting diode as the illuminance inside the vehicle is lower. The brightness of the light emitting diode can be controlled by adjusting the drive current or the PWM ratio. When the liquid crystal display module is used for the display 41, the original display brightness is low, so that it is not necessary to reduce the brightness at night, but the brightness control when using the liquid crystal display module is not excluded.

なお、実施の形態は、以下の項目によって特定されてもよい。 The embodiment may be specified by the following items.

[項目1]
車両内の搭乗者に情報を提示するためのディスプレイ(30)と、
前記ディスプレイ(30)の近傍に設定されたジェスチャ認識空間(S1)内で行われる搭乗者のジェスチャ操作を認識するセンサ(50)と、
前記ジェスチャ認識空間(S1)の外に設置される表示器(41)と、
前記ジェスチャ認識空間(S1)と前記表示器(41)の間に設置され、前記表示器(41)に表示されたジェスチャガイド映像を前記ジェスチャ認識空間(S1)に結像させる光学プレート(42)と、を備え、
前記ディスプレイ(30)は、前記センサ(50)により認識されたジェスチャ操作を反映した情報を表示する、
入力システム(2)。
これにより、ジェスチャ認識空間(S1)の範囲内でのジェスチャ操作が容易になり、ジェスチャ操作の操作性を向上させることができる。
[項目2]
前記表示器(41)は、前記ジェスチャガイド映像として、操作内容を示すシンボル映像を表示し、
前記光学プレート(42)は、前記シンボル映像を前記ジェスチャ認識空間(S1)に結像させる、
項目1に記載の入力システム(2)。
これにより、ジェスチャ操作による操作性をさらに向上させることができる。
[項目3]
前記表示器(41)は、前記ジェスチャガイド映像として、前記ジェスチャ認識空間(S1)の範囲を規定する映像を表示し、
前記光学プレート(42)は、前記ジェスチャ認識空間(S1)の範囲を規定する映像を前記ジェスチャ認識空間(S1)に結像させる、
項目1に記載の入力システム(2)。
これにより、ジェスチャ認識空間(S1)の外延が認識しやすくなる。
[項目4]
前記ディスプレイ(30)は、ダッシュボード(4)に設置されるセンタディスプレイ(30)であり、
前記ジェスチャ認識空間(S1)は、前記センタディスプレイ(30)の表示面に対して手前下方の空間に設定される、
項目1から3のいずれかに記載の入力システム(2)。
これにより、センタディスプレイ(30)をタッチ操作する場合と比較して、手を伸ばす距離が短くなるため、操作性が向上する。
[項目5]
前記ジェスチャ認識空間(S1)は、ダッシュボード(4)の中央部の上に設定され、
前記ディスプレイ(30)は、センタコンソール(5)の前記ジェスチャ認識空間(S1)に近接する位置に設置される、
項目1から3のいずれかに記載の入力システム(2)。
これにより、ジェスチャガイド映像がフロントガラスと同じ高さに表示されるため、運転中におけるジェスチャガイド映像の視認性を高めることができる。
[項目6]
車両(1)内の搭乗者に情報を提示するためのディスプレイ(30)の近傍に設定されたジェスチャ認識空間(S1)内で行われる搭乗者のジェスチャ操作を認識するステップと、
前記ジェスチャ認識空間(S1)と、前記ジェスチャ認識空間(S1)の外に設置される表示器(41)の間に設置される光学プレート(42)を使用して、前記表示器(41)に表示されたジェスチャガイド映像を前記ジェスチャ認識空間(S1)に結像させるステップと、
前記ディスプレイ(30)に、認識されたジェスチャ操作を反映した情報を表示させるステップと、を有する、
入力方法。
[Item 1]
A display (30) for presenting information to passengers in the vehicle,
A sensor (50) for recognizing a gesture operation of an occupant performed in a gesture recognition space (S1) set near the display (30);
A display device (41) installed outside the gesture recognition space (S1),
An optical plate (42) installed between the gesture recognition space (S1) and the display device (41) for forming an image of the gesture guide image displayed on the display device (41) in the gesture recognition space (S1). And
The display (30) displays information reflecting the gesture operation recognized by the sensor (50),
Input system (2).
This facilitates the gesture operation within the range of the gesture recognition space (S1), and improves the operability of the gesture operation.
[Item 2]
The display device (41) displays a symbol image showing the operation content as the gesture guide image,
The optical plate (42) forms an image of the symbol image in the gesture recognition space (S1),
The input system (2) according to item 1.
Thereby, the operability by the gesture operation can be further improved.
[Item 3]
The display (41) displays, as the gesture guide image, an image defining a range of the gesture recognition space (S1),
The optical plate (42) images an image defining the range of the gesture recognition space (S1) in the gesture recognition space (S1).
The input system (2) according to item 1.
This makes it easier to recognize the extension of the gesture recognition space (S1).
[Item 4]
The display (30) is a center display (30) installed on the dashboard (4),
The gesture recognition space (S1) is set in a space below and near the display surface of the center display (30).
The input system (2) according to any one of Items 1 to 3.
As a result, as compared with the case where the center display (30) is touch-operated, the distance to reach the hand is shortened, so that the operability is improved.
[Item 5]
The gesture recognition space (S1) is set on the central part of the dashboard (4),
The display (30) is installed at a position close to the gesture recognition space (S1) of the center console (5),
The input system (2) according to any one of Items 1 to 3.
Accordingly, the gesture guide image is displayed at the same height as the windshield, and thus the visibility of the gesture guide image during driving can be improved.
[Item 6]
Recognizing the gesture operation of the passenger performed in the gesture recognition space (S1) set near the display (30) for presenting information to the passenger in the vehicle (1),
An optical plate (42) installed between the gesture recognition space (S1) and the display (41) installed outside the gesture recognition space (S1) is used to display the display (41). Forming an image of the displayed gesture guide image in the gesture recognition space (S1);
Causing the display (30) to display information that reflects the recognized gesture operation.
input method.

2 入力システム、 3a ステアリングホイール、 3b ステアリングコラム、 4 ダッシュボード、 5 センタコンソール、 6 インストルメントパネル、 10 制御装置、 11 処理部、 12 I/O部、 13 記録部、 14 通信部、 30 ディスプレイ、 40 空中映像表示装置、 41 表示器、 42 光学プレート、 43 ライトコントロールフィルム、 45 格納ボックス、 50 ジェスチャ検知センサ、 111 画面制御部、 112 ガイド制御部、 113 検知情報取得部、 114 操作内容判定部、 115 機器制御部。 2 input system, 3a steering wheel, 3b steering column, 4 dashboard, 5 center console, 6 instrument panel, 10 control device, 11 processing unit, 12 I/O unit, 13 recording unit, 14 communication unit, 30 display, 40 aerial image display device, 41 display device, 42 optical plate, 43 light control film, 45 storage box, 50 gesture detection sensor, 111 screen control unit, 112 guide control unit, 113 detection information acquisition unit, 114 operation content determination unit, 115 Device control unit.

Claims (6)

車両内の搭乗者に情報を提示するためのディスプレイと、
前記ディスプレイの近傍に設定されたジェスチャ認識空間内で行われる搭乗者のジェスチャ操作を認識するセンサと、
前記ジェスチャ認識空間の外に設置される表示器と、
前記ジェスチャ認識空間と前記表示器の間に設置され、前記表示器に表示されたジェスチャガイド映像を前記ジェスチャ認識空間に結像させる光学プレートと、を備え、
前記ディスプレイは、前記センサにより認識されたジェスチャ操作を反映した情報を表示する、
入力システム。
A display for presenting information to passengers in the vehicle,
A sensor that recognizes a gesture operation of an occupant performed in a gesture recognition space set near the display,
An indicator installed outside the gesture recognition space,
An optical plate that is installed between the gesture recognition space and the display, and forms an image of the gesture guide image displayed on the display in the gesture recognition space,
The display displays information that reflects the gesture operation recognized by the sensor,
Input system.
前記表示器は、前記ジェスチャガイド映像として、操作内容を示すシンボル映像を表示し、
前記光学プレートは、前記シンボル映像を前記ジェスチャ認識空間に結像させる、
請求項1に記載の入力システム。
As the gesture guide image, the display displays a symbol image showing the operation content,
The optical plate forms an image of the symbol image in the gesture recognition space,
The input system according to claim 1.
前記表示器は、前記ジェスチャガイド映像として、前記ジェスチャ認識空間の範囲を規定する映像を表示し、
前記光学プレートは、前記ジェスチャ認識空間の範囲を規定する映像を前記ジェスチャ認識空間に結像させる、
請求項1に記載の入力システム。
The display, as the gesture guide image, displays an image defining a range of the gesture recognition space,
The optical plate forms an image in the gesture recognition space that defines a range of the gesture recognition space.
The input system according to claim 1.
前記ディスプレイは、ダッシュボードに設置されるセンタディスプレイであり、
前記ジェスチャ認識空間は、前記センタディスプレイの表示面に対して手前下方の空間に設定される、
請求項1から3のいずれかに記載の入力システム。
The display is a center display installed on the dashboard,
The gesture recognition space is set in a space below and near the display surface of the center display,
The input system according to any one of claims 1 to 3.
前記ジェスチャ認識空間は、ダッシュボードの中央部の上に設定され、
前記ディスプレイは、センタコンソールの前記ジェスチャ認識空間に近接する位置に設置される、
請求項1から3のいずれかに記載の入力システム。
The gesture recognition space is set on the central part of the dashboard,
The display is installed at a position close to the gesture recognition space of the center console,
The input system according to any one of claims 1 to 3.
車両内の搭乗者に情報を提示するためのディスプレイの近傍に設定されたジェスチャ認識空間内で行われる搭乗者のジェスチャ操作を認識するステップと、
前記ジェスチャ認識空間と、前記ジェスチャ認識空間の外に設置される表示器の間に設置される光学プレートを使用して、前記表示器に表示されたジェスチャガイド映像を前記ジェスチャ認識空間に結像させるステップと、
前記ディスプレイに、認識されたジェスチャ操作を反映した情報を表示させるステップと、を有する、
入力方法。
A step of recognizing a passenger's gesture operation performed in a gesture recognition space set in the vicinity of a display for presenting information to a passenger in a vehicle;
An optical plate installed between the gesture recognition space and a display installed outside the gesture recognition space is used to form a gesture guide image displayed on the display in the gesture recognition space. Steps,
Causing the display to display information that reflects the recognized gesture operation.
input method.
JP2017116226A 2017-06-13 2017-06-13 Input system and input method Pending JP2020126282A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017116226A JP2020126282A (en) 2017-06-13 2017-06-13 Input system and input method
PCT/JP2018/022305 WO2018230526A1 (en) 2017-06-13 2018-06-12 Input system and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017116226A JP2020126282A (en) 2017-06-13 2017-06-13 Input system and input method

Publications (1)

Publication Number Publication Date
JP2020126282A true JP2020126282A (en) 2020-08-20

Family

ID=64658632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017116226A Pending JP2020126282A (en) 2017-06-13 2017-06-13 Input system and input method

Country Status (2)

Country Link
JP (1) JP2020126282A (en)
WO (1) WO2018230526A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045294A1 (en) * 2020-08-28 2022-03-03 大日本印刷株式会社 Aerial image forming device, aerial input device, display device with aerial image forming device, mobile object, and hologram imaging lens

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111984117A (en) * 2020-08-12 2020-11-24 深圳创维-Rgb电子有限公司 Panoramic map control method, device, equipment and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (en) * 2003-11-07 2005-06-02 Denso Corp Device and program for displaying virtual images
JP2007326409A (en) * 2006-06-06 2007-12-20 Toyota Motor Corp Display device for vehicle
JP5509391B1 (en) * 2013-06-07 2014-06-04 株式会社アスカネット Method and apparatus for detecting a designated position of a reproduced image in a non-contact manner
JP6394135B2 (en) * 2014-07-11 2018-09-26 船井電機株式会社 Image display device
JP6516241B2 (en) * 2015-10-28 2019-05-22 アルパイン株式会社 Gesture input device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045294A1 (en) * 2020-08-28 2022-03-03 大日本印刷株式会社 Aerial image forming device, aerial input device, display device with aerial image forming device, mobile object, and hologram imaging lens
JP2022039582A (en) * 2020-08-28 2022-03-10 大日本印刷株式会社 Aerial imaging device, aerial input device, display device with aerial imaging device, vehicle, and holographic imaging lens
JP7216925B2 (en) 2020-08-28 2023-02-02 大日本印刷株式会社 Aerial imaging device, aerial input device, display device with aerial imaging device, moving body and hologram imaging lens

Also Published As

Publication number Publication date
WO2018230526A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
US9057874B2 (en) Virtual cursor for road scene object selection on full windshield head-up display
CN107351763B (en) Control device for vehicle
TWI578021B (en) Augmented reality interactive system and dynamic information interactive and display method thereof
US9008904B2 (en) Graphical vehicle command system for autonomous vehicles on full windshield head-up display
US20170364148A1 (en) Control device for vehicle and control method thereof
KR101367593B1 (en) Interactive operating device and method for operating the interactive operating device
KR101610098B1 (en) Curved display apparatus for vehicle
CN104723964B (en) Curved-surface display equipment for vehicle
JP6331567B2 (en) Display input device for vehicle
KR102051606B1 (en) Electronic apparatus for vehicle
JP2007302116A (en) Operating device of on-vehicle equipment
KR20180053290A (en) Control device for a vehhicle and control metohd thereof
EP3659848A1 (en) Operating module, operating method, operating system and storage medium for vehicles
US20160124224A1 (en) Dashboard system for vehicle
KR20200067866A (en) Method for operating a display device in a car
WO2018230526A1 (en) Input system and input method
JP2017197015A (en) On-board information processing system
TWM564749U (en) Vehicle multi-display control system
JP2016149094A (en) Vehicle information processing apparatus
JP5664336B2 (en) Display control system, display control apparatus, and program
WO2017188098A1 (en) Vehicle-mounted information processing system
KR20230034448A (en) Vehicle and method for controlling thereof
JP2005313722A (en) Operation display device of on-vehicle equipment and operation display method thereof
JP6236211B2 (en) Display device for transportation equipment
JP6166931B2 (en) Vehicle display device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180417