JPWO2017061183A1 - Human interface - Google Patents

Human interface Download PDF

Info

Publication number
JPWO2017061183A1
JPWO2017061183A1 JP2017544407A JP2017544407A JPWO2017061183A1 JP WO2017061183 A1 JPWO2017061183 A1 JP WO2017061183A1 JP 2017544407 A JP2017544407 A JP 2017544407A JP 2017544407 A JP2017544407 A JP 2017544407A JP WO2017061183 A1 JPWO2017061183 A1 JP WO2017061183A1
Authority
JP
Japan
Prior art keywords
finger
information
display
driver
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017544407A
Other languages
Japanese (ja)
Other versions
JP6589991B2 (en
Inventor
美佐雄 中里
美佐雄 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Manufacturing Co Ltd
Original Assignee
Murata Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Manufacturing Co Ltd filed Critical Murata Manufacturing Co Ltd
Publication of JPWO2017061183A1 publication Critical patent/JPWO2017061183A1/en
Application granted granted Critical
Publication of JP6589991B2 publication Critical patent/JP6589991B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instrument Panels (AREA)

Abstract

運転支援システム(1)のヒューマンインターフェースは、車両周辺に存在する周辺物体の情報を取得する周辺物体情報取得装置(10)と、周辺物体を示すアイコンを車両の周辺の実景に重畳させて表示するヘッドアップディスプレイ(20)と、ステアリングホイールを握っている運転者の手の指を検知するモーションセンサ(11)と、検知された指の位置又は動きに応じて、目印情報の中から運転者が所望するアイコンをマッチングするマッチング部(31a)と、マッチングされたアイコンが示す周辺物体の情報をヘッドアップディスプレイ(20)に重畳表示させる表示制御部(31b)とを備える。The human interface of the driving support system (1) displays a peripheral object information acquisition device (10) that acquires information on peripheral objects existing around the vehicle, and an icon indicating the peripheral objects superimposed on a real scene around the vehicle. According to the head-up display (20), the motion sensor (11) for detecting the finger of the driver's hand holding the steering wheel, and the position or movement of the detected finger, the driver A matching unit (31a) that matches a desired icon and a display control unit (31b) that superimposes and displays information on a peripheral object indicated by the matched icon on the head-up display (20).

Description

本発明は、ヒューマンインターフェースに関し、特に、車両で用いられるヒューマンインターフェースに関する。   The present invention relates to a human interface, and more particularly to a human interface used in a vehicle.

近年、例えば、前方の歩行者や車両などを検知して運転者に注意を促すとともに、接触等の可能性がある場合には自動的に車両を制動するプリクラッシュセーフティ・システム(自動ブレーキ・システム)や、先行車両を検知して該先行車両との車間距離を保ちつつ所定の設定速度で走行するアダプティブオートクルーズ・システムなどの先進的運転支援システム(ADAS(Advanced Driver Assistance System))の開発が進められている。   In recent years, for example, a pre-crash safety system (automatic brake system) that detects a pedestrian or vehicle ahead and alerts the driver and automatically brakes the vehicle when there is a possibility of contact, etc. ) And advanced driver assistance systems (ADAS (Advanced Driver Assistance System)) such as an adaptive auto-cruise system that detects a preceding vehicle and keeps a distance between the preceding vehicles and travels at a predetermined speed. It is being advanced.

一方、特許文献1には、運転者が運転中にクエリ検索操作を行うことができるシステム(ヒューマンインターフェース)が開示されている。このシステムでは、第一の入力装置を用いて、運転者の指のオブジェクト(又はアイテム)へのポインティングを検知し、第二の入力装置を用いて、上記オブジェクト(又はアイテム)の選択指示を受け取る。より具体的には、このシステムでは、第一の入力装置(例えばカメラ)により手の画像を撮像し、該撮像画像を処理してポインティングする指の指先の位置に対応する表示装置(例えばヘッドアップディスプレイ(Head Up Display:HUD))上のオブジェクト等の位置を判定する。そして、第二の入力装置(例えばマイクロフォン)を用いて運転者によるオブジェクト等の選択指示を受け取り、選択されたアイテム等に関連付けされたオペレーションを実行する。   On the other hand, Patent Document 1 discloses a system (human interface) that allows a driver to perform a query search operation while driving. In this system, the pointing of the driver's finger to the object (or item) is detected using the first input device, and the selection instruction of the object (or item) is received using the second input device. . More specifically, in this system, an image of a hand is picked up by a first input device (for example, a camera), and the display device (for example, head-up) corresponding to the position of the fingertip of the finger to be processed by processing the picked-up image. The position of an object or the like on the display (Head Up Display: HUD) is determined. Then, the second input device (for example, a microphone) is used to receive an instruction for selecting an object or the like by the driver, and an operation associated with the selected item or the like is executed.

特開2014−179097号公報JP 2014-179097 A

ところで、上述したプリクラッシュセーフティ・システムなどでは、検知した歩行者や車両などの物体に関する詳細な情報を提示することが望まれる状況がある。このような状況において、例えば、複数の物体が検知されている場合には、すべての物体について詳細情報を提示すると、表示情報が煩雑になり、安全運転の観点からも好ましくない。そこで、このような場合には、複数の検知物体の中から運転者が所望する物体をマッチング(選択)して、当該物体の詳細情報のみを提示させることが望ましい。   By the way, in the above-described pre-crash safety system or the like, there is a situation where it is desired to present detailed information regarding detected objects such as pedestrians and vehicles. In such a situation, for example, when a plurality of objects are detected, if detailed information is presented for all the objects, the display information becomes complicated, which is not preferable from the viewpoint of safe driving. Therefore, in such a case, it is desirable to match (select) an object desired by the driver from a plurality of detected objects and present only the detailed information of the object.

ここで、上述したように、特許文献1に記載のシステムによれば、運転者が運転中にクエリ検索操作を行うことができる。しかしながら、このシステム(ヒューマンインターフェース)では、オブジェクト等を選択するために、例えば、指先でポインティングする動作と発声等の動作とを行う必要があるため、運転者の注意が運転よりもオブジェクト等を選択(マッチング)することに注がれるおそれがあり、また、選択(マッチング)に要する時間も長くなるおそれがあった。   Here, as described above, according to the system described in Patent Document 1, the driver can perform a query search operation while driving. However, in this system (human interface), in order to select an object, etc., it is necessary to perform, for example, a pointing operation with a fingertip and an operation such as utterance, so the driver's attention selects an object, etc. rather than driving (Matching) may be devoted, and the time required for selection (matching) may be increased.

本発明は、上記問題点を解消する為になされたものであり、視線を操作スイッチなどに移動させることなく、かつステアリングホイールから両手を離すことなく、運転者が所望する車両周囲に存在する物体の情報を、よりシンプルな動作によって、より短い時間で、マッチングして提示することが可能なヒューマンインターフェースを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object existing around a vehicle desired by a driver without moving the line of sight to an operation switch or the like and without releasing both hands from the steering wheel. It is an object of the present invention to provide a human interface capable of matching and presenting the above information in a shorter time by a simpler operation.

本発明に係るヒューマンインターフェースは、車両の周辺に存在する周辺物体の情報を取得する周辺物体情報取得手段と、周辺物体情報取得手段により取得された周辺物体を示す目印情報を車両の周辺の実景に重畳させて表示する表示手段と、車両のステアリングホイールを握っている運転者の手の指を検知する指検知手段と、指検知手段により検知された指の位置又は動きに応じて、表示手段によって重畳表示されている目印情報の中から、運転者が所望する目印情報をマッチングするマッチング手段と、マッチング手段によりマッチングされた目印情報が示す周辺物体の情報を表示手段によって重畳表示させる表示制御手段とを備えることを特徴とする。   The human interface according to the present invention includes peripheral object information acquisition means for acquiring information on peripheral objects existing in the vicinity of the vehicle, and landmark information indicating the peripheral objects acquired by the peripheral object information acquisition means in an actual scene around the vehicle. By means of display means according to the position or movement of the finger detected by the display means for superimposing display, finger detection means for detecting the finger of the driver's hand holding the steering wheel of the vehicle, and finger detection means A matching unit that matches the landmark information desired by the driver from the superimposed marker information, and a display control unit that causes the display unit to superimpose and display information on peripheral objects indicated by the landmark information matched by the matching unit; It is characterized by providing.

本発明に係るヒューマンインターフェースによれば、車両の周辺に存在する周辺物体の情報が取得され、取得された周辺物体を示す目印情報が車両の周辺の実景に重畳されて表示される。そのため、運転者は、視線を例えば前方に向けたまま情報提供可能な周辺物体を認識することができる。なお、その際に、目印情報のみが重畳表示されるため、表示される情報が煩雑になることを防止できる。一方、車両のステアリングホイールを握っている運転者の手の指が検知され、検知された指の位置(有無を含む)又は動きに応じて、重畳表示されている目印情報の中から、運転者が所望する目印情報がマッチングされる。そして、マッチングされた目印情報が示す周辺物体の情報が重畳表示される。そのため、運転者は、両手でステアリングホイールを握った状態のまま、単一の動作(指先の動きのみ)により、所望の目印情報をマッチングして、該目印情報が示す周辺物体の情報(詳細情報)を重畳表示させることができる。その結果、視線を操作スイッチなどに移動させることなく、かつステアリングホイールから両手を離すことなく、運転者が所望する車両周囲に存在する物体の情報を、よりシンプルな動作によって、より短い時間で、マッチングして提示することが可能となる。   According to the human interface according to the present invention, information on surrounding objects existing around the vehicle is acquired, and landmark information indicating the acquired surrounding objects is displayed superimposed on the actual scene around the vehicle. Therefore, the driver can recognize a peripheral object that can provide information while keeping the line of sight forward, for example. At that time, only the mark information is superimposed and displayed, so that it is possible to prevent the displayed information from becoming complicated. On the other hand, the finger of the driver's hand holding the steering wheel of the vehicle is detected, and the driver is selected from the mark information superimposed on the detected finger's position (including presence / absence) or movement. The desired landmark information is matched. Then, information on the peripheral object indicated by the matched landmark information is displayed in a superimposed manner. Therefore, the driver matches the desired landmark information with a single motion (only the movement of the fingertip) while holding the steering wheel with both hands, and information on the surrounding objects indicated by the landmark information (detailed information) ) Can be displayed in a superimposed manner. As a result, without moving the line of sight to the operation switch or the like and without releasing both hands from the steering wheel, the information on the object around the vehicle desired by the driver can be obtained in a shorter time by a simpler operation, Matching can be presented.

本発明に係るヒューマンインターフェースでは、指検知手段が、ステアリングホイールから前方に出ている指を検知することが好ましい。このようにすれば、運転者の指の位置又は動きを確実にかつ精度よく検知でき、その検知結果(検知情報)を用いて運転者が所望する目印情報を的確にマッチングすることが可能となる。   In the human interface according to the present invention, it is preferable that the finger detection means detects a finger protruding forward from the steering wheel. If it does in this way, it will become possible to detect the position or movement of a driver's finger reliably and accurately, and it will become possible to match mark information desired by the driver accurately using the detection result (detection information). .

本発明に係るヒューマンインターフェースでは、指検知手段が、車両の車室内の上部に配設され、当該配設された箇所から下方に向けた検知範囲を有しており、該検知範囲には、ステアリングホイールから前方に出ている指が入り、かつ、ステアリングホイールが入らないことが好ましい。このようにすれば、検知情報を処理する際に、該検知情報からステアリングホイールを除去する必要がなくなるため、処理負荷を軽減でき、処理時間を短縮することが可能となる。   In the human interface according to the present invention, the finger detection means is disposed in an upper part of the vehicle interior of the vehicle and has a detection range directed downward from the disposed position. It is preferable that a finger protruding forward from the wheel enters and the steering wheel does not enter. In this way, when processing the detection information, it is not necessary to remove the steering wheel from the detection information, so that the processing load can be reduced and the processing time can be shortened.

本発明に係るヒューマンインターフェースでは、マッチング手段が、検知範囲を複数の領域に分け、指検知手段により検知された指の位置又は動きに応じて、複数の領域に含まれるいずれかの領域に運転者の指が入っているか否かを判定するとともに、指が入っていると判定した場合に、該指が入っている領域に対応する目印情報をマッチングすることが好ましい。この場合、検知範囲に設定された領域に指が入ったか否かを判定することにより、運転者が所望する目印情報を判別できるため、処理負荷を軽減でき、処理時間をより短縮することが可能となる。   In the human interface according to the present invention, the matching means divides the detection range into a plurality of areas, and the driver is placed in any one of the plurality of areas according to the position or movement of the finger detected by the finger detection means. It is preferable to match the mark information corresponding to the region containing the finger when it is determined whether the finger is present. In this case, by determining whether or not a finger has entered the region set as the detection range, it is possible to determine the landmark information desired by the driver, so the processing load can be reduced and the processing time can be further shortened. It becomes.

本発明に係るヒューマンインターフェースでは、マッチング手段が、指検知手段により検知された指の位置又は動きに基づいて、指が指している方向を取得するとともに、取得した方向から運転者が指で指している目印情報をマッチングすることが好ましい。この場合、検知された指の位置又は動き(軌跡)に基づいて、該指が指している方向が取得されるとともに、取得された方向から運転者が指で指している目印情報がマッチングされる。そのため、取得された周辺物体が多数存在し、多数の目印情報が重畳表示されている場合であっても、その多数の目印情報の中から運転者が所望する目印情報を的確に判別することが可能となる。   In the human interface according to the present invention, the matching unit acquires the direction in which the finger is pointing based on the position or movement of the finger detected by the finger detection unit, and the driver points with the finger from the acquired direction. It is preferable to match the mark information. In this case, based on the detected position or movement (trajectory) of the finger, the direction in which the finger is pointing is acquired, and the mark information that the driver is pointing with the finger is matched from the acquired direction. . Therefore, even when there are a large number of acquired peripheral objects and a large number of landmark information is superimposed and displayed, it is possible to accurately determine the landmark information desired by the driver from the large number of landmark information. It becomes possible.

本発明に係るヒューマンインターフェースでは、上記指検知手段が距離画像センサにより構成されることが好ましい。このようにすれば、距離画像センサによって指の位置を示す三次元の位置情報(3次元座標)を高精度に得ることができる。さらに、その三次元位置情報から、例えば、運転者が指で指している方向等を的確に取得することが可能となる。   In the human interface according to the present invention, it is preferable that the finger detection means is constituted by a distance image sensor. In this way, three-dimensional position information (three-dimensional coordinates) indicating the position of the finger can be obtained with high accuracy by the distance image sensor. Furthermore, from the three-dimensional position information, for example, the direction or the like that the driver is pointing with a finger can be accurately acquired.

本発明に係るヒューマンインターフェースでは、上記目印情報がアイコンであることが好ましい。このようにすれば、車両の周辺の実景に重畳表示されるアイコンによって、運転者に情報提供可能な周辺物体を容易に認識させることができる。   In the human interface according to the present invention, the mark information is preferably an icon. In this way, it is possible to easily recognize the surrounding object that can provide information to the driver by the icon superimposed on the actual scene around the vehicle.

本発明によれば、視線を操作スイッチなどに移動させることなく、かつステアリングホイールから両手を離すことなく、運転者が所望する車両周囲に存在する物体の情報を、よりシンプルな動作によって、より短い時間で、マッチングして提示することが可能となる。   According to the present invention, information on an object existing around a vehicle desired by a driver can be shortened by a simpler operation without moving the line of sight to an operation switch or the like and without releasing both hands from the steering wheel. Matching and presentation can be made in time.

第1実施形態に係る運転支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance system which concerns on 1st Embodiment. 運転支援システムを構成するモーションセンサの検知範囲を示す図であり、(a)は正面図、(b)は側面図である。It is a figure which shows the detection range of the motion sensor which comprises a driving assistance system, (a) is a front view, (b) is a side view. 第1実施形態に係る運転支援システムにおいて、車両前方の実景に周辺物体のアイコンを重畳表示したときの一例を示す図である。In the driving assistance system concerning a 1st embodiment, it is a figure showing an example when the icon of a peripheral object is superimposed and displayed on the real scene ahead of vehicles. 第1実施形態に係る運転支援システムにおいて、車両前方の実景に周辺物体の詳細情報を重畳表示したときの一例を示す図である。In the driving assistance system concerning a 1st embodiment, it is a figure showing an example when detailed information on a peripheral object is superimposed and displayed on a real scene ahead of a vehicle. 第2実施形態に係る運転支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance system which concerns on 2nd Embodiment. 第2実施形態に係る運転支援システムにおいて、車両前方の実景に周辺物体のアイコンを重畳表示したときの一例を示す図である。In the driving assistance system concerning a 2nd embodiment, it is a figure showing an example when the icon of a peripheral object is superimposed and displayed on the real scene ahead of vehicles. 第2実施形態に係る運転支援システムにおいて、車両前方の実景に周辺物体の詳細情報を重畳表示したときの一例を示す図である。In the driving assistance system concerning a 2nd embodiment, it is a figure showing an example when detailed information on a peripheral object is superimposed and displayed on a real scene ahead of a vehicle.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、図中、同一又は相当部分には同一符号を用いることとする。また、各図において、同一要素には同一符号を付して重複する説明を省略する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same reference numerals are used for the same or corresponding parts. Moreover, in each figure, the same code | symbol is attached | subjected to the same element and the overlapping description is abbreviate | omitted.

(第1実施形態)
ここでは、本発明に係るヒューマンインターフェース(ヒューマンマシンインターフェース(Human Machine Interface:HMI))を、ヘッドアップディスプレイを用いたAR(Augmented Reality:拡張現実)を利用して、車両の周辺(特に、車両の前方)に存在する物体(周辺物体)の情報を運転者に提示する運転支援システムに適用した場合を例にして説明する。なお、本実施形態では、車両の前進方向を「前方(前側)」とし、車両の後退方向を「後方(後側)」とし、車両の前進方向を向いた場合の右側を「右方(右側)」とし、車両の前進方向を向いた場合の左側を「左方(左側)」とする。
(First embodiment)
Here, the human interface (Human Machine Interface (HMI)) according to the present invention is used for AR (Augmented Reality) using a head-up display and around the vehicle (particularly the vehicle). A case will be described as an example in which the present invention is applied to a driving support system that presents information on an object (front object) existing in the front) to the driver. In the present embodiment, the forward direction of the vehicle is “front (front side)”, the backward direction of the vehicle is “rear (rear side)”, and the right side when facing the forward direction of the vehicle is “right (right side)” ) ”, And the left side when the vehicle is moving forward is“ left (left side) ”.

まず、図1、図2を併せて参照して、第1実施形態に係る運転支援システム1の構成について説明する。図1は、運転支援システム1の構成を示すブロック図である。また、図2は、運転支援システム1を構成するモーションセンサ11の検知範囲を示す図であり、(a)は正面図、(b)は側面図である。   First, the configuration of the driving support system 1 according to the first embodiment will be described with reference to FIGS. 1 and 2 together. FIG. 1 is a block diagram showing the configuration of the driving support system 1. FIG. 2 is a diagram showing a detection range of the motion sensor 11 constituting the driving support system 1, wherein (a) is a front view and (b) is a side view.

運転支援システム1は、情報提供可能な周辺物体を示すアイコン(請求の範囲に記載の目印情報に相当)を車両周辺の実景に重畳表示し、重畳表示しているアイコンの中から運転者によってポインティング(選択)されたアイコンに対応する周辺物体の詳細情報を重畳表示する。その際に、運転支援システム1は、運転者がステアリングホイールを握った手の指(例えば、人差し指)によるジェスチャを検知し、運転者が指で指しているアイコンをマッチングする。特に、運転支援システム1は、指の検知範囲を複数の領域に分け、複数の領域のうちの任意の領域に指が入ったか否かを判定することでポインティングされているアイコンを判別する。なお、本実施形態では、アイコンを左側と右側とに1個ずつ重畳表示し、検知範囲を左側の領域と右側の領域との2つの領域に分けた場合を例にして説明する。   The driving support system 1 superimposes an icon indicating a surrounding object that can provide information (corresponding to the landmark information described in the claims) on the actual scene around the vehicle, and the driver points out of the superimposed icons. Detailed information of the surrounding object corresponding to the (selected) icon is superimposed and displayed. At that time, the driving support system 1 detects a gesture by a finger (for example, an index finger) of a hand holding the steering wheel by the driver and matches an icon pointed by the driver with the finger. In particular, the driving support system 1 determines the icon that is pointed by dividing the finger detection range into a plurality of areas and determining whether or not the finger has entered an arbitrary area among the plurality of areas. In the present embodiment, an example will be described in which one icon is superimposed on the left side and the right side, and the detection range is divided into two areas, a left area and a right area.

運転支援システム1は、周辺物体情報取得装置10(請求の範囲に記載の周辺物体情報取得手段に相当)と、モーションセンサ11(請求の範囲に記載の指検知手段に相当)と、ヘッドアップディスプレイ20(請求の範囲に記載の表示手段に相当)と、電子制御装置(以下、「ECU(Electronic Control Unit)」という)31とを備えている。   The driving support system 1 includes a peripheral object information acquisition device 10 (corresponding to the peripheral object information acquisition means described in the claims), a motion sensor 11 (corresponding to the finger detection means described in the claims), a head-up display 20 (corresponding to the display means described in the claims) and an electronic control unit (hereinafter referred to as “ECU (Electronic Control Unit)”) 31.

周辺物体情報取得装置10は、車両の周辺(特に、車両の前方)に存在する周辺物体の情報を取得する装置である。周辺物体情報取得装置10は、車両に搭載されるセンサを用いて周辺物体を検知することで情報を取得するものでもよいし、車両の外部から周辺物体の情報を取得するものでもよい。周辺物体情報取得装置10は、取得した周辺物体の情報(周辺物体情報)をECU31に送信する。周辺物体は、例えば、自動車、自動二輪車、原動機付自転車、自転車、歩行者、動物などである。周辺物体情報は、例えば、位置(例えば、自車両を基準とした相対座標や緯度経度等の絶対座標)、移動速度、移動方向、種別、車種、排気量などである。   The peripheral object information acquisition device 10 is a device that acquires information on peripheral objects existing around the vehicle (particularly in front of the vehicle). The peripheral object information acquisition device 10 may acquire information by detecting a peripheral object using a sensor mounted on the vehicle, or may acquire information on the peripheral object from the outside of the vehicle. The peripheral object information acquisition device 10 transmits the acquired peripheral object information (peripheral object information) to the ECU 31. The peripheral objects are, for example, automobiles, motorcycles, motorbikes, bicycles, pedestrians, animals, and the like. The peripheral object information is, for example, a position (for example, absolute coordinates such as relative coordinates and latitude / longitude with reference to the host vehicle), a moving speed, a moving direction, a type, a vehicle type, and an exhaust amount.

上記車両に搭載されるセンサとしては、例えば、ミリ波レーダ、レーザレーダ等のレーダセンサ、カメラを用いた画像センサなどを用いることができる。これらのセンサにより、車両の周辺の物体の有無、物体が存在する場合にはその物体の位置、大きさ、種別等の情報を取得する。さらに、物体の位置の時系列データを取得することで、物体の移動速度や移動方向等も取得できる。なお、画像センサの場合、近赤外線カメラや赤外線カメラを用いることで夜間等の周辺が暗い状況でも物体を検知することができる。   As a sensor mounted on the vehicle, for example, a radar sensor such as a millimeter wave radar or a laser radar, an image sensor using a camera, or the like can be used. With these sensors, information such as the presence / absence of an object around the vehicle and the position, size, type, and the like of the object are acquired when the object exists. Furthermore, by acquiring time-series data of the position of the object, the moving speed, moving direction, etc. of the object can also be acquired. In the case of an image sensor, an object can be detected even when the surroundings are dark, such as at night, by using a near infrared camera or an infrared camera.

また、上記車両の外部からの取得装置としては、例えば、車車間通信装置、路車間通信装置などを挙げることができる。車車間通信装置を用いた場合には、車車間通信装置の通信可能範囲内に存在する他車両から、例えば、位置、移動速度、移動方向、種別、車種、及び排気量等の情報を取得できる。一方、路車間通信装置を用いた場合には、路側装置(交通インフラ)の通信可能範囲内に自車両が入ったときに、路側装置で取得している物体の位置、移動速度、移動方向、及び種別等の情報を取得できる。なお、車車間通信や路車間通信によって周辺物体の情報を取得する場合には、車両(運転者)の死角になる場所に存在する周辺物体の情報も取得できる。   Examples of the acquisition device from the outside of the vehicle include a vehicle-to-vehicle communication device and a road-to-vehicle communication device. When using an inter-vehicle communication device, for example, information such as position, moving speed, moving direction, type, vehicle type, and displacement can be acquired from other vehicles within the communicable range of the inter-vehicle communication device. . On the other hand, when a road-to-vehicle communication device is used, when the host vehicle enters the communicable range of the roadside device (traffic infrastructure), the position, moving speed, moving direction of the object acquired by the roadside device, And information such as type can be acquired. In addition, when acquiring information on a peripheral object by vehicle-to-vehicle communication or road-to-vehicle communication, information on a peripheral object that exists in a place where the vehicle (driver) becomes a blind spot can also be acquired.

モーションセンサ11は、運転者が手(特に、両手)でステアリングホイールを握っている状態でステアリングホイールから前方(フロントガラス側)に出した指の位置(有無を含む)及び動き(手振り/ジェスチャ)を検知するセンサである。モーションセンサ11としては、例えば、近赤外線を利用したTOF(Time Of Flight)方式の距離画像センサを用いることが好ましい。   The motion sensor 11 is a position (including presence / absence) and movement (hand gesture / gesture) of a finger that comes forward (front glass side) from the steering wheel while the driver is holding the steering wheel with both hands (especially both hands). It is a sensor which detects. As the motion sensor 11, for example, it is preferable to use a distance image sensor of a TOF (Time Of Flight) method using near infrared rays.

この距離画像センサは、例えば、近赤外線を発光するLEDと、物体(例えば、手の指など)で反射された反射光を受光し、画素毎に光電変換した電気信号を出力するイメージセンサ(例えば、CMOSイメージセンサやCCDイメージセンサ)と、近赤外線の発光から受光までの時間を計測し、その時間と光の速度から物体までの距離を画素毎に算出するTOF処理部とを有している。   This distance image sensor receives, for example, an LED that emits near-infrared light and reflected light reflected by an object (for example, a finger of a hand), and outputs an electrical signal photoelectrically converted for each pixel (for example, CMOS image sensor or CCD image sensor), and a TOF processing unit that measures the time from near-infrared light emission to light reception and calculates the time and the distance from the light speed to the object for each pixel. .

モーションセンサ11は、この画素毎の距離情報を用いて、検知範囲に入った物体(ステアリングホイールよりも前方に出ている指)の位置情報(例えば、モーションセンサ11を基準とした3次元の相対座標)を取得する。例えば、モーションセンサ11は、画素毎に距離が所定値よりも短いか否かを判定することで物体が存在するか否かを判定し、物体が存在すると判定した場合には、その物体が存在する領域内の複数の各画素での距離と画素の2次元の位置から位置情報を取得する。モーションセンサ11は、検知した物体の位置情報を示す検知情報をECU31に送信する。なお、モーションセンサ11は画素毎の距離情報をECU31に送信し、ECU31で画素毎の距離情報から物体が存在するか否かの判定や物体の位置情報を取得する処理を行ってもよい。   The motion sensor 11 uses the distance information for each pixel to position information (for example, three-dimensional relative to the motion sensor 11 on the basis of the motion sensor 11) of the object (the finger that is in front of the steering wheel) within the detection range. Get coordinates). For example, the motion sensor 11 determines whether or not an object exists by determining whether or not the distance is shorter than a predetermined value for each pixel, and if it is determined that the object exists, the object exists. The position information is acquired from the distance at each of the plurality of pixels in the region to be processed and the two-dimensional position of the pixel. The motion sensor 11 transmits detection information indicating the position information of the detected object to the ECU 31. Note that the motion sensor 11 may transmit distance information for each pixel to the ECU 31, and the ECU 31 may perform processing for determining whether or not an object exists from the distance information for each pixel and acquiring position information of the object.

モーションセンサ11は、車両の車室内の上部における運転席側かつステアリングホイールよりも前側の所定の箇所(例えば、車室の天井における運転席側の前端部の所定の箇所、又はフロントガラスにおける運転席側の上端部の所定の箇所等)に配設されている。モーションセンサ11は、配設された箇所から下方に向けて近赤外線を発光し、下方に向けた検知範囲を有している。   The motion sensor 11 is a predetermined location on the driver's seat side in the upper part of the passenger compartment of the vehicle and on the front side of the steering wheel (for example, a predetermined location on the front end of the driver's seat on the ceiling of the passenger compartment, or the driver's seat on the windshield At a predetermined location on the upper end of the side). The motion sensor 11 emits near-infrared light downward from the place where it is disposed, and has a detection range directed downward.

図2に示すように、モーションセンサ11の検知範囲Rは、ステアリングホイールWが入らず、かつステアリングホイールWから前方に出ている指FFが入る範囲に設定することが好ましい。特に、検知範囲Rは、運転者が両手でステアリングホイールWをホームポジション(例えば、車両直進時に10時10分の位置)等で握っているときに、前方の任意の方向を指している指(人差し指)FFだけが入り、かつそれ以外の指が入らない範囲に設定することが望ましい。また、検知範囲Rは、ステアリングホイールWの前方に配置されているインスツルメントパネルが入らない範囲に設定することが望ましい。   As shown in FIG. 2, the detection range R of the motion sensor 11 is preferably set to a range in which the steering wheel W does not enter and the finger FF that protrudes forward from the steering wheel W enters. In particular, the detection range R is a finger pointing in any forward direction when the driver is holding the steering wheel W with both hands at the home position (for example, 10:10 when the vehicle is traveling straight). It is desirable to set the index finger to a range where only FF enters and no other fingers enter. Further, it is desirable that the detection range R is set to a range in which an instrument panel arranged in front of the steering wheel W does not enter.

ここで、検知範囲Rは、例えば、中心軸Aの左側の視野角LA、右側の視野角RA、前側の視野角FA、後側の視野角BA及び検知距離Lにより規定される。検知距離Lは、モーションセンサ11とステアリングホイールWとの上下方向の距離等に基づいて決められる。左右の視野角LA,RAは、ステアリングホイールWの直径(例えば35cm)と検知距離L等に基づいて決められる(例えば30°)。前後の視野角FA,BAは、ステアリングホイールWの設置角度θ等に基づいて決められる(例えば15°)。   Here, the detection range R is defined by, for example, the left viewing angle LA, the right viewing angle RA, the front viewing angle FA, the rear viewing angle BA, and the detection distance L of the central axis A. The detection distance L is determined based on the vertical distance between the motion sensor 11 and the steering wheel W or the like. The left and right viewing angles LA and RA are determined based on the diameter (for example, 35 cm) of the steering wheel W and the detection distance L (for example, 30 °). The front and rear viewing angles FA and BA are determined based on the installation angle θ of the steering wheel W (for example, 15 °).

ヘッドアップディスプレイ20は、車両の前方の実景(風景)に各種情報を重畳表示する表示装置である。ヘッドアップディスプレイ20は、例えば、映像(実像)をフロントガラスに向けて投影し、その映像をフロントガラスの内側の一部に設けられたハーフミラーで運転者の方向へ反射させることでその映像をフロントガラスの前方に結像させて虚像を形成する。ヘッドアップディスプレイ20は周知の表示装置であるので、詳細な構成については説明を省略する。   The head-up display 20 is a display device that superimposes and displays various information on a real scene (landscape) in front of the vehicle. For example, the head-up display 20 projects an image (real image) toward the windshield, and reflects the image toward the driver by a half mirror provided in a part of the inside of the windshield. A virtual image is formed by forming an image in front of the windshield. Since the head-up display 20 is a well-known display device, description of the detailed configuration is omitted.

ヘッドアップディスプレイ20は、ECU31から表示制御情報を受信すると、その表示制御情報に示されるフロントガラスの所定の表示位置に所定の映像(例えば、周辺物体を示すアイコンや周辺物体の詳細情報)を投影する。   When the head-up display 20 receives the display control information from the ECU 31, the head-up display 20 projects a predetermined image (for example, an icon indicating a peripheral object or detailed information of the peripheral object) on a predetermined display position of the windshield indicated by the display control information. To do.

ECU31は、運転支援システム1を総合的に制御するコントロールユニットである。ECU31は、例えば、演算を行うマイクロプロセッサ、該マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果等の各種データを記憶するRAM、その記憶内容が保持されるバックアップRAM及び入出力I/F等を有している。ECU31では、ROMなどに記憶されているプログラムがマイクロプロセッサによって実行されることにより、マッチング部31a(請求の範囲に記載のマッチング手段に相当)、及び表示制御部31b(請求の範囲に記載の表示制御手段に相当)の各機能が実現される。   The ECU 31 is a control unit that comprehensively controls the driving support system 1. The ECU 31 includes, for example, a microprocessor that performs calculations, a ROM that stores a program for causing the microprocessor to execute each process, a RAM that stores various data such as calculation results, a backup RAM that stores the stored contents, and Input / output I / F and the like. In the ECU 31, a program stored in a ROM or the like is executed by a microprocessor, whereby a matching unit 31a (corresponding to the matching unit described in the claims) and a display control unit 31b (display described in the claims). Each function of the control means is realized.

マッチング部31aは、ヘッドアップディスプレイ20で重畳表示されている左側のアイコンと右側のアイコンから運転者が指FFで指しているアイコンをマッチングする。具体的には、マッチング部31aは、モーションセンサ11の検知範囲Rを中心軸Aの左側と右側とに分け、検知範囲Rに左側の領域と右側の領域を設定している。左側のアイコンと右側のアイコンが重畳表示されている場合、マッチング部31aは、モーションセンサ11で検知した物体の位置情報を用いて、運転者の指FFが左側の領域に入っているかあるいは右側の領域に入っているかを判定する。例えば、マッチング部31aは、いずれか一方の領域に指FFが連続して所定時間(例えば数秒からコンマ数秒程度)入っている場合に、当該領域に運転者の指FFが入っていると判定する。マッチング部31aは、左側の領域に運転者の指FFが入っていると判定した場合には運転者が左側のアイコンを指していると判定し、右側の領域に運転者の指FFが入っていると判定した場合には運転者が右側のアイコンを指していると判定する。   The matching unit 31a matches the icon that the driver is pointing with the finger FF from the left icon and the right icon superimposed on the head-up display 20. Specifically, the matching unit 31a divides the detection range R of the motion sensor 11 into a left side and a right side of the central axis A, and sets a left region and a right region in the detection range R. When the left icon and the right icon are superimposed, the matching unit 31a uses the position information of the object detected by the motion sensor 11 so that the driver's finger FF is in the left region or the right icon Determine if you are in the area. For example, the matching unit 31a determines that the driver's finger FF is in the area when the finger FF is continuously in any one of the areas for a predetermined time (for example, several seconds to several seconds). . When it is determined that the driver's finger FF is in the left area, the matching unit 31a determines that the driver is pointing to the left icon, and the driver's finger FF is in the right area. It is determined that the driver is pointing to the right icon.

なお、上述のマッチング部31aでは検知範囲Rを左側の領域と右側の領域の2つの領域に分け、各領域に対応してアイコンをマッチングする場合を示したが、中間領域とその左側の領域および右側の領域の3つの領域に分ける場合など、検知範囲Rを3つ以上の領域に分け、3つ以上の領域に対応してアイコンをマッチングする構成としてもよい。   In the above-described matching unit 31a, the detection range R is divided into two regions, a left region and a right region, and an icon is matched corresponding to each region. However, the intermediate region, the left region, For example, the detection range R may be divided into three or more regions, and icons may be matched to correspond to the three or more regions, for example, when divided into three regions on the right side.

表示制御部31bは、周辺物体情報取得装置10で情報を取得している周辺物体(情報提供可能な周辺物体)を示すアイコンをヘッドアップディスプレイ20で重畳表示させる。特に、表示制御部31bは、ヘッドアップディスプレイ20の表示範囲を左側と右側とに分け、左側と右側にアイコンを1個ずつ重畳表示する。   The display control unit 31 b causes the head-up display 20 to superimpose and display an icon indicating a peripheral object (information-providing peripheral object) for which information is acquired by the peripheral object information acquisition device 10. In particular, the display control unit 31b divides the display range of the head-up display 20 into a left side and a right side, and displays icons one by one on the left side and the right side.

具体的には、表示制御部31bは、左側と右側の各周辺物体について、周辺物体情報取得装置10の座標系での周辺物体の位置をヘッドアップディスプレイ20の座標系での位置に変換する。また、表示制御部31bは、左側と右側の各周辺物体について、ヘッドアップディスプレイ20の座標系において周辺物体の位置の近傍にアイコンを重畳表示する位置を設定する。そして、表示制御部31bは、左側と右側の各周辺物体について、アイコンの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。アイコンの絵柄、色等については、運転者が視認しやすいものが適宜選ばれる。図3,4,6,7において一例として示したアイコンは、三角形の中にエクスクラメーションマーク(感嘆符)を配置した絵柄である。   Specifically, the display control unit 31b converts the positions of the peripheral objects in the coordinate system of the peripheral object information acquisition apparatus 10 into the positions in the coordinate system of the head-up display 20 for the left and right peripheral objects. Further, the display control unit 31b sets a position where the icon is superimposed and displayed near the position of the peripheral object in the coordinate system of the head-up display 20 for the left and right peripheral objects. Then, the display control unit 31b transmits to the head-up display 20 display information indicating the video information of the icons, the position of the superimposed display, and the like for each of the left and right peripheral objects. As for the icon pattern, color, etc., an icon that is easily visible to the driver is appropriately selected. The icons shown as an example in FIGS. 3, 4, 6 and 7 are pictures in which an exclamation mark (exclamation mark) is arranged in a triangle.

なお、左側と右側の少なくとも一方の側において、2つ以上の周辺物体の情報が取得されている場合、例えば、周辺物体に優先順位を付けて、優先順位が最も高い周辺物体のアイコンを重畳表示するようにすることが好ましい。ここで、優先順位は、例えば、周辺物体が動物体かあるいは静止物体か、走行している道路上に存在するか否か、走行中の道路に向かって移動しているか否か、車両から死角になる場所に存在するか否か、移動速度等により決めることが好ましい。   In addition, when information on two or more peripheral objects is acquired on at least one of the left side and the right side, for example, priorities are given to the peripheral objects, and icons of the peripheral objects having the highest priority are superimposed and displayed. It is preferable to do so. Here, the priority order is, for example, whether the surrounding object is a moving object or a stationary object, whether it exists on the traveling road, whether it is moving toward the traveling road, It is preferable to determine whether or not it exists at a place where it becomes, depending on the moving speed or the like.

また、表示制御部31bは、マッチング部31aでいずれか一方のアイコンがマッチングされた場合に、そのアイコンが示す周辺物体の詳細情報をヘッドアップディスプレイ20で重畳表示させる。具体的には、表示制御部31bは、ヘッドアップディスプレイ20の座標系において周辺物体(アイコンでもよい)の位置の近傍に詳細情報を重畳表示する位置を設定する。そして、表示制御部31bは、詳細情報の映像情報(例えば、詳細情報の文字列からなる映像情報)と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。重畳表示する詳細情報は、例えば、種別、車種、排気量、移動速度、移動方向などである。   Further, when any one of the icons is matched by the matching unit 31a, the display control unit 31b causes the head-up display 20 to superimpose and display the detailed information of the peripheral object indicated by the icon. Specifically, the display control unit 31b sets a position where detailed information is superimposed and displayed in the vicinity of the position of a peripheral object (may be an icon) in the coordinate system of the head-up display 20. Then, the display control unit 31b transmits to the head-up display 20 video information of detailed information (for example, video information including a character string of detailed information) and display control information indicating the position of superimposed display and the like. The detailed information to be superimposed is, for example, the type, the vehicle type, the displacement, the moving speed, the moving direction, and the like.

なお、詳細情報を重畳表示する場合、全てのアイコンの重畳表示を停止してもよいし、詳細情報を表示しない周辺物体のアイコンの重畳表示のみを停止してもよい。詳細情報を表示する周辺物体のアイコンを重畳表示し続ける場合、表示制御部31bは、そのアイコンを重畳表示するための表示制御情報をヘッドアップディスプレイ20に送信する。   When the detailed information is displayed in a superimposed manner, the superimposed display of all icons may be stopped, or only the superimposed display of the icons of peripheral objects that do not display the detailed information may be stopped. When the icon of the peripheral object that displays the detailed information is continuously displayed in a superimposed manner, the display control unit 31b transmits display control information for displaying the icon in a superimposed manner to the head-up display 20.

次に、運転支援システム1の動作について説明する。ここでは、図3及び図4に示す例を用いて、動作を説明する。図3は、運転支援システム1において、車両前方の実景に周辺物体のアイコンを重畳表示したときの一例を示す図である。また、図4は、運転支援システム1において、車両前方の実景に周辺物体の詳細情報を重畳表示したときの一例を示す図である。   Next, the operation of the driving support system 1 will be described. Here, the operation will be described using the example shown in FIGS. FIG. 3 is a diagram illustrating an example when the icons of the peripheral objects are superimposed and displayed on the actual scene in front of the vehicle in the driving support system 1. FIG. 4 is a diagram illustrating an example when the detailed information of the surrounding objects is superimposed and displayed on the actual scene ahead of the vehicle in the driving support system 1.

図3,4に示す例では、運転支援システム1が搭載された車両の前方の左側に停車している駐車車両PVの前側(車両から死角となる場所)に存在する原動機付自転車O1(図3等に示す例では、駐車車両PVから原動機付自転車O1の運転者のヘルメットだけが見えている)と、車両の前方の右側に存在する動物(猫)O2とが、車両の前方に存在する周辺物体である。周辺物体情報取得装置10は、これらの周辺物体O1,O2の各情報をそれぞれ取得し、これらの各情報を示す周辺物体情報信号をECU31に送信する。   In the example shown in FIGS. 3 and 4, the motorized bicycle O1 (FIG. 3) exists on the front side of the parked vehicle PV that is parked on the left side in front of the vehicle on which the driving support system 1 is mounted. In the example shown in FIG. 6, only the helmet of the motorbike O1 driver can be seen from the parked vehicle PV) and the animal (cat) O2 existing on the right side in front of the vehicle is in the vicinity of the vehicle in front. It is an object. The peripheral object information acquisition device 10 acquires each piece of information about the peripheral objects O1 and O2, and transmits a peripheral object information signal indicating these pieces of information to the ECU 31.

ECU31は、各周辺物体O1,O2について、周辺物体情報取得装置10で取得した周辺物体の位置をヘッドアップディスプレイ20の座標系での位置に変換し、その変換した位置の近傍にアイコンを重畳表示する位置を設定し、アイコンの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。ヘッドアップディスプレイ20は、この表示制御情報を受信すると、表示制御情報で示される位置にアイコンの映像を投影する。これにより、図3に示すように、車両の前方における左側の駐車車両PVの前側の上方にアイコンI1が重畳表示され、右側の猫O2の近傍にアイコンI2が重畳表示される。   For each peripheral object O1, O2, the ECU 31 converts the position of the peripheral object acquired by the peripheral object information acquisition device 10 into a position in the coordinate system of the head-up display 20, and displays an icon superimposed on the vicinity of the converted position. The display control information indicating the video information of the icon and the position of the superimposed display is transmitted to the head-up display 20. When the head-up display 20 receives the display control information, the head-up display 20 projects an icon image at a position indicated by the display control information. As a result, as shown in FIG. 3, the icon I1 is superimposed and displayed above the front side of the left parked vehicle PV in front of the vehicle, and the icon I2 is superimposed and displayed near the right cat O2.

前方を見ている運転者は、この2つのアイコンI1,I2を視認し、このアイコンI1,I2により情報提供可能な周辺物体があることを容易に認識することができる。この例の場合、運転者は、アイコンI2で示される周辺物体(猫O2)を視認できているが、駐車車両PVの死角に入っているアイコンI1で示される周辺物体を視認できていないので、アイコンI1で示される周辺物体の詳細情報を得ようとする。このアイコンI1をマッチングするために、運転者は、ステアリングホイールWを両手LH,RHで握ったまま、かつ前方を見ている状態で、左手LHの人差し指FFをアイコンI1の方向に向けて指さす。その際、運転者は、モーションセンサ11の検知範囲Rの左側の領域内に入るように人差し指FFを出せばよい。モーションセンサ11は、検知範囲Rに入った指FFを検知し、検知した指FFの位置情報を示す検知信号をECU31に送信する。   The driver looking forward can visually recognize these two icons I1 and I2 and easily recognize that there are surrounding objects capable of providing information by the icons I1 and I2. In the case of this example, the driver can visually recognize the peripheral object (cat O2) indicated by the icon I2, but cannot visually recognize the peripheral object indicated by the icon I1 in the blind spot of the parked vehicle PV. The detailed information of the surrounding object indicated by the icon I1 is to be obtained. In order to match the icon I1, the driver points the index finger FF of the left hand LH toward the icon I1 while holding the steering wheel W with both hands LH and RH and looking forward. At that time, the driver only has to put out the index finger FF so as to enter the region on the left side of the detection range R of the motion sensor 11. The motion sensor 11 detects the finger FF that has entered the detection range R, and transmits a detection signal indicating position information of the detected finger FF to the ECU 31.

ECU31は、モーションセンサ11で検知した指FFの位置情報を用いて検知範囲Rの左側の領域に指FFが入っていると判定し、運転者が指FFによる操作で左側のアイコンI1を指していると判定する。そして、ECU31は、アイコンI1の位置の近傍に周辺物体O1の詳細情報を重畳表示する位置を設定し、周辺物体O1の詳細情報の映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。ヘッドアップディスプレイ20は、この表示制御情報を受信すると、表示制御情報で示される位置に周辺物体O1の詳細情報の映像を投影する。   The ECU 31 determines that the finger FF is in the left region of the detection range R using the position information of the finger FF detected by the motion sensor 11, and the driver points to the left icon I1 by the operation with the finger FF. It is determined that Then, the ECU 31 sets a position where the detailed information of the peripheral object O1 is superimposed and displayed near the position of the icon I1, and heads up display control information indicating the video information of the detailed information of the peripheral object O1, the position of the superimposed display, and the like. It transmits to the display 20. When the head-up display 20 receives the display control information, the head-up display 20 projects an image of detailed information of the peripheral object O1 on the position indicated by the display control information.

これにより、図4に示すように、周辺物体O1(アイコンI1)の近傍に周辺物体O1の詳細情報DI(例えば、原動機付自転車(50cc)、5km/h)が重畳表示される。この例の場合、詳細表示DIが重畳表示された周辺物体O1を示すアイコンI1は重畳表示され続け、周辺物体O2を示すアイコンI2の重畳表示は停止される。   As a result, as shown in FIG. 4, detailed information DI of the peripheral object O1 (for example, a motorbike (50 cc), 5 km / h) is superimposed and displayed in the vicinity of the peripheral object O1 (icon I1). In this example, the icon I1 indicating the peripheral object O1 on which the detailed display DI is displayed in a superimposed manner continues to be displayed in a superimposed manner, and the superimposed display of the icon I2 indicating the peripheral object O2 is stopped.

前方を見ている運転者は、この詳細情報DIを視認する。この詳細情報D1により、運転者は、駐車車両PVの前側に原動機付自転車が存在し、この原動機付自転車が道路上に出てくる可能性があることを知る。そこで、運転者は、駐車車両PVを追い越す際に原動機付自転車が出てくることを想定して、例えば、車両を減速させる運転操作等を行うことができる。   The driver looking forward sees this detailed information DI. From this detailed information D1, the driver knows that there is a motorized bicycle on the front side of the parked vehicle PV, and this motorized bicycle may come out on the road. Therefore, the driver can perform, for example, a driving operation for decelerating the vehicle, assuming that the motorized bicycle comes out when overtaking the parked vehicle PV.

以上、詳細に説明したように、本実施形態によれば、車両の周辺に存在する周辺物体の情報が取得され、取得された周辺物体を示すアイコンが車両の周辺の実景に重畳されて表示される。そのため、運転者は、視線を例えば前方に向けたまま情報提供可能な周辺物体を認識することができる。一方、車両のステアリングホイールWを握っている運転者の手の指FFが検知され、検知された指FFの位置(検知領域)に応じて、重畳表示されているアイコンの中から、運転者が所望するアイコンがマッチングされる。そして、マッチングされたアイコンに対応する周辺物体の情報が重畳表示される。そのため、運転者は、両手でステアリングホイールWを握った状態のまま、単一の動作(操作)により、所望のアイコンをマッチングして、該アイコンが示す周辺物体の情報(詳細情報)を重畳表示させることができる。その結果、運転者は、視線を操作スイッチなどに移動させることなく、かつステアリングホイールWから両手を離すことなく、所望する車両周囲に存在する物体の情報を、よりシンプルな動作により、より短い時間で、マッチングして提示させることが可能となる。   As described above in detail, according to the present embodiment, information on surrounding objects existing around the vehicle is acquired, and icons indicating the acquired surrounding objects are displayed superimposed on the actual scene around the vehicle. The Therefore, the driver can recognize a peripheral object that can provide information while keeping the line of sight forward, for example. On the other hand, the finger FF of the driver's hand holding the steering wheel W of the vehicle is detected, and depending on the detected position (detection region) of the finger FF, the driver can select from the superimposed icons. The desired icon is matched. Then, information on surrounding objects corresponding to the matched icon is displayed in a superimposed manner. Therefore, the driver matches a desired icon by a single operation (operation) while holding the steering wheel W with both hands, and superimposes and displays information on the surrounding object (detailed information) indicated by the icon. Can be made. As a result, the driver can display information on objects around the desired vehicle in a shorter time by moving the line of sight to the operation switch or the like and without releasing both hands from the steering wheel W by a simpler operation. Thus, matching can be presented.

本実施形態によれば、ステアリングホイールWから前方に出ている指FFを検知することにより、運転者の指FFの位置(検知領域)を確実にかつ精度よく検知することができ、その検知結果(検知情報)を用いて運転者が所望するアイコンを的確にマッチングすることが可能となる。また、本実施形態によれば、モーションセンサ11が車室内の上部に配設され、配設された箇所から下方に向けた検知範囲が、ステアリングホイールWが入らない範囲かつステアリングホイールWから前方に出ている指FFが入る範囲に設定されているので、モーションセンサ11の検知情報からステアリングホイールWを除去する必要がなく、ECU31の処理負荷を軽減でき、処理時間を短縮することが可能となる。   According to the present embodiment, by detecting the finger FF protruding forward from the steering wheel W, the position (detection region) of the driver's finger FF can be detected reliably and accurately, and the detection result It is possible to accurately match an icon desired by the driver using (detection information). Further, according to the present embodiment, the motion sensor 11 is disposed in the upper part of the vehicle interior, and the detection range directed downward from the disposed position is within the range where the steering wheel W does not enter and forward from the steering wheel W. Since it is set in the range where the protruding finger FF enters, it is not necessary to remove the steering wheel W from the detection information of the motion sensor 11, the processing load of the ECU 31 can be reduced, and the processing time can be shortened. .

本実施形態によれば、モーションセンサ11がTOF方式の距離画像センサによって構成されているため、モーションセンサ11によって指FFの位置を示す三次元の位置情報を高精度に得ることができ、その三次元位置情報から、例えば、運転者が指FFで指している向き等を的確に取得することが可能となる。   According to the present embodiment, since the motion sensor 11 is configured by a TOF type distance image sensor, the motion sensor 11 can obtain three-dimensional position information indicating the position of the finger FF with high accuracy. From the original position information, for example, it is possible to accurately acquire the direction of the driver pointing with the finger FF.

本実施形態によれば、モーションセンサ11の検知範囲を複数(例えば2つ)の領域に分け、モーションセンサ11の検知情報を用いて複数の領域のうちの任意の領域に運転者の指が入ったか否かを判定することでアイコンをマッチングする構成としているので、ECU31の処理負荷を軽減でき、処理時間をより短縮することが可能となる。また、いずれかの領域に指が入ればよいので、運転者は大雑把な指差し動作(操作)でアイコンをマッチングすることができる。   According to the present embodiment, the detection range of the motion sensor 11 is divided into a plurality of (for example, two) areas, and the driver's finger enters an arbitrary area among the plurality of areas using the detection information of the motion sensor 11. Therefore, it is possible to reduce the processing load on the ECU 31 and to shorten the processing time. In addition, since a finger only needs to enter one of the regions, the driver can match icons with a rough pointing operation (operation).

(第2実施形態)
次に、図5を参照して、第2実施形態に係る運転支援システム2の構成について説明する。運転支援システム2は、第1実施形態に係る運転支援システム1と比較すると、運転者が指で指しているアイコンのマッチング方法が異なる。運転支援システム2では、指が指している方向を算出し、その指している方向から運転者が所望しているアイコンをマッチングする。なお、第1実施形態ではアイコンを重畳表示する数が検知範囲を分ける領域の数に応じて制限されたが、第2実施形態では重畳表示するアイコンの数は制限されない。
(Second Embodiment)
Next, with reference to FIG. 5, the structure of the driving assistance system 2 which concerns on 2nd Embodiment is demonstrated. The driving support system 2 is different from the driving support system 1 according to the first embodiment in the matching method of the icon that the driver points with the finger. The driving support system 2 calculates the direction in which the finger is pointing and matches the icon desired by the driver from the pointing direction. In the first embodiment, the number of superimposed icons is limited according to the number of areas that divide the detection range. However, in the second embodiment, the number of icons superimposed is not limited.

運転支援システム2は、周辺物体情報取得装置10と、モーションセンサ11と、ヘッドアップディスプレイ20と、ECU32とを備えている。周辺物体情報取得装置10、モーションセンサ11及びヘッドアップディスプレイ20について第1の実施形態で説明したものと同様のものなので、説明を省略し、以下ではECU32について説明する。   The driving support system 2 includes a peripheral object information acquisition device 10, a motion sensor 11, a head-up display 20, and an ECU 32. Since the peripheral object information acquisition device 10, the motion sensor 11, and the head-up display 20 are the same as those described in the first embodiment, description thereof will be omitted, and the ECU 32 will be described below.

ECU32は、運転支援システム2を総合的に制御するコントロールユニットである。ECU32は、上述したECU31と同様に、例えば、マイクロプロセッサ、ROM、RAM、バックアップRAM及び入出力I/F等を有している。ECU32では、ROMなどに記憶されているプログラムがマイクロプロセッサによって実行されることにより、マッチング部32a(請求の範囲に記載のマッチング手段に相当)、及び表示制御部32b(請求の範囲に記載の表示制御手段に相当)の各機能が実現される。   The ECU 32 is a control unit that comprehensively controls the driving support system 2. The ECU 32 has, for example, a microprocessor, a ROM, a RAM, a backup RAM, an input / output I / F, and the like, similar to the ECU 31 described above. In the ECU 32, a program stored in a ROM or the like is executed by a microprocessor, whereby a matching unit 32a (corresponding to the matching unit described in the claims) and a display control unit 32b (display described in the claims). Each function of the control means is realized.

マッチング部32aは、ヘッドアップディスプレイ20で重畳表示されているアイコンから運転者が指FFで指しているアイコンをマッチングする。具体的には、アイコンが重畳表示されている場合、マッチング部32aは、モーションセンサ11で検知した物体(指FF)の位置情報を用いて、運転者の指FFが指している方向を算出する。例えば、マッチング部32aは、物体の複数の三次元座標データを用いてステアリングホイール側からフロントガラス側に延びる仮想線を求め、この仮想線がステアリングホイール側からフロントガラス側に指す方向を求める。   The matching unit 32a matches the icon that the driver points with the finger FF from the icons superimposed on the head-up display 20. Specifically, when the icon is superimposed and displayed, the matching unit 32a calculates the direction in which the driver's finger FF is pointing using the position information of the object (finger FF) detected by the motion sensor 11. . For example, the matching unit 32a obtains a virtual line extending from the steering wheel side to the windshield side using a plurality of three-dimensional coordinate data of the object, and obtains a direction in which the virtual line points from the steering wheel side to the windshield side.

マッチング部32aは、この指FFが指している方向からヘッドアップディスプレイ20の座標系での指FFが指している位置を算出する。そして、マッチング部32aは、重畳表示されている各アイコンについてヘッドアップディスプレイ20の座標系において指FFが指している位置とアイコンの位置とをそれぞれ比較し、指FFがいずれのアイコンを指しているかを判定する。例えば、マッチング部32aは、アイコンの位置を中心として所定の判定領域を設定し、その判定領域に指FFが指している位置が連続して所定時間(例えば、数秒からコンマ数秒程度)入っている場合に指FFがそのアイコンを指していると判定する。   The matching unit 32a calculates the position indicated by the finger FF in the coordinate system of the head-up display 20 from the direction indicated by the finger FF. Then, the matching unit 32a compares the position of the finger FF with the position of the icon in the coordinate system of the head-up display 20 for each superimposed icon, and which icon the finger FF points to. Determine. For example, the matching unit 32a sets a predetermined determination area around the position of the icon, and the position pointed by the finger FF is continuously included in the determination area for a predetermined time (for example, several seconds to several commas). In this case, it is determined that the finger FF points to the icon.

表示制御部32bは、周辺物体情報取得装置10で情報を取得している周辺物体を示すアイコンをヘッドアップディスプレイ20に重畳表示させる。具体的には、表示制御部32bは、周辺物体情報取得装置10が情報を取得している各周辺物体について、第1実施形態に係る表示制御部31bと同様の処理により周辺物体を示すアイコンを重畳表示する位置を求め、アイコンの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。   The display control unit 32 b causes the head-up display 20 to superimpose and display an icon indicating the peripheral object for which information is acquired by the peripheral object information acquisition device 10. Specifically, the display control unit 32b displays, for each peripheral object for which the peripheral object information acquisition device 10 has acquired information, an icon indicating the peripheral object by the same process as the display control unit 31b according to the first embodiment. The superimposition display position is obtained, and display control information indicating the video information of the icon and the superimposition display position is transmitted to the head-up display 20.

また、表示制御部32bは、運転者の指FFが指している位置を示すカーソルをヘッドアップディスプレイ20に重畳表示させる。具体的には、表示制御部32bは、マッチング部32aで求めた指FFが指している位置をカーソルを重畳表示する位置(例えば、カーソンの中心位置、カーソルの先端位置)として設定し、カーソルの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。カーソルの絵柄、色等については、運転者が視認しやすいものが適宜選ばれる。図6で一例として示すカーソルは、矢印の絵柄である。カーソルの重畳表示は、アイコンがマッチングされると停止される。なお、カーソルの重畳表示を行わない構成としてもよい。また、カーソルの表示に代えて、例えば、指FFで指されたアイコンを反転表示(表示色を変更)するようにしてもよい。   In addition, the display control unit 32b causes the head-up display 20 to superimpose and display a cursor indicating the position pointed to by the driver's finger FF. Specifically, the display control unit 32b sets the position indicated by the finger FF obtained by the matching unit 32a as a position where the cursor is superimposed and displayed (for example, the center position of the carson, the tip position of the cursor), Display control information indicating the position of the video information and superimposed display is transmitted to the head-up display 20. As for the design, color, etc. of the cursor, those that are easy for the driver to visually recognize are appropriately selected. The cursor shown as an example in FIG. 6 is a picture of an arrow. The superimposed display of the cursor is stopped when the icons are matched. Note that the cursor may not be superimposed and displayed. Further, instead of displaying the cursor, for example, the icon pointed with the finger FF may be displayed in reverse (change the display color).

また、表示制御部32bは、マッチング部32aで1つのアイコンをマッチングした場合にそのアイコンが示す周辺物体の詳細情報をヘッドアップディスプレイ20に重畳表示させる。具体的には、表示制御部32bは、上述した表示制御部31bと同様の処理により詳細情報を重畳表示する位置を求め、詳細情報の映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。   Further, when one icon is matched by the matching unit 32a, the display control unit 32b superimposes and displays the detailed information of the peripheral object indicated by the icon on the head-up display 20. Specifically, the display control unit 32b obtains a position where the detailed information is superimposed and displayed by the same process as the display control unit 31b described above, and displays the video information of the detailed information and the display control information indicating the position of the superimposed display, etc. It transmits to the up display 20.

次に、運転支援システム2の動作について説明する。ここでは、図6及び図7に示す例を用いて、動作を説明する。図6は、運転支援システム2において、車両前方の実景に周辺物体のアイコンを重畳表示したときの一例を示す図である。図7は、運転支援システム2において、車両前方の実景に周辺物体の詳細情報を重畳表示したときの一例を示す図である。   Next, the operation of the driving support system 2 will be described. Here, the operation will be described with reference to the examples shown in FIGS. FIG. 6 is a diagram illustrating an example when the icons of the peripheral objects are superimposed and displayed on the actual scene in front of the vehicle in the driving support system 2. FIG. 7 is a diagram illustrating an example when the detailed information of the surrounding objects is superimposed and displayed on the actual scene ahead of the vehicle in the driving support system 2.

図6,7に示す例では、運転支援システム2が搭載された車両の前方の左側に停車している駐車車両PVの前側に存在する原動機付自転車O1と、車両の前方の右側に存在する猫O2と、車両の前方の横断歩道を渡ろうとしている歩行者O3,O4と、車両の前方に存在する先行車両O5と、対向車両O6が、車両の前方に存在する周辺物体である。周辺物体情報取得装置10は、これらの周辺物体O1〜O6の各情報を取得し、これらの各情報を示す周辺情報信号をECU32に送信する。   In the example shown in FIGS. 6 and 7, the motorized bicycle O1 that exists on the front side of the parked vehicle PV that is parked on the left side in front of the vehicle on which the driving support system 2 is mounted, and the cat that exists on the right side in front of the vehicle. O2, pedestrians O3 and O4 trying to cross a pedestrian crossing in front of the vehicle, a preceding vehicle O5 existing in front of the vehicle, and an oncoming vehicle O6 are peripheral objects existing in front of the vehicle. The peripheral object information acquisition device 10 acquires each piece of information about these peripheral objects O1 to O6, and transmits a peripheral information signal indicating these pieces of information to the ECU 32.

ECU32は、各周辺物体O1〜O6について、周辺物体情報取得装置10で取得した周辺物体の位置をヘッドアップディスプレイ20の座標系での位置に変換し、その変換した位置の近傍にアイコンを重畳表示する位置を設定し、アイコンの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。   For each of the peripheral objects O1 to O6, the ECU 32 converts the position of the peripheral object acquired by the peripheral object information acquisition device 10 into a position in the coordinate system of the head-up display 20, and displays an icon superimposed on the vicinity of the converted position. The display control information indicating the video information of the icon and the position of the superimposed display is transmitted to the head-up display 20.

ヘッドアップディスプレイ20は、この表示制御情報を受信すると、表示制御情報で示される位置にアイコンの映像を投影する。これにより、図6に示すように、車両の前方における左側の駐車車両PVの前側の上方にアイコンI1が重畳表示され、右側の猫O2の近傍にアイコンI2が重畳表示され、各歩行者O3,O4の近傍にアイコンI3,I4が重畳表示され、先行車両O5の近傍にアイコンI5が重畳表示され、対向車両O6の近傍にアイコンI6が重畳表示される。   When the head-up display 20 receives the display control information, the head-up display 20 projects an icon image at a position indicated by the display control information. As a result, as shown in FIG. 6, the icon I1 is superimposed on the front side of the left parked vehicle PV in front of the vehicle, the icon I2 is superimposed on the right side of the cat O2, and each pedestrian O3, Icons I3 and I4 are superimposed and displayed near O4, icon I5 is superimposed and displayed near the preceding vehicle O5, and icon I6 is superimposed and displayed near the oncoming vehicle O6.

前方を見ている運転者は、この6つのアイコンI1〜I6を視認する。この例の場合、運転者は、アイコンI2〜I6で示される周辺物体(猫O2、各歩行者O3,O4、各車両O5,O6)を視認できているが、駐車車両PVの死角に入っているアイコンI1で示される周辺物体を視認できていないので、アイコンI1で示される周辺物体の詳細情報を得ようとする。このアイコンI1をマッチングするために、運転者は、ステアリングホイールWを両手LH,RHで握ったまま前方を見ている状態で、左手LHの人差し指FFをアイコンI1の方向に向けて指さす。モーションセンサ11は、検知範囲Rに入った指FFを検知し、検知した指FFの位置情報をECU32に送信する。   The driver looking forward looks at these six icons I1 to I6. In this example, the driver can visually recognize the surrounding objects (cat O2, each pedestrian O3, O4, each vehicle O5, O6) indicated by the icons I2 to I6, but enters the blind spot of the parked vehicle PV. Since the peripheral object indicated by the icon I1 is not visually recognized, detailed information on the peripheral object indicated by the icon I1 is obtained. In order to match the icon I1, the driver points the index finger FF of the left hand LH toward the icon I1 while looking forward while holding the steering wheel W with both hands LH and RH. The motion sensor 11 detects the finger FF that has entered the detection range R, and transmits position information of the detected finger FF to the ECU 32.

ECU32は、モーションセンサ11で検知した指FFの位置情報を用いて指FFが指している方向を算出し、その指している方向からヘッドアップディスプレイ20の座標系において指FFが指している位置を算出する。そして、ECU32は、この指FFが指している位置にカーソルを重畳表示するために、カーソルの映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。ヘッドアップディスプレイ20は、この表示制御情報を受信すると、表示制御情報で示される位置にカーソルの映像を投影する。これにより、図6に示すように、運転者が指FFで指している位置を示すカーソルCが重畳表示される。なお、カーソルCの表示に代えて、例えば、指FFで指されたアイコンI1〜I6を反転表示(表示色を変更)するようにしてもよい。   The ECU 32 calculates the direction pointed by the finger FF using the position information of the finger FF detected by the motion sensor 11, and the position pointed by the finger FF in the coordinate system of the head-up display 20 from the pointing direction is calculated. calculate. Then, the ECU 32 transmits to the head-up display 20 display information indicating the video information of the cursor, the position of the superimposed display, and the like in order to superimpose and display the cursor at the position indicated by the finger FF. When the head-up display 20 receives the display control information, the head-up display 20 projects a cursor image at a position indicated by the display control information. Thereby, as shown in FIG. 6, the cursor C indicating the position where the driver is pointing with the finger FF is superimposed and displayed. Instead of displaying the cursor C, for example, the icons I1 to I6 pointed by the finger FF may be displayed in reverse (change the display color).

前方を見ている運転者は、このカーソルCを視認し、カーソルCを見ながら指FFを動かす。カーソルCとマッチング対象のアイコンI1とが離れている場合、運転者は、カーソルCがアイコンI1に近づくように指FFを動かす。   The driver who is looking forward visually recognizes the cursor C and moves the finger FF while looking at the cursor C. When the cursor C is away from the matching target icon I1, the driver moves the finger FF so that the cursor C approaches the icon I1.

カーソルCがアイコンI1の直近まで近づくとあるいはアイコン11に重なると、ECU32は、モーションセンサ11で検知した指FFの位置情報から算出した指FFが指している方向(指FFが指している位置)により、運転者が指FFで指しているアイコンI1をマッチングする。そして、ECU32は、アイコンI1で示す周辺物体O1の詳細情報の映像情報と重畳表示の位置等を示す表示制御情報をヘッドアップディスプレイ20に送信する。   When the cursor C comes close to the icon I1 or overlaps the icon 11, the ECU 32 indicates the direction pointed by the finger FF calculated from the position information of the finger FF detected by the motion sensor 11 (the position pointed by the finger FF). Thus, the icon I1 pointed by the driver with the finger FF is matched. Then, the ECU 32 transmits to the head-up display 20 video information of the detailed information of the peripheral object O1 indicated by the icon I1, display control information indicating the position of the superimposed display, and the like.

ヘッドアップディスプレイ20は、表示制御情報で示される位置に周辺物体O1の詳細情報の映像を投影する。これにより、図7に示すように、周辺物体O1の近傍に詳細情報DIが重畳表示される。この例の場合、詳細表示DIが重畳表示された周辺物体O1を示すアイコンI1は重畳表示され続け、周辺物体O2〜O6を示すアイコンI2〜I6の重畳表示は停止される。前方を見ている運転者は、上述した第1実施形態と同様に、この詳細情報DIを視認し、駐車車両PVの前側に存在する原動機付自転車が道路上に出てくる可能性があることを知ることができる。   The head-up display 20 projects an image of detailed information of the peripheral object O1 at a position indicated by the display control information. Thereby, as shown in FIG. 7, the detailed information DI is superimposed and displayed in the vicinity of the peripheral object O1. In the case of this example, the icon I1 indicating the peripheral object O1 on which the detailed display DI is superimposed is continuously displayed, and the superimposed display of the icons I2 to I6 indicating the peripheral objects O2 to O6 is stopped. The driver looking forward can visually recognize this detailed information DI as in the first embodiment described above, and there is a possibility that the motorized bicycle existing on the front side of the parked vehicle PV may come out on the road. Can know.

本実施形態によれば、モーションセンサ11により検知された運転者の指FFの三次元位置に基づいて、指FFしている指の方向が取得されるとともに、取得された方向から運転者が指で指しているアイコンがマッチングされる。そのため、取得された周辺物体が多数存在し、多数のアイコンが重畳表示されている場合であっても、その多数のアイコンの中から運転者が所望しているアイコンを的確に判別することができる。また、本実施形態によれば、運転者の指FFによるマッチング操作中にカーソルを重畳表示する構成としているので、指FFで指す位置を所望のアイコンに合わせ易くできる。   According to the present embodiment, based on the three-dimensional position of the driver's finger FF detected by the motion sensor 11, the direction of the finger FF is acquired, and the driver moves the finger from the acquired direction. The icon pointed to by is matched. Therefore, even if there are many acquired peripheral objects and many icons are superimposed, the icon desired by the driver can be accurately determined from the many icons. . Further, according to the present embodiment, since the cursor is superimposed and displayed during the matching operation with the driver's finger FF, the position pointed to by the finger FF can be easily matched with a desired icon.

また、本実施形態によれば、重畳表示する周辺物体(アイコン)の数が制限されない。さらに、詳細情報として、マッチングされたアイコンの詳細情報(所望の詳細情報)のみが表示されるため、重畳表示される画像により煩雑さを与えることが防止できる。   Further, according to the present embodiment, the number of peripheral objects (icons) to be superimposed and displayed is not limited. Furthermore, since only the detailed information (desired detailed information) of the matched icon is displayed as the detailed information, it can be prevented from being complicated by the superimposed image.

以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。例えば、上記実施形態では、実景に重畳表示するためにヘッドアップディスプレイ20を用いたが、ヘッドアップディスプレイ20に代えて、例えば、ヘッドマウントディスプレイ等の表示装置を用いてもよい。   Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made. For example, in the above embodiment, the head-up display 20 is used to superimpose and display the actual scene. However, instead of the head-up display 20, for example, a display device such as a head-mounted display may be used.

上記実施形態では、車両の前方の実景に重畳表示する場合を例にして説明したが、車両の後方等の他の方向の実景に重畳表示する場合にも適用することができる。また、上記実施形態では前方の実景に前方に存在する周辺物体のアイコンを重畳表示する構成としたが、これに加えて後方や側方に存在する周辺物体のアイコンを重畳表示する構成としてもよい。例えば、後方や側方に存在する物体を検知する検知手段により後方や側方を走行する車両等を検知し、その車両等を示すアイコンを重畳表示し、そのアイコンがポインティングされた場合には後方や側方の車両等の詳細情報を重畳表示する。これにより、ドアミラー等で得られる情報に相当する情報を運転者が視線を前方から移動させることなく得ることができる。また、ドアミラーの代替としてカメラ等で取得した画像を表示させ、例えば、左右に並走車両が存在している状態のときにのみ、アイコンにて運転者に知らせるとともに、該アイコンが指差しされたときに、カメラで取得した画像を表示すること(ドアミラーレス対応)も可能となる。   In the above embodiment, the case of superimposing and displaying on the actual scene in front of the vehicle has been described as an example. However, the present invention can also be applied to the case of superimposing and displaying on the actual scene in other directions such as the rear of the vehicle. Further, in the above-described embodiment, the configuration is such that the icons of the peripheral objects present in the front are superimposed on the front real scene, but in addition to this, the icons of the peripheral objects existing in the rear or side may be superimposed and displayed. . For example, a vehicle that travels rearward or laterally is detected by a detection means that detects an object that exists behind or laterally, and an icon indicating the vehicle or the like is superimposed and displayed when the icon is pointed Detailed information about the vehicle and the side vehicle is superimposed and displayed. As a result, information corresponding to information obtained by a door mirror or the like can be obtained without the driver moving his / her line of sight from the front. In addition, an image acquired by a camera or the like is displayed as an alternative to a door mirror, and for example, the driver is notified by an icon only when a parallel running vehicle exists on the left and right, and the icon is pointed Sometimes, it is possible to display an image acquired by a camera (corresponding to door mirrorless).

上記実施形態では、情報提供可能な周辺物体が存在することをアイコンで示したが、周辺物体を囲む矩形枠等の他の目印情報を用いて周辺物体が存在することを示してもよい。また、上記実施形態では周辺物体の詳細情報を文字列で重畳表示する例を示したが、カメラで撮像した画像等の他の形態の詳細情報を重畳表示してもよい。例えば、夜間等で暗い場合には赤外線カメラの撮像画像を詳細情報として重畳表示したり、後方や側方を撮像するカメラの撮像画像を詳細情報として重畳表示したりしてもよい。   In the above embodiment, an icon indicates that there is a peripheral object that can provide information. However, other mark information such as a rectangular frame surrounding the peripheral object may be used to indicate that the peripheral object exists. Moreover, although the example which superimposes and displays the detailed information of a surrounding object with the character string was shown in the said embodiment, you may superimpose and display the detailed information of other forms, such as the image imaged with the camera. For example, when the image is dark at night or the like, the captured image of the infrared camera may be superimposed and displayed as detailed information, or the captured image of the camera that captures the rear or side may be superimposed and displayed as detailed information.

上記実施形態では、指検知手段として距離画像センサで構成されるモーションセンサを示したが、三次元カメラ、レーダセンサ等で構成される他の指検知手段を適用してもよい。   In the above embodiment, the motion sensor constituted by the distance image sensor is shown as the finger detection means, but other finger detection means constituted by a three-dimensional camera, a radar sensor, or the like may be applied.

上記実施形態ではモーションセンサ11の検知範囲としてステアリングホイールWの入らない範囲を設定したが、ステアリングホイールWが入る検知範囲を設定してもよい。この場合、例えば、モーションセンサ11の検知情報からステアリングホイールWの情報をマスクし、マスク後の検知情報を用いて運転者が所望するアイコン(詳細情報)を判定することが好ましい。   In the above embodiment, the range where the steering wheel W does not enter is set as the detection range of the motion sensor 11, but a detection range where the steering wheel W enters may be set. In this case, for example, it is preferable to mask the information of the steering wheel W from the detection information of the motion sensor 11 and determine the icon (detailed information) desired by the driver using the detection information after masking.

上記実施形態では、モーションセンサ11(距離画像センサ)を、運転席側の車室内上部かつステアリングホイールよりも前側の箇所(例えば、天井の運転席側の前端部や、フロントガラスの運転席側の上端部等)に配設したが、これらの位置に代えて、例えば、フロントガラスとダッシュボードとの間や、メータの筐体部などに配設してもよい。   In the above-described embodiment, the motion sensor 11 (distance image sensor) is placed at the upper part of the vehicle interior on the driver's seat and in front of the steering wheel (for example, the front end of the driver's seat on the ceiling or the driver's seat on the windshield). However, instead of these positions, for example, it may be arranged between the windshield and the dashboard, or in the housing of the meter.

また、上記実施形態では、モーションセンサ11(距離画像センサ)によって取得された指の三次元位置情報に基づいて、運転者が指差している方向を取得し、アイコンとのマッチングを行う構成としたが、このような構成に代えて、例えば、モーションセンサ11(距離画像センサ)により指先の3次元座標を検出し、該3次元座標をヘッドアップディスプレイ20上の座標と同期させ、任意のアイコンと座標マッチングを行う構成としてもよい。なお、この場合も、重畳表示されるアイコンの数は制限されない。   Moreover, in the said embodiment, based on the three-dimensional position information of the finger | toe acquired by the motion sensor 11 (distance image sensor), it was set as the structure which acquires the direction which the driver is pointing and matches with an icon. However, instead of such a configuration, for example, the motion sensor 11 (distance image sensor) detects the three-dimensional coordinates of the fingertip, synchronizes the three-dimensional coordinates with the coordinates on the head-up display 20, and It is good also as a structure which performs coordinate matching. In this case as well, the number of icons displayed in a superimposed manner is not limited.

1,2 運転支援システム
10 周辺物体情報取得装置(周辺物体情報取得手段)
11 モーションセンサ(指検知手段)
20 ヘッドアップディスプレイ(表示手段)
31,32 ECU
31a,32a マッチング部(マッチング手段)
31b,32b 表示制御部(表示制御手段)
1, 2 Driving support system 10 Peripheral object information acquisition device (peripheral object information acquisition means)
11 Motion sensor (finger detection means)
20 Head-up display (display means)
31, 32 ECU
31a, 32a matching unit (matching means)
31b, 32b Display controller (display control means)

Claims (8)

車両の周辺に存在する周辺物体の情報を取得する周辺物体情報取得手段と、
前記周辺物体情報取得手段により取得された前記周辺物体を示す目印情報を前記車両の周辺の実景に重畳させて表示する表示手段と、
前記車両のステアリングホイールを握っている運転者の手の指を検知する指検知手段と、
前記指検知手段により検知された指の位置又は動きに応じて、前記表示手段によって重畳表示されている目印情報の中から、運転者が所望する目印情報をマッチングするマッチング手段と、
前記マッチング手段によりマッチングされた目印情報が示す周辺物体の情報を前記表示手段によって重畳表示させる表示制御手段と、を備えることを特徴とするヒューマンインターフェース。
Peripheral object information acquisition means for acquiring information on peripheral objects existing around the vehicle;
Display means for displaying mark information indicating the peripheral object acquired by the peripheral object information acquisition means superimposed on a real scene around the vehicle;
Finger detection means for detecting a finger of a driver's hand holding the steering wheel of the vehicle;
A matching means for matching the mark information desired by the driver from the mark information superimposed and displayed by the display means according to the position or movement of the finger detected by the finger detection means,
A human interface, comprising: a display control unit that causes the display unit to superimpose and display information on a peripheral object indicated by the landmark information matched by the matching unit.
前記指検知手段は、前記ステアリングホイールから前方に出ている指を検知することを特徴とする請求項1に記載のヒューマンインターフェース。   The human interface according to claim 1, wherein the finger detection unit detects a finger coming out from the steering wheel. 前記指検知手段は、前記車両の車室内の上部に配設され、当該配設された箇所から下方に向けた検知範囲を有しており、
前記検知範囲には、前記ステアリングホイールから前方に出ている指が入り、かつ、前記ステアリングホイールが入らないことを特徴とする請求項2に記載のヒューマンインターフェース。
The finger detection means is disposed in the upper part of the vehicle interior of the vehicle, and has a detection range directed downward from the disposed location,
3. The human interface according to claim 2, wherein a finger protruding forward from the steering wheel enters the detection range, and the steering wheel does not enter. 3.
前記マッチング手段は、前記検知範囲を複数の領域に分け、前記指検知手段により検知された指の位置又は動きに応じて、前記複数の領域に含まれるいずれかの領域に運転者の指が入っているか否かを判定するとともに、指が入っていると判定した場合に、該指が入っている領域に対応する前記目印情報をマッチングすることを特徴とする請求項3に記載のヒューマンインターフェース。   The matching unit divides the detection range into a plurality of regions, and a driver's finger enters one of the regions included in the plurality of regions according to the position or movement of the finger detected by the finger detection unit. The human interface according to claim 3, wherein when it is determined whether or not a finger is present, the landmark information corresponding to the region where the finger is present is matched. 前記マッチング手段は、前記指検知手段により検知された指の位置又は動きに基づいて、該指が指している方向を取得するとともに、取得した方向から運転者が指で指している目印情報をマッチングすることを特徴とする請求項3に記載のヒューマンインターフェース。   The matching unit acquires a direction in which the finger is pointing based on the position or movement of the finger detected by the finger detection unit, and matches mark information pointed by the driver with the finger from the acquired direction. The human interface according to claim 3. 前記指検知手段は、距離画像センサにより構成されることを特徴とする請求項1〜5のいずれか1項に記載のヒューマンインターフェース。   The human interface according to claim 1, wherein the finger detection unit is configured by a distance image sensor. 前記指の位置は、前記距離画像センサにより検知された指先の3次元座標であることを特徴とする請求項6に記載のヒューマンインターフェース。   The human interface according to claim 6, wherein the position of the finger is a three-dimensional coordinate of the fingertip detected by the distance image sensor. 前記目印情報は、アイコンであることを特徴とする請求項1〜7のいずれか1項に記載のヒューマンインターフェース。   The human interface according to claim 1, wherein the mark information is an icon.
JP2017544407A 2015-10-05 2016-08-25 Human interface Active JP6589991B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015197375 2015-10-05
JP2015197375 2015-10-05
PCT/JP2016/074806 WO2017061183A1 (en) 2015-10-05 2016-08-25 Human interface

Publications (2)

Publication Number Publication Date
JPWO2017061183A1 true JPWO2017061183A1 (en) 2018-08-30
JP6589991B2 JP6589991B2 (en) 2019-10-16

Family

ID=58487504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017544407A Active JP6589991B2 (en) 2015-10-05 2016-08-25 Human interface

Country Status (2)

Country Link
JP (1) JP6589991B2 (en)
WO (1) WO2017061183A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121042A (en) * 2017-12-28 2019-07-22 株式会社デンソー Target selection device
JP6754472B2 (en) * 2019-06-14 2020-09-09 株式会社Subaru Vehicle information display device
CN114360321B (en) * 2021-11-09 2023-04-07 易显智能科技有限责任公司 Hand action sensing system, training system and training method for motor vehicle driver

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330450A (en) * 2000-03-13 2001-11-30 Alpine Electronics Inc Automobile navigation system
JP2006335112A (en) * 2005-05-31 2006-12-14 Nissan Motor Co Ltd Command input device
JP2008296792A (en) * 2007-05-31 2008-12-11 Toyota Motor Corp Travel controller for vehicle and vehicle
JP2010108264A (en) * 2008-10-30 2010-05-13 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013079930A (en) * 2012-02-07 2013-05-02 Pioneer Electronic Corp Head-up display, control method, and display device
JP2014179097A (en) * 2013-03-13 2014-09-25 Honda Motor Co Ltd Information query by pointing
WO2014196038A1 (en) * 2013-06-05 2014-12-11 三菱電機株式会社 Device for processing information through line-of-sight detection and information processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330450A (en) * 2000-03-13 2001-11-30 Alpine Electronics Inc Automobile navigation system
JP2006335112A (en) * 2005-05-31 2006-12-14 Nissan Motor Co Ltd Command input device
JP2008296792A (en) * 2007-05-31 2008-12-11 Toyota Motor Corp Travel controller for vehicle and vehicle
JP2010108264A (en) * 2008-10-30 2010-05-13 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013079930A (en) * 2012-02-07 2013-05-02 Pioneer Electronic Corp Head-up display, control method, and display device
JP2014179097A (en) * 2013-03-13 2014-09-25 Honda Motor Co Ltd Information query by pointing
WO2014196038A1 (en) * 2013-06-05 2014-12-11 三菱電機株式会社 Device for processing information through line-of-sight detection and information processing method

Also Published As

Publication number Publication date
JP6589991B2 (en) 2019-10-16
WO2017061183A1 (en) 2017-04-13

Similar Documents

Publication Publication Date Title
US11364930B2 (en) Vehicle control system, vehicle control method and program
CN110678371B (en) Vehicle control system, vehicle control method, and storage medium
CN110730740B (en) Vehicle control system, vehicle control method, and storage medium
US11203360B2 (en) Vehicle control system, vehicle control method and program
US20180345790A1 (en) Vehicle control system, vehicle control method, and storage medium
US11287879B2 (en) Display control device, display control method, and program for display based on travel conditions
US20180345991A1 (en) Vehicle control system, vehicle control method, and storage medium
US20180286095A1 (en) Display Assistance Device and Display Assistance Method
JP6307895B2 (en) Vehicle periphery monitoring device
JP6744064B2 (en) Automotive image display system
US11565713B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6107590B2 (en) Head-up display device
US20180348757A1 (en) Vehicle control system, vehicle control method, and storage medium
CN110709304A (en) Vehicle control system, vehicle control method, and vehicle control program
JP6827378B2 (en) Vehicle control systems, vehicle control methods, and programs
JP2010173530A (en) Driving support device
US10503167B2 (en) Vehicle control system, vehicle control method, and storage medium
JP5898539B2 (en) Vehicle driving support system
JP6589991B2 (en) Human interface
JP6840035B2 (en) Vehicle control system
US20220203888A1 (en) Attention calling device, attention calling method, and computer-readable medium
JPWO2020105685A1 (en) Display controls, methods, and computer programs
KR101985496B1 (en) Driving assistance apparatus and vehicle having the same
JP2011192070A (en) Apparatus for monitoring surroundings of vehicle
JP6838728B2 (en) Image display system, image display method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190902

R150 Certificate of patent or registration of utility model

Ref document number: 6589991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150