JP2009143373A - Vehicular operation input device - Google Patents

Vehicular operation input device Download PDF

Info

Publication number
JP2009143373A
JP2009143373A JP2007322269A JP2007322269A JP2009143373A JP 2009143373 A JP2009143373 A JP 2009143373A JP 2007322269 A JP2007322269 A JP 2007322269A JP 2007322269 A JP2007322269 A JP 2007322269A JP 2009143373 A JP2009143373 A JP 2009143373A
Authority
JP
Japan
Prior art keywords
biological state
image
driver
vehicle
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007322269A
Other languages
Japanese (ja)
Other versions
JP5126666B2 (en
Inventor
Kazunobu Nakanishi
一伸 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2007322269A priority Critical patent/JP5126666B2/en
Publication of JP2009143373A publication Critical patent/JP2009143373A/en
Application granted granted Critical
Publication of JP5126666B2 publication Critical patent/JP5126666B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicular operation input device having excellent operability for a driver while suppressing cost increase. <P>SOLUTION: In the prompter type vehicular operation input device, input operation to an operation icon 201 displayed on a display screen can be operated by remote control from a touch operation screen 12a1 provided in a steering wheel located in the position different from that of the display screen. On the display screen, in addition to the operation icon 201, a hand image of an operator DR taken by a camera 12b is displayed. When no hand image is taken, a face image of the driver DR is taken to identify the living body condition of the driver, and control corresponding to the condition is executed. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プロンプター方式の車両用操作入力装置に関する。   The present invention relates to a prompter-type vehicle operation input device.

特開2007−152984号公報JP 2007-152984 A

近年、タッチパネルを直接操作する方法とは異なる操作方法を採用する操作入力装置(特許文献1)として、プロンプター方式等の遠隔的に機器操作を行う操作入力装置が開発されている。プロンプター方式の操作入力装置は、操作画面(メイン画面)を表示する表示装置とは別に、操作者の手元に操作部を設け、さらに、その操作部を操作する手を撮影・抽出し、得られた手画像および手操作を表示装置の操作画面(メイン画面)に反映して、あたかもタッチパネルを直接操作しているかのように表示制御するものである。このようなプロンプター方式の操作入力装置のうち、車両に設けられるものについては、その操作性を増すために座席に着座したユーザーの手元となる、座席の座部周辺にタッチパネルが配置されることが多い。   In recent years, as an operation input device (Patent Document 1) that employs an operation method different from a method of directly operating a touch panel, an operation input device that remotely operates a device such as a prompter method has been developed. Prompter-type operation input devices can be obtained by providing an operation unit at the operator's hand separately from the display device that displays the operation screen (main screen), and photographing and extracting the hand that operates the operation unit. The hand image and the manual operation are reflected on the operation screen (main screen) of the display device, and display control is performed as if the touch panel is directly operated. Among such prompter-type operation input devices, a touch panel may be arranged around the seat portion of the seat, which is provided to the user who is seated on the seat in order to increase operability. Many.

しかしながら、ハンドルを両手把持する状態を基本姿勢とする運転者にとって、座部周辺にタッチパネルが配置されると、ハンドル把持状態の手を座部周辺に移動させなければならず、他の座席の搭乗者よりもかえって操作負担が大きくなってしまう。
一方で、プロンプター方式の操作入力装置の車両への適用は、カメラ等の構成要素の搭載によりコスト高となる問題もある。
However, for a driver whose basic posture is to hold the handle with both hands, if the touch panel is placed around the seat, the hand in the handle must be moved to the vicinity of the seat. The burden of operation becomes larger than the person who is.
On the other hand, the application of a prompter-type operation input device to a vehicle has a problem that the cost increases due to the mounting of components such as a camera.

本発明の課題は、車両全体としてのコストアップを抑制しつつ、運転者にとって操作性のよい形で実現された車両用操作入力装置を提供することにある。   The subject of this invention is providing the operation input apparatus for vehicles implement | achieved in the form with favorable operativity for a driver | operator, suppressing the cost increase as the whole vehicle.

課題を解決するための手段および発明の効果Means for Solving the Problems and Effects of the Invention

上記課題を解決するために、本発明の車両用操作入力装置は、
車両のステアリングホイールに設けられ、表面がタッチ操作面をなす透光性を有した操作パネルと、
表示画面がステアリングホイールとは異なる位置にて、運転者から視認可能に設けられるとともに、該表示画面に操作アイコンを表示可能とされてなる表示手段と、
操作パネルのタッチ操作面側に近接する、当該タッチ操作面の操作者の手画像を撮影する手画像撮影手段と、
撮影された手画像を表示画面上の対応する位置に合成表示する手画像合成表示制御手段と、
表示画面上に表示されている操作アイコンの表示位置に対応する、操作部上の操作入力位置への操作に基づいて、当該操作アイコンに対応して定められた内容の操作入力を受け付ける入力受付手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the vehicle operation input device of the present invention includes:
A translucent operation panel provided on a steering wheel of a vehicle, the surface of which forms a touch operation surface;
A display means provided at a position different from the steering wheel so as to be visible from the driver, and capable of displaying an operation icon on the display screen;
A hand image photographing means for photographing a hand image of the operator of the touch operation surface close to the touch operation surface side of the operation panel;
Hand image composition display control means for compositing and displaying the photographed hand image at a corresponding position on the display screen;
Input accepting means for accepting an operation input having a content corresponding to the operation icon based on an operation to an operation input position on the operation unit corresponding to the display position of the operation icon displayed on the display screen When,
It is characterized by providing.

上記本発明の構成によると、プロンプター方式の操作入力装置において、操作パネルがステアリングホイールに設けられているので、運転者による操作がし易くなっている。また、表示装置に操作する手画像が表示されるので、その操作は一層容易なものとなる。また、近年の車両の多機能化に伴い、車両には様々な機器が搭載されるようになってきており、各種機器及びそれらの操作部を配置するスペースが狭くなってきている中で、プロンプター方式の操作入力装置は、表示される操作アイコンを表示切替により別の制御内容の操作アイコンに変更することができるから、タッチ操作面が占める面積以上の多数の操作入力部を実現することができる点にも利点がある。   According to the above configuration of the present invention, in the prompter type operation input device, the operation panel is provided on the steering wheel, so that the driver can easily operate. In addition, since the hand image to be operated is displayed on the display device, the operation becomes easier. In addition, with recent multifunctionalization of vehicles, various devices have been mounted on vehicles, and prompters have been installed in a space where various devices and their operation units are arranged. Since the operation input device of the method can change the displayed operation icon to an operation icon of another control content by display switching, it is possible to realize a large number of operation input units that are larger than the area occupied by the touch operation surface. There is also an advantage in terms.

なお、表示手段の表示画面と操作パネルのタッチ操作面との間には対応関係を予め定めておき、一方の面内位置に対応する他方の面内位置が一義的に特定可能としておくことができる。これにより、操作性のより優れた操作入力装置とすることができる。   It should be noted that a correspondence relationship between the display screen of the display means and the touch operation surface of the operation panel is determined in advance so that the other in-plane position corresponding to one in-plane position can be uniquely specified. it can. Thereby, it can be set as the operation input device whose operability was more excellent.

さらに、本発明の操作パネルの車両用操作入力装置は、
裏面側から操作パネルを介して、運転席に着座する運転者の顔の、少なくとも一部が含まれる顔画像を撮影する顔画像撮影手段と、
撮影された顔画像に基づいて、運転者が予め定められた生体状態にあることを特定する生体状態特定手段と、
各種生体状態に対応する車載電子機器の制御内容を対応付けた生体状態対応制御情報を記憶する制御内容記憶手段と、
生体状態が特定された場合に、生体状態対応制御情報に基づいて、特定された生体状態に対応する制御内容を実行する生体状態対応制御実行手段と、
を備えるとともに、顔画像撮影手段が手画像撮影手段に兼用されており、操作パネルの裏面側から操作パネルを介して運転者の顔画像が撮影可能となるよう撮影範囲を固定的に定めて配置された構成とすることができる。
Furthermore, the vehicle operation input device of the operation panel of the present invention includes:
A face image photographing means for photographing a face image including at least a part of the face of the driver seated on the driver's seat from the back side through the operation panel;
Biological state specifying means for specifying that the driver is in a predetermined biological state based on the captured face image;
Control content storage means for storing biological state correspondence control information in which the control content of the in-vehicle electronic device corresponding to various biological states is associated;
When the biological state is specified, based on the biological state correspondence control information, biological state correspondence control execution means for executing control content corresponding to the identified biological state;
The face image photographing means is also used as the hand image photographing means, and the photographing range is fixedly determined and arranged so that the driver's face image can be photographed from the back side of the operation panel via the operation panel. It can be set as the structure made.

上記構成によると、運転者の生体状態に応じた制御を実施できるとともに、生体情報を特定するための顔画像撮影手段を、上記の手画像撮影手段に兼用させ、撮影手段を1つで構成することができる。これにより、プロンプター方式の操作入力装置と、運転者の生体状態に応じた制御を実施する機能との双方を搭載した車両において、その全体コストを効果的に抑制できる。また、近年の車両の多機能化に伴い、車両には様々な機器が搭載されるようになってきており、各種機器及びそれらの操作部を配置するスペースが狭くなってきている中で、撮影手段1台分のスペースが空くことは大きな利点となる。なお、本発明における顔画像は、顔全体を含む画像に限られず、顔の少なくとも一部(例えば目画像や鼻画像)が含まれた画像であればよい。   According to the above configuration, the control according to the biological state of the driver can be performed, and the face image photographing unit for specifying the biological information is also used as the above-described hand image photographing unit, and the photographing unit is configured as one. be able to. Thereby, in a vehicle equipped with both a prompter-type operation input device and a function for performing control in accordance with the biological state of the driver, the overall cost can be effectively suppressed. In addition, with recent multifunctionalization of vehicles, various devices have been mounted on vehicles, and the space for arranging various devices and their operation units has become narrower. It is a great advantage to make space for one means. The face image in the present invention is not limited to an image including the entire face, and may be an image including at least a part of the face (for example, an eye image or a nose image).

なお、運転状態特定手段は、撮影手段により撮影された顔画像に基づいて、生体状態として、運転者の車両走行への注意力が低下した運転注意力低下状態を特定する運転注意力低下状態特定手段を有して構成することができる。この場合、生体状態対応制御情報には、運転注意力低下状態に対し、運転者に注意喚起を与えるための予め定められた注意喚起動作をする注意喚起手段に当該注意喚起動作を実行させる制御内容が対応付けられており、生体状態対応制御実行手段は、生体状態として運転注意力低下状態が特定された場合に、生体状態対応制御情報に基づいて、注意喚起動作を実行するものとして構成することができる。これにより、注意力が低下した運転者に対し注意喚起を与えることが可能となる。注意喚起動作を実際に実行する注意喚起動作実行手段は、運転者の注意力低下を音声報知する音声出力手段や、運転者の注意力低下をブザー音にて報知するブザー等とすることができる。また、注意喚起動作として、運転注意力低下状態からの覚醒を促す形で注意喚起を行う警告覚醒動作をこともできる。具体的には、次で述べる空調出力を警告覚醒動作として実行することができる。   The driving state specifying means specifies the driving attention reduced state in which the driver's attention to the vehicle is reduced as the biological state based on the face image taken by the photographing means. It can be configured with means. In this case, in the biological state correspondence control information, the control content for causing the alerting means that performs a predetermined alerting activation work to alert the driver to the driver's attention reduction state is executed. Are associated with each other, and the biological state corresponding control execution means is configured to execute the alerting action based on the biological state corresponding control information when the driving attention reduced state is specified as the biological state. Can do. Thereby, it becomes possible to give a warning to the driver whose attention is reduced. The alert activation work execution means for actually executing the alert activation work can be a voice output means for voice notification of a driver's attention reduction, a buzzer for notifying the driver's attention reduction by a buzzer sound, or the like. . In addition, as a warning activation work, a warning awakening operation that performs a warning in a form that encourages awakening from a state of reduced driving attention can be performed. Specifically, the air conditioning output described below can be executed as a warning wake-up operation.

また、生体状態特定手段は、撮影手段により撮影された顔画像に基づいて、生体状態として、運転者の発汗状態を特定する発汗状態特定手段を有して構成することができる。この場合、生体状態対応制御情報には、発汗状態に対し、車載空調出力手段に現在よりも強風又は低温、あるいは強風かつ低温の空調出力を実行させる制御内容が対応付けておき、生体状態対応制御実行手段は、生体状態として発汗状態が特定された場合に、生体状態対応制御情報に基づいて、空調出力を実行するものとして構成することができる。これにより、発汗状態の運転者に対し自動的に涼感を与えることが可能となる。   Further, the biological state specifying unit can be configured to include a sweating state specifying unit that specifies the sweating state of the driver as the biological state based on the face image taken by the photographing unit. In this case, the biological state correspondence control information is associated with the control state that causes the in-vehicle air conditioning output means to execute the air conditioning output of the strong wind or low temperature or the strong wind and low temperature than the current state for the sweating state. The execution means can be configured to execute the air conditioning output based on the biological state correspondence control information when the sweating state is specified as the biological state. As a result, it is possible to automatically give a cool feeling to the sweating driver.

さらに、本発明の操作パネルの車両用操作入力装置は、
操作パネルのタッチ操作面に接近する接近対象物を検出する接近対象物検出手段と、
接近対象物が検出されている場合には、生体状態対応制御実行手段による生体状態に対応する制御内容の実行を禁止する生体状態対応制御禁止モードを設定し、接近対象物が検出ていない場合には、生体状態対応制御実行手段による生体状態に対応する制御内容を実行する生体状態対応制御実行モードと、を切り替えて設定するモード設定手段と、
を備えた構成とすることができる。
Furthermore, the vehicle operation input device of the operation panel of the present invention includes:
An approaching object detection means for detecting an approaching object approaching the touch operation surface of the operation panel;
When an approaching object is detected, a biological state correspondence control prohibiting mode for prohibiting execution of the control content corresponding to the biological state by the biological state correspondence control execution unit is set, and the approaching object is not detected. Is a mode setting means for switching and setting a biological state correspondence control execution mode for executing control contents corresponding to the biological state by the biological state correspondence control execution means,
It can be set as the structure provided with.

プロンプター方式の操作入力装置と、運転者の生体状態に応じた制御を実施する機能との双方を搭載し、双方に必要な撮影手段を兼用化した場合、顔よりも近い位置に手があると、手が顔を遮って顔が映らなくなり、運転者の生体状態の検出を正確に検出できなくなる。この場合、運転者の生体状態が誤って特定され、これに伴い誤った制御内容が実行される可能性がある。上記構成によれば、タッチ操作面に近接した手が検出された場合、即ち、運転者の顔の撮影を妨害する手が検出された場合には、運転者の生体状態に応じた制御の実行が禁止されるので、誤った制御内容が実行されることがない。   When equipped with both a prompter-type operation input device and a function that implements control according to the driver's biological condition, and sharing the necessary photographing means for both, if the hand is closer to the face The hand is blocked and the face is not reflected, and the driver's biological state cannot be detected accurately. In this case, the biological state of the driver may be specified by mistake, and accordingly, the wrong control content may be executed. According to the above configuration, when a hand close to the touch operation surface is detected, that is, when a hand that interferes with the photographing of the driver's face is detected, control according to the driver's biological state is executed. Is prohibited, so that erroneous control contents are not executed.

また、運転者の生体状態の検出が検出できなくなった状況において、検出処理を継続していることは意味の無いことであるから、生体状態特定手段は、生体状態対応制御禁止モードが設定された場合に、顔画像撮影手段により撮影された顔画像に基づいて運転者の生体状態を特定する生体状態特定処理の実行を禁止するように構成することで、無駄な処理を省略し、制御負荷を軽減できる。   Further, since it is meaningless to continue the detection process in a situation where the detection of the biological state of the driver can no longer be detected, the biological state identification means is set to the biological state correspondence control prohibit mode. In this case, it is configured to prohibit the execution of the biological state specifying process for specifying the biological state of the driver based on the face image photographed by the face image photographing unit, so that useless processing is omitted and the control load is reduced. Can be reduced.

また、接近対象物検出手段は、手画像特定手段に兼用する形で構成することができる。具体的には、手画像撮影手段は、操作パネルのタッチ操作面側に近接する、操作者の手を含む接近対象物を撮影可能に構成され、接近対象物検出手段は、手画像特定手段による撮影画像から接近対象物の画像を特定する形で、該接近対象物を検出するように構成することができる。これにより、撮影手段を利用した形で接近対象物検出手段を設けることができるので、接近対象物検出手段を別装置として設ける必要がなく、コストの抑制につながる。   Further, the approaching object detection unit can be configured to be used also as the hand image specifying unit. Specifically, the hand image photographing means is configured to be able to photograph an approaching object including the operator's hand that is close to the touch operation surface side of the operation panel, and the approaching object detection means is based on the hand image specifying means. The approaching object can be detected in such a manner that an image of the approaching object is specified from the captured image. Thereby, since the approaching object detection means can be provided in a form using the imaging means, it is not necessary to provide the approaching object detection means as a separate device, leading to cost reduction.

ところで、本発明においては、車室内に固定配置され、撮影範囲内に入り込む撮影対象に対し予め定められた波長帯の光を照射する撮影用光源を設けることができ、手画像撮影手段は、撮影用光源から照射される光の反射光を捉える形で撮影対象を撮影するものとできる。光源の設置した撮影により、撮影画像からの顔画像や手画像の抽出を高い精度で行うことが可能となる。手の合成表示の精度や、運転者の生体状態の特定精度も高くなる。なお、撮影用光源は、操作パネルの裏面側に配置し、操作者の目から隠すことができる。また、光源は、例えば赤外光光源とすることで、暗所での撮影も良好となる。この場合、操作パネルは赤外光のみを透過可能なものとすることができる。   By the way, in the present invention, it is possible to provide a photographing light source that is fixedly arranged in the passenger compartment and that irradiates light of a predetermined wavelength band to a photographing target that enters the photographing range. The object to be photographed can be photographed in such a way that the reflected light of the light emitted from the light source is captured. By photographing with a light source, it is possible to extract a face image and a hand image from the photographed image with high accuracy. The accuracy of the hand display and the identification accuracy of the driver's biological state are also increased. The imaging light source can be arranged on the back side of the operation panel and hidden from the operator's eyes. Further, when the light source is, for example, an infrared light source, photographing in a dark place is also good. In this case, the operation panel can transmit only infrared light.

上記モード切替手段を執した構成において、生体状態対応制御実行モードにおいて撮影用光源の輝度を第一レベルに設定し、他方、生体状態対応制御禁止モードにおいては撮影用光源の輝度を第一レベルよりも低い第二レベルに設定することができる。手画像の合成表示に使用される撮影画像はそれほど精度の高いものでなくともよく、少なくとも手の輪郭が特定可能であればよいので、光源の明るさはそれほど必要ない。むしろ、光源の明るさを最低限のレベルに抑えることで、タッチ操作面に接近していない不要な背景画像が映りにくくなるので、手の輪郭特定が容易となるメリットが得られる。これに対し、運転者の顔画像は、生体状態を検出するものであるから比較的遠方にある顔が詳細に撮影できなければならないので、光源が明るいほどよい。上記構成によると、手画像が撮影される場合よりも顔画像が撮影される場合の方が光源の輝度が増すように設定されており、双方のモードにおける光源輝度の利点を効果的に利用することができる。   In the configuration having the mode switching means, the luminance of the photographing light source is set to the first level in the biological state correspondence control execution mode, while the luminance of the photographing light source is set to the first level in the biological state correspondence control prohibit mode. Can also be set to a lower second level. The captured image used for the combined display of the hand image does not have to be so accurate, and at least the contour of the hand can be specified, so that the brightness of the light source is not so necessary. Rather, by suppressing the brightness of the light source to the minimum level, an unnecessary background image that is not close to the touch operation surface becomes difficult to be reflected, so that an advantage of facilitating hand contour specification can be obtained. On the other hand, since the driver's face image is for detecting a biological state, a face that is relatively far away must be photographed in detail, so the brighter the light source, the better. According to the above configuration, the brightness of the light source is set to be increased when the face image is captured than when the hand image is captured, and the advantage of the light source brightness in both modes is effectively used. be able to.

また、本発明においては、手画像撮影手段により撮影された画像上において、反射光の強度が予め定められた閾強度を上回る光反射領域を特定する光反射領域特定手段を設けることができ、入力受付手段は、特定された光反射領域に基づいて、当該光反射領域へのタッチ入力を受け付けるものとして構成できる。上記構成によると、タッチ操作の位置検出を、カメラ等の撮影手段により撮影された撮影画像に対する画像処理により行うことができるから、操作パネルとして、タッチパネル等の操作入力装置は必要なく、透光性を有した板材等でよく、コストを抑制できる。   Further, in the present invention, there can be provided a light reflection area specifying means for specifying a light reflection area in which the intensity of the reflected light exceeds a predetermined threshold intensity on the image photographed by the hand image photographing means. The accepting unit can be configured to accept a touch input to the light reflection area based on the identified light reflection area. According to the above configuration, since the position of the touch operation can be detected by image processing on the captured image captured by the imaging unit such as a camera, an operation input device such as a touch panel is not required as the operation panel, and the translucent The board | plate material etc. which have can be sufficient, and can suppress cost.

また、この場合の入力受付手段は、光反射領域特定手段により特定された光反射領域が、予め定められた閾面積を上回った場合に、当該光反射領域へのタッチ操作入力を受け付けるものとすることができる。タッチ操作面の所定位置に操作入力する際には、操作者がパネル面上で指を目的の位置まで移動させる形でなされることがある。このとき、場合によってはパネル面に軽く触れてなぞってしまうこともある。ところが、この接触は、あくまで操作入力すべき位置を探す際に偶然行われたものであり、なぞって接触した全領域への操作入力を意図したものではない。上記構成によると、操作パネルへの接触面積が小さいようなとき、つまり、操作パネル面上に軽く触れているだけのときには、操作入力として受け付けられないので、上記のようななぞりながらの操作が可能となる。また、誤って操作パネル面に軽く触れてしまった場合も、その操作が操作入力として受け付けられることはない。   Further, in this case, the input receiving means accepts a touch operation input to the light reflection area when the light reflection area specified by the light reflection area specifying means exceeds a predetermined threshold area. be able to. When an operation is input to a predetermined position on the touch operation surface, the operator may move the finger on the panel surface to a target position. At this time, in some cases, the panel surface may be lightly touched and traced. However, this contact is accidentally performed when searching for a position where an operation input is to be made, and is not intended for operation input to all areas touched by tracing. According to the above configuration, when the contact area to the operation panel is small, that is, when the operation panel surface is only touched lightly, it is not accepted as an operation input, so the operation while tracing as described above is possible. It becomes. In addition, even if the operation panel surface is lightly touched by mistake, the operation is not accepted as an operation input.

本発明の表示手段は、車載ナビゲーション装置において地図画像等が表示される表示装置に兼用される形で設けることができる。兼用化することで、コストを抑制できる。   The display means of the present invention can be provided in a form that is also used as a display device that displays a map image or the like in the in-vehicle navigation device. The cost can be suppressed by using the dual purpose.

表示手段は、ウィンドシールドガラスの運転者正面領域を表示画面とし、当該ウィンドシールドガラスに向けて表示光を放射する表示器を備える車両用ヘッドアップディスプレイ装置とすることができる。表示画面が運転者の正面(前方)に位置する、即ち、ステアリングホイールの正面奥側に位置することで、操作アイコンが表示される表示画面を運転しながらでも視認し易く、タッチ操作面へのブラインド操作性が増す。   The display means may be a vehicle head-up display device including a display that uses a windshield glass driver front area as a display screen and radiates display light toward the windshield glass. Since the display screen is located in front of the driver (front), that is, on the back side of the front of the steering wheel, the display screen on which the operation icons are displayed can be easily viewed even while driving, and the touch operation surface is displayed. Blind operability is increased.

本発明の操作パネルは、ステアリングホイールのボス部に設けることができる。ステアリングホイールにおいてタッチ操作面を広く取ることが可能となる。また、タッチ操作面は、表示画面と相似の形状をなして構成できる。これにより、操作アイコンの位置をタッチ操作面上で特定し易くなり、操作が容易となる。なお、操作パネルは、ステアリングホイールのリング部の回転に対し非回転となる形で車体側に固定して設けることにより、ステアリング回転操作に伴い操作パネルが回転しないので操作がし易い。   The operation panel of the present invention can be provided on the boss portion of the steering wheel. A wide touch operation surface can be provided on the steering wheel. Further, the touch operation surface can be configured to have a shape similar to that of the display screen. Thereby, it becomes easy to specify the position of the operation icon on the touch operation surface, and the operation becomes easy. The operation panel is fixed on the vehicle body side so as not to rotate with respect to the rotation of the ring portion of the steering wheel, so that the operation panel does not rotate with the steering rotation operation, so that the operation panel is easy to operate.

以下、本発明のタッチ式操作入力装置の一実施形態を、図面を参照して説明する。   Hereinafter, an embodiment of a touch operation input device of the present invention will be described with reference to the drawings.

図1は、本発明のタッチ式操作入力装置を用いた車両用ナビゲーション装置の構成を示すブロック図である。本実施形態においては、タッチ式操作入力装置1として、操作用のスイッチ画像(操作アイコン)を表示する表示部15とそのスイッチ画像に対する操作入力を行う操作パネル12とが別位置に設けられてなるプロンプター方式操作装置を採用している。なお、本実施形態のタッチ式操作入力装置の操作対象は、ナビゲーション機能のみに限られず、車内LAN50を介して(経由して)接続する他の車載電子機器の機器機能も含むことができる。図1においては、ナビゲーション装置10が車内LAN50を介してエアコンECU101と接続している。   FIG. 1 is a block diagram showing a configuration of a vehicle navigation device using the touch operation input device of the present invention. In this embodiment, as the touch-type operation input device 1, a display unit 15 that displays an operation switch image (operation icon) and an operation panel 12 that performs operation input on the switch image are provided at different positions. Prompter type operation device is adopted. Note that the operation target of the touch-type operation input device of the present embodiment is not limited to the navigation function, but can include the device functions of other in-vehicle electronic devices connected via (via) the in-vehicle LAN 50. In FIG. 1, the navigation device 10 is connected to the air conditioner ECU 101 via the in-vehicle LAN 50.

エアコンECU101は、車載空調装置100の主制御部をなすものであり、図4に示すように、空調用センサ120、空調用駆動部130、及び空調用操作部(空調出力状態設定操作部)140が接続するとともに、LAN I/F190を介して車両内LAN50(図1参照)に接続する構成を有している。なお、図4は、エアコンECU101と、該エアコンECU101により制御されるエアコンユニットUとからなる車載空調装置100の全体構成を概略的に示す図である。エアコンユニットUは、いわゆるHVAC(Heating, Ventilating and Air-Conditioning)ユニットであり、車室内の空調状態を左座席側と右座席側(本実施形態においては運転席側と助手席側)とで独立して調整可能に構成されている。   The air conditioner ECU 101 serves as a main control unit of the in-vehicle air conditioner 100. As shown in FIG. 4, the air conditioning sensor 120, the air conditioning drive unit 130, and the air conditioning operation unit (air conditioning output state setting operation unit) 140 are provided. Are connected to the in-vehicle LAN 50 (see FIG. 1) via the LAN I / F 190. FIG. 4 is a diagram schematically showing the overall configuration of the in-vehicle air conditioner 100 including the air conditioner ECU 101 and the air conditioner unit U controlled by the air conditioner ECU 101. The air conditioner unit U is a so-called HVAC (Heating, Ventilating and Air-Conditioning) unit, and the air-conditioning state in the vehicle interior is independent between the left seat side and the right seat side (in the present embodiment, the driver seat side and the passenger seat side). It is configured to be adjustable.

エアコンユニットUのダクト28には、車内空気を循環させるための内気吸込口42と、車外の空気を取込む外気吸込口41とが形成されており、内外気切替ダンパー24によりいずれかに切り替えて使用される。これら内気吸込口42ないし外気吸込口41からの空気は、ブロワ21によってダクト28内に吸い込まれる。ダクト28内には、吸い込まれた空気を冷却して冷気を発生させるためのエバポレータ22が設けられている。そして、エバポレータ22よりも下流側(吹出口側)は、運転席側の吹出口43〜45へ至る経路と助手席側の吹出口46,47へ至る経路に分岐している。   The duct 28 of the air conditioner unit U is formed with an inside air suction port 42 for circulating the air inside the vehicle and an outside air suction port 41 for taking in air outside the vehicle, and is switched to either by the inside / outside air switching damper 24. used. The air from the inside air inlet 42 or the outside air inlet 41 is sucked into the duct 28 by the blower 21. In the duct 28, an evaporator 22 is provided for cooling the sucked air to generate cool air. Further, the downstream side (air outlet side) of the evaporator 22 is branched into a route leading to the driver seat side air outlets 43 to 45 and a route reaching the passenger seat side air outlets 46 and 47.

なお、図2に示すように、エアコンユニットUには吹出口として、フロントガラス曇り止め用のデフロスタ吹出口43がフロントガラスの内面下縁に対応するインパネ上方奥に、運転席側フェイス吹出口45がインパネの正面中央右寄りと右隅に、助手席側フェイス吹出口46がインパネの正面中央左寄りと左隅に、運転席側フット吹出口44がインパネ下面右奥の運転席側足元に、助手席側フット吹出口47がインパネ下面左奥の助手席側足元に、それぞれ開口しており、図4の吹出口切替用ダンパー32〜36によってそれぞれ開閉状態が切り替えられる。   As shown in FIG. 2, the air conditioner unit U has a defroster outlet 43 for preventing windshield fogging in the upper rear of the instrument panel corresponding to the lower edge of the inner surface of the windshield. Is located on the right front corner of the instrument panel and on the right corner, the passenger side face outlet 46 is located on the left center and left corner of the front panel of the instrument panel, and the driver side foot outlet 44 is located on the driver's side on the driver seat side on the lower right side of the instrument panel. Foot outlets 47 are opened at the passenger seat side feet at the back left of the instrument panel lower surface, and the opening and closing states are respectively switched by the outlet switching dampers 32 to 36 in FIG. 4.

エアコンECU101に接続する空調用駆動部130(図4)は、上記吹出口切替用ダンパー32〜36や該ダンパー32〜36の開閉状態を切り替えるダンパー駆動ギア機構31、エアミックスダンパー25,26、内外気切替ダンパー24、及びそれらを駆動するサーボモータ71〜74等である。これらサーボモータ(アクチュエータ)71〜74は、エアコンECU101によって回転制御されるとともに、ロータの回転位置や回転速度等の情報を検出してエアコンECU101にフィードバックする。具体的には、駆動回路131〜134がエアコンECU101から駆動指令信号の入力を受けて、対応するサーボモータ71〜74を駆動する。   The air conditioning drive unit 130 (FIG. 4) connected to the air conditioner ECU 101 includes the damper switching dampers 32 to 36, the damper driving gear mechanism 31 for switching the open / closed state of the dampers 32 to 36, the air mix dampers 25 and 26, and the inside and outside. These are the air switching damper 24 and servo motors 71 to 74 for driving them. These servo motors (actuators) 71 to 74 are controlled to rotate by the air conditioner ECU 101, and detect information such as the rotation position and rotation speed of the rotor and feed back to the air conditioner ECU 101. Specifically, the drive circuits 131 to 134 receive the drive command signal from the air conditioner ECU 101 and drive the corresponding servo motors 71 to 74.

なお、これらサーボモータ71〜74の他、ブロワ21やコンプレッサもエアコンECU101に接続する空調用駆動部130ということができる。ただし、コンプレッサの直接の駆動源は車載エンジンであり、エアコンECU101はその駆動制御を実行するものである。   In addition to the servo motors 71 to 74, the blower 21 and the compressor can also be referred to as an air conditioning drive unit 130 connected to the air conditioner ECU 101. However, the direct drive source of the compressor is an in-vehicle engine, and the air conditioner ECU 101 executes the drive control.

エアコンECU101に接続される空調用センサ120(図4)は、車内温度を検出する内気温センサ(車内温度検出手段)121、車外温度を検出する外気温センサ(車外温度検出手段)122、エバポレータを通過した直後の空気の温度を検出するエバポレータ後センサ123、及び日射量を検出する日射センサ124等の周知の空調用センサからなる。   An air-conditioning sensor 120 (FIG. 4) connected to the air-conditioner ECU 101 includes an internal air temperature sensor (in-vehicle temperature detecting means) 121 that detects the in-vehicle temperature, an external air temperature sensor (in-vehicle temperature detecting means) 122 that detects the outside temperature, and an evaporator. It consists of well-known air conditioning sensors such as a post-evaporator sensor 123 that detects the temperature of the air immediately after passing, and a solar radiation sensor 124 that detects the amount of solar radiation.

エアコンECU101に接続される空調用操作部140(図4)は、運転者及び助手席搭乗者により操作可能なインパネ正面中央に設けられたエアコンパネル20に設けられており、AUTOスイッチ141,OFFスイッチ142,吹出口切替スイッチ(MODEスイッチ)143,内外気切替スイッチ144,デフロスタスイッチ147,A/Cスイッチ148,独立/一括制御切替スイッチ(DUALスイッチ)149といったスイッチとを備えている。これらのスイッチは、各々周知の押圧操作部やダイアル操作部として構成されている。他方、風量切替スイッチ145及び温度設定スイッチ146は、本実施形態においては、後述するように、タッチパネルに割り付けられたタッチスイッチとして出現するように構成されている。   The air-conditioning operation unit 140 (FIG. 4) connected to the air-conditioner ECU 101 is provided on the air-conditioner panel 20 provided in the center front of the instrument panel that can be operated by the driver and the passenger on the front passenger seat. 142, a blow-out port changeover switch (MODE switch) 143, an inside / outside air changeover switch 144, a defroster switch 147, an A / C switch 148, and an independent / collective control changeover switch (DUAL switch) 149. Each of these switches is configured as a well-known pressing operation unit or dial operation unit. On the other hand, in the present embodiment, the air volume changeover switch 145 and the temperature setting switch 146 are configured to appear as touch switches assigned to the touch panel, as will be described later.

エアコンECU101は、CPU、ROM、RAM等を備える周知の構成を有し、各種空調用操作部140の操作状態や各種空調用センサ120の検出結果に基づいて空調用駆動部130を駆動制御することにより、吹き出し温度制御、吹き出し風量制御、内気吸気・外気吸気切替制御、及び吹出口切替制御等の周知の空調制御を実行する。これらの空調制御は、エアコンECU101のCPUが自身のROMに格納される空調制御プログラムを実行する形で実行される。   The air conditioner ECU 101 has a known configuration including a CPU, a ROM, a RAM, and the like, and drives and controls the air conditioning drive unit 130 based on the operation states of the various air conditioning operation units 140 and the detection results of the various air conditioning sensors 120. Thus, well-known air conditioning control such as blowout temperature control, blowout air volume control, inside air intake / outside air intake switching control, and outlet switching control is executed. These air conditioning controls are executed in such a manner that the CPU of the air conditioner ECU 101 executes an air conditioning control program stored in its own ROM.

図1に戻る。図1のナビゲーション装置10は、車両の現在位置を検出する位置検出器11と、運転者等の操作者からの各種指示を入力するための操作情報入力部12と、地図データや各種の情報を記録した外部記録媒体から地図データ等を入力する地図データ入力器14と、地図表示画面やTV(Television)画面等の各種表示を行うための表示部15と、各種のガイド音声等を出力したり運転者等の操作者の音声を入力したりするための音声入出力装置16と、車両情報等の各種のデータを記憶するためのハードディスク記憶装置17と、車両情報の授受を行うための車両I/F(Interface)部19と、他の通信装置13aと近距離無線通信を行うための無線通信機13と、これら11〜19と接続する制御部18とを備えている。   Returning to FIG. 1 includes a position detector 11 that detects the current position of a vehicle, an operation information input unit 12 for inputting various instructions from an operator such as a driver, map data, and various types of information. A map data input device 14 for inputting map data and the like from a recorded external recording medium, a display unit 15 for performing various displays such as a map display screen and a TV (Television) screen, and various guide voices are output. A voice input / output device 16 for inputting voice of an operator such as a driver, a hard disk storage device 17 for storing various data such as vehicle information, and a vehicle I for exchanging vehicle information. An / F (Interface) unit 19, a wireless communication device 13 for performing short-range wireless communication with another communication device 13 a, and a control unit 18 connected to these 11 to 19 are provided.

位置検出器11は、GPS(Global Positioning System)用の人工衛星からの送信電波をGPSアンテナを介して受信し、車両の位置,方位,速度等を検出するGPS受信機11aと、車両に加えられる回転運動の大きさを検出するジャイロスコープ11bと、車両の前後方向の加速度等から走行した距離を検出する距離センサ11cと、地磁気から進行方位を検出する地磁気センサ11dとを備えている。そして、これら各センサ等11a〜11dは、各々が性質の異なる誤差を有しているため、互いに補完しながら使用するように構成されている。なお、精度によっては、上述したうちの一部のセンサで構成してもよく、また、ステアリングの回転センサや各転動輪の車輪センサ等(図示せず)を用いてもよい。   The position detector 11 receives a radio wave transmitted from an artificial satellite for GPS (Global Positioning System) via a GPS antenna and is added to the vehicle and a GPS receiver 11a that detects the position, direction, speed, and the like of the vehicle. A gyroscope 11b that detects the magnitude of the rotational motion, a distance sensor 11c that detects the distance traveled from the longitudinal acceleration of the vehicle, and the like, and a geomagnetic sensor 11d that detects the traveling direction from the geomagnetism. Each of the sensors 11a to 11d has an error of a different property, and is configured to be used while complementing each other. Depending on the accuracy, some of the sensors described above may be used, or a steering rotation sensor, a wheel sensor for each rolling wheel, or the like (not shown) may be used.

操作情報入力部12は、図5に示すように、表面12a1がタッチ操作面をなす透光性を有した操作パネル12aと、該操作パネル12aを撮影範囲に含む形で該操作パネル12aの裏面12a2側から撮影するカメラ12bと、該撮影範囲に入り込む撮影対象に向けて予め定められた波長帯の光を照射する光源(撮影用光源)12cと、を備えて構成されている。   As shown in FIG. 5, the operation information input unit 12 includes a translucent operation panel 12a whose front surface 12a1 forms a touch operation surface, and a rear surface of the operation panel 12a in a form including the operation panel 12a in a shooting range. The camera 12b shoots from the 12a2 side, and a light source (shooting light source) 12c that irradiates light in a predetermined wavelength band toward a shooting target that enters the shooting range.

操作パネル12aは、少なくとも光源12cから照射される光に対して透光性を有した板材からなる。光源12cは、自身の照射する光が操作パネル12aの裏面12a2から表面12a1に向けて透過する形で配置されている。そして、カメラ12bは、光源12cから照射された光の反射光を捉える形で、操作パネル12aの裏面12a2側から、予め定められた撮影範囲を撮影するよう車体側に固定されている。   The operation panel 12a is made of a plate material having translucency with respect to light emitted from at least the light source 12c. The light source 12c is disposed in such a manner that light emitted from the light source 12c is transmitted from the back surface 12a2 of the operation panel 12a toward the front surface 12a1. The camera 12b is fixed to the vehicle body side so as to capture a predetermined shooting range from the back surface 12a2 side of the operation panel 12a in a form that captures the reflected light of the light emitted from the light source 12c.

なお、操作パネル12aは、図3に示すように、ステアリングホイール6のボス部61の中央に配置されており、運転者によるタッチ操作が可能とされている。具体的に言えば、ステアリングホイール6は、運転者がハンドリング操作を行うための把持部となるリング部62と、リング部62の中央に位置するボス部61と、リング部62とボス部61とを連結する3以上のスポーク部とを有して形成されており、筐体12eの前端部12fの開口に操作パネル12aを嵌め込んだ操作情報入力部12が、ボス部61の中央開口に嵌め込まれた形で配置されている。   As shown in FIG. 3, the operation panel 12 a is disposed at the center of the boss portion 61 of the steering wheel 6 and can be touched by the driver. Specifically, the steering wheel 6 includes a ring part 62 that serves as a grip part for a driver to perform a handling operation, a boss part 61 located in the center of the ring part 62, a ring part 62, and a boss part 61. The operation information input unit 12 in which the operation panel 12a is fitted into the opening of the front end portion 12f of the housing 12e is fitted into the central opening of the boss portion 61. It is arranged in the form.

また、カメラ12bは、図6に示すように、運転席2Dに着座する運転者DRの顔Fが撮影可能となるように撮影範囲を定めて固定されている。さらに、本実施形態のカメラ12bは、図5に示すように、光源12cから照射された光の反射光を反射装置12rに反射させたい光を捉える形で撮影する構成となっている。反射装置12rに反射させた光を捉えて撮影することで、撮影画像を左右反転する画像処理を省略できる。左右反転処理を行うのであれば、光源12cから照射された光の反射光を直接捉える形で撮影を行ってもよい。   Further, as shown in FIG. 6, the camera 12b is fixed with a shooting range determined so that the face F of the driver DR seated in the driver's seat 2D can be shot. Further, as shown in FIG. 5, the camera 12b of the present embodiment is configured to capture the reflected light of the light emitted from the light source 12c so as to capture the light desired to be reflected by the reflecting device 12r. By capturing and capturing the light reflected by the reflecting device 12r, it is possible to omit image processing for horizontally reversing the captured image. If left-right reversal processing is performed, photographing may be performed by directly capturing reflected light of light emitted from the light source 12c.

また、本実施形態の光源12cは、赤外光光源である。また、本実施形態のカメラ12bは、暗所での撮影にも適した赤外線カメラ(可視光をシャットアウトする図示しない赤外線フィルタを備え、これを介して撮影を行う)であり、赤外光光源12cから照射された光(赤外線)が撮影範囲内に存在する撮影対象物にて反射した反射光を捉える形で撮影を行う。なお、操作パネル12aを、光源の光に対してのみ透光性を有した材料にて構成すれば、カメラ12b内の赤外線フィルタは不要となる。また、本発明ではデータ処理の容易さを考え赤外線カメラを使用したが、特に赤外線カメラに限定するものではない。この場合、光源12cも赤外光光源である必要はない。   Moreover, the light source 12c of this embodiment is an infrared light source. The camera 12b of the present embodiment is an infrared camera suitable for shooting in a dark place (including an infrared filter (not shown) that shuts out visible light and performs shooting), and an infrared light source Photographing is performed in such a manner that the light (infrared rays) irradiated from 12c captures the reflected light reflected by the photographing object existing within the photographing range. Note that if the operation panel 12a is made of a material having translucency only with respect to the light from the light source, the infrared filter in the camera 12b is not necessary. In the present invention, an infrared camera is used in consideration of the ease of data processing. However, the present invention is not limited to the infrared camera. In this case, the light source 12c does not need to be an infrared light source.

このように操作情報入力部12が構成されることで、カメラ12bは、通常時は運転者DRの顔Fが位置する領域を撮影領域として撮影を行い、少なくとも運転中の運転者の顔画像を撮影する顔画像撮影手段として機能する一方で、操作パネル12aのタッチ操作面12a1側に何がしかの接近対象物があると、その接近対象物を撮影する接近対象物撮影手段として機能する(接近対象物が手であれば手画像撮影手段として機能する)。つまり、タッチ操作面12a1を被うように位置する接近対象物(例えば手等)Hが存在しない限り、光源12cからの光(照射光)は該タッチ操作面12a1から外に通過し、所定の撮影範囲内に存在する撮影対象物に反射し、その光(反射光)の一部が裏面12a2側に戻ってカメラに捉えられる。一方で、タッチ操作面12a1に対向する形で接近した接近対象物Hがある場合には、当該接近対象物Hに反射して、その光(反射光)の一部が裏面12a2側に戻り、カメラ12bに捉えられる。そして、接近対象物Hがタッチ操作面12a1に接触していれば、その接触領域(接触面)において最も多くの光が反射して、裏面12a2側に戻る。詳細は後述するが、本実施形態における当該操作パネル12aへのタッチ操作は、この接触領域(光反射領域)を検出する形なされる。   By configuring the operation information input unit 12 in this way, the camera 12b normally captures an area where the face F of the driver DR is located as an imaging area, and at least captures the face image of the driving driver. While functioning as a face image photographing means for photographing, if there is some approaching object on the touch operation surface 12a1 side of the operation panel 12a, it functions as an approaching object photographing means for photographing the approaching object (approaching) If the object is a hand, it functions as a hand image taking means). That is, as long as there is no approaching object (such as a hand) H positioned so as to cover the touch operation surface 12a1, light (irradiation light) from the light source 12c passes outside the touch operation surface 12a1, The light is reflected by the object to be photographed within the photographing range, and part of the light (reflected light) returns to the back surface 12a2 side and is captured by the camera. On the other hand, when there is an approaching object H that is approaching the touch operation surface 12a1, it is reflected by the approaching object H and part of the light (reflected light) returns to the back surface 12a2 side. Captured by the camera 12b. If the approaching object H is in contact with the touch operation surface 12a1, most light is reflected in the contact region (contact surface) and returns to the back surface 12a2. Although details will be described later, the touch operation on the operation panel 12a in this embodiment is performed by detecting this contact area (light reflection area).

図7は、カメラ12bにて撮影した映像150の一例である。図7のうち、符号150Hは接近対象物Hが映った領域、符号150HAは接近対象物Hとタッチ操作面12a1との接触領域が映った光反射領域、符号150eは筐体前端部12fの裏面が映った領域である。なお、符号150aは,操作パネル12aの接近対象物Hの背景(遠景)が映し出されている領域となっている。図7においては、背景領域150aに、運転者DRの顔画像150Fが映っているが、その一部が接近対象物H(手画像)により、隠されている。接近対象物が移されていないときには、図9のように、運転者DRの顔画像150Fが撮影される。   FIG. 7 is an example of an image 150 photographed by the camera 12b. In FIG. 7, reference numeral 150H is an area where the approaching object H is reflected, reference numeral 150HA is a light reflection area where the contact area between the approaching object H and the touch operation surface 12a1 is reflected, and reference numeral 150e is the rear surface of the front end portion 12f of the housing. This is the area where Reference numeral 150a denotes an area in which the background (distant view) of the approaching object H on the operation panel 12a is projected. In FIG. 7, the face image 150F of the driver DR is shown in the background area 150a, but a part thereof is hidden by the approaching object H (hand image). When the approaching object is not moved, a driver DR face image 150F is photographed as shown in FIG.

図1に戻り、表示部15は、運転席の前方に設置された表示装置であり、液晶ディスプレイ,プラズマディスプレイ,有機ELディスプレイ等のいずれを用いてもよい。表示部15の表示画面は、位置検出器11にて検出した車両の現在位置と地図データ入力器14より入力された地図データとから特定した現在地を示すマーク,目的地までの誘導経路,名称,目印,各種施設のマーク等の付加データとを重ねて表示することができる。また、施設のガイド等も表示できる。なお、この表示部15が本発明の表示手段に相当する。   Returning to FIG. 1, the display unit 15 is a display device installed in front of the driver's seat, and any of a liquid crystal display, a plasma display, an organic EL display, and the like may be used. The display screen of the display unit 15 includes a mark indicating the current location identified from the current position of the vehicle detected by the position detector 11 and the map data input from the map data input device 14, a guidance route to the destination, a name, Additional data such as landmarks and marks of various facilities can be displayed in an overlapping manner. Also, facility guides can be displayed. The display unit 15 corresponds to display means of the present invention.

また、表示部15は、上述のとおり、操作パネル12aのタッチ操作面12a1上への入力位置を示すための操作系座標と一義的な対応関係を有する表示座標系を有している。当該表示座標系上の予め定められた位置にはスイッチ画像(操作アイコン)201が表示され、これに対応するタッチ操作面12a1上の操作入力位置にタッチ入力がなされると、当該スイッチ画像201に対応する制御内容が実行される。つまり、本実施形態においては、表示部15の表示画面は、操作パネル12aのタッチ操作面12a1と相似の形状をなしており、当該表示画面上に定められる二次元座標系と、該操作パネル12aのタッチ操作面12a1上に定められる二次元座標系との間には一義的な対応関係が予め定められており、一方の面内位置に対応する他方の面内位置が一義的に特定可能とされているから、その対応関係に基づいて、タッチ操作面12a1へのタッチ入力により、表示画面上に表示されるスイッチ画像201をタッチ操作することが可能となっている。なお、表示部15の表示画面及び操作パネル12aのタッチ操作面12a1の形状は、上記のような表示形状に限られず、少なくとも上記のように、双方の面内位置の対応関係が定められてさえいればよい。   Further, as described above, the display unit 15 has a display coordinate system that has an unambiguous correspondence with the operation system coordinates for indicating the input position on the touch operation surface 12a1 of the operation panel 12a. A switch image (operation icon) 201 is displayed at a predetermined position on the display coordinate system. When a touch input is made at the corresponding operation input position on the touch operation surface 12a1, the switch image 201 is displayed. The corresponding control content is executed. That is, in the present embodiment, the display screen of the display unit 15 has a shape similar to the touch operation surface 12a1 of the operation panel 12a, and the two-dimensional coordinate system defined on the display screen and the operation panel 12a. A unique correspondence with the two-dimensional coordinate system defined on the touch operation surface 12a1 is determined in advance, and the other in-plane position corresponding to the one in-plane position can be uniquely specified. Therefore, based on the correspondence, it is possible to perform a touch operation on the switch image 201 displayed on the display screen by a touch input on the touch operation surface 12a1. Note that the shape of the display screen of the display unit 15 and the touch operation surface 12a1 of the operation panel 12a is not limited to the display shape as described above, and at least the correspondence between the in-plane positions is defined as described above. It only has to be.

表示部15としては、図2に示すようなセンターコンソールC内に配置されるものに限られず、例えばフロントガラスFG下縁よりも上方に設置されるものであってもよい。具体的には、車両のフロントガラスFGに、上述の画像・データを表示するヘッドアップディスプレイ(HUD)等を例示できる。   The display unit 15 is not limited to the one disposed in the center console C as shown in FIG. 2, and may be installed above the lower edge of the windshield FG, for example. Specifically, a head-up display (HUD) or the like for displaying the above-mentioned image / data can be exemplified on the windshield FG of the vehicle.

また、表示部15としては、図2に示すようなセンターコンソールC内に配置されるものに限られるものではない。例えば、表示部15の表示画面を運転者正面位置に設けることで、その視認性を増すことができる。例えば、表示部15をメーター表示装置とし、表示画面をステアリングホイール6の奥に位置するメーター表示領域内に設けてもよい。また、表示部15の表示画面が、フロントガラスFG下縁よりも上方に設置されることで、一層視認性が増す。例えば、図18及び図19に示すように、ウィンドシールドガラスFGの運転者正面領域を表示画面15aとし、当該ウィンドシールドガラスに向けて表示光を放射する表示器15bを備える車両用ヘッドアップディスプレイ(HUD)装置を表示部15とすることもできる。   Further, the display unit 15 is not limited to the one arranged in the center console C as shown in FIG. For example, the visibility can be increased by providing the display screen of the display unit 15 at the driver front position. For example, the display unit 15 may be a meter display device, and the display screen may be provided in a meter display region located in the back of the steering wheel 6. Further, the display screen of the display unit 15 is installed above the lower edge of the windshield FG, so that the visibility is further increased. For example, as shown in FIGS. 18 and 19, a vehicle head-up display (see FIG. 18) is provided with a display screen 15 a that is a driver front area of the windshield glass FG and a display 15 b that emits display light toward the windshield glass. HUD) device may be the display unit 15.

図1に戻り、地図データ入力器14は、ネットワークデータとしての道路データ,位置特定の精度向上のためのいわゆるマップマッチング用データ等の地図データ,施設を示すマークデータ,案内用の画像や音声データ等を含む各種のデータを入力するための装置である。これらのデータの記録媒体としては、CD−ROM,DVD−ROM,ハードディスク,メモリ,メモリカード等を用いることができる。   Returning to FIG. 1, the map data input device 14 is road data as network data, map data such as so-called map matching data for improving the accuracy of position specification, mark data indicating facilities, guidance image and audio data. It is a device for inputting various data including the like. A CD-ROM, DVD-ROM, hard disk, memory, memory card, or the like can be used as a recording medium for these data.

音声入出力装置16は、地図データ入力器14より入力した施設のガイドや各種案内の音声や、I/F19を介して取得した情報の読み上げ音声を出力することができる。また、音声入出力装置16は、図示しないマイクおよび周知の音声認識ユニットを含み、運転者等の操作者の音声をコマンド等として制御部18に入力することができる。   The voice input / output device 16 can output facility guides and various guidance voices input from the map data input unit 14, and read-out voices of information acquired via the I / F 19. In addition, the voice input / output device 16 includes a microphone (not shown) and a known voice recognition unit, and can input voice of an operator such as a driver to the control unit 18 as a command or the like.

無線通信機13は、他の通信装置13aと狭帯域通信を行うためのものであり、例えばDSRC(Dedicated Short Range Communications),Bluetooth(登録商標),無線LAN(Local Area Network),UWB(Ultra Wideband)などが使用されている。   The wireless communication device 13 is for performing narrowband communication with other communication devices 13a. For example, DSRC (Dedicated Short Range Communications), Bluetooth (registered trademark), wireless LAN (Local Area Network), UWB (Ultra Wideband). ) Etc. are used.

LAN I/F19は、車内LAN50を介して他の車載電子機器やセンサとのデータの遣り取りを行うためのインターフェース回路である。また、LAN I/F19を介して、例えば他のECUからのデータ取り込みを行ってもよい。   The LAN I / F 19 is an interface circuit for exchanging data with other in-vehicle electronic devices and sensors via the in-vehicle LAN 50. Further, for example, data from another ECU may be taken in via the LAN I / F 19.

制御部18は、図示しない周知のCPU,ROM,RAM,I/O(Input/Output)およびこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROM等の記憶部に記憶されたプログラムに基づいて、位置検出器11からの各検出信号に基づき座標および進行方向の組として車両の現在位置を算出し、地図データ入力器14を介して読み込んだ現在位置付近の地図や、操作情報入力部12の操作によって指示された範囲の地図等をメイン画像(動画・静止画を含む)200Bとして表示部15に画面表示する地図表示処理や、地図データ入力器14に格納された地点データに基づき、操作情報入力部12の操作に従って目的地となる施設を選択し、現在位置から目的地までの最適な経路を自動的に求める経路計算を行って経路案内を行う経路案内処理等を行う。このように自動的に最適な経路を設定する手法は、ダイクストラ法等の手法が知られている。   The control unit 18 is configured around a well-known microcomputer including a well-known CPU, ROM, RAM, I / O (Input / Output) (not shown) and a bus line connecting these components. Based on each detection signal from the position detector 11 based on a program stored in the storage unit, the current position of the vehicle is calculated as a set of coordinates and traveling directions, and the vicinity of the current position read via the map data input device 14 A map display process for displaying on the display unit 15 a main image (including a moving image and a still image) 200B as a main image (including moving images and still images) 200B, and a map data input unit 14 Based on the stored point data, the facility as the destination is selected according to the operation of the operation information input unit 12, and the optimum route from the current position to the destination is automatically selected. A route guidance process of performing route guidance performs route calculation to determine. A technique such as the Dijkstra method is known as a technique for automatically setting an optimum route in this way.

また、制御部18は、ROM等の記憶部に記憶されたプログラムに基づいて、スイッチ画像(操作アイコン)201と、操作情報入力部12から取得した接近対象物画像150Hに基づく加工画像200Hとの双方をサブ画像とし、これらをメイン画像200B(地図操作用画像等)に重畳するための画像合成部18aを有しており、図8に示すように、生成された合成映像200を表示部15の表示画面上に表示する。つまり、制御部18は、本発明の手画像合成表示制御手段として機能する。   The control unit 18 also includes a switch image (operation icon) 201 and a processed image 200H based on the approaching object image 150H acquired from the operation information input unit 12 based on a program stored in a storage unit such as a ROM. Both are sub-images, and an image composition unit 18a for superimposing these images on a main image 200B (map operation image or the like) is provided. As shown in FIG. On the display screen. That is, the control unit 18 functions as a hand image composition display control unit of the present invention.

なお、接近対象物画像150Hに基づく加工画像200Hとは、当該接近対象物画像150Hの外形形状が視認されるよう加工・生成された接近対象物外形反映画像200Hである。この画像200Hが合成されていることにより、運転者等の操作者は、操作パネル12aのタッチ操作面12a1に対面させる形で、例えば手の指等を移動させると、これに併せて、表示部15の表示画面上にはその手形状を反映した加工画像200Hが移動して表示され、あたかも表示部15の表示画面に操作パネル12aが存在しているかのような感覚で操作を行うことができる。   Note that the processed image 200H based on the approaching object image 150H is the approaching object outline reflecting image 200H that has been processed and generated so that the outer shape of the approaching object image 150H is visually recognized. By synthesizing this image 200H, when an operator such as a driver moves a finger or the like of the hand so as to face the touch operation surface 12a1 of the operation panel 12a, for example, the display unit The processed image 200H reflecting the hand shape is moved and displayed on the display screen 15, and the operation can be performed as if the operation panel 12a is present on the display screen of the display unit 15. .

また、記憶装置17の所定記憶領域には、スイッチ画像201を表示するためのスイッチ画像データが記憶されており、スイッチ画像201の合成表示には用いられている。一方で、同じく記憶装置17の所定記憶領域には、各スイッチ画像201に対応付けた形で、各々への操作入力(対応するタッチ操作面12a1上の領域へのタッチ入力)により実施される制御内容も記憶されている。制御部18により、表示画面上において、メイン画像200B上にスイッチ画像201を合成した合成映像200が表示され、それに伴い操作パネル12aのタッチ操作面12a1には、該表示画面上におけるスイッチ画像201の表示位置に対応する領域に、当該スイッチ画像201に対応する操作入力受付範囲(操作入力位置)が設定される(操作入力位置設定手段)。スイッチ画像201に対応する操作入力受付範囲に対しタッチ操作がなされてその入力が受け付けられた場合には(入力受付手段)、当該スイッチ画像201に対応する制御内容が実施されるようになっている。具体的には、対応する制御内容に基づく制御信号を出力する(制御手段)。タッチ入力の有無は、表示部15の表示画面と対応関係を有する操作パネル12aのタッチ操作面12a1上に対しなされたタッチ操作による接触領域を、カメラ12bの撮影画像150から検出する形で判定される。   Further, switch image data for displaying the switch image 201 is stored in a predetermined storage area of the storage device 17 and is used for the composite display of the switch image 201. On the other hand, similarly, in a predetermined storage area of the storage device 17, control performed by operation input to each switch image (touch input to a corresponding area on the touch operation surface 12 a 1) in a form associated with each switch image 201. The contents are also stored. The control unit 18 displays a composite video 200 in which the switch image 201 is synthesized on the main image 200B on the display screen, and accordingly, the touch operation surface 12a1 of the operation panel 12a displays the switch image 201 on the display screen. An operation input reception range (operation input position) corresponding to the switch image 201 is set in an area corresponding to the display position (operation input position setting means). When a touch operation is performed on the operation input reception range corresponding to the switch image 201 and the input is received (input reception unit), the control content corresponding to the switch image 201 is performed. . Specifically, a control signal based on the corresponding control content is output (control means). The presence / absence of touch input is determined by detecting a contact area by a touch operation performed on the touch operation surface 12a1 of the operation panel 12a having a correspondence relationship with the display screen of the display unit 15 from the captured image 150 of the camera 12b. The

なお、この制御部18は、本発明の手画像合成表示制御手段、入力受付手段、生体状態特定手段(運転注意力低下状態特定手段、発汗状態特定手段)、生体状態対応制御実行手段、モード設定手段、光反射領域特定手段として機能する。なお、画像合成部18aも手画像合成表示制御手段としての機能の一部を担っている。   The control unit 18 includes a hand image composition display control unit, an input reception unit, a biological state identification unit (a driving attention reduction state identification unit, a sweating state identification unit), a biological state correspondence control execution unit, a mode setting according to the present invention. Function as a light reflection region specifying means. Note that the image composition unit 18a also has a part of the function as the hand image composition display control means.

ところで、本発明のタッチ式操作入力装置は、操作パネル12aが車両のステアリングホイール6に設けられる一方で、ステアリングホイール6とは異なる位置に表示部15の表示画面が設けられており、操作性向上のために、操作パネル12aに対向する操作者の手を、表示画面上の対応する位置に合成表示することができる(手画像合成表示制御手段)。そして、表示画面上の操作アイコンに対応する、操作パネル12a上の操作入力位置にタッチ操作がなされると、当該位置に対応する操作入力が受け付けられる(入力受付手段)。さらに、本実施形態においては、手画像を撮影するカメラ12bにより運転席に着座する運転者の顔画像(顔全体や顔の輪郭、顔の一部(目や鼻等)だけの画像も含む:本実施形態においては顔全体)の撮影も可能とされており、撮影される顔画像に基づいて運転者が予め定められた生体状態にあることを特定することができる(生体状態特定手段)。そして、記憶装置17の所定の記憶領域(制御内容記憶手段)には、各種生体状態に対応する車載電子機器の制御内容を対応付けた生体状態対応制御情報が記憶されており、所定の生体状態が特定された場合には、生体状態対応制御情報に基づいて、特定された生体状態に対応する制御内容を実行することができる(生体状態対応制御実行手段)。   By the way, in the touch-type operation input device of the present invention, the operation panel 12a is provided on the steering wheel 6 of the vehicle, while the display screen of the display unit 15 is provided at a position different from the steering wheel 6, thereby improving operability. Therefore, the operator's hand facing the operation panel 12a can be synthesized and displayed at a corresponding position on the display screen (hand image synthesis display control means). When a touch operation is performed on the operation input position on the operation panel 12a corresponding to the operation icon on the display screen, the operation input corresponding to the position is received (input reception unit). Furthermore, in the present embodiment, the image includes only the face image of the driver sitting on the driver's seat by the camera 12b that captures the hand image (the entire face, the outline of the face, and a part of the face (eyes, nose, etc.): In the present embodiment, it is possible to capture the entire face), and it is possible to specify that the driver is in a predetermined biological state based on the captured facial image (biological state specifying means). The predetermined storage area (control content storage means) of the storage device 17 stores biological state correspondence control information in which the control contents of the in-vehicle electronic device corresponding to various biological states are associated with each other. Is specified, the control content corresponding to the specified biological state can be executed based on the biological state correspondence control information (biological state correspondence control execution means).

そして、本実施形態においては、操作パネルのタッチ操作面への接近対象物の検出の有無に基づいて、生体状態対応制御禁止モードと、生体状態対応制御実行モードとを切り替えて設定する(モード設定手段)。このモード設定処理は、制御部18において、ROMに記憶されたプログラムをCPUが実行する形で開始されるものである。以下、図10のフローチャートを用いて説明する。   And in this embodiment, based on the presence or absence of the detection of the proximity | contact target object to the touch operation surface of an operation panel, it switches and sets a biological condition corresponding | compatible control prohibit mode and a biological condition corresponding | compatible control execution mode (mode setting). means). This mode setting process is started by the control unit 18 in such a manner that the CPU executes a program stored in the ROM. Hereinafter, a description will be given using the flowchart of FIG.

イグニッションスイッチ(IG)のオン操作等のエンジン始動操作がなされるに伴いカメラ12bによる撮影が開始される。この状態において、制御部18は、S101にて接近対象物Hの検出を行う。なお、接近対象物Hの検出は、例えば赤外線センサ等の周知の近接センサを別途設けて行っても可能であるが、本実施形態においては、カメラ12bの撮影画像150に基づく検出を行う。   As the engine start operation such as turning on the ignition switch (IG) is performed, photographing by the camera 12b is started. In this state, the control unit 18 detects the approaching object H in S101. The approaching object H can be detected by separately providing a known proximity sensor such as an infrared sensor, but in the present embodiment, detection is performed based on the captured image 150 of the camera 12b.

即ち、カメラ12bは、当該光源12cの反射光を捉える形で撮影を行うものであるから、撮影画像150に現れる色の階調には反射光強度が反映されており、高強度の反射光を捉えたところほど階調レベルが高く現れる。特に、カメラ12bに近接する物ほど、カメラ12bはより強い強度の反射光を捉えるため、操作パネル12aに対し接近する近接物が映し出されると、その領域は、その他の領域よりも高い階調レベル領域として現れる。このため、本実施形態においては、撮影画像150に現れる色の階調に予め閾値を設けておき、その閾値を超える領域に接近対象物Hがあると検出する。つまり、本実施形態のカメラ12bにより撮影される撮影映像150は、多階調の撮影画像(本実施形態ではモノクロの撮影画像)であり、これを予め定められた第一の階調閾値を用いて各画素の階調レベルを2値化し、当該第一の階調閾値を上回る領域を接近対象物画像150Hとして特定する。制御部18は、この接近対象物画像150Hを特定する形で接近対象物を検出するものであり、カメラ12bとともに接近対象物検出手段として機能する。   That is, since the camera 12b captures the reflected light of the light source 12c, the reflected light intensity is reflected on the gradation of the color appearing in the captured image 150, and the high-intensity reflected light is reflected. The more you capture it, the higher the gradation level appears. In particular, an object closer to the camera 12b captures reflected light having a higher intensity, so that when an object close to the operation panel 12a is projected, the area has a higher gradation level than other areas. Appears as an area. For this reason, in the present embodiment, a threshold is provided in advance for the gradation of the color appearing in the captured image 150, and it is detected that the approaching object H is in an area exceeding the threshold. That is, the captured video 150 captured by the camera 12b of the present embodiment is a multi-gradation captured image (monochrome captured image in the present embodiment), and this is used using a predetermined first gradation threshold. Then, the gradation level of each pixel is binarized, and an area exceeding the first gradation threshold is specified as the approaching object image 150H. The control unit 18 detects the approaching object in a form that specifies the approaching object image 150H, and functions as an approaching object detection unit together with the camera 12b.

接近対象物が検出された場合には、S103に進む。S103では、制御部18が生体状態に対応する制御内容の実行を禁止する生体状態対応制御禁止モードを設定するとともに、画像合成部18aによる上述した手画像の合成表示処理を開始する。ただし、S103にて生体状態対応制御禁止モードが設定された場合には、カメラ12bにより撮影された顔画像に基づいて運転者の生体状態を特定する処理の実行も禁止されており、当該処理を行わない。他方、接近対象物が検出されなかった場合には、S102に進む。S102では、制御部18が生体状態に対応する制御内容を実行する生体状態対応制御実行モードを設定するとともに、上述した手画像の合成表示処理に係る処理を停止した状態とする。つまり、制御部18は、S102及びS103の実行によりモード設定手段として機能する。以上の処理は、所定周期で繰り返し実行される。   If an approaching object is detected, the process proceeds to S103. In S103, the control unit 18 sets a biological state correspondence control prohibiting mode in which execution of the control content corresponding to the biological state is prohibited, and starts the above-described hand image composition display processing by the image composition unit 18a. However, when the biological condition correspondence control prohibition mode is set in S103, the execution of the process of specifying the driver's biological condition based on the face image captured by the camera 12b is also prohibited. Not performed. On the other hand, if no approaching object is detected, the process proceeds to S102. In S <b> 102, the control unit 18 sets a biological state corresponding control execution mode in which the control content corresponding to the biological state is executed, and the process related to the above-described hand image composite display process is stopped. That is, the control unit 18 functions as a mode setting unit by executing S102 and S103. The above processing is repeatedly executed at a predetermined cycle.

次に、生体状態対応制御実行モードが設定された際に、制御部18により実行される生体状態対応制御実行処理について、図11のフローチャートを用いて説明する。この生体状態対応制御実行処理は、制御部18において、ROMに記憶されたプログラムをCPUが実行する形で開始されるものである。なお、S111は本実施形態においては省略している。   Next, the biological state correspondence control execution process executed by the control unit 18 when the biological state correspondence control execution mode is set will be described with reference to the flowchart of FIG. This biological state correspondence control execution process is started in the form that the CPU executes a program stored in the ROM in the control unit 18. Note that S111 is omitted in this embodiment.

まず、S112では、制御部112が、カメラ12bによる撮影画像50を取得し、S113にて、その撮影画像150の中から運転者DRの顔画像150Fを特定する。なお、顔画像の特定は、撮影画像150を基に、2値化処理や濃淡情報によるパターンマッチング等の画像処理を行い、顔画像を特定する。本実施形態においては、記憶装置17に予め記憶されている各種の基本顔形状データ(運転手の様々な顔の向きの顔形状を反映した複数のデータ)とのパターンマッチング等により特定する。パターンとのS114では、S113で顔画像150Fが特定されなければ、S119に進む。他方、S113で顔画像150Fが特定されていればS115に進む。   First, in S112, the control unit 112 acquires a captured image 50 by the camera 12b, and identifies a driver DR face image 150F from the captured image 150 in S113. Note that the face image is specified by performing image processing such as binarization processing or pattern matching based on grayscale information based on the captured image 150. In the present embodiment, the identification is performed by pattern matching with various basic face shape data (a plurality of data reflecting face shapes of various face orientations) stored in advance in the storage device 17. In S114 with the pattern, if the face image 150F is not specified in S113, the process proceeds to S119. On the other hand, if the face image 150F is specified in S113, the process proceeds to S115.

S115では、制御部112が、顔画像150Fを撮影された運転者DRが予め定められた生体状態にあるか否かを特定する。本実施形態においては、運転者DRが運転注意力低下状態にある場合と、発汗状態にある場合とを、予め定められた生体状態として特定するものとする。具体的に言えば、カメラ12bにて撮像された運転者DRの顔画像150Fを基に、2値化処理や濃淡情報によるパターンマッチング等の画像処理を行い、運転者DRの目の位置、まばたき、開き具合、発汗等を認識して運転者DRの脇見や居眠り、発汗といった生体状態を特定する。本実施形態においては、制御部18が、本処理とは別に、特定の生体状態を検出する処理として図13〜図16に示すような処理を実行しており、記憶装置17の所定記憶部(運転者生体状態記憶部)に、それら各処理における検出結果情報がそれぞれ記憶されているので、この記憶部から検出結果情報を読み出す形で、現在の運転者の生体状態を特定する。つまり、制御部18は、ROMに記憶された各種プログラムをCPUが実行する形で、図13〜図16に示すような処理を実行し、生体状態特定手段(運転注意力低下状態特定手段、発汗状態特定手段)として機能する。   In S115, the control unit 112 specifies whether or not the driver DR that has captured the face image 150F is in a predetermined biological state. In the present embodiment, the case where the driver DR is in a state where the driver's attention is reduced and the case where the driver DR is in a sweating state are specified as a predetermined biological state. Specifically, based on the driver DR face image 150F captured by the camera 12b, image processing such as binarization processing and pattern matching using density information is performed, and the driver DR eye position and blinking are performed. By recognizing the degree of opening, sweating, and the like, the biological state such as the driver DR looking aside, falling asleep and sweating is specified. In this embodiment, the control part 18 is performing the process as shown in FIGS. 13-16 as a process which detects a specific biological state separately from this process, and the predetermined | prescribed storage part (( Since the detection result information in each of these processes is stored in the driver biological state storage unit), the current biological state of the driver is specified by reading the detection result information from the storage unit. That is, the control unit 18 executes processes as shown in FIGS. 13 to 16 in such a manner that the CPU executes various programs stored in the ROM, and performs biological state specifying means (driving attention deficit state specifying means, sweating). It functions as a state specifying means).

図13は、運転注意力低下状態を検出する処理の一例である。ここでは、図9(d)のような脇見の検出数が定められた時間内において所定回数を上回った場合を、運転注意力低下状態であると特定する。当該処理による運転注意力低下状態の検出結果情報は、記憶装置17に設けられた第一の運転者生体状態記憶部に記憶される。   FIG. 13 is an example of a process for detecting a driving attention reduction state. Here, the case where the number of side-by-side detection as shown in FIG. 9D exceeds a predetermined number of times within a predetermined time period is specified as a state where the driving attention is reduced. The detection result information of the driving attention reduced state by the processing is stored in the first driver biological state storage unit provided in the storage device 17.

S201では、制御部18が初期化処理として、自身に設けられた後述するタイマー18bやカウンタ18cのリセット、記憶装置17(第一の運転者生体状態記憶部)に記憶されている運転注意力低下状態の検出結果情報の初期化(運転者の生態状態が通常状態にあることを示す記憶状態とする)を行う。続くS202ではタイマー18bを起動する。   In S201, the control unit 18 resets a timer 18b and a counter 18c, which will be described later, provided in the controller 18 as an initialization process, and a decrease in driving attentiveness stored in the storage device 17 (first driver biological state storage unit). The state detection result information is initialized (the memory state indicating that the driver's ecological state is in the normal state). In subsequent S202, the timer 18b is activated.

S203〜S206では、カメラ12bが撮影する顔画像150Fから、目の瞳孔が目の中心位置にあるか否かを判定することで、運転者DRの脇見を特定する。S203では、カメラ12bの撮影画像150から顔画像150Fを抽出・取得する。S204では、取得した顔画像150Fから目頭の位置を特定する。目頭の位置特定は、図9(d)に示すように、顔画像150Fから目画像150Eの輪郭形状をパターンマッチング等の画像処理により抽出し、目の内側角部(150C)を目頭位置として特定する形で行う。S205では、取得した顔画像150Fから同じくパターンマッチング等の画像処理により瞳孔位置を特定する。瞳孔位置の特定は、同じく図9(d)に示すように、顔画像150Fにおける目(目画像150E)の内部の黒色部分(150P)の重心位置を特定する形で行う。S206では、S203及びS204で取得した情報に基づいて、運転者DRの脇見を判定する。本実施形態においては、目全体に対する瞳孔の相対位置を特定する形で行っており、具体的には、目頭位置から瞳孔の重心位置までの距離を算出し、瞳孔の重心位置の左右への偏りを特定する形で行う。なお、目の重心位置(目の輪郭の重心位置)と瞳孔の重心位置との距離で、瞳孔位置の左右への偏りを特定しても良い。図9(d)に示すような所定以上の偏りが検出された場合には、S207にて、これを脇見と判定してS208に進む。他方、図9(a)のように、所定以上の偏りが検出されなかった場合には、S211に進む。   In S203 to S206, it is determined from the face image 150F captured by the camera 12b whether or not the pupil of the eye is at the center of the eye, thereby identifying the driver DR. In S203, the face image 150F is extracted and acquired from the captured image 150 of the camera 12b. In S204, the position of the eye is specified from the acquired face image 150F. As shown in FIG. 9D, the position of the eye is identified by extracting the contour shape of the eye image 150E from the face image 150F by image processing such as pattern matching, and specifying the inner corner (150C) of the eye as the eye position. To do. In S205, the pupil position is specified from the acquired face image 150F by image processing such as pattern matching. As shown in FIG. 9 (d), the pupil position is specified in such a way that the position of the center of gravity of the black portion (150P) inside the eye (eye image 150E) in the face image 150F is specified. In S206, the driver DR looks aside based on the information acquired in S203 and S204. In this embodiment, the relative position of the pupil with respect to the entire eye is specified. Specifically, the distance from the eye position to the center of gravity of the pupil is calculated, and the deviation of the center of gravity of the pupil to the left and right is calculated. This is done in a way that identifies Note that the left-right bias of the pupil position may be specified by the distance between the center of gravity of the eye (the center of gravity of the contour of the eye) and the center of gravity of the pupil. If a predetermined bias or more as shown in FIG. 9D is detected, in S207, this is determined to be a side look and the process proceeds to S208. On the other hand, as shown in FIG. 9 (a), if a predetermined bias or more is not detected, the process proceeds to S211.

S208では、制御部18の記憶部に設けられたカウンタ18cのカウント値をアップする。このカウント値は、所定時間(S202にてタイマー18bが起動してからS211で予め定められた閾時間が経過したと判定するまでの間)の中で、運転者DRの脇見が何回検出されたかを反映した値である。つまり、この値が多い場合は脇見時間が多い状況であり、運転への注意力が低下した状況といえるので、S209では、そのカウント値が所定の値を超えたか否かを判定し、所定回数を超えていればS210に進んで、運転者の生態状態の検出結果情報として運転注意力低下状態を記憶装置17(第一の運転者生体状態記憶部)に記憶する。S209にて所定回数を超えていなければS211に進む。   In S208, the count value of the counter 18c provided in the storage unit of the control unit 18 is increased. This count value is the number of times that the driver DR looks aside during a predetermined time (from when the timer 18b is started in S202 until it is determined that the predetermined threshold time has elapsed in S211). It is a value that reflects That is, when this value is large, it is a situation where there is a lot of aside time, and it can be said that the attention to driving is reduced. In S209, it is determined whether or not the count value exceeds a predetermined value, and a predetermined number of times If it has exceeded, it progresses to S210 and memorize | stores a driving attention reduced state in the memory | storage device 17 (1st driver biological state memory | storage part) as detection result information of a driver | operator's ecological state. If the predetermined number of times is not exceeded in S209, the process proceeds to S211.

S211では、タイマー18bから経過時間を読み出し、S202で起動してから所定の時間が経過したか否かを判定する。所定時間が経過していなければS203に戻り、再び脇見の検出を開始する。所定時間が経過していればS212に進み、S209と同様、カウント値が所定の値を超えたか否かを判定する。所定回数を超えていなければS213に進み、運転者の生態状態の検出結果情報として通常状態を記憶装置17(第一の運転者生体状態記憶部)に記憶して、S214に進む。所定回数を超えていればS213をスキップしてS214に進む。S214では、当該検出処理の終了条件が成立したか否かを判定する。ここでは、IGのオフを終了条件とし、終了条件が成立した場合は本処理を終了し、終了条件が成立していなければS215に進み、タイマー18bをリセットした上でS202に戻り、再度タイマー18bを起動して脇見の検出を再開する。   In S211, the elapsed time is read from the timer 18b, and it is determined whether or not a predetermined time has elapsed since starting in S202. If the predetermined time has not elapsed, the process returns to S203, and the detection of an aside is started again. If the predetermined time has elapsed, the process proceeds to S212, and similarly to S209, it is determined whether or not the count value exceeds a predetermined value. If the predetermined number of times has not been exceeded, the process proceeds to S213, the normal state is stored in the storage device 17 (first driver biological state storage unit) as detection result information of the driver's ecological state, and the process proceeds to S214. If it exceeds the predetermined number of times, the process skips S213 and proceeds to S214. In S214, it is determined whether or not an end condition for the detection process is satisfied. Here, the IG is turned off as an end condition. If the end condition is satisfied, the present process is ended. If the end condition is not satisfied, the process proceeds to S215, the timer 18b is reset, the process returns to S202, and the timer 18b is again set. To resume the detection of aside.

図14も、運転注意力低下状態を検出する処理の一例である。ここでも、図9(e)のような脇見の検出数が定められた時間内において所定回数を上回った場合を、運転注意力低下状態であると特定する。当該処理による運転注意力低下状態の検出結果情報は、記憶装置17に設けられた第二の運転者生体状態記憶部に記憶される。   FIG. 14 is also an example of a process for detecting a driving attention reduction state. Again, the case where the number of detected side effects as shown in FIG. 9 (e) exceeds the predetermined number of times within a predetermined time period is specified as a state where the driving attention is reduced. The detection result information of the driving attention reduced state due to the processing is stored in the second driver biological state storage unit provided in the storage device 17.

S221では、制御部18が初期化処理として、自身に設けられた後述するタイマー18bやカウンタ18cのリセット、記憶装置17(第二の運転者生体状態記憶部)に記憶されている運転注意力低下状態の検出結果情報の初期化(運転者の生態状態が通常状態にあることを示す記憶状態とする)を行う。続くS222ではタイマー18bを起動する。   In S221, as the initialization process, the control unit 18 resets a timer 18b and a counter 18c, which will be described later, and a decrease in driving attentiveness stored in the storage device 17 (second driver biological state storage unit). The state detection result information is initialized (the memory state indicating that the driver's ecological state is in the normal state). In subsequent S222, the timer 18b is started.

S223〜S226では、カメラ12bが撮影する顔画像150Fから、顔の向きが正面を向いているか否かを判定することで、運転者の脇見を特定する。S223では、カメラ12bの撮影画像150から顔画像150Fを抽出・取得する。S224では、取得した顔画像150Fから鼻の重心位置を特定する。鼻の重心位置の特定は、図9(e)に示すように、顔画像150Fからパターンマッチング等の画像処理により鼻画像150Nの輪郭形状を抽出し、その輪郭形状に対する重心位置を特定する形で行う。S225では、取得した顔画像150Fから同じくパターンマッチング等の画像処理により両目の瞳孔位置を特定する。瞳孔位置の特定は、図9(e)に示すように、顔画像150Fにおける目(目画像150E)の内部の黒色部分150Pの重心位置を特定する形で行う。S226では、S223及びS224で取得した情報に基づいて、運転者DRの脇見を判定する。本実施形態においては、両目と鼻との距離を特定し、目全体に対する瞳孔の相対位置を特定する形で行っており、具体的には、左右それぞれの目(目画像150E)の重心位置から鼻(鼻画像150N)の重心位置までの距離を算出し、双方の距離の差を算出する形で行う。図9(e)に示すように、所定以上の距離の差が検出された場合には、S227にて、これを脇見と判定してS228に進む。他方、図9(a)に示すように、所定以上の距離の差が検出されず、距離がほぼ一致した場合にはS231に進む。   In S223 to S226, the driver's side aside is specified by determining whether or not the face is facing the front from the face image 150F captured by the camera 12b. In S223, the face image 150F is extracted and acquired from the captured image 150 of the camera 12b. In S224, the position of the center of gravity of the nose is specified from the acquired face image 150F. As shown in FIG. 9E, the nose centroid position is identified by extracting the contour shape of the nose image 150N from the face image 150F by image processing such as pattern matching and specifying the centroid position with respect to the contour shape. Do. In S225, the pupil positions of both eyes are specified from the acquired face image 150F by image processing such as pattern matching. As shown in FIG. 9E, the pupil position is specified by specifying the position of the center of gravity of the black portion 150P inside the eye (eye image 150E) in the face image 150F. In S226, the driver DR looks aside based on the information acquired in S223 and S224. In this embodiment, the distance between both eyes and the nose is specified, and the relative position of the pupil with respect to the entire eye is specified. Specifically, from the center of gravity position of each of the left and right eyes (eye image 150E). The distance to the position of the center of gravity of the nose (nasal image 150N) is calculated, and the difference between both distances is calculated. As shown in FIG. 9 (e), if a difference in distance greater than or equal to a predetermined distance is detected, in S227, this is determined to be an aside and the process proceeds to S228. On the other hand, as shown in FIG. 9A, when a distance difference of a predetermined distance or more is not detected and the distances substantially coincide, the process proceeds to S231.

なお、S228〜S235は、図13のS208〜S215までと同様の処理であるから説明を省略する。ただし、当該処理による運転注意力低下状態の検出結果情報は、記憶装置17に設けられた、第一の運転者生体状態記憶部とは異なる第二の運転者生体状態記憶部に記憶される。   Note that S228 to S235 are the same processes as S208 to S215 in FIG. However, the detection result information of the driving attention reduced state by the processing is stored in a second driver biological state storage unit provided in the storage device 17, which is different from the first driver biological state storage unit.

図15も、運転注意力低下状態を検出する処理の一例である。ここでは、図9(a)に示すような目を閉じた回数が定められた時間内において所定回数を上回った場合(まばたきの回数が多い場合や連続して目を閉じ続けている居眠りの場合等)を、運転者DRの意識レベルが低下した運転注意力低下状態であると特定する。当該処理による運転注意力低下状態の検出結果情報は、記憶装置17に設けられた第三の運転者生体状態記憶部(第一及び第二の運転者生体状態記憶部とは異なる記憶領域)に記憶される。   FIG. 15 is also an example of processing for detecting a driving attention reduced state. Here, when the number of times the eyes are closed as shown in FIG. 9 (a) exceeds a predetermined number of times within a predetermined time (when the number of blinks is large or when the doze is continuously closing eyes) Etc.) is identified as a state where the driver's DR has a reduced level of driving attention. The detection result information of the driving attention reduced state by the processing is stored in a third driver biological state storage unit (a storage area different from the first and second driver biological state storage units) provided in the storage device 17. Remembered.

S241では、制御部18が初期化処理として、自身に設けられた後述するタイマー18bやカウンタ18cのリセット、記憶装置17(第三の運転者生体状態記憶部)に記憶されている運転注意力低下状態の検出結果情報の初期化(運転者の生態状態が通常状態にあることを示す記憶状態とする)を行う。続くS242ではタイマー18bを起動する。   In S241, as the initialization process, the control unit 18 resets a timer 18b and a counter 18c, which will be described later, and a decrease in driving attentiveness stored in the storage device 17 (third driver biological state storage unit). The state detection result information is initialized (the memory state indicating that the driver's ecological state is in the normal state). In subsequent S242, the timer 18b is activated.

S243〜S246では、カメラ12bが撮影する顔画像150Fから、目の開閉状態を判定することで、運転者のまばたきの回数や居眠りを特定する。S243では、カメラ12bの撮影画像150から顔画像150Fを取得する。S244では、取得した顔画像150Fからパターンマッチング等の画像処理により両目の目画像150Eを抽出する。ここでの目画像150Eの抽出は、図9(a)に示すように、上まぶた画像150LUと下まぶた画像150LDを同じくパターンマッチング等の画像処理により特定し、その間の領域を目画像150Eとして特定する。S245では、取得した目画像150Eから目の開度を特定する。目の開度の特定は、目画像150Eの面積を算出する形で特定する。上まぶた画像150LUと下まぶた画像150LDとのそれぞれの最下端位置の上下方向における距離を目の開度として特定してもよい。S246では、S244で取得した情報に基づいて、運転者DRの目が閉じているか否かを判定する。本実施形態においては、目画像150Eの面積を算出し、その面積が予め定められた閾面積を上回ったか否かに基づいて行う。閾面積を上回った場合には、S247にて、これを目を閉じた状態と判定してS248に進む。他方、閾面積を上回らなかった場合には、S250に進む。   In S243 to S246, the number of blinks of the driver and dozing are specified by determining the open / closed state of the eyes from the face image 150F captured by the camera 12b. In S243, the face image 150F is acquired from the captured image 150 of the camera 12b. In S244, the eye image 150E of both eyes is extracted from the acquired face image 150F by image processing such as pattern matching. As shown in FIG. 9A, the eye image 150E is extracted by specifying the upper eyelid image 150LU and the lower eyelid image 150LD by image processing such as pattern matching, and specifying the region between them as the eye image 150E. To do. In S245, the opening degree of the eye is specified from the acquired eye image 150E. The opening degree of the eye is specified by calculating the area of the eye image 150E. The distance in the vertical direction between the lowermost positions of the upper eyelid image 150LU and the lower eyelid image 150LD may be specified as the eye opening. In S246, it is determined based on the information acquired in S244 whether or not the eyes of the driver DR are closed. In the present embodiment, the area of the eye image 150E is calculated, and is performed based on whether the area exceeds a predetermined threshold area. If it exceeds the threshold area, it is determined that the eyes are closed in S247, and the process proceeds to S248. On the other hand, if the threshold area is not exceeded, the process proceeds to S250.

S248では、制御部18の記憶部に設けられたカウンタ18cのカウント値をアップする。このカウント値は、所定時間(S242にてタイマー18bが起動してからS250で予め定められた閾時間が経過したと判定するまでの間)の中で、運転者DRの目が閉じた状態を何回検出されたかを反映した値である。つまり、この値が多い場合は目を閉じていた時間が多い状況であり、運転への注意力が低下した、意識レベルの低い状況といえるので、S249では、そのカウント値が所定の値を超えたか否かを判定し、所定回数を超えていればS250に進んで、運転DR者の生態状態の検出結果情報として運転注意力低下状態を記憶装置17(第三の運転者生体状態記憶部)に記憶する。他方、S249にて所定回数を超えていなければS251に進む。   In S248, the count value of the counter 18c provided in the storage unit of the control unit 18 is increased. This count value indicates a state in which the eyes of the driver DR are closed within a predetermined time (from the time when the timer 18b is activated in S242 until it is determined that a predetermined threshold time has elapsed in S250). This value reflects how many times it was detected. That is, when this value is large, it means that the time when the eyes are closed is large, and it can be said that the attention level to driving is low and the level of consciousness is low. In S249, the count value exceeds the predetermined value. If the predetermined number of times has been exceeded, the process proceeds to S250, and the driving attention reduced state is stored in the storage device 17 (third driver biological state storage unit) as the detection result information of the ecological state of the driving DR person. To remember. On the other hand, if the predetermined number of times is not exceeded in S249, the process proceeds to S251.

S251では、タイマー18bから経過時間を読み出し、S242で起動してから所定の時間が経過したか否かを判定する。所定時間が経過していなければS243に戻り、再び目が閉じた状態の検出を開始する。所定時間が経過していればS252に進み、S248と同様、カウント値が所定の値を超えたか否かを判定する。所定回数を超えていなければS253に進み、運転者の生態状態の検出結果情報として通常状態を記憶装置17(第三の運転者生体状態記憶部)に記憶して、S254に進む。他方、S252にて所定回数を超えていればS253をスキップしてS254に進む。S254では、当該検出処理の終了条件が成立したか否かを判定する。ここでは、IGのオフを終了条件とし、終了条件が成立した場合は本処理を終了し、終了条件が成立していなければS255に進み、タイマー18bをリセットした上でS242に戻り、再度タイマー18bを起動して、運転者の目が閉じた状態の検出を再開する。   In S251, the elapsed time is read from the timer 18b, and it is determined whether or not a predetermined time has elapsed since the activation in S242. If the predetermined time has not elapsed, the process returns to S243, and detection of the state where the eyes are closed is started again. If the predetermined time has elapsed, the process proceeds to S252, and similarly to S248, it is determined whether or not the count value exceeds a predetermined value. If the predetermined number of times has not been exceeded, the process proceeds to S253, the normal state is stored in the storage device 17 (third driver biological state storage unit) as the detection result information of the driver's ecological state, and the process proceeds to S254. On the other hand, if the predetermined number of times is exceeded in S252, S253 is skipped and the process proceeds to S254. In S254, it is determined whether or not an end condition for the detection process is satisfied. Here, IG is turned off as an end condition, and if the end condition is satisfied, the present process is ended. If the end condition is not satisfied, the process proceeds to S255, the timer 18b is reset, the process returns to S242, and the timer 18b is again set. To resume detection of the driver's eyes closed.

図16も、運転注意力低下状態を検出する処理の一例である。ここでは、図9(b)に示すような運転者DRの発汗状態であると特定する。当該処理による運転注意力低下状態の検出結果情報は、記憶装置17に設けられた第四の運転者生体状態記憶部(第一〜第三の運転者生体状態記憶部とは異なる記憶領域)に記憶される。   FIG. 16 is also an example of a process for detecting a driving attention reduction state. Here, it is specified that the driver DR is sweating as shown in FIG. The detection result information of the driving attention reduced state by the processing is stored in a fourth driver biological state storage unit (a storage area different from the first to third driver biological state storage units) provided in the storage device 17. Remembered.

S281では、制御部18が初期化処理として、自身に設けられた記憶装置17(第四の運転者生体状態記憶部)に記憶されている運転注意力低下状態の検出結果情報の初期化(運転者の生態状態が通常状態にあることを示す記憶状態とする)を行う。S282〜S286では、カメラ12bが撮影する顔画像150Fから、発汗状態を特定する。S282では、カメラ12bの撮影画像150から顔画像150Fを取得する。S283では、取得した顔画像150Fからパターンマッチング等の画像処理により汗画像150Kを抽出する。ここでの汗画像150Kの抽出は、図9(b)に示す顔画像150Fのうち目(目画像150E)よりも外側に位置する領域において、通常の肌よりも階調が高くなっている液体反射領域を特定し、これを汗画像150Kとして特定する。S284では、S283で取得した情報に基づいて、運転者DRが発汗状態にあるか否かを、汗画像150Kの有無に基づいて判定する。汗画像150Kが抽出された場合には、これを運転者DRの発汗状態と判定してS285に進んで、運転者DRの生態状態の検出結果情報として発汗状態を(第四の運転者生体状態記憶部)に記憶し、S287に進む。他方、汗画像150Kが抽出されなかった場合には、運転者DRは通常状態にあると判定してS286に進み、運転者DRの生態状態の検出結果情報として通常状態を(第四の運転者生体状態記憶部)に記憶し、S287に進む。   In S <b> 281, the control unit 18 initializes detection result information of the driving attention reduced state stored in the storage device 17 (fourth driver biological state storage unit) provided therein as the initialization process (driving). Memory state indicating that the biological state of the person is in the normal state). In S282 to S286, the sweating state is specified from the face image 150F photographed by the camera 12b. In S282, the face image 150F is acquired from the captured image 150 of the camera 12b. In S283, the sweat image 150K is extracted from the acquired face image 150F by image processing such as pattern matching. The extraction of the sweat image 150K here is a liquid whose tone is higher than that of normal skin in a region located outside the eyes (eye image 150E) in the face image 150F shown in FIG. 9B. A reflection area is specified, and this is specified as a sweat image 150K. In S284, based on the information acquired in S283, whether or not the driver DR is in a sweating state is determined based on the presence or absence of the sweat image 150K. If the sweat image 150K is extracted, this is determined as the sweating state of the driver DR, and the process proceeds to S285, where the sweating state (fourth driver biological state) is detected as the biological state detection result information of the driver DR. Stored in the storage unit), and the process proceeds to S287. On the other hand, if the sweat image 150K is not extracted, the driver DR is determined to be in the normal state, and the process proceeds to S286, where the normal state is set as the detection result information of the biological state of the driver DR (fourth driver). Stored in the biological state storage unit), and the process proceeds to S287.

S287では、当該検出処理の終了条件が成立したか否かを判定する。ここでは、IGのオフを終了条件とし、終了条件が成立した場合は本処理を終了し、終了条件が成立していなければS282に戻り、汗検出処理を再開する。   In S287, it is determined whether or not the end condition of the detection process is satisfied. Here, the IG is turned off as an end condition. If the end condition is satisfied, the present process is terminated. If the end condition is not satisfied, the process returns to S282 to restart the sweat detection process.

図11に戻る。S115では、図13〜図16の処理の検出結果情報を記憶装置17の各運転者生体状態記憶部から読み出して、現在の運転者DRが運転注意力低下状態にあるか、発汗状態にあるかを特定する。なお、各検出結果情報は個別の記憶領域(第一〜第四の運転者生体状態記憶部)に記憶されているので、運転者がどのような種類の生体状態にあるかは、各記憶領域を見れば明らかであり、それらに応じて個別の制御内容を実施してもよい。ただし、本実施形態においては、運転注意力低下状態と発汗状態との二つのみを区別する形で認識し、両者に応じた制御内容が以下の処理で実施される。   Returning to FIG. In S115, the detection result information of the processes of FIGS. 13 to 16 is read from each driver biological state storage unit of the storage device 17, and whether the current driver DR is in a state of reduced driving attention or sweating. Is identified. In addition, since each detection result information is memorize | stored in the separate memory | storage area | region (1st-4th driver | operator biological state memory | storage part), what kind of biological state a driver | operator is in each storage area | region As will be apparent, individual control details may be implemented accordingly. However, in the present embodiment, only two of the driving attention reduced state and the sweating state are recognized and the control content corresponding to both is performed by the following processing.

続くS116では、S115において運転注意力低下状態ないし発汗状態のいずれかが検出されている場合にはS117に進み、いずれも検出されていなければS119に進む。なお、S119では、生体状態に対応した制御が既に実施されている場合に、その制御を終了する処理を行う。そして、図10の処理に戻る。   In subsequent S116, if any of the driving attention reduced state or the perspiration state is detected in S115, the process proceeds to S117, and if none is detected, the process proceeds to S119. In S119, when the control corresponding to the biological state has already been performed, a process for ending the control is performed. And it returns to the process of FIG.

S117では、S115にて特定された生体状態に対応する制御内容を特定し、S118にて特定された制御内容を実行する(生体状態対応制御実行手段生体)。本実施形態においては、運転注意力低下状態のいずれかが検出された場合には、音による注意喚起動作が実行され、発汗状態が検出された場合には、予め定められた空調条件に従う空調出力が実行される。具体的に言えば、記憶装置17の所定記憶領域(制御内容記憶手段)には、運転者DRの予め定められた生体状態に対し、車載電子機器の制御内容を対応付けた生体状態対応制御情報を記憶しており、生体状態が特定された場合には、この生体状態対応制御情報に基づいて、特定された生体状態に対応する制御内容を実行する。   In S117, the control content corresponding to the biological state specified in S115 is specified, and the control content specified in S118 is executed (biological state corresponding control execution means living body). In the present embodiment, when any of the driving attention reduction states is detected, a sound alert activation operation is executed, and when a sweating state is detected, the air conditioning output according to a predetermined air conditioning condition Is executed. Specifically, in the predetermined storage area (control content storage means) of the storage device 17, the biological state correspondence control information in which the control content of the in-vehicle electronic device is associated with the predetermined biological state of the driver DR. When the biological state is specified, the control content corresponding to the specified biological state is executed based on the biological state correspondence control information.

本実施形態の注意喚起動作は、運転者DRに注意力が低下している旨を音声出力する形でなされる。記憶装置17には、これら運転注意力低下状態に対応付けた形で注意喚起音声データが記憶されており、これに基づいて音声出力装置16から音声出力がなされる。なお、注意喚起動作は、上記音声出力とは異なる他の動作であってもよく、ブザー音にて報知するものであったり、注意力低下状態からの覚醒を促す警告覚醒用の動作(例えば運転席側の窓を開ける等)であってもよい。   The alert activation work of the present embodiment is performed by outputting a voice to the driver DR that the attention is reduced. In the storage device 17, alert voice data is stored in association with these reduced driving attention levels, and voice output is performed from the voice output device 16 based on this data. Note that the alert activation work may be another operation different from the sound output described above, and is a notification with a buzzer sound or a warning alerting action (for example, driving) that promotes awakening from a state of reduced attention For example, opening a seat-side window).

他方、本実施形態の、発汗状態に対応する空調出力は、現在の空調条件よりも強風又は低温、あるいは強風かつ低温の空調条件に変更する形で実行される。記憶装置17には、発汗状態に対応付けた形で空調条件データが記憶されており、これに基づいて空調ECU101に対し空調条件の変更を指示する。具体的に言えば、マニュアルないしオートで現在設定されている目標吹き出し温度の設定値を予め定められた値だけ減じて設定し、かつ同じくマニュアルないしオートで現在設定されている目標吹き出し風量の設定値を予め定められた値だけ増じて設定する。そして、それら設定後の目標吹き出し温度及び目標吹き出し風量の設定値に基づいて、吹き出し温度制御及び吹き出し風量制御を実行させることで、上記の発汗状態に対応する空調出力が実行される。なお、設定後の値が設定下限値を下回る、あるいは設定上限値を上回る場合は、それら設定下限値ないし設定上限値を設定するものとする。   On the other hand, the air conditioning output corresponding to the sweating state of the present embodiment is executed in such a manner that it is changed to an air conditioning condition of strong wind or low temperature, or a strong wind and low temperature than the current air conditioning condition. The storage device 17 stores air conditioning condition data in association with the sweating state, and instructs the air conditioning ECU 101 to change the air conditioning conditions based on this data. Specifically, the target blowing temperature set value currently set manually or automatically is reduced by a predetermined value, and the setting value of the target blowing air volume currently set manually or automatically is set. Is increased by a predetermined value. Then, the air conditioning output corresponding to the above-mentioned sweating state is executed by executing the blowout temperature control and the blowout airflow control based on the set values of the target blowout temperature and the target blowout airflow after the setting. If the value after setting is lower than the set lower limit value or higher than the set upper limit value, the set lower limit value or the set upper limit value is set.

S118の処理が終了すると図10に戻る。図10のモード設定処理は繰り返し実行されるので、S101にて接近対象物が検出されない限り、この生体状態対応制御実行処理は繰り返されるとともに、上記した生体状態が検出され続ける限り、対応する制御内容も継続して実行され続ける。   When the process of S118 ends, the process returns to FIG. Since the mode setting process of FIG. 10 is repeatedly executed, this biological state correspondence control execution process is repeated unless an approaching object is detected in S101, and the corresponding control content is continued as long as the above-described biological state is continuously detected. Will continue to run.

次に、制御部18による表示制御処理(手画像合成表示処理)について、図12のフローチャートを用いて説明する。なお、S121は本実施形態においては省略している。S122では、制御部112が、カメラ12bによる撮影画像を取得し、その撮影画像の中から手画像を抽出・特定する。手画像であるか否かの判定は、撮影された接近対象物画像150Hの形状に基づいて行う。人の手画像を抽出する手法については、公知の任意の手法(例えば、特開2003−346162号公報参照)を使用することができる。S123にて、手画像が抽出・特定された場合にはS124に進み、手とは異なる画像が特定された場合には、本処理を終了する。   Next, display control processing (hand image composition display processing) by the control unit 18 will be described with reference to the flowchart of FIG. Note that S121 is omitted in this embodiment. In S122, the control unit 112 acquires a captured image by the camera 12b, and extracts and specifies a hand image from the captured image. Whether or not the image is a hand image is determined based on the shape of the captured approaching object image 150H. As a technique for extracting a human hand image, any known technique (see, for example, JP-A-2003-346162) can be used. If a hand image is extracted and specified in S123, the process proceeds to S124, and if an image different from the hand is specified, the process is terminated.

S124では、抽出された手画像に基づいて、表示部15の画面に図5に示すような合成映像200を表示する。具体的に言えば、抽出された手画像150Hに対し半透状態とする加工を施した上で、画像合成部18aにより、これをメイン画像200B(ここでは地図操作画像)上に合成し、図5のような合成映像200を表示する。なお、手画像150Hのメイン画像200Bへの加工・合成表示については、上述のような半透過合成表示に限らず、種々の変形例を考えることができる。   In S124, based on the extracted hand image, a composite video 200 as shown in FIG. 5 is displayed on the screen of the display unit 15. Specifically, the extracted hand image 150H is processed to be in a semi-transparent state, and then synthesized by the image synthesis unit 18a on the main image 200B (here, the map operation image). 5 is displayed. The processing / compositing display of the hand image 150H on the main image 200B is not limited to the above-described transflective composite display, and various modifications can be considered.

上述の表示制御処理が実行されることにより、撮影された手画像200Hを表示画面上の対応する位置に合成表示する手画像合成表示手段として機能する。   By performing the display control process described above, it functions as a hand image composition display unit that composites and displays the photographed hand image 200H at a corresponding position on the display screen.

次に、制御部18によるタッチ入力受付処理について説明する。図17は、その流れを示すフローチャートである。   Next, touch input reception processing by the control unit 18 will be described. FIG. 17 is a flowchart showing the flow.

まず、S1では、カメラ12bにより撮影される撮影画像150から、操作パネル12aのタッチ操作面12a1に手Hが接触した手接触領域を特定する(光反射領域特定手段)。手Hがタッチ操作面12a1と物理的に接触した領域においては、光源12cからの照射光がそれ以外の領域よりも多く反射するので、撮影映像150上においては、上述した第一の階調閾値を十分に上回る階調レベルの光反射領域150HAとして現れる。さらに言えば、その光反射領域150HAの階調レベルは、接近対象物Hに応じて異なるものの、撮影映像150内においてある程度一定のレベルで現れる。本実施形態においては、このような高い階調レベルのみを特定できるよう第一の階調閾値よりも高い階調レベルとして第二の階調閾値を定めており、これを用いて各画素の階調レベルを2値化することで、撮影映像150上において当該第二の階調閾値を上回る光反射領域150HAを接触領域として特定する。   First, in S1, a hand contact area where the hand H is in contact with the touch operation surface 12a1 of the operation panel 12a is specified from the captured image 150 captured by the camera 12b (light reflection area specifying means). In the area where the hand H is physically in contact with the touch operation surface 12a1, the irradiation light from the light source 12c is reflected more than in the other areas. It appears as a light reflection region 150HA having a gradation level sufficiently higher than. Furthermore, although the gradation level of the light reflection area 150HA varies depending on the approaching object H, it appears at a certain level in the captured image 150. In the present embodiment, the second gradation threshold is set as a gradation level higher than the first gradation threshold so that only such a high gradation level can be specified, and this is used to determine the level of each pixel. By binarizing the tone level, the light reflection area 150HA exceeding the second gradation threshold is specified as the contact area on the photographed image 150.

S2では、その光反射領域150HAの面積を算出し、算出された面積が予め定められた方法によって求められる閾面積を上回るか否かを判定する。光反射領域150HAの面積が閾面積を上回らなかった場合には、その光反射領域(接触領域)へのタッチ入力はなかったと判定してその領域への操作入力を受け付けず、本処理は終了する一方で、光反射領域150HAの面積が閾面積を上回った場合には、その光反射領域(接触領域)にタッチ入力があったと判定し、S3にてその領域への操作入力を受け付け、S4に進む(入力受付手段)。なお、接触領域が特定された場合に、その面積とは無関係にその領域への操作入力を受け付ける構成としてもよいが、誤入力の可能性が高くなるので、本実施形態においては、上記のように、操作入力を受け付ける閾面積を予め規定している。   In S2, the area of the light reflection region 150HA is calculated, and it is determined whether or not the calculated area exceeds a threshold area obtained by a predetermined method. If the area of the light reflection area 150HA does not exceed the threshold area, it is determined that there is no touch input to the light reflection area (contact area), and no operation input to the area is accepted, and this process ends. On the other hand, if the area of the light reflection area 150HA exceeds the threshold area, it is determined that there is a touch input in the light reflection area (contact area), and an operation input to the area is accepted in S3. Advance (input acceptance means). Note that when a contact area is specified, an operation input to the area may be accepted regardless of the area. However, since the possibility of erroneous input increases, in the present embodiment, as described above. In addition, a threshold area for receiving an operation input is defined in advance.

S4では、操作入力を受け付けた接触領域が、表示部15の画面上に表示されるスイッチ画像(操作アイコン)201に対応する領域にあるか否かを判定する。接触領域がスイッチ画像201に対応する領域でなかった場合は、本処理を終了する。他方、接触領域がスイッチ画像201に対応する領域であった場合は、S5に進む。   In S <b> 4, it is determined whether or not the contact area that has received the operation input is in an area corresponding to the switch image (operation icon) 201 displayed on the screen of the display unit 15. If the contact area is not an area corresponding to the switch image 201, the present process is terminated. On the other hand, if the contact area is an area corresponding to the switch image 201, the process proceeds to S5.

S5では、タッチ操作された接触領域に応じて、実行すべき制御内容を特定し、S6にて、特定された制御内容を実行する。本実施形態においては、各スイッチ画像201に対し制御内容が対応付けて記憶されているので、この記憶情報に基づいて対応する制御内容を特定し、実施する(制御手段)。S6が終了すると、この入力受付処理は終了するが、当該処理は所定周期で繰り返し実施される。   In S5, the control content to be executed is specified according to the touched touch area, and the specified control content is executed in S6. In the present embodiment, since the control content is stored in association with each switch image 201, the corresponding control content is specified based on the stored information and executed (control means). When S6 ends, the input acceptance process ends, but the process is repeatedly performed at a predetermined cycle.

以上、本発明の一実施形態を説明したが、これはあくまでも例示にすぎず、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を逸脱しない限りにおいて、当業者の知識に基づく種々の変更が可能である。   Although one embodiment of the present invention has been described above, this is merely an example, and the present invention is not limited to this, and the knowledge of those skilled in the art can be used without departing from the spirit of the claims. Various modifications based on this are possible.

例えば、上記実施形態においては、撮影用光源12cの輝度は、運転者の顔画像を生体状態を特定できるレベルに固定的に設定されているが、生体状態対応制御実行モードにおいて撮影用光源の輝度を第一レベルに設定し、他方、生体状態対応制御禁止モードにおいては撮影用光源の輝度を第一レベルよりも低い第二レベルに設定することができる。この場合、図11及び図12にてS111及びS121の処理を実行するようにする。そして、図10のS101における接近対象物の検出に関しては、そのときのモードが生体状態対応制御実行モードである場合には、第一レベルの輝度で発光する光源12cのもとでカメラ12bにより撮影された撮影画像から接近対象物を抽出できるか否かに基づいて検出がなされ、生体状態対応制御禁止モードである場合には、第二レベルの輝度で発光する光源12cのもとでカメラ12bにより撮影された撮影画像から接近対象物を抽出できるか否かに基づいて検出がなされる。ただし、S101において接近対象物の抽出に使用される階調の閾値は、そのとき設定されているモードに応じた閾値に切り替えられ、その上で接近対象物の抽出判定が行われる。   For example, in the above-described embodiment, the luminance of the imaging light source 12c is fixedly set to a level at which the driver's face image can specify the biological state, but the luminance of the imaging light source in the biological state correspondence control execution mode. Can be set to the first level, and on the other hand, the luminance of the imaging light source can be set to a second level lower than the first level in the biological state correspondence control prohibition mode. In this case, the processing of S111 and S121 is executed in FIGS. Then, regarding the detection of the approaching object in S101 of FIG. 10, if the mode at that time is the biological state corresponding control execution mode, the image is taken by the camera 12b under the light source 12c that emits light at the first level of luminance. Detection is performed based on whether or not an approaching object can be extracted from the captured image, and in the biological state correspondence control prohibition mode, the camera 12b emits light with a second level of luminance. Detection is performed based on whether or not an approaching object can be extracted from the captured image. However, the gradation threshold used for the extraction of the approaching object in S101 is switched to a threshold corresponding to the mode set at that time, and then the approaching object extraction determination is performed.

また、本実施形態においては、従来のタッチパネルを使用せず、操作パネル上の手接触領域を、カメラ12bにより撮影された撮影画像を解析して特定し、特定された場合に当該位置への入力を受け付ける構成となっているが、従来のタッチパネルを採用してもよい。タッチパネルとしては、抵抗膜方式、静電容量方式、振動検出方式等といった様々な方式のタッチパネルを適用することができる。   Further, in the present embodiment, the conventional touch panel is not used, and the hand contact area on the operation panel is specified by analyzing the captured image captured by the camera 12b. However, a conventional touch panel may be adopted. As the touch panel, various types of touch panels such as a resistance film method, a capacitance method, and a vibration detection method can be applied.

また、上記実施形態において、タッチ操作によるタッチ操作面12a1上との接触領域が、表示部15の画面上にて特定できるよう、当該接触領域を、図20に示すように、メイン画像200B上に重畳表示してもよい(符号200HA)。これにより、タッチ入力位置を視認することが可能となり、操作性が増す。具体的には、第二の階調閾値を用いてカメラ12bの撮影映像を2値化し、当該第二の階調閾値を上回る接触領域を抽出する。そして、画像合成部18aにより、抽出された接触領域画像150HAを加工し、これを接近対象物画像200H上に合成し、さらにこれをメイン画像200Bに合成(ここでは半透過合成)し、図20に示すような合成画像を表示する。   Moreover, in the said embodiment, as shown in FIG. 20, the said contact area is shown on the main image 200B so that the contact area with the touch operation surface 12a1 by touch operation can be specified on the screen of the display part 15. As shown in FIG. You may superimpose and display (code | symbol 200HA). Thereby, it becomes possible to visually recognize a touch input position, and operability increases. Specifically, the captured image of the camera 12b is binarized using the second gradation threshold value, and a contact area exceeding the second gradation threshold value is extracted. Then, the extracted image of the contact area image 150HA is processed by the image combining unit 18a, combined with the approaching object image 200H, and further combined with the main image 200B (semi-transparent combining here). A composite image as shown in FIG.

また、上記本発明は、運転者の特定の生体状態を顔画像から検出することを特徴としている。生体状態としては、上記の運転注意力低下状態や発汗状態の他の生体状態を特定し、それに対応する予め定められた制御を実行しても良い。また、上記実施形態においては、運転注意力低下状態が特定された際には、これに対する注意喚起動作が実行されるが、注意喚起だけではなく通常状態に戻るために覚醒を促す動作も同時に実行してもよい。   Further, the present invention is characterized in that a specific biological state of the driver is detected from a face image. As the biological state, another biological state such as the driving attention reduction state or the sweating state may be specified, and a predetermined control corresponding to the biological state may be executed. Also, in the above embodiment, when a driving attention reduced state is identified, a warning activation work is performed for this, but not only a warning but also an action to urge awakening to return to the normal state at the same time May be.

本発明の操作入力装置の一例である車両用プロンプター方式操作装置を用いた車両用ナビゲーション装置の構成を示すブロック図。The block diagram which shows the structure of the navigation apparatus for vehicles using the prompter system operation device for vehicles which is an example of the operation input device of this invention. 本発明が適用された車両用プロンプター方式操作装置の概要を説明するための車室内の要部斜視図。BRIEF DESCRIPTION OF THE DRAWINGS The principal part perspective view in a vehicle interior for demonstrating the outline | summary of the vehicle prompter type operating device with which this invention was applied. 操作パネルの配置状態を説明するための運転席の正面を示す図。The figure which shows the front of the driver's seat for demonstrating the arrangement | positioning state of an operation panel. 本発明の操作入力装置により操作される車載空調装置の構成を示すブロック図。The block diagram which shows the structure of the vehicle-mounted air conditioner operated with the operation input apparatus of this invention. 操作情報入力部の構成を示す断面図。Sectional drawing which shows the structure of an operation information input part. 操作情報入力部に設けられたカメラの撮影範囲を示す運転席側面図。The driver's seat side view which shows the imaging | photography range of the camera provided in the operation information input part. カメラの撮影映像を例示する図。The figure which illustrates the picked-up image of a camera. メイン画像に対する手画像の半透過合成を例示する図。The figure which illustrates the translucent composition of the hand image with respect to the main image. 運転者の各種生体状態を示す顔画像を例示する図。The figure which illustrates the face image which shows a driver | operator's various biological states. モード設定処理を示すフローチャート。The flowchart which shows a mode setting process. 生体状態対応制御実行処理を示すフローチャート。The flowchart which shows a biological condition corresponding | compatible control execution process. 手画像合成表示処理を示すフローチャート。The flowchart which shows a hand image synthetic | combination display process. 生体状態検出処理の一例を示すフローチャート。The flowchart which shows an example of a biological condition detection process. 生体状態検出処理の一例を示すフローチャート。The flowchart which shows an example of a biological condition detection process. 生体状態検出処理の一例を示すフローチャート。The flowchart which shows an example of a biological condition detection process. 生体状態検出処理の一例を示すフローチャート。The flowchart which shows an example of a biological condition detection process. タッチ入力処理を示すフローチャート。The flowchart which shows a touch input process. 表示部としてヘッドアップディスプレイを設けた実施形態を示す運転席側面図。The driver's seat side view which shows embodiment which provided the head-up display as a display part. 表示部としてヘッドアップディスプレイを設けた実施形態において運転席の正面を示す図。The figure which shows the front of a driver's seat in embodiment which provided the head-up display as a display part. メイン画像に対する手画像の半透過合成を例示する、図8とは異なる図。The figure different from FIG. 8 which illustrates the translucent synthesis | combination of the hand image with respect to a main image.

符号の説明Explanation of symbols

10 車両用ナビゲーション装置
12 操作情報入力部(操作部)
12a 操作パネル
12b カメラ(接近対象物撮影手段、手画像撮影手段、顔画像撮影手段)
12c 光源
15 表示部(表示手段)
18 制御部(光反射領域特定手段、入力受付手段、手画像合成表示制御手段、生体状態特定手段(運転注意力低下状態特定手段、発汗状態特定手段)、生体状態対応制御実行手段、接近対象物検出手段、モード設定手段)
18a 画像合成部(手画像合成表示制御手段)
50 車両内LAN
101 ECU
150 撮影画像
200B メイン画像
201 スイッチ画像(操作アイコン)
200H 接近対象物画像
H 接近対象物
DESCRIPTION OF SYMBOLS 10 Vehicle navigation apparatus 12 Operation information input part (operation part)
12a Operation panel 12b Camera (approaching object photographing means, hand image photographing means, face image photographing means)
12c Light source 15 Display section (display means)
18. Control unit (light reflection area specifying means, input receiving means, hand image composition display control means, biological state specifying means (driving attention reduction state specifying means, sweating state specifying means), biological state correspondence control executing means, approaching object Detection means, mode setting means)
18a Image composition unit (hand image composition display control means)
50 In-vehicle LAN
101 ECU
150 Captured image 200B Main image 201 Switch image (operation icon)
200H approaching object image H approaching object

Claims (15)

車両のステアリングホイールに設けられ、表面がタッチ操作面をなす透光性を有した操作パネルと、
表示画面が前記ステアリングホイールとは異なる位置にて、運転者から視認可能に設けられるとともに、該表示画面に操作アイコンを表示可能とされてなる表示手段と、
前記操作パネルの前記タッチ操作面側に近接する、当該タッチ操作面の操作者の手画像を撮影する手画像撮影手段と、
撮影された前記手画像を前記表示画面上の対応する位置に合成表示する手画像合成表示制御手段と、
前記表示画面上に表示されている前記操作アイコンの表示位置に対応する、前記タッチ操作面上の前記操作入力位置への操作に基づいて、当該操作アイコンに対応して定められた内容の操作入力を受け付ける入力受付手段と、
を備えることを特徴とする車両用操作入力装置。
A translucent operation panel provided on a steering wheel of a vehicle, the surface of which forms a touch operation surface;
Display means provided at a position different from the steering wheel so as to be visible from the driver, and capable of displaying an operation icon on the display screen;
Hand image photographing means for photographing a hand image of an operator of the touch operation surface, which is close to the touch operation surface side of the operation panel;
Hand image composition display control means for compositing and displaying the photographed hand image at a corresponding position on the display screen;
Based on an operation to the operation input position on the touch operation surface corresponding to the display position of the operation icon displayed on the display screen, an operation input having contents determined corresponding to the operation icon Input receiving means for receiving,
A vehicle operation input device comprising:
前記手画像撮影手段は、前記操作パネルの裏面側から前記操作パネルを介して、運転席に着座する運転者の顔が撮影可能となるよう撮影範囲を固定的に定めて配置され、前記手画像とともに前記運転者の顔画像も撮影する顔画像撮影手段としても機能するように構成されるとともに、
撮影された前記顔画像に基づいて前記運転者が予め定められた生体状態にあることを特定する生体状態特定手段と、
各種前記生体状態に対応する車載電子機器の制御内容を対応付けた生体状態対応制御情報を記憶する制御内容記憶手段と、
前記生体状態が特定された場合に、前記生体状態対応制御情報に基づいて、特定された前記生体状態に対応する前記制御内容を実行する生体状態対応制御実行手段と、
を備える請求項1記載の車両用操作入力装置。
The hand image photographing means is disposed with a fixed photographing range so that the face of the driver sitting on the driver's seat can be photographed from the back side of the operation panel via the operation panel. And also configured to function as a face image photographing means for photographing the driver's face image,
Biological state specifying means for specifying that the driver is in a predetermined biological state based on the photographed face image;
Control content storage means for storing biological state correspondence control information in which control contents of the in-vehicle electronic device corresponding to various biological states are associated;
When the biological state is identified, based on the biological state correspondence control information, biological state correspondence control execution means for executing the control content corresponding to the identified biological state;
A vehicle operation input device according to claim 1.
前記操作パネルの前記タッチ操作面に接近する接近対象物を検出する接近対象物検出手段と、
前記接近対象物が検出されている場合には、前記生体状態対応制御実行手段による前記生体状態に対応する前記制御内容の実行を禁止する生体状態対応制御禁止モードを設定し、前記接近対象物が検出ていない場合には、前記生体状態対応制御実行手段による前記生体状態に対応する前記制御内容を実行する生体状態対応制御実行モードと、を切り替えて設定するモード設定手段と、
を備える請求項2記載の車両用操作入力装置。
An approaching object detection means for detecting an approaching object approaching the touch operation surface of the operation panel;
When the approaching object is detected, a biological state correspondence control prohibiting mode for prohibiting execution of the control content corresponding to the biological state by the biological state correspondence control execution unit is set, and the approaching object is If not detected, a mode setting unit that switches and sets a biological state correspondence control execution mode for executing the control content corresponding to the biological state by the biological state correspondence control execution unit;
The vehicle operation input device according to claim 2, further comprising:
前記生体状態特定手段は、生体状態対応制御禁止モードが設定された場合に、前記顔画像撮影手段により撮影された前記顔画像に基づいて前記運転者の生体状態を特定する生体状態特定処理の実行が禁止される請求項3記載の車両用操作入力装置。   The biological state specifying unit executes a biological state specifying process of specifying the driver's biological state based on the face image captured by the face image capturing unit when the biological state correspondence control prohibit mode is set. The vehicle operation input device according to claim 3, wherein 前記手画像撮影手段は、前記操作パネルの前記タッチ操作面側に近接する、前記操作者の手を含む接近対象物を撮影可能とされており、
前記接近対象物検出手段は、前記手画像特定手段による撮影画像から前記接近対象物の画像を特定する形で、該接近対象物を検出するものである請求項3又は請求項4に記載の車両用操作入力装置。
The hand image photographing means is capable of photographing an approaching object including the operator's hand, which is close to the touch operation surface side of the operation panel.
The vehicle according to claim 3 or 4, wherein the approaching object detection means detects the approaching object in a form that specifies an image of the approaching object from a photographed image by the hand image specifying means. Operation input device.
前記運転状態特定手段は、前記顔画像撮影手段により撮影された前記顔画像に基づいて、前記生体状態として、運転者の車両走行への注意力が低下した運転注意力低下状態を特定する運転注意力低下状態特定手段を有し、
前記生体状態対応制御情報には、前記運転注意力低下状態に対し、運転者に注意喚起を与えるための予め定められた注意喚起動作をする注意喚起手段に当該注意喚起動作を実行させる制御内容が対応付けられており、
前記生体状態対応制御実行手段は、前記生体状態として前記運転注意力低下状態が特定された場合に、前記生体状態対応制御情報に基づいて、前記注意喚起動作を実行するものである請求項2ないし請求項5のいずれか1項に記載の車両用操作入力装置。
The driving state specifying means specifies a driving attention reduced state in which the driver's attention to the vehicle is reduced as the biological state based on the face image photographed by the face image photographing means. Having a power drop state identifying means,
The biological state correspondence control information includes a control content that causes the alerting means that performs a preset alerting action to alert the driver to the driver's attention reduction state. Associated with,
The biological state correspondence control execution means executes the alerting action based on the biological state correspondence control information when the driving attention reduction state is specified as the biological state. The vehicle operation input device according to claim 5.
前記生体状態特定手段は、前記顔画像撮影手段により撮影された前記顔画像に基づいて、前記生体状態として、運転者の発汗状態を特定する発汗状態特定手段を有し、
前記生体状態対応制御情報には、前記発汗状態に対し、車載空調出力手段に現在よりも強風又は低温、あるいは強風かつ低温の空調出力を実行させる制御内容が対応付けられており、
前記生体状態対応制御実行手段は、前記生体状態として前記発汗状態が特定された場合に、前記生体状態対応制御情報に基づいて、前記空調出力を実行するものである請求項2ないし請求項6のいずれか1項に記載の車両用操作入力装置。
The biological state specifying means includes a sweating state specifying means for specifying a driver's sweating state as the biological state based on the face image photographed by the face image photographing means,
The biological state correspondence control information is associated with the perspiration state, the control content for causing the in-vehicle air conditioning output means to execute an air conditioning output of stronger wind or lower temperature than the current, or stronger wind and lower temperature,
The said biological condition corresponding | compatible control execution means performs the said air-conditioning output based on the said biological condition corresponding | compatible control information, when the said perspiration state is specified as the said biological condition. The vehicle operation input device according to claim 1.
車室内に固定配置され、前記撮影範囲内に入り込む撮影対象に対し予め定められた波長帯の光を照射する撮影用光源を備え、
前記手画像撮影手段は、前記撮影用光源から照射される光の反射光を捉える形で撮影対象を撮影するものである請求項1ないし請求項7のいずれか1項に記載の車両用操作入力装置。
A light source for photographing that is fixedly arranged in a vehicle interior and irradiates light of a predetermined wavelength band with respect to a photographing object that enters the photographing range;
The vehicle operation input according to any one of claims 1 to 7, wherein the hand image photographing means photographs a subject to be photographed by capturing reflected light of light emitted from the photographing light source. apparatus.
請求項3記載の要件を備え、
前記生体状態対応制御実行モードにおいて前記撮影用光源の輝度を第一レベルに設定し、他方、前記生体状態対応制御禁止モードにおいて前記撮影用光源の輝度を前記第一レベルよりも低い第二レベルに設定するものである請求項8記載の車両用操作入力装置。
Comprising the requirements of claim 3;
In the biological state correspondence control execution mode, the luminance of the imaging light source is set to a first level. On the other hand, in the biological state correspondence control prohibition mode, the luminance of the imaging light source is set to a second level lower than the first level. The vehicle operation input device according to claim 8, which is set.
前記手画像撮影手段により撮影された画像上において、前記反射光の強度が予め定められた閾強度を上回る光反射領域を特定する光反射領域特定手段を備え、
前記入力受付手段は、特定された前記光反射領域に基づいて、当該光反射領域へのタッチ入力を受け付けるものである請求項8又は請求項9に記載の車両用操作入力装置。
On the image photographed by the hand image photographing means, comprising a light reflection area specifying means for specifying a light reflection area where the intensity of the reflected light exceeds a predetermined threshold intensity,
The vehicle operation input device according to claim 8 or 9, wherein the input receiving unit is configured to receive a touch input to the light reflection area based on the identified light reflection area.
前記入力受付手段は、前記光反射領域特定手段により特定された前記光反射領域が、予め定められた閾面積を上回った場合に、当該光反射領域へのタッチ操作入力を受け付けるものである請求項10に記載の車両用操作入力装置。   The input receiving unit is configured to receive a touch operation input to the light reflection region when the light reflection region specified by the light reflection region specifying unit exceeds a predetermined threshold area. The vehicle operation input device according to claim 10. 前記操作パネルは、前記ステアリングホイールのボス部に設けられている請求項1ないし請求項11のいずれか1項に記載の車両用操作入力装置。   The vehicle operation input device according to any one of claims 1 to 11, wherein the operation panel is provided on a boss portion of the steering wheel. 前記操作パネルの前記タッチ操作面は、前記表示画面と相似の形状をなす請求項1ないし請求項12のいずれか1項に記載の車両用操作入力装置。   The vehicle operation input device according to claim 1, wherein the touch operation surface of the operation panel has a shape similar to the display screen. 前記表示手段は、車載ナビゲーション装置の表示装置に兼用される形で設けられたものである請求項1ないし請求項13のいずれか1項に記載の車両用操作入力装置。   The vehicle operation input device according to any one of claims 1 to 13, wherein the display means is provided in a form that is also used as a display device of an in-vehicle navigation device. 前記表示手段は、ウィンドシールドガラスの運転者正面領域を前記表示画面とし、当該ウィンドシールドガラスに向けて表示光を放射する表示器を備える車両用ヘッドアップディスプレイ装置である請求項1ないし請求項14のいずれか1項に記載の車両用操作入力装置。   15. The vehicle head-up display device, wherein the display means includes a display that uses a windshield glass driver front area as the display screen and emits display light toward the windshield glass. The vehicle operation input device according to any one of the above.
JP2007322269A 2007-12-13 2007-12-13 Vehicle operation input device Expired - Fee Related JP5126666B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007322269A JP5126666B2 (en) 2007-12-13 2007-12-13 Vehicle operation input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007322269A JP5126666B2 (en) 2007-12-13 2007-12-13 Vehicle operation input device

Publications (2)

Publication Number Publication Date
JP2009143373A true JP2009143373A (en) 2009-07-02
JP5126666B2 JP5126666B2 (en) 2013-01-23

Family

ID=40914539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007322269A Expired - Fee Related JP5126666B2 (en) 2007-12-13 2007-12-13 Vehicle operation input device

Country Status (1)

Country Link
JP (1) JP5126666B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013687A1 (en) 2009-07-31 2011-02-03 クラリオン株式会社 Navigation device, server device, navigation system, and program
WO2011152070A1 (en) * 2010-06-04 2011-12-08 株式会社 東芝 X-ray image capturing device
KR101119382B1 (en) 2010-07-21 2012-03-06 삼성전기주식회사 Head Up Display Having Touch Screen
JP2012201307A (en) * 2011-03-28 2012-10-22 Honda Access Corp Operating device for in-vehicle equipment of automobile
KR101268122B1 (en) 2011-11-28 2013-06-04 팽정희 Folding type hud device which has a touchpad control
WO2013108748A1 (en) * 2012-01-20 2013-07-25 株式会社デンソー Method and device for controlling glare prevention device installed in vehicle
JP2014197305A (en) * 2013-03-29 2014-10-16 株式会社コナミデジタルエンタテインメント Input system, operation input method and computer program
CN104590161A (en) * 2014-12-27 2015-05-06 深圳市快车道新能源发展有限公司 Man-machine information interaction device arranged on steering wheel
KR101529478B1 (en) * 2013-09-25 2015-06-17 주식회사 대동 Control method for function part and Untouchable switch system of vehicles
WO2015102069A1 (en) * 2014-01-06 2015-07-09 株式会社東海理化電機製作所 Operating device
JP2016071408A (en) * 2014-09-26 2016-05-09 裕一朗 今田 Pointing device
CN110588759A (en) * 2019-09-04 2019-12-20 上海博泰悦臻电子设备制造有限公司 Vehicle steering control method and device
WO2022214906A1 (en) * 2021-04-08 2022-10-13 株式会社半導体エネルギー研究所 Vehicle control device, and vehicle
WO2024043053A1 (en) * 2022-08-23 2024-02-29 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269012A (en) * 1997-03-28 1998-10-09 Yazaki Corp Touch panel controller and information display device using the same
JP2002279411A (en) * 2001-03-22 2002-09-27 Nissan Motor Co Ltd Device for detecting attentiveness in driving and device for detecting dozing at the wheel
JP2004283241A (en) * 2003-03-19 2004-10-14 Denso Corp Biological state improving device
WO2006013783A1 (en) * 2004-08-04 2006-02-09 Matsushita Electric Industrial Co., Ltd. Input device
JP2006172106A (en) * 2004-12-15 2006-06-29 Toshiba Matsushita Display Technology Co Ltd Image fetching function-equipped display device
WO2006076904A1 (en) * 2005-01-19 2006-07-27 Takata-Petri Ag Steering wheel assembly for a motor vehicle
JP2007514211A (en) * 2003-05-29 2007-05-31 本田技研工業株式会社 Visual tracking using depth data
JP2007152984A (en) * 2005-11-30 2007-06-21 Toyota Motor Corp On-vehicle remote controller
JP2007252803A (en) * 2006-03-24 2007-10-04 Konica Minolta Holdings Inc Data analyzing apparatus and data analyzing method
JP2007286667A (en) * 2006-04-12 2007-11-01 Denso Corp On-vehicle operation system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269012A (en) * 1997-03-28 1998-10-09 Yazaki Corp Touch panel controller and information display device using the same
JP2002279411A (en) * 2001-03-22 2002-09-27 Nissan Motor Co Ltd Device for detecting attentiveness in driving and device for detecting dozing at the wheel
JP2004283241A (en) * 2003-03-19 2004-10-14 Denso Corp Biological state improving device
JP2007514211A (en) * 2003-05-29 2007-05-31 本田技研工業株式会社 Visual tracking using depth data
WO2006013783A1 (en) * 2004-08-04 2006-02-09 Matsushita Electric Industrial Co., Ltd. Input device
JP2006172106A (en) * 2004-12-15 2006-06-29 Toshiba Matsushita Display Technology Co Ltd Image fetching function-equipped display device
WO2006076904A1 (en) * 2005-01-19 2006-07-27 Takata-Petri Ag Steering wheel assembly for a motor vehicle
JP2007152984A (en) * 2005-11-30 2007-06-21 Toyota Motor Corp On-vehicle remote controller
JP2007252803A (en) * 2006-03-24 2007-10-04 Konica Minolta Holdings Inc Data analyzing apparatus and data analyzing method
JP2007286667A (en) * 2006-04-12 2007-11-01 Denso Corp On-vehicle operation system

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013687A1 (en) 2009-07-31 2011-02-03 クラリオン株式会社 Navigation device, server device, navigation system, and program
US9080884B2 (en) 2009-07-31 2015-07-14 Clarion Co., Ltd. Navigation device, server device, navigation system and program
US9031186B2 (en) 2010-06-04 2015-05-12 Kabushiki Kaisha Toshiba X-ray imaging apparatus including work-state detection and X-ray dosage control
WO2011152070A1 (en) * 2010-06-04 2011-12-08 株式会社 東芝 X-ray image capturing device
JP2011254847A (en) * 2010-06-04 2011-12-22 Toshiba Corp Radiographic apparatus
KR101119382B1 (en) 2010-07-21 2012-03-06 삼성전기주식회사 Head Up Display Having Touch Screen
JP2012201307A (en) * 2011-03-28 2012-10-22 Honda Access Corp Operating device for in-vehicle equipment of automobile
KR101268122B1 (en) 2011-11-28 2013-06-04 팽정희 Folding type hud device which has a touchpad control
JP2013147187A (en) * 2012-01-20 2013-08-01 Denso Corp Anti-glare control device
WO2013108748A1 (en) * 2012-01-20 2013-07-25 株式会社デンソー Method and device for controlling glare prevention device installed in vehicle
JP2014197305A (en) * 2013-03-29 2014-10-16 株式会社コナミデジタルエンタテインメント Input system, operation input method and computer program
KR101529478B1 (en) * 2013-09-25 2015-06-17 주식회사 대동 Control method for function part and Untouchable switch system of vehicles
WO2015102069A1 (en) * 2014-01-06 2015-07-09 株式会社東海理化電機製作所 Operating device
JP2015128918A (en) * 2014-01-06 2015-07-16 株式会社東海理化電機製作所 Operation device
CN105813901A (en) * 2014-01-06 2016-07-27 株式会社东海理化电机制作所 Operating device
JP2016071408A (en) * 2014-09-26 2016-05-09 裕一朗 今田 Pointing device
CN104590161A (en) * 2014-12-27 2015-05-06 深圳市快车道新能源发展有限公司 Man-machine information interaction device arranged on steering wheel
CN110588759A (en) * 2019-09-04 2019-12-20 上海博泰悦臻电子设备制造有限公司 Vehicle steering control method and device
WO2022214906A1 (en) * 2021-04-08 2022-10-13 株式会社半導体エネルギー研究所 Vehicle control device, and vehicle
WO2024043053A1 (en) * 2022-08-23 2024-02-29 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5126666B2 (en) 2013-01-23

Similar Documents

Publication Publication Date Title
JP5126666B2 (en) Vehicle operation input device
KR101537936B1 (en) Vehicle and control method for the same
US11124118B2 (en) Vehicular display system with user input display
CN106467060B (en) Display device and vehicle including the display device
CN106218506B (en) Vehicle display device and vehicle including the vehicle display device
US20110029185A1 (en) Vehicular manipulation input apparatus
KR101630153B1 (en) Gesture recognition apparatus, vehicle having of the same and method for controlling of vehicle
CN107305136A (en) Guider, vehicle and the method for controlling the vehicle
CN110487296A (en) Calculation method, device, motor vehicle and the program that &#34; augmented reality &#34; shows
KR20220100609A (en) Context-sensitive user interface for improved vehicle behavior
JP4577387B2 (en) Vehicle operation input device
WO2013074866A1 (en) Feature recognition for configuring a vehicle console and associated devices
JP5141878B2 (en) Touch operation input device
JP2006260011A (en) Display device for vehicle
JP4885632B2 (en) Navigation device
JP5382313B2 (en) Vehicle operation input device
JP2007237919A (en) Input operation device for vehicle
JP2009129251A (en) Operation input apparatus
JP2009255904A (en) Operation input device for vehicle
JP5177789B2 (en) Prompter type operation device for vehicles
JP5201480B2 (en) Vehicle control device
JP2010036731A (en) Vehicular operating device
JP2020053795A (en) Display control device, image management server device, display system, display control method, and program
JP2006330360A (en) Information display for vehicle
JPH10258682A (en) Peripheral visual recognition device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120702

TRDD Decision of grant or rejection written
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121018

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees