JP2011222031A - On-vehicle electronic equipment operation device - Google Patents

On-vehicle electronic equipment operation device Download PDF

Info

Publication number
JP2011222031A
JP2011222031A JP2011114556A JP2011114556A JP2011222031A JP 2011222031 A JP2011222031 A JP 2011222031A JP 2011114556 A JP2011114556 A JP 2011114556A JP 2011114556 A JP2011114556 A JP 2011114556A JP 2011222031 A JP2011222031 A JP 2011222031A
Authority
JP
Japan
Prior art keywords
fingertip
screen
image
point
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011114556A
Other languages
Japanese (ja)
Other versions
JP5311080B2 (en
Inventor
Takeshi Kawashima
毅 川島
Koichi Masuda
幸一 枡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011114556A priority Critical patent/JP5311080B2/en
Publication of JP2011222031A publication Critical patent/JP2011222031A/en
Application granted granted Critical
Publication of JP5311080B2 publication Critical patent/JP5311080B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Instrument Panels (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle electronic equipment operation device capable of substantially improving the operability even in the situation that the screen of the operation device cannot be viewed or the like by providing both of a touch input part and hand photographing means as input means and more effectively utilizing them.SOLUTION: An operation screen intrinsic to on-vehicle electronic equipment to be an operation object is displayed on an image display device, and relation of an instruction input state on the operation screen by one or both of a touch input point and a photographed fingertip point and operation command output contents to the on-vehicle electronic equipment is set as a predetermined interface specification by a user interface engine, and operation command information is outputted on the basis of the interface specification corresponding to the instruction input state on the operation screen. Then, since the interface specification is changed corresponding to the number of detected photographed fingertip points, by increasing the types of operation areas corresponding to the number of detected fingers, operation input by a plurality of fingers is diversified and made efficient.

Description

本発明は車載用電子機器操作装置に関する。   The present invention relates to an on-vehicle electronic device operating device.

特開2000−335330号公報JP 2000-335330 A 特開2001−216069号公報JP 2001-216069 A

従来、カーナビゲーション装置のような車載機器の操作装置として、操作者の手をカメラで撮影し、その撮影データから指画像を抽出し、抽出した指画像域を車載機器のGUI入力画面(例えば、ナビ画面など)に重畳表示するタイプのものが提案されている。例えば、特許文献1には、車体の天井に取り付けたカメラを用いて、座席手元のタッチパネルを操作する手の様子を撮影し、撮影した手とタッチパネルとを、操作者の前方に対向配置された液晶パネルに表示する構成が開示されている。また、特許文献2には、ユーザーの指等とディスプレイの画面との距離に応じて異なる操作内容を割り当てる操作入力装置が開示されている。   Conventionally, as an operation device for an in-vehicle device such as a car navigation device, an operator's hand is photographed with a camera, a finger image is extracted from the photographed data, and the extracted finger image area is displayed on a GUI input screen of the in-vehicle device (for example, A type of display that is superimposed on a navigation screen) has been proposed. For example, Patent Document 1 uses a camera attached to the ceiling of a vehicle body to photograph a hand operating a touch panel at the seat, and the photographed hand and the touch panel are disposed opposite to the front of the operator. A configuration for displaying on a liquid crystal panel is disclosed. Patent Document 2 discloses an operation input device that assigns different operation contents in accordance with the distance between a user's finger or the like and the display screen.

上記従来の操作システムにおいては、カメラによる手の撮影情報が、操作位置を示す手輪郭画像の画面上への重畳表示に利用されるに留まり、画像情報自体が入力情報として有効に利用されているとはいい難かった。特に、運転中においては、運転者は操作装置の画面を注視できないため誤操作を生じやすく、複雑な操作が困難である。特許文献1の操作装置は、手の撮影情報とタッチ検出情報との2系統の入力情報が利用するにもかかわらず、操作性の向上を目的としてそれらが有効に活用されていたとはいいがたい。   In the above-described conventional operation system, the shooting information of the hand by the camera is only used for superimposed display on the screen of the hand outline image indicating the operation position, and the image information itself is effectively used as input information. It was difficult. In particular, during driving, the driver cannot gaze at the screen of the operating device, so that an erroneous operation is likely to occur and a complicated operation is difficult. Although the operation device of Patent Document 1 uses two types of input information of hand imaging information and touch detection information, it cannot be said that they were effectively used for the purpose of improving operability. .

本発明の課題は、タッチ入力部と手撮影手段との双方を入力手段として備えるとともに、両者をより有効に活用することにより、操作装置の画面を注視できない状況等でも、その操作性を大幅に向上できる車載用電子機器操作装置を提供することにある。   The problem of the present invention is that both the touch input unit and the hand photographing unit are provided as the input unit, and by using both more effectively, the operability is greatly improved even in a situation where the screen of the operation device cannot be watched. An object of the present invention is to provide an on-vehicle electronic device operating device that can be improved.

課題を解決する手段及び発明の効果Means for solving the problems and effects of the invention

本発明に関連する構成は、車載電子機器の操作入力を行なうために車両に搭載して使用される操作装置であって、上記の課題を解決するために、
操作者の指先によるタッチ操作を受け付ける操作面を有し、操作によるタッチ入力点を検出するタッチ入力装置と、
操作面と一義的な座標対応関係を有する撮影範囲を有し、該操作面に接近する操作者の手を撮影する撮影装置と、
撮影装置が撮影取得する手画像データに基づき手の指先点を撮影指先点として検出する撮影指先点検出手段と、
操作面ならびに撮影範囲と一義的な座標対応関係を有する表示画面を有した画像表示装置と、
画像表示装置に対し指先点を指示する指示体画像を表示画面上に表示させる指示体画像表示制御手段と、
画像表示装置上に、操作対象となる車載電子機器に固有の操作画面を表示する操作画面表示制御手段と、
タッチ入力点と撮影指先点との一方または双方による操作画面上での指示入力状態と車載電子機器への操作指令出力内容との関係が、予め定められたインターフェース仕様として設定され、操作画面上での指示入力状態に応じて前記インターフェース仕様に基づき操作指令情報を出力するユーザーインターフェースエンジンと、
車両の走行状態を検出する走行状態検出手段と、
検出された走行状態に応じてユーザーインターフェースエンジンのインターフェース仕様を変更するインターフェース仕様変更手段と、を備えたことが想定される。
A configuration related to the present invention is an operation device that is used by being mounted on a vehicle to perform operation input of an in-vehicle electronic device, and in order to solve the above-described problem,
A touch input device that has an operation surface that accepts a touch operation by an operator's fingertip and detects a touch input point by the operation;
An imaging device that has an imaging range that has a unique coordinate correspondence with the operation surface, and that captures an operator's hand approaching the operation surface;
Photographing fingertip point detecting means for detecting a fingertip point of a hand as a photographing fingertip point based on hand image data acquired by the photographing device;
An image display apparatus having a display screen having a coordinate correspondence relationship unambiguously with an operation surface and a photographing range;
An indicator image display control means for displaying on the display screen an indicator image for instructing the fingertip point to the image display device;
On the image display device, an operation screen display control means for displaying an operation screen unique to the in-vehicle electronic device to be operated,
The relationship between the instruction input state on the operation screen by one or both of the touch input point and the shooting fingertip point and the content of the operation command output to the in-vehicle electronic device is set as a predetermined interface specification. A user interface engine that outputs operation command information based on the interface specifications according to the instruction input state of
Traveling state detecting means for detecting the traveling state of the vehicle;
It is assumed that there is provided interface specification changing means for changing the interface specification of the user interface engine according to the detected traveling state.

上記の本発明に関連する構成によると、画像表示装置上に、操作対象となる車載電子機器に固有の操作画面を表示するとともに、ユーザーインターフェースエンジンにより、タッチ入力点と撮影指先点との一方または双方による操作画面上での指示入力状態と車載電子機器への操作指令出力内容との関係を予め定められたインターフェース仕様として設定し、操作画面上での指示入力状態に応じて前記インターフェース仕様に基づき操作指令情報を出力する。そして、検出された車両の走行状態に応じてインターフェース仕様が変更されるように構成されるので、車載用電子機器操作装置の操作性を車両走行状態に応じて随時適正化することができる。   According to the configuration related to the present invention, an operation screen unique to the in-vehicle electronic device to be operated is displayed on the image display device, and one of the touch input point and the imaging fingertip point is selected by the user interface engine. The relationship between the instruction input state on the operation screen by both and the operation command output content to the in-vehicle electronic device is set as a predetermined interface specification, and based on the interface specification according to the instruction input state on the operation screen Outputs operation command information. And since it is comprised so that an interface specification may be changed according to the detected driving state of a vehicle, the operativity of a vehicle-mounted electronic device operating device can be optimized at any time according to a vehicle driving state.

インターフェース仕様変更手段は、車両の走行状態に応じて操作画面の表示内容を、該表示内容に対応する操作指令出力内容とともに変更するものとして構成できる。すなわち、タッチ操作と撮影指先点検出とを入力情報とする操作画面を用いたユーザーインターフェース(一種のグラフィカルユーザーインターフェースである)において、車両の走行状態に応じて操作画面の表示内容(すなわち、操作画面の視覚的な構成)を変更することで、操作装置の画面を注視できない操作状況が車両走行状態に応じて発生した場合でも、適正な操作支援を行なうことができる。   The interface specification changing means can be configured to change the display content of the operation screen together with the operation command output content corresponding to the display content in accordance with the traveling state of the vehicle. That is, in a user interface (a kind of graphical user interface) using an operation screen with input information of touch operation and shooting fingertip point detection, the display content of the operation screen (that is, the operation screen) according to the running state of the vehicle In the case where an operation situation in which the screen of the operation device cannot be watched occurs according to the vehicle running state, appropriate operation support can be performed.

具体的には、走行状態検出手段に車速検出手段を設け、インターフェース仕様として、検出された車速値が閾値未満の場合に使用する低速走行時(停車時含む)インターフェース仕様と、検出された車速値が閾値を超える場合に使用する高速走行時インターフェース仕様とを用意することができる。そして、インターフェース仕様変更手段を、車速値に応じてインターフェース仕様を低速走行時インターフェース仕様と高速走行時インターフェース仕様との間で切り替えるものとして構成することができる。車速が小さい場合(特に停車中)は、運転者は操作画面の注視時間や頻度を高く確保できるが、車速が大きい場合は前方を注視しなければならず、操作画面の長時間の直視は難しくなる。そこで、上記のごとく、低速走行時インターフェース仕様と高速走行時インターフェース仕様とを予め用意し、車速ひいては操作画面の注視可能度に応じて随時切り替えて使用することで、各状況に適した操作性確保を適切に図ることができる。   Specifically, the vehicle speed detection means is provided in the running state detection means, and the interface specification is an interface specification for low speed running (including when the vehicle is stopped) used when the detected vehicle speed value is less than a threshold value, and the detected vehicle speed value. It is possible to prepare a high-speed running interface specification that is used when the value exceeds the threshold. The interface specification changing means can be configured to switch the interface specification between the low speed travel interface specification and the high speed travel interface specification according to the vehicle speed value. When the vehicle speed is low (especially when the vehicle is stopped), the driver can ensure a high gaze time and frequency of the operation screen. However, when the vehicle speed is high, the driver must watch the front, and it is difficult to view the operation screen for a long time. Become. Therefore, as described above, interface specifications for low-speed driving and interface specifications for high-speed driving are prepared in advance, and the operability that is suitable for each situation can be ensured by switching between the vehicle speed and the gaze possibility of the operation screen. Can be achieved appropriately.

操作画面表示制御手段は、互いに異なる操作指令出力を行なうための複数の操作領域(例えば操作ボタンや入力ウィンドウなど)を操作画面上に表示形成するものとして構成できる。この場合、インターフェース仕様変更手段は、高速走行時インターフェース仕様における有効な操作領域の表示形成数を、低速走行時インターフェース仕様における有効な操作領域の表示形成数よりも少なく設定するものとして構成できる。また、高速走行時インターフェース仕様における有効な操作領域の表示形成寸法を、低速走行時インターフェース仕様における有効な操作領域の表示形成寸法よりも大きく設定するものとして構成することもできる。操作画面を注視しにくい高速走行時にあっては、操作は手探りになりがちであり、操作領域の数が多すぎたり、あるいは個々の操作領域の面積が小さすぎたりすると誤操作を生じやすくなる。そこで、上記のように構成することで、このような不具合を効果的に解消することができる。   The operation screen display control means can be configured to display and form a plurality of operation areas (for example, operation buttons and input windows) for outputting different operation command on the operation screen. In this case, the interface specification changing means can be configured to set the number of display formations of the effective operation area in the interface specification during high-speed driving to be smaller than the display formation number of the effective operation area in the low-speed driving interface specification. Further, the display formation dimension of the effective operation area in the interface specification during high-speed traveling can be configured to be set larger than the display formation dimension of the effective operation area in the interface specification during low-speed traveling. When driving at high speeds where it is difficult to keep an eye on the operation screen, the operation tends to be frustrated, and if the number of operation areas is too large or the area of each operation area is too small, erroneous operations are likely to occur. Therefore, by configuring as described above, such a problem can be effectively solved.

また、撮影指先点検出手段は手画像データに基づき複数個の指先点を同時検出可能に構成することができる。操作画面表示制御手段は、検出された指先点の数が多いほど操作画面上に表示形成する操作領域の種別を増加させるように構成できる。検出される指の数に応じて操作領域の種別を増加させることで、複数本の指による操作入力の多様化及び効率化を図ることができる。特に、指先点が検出される毎に、各指先点に対応する位置に操作領域を動的に設定・形成するように構成すれば、指毎に固有の操作領域が設定されることになり、各指の機能分担が明確化して複雑な入力もより直感的に行ないやすくすることができる。   Further, the photographing fingertip point detecting means can be configured to simultaneously detect a plurality of fingertip points based on hand image data. The operation screen display control means can be configured to increase the types of operation areas to be displayed and formed on the operation screen as the number of detected fingertip points increases. By increasing the types of operation areas in accordance with the number of detected fingers, it is possible to diversify and increase the efficiency of operation inputs using a plurality of fingers. In particular, each time a fingertip point is detected, if an operation area is dynamically set and formed at a position corresponding to each fingertip point, a unique operation area is set for each finger. The function sharing of each finger is clarified, and complicated input can be made more intuitive.

この場合、インターフェース仕様変更手段は、高速走行時インターフェース仕様における操作領域の最大表示形成種別数を、低速走行時インターフェース仕様における操作領域の最大表示形成種別数よりも小さく設定するように構成できる。画面注視が困難な低速走行時に、最大表示形成種別数の小さいインターフェース仕様に切り替えることで、誤操作を発生しにくくすることができる。   In this case, the interface specification changing means can be configured to set the maximum number of display formation types in the operation area in the interface specification during high-speed driving smaller than the maximum number of display formation types in the operation area in the interface specification during low-speed driving. By switching to an interface specification with a small maximum number of display formation types during low-speed traveling where it is difficult to look at the screen, it is possible to make it difficult for erroneous operations to occur.

一方、操作画面表示制御手段は、タッチ入力装置の操作面に沿うドラッグ操作を検出して、画面上にて有効となる操作領域を、操作指令出力内容の異なる複数のものの間で切替え表示するものとして構成することもできる。インターフェース仕様変更手段は、低速走行時インターフェース仕様においては1回のドラッグ操作の継続中は操作領域を連続的に切り替える一方、高速走行時インターフェース仕様においては、1回のドラッグ操作が生ずる毎に操作領域を断続的に切り替えるように構成することができる。ドラッグ操作により操作領域が連続切替えできれば、次々と切り替わる操作領域の内容を確認しながら、望む操作領域に迅速にたどり着くことができる利点がある。しかし、画面が直視しにくい(高速)走行時には、連続的に切り替わると所望の操作領域が飛ばされてしまい、これに狙い通りにたどり着けない場合がある。そこで、高速走行時インターフェース仕様においては、1回のドラッグ操作が生ずる毎に操作領域を断続的に切り替えるように構成することで、所望の操作領域に確実にたどり着くことができるようになる。   On the other hand, the operation screen display control means detects a drag operation along the operation surface of the touch input device, and switches and displays an operation area effective on the screen among a plurality of operation command output contents different from each other. It can also be configured as. The interface specification changing means switches the operation area continuously during one drag operation in the low speed running interface specification, while the interface area changes every time the drag operation occurs in the high speed running interface specification. Can be configured to be switched intermittently. If the operation area can be continuously switched by the drag operation, there is an advantage that the user can quickly reach the desired operation area while confirming the contents of the operation area to be switched one after another. However, when the screen is difficult to view directly (at high speed), a desired operation area may be skipped if the screen is continuously switched, and the target area may not be reached as intended. Therefore, in the high-speed running interface specification, it is possible to reliably reach the desired operation area by switching the operation area intermittently each time a drag operation occurs.

また、さらに別の態様としては、画像指先点の操作面に沿う特定の動きを操作動作パターンとして検出する操作動作パターン検出手段を設け、操作画面表示制御手段は、互いに異なる操作指令出力を行なうための複数の操作領域を操作画面上に表示形成する構成を採用することもできる。ユーザーインターフェースエンジンは、操作動作パターンが検出されるに伴ない該操作動作パターンに対応する第一操作指令情報を出力する一方、タッチ入力点又は撮影指先点により操作領域が選択された場合に、当該操作領域と対応付けられた第二操作指令情報を出力する操作指令情報出力手段を有するものとして構成する。そして、インターフェース仕様変更手段は、低速走行時インターフェース仕様においては操作領域の選択に応じた第二操作指令情報を少なくとも能動化し、高速走行時インターフェース仕様においては操作動作パターンの検出に応じた第一操作指令情報のみを能動化するものとして構成することができる。この構成によると、低速走行時インターフェース仕様では、画面を見ながらの操作領域の選択操作が可能となる一方、高速走行時インターフェース仕様においては操作領域の選択操作が排除され、画面を注視しなくても可能な操作動作パターン(つまり、ジェスチュア)のみが能動化されるので操作性が向上する。   As yet another aspect, there is provided operation operation pattern detection means for detecting a specific movement along the operation surface of the image fingertip point as an operation operation pattern, and the operation screen display control means outputs operation commands different from each other. It is also possible to adopt a configuration in which a plurality of operation areas are displayed on the operation screen. The user interface engine outputs first operation command information corresponding to the operation movement pattern as the operation movement pattern is detected, and when the operation area is selected by a touch input point or a shooting fingertip point, An operation command information output unit that outputs second operation command information associated with the operation region is configured. The interface specification changing means activates at least the second operation command information according to the selection of the operation area in the low speed running interface specification, and the first operation according to the detection of the operation action pattern in the high speed running interface specification. Only command information can be activated. According to this configuration, in the low-speed driving interface specification, it is possible to select the operation area while looking at the screen, while in the high-speed driving interface specification, the operation area selection operation is eliminated, and the screen does not have to be watched. Since only possible operation movement patterns (that is, gestures) are activated, the operability is improved.

次に、本発明の第一は、車載電子機器の操作入力を行なうために車両に搭載して使用される操作装置であって、上記の課題を解決するために、
操作者の指先によるタッチ操作を受け付ける操作面を有し、タッチ操作によるタッチ入力点を検出するタッチ入力装置と、
操作面と一義的な座標対応関係を有する撮影範囲を有し、該操作面に接近する操作者の手を撮影する撮影装置と、
撮影装置が撮影取得する手画像データに基づき手の指先点を撮影指先点として複数同時に検出可能に構成された撮影指先点検出手段と、
操作面ならびに撮影範囲と一義的な座標対応関係を有する表示画面を有した画像表示装置と、
画像表示装置に対し指先点を指示する指示体画像を表示画面上に表示させる指示体画像表示制御手段と、
画像表示装置上に、操作対象となる車載電子機器に固有の操作画面を表示する操作画面表示制御手段と、
タッチ入力点と撮影指先点との一方または双方による操作画面上での指示入力状態と車載電子機器への操作指令情報における出力内容との関係が、予め定められたインターフェース仕様として設定され、操作画面上での指示入力状態に応じてインターフェース仕様に基づき操作指令情報を出力するユーザーインターフェースエンジンと、
撮影指先点検出手段が検出する撮影指先点の個数に応じてユーザーインターフェースエンジンのインターフェース仕様を変更するインターフェース仕様変更手段と、を備えたことを特徴とする。
Next, the first aspect of the present invention is an operating device that is mounted on a vehicle and used to perform an operation input of an in-vehicle electronic device.
A touch input device having an operation surface for receiving a touch operation by an operator's fingertip and detecting a touch input point by the touch operation;
An imaging device that has an imaging range that has a unique coordinate correspondence with the operation surface, and that captures an operator's hand approaching the operation surface;
An imaging fingertip point detection unit configured to be capable of simultaneously detecting a plurality of fingertip points of a hand based on hand image data acquired and acquired by the imaging device,
An image display apparatus having a display screen having a coordinate correspondence relationship unambiguously with an operation surface and a photographing range;
An indicator image display control means for displaying on the display screen an indicator image for instructing the fingertip point to the image display device;
On the image display device, an operation screen display control means for displaying an operation screen unique to the in-vehicle electronic device to be operated,
The relationship between the instruction input state on the operation screen by one or both of the touch input point and the shooting fingertip point and the output content in the operation command information to the in-vehicle electronic device is set as a predetermined interface specification, and the operation screen A user interface engine that outputs operation command information based on the interface specifications according to the instruction input state above,
And interface specification changing means for changing the interface specification of the user interface engine in accordance with the number of shooting fingertip points detected by the shooting fingertip point detecting means.

撮影指先点の個数に応じてユーザーインターフェースエンジンのインターフェース仕様を変更することにより、検出される指の本数に応じて入力仕様の適正化を図ることができる。例えば、操作画面表示制御手段が、互いに異なる操作指令出力を行なうための複数の操作領域を操作画面上に表示形成するものである場合、インターフェース仕様変更手段は、撮影指先点検出手段が検出する撮影指先点の数が複数個の場合の有効な操作領域の表示形成数を、同じく撮影指先点の数が1個の場合の有効な操作領域の表示形成数よりも多く設定するように構成できる。検出される指の数に応じて操作領域の種別を増加させることで、複数本の指による操作入力の多様化及び効率化を図ることができる。   By changing the interface specifications of the user interface engine according to the number of photographing fingertip points, it is possible to optimize the input specifications according to the number of detected fingers. For example, when the operation screen display control means displays a plurality of operation areas for performing different operation command outputs on the operation screen, the interface specification changing means is the photographing detected by the photographing fingertip point detecting means. The number of effective operation region display formations when the number of fingertip points is plural may be set to be larger than the number of effective operation region display formations when the number of photographing fingertip points is one. By increasing the types of operation areas in accordance with the number of detected fingers, it is possible to diversify and increase the efficiency of operation inputs using a plurality of fingers.

本発明の第二は、車載電子機器の操作入力を行なうために車両に搭載して使用される操作装置であって、上記の課題を解決するために、
操作者の指先によるタッチ操作を受け付ける操作面を有し、タッチ操作によるタッチ入力点を検出するタッチ入力装置と、
操作面と一義的な座標対応関係を有する撮影範囲を有し、該操作面に接近する操作者の手を撮影する撮影装置と、
撮影装置が撮影取得する手画像データに基づき手の指先点を撮影指先点として検出する撮影指先点検出手段と、
操作面ならびに撮影範囲と一義的な座標対応関係を有する表示画面を有した画像表示装置と、
画像表示装置に対し指先点を指示する指示体画像を表示画面上に表示させる指示体画像表示制御手段と、
画像表示装置上に、操作対象となる車載電子機器に固有の操作画面を表示する操作画面表示制御手段と、
タッチ入力点と撮影指先点との一方または双方による操作画面上での指示入力状態と車載電子機器への操作指令情報における出力内容との関係が、予め定められたインターフェース仕様として設定され、操作画面上での指示入力状態に応じてインターフェース仕様に基づき操作指令情報を出力するユーザーインターフェースエンジンと、
撮影指先点が検出された場合に、タッチ入力装置へのタッチ操作が同時に検出されているか否かに応じてユーザーインターフェースエンジンのインターフェース仕様を変更するインターフェース仕様変更手段と、を備えたことを特徴とする。
A second aspect of the present invention is an operating device that is used by being mounted on a vehicle in order to perform an operation input of an in-vehicle electronic device.
A touch input device having an operation surface for receiving a touch operation by an operator's fingertip and detecting a touch input point by the touch operation;
An imaging device that has an imaging range that has a unique coordinate correspondence with the operation surface, and that captures an operator's hand approaching the operation surface;
Photographing fingertip point detecting means for detecting a fingertip point of a hand as a photographing fingertip point based on hand image data acquired by the photographing device;
An image display apparatus having a display screen having a coordinate correspondence relationship unambiguously with an operation surface and a photographing range;
An indicator image display control means for displaying on the display screen an indicator image for instructing the fingertip point to the image display device;
On the image display device, an operation screen display control means for displaying an operation screen unique to the in-vehicle electronic device to be operated,
The relationship between the instruction input state on the operation screen by one or both of the touch input point and the shooting fingertip point and the output content in the operation command information to the in-vehicle electronic device is set as a predetermined interface specification, and the operation screen A user interface engine that outputs operation command information based on the interface specifications according to the instruction input state above,
Interface specification changing means for changing the interface specification of the user interface engine according to whether or not a touch operation on the touch input device is detected at the same time when a photographing fingertip point is detected, To do.

上記の構成によると、操作入力系が、タッチ入力装置と手の撮影装置との二系統からなることを利用して、撮影指先点が検出された場合に、タッチ入力装置へのタッチ操作が同時に検出されているか否かに応じてユーザーインターフェースエンジンのインターフェース仕様を変更するようにしたから、操作装置の入力利用形態の大幅な拡張を図ることができる。   According to the above configuration, when an imaging fingertip point is detected using the operation input system consisting of two systems of a touch input device and a hand imaging device, touch operations to the touch input device are simultaneously performed. Since the interface specification of the user interface engine is changed depending on whether or not it is detected, the input usage mode of the operating device can be greatly expanded.

具体的には、操作画面表示制御手段は、タッチ入力装置の操作面に沿うドラッグ操作を検出して、画像表示装置の画面上に表示中の画像情報を該ドラッグ操作に対応する向きにスクロール表示処理するものとして構成できる。この場合、インターフェース仕様変更手段は、撮影指先点とともにタッチ操作が検出されている場合の画像情報のスクロール速度を、タッチ操作が検出されていない場合のスクロール速度よりも小さく設定するものとして構成できる。操作面にタッチしながらドラッグするか、タッチせずにドラッグするかに応じて、画面のスクロール速度を容易にかつ直感的に切り替えることができる。   Specifically, the operation screen display control means detects a drag operation along the operation surface of the touch input device, and scrolls and displays the image information being displayed on the screen of the image display device in a direction corresponding to the drag operation. Can be configured to process. In this case, the interface specification changing means can be configured to set the scroll speed of the image information when the touch operation is detected together with the photographing fingertip point to be lower than the scroll speed when the touch operation is not detected. The screen scrolling speed can be easily and intuitively switched depending on whether the user drags while touching the operation surface or not.

他方、操作画面表示制御手段は、タッチ入力装置の操作面に沿うドラッグ操作を検出して、画像表示装置の画面上に表示中の階層型の情報出力メニューをスクロール表示処理するものとして構成することもできる。インターフェース仕様変更手段は、タッチ操作が検出されている場合と、タッチ操作が検出されていない場合とで、情報出力メニューの互いに異なる階層をスクロール表示処理するものとして構成することができる。操作面にタッチしながらドラッグするか、タッチせずにドラッグするかを切り替えることにより、スクロールする情報出力メニューの階層が変更されるので、メニュー検索の利便性を大幅に向上することができる。   On the other hand, the operation screen display control means is configured to detect a drag operation along the operation surface of the touch input device and perform scroll display processing of the hierarchical information output menu being displayed on the screen of the image display device. You can also. The interface specification changing means can be configured to perform scroll display processing on different layers of the information output menu depending on whether a touch operation is detected or not detected. By switching between dragging while touching the operation surface or dragging without touching, the hierarchy of the information output menu to be scrolled is changed, so that the convenience of menu search can be greatly improved.

本発明の操作装置の車内取付形態の一例を示す斜視図。The perspective view which shows an example of the in-vehicle installation form of the operating device of this invention. その操作部の内部構造の一例を示す断面模式図。The cross-sectional schematic diagram which shows an example of the internal structure of the operation part. 図1の操作装置の電気的構成の一例を示すブロック図。The block diagram which shows an example of the electrical constitution of the operating device of FIG. 撮影指先点を決定する画像処理の流れを示す説明図。Explanatory drawing which shows the flow of the image processing which determines a photography fingertip point. 撮影指先点特定処理の流れを示すフローチャート。The flowchart which shows the flow of an imaging | photography fingertip point specific process. 指先判定処理の詳細を示すフローチャート。The flowchart which shows the detail of a fingertip determination process. 先端領域の幅の概念を説明する図。The figure explaining the concept of the width | variety of a front-end | tip area | region. 複数の先端領域を分離するためのラベリング処理の概念を説明する図。The figure explaining the concept of the labeling process for isolate | separating a some front end area | region. 手撮影カメラにより取得された手画像を重畳表示する実施形態を示す図。The figure which shows embodiment which superimposes and displays the hand image acquired with the hand imaging | photography camera. 指示体画像を重畳した画面表示例を示す図。The figure which shows the example of a screen display which superimposed the indicator image. 本発明に関連する第一参考形態を示す図。The figure which shows the 1st reference form relevant to this invention. 同じく第二参考形態を示す図。The figure which shows a 2nd reference form similarly. 同じく第三参考形態を示す図。The figure which shows a 3rd reference form similarly. 同じく第四参考形態を示す図。The figure which similarly shows the 4th reference form. 同じく第五参考形態を示す図。The figure which shows a 5th reference form similarly. 同じく第六参考形態を示す図。The figure which similarly shows the 6th reference form. 本発明の第一に係る第一実施形態を示す図。The figure which shows 1st embodiment which concerns on 1st of this invention. 本発明の第二に係る第一実施形態を示す図。The figure which shows 1st embodiment which concerns on 2nd of this invention. 図18に続く説明図。Explanatory drawing following FIG. 図19に続く説明図。Explanatory drawing following FIG. 本発明の第二に係る第二実施形態を示す図。The figure which shows 2nd embodiment which concerns on 2nd of this invention. 図21に続く説明図。Explanatory drawing following FIG. 図22に続く説明図。Explanatory drawing following FIG.

以下、本発明の実施の形態を、図面を用いて説明する。
図1は、本発明の画像表示装置の適用対象となる、車載用電子機器の操作装置の一例を示すものである。この操作装置1は、自動車の車室内において、インパネ中央部にモニタ(表示装置)15が配置され、センターコンソールCの、運転席2D及び助手席2Pのいずれからも操作可能な位置に操作部12が配置されている。使用目的は特には限定されないが、例えばセンターコンソールに設けられたモニタ15の画面を見ながら、カーナビゲーション装置やカーオーディオ装置の機能操作を行なうためのものである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows an example of an operating device for an in-vehicle electronic device to which the image display device of the present invention is applied. The operation device 1 has a monitor (display device) 15 disposed in the center of the instrument panel in the interior of the automobile, and the operation unit 12 is located at a position where the center console C can be operated from either the driver seat 2D or the passenger seat 2P. Is arranged. Although the purpose of use is not particularly limited, for example, it is for performing functional operations of the car navigation device and the car audio device while looking at the screen of the monitor 15 provided in the center console.

操作部12は、入力操作面が上向きとなるように取り付けられている。該入力操作面を形成するのは周知のタッチパネル12aであり、抵抗膜方式、表面弾性波方式あるいは静電容量方式のいずれを採用してもよい。タッチパネル12aは、その基材が透明樹脂板あるいはガラス板等により透明入力支持板として構成され、操作者の指先によるタッチ操作を上面側にて支持しつつ受け付ける。そして、モニタ15の画面領域に対応した入力座標系が板面に沿って設定される。   The operation unit 12 is attached so that the input operation surface faces upward. The input operation surface is formed by a known touch panel 12a, and any of a resistive film method, a surface acoustic wave method, and a capacitance method may be adopted. The base material of the touch panel 12a is a transparent input support plate made of a transparent resin plate, a glass plate, or the like, and accepts a touch operation by the operator's fingertip while supporting it on the upper surface side. Then, an input coordinate system corresponding to the screen area of the monitor 15 is set along the plate surface.

図2は、入力部12の内部構造を模式的に示す断面図であり、筐体122eの上面に前述のタッチパネル12aが、入力操作面102b側が上となるように嵌め込まれている。筐体12dの内部には、照明光源12c及び撮影光学系とともに手撮影カメラ(撮影装置)12bが収容されており、撮影画像取得手段を構成している。照明光源12cは、凸曲面形態のモールドにより素子直上側への輝度指向性を高めた発光ダイオード光源(従って、単色光源である)であり、タッチパネル12aの下面を取り囲む形態で複数配置されている。各照明光源12cは、高輝度となるモールド先端側をタッチパネル12aの下面内側に向けそれぞれ傾けて取り付けてあり、入力操作面102b上の操作者の手Hの掌面による一次撮像反射光RB1が、タッチパネル12aを透過する形で下向きに生ずるようになっている。   FIG. 2 is a cross-sectional view schematically showing the internal structure of the input unit 12. The touch panel 12a is fitted on the upper surface of the housing 122e so that the input operation surface 102b side is up. In the housing 12d, a hand photographic camera (photographing device) 12b is housed together with an illumination light source 12c and a photographic optical system, and constitutes a photographic image acquisition means. The illumination light source 12c is a light emitting diode light source (ie, a monochromatic light source) having a luminance directivity directly above the element by a convex curved mold, and a plurality of illumination light sources 12c are arranged so as to surround the lower surface of the touch panel 12a. Each illumination light source 12c is attached by tilting the mold front end side with high brightness toward the inside of the lower surface of the touch panel 12a, and the primary imaging reflected light RB1 by the palm surface of the operator's hand H on the input operation surface 102b is It is generated in a downward direction so as to pass through the touch panel 12a.

撮影光学系は、第一反射部12pと第二反射部12rとを有する。第一反射部12pは、タッチパネル12aの直下に対向配置されたプリズム板(三角柱状の微小プリズムを面内に並列に配置した透明材料板:以下、プリズム板12pともいう)であり、操作者の手Hからの一次撮像反射光RB1を斜め上方に反射することにより、該プリズム板12pとタッチパネル12aとの対向空間12fの側方外側へ二次撮像反射光RB2として導く。第二反射部12rは上記対向空間の側方外側に配置された平面反射鏡(以下、平面反射鏡12rともいう)であり、上記二次撮像反射光RB2を側方へ反射することにより、対向空間12fを挟んで第二反射部12rの反対側に位置する手撮影カメラ12bに対し三次撮像反射光RB3として導く。手撮影カメラ12bは該三次撮像反射光RB3の焦点に対応する位置に設けられ、操作者の指を含む手Hの撮影画像を取得する。   The photographing optical system has a first reflecting portion 12p and a second reflecting portion 12r. The first reflecting portion 12p is a prism plate (transparent material plate in which triangular prism-shaped microprisms are arranged in parallel in the plane: hereinafter also referred to as a prism plate 12p) and is disposed directly below the touch panel 12a. By reflecting the primary imaging reflected light RB1 from the hand H obliquely upward, it is guided as the secondary imaging reflected light RB2 to the lateral outside of the facing space 12f between the prism plate 12p and the touch panel 12a. The second reflecting portion 12r is a plane reflecting mirror (hereinafter also referred to as a plane reflecting mirror 12r) disposed on the lateral side outside the facing space, and reflects the secondary imaging reflected light RB2 to the side, thereby The light is guided as the tertiary imaging reflected light RB3 to the hand photographing camera 12b located on the opposite side of the second reflecting portion 12r across the space 12f. The hand photographing camera 12b is provided at a position corresponding to the focal point of the tertiary imaging reflected light RB3, and acquires a photographed image of the hand H including the operator's finger.

プリズム板12pは、図2内に拡大して示すように、ミラー基面MBPに対しそれぞれ等角度で傾斜する反射面を有したリブ状の微小プリズムを、ミラー基面MBPに沿って互いに平行となるように密接形成したものであり、ミラー基面MBPを傾けずとも、その法線方向に入射する光を(斜め)側方へ反射することができる。従って、側方反射のための第一反射部12pをタッチパネル12aの下方に平行対向する形で配置でき、対向空間12fの高さ方向寸法を大幅に縮小できる。   As shown in an enlarged view in FIG. 2, the prism plate 12 p is formed of rib-shaped microprisms each having a reflecting surface inclined at an equal angle with respect to the mirror base surface MBP and parallel to each other along the mirror base surface MBP. Even if the mirror base surface MBP is not inclined, the light incident in the normal direction can be reflected to the (oblique) side. Accordingly, the first reflecting portion 12p for side reflection can be disposed in parallel with the lower side of the touch panel 12a, and the height direction dimension of the facing space 12f can be greatly reduced.

また、その対向空間12fを側方から挟んで第二反射部12rと手撮影カメラ12bとを対向配置することで、手撮影カメラ12bに直接入射する三次撮像反射光RBを、対向空間12fを横切る形で導くことができる。これにより、第二反射部12rと手撮影カメラ12bとを、タッチパネル12aの側縁に近接配置でき、かつ、手Hから手撮影カメラ12bへの撮像反射光の入射経路が、対向空間12f内でいわば三つ折状に畳み込まれる形になるので、撮像光学系全体の大幅なコンパクト化と、筐体12dの薄型化とが実現されている。特に、タッチパネル12aのサイズ(つまり、入力操作面102bの縦横寸法)を縮小することで、入力部12全体の劇的な小形化及び薄型化が実現し、図1のセンターコンソール部Cの幅が比較的小さい車両や、シフトレーバー前方の限られた取付スペースしか活用できない車両にも問題なく取り付けが可能となる。   In addition, the second reflecting portion 12r and the hand photographic camera 12b are disposed facing each other with the opposing space 12f sandwiched from the side, so that the tertiary imaging reflected light RB that directly enters the hand photographic camera 12b crosses the opposing space 12f. Can be guided in shape. As a result, the second reflecting portion 12r and the hand photographing camera 12b can be disposed close to the side edge of the touch panel 12a, and the incident path of the imaging reflected light from the hand H to the hand photographing camera 12b is within the facing space 12f. In other words, since it is folded into a three-fold shape, the entire imaging optical system is greatly reduced in size and the casing 12d is made thinner. In particular, by reducing the size of the touch panel 12a (that is, the vertical and horizontal dimensions of the input operation surface 102b), the entire input unit 12 can be dramatically reduced in size and thickness, and the width of the center console unit C in FIG. It can be mounted on a relatively small vehicle or a vehicle that can utilize only a limited installation space in front of the shift lever.

タッチパネル12の入力操作面102bは、手撮影カメラ12bの撮影範囲102bに対応しており、平均的な寸法の大人の手を想定した場合に、中指の指先端を含む長手方向の一部のみが入力操作面102b内に入るように、その上下方向(Y方向)寸法が定められている(例えば、60〜90mm(具体例として75mm))。これにより、モニタ15の画面領域には、指の付け根よりも先の部分だけが表示されることになるので、指以外の掌部分の形状が表示に関与せず、指示体画像を用いた後述の表示処理の大幅な簡略化を図ることができる。また、入力操作面102bの左右方向(X方向)寸法は110〜130mm(例えば、120mm)であり、手を乗せて各指を大きく開いた状態では、人差し指、中指、薬指及び小指が撮影範囲内となり、親指が撮影範囲外となっている。ただし、各指を適当に閉じれば全ての指を撮影範囲内に収めることも可能である。   The input operation surface 102b of the touch panel 12 corresponds to the shooting range 102b of the hand shooting camera 12b, and when assuming an average hand of an adult, only a part of the longitudinal direction including the tip of the middle finger is included. The vertical direction (Y direction) dimension is determined so as to enter the input operation surface 102b (for example, 60 to 90 mm (as a specific example, 75 mm)). As a result, only the portion ahead of the base of the finger is displayed in the screen area of the monitor 15, so that the shape of the palm portion other than the finger is not involved in the display, and will be described later using the indicator image. The display process can be greatly simplified. In addition, the horizontal dimension (X direction) of the input operation surface 102b is 110 to 130 mm (for example, 120 mm), and the index finger, middle finger, ring finger, and little finger are within the imaging range when a hand is put on and each finger is wide open. The thumb is out of the shooting range. However, it is also possible to keep all fingers within the imaging range if each finger is properly closed.

図3は、操作装置1の電気的構成を示すブロック図である。操作装置1の制御主体をなすのは操作ECU10である。該操作ECU10は、CPU101を主体とするコンピュータハードウェア基板として構成され、具体的には、CPU101、RAM1102、ROM103、グラフィックコントローラ110、ビデオインターフェース112、タッチパネルインターフェース114、汎用入出力部104及びシリアル通信インターフェース116が内部バス105により相互接続された構造を有する。グラフィックコントローラ110には表示用ビデオRAM111及びモニタ15が、ビデオインターフェース112には撮影用ビデオRAM113及び手撮影カメラ12bが、タッチパネルインターフェース114にはタッチパネル12aが、そして、汎用入出力部104にはドライバ(駆動回路)115を介して照明光源12cがそれぞれ接続されている。また、シリアル通信インターフェース116には、CAN通信バスなどの車載用シリアル通信バス30が接続され、これにネットワーク接続された他のECU、具体的にはカーナビゲーション装置の制御を司るナビECU200およびボデー系ECU301と相互通信可能とされている。   FIG. 3 is a block diagram showing an electrical configuration of the controller device 1. It is the operation ECU 10 that controls the operation device 1. The operation ECU 10 is configured as a computer hardware board mainly composed of the CPU 101. Specifically, the CPU 101, the RAM 1102, the ROM 103, the graphic controller 110, the video interface 112, the touch panel interface 114, the general-purpose input / output unit 104, and the serial communication interface. 116 has a structure interconnected by an internal bus 105. The graphic controller 110 includes a display video RAM 111 and a monitor 15, the video interface 112 includes a shooting video RAM 113 and a hand shooting camera 12 b, the touch panel interface 114 includes a touch panel 12 a, and the general-purpose input / output unit 104 includes a driver ( The illumination light source 12c is connected via a drive circuit 115. The serial communication interface 116 is connected to an in-vehicle serial communication bus 30 such as a CAN communication bus, and other ECUs connected to the network, specifically, a navigation ECU 200 for controlling a car navigation device and a body system. Mutual communication with the ECU 301 is possible.

ビデオインターフェース112には、手撮影カメラ12bが取得するアナログもしくはデジタルの映像信号が継続的に入力されるとともに、撮影用ビデオRAM113内に画像フレームデータとして、所定の時間間隔で取り込まれる。撮影用ビデオRAM113の記憶内容は、新しい画像フレームデータが取り込まれる毎に随時更新される。   The video interface 112 is continuously input with an analog or digital video signal acquired by the hand-shooting camera 12b, and is captured as image frame data in the shooting video RAM 113 at predetermined time intervals. The content stored in the video RAM 113 for shooting is updated whenever new image frame data is fetched.

グラフィックコントローラ110は、通信インターフェース116を介してナビECU200から入力画面画像フレームデータを取得するとともに、CPU101側からは指示体画像が所定位置に張り込まれた指示体画像フレームデータを取得し、表示用ビデオRAM111上にて周知のアルファブレンディング処理等によりフレーム合成し、モニタ15に出力する。   The graphic controller 110 acquires the input screen image frame data from the navigation ECU 200 via the communication interface 116, and also acquires the indicator image frame data in which the indicator image is pasted at a predetermined position from the CPU 101 side. Frames are synthesized on the video RAM 111 by a known alpha blending process or the like, and output to the monitor 15.

タッチパネルインターフェース114は、タッチパネル12aの方式に応じた固有の駆動回路を有するとともに、タッチパネル12aからの信号入力状態に基づいて、入力操作面102bへのタッチ操作による入力位置(タッチ入力点)を検出し、その検出結果を位置入力座標情報として出力する。   The touch panel interface 114 has a unique drive circuit corresponding to the method of the touch panel 12a, and detects an input position (touch input point) by a touch operation on the input operation surface 102b based on a signal input state from the touch panel 12a. The detection result is output as position input coordinate information.

なお、手撮影カメラ12bの撮影範囲(撮影視野;ひいては、該手撮影カメラ12bにより取得される撮影画像)、タッチパネル12bの入力操作面、モニタ15の画面領域(ひいては、その表示内容を決定する入力画面画像フレームデータ及び指示体画像フレームデータ)には、二次元座標対応関係が一義的に定められている。   It should be noted that the shooting range (shooting field of view; as a result, the shot image acquired by the hand shooting camera 12b) of the hand shooting camera 12b, the input operation surface of the touch panel 12b, and the screen area of the monitor 15 (and input for determining the display contents). The screen image frame data and the indicator image frame data) have a uniquely defined two-dimensional coordinate correspondence.

また、ROM103には、CPU101が実行する以下のようなソフトウェアが格納されている。
・タッチパネル制御ソフトウェア103a:タッチパネルインターフェース114からタッチ入力点の座標を取得し、入力画面画像フレームデータとともにナビECU200から送られてくる、操作入力内容の判定参照情報(例えば、ソフトボタンの領域特定情報や、当該ソフトボタンがタッチ操作されたときに出力するべき操作コマンド内容等の情報を含む)を取得する。そして、該タッチ入力点座標と取得した判定参照情報とに基づいて現在の操作入力内容を特定し、ナビECU200に対して対応する操作コマンドの実行指令出力を行なう。
The ROM 103 stores the following software executed by the CPU 101.
Touch panel control software 103a: The coordinates of the touch input point are acquired from the touch panel interface 114, and operation reference content determination reference information (for example, soft button area specifying information or , Including information such as operation command contents to be output when the soft button is touched. Then, the current operation input content is specified based on the touch input point coordinates and the acquired determination reference information, and an execution command output of the corresponding operation command is performed to the navigation ECU 200.

・表示制御ソフトウェア103b:グラフィックコントローラ110への入力画面画像フレームデータの取り込み指令を行なうとともに、後述の方法により作成した指示体画像フレームデータをグラフィックコントローラ110へ転送する。
・指先点演算ソフトウェア103c(先端抽出手段、画像先端位置特定手段、指先判定手段):RAM1102の指先点演算処理メモリ1102aを作業領域として動作する。手撮影カメラ12bが撮影した操作者の手の撮影画像を二値化し、その実指像の指先位置を撮影指先点として特定する演算、具体的には、二値化された撮影画像の挿入方向における先端領域taの所定の代表点(ここでは幾何学的重心位置)を撮影指先点tpとして特定する演算を行なう。また、先端領域taの寸法及び面積の少なくともいずれかに基づいて、撮影指先点tpが真の指先点tpを示すものであるか否かを判定する。なお、手の撮影画像の二値化処理は、ビデオインターフェースの出力段に画素の二値化回路を組み込んで事前に行なうようにしてもよい。
・指示体画像合成ソフトウェア103d(指示体画像表示手段):RAM1102の指示体画像合成用メモリ1102bを作業領域として動作する。図9に示すように、撮影された手画像SF’を指示体画像として画面に重畳表示するようにしてもよいし、図10に示すように、その手画像よりも指幅の細い指示体画像F1を、撮影画像とは別に用意した指示体画像データ103eに基づいて作成し、画面に重畳表示するようにしてもよい。この場合、指示体画像F1は、その指先位置が撮影指先点と一致するように、指示体画像フレーム上に貼り付ける処理がなされる。
Display control software 103b: Instructs the graphic controller 110 to input input screen image frame data, and transfers indicator image frame data created by a method described later to the graphic controller 110.
Fingertip point calculation software 103c (tip extraction means, image tip position specifying means, fingertip determination means): Operates using the fingertip point calculation processing memory 1102a of the RAM 1102 as a work area. An operation for binarizing a photographed image of the hand of the operator photographed by the hand photographing camera 12b and specifying the fingertip position of the actual finger image as a photographing fingertip point, specifically, in the insertion direction of the binarized photographed image A calculation is performed to specify a predetermined representative point (here, the geometric gravity center position) of the tip region ta as the imaging fingertip point tp. Further, based on at least one of the size and area of the tip region ta, it is determined whether or not the photographing fingertip point tp indicates the true fingertip point tp. It should be noted that the binarization processing of the hand-photographed image may be performed in advance by incorporating a pixel binarization circuit into the output stage of the video interface.
Indicator image composition software 103d (indicator image display means): Operates the indicator image composition memory 1102b of the RAM 1102 as a work area. As shown in FIG. 9, the photographed hand image SF ′ may be displayed as an indicator image on the screen so as to be superimposed, or as shown in FIG. 10, the indicator image having a finger width narrower than that of the hand image. F1 may be created based on the indicator image data 103e prepared separately from the photographed image, and may be superimposed on the screen. In this case, the indicator image F1 is processed to be pasted on the indicator image frame so that the fingertip position coincides with the photographing fingertip point.

・ユーザーインターフェースエンジン103e:タッチ入力点と撮影指先点との一方または双方による操作画面上での指示入力状態と、車載電子機器(本実施形態ではカーナビゲーションシステム及びカーオーディオシステム)への操作指令出力内容との関係を予め定められたインターフェース仕様として設定するとともに、操作画面上での指示入力状態に応じて該インターフェース仕様に基づき操作指令情報を出力すると処理を行なう。また、車両の走行状態(特に、車速)、撮影指先点の個数、あるいは、撮影指先点が検出された場合にタッチ入力装置12へのタッチ操作が同時に検出されているか否か、等に応じて上記インターフェース仕様を適宜変更する機能(インターフェース仕様変更手段)を有している。 User interface engine 103e: An instruction input state on the operation screen by one or both of the touch input point and the shooting fingertip point, and an operation command output to the in-vehicle electronic device (the car navigation system and the car audio system in the present embodiment) The processing is performed when the relationship with the contents is set as a predetermined interface specification and the operation command information is output based on the interface specification in accordance with the instruction input state on the operation screen. Further, depending on the traveling state of the vehicle (particularly the vehicle speed), the number of shooting fingertip points, whether or not the touch operation on the touch input device 12 is detected at the same time when the shooting fingertip points are detected, etc. It has a function (interface specification changing means) for changing the interface specifications as appropriate.

以下、操作装置1において、撮影される手の撮影指先点がどのようにして特定されるかを、フローチャートを用いて説明する。該処理の要部は指先点演算ソフトウェア103cが担う。まず、モニタ15の画面(領域)には、先行するコマンド入力(例えば別画面でのタッチ入力操作に基づく)により、図32のキーボード入力画面(ただし手画像SFは除く)が表示されているものとする(ただし、地図画面など、他の入力画面であってもよい)。   Hereinafter, how the shooting fingertip point of the hand to be shot is specified in the controller device 1 will be described using a flowchart. The principal part of the processing is performed by the fingertip point calculation software 103c. First, on the screen (area) of the monitor 15, the keyboard input screen (excluding the hand image SF) of FIG. 32 is displayed by a preceding command input (for example, based on a touch input operation on another screen). (However, it may be another input screen such as a map screen).

図5は指先点特定処理の流れ(一定のサイクルで反復して実行される)を示すものであり、上記の状態で、図2に示すように、タッチパネル12aの入力操作面102bに手Hを近づけると、手撮影カメラ12bは、照明光源12cからの照明光の手による反射光に基づいて手像を撮影する。図5のS101で、その撮影画像を取り込む。手像の画素は反射光の受光により背景領域よりも明るく現れる。従って、図4のAに示すように、画素の輝度を適当な閾値で二値化すれば、高輝度画素値(ここでは「1」とする)を示す領域を被写体領域(図中黒で表している)、低輝度画素値(ここでは「0」とする)を示す領域を背景領域(図中白で表している)として、互いに画像分離できる。S102では、この二値化された画像データを第一画像データ(A)として保存する。   FIG. 5 shows the flow of fingertip point identification processing (repeatedly executed in a certain cycle). In the above state, as shown in FIG. 2, the hand H is placed on the input operation surface 102b of the touch panel 12a. When approaching, the hand photographing camera 12b photographs a hand image based on the reflected light of the illumination light from the illumination light source 12c by the hand. In S101 of FIG. 5, the captured image is captured. The pixel of the hand image appears brighter than the background area by receiving the reflected light. Therefore, as shown in FIG. 4A, if the luminance of a pixel is binarized with an appropriate threshold, an area showing a high luminance pixel value (here, “1”) is a subject area (shown in black in the figure). The region indicating the low luminance pixel value (here, “0”) can be separated from each other as a background region (shown in white in the figure). In S102, the binarized image data is stored as first image data (A).

なお、S103では、第一画像データにおける被写体領域の面積率σを演算する。手撮影カメラ12bの撮影範囲内に被写体が存在しない場合は、被写体領域の面積率σがある閾値σ未満となるので、この場合は以下の処理をスキップする。 In S103, the area ratio σ of the subject area in the first image data is calculated. If the object does not exist in the imaging range of the hand photography camera 12b, because less than the threshold sigma 0 there is the area ratio sigma of the subject region, in this case, it skips the following process.

次に、図5のS105では、該第一画像データを手像の掌長方向(Y方向)に所定距離(例えば、中指第一関節より先を指先部分として、その20%〜80%(実距離にして5〜20mm程度))だけ平行移動させて得られる画像データを、図4のBに示す第二画像データとする。そして、S106では、図4のCに示すように、両画像データを重ね合わせたときの指先側に現れる非重なり領域を手の挿入方向における先端領域(指先領域)taとして特定する。取得された原画像データを手像の掌長方向に平行移動して重ね合わせることにより、指先領域を非重なり領域として簡単に特定することができる。また、一部の指が閉じて密着していても、丸みを帯びた指先領域は確実に分離して特定することが可能である。   Next, in S105 of FIG. 5, the first image data is moved a predetermined distance in the palm length direction (Y direction) of the hand image (for example, 20% to 80% (actually, with the tip of the middle finger first joint as the fingertip portion). The image data obtained by translating the distance by about 5 to 20 mm) will be referred to as second image data shown in FIG. In S106, as shown in FIG. 4C, a non-overlapping region that appears on the fingertip side when the two image data are superimposed is specified as a tip region (fingertip region) ta in the hand insertion direction. By translating and superimposing the acquired original image data in the palm length direction of the hand image, the fingertip region can be easily specified as a non-overlapping region. In addition, even when some fingers are closed and in close contact, a rounded fingertip region can be reliably separated and specified.

図4のCにおいては、第二画像データBを、第一画像データAを掌長方向(Y方向)にて手首側へ後退移動させて作成しており、第一画像データAの手像指先側に現れる非重なり領域が先端領域(指先領域)として特定される。撮影範囲(ひいてはモニタ15の画面領域)との座標対応関係が保存される第一画像データA上にて指先領域を特定でき、後述の指先点、ひいては、画面領域上の対応座標点の特定処理を簡便に行なうことができる。   In C of FIG. 4, the second image data B is created by moving the first image data A backward in the palm length direction (Y direction) toward the wrist, and the hand image fingertip of the first image data A A non-overlapping region appearing on the side is specified as a tip region (fingertip region). The fingertip region can be specified on the first image data A in which the coordinate correspondence relationship with the imaging range (and thus the screen region of the monitor 15) is stored, and the fingertip point described later, and the corresponding coordinate point specification process on the screen region, which will be described later, is specified. Can be performed easily.

また、第一及び第二画像データはいずれも二値化されており、非重なり領域は、第一画像データと第二画像データとの画像差分を演算することで特定される。これにより、非重なり領域の画素を特定する処理は、第一及び第二画像データの対応する画素間の論理演算に転換できる(具体的には、対応画素間の排他的論理和が0になれば、それを非重なり領域の画素として特定できる)。なお、第一及び第二画像データの非重なり領域は、指の側面部分に細く生ずる場合がある。しかし、このような側面部分は、「1」となる画素のX方向の連続個数が所定値未満となる場合に、それら画素列を「0」反転する処理を行なえば、簡単に除去することができる。   The first and second image data are both binarized, and the non-overlapping area is specified by calculating the image difference between the first image data and the second image data. Thereby, the process of specifying the pixels in the non-overlapping area can be converted into a logical operation between corresponding pixels of the first and second image data (specifically, the exclusive OR between the corresponding pixels can be zero). It can be identified as a pixel in a non-overlapping area). Note that the non-overlapping region of the first and second image data may be narrowly formed on the side surface portion of the finger. However, such a side surface portion can be easily removed by performing a process of inverting those pixel columns by “0” when the number of consecutive “1” pixels in the X direction is less than a predetermined value. it can.

次に、図5のS107においては、上記のように抽出された各指先領域に対し、図4のDに示すような収縮処理が施される。具体的には、値が「1」となっている全ての画素について、これと一定の隣接関係にある画素(具体的には、上下左右の4画素、さらには、斜め隣接する4画素をこれに加えた8画素)に、着目画素と値が反転関係にある画素が1個でも含まれていれば、当該画素の値を「0」反転する処理を行なう。該処理は、必要に応じて複数回繰り返し実施してもよい。   Next, in S107 of FIG. 5, a contraction process as shown in D of FIG. 4 is performed on each fingertip region extracted as described above. Specifically, for all pixels having a value of “1”, pixels that have a certain adjacent relationship with this (specifically, four pixels on the top, bottom, left, and right, and further, four pixels that are diagonally adjacent to each other) If one pixel whose value is inverted with respect to the target pixel is included in the 8 pixels added to the above, a process of inverting the value of the pixel by “0” is performed. This process may be repeated a plurality of times as necessary.

そして、収縮処理後は、画像データ上において個々の先端領域に分離する処理を行なう。すなわち、図8に示すように、画像を所定の方向(例えばx方向)に走査し、「1」となっている画素の途切れが一定数(例えば3ビット)以上生じたか否かにより、同一の先端領域であるか別の先端領域であるかを判別しながら、各画素にラベリング符号(本実施例では、1、2、3‥‥等の数字で表している)を施してゆく。なお、走査2列目以降は、「0」画素の検出状態から「1」画素の検出に転じた時に、その「1」画素を取り囲む例えば8つの画素のラベリング状態を判別し、既に認識済の画素のラベリング符号が検出されれば、これと同一のラベリング符号を施し、何も検出されなければ新たなラベリング符号を施すようにする。そして、異なるラベリング符号が付された画素集合同士は、異なる先端領域として認識することとなる。   Then, after the contraction process, a process of separating the individual tip regions on the image data is performed. That is, as shown in FIG. 8, the image is scanned in a predetermined direction (for example, the x direction), and the same value is determined depending on whether or not a certain number of pixels are interrupted by a certain number (for example, 3 bits). A labeling code (represented by numerals such as 1, 2, 3,... In this embodiment) is applied to each pixel while discriminating between the tip region and another tip region. In the second and subsequent scans, when the detection state of the “0” pixel shifts to the detection of the “1” pixel, the labeling state of, for example, eight pixels surrounding the “1” pixel is discriminated, and already recognized. If a pixel labeling code is detected, the same labeling code is applied, and if nothing is detected, a new labeling code is applied. Then, pixel sets with different labeling codes are recognized as different tip regions.

次に、S108に進み、分離・特定された各先端領域が真の指先領域であるか否かの判定処理を行なう(指先判定処理)。基本となるのは、図7に示すごとく、特定された先端領域taの指幅方向の寸法(以下、単に「幅」とも称する)Lが、一般的な大人の幅寸法を基準に定められた規定範囲(上限値Wth1、下限値Wth2)内に存在することを必要条件として、真の指先領域と判定する処理である。図1に示すように、インパネに配置されたモニタ(表示装置)15を見ながら、車長方向にてその後方側(着座した乗員から見れば手前側)のセンターコンソールC上に配置されたタッチパネル12aの操作入力面102a、ひいては、該操作入力面102a上の操作者の手を下側から撮影する手撮影カメラ12bの撮影範囲102bに対し、該撮影範囲102bの後方縁側から前方に挿入される。従って、手の挿入方向は横長長方形状の撮影範囲102bの長辺と直交する向き(つまり、Y方向)に想定され、指幅方向は操作入力面102aの面内において該手の挿入方向と直交する向き、すなわち、撮影範囲102bの長辺と一致する向き(つまり、X方向)に定められている。つまり、先端領域taの幅はX方向、すなわち、撮影範囲102bの長辺方向に固定的に測定されるようになっている。 Next, the process proceeds to S108, and a determination process is performed as to whether or not each separated tip area is a true fingertip area (fingertip determination process). Basically, as shown in FIG. 7, the dimension L in the finger width direction (hereinafter also simply referred to as “width”) L of the specified tip region ta is determined based on the width dimension of a general adult. This is a process of determining a true fingertip region on the condition that it is within a specified range (upper limit value W th1 , lower limit value W th2 ). As shown in FIG. 1, while looking at a monitor (display device) 15 disposed on the instrument panel, a touch panel disposed on a center console C on the rear side (front side as viewed from a seated passenger) in the vehicle length direction. The operation input surface 102a of 12a, and by extension, the shooting range 102b of the hand shooting camera 12b for shooting the operator's hand on the operation input surface 102a from below is inserted forward from the rear edge side of the shooting range 102b. . Therefore, the insertion direction of the hand is assumed to be in a direction (that is, the Y direction) orthogonal to the long side of the horizontal rectangular imaging range 102b, and the finger width direction is orthogonal to the insertion direction of the hand in the plane of the operation input surface 102a. Direction, i.e., the direction that coincides with the long side of the imaging range 102b (that is, the X direction). That is, the width of the tip region ta is fixedly measured in the X direction, that is, the long side direction of the imaging range 102b.

図6は、指先判定処理の詳細の一例を示すフローチャートである。
S1では、分離・特定された個々の先端領域taの幅Wが特定される。具体的には、先端領域taの個々の構成画素のX座標のうち、最小の値をXmin、最大の値をXmaxとして、W=Xmax−Xminにより計算することができる。S1002では、上記のように特定された先端領域taの幅Wが前述の規定範囲内にあるか否かが判定される。タッチパネル12aはセンターコンソールC上に配置されているが、その脇に着座した運転者や助手席乗員はセンターコンソールCをしばしば物置代わりに利用する。このとき、手以外の物品がタッチパネル12aの操作入力面102a、つまり、撮影範囲102b内に置かれれば、当然、該物品が乗員の手の代わりに撮影される。撮影取得される第一画像と、そのY方向への平行移動により得られる第二画像との差分画像として抽出される先端領域taの幅Wを用いた判定方式を採用すると、書類や本などが置かれた場合は、抽出・特定される先端領域の幅は、一般的な大人の幅寸法を基準に定められた規定範囲の上限値を明らかに上回るので、非指先領域として確実に判定が可能である。また、携帯電話が置かれた場合は、例えば突出したアンテナ部分に由来する第一先端領域の幅が、アンテナが指より明らかに細いため規定範囲の下限値を下回り、非指先領域として判定することができる。
FIG. 6 is a flowchart illustrating an example of details of the fingertip determination process.
In S <b> 1, the width W of each separated tip region ta is specified. Specifically, it can be calculated by W = X max −X min where X min is the minimum value and X max is the maximum value among the X coordinates of the individual constituent pixels of the tip region ta. In S1002, it is determined whether or not the width W of the tip region ta specified as described above is within the specified range. The touch panel 12a is arranged on the center console C, but a driver or a passenger seated on the side of the touch panel 12a often uses the center console C as a storage. At this time, if an article other than the hand is placed in the operation input surface 102a of the touch panel 12a, that is, the photographing range 102b, the article is naturally photographed instead of the hand of the passenger. If a determination method using the width W of the tip region ta extracted as a difference image between the first image captured and acquired and the second image obtained by translation in the Y direction is employed, documents, books, etc. If placed, the width of the tip area that is extracted and specified clearly exceeds the upper limit value of the specified range based on the general adult width dimension, so it can be reliably determined as a non-fingertip area. It is. In addition, when a mobile phone is placed, for example, the width of the first tip region derived from the protruding antenna part is below the lower limit of the specified range because the antenna is clearly narrower than the finger, and determined as a non-fingertip region Can do.

なお、真の手が画像検出されている場合にあって、伸ばした状態の指が1本ないし2本(例えば、人差し指のみ、あるいは人差し指と中指など)であり、残余の指が曲げられた状態(例えば拳状に握った状態)になっている場合、閉じられている部分の先端領域の幅が規定範囲の上限値を超え、伸ばした状態の指については幅が規定範囲内となるようなこともありえる。従って、複数の先端領域が抽出されうる形状の物品に合っては、該複数の先端領域の少なくとも1つについて幅が規定範囲内となっていれば、該先端領域を真の指先領域として判定するように構成することが可能である。   In the case where a true hand is detected, one or two fingers (for example, only the index finger or the index finger and the middle finger) are stretched and the remaining fingers are bent. (For example, when gripped like a fist), the width of the tip region of the closed part exceeds the upper limit of the specified range, and the width of the extended finger is within the specified range It can happen. Therefore, for an article having a shape from which a plurality of tip regions can be extracted, if the width is within a specified range for at least one of the plurality of tip regions, the tip region is determined as a true fingertip region. It can be configured as follows.

次に、非指先領域でありながら、その幅Wが規定範囲内に収まっているために真の指先領域として誤認されうる形状の物品がタッチパネルの入力操作面102b上に置かれる場合がある。例えば、貨幣が入力操作面上に置かれた場合、貨幣の寸法が指幅に近接しているために、収縮処理後の先端領域の幅は規定範囲内となり、このままでは指先領域として誤判定される。指と貨幣の画像上の違いは、指の場合は、指基端側の画像領域が撮影範囲の後端縁(手挿入側の縁)まで伸びる形となるのに対し、貨幣の場合は撮影範囲内に孤立した円形領域となり、その円形領域の後端縁と撮影範囲の後端縁との間が被写体の背景領域(つまり、「0」画素領域)となる点にある。そこで、撮影画像の総面積をSとし、個々の非重なり領域から、撮影範囲の後端縁までの合計距離をdとして、S/dの値を指幅として推定すると、上記のような誤判定を効果的に回避することができる。すなわち、貨幣の場合は、撮影範囲の後端縁側に上記背景領域が介在するために総面積Sが減少する。従って、S/dにより演算された推定指幅値が規定範囲の下限値未満となれば、これを非指先領域として除外することができる。図6のフローチャートでは、S1005とS1006とにおいて上記原理に基づく判定を行なっている。   Next, there is a case where an article having a shape that can be mistaken as a true fingertip region because the width W is within a specified range although it is a non-fingertip region is placed on the input operation surface 102b of the touch panel. For example, when money is placed on the input operation surface, the size of the money is close to the finger width, so the width of the tip area after the contraction process is within the specified range, and it is erroneously determined as the fingertip area as it is. The The difference between the image of a finger and money is that, in the case of a finger, the image area on the base side of the finger extends to the rear edge (edge on the hand insertion side) of the shooting range, whereas in the case of money, the image is taken. This is a circular area isolated within the range, and the point between the rear end edge of the circular area and the rear end edge of the shooting range is the background area of the subject (that is, the “0” pixel area). Therefore, if the total area of the captured image is S, the total distance from each non-overlapping area to the rear edge of the imaging range is d, and the value of S / d is estimated as the finger width, the erroneous determination as described above Can be effectively avoided. That is, in the case of money, the total area S decreases because the background region is interposed on the rear edge side of the photographing range. Therefore, if the estimated finger width value calculated by S / d is less than the lower limit value of the specified range, this can be excluded as a non-fingertip region. In the flowchart of FIG. 6, the determination based on the above principle is performed in S1005 and S1006.

次に、図6のS1007では、S1002及びS1006において除外判定されなかった先端領域taについて代表点を決定する。本実施形態では、領域の幾何学的な重心位置Gを代表点として用いる。演算方法は周知であり、例えば先端領域を構成する全画素のX座標値及びY座標値の各総和を求め。それぞれ画素の個数で除することにより重心位置Gの座標を計算できる。なお、重心位置Gではなく、例えばY座標値が最大となる画素を代表点として採用することも可能である。   Next, in S1007 of FIG. 6, a representative point is determined for the tip region ta that is not determined to be excluded in S1002 and S1006. In the present embodiment, the geometric gravity center position G of the region is used as a representative point. The calculation method is well known. For example, the sum of the X coordinate value and the Y coordinate value of all the pixels constituting the tip region is obtained. The coordinates of the gravity center position G can be calculated by dividing by the number of pixels. Note that, instead of the center-of-gravity position G, for example, the pixel having the maximum Y coordinate value may be used as the representative point.

なお、タッチパネルの入力操作面102bに実際に接触するのは、指先端からX方向に少し下がった指腹付近の領域であるから、図4のFでは、Eで計算された重心位置をY方向へ所定距離オフセットさせ、これを画像指先点Gとして決定する。ただし、Eの重心位置をそのまま画像指先点Gとして用いてもよく、この場合は該Fの処理は不要である。   Note that since the touch panel input operation surface 102b actually comes in contact with the finger pad area slightly lowered in the X direction from the tip of the finger, in FIG. A predetermined distance is offset, and this is determined as the image fingertip point G. However, the barycentric position of E may be used as it is as the image fingertip point G, and in this case, the processing of F is unnecessary.

次に、撮影範囲102bに対する手の位置関係によっては、差分画像を用いた上記アルゴリズムにより決定される代表点が、真の指先点に対応しないケースが生じうる。具体的には、指先部分が撮影範囲の外にはみ出して位置する場合である。撮影範囲102bと、タッチパネルの入力操作面102bと、モニタ15の画面との対応座標範囲が互いに一致している場合は、真の指先位置が撮影範囲102b(ひいては、入力操作面102b及びモニタ15の画面)の外周縁領域に収まっている場合と、指先部分が撮影範囲102bの外にはみ出し、真の指先部分が画像的に途切れている場合とのいずれにおいても、差分画像から特定される先端領域は上記外周縁領域に収まる形となる。そして、指先部分がはみ出す場合についても、指の画像の一部分であることに変わりはなく、領域幅が前記規定範囲内に収まる可能性が高いから、上記外周縁領域に生ずる先端領域を真の指先領域として誤認することにつながる。   Next, depending on the positional relationship of the hand with respect to the shooting range 102b, there may occur a case where the representative point determined by the above algorithm using the difference image does not correspond to the true fingertip point. Specifically, this is a case where the fingertip portion is located outside the imaging range. When the corresponding coordinate ranges of the shooting range 102b, the input operation surface 102b of the touch panel, and the screen of the monitor 15 coincide with each other, the true fingertip position is the shooting range 102b (and thus the input operation surface 102b and the monitor 15). The tip region identified from the difference image in both the case where the image is within the outer peripheral area of the screen) and the case where the fingertip part protrudes outside the imaging range 102b and the true fingertip part is imagewise interrupted. Is in a shape that fits in the outer peripheral region. And even when the fingertip part protrudes, it is still a part of the image of the finger, and it is highly possible that the area width falls within the specified range. This leads to misunderstanding as an area.

そこで、本実施形態においては、撮影範囲102bの有効座標範囲の外周縁領域を表示外撮影領域として、モニタ15の表示画面にかかる有効座標範囲の外側に延出形成する構成が採用されている。画面外にはみ出す指部分はこの表示外撮影領域内に被写体領域を形成するので、差分画像に基づいて特定される先端領域ひいてはその代表点にて特定される撮影指先点もこの表示外撮影領域内に生ずる。他方、図13の右に示すごとく、真の指先が表示外撮影領域内に入り込まず画面の外周縁領域にとどまる場合は、先端領域ひいては撮影指先点も画面内に生ずる。従って、先端領域taが表示外撮影領域102e内に存在している場合はこれを真の指先として認識せず(無効)、表示外撮影領域102e内に存在していない場合は真の指先として認識する(有効)ように処理が可能である。例えば、図14のように、複数の撮影指先点tpが特定される場合も、それぞれ表示外撮影領域102e内に存在するか否かに基づき、有効/無効の判定を個別に行なうことができる。図6のフローチャートでは、S1008〜S1010において上記原理に基づく判定を行なっている。なお、手挿入側となる表示画面のY方向後端縁については、撮影範囲102bの後端縁と一致させ、表示外撮影領域102eを特に形成しない構成とすることも可能である。   Therefore, in the present embodiment, a configuration is adopted in which the outer peripheral area of the effective coordinate range of the imaging range 102b is used as an imaging area outside display that extends outside the effective coordinate range on the display screen of the monitor 15. Since the finger portion that protrudes outside the screen forms a subject area within this non-display shooting area, the tip area specified based on the difference image and the shooting fingertip point specified by the representative point also falls within this non-display shooting area. Occur. On the other hand, as shown on the right in FIG. 13, when the true fingertip does not enter the imaging area outside the display and stays in the outer peripheral area of the screen, the tip area and the imaging fingertip point also appear in the screen. Accordingly, if the tip area ta exists in the non-display shooting area 102e, it is not recognized as a true fingertip (invalid), and if it does not exist in the non-display shooting area 102e, it is recognized as a true fingertip. It is possible to perform processing so as to be (valid). For example, as shown in FIG. 14, even when a plurality of shooting fingertip points tp are specified, it is possible to individually determine validity / invalidity based on whether or not they exist in the non-display shooting area 102e. In the flowchart of FIG. 6, determination based on the above principle is performed in S1008 to S1010. Note that the rear end edge in the Y direction of the display screen on the hand insertion side may coincide with the rear end edge of the imaging range 102b, and the non-display imaging area 102e may not be formed.

なお、先端領域taが真の指先領域であるか否かを判定するアルゴリズムには、上記以外にも種々の方式を採用することができる。例えば、第二画像を得るための第一画像のY方向平行移動距離を一般的な大人の指幅値よりも小さく設定した場合、第一画像と第二画像との差分画像として得られる先端領域taは、X方向寸法W(つまり、幅)がY方向寸法Wよりも大きい横長の領域となりやすい。そこで、先端領域taのX/Yアスペクト比φ(≡W/W)が規定範囲内にあるか否かに基づいて真の指先領域であるか否かを判定することが可能である。例えば、図10左に示す紙や書類の場合はφが極度に大きくなり、同じく右に示す携帯電話のアンテナ(指より細い)については、X方向寸法Wが不足する分だけφの値も小さくなるので、いずれも非指先領域として除外することが可能である。 In addition to the above, various methods can be adopted as an algorithm for determining whether or not the tip region ta is a true fingertip region. For example, when the Y-direction parallel movement distance of the first image for obtaining the second image is set to be smaller than a general adult finger width value, the tip region obtained as a difference image between the first image and the second image ta tends to be a horizontally long region in which the X-direction dimension W X (that is, the width) is larger than the Y-direction dimension W Y. Therefore, it is possible to determine whether or not it is a true fingertip region based on whether or not the X / Y aspect ratio φ (≡W X / W Y ) of the tip region ta is within a specified range. For example, in the case of the paper or document shown on the left in FIG. 10, φ is extremely large, and for the mobile phone antenna shown on the right (thinner than the finger), the value of φ is also reduced by the shortage of the X-direction dimension W X. Since they become smaller, any of them can be excluded as a non-fingertip region.

なお、指がY方向に対して傾いて挿入される場合を考慮し、図16に示すように、先端領域taに外接する平行線対を、角度を変えながら種々生成し、最大となる平行線間距離をWmax、最小となる平行線間距離をWminとして、上記アスペクト比φをWmax/Wminにより算出するようにしてもよい。 In consideration of the case where the finger is inserted with an inclination with respect to the Y direction, as shown in FIG. 16, various parallel line pairs circumscribing the tip region ta are generated while changing the angle, and the maximum parallel line is obtained. The aspect ratio φ may be calculated by W max / W min , where the distance between the lines is W max and the distance between the parallel lines that is the minimum is W min .

また、図17に示すように、撮影画像の被写体領域(「1」画素領域)の総面積をSとし、特定された先端領域(非重なり領域)taの個数をNとして、S/Nの値を平均指面積として推定し、該S/Nが規定範囲内にあるか否かに基づいて、先端領域taが真の指先領域であるか否かを判定することも可能である。これは特に、手が撮影されたとき被写体領域が主として指領域のみにより形成されるよう、撮影領域のY方向寸法が指先端側の一部分のみを包含可能な値に設定されている場合に有効な手法であるといえる。   In addition, as shown in FIG. 17, the total area of the subject area (“1” pixel area) of the captured image is S, and the number of identified tip areas (non-overlapping areas) ta is N. Can be estimated as an average finger area, and it can be determined whether or not the tip region ta is a true fingertip region based on whether or not the S / N is within a specified range. This is particularly effective when the Y-direction dimension of the imaging region is set to a value that can include only a part of the finger tip side so that the subject region is mainly formed only by the finger region when the hand is photographed. It can be said that it is a technique.

図5に戻り、上記のごとくS108の指先判定処理が終了すれば、S109にて、特定された各先端領域のいずれが真の指先領域として判定されたかを調べ、S110において、該真の指先領域についてのみ代表点の座標(重心座標G)を(真の)撮影指先点として記憶し、真の指先領域でないものについては破棄ないし無効化する。   Returning to FIG. 5, when the fingertip determination process in S108 is completed as described above, it is determined in S109 which of the identified tip areas is determined as the true fingertip area, and in S110, the true fingertip area is determined. Only the coordinates of the representative point (centroid coordinates G) are stored as (true) imaging fingertip points, and those that are not true fingertip areas are discarded or invalidated.

次に、ユーザーインターフェースエンジン103eが実現する本発明の種々の実施形態について説明する。図3に示すように、操作ECU10はシリアル通信バス30を介してボデーECU300から、車速センサ301が検出する車速情報を取得し、閾車速(1〜10km/hr、例えば5km/hrに設定される)未満であれば低速走行状態(停車状態)と判定し、閾車速を超えていれば高速走行状態(走行状態)と判定する。   Next, various embodiments of the present invention realized by the user interface engine 103e will be described. As shown in FIG. 3, the operation ECU 10 acquires vehicle speed information detected by the vehicle speed sensor 301 from the body ECU 300 via the serial communication bus 30 and is set to a threshold vehicle speed (1 to 10 km / hr, for example, 5 km / hr). ) Is determined as a low-speed traveling state (stopped state), and if it exceeds the threshold vehicle speed, it is determined as a high-speed traveling state (traveling state).

ユーザーインターフェースエンジン103eのインターフェース仕様データは、低速走行時インターフェース仕様(停車時インターフェース仕様)データと高速走行時インターフェース仕様(走行時インターフェース仕様)データとの2通りが用意されており、停車状態においては前者が、走行状態においては後者がそれぞれ切り替えて使用される。図11は、その第一参考形態を示すものであり、具体的には、走行時インターフェース仕様(右)における有効な操作領域SB,FHWの表示形成数を、停車時インターフェース仕様(左)における有効な操作領域SBの表示形成数よりも少なく設定する例を示すものである。適用対象は、カーナビゲーションシステムの目的地や経由地等を文字入力するための文字入力画面である。   There are two types of interface specification data for the user interface engine 103e: low-speed driving interface specification (stop interface specification) data and high-speed driving interface specification (driving interface specification) data. However, in the running state, the latter is switched and used. FIG. 11 shows the first reference form. Specifically, the number of display operations in the effective operation areas SB and FHW in the running interface specification (right) is the effective number in the stopping interface specification (left). An example in which the number is set to be smaller than the number of display formations in the operation area SB is shown. The application target is a character input screen for inputting characters such as a destination of a car navigation system and a waypoint.

停車時インターフェース仕様では操作領域は、文字入力キーボードKBを構成する個別の文字入力ソフトボタンSBとなっている。画像指先点を希望する文字のソフトボタンに位置決めし、タッチパネル12a上にて対応する位置に(すなわち、ソフトボタンの領域内にタッチ入力点が発生するように)タッチ操作を行なうことで、対応する文字入力がなされ、該当する文字のコードが操作指令情報として出力され、カーナビゲーションシステムに送信される。   In the stop-time interface specification, the operation area is an individual character input soft button SB constituting the character input keyboard KB. The image fingertip point is positioned on the soft button of the desired character, and the touch operation is performed at the corresponding position on the touch panel 12a (that is, the touch input point is generated in the soft button area). Character input is performed, and the code of the corresponding character is output as operation command information and transmitted to the car navigation system.

一方、走行時インターフェース仕様ではキーボードは表示されず、手書き入力を行なうためのフリーハンド入力ウィンドウFHWが操作領域として表示・形成されている。フリーハンド入力ウィンドウFHWは、停車時インターフェース仕様における文字入力ソフトボタンSBよりも大きく形成され、例えば文字入力キーボードKBとほぼ同等の大きさに形成されている。タッチ入力点又は画像指先点のいずれかの時間的変化を描画軌跡としてキャプチャするとともに、該描画軌跡が文字リスト上の個々の文字形状と比較され、マッチングする文字のコードが操作指令情報として出力され、カーナビゲーションシステムに送信される。なお、走行時インターフェース仕様におけるソフトボタンSBは、フリーハンドによる入力途中の履歴を消去する消去ボタンと、フリーハンド入力内容を確定させる確定ボタンとが表示・形成されるにとどまっている。   On the other hand, in the running interface specification, a keyboard is not displayed, and a freehand input window FHW for handwritten input is displayed and formed as an operation area. The freehand input window FHW is formed to be larger than the character input soft button SB in the stop-time interface specification, and is formed to be approximately the same size as the character input keyboard KB, for example. A temporal change of either the touch input point or the image fingertip point is captured as a drawing trajectory, and the drawing trajectory is compared with individual character shapes on the character list, and a matching character code is output as operation command information. Sent to the car navigation system. Note that the soft button SB in the running interface specification only displays and forms a delete button for erasing a history of input during freehand and a confirm button for confirming the freehand input content.

次に、図12は、その第二参考形態を示すものであり、具体的には、走行時インターフェース仕様(右)における有効な操作領域の表示形成寸法を、停車時インターフェース仕様(左)における有効な操作領域の表示形成寸法よりも大きく設定する例を示すものである。適用対象は、カーナビゲーションシステムの目的地を設定するためのメニュー画面である。   Next, FIG. 12 shows the second reference form. Specifically, the display formation dimensions of the effective operation area in the driving interface specification (right) are shown in FIG. An example in which the display area is set to be larger than the display formation size of the operation area is shown. The application target is a menu screen for setting the destination of the car navigation system.

停車時インターフェース仕様では操作領域は個別のメニューボタンSB1となっている。ここでも、画像指先点を希望するメニューのソフトボタンに位置決めし、タッチパネル12a上にて対応する位置に(すなわち、ソフトボタンの領域内にタッチ入力点が発生するように)タッチ操作を行なうことで、対応するメニューが選択され、その内容が操作指令情報としてカーナビゲーションシステムに出力・送信される。   In the interface specification when the vehicle is stopped, the operation area is an individual menu button SB1. Here again, the image fingertip point is positioned on the soft button of the desired menu, and the touch operation is performed at the corresponding position on the touch panel 12a (that is, the touch input point is generated in the soft button region). The corresponding menu is selected, and the contents are output / transmitted as operation command information to the car navigation system.

一方、走行時インターフェース仕様ではメニューボタンSB1の数が減じられるとともに、特定のメニュー(ここでは、目的地履歴)を上位階層とする下位メニューボタン(ここでは、目的地候補)SB2が、停車時インターフェース仕様におけるメニューボタンSB1よりも横長に表示・形成されている。画像指先点を希望するメニューのソフトボタンに位置決めし、タッチパネル12a上にて対応する位置に(すなわち、ソフトボタンの領域内にタッチ入力点が発生するように)タッチ操作を行なうことで、対応するメニューが選択され、その内容が操作指令情報としてカーナビゲーションシステムに出力・送信される。   On the other hand, in the running interface specification, the number of menu buttons SB1 is reduced, and a lower menu button (here, a destination candidate) SB2 having a specific menu (here, destination history) as an upper layer is an interface when stopped. It is displayed and formed horizontally longer than the menu button SB1 in the specification. The image fingertip point is positioned on the soft button of the desired menu, and the touch operation is performed at the corresponding position on the touch panel 12a (that is, the touch input point is generated in the area of the soft button). The menu is selected, and the contents are output and transmitted to the car navigation system as operation command information.

図13は第三参考形態を示すものであり、具体的には、検出された画像指先点Gの数が多いほど操作画面上に表示形成する操作領域の種別を増加さるとともに、走行時インターフェース仕様における操作領域の最大表示形成種別数を、停車時インターフェース仕様における操作領域の最大表示形成種別数よりも小さく設定する例を示す。適用対象は、カーオーディオシステムの再生操作画面である。   FIG. 13 shows a third reference form. Specifically, as the number of detected image fingertip points G increases, the types of operation areas to be displayed and formed on the operation screen are increased, and the running interface specifications are shown. An example is shown in which the maximum number of display formation types in the operation area is set smaller than the maximum number of display formation types in the operation area in the stop-time interface specification. The application target is a playback operation screen of a car audio system.

停車時インターフェース仕様では、操作領域として、検出される画像指先点Gの数が1つの場合は、図示はしていないが再生/停止ボタンP/Sを画像指先点Gに対応する位置に表示する。また、検出される画像指先点Gの数が2つの場合は、図13の上段右に示すように、早送りボタンFF及び逆戻しボタンRFを各画像指先点Gに対応する位置に表示する。さらに、検出される画像指先点Gの数が3つの場合は、図13の上段左に示すように、早送りボタンFF、再生/停止ボタンP/S及び逆戻しボタンRFを各画像指先点Gに対応する位置に表示する。どの場合も、いずれかの指にてタッチパネル12aにタッチ操作を行なうことで、対応するボタンの機能が選択され、その内容が操作指令情報として出力される。ここで、操作領域の最大表示形成種別数は、検出される画像指先点Gの数が3つの場合の「3」である。   In the stop-time interface specification, when the number of detected image fingertip points G is one as the operation area, the play / stop button P / S is displayed at a position corresponding to the image fingertip points G although not shown. . When the number of detected image fingertip points G is two, the fast forward button FF and the reverse button RF are displayed at positions corresponding to the image fingertip points G as shown in the upper right of FIG. Furthermore, when the number of detected image fingertip points G is 3, as shown in the upper left of FIG. 13, the fast forward button FF, the play / stop button P / S, and the reverse button RF are set to each image fingertip point G. Display at the corresponding position. In any case, by performing a touch operation on the touch panel 12a with any finger, the function of the corresponding button is selected, and the content is output as operation command information. Here, the maximum number of display formation types in the operation area is “3” when the number of detected image fingertip points G is three.

一方、走行時インターフェース仕様では、検出される画像指先点Gの数とは無関係に、有効となる操作領域は再生/停止ボタンP/Sのみとされる(つまり、最大表示形成種別数は「1」)。図13の下段左においては、検出される画像指先点Gの数が3つであるが、操作領域をなす再生/停止ボタンP/Sは、画像指先点Gから外れた位置に1つのみ表示形成されている。また、図13の下段中央においては、各画像指先点Gに再生/停止ボタンP/Sを個別に(つまり、画像指先点Gの数だけ)表示している。つまり、操作領域は画像指先点Gに対応して複数表示されているが、操作領域の種別としては「1」であることに変わりがない。いずれも、指示体画像FIは各画像指先点Gに個別に表示されている。他方、図13の下段右においては、画像指先点Gが複数検出されていても、指示体画像FIは1つのみを表示し、操作領域もこれに対応して1つのみを表示形成している。いずれの場合も、どの指でタッチ操作を行なっても再生/停止ボタンP/Sのみが操作される。   On the other hand, in the running interface specification, regardless of the number of detected image fingertip points G, the effective operation area is only the play / stop button P / S (that is, the maximum number of display formation types is “1”). "). In the lower left of FIG. 13, the number of detected image fingertip points G is three, but only one play / stop button P / S forming the operation area is displayed at a position off the image fingertip points G. Is formed. In the lower center of FIG. 13, the play / stop button P / S is individually displayed on each image fingertip point G (that is, the number of image fingertip points G). That is, a plurality of operation areas are displayed corresponding to the image fingertip point G, but the operation area type is still “1”. In any case, the indicator image FI is individually displayed at each image fingertip point G. On the other hand, in the lower right of FIG. 13, even if a plurality of image fingertip points G are detected, only one indicator image FI is displayed, and only one operation region is displayed correspondingly. Yes. In either case, only the play / stop button P / S is operated regardless of which finger is used to perform the touch operation.

図14は、第四参考形態を示すものである。適用対象はカーオーディオシステムの選曲画面であり、再生対象となるオーディオファイル群は、アルバム(第一階層メニュータイトル)毎に複数の収録曲(第二階層メニュータイトル)がまとめられた階層メニュー構造を有する。現在選択中のアルバムのタイトル画像は現在アルバムウィンドウAW(画面上にて有効となる操作領域である)に表示され、対応するアルバム名が操作指令出力、すなわちアルバム選択情報として出力される。この実施形態では、前後に配列するアルバム群を示す準備アルバムウィンドウ群AW’が、現在アルバムウィンドウAWの左右に(部分的に重なるように)連なって表示・形成されている。また、現在選択中のアルバム名はアルバム名ウィンドウATWに表示される。   FIG. 14 shows a fourth reference embodiment. The application target is the car audio system music selection screen, and the audio file group to be played has a hierarchical menu structure in which multiple recorded songs (second hierarchical menu title) are grouped for each album (first hierarchical menu title). Have. The title image of the currently selected album is displayed in the current album window AW (an operation area that is valid on the screen), and the corresponding album name is output as an operation command output, that is, album selection information. In this embodiment, a preparation album window group AW ′ indicating album groups arranged in front and back is displayed and formed in a row on the left and right sides of the album window AW (partially overlapping). The album name currently selected is displayed in the album name window ATW.

該画面上では、タッチ入力装置12の操作面102bに沿うドラッグ操作が検出される(ここでは、タッチ入力点TPの時間変化でドラッグ操作を検出しているが、撮影指先点の変化でドラッグ操作を検出してもよい)。そして、アルバムウィンドウ群AW,AW’の配列方向にドラッグ操作を行なうと、準備アルバムウィンドウ群AW’に対応するアルバムのタイトル画像が現在アルバムウィンドウAWに順次切り替え表示される(これに合わせ、アルバム名ウィンドウATWに表示されるアルバム名も順次切り替わる)。なお、ドラッグ操作の向きが変われば、アルバムの切替え方向も逆とされる。   On the screen, a drag operation along the operation surface 102b of the touch input device 12 is detected (here, the drag operation is detected by the time change of the touch input point TP, but the drag operation is detected by the change of the photographing fingertip point. May be detected). Then, when a drag operation is performed in the arrangement direction of the album window groups AW and AW ′, the album title images corresponding to the prepared album window group AW ′ are sequentially switched and displayed in the current album window AW (according to this, the album name is displayed). The album names displayed in the window ATW are also sequentially switched). If the direction of the drag operation changes, the album switching direction is also reversed.

そして、停車時インターフェース仕様においては、図14の上に示すように、1回のドラッグ操作の継続中はアルバムのタイトル画像(操作領域)が連続的に切り替わる。なお、ロックマークURMが、連続切替え可能であることを示す「開錠」の形態で合わせて表示されている。他方、走行時インターフェース仕様においては、1回のドラッグ操作が生ずる毎にアルバムのタイトル画像(操作領域)が1つのみ(つまり、断続的に)切り替わる。ロックマークURMは、連続切替え不能であることを示す「施錠」の形態で表示されている。   In the stop-time interface specification, as shown in the upper part of FIG. 14, the album title image (operation area) is continuously switched while one drag operation is continued. The lock mark URM is also displayed in the form of “unlocked” indicating that continuous switching is possible. On the other hand, in the running interface specification, only one title image (operation area) of the album is switched (that is, intermittently) every time a drag operation occurs. The lock mark URM is displayed in the form of “locking” indicating that continuous switching is impossible.

図15は、第五参考形態を示すものである。図14にて、現在アルバムウィンドウAWはタッチ操作を行なうと、現在選択中のアルバムの収録曲リストウィンドウLWが表示される。該リスト上の個々の曲名表示エリアは、それぞれ曲選択のためのソフトボタンを形成し、タッチ操作により操作指令出力、すなわち選曲情報として出力される。収録曲リストウィンドウLW上で曲名表示エリアの配列方向(ここでは、上下方向)にドラッグ操作を行なうと、収録曲リストウィンドウLW内の曲名表示エリアが順次対応する向きにスクロールされる。停車時インターフェース仕様においては、図15の上に示すように、1回のドラッグ操作の継続中は曲名表示エリアが連続的に切り替わるようにスクロールされる。他方、走行時インターフェース仕様においては、図15の下に示すように、タッチ操作が生ずる毎に、画面上の方向マークBAのうちタッチ入力点に近い側に位置するものが示す向きに、選択中の曲が1つのみ移動する(つまり、対応する方向マークBA側において現在演奏中の曲の次の曲に切り替えて再生処理が行なわれる)。   FIG. 15 shows a fifth reference embodiment. In FIG. 14, when the current album window AW is touched, the recorded song list window LW of the currently selected album is displayed. Each song name display area on the list forms a soft button for song selection, and is output as an operation command output, that is, music selection information by a touch operation. When a drag operation is performed in the arrangement direction (in this case, the vertical direction) of the song title display area on the recorded song list window LW, the song title display area in the recorded song list window LW is scrolled sequentially in the corresponding direction. In the stop-time interface specification, as shown in the upper part of FIG. 15, the scroll is performed so that the music title display area is continuously switched while one drag operation is continued. On the other hand, in the running interface specification, as shown in the lower part of FIG. 15, every time a touch operation occurs, the direction mark BA on the screen closer to the touch input point is selected in the direction indicated. Is moved by one (that is, reproduction processing is performed by switching to the next song of the currently played song on the corresponding direction mark BA side).

図16は第六参考形態を示すものである。適用対象となる電子機器はここではエアコンである。図16左は停車時インターフェース仕様を示すもので、複数の操作領域としてエアコンの種々のモード切替操作を行なうためのモード切替ボタンSBが表示形成されている。これらは、いずれかのモード切替ボタンSB内にタッチ入力点が検出されれば、対応するモードの切替信号が第二操作指令情報として出力される。一方、画面内には、設定温度の切替え操作領域GA1と風量の切替え操作領域GA2とが形成されている。これらはいずれも、領域内にて規定の方向にドラッグ操作(操作動作パターン:ジェスチャ)を行なうことで、そのタッチ入力点ないし画像指先点の位置変化量に応じて、設定温度ないし風量が操作に対応する向きに連続的に変更され、その変更内容を示す情報が第一操作指令情報として出力される(つまり、第一操作指令情報と第二操作指令情報との双方が能動化されている)。また、図16右は走行時インターフェース仕様を示すもので、モード切替ボタンSBが省略(あるいは無効化)され、設定温度の切替え操作領域GA1と風量の切替え操作領域GA2のみが形成されている(つまり、第一操作指令情報のみが能動化されている)。   FIG. 16 shows a sixth reference embodiment. The electronic device to be applied here is an air conditioner. The left side of FIG. 16 shows an interface specification when the vehicle is stopped, and a mode switching button SB for performing various mode switching operations of the air conditioner is displayed as a plurality of operation areas. If a touch input point is detected in any of the mode switching buttons SB, a corresponding mode switching signal is output as second operation command information. On the other hand, a set temperature switching operation area GA1 and an air flow switching operation area GA2 are formed in the screen. In any of these cases, by performing a drag operation (operation operation pattern: gesture) in a specified direction within the region, the set temperature or the air volume can be operated according to the position change amount of the touch input point or the image fingertip point. It is continuously changed to the corresponding direction, and information indicating the change contents is output as the first operation command information (that is, both the first operation command information and the second operation command information are activated). . Further, the right side of FIG. 16 shows the travel interface specifications, the mode switching button SB is omitted (or invalidated), and only the set temperature switching operation area GA1 and the air volume switching operation area GA2 are formed (that is, Only the first operation command information is activated).

次に、図17は、本発明の第一にかかる実施形態を示すものであり、適用対象は、カーナビゲーションシステムの目的地を設定するためのメニュー画面である。操作領域は個別のメニューボタンSB1となっており、画像指先点を希望するメニューのソフトボタンに位置決めし、タッチパネル12a上にて対応する位置にタッチ操作を行なうことで、対応するメニューが選択され、その内容が操作指令情報としてカーナビゲーションシステムに出力・送信される。図17左は撮影指先点が複数個同時に検出されている場合の、同じく右は撮影指先点が1個のみ検出されている場合のインターフェース使用を示すものであり、複数個同時に検出されている場合のメニューボタンSBSの表示形成数が、1個のみ検出されている場合のメニューボタンSBLの表示形成数よりも多く設定されている。なお、後者においては、メニューボタンSB1の表示形成数が少なくなるに伴ない、個々のメニューボタンSB1の形成寸法が拡大されている。   Next, FIG. 17 shows the first embodiment of the present invention, and the application target is a menu screen for setting the destination of the car navigation system. The operation area is an individual menu button SB1, and the image fingertip point is positioned on the soft button of the desired menu, and the corresponding menu is selected by touching the corresponding position on the touch panel 12a. The contents are output and transmitted to the car navigation system as operation command information. The left side of FIG. 17 shows the use of the interface when a plurality of shooting fingertip points are detected simultaneously, and the right side shows the use of the interface when only one shooting fingertip point is detected. The number of display formations of the menu button SBS is set to be larger than the number of display formations of the menu button SBL when only one is detected. In the latter case, as the number of display formations of the menu button SB1 decreases, the formation size of each menu button SB1 is enlarged.

図18〜図20は、本発明の第二にかかる第一実施形態を示すものであり、撮影指先点が検出された場合に、タッチ入力装置12へのタッチ操作が同時に検出されているか否かに応じてユーザーインターフェースエンジン103eのインターフェース仕様が切り替わるようになっている。適用対象は、カーナビゲーションシステムの地図表示画面であり、地図表示領域MAとスクロールボタンSBとが形成されている。図18に示すように、このスクロールボタンSBにタッチ操作することで、地図表示領域MAにおける地図のスクロール操作が可能となる。   18 to 20 show a first embodiment according to the second aspect of the present invention, and whether or not a touch operation on the touch input device 12 is detected at the same time when a photographing fingertip point is detected. Accordingly, the interface specification of the user interface engine 103e is switched. The application target is a map display screen of a car navigation system, and a map display area MA and scroll buttons SB are formed. As shown in FIG. 18, a map scroll operation in the map display area MA can be performed by touching the scroll button SB.

図19は、どれか1本の指により地図表示領域MA上にタッチを伴なうドラッグ操作を加えたときのインターフェース仕様を示しており、この場合は、地図表示領域MAにて地図がドラッグ操作方向に第一速度Vでスクロールされる。一方、図20は、地図表示領域MA上にタッチを伴なわない(つまり、撮影指先点Gのみが特定される状態での)ドラッグ操作を加えたときのインターフェース仕様を示している。このドラッグ操作は、複数本の指の撮影指先点Gが検出されることを考慮して、最初に検出された撮影指先点Gの追尾か、撮影指先点の検出個数の時間的変化(0→1→2→3→2→1→1)のどちらかで検出が可能である。該仕様では、地図表示領域MAにて地図がドラッグ操作方向に、前述の第一速度Vよりも大きい第二速度Vにてスクロールされる。 FIG. 19 shows an interface specification when a drag operation with a touch is applied to the map display area MA with any one finger. In this case, the map is dragged in the map display area MA. It is scrolled at a first speed V 1 in the direction. On the other hand, FIG. 20 shows the interface specifications when a drag operation is performed without touching the map display area MA (that is, in a state where only the photographing fingertip point G is specified). In this drag operation, taking into account that the shooting fingertip points G of a plurality of fingers are detected, tracking of the first detected shooting fingertip point G or temporal change in the number of detected shooting fingertip points (0 → Detection can be performed in any of 1 → 2 → 3 → 2 → 1 → 1). In the specification, the map is scrolled in the drag operation direction in the map display area MA at the second speed V 1 larger than the first speed V 1 described above.

図21〜図23は、本発明の第二にかかる第二実施形態を示すものであり、適用対象は図14及び図15と同様のカーオーディオシステムの選曲画面である。図21に示すように、現在アルバムウィンドウAWと準備アルバムウィンドウ群AW’とが図14と同様に表示形成されており、また、アルバムの収録曲リストウィンドウLWが現在アルバムウィンドウAWの下側に合わせて表示されている。図22は、地図表示領域MA上にタッチを伴なわない(つまり、撮影指先点Gのみが特定される状態での)ドラッグ操作を行なう場合のインターフェース仕様を示すものである。アルバムウィンドウ群AW,AW’の配列方向に該ドラッグ操作を行なうことにより、準備アルバムウィンドウ群AW’に対応するアルバムのタイトル画像が現在アルバムウィンドウAWに順次切り替え表示される(これに合わせ、収録曲リストウィンドウLWに表示される収録曲も順次切り替わる)。なお、ドラッグ操作の向きが変われば、アルバムの切替え方向も逆とされる。また、図23は、タッチ操作を行なった場合のインターフェース仕様を示すものである。収録曲リストウィンドウLW内の曲名表示エリアにタッチすれば、タッチした曲名の演奏に切り替わる。なお、現在アルバムウィンドウAWにタッチしたとき、現在選択中のものの次の曲に演奏が切り替わるように構成してもよい。   FIGS. 21 to 23 show a second embodiment according to the second aspect of the present invention, and the application target is a music selection screen of the car audio system similar to FIGS. 14 and 15. As shown in FIG. 21, the current album window AW and the prepared album window group AW ′ are displayed and formed in the same manner as in FIG. 14, and the recorded song list window LW of the album is aligned with the lower side of the current album window AW. Is displayed. FIG. 22 shows an interface specification when a drag operation is performed without a touch on the map display area MA (that is, in a state where only the photographing fingertip point G is specified). By performing the drag operation in the arrangement direction of the album window groups AW and AW ′, the title images of the albums corresponding to the prepared album window group AW ′ are sequentially switched and displayed on the current album window AW (according to this, the recorded music is recorded). The recorded songs displayed in the list window LW are also switched sequentially). If the direction of the drag operation changes, the album switching direction is also reversed. FIG. 23 shows interface specifications when a touch operation is performed. If the song name display area in the recorded song list window LW is touched, the performance of the touched song name is switched. Note that when the current album window AW is touched, the performance may be switched to the next song of the currently selected one.

1 操作装置
10 操作ECU
12 入力部
12a タッチ入力装置
12b 手撮影カメラ(撮影装置)
15 画像表示装置
101 CPU(撮影指先点検出手段、指示体画像表示制御手段、作画面表示制御手段)
103e ユーザーインターフェースエンジン
301 車速センサ(走行状態検出手段)
SF、SI 指示体画像
tp タッチ入力点
G 撮影指先点
1 operation device 10 operation ECU
12 Input unit 12a Touch input device 12b Hand-held camera (shooting device)
15 Image display device 101 CPU (shooting fingertip point detection means, pointer image display control means, screen creation display control means)
103e User interface engine 301 Vehicle speed sensor (traveling state detecting means)
SF, SI Indicator image tp Touch input point G Shooting fingertip point

Claims (5)

車載電子機器の操作入力を行なうために車両に搭載して使用される操作装置であって、
操作者の指先によるタッチ操作を受け付ける操作面を有し、前記タッチ操作によるタッチ入力点を検出するタッチ入力装置と、
前記操作面と一義的な座標対応関係を有する撮影範囲を有し、該操作面に接近する前記操作者の手を撮影する撮影装置と、
前記撮影装置が撮影取得する手画像データに基づき前記手の指先点を撮影指先点として複数同時に検出可能に構成された撮影指先点検出手段と、
前記操作面ならびに前記撮影範囲と一義的な座標対応関係を有する表示画面を有した画像表示装置と、
前記画像表示装置に対し前記指先点を指示する指示体画像を前記表示画面上に表示させる指示体画像表示制御手段と、
前記画像表示装置上に、操作対象となる車載電子機器に固有の操作画面を表示する操作画面表示制御手段と、
前記タッチ入力点と前記撮影指先点との一方または双方による前記操作画面上での指示入力状態と前記車載電子機器への操作指令情報における出力内容との関係が、予め定められたインターフェース仕様として設定され、前記操作画面上での前記指示入力状態に応じて前記インターフェース仕様に基づき前記操作指令情報を出力するユーザーインターフェースエンジンと、
前記撮影指先点検出手段が検出する前記撮影指先点の個数に応じて前記ユーザーインターフェースエンジンの前記インターフェース仕様を変更するインターフェース仕様変更手段と、
を備えたことを特徴とする車載用電子機器操作装置。
An operating device that is mounted on a vehicle and used to input operation of an in-vehicle electronic device,
A touch input device that has an operation surface that accepts a touch operation by a fingertip of an operator and detects a touch input point by the touch operation;
An imaging device that has an imaging range having a unique coordinate correspondence with the operation surface and that captures the operator's hand approaching the operation surface;
An imaging fingertip point detection unit configured to be capable of simultaneously detecting a plurality of fingertip points of the hand as imaging fingertip points based on hand image data acquired and acquired by the imaging device;
An image display device having a display screen having a unique coordinate correspondence with the operation surface and the imaging range;
A pointer image display control means for displaying a pointer image indicating the fingertip point on the display screen with respect to the image display device;
On the image display device, an operation screen display control means for displaying an operation screen unique to the in-vehicle electronic device to be operated,
A relationship between an instruction input state on the operation screen by one or both of the touch input point and the photographing fingertip point and an output content in the operation command information to the in-vehicle electronic device is set as a predetermined interface specification A user interface engine that outputs the operation command information based on the interface specifications according to the instruction input state on the operation screen;
Interface specification changing means for changing the interface specification of the user interface engine according to the number of the shooting fingertip points detected by the shooting fingertip point detection means;
An in-vehicle electronic device operating device comprising:
前記操作画面表示制御手段は、互いに異なる操作指令出力を行なうための複数の操作領域を前記操作画面上に表示形成するものであり、
前記インターフェース仕様変更手段は、前記撮影指先点検出手段が検出する前記撮影指先点の数が複数個の場合の有効な前記操作領域の表示形成数を、同じく前記撮影指先点の数が1個の場合の有効な前記操作領域の表示形成数よりも多く設定する請求項1記載の車載用電子機器操作装置。
The operation screen display control means displays a plurality of operation areas for performing different operation command outputs on the operation screen,
The interface specification changing unit is configured to display the number of effective display areas of the operation area when the number of the shooting fingertip points detected by the shooting fingertip point detection unit is plural, and the number of the shooting fingertip points is also one. The in-vehicle electronic device operating device according to claim 1, wherein the operating device is set to be larger than the effective number of display formations in the operation area.
車載電子機器の操作入力を行なうために車両に搭載して使用される操作装置であって、
操作者の指先によるタッチ操作を受け付ける操作面を有し、前記タッチ操作によるタッチ入力点を検出するタッチ入力装置と、
前記操作面と一義的な座標対応関係を有する撮影範囲を有し、該操作面に接近する前記操作者の手を撮影する撮影装置と、
前記撮影装置が撮影取得する手画像データに基づき前記手の指先点を撮影指先点として検出する撮影指先点検出手段と、
前記操作面ならびに前記撮影範囲と一義的な座標対応関係を有する表示画面を有した画像表示装置と、
前記画像表示装置に対し前記指先点を指示する指示体画像を前記表示画面上に表示させる指示体画像表示制御手段と、
前記画像表示装置上に、操作対象となる車載電子機器に固有の操作画面を表示する操作画面表示制御手段と、
前記タッチ入力点と前記撮影指先点との一方または双方による前記操作画面上での指示入力状態と前記車載電子機器への操作指令情報における出力内容との関係が、予め定められたインターフェース仕様として設定され、前記操作画面上での前記指示入力状態に応じて前記インターフェース仕様に基づき前記操作指令情報を出力するユーザーインターフェースエンジンと、
前記撮影指先点が検出された場合に、前記タッチ入力装置へのタッチ操作が同時に検出されているか否かに応じて前記ユーザーインターフェースエンジンの前記インターフェース仕様を変更するインターフェース仕様変更手段と、
を備えたことを特徴とする車載用電子機器操作装置。
An operating device that is mounted on a vehicle and used to input operation of an in-vehicle electronic device,
A touch input device that has an operation surface that accepts a touch operation by a fingertip of an operator and detects a touch input point by the touch operation;
An imaging device that has an imaging range having a unique coordinate correspondence with the operation surface and that captures the operator's hand approaching the operation surface;
Photographing fingertip point detecting means for detecting the fingertip point of the hand as a photographing fingertip point based on hand image data acquired by the photographing device;
An image display device having a display screen having a unique coordinate correspondence with the operation surface and the imaging range;
A pointer image display control means for displaying a pointer image indicating the fingertip point on the display screen with respect to the image display device;
On the image display device, an operation screen display control means for displaying an operation screen unique to the in-vehicle electronic device to be operated,
A relationship between an instruction input state on the operation screen by one or both of the touch input point and the photographing fingertip point and an output content in the operation command information to the in-vehicle electronic device is set as a predetermined interface specification A user interface engine that outputs the operation command information based on the interface specifications according to the instruction input state on the operation screen;
Interface specification changing means for changing the interface specification of the user interface engine according to whether or not a touch operation on the touch input device is simultaneously detected when the photographing fingertip point is detected;
An in-vehicle electronic device operating device comprising:
前記操作画面表示制御手段は、前記タッチ入力装置の前記操作面に沿うドラッグ操作を検出して、前記画像表示装置の画面上に表示中の画像情報を該ドラッグ操作に対応する向きにスクロール表示処理するものであり、
前記インターフェース仕様変更手段は、前記撮影指先点とともに前記タッチ操作が検出されている場合の前記画像情報のスクロール速度を、前記タッチ操作が検出されていない場合のスクロール速度よりも小さく設定する請求項3記載の車載用電子機器操作装置。
The operation screen display control means detects a drag operation along the operation surface of the touch input device, and scrolls display processing of image information being displayed on the screen of the image display device in a direction corresponding to the drag operation. Is what
The interface specification changing means sets a scroll speed of the image information when the touch operation is detected together with the photographing fingertip point to be smaller than a scroll speed when the touch operation is not detected. The vehicle-mounted electronic device operating device as described.
前記操作画面表示制御手段は、前記タッチ入力装置の前記操作面に沿うドラッグ操作を検出して、前記画像表示装置の画面上に表示中の階層型の情報出力メニューをスクロール表示処理するものであり、
前記インターフェース仕様変更手段は、前記タッチ操作が検出されている場合と、前記タッチ操作が検出されていない場合とで、前記情報出力メニューの互いに異なる階層をスクロール表示処理するものである請求項3記載の車載用電子機器操作装置。
The operation screen display control means detects a drag operation along the operation surface of the touch input device, and scrolls and displays a hierarchical information output menu being displayed on the screen of the image display device. ,
4. The interface specification changing means performs scroll display processing on different levels of the information output menu depending on whether the touch operation is detected or not detected. In-vehicle electronic device operating device.
JP2011114556A 2011-05-23 2011-05-23 In-vehicle electronic device operation device Expired - Fee Related JP5311080B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011114556A JP5311080B2 (en) 2011-05-23 2011-05-23 In-vehicle electronic device operation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011114556A JP5311080B2 (en) 2011-05-23 2011-05-23 In-vehicle electronic device operation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009111401A Division JP4840620B2 (en) 2009-04-30 2009-04-30 In-vehicle electronic device operation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013093919A Division JP5472842B2 (en) 2013-04-26 2013-04-26 Vehicle control device

Publications (2)

Publication Number Publication Date
JP2011222031A true JP2011222031A (en) 2011-11-04
JP5311080B2 JP5311080B2 (en) 2013-10-09

Family

ID=45038864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011114556A Expired - Fee Related JP5311080B2 (en) 2011-05-23 2011-05-23 In-vehicle electronic device operation device

Country Status (1)

Country Link
JP (1) JP5311080B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105270289A (en) * 2014-06-13 2016-01-27 大众汽车有限公司 User interface and method for adjusting a setting of a means of transport by means of a display unit of a user interface
US9864484B2 (en) 2013-11-13 2018-01-09 Hyundai Motor Company Blind control system for a vehicle
JP2018103834A (en) * 2016-12-27 2018-07-05 アルパイン株式会社 On-vehicle system
JP2019089477A (en) * 2017-11-15 2019-06-13 株式会社デンソー Input device
JP2020086998A (en) * 2018-11-27 2020-06-04 ローム株式会社 Input device and automobile

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876926A (en) * 1994-09-02 1996-03-22 Brother Ind Ltd Picture display device
JPH08211979A (en) * 1995-02-02 1996-08-20 Canon Inc Hand shake input device and method
JPH0935066A (en) * 1995-07-25 1997-02-07 Hitachi Ltd Information processor with hand shape recognizing function
JPH11102274A (en) * 1997-09-25 1999-04-13 Nec Corp Scroll device
JP2000222130A (en) * 1999-02-02 2000-08-11 Toshiba Corp Input device and method and storage medium
JP2005339420A (en) * 2004-05-31 2005-12-08 Sony Corp On-vehicle device, information providing method for on-vehicle device, program for information providing method for on-vehicle device, and storage medium recording the program for information providing method for on-vehicle device
JP2006104132A (en) * 2004-10-06 2006-04-20 Toppan Printing Co Ltd Organic metal complex, and luminous material, and luminous element
JP2006162267A (en) * 2004-12-02 2006-06-22 Denso Corp Navigation system for car
JP2007236008A (en) * 2007-06-18 2007-09-13 Fujifilm Corp Camera with image display
JP2008234594A (en) * 2007-03-23 2008-10-02 Denso Corp Operation input device
JP2008250774A (en) * 2007-03-30 2008-10-16 Denso Corp Information equipment operation device
JP2008257454A (en) * 2007-04-04 2008-10-23 Toshiba Matsushita Display Technology Co Ltd Display device, image data processing method and image data processing program
JP2009042796A (en) * 2005-11-25 2009-02-26 Panasonic Corp Gesture input device and method

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876926A (en) * 1994-09-02 1996-03-22 Brother Ind Ltd Picture display device
JPH08211979A (en) * 1995-02-02 1996-08-20 Canon Inc Hand shake input device and method
JPH0935066A (en) * 1995-07-25 1997-02-07 Hitachi Ltd Information processor with hand shape recognizing function
JPH11102274A (en) * 1997-09-25 1999-04-13 Nec Corp Scroll device
JP2000222130A (en) * 1999-02-02 2000-08-11 Toshiba Corp Input device and method and storage medium
JP2005339420A (en) * 2004-05-31 2005-12-08 Sony Corp On-vehicle device, information providing method for on-vehicle device, program for information providing method for on-vehicle device, and storage medium recording the program for information providing method for on-vehicle device
JP2006104132A (en) * 2004-10-06 2006-04-20 Toppan Printing Co Ltd Organic metal complex, and luminous material, and luminous element
JP2006162267A (en) * 2004-12-02 2006-06-22 Denso Corp Navigation system for car
JP2009042796A (en) * 2005-11-25 2009-02-26 Panasonic Corp Gesture input device and method
JP2008234594A (en) * 2007-03-23 2008-10-02 Denso Corp Operation input device
JP2008250774A (en) * 2007-03-30 2008-10-16 Denso Corp Information equipment operation device
JP2008257454A (en) * 2007-04-04 2008-10-23 Toshiba Matsushita Display Technology Co Ltd Display device, image data processing method and image data processing program
JP2007236008A (en) * 2007-06-18 2007-09-13 Fujifilm Corp Camera with image display

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9864484B2 (en) 2013-11-13 2018-01-09 Hyundai Motor Company Blind control system for a vehicle
CN105270289A (en) * 2014-06-13 2016-01-27 大众汽车有限公司 User interface and method for adjusting a setting of a means of transport by means of a display unit of a user interface
CN105270289B (en) * 2014-06-13 2019-01-18 大众汽车有限公司 The method of user interface and the setting for the display unit adjustment traveler by user interface
JP2018103834A (en) * 2016-12-27 2018-07-05 アルパイン株式会社 On-vehicle system
JP2019089477A (en) * 2017-11-15 2019-06-13 株式会社デンソー Input device
JP2020086998A (en) * 2018-11-27 2020-06-04 ローム株式会社 Input device and automobile
JP7280032B2 (en) 2018-11-27 2023-05-23 ローム株式会社 input devices, automobiles

Also Published As

Publication number Publication date
JP5311080B2 (en) 2013-10-09

Similar Documents

Publication Publication Date Title
JP4840620B2 (en) In-vehicle electronic device operation device
US11003304B2 (en) Information display terminal, information display method and program
JP4771183B2 (en) Operating device
US11360551B2 (en) Method for displaying user interface of head-mounted display device
JP4605170B2 (en) Operation input device
KR101367593B1 (en) Interactive operating device and method for operating the interactive operating device
US20090002342A1 (en) Information Processing Device
US20100079413A1 (en) Control device
US20110029185A1 (en) Vehicular manipulation input apparatus
JP2008210348A (en) Image display device
US20150234572A1 (en) Information display device and display information operation method
JP5311080B2 (en) In-vehicle electronic device operation device
JP4626860B2 (en) Operating device
JP2009157908A (en) Information display terminal, information display method, and program
US9639167B2 (en) Control method of electronic apparatus having non-contact gesture sensitive region
JP6144501B2 (en) Display device and display method
JP5472842B2 (en) Vehicle control device
CN109923508A (en) For running the method and operating system of operating system
JP2010083206A (en) Device for operating on-vehicle electronic appliance
RU2410259C2 (en) Interactive control device and method of operating interactive control device
WO2020073729A1 (en) Information processing method and apparatus, and terminal device and storage medium
JP2010072840A (en) Image display method, image display device, and operation device using the same
JP2017197015A (en) On-board information processing system
WO2017188098A1 (en) Vehicle-mounted information processing system
JP6315443B2 (en) Input device, input detection method for multi-touch operation, and input detection program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121003

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130618

R151 Written notification of patent or utility model registration

Ref document number: 5311080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees