JP5257779B2 - Display method, display device, and operation input device - Google Patents

Display method, display device, and operation input device Download PDF

Info

Publication number
JP5257779B2
JP5257779B2 JP2009021003A JP2009021003A JP5257779B2 JP 5257779 B2 JP5257779 B2 JP 5257779B2 JP 2009021003 A JP2009021003 A JP 2009021003A JP 2009021003 A JP2009021003 A JP 2009021003A JP 5257779 B2 JP5257779 B2 JP 5257779B2
Authority
JP
Japan
Prior art keywords
finger
tracking
specified
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009021003A
Other languages
Japanese (ja)
Other versions
JP2010140458A (en
Inventor
伸二 丹羽
正広 伊藤
毅 川島
一郎 赤堀
岳史 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2009021003A priority Critical patent/JP5257779B2/en
Application filed by Denso Corp filed Critical Denso Corp
Priority to US12/866,969 priority patent/US20110029185A1/en
Priority to EP13192331.0A priority patent/EP2700528A3/en
Priority to CN2009801095824A priority patent/CN101977796B/en
Priority to KR1020107021928A priority patent/KR101267378B1/en
Priority to PCT/JP2009/001213 priority patent/WO2009116285A1/en
Priority to KR1020127027535A priority patent/KR101297144B1/en
Priority to EP09723615.2A priority patent/EP2258587A4/en
Priority to CN201210488034.0A priority patent/CN103076949B/en
Publication of JP2010140458A publication Critical patent/JP2010140458A/en
Application granted granted Critical
Publication of JP5257779B2 publication Critical patent/JP5257779B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、手指に対応する画像を別の画像に重畳ないし合成する形で表示する表示方法と、当該表示方法を採用してなる表示装置、さらには、当該表示装置を備えてなる操作入力装置に関する。   The present invention relates to a display method for displaying an image corresponding to a finger in a form superimposed or synthesized on another image, a display device adopting the display method, and an operation input device including the display device About.

近年では、操作入力装置(特許文献1)として遠隔的に機器操作を行う操作入力装置が開発されている。このような操作入力装置は、操作画面(メイン画面)を表示する表示装置とは別に、操作者の手元に遠隔操作部を設け、さらに、その遠隔操作部を操作する手を撮影・抽出し、得られた手画像および手操作を表示装置の操作画面(メイン画面)に反映して、あたかも操作画面を直接タッチ操作しているかのように表示制御するものである。また、このような操作入力装置のうち、車両に設けられるものについては、その操作性を増すために、遠隔操作部が座席に着座したユーザーの手元に設けられる。そして、その遠隔操作部は、タッチ操作面を有してなるタッチ操作式の操作部として構成されることが多い。   In recent years, an operation input device that remotely operates a device has been developed as an operation input device (Patent Document 1). Such an operation input device is provided with a remote operation unit at the operator's hand separately from a display device that displays an operation screen (main screen), and further, photographs and extracts a hand that operates the remote operation unit, The obtained hand image and manual operation are reflected on the operation screen (main screen) of the display device, and display control is performed as if the operation screen is directly touch-operated. Among such operation input devices, those provided in the vehicle are provided with the remote operation unit at the user's seat on the seat in order to increase the operability. The remote operation unit is often configured as a touch operation type operation unit having a touch operation surface.

特開2000−6687号公報JP 2000-6687 A

上記のような操作入力装置において、その表示装置では、遠隔操作部を操作する手を実際に操作画面上に表示すると、手が遠隔操作部に近い場合には、図35(c)に示すように、指のみが表示された状態となる。ところが、多数本の指が同時に並んで表示されていると、どの指で操作してよいかの迷いが生じるし、表示された指と、実際に操作者が位置指示に使いたい指との対応関係がわからなくなって、誤操作を招く可能性もあった。特に、上記操作入力装置が車両用のものである場合、車両運転中の運転者は操作画面を凝視できないので、運転しながらの多数本指での操作入力は難しく、誤操作を生じやすかった。   In the operation input device as described above, in the display device, when the hand operating the remote operation unit is actually displayed on the operation screen, when the hand is close to the remote operation unit, as shown in FIG. In this state, only the finger is displayed. However, if many fingers are displayed side by side at the same time, it is confusing which finger to operate, and the correspondence between the displayed finger and the finger that the operator actually wants to use for position indication The relationship could not be understood, which could lead to misoperation. In particular, when the operation input device is for a vehicle, the driver who is driving the vehicle cannot stare at the operation screen, so that it is difficult to input operations with multiple fingers while driving, and erroneous operations are likely to occur.

本発明の課題は、手指に対応する位置指示画像を別の画像に重畳ないし合成する表示において、位置指示に使用する実際の指を容易に特定できるような位置指先画像の表示方法、該表示方法を採用する表示装置、及び該表示装置を備える操作入力装置を提供することにある。   An object of the present invention is to provide a display method of a position fingertip image that can easily identify an actual finger used for position indication in a display in which a position indication image corresponding to a finger is superimposed or synthesized on another image. And a manipulation input device including the display device.

課題を解決するための手段および発明の効果Means for Solving the Problems and Effects of the Invention

上記課題を解決するために、本発明の表示方法の第一は、
表示画面を有した表示手段と、前記表示画面への操作を遠隔的に行うための遠隔操作面を有した遠隔操作部とを備える表示装置において、前記遠隔操作部の手前側にて指が対向するに伴い当該指位置に対応する前記表示画面上の画面位置に、背景をなす画像に合成ないしは重畳する形で、位置指示画像を表示する表示方法であって、
前記遠隔操作部の手前側で対向する手において指を特定する指特定ステップと、
前記指特定ステップにより特定される指同士の、前記遠隔操作面への接近距離関係を反映した接近距離情報を指定指情報として取得する指定指情報取得ステップと、
特定された前記指から前記遠隔操作部への操作に使用する、あるいは使用すると推定される操作対象指を、取得された該接近距離情報に基づいて、前記指特定ステップにより特定された指のうち、前記遠隔操作面に対し近い指先の指ほど優先して指定する操作対象指指定ステップと、
前記表示画面上の背景画像に合成ないしは重畳する形で、特定された前記指の指示位置を示す前記位置指示画像を表示する表示ステップであって、表示される前記位置指示画像のうち、指定された前記操作対象指に対応する位置指示画像を、当該操作対象指とは異なる指に対応する位置指示画像よりも相対的に強調する強調表示にて行う位置指示画像強調表示ステップと、
を有することを特徴とする。
本発明の表示方法の第二は、
表示画面を有した表示手段と、前記表示画面への操作を遠隔的に行うための遠隔操作面を有した遠隔操作部とを備える表示装置において、前記遠隔操作部の手前側にて指が対向するに伴い当該指位置に対応する前記表示画面上の画面位置に、背景をなす画像に合成ないしは重畳する形で、位置指示画像を表示する表示方法であって、
前記遠隔操作部は、前記遠隔操作面がタッチ操作面をなすとともに当該タッチ操作面へのタッチ操作の有無及びタッチ位置を検出するタッチ操作部であり、
前記遠隔操作部の手前側で対向する手において指を特定する指特定ステップと、
特定された指のうち前記タッチ操作面へのタッチ操作を行った指を、前記遠隔操作部への操作に使用する、あるいは使用すると推定される操作対象指として指定する操作対象指指定ステップと、
前記表示画面上の背景画像に合成ないしは重畳する形で、特定された前記指の指示位置を示す前記位置指示画像を表示する表示ステップであって、表示される前記位置指示画像のうち、指定された前記操作対象指に対応する位置指示画像を、当該操作対象指とは異なる指に対応する位置指示画像よりも相対的に強調する強調表示にて行う位置指示画像強調表示ステップと、
を有することを特徴とする。
本発明の表示方法の第三は、
表示画面を有した表示手段と、前記表示画面への操作を遠隔的に行うための遠隔操作面を有した遠隔操作部とを備える表示装置において、前記遠隔操作部の手前側にて指が対向するに伴い当該指位置に対応する前記表示画面上の画面位置に、背景をなす画像に合成ないしは重畳する形で、位置指示画像を表示する表示方法であって、
前記遠隔操作部の手前側で対向する手において指を特定する指特定ステップと、
特定された前記指から前記遠隔操作部への操作に使用する、あるいは使用すると推定される操作対象指を指定する操作対象指指定ステップと、
前記表示画面上の背景画像に合成ないしは重畳する形で、特定された前記指の指示位置を示す前記位置指示画像を表示する表示ステップであって、表示される前記位置指示画像のうち、指定された前記操作対象指に対応する位置指示画像を、当該操作対象指とは異なる指に対応する位置指示画像よりも相対的に強調する強調表示にて行う位置指示画像強調表示ステップと、
を有するとともに、前記指特定ステップは、前記遠隔操作部の手前側にて予め定められている指特定可能範囲内に存在する前記手の指を、所定時間間隔にて順次特定し、
前記指特定ステップにより順次特定される前記指ごとの位置情報を取得し、当該位置情報を追跡情報として予め定められた追跡情報記憶部に記憶することにより、前記指特定ステップにより順次特定される指の移動を指ごとに追跡する指追跡ステップと、
前記操作対象指指定ステップにて前記操作対象指が指定された後、当該操作対象指に指定された指の移動を追跡するために、前記指追跡ステップにより前記追跡情報記憶部に記憶される指ごとの追跡情報から前記操作対象指の追跡情報を特定し、当該操作対象指の追跡情報に基づいて、当該操作対象指に指定された指の移動を追跡する操作対象指追跡ステップと、
を有し、さらに、前記操作対象指指定ステップは、前記操作対象指追跡ステップによる追跡結果に基づいて、前記操作対象指に指定された指と同一の指を継続的に前記操作対象指として指定し、
前記指追跡ステップは、
前記指特定ステップ毎に前記追跡情報を記憶している追跡中の各指の中に、前記指特定ステップによる前記指の特定がなされた際に実際に特定された指との間で予め定められた基準条件を満たさなかった指がある場合には、当該追跡中の指を追跡不可の指として認識を切り替えるとともに、追跡不可と認識されたときの当該指に係る情報と共に他の追跡不可の指との追跡不可認識時期の前後関係が特定可能となる追跡不可認識順序を、追跡復帰判断情報として、予め定められた追跡復帰判断情報記憶部に記憶し、
前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指がある場合には、記憶されている前記追跡復帰判断情報に基づいて、実際に特定された当該指が過去に追跡不可と認識された指と同一であるか否かを判断し、同一であると判断された場合には、当該追跡復帰判断情報に対応する追跡不可とされていた指が、実際に特定された当該指の位置に再出現したと認識して、当該指の移動追跡を再開する一方で、同一ではないと判断された場合には、実際に特定された当該指が新規出現した指であると認識して、当該指の移動追跡を新たに開始するものであり、前記追跡情報には、少なくとも前記指特定ステップにより特定された指の最新の位置情報が含まれており、前記追跡復帰判断情報にも、対応する指が追跡不可と認識される前の最後の位置情報が含まれており、
さらに、前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指があり、なおかつ前記追跡復帰判断情報記憶部に、複数の指の追跡復帰判断情報が記憶されている場合には、実際に特定された当該指の位置情報と、それら前記追跡復帰判断情報に含まれる追跡不可の指の最後の位置情報とに基づいて、実際に特定された当該指に最も近い位置を示す前記位置情報を含む前記追跡復帰判断情報を特定するとともに、当該追跡復帰判断情報が1つ特定される場合には、当該追跡復帰判断情報に対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定する一方で、当該追跡復帰判断情報が2以上特定される場合には、それら追跡復帰判断情報に含まれる前記追跡不可認識順序を参照して、それら追跡復帰判断情報のうち前記追跡不可認識時期が最も新しいものに対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定するものであることを特徴とする。
In order to solve the above problems, the first display method of the present invention is:
In a display device comprising a display means having a display screen and a remote operation unit having a remote operation surface for remotely performing operations on the display screen, fingers are opposed to the front side of the remote operation unit A display method for displaying a position indicating image in a form superimposed or superimposed on an image forming a background at a screen position on the display screen corresponding to the finger position.
A finger specifying step of specifying a finger in the opposite hand on the front side of the remote control unit;
A designated finger information obtaining step for obtaining, as designated finger information, approaching distance information reflecting the approaching distance relationship between the fingers identified by the finger identifying step to the remote operation surface;
An operation target finger that is used for the operation from the specified finger to the remote operation unit or is estimated to be used is selected from the fingers specified by the finger specifying step based on the obtained approach distance information , An operation target finger designating step that preferentially designates the finger of the fingertip closer to the remote operation surface ;
A display step of displaying the position indicating image indicating the specified pointing position of the finger in a form synthesized or superimposed on a background image on the display screen, wherein the position indicating image is designated among the displayed position indicating images; A position indication image emphasis display step performed by highlighting the position indication image corresponding to the operation target finger relative to a position indication image corresponding to a finger different from the operation target finger;
It is characterized by having.
The second of the display methods of the present invention is
In a display device comprising a display means having a display screen and a remote operation unit having a remote operation surface for remotely performing operations on the display screen, fingers are opposed to the front side of the remote operation unit A display method for displaying a position indicating image in a form superimposed or superimposed on an image forming a background at a screen position on the display screen corresponding to the finger position.
The remote operation unit is a touch operation unit that detects the presence or absence of a touch operation and a touch position on the touch operation surface while the remote operation surface forms a touch operation surface,
A finger specifying step of specifying a finger in the opposite hand on the front side of the remote control unit;
An operation target finger specifying step of using a finger that has performed a touch operation on the touch operation surface among the specified fingers to be used for an operation to the remote operation unit, or to be specified as an operation target finger that is estimated to be used,
A display step of displaying the position indicating image indicating the specified pointing position of the finger in a form synthesized or superimposed on a background image on the display screen, wherein the position indicating image is designated among the displayed position indicating images; A position indication image emphasis display step performed by highlighting the position indication image corresponding to the operation target finger relative to a position indication image corresponding to a finger different from the operation target finger;
It is characterized by having.
The third of the display methods of the present invention is
In a display device comprising a display means having a display screen and a remote operation unit having a remote operation surface for remotely performing operations on the display screen, fingers are opposed to the front side of the remote operation unit A display method for displaying a position indicating image in a form superimposed or superimposed on an image forming a background at a screen position on the display screen corresponding to the finger position.
A finger specifying step of specifying a finger in the opposite hand on the front side of the remote control unit;
An operation target finger designation step for designating an operation target finger to be used for the operation from the identified finger to the remote operation unit or estimated to be used;
A display step of displaying the position indicating image indicating the specified pointing position of the finger in a form synthesized or superimposed on a background image on the display screen, wherein the position indicating image is designated among the displayed position indicating images; A position indication image emphasis display step performed by highlighting the position indication image corresponding to the operation target finger relative to a position indication image corresponding to a finger different from the operation target finger;
And the finger identifying step sequentially identifies the fingers of the hand that are within a finger identifiable range predetermined on the near side of the remote control unit at predetermined time intervals,
By acquiring the position information for each finger sequentially specified by the finger specifying step and storing the position information as tracking information in a predetermined tracking information storage unit, the finger sequentially specified by the finger specifying step is stored. Finger tracking step to track the movement of each finger,
After the operation target finger is specified in the operation target finger specifying step, the finger stored in the tracking information storage unit by the finger tracking step is used to track the movement of the finger specified as the operation target finger. An operation target finger tracking step of identifying the tracking information of the operation target finger from each tracking information, and tracking the movement of the finger designated as the operation target finger based on the tracking information of the operation target finger;
And the operation target finger designation step continuously designates the same finger as the finger designated as the operation target finger as the operation target finger based on the tracking result of the operation target finger tracking step. And
The finger tracking step includes
Among each finger being tracked that stores the tracking information for each finger specifying step, the finger is determined in advance with the finger actually specified when the finger is specified by the finger specifying step. If there is a finger that does not meet the reference criteria, the recognition is switched to the finger being tracked as an untrackable finger, and other untrackable fingers along with information about the finger when it is recognized as untrackable. The tracking unrecognized order in which the context of the non-trackable recognition time can be specified is stored as tracking return determination information in a predetermined tracking return determination information storage unit,
The finger tracking step is stored when there is an actually specified finger that does not satisfy the reference condition with the finger being tracked when the finger is specified by the finger specifying step. On the basis of the tracking return determination information, it is determined whether the finger actually identified is the same as the finger that was previously recognized as untraceable. Recognize that the finger that was not trackable corresponding to the tracking return determination information has reappeared at the position of the finger that was actually identified, and resume the movement tracking of the finger. If the finger has been identified, the finger actually identified is recognized as a newly appearing finger, and movement tracking of the finger is newly started. The tracking information includes at least the finger identifying step. The latest position of the finger specified by Are included, the even track return determination information includes last position information before the corresponding finger is recognized as the tracking impossible,
Further, the finger tracking step includes an actually specified finger that does not satisfy the reference condition with the finger being tracked when the finger is specified in the finger specifying step, and the tracking return is performed. If the determination information storage unit stores the tracking return determination information of a plurality of fingers, the position information of the finger actually identified and the last of the untrackable fingers included in the tracking return determination information When the tracking return determination information including the position information indicating the position closest to the finger that is actually specified is specified based on the position information, and one piece of the tracking return determination information is specified When the finger that is not traceable corresponding to the tracking return determination information is determined to be the same finger as the actually specified finger, while two or more tracking return determination information is specified, Add them Referring to the untraceable recognition order included in the return determination information, the finger that is not trackable corresponding to the latest untrackable recognition time among the tracking return determination information is actually identified. The finger is determined to be the same finger as the finger.

上記本発明によれば、多数本の指が遠隔操作面に対向し、それら全てが画面表示された場合でも、予め定められた方法、予め定められたルールに従い操作対象指の位置に対応する位置指示画像が特定され、その位置指示画像が他の指よりも相対的に強調してなされる。これにより、ユーザーは、どの指で操作を行うべきかを画面上から容易に認識することができる。また、表示されている指と実際の指との対応関係は、操作対象指の決められ方さえユーザーが把握しておけば容易に認識できる。従って、遠隔位置指示に適した位置指示画像の表示が可能となる。   According to the present invention, even when a large number of fingers face the remote operation surface and all of them are displayed on the screen, the position corresponding to the position of the operation target finger is determined according to a predetermined method and a predetermined rule. An instruction image is specified, and the position instruction image is emphasized relative to other fingers. Thus, the user can easily recognize from the screen which finger should be used for the operation. In addition, the correspondence between the displayed finger and the actual finger can be easily recognized as long as the user knows how to determine the operation target finger. Accordingly, it is possible to display a position indication image suitable for remote position indication.

また、本発明においては、遠隔操作面に対向する手において指先を特定する指先特定ステップを設けることができる。具体的にいえば、上記指特定ステップは、遠隔操作面に対向する手から指先を特定する指先特定ステップであり、当該指先を特定する形で前記指を特定するステップとすることができる。そして、この場合、位置指示画像強調表示ステップは、表示画面上の背景画像に合成ないしは重畳する形で、特定された指先に対応する位置に位置指示画像の表示を行うことを前提とする表示ステップとして、上記強調表示を実施するようにするものとできる。   In the present invention, a fingertip specifying step for specifying a fingertip in the hand facing the remote operation surface can be provided. Specifically, the finger specifying step is a fingertip specifying step for specifying a fingertip from a hand facing the remote operation surface, and may be a step for specifying the finger in a form for specifying the fingertip. In this case, the position instruction image highlighting step is a display step based on the premise that the position instruction image is displayed at a position corresponding to the specified fingertip in a form synthesized or superimposed on the background image on the display screen. As described above, the highlighting can be performed.

なお、本発明において、指先とは、指の先端側の予め定められた領域(例えば第一間接まで等)や、その中に含まれる特定の位置(例えば指先端から第一間接までの領域の重心位置等)として定められるものとする。   In the present invention, the fingertip refers to a predetermined region on the tip side of the finger (for example, up to the first indirect) or a specific position (for example, the region from the tip of the finger to the first indirect). Centroid position, etc.).

また、操作対象指指定ステップは、操作対象指として1本の指を指定するものとすることができる。特に1本としておけば、操作対象指を明確認識し易く、特にプッシュ操作を含む接触操作がなされる遠隔操作部への適用に好適である。また、一本指状態は非常にシンプルな手形状であるから各処理を容易化できる。   Further, the operation target finger designation step can designate one finger as the operation target finger. In particular, if the number is one, it is easy to clearly recognize the operation target finger, and it is particularly suitable for application to a remote operation unit in which a contact operation including a push operation is performed. In addition, each processing can be facilitated because the one-finger state is a very simple hand shape.

また、操作対象指指定ステップは、操作対象指として2本又は3本の指を指定するものとすることができる。2本又は3本としておけば、プル操作や回転操作等を行う遠隔操作部への適用に好適である。   The operation target finger designation step may designate two or three fingers as the operation target fingers. If two or three are used, it is suitable for application to a remote control unit that performs pull operation, rotation operation, and the like.

また、位置指示画像強調表示ステップにおいて、前記操作対象指とは異なる指に対応する位置指示画像を非表示としないことができる。これにより、表示されている操作対象指と、実際の操作対象指との対応関係を、それ以外の指の表示状態も参照にしながら把握できるようになる。   Further, in the position instruction image highlighting step, the position instruction image corresponding to a finger different from the operation target finger can be not hidden. Thereby, it becomes possible to grasp the correspondence between the displayed operation target finger and the actual operation target finger while referring to the display states of the other fingers.

また、本発明においては、指特定ステップにより特定された指の形状に係る指形状情報を指定指情報として取得する指定指情報取得ステップを設けることができる。この場合、上記の操作対象指指定ステップは、取得された指形状情報に基づいて、指特定ステップにより特定された指のうち、当該指の形状に係る予め定められた選定条件に最も適する指形状情報を有した指を優先して操作対象指として指定するステップとすることができる。操作対象指が一本だけ特定される場合には、選定条件に最も適した指を操作対象指として指定することができる。   Moreover, in this invention, the designated finger information acquisition step which acquires the finger shape information which concerns on the shape of the finger specified by the finger specification step as specified finger information can be provided. In this case, the above-described operation target finger designating step is based on the obtained finger shape information, and among the fingers identified by the finger identifying step, the finger shape most suitable for a predetermined selection condition related to the shape of the finger It can be a step of preferentially specifying a finger having information as an operation target finger. When only one operation target finger is specified, the finger most suitable for the selection condition can be designated as the operation target finger.

この構成によれば、例えば指の形状に係る情報から予め決められた種類の指を特定ないし推定して、その指を操作対象指として指定することも可能となる。各指にはそれぞれ種類毎に形状の違いがあるので、これらから指を特定ないし推定することができるから、位置指示に使用しやすい人差し指や中指を特定ないし推定することも可能となる。   According to this configuration, for example, a predetermined type of finger can be specified or estimated from information related to the shape of the finger, and the finger can be designated as the operation target finger. Since each finger has a different shape for each type, it is possible to identify or estimate the finger from these, and therefore it is possible to identify or estimate an index finger or middle finger that is easy to use for position indication.

具体的にいえば、指定指情報取得ステップは、指特定ステップにより特定された指同士の、遠隔操作面方向における長さ関係を反映した指長情報を指形状情報として取得するステップとすることができ、この場合、上記の操作対象指指定ステップは、取得された指長情報に基づいて、指特定ステップにより特定された指のうち、当該指長情報に係る予め定められた選定条件に適する指を優先して操作対象指として指定するステップとすることができる。この構成によれば、指の長さ関係が明らかになるので、この長さの比較から予め決められた種類の指を特定ないし推定して、その指を操作対象指として指定することができる。例えば、位置指示に使用しやすい中指であれば、最も長いと特定される(あるいは推定される)指として特定できる。人差し指であれば、操作手が左右いずれの手であるかさえ分かれば、最も長いと特定されるあるいは推定される指に隣接する一方側の指として特定できる。また、この構成によれば、最も長く表れる指は操作に使用される可能性が一般的には高いから、その逆の、操作に使用する意図が無いような中途半端にのびた指は確実に排除することが可能となる。   Specifically, the designated finger information acquisition step may be a step of acquiring finger length information reflecting the length relationship between the fingers specified in the finger specification step in the remote operation surface direction as finger shape information. In this case, the operation target finger designating step includes a finger suitable for a predetermined selection condition related to the finger length information among the fingers identified by the finger identifying step based on the obtained finger length information. Can be designated as an operation target finger with priority. According to this configuration, since the finger length relationship is clarified, a finger of a predetermined type can be specified or estimated from the comparison of the lengths, and the finger can be designated as the operation target finger. For example, a middle finger that is easy to use for position indication can be identified as the finger that is identified (or estimated) as being the longest. If it is an index finger, as long as the operating hand is the left or right hand, it can be specified as one finger adjacent to the finger that is specified or estimated to be the longest. In addition, according to this configuration, since the longest appearing finger is generally highly likely to be used for the operation, the opposite halfway finger that is not intended to be used for the operation is surely excluded. It becomes possible to do.

また、指定指情報取得ステップは、指特定ステップにより特定された指同士の、遠隔操作面方向における幅の関係を反映した指幅情報を指形状情報として取得するものであり、ステップとすることもでき、この場合、上記の操作対象指指定ステップは、取得された指幅情報に基づいて、指特定ステップにより特定された指のうち、当該指幅情報に係る予め定められた選定条件に適する指を優先して操作対象指として指定するステップとすることができる。この構成によれば、指の幅(太さ)の関係が明らかになるので、この幅の比較から予め決められた種類の指を特定ないし推定し、その指を操作対象指として指定することもできる。   In addition, the designated finger information acquisition step acquires finger width information reflecting the relationship between the widths of the fingers specified in the finger specification step in the remote operation surface direction as finger shape information, and may be a step. In this case, the operation target finger designating step includes a finger suitable for a predetermined selection condition related to the finger width information among the fingers identified by the finger identifying step based on the obtained finger width information. Can be designated as an operation target finger with priority. According to this configuration, since the relationship between the widths (thicknesses) of the fingers is clarified, it is possible to specify or estimate a predetermined type of finger from the comparison of the widths, and specify the finger as an operation target finger. it can.

また、本発明においては、指特定ステップにより特定された指同士の、遠隔操作面方向(遠隔操作面の広がる方向、即ち該遠隔操作面の法線に対し垂直をなす方向)における位置関係に係る位置関係情報を指定指情報として取得する指定指情報取得ステップを設けることができ、上記の操作対象指指定ステップは、取得された該位置関係情報に基づいて、指特定ステップにより特定された指のうち、当該位置関係に係る予め定められた選定条件に最も適する位置関係情報を有した指を優先して操作対象指として指定するステップとすることができる。操作対象指が一本だけ特定される場合には、選定条件に最も適した指を操作対象指として指定することができる。   Further, according to the present invention, the positional relationship between the fingers specified in the finger specifying step in the remote operation surface direction (the direction in which the remote operation surface spreads, that is, the direction perpendicular to the normal line of the remote operation surface). A designated finger information acquisition step for acquiring the positional relationship information as the specified finger information can be provided, and the above-described operation target finger specification step is performed based on the acquired positional relationship information. Of these steps, the finger having the positional relationship information most suitable for the predetermined selection condition related to the positional relationship can be preferentially designated as the operation target finger. When only one operation target finger is specified, the finger most suitable for the selection condition can be designated as the operation target finger.

この構成によれば、例えば特定された複数本の指の遠隔操作面方向における位置関係から予め決められた種類の指を特定ないし推定して、その指を操作対象指として指定することも可能となる。各指はその種類毎に位置関係が決められているから、これを用いて指を特定することができる。例えば、位置指示に最も使用しやすい人差し指であれば、指形状等から親指を排除した上で、操作する手が左手の場合は最も右に位置する指として特定でき、操作する手が右手の場合は最も左の指として特定できる。人差し指を特定できるならば、それに隣接する指を中指として特定することもできる。また、この構成では、指の位置関係によって操作対象指を選定するので、ユーザーにとってどの指が選定されるか分かりやすくなる。   According to this configuration, for example, it is possible to specify or estimate a predetermined type of finger from the positional relationship of the specified plurality of fingers in the remote operation surface direction, and specify the finger as an operation target finger. Become. Since the positional relationship of each finger is determined for each type, the finger can be specified using this. For example, if the index finger is the easiest to use for position indication, the thumb is removed from the finger shape etc., and if the hand to be operated is the left hand, it can be specified as the rightmost finger and the hand to be operated is the right hand Can be identified as the leftmost finger. If the index finger can be specified, the adjacent finger can be specified as the middle finger. Further, in this configuration, since the operation target finger is selected according to the positional relationship of the fingers, it is easy for the user to understand which finger is selected.

具体的にいえば、指定指情報取得ステップは、指先特定ステップにより特定された指先を遠隔操作部との対向方向に投影し、その投影面上の予め定められた位置に1本の軸を設定して一次元の座標系を定め、投影された該指先の当該座標系における座標値を特定し、当該座標値を反映した軸座標情報を位置関係情報として取得するステップであり、この場合、上記の操作対象指指定ステップは、取得された該軸座標情報に基づいて、指特定ステップにより特定された指のうち、当該軸座標情報に係る予め定められた選定条件に対し適する指を優先して操作対象指として指定するステップとすることができる。この構成によると、上記位置次元座標系における各指先の位置する座標のみで、操作対象指を簡易に特定できる。なお、この場合の軸線は、例えば、遠隔操作面において操作対象指が最も位置し易い領域から位置し難い領域に向かう、あるいはその逆の直線として定めることができる。   Specifically, in the designated finger information acquisition step, the fingertip specified in the fingertip specifying step is projected in a direction facing the remote control unit, and one axis is set at a predetermined position on the projection plane. A one-dimensional coordinate system, specify the coordinate value of the projected fingertip in the coordinate system, and acquire the axis coordinate information reflecting the coordinate value as positional relationship information, in this case, The operation target finger designation step gives priority to a finger suitable for a predetermined selection condition related to the axis coordinate information among the fingers identified by the finger identification step based on the acquired axis coordinate information. The step can be designated as an operation target finger. According to this configuration, the operation target finger can be easily specified only by the coordinates at which each fingertip is positioned in the position-dimensional coordinate system. In addition, the axis line in this case can be defined as, for example, a straight line from the region where the operation target finger is most likely to be located to the region where it is difficult to locate, or vice versa, on the remote operation surface.

また、指定指情報取得ステップは、指先特定ステップにより特定された指先を遠隔操作部との対向方向に投影し、その投影面上の予め定められた領域に設定される基準領域と投影された指先との間の距離を反映した距離情報を位置関係情報として取得するステップとすることができ、この場合、上記の操作対象指指定ステップは、取得された該距離情報に基づいて、指特定ステップにより特定された指のうち、当該距離情報に係る予め定められた選定条件に対し適する指を優先して操作対象指として指定するステップとすることができる。この構成によると、基準領域との距離演算のみで、操作対象指を簡易に特定できる。この場合の基準領域は、例えば、遠隔操作面において操作対象指が最も位置し易い領域、あるいはその逆の領域として定めることができる。   In the designated finger information acquisition step, the fingertip specified in the fingertip specifying step is projected in a direction facing the remote control unit, and the projected fingertip is projected with a reference area set in a predetermined area on the projection plane. In this case, the operation target finger designating step is based on the obtained distance information by the finger specifying step. Among the identified fingers, the step may be a step of preferentially designating a finger suitable for a predetermined selection condition related to the distance information as an operation target finger. According to this configuration, the operation target finger can be easily identified only by calculating the distance from the reference region. In this case, the reference area can be determined, for example, as an area where the operation target finger is most likely to be located on the remote operation surface, or an opposite area.

また、本発明においては、指特定ステップにより特定された指同士の、遠隔操作面への接近距離関係を反映した接近距離情報を指定指情報として取得する指定指情報取得ステップを設けることができ、この場合、上記の操作対象指指定ステップは、当該接近距離に関する予め定められた選定条件に対し適する指を優先して操作対象指として指定するステップとすることができる。この構成によれば、例えば特定された複数本の指の遠隔操作面への接近方向における位置関係から操作対象指を特定することが可能となる。なお、遠隔操作面への操作は手の指先による接触を伴うものであるから、この指先が遠隔操作面に最も近い指ほど位置指示の可能性が高い指である。従って、操作対象指指定ステップを、取得された該接近距離情報に基づいて、指特定ステップにより特定された指のうち、遠隔操作面に対し近い指先の指ほど優先して操作対象指として指定するステップとすれば、位置指示に最も適した指を操作対象指に指定できる。   Further, in the present invention, there can be provided a designated finger information obtaining step for obtaining, as designated finger information, approaching distance information reflecting the approaching distance relationship between the fingers identified by the finger identifying step and the remote operation surface, In this case, the operation target finger designating step can be a step of preferentially designating a finger suitable for a predetermined selection condition regarding the approach distance as the operation target finger. According to this configuration, for example, it becomes possible to specify the operation target finger from the positional relationship of the specified plurality of fingers in the approaching direction to the remote operation surface. Since the operation on the remote operation surface is accompanied by contact with the fingertip of the hand, the finger whose fingertip is closest to the remote operation surface is a finger having a higher possibility of position designation. Accordingly, in the operation target finger designation step, the finger closer to the remote operation surface among the fingers identified in the finger identification step is preferentially designated as the operation target finger based on the acquired approach distance information. If it is set as a step, the finger most suitable for a position instruction | indication can be designated as an operation target finger.

また、指定指情報取得ステップは、撮影手段により撮影された手の画像の輝度を接近距離情報として取得するステップとすることができる。この場合、上記の操作対象指指定ステップは、当該輝度に関する予め定められた選定条件に対し適する指を優先して操作対象指として指定するステップとすることができる。なお、これを実現するために、本発明において、遠隔操作面に接近する手に光源から光が照射されるとともに、その反射光を捉える形で、当該手を遠隔操作面の裏側から撮影手段により撮影する撮影ステップが必要となる。撮影手段は、遠隔操作面を操作する手の反射光を捉える形で撮影を行うので、遠隔操作面に最も近い指先ほど高輝度に表れるから、輝度を用いて接近距離情報を容易に得ることができ、実際に接近距離を測るような手段・処理を省略できる。また、指先が遠隔操作面に最も近い指ほど、位置指示の可能性が高い指であるから、ここでの操作対象指指定ステップは、指特定ステップにより特定された指のうち、指先特定手段により特定された指先の輝度が最も高い指ほど優先して操作対象指として指定するステップとすることができる。   The designated finger information acquisition step can be a step of acquiring the brightness of the hand image taken by the photographing means as the approach distance information. In this case, the operation target finger designating step can be a step of preferentially designating a finger suitable for a predetermined selection condition regarding the luminance as the operation target finger. In order to achieve this, in the present invention, the hand approaching the remote operation surface is irradiated with light from the light source and the reflected light is captured by the hand from the back side of the remote operation surface by the photographing means. A shooting step for shooting is required. Since the imaging means captures the reflected light of the hand operating the remote operation surface, the fingertip closest to the remote operation surface appears with higher brightness, so the proximity distance information can be easily obtained using the brightness. It is possible to omit means and processing for actually measuring the approach distance. In addition, since the finger closest to the remote operation surface is a finger having a higher possibility of position designation, the operation target finger designation step here is performed by the fingertip identification means among the fingers identified in the finger identification step. The specified fingertip with the highest luminance can be a step of giving priority to the operation target finger.

ところで、上記の全ての指定指情報取得ステップは、撮影ステップによる撮影画像に基づいて指定指情報を取得するステップとすることができる。この構成によると、撮影画像から得られる情報を使って容易に指指定情報を得ることができる。なお、これを実現するためには、撮影ステップとして、遠隔操作面に接近する手に光源から光が照射されるとともに、その反射光を捉える形で、当該手を遠隔操作面の裏側から撮影手段により撮影するステップが必要となる。   By the way, all the above-mentioned designated finger information acquisition steps can be steps for acquiring designated finger information based on the photographed image obtained by the photographing step. According to this configuration, the finger designation information can be easily obtained using information obtained from the photographed image. In order to realize this, as a photographing step, light is emitted from the light source to the hand approaching the remote operation surface and the reflected light is captured so that the hand is photographed from the back side of the remote operation surface. Therefore, a step for photographing is required.

なお、本発明において、遠隔操作面に接近する手に光源から光が照射されるとともに、その反射光を捉える形で、当該手を遠隔操作面の裏側から撮影手段により撮影する撮影ステップを設けることができるが、この場合、指特定ステップは、撮影された手の画像から指を特定するステップとすることができる。さらにいえば、上記指先特定ステップは、撮影された手の画像から指先を特定するステップとすることができる。さらには、位置指示画像を表示する表示ステップを、撮影された手の画像に基づいて生成された位置指示画像を表示するステップとすることもできる。これらの構成によれば、カメラ等の1つの撮影手段の撮影画像により、指の特定、指先の特定、さらには操作対象指の特定や位置指示表示も可能となるので、これらの手段を個別に設けた構成と比べて、構成を単純化できる。   In the present invention, the hand approaching the remote operation surface is irradiated with light from the light source, and a photographing step is provided in which the hand is photographed from the back side of the remote operation surface by the photographing means so as to capture the reflected light. In this case, the finger specifying step can be a step of specifying a finger from the photographed hand image. Furthermore, the fingertip specifying step can be a step of specifying the fingertip from the captured hand image. Furthermore, the display step of displaying the position instruction image may be a step of displaying a position instruction image generated based on the photographed hand image. According to these configurations, it is possible to specify a finger, a fingertip, and further specify an operation target finger and a position indication display by using a captured image of one imaging unit such as a camera. Compared with the provided configuration, the configuration can be simplified.

ところで、本発明における遠隔操作部は、例えばタッチパネル等のように、遠隔操作面がタッチ操作面をなすとともに当該タッチ操作面へのタッチ操作の有無及びタッチ位置を検出するタッチ操作部として構成することができる。この場合、操作対象指指定ステップは、指特定ステップにより特定された指のうち、タッチ操作面へのタッチ操作を行った指を操作対象指として指定するステップとすることができる。この構成によると、実際に位置指示がなされた後、その位置指示に使用された指が操作対象指として特定される。一般的な操作者は、操作対象指を固定して使用する傾向にあるので、正確に操作対象指を定め、これを強調した表示を行うことができる。また、タッチ操作をした指が強調表示されることにより、このタッチ操作をきっかけにして、画面表示された多数本の指と実際の指との対応関係を明確に認識できるようになる。   By the way, the remote operation part in this invention is comprised as a touch operation part which detects the presence or absence of touch operation to the said touch operation surface, and a touch position, for example like a touch panel etc., and a remote operation surface makes a touch operation surface. Can do. In this case, the operation target finger designation step may be a step of designating, as the operation target finger, a finger that has performed a touch operation on the touch operation surface among the fingers identified in the finger identification step. According to this configuration, after the position instruction is actually made, the finger used for the position instruction is specified as the operation target finger. Since a general operator tends to use the operation target finger fixedly, the operation target finger can be accurately determined and displayed in an emphasized manner. In addition, by highlighting the finger that has been touched, it becomes possible to clearly recognize the correspondence between a large number of fingers displayed on the screen and the actual finger by using this touch operation.

なお、誤って遠隔操作部に触れてタッチ操作をしてしまった場合に、その操作が入力に反映されないようにし、さらには強調表示に繁栄されないようにすることができる。具体的にいえば、操作対象指指定ステップを、タッチ操作が予め定められた押圧操作時間を上回るタッチ操作であった場合に、当該タッチ操作を行った指を操作対象指として指定するステップとすればよい。また、操作対象指指定ステップを、初回のタッチ操作が予め定められた押圧操作力を上回るタッチ操作であった場合に、当該タッチ操作を行った指を操作対象指として指定するステップとしてもよい。これらの構成によれば、一定以上の負荷を伴う操作でなれば、タッチ操作として有効とならないので、誤操作を防止できる。   Note that when a touch operation is accidentally performed by touching the remote operation unit, the operation can be prevented from being reflected in the input, and further, it can be prevented from flourishing in the highlighted display. Specifically, the operation target finger designation step is a step of designating the finger that has performed the touch operation as the operation target finger when the touch operation is a touch operation that exceeds a predetermined pressing operation time. That's fine. Further, the operation target finger designation step may be a step of designating the finger that has performed the touch operation as the operation target finger when the first touch operation is a touch operation exceeding a predetermined pressing operation force. According to these configurations, an operation with a load of a certain level or more is not effective as a touch operation, so that an erroneous operation can be prevented.

ところで、本発明における位置指示画像強調表示ステップは、強調表示を、所定時間をかけて段階的に強調レベルを変化させる形で行うステップとすることができる。つまり、強調表示において、強調表示を開始してから強調表示が完了するまでの間に、強調開始前及び強調完了後の双方の状態とは異なる1以上の変化途中状態を経るような表示とすることができる。この構成によると、強調表示変化の過程が表示されるので、その過程を見ることで、表示されている指(特に操作対象指)と、実際の指との対応関係を認識しやすい。   By the way, the position indication image emphasis display step in the present invention can be a step of performing emphasis display in such a manner that the emphasis level is changed stepwise over a predetermined time. That is, in the highlight display, the display is such that one or more transitional states different from both the state before the start of the highlight and the state after the completion of the highlight are passed between the start of the highlight display and the completion of the highlight display. be able to. According to this configuration, since the highlight change process is displayed, it is easy to recognize the correspondence between the displayed finger (especially the operation target finger) and the actual finger by seeing the process.

また、この位置指示画像強調表示ステップは、強調表示として、該強調表示の開始時においては、操作対象指に対応する位置指示画像と、該位置指示用指とは異なる指に対応する位置指示画像とが強調レベル(強調度合い)が同じ状態でなされるとともに、該強調表示の開始から時間が経過するに従い操作対象指に対応する位置指示画像の相対的な強調レベルが段階的に増すように変化する表示を実行するステップとすることもできる。この場合によると、操作対象指に対応する位置指示画像の強調レベルが(相対的に)徐々に増していく構成となる。いきなり強調完了状態となると、その直後、強調表示されている操作対象指が実際にどの指に当たるのかを認識するのに戸惑いを感じてしまうが、徐々に強調表示が進むようにすることにより、そうした戸惑いを無くすことができる。   Further, in the position indication image highlighting step, as the highlighting, at the start of the highlighting, a position indication image corresponding to the operation target finger and a position indication image corresponding to a finger different from the position indication finger. Are changed in such a manner that the relative enhancement level of the position pointing image corresponding to the operation target finger increases step by step as time elapses from the start of the highlight display. It can also be set as the step which performs the display to perform. In this case, the enhancement level of the position indicating image corresponding to the operation target finger is gradually (relatively) increased. Immediately after the completion of the emphasis state, immediately after that, it becomes confusing to recognize which finger that the highlighted operation target finger actually hits. You can eliminate confusion.

このように、強調表示前の状態を表示する重要性を考慮するならば、位置指示画像強調表示ステップを、操作対象指指定ステップにより操作対象指が指定されてから所定時間経過した後に、相対強調表示を開始するステップとすることがよい。ただし、上記のような強調レベルが徐々に増す構成においては、その変化の過程を時間をかけて視認できるので、位置指示画像強調表示ステップを、操作対象指指定ステップにより操作対象指が指定されるに伴い相対強調表示を開始するようにしてもよい。   In this way, if the importance of displaying the state before highlighting is considered, the position indication image highlighting step is performed after the predetermined time has elapsed after the operation target finger is specified by the operation target finger specifying step. It is good to set it as the step which starts a display. However, in the configuration in which the emphasis level gradually increases as described above, since the process of the change can be visually recognized over time, the position target image emphasis display step is designated by the operation target finger designation step. Accordingly, relative highlighting may be started.

本発明においては、遠隔操作面に対向する手の画像を撮影する手画像撮影ステップを備えて構成することができる。この場合、指特定ステップは、撮影された手の画像に基づいて、遠隔操作面に対向する手の指を特定するものとすることができる。さらに、この場合、位置指示画像強調表示ステップは、特定された手の指の輪郭が少なくとも特定可能となる実指画像を、撮影された手の画像に基づいて生成し、生成された実指画像を位置指示画像として表示するものとできる。操作画面上に実際の手の輪郭が表示されるため、その輪郭から手の位置を把握することができる。実際の手の輪郭であることから位置を認識しやすく、操作がより容易となる。   In the present invention, a hand image photographing step for photographing an image of a hand facing the remote operation surface can be provided. In this case, the finger specifying step can specify the finger of the hand facing the remote operation surface based on the photographed hand image. Further, in this case, the position indicating image highlighting step generates a real finger image that enables at least the contour of the finger of the identified hand to be identified based on the captured hand image, and the generated real finger image Can be displayed as a position indicating image. Since the contour of the actual hand is displayed on the operation screen, the position of the hand can be grasped from the contour. Since it is an actual hand contour, the position can be easily recognized, and the operation becomes easier.

また、本発明において、位置指示画像強調表示ステップは、指の延びる方向が少なくとも特定可能となる擬似指画像、又は、指の指先位置が少なくとも特定可能となる指先位置画像のいずれかを前記位置指示画像として表示するように構成することもできる。位置指示画像として、指の指示位置が分かる程度に簡略された画像を用いることで処理負担を軽減できる。   Further, in the present invention, the position instruction image highlighting step includes either the pseudo finger image in which the finger extending direction can be specified at least or the fingertip position image in which at least the fingertip position of the finger can be specified as the position instruction. It can also be configured to display as an image. The processing load can be reduced by using an image simplified to such an extent that the finger pointing position can be understood as the position pointing image.

ところで、本発明における強調表示は、位置指示画像の輪郭線に対してなされるものとできる。輪郭線が強調されることで、特定の指の指示位置がより分かり易くなる。   By the way, the highlighting in the present invention can be made on the contour line of the position indicating image. By emphasizing the contour line, the designated position of a specific finger becomes easier to understand.

また、本発明における強調表示は、位置指示画像の表示色の濃淡を変える、位置指示画像の形状を変える、位置指示画像の透過度を変える、位置指示画像を点滅表示する形でなされるものであってもよい。これら単純な画像処理により強調表示を実施することで、処理負担を軽減できる。また、これらの強調表示でも十分に、特定の指を強調することができる。   The highlighting in the present invention is performed by changing the display color of the position indication image, changing the shape of the position indication image, changing the transparency of the position indication image, or blinking the position indication image. There may be. By emphasizing with these simple image processes, the processing load can be reduced. Further, it is possible to sufficiently emphasize a specific finger even with these highlighted displays.

ところで、本発明においては、遠隔操作部への操作に使用する、あるいは使用すると推定される指を操作対象指として指定し、指定された操作対象指に対応して表示される位置指示画像を、他の指に対応して表示される位置指示画像よりも相対的に強調して表示することを特徴としている。この場合、常に一定の指が操作対象指として指定される方が操作性の観点で優れる。つまり、操作対象指として同一の指が継続して指定されることが望ましい。   By the way, in the present invention, a finger that is used or estimated to be used for an operation to the remote operation unit is designated as an operation target finger, and a position indication image displayed in correspondence with the designated operation target finger is obtained. It is characterized by being displayed with a relatively higher emphasis than the position indication image displayed corresponding to other fingers. In this case, it is better from the viewpoint of operability that a constant finger is always designated as the operation target finger. That is, it is desirable that the same finger is continuously designated as the operation target finger.

そのための構成として、本発明の表示方法は、操作対象指指定ステップにて前記操作対象指が指定された後、当該操作対象指に指定された指の移動を追跡する操作対象指追跡ステップを有し、操作対象指指定ステップは、前記操作対象指追跡ステップによる追跡結果に基づいて、前記操作対象指に指定された指と同一の指を継続的に前記操作対象指として指定するものとすることができる。この構成によれば、操作対象指に指定された指の移動が追跡されるから、常に同一の指を操作対象指として指定することができる。指の移動に伴い操作対象指が変化する場合と比較して、操作しやすい。   As a configuration for this, the display method of the present invention includes an operation target finger tracking step for tracking the movement of the finger specified as the operation target finger after the operation target finger is specified in the operation target finger specifying step. The operation target finger designation step continuously designates the same finger as the operation target finger as the operation target finger based on the tracking result of the operation target finger tracking step. Can do. According to this configuration, since the movement of the finger designated as the operation target finger is tracked, the same finger can always be designated as the operation target finger. Compared to the case where the operation target finger changes as the finger moves, the operation is easier.

また、本発明の指特定ステップは、前記遠隔操作部の手前側にて予め定められている指特定可能範囲内に存在する手の指を、所定時間間隔にて順次特定とするものとできる。例えば、指特定ステップが撮影手段により動画撮影される手の画像から指を特定するものである場合、撮影により所定時間間隔おきに順次取得される動画像フレーム毎に、フレーム内に映る手画像から指を特定することになる。こうした場合、指特定ステップにより順次特定される指ごとの位置情報を取得し、当該位置情報を追跡情報として予め定められた追跡情報記憶部に記憶することにより、前記指特定ステップにより順次特定される指の移動を指ごとに追跡する指追跡ステップを設けることにより、操作対象指追跡ステップは、前記指追跡ステップにより記憶される指ごとの追跡情報のうち前記操作対象指の追跡情報に基づいて、当該操作対象指に指定された指の移動を追跡することができる。この構成によると、指特定ステップにより特定される全ての指の移動が追跡されるから、どの指が操作対象指に指定されても対応できる。また、操作対象指の移動は他の指と連動して生ずるから、操作対象指だけでなく他の指の追跡情報も収集しておけば、これを操作対象指の追跡に利用することで、より正確な追跡も可能となる。   Further, the finger specifying step of the present invention may sequentially specify fingers of a hand existing within a finger specifying range predetermined on the near side of the remote control unit at predetermined time intervals. For example, when the finger specifying step is to specify a finger from an image of a hand that is shot with a moving image by the shooting unit, for each moving image frame that is sequentially acquired at predetermined time intervals by shooting, from the hand image displayed in the frame The finger will be specified. In such a case, position information for each finger sequentially specified by the finger specifying step is acquired, and the position information is sequentially specified by the finger specifying step by storing the position information as tracking information in a predetermined tracking information storage unit. By providing a finger tracking step for tracking finger movement for each finger, the operation target finger tracking step is based on the tracking information of the operation target finger among the tracking information for each finger stored in the finger tracking step. The movement of the finger specified as the operation target finger can be tracked. According to this configuration, since the movement of all the fingers specified by the finger specifying step is tracked, it is possible to cope with any finger designated as the operation target finger. In addition, since the movement of the operation target finger occurs in conjunction with other fingers, if tracking information of not only the operation target finger but also other fingers is collected, this can be used for tracking the operation target finger. More accurate tracking is also possible.

また、指追跡ステップは、指特定ステップ毎に前記追跡情報を記憶している追跡中の各指が、次回の前記指特定ステップにて位置すると推定される次回位置を、対応する前記追跡情報に基づいて算出する次回位置推定ステップを有するものとできる。この場合、指追跡ステップは、当該次回位置推定ステップにて算出される前記追跡中の各指の前記次回位置と、次回の前記指特定ステップにて実際に特定される各指の実位置との位置関係が、予め定められた基準条件を満たすペアを特定するとともに、当該ペアの一方である前記追跡中の指と前記指特定ステップにて実際に特定された指とは互いを同一の指と判断し、当該追跡中の指が同一と判断された実際に特定された指の位置に移動したものとして、当該指の移動追跡を継続するものとできる。具体的に言えば、同一と認識された当該実際に特定された指の位置情報を、当該追跡中の指の最新の位置情報として前記追跡情報記憶部に記憶する形で当該追跡情報記憶部に記憶されている前記追跡情報を更新することにより、当該指の移動追跡を継続するものとできる。この構成によると、追跡情報が記憶されることで、過去の追跡情報から追跡中の指の次回の移動先を推定できる。さらに、その推定された位置と実際に指が特定された位置との位置関係を比較して、双方が例えば所定レベル以上近接した位置関係にある場合には、追跡中の指が推定どおりに移動したものと判断できる。つまり、追跡中の移動先の推定を、過去の追跡情報を用いることで高い精度で行うことができ、さらに指の移動追跡は、その推定結果を用いてなされるから、高い追跡精度が得られる。   In the finger tracking step, each tracking target storing the tracking information for each finger specifying step is set to the corresponding tracking information, with the next position estimated to be positioned in the next finger specifying step. It is possible to have a next position estimation step that is calculated on the basis of this. In this case, the finger tracking step includes the next position of each finger being tracked calculated in the next position estimating step and the actual position of each finger actually specified in the next finger specifying step. The positional relationship specifies a pair that satisfies a predetermined standard condition, and the finger being tracked and the finger actually specified in the finger specifying step as one of the pair are mutually the same finger The movement tracking of the finger can be continued assuming that the finger being determined has moved to the position of the actually specified finger determined to be the same. Specifically, the position information of the actually identified finger that is recognized as the same is stored in the tracking information storage unit in the form of being stored in the tracking information storage unit as the latest position information of the finger being tracked. The movement tracking of the finger can be continued by updating the stored tracking information. According to this configuration, the tracking information is stored, so that the next movement destination of the finger being tracked can be estimated from the past tracking information. Furthermore, the positional relationship between the estimated position and the position where the finger is actually specified is compared. If both are close to each other, for example, a predetermined level or more, the finger being tracked moves as estimated. It can be judged that In other words, the movement destination being tracked can be estimated with high accuracy by using past tracking information, and the movement tracking of the finger is performed using the estimation result, so that high tracking accuracy can be obtained. .

上記追跡情報は、複数回の前記指特定ステップにより特定された対応する前記追跡中の指の各位置情報を含むことを可能とできる。この場合、次回位置推定ステップは、当該各位置情報に基づいて、対応する追跡中の指の前記次回位置を算出するものとできる。この構成によると、追跡中の指の過去複数回の位置から次回の位置が推定されるので、高い推定精度を得ることができる。   The tracking information may include each position information of the corresponding finger being tracked identified by the finger identifying step a plurality of times. In this case, the next position estimation step can calculate the next position of the corresponding finger being tracked based on the position information. According to this configuration, since the next position is estimated from the past positions of the finger being tracked, high estimation accuracy can be obtained.

また、本発明の次回位置推定ステップは、前記追跡情報に、前回及び前々回の前記指特定ステップにより特定された対応する前記追跡中の指の各位置情報が含まれる場合には、それら双方の位置情報に基づいて、当該追跡中の指の前記次回位置を算出することができる一方で、前記追跡情報に、前回の前記指特定ステップにより特定された対応する前記追跡中の指の位置情報が含まれ、前々回の前記指特定ステップにより特定された対応する前記追跡中の指の位置情報が含まれていない場合には、前回の前記指特定ステップにより特定された際の前記位置情報と、当該位置情報が示す位置に近接する前記指特定可能範囲の縁部の位置とに基づいて、当該追跡中の指の前記次回位置を算出することができる。追跡中の指の前回及び前々回の位置が分かる場合には、それら双方を用いて、次回の位置を高い精度で推定することができるが、追跡中の指の位置が前回の分だけしか分からない場合、即ち追跡中の指が前回新規に出現した指である場合には、1つの位置しか分からないためそれだけでは高い精度で次回の位置を推定できない。ところが、上記構成によれば、前々回の位置の代わりに、前回の位置に近接する指特定可能範囲の縁部の位置を用いる。この場合、前回新規に出現したばかりの指は、指特定可能範囲の最も近接する縁部から出現した可能性が高いから、当該縁部を前々回の位置として利用することで、前々回の位置がなくても、次の位置を十分な精度で推定できる。   Further, in the next position estimation step of the present invention, when the tracking information includes each position information of the corresponding finger being tracked specified by the finger specifying step of the previous time and the previous time, both positions of the tracking information are included. While the next position of the finger being tracked can be calculated based on the information, the tracking information includes the corresponding position information of the finger being tracked identified by the previous finger identifying step. If the position information of the corresponding finger being tracked specified by the finger specifying step last time is not included, the position information specified by the previous finger specifying step and the position Based on the position of the edge of the finger identifiable range close to the position indicated by the information, the next position of the finger being tracked can be calculated. When the previous and previous positions of the finger being tracked are known, the next position can be estimated with high accuracy using both of them, but the position of the finger being tracked is known only for the previous time. In this case, that is, when the finger being tracked is a finger that has newly appeared last time, since only one position is known, the next position cannot be estimated with high accuracy alone. However, according to the above configuration, the position of the edge of the finger identifiable range close to the previous position is used instead of the previous position. In this case, since the finger that has just newly appeared last time is likely to have appeared from the nearest edge of the finger identifiable range, there is no previous position by using that edge as the previous position. However, the next position can be estimated with sufficient accuracy.

本発明の指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に実際に特定された指とは前記基準条件を満たさなかった前記追跡中の指がある場合には、当該追跡中の指を追跡不可の指として認識を切り替えるとともに、追跡不可と認識されたときの当該指に係る情報を追跡復帰判断情報として、予め定められた追跡復帰判断情報記憶部に記憶するものとできる。この場合、前記指追跡ステップはさらに、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指がある場合には、前記追跡復帰判断情報記憶部に記憶されている前記追跡復帰判断情報に基づいて、実際に特定された当該指が過去に追跡不可とされた指と同一であるか否かを判断し、同一であると判断された場合には、当該追跡復帰判断情報に対応する追跡不可とされていた指が、実際に特定された当該指の位置に再出現したと認識して、当該指の移動追跡を再開する一方で、同一ではないと判断された場合には、実際に特定された当該指が新規出現した指であると認識して、当該指の移動追跡を新たに開始するものとできる。具体的に言えば、同一であると判断された場合には、実際に特定された指の位置情報を、同一と認識された追跡不可とされていた当該指の最新の位置情報として前記追跡情報記憶部に記憶する形で、当該追跡情報記憶部に記憶されている前記追跡情報を更新することにより、当該指の移動追跡を再開する一方で、同一でないと判断された場合には、新規出現の指の位置情報を前記追跡情報として前記追跡情報記憶部に記憶することにより、当該指の移動追跡を新たに開始するものとできる。操作対象指は、指特定ステップにおいて特定可能な範囲外に移動した際には特定されなくなるが、特定されなくなったからといって、その指以外の指を操作対象指とすることは得策であるとはいい難い。例えば、人差し指が操作対象指とされていた状態で、この人差し指が特定範囲外に移動した場合に、薬指が特定されているからといって、この薬指を操作対象指に変更することはあまり望ましいことではなく、再び人差し指が特定されるまでは、操作対象指を指定しないほうがよい。つまり、一定の指が常に操作対象指として指定される方が、操作しやすいのである。上記構成によれば、追跡中の指をロスト(追跡不可)した場合には、ロスト時の状況が追跡復帰判断情報として記憶され、追跡されていなかった指が新たに特定された場合には、蓄積された追跡復帰判断情報を根拠に、その指が過去にロストした指であるか否かが判断されるから、一度ロストした指が再出現した場合には、これを同じ指と認識することができる。ロストした指が操作対象指である場合には、再出現した際に再び操作対象指として直ちに指定することができ、そのまま移動追跡を再開できる。   In the finger tracking step of the present invention, when there is a finger being tracked that does not satisfy the reference condition with the finger actually specified when the finger is specified in the finger specifying step, the tracking is performed. It is possible to switch the recognition as a finger that cannot be tracked and to store information related to the finger when it is recognized as untraceable as tracking return determination information in a predetermined tracking return determination information storage unit. . In this case, the finger tracking step is further performed when there is an actually specified finger that does not satisfy the reference condition with the finger being tracked when the finger is specified by the finger specifying step. , Based on the tracking return determination information stored in the tracking return determination information storage unit, it is determined whether the finger actually identified is the same as a finger that has been made untrackable in the past, the same If it is determined that the finger that was untrackable corresponding to the tracking return determination information has reappeared at the position of the finger that was actually identified, the movement tracking of the finger On the other hand, if it is determined that the fingers are not the same, the finger actually identified is recognized as a newly appearing finger, and movement tracking of the finger can be newly started. Specifically, when it is determined that they are the same, the position information of the actually identified finger is the tracking information as the latest position information of the finger that is recognized as unidentifiable and that cannot be tracked. By renewing the tracking information stored in the tracking information storage unit in the form stored in the storage unit, the movement tracking of the finger is resumed. By storing the position information of the finger in the tracking information storage unit as the tracking information, the movement tracking of the finger can be newly started. The operation target finger is not specified when it moves outside the range that can be specified in the finger specification step, but it is a good idea to use a finger other than that finger as the operation target finger just because it is no longer specified. Is not good. For example, when the index finger has been moved as an operation target finger and the index finger has moved out of a specific range, it is less desirable to change the ring finger to the operation target finger simply because the ring finger has been specified. Rather, it is better not to designate the operation target finger until the index finger is identified again. That is, it is easier to operate if a certain finger is always designated as the operation target finger. According to the above configuration, when the finger being tracked is lost (tracking is impossible), the situation at the time of the loss is stored as tracking return determination information, and when a finger that has not been tracked is newly specified, Based on the accumulated tracking return determination information, it is determined whether the finger is a finger that has been lost in the past. If a finger that has been lost once appears again, it is recognized as the same finger. Can do. If the lost finger is the operation target finger, it can be immediately designated again as the operation target finger when it reappears, and movement tracking can be resumed as it is.

この場合の追跡情報は、少なくとも前記指特定ステップにより特定された指の最新の位置情報を含むものとすることができ、前記追跡復帰判断情報も、対応する指が追跡不可と認識される前の最後の位置情報を含むものとできる。この構成によると、指追跡ステップにて、ロスト(追跡不可)する直前の位置と、再出現の位置とを比較し、互いが近い位置関係にあるペアを同一の指と判断できる。つまり、ロスト時に直前の位置を記憶し、再出現時に位置の比較するだけで、新たに特定された指が再出現した指であるか否かを容易に判断可能となる。   The tracking information in this case may include at least the latest position information of the finger specified by the finger specifying step, and the tracking return determination information is also the last information before the corresponding finger is recognized as untrackable. It can include location information. According to this configuration, in the finger tracking step, the position immediately before being lost (not trackable) is compared with the reappearing position, and a pair in a close positional relationship can be determined as the same finger. That is, it is possible to easily determine whether or not a newly specified finger is a re-appearing finger simply by storing the previous position at the time of loss and comparing the position at the time of re-appearance.

本発明の指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指が特定されており、なおかつ追跡復帰判断情報記憶部に、複数の指の追跡復帰判断情報が記憶されている場合には、実際に特定された当該指の位置情報と、それら前記追跡復帰判断情報に含まれる追跡不可の指の最後の位置情報とに基づいて、実際に特定された当該指に最も近い位置を示す前記位置情報を含む前記追跡復帰判断情報に対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定するものとできる。この構成によると、ロスト(追跡不可)した指が複数存在する場合であっても、それらロスト中の指の最終特定位置と新たに特定された指の位置とを比較し、最も近いかったロスト中の指を、新たに特定された指と同一と判断される。ロストした指は、ロストした箇所と同じ位置から出現する可能性が高いから、これを利用することで、新たに特定された指が新規に出現したものかロストしていた指が再出現したものかを正確に特定できる。   In the finger tracking step of the present invention, when the finger is specified by the finger specifying step, an actually specified finger that does not satisfy the reference condition with the finger being tracked is specified, and When tracking return determination information of a plurality of fingers is stored in the tracking return determination information storage unit, the position information of the finger actually identified and the untrackable finger included in the tracking return determination information Based on the last position information of the first finger, the finger that is untraceable corresponding to the tracking return determination information including the position information indicating the position closest to the finger actually identified is actually identified. It can be determined that the finger is the same finger. According to this configuration, even when there are a plurality of lost (untrackable) fingers, the last specified position of the finger in the lost is compared with the position of the newly specified finger, and the lost The middle finger is determined to be the same as the newly specified finger. Since a lost finger is likely to appear from the same position as the lost part, by using this, a newly identified finger or a lost finger reappears. Can be accurately identified.

本発明の指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指が特定されている場合に、実際に特定された当該指の位置情報と、前記追跡復帰判断情報に含まれる追跡不可の指の最後の位置情報とが示すそれぞれの位置間の距離が、予め定められた基準距離を下回る場合には、実際に特定された当該指と当該追跡復帰判断情報に対応する追跡不可とされている指とを同一と認識することを許可する一方で、前記基準距離を下回らない場合には、実際に特定された当該指と当該追跡復帰判断情報に対応する追跡不可とされている指とを同一と認識することを禁止するものとできる。ロスト(追跡不可)中の指の最終特定位置と新たに特定された指の位置とを比較したときに、両者の距離があまりにかけ離れた位置にある場合には、両指は異なる指である可能性が高い。上記構成とすることで、新たに特定された指が新規に出現したものかロストしていた指が再出現したものかをより正確に特定できる。   The finger tracking step of the present invention is performed when an actually specified finger that does not satisfy the reference condition with the finger being tracked when the finger is specified by the finger specifying step is specified. When the distance between the positions indicated by the actually specified finger position information and the last position information of the non-trackable finger included in the tracking return determination information is less than a predetermined reference distance Is allowed to recognize that the finger actually identified and the finger that is not traceable corresponding to the tracking return determination information are the same, but if it is not less than the reference distance, It can be prohibited to recognize that the finger specified in (2) is identical to the finger that cannot be traced corresponding to the tracking return determination information. When comparing the last specified position of a finger that is lost (not trackable) with the position of a newly specified finger, if the distance between them is too far away, both fingers may be different fingers High nature. With the above-described configuration, it is possible to more accurately identify whether a newly specified finger has newly appeared or a lost finger has reappeared.

本発明の指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に実際に特定された指とは前記基準条件を満たさなかった前記追跡中の指があり、当該追跡中の指が追跡不可と認識された場合には、追跡不可と認識されたときの当該指に係る情報と共に、他の追跡不可の指との追跡不可認識時期の前後関係が特定可能となる追跡不可認識順序を、追跡復帰判断情報として前記追跡復帰判断情報記憶部に記憶するものとできる。この場合、前記指追跡ステップはさらに、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指が特定されており、なおかつ前記追跡復帰判断情報記憶部には、複数の指の追跡復帰判断情報が記憶されている場合には、実際に特定された当該指の位置情報と、それら前記追跡復帰判断情報に含まれる追跡不可の指の最後の位置情報とに基づいて、実際に特定された当該指に最も近い位置を示す前記位置情報を含む前記追跡復帰判断情報を特定することができる。ただし、実際に特定された当該指に最も近い位置を示す前記位置情報を含む追跡復帰判断情報が1つ特定されている場合には、当該追跡復帰判断情報に対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定する一方で、実際に特定された当該指に最も近い位置を示す前記位置情報を含む追跡復帰判断情報が2以上特定される場合には(つまり、複数の前記追跡復帰判断情報に含まれる位置情報が示す位置が予め定められた近接条件を満たす位置関係にある場合には)、それら追跡復帰判断情報に含まれる前記追跡不可認識順序を参照して、それら追跡復帰判断情報のうち追跡不可認識時期が最も新しいものに対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定するものとできる。人間の手における指の並びからすると、複数の指がほぼ同じ位置を最後にロスト(追跡不可)した場合には、それらが再び出現する時には、最後にロストした指から順に出現する可能性が高い。上記構成とすることで、ロスト中の指が複数あったとしても、新たに特定された指がロスト中のどの指と同一であるかを正確に特定できる。   In the finger tracking step of the present invention, the finger that is actually specified when the finger is specified by the finger specifying step includes the finger being tracked that does not satisfy the reference condition. If it is recognized that tracking is not possible, the information related to the finger when it is recognized that tracking is not possible, and the unrecognizable order in which the tracking relationship with other non-tracking fingers can be identified. Can be stored in the tracking return determination information storage unit as tracking return determination information. In this case, the finger tracking step further specifies an actually specified finger that does not satisfy the reference condition with the finger being tracked when the finger is specified in the finger specifying step. In addition, when the tracking return determination information storage unit stores tracking return determination information of a plurality of fingers, it is included in the actually specified finger position information and the tracking return determination information. The tracking return determination information including the position information indicating the position closest to the actually specified finger can be specified based on the last position information of the finger that cannot be tracked. However, in the case where one tracking return determination information including the position information indicating the position closest to the actually specified finger is specified, the finger that cannot be tracked corresponding to the tracking return determination information is specified. Is determined to be the same finger as the actually specified finger, while two or more tracking return determination information including the position information indicating the position closest to the actually specified finger is specified. (That is, when the position indicated by the position information included in the plurality of tracking return determination information is in a positional relationship satisfying a predetermined proximity condition), the untrackable recognition order included in the tracking return determination information is Referring to the tracking return determination information, the finger that cannot be tracked corresponding to the latest tracking-unrecognized recognition time can be determined to be the same finger as the actually specified finger. According to the arrangement of fingers in the human hand, when multiple fingers are lost (not traceable) at the same position last, when they appear again, there is a high possibility that they will appear in order from the last lost finger. . With the above configuration, even if there are a plurality of fingers in the lost state, it is possible to accurately specify which finger in the lost state is the same as the newly specified finger.

なお、本発明の追跡復帰判断情報は、対応する指が追跡不可と認識される際に、追跡情報記憶部に記憶されていた当該指の前記追跡情報とすることができる。この構成によると、追跡中の指をロスト(追跡不可)した際に、追跡情報記憶部に記憶されていた当該指の追跡情報をそのまま追跡復帰判断情報に記憶するだけでよい。追跡情報記憶部と追跡復帰判断情報記憶部とが同じとするならば、記憶されている追跡情報をそのまま残しておくだけでよい。   Note that the tracking return determination information of the present invention can be the tracking information of the finger stored in the tracking information storage unit when the corresponding finger is recognized as untrackable. According to this configuration, when the finger being tracked is lost (not trackable), the tracking information of the finger stored in the tracking information storage unit may be stored in the tracking return determination information as it is. If the tracking information storage unit and the tracking return determination information storage unit are the same, it is only necessary to leave the stored tracking information as it is.

本発明の指追跡ステップは、前記指特定ステップにより指が特定され、なおかつ特定された当該指が新規出現の指として認識した際には、当該新規の指に対し新たな識別情報を付与するとともに、当該識別情報に対応付けた形で、各指の前記追跡情報を前記追跡情報記憶部に記憶するものとできる。これにより、指特定ステップにより特定された指には識別情報が付されるので、指に対応する情報管理が容易となる。   In the finger tracking step of the present invention, when the finger is specified by the finger specifying step and the specified finger is recognized as a newly appearing finger, new identification information is given to the new finger. The tracking information of each finger can be stored in the tracking information storage unit in association with the identification information. Thereby, identification information is attached to the finger specified in the finger specifying step, and information management corresponding to the finger is facilitated.

また、追跡復帰判断情報記憶部を有した本発明の構成において、指追跡ステップは、前記識別情報が付与されている前記追跡中の指を追跡不可の指として認識した際には、当該指の前記識別情報に前記追跡復帰判断情報を対応付けた形で前記追跡復帰判断情報記憶部に記憶するものとできる。この場合、追跡中の指をロスト(追跡不可)してもその指の識別情報はそのまま残されるから、ロスト後もその指に対応する情報を容易に管理できる。   Further, in the configuration of the present invention having the tracking return determination information storage unit, when the finger tracking step recognizes the finger being tracked to which the identification information is given as a finger that cannot be tracked, The tracking return determination information storage unit may store the identification information in association with the tracking return determination information. In this case, even if the finger being tracked is lost (tracking is impossible), the identification information of the finger remains as it is, so that information corresponding to the finger can be easily managed even after the finger is lost.

本発明の指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に、追跡情報記憶部に記憶された追跡情報と、さらには追跡復帰判断情報記憶部に記憶された追跡復帰判断情報とに基づいて、当該指特定ステップにより実際に特定された指が前記追跡中の指であるか否か、さらには追跡不可の指であるか否かを、前記識別情報が付された指ごとに判定し、その判定結果を追跡状況として前記識別情報に対応付けた形で、予め定められた追跡状況記憶部に記憶するものとできる。この構成によると、識別情報が付された指の追跡状況(追跡中、ロスト等)を容易に特定することができる。   The finger tracking step of the present invention includes the tracking information stored in the tracking information storage unit and the tracking recovery determination stored in the tracking recovery determination information storage unit when the finger is specified in the finger specifying step. Based on the information, whether the finger actually specified by the finger specifying step is the finger being tracked, or whether the finger is not trackable or not. The determination result can be stored in a predetermined tracking state storage unit in a form associated with the identification information as a tracking state. According to this configuration, it is possible to easily identify the tracking state (during tracking, lost, etc.) of the finger with identification information.

本発明の指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に、指が特定されなかった場合には、前記識別情報及び当該識別情報に対応付けて記憶される各種情報を消去し、初期化するものとできる。順次特定される指の各種情報が識別情報に対応付けて記憶更新されていく中で、指が特定されなかったタイミングで一度全ての情報の初期化を図ることができる。   In the finger tracking step of the present invention, if the finger is not specified when the finger is specified in the finger specifying step, the identification information and various information stored in association with the identification information are stored. It can be erased and initialized. While various information of the finger specified sequentially is stored and updated in association with the identification information, all the information can be initialized once at the timing when the finger is not specified.

また、本発明の表示装置は、上記した本発明の表示方法における各ステップ(指特定ステップ、操作対象指指定ステップ、指先特定ステップ、位置指示画像強調表示ステップ、指定指情報取得ステップ)を実現する手段(指特定手段、操作対象指指定手段、指先特定手段、位置指示画像強調表示手段、指定指情報取得手段)を備えて構成することができる。これにより、表示装置において上記効果を実現できる。   In addition, the display device of the present invention realizes each step (finger identification step, operation target finger designation step, fingertip identification step, position indication image emphasis display step, designation finger information acquisition step) in the display method of the present invention described above. Means (finger identification means, operation target finger designation means, fingertip identification means, position indication image emphasis display means, designation finger information acquisition means) can be provided. Thereby, the said effect is realizable in a display apparatus.

また、本発明の操作入力装置は、上記表示装置を備えて構成することができる。具体的にいえば、表示画面は、機器の操作などを行うための画面として構成し、遠隔操作面は、表示画面とは異なる位置に設けられて当該表示画面における操作入力を遠隔的に行うための操作面として構成するとともに、上記表示画面を有した表示手段と、上記遠隔操作面を有した遠隔操作部と、遠隔操作面への押圧操作に基づいて押圧操作位置に対応した入力を受け付ける入力受付手段と、遠隔操作面に対向する手の画像を撮影する手画像撮影手段と、当該手により位置指示された表示画面上の位置に撮影された手の画像に基づいて生成された位置指示画像を表示する位置指示画像強調表示手段と、を備えて構成することができる。これにより、上記表示方法の効果を有した遠隔操作用の操作入力装置を実現できる。   Moreover, the operation input device of the present invention can be configured to include the display device. Specifically, the display screen is configured as a screen for performing device operations and the like, and the remote operation surface is provided at a position different from the display screen to remotely perform operation input on the display screen. And an input for accepting an input corresponding to a pressing operation position based on a pressing operation on the remote operation surface, a display means having the display screen, a remote operation unit having the remote operation surface A receiving unit, a hand image capturing unit that captures an image of a hand facing the remote operation surface, and a position indication image generated based on a hand image taken at a position on the display screen instructed by the hand. And a position indication image emphasis display means for displaying. Thereby, the operation input device for remote operation which has the effect of the said display method is realizable.

また、本発明の操作入力装置は車両用操作入力装置とすることができる。具体的にいえば、上記機器は車載搭載機器であり、表示画面は運転者よりも車両前方側にて該運転者により視認可能に配置され、遠隔操作面は、表示画面よりも運転者に近い位置に設けることができる。操作対象指が分かり易い表示がなされるので、操作が容易となる。特に運転者の操作の簡易化に貢献できる。   The operation input device of the present invention can be a vehicle operation input device. Specifically, the device is a vehicle-mounted device, the display screen is arranged to be visible by the driver on the vehicle front side of the driver, and the remote operation surface is closer to the driver than the display screen. Can be provided in position. Since the operation target finger is displayed in an easy-to-understand manner, the operation becomes easy. In particular, it can contribute to simplification of the driver's operation.

本発明のタッチ式操作入力装置の一例である車両用操作入力装置を用いた車両用ナビゲーション装置の構成を示すブロック図。The block diagram which shows the structure of the navigation apparatus for vehicles using the operation input device for vehicles which is an example of the touch-type operation input device of this invention. 車両用操作入力装置の概要を説明するための車室内の要部斜視図。The principal part perspective view in a vehicle interior for demonstrating the outline | summary of the operation input apparatus for vehicles. 操作情報入力部の第一の構成を示す断面図。Sectional drawing which shows the 1st structure of an operation information input part. 操作パネルに対向する手の撮影及び表示を説明する第一の図。The 1st figure explaining photography and display of the hand which opposes an operation panel. 操作パネルに対向する手の撮影及び表示を説明する第二の図。The 2nd figure explaining photography and a display of the hand which opposes an operation panel. 位置指示画像の強調表示処理の流れを示すフローチャート。The flowchart which shows the flow of the highlight display process of a position instruction | indication image. 本発明の第一実施形態における操作対象指の特定処理の流れを示すフローチャート。The flowchart which shows the flow of the specific process of the operation target finger in 1st embodiment of this invention. 指先の特定方法を説明する図。The figure explaining the specific method of a fingertip. 本発明の第一実施形態において操作対象指を特定する方法の第一例を説明する図。The figure explaining the 1st example of the method of specifying an operation target finger in 1st embodiment of this invention. 本発明の第一実施形態において操作対象指を特定する方法の第二例を説明する図。The figure explaining the 2nd example of the method of specifying an operation target finger in 1st embodiment of this invention. 本発明の第一実施形態において操作対象指を特定する方法の第三例を説明する図。The figure explaining the 3rd example of the method of specifying an operation target finger in 1st embodiment of this invention. 位置指示画像の強調表示の一例を示す図。The figure which shows an example of the highlight display of a position instruction | indication image. タッチ操作入力処理の流れを示すフローチャート。The flowchart which shows the flow of a touch operation input process. 本発明の第一実施形態の第一変形例における操作対象指の特定処理の流れを示すフローチャート。The flowchart which shows the flow of the specific process of the operation target finger in the 1st modification of 1st embodiment of this invention. 本発明の第一実施形態の第一変形例において操作対象指を特定する方法の第一例を説明する図。The figure explaining the 1st example of the method of specifying an operation target finger in the 1st modification of 1st embodiment of this invention. 本発明の第一実施形態の第一変形例において操作対象指を特定する方法の第二例を説明する図。The figure explaining the 2nd example of the method of specifying an operation target finger in the 1st modification of 1st embodiment of this invention. 本発明の第一実施形態の第二変形例における操作対象指の特定処理の流れを示すフローチャート。The flowchart which shows the flow of the specific process of the operation target finger in the 2nd modification of 1st embodiment of this invention. 本発明の第一実施形態の第二変形例において操作対象指を特定する方法の一例を説明する図。The figure explaining an example of the method of specifying an operation target finger in the 2nd modification of 1st embodiment of this invention. 本発明の第一実施形態の第三変形例における操作対象指の特定処理の流れを示すフローチャート。The flowchart which shows the flow of the specific process of the operation target finger in the 3rd modification of 1st embodiment of this invention. 本発明の第一実施形態の第三変形例における操作対象指の特定処理の流れを示すフローチャート。The flowchart which shows the flow of the specific process of the operation target finger in the 3rd modification of 1st embodiment of this invention. 本発明の第一実施形態の第四変形例において操作対象指を特定する方法の一例を説明する図。The figure explaining an example of the method of specifying an operation target finger in the 4th modification of 1st embodiment of this invention. 本発明の第一実施形態の第五変形例において操作対象指を特定する方法の一例を説明する図。The figure explaining an example of the method of specifying an operation target finger in the 5th modification of 1st embodiment of this invention. 本発明の第一実施形態の第五変形例において操作対象指を特定する方法の一例を説明する図。The figure explaining an example of the method of specifying an operation target finger in the 5th modification of 1st embodiment of this invention. 本発明の第一実施形態の第六変形例において操作対象指を特定する方法の一例を説明する図。The figure explaining an example of the method of specifying an operation target finger in the sixth modification of the first embodiment of the present invention. 本発明の第一実施形態の第六変形例において操作対象指を特定する方法を説明する第一の図。The 1st figure explaining the method of specifying an operation target finger in the 6th modification of a first embodiment of the present invention. 本発明の第一実施形態の第六変形例において操作対象指を特定する方法を説明する第一の図。The 1st figure explaining the method of specifying an operation target finger in the 6th modification of a first embodiment of the present invention. 図2とは異なる車両用操作入力装置の概要を説明するための車室内の要部斜視図。The perspective view of the principal part in a vehicle interior for demonstrating the outline | summary of the operation input device for vehicles different from FIG. 操作者を特定するために撮影された画像の一例を示す図。The figure which shows an example of the image image | photographed in order to identify an operator. 図4又は図5の(c)とは異なる表示画像の一例。An example of the display image different from FIG.4 or FIG.5 (c). 本発明の第一実施形態の第七変形例においてつまみ操作を前提とする操作部を簡略的に示す斜視図。The perspective view which shows simply the operation part on the premise of knob operation in the 7th modification of 1st embodiment of this invention. 図30に示すx方向、y方向、z方向からの撮影画像の一例。An example of the picked-up image from the x direction, y direction, and z direction shown in FIG. 図31に基づく表示画像の一例。An example of the display image based on FIG. 図32とは異なる、図31に基づく表示画像の一例。An example of the display image based on FIG. 31 different from FIG. 本発明の第一実施形態の第七変形例において操作対象指を特定する方法の第二例を説明する図。The figure explaining the 2nd example of the method of specifying an operation target finger in the 7th modification of a first embodiment of the present invention. 従来の車両用操作入力装置において、操作パネルに対向する手の撮影及び表示を説明する図。The figure explaining the imaging | photography and display of the hand which opposes an operation panel in the conventional vehicle operation input device. 指追跡処理の流れを示すフローチャート。The flowchart which shows the flow of a finger tracking process. 図36に続くフローチャート。The flowchart following FIG. 指先位置を予測する制御回路に記憶される追跡情報を説明する図。The figure explaining the tracking information memorize | stored in the control circuit which estimates a fingertip position. 動画像フレーム間で指先を追跡する基本アルゴリズムを説明する図。The figure explaining the basic algorithm which tracks a fingertip between moving image frames. 指先(指)の出現予測位置の算出方法を示す図。The figure which shows the calculation method of the appearance predicted position of a fingertip (finger). 前フレームにて新規出現した指先の次フレームでの出現予測位置の算出方法を説明する図。The figure explaining the calculation method of the appearance predicted position in the next frame of the fingertip which newly appeared in the previous frame. 指先の新規出現及び指先のロストを説明する図。The figure explaining the new appearance of a fingertip and the loss of a fingertip. 本発明における位置指示画像の強調表示の時間変化の一例を示す図。The figure which shows an example of the time change of the highlight display of the position instruction | indication image in this invention. 本発明における位置指示画像の強調表示の時間変化の一例を示す図。The figure which shows an example of the time change of the highlight display of the position instruction | indication image in this invention. 本発明の第十実施形態における位置指示画像の強調表示の一表示例を示す図。The figure which shows the example of 1 display of the highlight display of the position instruction | indication image in 10th embodiment of this invention. 本発明の第十実施形態における位置指示画像の強調表示の一表示例を示す図。The figure which shows the example of 1 display of the highlight display of the position instruction | indication image in 10th embodiment of this invention. 本発明の第十実施形態における位置指示画像の強調表示の一表示例を示す図。The figure which shows the example of 1 display of the highlight display of the position instruction | indication image in 10th embodiment of this invention. 本発明の第十実施形態における位置指示画像の強調表示の一表示例を示す図。The figure which shows the example of 1 display of the highlight display of the position instruction | indication image in 10th embodiment of this invention. 本発明における位置指示画像を擬似指画像にて表示した一表示例を示す図。The figure which shows one example of a display which displayed the position instruction | indication image in this invention with the pseudo finger image. 本発明における位置指示画像を指先位置画像にて表示した一表示例を示す図。The figure which shows the example of a display which displayed the position instruction | indication image in this invention with the fingertip position image. 操作パネルに対向する手の撮影及び表示を説明する第三の図。The 3rd figure explaining imaging | photography and display of the hand which opposes an operation panel. 本発明の第二実施形態の位置指示画像表示処理を示すフローチャート。The flowchart which shows the position instruction | indication image display process of 2nd embodiment of this invention. 本発明の第三実施形態のタッチ操作入力処理を示すフローチャート。The flowchart which shows the touch operation input process of 3rd embodiment of this invention. 操作パネルに対向する手の撮影及び表示を説明する第四の図。FIG. 10 is a fourth diagram illustrating photographing and display of a hand facing the operation panel. 本発明の第四実施形態の位置指示画像表示処理を示すフローチャート。The flowchart which shows the position instruction | indication image display process of 4th embodiment of this invention. 本発明の第六実施形態のタッチ操作入力処理を示すフローチャート。The flowchart which shows the touch operation input process of 6th embodiment of this invention. 本発明において設定可能な表示許可期間の第一例を示す図。The figure which shows the 1st example of the display permission period which can be set in this invention. 本発明の第四実施形態における表示許可期間を示す図。The figure which shows the display permission period in 4th embodiment of this invention. 本発明の第五実施形態における表示許可期間を示す図。The figure which shows the display permission period in 5th embodiment of this invention. 本発明の第七実施形態の位置指示画像表示処理を示すフローチャート。The flowchart which shows the position instruction | indication image display process of 7th embodiment of this invention. 本発明の第八実施形態の位置指示画像表示処理を示すフローチャート。The flowchart which shows the position instruction | indication image display process of 8th embodiment of this invention. 本発明の第九実施形態の位置指示画像表示処理を示すフローチャート。The flowchart which shows the position instruction | indication image display process of 9th embodiment of this invention. 車速閾値の設定例を示す図。The figure which shows the example of a setting of a vehicle speed threshold value. 本発明の第十実施形態の位置指示画像表示処理を示すフローチャート。The flowchart which shows the position instruction | indication image display process of 10th Embodiment of this invention. 本発明における操作画面の一例。An example of the operation screen in this invention. 本発明における操作画面の一例。An example of the operation screen in this invention. 本発明における操作画面の一例。An example of the operation screen in this invention. 所定指状態の一例を説明する図。The figure explaining an example of a predetermined finger state. 所定指状態の一例を説明する図。The figure explaining an example of a predetermined finger state. 所定指状態の一例を説明する図。The figure explaining an example of a predetermined finger state. 所定指状態の一例を説明する図。The figure explaining an example of a predetermined finger state. 表示モード切替制御の実施対象となる画面条件の例を示す図。The figure which shows the example of the screen conditions used as the implementation target of display mode switching control. 所定指状態の例示。An example of a predetermined finger state.

以下、本発明の操作入力装置の一実施形態を、図面を参照して説明する。   Hereinafter, an embodiment of an operation input device of the present invention will be described with reference to the drawings.

(第一実施形態)
図1は、本発明の操作入力装置を用いた車両用ナビゲーション装置の構成を示すブロック図である。本実施形態においては、操作入力装置1として、表示画面上にタッチ操作用のスイッチ画像(操作アイコン)等の操作入力用画像を表示可能な表示装置15と、それら表示画面へのタッチ操作を遠隔的に行うための操作パネル12aとが別位置に設けられてなる操作入力装置を採用している。なお、本実施形態のタッチ式操作入力装置の操作対象は、ナビゲーション機能のみに限られず、車内LAN50を介して接続するECU100が制御する他の車載電子機器の機器機能(オーディオ、エアコン、パワーウィンドウ、シート調整機能等)も含むことができる。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a vehicle navigation device using the operation input device of the present invention. In the present embodiment, as the operation input device 1, a display device 15 capable of displaying an operation input image such as a switch image (operation icon) for touch operation on the display screen, and a touch operation on the display screen are remotely performed. An operation input device is employed in which an operation panel 12a for performing the operation is provided at a different position. Note that the operation target of the touch-type operation input device of the present embodiment is not limited to the navigation function, but is a device function (audio, air conditioner, power window, etc.) of other in-vehicle electronic devices controlled by the ECU 100 connected via the in-vehicle LAN 50. Sheet adjustment function, etc.).

ナビゲーション装置10は、車両の現在位置を検出する位置検出器11と、運転者等の操作者からの各種指示を入力するための操作情報入力部12と、地図データや各種の情報を記録した外部記録媒体から地図データ等を入力する地図データ入力器14と、地図表示画面やTV(Television)画面等の各種表示を行うための表示装置15と、各種のガイド音声等を出力したり運転者等の操作者の音声を入力したりするための音声入出力装置16と、車両情報等の各種のデータを記憶するためのハードディスク記憶装置17と、車両情報の授受を行うための車両I/F(Interface)部19と、他の通信装置13aと近距離無線通信を行うための無線通信機13と、これら11〜19と接続する制御回路18とを備えている。また、制御回路18は、カメラ20,40及び車速センサ30に接続することもできる。   The navigation device 10 includes a position detector 11 that detects the current position of the vehicle, an operation information input unit 12 for inputting various instructions from an operator such as a driver, and an external that records map data and various information. A map data input device 14 for inputting map data and the like from a recording medium, a display device 15 for performing various displays such as a map display screen and a TV (Television) screen, and outputting various guide voices, etc. A voice input / output device 16 for inputting the voice of the operator, a hard disk storage device 17 for storing various data such as vehicle information, and a vehicle I / F (for transmitting and receiving vehicle information) Interface) unit 19, a wireless communication device 13 for performing short-range wireless communication with another communication device 13 a, and a control circuit 18 connected to these 11 to 19. The control circuit 18 can also be connected to the cameras 20 and 40 and the vehicle speed sensor 30.

位置検出器11は、GPS(Global Positioning System)用の人工衛星からの送信電波をGPSアンテナを介して受信し、車両の位置,方位,速度等を検出するGPS受信機11aと、車両に加えられる回転運動の大きさを検出するジャイロスコープ11bと、車両の前後方向の加速度等から走行した距離を検出する距離センサ11cと、地磁気から進行方位を検出する地磁気センサ11dとを備えている。そして、これら各センサ等11a〜11dは、各々が性質の異なる誤差を有しているため、互いに補完しながら使用するように構成されている。なお、精度によっては、上述したうちの一部のセンサで構成してもよく、また、ステアリングの回転センサや各転動輪の車輪センサ等(図示せず)を用いてもよい。   The position detector 11 receives a radio wave transmitted from an artificial satellite for GPS (Global Positioning System) via a GPS antenna and is added to the vehicle and a GPS receiver 11a that detects the position, direction, speed, and the like of the vehicle. A gyroscope 11b that detects the magnitude of the rotational motion, a distance sensor 11c that detects the distance traveled from the longitudinal acceleration of the vehicle, and the like, and a geomagnetic sensor 11d that detects the traveling direction from the geomagnetism. Each of the sensors 11a to 11d has an error of a different property, and is configured to be used while complementing each other. Depending on the accuracy, some of the sensors described above may be used, or a steering rotation sensor, a wheel sensor for each rolling wheel, or the like (not shown) may be used.

操作情報入力部12は、図3に示すように、予め定められた波長帯の光を照射する光源12cと、該光源12cからの照射光が表面12a2側から表面12a1側に向けて透過するよう配置された透光性を有する操作パネル12aと、該操作パネル12aを撮影範囲に含む形で該操作パネル12aの裏面12a2側から撮影するカメラ(接近対象物撮影手段)12bと、を備えている。   As shown in FIG. 3, the operation information input unit 12 irradiates light of a predetermined wavelength band, and transmits the light emitted from the light source 12c from the surface 12a2 side to the surface 12a1 side. A translucent operation panel 12a is provided, and a camera (approaching object photographing means) 12b that photographs from the back surface 12a2 side of the operation panel 12a so as to include the operation panel 12a in the photographing range. .

なお、本実施形態の操作情報入力部12は、図2に示すように、車両のセンターコンソール部Cのような、車両のフロントガラス下縁よりも下側で、かつ隣接する左右両座席から操作可能な位置に設置されている。さらに言えば、表示装置15の表示画面よりも下側で、かつ隣接する左右両座席の両座部の間の前側に配置されている。なお、本実施形態における隣接する左右両座席とは、図2の運転席2D及び助手席2Pのことであるが、例えば後列の左右の座席であってもよい。さらに、左右両座席から操作可能な位置に限らず、例えば、ステアリング部やドア部など、操作者が操作しやすい位置に設置されていてもよい。   In addition, as shown in FIG. 2, the operation information input unit 12 of the present embodiment is operated from both the right and left seats below the lower edge of the windshield of the vehicle, such as the center console unit C of the vehicle. It is installed in a possible position. Furthermore, it is arranged below the display screen of the display device 15 and on the front side between both seats of the adjacent left and right seats. Note that the adjacent left and right seats in the present embodiment are the driver's seat 2D and the passenger seat 2P in FIG. 2, but may be, for example, the left and right seats in the rear row. Furthermore, the position is not limited to a position that can be operated from both the left and right seats, and may be installed at a position where the operator can easily operate, for example, a steering section or a door section.

操作パネル12aは、少なくとも光源12cから照射される光に対して透光性を有したパネルからなる。本実施形態においては縦方向透明電極と横方向透明電極とを備えた周知の抵抗膜方式のタッチパネルとして構成されており、その出力が制御回路18に入力される。   The operation panel 12a is a panel having translucency with respect to light emitted from at least the light source 12c. In this embodiment, it is configured as a well-known resistive film type touch panel provided with a vertical transparent electrode and a horizontal transparent electrode, and its output is input to the control circuit 18.

図3に示すように、操作パネル12aは、中空の筐体12fの前端開口に嵌め込まれており、表面12a1がタッチ操作面(遠隔操作面)とされている。前端開口を形成する筐体前端部121eの外縁からは、後方に向けて筒状の壁部122eが設けられており、その後端部が回路基板に固定されている。この筐体12fは、車室内の所定位置の固定配置されており、内部には、カメラ12b及び光源12cが配置されている。   As shown in FIG. 3, the operation panel 12a is fitted into the front end opening of the hollow casing 12f, and the surface 12a1 is a touch operation surface (remote operation surface). From the outer edge of the housing front end 121e forming the front end opening, a cylindrical wall 122e is provided rearward, and the rear end is fixed to the circuit board. The housing 12f is fixedly disposed at a predetermined position in the vehicle interior, and a camera 12b and a light source 12c are disposed inside.

光源12cは、図3に示すように、操作パネル12aを裏面12a2から表面12a1に透過させる形で光を照射する。光源12cからの光(照射光)は、タッチ操作面12a1を被うように位置する接近対象物(例えば手等)が存在しない限り、該タッチ操作面12a1から外に通過していくが、該タッチ操作面12a1に対向する形で接近した接近対象物Hが存在する場合には、当該接近対象物Hに反射して、その光(反射光)の一部は裏面12a2側に戻り、カメラ12bに捉えられる。   As shown in FIG. 3, the light source 12c irradiates light in such a manner that the operation panel 12a is transmitted from the back surface 12a2 to the front surface 12a1. Light (irradiation light) from the light source 12c passes outside from the touch operation surface 12a1 unless there is an approaching object (such as a hand) positioned so as to cover the touch operation surface 12a1, When there is an approaching object H that is approaching the touch operation surface 12a1, it is reflected by the approaching object H and part of the light (reflected light) returns to the back surface 12a2 side, and the camera 12b. To be captured.

カメラ12bは、光源12cから照射された光が接近対象物Hにて反射した反射光を捉える形で、当該接近対象物Hを操作パネル12aの裏面12a2側から撮影するものであり、予め定められた撮影範囲を撮影するよう車体側に固定されている。具体的にいえば、当該撮影範囲をカメラ12bにより撮影できるように反射部材12rが設けられ、カメラ12bはその反射画像を撮影している。反射部材12rが無い場合は、当該撮影範囲をカメラ12bにより直接撮影する形となるから、撮影後の画像に左右反転処理を施す必要がある。   The camera 12b captures the reflected object reflected from the approaching object H by the light emitted from the light source 12c, and photographs the approaching object H from the back surface 12a2 side of the operation panel 12a. It is fixed on the vehicle body side to shoot the shooting range. Specifically, a reflecting member 12r is provided so that the photographing range can be photographed by the camera 12b, and the camera 12b photographs the reflected image. When there is no reflecting member 12r, the photographing range is directly photographed by the camera 12b. Therefore, it is necessary to perform left-right reversal processing on the photographed image.

本実施形態において、光源12cは赤外光光源であり、カメラ12bは、暗所での撮影にも適した赤外線カメラ(可視光をシャットアウトする図示しない赤外線フィルタを備え、これを介して撮影を行う)である。赤外光光源12cから照射された光(赤外線)が接近対象物Hにて反射した反射光をカメラ12bが捉える形で撮影がなされる。カメラ12bは、車体側に固定された基板上に固定配置されており、撮影範囲として、タッチ操作面12a1が含まれる範囲が設定されている。また、赤外光光源12は、操作パネル12aの裏面側後方に位置するLEDである。また、本実施形態における操作パネル12aは、光源12cの光に対してのみ透光性を有した材料にて構成されているので、カメラ12b内の赤外線フィルタを不要とすることができ、かつ、筐体12fの内部が外部から視認できないようになっている。   In this embodiment, the light source 12c is an infrared light source, and the camera 12b includes an infrared camera (not shown) that shuts out visible light and is suitable for shooting in a dark place. Do). Photographing is performed in such a manner that the camera 12b captures the reflected light reflected from the approaching object H by the light (infrared rays) emitted from the infrared light source 12c. The camera 12b is fixedly arranged on a substrate fixed to the vehicle body side, and a range including the touch operation surface 12a1 is set as a shooting range. The infrared light source 12 is an LED located on the rear side of the operation panel 12a. In addition, since the operation panel 12a according to the present embodiment is made of a material having translucency only with respect to the light from the light source 12c, an infrared filter in the camera 12b can be eliminated, and The inside of the housing 12f is not visible from the outside.

なお、本実施形態におけるカメラ12bは、本発明の撮影手段として機能するものである。このカメラ12bは、操作パネル12aに対向する形で接近する接近対象物を撮影する接近対象物撮影手段として機能するものであり、接近対象物に手が含まれることを考慮すれば、その手の画像を撮影する手画像撮影手段、さらには手の指の画像を撮影する指画像撮影手段として機能しているともいえる。   Note that the camera 12b in the present embodiment functions as a photographing unit of the present invention. This camera 12b functions as an approaching object photographing means for photographing an approaching object approaching the operation panel 12a, and considering that the approaching object includes a hand, the hand It can be said that it functions as a hand image photographing means for photographing an image, and further as a finger image photographing means for photographing an image of a finger of a hand.

図4、図5、及び図51は、操作パネル12aに対向する手(指)の撮影を説明する図である。各図の(a)は、操作パネル12aと、その表面12a1に対向する手の状態(指の状態)を示しており、各図の(b)は、(a)の状態の手をカメラ12bにて撮影した映像150であり、操作パネル12a全体を撮影領域として撮影された画像である。ただし、本実施形態における(b)の映像150は、撮影後にその映像を2値化したものである。(b)において、符号150Hは接近対象物Hが映った領域、符号150Bは何も映らなかった領域である。符号150Bの領域は本来、操作パネル12aが映る領域であるが、該操作パネル12aが光源12cの光に対し透光性を有するので映らない。また、それであっても、その操作パネル12a越しに背景(本実施形態でいえば車両の天井面等)が映っていてもおかしくないが、そうした背景は除去されている。背景除去に関しては、特開2007−272596号公報に記載されているように、異なる照明条件の画像を使用することで可能となる。ちなみに、各図の(c)は、(b)の映像150が撮影されているときの、表示装置15における画面表示の一例である。本発明においては、操作パネル12aに複数の指が対向している場合には、図4(c)に示すように、特定の指に対応する位置指示画像200Hの表示領域が残余の指に対応する位置指示画像200Hの表示領域よりも相対的に強調された形で、背景画像200Bに対し合成ないし重畳されて表示される。   4, 5, and 51 are diagrams for explaining photographing of a hand (finger) facing the operation panel 12a. (A) of each figure has shown the state (finger state) of the operation panel 12a and the hand which opposes the surface 12a1, and (b) of each figure shows the hand of the state of (a) with the camera 12b. The image 150 is taken in the above, and is an image taken using the entire operation panel 12a as a shooting area. However, the video 150 of (b) in this embodiment is a binarized version of the video after shooting. In (b), reference numeral 150H is an area where the approaching object H is reflected, and reference numeral 150B is an area where nothing is reflected. The region denoted by reference numeral 150B is originally a region where the operation panel 12a is reflected, but is not reflected because the operation panel 12a has translucency with respect to the light from the light source 12c. Even in such a case, it is not strange that the background (the ceiling surface of the vehicle in the present embodiment) is reflected through the operation panel 12a, but such background is removed. Background removal is possible by using images with different illumination conditions, as described in Japanese Patent Application Laid-Open No. 2007-272596. Incidentally, (c) of each figure is an example of a screen display on the display device 15 when the video 150 of (b) is taken. In the present invention, when a plurality of fingers are opposed to the operation panel 12a, the display area of the position indication image 200H corresponding to a specific finger corresponds to the remaining fingers as shown in FIG. The position indication image 200H to be displayed is combined with or superimposed on the background image 200B in a relatively emphasized form.

図1に戻り、表示装置15は、図2の運転席2Dの車両前方側で、運転者により視認可能に設置されたカラー表示装置であり、表示画面がタッチ操作面12a1よりも運転者から遠い位置に設けられている。表示装置15としては、例えば液晶ディスプレイ,プラズマディスプレイ,有機ELディスプレイ等のいずれを用いてもよい。また、表示画面には、位置検出器11にて検出した車両の現在位置と地図データ入力器14より入力された地図データとから特定した現在地を示すマーク,目的地までの誘導経路,名称,目印,各種施設のマーク等の付加データとを重ねて表示することができる。また、施設のガイド等も表示できる。なお、表示装置15が本発明の表示手段に相当する。   Returning to FIG. 1, the display device 15 is a color display device installed on the front side of the driver's seat 2 </ b> D in FIG. 2 so as to be visible by the driver, and the display screen is farther from the driver than the touch operation surface 12 a 1. In the position. As the display device 15, for example, any of a liquid crystal display, a plasma display, an organic EL display, or the like may be used. The display screen also shows a mark indicating the current location identified from the current position of the vehicle detected by the position detector 11 and the map data input from the map data input device 14, a guide route to the destination, a name, and a mark. , Additional data such as marks of various facilities can be displayed in an overlapping manner. Also, facility guides can be displayed. The display device 15 corresponds to the display means of the present invention.

また、表示装置15は、車両が備える機器の操作などを行うための表示画面を有するものであり、本実施形態においては、表示画面上にタッチパネル15aを備えている。既に述べた操作情報入力部12のタッチパネル12aは、当該タッチパネル15aの操作を、それよりも運転者や助手席搭乗者に近い位置から遠隔的に操作できるよう設けられた遠隔操作部である。当該タッチ操作面12a1になされたタッチ操作に基づいて、そのタッチ操作位置に対応した、表示装置15の画面位置(タッチパネル15aのタッチ操作面位置)への入力が受け付けられる。具体的にいえば、表示装置15の表示画面上に定められる二次元座標系(タッチパネル15aのタッチ操作面上に定められる二次元座標系)と、該操作パネル12aのタッチ操作面12a1上に定められる二次元座標系との間には一義的な対応関係が予め定められており、一方の面内位置に対応する他方の面内位置が一義的に特定可能とされており、タッチ操作面12a1にタッチ操作があった場合には、その対応関係に基づいて、当該タッチ操作がなされた位置座標に対応する、表示装置15の表示画面上の位置座標への操作入力が受け付けられる。   In addition, the display device 15 has a display screen for performing operations of devices included in the vehicle, and in the present embodiment, the display device 15 includes a touch panel 15a on the display screen. The touch panel 12a of the operation information input unit 12 already described is a remote operation unit provided so that the operation of the touch panel 15a can be remotely operated from a position closer to the driver or passenger on the passenger seat. Based on the touch operation performed on the touch operation surface 12a1, an input to the screen position of the display device 15 (touch operation surface position of the touch panel 15a) corresponding to the touch operation position is accepted. More specifically, a two-dimensional coordinate system (two-dimensional coordinate system defined on the touch operation surface of the touch panel 15a) defined on the display screen of the display device 15 and a touch operation surface 12a1 of the operation panel 12a are defined. An unambiguous correspondence between the two-dimensional coordinate system is determined in advance, and the other in-plane position corresponding to the one in-plane position can be uniquely identified, and the touch operation surface 12a1. If there is a touch operation, an operation input to a position coordinate on the display screen of the display device 15 corresponding to the position coordinate where the touch operation is performed is received based on the correspondence.

つまり、タッチ操作面12a1にタッチ操作があった場合には、制御回路18が、そのタッチ操作がなされたタッチ操作面12a1上の位置座標を特定し、さらに、特定したタッチ操作面12a1上の位置座標に対応する、表示装置15の表示画面上の位置座標を特定して、その上で、特定された当該表示画面上の位置座標に対応する制御内容を実行する制御信号を出力する。例えば、表示装置15の表示画面にスイッチ画像(操作アイコン等)200Iが表示された場合には、タッチ操作面12a1上において、当該スイッチ画像200Iに対応する位置にタッチ操作をすれば、制御回路18では、当該スイッチ画像200Iへのタッチ操作があったとして入力が受け付けられ、これに伴い当該スイッチ画像200Iに対応する制御内容が実行される。表示装置15の表示画面にて表示送り可能な地図画面(地図操作用画像)が表示された場合には、タッチ操作面12a1上において、該地図上の位置にタッチ操作をすれば、制御回路18では、当該タッチ操作位置への入力が受け付けられ、これに伴い該タッチ操作位置を新たな画面中心として地図を表示する表示送り制御が実行される。   That is, when there is a touch operation on the touch operation surface 12a1, the control circuit 18 specifies the position coordinates on the touch operation surface 12a1 where the touch operation is performed, and further, the position on the specified touch operation surface 12a1. A position coordinate on the display screen of the display device 15 corresponding to the coordinate is specified, and then a control signal for executing control content corresponding to the specified position coordinate on the display screen is output. For example, when a switch image (operation icon or the like) 200I is displayed on the display screen of the display device 15, if the touch operation is performed at a position corresponding to the switch image 200I on the touch operation surface 12a1, the control circuit 18 Then, an input is accepted on the assumption that there has been a touch operation on the switch image 200I, and accordingly, the control content corresponding to the switch image 200I is executed. If a map screen (map operation image) that can be displayed on the display screen of the display device 15 is displayed, the control circuit 18 can be operated by touching the position on the map on the touch operation surface 12a1. Then, an input to the touch operation position is accepted, and accordingly, display feed control for displaying a map with the touch operation position as a new screen center is executed.

表示装置15の表示画面は、運転者よりも車両前方側にて該運転者により視認可能に配置されており、タッチ操作面12a1よりも運転者から遠い位置に設けられている。なお、表示装置15としては、図2に示すようなセンターコンソールC内に配置されるものに限られず、例えばフロントガラスFG下縁よりも上方に設置されるものであってもよい。具体的には、車両のフロントガラスFGに、上述の画像・データを表示するヘッドアップディスプレイ(HUD)や、ステアリングホイールの奥に位置するメーター表示装置等を例示できる。   The display screen of the display device 15 is arranged so as to be visible by the driver on the vehicle front side of the driver, and is provided at a position farther from the driver than the touch operation surface 12a1. Note that the display device 15 is not limited to the display device 15 disposed in the center console C as shown in FIG. 2, and may be installed above the lower edge of the windshield FG, for example. Specifically, a head-up display (HUD) for displaying the above-described image / data on the windshield FG of the vehicle, a meter display device located behind the steering wheel, and the like can be exemplified.

図1に戻り、地図データ入力器14は、ネットワークデータとしての道路データ,位置特定の精度向上のためのいわゆるマップマッチング用データ等の地図データ,施設を示すマークデータ,案内用の画像や音声データ等を含む各種のデータを入力するための装置である。これらのデータの記録媒体としては、CD−ROM,DVD−ROM,ハードディスク,メモリ,メモリカード等を用いることができる。   Returning to FIG. 1, the map data input device 14 is road data as network data, map data such as so-called map matching data for improving the accuracy of position specification, mark data indicating facilities, guidance image and audio data. It is a device for inputting various data including the like. A CD-ROM, DVD-ROM, hard disk, memory, memory card, or the like can be used as a recording medium for these data.

音声入出力装置16は、地図データ入力器14より入力した施設のガイドや各種案内の音声や、I/F19を介して取得した情報の読み上げ音声を出力することができる。また、音声入出力装置16は、図示しないマイクおよび周知の音声認識ユニットを含み、運転者等の操作者の音声をコマンド等として制御回路18に入力することができる。   The voice input / output device 16 can output facility guides and various guidance voices input from the map data input unit 14, and read-out voices of information acquired via the I / F 19. The voice input / output device 16 includes a microphone (not shown) and a known voice recognition unit, and can input voice of an operator such as a driver to the control circuit 18 as a command or the like.

無線通信機13は、他の通信装置13aと狭帯域通信を行うためのものであり、例えばDSRC(Dedicated Short Range Communications),Bluetooth(登録商標),無線LAN(Local Area Network),UWB(Ultra Wideband)などが使用されている。   The wireless communication device 13 is for performing narrowband communication with other communication devices 13a. For example, DSRC (Dedicated Short Range Communications), Bluetooth (registered trademark), wireless LAN (Local Area Network), UWB (Ultra Wideband). ) Etc. are used.

LAN I/F19は、車内LAN50を介して他の車載電子機器やセンサとのデータの遣り取りを行うためのインターフェース回路である。また、LAN I/F19を介して、例えば他のECU(図1のECU100等)からのデータ取り込みを行ってもよい。   The LAN I / F 19 is an interface circuit for exchanging data with other in-vehicle electronic devices and sensors via the in-vehicle LAN 50. Further, for example, data from another ECU (ECU 100 in FIG. 1 or the like) may be taken in via the LAN I / F 19.

制御回路18は、図示しない周知のCPU,ROM,RAM,I/O(Input/Output)およびこれらの構成を接続するバスライン等からなる周知のマイクロコンピュータを中心に構成されており、ROM等の記憶部に記憶されたプログラムに基づいて、位置検出器11からの各検出信号に基づき座標および進行方向の組として車両の現在位置を算出し、地図データ入力器14を介して読み込んだ現在位置付近の地図や、操作情報入力部12の操作によって指示された範囲の地図等を、図5に示すようなメイン画像(動画・静止画を含む)200Bとして表示装置15に画面表示する地図表示処理や、地図データ入力器14に格納された地点データに基づき、操作情報入力部12の操作に従って目的地となる施設を選択し、現在位置から目的地までの最適な経路を自動的に求める経路計算を行って経路案内を行う経路案内処理等を行う。このように自動的に最適な経路を設定する手法は、ダイクストラ法等の手法が知られている。   The control circuit 18 is configured around a well-known microcomputer including a well-known CPU, ROM, RAM, I / O (Input / Output) (not shown) and a bus line connecting these components. Based on each detection signal from the position detector 11 based on a program stored in the storage unit, the current position of the vehicle is calculated as a set of coordinates and traveling directions, and the vicinity of the current position read via the map data input device 14 A map display process for displaying a map of the range indicated by the operation information input unit 12 on the display device 15 as a main image (including moving images and still images) 200B as shown in FIG. Based on the point data stored in the map data input device 14, the facility as the destination is selected according to the operation of the operation information input unit 12, and the current position to the destination are selected. A route guidance process of performing route guidance performed automatically route calculation to find the optimal path. A technique such as the Dijkstra method is known as a technique for automatically setting an optimum route in this way.

また、制御回路18は、ROM等の記憶部に記憶されたプログラムに基づいて、スイッチ画像(操作アイコン)200I、操作情報入力部12から取得した接近対象物画像150Hに基づく加工画像200H等をサブ画像とし、これらをメイン画像200B(地図操作用画像等)に合成して表示する、あるいは重ね表示するための画像処理部18aを有している。本実施形態においては、接近対象物画像150Hが指等の映った手の画像である場合、撮影された手の画像150Hに基づいて生成された加工画像200を、その手の指により位置指示された表示画面上の位置を指示する位置指示画像200Hとして重ね表示する。つまり、該加工画像200Hを、その手の指により位置指示された表示画面上の位置を指示する位置指示画像200Hとして重ね表示する。   In addition, the control circuit 18 sub-switches a switch image (operation icon) 200I, a processed image 200H based on the approaching object image 150H acquired from the operation information input unit 12, and the like based on a program stored in a storage unit such as a ROM. The image processing unit 18a is used to display the image as a main image 200B (a map operation image or the like), or to display the image as an image, or to display it superimposed. In the present embodiment, when the approaching object image 150H is an image of a hand such as a finger, the processed image 200 generated based on the photographed hand image 150H is pointed by the finger of the hand. The position indication image 200H for indicating the position on the display screen is displayed in an overlapping manner. That is, the processed image 200H is overlaid and displayed as a position indicating image 200H indicating the position on the display screen where the position is specified by the finger of the hand.

なお、接近対象物画像150Hに基づく加工画像200Hとは、本実施形態においては、当該接近対象物画像150Hの少なくとも外形形状(輪郭)が反映されるよう加工・生成された接近対象物外形反映画像200Hである。そして、この画像200Hがメイン画像200Bに重畳表示される。重畳表示ではなく、画像200Hをメイン画像200Bに合成して表示してもよい。これにより、運転者等の操作者が、例えば手の指等を、操作パネル12aのタッチ操作面12a1に対面させる形で移動させると、これに併せて、表示装置15の表示画面上には手形状(指形状)を反映した加工画像200Hが移動して表示され、あたかも表示装置15の表示画面に操作パネル12aが存在しているかのような感覚で操作を行うことができる。   In the present embodiment, the processed image 200H based on the approaching object image 150H is an approaching object contour reflecting image that is processed and generated so that at least the outer shape (contour) of the approaching object image 150H is reflected. 200H. Then, this image 200H is superimposed on the main image 200B. Instead of the superimposed display, the image 200H may be combined with the main image 200B and displayed. As a result, when an operator such as a driver moves his / her finger or the like so as to face the touch operation surface 12a1 of the operation panel 12a, for example, a hand is displayed on the display screen of the display device 15. The processed image 200H reflecting the shape (finger shape) is moved and displayed, and the operation can be performed as if the operation panel 12a exists on the display screen of the display device 15.

また、位置指示画像200Hは、必ずしも撮影された手形状・指形状の輪郭を反映していなくともよく、少なくとも撮影された手の指が指し示す位置を指示する画像であればよく、例えば手の指部分だけであったり、指先だけであったり、あるいはポインタ等の画像であってもよい。また、位置指示画像200Hとして、カメラ12bにより撮影された手の画像(ないし指の画像)150Hを加工せずにそのまま表示(重畳表示や合成表示)しても問題はないが、これと重なる位置に表示されるはずのメイン画像200Bの一部分が見えなくなること等を考慮すると、より操作がし易くなるような加工(例えば半透過合成)を施しておいた方がより望ましい。   Further, the position instruction image 200H does not necessarily reflect the photographed hand shape / finger shape outline, and may be an image that indicates at least the position indicated by the photographed hand finger. It may be only a portion, only a fingertip, or an image such as a pointer. Moreover, there is no problem if the hand image (or finger image) 150H photographed by the camera 12b is displayed as it is without being processed (superimposed display or composite display) as the position indication image 200H, but the position overlapping image In view of the fact that a part of the main image 200B that should be displayed on the screen becomes invisible, it is more desirable to perform processing (for example, translucent synthesis) that makes the operation easier.

また、制御回路18のROM等の記憶部には、スイッチ画像200Iを表示するためのスイッチ画像データが記憶されており、スイッチ画像200Iの重ね表示ないし合成表示に用いられている。一方で、制御回路18のROM等の記憶部には、各スイッチ画像200Iに対応付けた形で、各々への操作入力(対応するタッチ操作面12a1上の領域へのタッチ入力)により実施される制御内容も記憶されている。制御回路18により、表示画面に表示されたメイン画像200B上にスイッチ画像200Iが重なった画像200が表示されると、タッチパネル12a,15aの双方のタッチ操作面には、スイッチ画像200Iの表示位置に対応する領域に操作入力受付範囲(操作入力位置)が設定される(操作入力位置設定手段)。また、表示画面に、メイン画像200Bとして表示送り可能な地図画面(地図操作用画像)200B2が表示されると、表示されている地図領域全体に操作入力受付範囲(操作入力位置)が設定される(操作入力位置設定手段)。   Further, switch image data for displaying the switch image 200I is stored in a storage unit such as a ROM of the control circuit 18, and is used for overlapping display or composite display of the switch image 200I. On the other hand, in a storage unit such as a ROM of the control circuit 18, an operation input (touch input to a corresponding area on the touch operation surface 12 a 1) is performed in association with each switch image 200 I. The control content is also stored. When the control circuit 18 displays the image 200 in which the switch image 200I is superimposed on the main image 200B displayed on the display screen, the switch image 200I is displayed at the display position on both touch operation surfaces of the touch panels 12a and 15a. An operation input reception range (operation input position) is set in the corresponding area (operation input position setting means). When a map screen (map operation image) 200B2 that can be displayed and sent as the main image 200B is displayed on the display screen, an operation input reception range (operation input position) is set for the entire displayed map area. (Operation input position setting means).

また、制御回路18は、自身のタイマ18bを起動し、カウンタ18cをカウントアップする形で時間計時を行うことができる。後述する処理において時間計時を行う場合にはこれらが用いられる。   Further, the control circuit 18 can perform time counting by starting its own timer 18b and counting up the counter 18c. These are used when measuring time in the processing described later.

次に、表示装置15の表示される位置指示画像の表示処理について、図6を用いて説明する。なお、当該処理は、制御回路18の記憶部に格納されたプログラムをCPUが実行する形で実施される。   Next, display processing of the position instruction image displayed on the display device 15 will be described with reference to FIG. This process is performed in such a manner that the CPU executes a program stored in the storage unit of the control circuit 18.

T1では、制御回路18が、タッチ操作面(遠隔操作面)12a1の手前側(ここではカメラ12bの逆側)にて、当該タッチ操作面12a1に対向する手の指を特定する(指特定ステップ)。ここでは、カメラ12bによって撮影された撮影画像に基づいて、操作者の手指の画像を取得したか否かを判定する。カメラ12bは、操作パネル12aの裏面12a2側から該操作パネル12aを介してタッチ操作面(表面)12a1側に接近する接近対象物(例えば運転者等の操作者の手)Hを常時撮影しており(撮影ステップ)、その撮影画像は常に制御回路18の画像処理部18aに入力される。タッチ操作面12a1と対面する位置に接近対象物Hが進入してくると、当然その接近対象物Hを含む撮影画像150が画像処理部18aに入力される。入力された撮影画像150は、画像処理部18aにて公知の画像解析手法によって解析され、色の相違等に基づいて接近対象物画像150Hが抽出される。そして、抽出された接近対象物画像150Hの形状に基づいて、当該画像150Hに、人の手指の画像150Fが含まれるか否かを判定する。なお、手指の画像の認識は、抽出された手画像150Hの全体形状から、所定長さ以上の軸線を有する略直線的な棒状の画像パターンを識別して、当該棒状の画像パターンがあった場合に、これを指画像150Fとして認識する。判定結果は制御回路18に出力され、手指の画像が認識されたと判定された場合にはT2に進み、判定されなければ本処理を終了する。   At T1, the control circuit 18 specifies the finger of the hand facing the touch operation surface 12a1 on the front side of the touch operation surface (remote operation surface) 12a1 (here, the opposite side of the camera 12b) (finger specifying step). ). Here, based on the captured image captured by the camera 12b, it is determined whether an image of the finger of the operator has been acquired. The camera 12b always shoots an approaching object (for example, an operator's hand such as a driver) H that approaches the touch operation surface (front surface) 12a1 side from the back surface 12a2 side of the operation panel 12a via the operation panel 12a. The captured image is always input to the image processing unit 18 a of the control circuit 18. When the approaching object H enters the position facing the touch operation surface 12a1, the captured image 150 including the approaching object H is naturally input to the image processing unit 18a. The input captured image 150 is analyzed by a known image analysis method in the image processing unit 18a, and an approaching object image 150H is extracted based on a color difference or the like. Then, based on the shape of the extracted approaching object image 150H, it is determined whether or not the image 150H includes an image 150F of a human finger. Note that the finger image is recognized by identifying a substantially linear bar-shaped image pattern having an axial line longer than a predetermined length from the entire shape of the extracted hand image 150H, and there is the bar-shaped image pattern. This is recognized as a finger image 150F. The determination result is output to the control circuit 18, and if it is determined that the image of the finger has been recognized, the process proceeds to T2, and if not determined, this process ends.

T2では、制御回路18が、取得した指画像150Fから指先を検出する。指先の検出は、特定された指画像150Fから指先Qを特定する形で行う(指先特定ステップ)。本実施形態における指先Qの特定は、図8に示すような形で行われる。即ち、図8(a)に示すように指画像150Fが特定されると、画像処理部18aが、特定された指画像150Fを含む手画像150Hと、当該手画像150Hをその指画像150Fの指長さ方向に所定量だけずらした移動手画像160Hとを互いに重ね合わせて、互いの指画像150H,160Hが重ならない非重畳領域170を特定し、当該非重畳領域170の重心位置を算出する。そして、当該重心位置を指先(指先位置)Qと特定する。なお、指先Qの特定方法は他の方法であってもよく、例えば湾曲して表れる指先の輪郭を抽出・平滑化した上でその曲率中心として定めてもよい。また、指先Qの特定方法は、上記のように指の一点として特定するのではなく、指の第一関節までの領域を指先(指先領域)Qとして特定するものであってもよい。   At T2, the control circuit 18 detects the fingertip from the acquired finger image 150F. The detection of the fingertip is performed by specifying the fingertip Q from the specified finger image 150F (fingertip specifying step). The fingertip Q in the present embodiment is specified in the form shown in FIG. That is, when the finger image 150F is specified as shown in FIG. 8A, the image processing unit 18a displays the hand image 150H including the specified finger image 150F and the hand image 150H of the finger image 150F. The moving hand images 160H shifted by a predetermined amount in the length direction are overlapped with each other, the non-overlapping region 170 where the finger images 150H and 160H do not overlap each other is specified, and the barycentric position of the non-overlapping region 170 is calculated. Then, the center of gravity position is specified as a fingertip (fingertip position) Q. Note that another method may be used for specifying the fingertip Q. For example, the contour of the fingertip that appears curved may be extracted and smoothed, and then determined as the center of curvature. In addition, the fingertip Q may be specified by specifying the area up to the first joint of the finger as the fingertip (fingertip area) Q instead of specifying it as one point of the finger as described above.

なお、T1とT2は、それぞれ指特定処理と指先特定処理を行うステップであるが、これらを同時に実行してもよい。即ち、指画像から指先を特定するのではなく、カメラ12bによって撮影された撮影画像から直接指先を特定し、指先の特定によって指を特定するという処理としてもよい。これにより処理が簡略化される。   T1 and T2 are steps for performing finger specifying processing and fingertip specifying processing, respectively, but they may be executed simultaneously. That is, instead of specifying the fingertip from the finger image, the fingertip may be specified directly from the captured image captured by the camera 12b, and the finger may be specified by specifying the fingertip. This simplifies the process.

続くT3では、制御回路18が、遠隔操作部への操作に使用する、あるいは使用すると推定される操作対象指(位置指示用の指)Pを指定する(操作対象指指定ステップ)。具体的には、特定された指先Q同士の、タッチ操作面方向(タッチ操作面12a1の広がる方向、即ち該タッチ操作面12a1の法線に対し垂直をなす方向)における位置関係を反映した位置関係情報を指定指情報として取得し(指定指情報取得ステップ)、その上で、取得された該位置関係情報に基づいて、T1により特定された指のうち、当該位置関係に関する予め定められた選定条件に最も適する位置関係情報を有した指を優先して操作対象指Pとして指定する。   In subsequent T3, the control circuit 18 designates an operation target finger (position instruction finger) P to be used or estimated to be used for an operation on the remote operation unit (operation target finger designation step). Specifically, the positional relationship reflecting the positional relationship between the specified fingertips Q in the touch operation surface direction (the direction in which the touch operation surface 12a1 spreads, that is, the direction perpendicular to the normal line of the touch operation surface 12a1). Information is acquired as designated finger information (designated finger information obtaining step), and on the basis of the obtained positional relationship information, a predetermined selection condition relating to the positional relationship among the fingers identified by T1 is obtained. The finger having the positional relationship information most suitable for is designated as the operation target finger P with priority.

なお、操作対象指Pとして、複数本の指を指定することができるが、接触式操作部12aへの操作が分かり易くなるように位置指示するという観点からすると、1本又は2本といった比較的少数の指を指定するものとすることが望ましい。本実施形態においては1本である。さらに、指定対象となる指の種類としては、位置指示において好適とされる人差し指(図4の(c)を参照)、中指(図45参照)、あるいは人差し指及び中指の2本(図29参照)を想定することが望ましく、本実施形態においては人差し指を想定している。   A plurality of fingers can be specified as the operation target finger P, but from the viewpoint of giving a position instruction so that the operation on the contact-type operation unit 12a is easy to understand, one or two relatively It is desirable to specify a small number of fingers. In the present embodiment, there is one. Further, as the types of fingers to be designated, the index finger (see FIG. 4C), the middle finger (see FIG. 45), or the index finger and the middle finger (see FIG. 29), which are suitable for position indication, are suitable. In this embodiment, an index finger is assumed.

本実施形態のT3の処理は、図7のフローチャートに示す処理として実行される。即ち、T11にて、図8(c)のように特定された指先Qを仮想的な二次元座標系の面180上にて特定し、その面180上に定められた1本の軸Xにより、上記二次元座標系内に別の一次元座標系を定める。ここでは、特定された指先Qをタッチ操作面12a1に向けて(遠隔操作部との対向方向に)投影し、その投影面を上記の面180とし、該投影面上の予め定められた位置に1本の軸Xを設定して一次元座標系を定める。T12では、面180上にて特定された指先Qの当該一次元座標系における位置座標(座標値)XQを特定し、その位置座標XQを反映した軸座標情報を、位置関係情報として取得する。その上で、T13にて、取得された該軸座標情報に基づいて、図6のT1にて特定された指のうち、当該軸座標情報に関する予め定められた選定条件に対し適する指を優先して操作対象指Pとして指定する。   The process of T3 of this embodiment is executed as the process shown in the flowchart of FIG. That is, at T11, the fingertip Q specified as shown in FIG. 8C is specified on the surface 180 of the virtual two-dimensional coordinate system, and one axis X determined on the surface 180 is used. Then, another one-dimensional coordinate system is defined in the two-dimensional coordinate system. Here, the specified fingertip Q is projected toward the touch operation surface 12a1 (in the direction facing the remote operation unit), and the projection surface is set as the above-described surface 180 at a predetermined position on the projection surface. One axis X is set to define a one-dimensional coordinate system. At T12, the position coordinate (coordinate value) XQ of the fingertip Q specified on the surface 180 is specified in the one-dimensional coordinate system, and the axis coordinate information reflecting the position coordinate XQ is acquired as the positional relationship information. Then, based on the acquired axis coordinate information at T13, priority is given to a finger suitable for a predetermined selection condition regarding the axis coordinate information among the fingers specified at T1 in FIG. And designated as the operation target finger P.

また、本実施形態においては、助手席搭乗者の右手による操作が想定されており、さらに、操作対象指Pとしてその操作者の人差し指が指定されるように軸Xが設定されている。このため、T11では、図9に示す位置に軸Xが設定されている。T12では、設定されたこの軸Xに向けて指先Qを投影し、投影された各位置の座標値X1〜X3を算出するとともに、T13では、取得した座標値X1〜X3のうち座標値が最も大きい指先Qを特定して、この指先Qを有する指が人差し指であると推定し、この指を操作対象指Pとして指定している。   Further, in the present embodiment, an operation with the right hand of the passenger on the passenger seat is assumed, and the axis X is set so that the index finger of the operator is designated as the operation target finger P. Therefore, at T11, the axis X is set at the position shown in FIG. At T12, the fingertip Q is projected toward the set axis X, and the coordinate values X1 to X3 of the projected positions are calculated. At T13, the coordinate value of the acquired coordinate values X1 to X3 is the largest. A large fingertip Q is specified, the finger having this fingertip Q is estimated to be an index finger, and this finger is designated as the operation target finger P.

また、本実施形態における軸Xは、図9に示すように、右手の人差し指が位置しにくい撮影画像の右下から、右手の人差し指が位置しやすい左上に向かうように決められているが、例えば、図10や図11のような設定であってもよい。図10の場合は、最も座標値が大きいものを中指として推定することに適しており、さらに操作手が左右のいずれであるか推定ないし特定できれば、その中指に隣接する指を人差し指として推定することもできる。図11の場合は、操作手が左右のいずれであるか推定ないし特定できれば、左右いずれかの最も端にある指を人差し指として推定することに好適であり、それに隣接する指を中指として推定できる。   In addition, as shown in FIG. 9, the axis X in the present embodiment is determined so as to go from the lower right of the captured image in which the right index finger is difficult to be positioned to the upper left where the right index finger is easily positioned. 10 and FIG. 11 may be set. In the case of FIG. 10, it is suitable to estimate the finger with the largest coordinate value as the middle finger, and if it can be estimated or specified whether the operating hand is left or right, the finger adjacent to the middle finger is estimated as the index finger. You can also. In the case of FIG. 11, if it can be estimated or specified whether the operating hand is left or right, it is suitable to estimate the leftmost finger as the index finger, and the finger adjacent to it can be estimated as the middle finger.

なお、本実施形態において、カメラ12bによって撮影された撮影画像は、指先Qをタッチ操作面12a1に向けて投影した投影面180ということができる。従って、カメラ12bによって撮影された撮影画像におけるタッチ操作面12aが位置する操作パネル画像領域(タッチ操作面12aが映る領域:ここでは撮影画像150の全領域)と、上記投影面180とは、同一の座標系を有する二次元平面として認識することができ、操作パネル画像領域上の指先Qの座標位置を、そのまま投影面180における投影された指先Qの座標位置として使用することができる。T3では、この仮想的に定められる投影面180における座標系上での計算により操作対象指Pを指定しており、画像処理を要することはない。つまり、操作対象指Pの指定処理に画像データを使用しないため演算コスト(演算量・メモリ量)を低減することができる。   In the present embodiment, the photographed image photographed by the camera 12b can be referred to as a projection surface 180 obtained by projecting the fingertip Q toward the touch operation surface 12a1. Therefore, the operation panel image area (the area where the touch operation surface 12a is reflected: here the entire area of the captured image 150) where the touch operation surface 12a is located in the captured image captured by the camera 12b and the projection surface 180 are the same. The coordinate position of the fingertip Q on the operation panel image area can be used as the projected coordinate position of the fingertip Q on the projection plane 180 as it is. At T3, the operation target finger P is designated by calculation on the coordinate system on the virtually determined projection plane 180, and image processing is not required. That is, since the image data is not used for the operation target finger P specifying process, the calculation cost (calculation amount / memory amount) can be reduced.

図6に戻る。T4では、制御回路18が、図12(c)に示すように、表示装置15の表示画面上の背景画像200Bに合成ないしは重畳する形で、特定された指先Qに対応する該表示画面上の位置に、位置指示用の画像200Hを表示する。ただし、この表示は、表示される位置指示画像200Hのうち、指定された操作対象指Pに対応する位置指示画像200Hの表示領域200Pを、当該操作対象指Pとは異なる残余の指Rに対応する位置指示画像200Hの表示領域200Rよりも相対的に強調して表示する強調表示の形でなされる。これにより、操作対象指Pの視認性が向上し、操作すべき指がユーザーに伝わりやすく、また、操作性も向上する。   Returning to FIG. At T4, as shown in FIG. 12C, the control circuit 18 synthesizes or superimposes on the background image 200B on the display screen of the display device 15 on the display screen corresponding to the specified fingertip Q. An image 200H for position indication is displayed at the position. However, this display corresponds to the remaining finger R different from the operation target finger P in the display region 200P of the position instruction image 200H corresponding to the designated operation target finger P in the displayed position instruction image 200H. The position indication image 200H to be displayed is displayed in a highlighted manner in which it is emphasized relatively than the display area 200R. Thereby, the visibility of the operation target finger P is improved, the finger to be operated is easily transmitted to the user, and the operability is also improved.

本実施形態においては、制御回路18が、まず、表示装置15の表示画面と撮影された手指との位置関係を特定する。つまり、撮影された指が、表示画面上のどの位置に対向するのかを特定する。本実施形態においては、カメラ12bによって撮影された撮影画像150上に、タッチ操作面12aが位置する操作パネル画像領域(タッチ操作面12aが映る領域:ここでは撮影画像150の全領域)を特定するとともに、当該操作パネル画像領域上に二次元の操作座標系を設定して、撮影された指の位置を当該操作座標系上で特定する。そして、該操作座標系上で特定された指の位置に対応する、表示装置15の表示画面上における位置を、当該表示画面上に定められた二次元の表示座標系において特定する。   In the present embodiment, the control circuit 18 first specifies the positional relationship between the display screen of the display device 15 and the photographed finger. That is, the position on the display screen where the photographed finger faces is specified. In the present embodiment, an operation panel image area where the touch operation surface 12a is located (an area where the touch operation surface 12a is reflected: here, the entire area of the captured image 150) is specified on the captured image 150 captured by the camera 12b. At the same time, a two-dimensional operation coordinate system is set on the operation panel image area, and the position of the photographed finger is specified on the operation coordinate system. Then, the position on the display screen of the display device 15 corresponding to the position of the finger specified on the operation coordinate system is specified in the two-dimensional display coordinate system defined on the display screen.

その上で、表示装置15の表示画面上にて特定された位置に、図12(a)に示すように、位置指示画像200Hをメイン画像200Bの対応する位置座標に重ね表示される。そして、上記した位置指示画像200H(200P,200R)の強調表示を、図43に示すように、所定時間t1をかけて段階的に強調レベル(強調度合い)を変化させる形で行う。つまり、強調表示変化の過程において、図12(b)に示すような変化途中状態を有し、このような強調変化途中状態を経て、図12(c)のような強調変化が完了するようにする。強調表示によって特定されていない指を見えにくくした場合、いきなりそれらの指を見えにくくしてはどの指が強調されているのか認識しづらくなる可能性がある。このため、最初は図12(a)のようにすべての指を同じように表示し、その上で、段階的に強調レベルを変化させれば、ユーザーにとって画面上に表示された指と自分の指との対応づけが容易になる。   Then, as shown in FIG. 12A, the position indication image 200H is superimposed on the corresponding position coordinates of the main image 200B at the position specified on the display screen of the display device 15. Then, the above-described highlight display of the position indicating image 200H (200P, 200R) is performed in such a manner that the enhancement level (enhancement degree) is gradually changed over a predetermined time t1, as shown in FIG. That is, in the process of changing the highlighting, it has a state in the middle of change as shown in FIG. 12B, and the change in emphasis as shown in FIG. To do. If fingers that are not specified by highlighting are made difficult to see, it may be difficult to recognize which fingers are highlighted if the fingers are made difficult to see suddenly. For this reason, first, as shown in FIG. 12A, all fingers are displayed in the same manner, and if the emphasis level is changed step by step, the finger displayed on the screen and his / her own are displayed. Matching with fingers is easy.

また、強調表示は、位置指示画像200Hの指表示領域200Pないし200Rの全体、輪郭、輪郭内部のみに対し、色の変化(図46参照)、濃淡の変化(図46参照:なお、操作対象指以外の指を消してもよい)、形状変化(図47:ここでは一例として操作対象指Pを相対的に太くしている)、別画像への切り替え、透過度の変化(図4参照)、点滅(図48参照)、あるいはそれらの組み合わせにより行う。本実施形態においては、位置指示画像200Hをなす加工画像の輪郭内部の透過度を変化する形で実行する。また、ここでの強調表示は、操作対象指Pに対応する位置指示画像200Hの表示領域200Pの強調状態を一定に保持し、残余の指Rに対応する位置指示画像200Hの表示領域200Rの強調レベルを減じる形で行われている。残余の指Rに対応する位置指示画像領域200Rは消去されてもよいが、操作性を考慮すれば、消去時よりも強調レベルは低くなるものの比較的容易に視認できる状態であるとよい。   Further, the highlighting is performed on the entire finger display areas 200P to 200R of the position indication image 200H, the outline, and only the inside of the outline, with a color change (see FIG. 46) and a shading change (see FIG. Fingers may be erased), shape change (FIG. 47: the operation target finger P is relatively thick here as an example), switching to another image, change in transparency (see FIG. 4), It blinks (see FIG. 48) or a combination thereof. In the present embodiment, the processing is executed in such a manner that the transparency inside the contour of the processed image forming the position indicating image 200H is changed. Further, the highlighting here holds the highlighting state of the display area 200P of the position indicating image 200H corresponding to the operation target finger P constant, and emphasizes the display area 200R of the position indicating image 200H corresponding to the remaining fingers R. It is done in a form that reduces the level. The position indicating image region 200R corresponding to the remaining finger R may be erased. However, in consideration of operability, the emphasis level is lower than that at the time of erasure, but it may be relatively easily visible.

また、T4における強調表示は、図43に示すように、T3において操作対象指Pが指定されるに伴いすぐに開始されるようにしてもよいし、図44に示すように、T3にて操作対象指Pが指定されてから所定時間経過した後に開始されるようにしてもよい。特に、強調表示が段階的になされないような構成の場合は、後者が選択されることが望ましい。   Further, the highlighting at T4 may be started immediately as the operation target finger P is designated at T3 as shown in FIG. 43, or the operation at T3 as shown in FIG. It may be started after a predetermined time has elapsed since the target finger P is designated. In particular, in the case of a configuration in which highlighting is not performed in stages, it is desirable to select the latter.

T4の終了により本処理は終了となる。なお、本処理は終了後も所定周期で繰り返し実施され、操作パネル12aに対向する手が移動すると、これに合わせて、表示装置15の表示画面に表示される位置指示画像200Hの表示位置も移動する。強調変化途中で手が動いた場合は、強調変化を継続しながら位置指示画像200H(200P及び200R)の表示位置が移動し、強調変化が完了している状態で手が動いた場合には、当該強調状態を保持したまま位置指示画像200H(200P及び200R)の表示位置が移動する。   This process ends when T4 ends. This process is repeatedly performed at a predetermined cycle after the end, and when the hand facing the operation panel 12a moves, the display position of the position instruction image 200H displayed on the display screen of the display device 15 also moves accordingly. To do. When the hand moves in the middle of the emphasis change, the display position of the position indicating image 200H (200P and 200R) moves while continuing the emphasis change, and when the hand moves in a state where the emphasis change is completed The display position of the position indicating image 200H (200P and 200R) moves while maintaining the emphasized state.

なお、この位置指示画像の表示処理には、指特定ステップ、指先特定ステップ、操作対象指指定ステップ、位置指示画像強調表示ステップ、指定指情報取得ステップが含まれており、制御回路18は、CPUにより当該処理を実行することで、これら各ステップを実行する手段(指特定手段、指先特定手段、操作対象指指定手段、位置指示画像強調表示手段、指定指情報取得手段)として機能する。   The display process of the position instruction image includes a finger specifying step, a fingertip specifying step, an operation target finger specifying step, a position instruction image emphasizing display step, and a specified finger information acquiring step. By executing this processing, the function functions as means for executing these steps (finger specifying means, fingertip specifying means, operation target finger specifying means, position indication image highlighting display means, and specified finger information acquiring means).

最後に、操作情報入力部12の操作パネル12aへのタッチ操作入力処理について、図13を用いて説明する。なお、当該処理も、制御回路18の記憶部に格納されたプログラムをCPUが実行する形で実施される。   Finally, touch operation input processing to the operation panel 12a of the operation information input unit 12 will be described with reference to FIG. This processing is also performed in such a manner that the CPU executes a program stored in the storage unit of the control circuit 18.

T101では、制御回路18が、操作パネル12aへのタッチ操作の有無を判定する。操作パネル12aはタッチパネルとして構成されているので、タッチ操作があると、その操作信号が制御回路18に入力されるから、その入力の有無に基づいて判定する。操作パネル12aへのタッチ操作があった場合はT102に進み、タッチ操作が無かった場合は本処理を終了する。   At T101, the control circuit 18 determines whether or not there is a touch operation on the operation panel 12a. Since the operation panel 12a is configured as a touch panel, when a touch operation is performed, an operation signal is input to the control circuit 18, and thus determination is made based on the presence or absence of the input. If there is a touch operation on the operation panel 12a, the process proceeds to T102, and if there is no touch operation, this process ends.

続くT102では、操作パネル12aへのタッチ操作位置、即ちタッチ操作面12a1上へのタッチ操作位置を特定する。操作パネル12aはタッチパネルとして構成されているので、タッチ操作があると、その操作信号が制御回路18に入力される。そして、その操作信号には、タッチ操作位置が操作面12a1に定められる操作座標系上の座標情報として反映されているので、制御回路18が、この操作信号に基づいて、タッチ操作位置を特定する。   In subsequent T102, the touch operation position on the operation panel 12a, that is, the touch operation position on the touch operation surface 12a1 is specified. Since the operation panel 12 a is configured as a touch panel, an operation signal is input to the control circuit 18 when a touch operation is performed. Since the touch operation position is reflected in the operation signal as coordinate information on the operation coordinate system defined on the operation surface 12a1, the control circuit 18 specifies the touch operation position based on the operation signal. .

続くT103では、制御回路18が、操作パネル12aへのタッチ操作位置に対応する制御を実施する。具体的にいえば、操作パネル12aのタッチ操作面12a1上の各位置は、表示画面15の表示画面上の位置と対応しているので、T103にて特定されたタッチ操作面12a1上の位置に対応する、表示画面15の表示画面上の位置に定められた制御内容を実施する。具体的には、制御回路18が、当該制御内容を実施するための制御信号を出力する。例えばT103にて特定されたタッチ操作面12a1上の位置が、表示画面15の表示画面に表示されたスイッチ画像200Iに位置に対応していれば、制御回路18は、当該スイッチ画像に割り当てられた制御内容を実行するための制御信号を出力する。   In subsequent T103, the control circuit 18 performs control corresponding to the touch operation position on the operation panel 12a. Specifically, since each position on the touch operation surface 12a1 of the operation panel 12a corresponds to a position on the display screen of the display screen 15, the position on the touch operation surface 12a1 specified in T103 is set. The corresponding control content determined at the position on the display screen of the display screen 15 is executed. Specifically, the control circuit 18 outputs a control signal for performing the control content. For example, if the position on the touch operation surface 12a1 specified in T103 corresponds to the position of the switch image 200I displayed on the display screen of the display screen 15, the control circuit 18 is assigned to the switch image. A control signal for executing the control content is output.

T103の終了により本処理は終了となる。なお、本処理は終了後も所定周期で繰り返し実施され、制御回路18は、そのときどきにタッチ操作された位置に応じた制御内容を実施する、あるいは他の制御部(例えばECU100等)にて実施させる。   This process ends when T103 ends. Note that this process is repeatedly performed at a predetermined cycle even after the completion of the process, and the control circuit 18 performs the control content corresponding to the position touched at that time or is performed by another control unit (for example, the ECU 100 or the like). Let

なお、制御回路18は、CPUにより当該タッチ操作入力処理を実行することで、入力受付手段、操作入力制御手段として機能する。   The control circuit 18 functions as an input receiving unit and an operation input control unit by executing the touch operation input process by the CPU.

以上、本発明の一実施形態を説明したが、これはあくまでも例示にすぎず、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を逸脱しない限りにおいて、当業者の知識に基づく種々の変更が可能である。   Although one embodiment of the present invention has been described above, this is merely an example, and the present invention is not limited to this, and the knowledge of those skilled in the art can be used without departing from the spirit of the claims. Various modifications based on this are possible.

例えば、上記実施形態においては、本発明の表示方法を車両用操作入力装置により実現した構成となっているが、操作入力装置は車両用に限られるものではなく、例えば一般の家電機器の操作入力装置であってもよい。さらにいえば、機器動作を行うための操作入力装置ではなく、画面表示をメイン機能とする一般の表示装置であってもよい。   For example, in the above-described embodiment, the display method of the present invention is realized by a vehicle operation input device. However, the operation input device is not limited to a vehicle, for example, an operation input of a general household appliance. It may be a device. Furthermore, instead of an operation input device for performing device operations, a general display device having a screen display as a main function may be used.

以下、上記実施形態を第一実施形態とし、それとは異なる実施形態を説明する。なお、共通する構成については、同符号を用いることで説明を略する。   Hereinafter, an embodiment different from the above embodiment will be described as the first embodiment. In addition, about a common structure, description is abbreviate | omitted by using the same code | symbol.

第一実施形態の第一変形例について説明する。   A first modification of the first embodiment will be described.

第一実施形態の第一変形例は、図14〜図16に示すように、操作対象指Pの指定方法が、上記第一実施形態と異なる。第一変形例においては、図14のフローチャートに示すように、T21にて、図6のT2にて特定された指先Qをタッチ操作面12a1に向けて投影し、その投影面180上の予め定められた領域に基準領域Yを設定し(図15又は図16参照)、T22にて、設定された基準領域Yと投影された指先Qとの間の距離を反映した距離情報を位置関係情報として取得し(指定指情報取得ステップ)、T23にて、取得された該距離情報に基づいて、図6のT1にて特定された指のうち、当該距離に関する予め定められた選定条件に対し適する指を優先して操作対象指Pとして指定する(操作対象指指定ステップ)。   As shown in FIGS. 14 to 16, the first modification of the first embodiment is different from the first embodiment in the method of specifying the operation target finger P. In the first modified example, as shown in the flowchart of FIG. 14, at T21, the fingertip Q specified at T2 of FIG. 6 is projected toward the touch operation surface 12a1, and predetermined on the projection surface 180 is predetermined. The reference area Y is set in the set area (see FIG. 15 or FIG. 16), and distance information reflecting the distance between the set reference area Y and the projected fingertip Q is used as positional relationship information in T22. A finger that is obtained (designated finger information obtaining step) and that is suitable for a predetermined selection condition related to the distance among the fingers identified at T1 in FIG. 6 based on the distance information obtained at T23. Is designated as the operation target finger P (operation target finger designation step).

なお、本変形例においても、上記第一実施形態と同様に仮想的に定められた面180上に指先Qを特定し、さらに上記基準領域Yを定める(T21)。その上で、上記各距離を算出し(T22)、それに基づいて操作対象指Pを指定する(T23)。ここでは、操作対象指Pとして操作者の中指が想定されており、上規格距離の最も長い指が操作対象指Pとして指定される。なお、基準領域Yは面積を持つ領域として定めてもよいし、面積を持たない点や線として定めてもよい。   In the present modification as well, the fingertip Q is specified on the virtually defined surface 180 as in the first embodiment, and the reference region Y is further defined (T21). Then, each distance is calculated (T22), and the operation target finger P is designated based on the calculated distance (T23). Here, the middle finger of the operator is assumed as the operation target finger P, and the finger with the longest standard distance is designated as the operation target finger P. Note that the reference region Y may be defined as a region having an area, or may be defined as a point or line having no area.

また、基準領域Yは、例えば図15のように、カメラ12bにて指が撮影される状態において手の甲が位置すると推定される予め決められた位置に配置することができる。この場合の距離情報は、T1にて特定された指の長さを直接反映はしないもののそれに関連する情報であり、その距離の長さから、特定の指を指定できる。例えば、当該距離が最も長い指を中指と推定できるし、さらに操作手が左右のいずれであるか推定ないし特定できれば、その中指に隣接する指を人差し指として推定できる。また、操作対象指Pとして人差し指等を想定する場合には、2番目に長い指を人差し指と推定し、指定してもよい。   Further, as shown in FIG. 15, for example, the reference region Y can be arranged at a predetermined position where it is estimated that the back of the hand is located in a state where a finger is photographed by the camera 12b. The distance information in this case is information that does not directly reflect the length of the finger specified in T1, but is related to it, and a specific finger can be designated from the length of the distance. For example, the finger with the longest distance can be estimated as the middle finger, and if it can be estimated or specified whether the operating hand is left or right, the finger adjacent to the middle finger can be estimated as the index finger. When an index finger or the like is assumed as the operation target finger P, the second longest finger may be estimated as the index finger and specified.

また、基準領域Yは、例えば図16のように、カメラ12bにて指が撮影される状態において操作対象指Pとして想定する指の指先が最も位置しやすい位置に配置することができる。この場合、基準領域Yとの距離が最も短い指先Qを有する指を操作対象指Pとして指定することができる。図16の場合は、操作手が右手である場合を想定しており、最も左上に位置している。   Further, for example, as shown in FIG. 16, the reference region Y can be arranged at a position where the fingertip of the finger assumed as the operation target finger P is most likely to be located in a state where the finger is photographed by the camera 12b. In this case, the finger having the fingertip Q having the shortest distance from the reference area Y can be designated as the operation target finger P. In the case of FIG. 16, it is assumed that the operating hand is the right hand and is located at the upper left.

第一実施形態の第二変形例について説明する。   A second modification of the first embodiment will be described.

第一実施形態の第二変形例は、図17及び図18に示すように、操作対象指Pの指定方法が、上記実施形態と異なる。第二変形例においては、図17のフローチャートに示すように、T31にて、図6のT1にて特定された各指の形状に係る指形状情報を指定指情報として取得し(指定指情報取得ステップ)、T32にて、取得された該指形状情報に基づいて、T1にて特定された指のうち、当該指の形状に関する予め定められた選定条件に最も適する接近距離情報を有した指を優先して操作対象指として指定する(操作対象指指定ステップ)。   As shown in FIGS. 17 and 18, the second modification of the first embodiment is different from the above embodiment in the method of specifying the operation target finger P. In the second modification, as shown in the flowchart of FIG. 17, at T31, finger shape information related to the shape of each finger specified at T1 of FIG. 6 is acquired as specified finger information (specified finger information acquisition). Step) Based on the finger shape information acquired at T32, the finger having the approach distance information most suitable for the predetermined selection condition related to the shape of the finger among the fingers specified at T1 is selected. Prioritize and specify as operation target finger (operation target finger specifying step).

指形状情報としては、図6のT1にて特定された指同士の、タッチ操作面方向における長さ関係に係る指長情報を定めることができる。具体的にいえば、図6のT2において特定された指先Qから、撮影画像150上に表れる指端縁の線分の中点に相当する位置までの長さd1〜d3(図18参照)を算出し、これらを上記指長情報とすることができる。この場合、指長情報は、T1にて特定される指の長さが反映された情報であるから、その長さから特定の指を指定できる。例えば、当該距離が最も長い指を中指と推定できるし、さらに操作手が左右のいずれであるか推定ないし特定できれば、その中指に隣接する指を人差し指として推定できる。また、操作対象指Pとして人差し指等を想定する場合には、2番目に長い指を人差し指と推定し、指定してもよい。この構成によると、操作に使用する意図が無いような中途半端にのびた指が位置指示用に指定される可能性を確実に排除することができる。なお、指長情報d1〜d3は、少なくとも各指の長さを反映した情報であればよく、例えば、湾曲する指先の先端位置から、撮影画像150上に表れる指端縁までの指の長さ方向に沿った距離としてもよい。   As the finger shape information, the finger length information related to the length relationship in the touch operation surface direction between the fingers specified at T1 in FIG. 6 can be determined. Specifically, the lengths d1 to d3 (see FIG. 18) from the fingertip Q specified at T2 in FIG. 6 to the position corresponding to the midpoint of the line segment of the finger edge appearing on the photographed image 150. These can be calculated and used as the finger length information. In this case, since the finger length information is information reflecting the length of the finger specified in T1, a specific finger can be designated from the length. For example, the finger with the longest distance can be estimated as the middle finger, and if it can be estimated or specified whether the operating hand is left or right, the finger adjacent to the middle finger can be estimated as the index finger. When an index finger or the like is assumed as the operation target finger P, the second longest finger may be estimated as the index finger and specified. According to this configuration, it is possible to reliably eliminate the possibility that a halfway extended finger that is not intended for operation is designated for position indication. Note that the finger length information d1 to d3 may be information reflecting at least the length of each finger. For example, the finger length from the tip position of the curved fingertip to the finger edge appearing on the captured image 150 is sufficient. It may be a distance along the direction.

また、指形状情報としては、図6のT1にて特定された指同士の、タッチ操作面方向における幅の関係に係る指幅情報を定めることもできる。具体的にいえば、図6のT2において特定された指先Qを通り、その指の長さ方向に垂直な幅方向の長さw1〜w3(図18参照)を、上記指幅情報とすることができる。この場合、指幅情報は、指がタッチ操作面12a1に接近しているほど大きく表れるから、当該タッチ操作面12a1への接近距離関係を反映した接近距離情報ともいうことができ、最も指幅の大きい指を操作対象指Pとして指定することができる。なお、指幅情報w1〜w3は、少なくとも各指の幅を反映した情報であればよく、上記とは別の位置にて算出された指幅であってもよい。   As the finger shape information, finger width information related to the width relationship in the touch operation surface direction between the fingers specified at T1 in FIG. 6 can also be determined. Specifically, lengths w1 to w3 (see FIG. 18) in the width direction that pass through the fingertip Q specified in T2 of FIG. 6 and are perpendicular to the length direction of the finger are used as the finger width information. Can do. In this case, since the finger width information appears larger as the finger approaches the touch operation surface 12a1, it can also be referred to as approach distance information that reflects the approach distance relationship to the touch operation surface 12a1. A large finger can be designated as the operation target finger P. Note that the finger width information w1 to w3 may be information reflecting at least the width of each finger, and may be a finger width calculated at a position different from the above.

本発明の第一実施形態の第三変形例について説明する。   A third modification of the first embodiment of the present invention will be described.

第一実施形態の第三変形例は、図19に示すように、操作対象指Pの指定方法が、上記実施形態と異なる。第三変形例においては、図19のフローチャートに示すように、T41にて、図6のT1にて特定された指によりタッチ操作面12a1へのタッチ操作位置Tを検出して、T42にて、検出されたの初回のタッチ操作を行った指を操作対象指Pとして指定する(操作対象指指定ステップ)。つまり、タッチ操作面12a1へのタッチ操作位置Tを指定指情報として取得し、これに基づいて操作対象指Pを指定する。この構成によると、強調表示の開始トリガーが、ユーザーのタッチ操作として定められているので、強調表示による表示変化を見逃すことが無くなる。なお、この場合、指定された操作対象指Pは、手操作により移動する際に追跡され、当該指Pが画面から消失するまで、あるいは新たなタッチ操作がなされるまで指定され続ける。あるいは、画面から消失した後、再び画面上に現れた際にも同じ指が操作対象指Pとされるように、他の指Rとの位置関係情報や当該指Pの指形状情報等の条件を、制御回路18内の記憶部に記憶して、これに基づいて操作対象指Pを指定するようにしてもよい。   As shown in FIG. 19, the third modification of the first embodiment is different from the above embodiment in the method of specifying the operation target finger P. In the third modified example, as shown in the flowchart of FIG. 19, at T41, the touch operation position T on the touch operation surface 12a1 is detected by the finger specified at T1 of FIG. The detected finger that has performed the first touch operation is specified as the operation target finger P (operation target finger specifying step). That is, the touch operation position T on the touch operation surface 12a1 is acquired as designated finger information, and the operation target finger P is designated based on the acquired finger information. According to this configuration, since the highlighting start trigger is determined as a touch operation by the user, it is possible to avoid missing a display change due to the highlighting. In this case, the designated operation target finger P is tracked when it is moved by a manual operation, and continues to be designated until the finger P disappears from the screen or a new touch operation is performed. Alternatively, conditions such as positional relationship information with other fingers R and finger shape information of the finger P so that the same finger is set as the operation target finger P when it appears on the screen again after disappearing from the screen May be stored in a storage unit in the control circuit 18 and the operation target finger P may be designated based on the stored information.

本発明の第一実施形態の第四変形例について説明する。   A fourth modification of the first embodiment of the present invention will be described.

第一実施形態の第四変形例は、図20及び図21に示すように、操作対象指Pの指定方法が、上記実施形態と異なる。第四変形例においては、図20のフローチャートに示すように、T51にて、図6のT1にて特定された指によりタッチ操作面12a1へのタッチ操作位置Tを検出し、該タッチ操作位置Tが検出されるに伴いT52にて、図21に示すように、検出されたのタッチ操作位置Tに最も近い指を操作対象指Pとして指定する(操作対象指指定ステップ)。なお、この場合、図6のT4における強調表示は、タッチ操作面12a1へのタッチ操作がなされるに伴い(すぐに)開始されるようにしてもよいし、タッチ操作面12a1へのタッチ操作がなされてから所定時間経過した後に開始されるようにしてもよい。特に、強調表示が段階的になされないような構成の場合は、後者が選択されることが望ましい。   As shown in FIGS. 20 and 21, the fourth modification of the first embodiment is different from the above embodiment in the method of specifying the operation target finger P. In the fourth modified example, as shown in the flowchart of FIG. 20, at T51, the touch operation position T on the touch operation surface 12a1 is detected by the finger specified at T1 of FIG. As shown in FIG. 21, at T52, the finger closest to the detected touch operation position T is specified as the operation target finger P (operation target finger specifying step). In this case, the highlighting at T4 in FIG. 6 may be started (immediately) as the touch operation on the touch operation surface 12a1 is performed, or the touch operation on the touch operation surface 12a1 may be performed. It may be started after a lapse of a predetermined time from being made. In particular, in the case of a configuration in which highlighting is not performed in stages, it is desirable to select the latter.

なお、第一実施形態における第三および第四変形例において、誤ってタッチ操作面12a1に触れてタッチ操作をしてしまった場合に、強調表示が開始されないようにすることができる。具体的にいえば、T41ないしT51におけるタッチ操作として、通常のタッチ操作(操作入力が有効となるタッチ操作)よりも操作負担が大となるタッチ操作を強調表示開始操作として定めることができる。例えば、強調表示開始用のタッチ操作(強調表示開始操作)として、通常のタッチ操作よりも入力が有効となるまでの押圧操作継続時間が長いタッチ操作を定めたり、通常のタッチ操作よりも強い押圧操作力によるタッチ操作を定めたりすることができる。この場合、T41ないしT51において、定められた強調表示開始操作があった場合に限りT42ないしT52にて進み、強調表示開始操作がない場合は、当該強調表示開始操作があるまで強調表示を開始しない待機状態とするようできる。   In the third and fourth modified examples of the first embodiment, when the touch operation surface 12a1 is touched by mistake and the touch operation is performed, the highlight display can be prevented from being started. Specifically, as a touch operation in T41 to T51, a touch operation that has an operation burden larger than that of a normal touch operation (a touch operation in which an operation input is valid) can be determined as the highlight start operation. For example, as a touch operation for starting highlighting (highlighting start operation), a touch operation in which a pressing operation duration time until an input becomes valid is longer than a normal touch operation, or a press stronger than a normal touch operation It is possible to determine a touch operation by an operation force. In this case, in T41 to T51, the process proceeds from T42 to T52 only when a predetermined highlight display start operation is performed. When there is no highlight display start operation, the highlight display is not started until the highlight display start operation is performed. It can be set to a standby state.

本発明の第一実施形態の第五変形例について説明する。   A fifth modification of the first embodiment of the present invention will be described.

第一実施形態の第五変形例は、図22及び図23に示すように、操作対象指Pの指定方法が、上記実施形態と異なる。第五変形例においては、図22のフローチャートに示すように、T61にて、撮影された指の画像の輝度情報を指定指情報として取得し(指定指情報取得ステップ)、T62にて、取得された輝度情報に基づいて、撮影された指の画像のうち、当該輝度情報に関する予め定められた選定条件に対し適する指を優先して操作対象指Pとして指定する(操作対象指指定ステップ)。カメラ12bは、タッチ操作面12a1を操作する手の反射光を捉える形で撮影を行うので、該タッチ操作面12a1に最も近い指先ほど高輝度に表れる。つまり、輝度情報とは、既に述べた接近距離情報(指定指情報)であるといえる。一方で、タッチ操作面12a1を操作する指先は、当該タッチ操作面12a1に近い指ほど位置指示の可能性が高いから、例えば、輝度の最も高い指を優先して操作対象指Pとして指定するように構成することができる。   As shown in FIGS. 22 and 23, the fifth modification of the first embodiment is different from the above embodiment in the method of specifying the operation target finger P. In the fifth modification, as shown in the flowchart of FIG. 22, the luminance information of the photographed finger image is obtained as designated finger information at T61 (designated finger information obtaining step), and obtained at T62. On the basis of the brightness information, a finger suitable for a predetermined selection condition regarding the brightness information is preferentially specified as the operation target finger P among the captured finger images (operation target finger specifying step). Since the camera 12b captures the reflected light of the hand operating the touch operation surface 12a1, the fingertip closest to the touch operation surface 12a1 appears with higher brightness. That is, it can be said that the luminance information is the approach distance information (designated finger information) already described. On the other hand, since the fingertip that operates the touch operation surface 12a1 has a higher possibility of a position instruction as the finger is closer to the touch operation surface 12a1, for example, the finger with the highest brightness is designated as the operation target finger P with priority. Can be configured.

カメラ12bは、図3に示すように、光源12cの反射光を捉える形で撮影を行っている。従って、撮影映像150に現れる色の階調には反射光強度が反映されており、高強度の反射光を捉えたところほど階調レベルが高く現れる。つまり、本変形例のカメラ12bにより撮影される撮影映像150は多階調の撮影画像(ここではモノクロの撮影画像)であるから、画像処理部18aでは、これを予め定められた階調閾値を用いて各画素の階調レベルを2値化して、図8の(a)のようにし、当該階調閾値を上回る領域を接近対象物画像150Hとして抽出する。また、画像処理部18aでは、抽出された接近対象物画像150Hから人の手・指の画像を特定するために、まずは、当該接近対象物画像150Hの形状と、制御回路18の記憶部に記憶された手や指の形状パターンと比較して、それらパターンに合致する接近対象物画像150Hを手指の画像として認識する。本変形例においては、手や指の画像を特定するための上記階調閾値を第一の階調閾値とし、さらに、それよりも高い第二の階調閾値を定め、当該第二の階調閾値を越える領域L1(図23参照)を有する指先の指を、操作対象指Pとして指定することができる。また別の方法として、指先Qの輝度または、指先Qを基準にする予め決められた領域の平均(または最大/最小)輝度の比較により操作対象指Pを指定してもよい。なお、図23の領域L1〜L3は、撮影映像150において輝度の異なる領域を示すものであり、L1,L2,L3の順で輝度が低くなっている。   As shown in FIG. 3, the camera 12b is shooting in the form of capturing the reflected light of the light source 12c. Therefore, the reflected light intensity is reflected in the gradation of the color appearing in the captured image 150, and the higher the reflected light intensity, the higher the gradation level. That is, since the captured video 150 captured by the camera 12b of this modification is a multi-gradation captured image (in this case, a monochrome captured image), the image processing unit 18a sets a predetermined gradation threshold value. Using this, the gradation level of each pixel is binarized, and the area exceeding the gradation threshold is extracted as the approaching object image 150H as shown in FIG. Further, in order to specify the image of the human hand / finger from the extracted approaching object image 150H, the image processing unit 18a first stores the shape of the approaching object image 150H and the storage unit of the control circuit 18. Compared to the hand and finger shape patterns, the approaching object image 150H that matches those patterns is recognized as a finger image. In this modification, the gradation threshold value for specifying an image of a hand or finger is set as a first gradation threshold value, and a second gradation threshold value higher than that is defined, and the second gradation value is determined. The fingertip finger having the region L1 (see FIG. 23) exceeding the threshold value can be designated as the operation target finger P. As another method, the operation target finger P may be designated by comparing the brightness of the fingertip Q or the average (or maximum / minimum) brightness of a predetermined region with the fingertip Q as a reference. Note that regions L1 to L3 in FIG. 23 indicate regions with different luminances in the captured video 150, and the luminances decrease in the order of L1, L2, and L3.

つまり、第一実施形態の第五変形例では、図6のT1が、カメラ12bにより撮影された画像の輝度に基づいて指画像を特定して、当該指画像により指を特定するステップであり、図6のT2が、カメラ12bにより撮影された手の画像を用いて指先を特定するステップである。さらに、図6のT3は、同じくカメラ12bにより撮影された手の画像の輝度に基づいて、操作対象指Pを特定するステップである。従って、第一実施形態の第五変形例においては、カメラ12bの撮影画像から、指の特定、指先の特定、さらには操作対象指Pの指定までもが可能となっている。   That is, in the fifth modification of the first embodiment, T1 in FIG. 6 is a step of specifying a finger image based on the luminance of the image captured by the camera 12b and specifying the finger from the finger image. T2 in FIG. 6 is a step of specifying the fingertip using the hand image taken by the camera 12b. Furthermore, T3 in FIG. 6 is a step of specifying the operation target finger P based on the luminance of the hand image captured by the camera 12b. Therefore, in the fifth modified example of the first embodiment, it is possible to specify a finger, a fingertip, and even an operation target finger P from a captured image of the camera 12b.

また、ここでは、指全体ではなく指先部分の画像情報を使用して、操作対象指Pを指定する処理とする。これにより、操作対象指Pの指定処理の対象となるデータを限定することが可能となり演算コスト(演算量・メモリ量)を低減することができる。具体的にいえば、図23に示すように、T2で特定された指先Qを中心に、指先全体が含まれる所定形状(ここでは四角)の領域Sを設定し、T1で特定された全ての指に関し、T61にて当該領域Sにおける輝度情報を特定・取得し、T62にて、取得した輝度情報のうち最も高輝度である領域Sの指を優先して操作対象指Pとして指定するようにしている。   Here, it is assumed that the operation target finger P is designated by using image information of the fingertip portion instead of the entire finger. As a result, it is possible to limit the data that is the target of the operation target finger P specifying process, and the calculation cost (calculation amount / memory amount) can be reduced. Specifically, as shown in FIG. 23, a region S having a predetermined shape (in this case, a square) including the entire fingertip is set around the fingertip Q specified in T2, and all of the regions specified in T1 are specified. With respect to the finger, the luminance information in the region S is specified and acquired at T61, and the finger of the region S having the highest luminance among the acquired luminance information is preferentially designated as the operation target finger P at T62. ing.

本発明の第一実施形態の第六変形例について説明する。   A sixth modification of the first embodiment of the present invention will be described.

第一実施形態の第六変形例は、図24〜図26に示すように、操作対象指Pの指定方法が、上記実施形態と異なる。第六変形例においては、図24のフローチャートに示すように、T61にて、図6のT1にて特定された指先の、タッチ操作面12a1への接近距離関係を反映した接近距離情報を指定指情報として取得し(指定指情報取得ステップ)、T62にて、取得された接近距離情報に基づいて、指特定ステップにより特定された指のうち、当該接近距離に関する予め定められた選定条件に対し適する指を優先して操作対象指として指定する(操作対象指指定ステップ)。ただし、この構成の場合、タッチ操作面12a1と操作手の指先との距離を検出する手段が必要となる。上記第六変形例のように輝度を接近距離情報として取得することもできるが、例えば図25に示すように、カメラ(撮影手段)40を接近距離情報を取得するための手段とすることができる。カメラ40は、タッチ操作面12a1と操作手の指先との距離が映るように配置され、その撮影画像(例えば図26)から、制御回路18が、タッチ操作面12a1に対する操作手の各指の指先との距離d1〜d4を算出して、例えば最も距離の近い指先の指を操作対象指Pとして指定することができる。図26は、図25のカメラ40による撮影映像の一例である。   As shown in FIGS. 24 to 26, the sixth modification of the first embodiment is different from the above embodiment in the method of specifying the operation target finger P. In the sixth modification, as shown in the flowchart of FIG. 24, at T61, the approach distance information reflecting the approach distance relationship of the fingertip specified at T1 of FIG. 6 to the touch operation surface 12a1 is designated. It is acquired as information (designated finger information acquisition step), and is suitable for a predetermined selection condition regarding the approach distance among the fingers specified by the finger specifying step based on the acquired approach distance information at T62. A finger is preferentially designated as an operation target finger (operation target finger designation step). However, in the case of this configuration, means for detecting the distance between the touch operation surface 12a1 and the fingertip of the operating hand is required. Although the luminance can be acquired as the approach distance information as in the sixth modification, for example, as shown in FIG. 25, the camera (photographing means) 40 can be used as a means for acquiring the approach distance information. . The camera 40 is arranged so that the distance between the touch operation surface 12a1 and the fingertip of the operator's finger is reflected. From the captured image (for example, FIG. 26), the control circuit 18 causes the fingertip of each finger of the operator to touch the touch operation surface 12a1. The distances d1 to d4 are calculated, and for example, the finger with the closest fingertip can be designated as the operation target finger P. FIG. 26 is an example of a video image taken by the camera 40 of FIG.

本発明の第一実施形態の第七変形例について説明する。
上記した位置関係情報、指形状情報等の複数種の指定指情報を組み合わせる形で、操作対象指を指定してもよい。これにより、人差し指や中指といった決められた種類の指をより正確に特定することが可能となる。
A seventh modification of the first embodiment of the present invention will be described.
The operation target finger may be designated in a combination of a plurality of types of designated finger information such as the positional relationship information and finger shape information. As a result, it is possible to more accurately specify a predetermined type of finger such as an index finger or a middle finger.

本発明の第一実施形態の第八変形例について説明する。
上記した全ての実施形態及び変形例においては、手画像撮影手段をなすカメラ12bは、タッチパネル12aのタッチ操作面(表面)12a1と対向する車室内の固定領域を撮影するカメラであって、上記した実施形態及び変形例のように、タッチパネル12aの裏面12a2側から撮影する構成を有している。ところが、本発明では、このような構成に限られるものではない。例えば、図27に示すように、車両のセンターコンソール部Cにタッチパネル12aのタッチ操作面12a1を斜め上側から撮影するように取り付けて、当該タッチ操作面12a1に接近する接近物を、タッチ操作面12a1側から撮影するように構成してもよい。この場合、上記した実施形態及び変形襟とは異なり、撮影画像内の特定の画像(例えば手画像)を抽出して表示部15に表示する際には、画像を左右反転する処理を省略できる。
An eighth modification of the first embodiment of the present invention will be described.
In all the embodiments and modifications described above, the camera 12b that forms the hand image photographing unit is a camera that photographs a fixed area in the vehicle interior facing the touch operation surface (front surface) 12a1 of the touch panel 12a. As in the embodiment and the modification, the touch panel 12a has a configuration for photographing from the back surface 12a2 side. However, the present invention is not limited to such a configuration. For example, as shown in FIG. 27, the touch operation surface 12a1 of the touch panel 12a is attached to the center console portion C of the vehicle so as to be photographed obliquely from above, and an approaching object approaching the touch operation surface 12a1 is displayed on the touch operation surface 12a1. You may comprise so that it may image | photograph from the side. In this case, unlike the above-described embodiment and the deformed collar, when a specific image (for example, a hand image) in the captured image is extracted and displayed on the display unit 15, it is possible to omit the process of horizontally inverting the image.

また、手画像撮影手段をなすカメラ12bは、操作パネル12aのタッチ操作面12a1を含むその周辺領域を撮影するカメラ20に兼用させてもよい。   Further, the camera 12b serving as the hand image photographing means may be used as the camera 20 for photographing the peripheral area including the touch operation surface 12a1 of the operation panel 12a.

このカメラ20は、制御回路18に接続するとともに、図27に示すように、例えば車両前方上部のバックミラー周辺部に設けることができる。具体的に言えば、例えば図28に示すような撮影画像300を撮影するものであり、撮影範囲が、操作パネル12aの操作者の手だけでなく、その手から続く腕まで映るように定められており、撮影される操作パネル周辺画像を取得する制御回路18では、画像処理部18aにて、手からのびる腕の方向を特定して、操作者が左右いずれの搭乗者であるかを特定する。これにより、タッチ操作面12a1の操作者が、該タッチ操作面12a1の左側に位置する者であれば、その操作手を右手と特定することができるし、該タッチ操作面12a1の右側に位置する者であれば、その操作手を左手と特定することができる。   The camera 20 is connected to the control circuit 18 and can be provided, for example, in the periphery of the rear-view mirror at the upper front of the vehicle as shown in FIG. More specifically, for example, a photographed image 300 as shown in FIG. 28 is photographed, and the photographing range is determined so that not only the operator's hand of the operation panel 12a but also the arm following that hand is reflected. In the control circuit 18 that acquires the image of the operation panel surroundings to be photographed, the image processing unit 18a specifies the direction of the arm extending from the hand, and specifies whether the operator is the left or right passenger. . Accordingly, if the operator of the touch operation surface 12a1 is a person located on the left side of the touch operation surface 12a1, the operator can be identified as the right hand, and is located on the right side of the touch operation surface 12a1. If it is a person, the operation hand can be specified as the left hand.

そして、制御回路18は、その操作手の特定結果に基づいて、操作対象指Pの指定条件を切り替えるようにすることができる。具体的にいえば、人差し指を特定する場合には、操作手が左手の場合は、最も右に出現する指として特定したり、最も長く表れる中指の右に隣接する指として特定することができ、他方、操作手が右手の場合は、最も左に出現する指として特定したり、最も長く表れる中指の左に隣接する指として特定することができる。従って、操作対象指Pを指定する際に、操作手が左手であるか右手であるかに応じて選定条件が切り替わる場合は、当該操作手の特定結果に基づいて、その切り替えを行うようにすることができる。また、操作手が運転者の手と特定された場合に、操作ができないよう表示を行わないようにしてもよい。こうすると、左側の助手席搭乗者のみを操作者として指定できるから、操作手として絶えず右手を定めることができ、ひいては、これを操作対象指Pの選定条件に予め反映しておくことができる。   Then, the control circuit 18 can switch the designation condition of the operation target finger P based on the identification result of the operator. Specifically, when specifying the index finger, if the operating hand is the left hand, it can be specified as the finger that appears rightmost, or as the finger adjacent to the right of the longest middle finger, On the other hand, when the operating hand is the right hand, it can be specified as the finger that appears to the left most, or the finger that is adjacent to the left of the middle finger that appears the longest. Therefore, when selecting the operation target finger P, if the selection condition is switched depending on whether the operating hand is the left hand or the right hand, the switching is performed based on the identification result of the operating hand. be able to. Further, when the operator's hand is identified as the driver's hand, the display may not be performed so that the operation cannot be performed. In this way, since only the passenger on the left passenger seat can be designated as the operator, the right hand can be constantly determined as the operator, and this can be reflected in advance in the selection conditions for the operation target finger P.

図28の撮影画像300においては、符号300Hが手画像、符号300Aが手から続く腕の画像、符号312aが操作パネル12aの映った領域であり、操作パネル12aの操作者の腕は撮影画像の右側から、即ち運転席側から延びているので、当該操作者が運転者であると特定される。本変形例においては、このカメラ20が、制御回路18(画像処理部18a)とともに操作者特定手段として機能している。なお、操作パネル12aの操作者が運転者であるか否かを特定する方法は、他の方法であってもよい。例えば、タッチ操作面12aの車両左右両側にそれぞれ接近物を検知する接近物検知部(例えば赤外反射センサ等の反射式光学センサ)を設け、これにより操作者を特定してもよい。   In the captured image 300 of FIG. 28, reference numeral 300H is a hand image, reference numeral 300A is an image of an arm that continues from the hand, reference numeral 312a is an area where the operation panel 12a is reflected, and the operator's arm of the operation panel 12a is the captured image. Since it extends from the right side, that is, from the driver's seat side, the operator is identified as the driver. In this modification, the camera 20 functions as an operator specifying unit together with the control circuit 18 (image processing unit 18a). It should be noted that another method may be used for specifying whether or not the operator of the operation panel 12a is a driver. For example, an approaching object detection unit (for example, a reflective optical sensor such as an infrared reflection sensor) that detects an approaching object may be provided on each of the left and right sides of the touch operation surface 12a to identify the operator.

本発明の第一実施形態の第九変形例について説明する。
上記した全ての実施形態及び変形例において、上記のような強調表示を、2以上の指が特定された場合にのみ実施するようにしてもよい。指特定手段として機能する制御回路18は、指の本数を特定することが可能であるから、特定された指本数が2以上である場合に上記位置指示画像表示処理を実行し、1本の場合には、その指に対応する位置指示画像のみを表示するシンプルな表示処理を実行するように構成するようにできる。
A ninth modification of the first embodiment of the present invention will be described.
In all the above-described embodiments and modifications, the highlighting as described above may be performed only when two or more fingers are specified. Since the control circuit 18 functioning as the finger specifying means can specify the number of fingers, the position indicating image display process is executed when the specified number of fingers is two or more, and the number of fingers is one. Can be configured to execute a simple display process for displaying only the position indicating image corresponding to the finger.

本発明の第一実施形態の第十変形例について説明する。
上記した全ての実施形態及び変形例において、遠隔操作部は接触操作(プッシュ操作やタッチ操作)を前提としているため、1本の指を位置指示用に指定している。さらに、場合によっては図29に示すように2本の指を位置指示用に指定するように構成できることも述べられている。ところが、遠隔操作部は、ダイアル操作部等のような、操作ノブをつまむ形での操作が前提となる操作部であってもよく、この場合は、2本あるいは3本といった本数の指を操作対象指Pとして指定することもできる。なお、つまむ形での操作における指の特定ないしは指先の特定は、上記した接近距離情報(遠隔操作面への接近距離関係を反映した情報)を用いて行うことができる。
A tenth modification of the first embodiment of the present invention will be described.
In all of the above-described embodiments and modifications, the remote operation unit is premised on a contact operation (push operation or touch operation), and thus designates one finger for position indication. Further, it is also described that in some cases, two fingers can be designated for position indication as shown in FIG. However, the remote operation unit may be an operation unit such as a dial operation unit, which is premised on the operation of pinching the operation knob. In this case, the number of fingers such as two or three is operated. It can also be designated as the target finger P. Note that the finger specification or fingertip specification in the pinch-type operation can be performed using the above-described approach distance information (information reflecting the approach distance relationship to the remote operation surface).

例えば、図30に示すように、本発明の遠隔操作部としてダイアル操作部12a’(ダイアルノブ周辺の筐体前端部121eもダイアル操作部12a’の一部とする)を設け、これを操作するために接近する手をカメラ41,42(制御回路18に接続する形で構成する)にて撮影するように構成する。カメラ41,42は、撮影範囲が異なっており、双方の撮影方向がダイアル操作部12a’の回転軸線に対し垂直な平面上にて直交するように定められている。これらカメラ41,42の撮影画像(図4及び図5の(b)と同様の2値化後の画像)150a,150bの一例が、図31(a)、(b)に示されている。一方で、操作情報入力部12の内部にも図3に示す形でカメラ12bが設置されている(図27のように外部にあってもよい)。カメラ12bの撮影画像(図4及び図5の(b)と同様の2値化後の画像)150cの一例が、図31(c)に示されている。なお、これらの画像150a,150b,150cの画像領域150Sは、操作部12a’の映った領域である。   For example, as shown in FIG. 30, a dial operation unit 12a ′ (the front end portion 121e around the dial knob is also part of the dial operation unit 12a ′) is provided and operated as a remote operation unit of the present invention. Therefore, the approaching hand is configured to photograph with the cameras 41 and 42 (configured to be connected to the control circuit 18). The cameras 41 and 42 have different shooting ranges, and are set so that both shooting directions are orthogonal to each other on a plane perpendicular to the rotational axis of the dial operation unit 12a '. An example of images taken by the cameras 41 and 42 (binarized images similar to FIGS. 4 and 5B) 150a and 150b are shown in FIGS. 31A and 31B. On the other hand, the camera 12b is also installed inside the operation information input unit 12 in the form shown in FIG. 3 (may be outside as shown in FIG. 27). An example of an image captured by the camera 12b (an image after binarization similar to (b) of FIGS. 4 and 5) 150c is shown in FIG. 31 (c). The image area 150S of these images 150a, 150b, and 150c is an area where the operation unit 12a 'is reflected.

ここで、この構成において実施される上記のような強調表示について、その処理の流れを説明する。   Here, the processing flow of the above-described highlighting performed in this configuration will be described.

まずは、図31(a)、(b)の画像150a,150bを取得し(図6のT1に相当する処理)、画像150a,150bから抽出される手画像150Hから指先Qを特定する。その上で、指先Qの具体的な位置を特定する(図6のT2に相当する処理)。ここでは、図30に示すようなx軸、y軸、z軸を有する三次元座標系(車室内座標系)を車室内に定めて、当該座標系における位置座標として特定する。具体的には、画像150a,150bにx−z座標系、y−z座標系を定めて、これらから筐体前端部121e側に延出する突出画像150Fの先端領域に既に述べたいずれかの方法により指先Qを特定するとともに、当該指先Qの位置座標を特定して、これらから上記車室内座標系における三次元位置座標を特定する。   First, the images 150a and 150b shown in FIGS. 31A and 31B are acquired (processing corresponding to T1 in FIG. 6), and the fingertip Q is specified from the hand image 150H extracted from the images 150a and 150b. Then, the specific position of the fingertip Q is specified (a process corresponding to T2 in FIG. 6). Here, a three-dimensional coordinate system (vehicle interior coordinate system) having an x-axis, a y-axis, and a z-axis as shown in FIG. Specifically, an xz coordinate system and a yz coordinate system are defined for the images 150a and 150b, and any one of those already described in the tip region of the protruding image 150F extending from these to the housing front end 121e side. The fingertip Q is specified by the method, the position coordinates of the fingertip Q are specified, and the three-dimensional position coordinates in the vehicle interior coordinate system are specified from these.

続いて、操作対象指Pを特定する。ここでは、各指先Qから筐体前端部121eの前端面間までの距離を算出して、筐体前端部121eの前端面に最も近い位置にある指先Qと、それに次いで近い位置にあるQとの双方を、操作対象指Pとして特定する。なお、ここでの距離の算出は、画像150a,150bに筐体前端部121eの前端面が映るので(符号150E)、これを用いて算出してもよいし、画像150cの輝度から算出してもよい。   Subsequently, the operation target finger P is specified. Here, the distance from each fingertip Q to the front end surface of the housing front end portion 121e is calculated, and the fingertip Q that is closest to the front end surface of the housing front end portion 121e, and Q that is next closest to the fingertip Q are calculated. Both are specified as the operation target finger P. Note that the calculation of the distance here may be performed using the image 150a, 150b because the front end surface of the housing front end 121e is reflected (reference numeral 150E), or may be calculated from the luminance of the image 150c. Also good.

そして、特定された操作対象指Pの指先Qに対応する位置指示画像200Hの位置指示領域200Q(200P)を、他の指先Qに対応する位置指示画像200Hの位置指示領域200Q(200R)よりも強調する形で、図32に示すような形で背景画像200Bに重ねて表示する、あるいは合成して表示する。なお、図32における背景画像200B(200B3)は、スイッチ画像200Iとして、ダイアルスイッチ画像が表示されており、遠隔操作部をなすダイアル操作部12a’の回転操作に応じた回転表示がなされ、回転位置に応じた制御内容が実施される。   Then, the position indicating area 200Q (200P) of the position indicating image 200H corresponding to the specified fingertip Q of the operation target finger P is more than the position indicating area 200Q (200R) of the position indicating image 200H corresponding to the other fingertip Q. In an emphasized form, it is displayed in a superimposed manner on the background image 200B as shown in FIG. Note that the background image 200B (200B3) in FIG. 32 is a dial switch image displayed as the switch image 200I, and is rotated according to the rotation operation of the dial operation unit 12a ′ forming the remote operation unit, and the rotation position is displayed. The control content corresponding to is executed.

なお、ここでの操作対象指Pの指定方法は、既に述べた第一実施形態の第一変形例のように、特定された指先Qを、遠隔操作部をなすダイアル操作部12a’に向けて(ダイアル操作部12a’との対向方向に)投影し、その投影面180上の予め定められた領域に設定される基準領域Yと投影された指先Qとの間の距離を反映した距離情報を位置関係情報として取得して、取得された該距離情報を用いて、当該距離に関する予め定められた選定条件に対し適する指を優先して操作対象指Pとして指定する。なお、ここで設定される基準領域Yは、図34に示すように、ダイアル操作部12a’を投影面180に投影した投影領域120の中心位置として設定することができる。   Here, the operation target finger P is specified by pointing the identified fingertip Q toward the dial operation unit 12a ′ serving as a remote operation unit as in the first modification of the first embodiment described above. Distance information reflecting the distance between the reference area Y projected to the predetermined area on the projection plane 180 and the projected fingertip Q is projected (in the direction facing the dial operation unit 12a ′). It is acquired as positional relationship information, and using the acquired distance information, a finger suitable for a predetermined selection condition regarding the distance is preferentially designated as the operation target finger P. Note that the reference area Y set here can be set as the center position of the projection area 120 obtained by projecting the dial operation unit 12a 'onto the projection plane 180, as shown in FIG.

また、ここでの操作対象指Pの指定方法は、少なくとも親指が含まれるように定められるような方法であるとよい。具体的には、他の指との太さの違い、他の指との位置関係の違い、指の延出方向の違い等、様々な要素から特定できる。また、操作対象指Pが2本である場合は、残り1本の指は、親指以外で最も筐体前端部121eの前端面に近い指とすることができる。ただし、つまみ操作のしやすさから人差し指又は中指が指定されることが望ましく、例えば親指を基準として(たとえば親指からの位置関係により)指定することができる。また、上記のようなつまみ操作を前提とするような遠隔操作部の場合は、図33のように、3本の指の指先を強調してもよい。この場合は、望ましくは、親指、人差し指、中指が操作対象指Pに指定されるとよい。   In addition, the method of designating the operation target finger P here may be a method that is determined so that at least the thumb is included. Specifically, it can be identified from various factors such as a difference in thickness with other fingers, a difference in positional relationship with other fingers, and a difference in extension direction of the fingers. When there are two operation target fingers P, the remaining one finger can be the finger closest to the front end surface of the housing front end 121e other than the thumb. However, it is desirable that the index finger or the middle finger is designated for ease of knob operation. For example, the index finger or the middle finger can be designated based on the thumb (for example, based on the positional relationship from the thumb). In the case of a remote control unit that assumes the above-described knob operation, the fingertips of three fingers may be emphasized as shown in FIG. In this case, it is desirable that the thumb, index finger, and middle finger are designated as the operation target finger P.

また、上記した実施形態及び変形例では、位置指示画像200Hにおける指先領域200Qを位置指示領域としているが、既に述べた他の実施形態のように、位置指示画像200Hに含まれる指全体を位置指示領域としてもよい。逆に、既に述べた他の実施形態において、位置指示画像200Hにおける指先領域200Qを位置指示領域としてもよい。   In the embodiment and the modification described above, the fingertip area 200Q in the position instruction image 200H is used as the position instruction area. However, as in the other embodiments described above, the entire finger included in the position instruction image 200H is position-indicated. It may be an area. On the contrary, in other embodiments already described, the fingertip area 200Q in the position indicating image 200H may be used as the position indicating area.

上記した全ての実施形態及び変形例において適用可能な指ないし指先の追跡処理について説明する。   A finger or fingertip tracking process that can be applied to all of the above-described embodiments and modifications will be described.

上記した実施形態及び変形例においては、撮影映像のフレーム毎に操作対象指Pが特定される構成となっているが、この場合、操作パネル12a(12a’)と操作する手の位置関係が変わった際に、操作対象指Pが自動的に別の指に切り替わってしまう可能性がある。特に、第三および第四変形例のように、遠隔操作部への接触位置(ユーザー操作)に基づいて操作対象指Pが特定される場合には、タッチ操作が基準となって操作対象指Pが特定されるため、手や指の位置が移動したからといって簡単に別の指が操作対象指Pとされることは望ましくない。また、上記第一実施形態以外においても、予め定められた所定指状態(後述する操作意思表示用指状態や簡易操作用指状態等)として、予め定められた指の種別が特定される指状態が定められている場合(例えば人差し指や中指のいずれか又は双方が特定される指状態)も、当該種別の指が特定された後に、手や指の位置が移動したからといって、特定されていた指が簡単に別の種別の指として特定されてしまうことは望ましくない。このため、操作対象指P等の指が指定ないし特定された後、指定ないし特定された指の移動を追跡する処理を追加し、その追跡結果に基づいて、同一の指を継続的に指定ないし特定し続けることで、上記の問題を解決することができる。   In the embodiment and the modification described above, the operation target finger P is specified for each frame of the captured video. In this case, the positional relationship between the operation panel 12a (12a ′) and the operating hand is changed. The operation target finger P may automatically switch to another finger. In particular, as in the third and fourth modifications, when the operation target finger P is specified based on the contact position (user operation) to the remote operation unit, the operation target finger P is based on the touch operation. Therefore, it is not desirable that another finger is easily set as the operation target finger P simply because the position of the hand or finger is moved. In addition to the first embodiment, a finger state in which a predetermined finger type is specified as a predetermined finger state (such as an operation intention display finger state or a simple operation finger state to be described later). (For example, a finger state in which one or both of the index finger and the middle finger is specified) is also specified because the position of the hand or finger is moved after the finger of that type is specified. It is not desirable that a finger that has been easily identified as another type of finger. For this reason, after a finger such as the operation target finger P is designated or specified, a process for tracking the movement of the designated or specified finger is added, and the same finger is continuously designated based on the tracking result. By continuing identification, the above problem can be solved.

図36及び図37は、図6のT1で特定される全ての指を追跡するための処理、さらにいえばT2で特定される全ての指先を追跡する処理である。ここでは、遠隔操作部をなす操作パネル12a(12a’)を操作するために当該操作パネル12a(12a’)の手前側にて対向した手(指)を、撮影手段であるカメラ12bにより撮影される動画像に基づいて特定するよう構成されている。この場合、操作パネル12a(12a’)の手前側にて対向する手(指)の指特定可能範囲(指先特定可能範囲)は、固定配置されたカメラ12bの撮影範囲である。カメラ12bは、当該範囲の動画像を撮影し、制御回路18は所定時間間隔おきに順次撮影された動画像フレームを取得する。   36 and 37 are processes for tracking all the fingers specified by T1 in FIG. 6, more specifically, a process for tracking all the fingertips specified by T2. Here, in order to operate the operation panel 12a (12a ′) forming the remote operation unit, the hand (finger) facing the front side of the operation panel 12a (12a ′) is photographed by the camera 12b as the photographing means. It is configured to specify based on a moving image. In this case, the finger identifiable range (fingertip identifiable range) of the hand (finger) facing the front side of the operation panel 12a (12a ') is a photographing range of the camera 12b that is fixedly arranged. The camera 12b captures a moving image within the range, and the control circuit 18 acquires moving image frames that are sequentially captured at predetermined time intervals.

図36及び図37の指追跡処理(指追跡ステップ)では、順次取得される動画像フレームから特定される各指先の当該フレーム内での位置を算出して、算出された位置情報を追跡情報として、制御回路18のROM等の設けられた所定の追跡情報記憶部に記憶・蓄積することで、順次取得される動画像フレームから特定される各指先を識別しながら、それぞれの移動を追跡する。   In the finger tracking process (finger tracking step) in FIGS. 36 and 37, the position of each fingertip identified from the sequentially acquired moving image frames is calculated in the frame, and the calculated position information is used as tracking information. By storing and accumulating in a predetermined tracking information storage unit such as a ROM of the control circuit 18, each movement is tracked while identifying each fingertip identified from the sequentially acquired moving image frames.

追跡情報は、図38の符号500に示すような形で記憶される。図38に示す追跡情報500には、取得した動画像フレームにて特定された各指先に指先ID(識別情報)を付与し、当該指先IDに対応付けた形で、各指先の前回の動画像フレーム(以下、前フレーム称する)及び前々回の動画像フレーム(以下、前々フレームと称する)内での位置を示す位置情報を記憶可能としている。なお、ここでの位置情報は、動画像フレーム内に定められる所定の二次元座標系上での各指先の位置座標である。図38の上図は、当該二次元座標系が定められた動画像フレーム(指特定可能範囲ともいえる)を図示したものであり、図38の追跡情報500として記憶されている、前フレームにて特定された指先の位置座標Pi(-1)及び前々フレームにて特定された指先の位置座標Pi(-2)、さらに現フレームにて特定された指先のRj(0)が表示されている。図38に示すように、新たな動画像フレームが取得されるに伴い各指先の位置座標が順次記憶・更新されていく。なお、記憶保持される位置座標は、ここでは前フレーム及び前々フレームの位置座標であって、前々フレームよりも以前のフレームの位置座標は順次消去される。 The tracking information is stored in a form as indicated by reference numeral 500 in FIG. In the tracking information 500 shown in FIG. 38, a fingertip ID (identification information) is assigned to each fingertip specified in the acquired moving image frame, and the previous moving image of each fingertip is associated with the fingertip ID. Position information indicating the position in the frame (hereinafter referred to as the previous frame) and the previous moving image frame (hereinafter referred to as the previous frame) can be stored. The position information here is the position coordinates of each fingertip on a predetermined two-dimensional coordinate system defined in the moving image frame. The upper diagram of FIG. 38 illustrates a moving image frame (also referred to as a finger identifiable range) in which the two-dimensional coordinate system is defined. In the previous frame stored as tracking information 500 in FIG. The specified fingertip position coordinates P i (-1), the fingertip position coordinates P i (-2) specified in the previous frame, and the fingertip R j (0) specified in the current frame are displayed. Has been. As shown in FIG. 38, the position coordinates of each fingertip are sequentially stored and updated as new moving image frames are acquired. The position coordinates stored and held here are the position coordinates of the previous frame and the previous frame, and the position coordinates of the frames before the previous frame are sequentially deleted.

また、追跡情報500には、最新の動画像フレーム(以下、現フレームと称する)から特定される各指先の当該フレーム上での位置を示す位置情報が含まれており、追跡情報記憶部には、当該位置情報が指先IDごとに記憶される。さらに、追跡情報には、現フレームにおいて各指先が位置するであろう予測位置(次回位置)が含まれており、追跡情報記憶部には、当該予測位置を示す予測位置情報が記憶される。さらに、現フレームにおける指先の位置情報と、現フレームに関し予測された指先の予測位置情報との対応関係を特定し、その対応結果から、指先IDごとに、現フレーム取得時における対応する指先の追跡状況が特定され、これも追跡情報として追跡情報記憶部に記憶される。追跡状況としては、指先の追跡が前フレーム時から現フレームにかけて継続している追跡継続状態(追跡中)と、前フレームまでは追跡されていた指先を現フレームにてロスト(消滅)した追跡不可状態(ロスト)と、前フレームまでは追跡されていなかった指先が新規に出現した新規出現状態(新規出現)との少なくとも3状態を有している。   The tracking information 500 includes position information indicating the position of each fingertip on the frame specified from the latest moving image frame (hereinafter referred to as the current frame). The position information is stored for each fingertip ID. Furthermore, the tracking information includes a predicted position (next position) where each fingertip will be positioned in the current frame, and the tracking information storage unit stores predicted position information indicating the predicted position. Further, the correspondence relationship between the fingertip position information in the current frame and the predicted fingertip position information predicted for the current frame is specified, and the corresponding fingertip tracking at the time of acquiring the current frame is determined for each fingertip ID from the corresponding result. The situation is specified, and this is also stored as tracking information in the tracking information storage unit. The tracking status includes the tracking continuation state in which tracking of the fingertip continues from the time of the previous frame to the current frame (tracking), and the tracking of the fingertip that has been tracked up to the previous frame is lost (disappears) in the current frame. It has at least three states: a state (lost) and a new appearance state (new appearance) in which a fingertip that has not been tracked up to the previous frame has newly appeared.

指先の予測位置の算出方法としては、例えば以下のような算出方法を例示できる。即ち、過去複数回の動画像フレーム上の各指先の位置を示す位置情報に基づいて算出する方法である。ここでは、各指の追跡情報として、前フレーム回及び前々フレーム上の各指先の位置情報が含まれているから、それら位置情報に基づいて、各指先の移動を推定し、次フレーム上の各指先の推定移動先を上記予測位置として算出する。具体例としては、図40(a)に示すように、各動画像フレーム上に共通に定められる動画像フレーム400上の二次元座標系において、前々フレーム上に特定される指の位置座標Pi(-2)から、前フレーム上に特定される位置座標Pi(-1)に移動した際の、当該位置座標Pi(-1)における指の速度ベクトルVi(-1)を、当該移動の移動方向及び移動距離に基づいて算出する。そして次フレームでは、位置座標Pi(-1)に位置する指が速度ベクトルVi(-1)だけ移動すると推定し、その推定移動先の位置座標Qi(-0)を算出する(Qi(-0)=Pi(-1)+Vi(-1))。算出された位置座標Qi(-0)が予測位置情報であり、追跡情報の一つとして制御回路18の追跡情報記憶部に記憶される。 As a calculation method of the predicted position of the fingertip, for example, the following calculation method can be exemplified. That is, it is a method of calculating based on position information indicating the position of each fingertip on a plurality of past moving image frames. Here, as the tracking information of each finger, the position information of each fingertip on the previous frame times and the previous frame is included. Therefore, based on the position information, the movement of each fingertip is estimated, and on the next frame. The estimated movement destination of each fingertip is calculated as the predicted position. As a specific example, as shown in FIG. 40 (a), in the two-dimensional coordinate system on the moving image frame 400 defined in common on each moving image frame, the finger position coordinates P specified on the previous frame are determined. When moving from i (-2) to the position coordinate P i (-1) specified on the previous frame, the finger velocity vector V i (-1) at the position coordinate P i (-1) is Calculation is performed based on the moving direction and moving distance of the movement. In the next frame, it is estimated that the finger located at the position coordinate P i (−1) moves by the velocity vector V i (−1), and the position coordinate Q i (−0) of the estimated movement destination is calculated (Q i (−0) = P i (−1) + V i (−1)). The calculated position coordinate Q i (−0) is the predicted position information, and is stored in the tracking information storage unit of the control circuit 18 as one piece of tracking information.

ただし、前フレームにおいて新規に出現した指先に対し、次フレームでの出現を予測することは、上記のように前フレームと前々フレームとの双方を用いた予測方法では実施できない。こうした場合、ここでは、前フレーム上にて特定された指先の位置情報に基づいて、当該指先の前々フレームにおける位置を仮位置として定め、この仮位置を示す位置情報と、前フレームの位置情報とに基づいて、当該指先の次フレーム上での出現位置を特定する。この仮位置の決定方法は以下の通りである。即ち、図41に示すように、動画像フレーム(指先特定可能範囲)400内の領域を、各縁部(ここでは上下左右の縁部)に対応付けた形で予め区画して(区画線は破線で図示)、各縁部401(401a〜401d)に対応する縁部対応領域410を設定しておき、その上で、まずは、前フレーム上にて特定された指先位置Pi(-1)が存在する縁部対応領域410(401A〜401D)を特定する。Pi(-1)が存在する縁部対応領域410が特定された場合には、当該Pi(-1)に最近接する当該縁部対応領域410の縁部401上の位置を、前々フレームの仮位置として決定する。つまり、前フレーム上にて特定された指先位置Pi(-1)を通過し、当該指先位置Pi(-1)が存在する縁部対応領域410の縁部401に向かう垂線と、当該縁部401との交点を仮位置Pi'(-2)と定める。 However, predicting the appearance of the next frame with respect to a fingertip that has newly appeared in the previous frame cannot be performed by the prediction method using both the previous frame and the previous frame as described above. In such a case, here, based on the position information of the fingertip specified on the previous frame, the position of the fingertip in the previous frame is determined as a temporary position, the position information indicating the temporary position, and the position information of the previous frame Based on the above, the appearance position of the fingertip on the next frame is specified. The method for determining the temporary position is as follows. That is, as shown in FIG. 41, areas in the moving image frame (fingertip identifiable range) 400 are partitioned in advance in association with each edge (here, the top, bottom, left, and right edges) (partition lines are An edge corresponding area 410 corresponding to each edge 401 (401a to 401d) is set, and then, first, the fingertip position P i (−1) specified on the previous frame is set. The edge corresponding region 410 (401A to 401D) in which is present is specified. When the edge corresponding region 410 where P i (−1) exists is specified, the position on the edge 401 of the edge corresponding region 410 closest to the P i (−1) Is determined as a temporary position. That is, a perpendicular line that passes through the fingertip position P i (−1) specified on the previous frame and goes to the edge 401 of the edge corresponding region 410 where the fingertip position P i (−1) exists, and the edge The intersection with the part 401 is defined as a temporary position P i ′ (−2).

なお、上記の指先の予測位置の算出方法は、前フレーム回及び前々フレーム上の各指先の位置情報に基づいて算出する方法であったが、より高い精度で算出するために、図40(b)に示すように算出する。即ち、各動画像フレーム上に共通に定められる動画像フレーム400上の二次元座標系において、現フレームから1回前フレーム上に特定される位置座標Pi(-1)上における指の速度ベクトルVi(-1)と加速ベクトルAi(-1)をそれぞれ算出し、次フレームでは、当該位置座標Pi(-1)に位置する指がこれら速度ベクトルVi(-1)と加速ベクトルAi(-1)の分に相当する移動が生ずると推定して、その推定移動先の位置座標Qi(-0)を算出する(Qi(-0)=Pi(-1)+Vi(0)=Pi(-1)+Vi(-1)+Ai(-1))。まずは、現フレームから3回前のフレーム上に特定される指の位置座標Pi(-3)から、現フレームから2回前フレーム上に特定される位置座標Pi(-2)に移動した際の移動方向及び移動距離に基づいて、位置座標Pi(-2)における当該指の速度ベクトルVi(-2)を算出する。その上でこの指を、動画像フレーム400上の位置座標Pi(-2)から速度ベクトルVi(-2)だけ移動した先の位置座標から、現フレームから1回前フレーム上に特定される位置座標Pi(-1)に移動した際の移動方向及び移動距離に基づいて、加速ベクトルAi(-1)を算出する(Ai(-1)=Vi(-1)−Vi(-2)=Pi(-1)−Pi(-2)−Vi(-2))。また、速度ベクトルVi(-1)は、現フレームから2回前フレーム上に特定される位置座標Pi(-2)から、現フレームから1回前フレーム上に特定される位置座標Pi(-1)に移動した際の、移動方向及び移動距離に基づいて算出する。 The calculation method of the predicted position of the fingertip is a method of calculating based on the position information of each fingertip on the previous frame times and the previous frame, but in order to calculate with higher accuracy, FIG. Calculate as shown in b). That is, in the two-dimensional coordinate system on the moving image frame 400 defined in common on each moving image frame, the finger velocity vector on the position coordinates P i (−1) specified on the previous frame once from the current frame. V i (-1) and acceleration vector A i (-1) are calculated, respectively, and in the next frame, the finger located at the position coordinate P i (-1) is the velocity vector V i (-1) and acceleration vector. It is estimated that the movement corresponding to A i (-1) occurs, and the position coordinate Q i (-0) of the estimated movement destination is calculated (Q i (-0) = P i (-1) + V i (0) = P i (−1) + V i (−1) + A i (−1)). First, the position coordinate P i (−3) specified on the frame three times before the current frame is moved to the position coordinate P i (−2) specified on the second frame from the current frame. based on the moving direction and moving distance of time, it calculates the position coordinates P i of the finger in (-2) velocity vector V i (-2). Then, this finger is specified on the previous frame once from the current frame from the previous position coordinate moved from the position coordinate P i (−2) on the moving image frame 400 by the velocity vector V i (−2). The acceleration vector A i (−1) is calculated based on the moving direction and moving distance when moving to the position coordinate P i (−1) (A i (−1) = V i (−1) −V i (−2) = P i (−1) −P i (−2) −V i (−2)). Also, the velocity vector V i (−1) is obtained from the position coordinates P i (−2) specified on the previous frame twice from the current frame, and the position coordinates P i specified on the previous frame once from the current frame. Calculate based on the moving direction and moving distance when moving to (-1).

指先の追跡状況の特定方法としては、例えば以下のような特定方法を例示できる。即ち、現フレーム上に特定された指先の位置情報と、当該指先の現フレーム上での予測位置情報とを比較し、これらの位置関係が予め定められた基準条件を満たすか否かに基づいて特定する方法である。例えば、図38に示すように、現フレームに関して算出された各予測位置情報が示す指先の位置座標Q1(-0)、Q2(-0)、Q3(-0)と、現フレームにおいて実際に特定された全ての指先の位置座標Ra(0)、Rb(0)、Rc(0)、…との中から、動画像フレーム内において最も位置が近接するペアを対応するペアを、基準条件を満たすペアとして認識するようにする。ただし、ペアをなす両位置間の距離が予め定められた基準距離を下回らないような、一定以上離れた位置関係にある場合については、当該ペアを対応するペアとして認識しないようにする。対応するペアについては、現フレームにて実際に特定された指先と、予測位置情報を算出するための根拠となった前フレームの位置情報に対応する指先とが同一の指先であると判定し、当該指先の追跡が前フレーム時から現フレームにかけて継続している追跡継続状態(追跡中)と特定する。現フレームにて実際に特定された指先のうち、対応するペアが見つからなかった指先は、新規出現状態(新規出現)として特定する。現フレームに関して算出された予測位置情報に対応する指先(前フレームにて追跡中と特定された指先)のうち、対応するペアが見つからなかった指先は、追跡不可状態(ロスト)として特定する。特定された各指先の追跡状況は、各指先IDに対応付けた形で制御回路18の追跡情報記憶部に記憶される。 As a method for specifying the fingertip tracking status, for example, the following specifying method can be exemplified. That is, the fingertip position information specified on the current frame is compared with the predicted position information of the fingertip on the current frame, and based on whether or not these positional relationships satisfy a predetermined reference condition. It is a method to specify. For example, as shown in FIG. 38, the position coordinates Q 1 (-0), Q 2 (-0), Q 3 (-0) of the fingertip indicated by each predicted position information calculated for the current frame, A pair corresponding to a pair closest to the position in the moving image frame from among the position coordinates R a (0), R b (0), R c (0),. Are recognized as a pair satisfying the reference condition. However, in the case where the distance between both positions forming a pair is not more than a predetermined reference distance, the pair is not recognized as a corresponding pair. For the corresponding pair, it is determined that the fingertip actually identified in the current frame and the fingertip corresponding to the position information of the previous frame that is the basis for calculating the predicted position information are the same fingertip, The tracking of the fingertip is identified as a tracking continuation state (tracking) that continues from the previous frame to the current frame. Of the fingertips actually specified in the current frame, the fingertip for which no corresponding pair is found is specified as a new appearance state (new appearance). Of the fingertips corresponding to the predicted position information calculated for the current frame (fingertips identified as being tracked in the previous frame), the fingertips for which no corresponding pair was found are identified as a non-trackable state (lost). The identified tracking status of each fingertip is stored in the tracking information storage unit of the control circuit 18 in a form associated with each fingertip ID.

なお、追跡状況として追跡不可状態(ロスト)が特定された場合には、この追跡不可状態(追跡状況)や、この追跡不可状態が特定される直前のフレーム上での当該指先の位置情報と共に、他の追跡不可状態の指との追跡不可特定時期の前後関係が特定可能となる追跡不可認識順序が、追跡復帰判断情報として追跡情報記憶部(追跡復帰判断情報記憶部)に記憶される。なお、ここではこの追跡復帰判断情報も追跡情報の一つとして取り扱うこととする。   In addition, when the untraceable state (lost) is specified as the tracking state, together with the untrackable state (tracking state) and the position information of the fingertip on the frame immediately before the untrackable state is specified, The untrackable recognition order in which the context of the untrackable specific time with other untrackable fingers can be specified is stored as tracking return determination information in the tracking information storage unit (tracking return determination information storage unit). Here, the tracking return determination information is also handled as one of the tracking information.

ここで、図36及び図37に示す指追跡処理(指追跡ステップ)の流れを説明する。この指追跡処理は、制御回路18が、カメラ12bから動画像フレームを取得するたびに実行する処理であり、これにより当該制御回路18が指追跡手段として機能する。   Here, the flow of the finger tracking process (finger tracking step) shown in FIGS. 36 and 37 will be described. This finger tracking process is a process that is executed each time the control circuit 18 acquires a moving image frame from the camera 12b, whereby the control circuit 18 functions as a finger tracking unit.

まずR201(図36)では、制御回路18が、カメラ12bによる動画撮影により取得した新たな動画像フレーム(現フレーム)内に、指先が特定されるか否かを判定し、指先が特定された場合にはR202に進み、指先が特定されなかった場合にはR215に進む。なお、指先の特定方法については、図6のT1及びT2と同様である。   First, in R201 (FIG. 36), the control circuit 18 determines whether or not the fingertip is specified in a new moving image frame (current frame) acquired by moving image shooting by the camera 12b, and the fingertip is specified. If YES, the process proceeds to R202. If the fingertip is not specified, the process proceeds to R215. The fingertip specifying method is the same as T1 and T2 in FIG.

R202では、制御回路18が、現フレーム上に特定される各指先と、前フレーム上に特定される各指先との対応関係を特定する。ここでは、現フレームにおける指先の位置情報と、現フレームに関し予測された指先の予測位置情報との対応関係を特定し、その対応結果から、現フレーム取得時における各指先の追跡状況が、追跡継続状態(追跡中)・追跡不可状態(ロスト)・新規出現状態(新規出現)・未特定(未出現)のいずれの状況にあるかを、指先IDごとに特定する。特定された追跡状況は、図38の符号500に示すような形で、対応する指先IDごとに制御回路18の追跡情報記憶部に記憶する。ここでは、前フレーム上に特定された指先と上記基準条件を満たす、現フレーム上に特定された指先が存在する場合を、追跡継続状態(追跡中)と認識し、前フレーム上に特定された指先のいずれとも上記基準条件を満たさない、現フレーム上に特定された指先が存在する場合を、新規出現状態(新規出現)と認識し、現フレーム上に特定されたいずれの指先とも上記基準条件を満たさない、前フレーム上に特定された指先が存在する場合を、追跡不可状態(ロスト)と認識する。   In R202, the control circuit 18 specifies the correspondence between each fingertip specified on the current frame and each fingertip specified on the previous frame. Here, the correspondence between the fingertip position information in the current frame and the predicted fingertip position information predicted for the current frame is identified, and the tracking status of each fingertip at the time of acquiring the current frame is tracked from the corresponding result. For each fingertip ID, the state (tracking), untrackable state (lost), new appearance state (new appearance), or unspecified (not appearing) is specified. The identified tracking status is stored in the tracking information storage unit of the control circuit 18 for each corresponding fingertip ID in a form as indicated by reference numeral 500 in FIG. Here, when the fingertip specified on the previous frame and the fingertip specified on the current frame satisfying the above criteria are recognized as a tracking continuation state (tracking), it is specified on the previous frame. If any of the fingertips does not satisfy the above-mentioned standard condition, the fingertip specified on the current frame is recognized as a new appearance state (new appearance), and any of the fingertips specified on the current frame If there is a fingertip specified on the previous frame that does not satisfy the above, it is recognized as a non-trackable state (lost).

R203では、前フレーム上に特定された指先と現フレーム上に特定された指先とにおいて同一の指が存在するか否か、言い換えれば、現フレーム上に追跡継続状態(追跡中)の指先が存在するか否かを判定する。追跡継続状態(追跡中)の指先が存在する場合にはR204に進み、追跡継続状態(追跡中)の指先が存在しない場合は図37のR205に進む。   In R203, whether or not the same finger exists on the fingertip specified on the previous frame and the fingertip specified on the current frame, in other words, the fingertip in the tracking continuation state (tracking) exists on the current frame. It is determined whether or not to do. When the fingertip in the tracking continuation state (tracking) exists, the process proceeds to R204, and when the fingertip in the tracking continuation state (tracking) does not exist, the process proceeds to R205 in FIG.

R204では、追跡継続状態(追跡中)の指先の指先IDに対応する追跡情報を更新する。追跡継続状態(追跡中)の指先とは前フレーム取得時に追跡情報の更新を行った指先であり、当該指先の指先IDに対応する現フレームの位置情報を、当該指先の現フレームにおける位置を示す位置情報により更新する。さらに、これまで記憶されていた現フレームの位置情報を前フレームの位置情報として更新し、これまで記憶されていた前フレームの位置情報を前々フレームの位置情報として更新する。   In R204, the tracking information corresponding to the fingertip ID of the fingertip in the tracking continuation state (tracking) is updated. The fingertip in the tracking continuation state (tracking) is the fingertip whose tracking information has been updated when the previous frame is acquired, and the position information of the current frame corresponding to the fingertip ID of the fingertip indicates the position of the fingertip in the current frame. Update with location information. Further, the position information of the current frame stored so far is updated as the position information of the previous frame, and the position information of the previous frame stored so far is updated as the position information of the previous frame.

R205では、前フレーム上に特定された指先のうち、現フレーム上に特定されなかった指先が存在するか否か、言い換えれば、図42に示すP1(0)ような、現フレームにて追跡不可となった指先が存在するか否かを判定する。追跡不可状態(追跡中)の指先が存在する場合にはR206に進み、追跡継続状態(追跡中)の指先が存在しない場合はR207に進む。 In R205, whether there is a fingertip not specified on the current frame among the fingertips specified on the previous frame, in other words, tracking in the current frame, such as P 1 (0) shown in FIG. It is determined whether there is a disabled fingertip. If there is a fingertip in the tracking disabled state (tracking), the process proceeds to R206, and if there is no fingertip in the tracking continuation state (tracking), the process proceeds to R207.

R206では、追跡不可状態(ロスト)の指先の指先IDに対応付ける形で、追跡不可と認識されたときの当該指に係る情報を追跡復帰判断情報として記憶する。この追跡復帰判断情報は、後に取得される動画像フレームにおいて追跡中でない新たな指先が出現した時に、その指がここで追跡不可と認識された指であるか否かを判定するために使用される情報である。これにより、一度フレームから外れた指先が再度フレーム内に進入した場合に、両者を同じ指として認識することができ、改めてその指の追跡を行うことが可能となる。ここでは、追跡不可状態となった指先の指先IDを消去することなく記憶保持し、当該指先IDに対応付ける形で、当該指先IDに対応する前フレームの位置情報(消滅直前位置)と共に、他の追跡不可の指との追跡不可認識時期の前後関係が特定可能となる追跡不可認識順序(消滅順)を追跡復帰判断情報として記憶する。図38の場合、指先ID「2」に消滅順として「1」が付されており、後に取得される動画像フレームにて新たの指先が追跡不可となった場合には、その指先IDには消滅順として「2」が付されることになり、付された番号の大きいものほど、追跡不可認識時期が新しいと判断できる。   In R206, information related to the finger when it is recognized that tracking is impossible is stored as tracking return determination information in association with the fingertip ID of the fingertip in the tracking disabled state (lost). This tracking return determination information is used to determine whether or not a finger that is not tracked here is recognized when a new fingertip that is not being tracked appears in a moving image frame acquired later. Information. As a result, when a fingertip once out of the frame enters the frame again, both can be recognized as the same finger, and the finger can be tracked again. Here, the fingertip ID of the fingertip that has become untrackable is stored and retained without being erased, and is associated with the fingertip ID along with the position information (position immediately before disappearance) of the previous frame corresponding to the fingertip ID. The untraceable recognition order (disappearance order) in which the context of the untrackable recognition time with the untrackable finger can be specified is stored as tracking return determination information. In the case of FIG. 38, “1” is assigned to the fingertip ID “2” as the order of disappearance, and when a new fingertip cannot be tracked in a moving image frame acquired later, “2” is assigned as the order of disappearance, and it can be determined that the higher the number assigned, the newer the untraceable recognition time.

R207では、現フレーム上に特定された指先のうち、前フレーム上に特定されなかった指先が存在するか否か、言い換えれば、現フレームにて新規出現した指先が存在するか否かを判定する。新規出現状態(新規出現)の指先が存在する場合にはR208に進み、追跡継続状態の指先が存在しない場合はR209に進む。   In R207, it is determined whether there is a fingertip not specified on the previous frame among the fingertips specified on the current frame, in other words, whether there is a fingertip newly appearing on the current frame. . If there is a fingertip in a new appearance state (new appearance), the process proceeds to R208. If there is no fingertip in a tracking continuation state, the process proceeds to R209.

R208では、R207にて新規出現状態(新規出現)の指先が存在すると特定された段階で、現在、追跡不可状態(ロスト)を継続している指先が存在するか否かを判定する。この判定は、図38に示す追跡情報において、追跡復帰判断情報が記憶されている指先IDが存在するか否かに基づいて行う。この段階で、追跡不可状態(ロスト)を継続している指先が存在しないと判定された場合にはR213に進み、R207にて特定された新規出現状態の指先に、これまで付されていない新たな指先IDを付与し、当該指先IDに対応付ける形で、当該新規出現状態の指先の現フレーム上にて特定された位置を示す位置情報を記憶する。さらに、当該指先IDに対応する追跡状況を追跡不可状態から追跡継続状態(追跡再開)に変更し、これまで継続的に記憶保持していた追跡復帰判断情報を消去する。R213を終了すると、本処理は終了となる。他方、R208にて、追跡不可状態(ロスト)を継続している指先が存在すると判定された場合にはR209に進む。   In R208, when it is specified in R207 that there is a fingertip in a new appearance state (new appearance), it is determined whether or not there is a fingertip that is currently in a tracking impossible state (lost). This determination is performed based on whether or not the fingertip ID storing the tracking return determination information exists in the tracking information shown in FIG. At this stage, if it is determined that there is no fingertip that continues in the untrackable state (lost), the process proceeds to R213, and a new appearance state that has not been assigned to the fingertip in the new appearance state specified in R207. The position information indicating the position specified on the current frame of the fingertip in the newly appearing state is stored in a form in which the fingertip ID is assigned and associated with the fingertip ID. Further, the tracking status corresponding to the fingertip ID is changed from the non-trackable state to the tracking continuation state (tracking restart), and the tracking return determination information that has been continuously stored is erased. When R213 is terminated, the present process is terminated. On the other hand, if it is determined in R208 that there is a fingertip that continues to be untrackable (lost), the process proceeds to R209.

R209では、新規出現の指先のうち、現在、追跡不可状態(ロスト)を継続している指先と同一の指があるか否かを特定する。具体的には、R207にて実際に特定された新規出現の指先の現フレームにおける位置情報と、追跡情報500に含まれる追跡不可状態の指先の最後の位置を示す位置情報(追跡復帰判断情報)とに基づいて、追跡不可状態となっている指先のうち、実際に特定された新規出現の指先の位置に対し、一定範囲内にて最も近接するものが存在するか否かを判定する。ここでは、現フレームにて実際に特定された各指先の指先位置と、追跡不可状態となっている各指先の指先位置との間の距離を算出し、それらの距離のうち、最も距離が短く、なおかつ予め定められた基準距離よりを下回る距離を特定して、当該距離に対応するする現フレームにて実際に特定された各指先と追跡不可状態となっている各指先とを同一の指先と判定する。ただし、一定範囲内に存在する追跡不可状態となっている指先が複数存在する場合には、追跡不可認識順序(追跡復帰判断情報)に基づいて、最も最近に追跡不可状態となった指先を、現フレームにおいて新規出願と特定された指先と同一と特定する。   In R209, it is specified whether or not there is a finger that is the same as the fingertip that is currently in the untrackable state (lost) among the newly appearing fingertips. Specifically, the position information in the current frame of the newly appearing fingertip actually identified in R207 and the position information (tracking return determination information) indicating the last position of the untrackable fingertip included in the tracking information 500 Based on the above, it is determined whether or not there is a fingertip that is closest to the position of the newly identified fingertip that is actually identified among the fingertips that are in an untraceable state within a certain range. Here, the distance between the fingertip position of each fingertip that is actually specified in the current frame and the fingertip position of each fingertip that is in an untrackable state is calculated, and the shortest of these distances is calculated. In addition, by identifying a distance that is less than a predetermined reference distance, each fingertip that is actually identified in the current frame corresponding to the distance and each fingertip that is in a non-trackable state are the same fingertip judge. However, if there are multiple fingertips that are in a non-trackable state within a certain range, the fingertip that has been in the most untrackable state based on the untrackable recognition order (tracking return judgment information) Identify the same as the fingertip identified as the new application in the current frame.

続くR210では、R209の結果に基づいて、現フレームにおいて新規出願と特定された指先のうち、追跡不可状態(ロスト)を継続している指先と同一のものが存在するか否かを判定して、存在する場合にはR211に進み、存在しない場合にはR213に進む。   In the subsequent R210, based on the result of R209, it is determined whether or not there is the same fingertip that has been in a trackable state (lost) among the fingertips identified as new applications in the current frame. If it exists, the process proceeds to R211. Otherwise, the process proceeds to R213.

R211では、R209の結果に基づいて、現フレームにおいて新規出願と特定された指先のうち、追跡不可状態(ロスト)を継続している指先と同一と判定された指先が複数あるか否かを判定する。複数ではなく1つであると判定されている場合にはR212に進む。R212では、当該1つの指先の追跡不可状態(ロスト)における指先IDに対応付ける形で、当該指先と同一と判定された、現フレーム上で特定された新規出願の指先の位置情報を記憶し、当該指先IDの追跡情報を更新する。これにより、追跡不可状態の指先の位置追跡が再開される。なお、このとき、当該指先IDに対応する追跡状況を追跡不可状態から追跡継続状態(追跡再開)に変更し、これまで継続的に記憶保持していた追跡復帰判断情報を消去する。R212を終了すると、本処理は終了となる。   In R211, based on the result of R209, it is determined whether or not there are a plurality of fingertips that are determined to be the same as the fingertips that continue to be untrackable (lost) among the fingertips identified as new applications in the current frame. To do. If it is determined that there is one instead of a plurality, the process proceeds to R212. In R212, the position information of the fingertip of the new application identified on the current frame, determined to be the same as the fingertip, is stored in association with the fingertip ID in the non-trackable state (lost) of the one fingertip, Update the tracking information of the fingertip ID. As a result, the tracking of the position of the fingertip that cannot be tracked is resumed. At this time, the tracking status corresponding to the fingertip ID is changed from the non-trackable state to the tracking continuation state (tracking restart), and the tracking return determination information that has been continuously stored is erased. When R212 is terminated, this process is terminated.

他方、R211にて、R209の結果に基づいて、現フレームにおいて新規出願と特定された指先のうち、追跡不可状態(ロスト)を継続している指先と同一と判定された指先が複数あると判定された場合にはR214に進む。R214では、それら複数の指先のうち、追跡不可認識順序(追跡復帰判断情報)に基づいて、最も最近に追跡不可状態となった指先を特定し、特定された指先の指先IDに対応付ける形で、当該指先と同一と判定された、現フレーム上で特定された新規出願の指先の位置情報を記憶し、当該指先IDの追跡情報を更新する。これにより、追跡不可状態の指先の位置追跡が再開される。なお、このとき、当該指先IDに対応する追跡状況を追跡不可状態から追跡継続状態(追跡再開)に変更し、これまで継続的に記憶保持していた追跡復帰判断情報を消去する。R214を終了すると、本処理は終了となる。   On the other hand, in R211, based on the result of R209, among the fingertips identified as new applications in the current frame, it is determined that there are a plurality of fingertips that are determined to be the same as the fingertips that are in a non-trackable state (lost). If yes, go to R214. In R214, among the plurality of fingertips, based on the untrackable recognition order (tracking return determination information), the fingertip that has been most recently untrackable is identified and associated with the fingertip ID of the identified fingertip, The position information of the fingertip of the new application identified on the current frame determined to be the same as the fingertip is stored, and the tracking information of the fingertip ID is updated. As a result, the tracking of the position of the fingertip that cannot be tracked is resumed. At this time, the tracking status corresponding to the fingertip ID is changed from the non-trackable state to the tracking continuation state (tracking restart), and the tracking return determination information that has been continuously stored is erased. When R214 ends, this process ends.

なお、R201において、取得した新たな動画像フレーム内に指先が特定されなかった場合には、図38に示すような追跡情報500はリセットされ、各IDに対応する情報は消去されるものとする。   Note that in R201, when the fingertip is not specified in the acquired new moving image frame, the tracking information 500 as shown in FIG. 38 is reset, and the information corresponding to each ID is deleted. .

このように、カメラ12bが撮影する動画像から特定される全ての指先を、フレームアウト時も考慮して継続的に追跡することにより、操作対象指Pを同じ指に固定して定めることができる。具体的には、操作対象指Pを特定する処理によって操作対象指Pが指定された際に、図38に示すように、操作対象指Pを示す操作対象指情報を指先IDに対応付ける形で記憶しておくことで、これを参照することにより、どのタイミングにおいても操作対象指Pを特定することができる。即ち、図36及び図37のような指追跡処理を追加することにより、所定周期で繰り返し実施される図6の位置指示画像の表示処理において、T3による操作対象指Pの特定処理は別途実施するものとし、T3では、指先IDに対応付けて記憶されている操作対象指情報に基づいて、操作対象指Pを特定すればよい。   In this way, by continuously tracking all the fingertips specified from the moving image photographed by the camera 12b in consideration of frame out, the operation target finger P can be fixed to the same finger. . Specifically, when the operation target finger P is specified by the process of specifying the operation target finger P, as shown in FIG. 38, the operation target finger information indicating the operation target finger P is stored in association with the fingertip ID. By referring to this, the operation target finger P can be specified at any timing. That is, by adding the finger tracking process as shown in FIG. 36 and FIG. 37, the process of specifying the operation target finger P by T3 is performed separately in the position instruction image display process of FIG. In T3, the operation target finger P may be specified based on the operation target finger information stored in association with the fingertip ID.

また、この指先追跡処理の適用は、図19の第三変形例や図20の第四変形例のように、ユーザーによりなされる操作対象指指定操作の操作内容に基づいて、操作対象指Pが指定される実施形態にとって好適となる。図19の第三変形例や図20の第四変形例では、タッチパネル12aへのタッチ操作が操作対象指指定操作であり、当該タッチ操作の操作内容に基づいて、操作対象指Pが指定される。つまり、ユーザーによる操作対象指指定操作がなされない限り操作対象指Pが変更されない実施形態であれば、動画像フレームを取得するたびに操作対象指Pを特定する演算をする必要が無くなり、各指の追跡情報から指定すべき指をピックアップするだけで、容易に操作対象指Pを特定することができる。   Further, the application of the fingertip tracking process is performed when the operation target finger P is operated based on the operation content of the operation target finger designation operation performed by the user as in the third modification example in FIG. 19 or the fourth modification example in FIG. Suitable for the specified embodiment. In the third modification of FIG. 19 and the fourth modification of FIG. 20, the touch operation on the touch panel 12a is an operation target finger designation operation, and the operation target finger P is designated based on the operation content of the touch operation. . That is, in the embodiment in which the operation target finger P is not changed unless the operation target finger designation operation is performed by the user, it is not necessary to perform an operation for specifying the operation target finger P every time a moving image frame is acquired. By simply picking up a finger to be designated from the tracking information, the operation target finger P can be easily identified.

以下、本発明の第二実施形態について説明する。   Hereinafter, a second embodiment of the present invention will be described.

上記実施形態においては、ユーザーの手元に遠隔操作部が設けられるので、意図しないで操作部に触れてしまい、誤った操作入力がされることが課題となる。特に、タッチ操作式の操作部であれば、何かのはずみで接触しただけでも入力がされてしまうことがある。この課題を解決するために、操作者の指状態として予め定められた所定指状態を特定した場合に、予め定められた表示許可期間の間だけ上記第一実施形態における位置指示画像200Hの強調表示を実施する一方で、それ以外の場合には、図54のように、手がタッチ操作面12a1に対向した状態にあっても位置指示画像200Hの表示をしないように構成することができる。具体的には、図52に示すような位置指示画像表示処理を実施する。なお、当該処理も、制御回路18の記憶部に格納されたプログラムをCPUが実行する形で実施される。   In the above embodiment, since the remote operation unit is provided at the user's hand, the operation unit is unintentionally touched and an erroneous operation input is a problem. In particular, in the case of a touch operation type operation unit, there is a case where an input is made even if a contact is made with some force. In order to solve this problem, when a predetermined finger state that is predetermined as an operator's finger state is specified, the position indication image 200H in the first embodiment is highlighted only during a predetermined display permission period. On the other hand, in other cases, as shown in FIG. 54, even if the hand is in a state of facing the touch operation surface 12a1, the position instruction image 200H is not displayed. Specifically, a position instruction image display process as shown in FIG. 52 is performed. This processing is also performed in such a manner that the CPU executes a program stored in the storage unit of the control circuit 18.

S1では、制御回路18が、カメラ12bによって撮影された撮影画像に基づいて、操作者の手の画像を取得したか否かを判定する。カメラ12bは、操作パネル12aの裏面12a2側から該操作パネル12aを介してタッチ操作面(表面)12a1側に接近する接近対象物(例えば運転者等の操作者の手)Hを常時撮影しており(撮影ステップ)、その撮影画像は常に制御回路18の画像処理部18aに入力されている。タッチ操作面12a1と対面する位置に接近対象物Hが進入してくると、当然その接近対象物Hを含む撮影画像150が画像処理部18aに入力される。入力された撮影画像150は、画像処理部18aにて公知の画像解析手法によって解析され、色の相違等に基づいて接近対象物画像150Hが抽出される。そして、抽出された接近対象物画像150Hの形状から、当該画像150Hが人の手の画像であるか否かを判定する。判定結果は制御回路18に出力され、手の画像が認識されたと判定された場合にはS2に進み、判定されなければ本処理を終了する。   In S1, the control circuit 18 determines whether an image of the operator's hand has been acquired based on the captured image captured by the camera 12b. The camera 12b always shoots an approaching object (for example, an operator's hand such as a driver) H that approaches the touch operation surface (front surface) 12a1 side from the back surface 12a2 side of the operation panel 12a via the operation panel 12a. The captured image is always input to the image processing unit 18a of the control circuit 18. When the approaching object H enters the position facing the touch operation surface 12a1, the captured image 150 including the approaching object H is naturally input to the image processing unit 18a. The input captured image 150 is analyzed by a known image analysis method in the image processing unit 18a, and an approaching object image 150H is extracted based on a color difference or the like. Then, from the shape of the extracted approaching object image 150H, it is determined whether or not the image 150H is an image of a human hand. The determination result is output to the control circuit 18, and if it is determined that the hand image has been recognized, the process proceeds to S2, and if not determined, the present process is terminated.

なお、本実施形態においては、光源12cが配置されており、カメラ12bは、当該光源12cの反射光を捉える形で撮影を行っている。従って、撮影映像150に現れる色の階調には反射光強度が反映されており、高強度の反射光を捉えたところほど階調レベルが高く現れる。つまり、本実施形態のカメラ12bにより撮影される撮影映像150は多階調の撮影画像(本実施形態ではモノクロの撮影画像)であるから、画像処理部18aでは、これを予め定められた階調閾値を用いて各画素の階調レベルを2値化して、図4、図5、図51、図54の(b)のようにし、当該階調閾値を上回る領域を接近対象物画像150Hとして抽出する。また、画像処理部18aでは、抽出された接近対象物画像150Hから人の手の画像を特定するために、当該接近対象物画像150Hの形状と、制御回路18の記憶部に記憶された手形状パターンと比較して、それらパターンに合致する接近対象物画像150Hを手の画像として認識する(手画像認識手段)。   In the present embodiment, the light source 12c is arranged, and the camera 12b performs imaging in a manner that captures the reflected light of the light source 12c. Therefore, the reflected light intensity is reflected in the gradation of the color appearing in the captured image 150, and the higher the reflected light intensity, the higher the gradation level. That is, since the captured video 150 captured by the camera 12b of the present embodiment is a multi-gradation captured image (monochrome captured image in the present embodiment), the image processing unit 18a converts the captured image 150 into a predetermined gradation. The gradation level of each pixel is binarized using the threshold value, and the area exceeding the gradation threshold value is extracted as the approaching object image 150H as shown in FIGS. 4, 5, 51, and 54B. To do. Further, in the image processing unit 18a, in order to specify an image of a human hand from the extracted approaching object image 150H, the shape of the approaching object image 150H and the hand shape stored in the storage unit of the control circuit 18 are used. Compared with patterns, the approaching object image 150H that matches these patterns is recognized as a hand image (hand image recognition means).

S2では、取得した手の画像に基づいて、その手の状態が予め定められた所定指状態であるか否かを特定する(所定指状態特定手段)。ここでは、予め定められた操作意思表示用指状態であるか否かを特定する(操作意思表示用指状態特定手段)。操作意思表示用指状態とは、本実施形態においては簡易操作用指状態であり、例えば、操作対象となりうる指、即ちタッチ操作面12aに略沿ってのびた状態の指が、1本ないし2本程度の少数である状態等である。付言するならば、入力を早くするために5本の指を使う操作は難易度の高い指状態であり、ここでいう簡易操作用指状態はこうした指状態とは異なるものである。本実施形態においては、取得した手の画像にて、タッチ操作面12aの面方向(面の広がる方向)側にのびた状態の指が1本だけ表れている一本指操作状態にある場合のみを操作意思表示用指状態として特定する。具体的にいえば、S1にて、手の画像を抽出した画像処理部18aが、その手画像の全体形状から、所定長さ以上の軸線を有する略直線的な棒状の画像パターンを識別して、当該棒状の画像パターンがあった場合に、これを指画像150Fとして認識・特定する(指特定手段)。特定された結果は制御回路18に出力され、制御回路18は、該指画像150Fの数を特定し(指本数特定手段:手形状認識手段)、その数が1つである場合を予め定められた操作意思表示用指状態(操作意思表示用指形状)であると特定する。   In S2, based on the acquired hand image, it is specified whether or not the hand is in a predetermined finger state (predetermined finger state specifying means). Here, it is specified whether or not it is a predetermined operation intention display finger state (operation intention display finger state specifying means). The operation intention display finger state is a simple operation finger state in the present embodiment. For example, one or two fingers that can be an operation target, that is, fingers that extend substantially along the touch operation surface 12a. The state is a minority of the degree. In other words, an operation using five fingers to speed up input is a highly difficult finger state, and the simple operation finger state here is different from such a finger state. In the present embodiment, only when the acquired hand image is in a one-finger operation state in which only one finger appears in the surface direction (the direction in which the surface expands) of the touch operation surface 12a. It is specified as an operation intention display finger state. More specifically, in S1, the image processing unit 18a that has extracted the hand image identifies a substantially linear rod-shaped image pattern having an axial line longer than a predetermined length from the overall shape of the hand image. When there is the stick-like image pattern, it is recognized and specified as a finger image 150F (finger specifying means). The specified result is output to the control circuit 18, and the control circuit 18 specifies the number of the finger images 150F (number of finger specifying means: hand shape recognition means), and the case where the number is one is predetermined. The operation state display finger state (operation intention display finger shape) is specified.

続くS3では、その出力結果に基づいて、現在の指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)であるか否かを判定し、予め定められた所定指状態であると判定された場合にS4に進む。S4では、表示モードとして、位置指示画像の表示が許可される表示許可モードに設定し、S5に進む。なお、設定された表示モードは、制御回路18の記憶部に設けられた所定記憶領域(表示モード記憶部)に記憶される。S4では、当該記憶領域に表示許可モードを記憶する。   In subsequent S3, based on the output result, it is determined whether or not the current finger state is a predetermined finger state (operation intention display finger state here), and the predetermined finger state is determined in advance. If it is determined that there is, the process proceeds to S4. In S4, the display permission mode in which the display of the position indication image is permitted is set as the display mode, and the process proceeds to S5. The set display mode is stored in a predetermined storage area (display mode storage unit) provided in the storage unit of the control circuit 18. In S4, the display permission mode is stored in the storage area.

S5では、制御回路18が、表示装置15の表示画面と、撮影された手との位置関係を特定する。つまり、撮影された手の画像Hが、表示画面上のどの位置に対向しているかを特定する。本実施形態においては、カメラ12bによって撮影された撮影画像上に、タッチ操作面12aが位置する操作パネル画像領域を特定するとともに、当該操作パネル画像領域上にタッチ操作面12aの操作座標系を設定し、その上で、撮影された手画像Hの位置を、設定された該操作座標系上で特定する。そして、表示装置15の表示画面上に定められた表示座標系において、当該操作座標系上で特定された該手画像Hの位置に対応する位置を特定する。本実施形態においては、図4、図5、図51、図54の(b)に示す撮影画像(2値化画像)150が、タッチ操作面12a1の全体を撮影した操作パネル画像領域となっている。   In S5, the control circuit 18 specifies the positional relationship between the display screen of the display device 15 and the photographed hand. That is, the position on the display screen where the photographed hand image H faces is specified. In the present embodiment, the operation panel image area where the touch operation surface 12a is located is specified on the captured image captured by the camera 12b, and the operation coordinate system of the touch operation surface 12a is set on the operation panel image area. Then, the position of the captured hand image H is specified on the set operation coordinate system. Then, in the display coordinate system defined on the display screen of the display device 15, a position corresponding to the position of the hand image H specified on the operation coordinate system is specified. In the present embodiment, the captured image (binarized image) 150 shown in FIG. 4, FIG. 5, FIG. 51, and FIG. 54B is an operation panel image region obtained by capturing the entire touch operation surface 12 a 1. Yes.

さらにS6では、図5、図51の(c)に示すように、表示装置15の表示画面の、上記操作パネル画像領域上にて特定された該手画像Hに対応する位置に、位置指示画像200Hを表示する(位置指示画像表示手段)。本実施形態においては、手画像150Hの外形形状が明確に表示され、かつ輪郭内部が半透過状態とされた加工画像200Hが生成され、表示装置15の画面上において、表示されているメイン画像200Bの対応する座標位置に重ね表示される。さらに、S6では、第一実施形態における位置指示画像の強調表示処理(図6)が実施されて、操作対象指Pとして特定された指の位置指示画像200Hが残余の指に対し相対的に強調して表示される。   Further, in S6, as shown in FIGS. 5 and 51 (c), a position indicating image is displayed at a position corresponding to the hand image H specified on the operation panel image area on the display screen of the display device 15. 200H is displayed (position indication image display means). In the present embodiment, a processed image 200H in which the outer shape of the hand image 150H is clearly displayed and the inside of the contour is translucent is generated, and the main image 200B displayed on the screen of the display device 15 is generated. Are overlaid at the corresponding coordinate positions. Further, in S6, the position indication image highlight display process (FIG. 6) in the first embodiment is performed, and the finger position indication image 200H specified as the operation target finger P is emphasized relatively to the remaining fingers. Is displayed.

なお、ここでは、強調される操作対象指Pは人差し指と定められているものとする。従って、一本指状態であっても、そのときのびている指が人差し指ではないのであれば、この指に対応する位置指示画像は非強調状態にて表示される。他方、一本指状態が人差し指であれば、図5、図51の(c)に示すように、人差し指が強調状態にて表示されるが、非強調状態の指は表示されない。   Here, it is assumed that the operation target finger P to be emphasized is defined as an index finger. Therefore, even if the finger is in a single finger state, if the finger extending at that time is not an index finger, the position pointing image corresponding to this finger is displayed in a non-emphasized state. On the other hand, if the index finger is the index finger, the index finger is displayed in the emphasized state as shown in FIG. 5 and FIG. 51C, but the non-emphasized finger is not displayed.

他方、S3にて、現在の指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)でないと判定された場合はS7に進む。S7では、表示モードを、位置指示画像の表示が禁止される表示禁止モードに設定する。これにより、S5及びS6での位置指示画像200Hの表示がされず、表示装置15の表示画面には、例えば図54(c)に示すように、位置指示画像200Hが表示されないままとなる。なお、設定された表示禁止モードは、制御回路18の記憶部に設けられた所定記憶領域(表示モード記憶部)に記憶される。   On the other hand, if it is determined in S3 that the current finger state is not a predetermined finger state (in this case, an operation intention display finger state), the process proceeds to S7. In S7, the display mode is set to a display prohibition mode in which the display of the position indication image is prohibited. Accordingly, the position instruction image 200H is not displayed in S5 and S6, and the position instruction image 200H is not displayed on the display screen of the display device 15, for example, as shown in FIG. 54 (c). The set display prohibition mode is stored in a predetermined storage area (display mode storage unit) provided in the storage unit of the control circuit 18.

S6及びS7の終了により本処理は終了となる。なお、本処理は終了後も所定周期で繰り返し実施され、操作パネル12aに対向する予め定められた所定指状態の手が移動すると、これに合わせて、表示装置15の表示画面に表示される位置指示画像(加工画像)200Hの表示位置も移動する。   This process is ended by the end of S6 and S7. This process is repeatedly performed at a predetermined cycle after the end, and when a hand in a predetermined finger state that faces the operation panel 12a moves, the position displayed on the display screen of the display device 15 is adjusted accordingly. The display position of the instruction image (processed image) 200H is also moved.

この位置指示画像の表示処理においては、図57に示すように、表示許可期間として、予め定められた所定指状態が非特定となるまでの期間が定められた形となっている。つまり、予め定められた所定指状態が特定されている場合には表示許可モードを設定し、予め定められた所定指状態が特定されていない場合には表示禁止モードを設定するような処理となっている。なお、制御回路18は、この位置指示画像の表示処理を実行することにより、本発明の表示モード設定手段として機能する。   In this position instruction image display process, as shown in FIG. 57, a period until a predetermined predetermined finger state becomes unspecified is determined as a display permission period. That is, the processing is such that the display permission mode is set when a predetermined finger state is specified in advance, and the display prohibition mode is set when a predetermined finger state is not specified. ing. The control circuit 18 functions as the display mode setting means of the present invention by executing the display process of the position indication image.

従来の方式の操作入力装置では、遠隔操作する手を実際に操作画面上に表示すると、手がタッチパネル12a(遠隔操作部)に近い場合には、指のみが表示された状態となる。ユーザーの中には、早く入力するために、片手の5本の指でタッチ操作入力を行う人もおり、この場合、操作画面上では、多数本の指が同時に並んで表示されるので、表示された指と、実際に操作者が指示に使いたい指との対応関係がわからなくなり、誤操作を招き易いという課題があった。これに対し、上記実施形態においては、予め定められた所定指状態でないと、操作パネル12aへのタッチ操作入力が受け付けられない構成となっているので、上記のような課題を解消することができる。   In the operation input device of the conventional method, when the hand to be remotely operated is actually displayed on the operation screen, when the hand is close to the touch panel 12a (remote operation unit), only the finger is displayed. Some users perform touch operation input with five fingers of one hand for quick input. In this case, many fingers are displayed side by side on the operation screen. There is a problem in that the correspondence between the finger that is made and the finger that the operator actually wants to use for the instruction cannot be understood, and an erroneous operation is likely to occur. On the other hand, in the above embodiment, the touch operation input to the operation panel 12a is not accepted unless the predetermined finger state is determined in advance, so that the above-described problems can be solved. .

以下、本発明の第三実施形態について説明する。   Hereinafter, a third embodiment of the present invention will be described.

上記した第二実施形態において、操作情報入力部12の操作パネル(遠隔操作部)12aへのタッチ操作入力処理は、図13のような処理ではなく、図53のような処理とすることができる。なお、当該処理も、制御回路18の記憶部に格納されたプログラムをCPUが実行する形で実施される。   In the second embodiment described above, the touch operation input process to the operation panel (remote operation unit) 12a of the operation information input unit 12 can be a process as shown in FIG. 53 instead of the process as shown in FIG. . This processing is also performed in such a manner that the CPU executes a program stored in the storage unit of the control circuit 18.

図53のタッチ操作入力処理では、表示許可モードが設定されている場合には、操作パネル12aへのタッチ操作入力の受け付けを許可(制御回路18が入力許可モードを設定)し、表示禁止モードが設定されている場合には、当該タッチ操作入力の受け付けを禁止(制御回路18が入力禁止モードを設定)する操作入力受付制御が含まれた処理である。制御回路18は、このタッチ操作入力処理を実行することにより本発明の操作入力制御手段として機能する。   In the touch operation input process of FIG. 53, when the display permission mode is set, the acceptance of the touch operation input to the operation panel 12a is permitted (the control circuit 18 sets the input permission mode), and the display prohibit mode is set. If it is set, the process includes operation input reception control for prohibiting reception of the touch operation input (the control circuit 18 sets the input prohibit mode). The control circuit 18 functions as an operation input control means of the present invention by executing this touch operation input process.

S101では、制御回路18が、操作パネル12aへのタッチ操作の有無を判定する。操作パネル12aはタッチパネルとして構成されているので、タッチ操作があると、その操作信号が制御回路18に入力されるので、その入力の有無に基づいて判定する。操作パネル12aへのタッチ操作があった場合はS102に進み、タッチ操作が無かった場合は本処理を終了する。   In S101, the control circuit 18 determines whether or not there is a touch operation on the operation panel 12a. Since the operation panel 12a is configured as a touch panel, when a touch operation is performed, an operation signal is input to the control circuit 18, and thus determination is made based on the presence or absence of the input. If there is a touch operation on the operation panel 12a, the process proceeds to S102, and if there is no touch operation, this process ends.

S102では、制御回路18が、現在の表示モードが表示許可モードであるか否かを判定する。現在の表示モードは、制御回路18の記憶部に設けられた所定記憶領域(表示モード記憶部)に記憶されているので、記憶されている表示モード情報に基づいて判定する。現在の表示モードが表示許可モードであると判定された場合はS103に進み、表示許可モードでないと判定された場合、即ち表示禁止モードであると判定された場合は本処理を終了する。   In S102, the control circuit 18 determines whether or not the current display mode is the display permission mode. Since the current display mode is stored in a predetermined storage area (display mode storage unit) provided in the storage unit of the control circuit 18, the current display mode is determined based on the stored display mode information. When it is determined that the current display mode is the display permission mode, the process proceeds to S103, and when it is determined that the current display mode is not the display permission mode, that is, when it is determined that the display prohibition mode is set, this process ends.

S103では、操作パネル12aへのタッチ操作位置、即ちタッチ操作面12a1上へのタッチ操作位置を特定する。操作パネル12aはタッチパネルとして構成されているので、タッチ操作があると、その操作信号が制御回路18に入力される。そして、その操作信号には、タッチ操作位置が操作面12a1に定められる操作座標系上の座標情報として反映されているので、制御回路18が、この操作信号に基づいて、タッチ操作位置を特定する。   In S103, the touch operation position on the operation panel 12a, that is, the touch operation position on the touch operation surface 12a1 is specified. Since the operation panel 12 a is configured as a touch panel, an operation signal is input to the control circuit 18 when a touch operation is performed. Since the touch operation position is reflected in the operation signal as coordinate information on the operation coordinate system defined on the operation surface 12a1, the control circuit 18 specifies the touch operation position based on the operation signal. .

続くS104では、制御回路18が、操作パネル12aへのタッチ操作位置に対応する制御を実施する。具体的にいえば、操作パネル12aのタッチ操作面12a1上の各位置は、表示画面15の表示画面上の位置と対応しているので、S103にて特定されたタッチ操作面12a1上の位置に対応する、表示画面15の表示画面上の位置に定められた制御内容を実施する。具体的には、制御回路18が、当該制御内容を実施するための制御信号を出力する。例えばS103にて特定されたタッチ操作面12a1上の位置が、表示画面15の表示画面に表示されたスイッチ画像200Iに位置に対応していれば、制御回路18は、当該スイッチ画像に割り当てられた制御内容を実行するための制御信号を出力する。   In subsequent S104, the control circuit 18 performs control corresponding to the touch operation position on the operation panel 12a. Specifically, since each position on the touch operation surface 12a1 of the operation panel 12a corresponds to a position on the display screen of the display screen 15, the position on the touch operation surface 12a1 specified in S103. The corresponding control content determined at the position on the display screen of the display screen 15 is executed. Specifically, the control circuit 18 outputs a control signal for performing the control content. For example, if the position on the touch operation surface 12a1 specified in S103 corresponds to the position of the switch image 200I displayed on the display screen of the display screen 15, the control circuit 18 is assigned to the switch image. A control signal for executing the control content is output.

S104の終了により本処理は終了となる。なお、本処理は終了後も所定周期で繰り返し実施され、制御回路18は、そのときどきにタッチ操作された位置に応じた制御内容を実施する、あるいは他の制御部(例えばECU100等)にて実施させる。   The process ends when S104 ends. Note that this process is repeatedly performed at a predetermined cycle even after the completion of the process, and the control circuit 18 performs the control content corresponding to the position touched at that time or is performed by another control unit (for example, the ECU 100 or the like). Let

このタッチ操作入力処理においては、表示許可モードが設定されている場合には、操作パネル12aへのタッチ操作入力の受け付けが許可され(入力許可モード)、表示禁止モードが設定されている場合には、当該タッチ操作入力の受け付けが禁止される(入力禁止モード)。ただし、図52の位置指示画像表示処理においては、予め定められた所定指状態が特定されている場合に表示許可モードが設定され、予め定められた所定指状態が特定されていない場合に表示禁止モードが設定されるので、結果として、ユーザーの指状態が予め定められた所定指状態でないと、操作パネル12aへのタッチ操作入力が受け付けられないようになっている。ここでは、一本指状態という簡易操作用指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)とされている。   In this touch operation input process, when the display permission mode is set, the acceptance of the touch operation input to the operation panel 12a is permitted (input permission mode), and when the display prohibit mode is set. The reception of the touch operation input is prohibited (input prohibition mode). However, in the position instruction image display process of FIG. 52, the display permission mode is set when a predetermined finger state is specified in advance, and the display is prohibited when the predetermined finger state is not specified. Since the mode is set, as a result, the touch operation input to the operation panel 12a cannot be accepted unless the user's finger state is a predetermined finger state. Here, a simple finger state for simple operation, which is a single finger state, is a predetermined finger state (in this case, a finger state for operation intention display).

以下、本発明の第四実施形態について説明する。   Hereinafter, a fourth embodiment of the present invention will be described.

上記第二及び第三実施形態においては、表示許可期間として、図57に示すように、予め定められた所定指状態が非特定となるまでの期間が定められた形となっているが、この表示許可期間として、図58に示すように、予め決められた時間を定めることができる。つまり、表示許可モードに切り替わってから予め定められた時間(禁止モード復帰時間)が経過するまでの期間を表示許可期間と定め、当該禁止モード復帰時間が経過するに伴い表示禁止モードに復帰させるように構成することができる。この構成によれば、ユーザーが特定の指状態を示したことをきっかけに位置指示画像が表示可能な期間(表示許可モード)が始まって、該位置指示画像を見ながらのタッチ操作面12a1への位置指示入力(タッチ操作)が可能となる一方で、ユーザーが特定の指状態を示さなければ位置指示画像は表示されず、位置指示入力を行うためのタッチ操作をスムーズに行えない。つまり、ユーザーが位置指示入力を行うという明確な意思を表示した場合にのみ位置指示画像の表示が許可されるようになっており、その意思表示をユーザーの指状態の特定により確認する構成となっている。なお、ここでは、表示許可モードが設定されている場合に、予め定められた所定指状態とは異なる指状態の画像も表示可能となる。具体的にいえば、図52に示す位置指示画像表示処理を、図55に示すような処理とすることで実現できる。   In the second and third embodiments, as the display permission period, as shown in FIG. 57, a period until a predetermined predetermined finger state is unspecified is determined. As the display permission period, a predetermined time can be determined as shown in FIG. That is, a period from when switching to the display permission mode until a predetermined time (prohibition mode return time) elapses is defined as a display permission period, and the display prohibition mode is restored as the prohibition mode return time elapses. Can be configured. According to this configuration, a period during which the position indication image can be displayed (display permission mode) is triggered when the user indicates a specific finger state, and the touch operation surface 12a1 while viewing the position indication image is displayed. While the position instruction input (touch operation) is possible, the position instruction image is not displayed unless the user indicates a specific finger state, and the touch operation for performing the position instruction input cannot be performed smoothly. In other words, the display of the position indication image is permitted only when the user displays a clear intention to input the position instruction, and the intention display is confirmed by specifying the user's finger state. ing. Here, when the display permission mode is set, it is also possible to display an image of a finger state different from a predetermined finger state determined in advance. More specifically, the position instruction image display process shown in FIG. 52 can be realized by the process shown in FIG.

S10では、制御回路18が、カメラ12bによって撮影された撮影画像に基づいて、操作者の手の画像を取得したか否かを判定する。この処理は図52のS1の処理と同様である。   In S10, the control circuit 18 determines whether or not an image of the operator's hand has been acquired based on the captured image captured by the camera 12b. This process is the same as the process of S1 in FIG.

S11では、制御回路18が、現在の表示モードが表示許可モードであるか否かを判定する。現在の表示モードは、制御回路18の記憶部に設けられた所定記憶領域(表示モード記憶部)に記憶されているので、記憶されている表示モード情報に基づいて判定する。現在の表示モードが表示禁止モードであると判定された場合はS12に進み、表示許可モードでないと判定された場合、即ち表示禁止モードであると判定された場合はS19に進む。   In S11, the control circuit 18 determines whether or not the current display mode is the display permission mode. Since the current display mode is stored in a predetermined storage area (display mode storage unit) provided in the storage unit of the control circuit 18, the current display mode is determined based on the stored display mode information. If it is determined that the current display mode is the display prohibition mode, the process proceeds to S12. If it is determined that the current display mode is not the display permission mode, that is, if it is determined to be the display prohibition mode, the process proceeds to S19.

S12では、取得した手の画像に基づいて、その手の状態が予め定められた所定指状態(ここでは操作意思表示用指状態)であるか否かを特定する(所定指状態特定手段:操作意思表示用指状態特定手段)。この処理は図52のS2の処理と同様である。続くS13にて、現在の指状態が予め定められた所定指状態であると判定された場合はS14に進む。   In S12, based on the acquired image of the hand, it is specified whether or not the state of the hand is a predetermined finger state (in this case, a finger state for operation intention display) (predetermined finger state specifying means: operation). Intention indication finger state identification means). This process is the same as the process of S2 in FIG. In subsequent S13, if it is determined that the current finger state is a predetermined predetermined finger state, the process proceeds to S14.

S14では、表示モードを、位置指示画像の表示が許可される表示許可モードに設定し、S15に進む。なお、設定された表示許可モードは、制御回路18の所定記憶領域(表示モード記憶部)に記憶される。   In S14, the display mode is set to a display permission mode in which the display of the position indication image is permitted, and the process proceeds to S15. The set display permission mode is stored in a predetermined storage area (display mode storage unit) of the control circuit 18.

続くS15では、制御回路18に設けられたタイマー18bを起動し、時間カウントを開始してS16に進む。時間はカウンタ18cにおいてカウントアップされる形で記憶される。タイマー起動前にはカウンタ18cのカウント値がリセットされる。   In continuing S15, the timer 18b provided in the control circuit 18 is started, time count is started, and it progresses to S16. The time is stored in a form counted up by the counter 18c. Before the timer is started, the count value of the counter 18c is reset.

S16では、制御回路18が、表示装置15の表示画面と、撮影された手との位置関係を特定する。このS16の処理は、図52のS5と同様の処理である。続くS17では、図4、図5、及び図51の(c)に示すように、表示装置15の表示画面において表示されているメイン画像200B上に、位置指示画像200Hを重ね表示する(位置指示画像強調表示手段)。このS17の処理は、図52のS6と同様、図6に示す位置指示画像の強調表示処理である。ただし、第二実施携帯においては、S16及びS17において、図4(c)のような位置指示画像200Hも表示される。つまり、第四実施形態においては、表示許可モードが設定されている限り、手画像(指画像)の重ね表示(あるいは合成表示)が許可されており、少なくとも手画像に基づく指の指示位置を示す画像であればどのような形で位置指示画像200Hを表示してもよい。従って、表示許可モードが設定されている場合には、図4(c)に示すような多本数の指形状の重ね表示もありうる。ただし、操作対象指Pが残余の指よりも強調されて表示される。   In S16, the control circuit 18 specifies the positional relationship between the display screen of the display device 15 and the photographed hand. The process of S16 is the same process as S5 of FIG. In subsequent S17, as shown in FIG. 4, FIG. 5, and FIG. 51 (c), the position indication image 200H is superimposed on the main image 200B displayed on the display screen of the display device 15 (position indication). Image highlighting means). The process of S17 is the highlighting process of the position instruction image shown in FIG. 6 as in S6 of FIG. However, in the second embodiment mobile phone, the position instruction image 200H as shown in FIG. 4C is also displayed in S16 and S17. That is, in the fourth embodiment, as long as the display permission mode is set, overlapping display (or combined display) of hand images (finger images) is permitted, and at least the finger pointing position based on the hand images is indicated. The position indicating image 200H may be displayed in any form as long as it is an image. Therefore, when the display permission mode is set, there can be an overlapping display of a large number of fingers as shown in FIG. However, the operation target finger P is displayed more emphasized than the remaining fingers.

他方、S13にて、現在の指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)でないと判定された場合はS18に進む。S18では表示禁止モードが設定され、それが制御回路18の記憶部に設けられた所定記憶領域(表示モード記憶部)に記憶される。   On the other hand, if it is determined in S13 that the current finger state is not a predetermined finger state determined in advance (in this case, an operation intention display finger state), the process proceeds to S18. In S18, the display prohibition mode is set and stored in a predetermined storage area (display mode storage unit) provided in the storage unit of the control circuit 18.

S17及びS18の終了により本処理は終了となるが、本処理は終了後も所定周期で繰り返し実施され、手画像が取得され、かつ表示許可モードが継続する限り、S16及びS17による位置指示画像の表示許可状態が継続する。つまり、この間は、指状態が予め定められた所定指状態でなくても、その時の指状態に基いて位置指示画像が表示される。ところが、表示許可モードは、S19にて、S15にて起動したタイマー18bにより所定時間が経過したと判定された場合に、S20にて、強制的に表示禁止モードが設定され、本処理が終了となる。なお、S20の処理はS18の処理と同様である。   This process is ended by the end of S17 and S18, but this process is repeatedly performed at a predetermined cycle after the end, as long as the hand image is acquired and the display permission mode continues, the position indication image of S16 and S17 is displayed. The display permission state continues. That is, during this time, even if the finger state is not a predetermined finger state determined in advance, the position indication image is displayed based on the finger state at that time. However, in the display permission mode, when it is determined in S19 that the predetermined time has elapsed by the timer 18b started in S15, the display prohibition mode is forcibly set in S20, and this processing ends. Become. The process of S20 is the same as the process of S18.

この実施形態においては、ユーザーが操作の意思を手形状(操作意思表示用指状態)により示し、それが示された場合には、一定時間の間だけ表示許可モードが設定される構成となっている。この場合、操作意思表示用指状態は、一本指状態(例えば図5及び図51参照)のような簡易操作用指状態に限らず、二本の指をのばした状態(図68参照)、三本の指を伸ばした状態(図69参照)、4本の指を伸ばした状態(図70参照)等と様々に定めることができる。また、一本指状態であっても、その指が人差し指である場合(図5及び図51参照)のみを操作意思表示用指状態としてもよいし、中指である場合(図71参照)のみを操作意思表示用指状態としてもよい。また、二本指状態においても、それらの指が人差し指と中指である場合(図68参照)のみ、操作意思表示用指状態としてもよい。また、これらのうちのいずれか又は複数を操作意思表示用指状態として定めてもよい。誤操作防止の観点からすれば、日頃ユーザーが行わないような手状態(指状態)を操作意思表示用指状態として定めることが望ましい。また、処理の観点からすれば、より識別しやすい手状態(指状態)を定めることが望ましい。   In this embodiment, the user indicates the intention of the operation by a hand shape (operation intention display finger state), and when this is indicated, the display permission mode is set for a certain period of time. Yes. In this case, the operation intention display finger state is not limited to the simple operation finger state such as the one-finger state (for example, see FIGS. 5 and 51), but is a state in which two fingers are extended (see FIG. 68). It can be variously defined as a state where three fingers are extended (see FIG. 69), a state where four fingers are extended (see FIG. 70), and the like. Further, even in the single-finger state, only the case where the finger is the index finger (see FIGS. 5 and 51) may be set as the operation intention display finger state, or only when the finger is the middle finger (see FIG. 71). An operation intention display finger state may be used. Further, even in the two-finger state, only when the fingers are the index finger and the middle finger (see FIG. 68), the operation intention display finger state may be set. Further, any one or more of these may be defined as an operation intention display finger state. From the viewpoint of preventing erroneous operations, it is desirable to determine a hand state (finger state) that is not performed by the user as an operation intention display finger state. From the viewpoint of processing, it is desirable to determine a hand state (finger state) that is easier to identify.

以下、本発明の第五実施形態について説明する。   Hereinafter, a fifth embodiment of the present invention will be described.

なお、図52のS2における操作意思表示用指状態及び簡易操作用指状態等の所定指状態の特定は、上記のように撮影画像に基づいて実施されるものでなくともよい。例えば、制御回路18が、予め定められた期間の間にタッチ操作面12a1(遠隔操作面)になされたタッチ操作による入力のうち、タッチ操作面12a1の異なる位置になされたタッチ操作による入力の数を特定し(操作数特定手段)、当該期間内に特定された入力数が予め定められた数(簡易操作用の数や操作意思表示用の数)であった場合を所定指状態として特定するようにしてもよい。この場合、例えば1秒以内の間に3回のタッチ操作がそれぞれ異なる位置になされた場合に(同時でもよい)、3本の指があると特定され、予め定められた指の本数が3本と定められている場合には、これをもって所定指状態として特定するようにできる。具体的には、図59に示すように、表示禁止モード(さらには入力禁止モード)が設定されている状態にて、タッチ操作面12a1へのタッチ操作があった場合に、制御回路18が、自身のタイマー18bを起動し、カウンタ18cをカウントアップする形で時間計時を開始し、所定期間t0内に、時間計時開始時のタッチ操作を含めたタッチ操作による入力数をカウントする。ただし、タッチ操作面12a1にタッチ操作がなされる際に、タッチ位置情報(例えばタッチ操作面12a1内における位置座標)を取得して、タッチ操作面12a1内の同一位置への再タッチ操作に関しては、その入力をカウントしないようにする。そして、所定期間t0が経過した際の当該入力数が、所定指状態を定める予め定められた指の数と同数であった場合には、現在の操作者の手の指状態が所定指状態であると特定し、特定された時から予め定められた表示許可期間の間だけ表示許可モード(さらには入力許可モード)を設定する。表示許可期間が終了すると、再び表示禁止モード(さらには入力禁止モード)が設定される。   Note that the identification of the predetermined finger states such as the operation intention display finger state and the simple operation finger state in S2 of FIG. 52 may not be performed based on the captured image as described above. For example, among the inputs by the touch operation performed on the touch operation surface 12a1 (remote operation surface) by the control circuit 18 during a predetermined period, the number of inputs by the touch operation performed at different positions on the touch operation surface 12a1. (Number of operations specifying means), and a case where the number of inputs specified within the period is a predetermined number (number for simple operation or number for operation intention display) is specified as a predetermined finger state You may do it. In this case, for example, when three touch operations are performed at different positions within one second (or simultaneously), it is specified that there are three fingers, and the predetermined number of fingers is three. Can be specified as the predetermined finger state. Specifically, as shown in FIG. 59, when a touch operation is performed on the touch operation surface 12a1 in a state where the display prohibition mode (and the input prohibition mode) is set, the control circuit 18 The timer 18b is started and the time counting is started by counting up the counter 18c, and the number of inputs by the touch operation including the touch operation at the start of the time counting is counted within the predetermined period t0. However, when a touch operation is performed on the touch operation surface 12a1, touch position information (for example, position coordinates in the touch operation surface 12a1) is acquired and a retouch operation to the same position in the touch operation surface 12a1 is performed. Do not count that input. If the number of inputs when the predetermined period t0 has elapsed is the same as the predetermined number of fingers that define the predetermined finger state, the finger state of the current operator's hand is the predetermined finger state. A display permission mode (and an input permission mode) is set only for a predetermined display permission period from the time of the identification. When the display permission period ends, the display prohibition mode (and the input prohibition mode) is set again.

以下、本発明の第六実施形態について説明する。   Hereinafter, a sixth embodiment of the present invention will be described.

図53に示すタッチ操作入力処理において、表示許可モードが設定されている場合には、遠隔タッチ操作面12aへのタッチ操作入力に対応する制御内容を実行する、即ち対応する制御内容の実行が許可され、表示禁止モードが設定されている場合には、遠隔タッチ操作面12aへのタッチ操作入力に対応する制御内容を実行しない、即ち、対応する制御内容の実行が禁止されていた。ところが、表示許可モードが設定されている場合ではなく予め定められた所定指状態(ここでは操作意思表示用指状態)が特定されている場合に、遠隔タッチ操作面12aへのタッチ操作入力に対応する制御内容の実行が許可され、表示禁止モードが設定されている場合ではなく予め定められた所定指状態が特定されていない場合に、遠隔タッチ操作面12aへのタッチ操作入力に対応する制御内容の実行を禁止するように構成することができる。   In the touch operation input process shown in FIG. 53, when the display permission mode is set, the control content corresponding to the touch operation input to the remote touch operation surface 12a is executed, that is, the execution of the corresponding control content is permitted. When the display prohibit mode is set, the control content corresponding to the touch operation input to the remote touch operation surface 12a is not executed, that is, the execution of the corresponding control content is prohibited. However, it corresponds to touch operation input to the remote touch operation surface 12a when a predetermined predetermined finger state (in this case, a finger state for operation intention display) is specified, not when the display permission mode is set. The control content corresponding to the touch operation input to the remote touch operation surface 12a when execution of the control content to be performed is permitted and the predetermined predetermined finger state is not specified rather than when the display prohibition mode is set Can be configured to be prohibited.

具体的にいえば、予め定められた所定指状態(ここでは操作意思表示用指状態)が特定されている場合には、遠隔タッチ操作面12aへのタッチ操作入力の受け付けを許可し、予め定められた所定指状態が特定されていない場合には、遠隔タッチ操作面12aへのタッチ操作入力の受け付けを禁止する操作入力受付制御を実行するように構成することができる。以下、その具体的な処理の流れについて、その一例を、図56を用いて説明する。   Specifically, when a predetermined finger state (in this case, an operation intention display finger state) is specified in advance, the touch operation input to the remote touch operation surface 12a is permitted to be received and determined in advance. When the predetermined finger state is not specified, the operation input reception control for prohibiting the reception of the touch operation input to the remote touch operation surface 12a can be executed. Hereinafter, an example of the specific processing flow will be described with reference to FIG.

S111では、制御回路18が、操作パネル12aへのタッチ操作の有無を判定する。S111の処理は図53のS101と同様である。S112では、制御回路18が、現在の指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)であるか否かを判定する。本実施形態においては、図52のS2あるいは図55のS12等の処理と同様、予め定められた所定指状態であるか否を特定する処理だけでなく、現在の指状態が特定されるに伴い、特定された指状態を制御回路18の記憶部に設けられた所定記憶領域(指状態記憶部)に記憶する処理を行う。そして、S112では、この記憶領域(指状態記憶部)に記憶された指状態情報に基づいて、現在の指状態が予め定められた所定指状態であるか否かを判定する。予め定められた所定指状態であると判定された場合にS113に進み、予め定められた所定指状態でないと判定された場合に本処理を終了する。   In S111, the control circuit 18 determines whether or not there is a touch operation on the operation panel 12a. The process of S111 is the same as S101 of FIG. In S112, the control circuit 18 determines whether or not the current finger state is a predetermined finger state (in this case, an operation intention display finger state). In the present embodiment, as in the process of S2 of FIG. 52 or S12 of FIG. 55, etc., not only the process of specifying whether or not the predetermined finger state is predetermined, but also as the current finger state is specified. Then, a process of storing the specified finger state in a predetermined storage area (finger state storage unit) provided in the storage unit of the control circuit 18 is performed. In S112, based on the finger state information stored in the storage area (finger state storage unit), it is determined whether or not the current finger state is a predetermined finger state. When it is determined that the predetermined finger state is determined in advance, the process proceeds to S113, and when it is determined that the predetermined finger state is not determined, the process is terminated.

S113では、操作パネル12aへのタッチ操作位置、即ちタッチ操作面12a1へのタッチ操作位置を特定する。この処理は、図53のS103と同様の処理である。続くS114では、操作パネル12aへのタッチ操作位置に対応する制御を実施する。この処理は、図53のS104と同様の処理である。S114の終了により本処理は終了となるが、本処理は終了後も所定周期で繰り返し実施される。   In S113, the touch operation position on the operation panel 12a, that is, the touch operation position on the touch operation surface 12a1 is specified. This process is the same as S103 in FIG. In subsequent S114, control corresponding to the touch operation position on the operation panel 12a is performed. This process is the same as S104 in FIG. Although the present process ends upon completion of S114, the present process is repeatedly performed at a predetermined cycle even after the completion.

なお、図56に示すタッチ操作入力処理を実行する実施形態における位置指示画像表示処理は、図52及び図55、さらには後述する位置指示画像表示処理のいずれのものであってもよい。   Note that the position instruction image display process in the embodiment for executing the touch operation input process shown in FIG. 56 may be any one of FIGS. 52 and 55 and a position instruction image display process described later.

以下、本発明の第七実施形態について説明する。   The seventh embodiment of the present invention will be described below.

上記実施形態においては、予め定められた所定指状態が特定されている場合に位置指示画像の表示を許可する表示許可モードに設定し、予め定められた所定指状態が特定されていない場合には位置指示画像の表示を禁止する表示禁止モードに設定するように構成されていたが、こうした表示モード切替制御を、車両が所定の走行状態である場合に実施し、所定の走行状態ではない場合には、表示モードとして表示許可モードを設定するように構成することができる。この場合、車両の走行状態を検出する車両走行状態検出手段を備えた構成となる。図60は、こうした処理の一例であり、ここでは、車両の車速を検出する車速センサ(車速検出手段)30が制御回路18に接続する構成を有し、該制御回路18が、車両が予め定められた車速レベル(車速閾値)を上回る車両走行状態にある場合には表示モード切替制御を実行し、当該車両走行状態にない場合には、指状態に関らず、表示モードとして表示許可モードを設定するようになっている。   In the above embodiment, the display permission mode is set to permit the display of the position indication image when a predetermined predetermined finger state is specified, and when the predetermined predetermined finger state is not specified. The display prohibition mode is set to prohibit the display of the position instruction image. However, such display mode switching control is performed when the vehicle is in a predetermined traveling state and is not in the predetermined traveling state. Can be configured to set the display permission mode as the display mode. In this case, the vehicle running state detecting means for detecting the running state of the vehicle is provided. FIG. 60 shows an example of such processing. Here, a vehicle speed sensor (vehicle speed detection means) 30 for detecting the vehicle speed of the vehicle is connected to the control circuit 18, and the control circuit 18 is predetermined by the vehicle. The display mode switching control is executed when the vehicle is in a vehicle running state that exceeds the vehicle speed level (vehicle speed threshold), and when the vehicle is not in the vehicle running state, the display permission mode is set as the display mode regardless of the finger state. It is supposed to be set.

具体的には、S21では、制御回路18が、操作者の手の画像を取得したか否かを判定する。これは図52のS1の処理と同様である。操作者の手の画像が取得された場合はS22に進み、操作者の手の画像が取得されなかった場合は本処理を終了する。   Specifically, in S21, the control circuit 18 determines whether an image of the operator's hand has been acquired. This is the same as the processing of S1 in FIG. When the image of the operator's hand is acquired, the process proceeds to S22, and when the image of the operator's hand is not acquired, this process ends.

S22では、車両の現在の走行状態を特定する。即ち、車両が予め定められた車速レベルを上回る走行状態にあるか否かを判定する。制御回路18は、ROM等の所定の記憶部に車速閾値を予め記憶させておき、車速センサ30が検出した車速が当該車速閾値を上回るかを判定し、上回る場合を車両走行状態と特定し、上回らない場合を低速走行状態(停車状態を含む)と特定する。ここでは、上記車速閾値として5km/h等を固定的に定めるものとする。そして、S23では、現在の車両が上記の車両走行状態にあるか否かを判定して、車両走行状態にあると判定された場合にはS24に進む。他方、S23にて、車両走行状態にないと判定された場合(停車状態を含む低速走行状態が特定された場合)にはS26に進む。   In S22, the current running state of the vehicle is specified. That is, it is determined whether or not the vehicle is in a traveling state exceeding a predetermined vehicle speed level. The control circuit 18 stores a vehicle speed threshold value in a predetermined storage unit such as a ROM in advance, determines whether the vehicle speed detected by the vehicle speed sensor 30 exceeds the vehicle speed threshold value, specifies the vehicle running state as the vehicle speed threshold, The case where it does not exceed is specified as a low-speed driving state (including a stop state). Here, 5 km / h or the like is fixedly determined as the vehicle speed threshold. Then, in S23, it is determined whether or not the current vehicle is in the vehicle running state described above. If it is determined that the vehicle is in the vehicle running state, the process proceeds to S24. On the other hand, if it is determined in S23 that the vehicle is not in a traveling state (when a low-speed traveling state including a stop state is specified), the process proceeds to S26.

S24では、操作者の手(操作手)が、予め定められた所定指状態(ここでは操作意思表示用指状態)であるか否かを特定する。所定指状態の特定は、図52のS2の処理と同様の処理で行われる。続くS25にて、現在の指状態が予め定められた所定指状態であると判定された場合はS26に進み、予め定められた所定指状態でないと判定された場合はS29に進む。   In S24, it is specified whether or not the operator's hand (operating hand) is in a predetermined finger state (in this case, an operation intention display finger state). The predetermined finger state is specified by the same process as the process of S2 in FIG. In subsequent S25, if it is determined that the current finger state is the predetermined predetermined finger state, the process proceeds to S26, and if it is determined not to be the predetermined predetermined finger state, the process proceeds to S29.

S26では、表示モードとして、位置指示画像の表示が許可される表示許可モードに設定する。なお、設定された表示許可モードは、制御回路18の所定記憶領域(表示モード記憶部)に記憶される。続くS27では、制御回路18が、表示装置15の表示画面と、撮影された手との位置関係を特定する。この処理は、図52のS5の処理と同様である。続くS28では、表示装置15の表示画面において表示されているメイン画像200B上に、位置指示画像200Hを重ね表示する(位置指示画像表示手段)。この処理は、図52のS6と同様である。   In S26, the display permission mode in which the display of the position indication image is permitted is set as the display mode. The set display permission mode is stored in a predetermined storage area (display mode storage unit) of the control circuit 18. In subsequent S27, the control circuit 18 specifies the positional relationship between the display screen of the display device 15 and the photographed hand. This process is the same as the process of S5 in FIG. In subsequent S28, the position instruction image 200H is displayed in an overlapping manner on the main image 200B displayed on the display screen of the display device 15 (position instruction image display means). This process is the same as S6 in FIG.

具体的にいえば、S23にて、現在の車両が所定の車両走行状態にないと判定された場合(停車状態を含む低速走行状態が特定された場合)には、S27及びS28の処理により、操作者の指状態に関らず、その指状態に基づく位置指示画像200Hが表示される一方で(図4、図5、図51の(c)参照)、S22にて、車両走行状態にあると判定され、かつS25にて現在の操作者の指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)であると判定された場合には、S27及びS28の処理により、操作者が行っている予め定められた所定指状態に基づく位置指示画像200Hが表示される(図5及び図51の(c)参照)。   Specifically, when it is determined in S23 that the current vehicle is not in the predetermined vehicle running state (when the low-speed running state including the stop state is specified), the processing of S27 and S28 is performed. Regardless of the finger state of the operator, the position indication image 200H based on the finger state is displayed (see (c) of FIGS. 4, 5, and 51), but in S22, the vehicle is running. And when it is determined in S25 that the current operator's finger state is a predetermined finger state (in this case, an operation intention display finger state), by the processing of S27 and S28, A position indication image 200H based on a predetermined finger state determined in advance by the operator is displayed (see FIGS. 5 and 51 (c)).

他方、S25にて、現在の指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)でないと判定された場合はS29に進む。S29では、表示モードを、位置指示画像の表示が禁止される表示禁止モードに設定し、これを制御回路18の所定記憶領域(表示モード記憶部)に記憶する。これにより、S27及びS28にて実施される位置指示画像200Hの表示が実行されず、表示装置15の表示画面には、例えば図54(c)に示すように、位置指示画像200Hが表示されない。   On the other hand, if it is determined in S25 that the current finger state is not a predetermined finger state determined in advance (in this case, an operation intention display finger state), the process proceeds to S29. In S29, the display mode is set to a display prohibition mode in which the display of the position indication image is prohibited, and this is stored in a predetermined storage area (display mode storage unit) of the control circuit 18. Thereby, the display of the position instruction image 200H performed in S27 and S28 is not executed, and the position instruction image 200H is not displayed on the display screen of the display device 15, for example, as shown in FIG.

S28及びS29の終了により本処理は終了となるが、本処理は終了後も所定周期で繰り返し実施される。   Although the present process is terminated by the end of S28 and S29, the present process is repeatedly performed at a predetermined cycle after the termination.

なお、本実施形態においては、上記の予め定められた車速レベル(車速閾値)が5km/hと定められており、当該車速レベルを上回らない車両の徐行走行状態においては、常に表示許可モードが設定されるようになっている。ただし、この車速レベルは、図63に示すように、0km/hより速く5kmより遅い車速範囲内、あるいは5km/h以上10km/h未満の車速範囲内(車両の徐行走行状態)において設定されるようにしてもよいし、0km/hと設定して、車両停車状態において常に表示許可モードが設定されるようにしてもよい。また、この車速レベルは、10km/以上30km未満の車速範囲内(車両の低速走行状態)に設定されるようにしてもよいし、30km/h以上60km/h未満の車速範囲内(車両の中速走行状態)に設定されるようにしてもよいし、60km/h以上の車速範囲内(車両の高速走行状態)に設定されるようにしてもよい。   In the present embodiment, the predetermined vehicle speed level (vehicle speed threshold) is set to 5 km / h, and the display permission mode is always set in a slow running state of the vehicle that does not exceed the vehicle speed level. It has come to be. However, as shown in FIG. 63, this vehicle speed level is set within a vehicle speed range that is higher than 0 km / h and lower than 5 km, or within a vehicle speed range that is greater than or equal to 5 km / h and less than 10 km / h (the vehicle is traveling slowly). Alternatively, it may be set to 0 km / h so that the display permission mode is always set when the vehicle is stopped. In addition, this vehicle speed level may be set within a vehicle speed range of 10 km / h or more and less than 30 km (low-speed driving state of the vehicle), or within a vehicle speed range of 30 km / h or more and less than 60 km / h (in the vehicle). (High speed running state), or may be set within a vehicle speed range of 60 km / h or higher (high speed running state of the vehicle).

また、図60の処理においては、所定の車両走行状態である場合(車速閾値よりも高速側)に上記表示モード切替制御が実施され、所定の車両走行状態にない場合(車速閾値よりも低速側)に表示許可モードが固定的に設定される実施形態であったが、所定の車両走行状態である場合(車速閾値よりも高速側)に表示禁止モードが固定的に設定され、所定の車両走行状態にない場合(車速閾値よりも低速側)に上記表示モード切替制御が実施される実施形態としてもよい。   In the process of FIG. 60, the display mode switching control is performed when the vehicle is in a predetermined vehicle travel state (higher speed than the vehicle speed threshold), and when the vehicle is not in the predetermined vehicle travel state (lower speed than the vehicle speed threshold). ), The display permission mode is fixedly set. However, when the vehicle is in a predetermined vehicle traveling state (higher speed than the vehicle speed threshold), the display prohibition mode is fixedly set and the predetermined vehicle traveling is performed. An embodiment in which the display mode switching control is performed when the vehicle is not in a state (lower speed than the vehicle speed threshold) may be employed.

以下、本発明の第八実施形態について説明する。   Hereinafter, an eighth embodiment of the present invention will be described.

上記実施形態においては、予め定められた所定指状態が特定されている場合に位置指示画像の表示を許可する表示許可モードに設定し、予め定められた所定指状態が特定されていない場合には位置指示画像の表示を禁止する表示禁止モードに設定するように構成されていたが、こうした表示モード切替制御を、タッチ操作面12a1の操作者として運転者が特定されている場合には、表示モード切替制御を実行し、車両走行状態にない場合には、指状態に関らず、表示モードとして表示許可モードを設定するように構成することができる。以下、その具体的な処理の流れを、図61を用いて説明する。   In the above embodiment, the display permission mode is set to permit the display of the position indication image when a predetermined predetermined finger state is specified, and when the predetermined predetermined finger state is not specified. The display prohibit mode is set to prohibit the display of the position indication image. However, when the driver is specified as the operator of the touch operation surface 12a1, the display mode switching control is performed in the display mode. When the switching control is executed and the vehicle is not in the traveling state, the display permission mode can be set as the display mode regardless of the finger state. The specific processing flow will be described below with reference to FIG.

S31では、制御回路18が、操作者の手の画像を取得したか否かを判定する。これは図52のS1の処理と同様である。操作者の手の画像が取得された場合はS32に進み、操作者の手の画像が取得されなかった場合は本処理を終了する。   In S31, the control circuit 18 determines whether an image of the operator's hand has been acquired. This is the same as the processing of S1 in FIG. When the image of the operator's hand is acquired, the process proceeds to S32, and when the image of the operator's hand is not acquired, this process is terminated.

S32では、操作パネル12aに手を対向させるようにしている操作者が運転者であるか否かを特定する(操作者特定手段)。操作者の特定は、例えば、図27に示すカメラ20の撮影画像(図28)に基づいて行うことができる。具体的にいえば、当該カメラ20の撮影画像から、腕がのびてくる方向を特定して、その方向が運転席2D側からのびてきたものであるか否かを判定することにより、操作者が運転者であるか否かを特定する。S33では、操作パネル12aの操作者が運転者であるか否かを判定して、運転者であると判定された場合にはS34に進む。他方、S33にて、操作パネル12aの操作者が運転者以外の者であると判定された場合にはS36に進む。   In S32, it is specified whether or not the operator who makes his / her hand face the operation panel 12a is a driver (operator specifying means). The operator can be specified based on, for example, a captured image (FIG. 28) of the camera 20 shown in FIG. Specifically, by identifying the direction in which the arm extends from the captured image of the camera 20 and determining whether or not the direction extends from the driver's seat 2D side, the operator Whether or not is a driver. In S33, it is determined whether or not the operator of the operation panel 12a is a driver. If it is determined that the operator is a driver, the process proceeds to S34. On the other hand, if it is determined in S33 that the operator of the operation panel 12a is a person other than the driver, the process proceeds to S36.

S34では、操作者である運転者の手(操作手)が、予め定められた所定指状態(ここでは操作意思表示用指状態)であるか否かを特定する。所定指状態の特定は、図52のS2の処理と同様の処理で行われる。続くS35では、現在の指状態が予め定められた所定指状態であるか否かが判定され、予め定められた所定指状態であると判定された場合はS36に進み、予め定められた所定指状態でないと判定された場合はS39に進む。   In S34, it is specified whether or not the driver's hand (operating hand) as an operator is in a predetermined finger state (in this case, a finger state for operation intention display). The predetermined finger state is specified by the same process as the process of S2 in FIG. In subsequent S35, it is determined whether or not the current finger state is a predetermined predetermined finger state. If it is determined that the present finger state is a predetermined predetermined finger state, the process proceeds to S36, and a predetermined predetermined finger state is determined. If it is determined not to be in the state, the process proceeds to S39.

S36では、表示モードとして、位置指示画像の表示が許可される表示許可モードに設定する。なお、設定された表示許可モードは、制御回路18の所定記憶領域(表示モード記憶部)に記憶される。続くS37では、制御回路18が、表示装置15の表示画面と、撮影された手との位置関係を特定する。この処理は、図52のS5の処理と同様である。続くS38では、表示装置15の表示画面において表示されているメイン画像200B上に、位置指示画像200Hを重ね表示する(位置指示画像表示手段)。この処理は、図52のS6と同様である。   In S36, the display permission mode in which the display of the position indication image is permitted is set as the display mode. The set display permission mode is stored in a predetermined storage area (display mode storage unit) of the control circuit 18. In subsequent S37, the control circuit 18 specifies the positional relationship between the display screen of the display device 15 and the photographed hand. This process is the same as the process of S5 in FIG. In subsequent S38, the position instruction image 200H is displayed in an overlapping manner on the main image 200B displayed on the display screen of the display device 15 (position instruction image display means). This process is the same as S6 in FIG.

具体的にいえば、S33にて、操作パネル12aの操作者として運転者とは異なる者が特定された場合には、S37及びS38の処理により、操作者の指状態に関らず、その指状態に基づく位置指示画像200Hが表示される一方で(図4、図5、図51の(c)参照)、S32にて、操作パネル12aの操作者として運転者が特定され、かつS35にてその指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)であると判定された場合には、S37及びS38の処理により、運転者が行っている所定指状態に基づく位置指示画像200Hが表示される(図5及び図51の(c)参照)。   Specifically, when a person who is different from the driver is specified as an operator of the operation panel 12a in S33, the finger of the operator is determined regardless of the finger state of the operator by the processes of S37 and S38. While position indication image 200H based on the state is displayed (see (c) of FIGS. 4, 5, and 51), in S32, the driver is specified as the operator of operation panel 12a, and in S35. When it is determined that the finger state is a predetermined finger state (in this case, an operation intention display finger state), a position based on the predetermined finger state performed by the driver is obtained by the processing of S37 and S38. The instruction image 200H is displayed (see (c) of FIGS. 5 and 51).

他方、S35にて、現在の指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)であると判定された場合はS39に進む。S39では、表示モードを、位置指示画像の表示が禁止される表示禁止モードに設定し、これを制御回路18の所定記憶領域(表示モード記憶部)に記憶する。これにより、S37及びS38にて実施される位置指示画像200Hの表示が実行されず、表示装置15の表示画面には、例えば図54(c)に示すように、位置指示画像200Hが表示されない。   On the other hand, if it is determined in S35 that the current finger state is a predetermined predetermined finger state (in this case, an operation intention display finger state), the process proceeds to S39. In S39, the display mode is set to a display prohibition mode in which the display of the position indication image is prohibited, and this is stored in a predetermined storage area (display mode storage unit) of the control circuit 18. Thereby, the display of the position instruction image 200H performed in S37 and S38 is not executed, and the position instruction image 200H is not displayed on the display screen of the display device 15 as shown in FIG. 54C, for example.

S38及びS39の終了により本処理は終了となる。なお、本処理は終了後も所定周期で繰り返し実施される。   This process is ended by the end of S38 and S39. This process is repeatedly performed at a predetermined cycle even after the process is completed.

以下、本発明の第九実施形態について説明する。   The ninth embodiment of the present invention will be described below.

本実施形態は、既に述べた位置指示画像表示処理を、図60及び図61の双方を組み合わせた形の処理として実施するものである。即ち、車両の走行状態(例えば車両の車速)を検出し、さらに、遠隔タッチ操作面12aの操作者が運転者であるか否かを特定して、車両が所定の走行状態(例えば停車状態を含む予め定められた車速レベルを下回る低速走行状態にない走行状態)であり、かつ特定された遠隔タッチ操作面12aの操作者が運転者である場合には、予め定められた所定指状態が特定されている場合に限り位置指示画像200Hの表示を許可するが、予め定められた所定指状態が特定されていない場合には位置指示画像200Hの表示を禁止するようにする。そして、車両が上記所定の走行状態にない場合、あるいは特定された遠隔タッチ操作面12aの操作者が運転者ではない場合、あるいはそれら双方が同時に生じている場合には、特定された指状態に関らず、位置指示画像200Hの表示を許可するような処理とすることができる。以下、その具体的な処理の流れを、図62を用いて説明する。   In the present embodiment, the position indication image display process described above is performed as a process in which both of FIGS. 60 and 61 are combined. That is, the traveling state of the vehicle (for example, the vehicle speed of the vehicle) is detected, and whether or not the operator of the remote touch operation surface 12a is a driver is determined. A predetermined predetermined finger state is specified when the operator of the specified remote touch operation surface 12a is a driver. The display of the position instruction image 200H is permitted only when the position instruction image 200H is displayed, but the display of the position instruction image 200H is prohibited when the predetermined predetermined finger state is not specified. When the vehicle is not in the predetermined traveling state, or when the operator of the specified remote touch operation surface 12a is not a driver, or when both of them occur at the same time, the specified finger state is set. Regardless, it is possible to perform processing that permits display of the position indicating image 200H. The specific processing flow will be described below with reference to FIG.

即ち、S41にて、遠隔タッチ操作面12aの操作者の手画像が取得されると(図52のS1と同様の処理)、S42及びS43で車両が車両速走行状態であるか否かを判定し(図60のS22、S23と同様の処理)、車両速走行状態であればS44及びS45に進み、遠隔タッチ操作面12aの操作者が運転者であるか否かを判定する(図61のS32、S33と同様の処理)。   That is, when a hand image of the operator on the remote touch operation surface 12a is acquired in S41 (the same processing as S1 in FIG. 52), it is determined in S42 and S43 whether or not the vehicle is in a vehicle speed traveling state. If the vehicle is traveling at a high speed, the process proceeds to S44 and S45 to determine whether or not the operator of the remote touch operation surface 12a is a driver (FIG. 61). Processing similar to S32 and S33).

S42〜S45にて、車両が車両速走行状態であり、かつ遠隔タッチ操作面12aの操作者が運転者であるとされた場合にはS46及びS47に進み、操作者の手(操作手)が予め定められた所定指状態(ここでは操作意思表示用指状態)であるか否かを特定し(図52のS2及びS3と同様の処理)、現在の指状態が予め定められた所定指状態であると判定された場合はS48に進み、予め定められた所定指状態でないと判定された場合はS51に進む。   If it is determined in S42 to S45 that the vehicle is in a vehicle speed traveling state and the operator of the remote touch operation surface 12a is a driver, the process proceeds to S46 and S47, and the operator's hand (operator) is It is specified whether or not the predetermined finger state is predetermined (the operation intention display finger state here) (the same processing as S2 and S3 in FIG. 52), and the current finger state is a predetermined finger state that is determined in advance. If it is determined that the predetermined finger state is not established, the process proceeds to S51.

S48では、表示モードとして表示許可モードに設定し、これを所定記憶領域(表示モード記憶部)に記憶する。続くS49では、制御回路18が、表示装置15の表示画面と、撮影された手との位置関係を特定し、さらにS50では、表示装置15の表示画面において表示されているメイン画像200B上に、位置指示画像200Hを重ね表示する(位置指示画像表示手段)。これらの処理は、図52のS4〜S6の処理と同様である。   In S48, the display permission mode is set as the display mode, and this is stored in a predetermined storage area (display mode storage unit). In subsequent S49, the control circuit 18 specifies the positional relationship between the display screen of the display device 15 and the photographed hand, and in S50, on the main image 200B displayed on the display screen of the display device 15, The position instruction image 200H is displayed in an overlapping manner (position instruction image display means). These processes are the same as the processes of S4 to S6 in FIG.

具体的にいえば、S42にて車両が車両走行状態ではないとされた場合、S44にて、操作パネル12aの操作者として運転者とは異なる者が特定された場合には、S48〜S50の処理により、操作者の指状態に関らず、その指状態に基づく位置指示画像200Hが表示される(図4、図5、図51の(c)参照)。一方、S42にて車両が車両走行状態であるとされ、かつS44にて操作パネル12aの操作者として運転者が特定され、その上で、S46にて予め定められた所定指状態(ここでは操作意思表示用指状態)が特定された場合には、S48〜S50の処理により、運転者が行っている所定指状態に基づく位置指示画像200Hが表示される(図5及び図51の(c)参照)。   More specifically, if it is determined in S42 that the vehicle is not in a vehicle running state, if a person different from the driver is specified as an operator of the operation panel 12a in S44, S48 to S50 are performed. Through the processing, the position instruction image 200H based on the finger state is displayed regardless of the finger state of the operator (see FIGS. 4, 5 and 51 (c)). On the other hand, in S42, the vehicle is assumed to be in the vehicle running state, and in S44, the driver is specified as the operator of the operation panel 12a. When the intention display finger state) is specified, the position instruction image 200H based on the predetermined finger state performed by the driver is displayed by the processing of S48 to S50 ((c) of FIGS. 5 and 51). reference).

他方、S47にて、現在の指状態が予め定められた所定指状態(ここでは操作意思表示用指状態)でないと判定された場合はS51に進む。S51では、表示モードとして表示禁止モードに設定し、これを所定記憶領域(表示モード記憶部)に記憶する。これにより、S49及びS50にて実施される位置指示画像200Hの表示が実行されず、表示装置15の表示画面には、例えば図54(c)に示すように、位置指示画像200Hが表示されない。   On the other hand, if it is determined in S47 that the current finger state is not a predetermined finger state (in this case, an operation intention display finger state), the process proceeds to S51. In S51, the display prohibit mode is set as the display mode, and this is stored in a predetermined storage area (display mode storage unit). Thereby, the display of the position instruction image 200H implemented in S49 and S50 is not executed, and the position instruction image 200H is not displayed on the display screen of the display device 15, for example, as shown in FIG.

S50及びS51の終了により本処理は終了となる。なお、本処理は終了後も所定周期で繰り返し実施される。   This process is terminated by the end of S50 and S51. This process is repeatedly performed at a predetermined cycle even after the process is completed.

なお、図62の処理においては、車両が所定の車両走行状態(車速閾値よりも高速側)であり、なおかつ操作者が運転者である場合に上記表示モード切替制御が実施され、それ以外の場合(所定の車両走行状態にない場合(車速閾値よりも低速側)や操作者が運転者でない場合)に表示許可モードが固定的に設定される実施形態であったが、車両が所定の車両走行状態であり、なおかつ操作者が運転者である場合に表示禁止モードが固定的に設定され、車両が所定の車両走行状態ではなく、なおかつ操作者が運転者である場合に上記表示モード切替制御が実施され、それ以外の場合(操作者が運転者でない場合)には、表示許可モードが固定的に設定される実施形態としてもよい。   In the processing of FIG. 62, the display mode switching control is performed when the vehicle is in a predetermined vehicle running state (higher speed than the vehicle speed threshold) and the operator is a driver. In the embodiment, the display permission mode is fixedly set when the vehicle is not in a predetermined vehicle running state (lower speed than the vehicle speed threshold) or when the operator is not a driver. The display prohibit mode is fixedly set when the operator is a driver and the display mode switching control is performed when the vehicle is not in a predetermined vehicle running state and the operator is a driver. In other cases (when the operator is not a driver), the display permission mode may be fixedly set.

以下、本発明の第十実施形態について説明する。   The tenth embodiment of the present invention will be described below.

上記実施形態においては、手画像撮影手段をなすカメラ12bは、タッチパネル12aのタッチ操作面(表面)12a1と対向する車室内の固定領域を撮影するカメラであって、上記実施形態のように、タッチパネル12aの裏面12a2側から撮影する構成を有している。ところが、本発明は、このような構成に限られるものではない。例えば、図27に示すように、車両のセンターコンソール部Cにタッチパネル12aのタッチ操作面12a1を斜め上側から撮影するように取り付けて、当該タッチ操作面12a1に接近する接近物を、タッチ操作面12a1側から撮影するように構成してもよい。この場合、上記した実施形態とは異なり、撮影画像内の特定の画像(例えば手画像)を抽出して表示部15に表示する際には、画像を左右反転する処理を省略できる。また、手画像撮影手段をなすカメラ12bは、操作パネル12aのタッチ操作面12a1を含むその周辺領域を撮影するカメラ20に兼用させてもよい。   In the above embodiment, the camera 12b serving as the hand image photographing means is a camera that photographs a fixed area in the vehicle interior facing the touch operation surface (front surface) 12a1 of the touch panel 12a. It has the structure image | photographed from the back surface 12a2 side of 12a. However, the present invention is not limited to such a configuration. For example, as shown in FIG. 27, the touch operation surface 12a1 of the touch panel 12a is attached to the center console portion C of the vehicle so as to be photographed obliquely from above, and an approaching object approaching the touch operation surface 12a1 is displayed on the touch operation surface 12a1. You may comprise so that it may image | photograph from the side. In this case, unlike the above-described embodiment, when a specific image (for example, a hand image) in the photographed image is extracted and displayed on the display unit 15, the process of reversing the image horizontally can be omitted. Further, the camera 12b serving as the hand image photographing means may be used as the camera 20 for photographing the peripheral area including the touch operation surface 12a1 of the operation panel 12a.

以下、本発明の第十一実施形態について説明する。   The eleventh embodiment of the present invention will be described below.

上記実施形態のうち、表示装置15に表示されるあらゆる操作画面において、上記のような表示モード切替制御を実行する構成のものについては、予め定められた操作画面においてのみ表示モード切替制御を実行し、それ以外の操作画面では、表示許可モード、あるいは表示禁止モードに固定的に設定されるようにしてもよい。   Among the above-described embodiments, for all operation screens displayed on the display device 15, the display mode switching control is executed only on the predetermined operation screen for the configuration that executes the display mode switching control as described above. In other operation screens, the display permission mode or the display prohibition mode may be fixedly set.

表示装置15は、制御回路18からの制御指令に基づいて、タッチ操作面12a1への押圧操作による入力が受け付けられる複数の操作画面200を、表示画面上において切り替えることができる(操作画面表示手段)。例えば、図65に示すようなメニュー選択画面2003や図66に示すようなカーエアコンの風量設定画面2004、図67に示すようなカーオーディオのボリューム設定画面2005、さらには、既に述べたカーナビゲーションの地図表示画面2002(図5(c))や文字入力画面2001(図4(c))等を、様々な入力に応じて切り替えて表示することができる。これら複数の操作画面のうち上記表示モード切替制御の実行対象とされる操作画面の特定を可能とする表示モード実行可否情報を、制御回路18の所定の記憶領域(表示モード実行可否情報記憶手段)に予め記憶しておき、制御回路18は、位置指示画像表示処理を実施するに際して、表示モード実行可否情報を参照し、これに基づいて、表示装置15により表示される操作画面が上記のような表示モード切替制御の実行対象であると特定される場合に限り、特定された操作画面にて該表示モード切替制御を実行するように構成する。以下、その具体的な処理の流れを、図64を用いて説明する。   Based on the control command from the control circuit 18, the display device 15 can switch a plurality of operation screens 200 on which input by a pressing operation on the touch operation surface 12a1 is accepted on the display screen (operation screen display means). . For example, the menu selection screen 2003 shown in FIG. 65, the air volume setting screen 2004 of the car air conditioner shown in FIG. 66, the volume setting screen 2005 of the car audio shown in FIG. 67, and the car navigation system already described. The map display screen 2002 (FIG. 5C), the character input screen 2001 (FIG. 4C), and the like can be switched and displayed according to various inputs. Among these operation screens, display mode execution enable / disable information that makes it possible to specify the operation screen that is the execution target of the display mode switching control is stored in a predetermined storage area (display mode execution enable / disable information storage means) of the control circuit 18. The control circuit 18 refers to the display mode execution availability information when performing the position indication image display processing, and based on this, the operation screen displayed by the display device 15 is as described above. The display mode switching control is configured to be executed on the specified operation screen only when the display mode switching control is specified as an execution target. The specific processing flow will be described below with reference to FIG.

S61では、制御回路18が、操作者の手の画像を取得したか否かを判定する。これは図52のS1の処理と同様である。操作者の手の画像が取得された場合はS62に進み、操作者の手の画像が取得されなかった場合は本処理を終了する。   In S61, the control circuit 18 determines whether an image of the operator's hand has been acquired. This is the same as the processing of S1 in FIG. When the image of the operator's hand is acquired, the process proceeds to S62, and when the image of the operator's hand is not acquired, this process is terminated.

S62では、制御回路18が、現在表示中の操作画面200の種別を特定し、予め定められた、表示モード切替制御の実行対象であるか否かを特定する。ここでは、制御回路18の所定記憶領域に記憶される上記表示モード実行可否情報にて、操作画面のうち、タッチ操作面12a1への押圧操作が予め定められた操作負担レベルを上回る操作を含む複雑操作画面が表示モード切替制御の実行対象と定められ、タッチ操作面12a1への押圧操作が当該操作負担レベルを上回らない操作のみからなる簡易操作画面が表示許可モードの固定設定対象と定められている。制御回路18が当該表示モード実行可否情報を参照することにより、現在表示されている操作画面200が表示モード切替制御の実行対象であるか否かを特定する。   In S62, the control circuit 18 specifies the type of the operation screen 200 that is currently displayed, and specifies whether or not the display mode switching control is a predetermined execution target. Here, the display mode execution availability information stored in the predetermined storage area of the control circuit 18 includes a complicated operation in which the pressing operation on the touch operation surface 12a1 exceeds the predetermined operation burden level in the operation screen. The operation screen is determined as an execution target of the display mode switching control, and a simple operation screen including only an operation in which the pressing operation on the touch operation surface 12a1 does not exceed the operation load level is determined as a fixed setting target of the display permission mode. . The control circuit 18 refers to the display mode execution enable / disable information to specify whether or not the currently displayed operation screen 200 is an execution target of the display mode switching control.

なお、表示モード実行可否情報は、以下のように画面種別を分類した情報として記憶することができる。即ち、複雑操作画面として、表示装置15に画面表示される1以上の操作入力画像(あるいは当該操作入力画像(操作アイコン)200Iに対応してタッチ操作面12a1上に定められる全ての押圧操作領域)の、画面全体(あるいは該タッチ操作面12a1の全領域)に対し占める割合SI/SAが、予め定められた割合S0を上回る操作画面を定め、上回らない操作画面を簡易操作画面として定めることができる(図72の例1)。また、複雑操作画面として、表示装置15に画面表示される1以上の操作入力画像(あるいは当該操作入力画像に対応してタッチ操作面12a1上に定められる押圧操作領域)200Iの数KIが予め定められた数K0を上回る操作画面を定め、上回らないものを簡易操作画面として定めることもできる(図72の例2)。また、複雑操作画面として、表示装置15に画面表示される1以上の操作入力画像200I間の間隔(あるいは当該操作入力画像に対応してタッチ操作面12a1上に定められる隣接する押圧操作領域間の間隔)LIが、予め定められた間隔L0よりも狭い操作画面を定め、上回らない操作画面を簡易操作画面として定めることもできる(図72の例3)。ここでは、図65〜図67、さらには図5(c)に示すような画面2001,2003,3004,2005が簡易操作画面、図4(c)に示すような文字入力画面2002(例えば目的地名称入力画面等)が複雑操作画面として定められている。   Note that the display mode execution availability information can be stored as information obtained by classifying screen types as follows. That is, as a complex operation screen, one or more operation input images displayed on the display device 15 (or all pressing operation areas defined on the touch operation surface 12a1 corresponding to the operation input image (operation icon) 200I). An operation screen in which the ratio SI / SA occupying the entire screen (or the entire area of the touch operation surface 12a1) exceeds a predetermined ratio S0 can be determined, and an operation screen not exceeding can be determined as a simple operation screen. (Example 1 in FIG. 72). Further, the number KI of one or more operation input images (or pressing operation areas determined on the touch operation surface 12a1 corresponding to the operation input images) 200I displayed on the display device 15 as the complex operation screen is determined in advance. An operation screen exceeding the given number K0 can be determined, and an operation screen not exceeding can be determined as a simple operation screen (example 2 in FIG. 72). Further, as a complex operation screen, an interval between one or more operation input images 200I displayed on the display device 15 (or between adjacent pressing operation areas defined on the touch operation surface 12a1 corresponding to the operation input image). An operation screen whose interval (LI) is narrower than a predetermined interval L0 can be determined, and an operation screen that does not exceed the predetermined interval L0 can be determined as a simple operation screen (example 3 in FIG. 72). Here, screens 2001, 2003, 3004, and 2005 as shown in FIGS. 65 to 67 and FIG. 5C are simplified operation screens, and a character input screen 2002 as shown in FIG. Name input screen) is defined as a complex operation screen.

S64にて、制御回路18が、上記複雑操作画面及び簡易操作画面を特定可能な表示モード実行可否情報を参照して、現在表示されている操作画面200が表示モード切替制御の実行対象(ここでは複雑操作画面)であるか否かを特定するとS63に進む。S63にて、現在表示中の操作画面200が表示モード切替制御の実行対象であると判定された場合にはS69に進み、表示モード切替制御の実行対象でないと判定された場合にはS66に進む。   In S64, the control circuit 18 refers to the display mode execution availability information that can specify the complex operation screen and the simple operation screen, and the currently displayed operation screen 200 is the display mode switching control execution target (here, If it is determined whether or not it is a complicated operation screen, the process proceeds to S63. If it is determined in S63 that the currently displayed operation screen 200 is an execution target of display mode switching control, the process proceeds to S69. If it is determined that the operation screen 200 is not an execution target of display mode switching control, the process proceeds to S66. .

S64では、操作者の手(操作手)が、予め定められた所定指状態(ここでは操作意思表示用指状態)であるか否かを特定する(図52のS2と同様の処理)。続くS65にて、現在の指状態が予め定められた所定指状態であると判定された場合はS66に進み、予め定められた所定指状態でないと判定された場合はS69に進む。   In S64, it is specified whether or not the operator's hand (operating hand) is in a predetermined finger state (in this case, an operation intention display finger state) (a process similar to S2 in FIG. 52). In subsequent S65, if it is determined that the current finger state is the predetermined predetermined finger state, the process proceeds to S66, and if it is determined not to be the predetermined predetermined finger state, the process proceeds to S69.

S66では、表示モードとして、位置指示画像の表示が許可される表示許可モードに設定する。なお、設定された表示許可モードは、制御回路18の所定記憶領域(表示モード記憶部)に記憶される。続くS67では、制御回路18が、表示装置15の表示画面200と、撮影された手との位置関係を特定する(図52のS5と同様)。続くS68では、表示装置15の表示画面200において表示されているメイン画像200B上に、位置指示画像200Hを重ね表示する(位置指示画像表示手段:図52のS6と同様)。   In S66, the display permission mode in which the display of the position indication image is permitted is set as the display mode. The set display permission mode is stored in a predetermined storage area (display mode storage unit) of the control circuit 18. In subsequent S67, the control circuit 18 specifies the positional relationship between the display screen 200 of the display device 15 and the photographed hand (similar to S5 in FIG. 52). In subsequent S68, the position instruction image 200H is displayed in an overlapping manner on the main image 200B displayed on the display screen 200 of the display device 15 (position instruction image display means: same as S6 in FIG. 52).

具体的にいえば、S62にて、現在表示中の操作画面200が表示モード切替制御の実行対象でないと判定された場合(ここでは簡易操作画面であると特定された場合)には、S67及びS68の処理により、操作者の指状態に関らず、その指状態に基づく位置指示画像200Hが表示される一方で(図4、図5、図51の(c)参照)、S62にて、現在表示中の操作画面200が表示モード切替制御の実行対象であると判定された場合(ここでは複雑操作画面であると特定された場合)には、S67及びS68の処理により、操作者が行っている操作意思表示用指状態に基づく位置指示画像200Hが表示される(図5及び図51の(c)参照)。   More specifically, if it is determined in S62 that the currently displayed operation screen 200 is not an execution target of the display mode switching control (here, it is specified that it is a simple operation screen), S67 and While the position instruction image 200H based on the finger state is displayed by the process of S68 regardless of the finger state of the operator (see (c) of FIGS. 4, 5, and 51), in S62, When it is determined that the currently displayed operation screen 200 is an execution target of the display mode switching control (in this case, when the operation screen 200 is identified as a complex operation screen), the operation is performed by the processing of S67 and S68. The position instruction image 200H based on the operating intention display finger state is displayed (see FIG. 5 and FIG. 51 (c)).

他方、S65にて、現在の指状態が予め定められた所定指状態でないと判定された場合はS69に進む。S69では、表示モードを、位置指示画像200Hの表示が禁止される表示禁止モードに設定し、これを制御回路18の所定記憶領域(表示モード記憶部)に記憶する。これにより、S67及びS68にて実施される位置指示画像200Hの表示が実行されず、表示装置15の表示画面200には、例えば図54(c)に示すように、位置指示画像200Hが表示されない。   On the other hand, if it is determined in S65 that the current finger state is not a predetermined finger state, the process proceeds to S69. In S69, the display mode is set to a display prohibition mode in which the display of the position indication image 200H is prohibited, and this is stored in a predetermined storage area (display mode storage unit) of the control circuit 18. Thereby, the display of the position instruction image 200H implemented in S67 and S68 is not executed, and the position instruction image 200H is not displayed on the display screen 200 of the display device 15, for example, as shown in FIG. .

S68及びS69の終了により本処理は終了となるが、本処理は終了後も所定周期で繰り返し実施される。   Although the present process is terminated by the end of S68 and S69, the present process is repeatedly performed at a predetermined cycle after the termination.

なお、図64の処理においては、複雑操作画面において上記表示モード切替制御が実施され、簡易操作画面において表示許可モードが固定的に設定される実施形態であったが、複雑操作画面において表示禁止モードが固定的に設定され、簡易操作画面において上記表示モード切替制御が実施される実施形態としてもよい。   In the process of FIG. 64, the display mode switching control is performed on the complex operation screen, and the display permission mode is fixedly set on the simple operation screen. May be fixedly set, and the display mode switching control may be performed on the simple operation screen.

以下、本発明の第十二実施形態について説明する。   The twelfth embodiment of the present invention will be described below.

上記第二ないし第十一実施形態においては、操作者の指状態として予め定められた所定指状態を特定した場合に、予め定められた表示許可期間の間だけ上記第一実施形態における位置指示画像200Hの強調表示を実施する一方で、それ以外の場合には、位置指示画像200Hの表示をしないような構成とされており、その所定指状態として操作意思表示用指状態が定められていたが(図73の例1)、他の特徴的な指状態でもよいし、簡易操作用指状態(操作を簡易に行うことができる指状態(特定の数又は種別の指が伸びた状態):図73例2)であってもよい。   In the second to eleventh embodiments, when a predetermined finger state predetermined as the finger state of the operator is specified, the position indication image in the first embodiment is only for a predetermined display permission period. While the highlighted display of 200H is performed, in other cases, the position instruction image 200H is not displayed, and the finger state for displaying the operation intention is determined as the predetermined finger state. (Example 1 in FIG. 73), another characteristic finger state may be used, or a simple operation finger state (a finger state in which an operation can be easily performed (a state in which a specific number or type of fingers are extended): 73 example 2) may be sufficient.

以下、他の実施形態の実施形態について説明する。   Hereinafter, embodiments of other embodiments will be described.

また、上記した実施形態においては、位置指示画像200Hとして、撮影された指の輪郭形状をそのまま反映させた加工画像(実指画像)200Hを表示しているが、撮影された指の指先Q(即ち撮影された指の指示位置)を指し示す指先位置画像(ポインタ等:図50参照)200H2のように、指形状とは全く異なる画像を表示してもよい。強調表示を行うのであれば、指先Qを含む指先領域(例えば、指の第一関節までや、指先位置Qを中心とする所定半径内領域等)だけを強調して表示してもよい。この場合は、撮影された指の指先Qが、表示画面上のどの位置に対向するのかを特定して、特定された画面位置にポインタ等の所定の位置指示画像を表示する。また、位置指示画像200Hとして、撮影された指の長さ方向F及び指先Qを簡略的に示す擬似指画像(ここでは棒状の画像:図49参照)200H1等を表示してもよい。   In the above-described embodiment, the processed image (real finger image) 200H in which the contour shape of the photographed finger is reflected as it is is displayed as the position instruction image 200H, but the fingertip Q ( That is, an image completely different from the finger shape may be displayed, such as a fingertip position image (pointer or the like: see FIG. 50) 200H2 indicating a photographed finger pointing position). If highlighting is to be performed, only the fingertip region including the fingertip Q (for example, up to the first joint of the finger or an area within a predetermined radius centered on the fingertip position Q) may be displayed with emphasis. In this case, it is specified which position on the display screen the fingertip Q of the photographed finger faces, and a predetermined position indication image such as a pointer is displayed at the specified screen position. Further, as the position indication image 200H, a pseudo finger image (here, a bar-like image: see FIG. 49) 200H1 or the like that simply shows the photographed finger length direction F and the fingertip Q may be displayed.

また、上述した第一実施形態における操作対象指Pを、既に述べた簡易操作指状態において特定される指と一致するように構成してもよい。   Moreover, you may comprise so that the operation target finger P in 1st embodiment mentioned above may correspond with the finger | toe specified in the already described simple operation finger state.

また、上記実施形態においては、本発明の遠隔操作部としてタッチパネルを設けて構成しているが、プッシュスイッチやシーソースイッチ等の押圧操作を伴うスイッチを備える操作部であってもよい。また、上記実施形態においては、操作パネル12aとして抵抗膜式のタッチパネルを用いているが、他の方式のタッチパネルを用いてもよい。   Moreover, in the said embodiment, although the touch panel is provided and comprised as a remote operation part of this invention, an operation part provided with switches with pressing operation, such as a push switch and a seesaw switch, may be sufficient. In the above embodiment, a resistance film type touch panel is used as the operation panel 12a. However, another type of touch panel may be used.

また、操作パネル12aとして、タッチ操作の位置検出を、カメラ等の撮影手段により撮影された撮影画像への画像処理により行うものを、タッチパネルに代わって採用してもよい。具体的にいえば、操作パネル12aを、表面12a1がタッチ操作面をなす透光性を有したパネルとし、この操作パネル12aにタッチ操作面12a1側から接近する接近対象物に予め定められた波長帯の光を、当該操作パネル12aを介して照射する光源12cを設ける。そして、手画像撮影手段をなすカメラ12bを、少なくともその光源12cから照射された光が接近対象物にて反射した反射光を捉える形で、当該接近対象物を操作パネル12a1の裏面12a2側から撮影する撮影手段とする。さらに、制御回路18を、このカメラ12bにより撮影された画像上において、反射光の強度が予め定められた閾強度を上回る光反射領域を特定する光反射領域特定手段として機能させるとともに、特定されたこの光反射領域に基づいて、当該光反射領域へのタッチ入力を受け付ける入力受付手段としても機能させるように構成する。   Further, as the operation panel 12a, an operation panel that detects the position of the touch operation by performing image processing on a photographed image photographed by photographing means such as a camera may be employed instead of the touch panel. Specifically, the operation panel 12a is a translucent panel whose surface 12a1 forms a touch operation surface, and a wavelength predetermined for an approaching object that approaches the operation panel 12a from the touch operation surface 12a1 side. A light source 12c for irradiating the band light through the operation panel 12a is provided. Then, the camera 12b serving as the hand image photographing means captures the approaching object from the back surface 12a2 side of the operation panel 12a1 in such a manner that the light emitted from the light source 12c captures the reflected light reflected by the approaching object. It is set as a photographing means. Further, the control circuit 18 functions as a light reflection area specifying means for specifying a light reflection area in which the intensity of the reflected light exceeds a predetermined threshold intensity on the image photographed by the camera 12b. Based on this light reflection area, it is configured to function also as an input receiving means for receiving a touch input to the light reflection area.

この構成によると、カメラ12bの撮影画像に予め定められた閾強度を上回る光反射領域が特定された場合に、その特定された領域にタッチ操作入力があったと判定して、入力が受け付けられる。つまり、カメラ12bの撮影画像は、上記した実施形態と同様に位置指示画像の表示に利用されるだけでなく、光反射領域の特定にも利用されるように構成されている。また、この場合、特定された前記光反射領域の面積が予め定められた閾面積を上回った場合に、当該光反射領域へのタッチ操作入力を受け付けるようにすることもできる。   According to this configuration, when a light reflection area exceeding a predetermined threshold intensity is specified in the captured image of the camera 12b, it is determined that a touch operation input has been made in the specified area, and the input is accepted. That is, the captured image of the camera 12b is configured to be used not only for displaying the position indication image as in the above-described embodiment, but also for specifying the light reflection area. Further, in this case, when the area of the specified light reflection area exceeds a predetermined threshold area, a touch operation input to the light reflection area can be received.

なお、上記した各実施形態について、各要素を組み合わせて実施することももちろん可能である。   Of course, each of the above-described embodiments can be implemented in combination with each element.

10 車両用ナビゲーション装置
12 操作情報入力部(遠隔操作部)
12a 操作パネル
12b カメラ(手画像撮影手段)
12c 光源
15 表示装置(表示手段)
15a タッチパネル
18 制御回路(入力受付手段、位置指示画像表示手段、簡易操作用指状態特定手段、操作入力制御手段、表示モード設定手段、操作者特定手段、走行状態特定手段、位置指示画像強調表示手段、指特定手段、操作対象指指定手段、指先特定手段、指定指情報取得手段)
18a 画像処理部
20 カメラ
30 車速センサ
40 カメラ
41,42 カメラ
50 車両内LAN
100 ECU
150 撮影画像
200B メイン画像
200I スイッチ画像(操作アイコン)
200H 位置指示画像(手画像)
H 接近対象物(手・指)
10 Vehicle Navigation Device 12 Operation Information Input Unit (Remote Operation Unit)
12a Operation panel 12b Camera (hand image photographing means)
12c Light source 15 Display device (display means)
15a touch panel 18 control circuit (input receiving means, position instruction image display means, simple operation finger state specifying means, operation input control means, display mode setting means, operator specifying means, running state specifying means, position instruction image emphasizing display means , Finger identification means, operation target finger designation means, fingertip identification means, designated finger information acquisition means)
18a Image processing unit 20 Camera 30 Vehicle speed sensor 40 Camera 41, 42 Camera 50 In-vehicle LAN
100 ECU
150 Captured image 200B Main image 200I Switch image (operation icon)
200H Position indication image (hand image)
H Approaching object (hand / finger)

Claims (39)

表示画面を有した表示手段と、前記表示画面への操作を遠隔的に行うための遠隔操作面を有した遠隔操作部とを備える表示装置において、前記遠隔操作部の手前側にて指が対向するに伴い当該指位置に対応する前記表示画面上の画面位置に、背景をなす画像に合成ないしは重畳する形で、位置指示画像を表示する表示方法であって、
前記遠隔操作部の手前側で対向する手において指を特定する指特定ステップと、
前記指特定ステップにより特定される指同士の、前記遠隔操作面への接近距離関係を反映した接近距離情報を指定指情報として取得する指定指情報取得ステップと、
特定された前記指から前記遠隔操作部への操作に使用する、あるいは使用すると推定される操作対象指を、取得された該接近距離情報に基づいて、前記指特定ステップにより特定された指のうち、前記遠隔操作面に対し近い指先の指ほど優先して指定する操作対象指指定ステップと、
前記表示画面上の背景画像に合成ないしは重畳する形で、特定された前記指の指示位置を示す前記位置指示画像を表示する表示ステップであって、表示される前記位置指示画像のうち、指定された前記操作対象指に対応する位置指示画像を、当該操作対象指とは異なる指に対応する位置指示画像よりも相対的に強調する強調表示にて行う位置指示画像強調表示ステップと、
を有することを特徴とする表示方法。
In a display device comprising a display means having a display screen and a remote operation unit having a remote operation surface for remotely performing operations on the display screen, fingers are opposed to the front side of the remote operation unit A display method for displaying a position indicating image in a form superimposed or superimposed on an image forming a background at a screen position on the display screen corresponding to the finger position.
A finger specifying step of specifying a finger in the opposite hand on the front side of the remote control unit;
A designated finger information obtaining step for obtaining, as designated finger information, approaching distance information reflecting the approaching distance relationship between the fingers identified by the finger identifying step to the remote operation surface;
An operation target finger that is used for the operation from the specified finger to the remote operation unit or is estimated to be used is selected from the fingers specified by the finger specifying step based on the obtained approach distance information , An operation target finger designating step that preferentially designates the finger of the fingertip closer to the remote operation surface;
A display step of displaying the position indicating image indicating the specified pointing position of the finger in a form synthesized or superimposed on a background image on the display screen, wherein the position indicating image is designated among the displayed position indicating images; A position indication image emphasis display step performed by highlighting the position indication image corresponding to the operation target finger relative to a position indication image corresponding to a finger different from the operation target finger;
A display method characterized by comprising:
前記指特定ステップは、前記手から指先を特定する指先特定ステップであり、当該指先を特定する形で前記指が特定されるステップとされている請求項1記載の表示方法。 The display method according to claim 1 , wherein the finger specifying step is a fingertip specifying step of specifying a fingertip from the hand, and the finger is specified in a form of specifying the fingertip. 前記操作対象指指定ステップは、前記操作対象指として1本の指を指定するものである請求項1又は請求項2に記載の表示方法。   The display method according to claim 1, wherein in the operation target finger designation step, one finger is designated as the operation target finger. 前記操作対象指指定ステップは、前記操作対象指として2本又は3本の指を指定するものである請求項1又は請求項2記載の表示方法。 The display method according to claim 1, wherein the operation target finger designation step designates two or three fingers as the operation target fingers. 前記遠隔操作面に接近する手に光源から光が照射されるとともに、その反射光を捉える形で、当該手を前記遠隔操作面の裏側から撮影手段により撮影する撮影ステップを有し、
前記指定指情報取得ステップは、前記撮影手段により撮影された手の画像の輝度を前記接近距離情報として取得するとともに、
前記操作対象指指定ステップは、前記指特定ステップにより特定された指のうち、前記指先特定ステップにより特定された指先の前記輝度が最も高い指ほど優先して前記操作対象指として指定するものであるである請求項1ないし請求項4のいずれか1項に記載の表示方法。
A light source is irradiated with light from a light source to a hand approaching the remote operation surface, and has a photographing step of photographing the hand from the back side of the remote operation surface by photographing means,
The designated finger information acquisition step acquires the brightness of the image of the hand imaged by the imaging unit as the approach distance information,
In the operation target finger specifying step, among the fingers specified in the finger specifying step, the finger with the highest luminance of the fingertip specified in the fingertip specifying step is preferentially specified as the operation target finger. The display method according to any one of claims 1 to 4 , wherein:
前記遠隔操作面に接近する手に光源から光が照射されるとともに、その反射光を捉える形で、当該手を前記遠隔操作面の裏側から撮影手段により撮影する撮影ステップを有し、
前記指特定ステップは、撮影された前記手の画像から前記指を特定するものである請求項1ないし請求項5のいずれか1項に記載の表示方法。
A light source is irradiated with light from a light source to a hand approaching the remote operation surface, and has a photographing step of photographing the hand from the back side of the remote operation surface by photographing means,
The display method according to any one of claims 1 to 5 , wherein the finger specifying step specifies the finger from the captured image of the hand.
前記遠隔操作面に接近する手を前記遠隔操作面の裏側から撮影手段により撮影する撮影ステップを有し、前記位置指示画像を表示する表示ステップでは、撮影された手の画像に基づいて生成された位置指示画像を表示するものである請求項1ないし請求項6のいずれか1項に記載の表示方法。 A photographing step of photographing a hand approaching the remote operation surface by photographing means from the back side of the remote operation surface, and the display step of displaying the position indication image is generated based on the image of the photographed hand display method according to to is for displaying a position indication image claims 1 any one of claims 6. 表示画面を有した表示手段と、前記表示画面への操作を遠隔的に行うための遠隔操作面を有した遠隔操作部とを備える表示装置において、前記遠隔操作部の手前側にて指が対向するに伴い当該指位置に対応する前記表示画面上の画面位置に、背景をなす画像に合成ないしは重畳する形で、位置指示画像を表示する表示方法であって、
前記遠隔操作部は、前記遠隔操作面がタッチ操作面をなすとともに当該タッチ操作面へのタッチ操作の有無及びタッチ位置を検出するタッチ操作部であり、
前記遠隔操作部の手前側で対向する手において指を特定する指特定ステップと、
特定された指のうち前記タッチ操作面へのタッチ操作を行った指を、前記遠隔操作部への操作に使用する、あるいは使用すると推定される操作対象指として指定する操作対象指指定ステップと、
前記表示画面上の背景画像に合成ないしは重畳する形で、特定された前記指の指示位置を示す前記位置指示画像を表示する表示ステップであって、表示される前記位置指示画像のうち、指定された前記操作対象指に対応する位置指示画像を、当該操作対象指とは異なる指に対応する位置指示画像よりも相対的に強調する強調表示にて行う位置指示画像強調表示ステップと、
を有することを特徴とする表示方法。
In a display device comprising a display means having a display screen and a remote operation unit having a remote operation surface for remotely performing operations on the display screen, fingers are opposed to the front side of the remote operation unit A display method for displaying a position indicating image in a form superimposed or superimposed on an image forming a background at a screen position on the display screen corresponding to the finger position.
The remote operation unit is a touch operation unit that detects the presence or absence of a touch operation and a touch position on the touch operation surface while the remote operation surface forms a touch operation surface,
A finger specifying step of specifying a finger in the opposite hand on the front side of the remote control unit;
An operation target finger specifying step of using a finger that has performed a touch operation on the touch operation surface among the specified fingers to be used for an operation to the remote operation unit, or to be specified as an operation target finger that is estimated to be used,
A display step of displaying the position indicating image indicating the specified pointing position of the finger in a form synthesized or superimposed on a background image on the display screen, wherein the position indicating image is designated among the displayed position indicating images; A position indication image emphasis display step performed by highlighting the position indication image corresponding to the operation target finger relative to a position indication image corresponding to a finger different from the operation target finger;
A display method characterized by comprising:
前記位置指示画像強調表示ステップは、前記強調表示を、所定時間をかけて段階的に強調レベルを変化させる形で行うものである請求項1ないし請求項8のいずれか1項に記載の表示方法。 The display method according to any one of claims 1 to 8 , wherein the position indication image emphasis display step performs the emphasis display in a form in which an emphasis level is changed stepwise over a predetermined time. . 前記位置指示画像強調表示ステップは、前記強調表示として、該強調表示の開始時においては、前記操作対象指に対応する前記位置指示画像と、該操作対象指とは異なる指に対応する前記位置指示画像とを強調レベルを同じ状態にして表示するとともに、該強調表示の開始から時間が経過するに従い前記操作対象指に対応する前記位置指示画像の相対的な強調レベルが段階的に増すように変化する表示を実行するものである表示される請求項9に記載の表示方法。 The position instruction image highlighting step includes the position instruction image corresponding to the operation target finger and the position instruction corresponding to a finger different from the operation target finger at the start of the highlight display as the highlight display. The image is displayed with the same emphasis level, and the relative emphasis level of the position indication image corresponding to the operation target finger is changed stepwise as time elapses from the start of the emphasis display. The display method according to claim 9, wherein display is performed to execute display. 前記位置指示画像強調表示ステップは、前記操作対象指指定ステップにより前記操作対象指が指定されるに伴い前記強調表示を開始するものである請求項9又は請求項10に記載の表示方法。 The display method according to claim 9 or 10 , wherein the position indicating image highlighting step starts the highlighting as the operation target finger is specified by the operation target finger specifying step. 前記位置指示画像強調表示ステップは、前記操作対象指指定ステップにより前記操作対象指が指定されてから所定時間経過した後に、前記強調表示を開始するものである請求項9又は請求項10に記載の表示方法。 The position indication image highlight display step, after a predetermined time has elapsed since the specified the operation target finger by the manipulation target finger specification step, according to claim 9 or claim 10 in which to start the highlight Display method. 前記遠隔操作面に対向する手の画像を撮影する手画像撮影ステップを備え、
前記指特定ステップは、撮影された手の画像に基づいて、前記遠隔操作面に対向する手の指を特定するものであり、
前記位置指示画像強調表示ステップは、特定された手の指の輪郭が少なくとも特定可能となる実指画像を、撮影された手の画像に基づいて生成し、生成された実指画像を前記位置指示画像として表示するものである請求項1ないし請求項12のいずれか1項に記載の表示方法。
A hand image capturing step of capturing an image of a hand facing the remote operation surface;
The finger specifying step specifies a finger of a hand facing the remote operation surface based on a photographed hand image,
The position instruction image highlighting step generates a real finger image based on a photographed hand image that enables at least the contour of the finger of the identified hand to be identified, and the generated real finger image is the position instruction. The display method according to claim 1, wherein the display method is an image.
前記位置指示画像強調表示ステップは、指の延びる方向が少なくとも特定可能となる擬似指画像、又は、指の指先位置が少なくとも特定可能となる指先位置画像のいずれかを前記位置指示画像として表示するものである請求項1ないし請求項12のいずれか1項に記載の表示方法。 The position indication image highlighting step displays either a pseudo finger image in which at least the finger extending direction can be specified or a fingertip position image in which at least the fingertip position of the finger can be specified as the position indication image. The display method according to claim 1, which is: 前記強調表示は、前記位置指示画像の輪郭線に対してなされるものである請求項1ないし請求項14のいずれか1項に記載の表示方法。 The display method according to claim 1, wherein the highlighting is performed on an outline of the position indication image. 前記強調表示は、前記位置指示画像の表示色を変える形でなされるものである請求項1ないし請求項14のいずれか1項に記載の表示方法。 The display method according to claim 1 , wherein the highlighting is performed by changing a display color of the position indication image. 前記強調表示は、前記位置指示画像の表示色の濃淡を変える形でなされるものである請求項1ないし請求項14のいずれか1項に記載の表示方法。 The display method according to any one of claims 1 to 14 , wherein the highlighting is performed in a form of changing a shade of a display color of the position indication image. 前記強調表示は、前記位置指示画像の形状を変える形でなされるものである請求項1ないし請求項14のいずれか1項に記載の表示方法。 The display method according to claim 1 , wherein the highlighting is performed by changing a shape of the position indication image. 前記強調表示は、前記位置指示画像の透過度を変える形でなされるものである請求項1ないし請求項14のいずれか1項に記載の表示方法。 The display method according to claim 1 , wherein the highlighting is performed by changing the transparency of the position indication image. 前記強調表示は、前記位置指示画像を点滅表示する形でなされるものである請求項1ないし請求項14のいずれか1項に記載の表示方法。 The display method according to any one of claims 1 to 14 , wherein the highlighting is performed by blinking the position indication image. 前記操作対象指指定ステップにて前記操作対象指が指定された後、当該操作対象指に指定された指の移動を追跡する操作対象指追跡ステップを有し、
前記操作対象指指定ステップは、前記操作対象指追跡ステップによる追跡結果に基づいて、前記操作対象指に指定された指と同一の指を継続的に前記操作対象指として指定するものである請求項1ないし請求項20のいずれか1項に記載の表示方法。
After the operation target finger is specified in the operation target finger specifying step, the operation target finger tracking step of tracking the movement of the finger specified as the operation target finger,
The operation target finger designation step continuously designates the same finger as the finger designated as the operation target finger as the operation target finger based on a tracking result obtained by the operation target finger tracking step. The display method according to any one of claims 1 to 20 .
前記指特定ステップは、前記遠隔操作部の手前側にて予め定められている指特定可能範囲内に存在する前記手の指を、所定時間間隔にて順次特定とするものであり、
前記指特定ステップにより順次特定される前記指ごとの位置情報を取得し、当該位置情報を追跡情報として予め定められた追跡情報記憶部に記憶することにより、前記指特定ステップにより順次特定される指の移動を指ごとに追跡する指追跡ステップを有し、
前記操作対象指追跡ステップは、前記指追跡ステップにより記憶される指ごとの追跡情報から前記操作対象指の追跡情報を特定し、当該操作対象指の追跡情報に基づいて、当該操作対象指に指定された指の移動を追跡するものである請求項21に記載の表示方法。
The finger specifying step sequentially specifies the fingers of the hand that exist within a finger-identifiable range predetermined on the near side of the remote operation unit at predetermined time intervals,
By acquiring the position information for each finger sequentially specified by the finger specifying step and storing the position information as tracking information in a predetermined tracking information storage unit, the finger sequentially specified by the finger specifying step is stored. Finger tracking step to track the movement of each finger,
The operation target finger tracking step specifies tracking information of the operation target finger from the tracking information for each finger stored in the finger tracking step, and designates the operation target finger as the operation target finger based on the tracking information of the operation target finger The display method according to claim 21, wherein the displayed movement of the finger is tracked.
前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に実際に特定された指とは予め定められた基準条件を満たさなかった追跡中の指がある場合には、当該追跡中の指を追跡不可の指として認識を切り替えるとともに、追跡不可と認識されたときの当該指に係る情報を追跡復帰判断情報として、予め定められた追跡復帰判断情報記憶部に記憶し、
さらに前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指がある場合には、記憶されている前記追跡復帰判断情報に基づいて、実際に特定された当該指が過去に追跡不可と認識された指と同一であるか否かを判断し、同一であると判断された場合には、当該追跡復帰判断情報に対応する追跡不可とされていた指が、実際に特定された当該指の位置に再出現したと認識して、当該指の移動追跡を再開する一方で、同一ではないと判断された場合には、実際に特定された当該指が新規出現した指であると認識して、当該指の移動追跡を新たに開始するものである請求項22に記載の表示方法。
In the finger tracking step, if there is a finger being tracked that does not satisfy a predetermined standard condition with the finger actually specified when the finger is specified in the finger specifying step, the tracking is performed. Switching the recognition of the finger as an untrackable finger, and storing the information related to the finger when it is recognized as untrackable as tracking return determination information in a predetermined tracking return determination information storage unit,
Further, the finger tracking step is stored when there is an actually specified finger that does not satisfy the reference condition with the finger being tracked when the finger is specified by the finger specifying step. On the basis of the tracking return determination information is determined whether or not the finger actually identified is the same as the finger that has been recognized as untraceable in the past, The finger corresponding to the tracking return determination information, which has been made untraceable, recognizes that it has reappeared at the position of the finger actually identified, and resumes the movement tracking of the finger. 23. The display method according to claim 22 , wherein if the determination is made, the finger actually identified is recognized as a newly appearing finger, and movement tracking of the finger is newly started.
前記追跡情報には、少なくとも前記指特定ステップにより特定された指の最新の位置情報が含まれており、前記追跡復帰判断情報にも、対応する指が追跡不可と認識される前の最後の位置情報が含まれている請求項23に記載の表示方法。 The tracking information includes at least the latest position information of the finger specified by the finger specifying step, and the tracking return determination information also includes the last position before the corresponding finger is recognized as untrackable. The display method according to claim 23, wherein information is included. 前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指が特定されており、なおかつ前記追跡復帰判断情報記憶部に、複数の指の追跡復帰判断情報が記憶されている場合には、実際に特定された当該指の位置情報と、それら前記追跡復帰判断情報に含まれる追跡不可の指の最後の位置情報とに基づいて、実際に特定された当該指に最も近い位置を示す前記位置情報を含む前記追跡復帰判断情報に対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定するものである請求項24に記載の表示方法。 In the finger tracking step, when the finger is specified by the finger specifying step, an actually specified finger that does not satisfy the reference condition with the finger being tracked is specified, and the tracking is performed. When tracking return determination information of a plurality of fingers is stored in the return determination information storage unit, the position information of the finger actually identified and the non-trackable finger included in the tracking return determination information Based on the last position information, the finger that is not traceable corresponding to the tracking return determination information including the position information indicating the position closest to the actually identified finger is actually identified. The display method according to claim 24, wherein the finger is determined to be the same finger as the finger. 前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に実際に特定された指とは前記基準条件を満たさなかった前記追跡中の指があり、当該追跡中の指が追跡不可と認識された場合には、追跡不可と認識されたときの当該指に係る情報と共に、他の追跡不可の指との追跡不可認識時期の前後関係が特定可能となる追跡不可認識順序を、追跡復帰判断情報として前記追跡復帰判断情報記憶部に記憶し、
さらに前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指が特定されており、なおかつ前記追跡復帰判断情報記憶部には、複数の指の追跡復帰判断情報が記憶されている場合には、実際に特定された当該指の位置情報と、それら前記追跡復帰判断情報に含まれる追跡不可の指の最後の位置情報とに基づいて、実際に特定された当該指に最も近い位置を示す前記位置情報を含む前記追跡復帰判断情報を特定するとともに、当該追跡復帰判断情報が1つ特定される場合には、当該追跡復帰判断情報に対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定する一方で、当該追跡復帰判断情報が2以上特定される場合には、それら追跡復帰判断情報に含まれる前記追跡不可認識順序を参照して、それら追跡復帰判断情報のうち前記追跡不可認識時期が最も新しいものに対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定するものである請求項24又は請求項25に記載の表示方法。
The finger tracking step includes the finger being tracked that does not satisfy the reference condition with the finger actually identified when the finger is identified in the finger identifying step, and the finger being tracked is tracked If it is recognized as unacceptable, the information on the finger when it is recognized as untraceable, and the unrecognizable recognition order in which the context of unrecognizable recognition time with other untraceable fingers can be specified, Store in the tracking return determination information storage unit as tracking return determination information,
Further, in the finger tracking step, when the finger is specified by the finger specifying step, an actually specified finger that does not satisfy the reference condition with the finger being tracked is specified, and When tracking return determination information of a plurality of fingers is stored in the tracking return determination information storage unit, the position information of the finger that is actually specified, and the untrackable information included in the tracking return determination information Based on the last position information of the finger, the tracking return determination information including the position information indicating the position closest to the actually specified finger is specified, and one piece of the tracking return determination information is specified In this case, when the finger that is not traceable corresponding to the tracking return determination information is determined to be the same finger as the actually specified finger, two or more tracking return determination information is specified In With reference to the untraceable recognition order included in the tracking return determination information, the finger that is untraceable corresponding to the latest tracking unrecognized time among the tracking return determination information is actually identified. The display method according to claim 24 or 25 , wherein the finger is determined to be the same finger as the finger.
表示画面を有した表示手段と、前記表示画面への操作を遠隔的に行うための遠隔操作面を有した遠隔操作部とを備える表示装置において、前記遠隔操作部の手前側にて指が対向するに伴い当該指位置に対応する前記表示画面上の画面位置に、背景をなす画像に合成ないしは重畳する形で、位置指示画像を表示する表示方法であって、
前記遠隔操作部の手前側で対向する手において指を特定する指特定ステップと、
特定された前記指から前記遠隔操作部への操作に使用する、あるいは使用すると推定される操作対象指を指定する操作対象指指定ステップと、
前記表示画面上の背景画像に合成ないしは重畳する形で、特定された前記指の指示位置を示す前記位置指示画像を表示する表示ステップであって、表示される前記位置指示画像のうち、指定された前記操作対象指に対応する位置指示画像を、当該操作対象指とは異なる指に対応する位置指示画像よりも相対的に強調する強調表示にて行う位置指示画像強調表示ステップと、
を有するとともに、前記指特定ステップは、前記遠隔操作部の手前側にて予め定められている指特定可能範囲内に存在する前記手の指を、所定時間間隔にて順次特定し、
前記指特定ステップにより順次特定される前記指ごとの位置情報を取得し、当該位置情報を追跡情報として予め定められた追跡情報記憶部に記憶することにより、前記指特定ステップにより順次特定される指の移動を指ごとに追跡する指追跡ステップと、
前記操作対象指指定ステップにて前記操作対象指が指定された後、当該操作対象指に指定された指の移動を追跡するために、前記指追跡ステップにより前記追跡情報記憶部に記憶される指ごとの追跡情報から前記操作対象指の追跡情報を特定し、当該操作対象指の追跡情報に基づいて、当該操作対象指に指定された指の移動を追跡する操作対象指追跡ステップと、
を有し、さらに、前記操作対象指指定ステップは、前記操作対象指追跡ステップによる追跡結果に基づいて、前記操作対象指に指定された指と同一の指を継続的に前記操作対象指として指定し、
前記指追跡ステップは、
前記指特定ステップ毎に前記追跡情報を記憶している追跡中の各指の中に、前記指特定ステップによる前記指の特定がなされた際に実際に特定された指との間で予め定められた基準条件を満たさなかった指がある場合には、当該追跡中の指を追跡不可の指として認識を切り替えるとともに、追跡不可と認識されたときの当該指に係る情報と共に他の追跡不可の指との追跡不可認識時期の前後関係が特定可能となる追跡不可認識順序を、追跡復帰判断情報として、予め定められた追跡復帰判断情報記憶部に記憶し、
前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指がある場合には、記憶されている前記追跡復帰判断情報に基づいて、実際に特定された当該指が過去に追跡不可と認識された指と同一であるか否かを判断し、同一であると判断された場合には、当該追跡復帰判断情報に対応する追跡不可とされていた指が、実際に特定された当該指の位置に再出現したと認識して、当該指の移動追跡を再開する一方で、同一ではないと判断された場合には、実際に特定された当該指が新規出現した指であると認識して、当該指の移動追跡を新たに開始するものであり、前記追跡情報には、少なくとも前記指特定ステップにより特定された指の最新の位置情報が含まれており、前記追跡復帰判断情報にも、対応する指が追跡不可と認識される前の最後の位置情報が含まれており、
さらに、前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指があり、なおかつ前記追跡復帰判断情報記憶部に、複数の指の追跡復帰判断情報が記憶されている場合には、実際に特定された当該指の位置情報と、それら前記追跡復帰判断情報に含まれる追跡不可の指の最後の位置情報とに基づいて、実際に特定された当該指に最も近い位置を示す前記位置情報を含む前記追跡復帰判断情報を特定するとともに、当該追跡復帰判断情報が1つ特定される場合には、当該追跡復帰判断情報に対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定する一方で、当該追跡復帰判断情報が2以上特定される場合には、それら追跡復帰判断情報に含まれる前記追跡不可認識順序を参照して、それら追跡復帰判断情報のうち前記追跡不可認識時期が最も新しいものに対応する追跡不可とされている指を、実際に特定された当該指と同一の指と判定するものであることを特徴とする表示方法。
In a display device comprising a display means having a display screen and a remote operation unit having a remote operation surface for remotely performing operations on the display screen, fingers are opposed to the front side of the remote operation unit A display method for displaying a position indicating image in a form superimposed or superimposed on an image forming a background at a screen position on the display screen corresponding to the finger position.
A finger specifying step of specifying a finger in the opposite hand on the front side of the remote control unit;
An operation target finger designation step for designating an operation target finger to be used for the operation from the identified finger to the remote operation unit or estimated to be used;
A display step of displaying the position indicating image indicating the specified pointing position of the finger in a form synthesized or superimposed on a background image on the display screen, wherein the position indicating image is designated among the displayed position indicating images; A position indication image emphasis display step performed by highlighting the position indication image corresponding to the operation target finger relative to a position indication image corresponding to a finger different from the operation target finger;
And the finger identifying step sequentially identifies the fingers of the hand that are within a finger identifiable range predetermined on the near side of the remote control unit at predetermined time intervals,
By acquiring the position information for each finger sequentially specified by the finger specifying step and storing the position information as tracking information in a predetermined tracking information storage unit, the finger sequentially specified by the finger specifying step is stored. Finger tracking step to track the movement of each finger,
After the operation target finger is specified in the operation target finger specifying step, the finger stored in the tracking information storage unit by the finger tracking step is used to track the movement of the finger specified as the operation target finger. An operation target finger tracking step of identifying the tracking information of the operation target finger from each tracking information, and tracking the movement of the finger designated as the operation target finger based on the tracking information of the operation target finger;
And the operation target finger designation step continuously designates the same finger as the finger designated as the operation target finger as the operation target finger based on the tracking result of the operation target finger tracking step. And
The finger tracking step includes
Among each finger being tracked that stores the tracking information for each finger specifying step, the finger is determined in advance with the finger actually specified when the finger is specified by the finger specifying step. If there is a finger that does not meet the reference criteria, the recognition is switched to the finger being tracked as an untrackable finger, and other untrackable fingers along with information about the finger when it is recognized as untrackable. The tracking unrecognized order in which the context of the non-trackable recognition time can be specified is stored as tracking return determination information in a predetermined tracking return determination information storage unit,
The finger tracking step is stored when there is an actually specified finger that does not satisfy the reference condition with the finger being tracked when the finger is specified by the finger specifying step. On the basis of the tracking return determination information, it is determined whether the finger actually identified is the same as the finger that was previously recognized as untraceable. Recognize that the finger that was not trackable corresponding to the tracking return determination information has reappeared at the position of the finger that was actually identified, and resume the movement tracking of the finger. If the finger has been identified, the finger actually identified is recognized as a newly appearing finger, and movement tracking of the finger is newly started. The tracking information includes at least the finger identifying step. The latest position of the finger specified by Are included, the even track return determination information includes last position information before the corresponding finger is recognized as the tracking impossible,
Further, the finger tracking step includes an actually specified finger that does not satisfy the reference condition with the finger being tracked when the finger is specified in the finger specifying step, and the tracking return is performed. If the determination information storage unit stores the tracking return determination information of a plurality of fingers, the position information of the finger actually identified and the last of the untrackable fingers included in the tracking return determination information When the tracking return determination information including the position information indicating the position closest to the finger that is actually specified is specified based on the position information, and one piece of the tracking return determination information is specified When the finger that is not traceable corresponding to the tracking return determination information is determined to be the same finger as the actually specified finger, while two or more tracking return determination information is specified, Add them Referring to the untraceable recognition order included in the return determination information, the finger that is not trackable corresponding to the latest untrackable recognition time among the tracking return determination information is actually identified. A display method characterized in that the finger is determined to be the same finger as the finger.
前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に前記追跡中の指とは前記基準条件を満たさなかった、実際に特定された指が特定されている場合に、実際に特定された当該指の位置情報と、前記追跡復帰判断情報に含まれる追跡不可の指の最後の位置情報とが示すそれぞれの位置間の距離が、予め定められた基準距離を下回る場合には、実際に特定された当該指と当該追跡復帰判断情報に対応する追跡不可とされている指とを同一と認識することを許可する一方で、前記基準距離を下回らない場合には、実際に特定された当該指と当該追跡復帰判断情報に対応する追跡不可とされている指とを同一と認識することを禁止するものである請求項24ないし請求項27のいずれか1項に記載の表示方法。 The finger tracking step is performed when an actually specified finger that does not satisfy the reference condition with the finger being tracked is specified when the finger is specified in the finger specifying step. If the distance between the respective positions indicated by the position information of the finger specified in (2) and the last position information of the non-trackable finger included in the tracking return determination information is less than a predetermined reference distance While it is allowed to recognize that the finger that is actually identified and the finger that is not trackable corresponding to the tracking return determination information are the same, if the distance is not less than the reference distance, the finger is actually identified. The display method according to any one of claims 24 to 27 , wherein it is prohibited to recognize that the finger that has been made and the finger that cannot be tracked corresponding to the tracking return determination information are the same. . 前記追跡復帰判断情報は、対応する指が追跡不可と認識される際に、前記追跡情報記憶部に記憶されていた当該指の前記追跡情報である請求項24ないし請求項28のいずれか1項に記載の表示方法。 Said tracking return decision information, when the corresponding finger is recognized as the tracking disabled, any one of the tracking information to claims 24 which is the tracking information of the finger which has been stored in the storage unit according to claim 28 Display method described in. 前記指追跡ステップは、前記指特定ステップにより指が特定され、なおかつ特定された当該指が新規出現の指として認識した際には、当該新規出現の指に対し新たな識別情報を付与するとともに、当該識別情報に対応付けた形で、各指の前記追跡情報を前記追跡情報記憶部に記憶するものであり、
前記指追跡ステップは、前記識別情報が付与されている前記追跡中の指を追跡不可の指として認識した際には、当該指の前記識別情報に前記追跡復帰判断情報を対応付けた形で前記追跡復帰判断情報記憶部に記憶するものである請求項29に記載の表示方法。
In the finger tracking step, when the finger is specified by the finger specifying step and the specified finger is recognized as a newly appearing finger, new identification information is given to the newly appearing finger, The tracking information of each finger is stored in the tracking information storage unit in a form associated with the identification information,
In the finger tracking step, when the tracking finger to which the identification information is given is recognized as a non-trackable finger, the tracking return determination information is associated with the identification information of the finger. 30. The display method according to claim 29, wherein the display method is stored in a tracking return determination information storage unit.
前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に、前記追跡情報記憶部に記憶された前記追跡情報と、さらには前記追跡復帰判断情報記憶部に記憶された前記追跡復帰判断情報とに基づいて、当該指特定ステップにより実際に特定された指が前記追跡中の指であるか否か、さらには追跡不可の指であるか否かを、前記識別情報が付された指ごとに判定し、その判定結果を追跡状況として前記識別情報に対応付けた形で、予め定められた追跡状況記憶部に記憶するものである請求項30に記載の表示方法。 The finger tracking step includes the tracking information stored in the tracking information storage unit and further the tracking stored in the tracking return determination information storage unit when the finger is specified by the finger specifying step. Based on the return determination information, whether or not the finger actually specified by the finger specifying step is the finger being tracked or whether or not the finger is untrackable is attached. 31. The display method according to claim 30, wherein determination is made for each finger, and the determination result is stored in a predetermined tracking state storage unit in a form associated with the identification information as a tracking state. 前記指追跡ステップは、前記指特定ステップにより指が特定され、なおかつ特定された当該指が新規出現の指として認識した際には、当該新規出現の指に対し新たな識別情報を付与するとともに、当該識別情報に対応付けた形で、各指の前記追跡情報を前記追跡情報記憶部に記憶するものである請求項22ないし請求項29のいずれか1項に記載の表示方法。 In the finger tracking step, when the finger is specified by the finger specifying step and the specified finger is recognized as a newly appearing finger, new identification information is given to the newly appearing finger, The display method according to any one of claims 22 to 29 , wherein the tracking information of each finger is stored in the tracking information storage unit in a form associated with the identification information. 前記指追跡ステップは、前記指特定ステップによる前記指の特定がなされた際に、指が特定されなかった場合には、前記識別情報及び当該識別情報に対応付けて記憶される各種情報を消去し、初期化するものとできる請求項30ないし請求項32のいずれか1項に記載の表示方法。 The finger tracking step erases the identification information and various information stored in association with the identification information when the finger is not identified when the finger is identified by the finger identifying step. The display method according to any one of claims 30 to 32 , wherein the display method can be initialized. 前記指追跡ステップは、前記指特定ステップ毎に前記追跡情報を記憶している追跡中の各指が、次回の前記指特定ステップにて位置すると推定される次回位置を、対応する前記追跡情報に基づいて算出する次回位置推定ステップを有し、当該次回位置推定ステップにて算出される前記追跡中の各指の前記次回位置と、次回の前記指特定ステップにて実際に特定される各指の実位置との位置関係に関して定められた前記基準条件を満たす前記次回位置と前記実位置のペアを特定するとともに、当該ペアの一方である前記追跡中の指と前記指特定ステップにて実際に特定された指とは互いを同一の指と判断し、当該追跡中の指が同一と判断された実際に特定された指の位置に移動したものとして、当該指の移動追跡を継続するものである請求項22ないし請求項33のいずれか1項に記載の表示方法。 In the finger tracking step, each tracking target storing the tracking information for each finger specifying step is changed to a corresponding next tracking information that is estimated to be positioned at the next finger specifying step. A next position estimation step that is calculated based on the next position of each finger being tracked calculated in the next position estimation step, and each finger that is actually specified in the next finger specification step. A pair of the next position and the actual position satisfying the reference condition defined with respect to a positional relationship with an actual position is specified, and is actually specified by the finger being tracked and the finger specifying step which is one of the pair The finger is determined to be the same finger, and the movement tracking of the finger is continued as if the finger being tracked was moved to the actually specified finger position determined to be the same. Claim 2 To display method according to any one of claims 33. 前記追跡情報は、複数回の前記指特定ステップにより特定された対応する前記追跡中の指の各位置情報を含むことが可能であり、
前記次回位置推定ステップは、当該各位置情報に基づいて、対応する追跡中の指の前記次回位置を算出するものである請求項34に記載の表示方法。
The tracking information may include each position information of the corresponding finger being tracked identified by the finger identifying step a plurality of times,
The display method according to claim 34, wherein the next position estimation step calculates the next position of the corresponding finger being tracked based on the position information.
前記次回位置推定ステップは、前記追跡情報に、前回及び前々回の前記指特定ステップにより特定された対応する前記追跡中の指の各位置情報が含まれる場合には、それら双方の位置情報に基づいて、当該追跡中の指の前記次回位置を算出する一方で、前記追跡情報に、前回の前記指特定ステップにより特定された対応する前記追跡中の指の位置情報が含まれ、前々回の前記指特定ステップにより特定された対応する前記追跡中の指の位置情報が含まれていない場合には、前回の前記指特定ステップにより特定された際の前記位置情報と、当該位置情報が示す位置に近接する前記指特定可能範囲の縁部の位置とに基づいて、当該追跡中の指の前記次回位置を算出するものである請求項35に記載の表示方法。 In the case where the tracking information includes each position information of the corresponding finger being tracked specified in the previous and previous finger specifying steps, the next position estimation step is based on both of the position information. Calculating the next position of the finger being tracked, while the tracking information includes the corresponding position information of the finger being tracked identified by the previous finger identifying step, and When the position information of the corresponding finger being tracked specified by the step is not included, the position information specified by the previous finger specifying step is close to the position indicated by the position information. 36. The display method according to claim 35, wherein the next position of the finger being tracked is calculated based on a position of an edge of the finger identifiable range. 請求項1ないし請求項36のいずれか1項に記載の表示方法における各ステップを実現する手段を備えてなることを特徴とする表示装置。 37. A display device comprising means for realizing each step in the display method according to any one of claims 1 to 36 . 請求項37に記載の表示装置を備えるとともに、
前記表示画面は、機器の操作などを行うための画面であり、前記遠隔操作面は、前記表示画面とは異なる位置に設けられ、当該表示画面における操作入力を遠隔的に行うための操作面であって、前記表示手段と、前記遠隔操作部と、前記遠隔操作面への押圧操作に基づいて押圧操作位置に対応した入力を受け付ける入力受付手段と、前記遠隔操作面に対向する手の画像を撮影する手画像撮影手段と、当該手により位置指示された前記表示画面上の位置に前記撮影された手の画像に基づいて生成された位置指示画像を表示する位置指示画像強調表示手段と、を備えることを特徴とする操作入力装置。
A display device according to claim 37 is provided,
The display screen is a screen for operating a device, and the remote operation surface is provided at a position different from the display screen, and is an operation surface for remotely performing operation input on the display screen. An input receiving unit that receives an input corresponding to a pressing operation position based on a pressing operation on the remote operation surface; and an image of a hand facing the remote operation surface. Hand image photographing means for photographing; and position indication image highlighting means for displaying a position indication image generated based on the image of the photographed hand at a position on the display screen pointed to by the hand. An operation input device comprising:
前記機器は車載搭載機器であり、前記表示画面は運転者よりも車両前方側にて該運転者により視認可能に配置され、前記遠隔操作面は、前記表示画面よりも運転者に近い位置に設けられている請求項38に記載の操作入力装置。 The device is a vehicle-mounted device, the display screen is arranged to be visible by the driver on the vehicle front side of the driver, and the remote control surface is provided at a position closer to the driver than the display screen. The operation input device according to claim 38 .
JP2009021003A 2008-03-19 2009-01-30 Display method, display device, and operation input device Expired - Fee Related JP5257779B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2009021003A JP5257779B2 (en) 2008-03-19 2009-01-30 Display method, display device, and operation input device
EP13192331.0A EP2700528A3 (en) 2008-03-19 2009-03-18 Vehicular manipulation input apparatus
CN2009801095824A CN101977796B (en) 2008-03-19 2009-03-18 Vehicular manipulation input apparatus
KR1020107021928A KR101267378B1 (en) 2008-03-19 2009-03-18 Operation input device for vehicle
US12/866,969 US20110029185A1 (en) 2008-03-19 2009-03-18 Vehicular manipulation input apparatus
PCT/JP2009/001213 WO2009116285A1 (en) 2008-03-19 2009-03-18 Operation input device for vehicle
KR1020127027535A KR101297144B1 (en) 2008-03-19 2009-03-18 Operation input device for vehicle
EP09723615.2A EP2258587A4 (en) 2008-03-19 2009-03-18 Operation input device for vehicle
CN201210488034.0A CN103076949B (en) 2008-03-19 2009-03-18 Vehicular manipulation input apparatus

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2008071468 2008-03-19
JP2008071468 2008-03-19
JP2008291592 2008-11-14
JP2008291592 2008-11-14
JP2009021003A JP5257779B2 (en) 2008-03-19 2009-01-30 Display method, display device, and operation input device

Publications (2)

Publication Number Publication Date
JP2010140458A JP2010140458A (en) 2010-06-24
JP5257779B2 true JP5257779B2 (en) 2013-08-07

Family

ID=42350520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009021003A Expired - Fee Related JP5257779B2 (en) 2008-03-19 2009-01-30 Display method, display device, and operation input device

Country Status (1)

Country Link
JP (1) JP5257779B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5658500B2 (en) * 2010-07-26 2015-01-28 キヤノン株式会社 Information processing apparatus and control method thereof
RU2014137157A (en) * 2012-02-14 2016-04-10 Конинклейке Филипс Н.В. PROTECTING THE MOBILE DEVICE FROM TOUCH TOUCHES
DE102013114563A1 (en) * 2013-12-19 2015-06-25 Valeo Schalter Und Sensoren Gmbh A method for performing a parking operation of a motor vehicle in a transverse parking space, parking assistance system and motor vehicle
JP6315443B2 (en) * 2014-01-10 2018-04-25 アルパイン株式会社 Input device, input detection method for multi-touch operation, and input detection program
JP2015232533A (en) * 2014-06-11 2015-12-24 三菱電機株式会社 Display control system and display control method
JP6405836B2 (en) * 2014-09-26 2018-10-17 セイコーエプソン株式会社 POSITION DETECTION DEVICE, PROJECTOR, AND POSITION DETECTION METHOD
FR3028222A1 (en) * 2015-03-26 2016-05-13 Continental Automotive France TOUCH PALLET SYSTEM FORMING A MAN-MACHINE INTERFACE ADAPTED ON A VEHICLE WHEEL
JP6564346B2 (en) 2016-05-30 2019-08-21 株式会社Soken Parking assistance device and parking assistance method
KR102387613B1 (en) * 2017-06-26 2022-04-15 엘지전자 주식회사 Interface system for vehicle

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214834A (en) * 1999-01-26 2000-08-04 Sony Corp Information display method, information display device, and reception display device
JP2004348522A (en) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium
JP4566596B2 (en) * 2004-03-29 2010-10-20 アルパイン株式会社 Operation instruction device
JP4702959B2 (en) * 2005-03-28 2011-06-15 パナソニック株式会社 User interface system
US8085243B2 (en) * 2006-02-03 2011-12-27 Panasonic Corporation Input device and its method
JP4915503B2 (en) * 2006-04-06 2012-04-11 株式会社デンソー Prompter type operation device
JP2007164814A (en) * 2007-02-09 2007-06-28 Toshiba Corp Interface device

Also Published As

Publication number Publication date
JP2010140458A (en) 2010-06-24

Similar Documents

Publication Publication Date Title
WO2009116285A1 (en) Operation input device for vehicle
JP5257779B2 (en) Display method, display device, and operation input device
JP5077773B2 (en) Vehicle operation input device
US9910506B2 (en) Method for interacting with an object displayed on data eyeglasses
EP2270767B1 (en) Device, Method and Program for Displaying Map Information
US8270669B2 (en) Apparatus for extracting operating object and apparatus for projecting operating hand
JP4705170B2 (en) Navigation device and method for scrolling map data displayed on navigation device
JP5638896B2 (en) Display control program, display control device, display control system, and display control method
JP5732218B2 (en) Display control program, display control device, display control system, and display control method
JP5141878B2 (en) Touch operation input device
CN113330395B (en) Multi-screen interaction method and device, terminal equipment and vehicle
JP4626860B2 (en) Operating device
JP5382313B2 (en) Vehicle operation input device
JP2010117917A (en) Motion detection apparatus and operation system
WO2018134897A1 (en) Position and posture detection device, ar display device, position and posture detection method, and ar display method
KR101361643B1 (en) Method and device for displaying object using transparent display panel
JP5709460B2 (en) Driving support system, driving support method, and driving support program
JP5969847B2 (en) Imaging device
WO2020137883A1 (en) Display control device, display control method, and display control program
JP5619202B2 (en) Map information processing device
JP2007274245A (en) Imaging apparatus, method, and program
CN115877941A (en) Head-mounted interactive device and interactive method for same
JP2021014262A (en) Virtual image display apparatus, control method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120903

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130411

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5257779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees