JP2005084830A - Equipment controller and equipment control method - Google Patents

Equipment controller and equipment control method Download PDF

Info

Publication number
JP2005084830A
JP2005084830A JP2003314579A JP2003314579A JP2005084830A JP 2005084830 A JP2005084830 A JP 2005084830A JP 2003314579 A JP2003314579 A JP 2003314579A JP 2003314579 A JP2003314579 A JP 2003314579A JP 2005084830 A JP2005084830 A JP 2005084830A
Authority
JP
Japan
Prior art keywords
shape
finger
operator
imaging target
presented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003314579A
Other languages
Japanese (ja)
Inventor
Hiroshi Saito
浩 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003314579A priority Critical patent/JP2005084830A/en
Publication of JP2005084830A publication Critical patent/JP2005084830A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately and quickly grasp operation contents intended by an operator, and to precisely perform control of equipment following the intentions of an operator. <P>SOLUTION: As calibration, the image of the finger preliminarily presented with a regular shape by an operator is picked up, and the finger area with another shape is predicted, based on the finger area measured from the image, and these informations are stored as calibration data. When actual equipment control is performed, the finger area measured from the image of the finger presented by the operation is compared with the calibration data, the shape of the finger presented by the operator is specified, and the equipment is controlled, based on operation input information(number) corresponding to this. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、例えば、操作者により提示される手指の形状等を認識し、認識した手指の形状等に応じて機器の制御を行う機器制御装置及び機器制御方法に関するものである。   The present invention relates to, for example, a device control apparatus and a device control method for recognizing the shape or the like of a finger presented by an operator and controlling the device according to the recognized shape or the like of the finger.

従来、操作者が操作スイッチ等の入力装置を直接操作することなく機器の制御を行えるようにする技術として、操作者により提示される手指の形状を認識して操作者の意図する操作内容を把握し、それに応じて機器の制御を行う技術が知られている(例えば、特許文献1参照。)。   Conventionally, as a technology that enables an operator to control equipment without directly operating an input device such as an operation switch, the operator can recognize the shape of a finger presented by the operator and grasp the operation content intended by the operator. And the technique which controls an apparatus according to it is known (for example, refer patent document 1).

特許文献1に記載の技術では、操作者によりカメラの前にかざされた手指をカメラで撮像し、画像認識処理によって画像の中の手指部分を特定して、その手指部分の形状が、予め把握されているいくつかの形状パターンの何れに合致するかを判断することによって、操作者の手指の形状を認識するようにしている。
特開2003−131785号公報
In the technique described in Patent Document 1, a finger held in front of the camera by the operator is imaged by the camera, the finger part in the image is identified by image recognition processing, and the shape of the finger part is grasped in advance. The shape of the finger of the operator is recognized by determining which of the several shape patterns is matched.
JP 2003-131785 A

しかしながら、上述した特許文献1に記載の従来技術では、画像認識処理によって特定された手指形状と、予め把握されている形状パターンとの比較によって実際の手指形状を認識するようにしているので、実際の手指形状を必ずしも正確に認識できない場合があり、例えば、人差し指と中指とを接触させて伸ばした状態を、人差し指のみを伸ばした状態と誤認識してしまう可能性がある。そして、このように手指形状を誤認識した場合には、操作者の意図とは異なる内容で機器の制御が実行されてしまうといった問題が生じる。   However, in the conventional technique described in Patent Document 1 described above, the actual finger shape is recognized by comparing the finger shape specified by the image recognition processing with the shape pattern that is grasped in advance. In some cases, it is not always possible to accurately recognize the finger shape of the finger. For example, a state in which the index finger and the middle finger are brought into contact with each other and stretched may be erroneously recognized as a state in which only the index finger is stretched. When the finger shape is erroneously recognized in this way, there arises a problem that the control of the device is executed with contents different from the intention of the operator.

また、あらゆる事態を想定して数多くの形状パターンを予め把握しておくようにすれば、認識精度を高めることも可能となると考えられるが、この場合には、手の形状の認識処理を行う度に、画像認識処理によって特定された手指形状を多数の形状パターンと比較する必要があり、個々の認識処理に要する処理負担及び処理時間が増大化するといった問題が生じる。   In addition, it is thought that it is possible to improve the recognition accuracy if a large number of shape patterns are grasped in advance in all situations, but in this case, each time hand shape recognition processing is performed. In addition, it is necessary to compare the finger shape specified by the image recognition process with a large number of shape patterns, which causes a problem that the processing load and processing time required for each recognition process increase.

本発明は、以上のような従来技術の有する問題点を解消すべく創案されたものであって、操作者の意図する操作内容を的確且つ迅速に把握して、操作者の意図に沿った機器の制御を精度良く実施することができる機器制御装置及び機器制御方法を提供することを目的としている。   The present invention was devised to solve the above-described problems of the prior art, and is capable of accurately and quickly grasping the contents of the operation intended by the operator so as to meet the intention of the operator. It is an object of the present invention to provide a device control apparatus and a device control method capable of accurately performing the above control.

本発明に係る機器制御装置は、撮像手段、特徴量計測手段、特徴量予測手段、形状特定手段、制御手段の各手段を備えて構成される。   The device control apparatus according to the present invention includes an imaging unit, a feature amount measuring unit, a feature amount predicting unit, a shape specifying unit, and a control unit.

撮像手段は、操作者により提示される人体の一部を撮像対象として、この撮像対象の画像を撮像するものである。また、特徴量計測手段は、撮像手段により撮像された画像から、撮像対象の特徴量を計測するものである。   The imaging means captures an image of the imaging target with a part of the human body presented by the operator as the imaging target. The feature amount measuring unit measures the feature amount of the imaging target from the image captured by the imaging unit.

特徴量予測手段は、規定の形状で提示された撮像対象の画像より計測された特徴量に基づいて、撮像対象が他の形状で提示されたときの特徴量を予測する。また、形状特定手段は、撮像対象が任意の形状で提示されて、その画像が撮像手段により撮像され、特徴量計測手段によってその画像から特徴量が計測されたときに、この特徴量計測手段によって計測された特徴量と、特徴量予測手段により予測された特徴量とに基づいて、撮像対象の形状を特定する。そして、形状特定手段により特定された撮像対象の形状に対応する操作入力情報に基づいて、制御手段が機器を制御する。   The feature amount predicting unit predicts the feature amount when the imaging target is presented in another shape based on the feature amount measured from the image of the imaging target presented in the prescribed shape. In addition, the shape specifying unit is configured such that when the imaging target is presented in an arbitrary shape, the image is captured by the imaging unit, and the feature amount is measured from the image by the feature amount measuring unit. Based on the measured feature amount and the feature amount predicted by the feature amount prediction means, the shape of the imaging target is specified. And a control means controls an apparatus based on the operation input information corresponding to the shape of the imaging target specified by the shape specification means.

また、本発明に係る機器制御方法は、以下の第1乃至第7のステップを有する。   The device control method according to the present invention includes the following first to seventh steps.

この機器制御方法では、先ず、第1のステップにおいて、操作者により規定の形状で提示された人体の一部を撮像対象として撮像する。そして、第2のステップにおいて、第1のステップで撮像された画像から撮像対象の特徴量を計測する。次に、第3のステップにおいて、第2のステップで計測された特徴量に基づいて、撮像対象が他の形状で提示されたときの特徴量を予測する。   In this device control method, first, in a first step, a part of a human body presented in a prescribed shape by an operator is imaged as an imaging target. Then, in the second step, the feature quantity of the imaging target is measured from the image captured in the first step. Next, in the third step, the feature amount when the imaging target is presented in another shape is predicted based on the feature amount measured in the second step.

第4のステップでは、操作者により任意の形状で提示された人体の一部を撮像対象として撮像する。そして、第5のステップにおいて、第4のステップで撮像された画像から撮像対象の特徴量を計測する。次に、第6のステップにおいて、第5のステップで計測された特徴量と、第3のステップで予測された特徴量とに基づいて、第4のステップで撮像された撮像対象の形状を特定する。そして、第7のステップにおいて、第6のステップで特定された撮像対象の形状に対応する操作入力情報に基づいて、機器を制御する。   In the fourth step, a part of the human body presented in an arbitrary shape by the operator is imaged as an imaging target. Then, in the fifth step, the feature quantity of the imaging target is measured from the image captured in the fourth step. Next, in the sixth step, the shape of the imaging target imaged in the fourth step is specified based on the feature quantity measured in the fifth step and the feature quantity predicted in the third step. To do. In the seventh step, the device is controlled based on the operation input information corresponding to the shape of the imaging target specified in the sixth step.

本発明によれば、操作者により人体の一部が任意の形状で提示されたときに、そのときの画像から計測される特徴量と、事前に予測された特徴量を示す特徴量情報とから、操作者により提示された人体の一部の形状を特定し、これに対応する操作入力情報に基づいて機器を制御するようにしているので、操作者の意図する操作内容を的確且つ迅速に把握して、操作者の意図に沿った機器の制御を精度良く実施することができる。また、特徴量の予測は、操作者により規定の形状で人体の一部を提示させ、そのときの画像から計測される特徴量に基づいて、他の形状での人体の一部の特徴量を予測するといった手法で行っているので、操作者に煩雑な操作を強いることもなく、簡便な操作で高精度な機器の制御が実現できる。   According to the present invention, when a part of the human body is presented in an arbitrary shape by the operator, the feature amount measured from the image at that time, and the feature amount information indicating the feature amount predicted in advance , The shape of a part of the human body presented by the operator is specified, and the device is controlled based on the corresponding operation input information, so that the operation content intended by the operator can be grasped accurately and quickly. Thus, it is possible to accurately control the device in accordance with the operator's intention. In addition, the prediction of the feature amount allows the operator to present a part of the human body in a prescribed shape, and based on the feature amount measured from the image at that time, the feature amount of the part of the human body in another shape Since it is performed by the method of predicting, it is possible to realize high-precision device control with a simple operation without forcing the operator to perform complicated operations.

以下、本発明を実施するための最良の形態として、車両に搭載された各種車載機器を制御する車載機器制御装置に本発明を適用した例について、図面を参照しながら詳細に説明する。   Hereinafter, an example in which the present invention is applied to an in-vehicle device control apparatus that controls various in-vehicle devices mounted on a vehicle will be described in detail with reference to the drawings as the best mode for carrying out the present invention.

先ず、本発明を適用した車載機器制御装置の構成を、図1を参照して説明する。この車載機器制御装置は、車両に搭載された車載機器、例えばナビゲーション装置やハンズフリー電話、オーディオ装置、エアコン装置等の各種車載機器の制御を一括して行うものであり、特に、車両の運転者等の操作者が提示する手指の形状からこの操作者が意図する操作内容を把握して、これに応じて機器の制御を行うものである。   First, the configuration of an in-vehicle device control apparatus to which the present invention is applied will be described with reference to FIG. This in-vehicle device control apparatus collectively controls various in-vehicle devices such as a navigation device, a hands-free telephone, an audio device, an air conditioner device, etc. mounted on a vehicle. For example, the operation content intended by the operator is grasped from the shape of the finger presented by the operator, and the device is controlled accordingly.

この車載機器制御装置は、図1に示すように、手指支持台(撮像対象支持手段)1、遠赤外線カメラ(撮像手段)2、面積計測部(特徴量計測手段)3、タイミング指示部(報知手段)4、キャリブレーションスイッチ(予測処理開始スイッチ)5、手指面積予測部(特徴量予測手段)6、キャリブレーションデータ記憶部(特徴量情報記憶手段)7、情報判断部(形状特定手段)8、機器制御部(制御手段)9を備えて構成される。   As shown in FIG. 1, this in-vehicle device control apparatus includes a finger support base (imaging target support means) 1, a far-infrared camera (imaging means) 2, an area measurement section (feature quantity measurement means) 3, a timing instruction section (notification) Means) 4, calibration switch (prediction process start switch) 5, finger area prediction unit (feature amount prediction unit) 6, calibration data storage unit (feature amount information storage unit) 7, information determination unit (shape specifying unit) 8 The device control unit (control means) 9 is provided.

手指支持台1は、撮像対象となる操作者の手指が載置される台である。この手指支持台1は、操作者の手指を所定の位置にて支持して、遠赤外線カメラ2と操作者の手指との間の距離を所定の距離に保つ機能を有しており、車両の運転者が手指を置き易いように、例えば車両内部のセンターコンソール部等に設置される。   The finger support 1 is a table on which the operator's fingers to be imaged are placed. The finger support 1 supports the operator's fingers at a predetermined position, and has a function of keeping the distance between the far-infrared camera 2 and the operator's fingers at a predetermined distance. In order to make it easier for the driver to place his / her fingers, the driver is installed, for example, in a center console section inside the vehicle.

また、この手指支持台1には、情報入力開始スイッチ10が設けられており、操作者によりこの情報入力開始スイッチ10が押下されることによって、手指支持台1上に載置された操作者の手指を撮像対象とした遠赤外線カメラ2による画像の撮像が開始されるようになっている。   In addition, the finger support base 1 is provided with an information input start switch 10, and when the operator presses the information input start switch 10, the operator's finger placed on the finger support base 1. Imaging of an image by the far-infrared camera 2 for imaging a finger is started.

遠赤外線カメラ2は、手指支持台1上に載置された操作者の手指を撮像対象として、その画像を撮像するものであり、車両内部の所定の位置に固定されている。この遠赤外線カメラ2は、被写体にて反射される遠赤外光をイメージセンサにて受光して、その強度に応じた画像を出力する。ここで、被写体にて反射される遠赤外光の強度は被写体の温度に依存しているので、遠赤外線カメラ2によって撮像された画像は、被写体の温度差を反映した画像となる。   The far-infrared camera 2 captures an image of an operator's finger placed on the finger support 1 as an imaging target, and is fixed at a predetermined position inside the vehicle. The far-infrared camera 2 receives far-infrared light reflected by a subject with an image sensor and outputs an image corresponding to the intensity. Here, since the intensity of the far-infrared light reflected by the subject depends on the temperature of the subject, the image captured by the far-infrared camera 2 is an image reflecting the temperature difference of the subject.

この遠赤外線カメラ2は、操作者によって情報入力開始スイッチ10が押下されてから所定時間が経過した後に、手指支持台1上に載置された操作者の手指を撮像するようになっている。この遠赤外線カメラ2により撮像された画像は、面積計測部3へと送られる。   The far-infrared camera 2 captures an operator's fingers placed on the finger support 1 after a predetermined time has elapsed since the information input start switch 10 was pressed by the operator. An image captured by the far-infrared camera 2 is sent to the area measuring unit 3.

面積計測部3は、遠赤外線カメラ2によって撮像された画像を解析して、この画像から操作者の手指に相当する部分を抽出し、その手指に相当する部分の面積を計測するものである。遠赤外線カメラ2によって撮像された画像は、上述したように、被写体の温度差を反映した画素値の強度分布として捉えられる。ここで、本発明を適用した車載機器制御装置において、遠赤外線カメラ2によって撮像されるのは、手指支持台1上に載置された操作者の手指であり、背景となる手指支持台1と撮像対象となる操作者の手指との間に明らかな温度差があるので、これらの温度差を反映した画素値の差から、遠赤外線カメラ2によって撮像された画像の中で操作者の手指に相当する部分を容易に抽出することができる。   The area measuring unit 3 analyzes the image captured by the far-infrared camera 2, extracts a portion corresponding to the operator's finger from this image, and measures the area of the portion corresponding to the finger. As described above, the image captured by the far-infrared camera 2 is captured as an intensity distribution of pixel values reflecting the temperature difference of the subject. Here, in the in-vehicle device control apparatus to which the present invention is applied, what is imaged by the far-infrared camera 2 is an operator's fingers placed on the finger support base 1, and the background of the finger support base 1 Since there is a clear temperature difference between the finger of the operator to be imaged, the difference between the pixel values reflecting these temperature differences causes the finger of the operator in the image captured by the far-infrared camera 2. The corresponding part can be easily extracted.

面積計測部3では、以上の観点から、遠赤外線カメラ2によって撮像された画像に対して、所定の閾値(例えば36℃相当の画素値)を用いて2値化処理を行うことで、遠赤外線カメラ2によって撮像された画像から操作者の手指に相当する部分を抽出するようにしている。そして、この撮像対象である操作者の手指の特徴量として、抽出した手指に相当する部分の面積を計測するようにしている。   From the above viewpoint, the area measurement unit 3 performs binarization processing on an image captured by the far-infrared camera 2 using a predetermined threshold (for example, a pixel value corresponding to 36 ° C.), thereby far-infrared. A portion corresponding to the finger of the operator is extracted from the image captured by the camera 2. Then, the area of the portion corresponding to the extracted finger is measured as the feature amount of the finger of the operator who is the imaging target.

タイミング指示部4は、例えば図示しないブザーによるビープ音の鳴動等によって、遠赤外線カメラ2による撮像タイミングを操作者に報知するものである。すなわち、タイミング指示部4は、操作者によって情報入力開始スイッチ10が押下された後、実際に遠赤外線カメラ2によって手指支持台1上に載置された操作者の手指を撮像するタイミングでビープ音等を出力する。これにより、操作者は、遠赤外線カメラ2による撮像タイミングを認識することができ、撮像中は手指の動きを止めるといった対応を図ることが可能となる。   The timing instruction unit 4 notifies the operator of the imaging timing of the far-infrared camera 2 by, for example, a beep sound generated by a buzzer (not shown). That is, after the information input start switch 10 is pressed by the operator, the timing instructing unit 4 beeps at the timing when the far-infrared camera 2 actually images the finger of the operator placed on the finger support 1. Etc. are output. Thereby, the operator can recognize the imaging timing by the far-infrared camera 2 and can take measures such as stopping the movement of fingers during imaging.

また、タイミング指示部4は、操作者に対して手指を提示させるための指示を図示しないスピーカよりアナウンスする機能も有している。すなわち、タイミング指示部4は、詳細を後述するキャリブレーションを実施する際には、キャリブレーションスイッチ5及び情報入力開始スイッチ10が押下されたときに、キャリブレーションを行うための手指形状として予め規定された形状で手指を提示する旨の指示、例えば「0を提示して下さい。」といったアナウンスや、「5を提示して下さい。」といったアナウンスを行う。また、タイミング指示部4は、実際に機器の制御を実施するために操作者に手指の提示を求める際には、情報入力開始スイッチ10が押下されたときに、操作者の意図に沿った任意の形状で手指を提示する旨の指示、例えば「番号を提示して下さい。」といったアナウンスを行う。このように、手指を提示させるための指示がタイミング指示部4によりアナウンスされることで、操作者は、このアナウンスに従って手指を提示すればよく、操作者の負担が低減されることになる。   The timing instruction unit 4 also has a function of announcing an instruction for presenting fingers to the operator from a speaker (not shown). That is, the timing instruction unit 4 is preliminarily defined as a finger shape for performing calibration when the calibration switch 5 and the information input start switch 10 are pressed when performing calibration described in detail later. An instruction to present a finger in a different shape, such as an announcement “Please present 0” or “Please present 5.” is given. In addition, when the timing input unit 4 requests the operator to present a finger to actually control the device, when the information input start switch 10 is pressed, the timing instructing unit 4 is arbitrarily set according to the operator's intention. An instruction to present a finger in the form of, for example, “Please present your number” is given. As described above, when the instruction for presenting the finger is announced by the timing instruction unit 4, the operator may present the finger according to the announcement, and the burden on the operator is reduced.

キャリブレーションスイッチ5は、キャリブレーションを開始させるためのスイッチである。ここで、本発明を適用した車載機器制御装置におけるキャリブレーションとは、実際に機器の制御を行う際に操作者により提示された手指形状を簡便且つ高精度に特定できるようにするために、事前に、規定の形状で手指を提示させて、それを赤外線カメラ2で撮像し、面積計測部3においてその画像から手指部分の面積を計測して、その計測値に基づいて手指面積予測部6において他の手指形状が提示された場合の手指部分の面積を予測し、提示可能な各手指形状とその面積とを対応付けてキャリブレーションデータとしてキャリブレーションデータ記憶部7に記憶させる一連の処理をいう。このようなキャリブレーションは、例えば、本発明を適用した車載機器制御装置の起動時や、操作者が他の操作者に代わったとき等に、キャリブレーションスイッチ5が押下されたことをトリガとして実施される。   The calibration switch 5 is a switch for starting calibration. Here, the calibration in the in-vehicle device control apparatus to which the present invention is applied means that the finger shape presented by the operator when actually controlling the device can be easily and accurately specified in advance. Then, the finger is presented in a prescribed shape, captured by the infrared camera 2, the area measurement unit 3 measures the area of the finger part from the image, and the finger area prediction unit 6 based on the measured value This refers to a series of processes for predicting the area of the finger portion when another finger shape is presented, and storing each of the hand shapes that can be presented and their areas in the calibration data storage unit 7 as calibration data. . Such calibration is performed, for example, when the calibration switch 5 is pressed as a trigger when the on-vehicle device control apparatus to which the present invention is applied or when the operator is replaced with another operator. Is done.

なお、本例では、階層構造の操作メニューから項目を順次選択することによって機器の制御が実現され、各操作メニューでは、各項目が0〜5までの番号で選択できるようにした車載機器制御装置を前提として説明する。したがって、この車載機器制御装置において提示可能な手指形状は、番号「0」を指定するために全ての指を結んでいるグー形状、番号「1」を指定するための指を1本伸ばした形状、番号「2」を指定するための指を2本伸ばした形状、番号「3」を指定するための指を3本伸ばした形状、番号「4」を指定するための指を4本伸ばした形状、番号「5」を指定するために全ての指を開いているパー形状である。   In this example, device control is realized by sequentially selecting items from a hierarchical operation menu, and each item can be selected with a number from 0 to 5 in each operation menu. It will be explained on the assumption. Therefore, the finger shape that can be presented in this in-vehicle device control device is a goo shape in which all fingers are tied to designate the number “0”, and a shape in which one finger is designated to designate the number “1”. , A shape in which two fingers for specifying the number “2” are extended, a shape in which three fingers for specifying the number “3” are extended, and four fingers in order to specify the number “4” are extended The shape is a par shape in which all fingers are opened to designate the number “5”.

手指面積予測部6は、キャリブレーション実施時に、規定形状の手指の画像から計測された手指部分の面積に基づき、操作者の手指が他の形状で提示されたときの手指の面積を予測するものである。遠赤外線カメラ2によって撮像された画像における手指部分の面積は、一般に、グー形状を提示したとき、指を1本伸ばした形状を提示したとき、指を2本伸ばした形状を提示したとき、指を3本伸ばした形状を提示したとき、指を4本伸ばした形状を提示したとき、パー形状を提示したときの順で、単調増加することになる。したがって、これらの手指形状のうちで代表的な形状の面積を予め計測して面積変化の関数を予測し、これを各手指形状に当てはめれば、提示可能な各手指形状で手指が提示されたときの手指面積を予測することが可能である。   The finger area prediction unit 6 predicts the area of the finger when the operator's finger is presented in another shape based on the area of the finger part measured from the image of the finger of the prescribed shape when performing calibration. It is. In general, the area of the finger portion in the image captured by the far-infrared camera 2 is such that when a goo shape is presented, when a shape with one finger extended is presented, when a shape with two fingers extended is presented, When a shape obtained by extending three fingers is presented, when a shape obtained by stretching four fingers is presented, the number increases monotonously in the order in which the par shape is presented. Therefore, by measuring the area of a typical shape among these finger shapes in advance and predicting a function of area change, and applying this to each finger shape, the finger is presented in each possible finger shape. It is possible to predict the finger area at the time.

手指面積予測部6では、以上の観点から、例えば、規定の形状としてグー形状が提示されたときの手指面積と、規定の形状としてパー形状が提示されたときの手指面積とに基づいて、指を1本伸ばした形状での手指の面積と、指を2本伸ばした形状での手指の面積と、指を3本伸ばした形状での手指の面積と、指を4本伸ばした形状での手指の面積とをそれぞれ予測するようにしている。   In the finger area prediction unit 6, from the above viewpoint, for example, based on the finger area when the goo shape is presented as the prescribed shape and the finger area when the par shape is presented as the prescribed shape, The area of the finger with the shape of one finger extended, the area of the finger with the shape of two fingers extended, the area of the finger with the shape of three fingers extended, and the shape of the fingers extended with four fingers The finger area is predicted.

キャリブレーションデータ記憶部7は、キャリブレーション実施時に計測された規定形状の手指面積と、この規定形状の手指面積に基づいて手指面積予測部6にて予測された他の形状の手指面積とを、それぞれ手指の形状に対応付けて、キャリブレーションデータ(特徴量情報)として記憶するものである。具体的には、例えば、キャリブレーション実施時に、規定の形状としてグー形状が提示されたときの手指面積S0と、規定の形状としてパー形状が提示されたときの手指面積S5とがそれぞれ面積計測部3により計測され、これらの手指面積S0,S5に基づき、指を1本伸ばした形状での手指面積S1と、指を2本伸ばした形状での手指面積S2と、指を3本伸ばした形状での手指面積S3と、指を4本伸ばした形状での手指面積S4とがそれぞれ手指面積予測部6によって予測されると、キャリブレーションデータ記憶部7には、これらの手指面積S0,S1,S2,S3,S4,S5がそれぞれ各手指形状と対応付けられて、キャリブレーションデータとして記憶される。   The calibration data storage unit 7 calculates the finger area of the prescribed shape measured at the time of calibration and the finger area of another shape predicted by the finger area prediction unit 6 based on the finger area of the prescribed shape. Each is stored as calibration data (feature information) in association with the shape of the finger. Specifically, for example, when calibration is performed, the finger area S0 when the goo shape is presented as the prescribed shape and the finger area S5 when the par shape is presented as the prescribed shape are respectively the area measurement units. 3 and based on these finger areas S0 and S5, a finger area S1 with one finger extended, a finger area S2 with two fingers extended, and a shape with three fingers extended When the finger area prediction unit 6 predicts the finger area S3 in the shape of four fingers and the finger area S4 in a shape in which four fingers are extended, the calibration data storage unit 7 stores these finger areas S0, S1, and S4. S2, S3, S4 and S5 are associated with each finger shape and stored as calibration data.

情報判断部8は、キャリブレーションを行った後に実際に機器の制御を実施する際に、操作者により任意の形状で提示された手指の面積をキャリブレーションデータとつき合わせて、その手指形状を特定し、それに対応した操作入力情報を判定するものである。すなわち、実際に機器の制御を実施する際には、操作者は、操作メニューから所望の項目を指定するために、その項目の番号に応じた任意の形状で手指を提示する。そして、その操作者の手指の画像が遠赤外線カメラ2によって撮像され、面積計測部3によってその画像から手指部分の面積が計測される。このとき、情報判断部8は、キャリブレーションデータ記憶部7よりキャリブレーションデータを読み出し、面積計測部3によって計測された手指面積と、このキャリブレーションデータとを比較して、操作者により提示された手指形状を特定する。   The information determination unit 8 identifies the finger shape by matching the area of the finger presented in an arbitrary shape by the operator with the calibration data when the device is actually controlled after calibration. Then, the operation input information corresponding to it is determined. That is, when actually controlling the device, the operator presents a finger in an arbitrary shape corresponding to the number of the item in order to designate a desired item from the operation menu. Then, an image of the operator's finger is picked up by the far-infrared camera 2, and the area measurement unit 3 measures the area of the finger part from the image. At this time, the information determination unit 8 reads the calibration data from the calibration data storage unit 7, compares the finger area measured by the area measurement unit 3 with the calibration data, and is presented by the operator. Specify finger shape.

具体的には、情報判断部8は、面積計測部3によって操作者により任意の形状で提示された手指の面積Sが計測されると、この計測された手指面積Sが、S0−ΔS≦S<S0+ΔS、S1−ΔS≦S<S1+ΔS、S2−ΔS≦S<S2+ΔS、S3−ΔS≦S<S3+ΔS、S4−ΔS≦S<S4+ΔS、S5−ΔS≦S<S5+ΔSの何れの区間に属するかを判定することによって、操作者により提示された手指の形状を特定する。なお、ΔSは、キャリブレーションデータから予測した値と、実際の値とのずれを吸収するために設定した定数である。ここで、仮に、面積計測部3によって計測された手指面積Sが、S1−ΔS≦S<S1+ΔSの範囲に属すると判定された場合には、情報判断部8は、操作者により提示された手指形状は指を1本伸ばした形状であると判断し、これに対応した操作入力情報、すなわち番号「1」が指定されたものと判定する。   Specifically, when the area S of the finger presented in an arbitrary shape by the operator is measured by the area measurement unit 3, the information determination unit 8 determines that the measured finger area S is S0−ΔS ≦ S. <S0 + ΔS, S1-ΔS ≦ S <S1 + ΔS, S2-ΔS ≦ S <S2 + ΔS, S3-ΔS ≦ S <S3 + ΔS, S4-ΔS ≦ S <S4 + ΔS, S5-ΔS ≦ S <S5 + ΔS By determining, the shape of the finger presented by the operator is specified. Note that ΔS is a constant set to absorb the deviation between the value predicted from the calibration data and the actual value. Here, if it is determined that the finger area S measured by the area measurement unit 3 belongs to the range of S1−ΔS ≦ S <S1 + ΔS, the information determination unit 8 displays the finger presented by the operator. It is determined that the shape is a shape with one finger extended, and it is determined that the operation input information corresponding to this, that is, the number “1” is designated.

機器制御部9は、情報判断部8により特定された操作者の手指形状に対応した操作入力情報に基づいて、車両に搭載された各種車載機器の制御を実行するものである。すなわち、本発明を適用した車載機器制御装置で扱われる操作入力情報(例えば番号0〜5)には、それぞれ各種車載機器を制御するための制御コマンドが割り当てられており、機器制御部9は、情報判断部8によって操作者の意図に沿った操作入力情報が判定されると、その操作入力情報に対応した制御コマンドを認識して、その制御コマンドに従って各種車載機器の制御を実行する。   The device control unit 9 controls various in-vehicle devices mounted on the vehicle based on operation input information corresponding to the finger shape of the operator specified by the information determination unit 8. That is, control commands for controlling various in-vehicle devices are assigned to the operation input information (for example, numbers 0 to 5) handled by the in-vehicle device control apparatus to which the present invention is applied. When the operation input information according to the operator's intention is determined by the information determination unit 8, the control command corresponding to the operation input information is recognized, and various in-vehicle devices are controlled according to the control command.

次に、以上のように構成される本発明を適用した車載機器制御装置の動作について、図2乃至図4を参照して具体的に説明する。なお、図2はキャリブレーションを実施する際の具体的な処理の流れの一例を示すフローチャートであり、図3は実際に車載機器の制御を実行する際の具体的な処理の流れの一例を示すフローチャートである。また、図4は車載機器の制御を実行する際に表示される操作画面の遷移例を示す図である。   Next, the operation of the in-vehicle device control apparatus to which the present invention configured as described above is applied will be specifically described with reference to FIGS. FIG. 2 is a flowchart showing an example of a specific processing flow when performing calibration, and FIG. 3 shows an example of a specific processing flow when actually controlling the in-vehicle device. It is a flowchart. FIG. 4 is a diagram illustrating a transition example of the operation screen displayed when the control of the in-vehicle device is executed.

先ず、キャリブレーション実施時の動作を説明する。キャリブレーションは、図2に示すように、操作者によってキャリブレーションスイッチ5が押下されたことをトリガとして開始される(ステップS1−1)。そして、操作者が手指を手指支持台1上に載せ、情報入力開始スイッチ10を押下すると(ステップS1−2)、所定時間経過後(例えば1秒後)に、タイミング指示部4が「0を提示して下さい。」というメッセージをアナウンスする(ステップS1−3)。これに応じて、操作者は、手指支持台1上に載せた手指をグー形状にする。   First, the operation when performing calibration will be described. As shown in FIG. 2, the calibration is triggered by the press of the calibration switch 5 by the operator (step S1-1). When the operator places his / her finger on the finger support 1 and depresses the information input start switch 10 (step S1-2), the timing instruction unit 4 sets “0” after a predetermined time (for example, 1 second). Please present me "message (step S1-3). In response to this, the operator makes the fingers placed on the finger support base 1 goo-shaped.

タイミング指示部4は、「0を提示して下さい。」というメッセージをアナウンスした後に更に所定時間(例えば1秒)経過すると、ビープ音を出力する(ステップS1−4)。そして、タイミング指示部4によるビープ音の鳴動が終了すると同時に、遠赤外線カメラ2が、手指支持台1上に載置された操作者の手指の画像を撮像する(ステップS1−5)。そして、この画像が面積計測部3に送られる。   The timing instruction unit 4 outputs a beep sound when a predetermined time (for example, 1 second) elapses after announcing the message “Please present 0” (step S1-4). Then, at the same time as the beep sound by the timing instruction unit 4 ends, the far-infrared camera 2 captures an image of the operator's finger placed on the finger support 1 (step S1-5). Then, this image is sent to the area measuring unit 3.

面積計測部3は、遠赤外線カメラ2によって撮像された画像が入力されると、この画像に対して所定の閾値(例えば36℃相当の画素値)を用いた2値化処理を行って、この画像の中から操作者の手指に相当する部分を抽出し(ステップS1−6)、その手指部分の面積を計測する(ステップS1−7)。以上の処理により、操作者により提示されたグー形状の手指の面積S0が計測されたことになる。   When the image captured by the far-infrared camera 2 is input, the area measuring unit 3 performs a binarization process using a predetermined threshold (for example, a pixel value corresponding to 36 ° C.) on the image, A portion corresponding to the finger of the operator is extracted from the image (step S1-6), and the area of the finger portion is measured (step S1-7). With the above processing, the area S0 of the goo-shaped finger presented by the operator is measured.

グー形状の手指面積S0が計測されると、次に、タイミング指示部4は「5を提示して下さい。」というメッセージをアナウンスする(ステップS1−8)。これに応じて、操作者は、手指支持台1上に載せた手指をパー形状にする。その後、所定時間(例えば1秒)経過したときにタイミング指示部4がビープ音を出力し(ステップS1−9)、このビープ音の鳴動が終了すると同時に、遠赤外線カメラ2が手指支持台1上に載置された操作者の手指の画像を撮像する(ステップS1−10)。そして、その画像が面積計測部3に送られる。   When the goo-shaped finger area S0 is measured, the timing instruction unit 4 next announces a message “Please show 5” (step S1-8). In response to this, the operator puts the finger placed on the finger support base 1 into a par shape. Thereafter, when a predetermined time (for example, 1 second) elapses, the timing instruction unit 4 outputs a beep sound (step S1-9), and at the same time as the beep sound ends, the far-infrared camera 2 is placed on the finger support base 1. An image of the finger of the operator placed on the camera is taken (step S1-10). Then, the image is sent to the area measuring unit 3.

面積計測部3は、遠赤外線カメラ2によって撮像された画像が入力されると、ステップS1−6と同様に、この画像に対して2値化処理を行って操作者の手指に相当する部分を抽出し(ステップS1−11)、その手指部分の面積を計測する(ステップS1−12)。以上の処理により、操作者により提示されたパー形状の手指の面積S5が計測されたことになる。   When the image captured by the far-infrared camera 2 is input, the area measuring unit 3 performs a binarization process on the image to display a portion corresponding to the finger of the operator, as in step S1-6. Extraction is performed (step S1-11), and the area of the finger portion is measured (step S1-12). With the above processing, the area S5 of the par-shaped finger presented by the operator is measured.

グー形状の手指面積S0及びパー形状の手指面積S5の計測が終了すると、次に、手指面積予測部6が、これらグー形状での手指面積S0及びパー形状での手指面積S5に基づいて、指を1本伸ばした形状での手指面積S1と、指を2本伸ばした形状での手指面積S2と、指を3本伸ばした形状での手指面積S3と、指を4本伸ばした形状での手指面積S4とをそれぞれ予測する(ステップS1−13)。そして、これら各形状での手指面積S0,S1,S2,S3,S4,S5の情報が、それぞれ各手指形状と対応付けられて、キャリブレーションデータとしてキャリブレーションデータ記憶部7に記憶される(ステップS1−14)。   When the measurement of the goo-shaped finger area S0 and the par-shaped finger area S5 is completed, the finger-area predicting unit 6 then determines the finger based on the goo-shaped finger area S0 and the par-shaped finger area S5. Finger area S1 in the shape of extending one finger, finger area S2 in the shape of extending two fingers, finger area S3 in the shape of extending three fingers, and in the shape of extending four fingers The finger area S4 is predicted (step S1-13). Information on the finger areas S0, S1, S2, S3, S4, and S5 in each shape is associated with each finger shape and stored in the calibration data storage unit 7 as calibration data (Step S1). S1-14).

そして、最後に、タイミング指示部4が「キャリブレーションが終了しました。」というメッセージをアナウンスして(ステップS1−15)、キャリブレーション実施時における一連の処理が終了する。キャリブレーションが終了すると、その後、実際に車載機器の制御を実行する処理に移行する。   Finally, the timing instruction unit 4 announces a message “Calibration is completed” (step S1-15), and a series of processes at the time of performing calibration is completed. When the calibration is completed, the process proceeds to a process for actually controlling the in-vehicle device.

次に、予め登録されている登録地情報からナビゲーション装置の目的地設定を行う場合を例に挙げて、実際に車載機器の制御を実行する際の動作について具体的に説明する。   Next, taking as an example a case where the destination setting of the navigation device is performed from registered location information registered in advance, an operation when actually controlling the in-vehicle device will be specifically described.

この場合、図3に示すように、先ず、操作者が手指を手指支持台1上に載せて、情報入力開始スイッチ10を押下すると(ステップS2−1)、これをトリガとして車載機器の制御を実行する処理が開始されて、例えば図4(a)に示すような最上位の階層の操作画面が表示される(ステップS2−2)。この操作画面では、「目的地設定」、「地図表示」、「ハンズフリー電話」、「オーディオ操作」、「エアコン操作」の各操作項目と、これら各操作項目に対応付けられた番号「1」〜「5」とが表示され、これらの番号を指定することで、対応した操作項目を選択できるようになっている。   In this case, as shown in FIG. 3, first, when the operator places his / her finger on the finger support 1 and depresses the information input start switch 10 (step S2-1), the control of the in-vehicle device is triggered by this. The process to be executed is started, and an operation screen of the highest hierarchy as shown in FIG. 4A, for example, is displayed (step S2-2). In this operation screen, the operation items of “Destination setting”, “Map display”, “Hands-free phone”, “Audio operation”, “Air conditioner operation”, and the number “1” associated with these operation items are displayed. ~ "5" are displayed, and by specifying these numbers, the corresponding operation items can be selected.

図4(a)に示すような最上位の階層の操作画面が表示されると、これと同時に、タイミング指示部4が「番号を提示して下さい。」というメッセージをアナウンスする(ステップS2−3)。これに応じて、操作者は、手指支持台1上に載せた手指を、選択する操作項目に対応した番号を示す形状にする。ここでは、ナビゲーション装置の目的地設定を行うので、操作者は、これに対応した番号「1」を指定するために、指を1本伸ばした手指形状とする。   When the operation screen of the highest hierarchy as shown in FIG. 4A is displayed, at the same time, the timing instructing unit 4 announces a message “please present a number” (step S2-3). ). In response to this, the operator puts the finger placed on the finger support base 1 into a shape indicating a number corresponding to the operation item to be selected. Here, since the destination of the navigation device is set, the operator assumes a finger shape with one finger extended in order to designate the number “1” corresponding to the destination.

タイミング指示部4は、「番号を提示して下さい。」というメッセージをアナウンスした後に所定時間(例えば1秒)経過すると、ビープ音を出力する(ステップS2−4)。そして、タイミング指示部4によるビープ音の鳴動が終了すると同時に、遠赤外線カメラ2が、手指支持台1上に載置された操作者の手指の画像を撮像する(ステップS2−5)。そして、この画像が面積計測部3に送られる。   The timing instructing unit 4 outputs a beep sound when a predetermined time (for example, 1 second) elapses after announcing the message “please show the number” (step S2-4). Then, at the same time as the beep sound by the timing instruction unit 4 is finished, the far-infrared camera 2 captures an image of the operator's finger placed on the finger support 1 (step S2-5). Then, this image is sent to the area measuring unit 3.

面積計測部3は、遠赤外線カメラ2によって撮像された画像が入力されると、キャリブレーション実施時と同様に、この画像に対して2値化処理を行って操作者の手指に相当する部分を抽出し(ステップS2−6)、その手指部分の面積を計測する(ステップS2−7)。以上の処理により、操作者により提示された手指形状の面積Sが計測されたことになる。ここでは、操作者が指を1本伸ばした手指形状としているので、その手指面積が面積計測部3により計測される。   When the image captured by the far-infrared camera 2 is input, the area measuring unit 3 performs a binarization process on the image and performs processing corresponding to the operator's finger as in the calibration. Extraction is performed (step S2-6), and the area of the finger portion is measured (step S2-7). With the above processing, the finger-shaped area S presented by the operator is measured. Here, since the operator has a finger shape with one finger extended, the area measurement unit 3 measures the finger area.

操作者により提示された手指形状の面積Sが計測されると、次に、情報判断部8が、この計測された手指面積Sと、キャリブレーションデータ記憶部7に記憶されたキャリブレーションデータとを比較して、操作者により提示された手指形状を特定し(ステップS2−8)、その手指形状に対応した番号(操作入力情報)を判定する(ステップS2−9)。ここでは、操作者が指を1本伸ばした手指形状の面積が面積計測部3によって計測されているので、情報判断部8によって、操作者により提示された手指形状は指を1本伸ばした形状であると判断されて、これに対応した操作入力情報、すなわち番号「1」が指定されたものと判定される。   When the area S of the finger shape presented by the operator is measured, the information determination unit 8 then calculates the measured finger area S and the calibration data stored in the calibration data storage unit 7. In comparison, the finger shape presented by the operator is specified (step S2-8), and the number (operation input information) corresponding to the finger shape is determined (step S2-9). Here, since the area of the finger shape obtained by the operator extending one finger is measured by the area measuring unit 3, the finger shape presented by the operator by the information determining unit 8 is a shape obtained by extending one finger. It is determined that the operation input information corresponding to this, that is, the number “1” is designated.

情報判断部8によって操作者が提示した手指形状に対応した番号(操作入力情報)が判定されると、その番号に応じた操作が実行されることになる。このとき、表示されている操作画面よりも下位の階層の操作画面がある場合には、番号に応じた操作は、下位の階層の操作画面の表示であるので、下位の階層の操作画面があるかどうかを判断して(ステップS2−10)、下位の階層の操作画面がある場合には、ステップS2−2に戻って番号に対応した操作画面を表示する。そして、以降、同様の処理が繰り返し行われる。その後、最下層の操作画面を表示している状態で、操作者が提示した手指形状に対応した番号が判定されたときに、機器制御部9が、その番号に対応した制御コマンドに従って各種車載機器の制御を実行する(ステップS2−11)。   When the information determination unit 8 determines a number (operation input information) corresponding to the finger shape presented by the operator, an operation corresponding to the number is executed. At this time, if there is a lower level operation screen than the displayed operation screen, the operation corresponding to the number is a display of the lower level operation screen, and therefore there is a lower level operation screen. (Step S2-10), if there is a lower level operation screen, the process returns to step S2-2 to display the operation screen corresponding to the number. Thereafter, the same processing is repeatedly performed. After that, when the number corresponding to the finger shape presented by the operator is determined in the state where the lowest-level operation screen is displayed, the device control unit 9 performs various in-vehicle devices according to the control command corresponding to the number. The control is executed (step S2-11).

ここでは、先ず、図4(a)に示した最上位の操作画面が表示されている状態で、操作者により提示された手指形状から番号「1」が判定されたので、ステップS2−2に戻って、図4(b)に示すような目的地設定に関する各操作項目を列挙した操作画面が表示される。この操作画面では、「自宅に帰る」、「登録地から探す」、「最近の目的地から探す」、「施設から探す」、「電話番号から探す」といった目的地設定に関する各操作項目と、これら各操作項目に対応付けられた番号「1」〜「5」とが表示され、これらの番号を指定することで、対応した操作項目を選択できるようになっている。   Here, first, the number “1” is determined from the finger shape presented by the operator in the state where the highest-level operation screen shown in FIG. Returning, an operation screen listing the operation items related to the destination setting as shown in FIG. 4B is displayed. In this operation screen, the operation items related to destination settings such as “Return to home”, “Search from registered location”, “Search from recent destination”, “Search from facility”, “Search from phone number”, etc. Numbers “1” to “5” associated with each operation item are displayed, and by designating these numbers, the corresponding operation item can be selected.

その後、ステップS2−3からステップS2−9の処理によって、操作者が提示した手指形状に対応した番号が「2」であると判定されると、再度ステップS2−2に戻って、更に下位の階層の操作画面として、図4(c)に示すような操作画面、すなわち予め登録されている登録地を一覧表示した操作画面が表示される。この操作画面では、予め登録されている登録地として、「自宅」、「会社」、「××デパート」、「○○レストラン」といった項目が表示され、また、他のページで登録地を探すための「前頁」、「次頁」といった項目が表示されている。また、これらの各項目に対応付けられた番号「0」〜「5」が表示され、これらの番号を指定することで、対応した項目を選択できるようになっている。なお、これらの各項目のうち、「前頁」と「次頁」は車両の走行中は非表示とし、車両が停止中のみ選択できるようにしてもよい。   Thereafter, when it is determined by the processing from step S2-3 to step S2-9 that the number corresponding to the finger shape presented by the operator is “2”, the process returns to step S2-2 again, and further lower-order. As a hierarchical operation screen, an operation screen as shown in FIG. 4C, that is, an operation screen displaying a list of registered locations registered in advance is displayed. In this operation screen, items such as “Home”, “Company”, “XX Department Store”, “XX Restaurant” are displayed as pre-registered registration locations, and to search for registration locations on other pages Items such as “previous page” and “next page” are displayed. Also, numbers “0” to “5” associated with these items are displayed, and by designating these numbers, the corresponding items can be selected. Of these items, “previous page” and “next page” may not be displayed while the vehicle is running, and may be selected only when the vehicle is stopped.

その後、ステップS2−3からステップS2−9の処理によって、操作者が提示した手指形状に対応した番号が「4」であると判定されると、再度ステップS2−2に戻って、図4(d)に示すように、番号「4」に対応した登録地である「○○レストラン」周辺の地図が表示され、更に図4(e)に示すように、この地図上に目的地設定メニューを重畳した最下層の操作画面が表示される。この最下層の操作画面では、「ここに行く」、「ここに電話をかける」、「情報を見る」といった目的地設定に関する各操作項目と、これら各操作項目に対応付けられた番号「1」〜「3」とが表示され、これらの番号を指定することで、対応した操作項目を選択できるようになっている。   Thereafter, when it is determined by the processing from step S2-3 to step S2-9 that the number corresponding to the finger shape presented by the operator is “4”, the process returns to step S2-2 again, and FIG. As shown in FIG. 4D, a map around “XX restaurant”, which is a registered place corresponding to the number “4”, is displayed, and a destination setting menu is displayed on this map as shown in FIG. The superimposed lowermost operation screen is displayed. In this lowermost operation screen, each operation item related to the destination setting such as “go here”, “call here”, “view information”, and the number “1” associated with each operation item. ~ "3" is displayed, and by specifying these numbers, the corresponding operation items can be selected.

その後、ステップS2−3からステップS2−9の処理によって、操作者が提示した手指形状に対応した番号が「1」であると判定されると、ステップS2−11に移行して、最下層の操作画面における番号「1」に対応した機器の制御、すなわちナビゲーション装置の目的地設定が実行され、経路探索後、経路誘導が開始されることになる。   Thereafter, when it is determined that the number corresponding to the finger shape presented by the operator is “1” by the processing from step S2-3 to step S2-9, the process proceeds to step S2-11, and the lowest layer is displayed. The device corresponding to the number “1” on the operation screen, that is, the destination setting of the navigation device is executed, and the route guidance is started after the route search.

以上説明したように、本発明を適用した車載機器制御装置によれば、事前に規定形状の手指面積から他の形状の手指面積を予測するキャリブレーションを実行し、実際に機器の制御を実施する際には、キャリブレーションにより得られたキャリブレーションデータを用いて操作者により提示された手指形状を特定して、これに応じた機器制御を実施するようにしているので、手指形状の特定を簡便且つ高精度に行うことができ、操作者の意図する操作内容を的確且つ迅速に把握して、操作者の意図に沿った機器の制御を精度良く実施することができる。   As described above, according to the in-vehicle device control apparatus to which the present invention is applied, the calibration for predicting the finger area of another shape from the finger area of the predetermined shape is executed in advance, and the device is actually controlled. In this case, the finger shape presented by the operator is specified using the calibration data obtained by the calibration, and device control corresponding to this is performed. Moreover, it can be performed with high accuracy, and the operation content intended by the operator can be grasped accurately and quickly, and the device can be controlled with high accuracy according to the operator's intention.

特に、操作者の手指形状の特定は、操作者の手指を撮像した画像から手指部分の面積を計測して、この手指部分の面積に基づいて行うようにしているので、例えば、人差し指と中指とを接触させて伸ばして「2」を示した状態と、人差し指のみを伸ばして「1」を示した状態との識別といったように、画像に現れる形状に基づいたパターン認識では正確に識別できない可能性のある形状についても確実に識別することができると共に、手指を提示する方向が変化したときにも安定的にその形状を特定することができる。   In particular, the operator's finger shape is specified by measuring the area of the finger part from an image obtained by imaging the operator's finger and performing the determination based on the area of the finger part. There is a possibility that the pattern recognition based on the shape appearing in the image cannot be accurately identified, such as identifying a state where “2” is indicated by extending the contact and a state where “1” is indicated by extending only the index finger. A certain shape can be reliably identified, and the shape can be stably identified even when the direction in which the finger is presented changes.

また、キャリブレーションは、提示可能ないくつかの手指形状のうちの代表的な形状(例えばグー形状やパー形状)で提示された手指の面積に基づいて、他の形状で提示されたときの手指の面積を予測するといった手法で行っているので、操作者に煩雑な操作を強いることもなく、簡便な操作で高精度な機器の制御が実現できる。   In addition, the calibration is based on the area of the finger presented in a representative shape (for example, goo shape or par shape) out of several possible finger shapes that can be presented. Therefore, it is possible to realize highly accurate device control with a simple operation without forcing the operator to perform complicated operations.

更に、操作者により提示された手指の撮像に遠赤外線カメラ2を用いているので、画像の2値化処理といった単純な画像処理によって、撮像された画像から手指部分を適切に抽出してその面積を計測することができ、また、周囲の明るさに依存することなく手指部分の抽出、手指面積の計測を適切に行うことができる。   Furthermore, since the far-infrared camera 2 is used to capture the finger presented by the operator, the area of the finger is appropriately extracted from the captured image by simple image processing such as binarization processing of the image. In addition, it is possible to appropriately extract the finger part and measure the finger area without depending on the surrounding brightness.

以上、本発明を実施するための最良の形態として、本発明を適用した車載機器制御装置の具体的な一例について説明したが、本発明は、上述した例に限定されるものではなく、様々な変形例が考えられる。   As mentioned above, as a best mode for carrying out the present invention, a specific example of the in-vehicle device control apparatus to which the present invention is applied has been described. However, the present invention is not limited to the above-described example, and various Variations are possible.

例えば、上述した例では、操作者により提示される手指を撮像対象とし、その撮像対象の特徴量として手指の面積を計測して、それに基づいて撮像対象の形状を特定し、操作者の意図に沿った機器の制御を実施するようにしているが、操作者の身体の他の部分を撮像対象としてもよいし、その撮像対象の形状を反映した他の特徴量を計測する構成としてもよい。   For example, in the above-described example, the finger presented by the operator is set as the imaging target, the area of the finger is measured as the feature amount of the imaging target, and the shape of the imaging target is specified based on the measured area. Although the control of the equipment along the line is performed, another part of the operator's body may be set as the imaging target, or another feature amount reflecting the shape of the imaging target may be measured.

また、上述した例では、操作者により提示された手指を遠赤外線カメラ2を用いて撮像するようにしているが、画像の撮像には、例えばCCD(Charge Coupled Device)カメラ等の他の可視光カメラを用いるようにしてもよい。この場合には、手指支持台1の色を人体の色と大きく異なる色にしておけば、画像の色成分に着目して手指部分を適切に抽出することができる。   In the above-described example, the finger presented by the operator is imaged using the far-infrared camera 2, but other visible light such as a CCD (Charge Coupled Device) camera is used for imaging. A camera may be used. In this case, if the color of the finger support base 1 is set to a color that is significantly different from the color of the human body, it is possible to appropriately extract the finger portion by paying attention to the color component of the image.

また、上述した例では、キャリブレーション実施時に、タイミング指示部4が規定された形状で手指を提示する旨の指示を行い、「0を提示して下さい。」といったアナウンスがあったときに操作者がグー形状の手指を提示してその画像を撮像し、「5を提示して下さい。」といったアナウンスがあったときに操作者がパー形状の手指を提示してその画像を撮像するようにしているが、以上のようなタイミング指示部4による指示を行うことなく、遠赤外線カメラ2が所定のインターバルをおいた2つのタイミングで自動的に画像の撮像を行うようにし、これらのタイミングに合わせて操作者にグー形状の手指やパー形状の手指を提示させるようにしてもよい。   Further, in the above-described example, when the calibration is performed, the timing instruction unit 4 gives an instruction to present a finger in a prescribed shape, and when there is an announcement “Please present 0”, the operator Presents a goo-shaped finger and captures the image, and when an announcement such as “Please present 5” is made, the operator presents a par-shaped finger and captures the image. However, the far-infrared camera 2 automatically captures images at two timings with a predetermined interval without giving an instruction from the timing instruction unit 4 as described above, and according to these timings. The operator may be presented with a goo-shaped finger or a par-shaped finger.

また、上述した例では、キャリブレーション実施時に、規定の形状としてグー形状とパー形状の手指を操作者に提示させるようにしているが、キャリブレーションのために提示させる手指形状としては、他の形状を規定しておいてもよい。また、グー形状とパー形状の何れか、或いはその他1つの形状のみを提示させて、それに基づいて他の形状の手指面積を予測するようにしてもよい。なお、1つの形状のみを提示させる場合には、操作者がどのような形状で手指を提示すればよいかを認識できるように、タイミング指示部4が形状を指示するアナウンスを行うことが望ましい。   Further, in the above-described example, at the time of performing calibration, the operator is presented with a gou-shaped finger and a par-shaped finger as prescribed shapes, but other finger shapes to be presented for calibration are other shapes. May be defined. Further, either the goo shape or the par shape, or only one other shape may be presented, and the finger area of the other shape may be predicted based on the one shape. When only one shape is presented, it is desirable that the timing instruction unit 4 make an announcement for designating the shape so that the operator can recognize what shape the finger should present.

また、以上は、車両に搭載された各種車載機器の制御を行う車載機器制御装置に本発明を適用した例について説明したが、本発明は、以上の例に限らず、操作者により提示される人体の一部の形状を特定して操作者が意図する操作内容を判定し、それに基づいて機器の制御を行う構成のあらゆる機器制御装置に対して有効に適用可能である。   Further, the example in which the present invention is applied to the in-vehicle device control apparatus that controls various in-vehicle devices mounted on the vehicle has been described above, but the present invention is not limited to the above example and is presented by the operator. The present invention can be effectively applied to any device control apparatus having a configuration in which a part of the human body is specified to determine the operation content intended by the operator and the device is controlled based on the determination.

本発明を適用した車載機器制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle equipment control apparatus to which this invention is applied. 本発明を適用した車載機器制御装置の動作を説明する図であり、キャリブレーションを実施する際の具体的な処理の流れの一例を示すフローチャートである。It is a figure explaining operation | movement of the vehicle equipment control apparatus to which this invention is applied, and is a flowchart which shows an example of the flow of the concrete process at the time of implementing a calibration. 本発明を適用した車載機器制御装置の動作を説明する図であり、実際に車載機器の制御を実行する際の具体的な処理の流れの一例を示すフローチャートである。It is a figure explaining operation | movement of the vehicle equipment control apparatus to which this invention is applied, and is a flowchart which shows an example of the flow of a specific process at the time of actually performing control of a vehicle equipment. 車載機器の制御を実行する際に表示される操作画面の遷移例を示す図であり、(a)は最上位の操作画面の表示例を示す図、(b)は目的地設定に関する操作項目を列挙した操作画面の表示例を示す図、(c)は登録地を探すための操作画面の表示例を示す図、(d)は選択された登録地周辺の地図の表示例を示す図、(e)は地図上に目的地設定メニューを重畳した最下層の操作画面の表示例を示す図である。It is a figure which shows the example of a transition of the operation screen displayed when performing control of vehicle equipment, (a) is a figure which shows the example of a display of the highest level operation screen, (b) is the operation item regarding destination setting. The figure which shows the example of a display of the enumerated operation screen, (c) is the figure which shows the example of a display of the operation screen for searching a registration place, (d) is the figure which shows the example of a display of the map around the selected registration place, e) is a diagram showing a display example of a lowermost operation screen in which a destination setting menu is superimposed on a map.

符号の説明Explanation of symbols

1 手指支持台(撮像対象支持手段)
2 遠赤外線カメラ(撮像手段)
3 面積計測部(特徴量計測手段)
4 タイミング指示部(報知手段)
5 キャリブレーションスイッチ(予測処理開始スイッチ)
6 手指面積予測部(特徴量予測手段)
7 キャリブレーションデータ記憶部(特徴量情報記憶手段)
8 情報判断部(形状特定手段)
9 機器制御部(制御手段)
1 Finger support base (supporting means for imaging)
2 Far-infrared camera (imaging means)
3 Area measuring unit (feature quantity measuring means)
4 Timing instruction section (notification means)
5 Calibration switch (Prediction process start switch)
6 finger area prediction unit (feature amount prediction means)
7 Calibration data storage (feature information storage means)
8 Information judgment part (shape identification means)
9 Equipment control section (control means)

Claims (11)

操作者により提示される人体の一部を撮像対象として、この撮像対象の画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から、前記撮像対象の特徴量を計測する特徴量計測手段と、
規定の形状で提示された前記撮像対象の画像より計測された特徴量に基づいて、前記撮像対象が他の形状で提示されたときの特徴量を予測する特徴量予測手段と、
前記撮像対象が任意の形状で提示されたときに、前記特徴量計測手段によって計測された特徴量と、前記特徴量予測手段で予測された特徴量とに基づいて、前記撮像対象の形状を特定する形状特定手段と、
前記形状特定手段により特定された前記撮像対象の形状に対応する操作入力情報に基づいて、機器を制御する制御手段とを備えることを特徴とする機器制御装置。
Imaging means for imaging a part of the human body presented by the operator as an imaging target, and an image of the imaging target;
Feature quantity measuring means for measuring a feature quantity of the imaging target from an image taken by the imaging means;
Feature amount prediction means for predicting a feature amount when the imaging target is presented in another shape based on a feature amount measured from the image of the imaging target presented in a prescribed shape;
When the imaging target is presented in an arbitrary shape, the shape of the imaging target is specified based on the feature quantity measured by the feature quantity measurement unit and the feature quantity predicted by the feature quantity prediction unit Shape identifying means to perform,
A device control apparatus comprising: control means for controlling a device based on operation input information corresponding to the shape of the imaging target specified by the shape specifying means.
前記特徴量予測手段によって予測された特徴量を前記撮像対象の形状と対応付けて、特徴量情報として記憶する特徴量情報記憶手段を更に備え、
前記形状特定手段は、前記撮像対象が任意の形状で提示されたときに、前記特徴量計測手段によって計測された特徴量と、前記特徴量情報記憶手段に記憶された特徴量情報とに基づいて、前記撮像対象の形状を特定することを特徴とする請求項1に記載の機器制御装置。
A feature amount information storage unit that stores the feature amount predicted by the feature amount prediction unit in association with the shape of the imaging target and stores it as feature amount information;
The shape specifying means is based on the feature quantity measured by the feature quantity measuring means when the imaging target is presented in an arbitrary shape and the feature quantity information stored in the feature quantity information storage means. The device control apparatus according to claim 1, wherein the shape of the imaging target is specified.
前記撮像対象が、操作者により提示される手であることを特徴とする請求項1又は2に記載の機器制御装置。   The apparatus control apparatus according to claim 1, wherein the imaging target is a hand presented by an operator. 前記特徴量が、操作者により提示される手の面積であることを特徴とする請求項3に記載の機器制御装置。   The device control apparatus according to claim 3, wherein the feature amount is an area of a hand presented by an operator. 前記特徴量予測手段は、全ての指を結んだ状態であるグー形状を提示したときに撮像された画像より計測されたグー形状での手の面積、及び全ての指を開いた状態であるパー形状を提示したときに撮像された画像より計測されたパー形状での手の面積に基づいて、指を1本伸ばした形状での手の面積と、指を2本伸ばした形状での手の面積と、指を3本伸ばした形状での手の面積と、指を4本伸ばした形状での手の面積とをそれぞれ予測することを特徴とする請求項4に記載の機器制御装置。   The feature amount predicting means includes an area of a hand in a goo shape measured from an image captured when a goo shape in which all fingers are tied and a par in which all fingers are open. Based on the area of the hand in the par shape measured from the image captured when the shape was presented, the area of the hand with the shape of one finger extended and the hand with the shape of the finger extended with two fingers The device control apparatus according to claim 4, wherein the area, the area of the hand in a shape with three fingers extended, and the area of the hand in a shape with four fingers extended are predicted. 前記撮像手段として、赤外線カメラが用いられることを特徴とする請求項1乃至5の何れかに記載の機器制御装置。   6. The apparatus control apparatus according to claim 1, wherein an infrared camera is used as the imaging unit. 前記撮像対象を所定の位置にて支持して、前記撮像手段と前記撮像対象との間の距離を固定させる撮像対象支持手段を更に備えることを特徴とする請求項1乃至6の何れかに記載の機器制御装置。   The imaging target support means for supporting the imaging target at a predetermined position and fixing the distance between the imaging means and the imaging target, further comprising: Equipment control equipment. 前記撮像手段による撮像タイミングを操作者に認識させる報知手段を更に備えることを特徴とする請求項1乃至7の何れかに記載の機器制御装置。   The device control apparatus according to claim 1, further comprising a notification unit that causes an operator to recognize an imaging timing of the imaging unit. 前記報知手段が、操作者に対して、前記撮像対象となる人体の一部を規定の形状で提示する旨、又は前記撮像対象となる人体の一部を任意の形状で提示する旨を指示する報知を行うことを特徴とする請求項8に記載の機器制御装置。   The notification means instructs the operator to present a part of the human body to be imaged in a prescribed shape or to present a part of the human body to be imaged in an arbitrary shape. The device control apparatus according to claim 8, wherein notification is performed. 前記特徴量予測手段による特徴量の予測処理を開始させるための予測処理開始スイッチを更に備えることを特徴とする請求項1乃至9の何れかに記載の機器制御装置。   The device control apparatus according to claim 1, further comprising a prediction process start switch for starting a feature amount prediction process by the feature amount prediction unit. 操作者により規定の形状で提示された人体の一部を撮像対象として撮像する第1のステップと、
前記第1のステップで撮像された画像から前記撮像対象の特徴量を計測する第2のステップと、
前記第2のステップで計測された特徴量に基づいて、前記撮像対象が他の形状で提示されたときの特徴量を予測する第3のステップと、
操作者により任意の形状で提示された人体の一部を撮像対象として撮像する第4のステップと、
前記第4のステップで撮像された画像から前記撮像対象の特徴量を計測する第5のステップと、
前記第5のステップで計測された特徴量と、前記第3のステップで予測された特徴量とに基づいて、前記第4のステップで撮像された撮像対象の形状を特定する第6のステップと、
前記第6のステップで特定された前記撮像対象の形状に対応する操作入力情報に基づいて、機器を制御する第7のステップとを有することを特徴とする機器制御方法。
A first step of imaging a part of a human body presented in a prescribed shape by an operator as an imaging target;
A second step of measuring a feature quantity of the imaging target from the image captured in the first step;
A third step of predicting a feature value when the imaging target is presented in another shape based on the feature value measured in the second step;
A fourth step of imaging a part of a human body presented in an arbitrary shape by an operator as an imaging target;
A fifth step of measuring a feature quantity of the imaging target from the image captured in the fourth step;
A sixth step of identifying the shape of the imaging target imaged in the fourth step based on the feature quantity measured in the fifth step and the feature quantity predicted in the third step; ,
A device control method comprising: a seventh step of controlling the device based on the operation input information corresponding to the shape of the imaging target specified in the sixth step.
JP2003314579A 2003-09-05 2003-09-05 Equipment controller and equipment control method Pending JP2005084830A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003314579A JP2005084830A (en) 2003-09-05 2003-09-05 Equipment controller and equipment control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003314579A JP2005084830A (en) 2003-09-05 2003-09-05 Equipment controller and equipment control method

Publications (1)

Publication Number Publication Date
JP2005084830A true JP2005084830A (en) 2005-03-31

Family

ID=34415129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003314579A Pending JP2005084830A (en) 2003-09-05 2003-09-05 Equipment controller and equipment control method

Country Status (1)

Country Link
JP (1) JP2005084830A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147382A (en) * 2005-11-25 2007-06-14 Aisin Aw Co Ltd Navigation device and map information distribution system
JP2014501870A (en) * 2010-11-22 2014-01-23 フリースケール セミコンダクター インコーポレイテッド Method for enabling calibration during start-up of a microcontroller unit and integrated circuit thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147382A (en) * 2005-11-25 2007-06-14 Aisin Aw Co Ltd Navigation device and map information distribution system
JP4556853B2 (en) * 2005-11-25 2010-10-06 アイシン・エィ・ダブリュ株式会社 Navigation device and map information distribution system
JP2014501870A (en) * 2010-11-22 2014-01-23 フリースケール セミコンダクター インコーポレイテッド Method for enabling calibration during start-up of a microcontroller unit and integrated circuit thereof
US9417884B2 (en) 2010-11-22 2016-08-16 Freescale Semiconductor, Inc. Method for enabling calibration during start-up of a micro controller unit and integrated circuit therefor

Similar Documents

Publication Publication Date Title
EP2728313B1 (en) Method of displaying objects on a navigation map
US10618528B2 (en) Driving assistance apparatus
CN108539807A (en) It can charge prompting method and can charge prompting system
JP2010127925A (en) Navigation system
CN104697533A (en) Navigation method and device
WO2009145024A1 (en) Input detection device, input detection method, program, and recording medium
US9035889B2 (en) Information processing apparatus and information processing method
JP2009075656A (en) Input display device
US10655981B2 (en) Method for updating parking area information in a navigation system and navigation system
JP2010004381A (en) Personal digital assistant
CN106725353A (en) Body temperature measurement method and mobile terminal
JP2010188744A (en) Device, method and program for supporting parking
US20180052564A1 (en) Input control apparatus, input control method, and input control system
JPH09167049A (en) Line of sight input device for console
JP2005084830A (en) Equipment controller and equipment control method
JP2018072069A (en) Map data structure, transmitter, and map display device
JP2006343829A (en) Device and method for photographing around vehicle
JP2007017268A (en) Navigation device and navigation method
JP6149825B2 (en) Vehicle control device
JP2018028733A (en) Input device, input device control method, display device and input program
JP2009229417A (en) Navigation system, group management method, and group management program
CN106599220A (en) Line information output method and device and equipment
JP2018157257A (en) Control device of in-vehicle device and application software for controlling in-vehicle device
CN107832726A (en) User identifies and confirmed device and automobile central control system
JP2011100396A (en) Video display device