JP2007080187A - Operation input device - Google Patents

Operation input device Download PDF

Info

Publication number
JP2007080187A
JP2007080187A JP2005270419A JP2005270419A JP2007080187A JP 2007080187 A JP2007080187 A JP 2007080187A JP 2005270419 A JP2005270419 A JP 2005270419A JP 2005270419 A JP2005270419 A JP 2005270419A JP 2007080187 A JP2007080187 A JP 2007080187A
Authority
JP
Japan
Prior art keywords
area
operation position
user
translucent screen
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005270419A
Other languages
Japanese (ja)
Inventor
Tomomasa Shimizu
智巨 清水
Masaki Yoshino
正樹 芳野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2005270419A priority Critical patent/JP2007080187A/en
Publication of JP2007080187A publication Critical patent/JP2007080187A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation input device with which required processing is simple even when specifying the input operation position of a user based on an image input from a photographing means, and further, the operation position can be more accurately specified. <P>SOLUTION: Various selection buttons 5 are projected from the back on a semitransparent screen 3 by a projector 4, and the semitransparent screen 3 is photographed from the back by a camera 6. Based on the luminance of the photographed image of the camera 6, a CPU 10 calculates a touch area where the user touches the semitransparent screen 3 and a hand area corresponding to the part of the hand of the user. Within the calculated hand area, the CPU determines the center of gravity of the hand area in the area to project an image by the projector 4 and similarly determines the center of gravity of the hand area in the area of a difference between a photographing area of the camera 6 and a button projecting area. The CPU 10 calculates a distal end direction vector from these centers of gravity and in this distal end direction vector, the touch area positioned in the most distal end is selected as the operating position of the user. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ユーザが機器を稼働させる際に行なう入力操作を、撮影画像を用いて検出する操作入力装置に関する。   The present invention relates to an operation input device that detects an input operation performed when a user operates a device using a captured image.

従来、ユーザにより行なわれるカーナビゲーションシステム等の車載機器への入力操作を検出する操作入力装置として、例えば車両に配設された画面へのタッチ操作を入力操作としてタッチセンサで検出するタッチ操作入力装置が使用されている。このタッチ操作入力装置としては、例えば画面の入力操作位置を絶対位置で検出する絶対位置検出式のものや、或いは画面への入力操作時の操作量及び操作方向を相対位置で検出する相対位置検出式のものがある。   2. Description of the Related Art Conventionally, as an operation input device that detects an input operation to an in-vehicle device such as a car navigation system performed by a user, for example, a touch operation input device that detects a touch operation on a screen disposed in a vehicle as an input operation by a touch sensor Is used. As this touch operation input device, for example, an absolute position detection type that detects an input operation position on the screen as an absolute position, or a relative position detection that detects an operation amount and an operation direction at the time of an input operation on the screen as a relative position There is a formula.

しかし、このタッチ操作入力装置は、ユーザによる画面へのタッチ操作をタッチセンサで検出するものであるため、ユーザの指等が触れる接触部分においてタッチセンサが劣化する問題は否めない。従って、操作入力装置の耐久性を向上させるために、この種のタッチセンサを用いずにユーザの入力操作を検出可能な構成の操作入力装置が望まれていた。   However, since this touch operation input device detects a touch operation on the screen by the user with the touch sensor, there is a problem that the touch sensor deteriorates at a contact portion touched by the user's finger or the like. Therefore, in order to improve the durability of the operation input device, there has been a demand for an operation input device having a configuration capable of detecting a user input operation without using this type of touch sensor.

そこで、スクリーンに各種選択ボタンを映し出し、そのスクリーンをカメラで撮影して、ユーザによるスクリーン上の選択ボタンの操作を、カメラからの撮影画像を基に検出するカメラ撮影式の操作入力装置が例えば特許文献1〜3に開示されている。この種のカメラ撮影式の操作入力装置を使用すれば、ユーザが指等でセンサに触れる等の操作が必要ないため、その接触部分におけるセンサの劣化等の問題が生じず、操作入力装置の高い耐久性が確保される。
特開平2−132510号公報 特開2002−157079号公報 特開平4−271423号公報
Therefore, for example, there is a camera photographing operation input device that projects various selection buttons on the screen, shoots the screen with a camera, and detects the operation of the selection button on the screen by the user based on the photographed image from the camera. It is disclosed in documents 1-3. If this type of camera-shooting operation input device is used, the user does not need to perform operations such as touching the sensor with a finger or the like. Durability is ensured.
JP-A-2-132510 JP 2002-157079 A JP-A-4-271423

しかし、特許文献1の技術については、操作入力装置がユーザによる入力操作の操作位置を特定するに際して、カメラで取り込んだ画像データ(画像信号)の2値化処理、細線化処理、画像端点の検出処理等の複雑で多工程に亘る画像処理が必要となるため、その操作位置特定処理の煩雑化を招く。よって、入力操作が行なわれてから操作位置が特定されるまでに時間を要する場合があり、入力操作から実際に操作入力装置が稼働するまでに間が生じて、スムーズな操作感覚を確保できない場合がある。また、特許文献2に関しても、画像データのピクセル変換、ピクセル変化の傾向分析、物件動作の移行判断等の画像処理が必要となるため、特許文献1と同様の問題が生じる。   However, in the technique of Patent Document 1, when the operation input device specifies the operation position of the input operation by the user, the binarization processing, thinning processing, and image end point detection of the image data (image signal) captured by the camera Since complicated and multi-step image processing such as processing is required, the operation position specifying processing becomes complicated. Therefore, it may take time for the operation position to be specified after the input operation is performed, and there is a delay between the input operation and the operation input device actually operating, and a smooth operation feeling cannot be secured. There is. Further, with respect to Patent Document 2, image processing such as pixel conversion of image data, trend analysis of pixel change, and determination of property movement transition is required, and thus the same problem as Patent Document 1 occurs.

次いで、特許文献3は、指示目標物体を指し示す先端点と、指示操作を行なう際の基準位置となる基準点との直線をとり、この直線上の先端にある位置を指示目標物体として検出する技術である。しかし、この技術においては基準点のキャリブレーションが必要であるため、特許文献1,2と同様に操作位置指定処理の煩雑化を招く。また、この種のキャリブレーションが必要であるとすると、面倒な作業をユーザに課すことになり、操作入力装置の使い勝手をよくするためには、この種の作業を不要にしたい要望もある。特に、この技術を車載機器に用いた場合、運転者にキャリブレーションを毎回課すのは酷であり、実用には向かない。   Next, Patent Literature 3 takes a straight line between a tip point indicating the indicated target object and a reference point serving as a reference position for performing the pointing operation, and detects a position at the tip on the straight line as the indicated target object. It is. However, since this technique requires calibration of the reference point, the operation position designation processing becomes complicated as in Patent Documents 1 and 2. Further, if this kind of calibration is necessary, a troublesome work is imposed on the user, and there is a demand for making this kind of work unnecessary in order to improve the usability of the operation input device. In particular, when this technology is used for in-vehicle equipment, it is harsh to impose calibration on the driver each time, and is not suitable for practical use.

また、場合によっては、同時に複数箇所で入力操作が検出され、複数の選択ボタンが同時に選択される状況になる場合も考えられる。入力操作に際して同時入力が生じた場合、ユーザが意図しない操作位置が入力位置として判別され、必要としない処理が実行されてしまうことにもなりかねないため、装置の使い勝手をよくするためにも、同時入力に関して何らかの対応策を施す必要もある。   In some cases, input operations are detected at a plurality of locations at the same time, and a plurality of selection buttons may be selected at the same time. When simultaneous input occurs during an input operation, an operation position that is not intended by the user is determined as an input position, and unnecessary processing may be executed. It is also necessary to take some measures for simultaneous input.

本発明の目的は、撮影手段から入力した画像を基にユーザの入力操作位置を特定する場合であっても、その際に要する処理が簡単で、しかもより的確に操作位置を特定することができる操作入力装置を提供することにある。   An object of the present invention is to specify a user's input operation position on the basis of an image input from a photographing unit, so that the processing required at that time is simple, and the operation position can be specified more accurately. To provide an operation input device.

この発明によれば、半透明スクリーンと、前記半透明スクリーンに背面側から表示物を投影する投影手段と、前記半透明スクリーンを背面側から撮影する撮影手段と、前記撮影手段が取得した画像データを用い、前記半透明スクリーンに映る画像の輝度を基に表示面における操作位置を検出し、当該操作位置が複数検出された際には、該輝度から求まる特性値の最も高い操作位置をユーザが意図する操作位置として検出する操作位置検出手段と、前記操作位置検出手段が検出した前記操作位置と、前記投影手段が投影した前記表示物の座標位置とを比較し、これら位置が一致したことを条件に前記表示物に応じた処理を実行させる実行手段とを備えたことを要旨とする。   According to the present invention, a translucent screen, a projection unit that projects a display object on the translucent screen from the back side, an imaging unit that captures the translucent screen from the back side, and image data acquired by the imaging unit The operation position on the display surface is detected based on the brightness of the image displayed on the translucent screen, and when a plurality of the operation positions are detected, the user selects the operation position with the highest characteristic value obtained from the brightness. The operation position detection means for detecting as an intended operation position, the operation position detected by the operation position detection means, and the coordinate position of the display object projected by the projection means are compared, and it is confirmed that these positions match. The gist of the invention is that it includes execution means for executing a process according to the display object according to the condition.

この構成によれば、半透明スクリーンには、各種機器を作動させる際に選択操作される各種表示物(例えば選択ボタン等)が投影手段によって表示される。この表示物としては、例えば機器の電源オンボタン、作動モード選択ボタン、電源オフボタン等がある。機器を作動させるには、ユーザが半透明スクリーン上の所望の表示物を指等で触れる入力操作を行なう。   According to this configuration, on the translucent screen, various display objects (for example, selection buttons or the like) that are selected and operated when operating various devices are displayed by the projection unit. Examples of the display object include an apparatus power-on button, an operation mode selection button, and a power-off button. In order to operate the device, the user performs an input operation of touching a desired display object on the translucent screen with a finger or the like.

ところで、半透明スクリーンは背面が撮影手段によって常時撮影され、その画像データが操作位置検出手段に転送される。ここで、半透明スクリーン上の表示物が入力操作された際には、投影手段から出された光がユーザの指や手等で反射し、その反射光が半透明スクリーンに到達していく過程で拡散するため、指(手)が半透明スクリーンに近い部位ほど輝度が高くなる。よって、操作位置検出手段は、撮影手段から取得した画像データを用い、輝度の上昇した部分をユーザによる操作位置として検出する。そして、操作位置検出手段が検出した操作位置と、投影手段が投影した表示物の座標位置とが実行手段によって比較され、これら両位置が一致した際には、その操作位置にある表示物に応じた処理が実行手段によって実行される。   By the way, the back surface of the translucent screen is always photographed by the photographing means, and the image data is transferred to the operation position detecting means. Here, when the display object on the translucent screen is input, the light emitted from the projection means is reflected by the user's finger or hand, and the reflected light reaches the translucent screen. Since the finger (hand) is closer to the translucent screen, the luminance is higher. Therefore, the operation position detecting means detects the portion where the brightness is increased as the operation position by the user, using the image data acquired from the photographing means. Then, the operation position detected by the operation position detection means and the coordinate position of the display object projected by the projection means are compared by the execution means, and when these two positions match, the display object at the operation position is selected. The processing is executed by the execution means.

従って、本発明においては、ユーザが半透明スクリーンの表示体を選択操作する際に半透明スクリーンに生じる輝度の変化を見て入力操作位置を判断するという簡単な手法で、ユーザによる入力操作位置を認識することが可能となる。このため、場合によっては、入力操作が行なわれてから操作位置が特定されるまでに要する処理時間を短く済ますことも可能となり、入力操作から実際に操作入力装置が稼働するまでに間が生じ難くなって、スムーズな操作感覚を確保することも可能となる。   Therefore, in the present invention, the input operation position by the user is determined by a simple method of judging the input operation position by looking at the change in luminance generated on the translucent screen when the user selects and operates the display body of the translucent screen. It becomes possible to recognize. For this reason, in some cases, it is possible to shorten the processing time required from the time when the input operation is performed until the operation position is specified, and it is difficult to cause a time from the input operation until the operation input device is actually operated. Thus, it is possible to ensure a smooth operation feeling.

また、ユーザが半透明スクリーンに触れて入力操作を行なう際、ユーザが意図しない部位が半透明スクリーンに触れて、複数箇所で同時に入力操作が行なわれる場合がある。しかし、このように複数の操作位置でユーザが半透明スクリーンに触れても、各操作位置の輝度に関して特性値(例えば、操作方向における位置、半透明スクリーンに触れた際の接触面積等)が最も高いものを、ユーザが意図する入力位置として検出する。よって、同時入力が生じても、ユーザが意図しない操作位置を入力位置として検出し難くなる。   Further, when the user touches the semi-transparent screen to perform an input operation, a part unintended by the user touches the semi-transparent screen and the input operation may be performed simultaneously at a plurality of locations. However, even when the user touches the semi-transparent screen at a plurality of operation positions in this way, the characteristic value (for example, the position in the operation direction, the contact area when touching the semi-transparent screen, etc.) regarding the brightness of each operation position is most A high one is detected as an input position intended by the user. Therefore, even if simultaneous input occurs, it is difficult to detect an operation position not intended by the user as the input position.

この発明によれば、前記操作位置検出手段は、前記輝度が閾値以上となる領域を前記ユーザが前記表示面に触れている接触領域として検出し、前記ユーザが前記表示物を選択操作する際の操作方向に対し、当該操作方向の最先端に位置する前記接触領域を前記操作位置として検出することを要旨とする。   According to this invention, the operation position detecting means detects an area where the luminance is equal to or higher than a threshold as a contact area where the user is touching the display surface, and the user performs a selection operation on the display object. The gist is to detect, as the operation position, the contact region located at the forefront of the operation direction with respect to the operation direction.

この構成によれば、ユーザが半透明スクリーンに触れて入力操作を行なう際には、例えば手の最先端部位(例えば人差し指の先端)で半透明スクリーンを触るが、この入力操作においては、この操作部位以外の部位も同時に半透明スクリーンに触れてしまう場合がある。しかし、このような同時入力が生じても、これら複数ある接触領域のうち操作方向の最先端に位置するものを、ユーザが入力操作として行なった部位の接触領域として認識する。よって、操作方向の最先端に位置するものは、ユーザが意図して入力する操作位置である確率が高いため、より的確に操作位置を選別することが可能となる。   According to this configuration, when the user performs an input operation by touching the translucent screen, for example, the semi-transparent screen is touched at the most advanced part of the hand (for example, the tip of the index finger). Other parts may also touch the translucent screen at the same time. However, even if such simultaneous input occurs, the contact area located at the forefront of the operation direction among the plurality of contact areas is recognized as the contact area of the part that the user has performed as the input operation. Therefore, since there is a high probability that an object positioned at the forefront of the operation direction is an operation position that the user intends to input, the operation position can be more accurately selected.

この発明によれば、前記操作位置検出手段は、前記半透明スクリーンの区画域である第1領域及び第2領域の各々において、前記輝度が当該閾値よりも低い値の第2閾値以上で、かつ当該閾値よりも低い値となる領域を前記操作部位の画像として認識し、前記第1領域に表示される第1操作部位画像と、前記第2領域に表示される第2操作部位画像との各々で画像の重心を算出し、これら重心を通るとともに前記第2操作部位画像の重心から前記第1操作部位画像の重心に向かう先端方向ベクトルを前記操作方向として算出することを要旨とする。   According to this invention, the operation position detection means has a luminance equal to or higher than a second threshold value that is lower than the threshold value in each of the first area and the second area that are the partitioned areas of the translucent screen, and Recognizing a region having a value lower than the threshold as an image of the operation region, each of a first operation region image displayed in the first region and a second operation region image displayed in the second region The gist is to calculate the center of gravity of the image, and to calculate, as the operation direction, a tip direction vector that passes through the center of gravity and extends from the center of gravity of the second operation part image to the center of gravity of the first operation part image.

この構成によれば、先端方向ベクトルはその時々の入力操作の際に、その操作部位の操作方向に応じて適宜算出されるため、例えば先端方向ベクトルを固定値データとした場合に比べて、先端方向ベクトルの精度がよくなる。従って、ユーザが入力を行なうに際して同時入力が発生しても、ユーザが意図しない間違った接触領域を、ユーザが入力操作として行なった部位の接触領域として認識し難くなり、誤入力発生防止に一層効果がある。   According to this configuration, since the tip direction vector is appropriately calculated according to the operation direction of the operation part at the time of the input operation at that time, for example, compared to the case where the tip direction vector is fixed value data, The accuracy of the direction vector is improved. Therefore, even if simultaneous input occurs when the user performs input, it is difficult to recognize an incorrect contact area that the user does not intend as a contact area of a part that the user has performed as an input operation, which is further effective in preventing erroneous input. There is.

この発明によれば、前記第1領域は、前記投影手段による前記表示物の投影領域であり、前記第2領域は、前記撮影手段の撮影領域と前記投影領域との差の領域であることを要旨とする。   According to this invention, the first area is a projection area of the display object by the projection means, and the second area is a difference area between the imaging area of the imaging means and the projection area. The gist.

この構成によれば、第1領域を表示体の表示領域、第2領域を撮影領域及び表示領域の差の領域とすると、例えば第1領域が半透明スクリーンの中央寄り領域となり、第2領域が第1領域の周囲を囲む周縁の領域となる。このような位置関係があれば、先端方向ベクトルを算出する際に必要となる2点が同一領域に位置してしまう状況になり難く、先端方向ベクトルの算出に際して好ましい領域分布となる。   According to this configuration, if the first area is the display area of the display body and the second area is the difference area between the imaging area and the display area, for example, the first area is an area closer to the center of the translucent screen, and the second area is It becomes a peripheral area surrounding the periphery of the first area. If there is such a positional relationship, it is unlikely that the two points necessary for calculating the tip direction vector will be located in the same region, and a preferable region distribution is obtained when calculating the tip direction vector.

この発明によれば、前記操作位置検出手段は、前記接触領域を前記先端方向ベクトルに写像することによって、複数の前記接触領域の中から最先端に位置する接触領域を指定することを要旨とする。   According to this invention, the operation position detecting means designates a contact area located at the forefront from the plurality of contact areas by mapping the contact area to the tip direction vector. .

この構成によれば、複数の接触領域が存在する場合、これら接触領域を先端方向ベクトルに写像して接触領域の位置を比較するため、複数の接触領域から最先端に位置するものを選別する際の精度が高まり、このことも誤入力発生防止に一層効果がある。   According to this configuration, when there are a plurality of contact areas, in order to map the contact areas to the tip direction vector and compare the positions of the contact areas, when selecting the most advanced one from the plurality of contact areas This is also more effective in preventing erroneous input.

本発明によれば、撮影手段から入力した画像を基にユーザの入力操作位置を特定する場合であっても、その際に要する処理が簡単で、しかもより的確に操作位置を特定することができる。   According to the present invention, even when the user's input operation position is specified based on the image input from the photographing means, the processing required at that time is simple, and the operation position can be specified more accurately. .

図1に示すように、操作入力装置1は、各種機器を作動させる際の操作パネルとして機能する装置であり、例えば車両2のカーナビゲーションシステム、オーディオ機器、空調装置等の車載機器を動作させる際に入力操作される。操作入力装置1は、半透明スクリーン3に背面側からプロジェクタ4(図2参照)で各種選択ボタン5を表示するとともに、半透明スクリーン3を背面側からカメラ6(図2参照)で撮影し、その選択ボタン5がユーザの指等で選択操作された際に変わる輝度Kの変化を撮影画像から求めて、半透明スクリーン3上における操作位置Pを特定する。なお、プロジェクタ4が投影手段に、選択ボタン5が表示物に、カメラ6が撮影手段に各々相当する。 As shown in FIG. 1, the operation input device 1 is a device that functions as an operation panel when operating various devices. For example, when operating an in-vehicle device such as a car navigation system, an audio device, and an air conditioner of the vehicle 2. Input operation. The operation input device 1 displays various selection buttons 5 on the translucent screen 3 from the back side with the projector 4 (see FIG. 2), and photographs the translucent screen 3 with the camera 6 (see FIG. 2) from the back side. the change in luminance K that changes when the select button 5 has been selected with a finger tip of the user determined from the captured image, to identify the operating position P x on the translucent screen 3. The projector 4 corresponds to the projection means, the selection button 5 corresponds to the display object, and the camera 6 corresponds to the photographing means.

図2に示すように、車両運転席の前部にはセンタークラスター7が配設され、そのセンタークラスター7の中央部に半透明スクリーン3が取り付けられている。半透明スクリーン3は、例えば四角形状の平板状をなしており、像性能を示す拡散性のプラスティック材のシートで構成されている。   As shown in FIG. 2, a center cluster 7 is disposed in the front part of the vehicle driver's seat, and a translucent screen 3 is attached to the center part of the center cluster 7. The translucent screen 3 has, for example, a rectangular flat plate shape and is composed of a sheet of diffusible plastic material that exhibits image performance.

半透明スクリーン3の背面3aには、プロジェクタ4が車体に固着された状態で取り付けられている。プロジェクタ4はRGB各々のフィルタを通した光を合成して画像を投影する装置であり、例えば液晶プロジェクタが用いられ、車両機器を作動させるための各種選択ボタン5を半透明スクリーン3の背面3aから投影する。これにより、半透明スクリーン3の表面が表示面3bとなり、この表示面3bに各種選択ボタン5の文字が表向き状態で表示される。   A projector 4 is attached to the back surface 3a of the translucent screen 3 in a state of being fixed to the vehicle body. The projector 4 is a device that synthesizes the light that has passed through the RGB filters and projects an image. For example, a liquid crystal projector is used, and various selection buttons 5 for operating vehicle equipment are provided from the back surface 3 a of the translucent screen 3. Project. Thereby, the surface of the translucent screen 3 becomes the display surface 3b, and the characters of the various selection buttons 5 are displayed on the display surface 3b in a face-up state.

同じく半透明スクリーン3の背面3aには、カメラ6がプロジェクタ4に並設状態で車体に固着されている。カメラ6は、画像を可視光で撮影可能なCMOS(Complementary Metal Oxide Semiconductor)カメラ等が使用され、半透明スクリーン3の背面3aを撮影する。本例においてはカメラ6によって取得した画像で輝度の変化を見て半透明スクリーン3における入力操作の有無を判断するため、カメラ6で取得した撮影画像においては輝度の変化が見られれば充分であることから、カメラ6の画素数は例えば数十万画素程度あればよい。   Similarly, a camera 6 is fixed to the vehicle body in parallel with the projector 4 on the back surface 3 a of the translucent screen 3. The camera 6 is a CMOS (Complementary Metal Oxide Semiconductor) camera or the like that can capture an image with visible light, and images the back surface 3 a of the translucent screen 3. In this example, since it is determined whether or not there is an input operation on the translucent screen 3 by looking at the change in luminance in the image acquired by the camera 6, it is sufficient if the change in luminance is seen in the captured image acquired by the camera 6. Therefore, the number of pixels of the camera 6 may be about several hundred thousand pixels, for example.

図3に示すように、車体には、操作入力装置1を統括制御する操作位置検出用制御回路8、車載機器を作動させる車載機器用制御回路9が取り付けられている。操作位置検出用制御回路8は、同回路8のメイン制御を司るCPU(Central processing Unit)10、各種プログラム群及びデータ群を記憶したROM(Read-Only Memory)11、プログラム実行時におけるCPU10の作業領域となるRAM(Random Access Memory)12、各種データの入出口となるインターフェース13を備えている。これらデバイスは、操作位置検出用制御回路8内のバス14を通じて相互接続されている。なお、CPU10が操作位置検出手段及び実行手段を構成する。   As shown in FIG. 3, an operation position detection control circuit 8 that performs overall control of the operation input device 1 and an in-vehicle device control circuit 9 that operates the in-vehicle device are attached to the vehicle body. The operation position detection control circuit 8 includes a CPU (Central processing Unit) 10 that controls the main control of the circuit 8, a ROM (Read-Only Memory) 11 that stores various program groups and data groups, and operations of the CPU 10 during program execution. A RAM (Random Access Memory) 12 serving as an area and an interface 13 serving as an input / output port for various data are provided. These devices are connected to each other through a bus 14 in the operation position detection control circuit 8. The CPU 10 constitutes an operation position detection unit and an execution unit.

ROM11には、車両機器を動作させるべくユーザが半透明スクリーン3で行なう入力操作を検出する操作位置検出プログラムPprが記憶されている。この操作位置検出プログラムPprは、プロジェクタ4を駆動して半透明スクリーン3に選択ボタン5を表示させ、ユーザが半透明スクリーン3上の選択ボタン5を選択操作する際に、その画像をカメラ6で撮影し、その画像データDを基にユーザの操作位置Pを検出するプログラムである。 The ROM 11 stores an operation position detection program Ppr that detects an input operation performed by the user on the translucent screen 3 to operate the vehicle device. The operation position detection program Ppr drives the projector 4 to display the selection button 5 on the translucent screen 3, and when the user selects the selection button 5 on the translucent screen 3, the image is displayed by the camera 6. photographed, it is a program that detects the user's operation position P x based on the image data D a.

CPU10は、エンジンスイッチ(図示略)がアクセサリ位置又はイグニッション位置に操作された際に起動を開始して操作位置検出プログラムPprを立ち上げ、インターフェース13を介してプロジェクタ4に起動開始指令及び表示データDを出力する。プロジェクタ4は操作位置検出用制御回路8から起動開始指令を受けると起動を開始し、操作位置検出用制御回路8から入力する表示データDに基づく表示画面(選択ボタン5)を半透明スクリーン3に投影する。 The CPU 10 starts activation when an engine switch (not shown) is operated to the accessory position or the ignition position, starts up the operation position detection program Ppr, and instructs the projector 4 to start activation and display data D via the interface 13. b is output. The projector 4 begins to start and undergo activation start command from the operating position detecting control circuit 8, a display screen based on display data D b input from the operation position detecting control circuit 8 (selection button 5) a translucent screen 3 Project to.

CPU10は、プロジェクタ4に起動開始指令を出力するのと同様に、インターフェース13を介してカメラ6にも起動開始指令を出力する。カメラ6は操作位置検出用制御回路8から起動開始指令を受けると起動を開始し、半透明スクリーン3を背面3aから撮影して、その画像データDを操作位置検出用制御回路8に出力する。カメラ6はCPU10から起動開始指令を受ける度に数十〜数百μsの時間範囲で画像撮影を行ない、起動開始信号を連続的に受け取ることで、操作位置検出用制御回路8に連続画像を出力する。 The CPU 10 outputs an activation start command to the camera 6 via the interface 13 in the same manner as outputting the activation start command to the projector 4. When the camera 6 receives an activation start command from the operation position detection control circuit 8, the camera 6 starts activation, images the translucent screen 3 from the back surface 3 a , and outputs the image data Da to the operation position detection control circuit 8. . Each time the camera 6 receives an activation start command from the CPU 10, it takes an image in a time range of several tens to several hundreds μs, and continuously receives an activation start signal, thereby outputting a continuous image to the operation position detection control circuit 8. To do.

CPU10は、インターフェース13内のノイズ除去回路13aでノイズを取り去った後に画像データDを取り込み、その画像データDを基に半透明スクリーン3上の輝度Kを算出する。ここで、ユーザが半透明スクリーン3を指等で触れると、図3に示すようにプロジェクタ4から投影される光が指や手等で反射し、その反射光が拡散するため、指が半透明スクリーン3に近い部分ほど、カメラ6で入力する画像の輝度Kが高く(光が明るく)なる。よって、CPU10は半透明スクリーン3上で輝度Kが高い部分をユーザによる入力操作の操作位置Pとして導出する。CPU10はこの操作位置Pを見ることで選択ボタン5が操作されたか否かを判断し、選択ボタン5が操作された際には、その選択ボタン5に応じた処理を車両機器に実行させるべく、作動要求信号Sを車載機器用制御回路9に出力する。 CPU10 captures the image data D a after removal of the noise in the noise removing circuit 13a in the interface 13, and calculates the luminance K on the translucent screen 3 based on the image data D a. Here, when the user touches the translucent screen 3 with a finger or the like, the light projected from the projector 4 is reflected by the finger or hand as shown in FIG. 3, and the reflected light is diffused, so that the finger is translucent. The closer to the screen 3, the higher the luminance K of the image input by the camera 6 (the light is brighter). Therefore, CPU 10 derives a operation position P x of the input operation by the user partial luminance K is high on the translucent screen 3. CPU10 determines whether or not the select button 5 by looking at the operation position P x is operated, when the selection button 5 is operated, so as to execute the processing corresponding to the selected button 5 on the vehicle equipment The operation request signal S is output to the vehicle-mounted device control circuit 9.

車載機器用制御回路9は、操作位置検出用制御回路8から作動要求信号Sを入力すると、その作動要求信号Sに応じた車載機器を作動させる。例えば、半透明スクリーン3でカーナビゲーションシステムの電源オンボタンが操作された場合には、カーナビゲーションシステムが起動し、カーナビゲーションシステムの起動下で行き先入力ボタンが操作された場合には、カーナビゲーションシステムの作動モードが行き先入力モードに切り換わる。   When the operation request signal S is input from the operation position detection control circuit 8, the in-vehicle device control circuit 9 operates the in-vehicle device according to the operation request signal S. For example, when the power on button of the car navigation system is operated on the translucent screen 3, the car navigation system is activated. When the destination input button is operated under the activation of the car navigation system, the car navigation system is activated. Switch to the destination input mode.

次に、操作位置Pの検出手順の詳細を説明する。
図3及び図4に示すように、半透明スクリーン3上で選択ボタン5を表現する各ドットの座標位置(x,y)は、選択ボタン5の表示サイズや、プロジェクタ4の設置位置及び設置角度に基づく選択ボタン5の表示位置等によって決まる。よって、操作位置検出プログラムPprにこの座標位置(x,y)に関する座標位置データを組み込んでおけば、CPU10は表示データDをプロジェクタ4に投影させる際、各選択ボタン5,5…が半透明スクリーン3上でどの座標位置(x,y)に位置しているかを認識することが可能である。
Next, details of the procedure for detecting the operation position P x.
As shown in FIGS. 3 and 4, the coordinate position (x, y) of each dot representing the selection button 5 on the translucent screen 3 is the display size of the selection button 5, the installation position and the installation angle of the projector 4. It depends on the display position of the selection button 5 based on the above. Accordingly, the coordinate position to the operating position detecting program Ppr (x, y) if incorporates coordinate position data relating to, CPU 10 is when projecting the display data D b to the projector 4, the selection buttons 5,5 ... translucent It is possible to recognize which coordinate position (x, y) is located on the screen 3.

カメラ6が半透明スクリーン3の背面3aを撮影し、CPU10がその撮影画像を取得すると、CPU10は半透明スクリーン3の画像の中で輝度Kが第1閾値K以上(K≧Kが成立)となる領域を判別する。この第1閾値Kは、輝度Kがこの値以上となれば、ユーザが半透明スクリーン3に触れていると判断可能な値に設定されている。よって、CPU10は、輝度Kが第1閾値K以上となる領域を、ユーザが半透明スクリーン3に触れている接触領域15として判別する。 The camera 6 is taken back 3a of the translucent screen 3, the CPU 10 obtains the captured image, CPU 10 is luminance K in a translucent screen 3 of the image is the first threshold value K a than (K ≧ K a is satisfied ) Is determined. The first threshold value K a is, if the luminance K is this value or more, the user is set to the possible values determined that touches the translucent screen 3. Therefore, CPU 10 is an area where luminance K is a first threshold value K a more user determines the contact area 15 touching the translucent screen 3.

また、CPU10は閾値Kを用いた輝度判別とともに、輝度Kが第1閾値Kよりも小さく第2閾値K以上となる範囲(K≦K<Kが成立)となる領域を判別する。この第2閾値Kは、図5に示すように第1閾値Kよりも低い値として設定された閾値であり、輝度KがK≦K<Kの範囲内にあれば、その部分が入力操作を行なっているユーザの手であると判断可能な値に設定されている。CPU10は、輝度Kが第1閾値Kよりも小さく第2閾値K以上となる範囲となる領域を、ユーザの手が位置する手領域16として判別する。 Further, CPU 10 together with the brightness determining using a threshold K a, determine the area where luminance K is in a range to be the second threshold value K b or less than the first threshold value K a (K b ≦ K < K a is satisfied) To do. The second threshold value K b is a threshold value set as a value lower than the first threshold value K a as shown in FIG. 5, and if the luminance K is within the range of K b ≦ K <K a , that portion Is set to a value that can be determined to be the hand of the user performing the input operation. CPU10 is an area where luminance K is in a range to be the second threshold value K b or less than the first threshold value K a, to determine the hand region 16 the user's hand is positioned.

ここで、図4に示すように、ユーザが例えば人差し指で選択ボタン5を操作する際、人差し指以外の手の部分が半透明スクリーン3に同時に触れてしまうと、接触領域15が複数検出されてしまうことになる。このように、入力操作が複数箇所で同時に行なわれてしまうと、ユーザの意図しない選択ボタン5が入力操作されることになるため、このような状況下においては、これら複数の接触領域15a,15b…のうち人差し指に相当する接触領域15aを選別する必要がある。   Here, as shown in FIG. 4, when the user operates the selection button 5 with, for example, the index finger, if a part of the hand other than the index finger touches the translucent screen 3 at the same time, a plurality of contact areas 15 are detected. It will be. In this way, if the input operation is performed at a plurality of locations at the same time, the selection button 5 not intended by the user is input, and therefore, in such a situation, the plurality of contact areas 15a and 15b. It is necessary to select the contact area 15a corresponding to the index finger.

そこで、CPU10は以下の手順によって接触領域15を選別する。まず前提条件として、予めCPU10は、半透明スクリーン3の背面3aのうちプロジェクタ4が選択ボタン5を投影している領域をボタン投影領域Eとして認識している。本例においてプロジェクタ4は半透明スクリーン3の中央上部寄りに各種選択ボタン5を投影しているため、この領域がボタン投影領域Eとなっている。また、本例においては半透明スクリーン3の背面全体をカメラ6の撮影領域としており、CPU10はこのカメラ撮影領域とボタン投影領域Eとの差の部分を差領域Eとして認識している。なお、ボタン投影領域Eが第1領域に相当し、差領域Eが第2領域に相当する。 Therefore, the CPU 10 sorts the contact area 15 by the following procedure. First, as a precondition, in advance CPU10 is aware of the region where the projector 4 is projecting a selection button 5 of the back face 3a of the translucent screen 3 as a button projection region E 1. The projector 4 because it projects the various selection buttons 5 top center side of the translucent screen 3, this region has a button projection region E 1 in this embodiment. Further, in this embodiment the entire back surface of the translucent screen 3 has an imaging region of the camera 6, CPU 10 is aware portion of the difference between the camera shooting area button projection area E 1 as the difference area E 2. Incidentally, the button projection region E 1 corresponds to the first region, the area of difference E 2 corresponds to the second region.

続いて、CPU10は、ユーザが半透明スクリーン3を操作する際の手の操作方向(以下、先端方向ベクトルBと記す)を算出する。この先端方向ベクトルBの算出処理として、CPU10は先程算出した手領域16をボタン投影領域Eと差領域Eとで区分し、ボタン投影領域Eの手領域である第1手領域16aにおいて重心Gを算出し、差領域Eの手領域である第2手領域16bおいて重心Gを算出する。重心G,Gは半透明スクリーン3の画素単位の値として算出され、重心座標を(x,y)、画像データDから得られた手領域16a(16b)の画素数をn、各画素のx座標値をx、各画素のy座標値をyとすると次式によって求められる。 Subsequently, the CPU 10 calculates the operation direction of the hand when the user operates the translucent screen 3 (hereinafter referred to as the tip direction vector B). As calculation processing of this distal direction vector B, CPU 10 will divide the hand area 16 calculated earlier in the button projection region E 1 and the difference area E 2, in the first hand region 16a is a hand region of the button projection region E 1 calculating the center of gravity G 1, it calculates a second hand region 16b Oite centroid G 2 is a hand region of the difference area E 2. The centroids G 1 and G 2 are calculated as pixel unit values of the translucent screen 3, the centroid coordinates are (x g , y g ), and the number of pixels of the hand region 16 a (16 b) obtained from the image data D a is n. If the x coordinate value of each pixel is x k and the y coordinate value of each pixel is y k , the following equation is obtained.

Figure 2007080187
即ち、上式からも分かるように、x座標値及びy座標値の各々において和をとり、これら和をそれぞれ画素数で割ることによってx座標値及びy座標値の平均値を算出し、以上によって求まったx座標平均値とy座標平均値を重心座標としている。なお、第1手領域16aが第1操作部位画像に相当し、第2手領域16bが第2操作部位画像に相当する。
Figure 2007080187
That is, as can be seen from the above formula, the sum of the x-coordinate value and the y-coordinate value is calculated and the average of the x-coordinate value and the y-coordinate value is calculated by dividing the sum by the number of pixels. The obtained x-coordinate average value and y-coordinate average value are used as the barycentric coordinates. The first hand region 16a corresponds to the first operation part image, and the second hand region 16b corresponds to the second operation part image.

続いて、CPU10は、重心Gと重心Gを通るとともに、差領域Eの重心Gからボタン投影領域Eの重心Gに向かうベクトルを先端方向ベクトルBとして算出する。即ち、2点の座標が分かれば、この座標を減算すればベクトルが算出可能であるため、本例においては重心Gから重心Gを減算することによって先端方向ベクトルB(=G−G)を算出する。 Then, CPU 10, as well as through the center of gravity G 1 and the center of gravity G 2, calculates a vector from the center of gravity G 2 of the difference area E 2 to the center of gravity G 1 of the button projection area E 1 as distal direction vector B. That is, if coordinates of two points is known, since the vector can be calculated if subtracting the coordinates, the distal direction vector B by subtracting the center of gravity G 2 from the center of gravity G 1 in this example (= G 1 -G 2 ) is calculated.

先端方向ベクトルBの算出後、CPU10は接触領域15が複数ある場合、各接触領域15a,15b…の写像をとることによって、接触領域15a,15b…を先端方向ベクトルB上に置き換える。写像をとる手順として、各手領域16a,16bで重心G,Gを算出した場合と同様の手順で、CPU10は各々の接触領域15a,15b…において重心Gs1,Gs2,…をとる。続いて、CPU10はこれら重心Gs1,Gs2,…から先端方向ベクトルBに下ろした垂線の足の座標を接触点Ps1,Ps2…として算出する。これら接触点Ps1,Ps2…も、半透明スクリーン3の画素単位の値として算出される。CPU10は、これら接触点Ps1,Ps2…の中から先端方向ベクトルBに対して最先端に位置する接触点(本例はPs1)を、ユーザが意図する操作位置Pとして選別する。なお、先端方向ベクトルB上の座標位置が特性値に相当する。 After calculating the tip direction vector B, the CPU 10 replaces the contact regions 15a, 15b... With the tip direction vector B by mapping the contact regions 15a, 15b. As a procedure of taking a mapping, each hand area 16a, in the same procedure as when calculating the center of gravity G 1, G 2 at 16b, CPU 10 each of the contact area 15a, the center of gravity G s1, G s2 at 15b ..., taking ... . Subsequently, the CPU 10 calculates the coordinates of the feet of the perpendicular line drawn from these centroids G s1 , G s2 ,... To the tip direction vector B as the contact points P s1 , P s2 . These contact points P s1 , P s2 ... Are also calculated as pixel unit values of the translucent screen 3. The CPU 10 selects a contact point (P s1 in this example) positioned at the forefront with respect to the tip direction vector B from the contact points P s1 , P s2 ... As the operation position P x intended by the user. The coordinate position on the tip direction vector B corresponds to the characteristic value.

CPU10は、選別した操作位置Pと、半透明スクリーン3に表示された選択ボタン5の座標位置(x,y)とを比較する。ところで、1つの選択ボタン5は複数のドットから成り立っているため、CPU10は操作位置Pがこれら座標位置(x,y)のどれかに重なっていれば、それをユーザが選択した選択ボタン5と選定し、その選択ボタン5に応じた作動要求信号Sを車載機器用制御回路9に出力する。車載機器用制御回路9は、操作位置検出用制御回路8から作動要求信号Sを入力すると、その作動要求信号Sに基づき車載機器を作動させる。 The CPU 10 compares the selected operation position P x with the coordinate position (x, y) of the selection button 5 displayed on the translucent screen 3. By the way, since one selection button 5 is composed of a plurality of dots, the CPU 10 selects the selection button 5 selected by the user if the operation position P x overlaps any one of these coordinate positions (x, y). And the operation request signal S corresponding to the selection button 5 is output to the on-vehicle equipment control circuit 9. When the operation request signal S is input from the operation position detection control circuit 8, the in-vehicle device control circuit 9 operates the in-vehicle device based on the operation request signal S.

従って、本例においては、ユーザが半透明スクリーン3の選択ボタン5を操作する際には、半透明スクリーン3に輝度Kの変化が生じるため、この輝度Kの変化を見て入力操作時の操作位置Pを判断するという簡単な手法で、ユーザによる半透明スクリーン3上の操作位置Pを認識することが可能となる。このように、入力操作が行なわれてから操作位置Pが特定されるまでにCPU10が行なう処理が簡単になれば、その分だけ操作位置判定に要する時間が短く済むことになり、入力操作から車載機器作動までに間が生じ難くなって、スムーズな操作感覚が確保される。 Therefore, in this example, when the user operates the selection button 5 of the translucent screen 3, a change in the luminance K occurs in the translucent screen 3. in simple method of determining the position P x, it is possible to recognize the operation position P x on the translucent screen 3 by the user. As described above, if the processing performed by the CPU 10 after the input operation is performed until the operation position P x is specified, the time required for the operation position determination can be shortened accordingly. It is difficult for a time until the vehicle-mounted device is activated, and a smooth operation feeling is ensured.

また、ユーザが半透明スクリーン3に触れて入力操作を行なう際、ユーザが意図しない指や手等が半透明スクリーン3に触れて、複数の箇所で接触領域15が生じる場合がある。ところで、ユーザが選択ボタン5を操作する際には人差し指の先端を用いて行なうため、これら接触領域15a,15b…のうち先端方向ベクトルBの最先端位置にあるものを操作位置Pとして選別すれば、それはユーザが意図する操作位置Pである確率が高い。従って、より的確にユーザの操作位置Pを選別することが可能となる。 Further, when the user touches the translucent screen 3 to perform an input operation, a finger or a hand that is not intended by the user may touch the translucent screen 3 and the contact area 15 may be generated at a plurality of locations. Meanwhile, in order to perform with the tip of the index finger when the user operates the selection button 5, by sorting these contact areas 15a, 15b ... what is most advanced position in the distal direction vector B of the operation position P x For example, it is highly probable that the operation position P x is intended by the user. Therefore, it is possible to select the operating position P x of the user more accurately.

本実施形態の構成によれば、以下に記載の効果を得ることができる。
(1)半透明スクリーン3上に生じる輝度Kの変化を見るという簡単な手法で、ユーザが選択ボタン5を操作する際の操作位置Pを認識することができる。従って、選択ボタン5の入力操作が行なわれてから操作位置Pを特定するまでの処理が簡単になり、操作位置判定に要する処理時間の短時間化、スムーズな操作感覚の確保、CPU10の処理負担軽減等の効果を得ることができる。また、ユーザが選択ボタン5を選択するに際して複数箇所で半透明スクリーン3に触れたとしても、これら複数の接触領域15a,15b…のうち先端方向ベクトルBの最先端に位置するものがユーザの意図する操作位置Pとして選択される。従って、ユーザが選択ボタン5の選択に際して、意図しない箇所で半透明スクリーン3に触れても、より的確にユーザの操作位置Pを選別することができる。
According to the configuration of the present embodiment, the following effects can be obtained.
(1) in a simple manner of seeing a change in luminance K occurring on the translucent screen 3, it is possible to recognize the operation position P x when the user operates the selection button 5. Therefore, it becomes easier to process up to identify the operating position P x from being performed the input operation of the selection button 5, a short time of processing time required for determination operation position, ensuring smooth operation feeling, CPU 10 processes Effects such as burden reduction can be obtained. Further, even if the user touches the semi-transparent screen 3 at a plurality of places when selecting the selection button 5, the user's intention is that of the plurality of contact areas 15a, 15b,. Is selected as the operation position Px. Accordingly, the user can in selecting the selection buttons 5 or touching the translucent screen 3 at an unintended point, selecting an operating position P x of the user more accurately.

(2)ユーザが選択ボタン5を操作する際には人差し指の先端を用いて行なうため、接触領域15が複数存在する場合、これら接触領域15a,15b…のうち先端方向ベクトルBの最先端位置にあるものを操作位置Pとして選別すれば、それはユーザが意図する操作位置Pである確率が高い。よって、本例はそれをユーザが意図する操作位置Pとして指定するので、より的確にユーザの操作位置Pを選別することができる。 (2) Since the user operates the selection button 5 using the tip of the index finger, when there are a plurality of contact areas 15, the tip direction vector B is at the foremost position of the contact areas 15 a, 15 b. If a certain object is selected as the operation position P x , it is highly probable that the operation position P x is intended by the user. Therefore, since this example designates it as the operation position P x intended by the user, the user's operation position P x can be more accurately selected.

(3)先端方向ベクトルBは、操作位置Pを指定するに際して毎回算出されるため、例えばこのベクトルを固定値データとした場合に比べて、ベクトル値の精度がよくなる。従って、この先端方向ベクトルBを用いて操作位置Pを選別した場合に、ユーザが入力操作として行なわなかった接触領域15を操作位置Pとして選別し難くなり、誤入力発生防止に効果が高い。 (3) Since the tip direction vector B is calculated every time the operation position Px is designated, the accuracy of the vector value is improved as compared with, for example, the case where this vector is fixed value data. Therefore, when selecting the operating position P x with the distal direction vector B, a user is less likely to screen the contact area 15 that did not take place as the input operation as a operation position P x, is highly effective in erroneous input prevention .

(4)2つの重心G,Gをとる領域が、半透明スクリーン3中央上部寄りの領域であるボタン投影領域Eと、このボタン投影領域E及びカメラ撮影領域の差領域Eとである。従って、ユーザが半透明スクリーン3の選択ボタン5を操作する際には、手が2つの領域に亘って映り易いため、例えば1つの領域にのみ手が映って2つの重心G,Gが算出できないような状況になり難い。 (4) A region having two centroids G 1 and G 2 is a button projection region E 1 which is a region closer to the upper center of the translucent screen 3, and a difference region E 2 between the button projection region E 1 and the camera photographing region. It is. Accordingly, when the user operates the selection button 5 of the translucent screen 3, the hand is easily reflected in two areas. For example, the hand is reflected in only one area and the two centers of gravity G 1 and G 2 are displayed. It is hard to be in a situation that cannot be calculated.

(5)複数の接触領域15a,15b…が生じた場合、これら接触領域15a,15b…を先端方向ベクトルBに写像して、最先端に位置する接触領域15aを選別する。従って、これら接触領域15a,15b…のうち先端方向ベクトルBに対して最先端に位置するものを選別する際の精度が一層向上し、誤入力発生防止効果に一層寄与する。   (5) When a plurality of contact areas 15a, 15b,... Are generated, the contact areas 15a, 15b,. Therefore, the accuracy when selecting the contact region 15a, 15b... Which is located at the forefront with respect to the tip direction vector B is further improved, which further contributes to the effect of preventing erroneous input.

なお、本実施形態は上記構成に限定されず、以下の態様に変更してもよい。
・ プロジェクタ4に赤外線光源を並設し、半透明スクリーン3の背面のうち差領域E部分に赤外線塗料を塗布して、ボタン投影領域Eの画像は可視光で取得し、差領域Eの画像は赤外線で取得するようにしてもよい。このとき、カメラ6は可視光のみ受光可能なものではなく、赤外線も受光可能なものを用いる必要がある。この場合、ボタン投影領域Eと差領域Eとで各々用いる光の種類が異なるため、領域分けが明確になり、精度よく重心G,Gを算出することができる。
In addition, this embodiment is not limited to the said structure, You may change into the following aspects.
An infrared light source is provided side by side on the projector 4 and an infrared paint is applied to the difference area E 2 portion of the back surface of the translucent screen 3 so that the image of the button projection area E 1 is obtained with visible light, and the difference area E 2 These images may be acquired by infrared rays. At this time, the camera 6 must be capable of receiving not only visible light but also infrared light. In this case, since the types of light used in the button projection area E 1 and the difference area E 2 are different, the area division becomes clear and the centroids G 1 and G 2 can be calculated with high accuracy.

・ 複数の接触領域15a,15b…が存在する場合、そのうちユーザが意図するものを選ぶ方法は、先端方向ベクトルBの最先端に位置するものを操作位置Pとして選別する方法に限定されない。例えば、各接触領域15a,15b…において接触面積を算出し、この中から接触面積が最も大きいものを、ユーザが意図する操作位置Pとして算出してもよい。 - a plurality of contact regions 15a, if the 15b ... exists, how to choose them what the user intends, but is not limited to the method of selecting those at the forefront of the front end direction vector B as operation position P x. For example, the contact area may be calculated in each of the contact regions 15a, 15b... And the contact area having the largest contact area may be calculated as the operation position P x intended by the user.

・ 先端方向ベクトルBは、操作位置Pxを算出する際、その度に毎回求めることに限定されず、ユーザの存在する方向が特定できる場合には固定値データでもよい。
・ 第1領域はボタン投影領域Eに限定されず、第2領域はカメラ撮影領域及びボタン投影領域Eの差をとった差領域Eであることに限定されず、自由に変更してもよい。
The tip direction vector B is not limited to being obtained every time the operation position Px is calculated, and may be fixed value data when the direction in which the user exists can be specified.
- the first region is not limited to the button projection region E 1, the second region is not limited to a camera imaging region and a button projection area difference region E 2 taken the difference between E 1, free to change Also good.

・ 本例の操作入力装置1は、車載用であることに限定されず、例えば映像機器、オーディオ、デジタルカメラ、電話機、パーソナルコンピュータ、プリンタ等の入力パネルとして使用してもよい。   The operation input device 1 of this example is not limited to being used on a vehicle, and may be used as an input panel of, for example, a video device, an audio, a digital camera, a telephone, a personal computer, a printer, or the like.

次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
(1)請求項2〜5のいずれかにおいて、前記先端方向ベクトルは固定値データである。この場合、先端方向ベクトルを逐一計算によって求める必要がないため、画面の操作位置算出時において操作位置検出手段にかかる処理負担を軽減することが可能となる。
Next, technical ideas that can be grasped from the above-described embodiment and other examples will be described below together with their effects.
(1) In any one of Claims 2-5, the said front-end | tip direction vector is fixed value data. In this case, since it is not necessary to obtain the tip direction vector by calculation one by one, it is possible to reduce the processing burden on the operation position detection means when calculating the operation position on the screen.

(2)請求項3〜5のいずれかにおいて、前記半透明スクリーンの背面には赤外線光源が設けられ、前記半透明スクリーンの背面のうち前記第2領域に対応する領域には赤外線透過材が設けられ、前記操作位置検出手段は、可視光で受ける領域を前記第1領域として判定し、赤外線で受ける領域を前記第2領域として判定する。この場合、第1領域と第2領域とでは受ける光の種類が違うため、第1領域と第2領域と各領域を明確に区分けして認識することが可能となり、これら領域を取り違える領域誤判定が生じ難くなる。   (2) In any one of Claims 3-5, an infrared light source is provided in the back surface of the semi-transparent screen, and an infrared transmitting material is provided in a region corresponding to the second region in the back surface of the semi-transparent screen. The operation position detecting means determines an area received by visible light as the first area, and determines an area received by infrared light as the second area. In this case, since the types of light received by the first region and the second region are different, the first region, the second region, and each region can be clearly distinguished and recognized. Is less likely to occur.

一実施形態における車室内を示す斜視図。The perspective view which shows the vehicle interior in one Embodiment. 操作入力装置の半透明スクリーンを分解した状態の車室内の斜視図。The perspective view of the vehicle interior of the state which decomposed | disassembled the semi-transparent screen of the operation input device. 操作入力装置の概略構成を示す構成図。The block diagram which shows schematic structure of an operation input apparatus. 操作位置の選別方法を説明するための半透明スクリーンを背面から見た説明図。Explanatory drawing which looked at the translucent screen for demonstrating the selection method of an operation position from the back. 輝度判定時に用いる第1閾値及び第2閾値の関係を示す一軸座標図。The uniaxial coordinate figure which shows the relationship between the 1st threshold value used at the time of brightness | luminance determination, and a 2nd threshold value.

符号の説明Explanation of symbols

1…操作入力装置、3…半透明スクリーン、3a…背面、3b…表示面、4…投影手段としてのプロジェクタ、5…表示物としての選択ボタン、6…撮影手段としてのカメラ、10…操作位置検出手段及び実行手段を構成するCPU、15(15a〜15f)…接触領域、16a…第1操作部位画像としての第1手領域、16b…第2操作部位画像としての第2手領域、D…画像データ、K…輝度、P…操作位置、(x、y)…座標位置、K…第1閾値、K…第2閾値、B…操作方向としての先端方向ベクトル、E…第1領域としてのボタン投影領域、E…第2領域としての差領域、G,G…重心。 DESCRIPTION OF SYMBOLS 1 ... Operation input apparatus, 3 ... Translucent screen, 3a ... Back surface, 3b ... Display surface, 4 ... Projector as projection means, 5 ... Selection button as display thing, 6 ... Camera as imaging means, 10 ... Operation position CPU constituting the detecting means and execution means, 15 (15a~15f) ... contact region, 16a ... first hand region as the first operation region image, 16b ... second hand region of the second operating region image, D a ... image data, K ... luminance, P x ... operation position, (x, y) ... coordinate position, K a ... first threshold value, K b ... second threshold value, B ... tip direction vector as operation direction, E 1 ... Button projection area as the first area, E 2 ... difference area as the second area, G 1 , G 2 ... centroid.

Claims (5)

半透明スクリーンと、
前記半透明スクリーンに背面側から表示物を投影する投影手段と、
前記半透明スクリーンを背面側から撮影する撮影手段と、
前記撮影手段が取得した画像データを用い、前記半透明スクリーンに映る画像の輝度を基に表示面における操作位置を検出し、当該操作位置が複数検出された際には、該輝度から求まる特性値の最も高い操作位置をユーザが意図する操作位置として検出する操作位置検出手段と、
前記操作位置検出手段が検出した前記操作位置と、前記投影手段が投影した前記表示物の座標位置とを比較し、これら位置が一致したことを条件に前記表示物に応じた処理を実行させる実行手段と
を備えたことを特徴とする操作入力装置。
A translucent screen,
Projection means for projecting a display object from the back side onto the translucent screen;
Photographing means for photographing the translucent screen from the back side;
Using the image data acquired by the photographing means, the operation position on the display surface is detected based on the luminance of the image displayed on the translucent screen, and when a plurality of the operation positions are detected, the characteristic value obtained from the luminance An operation position detecting means for detecting the highest operation position as an operation position intended by the user;
The operation position detected by the operation position detection unit is compared with the coordinate position of the display object projected by the projection unit, and the process according to the display object is executed on condition that these positions match. And an operation input device.
前記操作位置検出手段は、前記輝度が閾値以上となる領域を前記ユーザが前記表示面に触れている接触領域として検出し、前記ユーザが前記表示物を選択操作する際の操作方向に対し、当該操作方向の最先端に位置する前記接触領域を前記操作位置として検出することを特徴とする請求項1に記載の操作入力装置。   The operation position detection means detects an area where the luminance is equal to or greater than a threshold as a contact area where the user touches the display surface, and the operation position detection unit performs the operation with respect to an operation direction when the user selects the display object. The operation input device according to claim 1, wherein the contact area located at the forefront of the operation direction is detected as the operation position. 前記操作位置検出手段は、前記半透明スクリーンの区画域である第1領域及び第2領域の各々において、前記輝度が当該閾値よりも低い値の第2閾値以上で、かつ当該閾値よりも低い値となる領域を前記操作部位の画像として認識し、前記第1領域に表示される第1操作部位画像と、前記第2領域に表示される第2操作部位画像との各々で画像の重心を算出し、これら重心を通るとともに前記第2操作部位画像の重心から前記第1操作部位画像の重心に向かう先端方向ベクトルを前記操作方向として算出することを特徴とする請求項2に記載の操作入力装置。   The operation position detecting means has a value that is greater than or equal to a second threshold value that is lower than the threshold value and lower than the threshold value in each of the first region and the second region that are partitioned areas of the translucent screen. And the center of gravity of the image is calculated for each of the first operation part image displayed in the first area and the second operation part image displayed in the second area. 3. The operation input device according to claim 2, wherein a tip direction vector passing through the center of gravity and extending from the center of gravity of the second operation part image toward the center of gravity of the first operation part image is calculated as the operation direction. . 前記第1領域は、前記投影手段による前記表示物の投影領域であり、前記第2領域は、前記撮影手段の撮影領域と前記投影領域との差の領域であることを特徴とする請求項3に記載の操作入力装置。   4. The first area is a projection area of the display object by the projection unit, and the second area is a difference area between the imaging area of the imaging unit and the projection area. The operation input device described in 1. 前記操作位置検出手段は、前記接触領域を前記先端方向ベクトルに写像することによって、複数の前記接触領域の中から最先端に位置する接触領域を指定することを特徴とする請求項3又は4に記載の操作入力装置。
5. The operation position detecting means designates a contact area located at the forefront from a plurality of the contact areas by mapping the contact area to the tip direction vector. The operation input device described.
JP2005270419A 2005-09-16 2005-09-16 Operation input device Pending JP2007080187A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005270419A JP2007080187A (en) 2005-09-16 2005-09-16 Operation input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005270419A JP2007080187A (en) 2005-09-16 2005-09-16 Operation input device

Publications (1)

Publication Number Publication Date
JP2007080187A true JP2007080187A (en) 2007-03-29

Family

ID=37940402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005270419A Pending JP2007080187A (en) 2005-09-16 2005-09-16 Operation input device

Country Status (1)

Country Link
JP (1) JP2007080187A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129021A (en) * 2007-11-20 2009-06-11 Ntt Docomo Inc Information input system and information input method
JP2011209706A (en) * 2010-03-08 2011-10-20 Dainippon Printing Co Ltd Screen used as display of small-sized display device having touch panel function and small-sized display device having touch panel function, including the same
JP2011209705A (en) * 2010-03-08 2011-10-20 Dainippon Printing Co Ltd Screen used as display of small-sized display device having touch panel function and small-sized display device having touch panel function, including the same
JP2013020210A (en) * 2011-07-14 2013-01-31 Dainippon Printing Co Ltd Transmission type screen, rear projection type display device having the same, and method for manufacturing transmission type screen
KR101371736B1 (en) * 2012-08-22 2014-03-07 현대자동차(주) Method for recognizing touching of touch screen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141101A (en) * 1993-11-19 1995-06-02 Hitachi Ltd Input system using picture
JPH1138949A (en) * 1997-07-15 1999-02-12 Sony Corp Plotting device, plotting method, and recording medium
JP2002244808A (en) * 2001-02-16 2002-08-30 Canon Inc Coordinate input device and method of controlling the same, computer-readable memory, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141101A (en) * 1993-11-19 1995-06-02 Hitachi Ltd Input system using picture
JPH1138949A (en) * 1997-07-15 1999-02-12 Sony Corp Plotting device, plotting method, and recording medium
JP2002244808A (en) * 2001-02-16 2002-08-30 Canon Inc Coordinate input device and method of controlling the same, computer-readable memory, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129021A (en) * 2007-11-20 2009-06-11 Ntt Docomo Inc Information input system and information input method
JP2011209706A (en) * 2010-03-08 2011-10-20 Dainippon Printing Co Ltd Screen used as display of small-sized display device having touch panel function and small-sized display device having touch panel function, including the same
JP2011209705A (en) * 2010-03-08 2011-10-20 Dainippon Printing Co Ltd Screen used as display of small-sized display device having touch panel function and small-sized display device having touch panel function, including the same
JP2013020210A (en) * 2011-07-14 2013-01-31 Dainippon Printing Co Ltd Transmission type screen, rear projection type display device having the same, and method for manufacturing transmission type screen
KR101371736B1 (en) * 2012-08-22 2014-03-07 현대자동차(주) Method for recognizing touching of touch screen
CN103631449A (en) * 2012-08-22 2014-03-12 现代自动车株式会社 Touch recognition system and method for touch screen

Similar Documents

Publication Publication Date Title
US11205348B2 (en) Drive assist device
JP2007141177A (en) Operation input device
US8593417B2 (en) Operation apparatus for in-vehicle electronic device and method for controlling the same
US8085243B2 (en) Input device and its method
US8538090B2 (en) Device for manipulating vehicle built-in devices
CN109840014B (en) Virtual touch recognition apparatus and method for correcting recognition error thereof
US20110029185A1 (en) Vehicular manipulation input apparatus
US20100194713A1 (en) User interface device
JP2003114755A (en) Device for inputting coordinates
JP2008250774A (en) Information equipment operation device
JP2010184600A (en) Onboard gesture switch device
JP4626860B2 (en) Operating device
US8542218B2 (en) Electronic switch apparatus for vehicle
JP5382313B2 (en) Vehicle operation input device
JP2007080187A (en) Operation input device
WO2018061603A1 (en) Gestural manipulation system, gestural manipulation method, and program
US20140078044A1 (en) Input device
WO2014103217A1 (en) Operation device and operation detection method
US20160328088A1 (en) Controlling method for a sensing system
JP2013120447A (en) Display control system
KR101488287B1 (en) Display Device for Recognizing Touch Move
WO2018116565A1 (en) Information display device for vehicle and information display program for vehicle
JP5136948B2 (en) Vehicle control device
JP2010083206A (en) Device for operating on-vehicle electronic appliance
JP4157577B2 (en) Coordinate input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706