JP2007080187A - Operation input device - Google Patents
Operation input device Download PDFInfo
- Publication number
- JP2007080187A JP2007080187A JP2005270419A JP2005270419A JP2007080187A JP 2007080187 A JP2007080187 A JP 2007080187A JP 2005270419 A JP2005270419 A JP 2005270419A JP 2005270419 A JP2005270419 A JP 2005270419A JP 2007080187 A JP2007080187 A JP 2007080187A
- Authority
- JP
- Japan
- Prior art keywords
- area
- operation position
- user
- translucent screen
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、ユーザが機器を稼働させる際に行なう入力操作を、撮影画像を用いて検出する操作入力装置に関する。 The present invention relates to an operation input device that detects an input operation performed when a user operates a device using a captured image.
従来、ユーザにより行なわれるカーナビゲーションシステム等の車載機器への入力操作を検出する操作入力装置として、例えば車両に配設された画面へのタッチ操作を入力操作としてタッチセンサで検出するタッチ操作入力装置が使用されている。このタッチ操作入力装置としては、例えば画面の入力操作位置を絶対位置で検出する絶対位置検出式のものや、或いは画面への入力操作時の操作量及び操作方向を相対位置で検出する相対位置検出式のものがある。 2. Description of the Related Art Conventionally, as an operation input device that detects an input operation to an in-vehicle device such as a car navigation system performed by a user, for example, a touch operation input device that detects a touch operation on a screen disposed in a vehicle as an input operation by a touch sensor Is used. As this touch operation input device, for example, an absolute position detection type that detects an input operation position on the screen as an absolute position, or a relative position detection that detects an operation amount and an operation direction at the time of an input operation on the screen as a relative position There is a formula.
しかし、このタッチ操作入力装置は、ユーザによる画面へのタッチ操作をタッチセンサで検出するものであるため、ユーザの指等が触れる接触部分においてタッチセンサが劣化する問題は否めない。従って、操作入力装置の耐久性を向上させるために、この種のタッチセンサを用いずにユーザの入力操作を検出可能な構成の操作入力装置が望まれていた。 However, since this touch operation input device detects a touch operation on the screen by the user with the touch sensor, there is a problem that the touch sensor deteriorates at a contact portion touched by the user's finger or the like. Therefore, in order to improve the durability of the operation input device, there has been a demand for an operation input device having a configuration capable of detecting a user input operation without using this type of touch sensor.
そこで、スクリーンに各種選択ボタンを映し出し、そのスクリーンをカメラで撮影して、ユーザによるスクリーン上の選択ボタンの操作を、カメラからの撮影画像を基に検出するカメラ撮影式の操作入力装置が例えば特許文献1〜3に開示されている。この種のカメラ撮影式の操作入力装置を使用すれば、ユーザが指等でセンサに触れる等の操作が必要ないため、その接触部分におけるセンサの劣化等の問題が生じず、操作入力装置の高い耐久性が確保される。
しかし、特許文献1の技術については、操作入力装置がユーザによる入力操作の操作位置を特定するに際して、カメラで取り込んだ画像データ(画像信号)の2値化処理、細線化処理、画像端点の検出処理等の複雑で多工程に亘る画像処理が必要となるため、その操作位置特定処理の煩雑化を招く。よって、入力操作が行なわれてから操作位置が特定されるまでに時間を要する場合があり、入力操作から実際に操作入力装置が稼働するまでに間が生じて、スムーズな操作感覚を確保できない場合がある。また、特許文献2に関しても、画像データのピクセル変換、ピクセル変化の傾向分析、物件動作の移行判断等の画像処理が必要となるため、特許文献1と同様の問題が生じる。 However, in the technique of Patent Document 1, when the operation input device specifies the operation position of the input operation by the user, the binarization processing, thinning processing, and image end point detection of the image data (image signal) captured by the camera Since complicated and multi-step image processing such as processing is required, the operation position specifying processing becomes complicated. Therefore, it may take time for the operation position to be specified after the input operation is performed, and there is a delay between the input operation and the operation input device actually operating, and a smooth operation feeling cannot be secured. There is. Further, with respect to Patent Document 2, image processing such as pixel conversion of image data, trend analysis of pixel change, and determination of property movement transition is required, and thus the same problem as Patent Document 1 occurs.
次いで、特許文献3は、指示目標物体を指し示す先端点と、指示操作を行なう際の基準位置となる基準点との直線をとり、この直線上の先端にある位置を指示目標物体として検出する技術である。しかし、この技術においては基準点のキャリブレーションが必要であるため、特許文献1,2と同様に操作位置指定処理の煩雑化を招く。また、この種のキャリブレーションが必要であるとすると、面倒な作業をユーザに課すことになり、操作入力装置の使い勝手をよくするためには、この種の作業を不要にしたい要望もある。特に、この技術を車載機器に用いた場合、運転者にキャリブレーションを毎回課すのは酷であり、実用には向かない。
Next,
また、場合によっては、同時に複数箇所で入力操作が検出され、複数の選択ボタンが同時に選択される状況になる場合も考えられる。入力操作に際して同時入力が生じた場合、ユーザが意図しない操作位置が入力位置として判別され、必要としない処理が実行されてしまうことにもなりかねないため、装置の使い勝手をよくするためにも、同時入力に関して何らかの対応策を施す必要もある。 In some cases, input operations are detected at a plurality of locations at the same time, and a plurality of selection buttons may be selected at the same time. When simultaneous input occurs during an input operation, an operation position that is not intended by the user is determined as an input position, and unnecessary processing may be executed. It is also necessary to take some measures for simultaneous input.
本発明の目的は、撮影手段から入力した画像を基にユーザの入力操作位置を特定する場合であっても、その際に要する処理が簡単で、しかもより的確に操作位置を特定することができる操作入力装置を提供することにある。 An object of the present invention is to specify a user's input operation position on the basis of an image input from a photographing unit, so that the processing required at that time is simple, and the operation position can be specified more accurately. To provide an operation input device.
この発明によれば、半透明スクリーンと、前記半透明スクリーンに背面側から表示物を投影する投影手段と、前記半透明スクリーンを背面側から撮影する撮影手段と、前記撮影手段が取得した画像データを用い、前記半透明スクリーンに映る画像の輝度を基に表示面における操作位置を検出し、当該操作位置が複数検出された際には、該輝度から求まる特性値の最も高い操作位置をユーザが意図する操作位置として検出する操作位置検出手段と、前記操作位置検出手段が検出した前記操作位置と、前記投影手段が投影した前記表示物の座標位置とを比較し、これら位置が一致したことを条件に前記表示物に応じた処理を実行させる実行手段とを備えたことを要旨とする。 According to the present invention, a translucent screen, a projection unit that projects a display object on the translucent screen from the back side, an imaging unit that captures the translucent screen from the back side, and image data acquired by the imaging unit The operation position on the display surface is detected based on the brightness of the image displayed on the translucent screen, and when a plurality of the operation positions are detected, the user selects the operation position with the highest characteristic value obtained from the brightness. The operation position detection means for detecting as an intended operation position, the operation position detected by the operation position detection means, and the coordinate position of the display object projected by the projection means are compared, and it is confirmed that these positions match. The gist of the invention is that it includes execution means for executing a process according to the display object according to the condition.
この構成によれば、半透明スクリーンには、各種機器を作動させる際に選択操作される各種表示物(例えば選択ボタン等)が投影手段によって表示される。この表示物としては、例えば機器の電源オンボタン、作動モード選択ボタン、電源オフボタン等がある。機器を作動させるには、ユーザが半透明スクリーン上の所望の表示物を指等で触れる入力操作を行なう。 According to this configuration, on the translucent screen, various display objects (for example, selection buttons or the like) that are selected and operated when operating various devices are displayed by the projection unit. Examples of the display object include an apparatus power-on button, an operation mode selection button, and a power-off button. In order to operate the device, the user performs an input operation of touching a desired display object on the translucent screen with a finger or the like.
ところで、半透明スクリーンは背面が撮影手段によって常時撮影され、その画像データが操作位置検出手段に転送される。ここで、半透明スクリーン上の表示物が入力操作された際には、投影手段から出された光がユーザの指や手等で反射し、その反射光が半透明スクリーンに到達していく過程で拡散するため、指(手)が半透明スクリーンに近い部位ほど輝度が高くなる。よって、操作位置検出手段は、撮影手段から取得した画像データを用い、輝度の上昇した部分をユーザによる操作位置として検出する。そして、操作位置検出手段が検出した操作位置と、投影手段が投影した表示物の座標位置とが実行手段によって比較され、これら両位置が一致した際には、その操作位置にある表示物に応じた処理が実行手段によって実行される。 By the way, the back surface of the translucent screen is always photographed by the photographing means, and the image data is transferred to the operation position detecting means. Here, when the display object on the translucent screen is input, the light emitted from the projection means is reflected by the user's finger or hand, and the reflected light reaches the translucent screen. Since the finger (hand) is closer to the translucent screen, the luminance is higher. Therefore, the operation position detecting means detects the portion where the brightness is increased as the operation position by the user, using the image data acquired from the photographing means. Then, the operation position detected by the operation position detection means and the coordinate position of the display object projected by the projection means are compared by the execution means, and when these two positions match, the display object at the operation position is selected. The processing is executed by the execution means.
従って、本発明においては、ユーザが半透明スクリーンの表示体を選択操作する際に半透明スクリーンに生じる輝度の変化を見て入力操作位置を判断するという簡単な手法で、ユーザによる入力操作位置を認識することが可能となる。このため、場合によっては、入力操作が行なわれてから操作位置が特定されるまでに要する処理時間を短く済ますことも可能となり、入力操作から実際に操作入力装置が稼働するまでに間が生じ難くなって、スムーズな操作感覚を確保することも可能となる。 Therefore, in the present invention, the input operation position by the user is determined by a simple method of judging the input operation position by looking at the change in luminance generated on the translucent screen when the user selects and operates the display body of the translucent screen. It becomes possible to recognize. For this reason, in some cases, it is possible to shorten the processing time required from the time when the input operation is performed until the operation position is specified, and it is difficult to cause a time from the input operation until the operation input device is actually operated. Thus, it is possible to ensure a smooth operation feeling.
また、ユーザが半透明スクリーンに触れて入力操作を行なう際、ユーザが意図しない部位が半透明スクリーンに触れて、複数箇所で同時に入力操作が行なわれる場合がある。しかし、このように複数の操作位置でユーザが半透明スクリーンに触れても、各操作位置の輝度に関して特性値(例えば、操作方向における位置、半透明スクリーンに触れた際の接触面積等)が最も高いものを、ユーザが意図する入力位置として検出する。よって、同時入力が生じても、ユーザが意図しない操作位置を入力位置として検出し難くなる。 Further, when the user touches the semi-transparent screen to perform an input operation, a part unintended by the user touches the semi-transparent screen and the input operation may be performed simultaneously at a plurality of locations. However, even when the user touches the semi-transparent screen at a plurality of operation positions in this way, the characteristic value (for example, the position in the operation direction, the contact area when touching the semi-transparent screen, etc.) regarding the brightness of each operation position is most A high one is detected as an input position intended by the user. Therefore, even if simultaneous input occurs, it is difficult to detect an operation position not intended by the user as the input position.
この発明によれば、前記操作位置検出手段は、前記輝度が閾値以上となる領域を前記ユーザが前記表示面に触れている接触領域として検出し、前記ユーザが前記表示物を選択操作する際の操作方向に対し、当該操作方向の最先端に位置する前記接触領域を前記操作位置として検出することを要旨とする。 According to this invention, the operation position detecting means detects an area where the luminance is equal to or higher than a threshold as a contact area where the user is touching the display surface, and the user performs a selection operation on the display object. The gist is to detect, as the operation position, the contact region located at the forefront of the operation direction with respect to the operation direction.
この構成によれば、ユーザが半透明スクリーンに触れて入力操作を行なう際には、例えば手の最先端部位(例えば人差し指の先端)で半透明スクリーンを触るが、この入力操作においては、この操作部位以外の部位も同時に半透明スクリーンに触れてしまう場合がある。しかし、このような同時入力が生じても、これら複数ある接触領域のうち操作方向の最先端に位置するものを、ユーザが入力操作として行なった部位の接触領域として認識する。よって、操作方向の最先端に位置するものは、ユーザが意図して入力する操作位置である確率が高いため、より的確に操作位置を選別することが可能となる。 According to this configuration, when the user performs an input operation by touching the translucent screen, for example, the semi-transparent screen is touched at the most advanced part of the hand (for example, the tip of the index finger). Other parts may also touch the translucent screen at the same time. However, even if such simultaneous input occurs, the contact area located at the forefront of the operation direction among the plurality of contact areas is recognized as the contact area of the part that the user has performed as the input operation. Therefore, since there is a high probability that an object positioned at the forefront of the operation direction is an operation position that the user intends to input, the operation position can be more accurately selected.
この発明によれば、前記操作位置検出手段は、前記半透明スクリーンの区画域である第1領域及び第2領域の各々において、前記輝度が当該閾値よりも低い値の第2閾値以上で、かつ当該閾値よりも低い値となる領域を前記操作部位の画像として認識し、前記第1領域に表示される第1操作部位画像と、前記第2領域に表示される第2操作部位画像との各々で画像の重心を算出し、これら重心を通るとともに前記第2操作部位画像の重心から前記第1操作部位画像の重心に向かう先端方向ベクトルを前記操作方向として算出することを要旨とする。 According to this invention, the operation position detection means has a luminance equal to or higher than a second threshold value that is lower than the threshold value in each of the first area and the second area that are the partitioned areas of the translucent screen, and Recognizing a region having a value lower than the threshold as an image of the operation region, each of a first operation region image displayed in the first region and a second operation region image displayed in the second region The gist is to calculate the center of gravity of the image, and to calculate, as the operation direction, a tip direction vector that passes through the center of gravity and extends from the center of gravity of the second operation part image to the center of gravity of the first operation part image.
この構成によれば、先端方向ベクトルはその時々の入力操作の際に、その操作部位の操作方向に応じて適宜算出されるため、例えば先端方向ベクトルを固定値データとした場合に比べて、先端方向ベクトルの精度がよくなる。従って、ユーザが入力を行なうに際して同時入力が発生しても、ユーザが意図しない間違った接触領域を、ユーザが入力操作として行なった部位の接触領域として認識し難くなり、誤入力発生防止に一層効果がある。 According to this configuration, since the tip direction vector is appropriately calculated according to the operation direction of the operation part at the time of the input operation at that time, for example, compared to the case where the tip direction vector is fixed value data, The accuracy of the direction vector is improved. Therefore, even if simultaneous input occurs when the user performs input, it is difficult to recognize an incorrect contact area that the user does not intend as a contact area of a part that the user has performed as an input operation, which is further effective in preventing erroneous input. There is.
この発明によれば、前記第1領域は、前記投影手段による前記表示物の投影領域であり、前記第2領域は、前記撮影手段の撮影領域と前記投影領域との差の領域であることを要旨とする。 According to this invention, the first area is a projection area of the display object by the projection means, and the second area is a difference area between the imaging area of the imaging means and the projection area. The gist.
この構成によれば、第1領域を表示体の表示領域、第2領域を撮影領域及び表示領域の差の領域とすると、例えば第1領域が半透明スクリーンの中央寄り領域となり、第2領域が第1領域の周囲を囲む周縁の領域となる。このような位置関係があれば、先端方向ベクトルを算出する際に必要となる2点が同一領域に位置してしまう状況になり難く、先端方向ベクトルの算出に際して好ましい領域分布となる。 According to this configuration, if the first area is the display area of the display body and the second area is the difference area between the imaging area and the display area, for example, the first area is an area closer to the center of the translucent screen, and the second area is It becomes a peripheral area surrounding the periphery of the first area. If there is such a positional relationship, it is unlikely that the two points necessary for calculating the tip direction vector will be located in the same region, and a preferable region distribution is obtained when calculating the tip direction vector.
この発明によれば、前記操作位置検出手段は、前記接触領域を前記先端方向ベクトルに写像することによって、複数の前記接触領域の中から最先端に位置する接触領域を指定することを要旨とする。 According to this invention, the operation position detecting means designates a contact area located at the forefront from the plurality of contact areas by mapping the contact area to the tip direction vector. .
この構成によれば、複数の接触領域が存在する場合、これら接触領域を先端方向ベクトルに写像して接触領域の位置を比較するため、複数の接触領域から最先端に位置するものを選別する際の精度が高まり、このことも誤入力発生防止に一層効果がある。 According to this configuration, when there are a plurality of contact areas, in order to map the contact areas to the tip direction vector and compare the positions of the contact areas, when selecting the most advanced one from the plurality of contact areas This is also more effective in preventing erroneous input.
本発明によれば、撮影手段から入力した画像を基にユーザの入力操作位置を特定する場合であっても、その際に要する処理が簡単で、しかもより的確に操作位置を特定することができる。 According to the present invention, even when the user's input operation position is specified based on the image input from the photographing means, the processing required at that time is simple, and the operation position can be specified more accurately. .
図1に示すように、操作入力装置1は、各種機器を作動させる際の操作パネルとして機能する装置であり、例えば車両2のカーナビゲーションシステム、オーディオ機器、空調装置等の車載機器を動作させる際に入力操作される。操作入力装置1は、半透明スクリーン3に背面側からプロジェクタ4(図2参照)で各種選択ボタン5を表示するとともに、半透明スクリーン3を背面側からカメラ6(図2参照)で撮影し、その選択ボタン5がユーザの指等で選択操作された際に変わる輝度Kの変化を撮影画像から求めて、半透明スクリーン3上における操作位置Pxを特定する。なお、プロジェクタ4が投影手段に、選択ボタン5が表示物に、カメラ6が撮影手段に各々相当する。
As shown in FIG. 1, the operation input device 1 is a device that functions as an operation panel when operating various devices. For example, when operating an in-vehicle device such as a car navigation system, an audio device, and an air conditioner of the vehicle 2. Input operation. The operation input device 1 displays
図2に示すように、車両運転席の前部にはセンタークラスター7が配設され、そのセンタークラスター7の中央部に半透明スクリーン3が取り付けられている。半透明スクリーン3は、例えば四角形状の平板状をなしており、像性能を示す拡散性のプラスティック材のシートで構成されている。
As shown in FIG. 2, a
半透明スクリーン3の背面3aには、プロジェクタ4が車体に固着された状態で取り付けられている。プロジェクタ4はRGB各々のフィルタを通した光を合成して画像を投影する装置であり、例えば液晶プロジェクタが用いられ、車両機器を作動させるための各種選択ボタン5を半透明スクリーン3の背面3aから投影する。これにより、半透明スクリーン3の表面が表示面3bとなり、この表示面3bに各種選択ボタン5の文字が表向き状態で表示される。
A
同じく半透明スクリーン3の背面3aには、カメラ6がプロジェクタ4に並設状態で車体に固着されている。カメラ6は、画像を可視光で撮影可能なCMOS(Complementary Metal Oxide Semiconductor)カメラ等が使用され、半透明スクリーン3の背面3aを撮影する。本例においてはカメラ6によって取得した画像で輝度の変化を見て半透明スクリーン3における入力操作の有無を判断するため、カメラ6で取得した撮影画像においては輝度の変化が見られれば充分であることから、カメラ6の画素数は例えば数十万画素程度あればよい。
Similarly, a
図3に示すように、車体には、操作入力装置1を統括制御する操作位置検出用制御回路8、車載機器を作動させる車載機器用制御回路9が取り付けられている。操作位置検出用制御回路8は、同回路8のメイン制御を司るCPU(Central processing Unit)10、各種プログラム群及びデータ群を記憶したROM(Read-Only Memory)11、プログラム実行時におけるCPU10の作業領域となるRAM(Random Access Memory)12、各種データの入出口となるインターフェース13を備えている。これらデバイスは、操作位置検出用制御回路8内のバス14を通じて相互接続されている。なお、CPU10が操作位置検出手段及び実行手段を構成する。
As shown in FIG. 3, an operation position detection control circuit 8 that performs overall control of the operation input device 1 and an in-vehicle device control circuit 9 that operates the in-vehicle device are attached to the vehicle body. The operation position detection control circuit 8 includes a CPU (Central processing Unit) 10 that controls the main control of the circuit 8, a ROM (Read-Only Memory) 11 that stores various program groups and data groups, and operations of the
ROM11には、車両機器を動作させるべくユーザが半透明スクリーン3で行なう入力操作を検出する操作位置検出プログラムPprが記憶されている。この操作位置検出プログラムPprは、プロジェクタ4を駆動して半透明スクリーン3に選択ボタン5を表示させ、ユーザが半透明スクリーン3上の選択ボタン5を選択操作する際に、その画像をカメラ6で撮影し、その画像データDaを基にユーザの操作位置Pxを検出するプログラムである。
The
CPU10は、エンジンスイッチ(図示略)がアクセサリ位置又はイグニッション位置に操作された際に起動を開始して操作位置検出プログラムPprを立ち上げ、インターフェース13を介してプロジェクタ4に起動開始指令及び表示データDbを出力する。プロジェクタ4は操作位置検出用制御回路8から起動開始指令を受けると起動を開始し、操作位置検出用制御回路8から入力する表示データDbに基づく表示画面(選択ボタン5)を半透明スクリーン3に投影する。
The
CPU10は、プロジェクタ4に起動開始指令を出力するのと同様に、インターフェース13を介してカメラ6にも起動開始指令を出力する。カメラ6は操作位置検出用制御回路8から起動開始指令を受けると起動を開始し、半透明スクリーン3を背面3aから撮影して、その画像データDaを操作位置検出用制御回路8に出力する。カメラ6はCPU10から起動開始指令を受ける度に数十〜数百μsの時間範囲で画像撮影を行ない、起動開始信号を連続的に受け取ることで、操作位置検出用制御回路8に連続画像を出力する。
The
CPU10は、インターフェース13内のノイズ除去回路13aでノイズを取り去った後に画像データDaを取り込み、その画像データDaを基に半透明スクリーン3上の輝度Kを算出する。ここで、ユーザが半透明スクリーン3を指等で触れると、図3に示すようにプロジェクタ4から投影される光が指や手等で反射し、その反射光が拡散するため、指が半透明スクリーン3に近い部分ほど、カメラ6で入力する画像の輝度Kが高く(光が明るく)なる。よって、CPU10は半透明スクリーン3上で輝度Kが高い部分をユーザによる入力操作の操作位置Pxとして導出する。CPU10はこの操作位置Pxを見ることで選択ボタン5が操作されたか否かを判断し、選択ボタン5が操作された際には、その選択ボタン5に応じた処理を車両機器に実行させるべく、作動要求信号Sを車載機器用制御回路9に出力する。
CPU10 captures the image data D a after removal of the noise in the
車載機器用制御回路9は、操作位置検出用制御回路8から作動要求信号Sを入力すると、その作動要求信号Sに応じた車載機器を作動させる。例えば、半透明スクリーン3でカーナビゲーションシステムの電源オンボタンが操作された場合には、カーナビゲーションシステムが起動し、カーナビゲーションシステムの起動下で行き先入力ボタンが操作された場合には、カーナビゲーションシステムの作動モードが行き先入力モードに切り換わる。
When the operation request signal S is input from the operation position detection control circuit 8, the in-vehicle device control circuit 9 operates the in-vehicle device according to the operation request signal S. For example, when the power on button of the car navigation system is operated on the
次に、操作位置Pxの検出手順の詳細を説明する。
図3及び図4に示すように、半透明スクリーン3上で選択ボタン5を表現する各ドットの座標位置(x,y)は、選択ボタン5の表示サイズや、プロジェクタ4の設置位置及び設置角度に基づく選択ボタン5の表示位置等によって決まる。よって、操作位置検出プログラムPprにこの座標位置(x,y)に関する座標位置データを組み込んでおけば、CPU10は表示データDbをプロジェクタ4に投影させる際、各選択ボタン5,5…が半透明スクリーン3上でどの座標位置(x,y)に位置しているかを認識することが可能である。
Next, details of the procedure for detecting the operation position P x.
As shown in FIGS. 3 and 4, the coordinate position (x, y) of each dot representing the
カメラ6が半透明スクリーン3の背面3aを撮影し、CPU10がその撮影画像を取得すると、CPU10は半透明スクリーン3の画像の中で輝度Kが第1閾値Ka以上(K≧Kaが成立)となる領域を判別する。この第1閾値Kaは、輝度Kがこの値以上となれば、ユーザが半透明スクリーン3に触れていると判断可能な値に設定されている。よって、CPU10は、輝度Kが第1閾値Ka以上となる領域を、ユーザが半透明スクリーン3に触れている接触領域15として判別する。
The
また、CPU10は閾値Kaを用いた輝度判別とともに、輝度Kが第1閾値Kaよりも小さく第2閾値Kb以上となる範囲(Kb≦K<Kaが成立)となる領域を判別する。この第2閾値Kbは、図5に示すように第1閾値Kaよりも低い値として設定された閾値であり、輝度KがKb≦K<Kaの範囲内にあれば、その部分が入力操作を行なっているユーザの手であると判断可能な値に設定されている。CPU10は、輝度Kが第1閾値Kaよりも小さく第2閾値Kb以上となる範囲となる領域を、ユーザの手が位置する手領域16として判別する。
Further,
ここで、図4に示すように、ユーザが例えば人差し指で選択ボタン5を操作する際、人差し指以外の手の部分が半透明スクリーン3に同時に触れてしまうと、接触領域15が複数検出されてしまうことになる。このように、入力操作が複数箇所で同時に行なわれてしまうと、ユーザの意図しない選択ボタン5が入力操作されることになるため、このような状況下においては、これら複数の接触領域15a,15b…のうち人差し指に相当する接触領域15aを選別する必要がある。
Here, as shown in FIG. 4, when the user operates the
そこで、CPU10は以下の手順によって接触領域15を選別する。まず前提条件として、予めCPU10は、半透明スクリーン3の背面3aのうちプロジェクタ4が選択ボタン5を投影している領域をボタン投影領域E1として認識している。本例においてプロジェクタ4は半透明スクリーン3の中央上部寄りに各種選択ボタン5を投影しているため、この領域がボタン投影領域E1となっている。また、本例においては半透明スクリーン3の背面全体をカメラ6の撮影領域としており、CPU10はこのカメラ撮影領域とボタン投影領域E1との差の部分を差領域E2として認識している。なお、ボタン投影領域E1が第1領域に相当し、差領域E2が第2領域に相当する。
Therefore, the
続いて、CPU10は、ユーザが半透明スクリーン3を操作する際の手の操作方向(以下、先端方向ベクトルBと記す)を算出する。この先端方向ベクトルBの算出処理として、CPU10は先程算出した手領域16をボタン投影領域E1と差領域E2とで区分し、ボタン投影領域E1の手領域である第1手領域16aにおいて重心G1を算出し、差領域E2の手領域である第2手領域16bおいて重心G2を算出する。重心G1,G2は半透明スクリーン3の画素単位の値として算出され、重心座標を(xg,yg)、画像データDaから得られた手領域16a(16b)の画素数をn、各画素のx座標値をxk、各画素のy座標値をykとすると次式によって求められる。
Subsequently, the
続いて、CPU10は、重心G1と重心G2を通るとともに、差領域E2の重心G2からボタン投影領域E1の重心G1に向かうベクトルを先端方向ベクトルBとして算出する。即ち、2点の座標が分かれば、この座標を減算すればベクトルが算出可能であるため、本例においては重心G1から重心G2を減算することによって先端方向ベクトルB(=G1−G2)を算出する。
Then,
先端方向ベクトルBの算出後、CPU10は接触領域15が複数ある場合、各接触領域15a,15b…の写像をとることによって、接触領域15a,15b…を先端方向ベクトルB上に置き換える。写像をとる手順として、各手領域16a,16bで重心G1,G2を算出した場合と同様の手順で、CPU10は各々の接触領域15a,15b…において重心Gs1,Gs2,…をとる。続いて、CPU10はこれら重心Gs1,Gs2,…から先端方向ベクトルBに下ろした垂線の足の座標を接触点Ps1,Ps2…として算出する。これら接触点Ps1,Ps2…も、半透明スクリーン3の画素単位の値として算出される。CPU10は、これら接触点Ps1,Ps2…の中から先端方向ベクトルBに対して最先端に位置する接触点(本例はPs1)を、ユーザが意図する操作位置Pxとして選別する。なお、先端方向ベクトルB上の座標位置が特性値に相当する。
After calculating the tip direction vector B, the
CPU10は、選別した操作位置Pxと、半透明スクリーン3に表示された選択ボタン5の座標位置(x,y)とを比較する。ところで、1つの選択ボタン5は複数のドットから成り立っているため、CPU10は操作位置Pxがこれら座標位置(x,y)のどれかに重なっていれば、それをユーザが選択した選択ボタン5と選定し、その選択ボタン5に応じた作動要求信号Sを車載機器用制御回路9に出力する。車載機器用制御回路9は、操作位置検出用制御回路8から作動要求信号Sを入力すると、その作動要求信号Sに基づき車載機器を作動させる。
The
従って、本例においては、ユーザが半透明スクリーン3の選択ボタン5を操作する際には、半透明スクリーン3に輝度Kの変化が生じるため、この輝度Kの変化を見て入力操作時の操作位置Pxを判断するという簡単な手法で、ユーザによる半透明スクリーン3上の操作位置Pxを認識することが可能となる。このように、入力操作が行なわれてから操作位置Pxが特定されるまでにCPU10が行なう処理が簡単になれば、その分だけ操作位置判定に要する時間が短く済むことになり、入力操作から車載機器作動までに間が生じ難くなって、スムーズな操作感覚が確保される。
Therefore, in this example, when the user operates the
また、ユーザが半透明スクリーン3に触れて入力操作を行なう際、ユーザが意図しない指や手等が半透明スクリーン3に触れて、複数の箇所で接触領域15が生じる場合がある。ところで、ユーザが選択ボタン5を操作する際には人差し指の先端を用いて行なうため、これら接触領域15a,15b…のうち先端方向ベクトルBの最先端位置にあるものを操作位置Pxとして選別すれば、それはユーザが意図する操作位置Pxである確率が高い。従って、より的確にユーザの操作位置Pxを選別することが可能となる。
Further, when the user touches the
本実施形態の構成によれば、以下に記載の効果を得ることができる。
(1)半透明スクリーン3上に生じる輝度Kの変化を見るという簡単な手法で、ユーザが選択ボタン5を操作する際の操作位置Pxを認識することができる。従って、選択ボタン5の入力操作が行なわれてから操作位置Pxを特定するまでの処理が簡単になり、操作位置判定に要する処理時間の短時間化、スムーズな操作感覚の確保、CPU10の処理負担軽減等の効果を得ることができる。また、ユーザが選択ボタン5を選択するに際して複数箇所で半透明スクリーン3に触れたとしても、これら複数の接触領域15a,15b…のうち先端方向ベクトルBの最先端に位置するものがユーザの意図する操作位置Pxとして選択される。従って、ユーザが選択ボタン5の選択に際して、意図しない箇所で半透明スクリーン3に触れても、より的確にユーザの操作位置Pxを選別することができる。
According to the configuration of the present embodiment, the following effects can be obtained.
(1) in a simple manner of seeing a change in luminance K occurring on the
(2)ユーザが選択ボタン5を操作する際には人差し指の先端を用いて行なうため、接触領域15が複数存在する場合、これら接触領域15a,15b…のうち先端方向ベクトルBの最先端位置にあるものを操作位置Pxとして選別すれば、それはユーザが意図する操作位置Pxである確率が高い。よって、本例はそれをユーザが意図する操作位置Pxとして指定するので、より的確にユーザの操作位置Pxを選別することができる。
(2) Since the user operates the
(3)先端方向ベクトルBは、操作位置Pxを指定するに際して毎回算出されるため、例えばこのベクトルを固定値データとした場合に比べて、ベクトル値の精度がよくなる。従って、この先端方向ベクトルBを用いて操作位置Pxを選別した場合に、ユーザが入力操作として行なわなかった接触領域15を操作位置Pxとして選別し難くなり、誤入力発生防止に効果が高い。
(3) Since the tip direction vector B is calculated every time the operation position Px is designated, the accuracy of the vector value is improved as compared with, for example, the case where this vector is fixed value data. Therefore, when selecting the operating position P x with the distal direction vector B, a user is less likely to screen the
(4)2つの重心G1,G2をとる領域が、半透明スクリーン3中央上部寄りの領域であるボタン投影領域E1と、このボタン投影領域E1及びカメラ撮影領域の差領域E2とである。従って、ユーザが半透明スクリーン3の選択ボタン5を操作する際には、手が2つの領域に亘って映り易いため、例えば1つの領域にのみ手が映って2つの重心G1,G2が算出できないような状況になり難い。
(4) A region having two centroids G 1 and G 2 is a button projection region E 1 which is a region closer to the upper center of the
(5)複数の接触領域15a,15b…が生じた場合、これら接触領域15a,15b…を先端方向ベクトルBに写像して、最先端に位置する接触領域15aを選別する。従って、これら接触領域15a,15b…のうち先端方向ベクトルBに対して最先端に位置するものを選別する際の精度が一層向上し、誤入力発生防止効果に一層寄与する。
(5) When a plurality of
なお、本実施形態は上記構成に限定されず、以下の態様に変更してもよい。
・ プロジェクタ4に赤外線光源を並設し、半透明スクリーン3の背面のうち差領域E2部分に赤外線塗料を塗布して、ボタン投影領域E1の画像は可視光で取得し、差領域E2の画像は赤外線で取得するようにしてもよい。このとき、カメラ6は可視光のみ受光可能なものではなく、赤外線も受光可能なものを用いる必要がある。この場合、ボタン投影領域E1と差領域E2とで各々用いる光の種類が異なるため、領域分けが明確になり、精度よく重心G1,G2を算出することができる。
In addition, this embodiment is not limited to the said structure, You may change into the following aspects.
An infrared light source is provided side by side on the
・ 複数の接触領域15a,15b…が存在する場合、そのうちユーザが意図するものを選ぶ方法は、先端方向ベクトルBの最先端に位置するものを操作位置Pxとして選別する方法に限定されない。例えば、各接触領域15a,15b…において接触面積を算出し、この中から接触面積が最も大きいものを、ユーザが意図する操作位置Pxとして算出してもよい。
- a plurality of
・ 先端方向ベクトルBは、操作位置Pxを算出する際、その度に毎回求めることに限定されず、ユーザの存在する方向が特定できる場合には固定値データでもよい。
・ 第1領域はボタン投影領域E1に限定されず、第2領域はカメラ撮影領域及びボタン投影領域E1の差をとった差領域E2であることに限定されず、自由に変更してもよい。
The tip direction vector B is not limited to being obtained every time the operation position Px is calculated, and may be fixed value data when the direction in which the user exists can be specified.
- the first region is not limited to the button projection region E 1, the second region is not limited to a camera imaging region and a button projection area difference region E 2 taken the difference between E 1, free to change Also good.
・ 本例の操作入力装置1は、車載用であることに限定されず、例えば映像機器、オーディオ、デジタルカメラ、電話機、パーソナルコンピュータ、プリンタ等の入力パネルとして使用してもよい。 The operation input device 1 of this example is not limited to being used on a vehicle, and may be used as an input panel of, for example, a video device, an audio, a digital camera, a telephone, a personal computer, a printer, or the like.
次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
(1)請求項2〜5のいずれかにおいて、前記先端方向ベクトルは固定値データである。この場合、先端方向ベクトルを逐一計算によって求める必要がないため、画面の操作位置算出時において操作位置検出手段にかかる処理負担を軽減することが可能となる。
Next, technical ideas that can be grasped from the above-described embodiment and other examples will be described below together with their effects.
(1) In any one of Claims 2-5, the said front-end | tip direction vector is fixed value data. In this case, since it is not necessary to obtain the tip direction vector by calculation one by one, it is possible to reduce the processing burden on the operation position detection means when calculating the operation position on the screen.
(2)請求項3〜5のいずれかにおいて、前記半透明スクリーンの背面には赤外線光源が設けられ、前記半透明スクリーンの背面のうち前記第2領域に対応する領域には赤外線透過材が設けられ、前記操作位置検出手段は、可視光で受ける領域を前記第1領域として判定し、赤外線で受ける領域を前記第2領域として判定する。この場合、第1領域と第2領域とでは受ける光の種類が違うため、第1領域と第2領域と各領域を明確に区分けして認識することが可能となり、これら領域を取り違える領域誤判定が生じ難くなる。 (2) In any one of Claims 3-5, an infrared light source is provided in the back surface of the semi-transparent screen, and an infrared transmitting material is provided in a region corresponding to the second region in the back surface of the semi-transparent screen. The operation position detecting means determines an area received by visible light as the first area, and determines an area received by infrared light as the second area. In this case, since the types of light received by the first region and the second region are different, the first region, the second region, and each region can be clearly distinguished and recognized. Is less likely to occur.
1…操作入力装置、3…半透明スクリーン、3a…背面、3b…表示面、4…投影手段としてのプロジェクタ、5…表示物としての選択ボタン、6…撮影手段としてのカメラ、10…操作位置検出手段及び実行手段を構成するCPU、15(15a〜15f)…接触領域、16a…第1操作部位画像としての第1手領域、16b…第2操作部位画像としての第2手領域、Da…画像データ、K…輝度、Px…操作位置、(x、y)…座標位置、Ka…第1閾値、Kb…第2閾値、B…操作方向としての先端方向ベクトル、E1…第1領域としてのボタン投影領域、E2…第2領域としての差領域、G1,G2…重心。 DESCRIPTION OF SYMBOLS 1 ... Operation input apparatus, 3 ... Translucent screen, 3a ... Back surface, 3b ... Display surface, 4 ... Projector as projection means, 5 ... Selection button as display thing, 6 ... Camera as imaging means, 10 ... Operation position CPU constituting the detecting means and execution means, 15 (15a~15f) ... contact region, 16a ... first hand region as the first operation region image, 16b ... second hand region of the second operating region image, D a ... image data, K ... luminance, P x ... operation position, (x, y) ... coordinate position, K a ... first threshold value, K b ... second threshold value, B ... tip direction vector as operation direction, E 1 ... Button projection area as the first area, E 2 ... difference area as the second area, G 1 , G 2 ... centroid.
Claims (5)
前記半透明スクリーンに背面側から表示物を投影する投影手段と、
前記半透明スクリーンを背面側から撮影する撮影手段と、
前記撮影手段が取得した画像データを用い、前記半透明スクリーンに映る画像の輝度を基に表示面における操作位置を検出し、当該操作位置が複数検出された際には、該輝度から求まる特性値の最も高い操作位置をユーザが意図する操作位置として検出する操作位置検出手段と、
前記操作位置検出手段が検出した前記操作位置と、前記投影手段が投影した前記表示物の座標位置とを比較し、これら位置が一致したことを条件に前記表示物に応じた処理を実行させる実行手段と
を備えたことを特徴とする操作入力装置。 A translucent screen,
Projection means for projecting a display object from the back side onto the translucent screen;
Photographing means for photographing the translucent screen from the back side;
Using the image data acquired by the photographing means, the operation position on the display surface is detected based on the luminance of the image displayed on the translucent screen, and when a plurality of the operation positions are detected, the characteristic value obtained from the luminance An operation position detecting means for detecting the highest operation position as an operation position intended by the user;
The operation position detected by the operation position detection unit is compared with the coordinate position of the display object projected by the projection unit, and the process according to the display object is executed on condition that these positions match. And an operation input device.
5. The operation position detecting means designates a contact area located at the forefront from a plurality of the contact areas by mapping the contact area to the tip direction vector. The operation input device described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005270419A JP2007080187A (en) | 2005-09-16 | 2005-09-16 | Operation input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005270419A JP2007080187A (en) | 2005-09-16 | 2005-09-16 | Operation input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007080187A true JP2007080187A (en) | 2007-03-29 |
Family
ID=37940402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005270419A Pending JP2007080187A (en) | 2005-09-16 | 2005-09-16 | Operation input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007080187A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009129021A (en) * | 2007-11-20 | 2009-06-11 | Ntt Docomo Inc | Information input system and information input method |
JP2011209706A (en) * | 2010-03-08 | 2011-10-20 | Dainippon Printing Co Ltd | Screen used as display of small-sized display device having touch panel function and small-sized display device having touch panel function, including the same |
JP2011209705A (en) * | 2010-03-08 | 2011-10-20 | Dainippon Printing Co Ltd | Screen used as display of small-sized display device having touch panel function and small-sized display device having touch panel function, including the same |
JP2013020210A (en) * | 2011-07-14 | 2013-01-31 | Dainippon Printing Co Ltd | Transmission type screen, rear projection type display device having the same, and method for manufacturing transmission type screen |
KR101371736B1 (en) * | 2012-08-22 | 2014-03-07 | 현대자동차(주) | Method for recognizing touching of touch screen |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07141101A (en) * | 1993-11-19 | 1995-06-02 | Hitachi Ltd | Input system using picture |
JPH1138949A (en) * | 1997-07-15 | 1999-02-12 | Sony Corp | Plotting device, plotting method, and recording medium |
JP2002244808A (en) * | 2001-02-16 | 2002-08-30 | Canon Inc | Coordinate input device and method of controlling the same, computer-readable memory, and program |
-
2005
- 2005-09-16 JP JP2005270419A patent/JP2007080187A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07141101A (en) * | 1993-11-19 | 1995-06-02 | Hitachi Ltd | Input system using picture |
JPH1138949A (en) * | 1997-07-15 | 1999-02-12 | Sony Corp | Plotting device, plotting method, and recording medium |
JP2002244808A (en) * | 2001-02-16 | 2002-08-30 | Canon Inc | Coordinate input device and method of controlling the same, computer-readable memory, and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009129021A (en) * | 2007-11-20 | 2009-06-11 | Ntt Docomo Inc | Information input system and information input method |
JP2011209706A (en) * | 2010-03-08 | 2011-10-20 | Dainippon Printing Co Ltd | Screen used as display of small-sized display device having touch panel function and small-sized display device having touch panel function, including the same |
JP2011209705A (en) * | 2010-03-08 | 2011-10-20 | Dainippon Printing Co Ltd | Screen used as display of small-sized display device having touch panel function and small-sized display device having touch panel function, including the same |
JP2013020210A (en) * | 2011-07-14 | 2013-01-31 | Dainippon Printing Co Ltd | Transmission type screen, rear projection type display device having the same, and method for manufacturing transmission type screen |
KR101371736B1 (en) * | 2012-08-22 | 2014-03-07 | 현대자동차(주) | Method for recognizing touching of touch screen |
CN103631449A (en) * | 2012-08-22 | 2014-03-12 | 现代自动车株式会社 | Touch recognition system and method for touch screen |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11205348B2 (en) | Drive assist device | |
JP2007141177A (en) | Operation input device | |
US8593417B2 (en) | Operation apparatus for in-vehicle electronic device and method for controlling the same | |
US8085243B2 (en) | Input device and its method | |
US8538090B2 (en) | Device for manipulating vehicle built-in devices | |
CN109840014B (en) | Virtual touch recognition apparatus and method for correcting recognition error thereof | |
US20110029185A1 (en) | Vehicular manipulation input apparatus | |
US20100194713A1 (en) | User interface device | |
JP2003114755A (en) | Device for inputting coordinates | |
JP2008250774A (en) | Information equipment operation device | |
JP2010184600A (en) | Onboard gesture switch device | |
JP4626860B2 (en) | Operating device | |
US8542218B2 (en) | Electronic switch apparatus for vehicle | |
JP5382313B2 (en) | Vehicle operation input device | |
JP2007080187A (en) | Operation input device | |
WO2018061603A1 (en) | Gestural manipulation system, gestural manipulation method, and program | |
US20140078044A1 (en) | Input device | |
WO2014103217A1 (en) | Operation device and operation detection method | |
US20160328088A1 (en) | Controlling method for a sensing system | |
JP2013120447A (en) | Display control system | |
KR101488287B1 (en) | Display Device for Recognizing Touch Move | |
WO2018116565A1 (en) | Information display device for vehicle and information display program for vehicle | |
JP5136948B2 (en) | Vehicle control device | |
JP2010083206A (en) | Device for operating on-vehicle electronic appliance | |
JP4157577B2 (en) | Coordinate input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100316 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100706 |