JP2005174356A - Direction detection method - Google Patents

Direction detection method Download PDF

Info

Publication number
JP2005174356A
JP2005174356A JP2004378813A JP2004378813A JP2005174356A JP 2005174356 A JP2005174356 A JP 2005174356A JP 2004378813 A JP2004378813 A JP 2004378813A JP 2004378813 A JP2004378813 A JP 2004378813A JP 2005174356 A JP2005174356 A JP 2005174356A
Authority
JP
Japan
Prior art keywords
gesture
movement
shape
detected
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004378813A
Other languages
Japanese (ja)
Inventor
Shunichi Numazaki
俊一 沼崎
Miwako Doi
美和子 土井
Norio Mihara
功雄 三原
Takahiro Harashima
高広 原島
Yasuaki Yamauchi
康晋 山内
Akira Morishita
明 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2000023548A external-priority patent/JP2001216069A/en
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004378813A priority Critical patent/JP2005174356A/en
Publication of JP2005174356A publication Critical patent/JP2005174356A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a direction detection method for enabling a driver to perform operation safely with onboard equipment without staring at an apparatus. <P>SOLUTION: After a position of an object stands still for a specified period within a specified area or stays in a state of little movement, it moves just for a specified distance in a specified direction, and moves for a specified distance in the direction opposite to the specified direction. When the object stands still just for a specified period or stays in the state of little movement within a specified range again, a moving direction of the object is detected as a movement in the specified direction. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は車載情報機器を始めとする各種の情報機器に対し、操作入力を行う操作入力装置および方法に関する。   The present invention relates to an operation input device and method for performing an operation input to various information devices such as in-vehicle information devices.

近年、自動車の中には、カー・ナビゲーションを始め、オーディオ装置、TV、ビデオ装置、携帯電話、エアコンなど数多くの情報機器、電装機器が搭載されるようになっている。車内で電話をかけるだけでなく、電子メールの読み書き、インターネットへのアクセスさえ可能である。この傾向は今後もますます進み、自動料金収受システムや安全走行支援システムなども導入され、車はまさに走るコンピュータになろうとしている状況である。   In recent years, many information devices and electrical devices such as car navigation systems, audio devices, TVs, video devices, mobile phones, and air conditioners have been installed in automobiles. In addition to making calls in the car, you can read and write emails and even access the Internet. This trend will continue to progress, and automatic toll collection systems and safe driving support systems have been introduced, and the car is about to become a running computer.

また、それらの様々な機器の操作パネルを全て用意するのは困難で、操作部を共有するようになりつつある。現在は、カー・オーディオ用の操作ボタンがあり、エアコン用の操作ボタンがあり、カー・ナビゲーション用の操作ボタンあるいはリモコンがあり、それぞれを使って操作を行うという状況が一般的である。   Also, it is difficult to prepare all the operation panels of these various devices, and the operation units are being shared. Currently, there are operation buttons for car audio, operation buttons for air conditioner, operation buttons for car navigation, or remote control, which are generally used for operation.

しかし、一部の車載機器では、1つのディスプレイに全ての機器の状態が表示され、また、共通の入力装置によって操作を行うことができる。例えば、ディスプレイにタッチパネル機能が搭載されており、画面に表示されるメニューに触れることで操作が行える。ディスプレイには、状況に応じて異なった画面を表示できるため、全ての機器の操作が可能である。例えば、ディスプレイに「エアコン」、「オーディオ」「カーナビ」などのメニューアイコンがあり、「オーディオ」に触れると、オーディオの操作パネルが表示され、その中の「音量を上げる」ボタンに触れると音量が大きくなる。   However, in some in-vehicle devices, the status of all devices is displayed on one display, and operations can be performed using a common input device. For example, a touch panel function is mounted on the display, and an operation can be performed by touching a menu displayed on the screen. Since different screens can be displayed on the display depending on the situation, all devices can be operated. For example, there are menu icons such as “air conditioner”, “audio”, “car navigation” on the display. Touching “Audio” displays the audio operation panel, and touching the “Volume up” button in it displays the volume. growing.

また、表示されたメニュー画面に対し、タッチパネルではなくリモコンのような装置を使って操作を行う製品も多い。その場合には、典型的にはリモコンに4方向を指示するボタンが付いており、これを操作することで、メニューを選択していくものもある。   There are also many products that operate the displayed menu screen using a device such as a remote control instead of a touch panel. In that case, the remote control is typically provided with buttons for instructing four directions, and there are some which select a menu by operating these buttons.

このように、車載機器の種類が増えていく中で、運転者が行う操作の種類は飛躍的に増大している。特にカー・ナビゲーションの登場によって、操作の種類は大幅に増えたと言って良い。このため、運転者が運転中に、あるいは信号待ちなどのわずかな時間に操作を行うというケースが増えている。   Thus, as the types of in-vehicle devices increase, the types of operations performed by the driver have increased dramatically. In particular, with the advent of car navigation, it can be said that the types of operations have greatly increased. For this reason, the number of cases in which the driver performs an operation while driving or in a short time such as waiting for a signal is increasing.

従来ならば、オーディオ操作(音量調整、選曲)やエアコン操作(温度調整、風量調整)程度しか行っていなかったが、近年では、カー・ナビゲーションの表示画面を切り替えたり、現在地近辺の施設を探すために地図をスクロールしたり、携帯電話を使うこともある。   Conventionally, only audio operations (volume adjustment, music selection) and air conditioner operations (temperature adjustment, air volume adjustment) were performed, but in recent years, the display screen of car navigation has been switched and facilities near the current location have been searched. You may scroll the map or use your mobile phone.

このような操作が増えることにより、運転中の注意力が散漫し、事故などの原因になりやすい。事実、運転中の携帯電話の使用によって事故が急増し、道路交通法の改正により、運転中の携帯電話の使用が禁止された。ただし、手に電話機を持たずに通話できるハンズフリー装置を用いている場合は、運転中での使用は許可されている。   As the number of such operations increases, attention during driving is distracted, and an accident is likely to occur. In fact, the use of mobile phones while driving increased the number of accidents, and the revision of the Road Traffic Law prohibited the use of mobile phones while driving. However, when a hands-free device that can talk without having a telephone in hand is used, use during driving is permitted.

この例に見られるように、運転者の視線を動かさずに他のこと(この場合は電話)を行えるようにすることは安全上重要である。
一方、車載機器の操作について述べると、通常は操作パネルを見ながら操作を行うために、運転者の注意が前方よりそれることになる。そのような操作が増えると言うことは、運転中の危険が増大していることを示している。
As seen in this example, it is important for safety to be able to do other things (in this case, a telephone call) without moving the driver's line of sight.
On the other hand, regarding the operation of the in-vehicle device, since the operation is usually performed while looking at the operation panel, the driver's attention is deviated from the front. An increase in such operations indicates an increased risk during operation.

また、前述したひとつの例のように、機器の操作がディスプレイと共通の入力装置に集約していると、例えば、従来ならば、エアコンの温度を上げるのには、温度つまみを回すか、温度上昇ボタンを押せばよかったものが、メインメニューから「エアコン」を選び、エアコンの操作パネルが表示されてから、「温度上昇」ボタンを押すことになり、運転者の視線の動きが増え、危険度が増してしまう。   In addition, as in the example described above, when the operation of the device is concentrated on the input device common to the display, for example, conventionally, to increase the temperature of the air conditioner, turn the temperature knob or What should have been to press the rise button, select "air conditioner" from the main menu, and after the control panel of the air conditioner is displayed, press the "temperature rise" button, increasing the driver's line of sight movement, the risk Will increase.

これらの問題を解決するために、手振りを使うことが考えられ、いくつかの装置が提案されている。特許文献1および特許文献2では、光センサを使った手振り検出装置を用いて、手振りで方向を入力し、操作を行う装置を提案している。しかし、通常、人が手の動きを入力するとき、例えば「右」「右」と繰り返し手振りを行うとき、その間に手は「左」に戻る動作をする。この提案によるとそのような動きをしたときに、「右」「左」「右」と入力されてしまうことになる。
特開平11−44703号公報 特開平10−148640号公報
In order to solve these problems, it is conceivable to use hand gestures, and several devices have been proposed. Patent Literature 1 and Patent Literature 2 propose a device that performs an operation by inputting a direction by hand shaking using a hand shaking detection device using an optical sensor. However, normally, when a person inputs a movement of the hand, for example, when repeatedly waving “right” or “right”, the hand moves back to “left” during that time. According to this proposal, when such a movement is performed, “right”, “left”, and “right” are input.
Japanese Patent Laid-Open No. 11-44703 JP-A-10-148640

本発明は自動車を運転する運転者が、前方を注視したままで、安定して車載機器の操作を行うことが難しかった現状を解決しようとするものである。また、その際に有効である、形状ジェスチャ、方向ジェスチャをより効率的に安定して入力できるようにすることを目的とする。   The present invention is intended to solve the current situation in which it is difficult for a driver driving an automobile to stably operate an in-vehicle device while keeping a close eye on the front. It is another object of the present invention to make it possible to input shape gestures and direction gestures, which are effective at that time, more efficiently and stably.

さらに、これは運転者だけでなく、助手席者も操作することも想定し、画面を見ながら操作する際の効果的な操作方法を発明する。また、車載という特殊な環境の中でより安全に、安定して動作させることも目的とする。また、車載に限らず、さまざまな機器で用いることのできる、汎用的なジェスチャ入力方法の確立を目的とする。   Further, it is assumed that not only the driver but also the passenger seat is operated, and an effective operation method when operating while looking at the screen is invented. Another object is to operate more safely and stably in a special environment of in-vehicle use. Moreover, it aims at establishment of the general purpose gesture input method which can be used with various apparatuses not only in-vehicle.

本願発明は、検出すべき対象物の位置情報の軌跡を解析して前記対象物の方向を検出する方法であって、前記対象物の位置が所定領域内に所定時間内静止または動きの少ない状態でとどまった後、所定の方向に所定の距離だけ動き、前記所定の方向と反対側の方向に所定の距離だけ動き、再び前記所定領域内に所定の時間内だけ静止または動きの少ない状態でとどまったときに、前記所定の方向への動きとして前記対象物の動きの方向を検出することを特徴とする。   The invention of the present application is a method for detecting the direction of the object by analyzing the locus of the position information of the object to be detected, where the position of the object is stationary within a predetermined area or has little movement After moving in a predetermined direction, moving a predetermined distance in a direction opposite to the predetermined direction, and staying still in the predetermined area for a predetermined time or in a state where there is little movement. The direction of the movement of the object is detected as the movement in the predetermined direction.

また、検出すべき対象物の位置情報の軌跡を解析して前記対象物の方向を検出する方法であって、所定の複数方向のうち、前記対象物の位置が所定領域内からいずれかの方向に動いたかを検出し、当該検出された方向と同じ方向への連続する動きの間に発生する前記所定領域内に戻る動きを除去することで前記対象物の複数回の動きの方向を検出することを特徴とする。   Further, it is a method for detecting a direction of the object by analyzing a locus of position information of the object to be detected, and the position of the object is one of a plurality of predetermined directions from a predetermined region. And detecting the direction of the movement of the object a plurality of times by removing the movement returning to the predetermined area that occurs during the continuous movement in the same direction as the detected direction. It is characterized by that.

本願発明によれば、人の身体あるいはその一部の形状や動きなどのジェスチャのうち、異なる2つの種類のジェスチャを用いて操作を行い、第1の種類のジェスチャで、操作モードの選択を行い、第2の種類のジェスチャでその操作モード内でのパラメータの変更を行うことができる操作入力装置が実現できる。   According to the present invention, an operation is performed using two different types of gestures of gestures such as the shape and movement of a human body or a part thereof, and an operation mode is selected with the first type of gesture. An operation input device capable of changing parameters in the operation mode with the second type of gesture can be realized.

以下、図面に従い本発明の実施の形態を説明する。
<概要> 図1は、本発明の実施形態の一例である。第1のジェスチャ検出部1と第2のジェスチャ検出部2は、異なる種類のジェスチャを検出するものである。そして、操作種類選択部3は、第1のジェスチャ検出部1の検出結果に従い、操作の種類を選択する。パラメータ変更部4は、操作種類選択部3で選択された操作の中で、変更可能なパラメータを第2のジェスチャ検出部2の結果に従って変更する。
Embodiments of the present invention will be described below with reference to the drawings.
<Overview> FIG. 1 is an example of an embodiment of the present invention. The first gesture detection unit 1 and the second gesture detection unit 2 are for detecting different types of gestures. Then, the operation type selection unit 3 selects the type of operation according to the detection result of the first gesture detection unit 1. The parameter changing unit 4 changes a changeable parameter in accordance with the result of the second gesture detection unit 2 during the operation selected by the operation type selection unit 3.

操作入力処理部5は、操作種類選択部3とパラメータ変更部5の結果に従い、どのような操作が行われたかを決定する。操作実行部6は決定された操作を実行する。操作入力処理部5は、第1、第2のジェスチャ検出部および操作種類選択部3、パラメータ変更部4を制御し、これらが動作しないようにすることもできる。従って、状況に応じて、どちらか一方のジェスチャ検出のみを行わせたりすることができる。   The operation input processing unit 5 determines what operation has been performed according to the results of the operation type selection unit 3 and the parameter change unit 5. The operation execution unit 6 executes the determined operation. The operation input processing unit 5 can control the first and second gesture detection units, the operation type selection unit 3, and the parameter change unit 4 so that they do not operate. Therefore, only one of the gestures can be detected depending on the situation.

<詳しい構成> 図1をより具体的に示したのが図2である。ここでは第1のジェスチャ検出部は、形状ジェスチャを検出する、形状ジェスチャ検出部7であり、第2のジェスチャ検出部は方向ジェスチャを検出する方向ジェスチャ検出部8である。   <Detailed Configuration> FIG. 2 shows FIG. 1 more specifically. Here, the first gesture detection unit is a shape gesture detection unit 7 that detects a shape gesture, and the second gesture detection unit is a direction gesture detection unit 8 that detects a direction gesture.

ここで、「形状ジェスチャ」とは「手の形で表されるジェスチャ」であり、「方向ジェスチャ」とは「動いた方向を示すジェスチャ」である。この中で、形状ジェスチャの場合には、必ずしも手が動いていなくても良く、その意味で「ジェスチャ」という言葉が当てはまりにくいこともあるが、ここでは広く捉えて、形状の提示もジェスチャのひとつとして扱う。   Here, the “shape gesture” is a “gesture represented by a hand shape”, and the “direction gesture” is a “gesture indicating a moving direction”. Of these, in the case of shape gestures, it is not always necessary to move the hand, and in that sense the word “gesture” may be difficult to apply. Treat as.

<検出手段の詳述> ここで、2つのジェスチャ検出部について、詳述する。
具体例として、上記の形状ジェスチャとは、「グー」「チョキ」「パー」といったじゃんけんで提示するような手の形状である。あるいは、「5本の指のうちどの指を伸ばすか」、あるいは「人差し指と親指で丸を作る」など手によって表現されるさまざまな形のことを指す。
<Details of Detection Unit> Here, the two gesture detection units will be described in detail.
As a specific example, the above-mentioned shape gesture is a shape of a hand that is presented in a barrage such as “goo” “choki” “par”. Alternatively, it refers to various shapes expressed by the hand, such as “Which finger out of five fingers” or “Make a circle with the index finger and thumb”.

形状ジェスチャの例を図3に示す。本来「ジェスチャ」とは動きを伴う意味を含んでおり、必ずしも静止した手形状をジェスチャとは呼ばないこともあるが、これらの形状を提示する際には、操作者は、他の形からこれらの形へ、手の形を変形させているのであるから、その意味で広義のジェスチャとして扱う。また、検出処理方法を考えると、これらを静止形状として扱うのが比較的容易であるが、実際にはこれらの形状の時系列的な組み合わせ、形状と動きを伴うものなどもあり得る。   An example of a shape gesture is shown in FIG. Originally, “gesture” includes a meaning accompanied by movement, and a stationary hand shape is not necessarily called a gesture. However, when presenting these shapes, the operator must use other shapes. Since the shape of the hand is transformed into the shape of, it is treated as a gesture in a broad sense in that sense. Further, considering the detection processing method, it is relatively easy to handle these as stationary shapes, but in actuality, there may be a time-series combination of these shapes, a shape with movement and the like.

具体的に、手の形状を捉えるための手段としては、小型CCDカメラなどを用いて手を撮像し、その画像を解析することで形状を検出することが可能である。
しかし、特に車載機器応用を考えた場合、車内は昼間明るく、夜は暗いと外光状態の変動が大きく、カメラで得られる画像が大きく変動してしまうため、検出精度が低下してしまうという問題がある。カメラの前方を人やものが横切る毎に誤認識するおそれがある。
Specifically, as a means for capturing the shape of the hand, it is possible to detect the shape by imaging the hand using a small CCD camera or the like and analyzing the image.
However, especially when considering in-vehicle equipment applications, if the interior of the vehicle is bright during the day and dark at night, the fluctuation of the outside light condition is large, and the image obtained by the camera greatly fluctuates, so the detection accuracy decreases. There is. There is a risk of erroneous recognition whenever a person or object crosses the front of the camera.

発明者らは、特開平10−177449にあるように、発光手段と、これと同期して動作するイメージセンサによって、物体形状を高速に検出できる画像入力装置を開発した。これは、物体に典型的には赤外光を照射し、これと同期した動作をするイメージセンサを用いて、物体反射光のみを画像として取り出す装置である。反射光の強さは一般的に物体までの距離の2乗に反比例するため、近くの物体が遠くの背景から容易に切り出すことができる。   The inventors have developed an image input device that can detect an object shape at high speed by using a light emitting means and an image sensor that operates in synchronism with the light emitting means, as disclosed in JP-A-10-177449. This is an apparatus that extracts only object reflected light as an image using an image sensor that irradiates an object typically with infrared light and operates in synchronization with the infrared light. Since the intensity of reflected light is generally inversely proportional to the square of the distance to an object, a nearby object can be easily cut out from a distant background.

この入力装置を使うと、装置自体が発光手段を持っているため、夜などの通常のCCDカメラでは撮像が難しい条件下でも、検出が行える。また、発光手段は人間の目に見えない近赤外光を用いるので、運転者の妨げにならない。また、距離のある背景の物体は、反射光が届かず写らないため、関係ない動きなどによる誤動作は小さくできる。   When this input device is used, since the device itself has light emitting means, detection can be performed even under conditions where imaging is difficult with a normal CCD camera such as at night. Further, since the light emitting means uses near infrared light that cannot be seen by human eyes, it does not hinder the driver. In addition, since an object in the background with a distance does not reach because the reflected light does not reach, malfunction due to unrelated movement can be reduced.

これらの画像入力装置から得られた、手の形状を認識して、あらかじめ決められた形状ジェスチャに合致するかどうかを決定する方法について述べる。例えば、指をのばした本数による形状の違いを検出する場合、伸ばした指が横切るであろう領域を設定し、横切っている指の数を数えることによって形状の違いを検出することができる。   A method for recognizing the hand shape obtained from these image input devices and determining whether or not the hand shape matches a predetermined shape gesture will be described. For example, when detecting a difference in shape due to the number of fingers extended, a difference in shape can be detected by setting a region where an extended finger will cross and counting the number of fingers crossing.

別の方法として、手の形状の輪郭線を考えると、指先は山状に出っ張っており、指の間は谷状にへこんでいる、それらの輪郭線形上を解析して、伸ばしている指の数を知ることができる。指先がカメラに向いているような場合は、指先はカメラへの距離が周りに比べ近い点となり、反射光量が極大となる。その極大点の数をカウントすることで、カメラに向いている指の数を検出することができる。   As another method, considering the contour line of the hand shape, the fingertips protrude in a mountain shape, and the gap between the fingers is dented in a valley shape. You can know the number. When the fingertip is facing the camera, the fingertip is closer to the camera than the surroundings, and the amount of reflected light is maximized. By counting the number of local maximum points, the number of fingers facing the camera can be detected.

また、自由な手の形状を認識するために、パタンマッチングという技術を使うことができる。これはあらかじめ認識したい形状をパタンとして登録しておき、入力された形状との相違度を計算し、近い形状があればそれが入力されたと判断するものである。相違度の計算の仕方としては、単純にパタンを重ね合わせ、その重なり具合を計算するものや特徴空間へ写像し、そこでの距離で判断する方法もある。   In addition, a technique called pattern matching can be used to recognize a free hand shape. In this method, a shape to be recognized in advance is registered as a pattern, the degree of difference from the input shape is calculated, and if there is a close shape, it is determined that it has been input. As a method of calculating the degree of difference, there are a method of simply superposing patterns, calculating the degree of overlap, mapping to a feature space, and determining by a distance there.

<静止してから形状認識開始> 形状の認識をする場合、精度よく行おうとすればするほど、処理に時間がかかる。従って、入力される画像のフレーム毎に認識処理を行うと、処理コストが増大してしまう。形状を提示する場合は、操作者が形状を提示して一定時間静止している場合に、認識処理を開始するのが望ましい。これは操作者が意志を持って形状を出す場合は、静止させるという動作は自然であるからである。   <Shape Recognition Start after Standing> When recognizing a shape, the more accurate it is, the longer it takes to process. Therefore, if the recognition process is performed for each frame of the input image, the processing cost increases. When presenting the shape, it is desirable to start the recognition process when the operator presents the shape and is stationary for a certain period of time. This is because when the operator puts out the shape with the will, the operation of stopping is natural.

また、静止状態を見つけたときのみ認識処理を行えばよいから、計算コストを下げることができる。また、ジェスチャを提示する意志無しに、動かした動作は、それが静止しない限り、ジェスチャ提示と誤認識してしまうことがない。   In addition, the calculation process can be reduced because the recognition process only needs to be performed when a stationary state is found. In addition, a motion that is moved without the intention to present a gesture is not erroneously recognized as a gesture presentation unless it is stationary.

一方、方向ジェスチャは、このような画像入力装置から得られる画像から、手の動き方向を抽出することによって行える。例えば、特開平10−177449における画像入力装置を用いた場合、画像には背景は写らず、手の形状のみが写っているので、この画像の重心計算を行えば、手の位置が求められる。その軌跡を追跡することで基本的な動きを検出することが可能である。   On the other hand, the direction gesture can be performed by extracting a hand movement direction from an image obtained from such an image input device. For example, when the image input device disclosed in Japanese Patent Laid-Open No. 10-177449 is used, the background is not captured in the image, and only the shape of the hand is captured. Therefore, the position of the hand can be obtained by calculating the center of gravity of the image. By tracking the trajectory, it is possible to detect basic movement.

手首付近はほとんど動かさず、指先だけを動かすような場合には、手全体の重心計算を行うと、検出される動きの精度が悪いことがある。このような場合は、手の形状を細かく考慮した処理を行うことが考えられる。   When the center of gravity of the entire hand is calculated when moving only the fingertip and hardly moving near the wrist, the accuracy of the detected motion may be poor. In such a case, it is conceivable to perform processing in consideration of the shape of the hand.

例えば、カメラに向かって指を伸ばしている場合、指の先端はカメラに最も近く、したがって反射光が最も大きく、画像中で極大点ととなっていることが多い。このような点を検出し、それらの最も近いもの、あるいは極大点の平均などを求めることで、手全体の重心点を求めるのに比べ、実際の動きに対し感度のよい評価値として、位置情報を得ることができる。この場合、複数ある極大点の画像フレーム間の対応関係などを求めておくと、画像の端のほうに存在していた極大点が画像外に出てしまった場合などの位置の挙動がおかしくなるのを防ぐことができる。   For example, when a finger is stretched toward the camera, the tip of the finger is closest to the camera, and therefore the reflected light is the largest, and is often the maximum point in the image. By detecting these points and calculating the closest point or the average of local maximum points, the position information is used as an evaluation value that is more sensitive to actual movement than the center of gravity of the entire hand. Can be obtained. In this case, if the correspondence between image frames of multiple local maxima is obtained, the behavior of the position becomes strange when the local maxima that existed at the edge of the image go out of the image. Can be prevented.

いずれにしても、得られた手形状データから、位置の情報を取り出し、その軌跡を解析することによって動きジェスチャを検出するのがよい。通常のCCDカメラを使った場合でも色情報などにより、手の形状がきちんと切り出すことができれば、そこから位置情報を取り出すことが可能である。方向ジェスチャを検出する方法については、実施例の後の方で詳しく述べる。   In any case, it is preferable to detect a movement gesture by extracting position information from the obtained hand shape data and analyzing the locus. Even when a normal CCD camera is used, if the shape of the hand can be properly cut out by color information or the like, the position information can be extracted therefrom. A method for detecting the direction gesture will be described in detail later in the embodiment.

<操作状態遷移> この2種類のジェスチャ検出を用いて、構成した操作における、状態遷移図を図4に示す。まず始めは何も行っていない状態である。ここで第1のジェスチャ検出部で検出する。いずれかのジェスチャを提示すると、それが検出され、操作モードの1つに入る。例えば、ジェスチャ1が提示されるとカー・ナビゲーションのビューを操作するモードに入り、ジェスチャ2が提示されるとエアコンの操作モードに入り、ジェスチャ3が提示されるとオーディオ操作のモードに入る。各操作モード内では、4方向の方向ジェスチャによっていくつかのパラメータが調整できるようになっている。   <Operation State Transition> FIG. 4 shows a state transition diagram in a configured operation using these two types of gesture detection. First of all, nothing is done. Here, the first gesture detection unit detects it. Presenting any gesture will detect it and enter one of the operating modes. For example, when the gesture 1 is presented, the mode for operating the car navigation view is entered, when the gesture 2 is presented, the operation mode for the air conditioner is entered, and when the gesture 3 is presented, the mode for the audio operation is entered. Within each operation mode, several parameters can be adjusted by directional gestures in four directions.

例えばオーディオ操作モードにおいては、上方向のジェスチャの提示により音量が大きくなり、下方向のジェスチャの提示により音量が小さくなる。また、右方向のジェスチャ提示により音楽CDなどの次曲選択、左方向のジェスチャ提示により前曲選択が行える。また、オーディオ関係だけ考えても、操作対象として、音楽CD、音楽MD、カセットテープ、ラジオ、場合によってTVなど様々ある。始めにジェスチャ3を提示することによりオーディオ操作モードになったが、そのときは現在動いている対象の操作が行えるようになっている。   For example, in the audio operation mode, the volume is increased by presenting an upward gesture, and the volume is decreased by presenting a downward gesture. In addition, the next song such as a music CD can be selected by presenting the gesture in the right direction, and the previous song can be selected by presenting the gesture in the left direction. Even if only the audio is considered, there are various operation objects such as music CD, music MD, cassette tape, radio, and TV depending on circumstances. At first, the gesture operation 3 is presented to enter the audio operation mode. At that time, the operation of the currently moving object can be performed.

例えば、音楽CDが流れていれば、CDの選曲、音量調整ができるようになっている。ジェスチャ3を繰り返し提示することでこの操作対象を切り替えることができる。例えば、2回繰り返すと音楽MD、もう1度提示するとラジオというように順に切り替わっていく。このとき操作の対象によって、方向ジェスチャによる変更パラメータが変わることがある。   For example, if a music CD is playing, the CD can be selected and the volume can be adjusted. This operation target can be switched by repeatedly presenting the gesture 3. For example, music MD is switched twice when repeated, and radio is switched when presented again. At this time, the change parameter by the direction gesture may change depending on the operation target.

例えば、CDやMDの場合は、右,左の方向ジェスチャで次曲,前曲を選択したが、ラジオの場合にはラジオ局を登録した順に次局、前局を選択するようになる。音量調整はどの操作対象に関しても頻繁に使うので、上下の方向ジェスチャに関してはどの場合でも音量調整を行うようにする。   For example, in the case of CD and MD, the next song and the previous song are selected by the right and left direction gestures, but in the case of the radio, the next station and the previous station are selected in the order in which the radio stations are registered. Since the volume adjustment is frequently used for any operation target, the volume adjustment is performed in any case for the up / down direction gesture.

形状ジェスチャと操作対象の対応付けを覚えておけば、運転者は操作パネルを見ずに、操作モードを選ぶことができる。また、選んだ操作モード内の操作も、上下の方向ジェスチャで、音量の大小、というように非常に覚えやすいものであるため、一連の操作全てが、視線を前方に維持したまま、操作パネルを見ずに行うことができる。   If the association between the shape gesture and the operation target is remembered, the driver can select the operation mode without looking at the operation panel. In addition, the operations in the selected operation mode are very easy to remember, such as the volume of the volume, using the up / down direction gesture, so the entire operation panel can be operated while keeping the line of sight forward. Can be done without looking.

例えば、カー・ナビゲーションを利用しているときには画面にはマップが表示されていることが多いが、このときオーディオの操作を行いたければ、表示のジェスチャを提示することで直ちにオーディオ操作パネルが表示される。通常であれば一旦メインメニューを表示し、メインメニューの中からオーディオ操作の項目を探し、それを選択してはじめてオーディオ操作パネルが表示される。   For example, when using car navigation, a map is often displayed on the screen, but if you want to operate the audio at this time, the audio operation panel is displayed immediately by presenting the display gesture. The Normally, the main menu is displayed once, and an audio operation panel is displayed only after an audio operation item is searched from the main menu and selected.

このように比較すれば、ジェスチャ提示によって、頻繁に用いる機能に素早くアクセスできることの効果は大きい。
<ジェスチャ・アイコン> これらのジェスチャによる操作は非常に簡便であり、よく使用する形状ジェスチャは容易に記憶することができる。また、方向ジェスチャに関しては動きと効果(音量を上げる、下げるなど)が上手く関連づけられているので、覚えやすい。しかしながら、使用を始めたばかりの使用者や、長期間使用をしていなかった後などにおいて、どのようなジェスチャを行えば、何を制御できたか、ということを忘れてしまうことがある。そのような場合に、わざわざ取扱説明書を取り出して読まなくてはならないとしたら、非常に不便である。
When compared in this way, the effect of being able to quickly access frequently used functions by gesture presentation is great.
<Gesture Icons> The operations using these gestures are very simple, and frequently used shape gestures can be easily stored. In addition, movements and effects (such as raising and lowering the volume) are well associated with direction gestures, making it easy to remember. However, the user who has just started using it, or after having not used it for a long period of time, may forget what kind of gesture was performed and what could be controlled. In such a case, it would be very inconvenient if you had to take out the instruction manual and read it.

ここではさらに、ジェスチャを表示したアイコンを画面上に同時に表示することで、操作を忘れた場合も、容易に行うべきジェスチャを知ることができる。これを図5に示す。この図では画面下部にジェスチャの形状を示すアイコン9とそのジェスチャを提示したときに行える操作を一緒に表示してある。このように、実行できる形状ジェスチャとそれで何を操作できるかを表示しておけば、忘れた場合はこの画面を見ることですぐに思い出せる。   Here, by further displaying an icon displaying a gesture on the screen at the same time, it is possible to easily know a gesture to be performed even if the user forgets the operation. This is shown in FIG. In this figure, an icon 9 indicating the shape of a gesture and an operation that can be performed when the gesture is presented are displayed at the bottom of the screen. In this way, if you can display the shape gestures you can perform and what you can do with them, if you forget, you can immediately remember by looking at this screen.

操作ごとにこの画面のジェスチャ・アイコンを見るようでは、操作パネルを見るのと同じであり、運転者の注意が逸れることになるが、この場合は、操作を忘れたときに見るだけなので、安全性は保たれている。むしろ、操作を忘れてしまい、取扱説明書を見る方がよほど危険である。   Looking at the gesture icon on this screen for each operation is the same as looking at the operation panel, which will distract the driver's attention, but in this case it is only safe to see when you forget the operation, so Sex is preserved. Rather, it is more dangerous to forget the operation and see the instruction manual.

<音声フィードバック> 画面を見ずに操作をしていると、時として今、どのような操作モードに入っていて、今何が操作できるのかが分からなくなってしまう。これは前述した、ジェスチャを忘れてしまうのとは異なり、ちょっとしたことで気を取られることによって起こりうる。例えば、ラジオからCDに切り替えようとして、オーディオ操作のためのジェスチャを提示したところで、突然、最近気に入っているヒット曲がかかったり、操作の途中で急に話しかけられたりして、気を取られることによって起こりやすい。   <Voice Feedback> When operating without looking at the screen, sometimes it becomes difficult to know what operation mode is currently in operation and what can be operated now. This can happen by being distracted by a little bit, unlike the forgetting gestures described above. For example, when presenting gestures for audio manipulation when switching from radio to CD, suddenly hit your favorite hit song or suddenly talk in the middle of the operation. Likely to occur.

そのような状況に対処するために、本発明では、状況に応じて、音声を用いて、使用者に現在の状況を知らせる、音声によるフィードバック機能を付加する。
例えば、前述の例で、オーディオ操作ジェスチャを提示した後、何かに気を取られて、分からなくなったとき、「オーディオ操作です」と音声でフィードバックする。あるいは、現在ラジオがかかっているのなら「ラジオ操作です」、CDがかかっているのなら「CD操作です」と状況に応じて音声フィードバックを変えても良い。操作を行うたびに、音声フィードバックを行うのもよい。
In order to deal with such a situation, the present invention adds a voice feedback function that informs the user of the current situation using voice according to the situation.
For example, in the above-described example, after presenting an audio operation gesture, when something is distracted and it is not understood, it is fed back with a voice saying “It is an audio operation”. Alternatively, the audio feedback may be changed according to the situation, such as “Radio operation” if the radio is currently active, or “CD operation” if the CD is active. Audio feedback may be performed each time an operation is performed.

しかし、操作に慣れると、オーディオ操作ジェスチャと続く方向ジェスチャ(音量を上げるなど)は連続して提示されることが多くなり、そのたびに音声フィードバックが起こると煩わしくなる。そこで、オーディオ操作ジェスチャが提示されてからしばらく次の操作が無いときに、使用者が状況を忘れたと判断し、音声フィードバックを返すのが望ましい。また、同様に、音声フィードバックを返した後さらに、一定時間経過した場合、方向ジェスチャによって何が操作できるかを音声フィードバックで返してもよい。例えば「上下で音量調整、左右で選局してください」と言った具合に音声をフィードバックする。   However, as you become accustomed to the operation, the audio operation gesture and the subsequent direction gesture (such as increasing the volume) are often presented in succession, which is bothersome when voice feedback occurs each time. Therefore, when there is no next operation for a while after the audio operation gesture is presented, it is desirable to determine that the user has forgotten the situation and return voice feedback. Similarly, when a certain time has passed after returning the voice feedback, what may be operated by the direction gesture may be returned by the voice feedback. For example, the voice is fed back in a manner such as “Adjust volume at the top and bottom, select the channel at the left and right”.

この機構をブロック図で示したものが、図6である。操作入力処理部10は、形状ジェスチャが入力されるとタイマー12を起動する。タイマー12は一定時間経過すると操作入力処理部10にそのことを伝え、それに従い、操作入力処理部10は音声フィードバック部13に音声フィードバックを行うよう指示を出す。   FIG. 6 shows this mechanism in a block diagram. The operation input processing unit 10 starts the timer 12 when a shape gesture is input. The timer 12 notifies the operation input processing unit 10 when a predetermined time has elapsed, and accordingly, the operation input processing unit 10 instructs the audio feedback unit 13 to perform audio feedback.

また、この処理をフローチャートで示したのが図7である。はじめの状態では、形状ジェスチャの検出のみを行っており(S14)、形状ジェスチャが検出されると(S15)、操作モードを変更し(S16)、ここでタイマーを起動する(S17)。続いて方向ジェスチャの検出(S18)を始めるが、このループの中で、タイマーが起動してから一定時間経過したかどうかを判断し(S20)、経過したと判断されたら音声フィードバックを発生させる(S19)。   FIG. 7 is a flowchart showing this process. In the initial state, only the shape gesture is detected (S14). When the shape gesture is detected (S15), the operation mode is changed (S16), and the timer is started here (S17). Subsequently, the detection of the direction gesture (S18) is started. In this loop, it is determined whether or not a certain time has elapsed since the timer was started (S20), and if it is determined that the time has elapsed, voice feedback is generated (S20). S19).

このフローチャートでは、形状ジェスチャを検出する初期状態へ戻る経路を省いているが、これは、さらに一定時間が経った後、あるいは、特定のジェスチャを行ったときなどに、戻るように構成できる。   In this flowchart, the path to return to the initial state for detecting the shape gesture is omitted, but this can be configured to return after a certain period of time or when a specific gesture is performed.

<音のフィードバック> 操作に迷ったときなどに、音声で現在の状態をフィードバックすると効果があることを述べたが、これ以外にも、操作が実行されたときに音でフィードバックするとさらに効果がある。従来のボタンによる操作パネルでは、操作者はボタンに触ったことが分かり、またボタンを押すことによって手に戻ってくる感触を手がかりにきちんとボタンが押せたかどうかが分かるし、さらには音量が変わる、曲が変わるなどの効果を実際に感じることによって、操作が実際に行われたことを知ることができる。   <Sound feedback> It has been stated that it is effective to feed back the current state with voice when in doubt, etc. In addition to this, it is more effective to feed back with sound when an operation is executed. . In the conventional operation panel with buttons, the operator knows that he / she touched the button, knows whether or not the button has been pressed properly, and the volume changes. It is possible to know that the operation was actually performed by actually feeling an effect such as a song change.

しかし、ジェスチャによって操作を行う場合は、どこにも触れないことから、操作感に乏しいという問題がある。同様のことが例えば、コンピュータにおける操作が上げられる。   However, when the operation is performed by gesture, there is a problem that the operation feeling is poor because no one touches it. The same thing can be done, for example, in a computer.

例えば、マウスでデスクトップのアイコンをダブルクリックし、あるアプリケーションを起動するとき、通常起動するには、ハードディスクなどの記憶装置からプログラムをロードし、画面に表示する時間がかかるため、ダブルクリックした後、瞬時には起動しない。従って、ダブルクリックした後、本当に起動画面が表示されるまでは操作が成功したかどうか分からずに不安である。   For example, when starting an application by double-clicking the desktop icon with the mouse, it usually takes time to load the program from a storage device such as a hard disk and display it on the screen. Does not start instantly. Therefore, after double-clicking, it is uncertain whether or not the operation was successful until the startup screen is actually displayed.

多くのコンピュータおよびソフトウエアでは、この問題に対処するために、ダブルクリックしてプログラムを起動させると、直ちにマウスカーソルの表示を変化させ、起動が行われていることを知らせるようにしている。例えば、矢印状のカーソルが砂時計の形に変わり、起動のための準備をしていることを示したりする。この事実は、なんらかのフィードバックが重要であることを示している。   In many computers and software, in order to deal with this problem, when the program is started by double-clicking, the display of the mouse cursor is immediately changed to indicate that the program is being started. For example, the arrow-shaped cursor changes to an hourglass shape, indicating that it is preparing for activation. This fact shows that some feedback is important.

一方、車載機器を運転者が運転中に操作することを考えると、このようにカーソルの形状を変えるなど、画面上の変化でフィードバックを行うことは適切でない。なぜならば、フィードバックを確認するために、前方から注意を逸らさなくてはならないからである。音でフィードバックを返すことは、運転者が前方から注意を逸らさずに確認することができ、特に本発明のような、ジェスチャによる操作入力装置には極めて有効である。音声によるフィードバックには時間がかかるため、毎回聞かされると煩わしく感じるが、音によるフィードバックは瞬時に行われるため、煩わしさはなく、むしろ操作が完了したことを確認できて安心するという効果がある。   On the other hand, considering that the driver operates the in-vehicle device while driving, it is not appropriate to perform feedback by a change on the screen such as changing the shape of the cursor in this way. This is because attention must be diverted from the front to confirm feedback. Returning feedback by sound can be confirmed without the driver's attention being distracted from the front, and is particularly effective for operation input devices using gestures such as the present invention. Since feedback by voice takes time, it feels troublesome when asked every time, but since feedback by sound is instantaneously performed, there is no annoyance, but there is an effect that it is possible to confirm that the operation is completed and to be relieved.

さらに、ジェスチャの種類によって音を変えると、正しいジェスチャが行われたどうかも判断することができる。例えば、「ビュー」のジェスチャを提示したときは「ピッ」、「エアコン」のジェスチャを提示したときは「プッ」、「オーディオ」のジェスチャを提示したときは「ポッ」という音をフィードバックするようにすると、「オーディオ」操作を選択したつもりでも、「ピッ」という音が聞こえれば、操作が正しく行われなかったと知ることができる。   Furthermore, if the sound is changed depending on the type of gesture, it can also be determined whether or not the correct gesture has been performed. For example, when a “view” gesture is presented, a “beep” sound is fed back. When an “air conditioner” gesture is presented, a “pu” sound is fed back. When an “audio” gesture is presented, a “pop” sound is fed back. Then, even if you intend to select the “audio” operation, if you hear a beep, you can know that the operation was not performed correctly.

実際には使用者は、「オーディオ」と「ポッ」という音が関係していると明確に記憶することは少ないかも知れないが、「オーディオ」のジェスチャに対し、常に「ポッ」という音を聞いていると、たまに異なる音が鳴ると違和感を覚えるものである。従って、明確に何を間違ったかまでは分からなくとも、「正しく行われなかった」ことを知ることはできる。   In practice, users may rarely remember clearly that the “audio” and “pop” sounds are related, but they always hear the “pop” sound for the “audio” gesture. If you have a different sound, you will feel uncomfortable. Therefore, it is possible to know that “it was not done correctly” without knowing exactly what went wrong.

また、形状認識を行う際には、静止状態が検出されたときのみ形状認識処理を行うのが望ましいと述べた。そのような処理を行う場合は、静止形状を見つけた時点で音を鳴らし、ジェスチャが検出されたらジェスチャに応じてまた音を鳴らす。例えば、静止状態を検出し、形状認識を開始したら、「ピー」という音を鳴らし、形状検出が成功したら、前述の「ピッ」「プッ」「ポッ」のいずれかの音が鳴り、検出に失敗したら「ブー」という音が鳴る。これで認識が失敗したことがわかり、また、意図しないのにジェスチャが認識されてしまったときでもそのことを知ることができる。   In addition, it has been stated that when performing shape recognition, it is desirable to perform shape recognition processing only when a stationary state is detected. When performing such processing, a sound is generated when a stationary shape is found, and a sound is generated again according to the gesture when a gesture is detected. For example, when a stationary state is detected and shape recognition is started, a beep is sounded, and when the shape detection is successful, any of the above-mentioned beeps, pops, or pops sounds and detection fails. Then you will hear a “boo” sound. This tells you that recognition has failed, and lets you know when a gesture has been recognized without intention.

なお、このように2段階で音を鳴らした方がよいかどうかは、認識処理にどのくらい時間がかかるかに依存する。例えば、0.2 秒静止状態が合ったときに認識を開始し、認識処理が0.1 秒で終了するなら、操作者が形状を提示してから0.3 秒でジェスチャが検出される。この場合なら、2段階の音提示は必要ないかも知れない。逆に0.2秒静止状態が合ったときに認識を開始し、認識処理が1秒で終了するなら、操作者が形状を提示してから1.2秒経たないとジェスチャが検出されたかどうかわからない。この場合には、2段階の音提示が有効である。   Note that whether or not it is better to sound in two stages in this way depends on how long the recognition process takes. For example, if the recognition starts when the stationary state is met for 0.2 seconds and the recognition process ends in 0.1 seconds, the gesture is detected 0.3 seconds after the operator presents the shape. In this case, two-stage sound presentation may not be necessary. On the other hand, if recognition is started when the stationary state is met for 0.2 seconds and the recognition process is completed in 1 second, it is not known whether a gesture has been detected until 1.2 seconds have passed since the operator presented the shape. In this case, two-stage sound presentation is effective.

この例で述べた、「ピッ」「プッ」「ポッ」などの表現はあくまで音の種類が違うことを表現したのみで、短時間の音であれば制限はない。ただし、3つの形状ジェスチャで出す音は、ある程度違いがすぐ分かる程度に違っていた方が望ましいし、例えば認識が失敗したときの音は「ブー」などの比較的、習慣、文化的に「失敗」と結びつきやすい音を採用するのが望ましい。   Expressions such as “pip”, “puff”, and “po” described in this example merely indicate that the type of sound is different, and there is no limitation as long as the sound is short. However, it is desirable that the sounds produced by the three shape gestures differ to a certain extent so that the difference can be easily recognized. For example, the sound when recognition fails is relatively unsuccessful in terms of habit and culture, such as “boo”. It is desirable to use a sound that is easy to connect to.

<他のジェスチャ> 本実施例においては、第1のジェスチャ検出部は形状ジェスチャを検出し、第2のジェスチャ検出部は方向ジェスチャを検出という例で説明した。しかし、実施例はこれに限らず、あらゆる種類のジェスチャから、異なるカテゴリに属するジェスチャを2群選び、それを使って操作モード選択とパラメータ調整を行うものでもよい。   <Other Gestures> In this embodiment, the first gesture detection unit detects a shape gesture, and the second gesture detection unit detects a direction gesture. However, the embodiment is not limited to this, and two groups of gestures belonging to different categories may be selected from all types of gestures, and the operation mode selection and parameter adjustment may be performed using them.

またその特殊な例として、第1と第2のジェスチャ検出部が同じ種類のジェスチャを検出する場合も含まれる。例えば、はじめに方向ジェスチャで4つの操作モードを選び、次に方向ジェスチャでパラメータを変更する方法がある。   As a special example, the case where the first and second gesture detection units detect the same type of gesture is also included. For example, there is a method of first selecting four operation modes with a direction gesture and then changing parameters with the direction gesture.

この場合、同じ方向ジェスチャが検出されたときにそれがどちらを制御するジェスチャなのかの判断は、現在操作モードが選択されているかどうかで決まる。
操作モードが選択されていなければ、ジェスチャは操作選択のためのジェスチャであると判断され、既に操作モードが選択されていれば、ジェスチャはパラメータ変更のためのジェスチャであると判断される。
In this case, when the same direction gesture is detected, the determination as to which gesture is to be controlled is determined by whether or not the current operation mode is selected.
If the operation mode is not selected, it is determined that the gesture is a gesture for selecting an operation. If the operation mode is already selected, it is determined that the gesture is a gesture for changing a parameter.

また、上述の例では、方向ジェスチャは、どちらかの方向へのジェスチャがあったかどうかだけを判定した。そうではなく、手を上下左右に動かすことで連続的に値を変えることも可能である。例えば前述した実施例では、上方向ジェスチャを1回行う毎に、音量が少しずつ大きくなり、大幅に大きくしたいときには何度も上方向ジェスチャを提示しなくてはならない。これを手の上下方向に動かすとそれに従って音量が変わる。そして、一定時間静止させるか、左右方向の動きを検出すると、その音量で固定する。素早くパラメータを変えたいものにはこのような方法も適している。   In the above-described example, the direction gesture is determined only whether there is a gesture in either direction. Instead, it is possible to change the value continuously by moving the hand up, down, left and right. For example, in the above-described embodiment, each time an upward gesture is performed, the volume gradually increases, and when it is desired to greatly increase the upward gesture, the upward gesture must be presented many times. When this is moved up and down the hand, the volume changes accordingly. Then, when it is left stationary for a certain period of time or when movement in the left-right direction is detected, it is fixed at that volume. This method is also suitable for those who want to change parameters quickly.

また、上下左右の方向のみ述べたが、奥行き方向の動きも利用することができる。特開平10−177449で発明された画像入力装置を使うと、物体距離に依存する反射光の強さが画像として得られるため、奥行き方向の位置を安定して求めることができるため、このような使い方には適している。   Moreover, although only the vertical and horizontal directions have been described, movement in the depth direction can also be used. When the image input device invented in Japanese Patent Laid-Open No. 10-177449 is used, the intensity of the reflected light depending on the object distance can be obtained as an image, so that the position in the depth direction can be obtained stably. Suitable for usage.

<回転ジェスチャ> 他の例として、方向ジェスチャではなく、回転ジェスチャを使うこともできる。つまり、つまみを持つような手の形状を提示し、つまみを回すような手の動きをすることにより、その動きの回転量が検出されるので、それをパラメータとして設定する。ちょうど音調調節つまみを回すような感覚が実現できる。   <Rotation Gesture> As another example, a rotation gesture can be used instead of a direction gesture. That is, by presenting the shape of a hand having a knob and moving the hand by turning the knob, the amount of rotation of the movement is detected, and this is set as a parameter. The feeling of turning the tone adjustment knob can be realized.

<方向ジェスチャの入力方法> ここからは、上記に述べた実施例の一要素となっている、方向ジェスチャの入力方法について詳細に述べる。方向ジェスチャの入力を実現する際に重要な点がある。それは繰り返し同じ方向のジェスチャが入力されうることであり、そのときに安定して検出できることが重要である。例えば、特願平9−199647で提案されている手振り入力装置では、装置の前を手が横切ることで入力を行っている。   <Directional Gesture Input Method> Now, the direction gesture input method, which is an element of the above-described embodiment, will be described in detail. There is an important point in realizing the input of direction gestures. That is, gestures in the same direction can be repeatedly input, and it is important that they can be detected stably at that time. For example, in the hand gesture input device proposed in Japanese Patent Application No. 9-199647, input is performed by a hand crossing the front of the device.

しかし、このような装置で、同じ方向のジェスチャを繰り返すと誤動作を起こす可能性がある。すなわち、例えば、「右」、「右」と繰り返して入力する際には、2回の右方向ジェスチャの間で、手が一旦左側に戻らなくてはならない。この際に、これが左方向ジェスチャと誤認識され、「右」、「右」と入力したつもりが、「右」、「左」、「右」と入力されてしまうことになる。これを防ぐには、左に戻すときには、センサに検知されないような位置を通って手が戻ることが必要である。そのような動作をしなければならないとすると、繰り返し同じ方向のジェスチャを入力するのは至極面倒くさいものになってしまう。   However, when such gestures are repeated in the same direction, malfunction may occur. That is, for example, when inputting “right” and “right” repeatedly, the hand must once return to the left side between two rightward gestures. At this time, this is erroneously recognized as a left direction gesture, and the intention to input “right” and “right” will be input as “right”, “left”, and “right”. To prevent this, when returning to the left, it is necessary to return the hand through a position that is not detected by the sensor. If such an operation has to be performed, it would be extremely tedious to repeatedly input a gesture in the same direction.

<動いて、戻って、方向入力とする> それを解決するための方向ジェスチャ入力方法を図8に示す。これは、安定して方向ジェスチャを取得するための処理をフローチャートで表している。   <Moving, Returning, and Direction Input> FIG. 8 shows a direction gesture input method for solving this. This is a flowchart showing a process for stably acquiring a direction gesture.

まず、使用者が手をカメラセンサの前に出したとき、直ちに動き情報を検出してしまうと、誤動作の原因になる。従って、まず使用者はカメラセンサの前に手を出し、静止させることによって、これから方向ジェスチャを入力することを知らせる。装置は、物体が画面中央の所定の領域内で一定時間静止したことを検出することによって(S23,S24)、使用者が方向ジェスチャを入力しようとしていると判断し、方向ジェスチャの検出を開始する。   First, when the user puts his hand in front of the camera sensor and immediately detects motion information, it causes a malfunction. Therefore, first, the user puts his hand in front of the camera sensor and stops it to inform him that a direction gesture will be input. The apparatus detects that the object is stationary for a predetermined time within a predetermined area in the center of the screen (S23, S24), thereby determining that the user is about to input a direction gesture and starts detecting the direction gesture. .

手の位置の軌跡を追跡し、いずれかの方向に一定量だけ動いたことを検出する(S25,S26)。検出する方向の数は、例えば4方向のジェスチャ検出であれば4つであるし、8方向であれば斜め方向も含め8つである。また、動きが上下左右だけでなく、奥行き方向であっても検出する場合もある。   The locus of the hand position is tracked and it is detected that the hand has moved in a certain direction by a certain amount (S25, S26). The number of directions to be detected is, for example, four for gesture detection in four directions, and eight for diagonal directions including eight directions. Further, there are cases where the motion is detected not only in the vertical and horizontal directions but also in the depth direction.

ある方向に一定量動いたことが検出されたら、次は反対方向、すなわち戻る方向に、一定量移動するかどうかを監視する(S27)。そして、反対方向に一定量移動し(S28)、そこでさらに一定時間静止したことを検出したとき(S29,S30)、方向ジェスチャがあったと判断する(S31)。ここで述べている「静止」した状態とは、厳密には静止していなくとも、動きが小さいときを含む。   If it is detected that a certain amount of movement has been made in a certain direction, it is next monitored whether or not it has moved a certain amount in the opposite direction, that is, in the returning direction (S27). Then, when a certain amount of movement is made in the opposite direction (S28), and it is detected that there is still a fixed time (S29, S30), it is determined that there is a direction gesture (S31). The “stationary” state described here includes a time when the movement is small even if it is not strictly stationary.

この方法の良いところは、同じ方向のジェスチャを連続して入力する場合、そのあいだの戻る動作が、反対方向のジェスチャとして誤認識されることが無いことである。それは、常にジェスチャが中央付近から開始され、その付近に戻ることによってジェスチャが終了するからである。   The good point of this method is that, when gestures in the same direction are continuously input, the returning operation during that time is not erroneously recognized as a gesture in the opposite direction. This is because the gesture always starts near the center, and the gesture ends by returning to the vicinity.

また、方向ジェスチャを次々と連続して入力したい場合に、一つひとつのジェスチャのつながりがスムーズなので、操作者にとって、作業がし易いという利点がある。   In addition, when it is desired to continuously input direction gestures one after another, since the connection of each gesture is smooth, there is an advantage that it is easy for the operator to work.

<音のフィードバック> また、方向ジェスチャを入力する際にも、音をフィードバックさせ、操作者に入力が受け付けられたことを知らせるのは有効である。図8の場合は、最後の静止状態で方向ジェスチャの検出が完了した時点で音を発生させる。また、入力された方向によって異なる音を発生させると、使用者は正しい入力が行われたことを確実に知ることができる。   <Sound Feedback> Also, when inputting a direction gesture, it is effective to feed back a sound and inform the operator that the input has been accepted. In the case of FIG. 8, a sound is generated at the time when the detection of the direction gesture is completed in the final stationary state. In addition, if a different sound is generated depending on the input direction, the user can surely know that the correct input has been performed.

<2度の音でフィードバック> 音をフィードバックさせるときに、2段階で音を発生させると、さらに効果的な場合がある。図8中で、いずれかの方向に一定量動いたことを検出した時点で、一つ目の音を鳴らし、戻って静止して、方向ジェスチャが検出されたとき2つ目の音を鳴らす。   <Feedback with two sounds> When sound is fed back, it may be more effective if sound is generated in two stages. In FIG. 8, when it is detected that a certain amount of movement has been made in any direction, the first sound is played, and after returning, the second sound is played when a direction gesture is detected.

このときに、いずれかの方向に動いた音と、戻って方向ジェスチャが検出されたときの音を変えておく。すると、万一、戻る動作が、はじめのいずれかの方向に動く動作と誤って認識されたときでも、使用者にはそれがすぐに判る。また、一つ目の音は、方向によって異ならせても良いが、戻る音は、いずれの場合でも同じにしたほうがよい。   At this time, the sound that moves in either direction and the sound that is returned when a direction gesture is detected are changed. Then, even if the returning motion is mistakenly recognized as a motion that moves in one of the first directions, the user can immediately recognize it. The first sound may be different depending on the direction, but the returning sound should be the same in any case.

例えば、上下左右の一つ目の音を「パ」「ピ」「プ」「ペ」、2つ目の音を全て「ポ」にすると、上下左右の音フィードバックとして、使用者には、「パポ」「ピポ」「プポ」「ペポ」と聞こえることになる。スムーズに操作が行えるようになれば、これらはそれぞれひとつの効果音のようにも聞こえ、使用者にとって、違和感はない。   For example, if the first sound of up, down, left, and right is “pa”, “pi”, “p”, “pe”, and the second sound is all “po”, the user will be given “ You will hear “Papo” “Pipo” “Pupo” “Pepo”. If the operation can be performed smoothly, each of these sounds like a sound effect, and there is no sense of incongruity for the user.

<戻らないとキャンセル> いずれかの方向に一定量動かした後、あるいは動かそうとしているときに、間違いに気づいたり、気が変わったりした場合に、キャンセルしたいことがある。上記の方法を採っていれば、キャンセルしたい場合は、その動きのままカメラの視野外に手を出してしまうことによりキャンセルできる。   <Cancel if you don't return> After moving a certain amount in either direction, or while trying to move, you may want to cancel if you notice a mistake or change your mind. If the above method is adopted, if it is desired to cancel, it can be canceled by moving the hand out of the field of view of the camera with the movement.

あるいは、途中で、動きを止めてしまうことで、キャンセルすることもできる。図8のフローチャートでは、一定時間経つと初期状態に戻るようになっている。
<元に戻るジェスチャ> 上記の例では、方向ジェスチャだけについて述べたが、一般的に、位置の軌跡によって情報を提示する場合、「ある領域から始まり、その領域に到達して終わる」一連のジェスチャというのは、連続して入力するのに非常に適している。例えば、図9に示すようなジェスチャはいずれもそうであり、これにより方向だけでなく、様々なジェスチャを入力することができる。
Alternatively, it can be canceled by stopping the movement on the way. In the flowchart of FIG. 8, the initial state is restored after a certain period of time.
<Returning gesture> In the above example, only the direction gesture has been described, but in general, when information is presented by a position trajectory, a series of gestures “starting from an area and ending at that area” is performed. This is very suitable for continuous input. For example, the gestures as shown in FIG. 9 are all so that not only directions but also various gestures can be input.

図9において、矢印が位置の軌跡を示している。
<距離の違いで戻る時の動きを除く> 上記のような構成により、戻るときの動作が誤動作を引き起こさないようにしながら連続的な方向ジェスチャの提示が可能になった。しかし、場合によっては、やはり一方向に動かす動きで方向ジェスチャとしたいこともある。そのような戻す動きをするときには、やや手を引いた感じで戻すことが多い。
In FIG. 9, the arrows indicate the locus of the position.
<Excluding movements when returning due to a difference in distance> With the above-described configuration, it is possible to present continuous direction gestures while preventing the movement when returning from causing a malfunction. However, in some cases, you may still want to make a direction gesture by moving in one direction. When doing such a return movement, it is often returned with a slight pull.

例えば、机の上を右方向へ2回なでることを考えると、まず机の表面を1回、右方向へ撫で、机から少し手を浮かせて左側に戻り、再度右方向に撫でる、という動作を通常行う。この「少し浮かせた状態」というのは、空中のジェスチャで考えると、「少し引いた状態」となる。   For example, if you think about stroking the desk twice in the right direction, first boil the surface of the desk once, boil it in the right direction, lift your hand slightly from the desk, return to the left side, and boil it in the right direction again. Usually done. This “slightly lifted state” is a “slightly pulled state” when considered in the air.

ところで、特開平10−177449に記載の画像入力装置では、手の相対的な距離情報を取得することができる。従って、左に戻す動きが、右に動かす動きより、「少し引いた状態」で行われていることを検出することができる。これを行う構成を図10に示す。   By the way, in the image input apparatus described in JP-A-10-177449, it is possible to acquire relative distance information of the hand. Therefore, it can be detected that the movement to return to the left is performed in a “slightly pulled state” than the movement to the right. A configuration for this is shown in FIG.

画像入力部32から入力される画像は、動き検出部34と距離検出部33に入力され、各々で、動き情報39と距離情報38が求められる。判定部35は、これらの情報から、動き検出部34から入力された動き情報が、動き入力なのか、戻るための動作なのかを判定する。   The image input from the image input unit 32 is input to the motion detection unit 34 and the distance detection unit 33, and the motion information 39 and the distance information 38 are obtained respectively. Based on these pieces of information, the determination unit 35 determines whether the motion information input from the motion detection unit 34 is a motion input or a return operation.

より具体的には、ある方向の方向ジェスチャが検出された直後に、反対方向の動きが検出され、しかもそのときの距離情報が、前回の方向ジェスチャに比べ遠い場合、これは戻るための動作であると判断する。方向ジェスチャと判定されれば、操作実行部36に方向ジェスチャの情報を伝達し、必要に応じて音でフィードバックを発生させる。戻りの動きであると判定されれば、操作実行部には何も伝達せず、また音フィードバックも発生させない。   More specifically, immediately after a direction gesture in a certain direction is detected, if a movement in the opposite direction is detected, and the distance information at that time is far from the previous direction gesture, this is an operation for returning. Judge that there is. If it is determined to be a direction gesture, information on the direction gesture is transmitted to the operation execution unit 36, and feedback is generated by sound as necessary. If it is determined that the movement is a return movement, nothing is transmitted to the operation execution unit and no sound feedback is generated.

音フィードバックに関しては、右、左で音を変え、戻りが音を発生させないようにすれば、戻り動作が誤って、方向ジェスチャとして検出されてしまった場合は、使用者はすぐに気づくことができる。   With regard to sound feedback, if the sound is changed between right and left so that the return does not generate a sound, the user can immediately notice if the return movement is mistakenly detected as a direction gesture. .

<2回目の動きを戻り動作と判定する> 距離情報を取得できない画像センサを用いても、このような処理は必ずしも不可能ではない。動き情報しか取得できない画像センサの場合、動きの時系列を見て、戻り動作が何であるかを判断することができる。   <Determining Second Movement as Return Action> Even if an image sensor that cannot acquire distance information is used, such processing is not necessarily impossible. In the case of an image sensor that can only acquire motion information, it is possible to determine what the return motion is by looking at the time series of motion.

例えば、「右」「左」「右」「左」「右」という入力があれば、これは右方向に3回の入力を行い、中の2つの左ジェスチャは戻り動作であると判定する。しかし、単純にこれだけだと、途中で左ジェスチャに変えることができない。それはそれぞれの動いている間の時間間隔、いわゆる「間(ま)」を上手く利用することで、判定できる。   For example, if there is an input of “right”, “left”, “right”, “left”, and “right”, this is input three times in the right direction, and it is determined that the two left gestures are return operations. However, with this alone, you cannot change to a left gesture on the way. It can be determined by making good use of the time interval between each movement, the so-called “ma”.

例えば、「右」「左」「右」(間)「左」「右」「左」という入力があった場合は、「右」「右」の入力の後、「左」「左」という入力がされたと判定できる。
<メニュー階層をたどる> これまで、主に、形状を提示するジェスチャ、方向を入力するジェスチャについて述べてきたが、これらのジェスチャを用いて、メニュー階層をたどっていくことが可能である。機能が非常に多い装置を操作するインタフェースは、しばしば、機能をカテゴリに分け、階層構造にし、上から順にたどっていくことで機能に到達するようにしているものが多い。
For example, if there are inputs “Right”, “Left”, “Right” (between), “Left”, “Right”, and “Left”, input “Left” and “Left” after inputting “Right” and “Right”. It can be determined that
<Following Menu Hierarchy> So far, gestures for presenting shapes and gestures for inputting directions have been mainly described, but it is possible to follow the menu hierarchy using these gestures. Often, an interface for operating a device having a large number of functions often divides the functions into categories, has a hierarchical structure, and reaches the functions by tracing from the top.

例えば、コンピュータでは、マウスでカーソルを動かしながら、画面上のメニューを順に選択していく方法を採ることが多いし、カー・ナビゲーションなどの車載機器であれば、タッチパネルやリモコンの十字ボタンで、順にメニューを選択していく方法を採っていることが多い。   For example, a computer often uses a method of selecting menus on the screen in order while moving the cursor with a mouse. For in-vehicle devices such as car navigation systems, use the cross button on the touch panel or remote control in order. In many cases, the menu is selected.

メニューを選択する場合に、方向キーなどを使わずに、方向ジェスチャで入力したり、ファンクションキーを押す替わりに、形状ジェスチャを提示したりするのは、有効な方法である。図11は、その構成図を表す。画像入力部40より入力された画像は、ジェスチャ検出部41で処理され、ジェスチャが提示された際にはそれを検出する。メニュー制御部42は、検出されたジェスチャによりメニューをどう辿っているかを判定し、新しいメニューをメニュー表示部43に表示させる。   When selecting a menu, it is an effective method to input a direction gesture without using a direction key or to present a shape gesture instead of pressing a function key. FIG. 11 shows a configuration diagram thereof. The image input from the image input unit 40 is processed by the gesture detection unit 41, and when a gesture is presented, it is detected. The menu control unit 42 determines how the menu is traced based on the detected gesture, and causes the menu display unit 43 to display a new menu.

また、ジェスチャが検出された際には、フィードバック部44から使用者に音や音声でフィードバックする。このときのメリットとして、操作がジェスチャであるため、ある機能に到達するまでの操作を記憶しやすいということがある。例えば、形状ジェスチャを用いて、「グー」「チョキ」「パー」と提示すれば、エアコンの温度設定になるという具合である。使用者はこれらの全てを覚える必要はなく、使用頻度の高いものだけをジェスチャの時系列で覚えてしまえばよい。   When a gesture is detected, the feedback unit 44 feeds back to the user with sound or voice. As an advantage at this time, since the operation is a gesture, it is easy to memorize the operation until reaching a certain function. For example, if “Goo”, “Cheap”, and “Par” are presented using a shape gesture, the temperature setting of the air conditioner is set. It is not necessary for the user to remember all of these, and it is only necessary to memorize only frequently used items in the time series of gestures.

実際は、ジェスチャの時系列、というのはやはりジェスチャであり、その点でこのインタフェースは、全ての機能をジェスチャと1対1に対応づけているとも言える。このとき、同じ形状が続く場合、それが2回続いていることを示すのは難しい。従って、「パー」を出して次のメニュー階層に移った場合、その階層では「パー」を提示するメニューが存在しないようにすると都合がよい。つまり、どの機能を選択する場合でも、同じジェスチャを2回提示することが無いようにメニューのジェスチャを構成すると良い。   Actually, the time series of gestures is still a gesture, and in this respect, it can be said that this interface associates all functions with gestures on a one-to-one basis. At this time, if the same shape continues, it is difficult to indicate that it continues twice. Therefore, when “par” is issued and the next menu layer is moved, it is convenient that there is no menu presenting “par” in that layer. That is, it is preferable to configure the menu gesture so that the same gesture is not presented twice regardless of which function is selected.

<方向ジェスチャでメニュー階層を辿る> 形状ジェスチャの提示でメニュー階層を辿る方法について述べたが、方向ジェスチャを用いても同様に可能である。方向ジェスチャを用いる場合、人間の手の動かし易さを考えると、4方向ジェスチャを用いるのが比較的望ましいが、4方向ジェスチャだと、4つまでのメニュー選択肢しか表示できないという欠点がある。これを解決するためのいくつかの実現方法がある。   <Tracing the Menu Hierarchy with Directional Gestures> The method of following the menu hierarchy with presentation of shape gestures has been described, but the same is possible with the use of direction gestures. In the case of using the direction gesture, it is relatively desirable to use the four-direction gesture in consideration of the ease of movement of the human hand. However, the four-way gesture has a drawback that only four menu options can be displayed. There are several ways to solve this.

<繰り返し入力> 例えば、「右に1回」だけ動かす場合と、「右に2回」動かす場合では、異なる選択肢を選択できるように構成すればよい。これは、前述した方向ジェスチャ入力方法のうち、いずれかの方向に手を動かし元の位置に戻る一連の動作で、方向ジェスチャとする場合に適している。   <Repetitive Input> For example, different movement options may be selected when moving “right once” and when moving “right twice”. This is suitable for a direction gesture in a series of operations in which the hand is moved in any direction and returned to the original position in the direction gesture input method described above.

例えば、右方向に一定量動き、元の位置まで動いて静止すると、「右」が入力されるが、静止せずに、さらにもう一度右に動き、元の位置まで戻って静止すると、「右2」が入力されるようにする。   For example, when moving a certain amount in the right direction and moving to the original position and stopping, “Right” is input. However, without moving still, it moves to the right again, and when returning to the original position and stopping, “Right 2” "Is entered.

これを繰り返し行えば、基本的には無限の選択肢を選べるが、現実的には、2回もしくは3回程度の繰り返しに限定するのが妥当である。これは、マウスのクリックが通常シングルクリックとダブルクリックの2つであり、一部の専門家向けコンピュータで、トリプルクリックが実現されているぐらいである。逆に、一般ユーザでもダブルクリックは当然のように使われており、2回ぐらいの連続入力は問題ない。   If this is repeated, infinite choices can be selected basically, but in practice it is reasonable to limit to two or three repetitions. This is because mouse clicks are usually single-click and double-click, and triple clicks are realized on some professional computers. On the other hand, double click is naturally used even by general users, and there is no problem with continuous input twice.

方向ジェスチャでメニュー階層を辿っていく場合、例えば図12に示すような、メニュー画面が考えられる。これは、動きの方向に各メニューが配置されているので、見やすい構成となっている。   When the menu hierarchy is traced by the direction gesture, for example, a menu screen as shown in FIG. 12 can be considered. Since each menu is arranged in the direction of movement, this configuration is easy to see.

また2回連続入力まで許す場合は、図13(a)のようなメニュー画面が考えられる。1回の方向入力で内側のメニューが、2回の方向メニューで外側のメニューが選択される。また、3回連続入力まで許すと、テンキーも方向ジェスチャで入力することが可能になる(図13(b))。   Further, when allowing up to two consecutive inputs, a menu screen as shown in FIG. The inner menu is selected by one direction input, and the outer menu is selected by two direction menus. If three consecutive inputs are allowed, the numeric keypad can also be input with a direction gesture (FIG. 13 (b)).

<形状+方向> 方向ジェスチャを入力する際、手の形状も変え、形状と方向の組み合わせで選択肢を選ぶ方法もある。方向を例えば、手全体の重心位置の移動で求めるとしたら、手の形状に関係なく方向を提示することができる。そのとき、1本指を伸ばした状態で左に動かすのと、2本指を伸ばした状態で左に動かした場合で、異なる選択肢が選ばれるようにすることができる。方向を繰り返し入力するのは手間がかかるが、形と方向を組み合わせる場合は、比較的選択肢を増やすのが容易である。   <Shape + direction> When inputting a direction gesture, there is also a method of changing the shape of the hand and selecting an option by a combination of the shape and the direction. For example, if the direction is obtained by moving the center of gravity of the entire hand, the direction can be presented regardless of the shape of the hand. At this time, different options can be selected depending on whether the finger is moved to the left with one finger extended and the finger moved to the left with the two fingers extended. Although it is troublesome to repeatedly input the direction, it is relatively easy to increase the options when combining the shape and direction.

<開始指示ボタン> ジェスチャを検出するのは、ある程度の処理コストがかかり、また、何気ない動作がジェスチャとして拾われてしまう危険性を常に持っている。ジェスチャを提示する際に、必ず、ジェスチャ提示ボタンのようなものを押すようにすれば、これらの問題は発生しない。   <Start instruction button> Detecting a gesture requires a certain amount of processing cost, and there is always a risk that an unexpected action is picked up as a gesture. These problems do not occur if a gesture presentation button is always pressed when a gesture is presented.

<2次元ポインティングでの選択> このようなジェスチャによる入力インタフェースを例えば車載機器に搭載することによって、運転中の安全な操作が実現できる。しかし、これらの操作の中には運転中はまず操作しないものも含まれており、また、助手席者が操作する場合には必ずしも視線を前方に固定している必要はない。   <Selection by two-dimensional pointing> By mounting an input interface using such a gesture on, for example, an in-vehicle device, a safe operation during driving can be realized. However, these operations include those that are not operated first during driving, and it is not always necessary to fix the line of sight forward when the passenger is operating.

従って、画面を見ながら行うのが合理的な操作については、そのように実現すればよい。方向で指示するというのは、視線を向けないで操作できるというメリットがある反面、多くの選択肢から選ぶ場合には、前述のように、繰り返し方向ジェスチャを提示したり、形状と方向を併用したりする必要があった。視線を画面に向けることができる状態では、ポイントの位置を使って選択するという方法もよい。   Therefore, an operation that can be rationally performed while viewing the screen may be realized as such. Instructing by direction has the merit of being able to operate without directing the line of sight, but when selecting from many options, as described above, it is possible to present a repeated direction gesture or use shape and direction together. There was a need to do. In a state where the line of sight can be directed to the screen, a method of selecting using the position of the point is also good.

そのときに問題になるのが、選択決定入力である。例えば、マウスを使って画面上のアイコンを選択するときには、マウスカーソルをアイコン状に移動させてから、クリックすることによって、選択する。手振りを使って同様のことを実現する場合、クリックに相当する決定入力をどうするかが問題になる。パーからグーへと「掴む」ように手の形を変えたり、ボタンを扱うように「押す」動作を行ったりして、それを決定入力とする方法が考えられる。   At that time, the selection decision input becomes a problem. For example, when selecting an icon on the screen using a mouse, the mouse cursor is moved to an icon and then clicked. When the same thing is realized using hand gestures, how to make a decision input corresponding to a click becomes a problem. It is conceivable to change the shape of the hand to “grab” from par to goo, or to “push” to handle the button and use it as a decision input.

しかし、そのような動作をさせると、その動作の過程で、位置情報の変動が起こり、隣のアイコンを選択してしまう、ということがよく起こる。これは、「位置を動かす」という動作と「形状を変える」または「前後に押す」という動作が独立していないからである。これは人がこれらを独立して制御するのが難しいという場合もあるし、装置の特性としてそれらを分離しにくいという場合もある。   However, when such an operation is performed, position information fluctuates in the course of the operation, and an adjacent icon is often selected. This is because the operation of “moving the position” and the operation of “changing the shape” or “pushing back and forth” are not independent. This may be difficult for a person to control them independently, or as a characteristic of the device, it may be difficult to separate them.

また、一定時間以上の静止状態で選択トリガとすることもできるが、静止する時間が必要であったり、迷っている間に静止状態になってしまったりすることがある。人の動きの中で、独立に動かすことが容易であり、なおかつそれを独立にセンシングできるような2つの動きを、「選択」と「決定」に利用することで、より安定した操作を実現することができる。   In addition, the selection trigger can be set in a stationary state for a certain period of time or more, but it may take a time to rest or may become stationary while in doubt. Realize more stable operation by using two movements that are easy to move independently of human movement and that can be sensed independently for “selection” and “decision”. be able to.

これを図14で説明する。画像入力部46より入力された画像は、第1の動き検出部47と第2の動き検出部49に伝達され、それぞれの検出部で上述したような、それぞれ独立な動き情報を検出する。選択肢または値の選択部48は第1の動き検出部47の出力に応じて、現在なにが選択されているかを判断する。この結果は典型的には、図示しない表示部において、反転表示するなどにより、操作者にフィードバックされる。   This will be described with reference to FIG. The image input from the image input unit 46 is transmitted to the first motion detection unit 47 and the second motion detection unit 49, and each detection unit detects independent motion information as described above. The option or value selection unit 48 determines what is currently selected according to the output of the first motion detection unit 47. This result is typically fed back to the operator, such as by displaying it in reverse on a display unit (not shown).

決定動作判定部50は、第2の動き検出部49の出力を解析し、決定動作が行われたどうかを判定する。操作入力処理部51は、選択肢または値の選択部48と決定動作判定部50の出力を用いて、何が選択決定されたかを判定し、実際に処理を行う、操作実行部52に送る。   The determination operation determination unit 50 analyzes the output of the second motion detection unit 49 and determines whether the determination operation has been performed. The operation input processing unit 51 determines what has been selected and determined using the selection or value selection unit 48 and the output of the determination operation determination unit 50, and sends it to the operation execution unit 52 that actually performs processing.

<2つの動きで選択と決定> より具体的には、例えば、左右の動きと上下の動きを組み合わせる方法である。左右方向の動きで、左右に並んだメニューを選ぶ。現在選択されているメニューは例えば反転表示されるなどして、何が選ばれているかが分かる。この状態では、仮に選択した段階であり、ここから上下の動きをすることによって、選択肢を決定する。   <Selection and Determination by Two Movements> More specifically, for example, a method of combining left and right movements and up and down movements. Select menus that are arranged side by side in the horizontal direction. The currently selected menu is highlighted, for example, so that it can be understood what is selected. In this state, this is a temporarily selected stage, and options are determined by moving up and down from here.

上の例では、左右方向で「選択」し、上下方向で「決定」したが、これには理由がある。一般的に人は、左右方向の動きの方がより細かく位置を指示することができるため、左右方向を「選択」の方向とした。上下運動はトリガ入力だけなので、それほど細かく制御できなくても問題ない。ただし、これは一般論であり、操作の条件(体の姿勢など)によって逆の場合もあり得るが、いずれにしろ、細かく制御し易い方向を「選択」の方向にするのは重要である。   In the example above, “select” in the left-right direction and “decision” in the up-down direction has a reason. In general, since a person can indicate the position more finely in the left-right direction, the left-right direction is set as the “selection” direction. Since the vertical movement is only a trigger input, there is no problem even if it cannot be controlled so finely. However, this is a general theory, and the reverse may occur depending on the operation conditions (body posture, etc.), but in any case, it is important to set the direction of fine control to the direction of “selection”.

例えば、図15(a)は、この方法で選択をする場合のメニュー画面の一例であるが、図中に矢印で示したように、横方向の動きで選択し、縦方向の動きで決定する。同図(b)は、選択肢が多いため、左右にスクロールするためのアイコンを配置してある。ここを選択しているとメニューが次々とスクロールしていく。   For example, FIG. 15A shows an example of a menu screen when selection is made by this method. As shown by an arrow in the figure, selection is made by horizontal movement, and determination is made by vertical movement. . In FIG. 6B, since there are many options, icons for scrolling left and right are arranged. If this is selected, the menu scrolls one after another.

<上下の動きを別々に使う> また、上の例では、上下方向はどちらも単に「決定」であったが、メニューを上下2段にして、上と下の方向でそれぞれ上下のメニューを選択することもできる。こうすると倍の選択肢を一度に表示できる。   <Use up and down movement separately> Also, in the above example, the up and down directions are both “decision”, but the menu is made up of two levels and the up and down menus are selected respectively. You can also. This allows you to display twice as many options at once.

この場合は、仮の選択状態(例えば反転表示など)は、上下2つのメニュー同時選択しておいて、「決定」の入力でどちらかに確定する。
例えば、この選択方法を行うための、メニュー画面例を図16に示す。例えば茨城県、山梨県のところを選択しておき、上に動かしたら茨城県、下に動かしたら山梨県が選択決定される。ここでは、端の「他の地域」および「戻る」のアイコンは、上下どちらに動かしても選択される。
In this case, the provisional selection state (for example, reverse display) is selected at the same time by selecting the upper and lower two menus at the same time and inputting “enter”.
For example, FIG. 16 shows a menu screen example for performing this selection method. For example, Ibaraki Prefecture and Yamanashi Prefecture are selected, and if moved up, Ibaraki Prefecture is selected, and if moved down, Yamanashi Prefecture is selected and determined. Here, the “other area” and “return” icons at the end are selected regardless of whether they are moved up or down.

<上下に動いて戻る> これまでの例では、上下いずれかに動かして選択したら、手は上か下に移動してしまうので、連続したメニュー操作を行う場合には、適していない。上下いずれかに一定量動き、元の場所に戻ったときに、「決定」されるようにすると、連続したメニュー選択を行いやすい。ちょうど、前述の例で、右に動いて、中央に戻ったときに「右」ジェスチャと認識させたのと同様である。   <Moving up and down> In the examples so far, if the hand is moved up or down and selected, the hand moves up or down, which is not suitable for continuous menu operations. It is easy to make continuous menu selections by moving a certain amount up or down and “deciding” when returning to the original location. Just as in the previous example, it is the same as moving to the right and recognizing it as a “right” gesture when returning to the center.

<横、縦、横と連続> 50音表から、文字を選ぶような場合には、一度に表示したい選択肢の数が多い。このような場合、まず横の動きで、「ア行」「カ行」「サ行」といった「行」を選択し、次いで縦の動きで、5文字のうちひとつを選び、さらに横の動きで選択するという方法も採れる。また、一旦横の動きで行を選んだら、次の縦の動きで文字を選んでいるときに、多少横方向に動いてしまっても、再び違う行を選択してしまうようなことが合ってはならない。   <Horizontal, vertical, horizontal and continuous> When selecting characters from a 50-sound table, there are many options to be displayed at a time. In such a case, first select “Line” such as “A Line”, “K Line”, and “S” Line in the horizontal movement, then select one of the five characters in the vertical movement, and then in the horizontal movement You can also choose. Also, once you select a line with a horizontal movement, when you select a character with the next vertical movement, even if it moves slightly in the horizontal direction, you will select a different line again. Must not.

この場合、一旦横方向を決定したら、次に縦方向を決定するまでは、横方向の動きは検出しないというような処理を行うとよい。もちろん50音表の場合は、単純に、上下左右の位置でカーソルを表示し、直接選択することもできる。この場合は、奥行き方向の動きか、静止情報などで決定することになる。さらに、奥行きを変えると、ひらがな、カタカナにかわると言った具合に、さらに奥行き情報も利用することも可能である。   In this case, once the horizontal direction is determined, it is preferable to perform processing such that the horizontal movement is not detected until the next vertical direction is determined. Of course, in the case of a 50-note table, the cursor can be simply displayed at the top, bottom, left, and right positions for direct selection. In this case, it is determined by the movement in the depth direction or the static information. Furthermore, it is also possible to use depth information, such as changing hiragana and katakana when the depth is changed.

また、指すときの指の形で濁点、半濁点などを指定することもでき、濁点などを独立して入力するより効率がよい。例えば、2本指で選択すると濁点、3本指で選択すると半濁点という具合である。   It is also possible to specify a cloud point, semi-cloud point, etc. in the form of a finger when pointing, which is more efficient than inputting the cloud point etc. independently. For example, if you select with two fingers, it is a muddy point.

<センサの取り付け位置> 特開平10−177449で提案した画像入力センサなどを用いて、車載用の操作入力装置を構成する場合、そのセンサの設置位置というのは、使い勝手、性能に大きく左右する。   <Mounting position of sensor> When an in-vehicle operation input device is configured using an image input sensor proposed in Japanese Patent Laid-Open No. 10-177449, the installation position of the sensor greatly depends on usability and performance.

運転者が運転中に安全に操作できることを最重要視するなら、運転者がハンドルに手を乗せたまま、あるいはほとんどハンドルから手を離さずに操作できるような場所に、カメラを配置するのがよい。例えば、ハンドルの奥側に、ハンドルを持った手の方を向くように配置するのが一例である。   If it is most important that the driver can operate safely while driving, the camera should be placed in a place where the driver can operate with the hand on the handle or with little hand off the handle. Good. For example, it is an example to arrange in the back side of the handle so as to face the hand holding the handle.

また、カーブを切るときには通常操作はしないが、緩やかなカーブなど、わずかにハンドルを切っているときに操作を行う場合は想定できる。すると、ハンドルの裏側で、直接ハンドルに取り付けてしまうこともできる。そうすると、ハンドルの状態に関わらず、手とカメラの位置関係(距離、向き)などに変化が無く、安定した検出性能を得ることができる。   In addition, the normal operation is not performed when turning the curve, but it can be assumed that the operation is performed when the handle is slightly turned, such as a gentle curve. Then, it can be directly attached to the handle on the back side of the handle. Then, irrespective of the state of the handle, there is no change in the positional relationship (distance, orientation) between the hand and the camera, and stable detection performance can be obtained.

これらの場合、画像入力には、ハンドルなどの部品が含まれていることが多いので、これらの影響を受けないような処理を行う。また、このとき、画像を処理する場合、画像の上下、左右方向の動きを求めるのは、斜め方向の動きを検出するより、容易であるため、手の位置とその動き方向に合わせて、カメラの向きを設置することが重要である。   In these cases, since the image input often includes parts such as a handle, processing is performed so as not to be affected by these. At this time, when processing an image, it is easier to obtain the vertical and horizontal movements of the image than to detect the diagonal movements. It is important to set the orientation.

また、運転者だけでなく、助手席者も操作する場合は、双方の中間位置に配置するのが望ましい。この場合は、運転者が無理なく手を伸ばせるところを検出できるような位置に配置してあることが必要である。また、ジェスチャ操作を行う場合、特に位置を指示するような場合は、肘や手首など腕の一部を、固定するか台などの上に乗せることにより、安定して操作が行える。   In addition, when operating not only the driver but also the passenger seat, it is desirable to arrange them at an intermediate position between them. In this case, it is necessary to arrange the driver at a position where the driver can easily reach his / her hand. Further, when performing a gesture operation, particularly when a position is indicated, a stable operation can be performed by fixing a part of an arm such as an elbow or a wrist or placing it on a table or the like.

従って、肘や手首を乗せることができる台を適当な場所に配置しておくのが重要である。また、これは、操作する手のおよその場所を決める役割もあり、安定した性能を確保するために重要である。例えば、図17の53のような形が考えられる。ここでは、斜め方向にカメラ54が配置してあり、手があまりカメラに近づかないよう、くぼみを設けている。   Therefore, it is important to place a table on which an elbow or wrist can be placed at an appropriate place. This also serves to determine the approximate location of the operating hand and is important for ensuring stable performance. For example, a shape like 53 in FIG. Here, the camera 54 is arranged in an oblique direction, and a depression is provided so that the hand does not approach the camera so much.

また、特開平10−177449で発明した画像入力装置は、自身で発光手段を持っているため、周りの明るさに寄らず、物体形状を撮像できる。しかし、極度に明るい外光、例えば直射日光などがある場合は、影響を受ける可能性がある。特に、画像入力装置の発光手段が照らす部分に、強力な外光が当たっていると、画像の劣化を引き起こしやすい。   Further, since the image input device invented in Japanese Patent Laid-Open No. 10-177449 has its own light emitting means, it can capture an object shape regardless of the surrounding brightness. However, if there is extremely bright outside light, such as direct sunlight, it can be affected. In particular, when a strong external light strikes a portion illuminated by the light emitting means of the image input device, the image is likely to be deteriorated.

そこで、画像入力装置が撮像している手の表面に、強い外光が当たらないような位置関係にセンサを配置することは、性能向上や使用する光学BPFの低コスト化などの効果がある。   Therefore, disposing the sensor in a positional relationship such that strong external light does not strike the surface of the hand being imaged by the image input device has an effect of improving performance and reducing the cost of the optical BPF to be used.

例えば図17(b)は図17(a)の形状の断面図を示しているが、手のひら55は下を向いているため、ここに強力な外光が当たることは少ない。また、操作のしやすさを損なわない程度に、外光を遮蔽する手段を持つのも有効である。   For example, FIG. 17 (b) shows a cross-sectional view of the shape of FIG. 17 (a), but the palm 55 faces downward, so that strong external light is less likely to strike here. It is also effective to have means for shielding outside light to such an extent that the ease of operation is not impaired.

<運転者、助手席者を認識> カー・ナビゲーションのような高度な情報機器は、運転者が操作に集中すると危険なため、運転中は行ってはいけない操作がある。例えば、目的地を登録するといった操作は、非常に煩雑であるため、運転中は操作できないようになっている。従って、通常は車速センサの入力を使用し、走行中はこれらの操作ができないようになっている。   <Recognizing Driver and Passenger Seat> Some advanced information devices such as car navigation are dangerous if the driver concentrates on the operation, and there are operations that should not be performed while driving. For example, an operation of registering a destination is very complicated and cannot be performed during driving. Therefore, normally, the input of the vehicle speed sensor is used, and these operations cannot be performed during traveling.

しかし、走行中であっても助手席者が操作するのは本来危険ではないのに、現状では操作ができないようになっている。現在操作を行おうとしている人が運転者なのか助手席者なのかが検出できれば、運転者のみの操作を禁止することが可能となる。画像センサを使って、操作している人全体を撮像することによって、あるいは全体ではなくとも、操作している手の上腕程度まで撮像すれば、それが運転席、助手席どちらから伸びている手かどうかは判断することができる。   However, although it is not inherently dangerous for the passenger seat to operate even while traveling, it cannot be operated at present. If it is possible to detect whether the person who is currently performing the operation is a driver or a passenger seat, it is possible to prohibit the operation of only the driver. If an image sensor is used to capture the image of the entire operating person, or if not the entire image, up to the upper arm level of the operating hand, it will extend from either the driver seat or the passenger seat. Whether it can be judged.

図18は、これを実現する装置の構成図である。操作者判定部58は画像入力センサ57からの入力画像を用いて、操作者が運転者であるか助手席者であるかを判定する。その結果は、操作入力処理部60に送られ、操作不可能な機能であれば、実行を拒否し、操作できない旨を操作者に知らせる。   FIG. 18 is a block diagram of an apparatus for realizing this. The operator determination unit 58 uses the input image from the image input sensor 57 to determine whether the operator is a driver or a passenger. The result is sent to the operation input processing unit 60. If the function cannot be operated, the execution is rejected and the operator is informed that the operation cannot be performed.

<音声認識との併用> 本発明で説明している、ジェスチャによる入力と同様に、運転者が運転中に安全に操作ができる装置として、音声認識を用いた入力装置がある。これは、運転者が発した音声をマイクで検出し、その音声データを解析し、使用者の意図を判定し、操作に結びつけるものである。音声認識を使った装置は、コマンドを覚えるのが容易でしゃべるだけなので誰にでも使えるといったメリットがある反面、操作をする際にいつもしゃべらなければならない誤認識が多いといった問題がある。本発明のジェスチャ入力装置と、音声認識を組み合わせることにより、より扱いやすいシステムを構築できる。   <Combination with Voice Recognition> Similar to the input by gesture described in the present invention, there is an input device using voice recognition as a device that allows the driver to operate safely while driving. In this method, voice generated by the driver is detected by a microphone, the voice data is analyzed, a user's intention is determined, and the operation is linked. A device using voice recognition has the merit that it can be used by anyone because it is easy to learn commands and can speak, but there is a problem that there are many misrecognitions that must always be spoken when operating. By combining the gesture input device of the present invention and voice recognition, a more manageable system can be constructed.

例えば、機能の選択は、音声を使うと階層を辿らずに即座に行えるので、音声認識を用い、パラメータの入力は、直感的なジェスチャを用いた入力を行う。例えば、「音量」といった後、手を左右に(あるいは上下でも奥行き方向でもよい)動かすことで音量がダイナミックに調整される。ちょうど良いと思ったところで、「OK」と発声すると決定される。   For example, since the selection of a function can be performed immediately without following the hierarchy when using speech, speech recognition is used, and parameter input is performed using an intuitive gesture. For example, after “volume”, the volume is dynamically adjusted by moving the hand left and right (or up and down or in the depth direction). When I thought it was just right, I decided to say “OK”.

あるいは、位置の指示を行うときに決定入力として音声入力を用いることもできる。さらには、ジェスチャによって選択されている対象に対し、複数の実行可能な操作を、音声入力で指示することができる。   Alternatively, voice input can be used as a decision input when a position instruction is given. Furthermore, a plurality of executable operations can be instructed by voice input on the object selected by the gesture.

例えば、地図上に表示されているレストランをジェスチャによって選択し、「電話」「情報」「経路」などの音声コマンドを発行できる。「電話」と発声するとそのレストランへ電話をかけ、「情報」と発声するとそのレストランに関する情報を表示し、「経路」と発声するとそのレストランへの経路探索を開始する。   For example, a restaurant displayed on a map can be selected by a gesture, and voice commands such as “telephone”, “information”, and “route” can be issued. When you say “telephone”, you call the restaurant, when you say “information”, information about the restaurant is displayed, and when you say “route”, the route search to that restaurant is started.

<接触板> 肘や手首などを台などに乗せて操作をするとより安定した操作ができることを既に述べたが、検出する手や指自体を、乗せることのできる台などを用意することも大きな効果がある。そのような構成を図17(c)に示す。ここでは、特開平10−177449に記載の、画像入力装置が画像センサとして配置されている。   <Contact plate> Although it has already been stated that more stable operation can be performed by placing an elbow or wrist on a stand, etc., it is also significant to prepare a stand on which the hand or finger to be detected can be placed. There is. Such a configuration is shown in FIG. Here, an image input device described in JP-A-10-177449 is arranged as an image sensor.

また、操作者の手との間に、透明または半透明状の板56が配置してある。これには反射防止加工を施しておくと、よけいな反射がなくなり安定して画像を得ることができる。あるいはこの板には、当該画像入力装置が備えている発光手段による光の波長のみを通過させるような、光学バンドパス特性を持ったものでも良い。半透明状の板の場合、通過する光の量が変わるので感度に影響する他は、基本的に板が無いときと同様に動作する。板があることによる効果は以下の通りである。   A transparent or translucent plate 56 is arranged between the operator's hands. If anti-reflection processing is applied to this, unnecessary reflection is eliminated and a stable image can be obtained. Alternatively, the plate may have an optical bandpass characteristic that allows only the wavelength of light from the light emitting means provided in the image input device to pass therethrough. In the case of a translucent plate, the amount of light passing therethrough changes, so that the operation is basically the same as when there is no plate except that it affects the sensitivity. The effect by having a board is as follows.

まず、操作者は常にこの板に触れるか触れないかぐらいで操作を行うようにすることで、手とセンサカメラとの距離がほぼ一定に保たれ、安定して検出できるという利点がある。また、特に位置を指示するときに顕著であるが、人は空中で指を静止させるよりは、板の上に置いて静止している方が容易である。   First, the operator always operates by touching or not touching the plate, so that the distance between the hand and the sensor camera is kept almost constant, and there is an advantage that stable detection is possible. In addition, this is particularly noticeable when the position is indicated, but it is easier for a person to rest on a board than to rest his finger in the air.

また、方向ジェスチャを入力するときは、指示する方向に動かすときは、わずかに板に触れるようにし、戻るときには触れないようにすることで、確実に距離の違いを表すことができる。また、板に触れているときの検出距離はかなり安定して、小さな幅に収まるため、触っているかどうかを距離値(実際には、反射光量から換算される距離情報)で判定することができる。   Further, when inputting a direction gesture, a difference in distance can be surely expressed by touching the board slightly when moving in the indicated direction and not touching when returning. In addition, since the detection distance when touching the plate is fairly stable and fits within a small width, it can be determined by a distance value (actually, distance information converted from the amount of reflected light). .

これにより、例えば、形状ジェスチャとして、1本指で板を触る、2本指で板を触る、というように触る指の数で表すこともかのうである。また、手全体の形状も検出されているので、触った指がどの指かも検出することができ、形状ジェスチャの種類を容易に増やすことができる。   Thus, for example, the shape gesture can be expressed by the number of fingers touching the board with one finger and touching the board with two fingers. Further, since the shape of the entire hand is also detected, it is possible to detect which finger is touched, and the number of shape gestures can be easily increased.

また、カメラの位置は、この図では手の指方向斜めから手を捉えているが、この位置はここに限らず、例えば、手の真下であったり、手首方向斜めからであったりしてもよい。しかし、指先の方の形状がやや重要であることが多いため、この方向から撮像した方が、安定した検出が可能になる。   Further, in this figure, the position of the camera is grasping the hand from the diagonal direction of the finger of the hand, but this position is not limited to this, for example, it may be directly under the hand or from the diagonal direction of the wrist. Good. However, since the shape of the fingertip is often a little important, it is possible to perform stable detection by imaging from this direction.

<形状検出> 触った形状のみで、動作をさせようと思えば、さらに異なる構造を持たせることもできる。画像センサとして、CCDカメラが配置されており、外部からの光を拡散する拡散板がある。通常外部からの光が拡散板を通してカメラに入射しているため、カメラはぼんやりと明るい画像を常に捉えている。操作者が手や指を、拡散板の上に載せたとき、その部分からは光が到達しないので、黒い部分として撮像される。   <Shape detection> If it is intended to operate with only the touched shape, it can have a different structure. As an image sensor, a CCD camera is arranged, and there is a diffusion plate that diffuses light from the outside. Normally, external light is incident on the camera through the diffuser, so the camera always captures a dimly bright image. When the operator places his / her hand or finger on the diffuser plate, light does not reach from that portion, so an image is taken as a black portion.

この画像を解析することによって、何ヶ所指が触れているか、あるいは触れた指がどちらの方向に動いたかという情報を検出することができる。あるいは触れてはいないが非常に近い場合は、黒に近い灰色として撮像されるので、これも利用することが可能である。周りが暗い場合には、外光が利用できないので、その場合は補助的な光源を外部に持つことで同様の動作を行える。   By analyzing this image, it is possible to detect information indicating how many fingers are touching or in which direction the touched finger has moved. Alternatively, if it is not touched but is very close, it is captured as a gray close to black, which can also be used. When the surroundings are dark, external light cannot be used. In this case, the same operation can be performed by providing an auxiliary light source outside.

また、本願発明の実施例における処理をコンピュータで実行可能なプログラムで実現し、このプログラムをコンピュータで読み取り可能な記憶媒体として実現することも可能である。   Further, the processing in the embodiment of the present invention can be realized by a computer-executable program, and this program can be realized as a computer-readable storage medium.

<記録媒体> なお、本願発明における記憶媒体としては、磁気ディスク、フロッピー(R)、ハードディスク、光ディスク(CD−ROM,CD−R,DVD等)、光磁気ディスク(MO等)、半導体メモリ等、プログラムを記憶でき、かつコンピュータが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。   <Recording medium> The storage medium in the present invention includes a magnetic disk, floppy (R), hard disk, optical disk (CD-ROM, CD-R, DVD, etc.), magneto-optical disk (MO, etc.), semiconductor memory, etc. As long as the storage medium can store the program and is readable by the computer, the storage format may be any form.

また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコンピュータ上で稼動しているOS(オペレーションシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。   Further, an OS (operation system) operating on the computer based on an instruction of a program installed in the computer from the storage medium, database management software, MW (middleware) such as a network, and the like for realizing the present embodiment A part of each process may be executed.

さらに、本願発明における記憶媒体は、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。   Furthermore, the storage medium in the present invention is not limited to a medium independent of a computer, but also includes a storage medium in which a program transmitted via a LAN or the Internet is downloaded and stored or temporarily stored.

また、記憶媒体は1つに限らず、複数の媒体から本実施形態における処理が実行される場合も、本発明における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。   Further, the number of storage media is not limited to one, and the processing in the present embodiment is executed from a plurality of media, and the configuration of the media may be any configuration included in the storage media in the present invention.

なお、本願発明におけるコンピュータは、記憶媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するものであって、パソコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。   The computer according to the present invention executes each process according to the present embodiment based on a program stored in a storage medium. The computer includes a single device such as a personal computer, and a system in which a plurality of devices are connected to a network. Any configuration may be used.

また、本願発明におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本願発明の機能を実現することが可能な機器、装置を総称している。   The computer in the present invention is not limited to a personal computer, but includes a processing unit, a microcomputer, and the like included in an information processing device, and is a generic term for devices and devices capable of realizing the functions of the present invention by a program. .

<まとめ> 第1の発明によれば、人の身体あるいはその一部の形状や動きなどのジェスチャのうち、異なる2つの種類のジェスチャを用いて操作を行い、第1の種類のジェスチャで、操作モードの選択を行い、第2の種類のジェスチャでその操作モードないでのパラメータの変更を行うことができる操作入力装置が実現できる。   <Summary> According to the first invention, operations are performed using two different types of gestures among gestures such as the shape and movement of a human body or a part of the human body, and the operations are performed using the first type of gestures. It is possible to realize an operation input device that can select a mode and change parameters without using the operation mode with the second type of gesture.

第2の発明によれば、形状を提示するという形状ジェスチャで操作モードを選択し、方向を指示する方向ジェスチャでパラメータを変更するという極めて使用者にとって自然な操作入力装置が実現できる。   According to the second aspect of the present invention, it is possible to realize an operation input device that is extremely natural for a user, in which an operation mode is selected by a shape gesture of presenting a shape, and a parameter is changed by a direction gesture indicating a direction.

第3の発明によれば、ひとつの形状ジェスチャには、ひとつあるいは類似した複数の操作モードが対応づけられており、形状ジェスチャ検出手段が同一の形状ジェスチャを連続して検出したときに、その形状ジェスチャに関連づけられた複数の操作モードを順番に選択していくことができるため、類似の操作モードが複数ある時、それら全てに異なるジェスチャを割り当てるという、使用者にとって負担の大きい手段を採らずに、多くの類似の操作モードを選択できる。   According to the third invention, one shape gesture is associated with one or a plurality of similar operation modes, and when the shape gesture detecting means continuously detects the same shape gesture, the shape is detected. Since multiple operation modes associated with gestures can be selected in order, when there are multiple similar operation modes, all of them are assigned different gestures without taking a heavy burden on the user. Many similar operation modes can be selected.

第4の発明によれば、形状ジェスチャ検出手段は、人の身体あるいはその一部の動きが一定時間以上静止あるいは動きの小さい状態であることを検出したときに、形状の検出を開始するので、意図しない操作者の動きが形状ジェスチャとして誤認識されてしまうことを防ぐことができる。また、静止したときのみ形状認識処理を行うので、処理コストを低くすることができる。   According to the fourth invention, the shape gesture detection means starts detecting the shape when detecting that the movement of the human body or a part of the human body is stationary or small in movement for a certain time or more. It is possible to prevent an unintended operator's movement from being erroneously recognized as a shape gesture. In addition, since the shape recognition process is performed only when stationary, the processing cost can be reduced.

第5の発明によれば、表示手段に、選択可能な操作モードとそれを選択するための形状ジェスチャを表す画像、あるいは変更可能なパラメータとそれを変更するための方向を表す画像を併せて表示するので、操作者がジェスチャを忘れたときには、わざわざ取扱説明書を開かなくとも、ジェスチャの種類を知ることができる。   According to the fifth aspect, the display means displays the selectable operation mode and the image representing the shape gesture for selecting the same, or the changeable parameter and the image representing the direction for changing the same. Therefore, when the operator forgets the gesture, the user can know the type of the gesture without having to bother opening the instruction manual.

第6の発明によれば、現在選択可能な操作モードあるいは変更可能なパラメータなどの情報を音声で提示するので、操作者が前方を注視したままで、現在の操作の状況を知ることができる。   According to the sixth aspect of the invention, information such as a currently selectable operation mode or a changeable parameter is presented by voice, so that the operator can know the current operation status while keeping his eyes on the front.

第7の発明によれば、操作の途中で、操作者によるジェスチャ提示が滞ったときに音声提示を行うので、常に音声提示が行われているという煩わしさがない。
第8の発明によれば、形状ジェスチャ検出手段が検出を開始したこと、検出を終了したこと、検出に失敗したこと、方向ジェスチャ検出手段が方向を検出したこと、のうちのいくつかまたは全てが起こったときに、音で操作者に提示する音提示手段を有するので、自分の行ったジェスチャが正しく認識されたかどうかを、画面を見ずに知ることができる。
According to the seventh aspect, since voice presentation is performed when gesture presentation by the operator is delayed during the operation, there is no inconvenience that voice presentation is always performed.
According to the eighth invention, some or all of the fact that the shape gesture detection means has started detection, the detection has been completed, the detection has failed, and the direction gesture detection means has detected a direction. Since it has sound presenting means for presenting to the operator with sound when it occurs, it is possible to know whether or not the gesture made by the user is correctly recognized without looking at the screen.

第9の発明によれば、操作の種類によって、あるいは検出された方向の種類によって、異なる音が提示されるので、入力しようとした方向、形状と異なるジェスチャが検出されてしまったときに、知ることができる。   According to the ninth aspect, since different sounds are presented depending on the type of operation or the type of detected direction, it is known when a gesture different from the direction and shape to be input has been detected. be able to.

第10の発明によれば、人の身体やその一部、人が持っているもの、または人が身につけているものの位置に対応した位置情報の軌跡を解析して方向ジェスチャを検出する方法であって、当該物体が、あらかじめ決まられた複数の方向のうち、いずれかの方向に、決められた範囲の量だけ動き、次いで反対側に、決められた範囲の量だけ動いたとき、始めに動いた方向への方向ジェスチャとして検出することを特徴とした、方向ジェスチャ検出方法を用いることによって、同じ方向のジェスチャを繰り返し提示するときに、あいだに生じる「戻り」の動作を反対方向のジェスチャと誤って認識することを防ぐことができる。また、常に同じ場所に戻ってきて、ジェスチャが終了するため、方向ジェスチャを繰り返すのに適している。   According to the tenth aspect of the present invention, there is provided a method for detecting a direction gesture by analyzing a locus of position information corresponding to a position of a person's body or a part thereof, a person's body, or a person's body. First, when the object moves in one of a plurality of predetermined directions by a predetermined range, and then moves to the opposite side by a predetermined range. By using the direction gesture detection method, which is detected as a direction gesture in the direction of movement, when a gesture in the same direction is repeatedly presented, the "return" action that occurs between the gestures in the opposite direction and It is possible to prevent erroneous recognition. Moreover, since it always returns to the same place and a gesture is complete | finished, it is suitable for repeating a direction gesture.

第11の発明によれば、人の身体やその一部、人が持っているもの、または人が身につけているものの位置に対応した位置情報の軌跡を解析して方向ジェスチャを検出する方法であって、当該物体が、あらかじめ決められた範囲に決められた範囲の時間だけ静止または動きの少ない状態でとどまった後、あらかじめ決まられた複数の方向のうち、いずれかの方向に、決められた範囲の量だけ動き、次いで反対側に、決められた範囲の量だけ動き、再び決められた範囲の時間だけ静止または動きの少ない状態でとどまったときに、始めに動いた方向への方向ジェスチャとして検出することを特徴とした、方向ジェスチャ検出方法を用いることにより、操作者の意図しない動きが方向ジェスチャとして誤検出されてしまうことを防ぐことができる。   According to the eleventh aspect of the present invention, there is provided a method of detecting a direction gesture by analyzing a locus of position information corresponding to a position of a person's body or part thereof, a person's possession, or a person's body. Then, after the object stays stationary or in a state where there is little movement for a predetermined range within a predetermined range, it is determined in any one of a plurality of predetermined directions. As a directional gesture in the direction of the first movement when moving by the amount of the range and then moving to the opposite side by the amount of the determined range and staying still or less moving again for the determined range of time By using a direction gesture detection method characterized by detection, it is possible to prevent an unintended movement of the operator from being erroneously detected as a direction gesture.

第12の発明によれば、方向ジェスチャが検出されたときに、検出されたことを音で提示する、音提示手段を持つので、方向ジェスチャが正しく検出されたことを確認できる。   According to the twelfth invention, when the direction gesture is detected, the sound presenting means for presenting the detection by sound is provided, so that it can be confirmed that the direction gesture is correctly detected.

第13の発明によれば、検出されたジェスチャの方向によって、ことなる音を提示するため、入力しようとした方向と異なる方向が誤検出されたときに気づくことができる。   According to the thirteenth aspect, since a different sound is presented depending on the direction of the detected gesture, it can be noticed when a direction different from the direction to be input is erroneously detected.

第14の発明によれば、はじめにある方向に動いたときに、ひとつの音を提示し、逆側に動いて戻り、方向ジェスチャとして検出されたときに、別の音を提示するので、はじめの動きと戻りの動きを確実に実行することが可能である。   According to the fourteenth aspect of the present invention, when one moves in the first direction, it presents one sound, moves back to the opposite side, and presents another sound when detected as a direction gesture. It is possible to reliably perform movement and return movement.

第15の発明によれば、ひとつめの音は、動いた方向によって異なる音を提示し、ふたつめの音は、方向ジェスチャによらず同じ音を提示するので、方向ジェスチャが完了したときには常に同じ音が聞こえる。したがって、はじめの動きと戻りの動きが逆に検出されるような事態になったときには、すぐに気づくことができる。   According to the fifteenth aspect, the first sound presents a different sound depending on the direction of movement, and the second sound presents the same sound regardless of the direction gesture, so that it is always the same when the direction gesture is completed. I hear something. Therefore, when the situation in which the initial movement and the return movement are detected in reverse, it can be immediately noticed.

第16の発明によれば、人の身体やその一部、人が持っているもの、または人が身につけているものの位置に対応した位置情報の軌跡を解析してジェスチャを検出する方法であって、人が意図して動かしている動作と、意図せずに生じてしまう動作を識別することを特徴とする、ジェスチャ検出方法を用いる。これにより、空中でのジェスチャを行うときに、人が意図して行っている動作と、その意図している動作同士のあいだに発生してしまう、意図しない動作を識別し、判定に有効な動作のみを取り出すことができる。   According to the sixteenth aspect of the present invention, there is provided a method for detecting a gesture by analyzing a locus of position information corresponding to the position of a person's body or a part thereof, a thing held by a person, or a thing worn by a person. Thus, a gesture detection method is used, which is characterized by discriminating between an action that a person intentionally moves and an action that occurs unintentionally. As a result, when performing gestures in the air, an action that is effective for judgment by identifying an action that is intentionally performed by a person and an unintended action that occurs between the intended actions Can only be taken out.

第17の発明によれば、人の身体やその一部、人が持っているもの、または人が身につけているものの位置に対応した位置情報の軌跡を解析して方向ジェスチャを検出する方法であって、あらかじめ決まられた複数の方向のうち、いずれかの方向に動いたことを検出する手段と、連続する同じ方向ジェスチャの間に発生する「戻り」の動作を除去する手段を有する方向ジェスチャ検出方法を用いることにより、一方向の動きで、方向ジェスチャを示すときに問題となる「戻り」動作の誤検出を防ぐことができる。   According to the seventeenth aspect of the present invention, there is provided a method for detecting a direction gesture by analyzing a locus of position information corresponding to a position of a person's body or a part thereof, a person's possession, or a person's body. A direction gesture having means for detecting movement in any one of a plurality of predetermined directions, and means for removing a "return" action that occurs between successive same direction gestures By using the detection method, it is possible to prevent erroneous detection of a “return” operation that becomes a problem when a direction gesture is indicated by movement in one direction.

第18の発明によれば、動いたもののセンサからの距離を検出する手段を持ち、ある方向への連続した動きの間に、反対方向の距離が遠い動きを検出したときに、それは「戻り」の動きであると判定し、除去するので、操作者が「戻り」動作を行う際には、カメラセンサより手を遠ざけて戻すようにすることで、「戻り」動作を除去できる。   According to the eighteenth aspect of the present invention, there is means for detecting the distance of the moving object from the sensor, and when a movement in which the distance in the opposite direction is far is detected during a continuous movement in one direction, it is “return”. Therefore, when the operator performs the “return” operation, the “return” operation can be removed by moving the hand away from the camera sensor.

第19の発明によれば、各々の動きの間の時間間隔を測定する手段を持ち、ある方向への連続した動きの間に、反対方向の動きが検出され、なおかつそれらの間に、あらかじめ定められた長さ以下の時間間隔しか無かった場合、この間の動きを「戻り」の動きであると判定し、除去するので、同じ方向ジェスチャを提示するときは、時間間隔が空かないように操作し、逆方向のジェスチャを提示するときは、一旦停止してから行うようにすることで、「戻り」動作を除去した安定的な操作が行える。   According to the nineteenth aspect of the present invention, there is provided means for measuring a time interval between the movements, the movements in the opposite direction are detected during the continuous movements in a certain direction, and a predetermined time is set between them. If there is only a time interval that is less than or equal to the specified length, it is determined that the movement during this time is a `` return '' movement and is removed, so when presenting the same direction gesture, operate so that there is no time interval. When a reverse gesture is presented, it is possible to perform a stable operation without the “return” operation by temporarily stopping the gesture.

第20の発明によれば、検出された方向ジェスチャに対し、それぞれ方向によって異なる音を提示するため、「戻り」動作を除去せずに方向ジェスチャとして認識してしまったときに、知ることができる。   According to the twentieth invention, different sounds are presented to the detected direction gestures depending on the directions, so that it is possible to know when the direction gesture is recognized without removing the “return” operation. .

第21の発明によれば、人の身体やその一部、人が持っているもの、または人が身につけているものの位置に対応した位置情報の軌跡を解析してジェスチャとして検出する方法であって、始まりの位置と終わりの位置が近い位置に来るような軌跡をジェスチャとして検出するので、さまざまなジェスチャを繰り返し入力するのに適している。   According to the twenty-first aspect, there is a method for detecting a gesture of position information by analyzing a locus of position information corresponding to the position of a person's body or part thereof, what a person has, or what a person is wearing. Thus, a trajectory in which the start position and the end position are close to each other is detected as a gesture, which is suitable for repeatedly inputting various gestures.

第22の発明によれば、上述したような方向ジェスチャ検出方法を用いた、操作入力装置が実現できる。
第23の発明によれば、人の身体あるいはその一部の形状を検出することができる、形状ジェスチャ検出手段と、メニューを表示するメニュー表示手段と、検出されたジェスチャに対応づけて、メニューを選択するメニュー選択手段を有する入力装置であって、階層的にメニューを辿っていくときに、同じ形状の形状ジェスチャを提示することが無いように、ジェスチャとメニューの対応付けがなされたことを特徴とする、操作入力装置を実現することにより、ジェスチャの組み合わせで、階層をまたぐメニュー選択が、あたかもひとつのジェスチャ提示をするかのごとく行えるようになる。
According to the twenty-second aspect, an operation input device using the direction gesture detection method as described above can be realized.
According to the twenty-third invention, a shape gesture detecting means capable of detecting the shape of a human body or a part thereof, a menu display means for displaying a menu, and a menu corresponding to the detected gesture are displayed. An input device having a menu selection means for selecting, wherein a gesture is associated with a menu so that a shape gesture of the same shape is not presented when hierarchically following the menu. By realizing the operation input device, it is possible to perform menu selection across layers by combining gestures as if one gesture was presented.

第24の発明によれば、人の身体あるいはその一部の動きの方向を検出することができる、方向ジェスチャ検出手段と、メニューを表示するメニュー表示手段と、検出されたジェスチャに対応づけて、メニューを選択するメニュー選択手段を有する入力装置であって、方向ジェスチャを連続して提示したときには、1回だけ提示したときとは異なるメニューが選択されるようにすることによって、単に方向ジェスチャを用いるときも多くのメニューを表示することができる。   According to the twenty-fourth invention, the direction gesture detecting means capable of detecting the direction of movement of a human body or a part thereof, the menu display means for displaying a menu, and the detected gesture are associated with each other. An input device having menu selection means for selecting a menu, and when direction gestures are continuously presented, a direction menu is simply used by selecting a different menu from that presented once. Sometimes many menus can be displayed.

第25の発明によれば、人の身体あるいはその一部の形状を検出することができる形状ジェスチャ検出手段と、人の身体あるいはその一部の動きの方向を検出することができる、方向ジェスチャ検出手段と、メニューを表示するメニュー表示手段と、検出されたジェスチャに対応づけて、メニューを選択するメニュー選択手段を有する入力装置であって、検出された方向ジェスチャと、それと同時に検出された形状ジェスチャとの組み合わせによって、選択されるメニューが決定されるようにすることによって、単に方向ジェスチャを用いるときも多くのメニューを表示することができる。   According to the twenty-fifth aspect of the present invention, the shape gesture detecting means capable of detecting the shape of the human body or part thereof, and the direction gesture detection capable of detecting the direction of movement of the human body or part thereof. An input device having a menu selection means for selecting a menu in association with a detected gesture and a menu selection means for selecting a menu in association with the detected gesture, and a detected shape gesture and a shape gesture detected at the same time In combination with, a menu to be selected is determined, so that a large number of menus can be displayed even when simply using a direction gesture.

第26の発明によれば、人の身体やその一部、人が持っているもの、または人が身につけているものの位置や動きの情報を用いて、並んだ項目のひとつを選択する、あるいは値を設定する方法であって、人が容易に独立して制御できる、または検出手段が容易に独立して検出しうる、2種類の位置、動き情報を用いて、一方を用いて項目あるいは値の選択を行い、他方を用いて決定する、ことを特徴とする、操作入力方法を構成する。これにより、画面を見ることができるときには、素早く項目あるいは値の入力ができる。これらの2種類の動きは独立性が高いので、互いの動作に影響を与えて、検出誤差が生じるのを防ぐことができる。   According to the twenty-sixth invention, using the information on the position and movement of a person's body or a part thereof, what a person has, or what a person wears, one of the items arranged is selected, or A method for setting a value, which can be easily controlled independently by a person, or can be easily detected independently by a detection means. The operation input method is characterized in that selection is made using the other and determination is made using the other. Thus, when the screen can be viewed, items or values can be input quickly. Since these two types of movements are highly independent, it is possible to prevent the occurrence of detection errors by affecting the operation of each other.

第27の発明によれば、ひとつの方向に動かして項目あるいは値の選択を行い、それと異なる方向の動きを提示することで、決定するので、動き情報のみで選択動作が行える。クリックに相当する動作を形状の変化などで示さなくて良いので、より安定して操作できる。   According to the twenty-seventh aspect, the item or value is selected by moving in one direction, and the determination is made by presenting the movement in a different direction. Therefore, the selection operation can be performed using only the movement information. Since the operation corresponding to the click need not be indicated by a change in shape, the operation can be performed more stably.

第28の発明によれば、人が、より細かく位置を制御できる方向、あるいは検出手段がより精度良く位置を検出できる方向を、選択の方向として利用するので、より精度良く操作が行え、また使用者にとっても操作しやすい装置を提供することができる。   According to the twenty-eighth aspect, the direction in which the person can control the position more finely or the direction in which the detection means can detect the position more accurately is used as the selection direction. It is possible to provide a device that is easy for a person to operate.

第29の発明によれば、決定の方向ジェスチャを提示する際には、反対向きの2つの方向によって、異なる項目または値を選択決定することにより、より多くの項目を表示し、選択することが可能となる。   According to the twenty-ninth invention, when presenting a determination direction gesture, it is possible to display and select more items by selecting and determining different items or values according to two opposite directions. It becomes possible.

第30の発明によれば、決定の方向ジェスチャを提示する際には、決定の方向に、定められた範囲の量だけ移動し、再び定められた範囲の量だけ戻って来たときに、決定することを特徴とするので、この項目選択を繰り返し行うときに効率的に操作できる。   According to the thirtieth aspect, when presenting the decision direction gesture, the decision direction is moved when it moves in the direction of the decision by the amount of the predetermined range and returns again by the amount of the predetermined range. Therefore, when this item selection is repeated, it can be operated efficiently.

第31の発明によれば、第26〜第30の発明の操作入力方法を用いた操作入力装置が実現できる。
第32の発明によれば、肘、手首など、腕の一部を置く場所を設けたことにより、より安定して、楽に操作を行うことができる。
第33の発明によれば、光学的手段を用いて、対象物体の位置や形状を検出する、第1〜第9、第12〜第15、第20、第22〜第25、第31の発明の操作入力装置であって、画像入力装置側の物体表面に、強力な外部光が当たらないように、向き、配置を工夫した、操作入力装置であるため、太陽光のような強力な外光の影響を受けやすい、光学的手段を用いても安定した性能を発揮することができる。
According to the thirty-first aspect, an operation input device using the operation input method of the twenty-sixth to thirtieth aspects can be realized.
According to the thirty-second aspect, by providing a place for placing a part of the arm such as an elbow or a wrist, the operation can be performed more stably and easily.
According to the thirty-third invention, the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth, thirty-first invention for detecting the position and shape of the target object using optical means. This is an operation input device that is devised in direction and arrangement so that strong external light does not strike the object surface on the image input device side. Stable performance can be exhibited even by using optical means that are easily affected by the above.

第34の発明によれば、車載機器に使用される、第1〜第9、第12〜第15、第20、第22〜第25、第31の発明の操作入力装置であって、運転者がハンドルから手を離さずにあるいはほとんど離さずに操作できるように、配置したことを特徴とする、操作入力装置を実現できるので、運転者が運転中により安全に操作を行うことができる。   According to a thirty-fourth invention, the operation input device according to the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first inventions used in an in-vehicle device, the driver Since the operation input device can be realized so that it can be operated with little or no release from the handle, the driver can operate more safely during driving.

第35の発明によれば、第1〜第9、第12〜第15、第20、第22〜第25、第31の発明の操作入力装置であって、操作しようとしている人が、どのカテゴリに属する人なのかを判定する、操作者判定手段を持ち、操作者の属するカテゴリによって、行える操作を変更することができる手段を持つことを特徴とする、操作入力装置を用いる。これにより、使用者の状態や位置などの条件によって、操作を許可したり禁止したりすることが可能になる。   According to a thirty-fifth aspect, in the operation input device according to the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first inventions, An operation input device is used, characterized in that it has an operator determination means for determining whether the user belongs to, and has means for changing the operations that can be performed according to the category to which the operator belongs. As a result, the operation can be permitted or prohibited depending on conditions such as the state and position of the user.

第36の発明によれば、車載機器に使用される、第1〜第9、第12〜第15、第20、第22〜第25、第31の発明の操作入力装置であって、操作しようとしているのが運転者なのかそれ以外なのかを判定する、操作者判定手段を持ち、操作者が運転者である場合、一定の条件下で一部の操作ができないよう制御する手段を持つことを特徴とするので、走行中に運転者が操作してはならない操作でも、助手席者ならば操作できるように構成することができる。   According to a thirty-sixth aspect of the invention, the operation input device according to the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first aspects of an operation input device used in an in-vehicle device. It has an operator determination means that determines whether the driver is a driver or the other, and if the operator is a driver, has a means to control that some operations cannot be performed under certain conditions Therefore, even if an operation that should not be operated by the driver during traveling is possible, it can be configured so that it can be operated by a passenger.

第37の発明によれば、第1〜第9、第12〜第15、第20、第22〜第25、第31の発明の操作入力装置であって、さらに音声によって指示が行える、音声入力手段を持つことを特徴とするので、音声による簡便な入力方法とパラメータ入力に適したジェスチャ入力を併用したより操作しやすい環境を実現できる。   According to a thirty-seventh aspect of the invention, the operation input device according to the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth and thirty-first aspects of the invention, and further capable of giving instructions by voice. Since it has a means, it is possible to realize an environment that is easier to operate by using a simple input method by voice and a gesture input suitable for parameter input.

第38の発明によれば、第1〜第9、第12〜第15、第20、第22〜第25、第31の発明の操作入力装置であって、さらにユーザの意図しない動きを防ぎ、手や身体の動きを安定させるための安定化手段を有することを特徴とする操作入力装置を用いることで、より安定した操作を実現することができる。   According to the thirty-eighth aspect, the operation input device according to the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first aspects of the invention further prevents movement unintended by the user, By using an operation input device characterized by having stabilization means for stabilizing the movement of the hand or body, a more stable operation can be realized.

第39の発明によれば、安定化手段は、ユーザが動作の最初や最後あるいは動作中に手や身体を接触させて操作するための接触板であることを特徴とした、第38の発明の操作入力装置を用いることによって、操作者は板に触ることでより安定的に位置入力が行え、また、触ることで操作しているという安心感を与えられる。また、距離が一定に保たれるので、より安定した検出性能が実現できる。   According to a thirty-ninth aspect of the present invention, the stabilizing means is a contact plate for a user to operate by touching a hand or body at the beginning or end of an operation or during the operation. By using the operation input device, the operator can input the position more stably by touching the board, and can feel assured that the operation is performed by touching. Further, since the distance is kept constant, more stable detection performance can be realized.

第40の発明によれば、手で触った部分の形状が検出できる、接触形状検出手段と、この接触形状を形状ジェスチャとして検出する形状ジェスチャ検出手段と、動きの方向を検出する、方向ジェスチャ検出手段と、形状ジェスチャ検出手段の検出結果に応じて、ある特定の操作が行える複数の操作モードのうちのひとつを選択する操作モード選択手段と、方向ジェスチャ検出手段の検出結果に応じて、当該操作モードにおいて変更可能なパラメータを変更するパラメータ変更手段を有する操作入力装置を構成することで、確実に触って操作したときのみ動作するような操作入力環境が実現できる。この構成では、通常のCCDカメラを用いても安定した動作が実現できる。   According to the fortieth aspect, the contact shape detecting means capable of detecting the shape of the part touched by the hand, the shape gesture detecting means for detecting the contact shape as a shape gesture, and the direction gesture detection for detecting the direction of movement. An operation mode selection unit that selects one of a plurality of operation modes in which a specific operation can be performed according to the detection result of the shape gesture detection unit, and the operation according to the detection result of the direction gesture detection unit. By configuring an operation input device having parameter changing means for changing parameters that can be changed in the mode, it is possible to realize an operation input environment that operates only when it is operated with certainty. With this configuration, a stable operation can be realized even with a normal CCD camera.

第41の発明によれば、第1〜第9、第12〜第15、第20、第22〜第25、第31の発明の操作入力装置であって、パルス発光する発光手段と発光手段に同期して動作し、その発光手段から照射される光の物体反射光のみを撮像する手段を、備えたことを特徴とする操作入力装置を用いることで、物体の形状を安定に、高速に得られるため、低い処理コストでジェスチャ入力が実現できる。   According to a forty-first aspect of the invention, the operation input device of the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first aspects of the invention is provided. By using an operation input device that operates synchronously and has means for imaging only the object reflected light of the light emitted from the light emitting means, the shape of the object can be obtained stably and at high speed. Therefore, gesture input can be realized at a low processing cost.

第42の発明によれば、第1〜第9、第12〜第15、第20、第22〜第25、第31〜第41の発明の操作入力装置を備えた車両が実現できる。
第43の発明によれば、人の身体やその一部あるいは物体などの対象物の形状・動き情報を検出し、この検出結果により、複数の操作モードのうちのひとつを選択し、次いで、同じ対象物の、前述とは異なる種類の形状・動き情報を検出し、この検出結果を用いて、その操作モードにおける変更可能なパラメータを変更することを特徴とする操作入力方法により、使用者が自然な感覚で操作できる、装置が構成できる。
According to the forty-second invention, a vehicle including the operation input device of the first to ninth, twelfth to fifteenth, twentieth, twenty-second to twenty-fifth, and thirty-first to forty-first inventions can be realized.
According to the forty-third invention, shape / movement information of a human body, a part thereof, or an object such as an object is detected, and one of a plurality of operation modes is selected based on the detection result, and then the same By using an operation input method characterized by detecting different types of shape / motion information of the target object and using the detection results to change the changeable parameters in the operation mode. A device that can be operated with a simple feeling can be configured.

第44の発明によれば、第10、第11、第16〜第19、第21、第26〜第30、第43の発明のジェスチャ入力方法あるいは操作入力方法を実行するプログラムを収めた記憶媒体は、コンピュータが搭載されている装置に、実施例で述べたような操作入力環境を構築することができる。   According to the forty-fourth invention, a storage medium storing a program for executing the gesture input method or the operation input method of the tenth, eleventh, sixteenth to nineteenth, twenty-first, twenty-sixth to thirty-third, or forty-third invention Can construct an operation input environment as described in the embodiment in an apparatus on which a computer is mounted.

本発明を実現する全体構成図である。1 is an overall configuration diagram for realizing the present invention. 本発明を実現するより具体的な全体構成図である。It is a more concrete whole block diagram which implement | achieves this invention. 本発明で用いる形状ジェスチャの例である。It is an example of the shape gesture used by this invention. 本発明で用いる形状ジェスチャと方向ジェスチャを用いた操作の遷移図である。It is a transition diagram of the operation using the shape gesture and the direction gesture used in the present invention. 本発明で用いるジェスチャ・アイコンの表示例である。It is an example of a display of the gesture icon used by this invention. 本発明で用いる音声フィードバックを行うための構成図である。It is a block diagram for performing the audio | voice feedback used by this invention. 本発明で用いる操作が滞ったときに音声フィードバックを行う処理のフローチャート。The flowchart of the process which performs audio | voice feedback when the operation used by this invention has stagnated. 本発明で用いる方向ジェスチャの検出方法を示すフローチャートである。It is a flowchart which shows the detection method of the direction gesture used by this invention. 本発明で用いる始まりと終わりの位置が近いジェスチャの例である。It is an example of the gesture with which the position of the beginning and the end used by this invention is near. 本発明で用いる距離を検知して戻りの動作を除去する構成例である。It is a structural example which detects the distance used by this invention, and removes a return operation | movement. 本発明で用いるジェスチャによって、メニュー階層を辿ることができる装置の構成例。The structural example of the apparatus which can trace a menu hierarchy with the gesture used by this invention. 本発明で用いる方向ジェスチャでメニュー選択をする際の画面例である。It is an example of a screen at the time of selecting a menu with a direction gesture used in the present invention. 本発明で用いる方向ジェスチャの繰り返しで異なるメニューを選択する画面例である。It is an example of a screen which selects a different menu by repetition of the direction gesture used by this invention. 本発明で用いる独立した2種類の動き情報で、選択と決定を行う装置の構成図である。It is a block diagram of the apparatus which performs selection and determination by two types of independent motion information used by this invention. 本発明で用いる独立した2種類の動き情報で、選択と決定を行う装置の画面例である。It is an example of the screen of the apparatus which performs selection and determination with two independent types of motion information used in the present invention. 決定を行う動きをさらに分け、選択肢の数を増やした構成における画面例である。It is the example of a screen in the structure which further divided the movement which performs a decision, and increased the number of choices. 本発明で用いる装置の外観の例である。It is an example of the external appearance of the apparatus used by this invention. 操作者を判定して、適応的に操作の許可・不許可を与える装置の構成図である。It is a block diagram of the apparatus which determines an operator and gives permission / non-permission of operation adaptively.

符号の説明Explanation of symbols

1…第1のジェスチャ検出部
2…第2のジェスチャ検出部
3…操作種類選択部
4…パラメータ変更部
5…操作入力処理部
6…操作実行部
7…形状ジェスチャ検出部
8…方向ジェスチャ検出部
9…ジェスチャ・アイコン
13…音声フィードバック部
32…画像入力部
33…距離検出部
34…動き検出部
47…第1の動き検出部
48…選択部
49…第2の動き検出部
50…決定動作判定部
53…腕の一部を乗せる台
54…カメラ
56…接触板
58…操作者判定部
DESCRIPTION OF SYMBOLS 1 ... 1st gesture detection part 2 ... 2nd gesture detection part 3 ... Operation type selection part 4 ... Parameter change part 5 ... Operation input process part 6 ... Operation execution part 7 ... Shape gesture detection part 8 ... Direction gesture detection part 9 ... Gesture icon 13 ... Audio feedback unit 32 ... Image input unit 33 ... Distance detection unit 34 ... Motion detection unit 47 ... First motion detection unit 48 ... Selection unit 49 ... Second motion detection unit 50 ... Determination operation determination Unit 53 ... Stand 54 on which a part of the arm is placed ... Camera 56 ... Contact plate 58 ... Operator determination unit

Claims (4)

検出すべき対象物の位置情報の軌跡を解析して前記対象物の方向を検出する方法であって、
前記対象物の位置が所定領域内に所定時間内静止または動きの少ない状態でとどまった後、所定の方向に所定の距離だけ動き、前記所定の方向と反対側の方向に所定の距離だけ動き、再び前記所定領域内に所定の時間内だけ静止または動きの少ない状態でとどまったときに、前記所定の方向への動きとして前記対象物の動きの方向を検出することを特徴とする方向検出方法。
A method of detecting a direction of the object by analyzing a locus of position information of the object to be detected,
After the position of the object stays within a predetermined area for a predetermined time or in a state of little movement, the object moves by a predetermined distance in a predetermined direction, and moves by a predetermined distance in a direction opposite to the predetermined direction, A direction detection method, wherein the direction of movement of the object is detected as a movement in the predetermined direction when it remains in the predetermined area again for a predetermined time or in a state of little movement.
検出すべき対象物の位置情報の軌跡を解析して前記対象物の方向を検出する方法であって、
所定の複数方向のうち、前記対象物の位置が所定領域内からいずれかの方向に動いたかを検出し、当該検出された方向と同じ方向への連続する動きの間に発生する前記所定領域内に戻る動きを除去することで前記対象物の複数回の動きの方向を検出することを特徴とする方向検出方法。
A method of detecting a direction of the object by analyzing a locus of position information of the object to be detected,
Within the predetermined region that occurs during a continuous movement in the same direction as the detected direction by detecting whether the position of the object has moved in any direction from within the predetermined region among a plurality of predetermined directions A direction detection method, wherein the direction of a plurality of movements of the object is detected by removing the movement back to step (b).
前記対象物までの距離を検出し、所定の方向への連続した動きの間に、前記所定の方向とは反対方向の動きが前記所定の方向の動きよりも距離が遠い動きを検出したときに、戻る動きであるとして除去することを特徴とする請求項2に記載の方向検出方法。   When the distance to the object is detected, and during a continuous movement in a predetermined direction, a movement in a direction opposite to the predetermined direction detects a movement farther than the movement in the predetermined direction The direction detection method according to claim 2, wherein the direction detection method removes the movement as a return movement. 前記対象物の動きの間の時間間隔を測定し、所定の方向への連続した動きの間に発生する動きが所定の長さ以下の時間間隔の場合に戻る動きであるとして除去することを特徴とする請求項2に記載の方向検出方法。   Measuring a time interval between the movements of the object, and removing the movement that occurs during successive movements in a predetermined direction as a movement that returns when the time interval is equal to or less than a predetermined length. The direction detection method according to claim 2.
JP2004378813A 2000-02-01 2004-12-28 Direction detection method Pending JP2005174356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004378813A JP2005174356A (en) 2000-02-01 2004-12-28 Direction detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000023548A JP2001216069A (en) 2000-02-01 2000-02-01 Operation inputting device and direction detecting method
JP2004378813A JP2005174356A (en) 2000-02-01 2004-12-28 Direction detection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000023548A Division JP2001216069A (en) 2000-02-01 2000-02-01 Operation inputting device and direction detecting method

Publications (1)

Publication Number Publication Date
JP2005174356A true JP2005174356A (en) 2005-06-30

Family

ID=34737472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004378813A Pending JP2005174356A (en) 2000-02-01 2004-12-28 Direction detection method

Country Status (1)

Country Link
JP (1) JP2005174356A (en)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042020A (en) * 2005-08-05 2007-02-15 Nec Corp Portable terminal and program
WO2007029393A1 (en) * 2005-09-05 2007-03-15 Sony Computer Entertainment Inc. Multimedia reproducing apparatus, menu operation accepting method, and computer program
JP2007213245A (en) * 2006-02-08 2007-08-23 Nec Corp Portable terminal and program
JP2008108233A (en) * 2006-09-28 2008-05-08 Kyocera Corp Portable terminal and method for controlling the same
JP2009076044A (en) * 2007-09-18 2009-04-09 Palo Alto Research Center Inc Method and apparatus for selecting object within user interface by performing gesture
JP2010081466A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Operation control device and operation display method
JP2010129069A (en) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd Display device
JP2011221672A (en) * 2010-04-06 2011-11-04 Sony Corp Image processing apparatus, image processing method, program, and electronic device
JP2011227917A (en) * 2011-06-24 2011-11-10 Kyocera Corp Portable terminal
WO2012117570A1 (en) * 2011-03-03 2012-09-07 オムロン株式会社 Gesture input device and method for controlling gesture input device
JP2012185833A (en) * 2012-04-17 2012-09-27 Omron Corp Gesture input device and control method for gesture input device
JP2012525625A (en) * 2009-04-30 2012-10-22 サムスン エレクトロニクス カンパニー リミテッド User intention inference apparatus and method using multimodal information
JP2012234316A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program
JP2013041579A (en) * 2011-08-05 2013-02-28 Samsung Electronics Co Ltd Electronic device and method of controlling the same
JP2013077229A (en) * 2011-09-30 2013-04-25 Nippon Telegr & Teleph Corp <Ntt> Gesture recognition device and program therefor
JP2013178783A (en) * 2013-03-07 2013-09-09 Fujitsu Ten Ltd Display device
JP2013196339A (en) * 2012-03-19 2013-09-30 Nippon Telegr & Teleph Corp <Ntt> Gesture recognition device and its program
JP2013205953A (en) * 2012-03-27 2013-10-07 Nippon Telegr & Teleph Corp <Ntt> Single-stroke graphic direction detection device
WO2014045953A1 (en) * 2012-09-20 2014-03-27 ソニー株式会社 Information processing device and method, and program
JP2014512620A (en) * 2011-04-20 2014-05-22 クゥアルコム・インコーポレイテッド Virtual keyboard and method of providing the same
JP2014102842A (en) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd User gesture input to wearable electronic device involving movement of device
JP2015038648A (en) * 2010-12-24 2015-02-26 株式会社東芝 Information processor, control method and program
JP2015103132A (en) * 2013-11-27 2015-06-04 京セラドキュメントソリューションズ株式会社 Display input device and image formation device equipped with the same
JP2015191435A (en) * 2014-03-28 2015-11-02 株式会社ユピテル Electronic information system and program thereof
JP2015225493A (en) * 2014-05-28 2015-12-14 京セラ株式会社 Portable terminal, gesture control program and gesture control method
JP2016018223A (en) * 2014-07-04 2016-02-01 クラリオン株式会社 Information processing device
JP2016153250A (en) * 2015-02-20 2016-08-25 クラリオン株式会社 Information processor
JP2017211884A (en) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 Motion detection system
WO2018066026A1 (en) * 2016-10-03 2018-04-12 三菱電機株式会社 Device for changing autonomous driving control parameters and method for changing autonomous driving control parameters
JP2018163668A (en) * 2018-05-14 2018-10-18 株式会社ユピテル Electronic information system and program thereof
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
JP2019212008A (en) * 2018-06-05 2019-12-12 株式会社豊田自動織機 Tracking vehicle control device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
JP2021191672A (en) * 2019-12-24 2021-12-16 株式会社ユピテル Electronic information system and program of the same
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60222921A (en) * 1984-04-20 1985-11-07 Canon Inc Movement extent controller
JPH06242885A (en) * 1993-02-16 1994-09-02 Hitachi Ltd Document editing method
JPH08211979A (en) * 1995-02-02 1996-08-20 Canon Inc Hand shake input device and method
JPH09185456A (en) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd Interface device
JPH10207618A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and indication input method
JPH1144703A (en) * 1997-07-25 1999-02-16 Matsushita Electric Ind Co Ltd Hand swing input device
JP2000020200A (en) * 1998-07-03 2000-01-21 Mitsubishi Electric Corp User interface device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60222921A (en) * 1984-04-20 1985-11-07 Canon Inc Movement extent controller
JPH06242885A (en) * 1993-02-16 1994-09-02 Hitachi Ltd Document editing method
JPH08211979A (en) * 1995-02-02 1996-08-20 Canon Inc Hand shake input device and method
JPH09185456A (en) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd Interface device
JPH10207618A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and indication input method
JPH1144703A (en) * 1997-07-25 1999-02-16 Matsushita Electric Ind Co Ltd Hand swing input device
JP2000020200A (en) * 1998-07-03 2000-01-21 Mitsubishi Electric Corp User interface device

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042020A (en) * 2005-08-05 2007-02-15 Nec Corp Portable terminal and program
WO2007029393A1 (en) * 2005-09-05 2007-03-15 Sony Computer Entertainment Inc. Multimedia reproducing apparatus, menu operation accepting method, and computer program
JP2007072564A (en) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc Multimedia reproduction apparatus, menu operation reception method, and computer program
JP2007213245A (en) * 2006-02-08 2007-08-23 Nec Corp Portable terminal and program
JP2008108233A (en) * 2006-09-28 2008-05-08 Kyocera Corp Portable terminal and method for controlling the same
JP2009076044A (en) * 2007-09-18 2009-04-09 Palo Alto Research Center Inc Method and apparatus for selecting object within user interface by performing gesture
JP2010081466A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Operation control device and operation display method
JP2010129069A (en) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd Display device
JP2012525625A (en) * 2009-04-30 2012-10-22 サムスン エレクトロニクス カンパニー リミテッド User intention inference apparatus and method using multimodal information
JP2011221672A (en) * 2010-04-06 2011-11-04 Sony Corp Image processing apparatus, image processing method, program, and electronic device
JP2015038648A (en) * 2010-12-24 2015-02-26 株式会社東芝 Information processor, control method and program
WO2012117570A1 (en) * 2011-03-03 2012-09-07 オムロン株式会社 Gesture input device and method for controlling gesture input device
US9058059B2 (en) 2011-03-03 2015-06-16 Omron Corporation Gesture input device and method for controlling gesture input device
JP2014512620A (en) * 2011-04-20 2014-05-22 クゥアルコム・インコーポレイテッド Virtual keyboard and method of providing the same
JP2012234316A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program
JP2011227917A (en) * 2011-06-24 2011-11-10 Kyocera Corp Portable terminal
JP2013041579A (en) * 2011-08-05 2013-02-28 Samsung Electronics Co Ltd Electronic device and method of controlling the same
JP2013077229A (en) * 2011-09-30 2013-04-25 Nippon Telegr & Teleph Corp <Ntt> Gesture recognition device and program therefor
JP2013196339A (en) * 2012-03-19 2013-09-30 Nippon Telegr & Teleph Corp <Ntt> Gesture recognition device and its program
JP2013205953A (en) * 2012-03-27 2013-10-07 Nippon Telegr & Teleph Corp <Ntt> Single-stroke graphic direction detection device
JP2012185833A (en) * 2012-04-17 2012-09-27 Omron Corp Gesture input device and control method for gesture input device
WO2014045953A1 (en) * 2012-09-20 2014-03-27 ソニー株式会社 Information processing device and method, and program
US10754435B2 (en) 2012-09-20 2020-08-25 Sony Corporation Information processing apparatus and method, and program
US10168784B2 (en) 2012-09-20 2019-01-01 Sony Corporation Information processing apparatus and method, and program
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
JP2014102842A (en) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd User gesture input to wearable electronic device involving movement of device
JP2013178783A (en) * 2013-03-07 2013-09-09 Fujitsu Ten Ltd Display device
JP2015103132A (en) * 2013-11-27 2015-06-04 京セラドキュメントソリューションズ株式会社 Display input device and image formation device equipped with the same
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
JP2015191435A (en) * 2014-03-28 2015-11-02 株式会社ユピテル Electronic information system and program thereof
JP2015225493A (en) * 2014-05-28 2015-12-14 京セラ株式会社 Portable terminal, gesture control program and gesture control method
CN106133653B (en) * 2014-07-04 2019-01-08 歌乐株式会社 Information processing unit
JP2016018223A (en) * 2014-07-04 2016-02-01 クラリオン株式会社 Information processing device
US11226719B2 (en) 2014-07-04 2022-01-18 Clarion Co., Ltd. Information processing device
CN106133653A (en) * 2014-07-04 2016-11-16 歌乐株式会社 Information processor
JP2016153250A (en) * 2015-02-20 2016-08-25 クラリオン株式会社 Information processor
US10466800B2 (en) 2015-02-20 2019-11-05 Clarion Co., Ltd. Vehicle information processing device
JP2017211884A (en) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 Motion detection system
WO2018066026A1 (en) * 2016-10-03 2018-04-12 三菱電機株式会社 Device for changing autonomous driving control parameters and method for changing autonomous driving control parameters
JPWO2018066026A1 (en) * 2016-10-03 2019-01-24 三菱電機株式会社 Automatic operation control parameter changing device and automatic operation control parameter changing method
JP2018163668A (en) * 2018-05-14 2018-10-18 株式会社ユピテル Electronic information system and program thereof
JP2019212008A (en) * 2018-06-05 2019-12-12 株式会社豊田自動織機 Tracking vehicle control device
JP7119599B2 (en) 2018-06-05 2022-08-17 株式会社豊田自動織機 Tracking vehicle controller
JP2021191672A (en) * 2019-12-24 2021-12-16 株式会社ユピテル Electronic information system and program of the same
JP7214165B2 (en) 2019-12-24 2023-01-30 株式会社ユピテル Electronic information system and its program

Similar Documents

Publication Publication Date Title
JP2005174356A (en) Direction detection method
JP2001216069A (en) Operation inputting device and direction detecting method
US9740297B2 (en) Motion-based character selection
US10488919B2 (en) System for gaze interaction
JP5323070B2 (en) Virtual keypad system
US6697721B2 (en) Safety devices for use in motor vehicles
US20170235360A1 (en) System for gaze interaction
US20150324117A1 (en) Methods of and systems for reducing keyboard data entry errors
US20130203495A1 (en) Multi-functional touchpad remote controller
US20130212515A1 (en) User interface for text input
US20090153495A1 (en) Input method for use in an electronic device having a touch-sensitive screen
JP2003131785A (en) Interface device, operation control method and program product
US10346118B2 (en) On-vehicle operation device
JP2007164814A (en) Interface device
KR101685891B1 (en) Controlling apparatus using touch input and controlling method of the same
JP2006244393A (en) Input device
JP2005135439A (en) Operation input device
JP2009301094A (en) Input device and control method for input device
US10126938B2 (en) Touch input apparatus and vehicle having the same
US20150109206A1 (en) Remote interaction system and control thereof
US11474687B2 (en) Touch input device and vehicle including the same
KR20170001014A (en) Controlling apparatus using touch input, vehicle comprising the same
KR20150000076A (en) Blind control system for vehicle
KR101369595B1 (en) A display apparatus providing user menu interface and a method of display appratus to provide user menu interface
EP3472689B1 (en) Accommodative user interface for handheld electronic devices

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050418

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070625

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070731