JP2018163668A - Electronic information system and program thereof - Google Patents

Electronic information system and program thereof Download PDF

Info

Publication number
JP2018163668A
JP2018163668A JP2018092704A JP2018092704A JP2018163668A JP 2018163668 A JP2018163668 A JP 2018163668A JP 2018092704 A JP2018092704 A JP 2018092704A JP 2018092704 A JP2018092704 A JP 2018092704A JP 2018163668 A JP2018163668 A JP 2018163668A
Authority
JP
Japan
Prior art keywords
gesture
sound
user
predetermined
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018092704A
Other languages
Japanese (ja)
Other versions
JP6730552B2 (en
Inventor
弘将 阿多
Hiromasa Ata
弘将 阿多
聡之 大木
Toshiyuki Oki
聡之 大木
裕樹 春園
Hiroki Haruzono
裕樹 春園
将史 東
Masashi Azuma
将史 東
祐貴 永吉
Yuki Nagayoshi
祐貴 永吉
浩隆 古市
Hirotaka Furuichi
浩隆 古市
博昭 濱崎
Hiroaki Hamazaki
博昭 濱崎
福田 稔
Minoru Fukuda
稔 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Yupiteru Kagoshima Corp
Original Assignee
Yupiteru Corp
Yupiteru Kagoshima Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp, Yupiteru Kagoshima Corp filed Critical Yupiteru Corp
Priority to JP2018092704A priority Critical patent/JP6730552B2/en
Publication of JP2018163668A publication Critical patent/JP2018163668A/en
Priority to JP2019232178A priority patent/JP6915815B2/en
Application granted granted Critical
Publication of JP6730552B2 publication Critical patent/JP6730552B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic information system and a program thereof capable of reliably providing a device with a desired function more than the conventional one without directly coming into contact with the device.SOLUTION: A user performs a gesture of holding an object such as a hand and passing it through a front of a second window 32 in which a gesture sensor of a radar detection device 10 is disposed. Thereby, the user can perform an operation without directly touching the radar detection device 10. With recognition of the gesture, a speaker of the radar detection device 10 issues different sound according to a recognition position and, when a gesture for performing prescribed processing is included therein, outputs sound according to the prescribed processing, so that the user can understand the content of the processing with the sound.SELECTED DRAWING: Figure 1

Description

本発明は、電子情報システム及びそのプログラムに関するものである。   The present invention relates to an electronic information system and a program thereof.

従来から電子情報システムとして例えば、自動車や自転車のような車両に搭載するナビゲーション装置や自動車に搭載するマイクロ波受信器(レーダー探知機)のような運転に関する情報を取得できる電子機器類がある。また、日常使用する様々な情報を取得することができる電子情報システムとして例えばスマートフォンやパソコンのような電子機器類がある。
これらの電子情報システムにおいてユーザーは情報を取得するために機器に付属する入力スイッチを押動して入力したり、また操作手段を実際に手で触って操作したりする等して情報の取得をするようにしている。このような従来の入力手段や操作手段を備えた電子情報システムとして特許文献1及び2を挙げる。
特許文献1の電子機器は自動車の車内のフロントガラスに両面テープ等で取り付けられるドライブレコーダ装置である。ドライブレコーダ装置はその図3に示すように、スイッチ部20、表示部21、ボリュームダイヤル23を備えている。
また、特許文献2の電子機器は自動車にデフォルトで配設されているルームミラーに取り付けるルームミラーを兼ねたマイクロ波検出装置である。この装置はミラー面を兼ねるタッチスクリーン16にタッチして入力動作をすることでミラー面の一部にある表示パネル13に様々な情報を表示させるというものである。
Conventionally, as an electronic information system, for example, there are electronic devices that can acquire information related to driving such as a navigation device mounted on a vehicle such as an automobile or a bicycle or a microwave receiver (radar detector) mounted on the automobile. In addition, there are electronic devices such as smartphones and personal computers as electronic information systems that can acquire various kinds of information used every day.
In these electronic information systems, the user can acquire information by pressing the input switch attached to the device to acquire information, or by operating the operating means by actually touching it with the hand. Like to do. Patent Documents 1 and 2 are cited as electronic information systems having such conventional input means and operation means.
The electronic device of Patent Document 1 is a drive recorder device that is attached to a windshield of a car with a double-sided tape or the like. As shown in FIG. 3, the drive recorder apparatus includes a switch unit 20, a display unit 21, and a volume dial 23.
The electronic device disclosed in Patent Document 2 is a microwave detection device that also serves as a room mirror that is attached to a room mirror that is disposed by default in an automobile. This apparatus is configured to display various information on the display panel 13 in a part of the mirror surface by touching the touch screen 16 which also serves as a mirror surface and performing an input operation.

特開2010−105530号公報JP 2010-105530 A 特開2012−66640号公報JP 2012-66640 A

しかし、特許文献1のドライブレコーダ装置では例えば操作手段としてのボリュームダイヤル23を別部品として筐体に取り付けることとなるため、ボリュームダイヤル23と関連する部品の重量が加わって装置として重量が増してしまう。重量化はこのような粘着方式でフロントガラスに取り付けるような場合では好ましくない。また、部品の点数が増えることになって高コスト化を招来することにもなる。一方、特許文献2のマイクロ波検出装置ではミラー面を兼ねるタッチスクリーン16が操作手段となるため操作に関する部品が少なくなり軽量化が図られているものの、実際にミラー面にタッチしなければ入力はできないわけであり、タッチすることによってミラー面が汚れるおそれがある。
このようなことから、電子情報システムにおいて情報の取得をするための操作部材が不要かあるいは削減できるとともに、直接機器に接触しなくとも情報の取得が可能な手段が求められていた。そこで、ユーザーのジェスチャーを認識し、その認識結果に基づいて所定の処理を行う機器がある。しかしながら、このような機器では、例えば、ユーザーは、ジェスチャーの認識の成否を示す報知がなされた時点やそのジェスチャーに対応した所定の処理が開始されたことが機器から報知された時点で初めて、自己のジェスチャーが正しかったことを把握できるのであって、ジェスチャーをしている間には自己のジェスチャー動作が、機器の認識可能な正しいものであるかを判断することが困難であるという問題があった。例えば、機器の認識不能なジェスチャーの状態であるにもかかわらず、ユーザーは、機器が認識可能なジェスチャーの状態であると考えて、何度も同じジェスチャーを繰り返して試みるケースがあった。例えば、ジェスチャーの状態として、ジェスチャーの動作としては機器が認識可能な動作であるが、機器が認識不能な位置にユーザーの手等の認識対象物がある状態であるため、認識できないケースなどで顕著な問題があった。
本発明は上記問題を解消するためになされたものであり、その目的は、直接機器に接触しなくとも従来よりも確実に所望の機能を機器に実現させることが可能な電子情報システム及びそのプログラムを提供することにある。
However, in the drive recorder apparatus disclosed in Patent Document 1, for example, the volume dial 23 as an operation means is attached to the casing as a separate part, so that the weight of parts related to the volume dial 23 is added and the weight of the apparatus increases. . The weight increase is not preferable in the case of attaching to the windshield by such an adhesive method. In addition, the number of parts increases, leading to an increase in cost. On the other hand, in the microwave detection device of Patent Document 2, the touch screen 16 that also serves as a mirror surface serves as an operation means, so that parts related to the operation are reduced and the weight is reduced. However, if the mirror surface is not actually touched, input is not performed. This is not possible, and the mirror surface may become dirty by touching.
For this reason, there has been a demand for means that can acquire information without directly touching a device while eliminating or reducing an operation member for acquiring information in an electronic information system. Therefore, there is a device that recognizes a user's gesture and performs a predetermined process based on the recognition result. However, in such a device, for example, the user is not the first user when he / she is notified of the success or failure of gesture recognition or when the device is informed that a predetermined process corresponding to the gesture has started. There is a problem that it is difficult to determine whether the gesture motion of the device is correct and recognizable while the gesture is being performed. . For example, there is a case where the user tries to repeat the same gesture many times, considering that the gesture state is recognizable by the device, even though the gesture state is unrecognizable by the device. For example, as a gesture state, the gesture operation is an operation that can be recognized by the device, but it is noticeable in a case where the recognition target object such as a user's hand is in a position where the device cannot be recognized, so that it cannot be recognized. There was a serious problem.
The present invention has been made to solve the above problems, and an object of the present invention is to provide an electronic information system and a program thereof capable of realizing a desired function on a device more reliably than before without directly contacting the device. Is to provide.

上記目的を達成するために、手段1としてユーザーによるジェスチャーの認識結果に基づいて所定の処理を行う電子情報システムにおいて、ジェスチャーの認識中に音を出力する制御を行う制御手段を備えるようにすることがよい。
このような構成であれば、ユーザーはジェスチャーの認識中であることを音によって知ることができる。従って、従来よりも確実に所望の処理を機器に実行させることができる。よって従来よりも確実に所望の機能を機器に実現させることができる。更には、例えば、ジェスチャーの認識中でない場合には、ジェスチャーの認識中とは異なる音を出力する構成、または、音を出力しない構成の少なくともいずれか一方を備えるとよい。このようにすれば、ユーザーはジェスチャーの認識中であるか否かを音によって知ることができる。また、ジェスチャーの認識中に音が出力されることとなるため、この音を出力させるようにジェスチャーをすることでジェスチャーのトレーニングも可能となる。更には、ジェスチャーの認識が成功したか否かを示す音を出力し、ジェスチャーの認識が成功したか否かを示す音と前記ジェスチャーの認識中に出力する音とは異なる音とするとよい。このようにすれば、ユーザーは、ジェスチャーの認識中であるか否か、ジェスチャーの認識が成功したか否かを、より確実に知ることができる。したがって、ユーザーはジェスチャーの認識中であるか否かをより確実に音によって知ることができ、ジェスチャー認識中を示す音を出力させるようにジェスチャーをして、その結果、ジェスチャー成功を示す音を出力させるように練習するなど、ユーザーが確実に所望の機能を実現できるようにジェスチャーのトレーニングをすることも可能となる。
In order to achieve the above object, the electronic information system that performs a predetermined process based on the recognition result of the gesture by the user as the means 1 includes a control unit that performs control to output a sound during gesture recognition. Is good.
With such a configuration, the user can know by sound that the gesture is being recognized. Therefore, it is possible to cause the device to execute a desired process more reliably than in the past. Therefore, a desired function can be realized in the device more reliably than in the past. Furthermore, for example, when not recognizing a gesture, at least one of a configuration for outputting a sound different from that during recognition of a gesture and a configuration for not outputting a sound may be provided. In this way, the user can know by sound whether or not the gesture is being recognized. In addition, since a sound is output during gesture recognition, gesture training can be performed by performing a gesture to output this sound. Furthermore, it is preferable that a sound indicating whether or not the gesture recognition is successful is output, and the sound indicating whether or not the gesture recognition is successful and the sound output during the gesture recognition are different from each other. In this way, the user can more reliably know whether or not the gesture is being recognized and whether or not the gesture has been successfully recognized. Therefore, the user can more reliably know whether or not the gesture is being recognized by sound, and performs a gesture to output a sound indicating that the gesture is being recognized. It is also possible to train a gesture so that the user can surely realize a desired function, such as practicing to practice.

ここに「ジェスチャーの認識結果に基づいて所定の処理を行う」としては、例えば、ジェスチャーが認識された後にそのジェスチャーの態様に応じた所定の処理を行う構成とするとよく、例えば所定の処理があるジェスチャーを入力情報として実現される構成とするとよい。ここに「所定の処理」としては、例えば、ジェスチャーを認識した結果として行われる電子情報システムからの情報の提供を行う構成とするとよい。より具体的な所定の処理としては例えば、聴覚的な処理として、例えば音を発生させること、音量を変更すること等とするとよい。音としては、例えば、音階のあるなしを問わず、例えば警報音や「注意して下さい」というような音声ガイダンスによる情報の発信や音楽等を含む構成とするとよい。また、例えば視覚的な処理として表示画面に情報を表示させること、表示させた情報を消すこと、表示させた情報を変更させること等とするとよい。また、ジェスチャーの認識結果がなんらかのアクチュエータを駆動させて機械的あるいは油空圧的な制御をする構成とするとよい。例えば、ロック装置を解除あるいは施錠したり、扉を開閉すること等とするとよい。複数の異なるジェスチャーを認識し、認識したジェスチャーによって異なる機能を実現する構成とするとよい。例えば、複数の異なるジェスチャーを認識し、認識したジェスチャーによって異なる処理を行う構成とするとよい。特に、複数の異なるジェスチャーを認識する機能を備え、認識したジェスチャーによって異なる処理を行う構成において、異なるジェスチャーの認識中には、異なる音を出力する構成とするとよい。このようにすれば、どの処理が実行される可能性があるのかをジェスチャーの認識中にユーザーが理解できる。特に、異なるジェスチャーの認識中に異なる音を出力する構成としては異なるジェスチャーの過程において異なる音を出力する構成とするとよい。このようにすれば、ユーザーはジェスチャーに認識が完了するまでの過程において、ジェスチャーが正しく認識中であるか否かを判断することができる。したがって、誤ったジェスチャーの過程として認識されている場合に、途中でジェスチャーをやめるなどでして、意図しないジェスチャーとして認識された結果、意図しない処理が実行され、意図しない機能が実現されることを、ジェスチャー中に防止することができる。
「ジェスチャー認識中」としては、例えば、ジェスチャー認識中の一部としてもよいが、ジェスチャー認識中の大部分とするとよく、ジェスチャー認識中の全体とするとよい。特に「ジェスチャー認識中」としては、ジェスチャー認識処理においてジェスチャーの認識を行えている間とするとよい。また特に、ジェスチャー認識処理においてジェスチャーの認識を行えている間は、連続的に音を出力するとよい。特に、認識中に音を変える構成においても音を変える際などに音は途切れないように連続的に出力をするとよい。
このようにすれば、ジェスチャー認識中の音がし始めたらジェスチャーの認識が行え始めたことがわかり、ジェスチャー認識中の音が途切れたらジェスチャーの認識が途切れたことが分かる。したがって、さらにユーザーが確実に所望の機能を実現できるようになり、ジェスチャーのトレーニングもさらに容易になる。
「電子情報システム」としては、例えば車両に搭載したり、ユーザーが携帯したり、室内に設置したりしてユーザーがアクセスして情報の取得をすることができるシステムとするとよい。車両に搭載する電子情報システムとしては、例えばナビゲーション装置、レーダー探知装置、ドライブレコーダーのような電子機器とするとよい。ユーザーが携帯したり、室内に設置する電子情報システムとしては、例えば、スマートフォン、パソコン、TV装置、AV装置等とするとよい。
Here, as “performing predetermined processing based on the recognition result of gesture”, for example, it may be configured to perform predetermined processing according to the mode of the gesture after the gesture is recognized. The gesture may be realized as input information. Here, as the “predetermined process”, for example, a configuration may be adopted in which information is provided from an electronic information system that is performed as a result of recognizing a gesture. As a more specific predetermined process, for example, as an auditory process, for example, a sound may be generated, a volume may be changed, or the like. For example, the sound may be configured to include, for example, an alarm sound or transmission of information by voice guidance such as “please be careful”, music, or the like regardless of whether or not there is a scale. In addition, for example, information may be displayed on the display screen as a visual process, the displayed information may be deleted, the displayed information may be changed, and the like. The gesture recognition result may be controlled mechanically or hydraulically and pneumatically by driving some actuator. For example, the locking device may be released or locked, or the door may be opened or closed. A configuration may be adopted in which a plurality of different gestures are recognized and different functions are realized depending on the recognized gestures. For example, it may be configured to recognize a plurality of different gestures and perform different processes depending on the recognized gestures. In particular, in a configuration that includes a function of recognizing a plurality of different gestures and performs different processing depending on the recognized gesture, a configuration that outputs different sounds during recognition of different gestures may be used. In this way, the user can understand which process is likely to be executed during gesture recognition. In particular, a configuration for outputting different sounds during recognition of different gestures may be configured to output different sounds in the process of different gestures. In this way, the user can determine whether or not the gesture is being recognized correctly in the process until the recognition is completed. Therefore, when it is recognized as a process of an incorrect gesture, it is confirmed that an unintended process is executed and an unintended function is realized as a result of being recognized as an unintended gesture, such as by stopping the gesture in the middle. Can be prevented during gestures.
“During gesture recognition” may be, for example, a part during gesture recognition, but may be a large part during gesture recognition, or may be a whole during gesture recognition. In particular, “during gesture recognition” may be during gesture recognition in gesture recognition processing. In particular, sound may be output continuously while gesture recognition is being performed in the gesture recognition process. In particular, even in a configuration in which the sound is changed during recognition, it is preferable to output continuously so that the sound is not interrupted when the sound is changed.
In this way, it can be understood that the gesture recognition has started when the sound during gesture recognition starts, and the gesture recognition has been interrupted when the sound during gesture recognition is interrupted. Therefore, the user can surely realize a desired function, and gesture training is further facilitated.
As the “electronic information system”, for example, a system that can be installed in a vehicle, carried by a user, or installed in a room and accessed by a user to acquire information is preferable. The electronic information system mounted on the vehicle may be an electronic device such as a navigation device, a radar detection device, or a drive recorder. As an electronic information system that a user carries or installs indoors, for example, a smartphone, a personal computer, a TV device, an AV device, or the like may be used.

また、手段2として、前記制御手段はジェスチャーの認識中に異なるタイミングで音を出力することがよい。
このように一回だけではなく複数回の音を異なるタイミングで出力することでジェスチャーの認識中であることをより確実に把握することができる。特に、「異なるタイミング」としては、ジェスチャーの認識過程を示すタイミングとするとよい。このようにすれば、ユーザーは、異なる音が出力されたか否かからジェスチャーの認識過程を把握することができる。また、例えば、「異なるタイミング」としては、認識対象の物体の位置の変化が検出されたタイミングとするとよい。このようにすれば、ユーザーは物体の位置が適切な位置へ動いているかを音によって容易に把握できる。また、異なるタイミングで出力する音は、例えば、所定の処理に応じた異なる音のパターンを創出する構成とするとよい。このようにすれば、ユーザーはその音パターンから所定の処理の内容を容易に理解し確認することができる。また、ユーザーが所定の処理の内容を実際に認識していなかったとしても様々な音のパターンが所定の処理との関係で出力されていることを理解することができ、実際に操作手段にタッチする場合に比べて従来にない操作上の興趣を感じることができる。
また、手段3として、前記異なるタイミングで出力する音は異なる種類の音を含むことがよい。
このように複数の異なるタイミングで出力される音として異なる種類の音を出力することで音パターンにバリエーションができ、ユーザーの音パターンの認識力が向上する。「異なる種類の音」としては例えば音のトーン(高低)が異なったり、音質(音色)が異なったり、異なる種類の音を混ぜたりするものとするとよい。同じトーンでも音質を変えることで種類の異なる音として認識することができる。また、上記と同様にユーザーが実際に音との関係で所定の処理の内容を認識していなかったとしても種類の異なる音が所定の処理との関係で出力されていることを理解することができ、実際に操作手段にタッチする場合に比べて従来にない操作上の興趣を感じることができる。
また、手段4として、前記異なるタイミングで出力する音はジェスチャーを認識するジェスチャー検出手段に対する接近距離の違いに応じた異なる種類の音を含むことがよい。
このように接近距離の違いに応じて異なる種類の音を発生させることで、ユーザーはジェスチャー検出手段への接近度合いを音によって認識することができる。また、ユーザーが実際に音と接近度合いの関係を認識していなかったとしてもジェスチャーに伴って種類の異なる音が出力されていることで、実際に操作手段にタッチする場合に比べて従来にない操作上の興趣を感じることができる。「ジェスチャー検出手段」としていくつかの方式による検出デバイスがある。例えば、ジェスチャーセンサは、赤外線発光素子からの赤外光を対象物に当ててその反射光の変化を受光素子で捉えて対象物の動きを検出するようなジェスチャーセンサを備えた検出デバイス、赤外線の代わりに超音波を利用したジェスチャーセンサを備えた検出デバイス、ジェスチャによる静電容量の変化を利用したジェスチャーセンサを備えた検出デバイス等を使用することができる。接近距離は認識対象物とジェスチャー検出手段の検出デバイスとの距離とするとよい。認識対象物は、種々の物とすることができ例えば棒のようなものとすることもできるが、人体の一部とするとよい。特に手とするとよい。
Further, as the means 2, the control means may output sound at different timings during gesture recognition.
In this way, it is possible to more reliably grasp that the gesture is being recognized by outputting the sound not only once but a plurality of times at different timings. In particular, the “different timing” may be a timing indicating a gesture recognition process. In this way, the user can grasp the gesture recognition process from whether or not different sounds are output. For example, the “different timing” may be a timing at which a change in the position of the recognition target object is detected. In this way, the user can easily grasp by sound whether the position of the object has moved to an appropriate position. The sound output at different timings may be configured to create different sound patterns according to predetermined processing, for example. In this way, the user can easily understand and confirm the contents of the predetermined process from the sound pattern. In addition, even if the user does not actually recognize the contents of the predetermined process, it can be understood that various sound patterns are output in relation to the predetermined process, and the operation means is actually touched. Compared to the case, you can feel an operational interest that is not in the past.
Moreover, as the means 3, it is preferable that the sounds output at the different timings include different types of sounds.
Thus, by outputting different types of sounds as sounds output at a plurality of different timings, the sound pattern can be varied, and the user's ability to recognize the sound pattern is improved. As the “different types of sounds”, for example, the tone (high and low) of the sound is different, the sound quality (tone color) is different, or different types of sounds are mixed. Even the same tone can be recognized as different types of sound by changing the sound quality. In addition, as described above, it can be understood that different types of sounds are output in relation to the predetermined process even if the user does not actually recognize the contents of the predetermined process in relation to the sound. It is possible to feel an operational interest that has not been achieved in the past as compared to the case of actually touching the operation means.
Further, as the means 4, it is preferable that the sounds output at the different timings include different types of sounds according to the difference in the approach distance with respect to the gesture detecting means for recognizing the gesture.
Thus, by generating different types of sounds according to the difference in approach distance, the user can recognize the degree of approach to the gesture detection means by sound. In addition, even if the user does not actually recognize the relationship between the sound and the degree of approach, a different type of sound is output with the gesture, which is not compared with the case of actually touching the operation means. You can feel the interest in operation. There are several types of detection devices as “gesture detection means”. For example, a gesture sensor is a detection device equipped with a gesture sensor that detects the movement of an object by applying infrared light from an infrared light emitting element to the object and capturing the change in the reflected light by the light receiving element. Instead, a detection device including a gesture sensor using ultrasonic waves, a detection device including a gesture sensor using a change in capacitance due to a gesture, and the like can be used. The approach distance may be the distance between the recognition object and the detection device of the gesture detection means. The object to be recognized can be various objects, such as a stick, but may be a part of the human body. It is especially good to have a hand.

また、手段5として、前記制御手段は一定時間以上停止するジェスチャーに基づいて前記音を出力させるようにすることがよい。
このような停止させるというジェスチャーはユーザーにとっては非常にわかりやすいジェスチャーであり容易に習得できるものであるため、ユーザーに行わせるジェスチャ−としてよい。音を出力するための条件となる停止させる一定時間はユーザーにとって停止したと理解できるような長さであって、例えば数秒程度であることがよい。例えば、設定の変更でこの長さを変更させるようにするとよい。また、停止位置はジェスチャー検出手段が検出さえできればある程度の幅をもった領域のどこかでこの動作を検出させればよい。
例えば、ジェスチャー検出手段に対して近くても遠くても構わない。また、ジェスチャー検出手段までの接近距離の違いによらず同じ所定の処理を行うようにしてもよいが、ジェスチャー検出手段までの接近距離の違いで異なる所定の処理を行うようにするとよい。異なる所定の処理を行う場合には処理の違いに応じた異なる音を出力することがよい。このようにすれば、ユーザーは、認識中の停止位置がどのジェスチャーに対応し、どの処理が実行される見込かをジェスチャー認識中に容易に把握できる。従って、認識中のジェスチャーがユーザーの意図と異なるものとして認識された結果、ユーザーの意図しない処理が実行されることを効果的に防止できる。さらには、ユーザーがどの位置で停止させればどのジェスチャーとして認識され、どの処理が実施されるのかが容易に理解できる。
また、手段6として、前記制御手段は移動の後に一定時間以上停止するジェスチャーに基づいて前記音を出力させるようにすることがよい。
このような移動の後に一定時間以上停止させるというジェスチャーもユーザーにとっては非常にわかりやすいジェスチャーであり容易に習得できるものであるため、ユーザーに行わせるジェスチャーとしてよい。具体的には、例えばジェスチャー検出手段の前方を横切らせるような移動をさせ、検出可能な位置で停止させるようなジェスチャーをさせるとよい。
Further, as the means 5, it is preferable that the control means outputs the sound based on a gesture that stops for a predetermined time or more.
Such a gesture of stopping is a gesture that is very easy for the user to understand and can be easily learned, and thus may be a gesture to be performed by the user. The fixed time for stopping the sound, which is a condition for outputting the sound, is long enough for the user to understand that the sound has stopped, and is preferably about several seconds, for example. For example, this length may be changed by changing the setting. Further, it is only necessary to detect this operation at some point in an area having a certain width as long as the stop position can be detected by the gesture detection means.
For example, it may be near or far from the gesture detection means. Further, the same predetermined process may be performed regardless of the difference in approach distance to the gesture detection means, but different predetermined processes may be performed depending on the difference in approach distance to the gesture detection means. When performing different predetermined processing, it is preferable to output different sounds according to the difference in processing. In this way, the user can easily grasp during gesture recognition which gesture corresponds to the stop position being recognized and which process is expected to be executed. Accordingly, it is possible to effectively prevent a process unintended by the user from being executed as a result of the recognition of the gesture being recognized as being different from the intention of the user. Furthermore, it is possible to easily understand which gesture is recognized and which process is performed when the user stops at which position.
Further, as the means 6, it is preferable that the control means outputs the sound based on a gesture that stops after a certain time after the movement.
The gesture of stopping for a certain period of time after such movement is also a very easy-to-understand gesture for the user and can be easily learned, and may be a gesture to be performed by the user. Specifically, for example, it is preferable to move the gesture detection means so as to cross the front and to make a gesture that stops at a detectable position.

また、手段7として、ジェスチャーのパターンと出力する音とを関連づけすることがよい。
これによってユーザーはあるジェスチャーを実行して出力される音のあるパターンを聴くことで所定の処理の内容を理解することができる。また、ユーザーが所定の処理の内容を実際に認識していなかったとしても様々な音のパターンが所定の処理との関係で出力されていることを理解することができる。また、実際に操作手段にタッチする場合に比べて従来にない操作上の興趣を感じることができる。ここに「音」としては、例えばある音階の音の一回のみの出力や複数回数の出力によるメロディーとして出力したり、同じ音階やメロディーを音質のみ異なるパターンで出力したりすることがよい。このようにすれば、ユーザーは、どのジェスチャーのパターンがどの音に対応し、その音に基づいてどの処理が実行される見込かをジェスチャー認識中に容易に把握できる。従って、認識中のジェスチャーがユーザーの意図と異なるものとして認識された結果、ユーザーの意図しない処理が実行されることを効果的に防止できる。
また、手段8として、ジェスチャーのパターンにかかわらず、ジェスチャーの認識中は、検出している距離に応じて複数の同じ音を出力することがよい。
これによって、ユーザーはある距離で、例えば停止させるジェスチャーを実行した際に停止していることを同じ音の繰り返しで認識することができ、例えば手が震えていたり振動で手がきちんと停止させられないような場合に客観的に「停止」したかどうかを認識することが可能となる。
また、手段9として、前記ジェスチャーの認識後に実行する所定の処理の違いに応じて、ジェスチャーの認識後に、異なる所定の処理ごとに異なる種類の音を出力することがよい。
これによってユーザーはあるジェスチャーを実行する結果として出力されるそれぞれ異なる音を聴くことで実行される所定の処理の内容を理解することができる。また、ユーザーが所定の処理の内容を実際に認識していなかったとしても様々な音が所定の処理との関係で出力されていることを理解することができる。また、実際に操作手段にタッチする場合に比べて従来にない操作上の興趣を感じることができる。ここに「音」としては、例えばある音階の音の一回のみの出力や複数回数の出力によるメロディーとして出力したり、同じ音階やメロディーを音質のみ異なるパターンで出力したりすることがよい
Further, as means 7, it is preferable to associate a gesture pattern with an output sound.
As a result, the user can understand the contents of the predetermined process by executing a certain gesture and listening to a pattern having a sound. Further, even if the user does not actually recognize the contents of the predetermined process, it can be understood that various sound patterns are output in relation to the predetermined process. In addition, compared with the case of actually touching the operation means, it is possible to feel an unprecedented operational interest. Here, as the “sound”, for example, it is preferable to output the sound of a certain scale as a melody by one-time output or a plurality of times of output, or to output the same scale or melody in a pattern different only in sound quality. In this way, the user can easily grasp during gesture recognition which gesture pattern corresponds to which sound and which process is expected to be executed based on that sound. Accordingly, it is possible to effectively prevent a process unintended by the user from being executed as a result of the recognition of the gesture being recognized as being different from the intention of the user.
Further, as the means 8, it is preferable to output a plurality of the same sounds according to the detected distance during the recognition of the gesture regardless of the gesture pattern.
This makes it possible for the user to recognize that the user has stopped at a certain distance, for example, when a gesture for stopping is executed, by repeating the same sound, for example, the hand is shaking and the hand cannot be stopped properly due to vibration. In such a case, it is possible to recognize whether or not it has been “stopped” objectively.
Further, as the means 9, it is preferable to output different types of sounds for different predetermined processes after the recognition of the gesture in accordance with a difference in predetermined processes executed after the recognition of the gesture.
As a result, the user can understand the contents of the predetermined processing executed by listening to different sounds output as a result of executing a certain gesture. Further, even if the user does not actually recognize the contents of the predetermined process, it can be understood that various sounds are output in relation to the predetermined process. In addition, compared with the case of actually touching the operation means, it is possible to feel an unprecedented operational interest. Here, as the “sound”, for example, it is preferable to output the sound of a certain scale as a melody by one-time output or a plurality of outputs, or to output the same scale or melody in a pattern different only in sound quality.

また、手段10として、前記制御手段は遠方から接近させるジェスチャー時に距離に応じた音を発生させるようにすることがよい。
また、手段11として、前記制御手段は遠方へ離間させるジェスチャー時に距離に応じた音を発生させるようにすることがよい。
これらのように遠方から接近させるジェスチャー時あるいは遠方へ離間させるジェスチャー時に接近距離の違いに応じた音を発生させることで、ユーザーはそのようなジェスチャーによって実行される所定の処理をジェスチャーに伴う音によって認識することができる。
例えば、下方遠方からの接近の場合にはある音パターンを出力するとともに機器の出力する音量を大きくし、下方遠方への離間の場合にはそれとは異なるある音パターンを出力するとともに音量を小さくするごとくである。
ここに接近距離の違いに応じた音は1つであっても複数であってもよい。また、異なる種類の音を含んでいてもよい。複数の音であればより音のパターンが増えることとなってユーザーは音から所定の処理の内容を理解し確認することが容易となる。ジェスチャーとして遠方から接近させそのまま遠方へ離間させる一連のジェスチャーでもよい。
Further, as the means 10, it is preferable that the control means generates a sound corresponding to the distance at the time of a gesture of approaching from a distance.
Further, as the means 11, it is preferable that the control means generates a sound according to the distance at the time of the gesture of moving away.
By generating a sound according to the difference in approach distance during a gesture of approaching from a distance or a gesture of separating from a distance as described above, a user can perform a predetermined process executed by such a gesture by a sound accompanying the gesture. Can be recognized.
For example, when approaching from far away, a certain sound pattern is output and the sound volume output from the device is increased, and when moving away from far away, a sound pattern different from that is output and the sound volume is decreased. Like that.
Here, the number of sounds corresponding to the difference in approach distance may be one or plural. Moreover, different types of sounds may be included. If there are a plurality of sounds, the number of sound patterns increases, and the user can easily understand and confirm the contents of the predetermined processing from the sounds. The gesture may be a series of gestures that are approached from a distance and separated as they are.

また、手段12として、前記制御手段は遠方から接近させるジェスチャー時にその接近方向に応じた音を発生させるようにすることがよい。
また、手段13として、前記制御手段は遠方へ離間させるジェスチャー時にその離間方向に応じた音を発生させるようにすることがよい。
これらのように遠方から接近させるジェスチャー時あるいは遠方へ離間させるジェスチャー時にその接近方向の違いに応じた音を発生させることで、ユーザーはそのようなジェスチャーによって実行される所定の処理をジェスチャーに伴う音との関係によって認識することができる。例えば、下方遠方からの接近の場合にはある音パターンを出力するとともに音量を大きくし、上方遠方からの接近の場合にはそれとは異なるある音パターンを出力するとともに音量を小さくするごとくである。あるいは、下方遠方への離間の場合にはある音パターンを出力するとともに表示画面の光量を大きくし、上方遠方への離間の場合にはそれとは異なるある音パターンを出力するとともに表示画面の光量を小さくするごとくである。つまり、ジェスチャーの違いによってそれぞれ独自の音で異なる処理がされることとなって、ユーザーは音を聞いて音に応じた処理が行われたことを認識できることとなる。また、ユーザーが実際に音との関係で所定の処理の内容を認識していなかったとしても様々な音が所定の処理との関係で出力されていると理解することができ方向によって音が異なることもあって実際に操作手段にタッチする場合に比べて従来にない操作上の興趣を感じることができる。接近距離の違いに応じた音は上記と同様に1つであっても複数であってもよい。また、異なる種類の音を含んでいてもよい。
Further, as the means 12, it is preferable that the control means generates a sound corresponding to the approaching direction at the time of a gesture of approaching from a distance.
Further, as the means 13, it is preferable that the control means generates a sound corresponding to the separation direction at the time of a gesture for separating away.
By generating a sound according to the difference in the approach direction during a gesture of approaching from a distance or a gesture of separating from a distance as described above, the user can perform a predetermined process executed by such a gesture with a sound accompanying the gesture. Can be recognized by the relationship. For example, a sound pattern is output and the sound volume is increased when approaching from far below, and a sound pattern different from that is output and sound volume is decreased when approaching from far away. Alternatively, in the case of the separation to the lower distance, a certain sound pattern is output and the light amount of the display screen is increased, and in the case of the separation to the upper distance, a different sound pattern is output and the light amount of the display screen is increased. As you make it smaller. That is, different processing is performed with each unique sound depending on the difference in gesture, and the user can recognize that the processing according to the sound has been performed by listening to the sound. Moreover, even if the user does not actually recognize the contents of the predetermined process in relation to the sound, it can be understood that various sounds are output in relation to the predetermined process, and the sound differs depending on the direction. For this reason, compared to the case of actually touching the operation means, it is possible to feel an unprecedented operational interest. The sound according to the difference in the approach distance may be one or plural as described above. Moreover, different types of sounds may be included.

また、手段14として、ユーザーによるジェスチャーが検出可能であり、かつ音を出力する制御が行われる第1の空間領域を有することがよい。
このような空間領域内を有するようにすることで、例えばユーザーが電子情報システムに関する機器を設置する際にこの空間領域内にジェスチャーの妨げになるような部材やユーザーのジェスチャーの動きと間違えて認識してしまうような物体が存在してしまうことを予防できる。第1の空間領域は一般にはジェスチャー検出手段が検出できる領域として認識される。第1の空間領域への接近はジェスチャー検出手段から均等な距離にある立体的な空間とすることがよい。
また、手段15として、前記第1の空間領域の検出可能距離は変更可能であることがよい。
このような構成とすることで、例えばジェスチャーの妨げになるような部材やユーザーのジェスチャーの動きと間違えて認識してしまうような物体が存在してしまうような状況を考慮して第1の空間領域を狭くしたり、逆にユーザーがジェスチャーの際に例え機器から離れていてもなるべく検出されやすいように第1の空間領域を広くしたりと状況に応じた設定が可能となる。
また、手段16として、前記制御手段は所定の情報モードにおいて前記第1の空間領域を相対的に広い空間領域まで拡張し、前記所定の情報モード以外の場合には前記第1の空間領域を相対的に狭い空間領域に縮小するように制御することがよい。
このような構成とすることで、所定の情報モードに応じた対応をしようとする際のユーザーのジェスチャーのしやすさに貢献する。所定の情報モードとしては、例えば、所定の情報モード以外の場合よりも、緊急性が高い操作を行うモードを備えるとよい。例えば、所定の情報モードとして「自動車運転中に警報を報知している状態」があるとする。具体的には例えば電子機器としてレーダー探知装置からなんらかの道路交通情報(例えばNシステム等)を検出した旨の警報が報知された場合等である。この場合にユーザーはこの報知を認識した後では引き続き報知される警報はすでに不要であるとして警報の報知状態をキャンセルしたいと考えることがある。つまり、必要な情報ではあるもののユーザーが認知したためそれ以上の情報提供動作は過剰であって必要ではないからである。この場合に運転中であることからできる限りキャンセルのためのジェスチャーは簡素で大げさにならない方がよい。そのため通常は不用意に手をかざすこと等の動作がジェスチャーと認識されないように第1の空間領域を相対的に狭い空間領域に設定していても、警報の報知にともなって第1の空間領域を相対的に広い空間領域にすることでユーザーはそれほど遠くまで手を伸ばさなくともジェスチャーを行うことができるようになるわけである。
Further, the means 14 may have a first space area in which a gesture by a user can be detected and control for outputting sound is performed.
By having such a space area, for example, when a user installs a device related to an electronic information system, it is mistakenly recognized as a member that disturbs the gesture in this space area or the movement of the user's gesture. It is possible to prevent the presence of such an object. The first spatial region is generally recognized as a region that can be detected by the gesture detection means. The approach to the first space area is preferably a three-dimensional space at an equal distance from the gesture detection means.
Further, as the means 15, it is preferable that the detectable distance of the first space region can be changed.
By adopting such a configuration, for example, the first space is considered in consideration of a situation in which a member that obstructs a gesture or an object that is mistakenly recognized as a movement of a user's gesture exists. Setting according to the situation can be made such as narrowing the area or conversely widening the first spatial area so that it can be detected as easily as possible even when the user is away from the device during the gesture.
Further, as means 16, the control means expands the first space area to a relatively wide space area in a predetermined information mode, and relative to the first space area in a case other than the predetermined information mode. It is preferable to control so as to reduce to a narrow space area.
With such a configuration, it contributes to the ease of the user's gesture when trying to cope with a predetermined information mode. As the predetermined information mode, for example, a mode for performing an operation with higher urgency than in a case other than the predetermined information mode may be provided. For example, it is assumed that there is a “state in which an alarm is being notified while driving a vehicle” as the predetermined information mode. Specifically, for example, a case where an alarm indicating that some road traffic information (for example, N system) is detected from a radar detection device as an electronic device is notified. In this case, after recognizing this notification, the user may want to cancel the alarm notification state because the alarm to be continuously notified is no longer necessary. That is, although it is necessary information, since the user has recognized it, further information providing operation is excessive and not necessary. In this case, it is better to keep the gesture for cancellation as simple as possible because it is driving. Therefore, even if the first space area is set to a relatively narrow space area so that an operation such as holding the hand carelessly is not recognized as a gesture, the first space area is usually accompanied by an alarm notification. By making a relatively wide space area, the user can perform a gesture without reaching too far.

また、手段17として、ユーザーによるジェスチャーの移動方向が検出可能であり、かつ音を出力する制御が行われる第2の空間領域を有することがよい。
このような空間領域内を有するようにすることで、例えばユーザーのジェスチャーをする手がどの方向から来てどの方向に向かうのかを認識できることとなるため、その方向に応じて異なる所定の処理を選択することが可能となる。そして、ユーザーは方向に応じた音との関係で所定の処理を認識することが可能となる。また、ユーザーが実際に異なる音との関係で所定の処理の内容を認識していなかったとしても様々な音が所定の処理との関係で出力されていると理解することができ、実際に操作手段にタッチする場合に比べて従来にない操作上の興趣を感じることができる。例えば、下方遠方から上方に向かって移動する場合にはある音パターンを出力するとともに音量を大きくし、上方遠方から下方に向かって移動するにはそれとは異なるある音パターンを出力するとともに音量を小さくするごとくである。
第2の空間領域に対する移動方向は平面的な360度方向だけではなく立体的な方向を加味してもよい。これによって移動方向のバリエーションが増すこととなる。
また、手段18として、前記第2の空間領域の検出可能距離は変更可能であることがよい。
このような構成とすることで、例えばユーザーはジェスチャーの妨げになるような部材やユーザーのジェスチャーの動きと間違えて認識してしまうような物体が存在してしまうような状況を考慮して第2の空間領域を狭くしたり、逆にジェスチャーの際に例え機器から離れていてもなるべく検出されやすいように第2の空間領域を広くしたりとユーザーは状況に応じた設定が可能となるため、ユーザーは所定の処理を実行させるために最適なジェスチャー環境を設定することが可能となる。
また、手段19として、前記第2の空間領域は前記第1の空間領域の内側にあることがよい。
これによってジェスチャーを行った場合に、順序としてまず第1の空間領域でジェスチャーが認識され、更に、ジェスチャーが第2の空間領域に進入した場合にどちらから接近したかが判断されることとなる。このように空間領域が別個にあるのではなく重なっているためユーザーがジェスチャーをする空間領域が不必要に広がることがなく、ジェスチャーをする領域のコンパクト化に貢献する。また、第2の空間領域が逆に第1の空間領域の外側にあると第1の空間領域に進入する際には必ず接近の方向性のある第2の空間領域に進入しなければならず、ユーザーが予定しない所定の処理モードとなってしまう可能性も
Further, the means 17 may have a second space area in which the movement direction of the gesture by the user can be detected and control for outputting sound is performed.
By having such a space area, for example, it is possible to recognize which direction the user's gesture comes from and from which direction, so select a different predetermined process depending on the direction It becomes possible to do. Then, the user can recognize a predetermined process in relation to the sound corresponding to the direction. Also, even if the user does not actually recognize the contents of the predetermined process in relation to different sounds, it can be understood that various sounds are output in relation to the predetermined process, Compared to touching the means, it is possible to feel an unprecedented operational interest. For example, when moving from far down to above, a certain sound pattern is output and the volume is increased, and when moving from above far away to the bottom, a different sound pattern is output and the volume is decreased. Like you do.
The moving direction with respect to the second spatial region may include not only a planar 360 degree direction but also a three-dimensional direction. This increases the variation in the direction of movement.
Further, as the means 18, it is preferable that the detectable distance of the second space region can be changed.
By adopting such a configuration, for example, in consideration of a situation in which a user has a member that obstructs a gesture or an object that is mistakenly recognized as a motion of the user's gesture, the second is considered. Since the user can make settings according to the situation, such as narrowing the space area of the, or widening the second space area so that it can be detected as much as possible even when away from the device during gestures, The user can set an optimum gesture environment for executing a predetermined process.
Further, as the means 19, it is preferable that the second space area is inside the first space area.
As a result, when a gesture is performed, the gesture is first recognized in the first space area, and when the gesture enters the second space area, it is determined from which side the approach has been made. Since the space areas are not separated but overlapped, the space area where the user makes a gesture is not unnecessarily widened, which contributes to the downsizing of the area where the gesture is made. On the other hand, if the second space area is outside the first space area, when entering the first space area, the second space area must always enter the second space area having an approaching direction. , There is a possibility that it will be in a predetermined processing mode that the user does not plan

また、手段20として、前記所定の処理として設定されている音量を変更させることがよい。
これは具体的な所定の処理の一例を示したものである。つまり、ジェスチャーの認識中に音を出力する制御を行うとともに、そのジェスチャーが認識されることで音量を変更させるわけである。これによって、ユーザーは音量を調節するためのボリュームを探してそれを操作して音量を変更するというような面倒さがなくなる。
より具体的な制御を例示すれば、ある方向からある方向へ移動するジェスチャー(例えばジェスチャー検出手段に対して下方向から上方向へ手をかざすように。手でなくとも動きが認識できる物体をユーザーがかざすようにしてもよい)によって音量を一定量アップさせ、また、ある方向からある方向へ移動するジェスチャー(例えば上方向から下方向へ手をかざすように)によって音量を一定量ダウンさせるごときである。
また、特殊なジェスチャーによって音量を一定量ではないように変更をさせるようにしてもよい。例えば、かざす手等のある方向からある方向への移動のスピードを変更することで変更する音量を多くしたり、移動の途中で一旦停止させてその間継続的に音量を変更させるようにすることである。
Further, as the means 20, it is preferable to change the volume set as the predetermined processing.
This shows an example of a specific predetermined process. In other words, control is performed to output sound during gesture recognition, and the volume is changed when the gesture is recognized. This eliminates the hassle of searching for a volume for adjusting the volume and operating the user to change the volume.
As a more specific example, a gesture that moves from a certain direction to a certain direction (for example, hold your hand from the bottom to the top of the gesture detection means. The volume may be increased by a certain amount by moving the volume up or down by a gesture that moves from one direction to another (for example, holding your hand from above to below). is there.
In addition, the volume may be changed by a special gesture so that the volume is not constant. For example, by changing the speed of movement from one direction to another with a hand or the like, you can increase the volume to be changed, or temporarily stop during the movement and continuously change the volume during that time is there.

また、手段21として、前記所定の処理として現在報知されている情報の報知を抑制させることがよい。
これも具体的な所定の処理の一例を示したものである。つまり、ジェスチャーの認識中に音を出力する制御を行うとともに、そのジェスチャーが認識されることで現在報知されている警報情報の報知を抑制するわけである。これによって、ユーザーは必要でない情報の報知を簡単な動作でキャンセル等させることができる。ここに「警報情報の報知」とは例えば警報音や警報の音声ガイダンスや表示画面へのその旨の表示等である。「報知を抑制させる」とは音声的な報知であれば音量を絞ったり無音にすることであり、視覚的な報知であれば輝度を絞ったり表示画面を消したりすることである。
例えば自動車運転中の警報を一例として説明する。例えば電子機器としてレーダー探知装置からなんらかの道路交通情報(例えばNシステム等)を検出した旨の警報が報知された場合にユーザーはこの報知を認識した後では引き続き報知される警報はすでに不要であるとして警報の報知状態をキャンセルしたいと考えることがある。つまり、必要な情報ではあるがユーザーが認知したためそれ以上の情報は過剰であって不要であるからである。この場合に警報音を抑制させる意義がある。
より具体的な制御を例示すれば、ユーザーは検出可能な位置(例えば、上記第1の空間領域)で手をかざす(上記のように手でなくともよい)とともにその位置で所定の時間停止をさせるようなジェスチャーをする。このジェスチャーを認識することで現在報知されている警報音を停止させるごときである。この際に、例えばユーザーが設定した検出可能な領域が狭い場合に一時的に広い領域となるように制御して検出しやすいようにしてもよい。状況に応じてすばやく操作するために範囲の広い領域にすることがよいからである。
Further, as the means 21, it is preferable to suppress notification of information currently notified as the predetermined processing.
This also shows an example of a specific predetermined process. That is, while outputting the sound during the recognition of the gesture, the notification of the currently notified alarm information is suppressed when the gesture is recognized. Thereby, the user can cancel the notification of unnecessary information with a simple operation. Here, “notification of alarm information” is, for example, an alarm sound, voice guidance of an alarm, or a display to that effect on a display screen. “Suppress notification” means to reduce the volume or silence for audio notification, and to reduce the brightness or turn off the display screen for visual notification.
For example, an alarm during driving is described as an example. For example, when an alarm indicating that some road traffic information (for example, N system) is detected from a radar detection device as an electronic device, the user is not required to continue the alarm after the user has recognized this notification. You may want to cancel the alarm notification state. In other words, it is necessary information, but because the user has recognized it, it is excessive and unnecessary. In this case, it is meaningful to suppress the alarm sound.
To illustrate more specific control, the user holds his / her hand at a detectable position (for example, the first spatial region) (not necessarily as described above) and stops at that position for a predetermined time. Make gestures that let you By recognizing this gesture, it is time to stop the currently sounding alarm sound. At this time, for example, when the detectable area set by the user is narrow, the detection may be performed by controlling the area to be temporarily wide. This is because it is preferable to use a wide range in order to operate quickly according to the situation.

また、手段22として、前記所定の処理として表示画面に情報を表示させることがよい。
これも具体的な所定の処理の一例を示したものである。つまり、ジェスチャーの認識中に音を出力する制御を行うとともに、そのジェスチャーが認識されることで表示画面に情報を表示させるわけである。これによって、ユーザーは表示画面に情報を表示させる操作手段を探し、それを操作して音量を変更するというような面倒さがなくなる。
また、手段23として、前記所定の処理として表示画面に表示させた情報を変更させることがよい。
これも具体的な所定の処理の一例を示したものである。つまり、ジェスチャーの認識中に音を出力する制御を行うとともに、そのジェスチャーが認識されることで表示画面に表示させた情報を変更させるわけである。これによって、ユーザーは表示画面の情報を変更させるための操作手段を探し、それを操作して音量を変更するというような面倒さがなくなる。
Further, as the means 22, information may be displayed on a display screen as the predetermined processing.
This also shows an example of a specific predetermined process. That is, control is performed to output sound during gesture recognition, and information is displayed on the display screen when the gesture is recognized. This eliminates the trouble of the user searching for an operating means for displaying information on the display screen and operating it to change the volume.
Further, as the means 23, it is preferable to change the information displayed on the display screen as the predetermined processing.
This also shows an example of a specific predetermined process. In other words, control is performed to output sound during gesture recognition, and information displayed on the display screen is changed when the gesture is recognized. This eliminates the trouble of the user searching for an operation means for changing the information on the display screen and operating it to change the volume.

また、手段24として、前記制御手段は表示画面に出発点となる第1の表示モードを表示させ、所定のジェスチャーの認識結果に基づいて他の表示モードに変更させた後、所定のジェスチャーの認識結果に基づいて再び前記第1の表示モードを表示させるように制御することがよい。
これは、ジェスチャーを次々と行った結果として初期画面となる第1の表示モードに戻すようにする制御を示している。このような構成であればユーザーはジェスチャーによって変更可能な表示モードの出現順位を第1の表示モードの出現順位に基づいて容易に理解することができる。第1の表示モードとして多くの設定画面を有している場合に有利である。
また、手段25として、車両搭載用の電子機器はルームミラーを兼ねており、ユーザーによるジェスチャーは前記ルームミラーの前面で行われることがよい。
ルームミラーに車両搭載用の電子機器を搭載することで車両内の省スペース化に貢献し、ルームミラーにタッチせずに所定の処理を行うための操作が可能であるからである。また、ルームミラーは運転者であるユーザーの近傍にあるためルームミラーとして使用可能であるとともに、その前面でジェスチャーをすることが容易となり、電子機器を狭い車内のユーザーの近傍に配置する必要もなくなる。ルームミラーは自動車にデフォルトで配設されているルームミラーをそのまま電子機器化してもよく、外付けのルームミラーとしてもよい。
As the means 24, the control means displays the first display mode as a starting point on the display screen, changes to another display mode based on the recognition result of the predetermined gesture, and then recognizes the predetermined gesture. It is preferable to control to display the first display mode again based on the result.
This indicates control for returning to the first display mode that is the initial screen as a result of successive gestures. With such a configuration, the user can easily understand the appearance order of the display modes that can be changed by the gesture based on the appearance order of the first display mode. This is advantageous when the first display mode has many setting screens.
Further, as the means 25, the vehicle-mounted electronic device may also serve as a rearview mirror, and the user's gesture may be performed on the front face of the rearview mirror.
This is because mounting the vehicle-mounted electronic device on the rearview mirror contributes to space saving in the vehicle, and an operation for performing a predetermined process without touching the rearview mirror is possible. In addition, the rear-view mirror can be used as a rear-view mirror because it is in the vicinity of the user who is the driver, and it is easy to make a gesture on the front surface of the rear-view mirror, and it is not necessary to place the electronic device in the vicinity of the user in a narrow car. . As the room mirror, the room mirror provided by default in the automobile may be converted into an electronic device as it is, or may be an external room mirror.

また、手段26としてジェスチャー検出手段を備える筐体にジェスチャー時の認識対象物の前記筐体への衝突を軽減する衝突軽減手段を備えるとよい。
このようにすれば、ジェスチャー時に認識対象物が筐体に衝突することを軽減することができる。衝突軽減手段としては、例えば、衝突を防止するための手段である衝突防止手段、または、衝突した際に認識対象物が筐体に衝突した際の衝撃を吸収するための手段である衝撃吸収手段の少なくともいずれか一方を備える構成とするとよい。
例えば、ジェスチャーを認識するジェスチャー検出手段を備える筐体の稜角部あるいは出隅部の少なくとも一部を面取り状に形成することがよい。
このように、外側に出っ張っている稜角部や出隅部を面取り状に形成することでジェスチャーをする物体、例えばユーザーの手先が誤って筐体に当たっても手先側は痛くなく筐体側もダメージを受けにくくなる。面取り状に形成する場合にはなるべく不連続な部分のない曲面とすることがよい。これと併せて(あるいは単独で)緩衝効果のある素材(例えば弾性のある合成ゴム等)で筐体の周囲を包囲するようにしてもよい。特に、例えば手段1等の構成と手段28の構成とを備える構成とすれば、音によりジェスチャー認識中であることを知ることができるとともに、ジェスチャー認識中に認識対象物が筐体に衝突することを軽減することができる。例えば、ジェスチャー認識中に音がすることで、ジェスチャー検出部を備える筐体を見ずにジェスチャーをしやすくなる可能性があり、そのとき筐体に認識対象物等をぶつけてしまう可能性があるが、このようにすればこうしたおそれを低減することができる。
また、手段27として、ジェスチャーを認識するジェスチャー検出手段を備える筐体のジェスチャー検出方向の少なくとも一部について保護部材を除去した箇所を設けることがよい。
保護部材としては例えば透明な例えばポリエチレン等から構成されるプラスチック製の薄膜がよいが、このような保護部材があると機器を傷つけないために使用に際してもユーザーはしばしば剥がさずに使用することがある。ところが、経年使用することで保護部材の機器側に対する密着性が低下して部分的に剥がれることがある。その際にジェスチャー検出手段の検出範囲内にその剥がれた保護部材が揺れてあたかもジェスチャーと間違えるような動作をする可能性がある。これは誤動作の原因となる可能性がある。そのため、出荷時に例えば前もって保護部材の剥がれそうな部分を除去したり、剥がれるとジェスチャー検出手段の検出範囲内に進入するおそれのある部分を除去したりすることで、剥がれた保護部材がユーザーのジェスチャーの邪魔になることがなくなるとともに、ユーザーが剥がれた部分を取り除いたりする面倒さもなくなる。また、保護部材としては、ジェスチャー検出手段を有する筐体の運搬時の保護部材とするとよい。特に、電子情報システムにはユーザーによって使用時に注視される部材を設け、保護部材は当該使用時に注視される部材の保護部材とするとよい。例えば、使用時に注視される部材としては、例えばミラーとしたり、表示部としたりするとよい。このように使用時に注視される部材は特に運搬時に保護する必要性が高いためである。
また、保護部材は、ジェスチャー検出手段のジェスチャー検出方向と表示部とにわたって設け、ジェスチャー検出方向の少なくとも一部について保護部材を除去した箇所を設けるとよい。また、保護部材の中心ではなく端部寄りにジェスチャー検出手段のジェスチャー検出方向がある構成においてジェスチャー検出方向の少なくとも一部について保護部材を除去した箇所を設けるとよい。保護部材の端部寄りの側は保護部材が特に剥がれやすく、剥がれた保護部材がユーザーのジェスチャーの邪魔になる可能性が高いためである。
Moreover, it is good to provide the collision reduction means which reduces the collision with the said recognition target object at the time of a gesture in the housing | casing provided with a gesture detection means as the means 26. FIG.
In this way, it is possible to reduce the recognition target from colliding with the housing during a gesture. As the collision reducing means, for example, a collision preventing means that is a means for preventing a collision, or an impact absorbing means that is a means for absorbing an impact when a recognition target object collides with a housing in the event of a collision. It is good to set it as the structure provided with at least any one of these.
For example, it is preferable that at least a part of the ridge corner or the protruding corner of the housing including the gesture detection means for recognizing the gesture is formed in a chamfered shape.
In this way, even if an object that makes a gesture, for example, a user's hand accidentally hits the case, the hand side is not damaged and the case side is damaged. It becomes difficult. In the case of forming it in a chamfered shape, it is preferable that the curved surface has no discontinuous portion as much as possible. In combination with this (or alone), the housing may be surrounded by a material having a buffering effect (for example, elastic synthetic rubber). In particular, for example, if the configuration including the configuration of the means 1 and the configuration of the means 28 is used, it is possible to know that the gesture is being recognized by sound, and the recognition target object collides with the housing during the gesture recognition. Can be reduced. For example, if a sound is generated during gesture recognition, there is a possibility of making it easy to make a gesture without looking at the casing provided with the gesture detection unit, and at that time, there is a possibility of hitting a recognition object or the like on the casing However, such a fear can be reduced by doing so.
Further, as the means 27, it is preferable to provide a place where the protective member is removed for at least a part of the gesture detection direction of the housing provided with the gesture detection means for recognizing the gesture.
For example, a transparent plastic thin film made of polyethylene or the like is preferable as the protective member. However, when such a protective member is present, the device may be used without being peeled off because the device is not damaged. . However, the adhesiveness with respect to the apparatus side of a protection member may fall by using over time, and it may peel partially. At this time, there is a possibility that the peeled protection member is shaken within the detection range of the gesture detection means and operates as if it is mistaken for a gesture. This can cause malfunction. For this reason, for example, by removing a part that is likely to peel off the protective member in advance at the time of shipment, or by removing a part that may enter the detection range of the gesture detecting means if it is peeled off, the peeled off protective member becomes a user's gesture. As well as the hassle of removing the peeled off part by the user. Moreover, as a protection member, it is good to use the protection member at the time of conveyance of the housing | casing which has a gesture detection means. In particular, the electronic information system may be provided with a member that is watched by the user during use, and the protective member may be a protective member for the member that is watched during use. For example, the member to be watched at the time of use may be, for example, a mirror or a display unit. This is because the member to be watched during use is highly necessary to be protected especially during transportation.
Further, the protection member may be provided across the gesture detection direction of the gesture detection means and the display unit, and a portion from which the protection member is removed may be provided for at least a part of the gesture detection direction. In addition, in a configuration in which the gesture detection direction of the gesture detection unit is located near the end instead of the center of the protection member, a location where the protection member is removed may be provided for at least part of the gesture detection direction. This is because the protective member is particularly easily peeled off on the side near the end of the protective member, and the peeled protective member is likely to obstruct the user's gesture.

また、手段28として、ジェスチャーを認識するジェスチャー検出手段を備える筐体の少なくとも一部について外部から前記ジェスチャー検出手段を視認しにくくする遮蔽手段を備えることがよい。
筐体内に収納されているジェスチャー検出手段は外部から容易に目視されないことがデザイン的によい。しかし、ジェスチャー検出手段は検出動作をするために筐体内において窓状に開口した開口部を有することがあるため、外部から筐体内部のジェスチャー検出手段が目視されてしまう可能性がある。そのため、筐体にジェスチャー検出手段を視認しにくくするための遮蔽手段を設けることでユーザーはジェスチャー検出手段を目視できなくなり筐体デザインに好印象を感ずることとなる。遮蔽手段はジェスチャー検出手段の検出を妨げないことが必要であって、例えばジェスチャー検出手段が赤外線のような光学的な手段で検出している場合には赤外線は検出可能に透過させ可視光は例えば反射あるいは吸収させることで透過させないような特性を有する透過体を配置することがよい。特に、例えば、手段1等の構成と手段28の構成を備える構成とすると、ジェスチャー認識中に音がなるため、ジェスチャー認識手段を従来よりもユーザが発見しやすくなる可能性や、音がするたびに筐体を見てしまう可能性があり、ジェスチャー認識手段を目障りに感じる可能性が高まるが、このようにすればその可能性を低減できる。
また、手段29として、ジェスチャーを認識するジェスチャー検出手段と、ジェスチャー検出手段のジェスチャー検出方向に存在する物体までの距離を所定値以下にするための距離短縮手段を筐体内に備えることがよい。
例えば、筐体内のジェスチャー検出手段のジェスチャー検出方向には筐体の壁面やガラス面が物体として存在する。ジェスチャー検出手段からは例えば赤外線や超音波のような検出媒体が出力されるが、物体までの距離が遠いことで検出に支障をきたす可能性がある。そのため、距離短縮手段を備えることでそのような不具合が防止できる。
Further, as means 28, it is preferable to provide shielding means for making it difficult to visually recognize the gesture detection means from the outside with respect to at least a part of the housing provided with gesture detection means for recognizing a gesture.
It is good in terms of design that the gesture detection means housed in the housing is not easily viewed from the outside. However, since the gesture detection means may have an opening that opens in the shape of a window in the casing in order to perform a detection operation, the gesture detection means inside the casing may be viewed from the outside. Therefore, by providing a shielding means for making it difficult for the gesture detection means to be visually recognized on the casing, the user cannot see the gesture detection means and feels good impression about the casing design. The shielding means must not interfere with the detection of the gesture detection means. For example, when the gesture detection means is detected by optical means such as infrared rays, the infrared rays can be detected and visible light can be transmitted. It is preferable to arrange a transmissive body having such characteristics that it is not transmitted by being reflected or absorbed. In particular, for example, if the configuration including the configuration of the means 1 and the configuration of the means 28 is used, a sound is produced during gesture recognition. There is a possibility that the user may see the case, and there is a higher possibility that the gesture recognizing means will be disturbed, but this possibility can be reduced.
Further, as the means 29, a gesture detection means for recognizing a gesture and a distance shortening means for making the distance to an object existing in the gesture detection direction of the gesture detection means equal to or less than a predetermined value may be provided in the casing.
For example, the wall surface or glass surface of the housing exists as an object in the gesture detection direction of the gesture detection means in the housing. For example, a detection medium such as an infrared ray or an ultrasonic wave is output from the gesture detection means, but there is a possibility that the detection may be hindered due to a long distance to the object. Therefore, such a problem can be prevented by providing the distance shortening means.

また、手段30として、ジェスチャーを認識するジェスチャー検出手段の検出領域内にジェスチャー検出の妨げとなる遮蔽物が存在する場合に、前記ジェスチャー検出手段は前記遮蔽物を検出せずに、あるいは検出データを使用せずにユーザーによるジェスチャーを検出することがよい。
これによって遮蔽物の動作がユーザーの能動的なジェスチャーと間違えられてしまうことがなくなり、ユーザーは遮蔽物を配置する場合でも操作上のストレスを感じることなくジェスチャーによる操作が可能となる。
例えば、車両用のシステムとして車両のフロントガラス近傍のルームミラーに電子情報システムを配設した場合において、ユーザーが同じくフロントガラス近傍の遮蔽物として例えばサンバイザーを操作する場合にこのサンバイザーをジェスチャー検出手段の検出領域内に入るように操作しても、ユーザーはジェスチャーをすることが可能となる。
また、手段31として、ジェスチャーを認識するジェスチャー検出手段は遮蔽物が検出領域内に所定時間停止して存在することに基づいて前記遮蔽物を検出せず、あるいは検出データを使用せずにユーザーによるジェスチャーを検出することがよい。
これは具体的な遮蔽物が存在する場合のジェスチャーの検出方法であって、検出領域内に所定時間停止して存在することで所定の処理を行うためのジェスチャーではないと判断する条件としたものである。ユーザーは遮蔽物を所定時間停止させるように配置するだけでよいため操作上のストレスを感じることなくジェスチャーによる操作が可能となる。特に車両においては、走行中に安全を確保するため、車内の物は固定されるのが原則である。そのため、ジェスチャー認識領域に入る可能性のある物があった場合、その物は位置を変えた後固定される可能性が高い。例えば、ジェスチャー検出手段を備えたルームミラー型の機器とした場合、ルームミラーに隣接する車両のサンバイザーはその位置が調整可能であるが、調整後は固定される。このように車内においては仮に物が移動された場合であっても、ある位置で静止状態となるのが通常である。このような知見に基づき、特に車内に設置される機器においては本構成を備えることが望ましい。
また、手段32として、前記制御手段は遮蔽物がジェスチャー検出手段に所定距離よりも近づいて検出された場合にはジェスチャーを認識させないように制御することがよい。
このように、遮蔽物があることによってジェスチャー領域が確保できず、ジェスチャー自体が不能になる場合があるため、むしろジェスチャーを認識させないことで誤動作を防止することができる。またユーザーがジェスチャー入力ができない領域に遮蔽物を配置することでユーザーの意思で積極的にジェスチャー入力を停止することができる。
また、手段33として、電子情報システムは車両搭載用の電子機器であることがよい。 車両搭載用の電子機器は運転中に操作することが多いためジェスチャーによって音との関係で所定の処理を実行させることは有利だからである。
ユーザからの機器への操作入力手段としてジェスチャー検出手段以外の手段を備えないことがシンプルな操作の点からよい。
また、機器前面(特に表示手段を有するあるいはミラーを有するなどユーザが見る手段を有する機器の面)に、その面積を減少させ他の操作入力手段を備えないようにすることがよい。これによって操作入力以外の機能が発揮できることとなる。
また、手段34として、筐体上にジェスチャー検出手段が検出可能な複数の異なるジェスチャーの方向をユーザが認識可能な表示を行うことがよい。
これによってユーザーはジェスチャーの方向を容易に理解することができる。表示は例えば印刷で行ってもよくプラスチック成形の際に立体的に造形するようにしてもよい。
また、手段35として、電子情報システムにおける制御手段の機能をコンピュータに実現させるためのプログラムとすることがよい。
Further, as a means 30, when there is a shielding object that hinders gesture detection in the detection area of the gesture detection means for recognizing a gesture, the gesture detection means does not detect the shielding object or receives detection data. It is better to detect user gestures without using them.
As a result, the movement of the shielding object is not mistaken for the user's active gesture, and the user can operate with the gesture without feeling operational stress even when the shielding object is placed.
For example, when an electronic information system is installed in a room mirror near the windshield of a vehicle as a vehicle system, gesture detection is performed when the user operates the sun visor, for example, as a shield near the windshield. Even if an operation is performed so as to be within the detection area of the means, the user can make a gesture.
Further, as the means 31, the gesture detection means for recognizing a gesture does not detect the shielding object based on the fact that the shielding object exists in the detection area for a predetermined time, or does not use the detection data. It is better to detect gestures.
This is a gesture detection method when there is a specific shielding object, and is a condition for determining that it is not a gesture for performing a predetermined process by stopping for a predetermined time in the detection area. It is. Since the user only has to arrange the shield so as to be stopped for a predetermined time, the user can perform gesture operation without feeling operational stress. In particular, in vehicles, in order to ensure safety during traveling, it is a general rule that objects in the vehicle are fixed. Therefore, if there is an object that may enter the gesture recognition area, the object is likely to be fixed after the position is changed. For example, in the case of a room mirror type device including a gesture detection means, the position of the sun visor of the vehicle adjacent to the room mirror can be adjusted, but is fixed after adjustment. As described above, even if an object is moved in the vehicle, it is usually in a stationary state at a certain position. Based on such knowledge, it is desirable to provide this configuration particularly in equipment installed in a vehicle.
Further, as the means 32, the control means is preferably controlled so that the gesture is not recognized when the shielding object is detected closer to the gesture detection means than a predetermined distance.
As described above, since the gesture region cannot be secured due to the presence of the shielding object and the gesture itself may be disabled, it is possible to prevent a malfunction by making the gesture not recognized. In addition, by placing a shield in an area where the user cannot input gestures, gesture input can be actively stopped by the user's intention.
Further, as the means 33, the electronic information system may be an electronic device mounted on a vehicle. This is because a vehicle-mounted electronic device is often operated during driving, and therefore it is advantageous to execute a predetermined process in relation to sound by a gesture.
It is preferable from the point of simple operation that no means other than the gesture detection means is provided as an operation input means from the user to the device.
Further, it is preferable to reduce the area of the front surface of the device (particularly, the surface of the device having a means to be viewed by the user such as having a display means or a mirror) so that no other operation input means is provided. As a result, functions other than the operation input can be exhibited.
Further, as the means 34, it is preferable to perform display on the casing so that the user can recognize a plurality of different gesture directions that can be detected by the gesture detection means.
This allows the user to easily understand the direction of the gesture. The display may be performed by printing, for example, or may be three-dimensionally formed during plastic molding.
The means 35 may be a program for causing a computer to realize the function of the control means in the electronic information system.

本発明によれば、直接機器に接触しなくとも所定の処理の結果としての情報の取得をすることが可能となる。また、ジェスチャーには音を伴うため音によって所定の処理の内容を理解することもできることとなる。   According to the present invention, it is possible to acquire information as a result of a predetermined process without directly contacting a device. Moreover, since the gesture is accompanied by a sound, the contents of the predetermined process can be understood by the sound.

本発明にかかる実施の形態のレーダー探知装置の正面斜め方向から見た斜視図。The perspective view seen from the front diagonal direction of the radar detector of the embodiment concerning the present invention. 同じレーダー探知装置のフロントプレートを取り外した状態の斜視図。The perspective view of the state which removed the front plate of the same radar detection apparatus. 図1のA−A線での断面図。Sectional drawing in the AA of FIG. 実施の形態のレーダー探知装置の電気的構成を説明するブロック図Block diagram for explaining the electrical configuration of the radar detection device of the embodiment ジェスチャーセンサがジェスチャーを認識して音を出力させる際の計算の基準となる音出力基準領域と移動方向判断領域のイメージを説明する説明図。Explanatory drawing explaining the image of the sound output reference | standard area | region used as the reference | standard of calculation when a gesture sensor recognizes a gesture, and outputs a sound, and a moving direction judgment area | region. 音出力基準領域及び移動方向判断領域内において移動する際の対象物の位置と音との関係を説明する説明図。Explanatory drawing explaining the relationship between the position of the target object and a sound at the time of moving in a sound output reference area | region and a moving direction judgment area | region. 音出力基準領域及び移動方向判断領域内において停止する対象物の位置と音との関係を説明する説明図。Explanatory drawing explaining the relationship between the position of the target object which stops in a sound output reference | standard area | region, and a moving direction judgment area | region, and a sound. ジェスチャーセンサの前面を下方から上方に通過させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture which passes the front surface of a gesture sensor upwards from the downward direction. ジェスチャーセンサの前面を下方から上方に通過し、停止させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture which passes the front surface of a gesture sensor from the downward upwards, and stops. ジェスチャーセンサの前面を上方から下方に通過させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture which passes the front of a gesture sensor from upper direction to the downward direction. ジェスチャーセンサの前面を上方から下方に通過し、停止させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture which passes the front surface of a gesture sensor from upper direction to the downward direction and stops. ジェスチャーセンサの前面を左方から右方に通過させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture which passes the front of a gesture sensor from the left to the right. ジェスチャーセンサの前面を左方から右方に通過し、停止させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture which passes the front of a gesture sensor from the left to the right and stops. ジェスチャーセンサの前面を右方から左方に通過させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture which passes the front of a gesture sensor from right to left. ジェスチャーセンサの前面を右方から左方に通過し、停止させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture which passes the front of a gesture sensor from right to left and stops. ジェスチャーセンサの前面で停止させるジェスチャーを説明する説明図。Explanatory drawing explaining the gesture stopped on the front surface of a gesture sensor. (a)は音出力基準領域内に何らかの遮蔽物がある場合の処理について模式的に説明した説明図、(b)はオフセット計算開始後の音出力基準領域内に何らかの遮蔽物がある場合の処理について模式的に説明した説明図。(A) is explanatory drawing typically demonstrated about the process when there exists some obstruction in a sound output reference area, (b) is the process when there exists some obstruction in the sound output reference area after the offset calculation start Explanatory drawing typically demonstrated about. 警報が報知されている場合のセンサー反応範囲のデフォルト状態へのへの一時的な設定変更処理を説明するフローチャート。The flowchart explaining the temporary setting change process to the default state of the sensor reaction range in case the warning is alert | reported. 他の実施の形態である据え置き型のレーダー探知装置50のジェスチャーセンサ付近の部分拡大断面図Partial expanded sectional view of the vicinity of the gesture sensor of the stationary radar detection device 50 according to another embodiment 本実施の形態のレーダー探知装置のミラー面を保護する保護シートの説明をする説明図。Explanatory drawing explaining the protection sheet which protects the mirror surface of the radar detection apparatus of this Embodiment.

以下、本発明の電子情報システムを具体化した電子機器であるレーダー探知装置10の実施の形態を図面に基づいて説明する。
図1は本実施の形態の車両用のルームミラーを兼ねたレーダー探知装置10の斜視図である。このレーダー探知装置10では本体ケース11と本体ケース11の前面に取着されるフロントプレート12とから薄板状の直方体形状の筐体13が構成されている。筐体13の4つの稜角部13aは曲面状に(いわゆるアールを付けるように)面取りして構成され、フロントプレート12の出隅となる前方側角部周縁13bも全周に渡って面取りして構成されている。本体ケース11の背面には所定の間隔をおいて左右一対の固定用クランプ部14が形成されている。本体ケース11の下方位置には図示しない電源スイッチが配設されており、本体ケース11の側面位置にはmicroSDカードを挿入するためのスロット16が形成されている。図2に示すように、本体ケース11内には制御基板17が配設されている。制御基板17は本体ケース11の正面形状に略対応した横長の外形形状とされている。尚、本実施の形態では制御基板17は一枚で構成されているが、2枚以上で構成するようにしてもよい。
Hereinafter, an embodiment of a radar detection apparatus 10 which is an electronic apparatus embodying an electronic information system of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view of a radar detection device 10 that also serves as a vehicle rearview mirror of the present embodiment. In this radar detection device 10, a thin plate-like rectangular parallelepiped casing 13 is constituted by a main body case 11 and a front plate 12 attached to the front surface of the main body case 11. The four ridge corners 13a of the housing 13 are chamfered in a curved shape (so-called rounded), and the front side corner rim 13b serving as a protruding corner of the front plate 12 is also chamfered over the entire circumference. It is configured. A pair of left and right fixing clamp portions 14 are formed on the back surface of the main body case 11 at a predetermined interval. A power switch (not shown) is disposed at a lower position of the main body case 11, and a slot 16 for inserting a microSD card is formed at a side surface position of the main body case 11. As shown in FIG. 2, a control board 17 is disposed in the main body case 11. The control board 17 has a horizontally long outer shape substantially corresponding to the front shape of the main body case 11. In this embodiment, the control board 17 is composed of one sheet, but it may be composed of two or more sheets.

図2及び図3に示すように、本体ケース11の凹部空間19内には報知手段としてのスピーカ装置20が配設されている。スピーカ装置20は制御基板17と接続されて後述する制御部35による制御によって所定の音(音声)が出力される。スピーカ装置20は本体ケース11に形成された収納スペース21内に嵌合され、その振動子の発振面20a(音が出力される面)が本体ケース11の背面方向を向くように取着されている。収納スペース21には下方に向かって伸びるホーン23が連結されており、ホーン23下端に形成された音出口25は前記電源スイッチに隣接した位置、つまり本体ケース11の中央下方位置に露出されている。ホーン23は通路内が完全に包囲された音伝達空間を創出している。そのため、本体ケース11方向に向かって出力された音(音声)は本体ケース11壁面に反射し、ホーン23内で増幅されて音出口25から外部に至ることとなる。レーダー探知装置10は車両にデフォルトで設置されているルームミラーに取り付けるため、音出口25が筐体13の下方位置となるためユーザーである運転者の耳に近く、かつ音が増幅されるためユーザーにとって非常に聞き取りやすくなっている。
図2に示すように、制御基板17上にはジェスチャー検出手段としてのジェスチャーセンサ27を搭載したセンサ基板28が図示しないBtoBコネクタを介して別体として接続されている。ジェスチャー検出手段としてのジェスチャーセンサ27はセンサー前面とフロントプレート12側のミラー部30背面との距離がごく近接した所定範囲内に収まるよう(本実施の形態では0.7mm以下)に制御基板17、BtoBコネクタ、センサ基板28及びジェスチャーセンサ27のトータルの厚みが考慮されている。
As shown in FIGS. 2 and 3, a speaker device 20 as a notification unit is disposed in the recessed space 19 of the main body case 11. The speaker device 20 is connected to the control board 17 and outputs a predetermined sound (sound) under the control of the control unit 35 described later. The speaker device 20 is fitted in a storage space 21 formed in the main body case 11, and is attached so that the oscillation surface 20 a (surface from which sound is output) of the vibrator faces the back direction of the main body case 11. Yes. A horn 23 extending downward is connected to the storage space 21, and a sound outlet 25 formed at the lower end of the horn 23 is exposed at a position adjacent to the power switch, that is, at a central lower position of the main body case 11. . The horn 23 creates a sound transmission space in which the passage is completely enclosed. Therefore, the sound (sound) output toward the body case 11 is reflected on the wall surface of the body case 11, amplified in the horn 23, and reaches the outside from the sound outlet 25. Since the radar detection device 10 is attached to a room mirror that is installed by default in the vehicle, the sound outlet 25 is positioned below the housing 13, so that it is close to the user's ear and the sound is amplified. It is very easy to hear.
As shown in FIG. 2, a sensor board 28 on which a gesture sensor 27 as a gesture detection means is mounted is connected to the control board 17 as a separate body via a BtoB connector (not shown). The gesture sensor 27 as the gesture detection means is configured so that the distance between the front surface of the sensor and the rear surface of the mirror portion 30 on the front plate 12 is within a predetermined range (0.7 mm or less in this embodiment). The total thickness of the BtoB connector, the sensor substrate 28 and the gesture sensor 27 is taken into consideration.

フロントプレート12の前面にはミラー部30が配設されている。ミラー部30は透明なガラス製基板の表面に蒸着処理(本実施の形態ではクロム蒸着)によって反射膜を形成し、裏面に黒色の遮光印刷を形成することで構成されている。レーダー探知装置10は車両に備え付けのルームミラーに対して固定用クランプ部14によって取り付けられるが、その際にミラー部30に背景を移し込んで運転者が後方確認をすることが可能となる。フロントプレート12及びミラー部30の一部には第1の窓部31及び第2の窓部32がそれぞれ正面からの目視において向かって右方端寄りに隣接して形成されている。第1の窓部31は表示パネル18の外形形状に応じて長方形形状とされ、第2の窓部32はジェスチャーセンサ27の大きさに対応して第1の窓部31より小さく構成され隅丸長方形形状とされている。第1及び第2の窓部31、32は上記の遮光印刷が形成されずに基板の表面に反射膜のみが形成された領域である。そのため、第1及び第2の窓部31、32位置において光が筐体13内外に透過可能とされている。第1の窓部31に対面して表示パネル18が配置され、第2の窓部32に対面してジェスチャーセンサ27が配置されている。第2の窓部32はジェスチャーセンサ27から照射される赤外線が対象物に反射して戻ってくる際の投光及び受光の通路となる。尚、これらの窓部31、32の形状や位置は適宜変更可能である。
ミラー部30において第2の窓部32の周囲にはジェスチャー方向を示すとともにジェスチャーを行う位置をユーザーにアピールするためのマーク33が形成されている。マーク33は第2の窓部32を取り囲むように上下左右の四方に配置され、外側に凸となるように屈曲された山型の折れ線形状とされており、4つのマーク33は全体として縦長の菱形形状をイメージするような整然とした配置とされている。マーク33はミラー部30裏面の遮光印刷を一部中抜きして印刷することで印刷されていない透明な部分として(但し、表面の反射膜は被覆されている)を目視させたものである。ミラー部30の第2の窓部32付近ではフロントプレート12はミラー部30に対して若干の距離をおいて配置されるため、ミラー部30の前方からマーク33を目視するとマーク33の隙間から背後のフロントプレート12が距離をおいて目視されることとなってマーク33が立体感をもってユーザーに認識され、単なる印刷に比べて目立ちやすい。
A mirror part 30 is disposed on the front surface of the front plate 12. The mirror unit 30 is configured by forming a reflective film on the surface of a transparent glass substrate by vapor deposition (in this embodiment, chromium vapor deposition) and forming black light-shielding printing on the back surface. The radar detection device 10 is attached to a rear-view mirror provided on the vehicle by a fixing clamp portion 14. At this time, the background can be transferred to the mirror portion 30 so that the driver can confirm the rear. A first window portion 31 and a second window portion 32 are respectively formed adjacent to the right end of the front plate 12 and the mirror portion 30 as viewed from the front. The first window 31 has a rectangular shape according to the outer shape of the display panel 18, and the second window 32 is configured to be smaller than the first window 31 corresponding to the size of the gesture sensor 27 and has a rounded corner. It is a rectangular shape. The first and second window portions 31 and 32 are regions in which only the reflection film is formed on the surface of the substrate without the above-described light-shielding printing. Therefore, light can be transmitted into and out of the housing 13 at the positions of the first and second window portions 31 and 32. The display panel 18 is disposed so as to face the first window portion 31, and the gesture sensor 27 is disposed so as to face the second window portion 32. The second window 32 serves as a light projecting and light receiving path when infrared rays emitted from the gesture sensor 27 are reflected back to the object. In addition, the shape and position of these window parts 31 and 32 can be changed suitably.
In the mirror part 30, a mark 33 is formed around the second window part 32 to indicate the gesture direction and appeal the user to the position where the gesture is performed. The marks 33 are arranged in four directions on the top, bottom, left, and right so as to surround the second window 32, and are formed in a mountain-shaped polygonal line bent so as to protrude outward. The four marks 33 are vertically long as a whole. It is an orderly arrangement that resembles a diamond shape. The mark 33 is obtained by visually observing an unprinted transparent portion (however, the reflective film on the surface is covered) by partially removing the light shielding printing on the back surface of the mirror portion 30 and printing. In the vicinity of the second window portion 32 of the mirror portion 30, the front plate 12 is disposed at a slight distance from the mirror portion 30, so that when the mark 33 is viewed from the front of the mirror portion 30, it is behind the gap of the mark 33. Since the front plate 12 is viewed at a distance, the mark 33 is recognized by the user with a three-dimensional effect and is more conspicuous than mere printing.

次に、図4のブロック図に基づいてレーダー探知装置10の本体11内部の電気的な構成を説明する。尚、本発明とは直接関係のない構成については省略するが、例えば従来と同様の構成を採るとよい。
制御手段としての制御部35はCPUとCPUに接続されたROM、RAM等のメモリ、各種周辺回路及びインタフェース等から構成されている。制御部35には前記表示パネル18、前記スピーカ装置20、前記ジェスチャーセンサ27、GPS受信器37、マイクロ波受信器38、無線受信器39、microSDカードリーダー40等がそれぞれ接続されている。
制御部35のROM内にはGPS受信器37によって受信されたGPS情報を処理するGPS情報処理プログラム、マイクロ波検出器38によって受信されたマイクロ波(レーダー波)を判断するマイクロ波判断プログラム、無線受信器39よって受信された無線波を判断する無線波判断プログラム、ジェスチャーセンサ27によって受動されたジェスチャーを判断するジェスチャー判断プログラム、ジェスチャーの検出結果(認識結果)に応じた音をスピーカ装置20から出力させるとともに、ジェスチャーの判断結果に応じた所定の処理モードに移行させるためのジェスチャーに基づく処理モード移行プログラム、所定の待ち受け画面をディスプレイ部17に表示させる待ち受け画面表示プログラム、OS(Operation System)等の各種プログラムが記憶されている。
Next, the electrical configuration inside the main body 11 of the radar detector 10 will be described based on the block diagram of FIG. In addition, although a configuration that is not directly related to the present invention is omitted, for example, a configuration similar to the conventional configuration may be employed.
The control unit 35 serving as a control unit includes a CPU, a memory such as a ROM and a RAM connected to the CPU, various peripheral circuits, an interface, and the like. The control unit 35 is connected with the display panel 18, the speaker device 20, the gesture sensor 27, the GPS receiver 37, the microwave receiver 38, the wireless receiver 39, the microSD card reader 40, and the like.
In the ROM of the control unit 35, a GPS information processing program for processing GPS information received by the GPS receiver 37, a microwave determination program for determining a microwave (radar wave) received by the microwave detector 38, and a radio A radio wave determination program for determining a radio wave received by the receiver 39, a gesture determination program for determining a gesture passive by the gesture sensor 27, and a sound corresponding to a detection result (recognition result) of the gesture is output from the speaker device 20. And a processing mode transition program based on a gesture for shifting to a predetermined processing mode according to the determination result of the gesture, a standby screen display program for displaying a predetermined standby screen on the display unit 17, an OS (Operation System), etc. Various programs There has been stored.

制御部35はレーダー探知装置10の基本機能となるGPS警報機能、レーダー波警報機能及び無線警報機能等の各機能を実行する。また、制御部35はジェスチャーセンサ27が対象物として認識するユーザーがかざす手や、あるいは手に持ったなんらかの物体等の対象物の検出範囲内におけるジェスチャーの検出(認識)に伴って音を出力する制御を行うとともに下記の処理を実行する。ジェスチャーとしては、本実施の形態ではジェスチャーセンサ27の前面を横切るように手や物体等を右から左に、あるい左から右に、あるいは下から上に、あるいは上から下に直線的に移動させたりするジェスチャーが認識される。また、ジェスチャーセンサ27の所定の検出範囲内(つまり所定の検出状態)で所定時間停止するというジェスチャーが認識される。
本実施の形態におけるジェスチャーセンサ27のジェスチャーの認識の結果として制御部35が制御する処理として、1)音量の変更、2)待ち受け画面の変更、3)設定画面の変更、4)待ち受け画面から設定画面への移行、5)設定画面から待ち受け画面への移行がそれぞれ実行されるようになっている。
The control unit 35 executes functions such as a GPS alarm function, a radar wave alarm function, and a radio alarm function, which are basic functions of the radar detector 10. In addition, the control unit 35 outputs a sound in accordance with the detection (recognition) of the gesture within the detection range of the target such as a hand held by the user recognized by the gesture sensor 27 as the target or some object held in the hand. The following processing is executed while performing control. As a gesture, in this embodiment, a hand or an object is moved linearly from right to left, from left to right, from bottom to top, or from top to bottom so as to cross the front of the gesture sensor 27. Gestures to be recognized are recognized. Further, a gesture of stopping for a predetermined time within a predetermined detection range (that is, a predetermined detection state) of the gesture sensor 27 is recognized.
As a process controlled by the control unit 35 as a result of gesture recognition of the gesture sensor 27 in the present embodiment, 1) change of volume, 2) change of standby screen, 3) change of setting screen, 4) setting from standby screen Transition to screen 5) Transition from the setting screen to the standby screen is executed.

本実施の形態におけるジェスチャーセンサ27は公知のジェスチャセンサであって、物体の接近状態と移動状態という2つのジェスチャーを検出するものである(接近状態を検出するため近接センサを兼ねている)。具体的な構成としてジェスチャーセンサ27は赤外発光LEDと4つのフォトセンサを搭載し、赤外発光LEDから照射した光が対象物に当たって反射した光を各フォトセンサが検出し、光量の変化を各フォトセンサ毎に数値として取得し、それら数値をパラメータとして対象物までの距離や対象物の移動方向を所定の演算式に基づいて算出する。対象物までの距離については4つのフォトセンサの数値の総和として算出でき、対象物の移動方向は異なるタイミングで取得したフォトセンサの数値の差分を取得することで算出できる。ジェスチャーセンサ27の検出能力の及ぶ範囲において対象物までの距離や対象物の移動方向を求めることが可能であるが、ここではジェスチャーセンサ27を中心として以下のように所定の空間領域を設定し(実際にはセンサの数値で判断する)この領域を基準として音の出力制御と所定の処理を実行する。   Gesture sensor 27 in the present embodiment is a known gesture sensor, and detects two gestures of an object approaching state and a moving state (also serves as a proximity sensor to detect the approaching state). As a specific configuration, the gesture sensor 27 includes an infrared light emitting LED and four photo sensors. Each photo sensor detects light reflected from the light emitted from the infrared light emitting LED and hits the object, and changes in the amount of light are detected. Each photosensor is acquired as a numerical value, and the distance to the target object and the moving direction of the target object are calculated based on a predetermined arithmetic expression using these numerical values as parameters. The distance to the object can be calculated as the sum of the numerical values of the four photosensors, and the moving direction of the object can be calculated by acquiring the difference between the numerical values of the photosensors acquired at different timings. While it is possible to determine the distance to the object and the moving direction of the object within the range covered by the detection capability of the gesture sensor 27, a predetermined space area is set as follows with the gesture sensor 27 as the center ( Actually, it is determined by the numerical value of the sensor). Sound output control and predetermined processing are executed based on this region.

図5に示すように、ジェスチャーセンサ27の存在する仮想平面pを基準としてジェスチャーセンサ27から等距離にあるz_th(_thは閾値を表現する)の座標を設定する。等距離とはジェスチャーセンサ27で検出した光量データ(検出値)が同等となると判断できる距離という意味である。このz_thは、本実施の形態においては音を出力させる際の基準となるものである。以下、z_thで包囲される半球状の空間領域を音出力基準領域Zとする。
また、音出力基準領域Z内において上下反転させた四角錐台で包囲される領域を求める。四角錐台で包囲される領域とは平面pから等距離となるz_th上に存在する上底の4つの角部からジェスチャーセンサ27近傍の平面pとの交点となる下底の4つの角部をそれぞれ結んだ4つの線分E1〜E4によって包囲される領域である。各線分上における座標をそれぞれ(+x_th,+y_th)(+x_th,−y_th)(−x_th,+y_th)(−x_th,−y_th)とする。この、四角錐台の内側の空間で算出されたx方向及びy方向の座標に基づいて対象物の移動方向を検出する。これはジェスチャーセンサ27の位置を原点として対象物の原点の通過の判断と原点を通過する際の対象物の移動方向を算出しやすくするために設定した領域である。以下、この四角錐台で包囲される領域を移動方向判断領域Qとする。本実施の形態では筐体13の長手方向を持ってx軸方向とし、これと直交する方向を持ってy軸方向とする。
また、任意に設定した領域であるため、ジェスチャーセンサ27の検出能力内でz_thの距離は適宜変更可能とされている。本実施の形態ではz_thの距離は100mm、60mm、40mmに設定変更可能である。このz_thの距離の変更に伴ってその内側に存在する移動方向判断領域Qの大きさも変化する。また、移動方向判断領域Qのイメージする形状(つまり移動方向を判断して所定の処理と関連付けをする領域)は上記に限定されず変更可能である。例えば、移動方向判断領域Qを音出力基準領域Zと一致させるようにしてもよい。
As shown in FIG. 5, the coordinates of z_th (_th represents a threshold value) that are equidistant from the gesture sensor 27 are set with reference to the virtual plane p on which the gesture sensor 27 exists. Equal distance means a distance at which it is possible to determine that the light amount data (detected value) detected by the gesture sensor 27 is equivalent. This z_th is a reference for outputting sound in the present embodiment. Hereinafter, a hemispherical space region surrounded by z_th is referred to as a sound output reference region Z.
In addition, a region surrounded by a square frustum that is vertically inverted in the sound output reference region Z is obtained. The region surrounded by the quadrangular pyramid is the four corners of the lower base that are the intersections of the four corners of the upper base on z_th that are equidistant from the plane p and the plane p near the gesture sensor 27. It is an area surrounded by four line segments E1 to E4 connected to each other. The coordinates on each line segment are (+ x_th, + y_th) (+ x_th, -y_th) (-x_th, + y_th) (-x_th, -y_th), respectively. The moving direction of the object is detected based on the coordinates in the x and y directions calculated in the space inside the quadrangular pyramid. This is an area set in order to make it easy to calculate the movement direction of the object when passing through the origin and the determination of the passage of the object through the origin with the position of the gesture sensor 27 as the origin. Hereinafter, an area surrounded by the square frustum is referred to as a movement direction determination area Q. In the present embodiment, the longitudinal direction of the housing 13 is taken as the x-axis direction, and the direction perpendicular thereto is taken as the y-axis direction.
In addition, since the area is arbitrarily set, the distance z_th can be changed as appropriate within the detection capability of the gesture sensor 27. In this embodiment, the z_th distance can be changed to 100 mm, 60 mm, and 40 mm. Along with the change in the distance of z_th, the size of the moving direction determination area Q existing inside thereof also changes. Further, the shape of the moving direction determination area Q (that is, the area that determines the moving direction and associates it with a predetermined process) is not limited to the above but can be changed. For example, the movement direction determination area Q may coincide with the sound output reference area Z.

上記のような電気的構成において、以下に制御部35がジェスチャーセンサ27によって対象物を検出した結果に基づいて実行する具体的な処理の一例を説明する。
まず、ジェスチャーセンサ27の検出値に基づいて制御部35が実行する音の出力制御について具体的ないくつかのジェスチャー中における対象物との関係で説明する。ここでは、後述する「所定の処理」を確定しうるジェスチャーをメインとして一例として説明するものであるが、対象物の動きは単純ではないので、以下のジェスチャー以外もあり得る。
また、ユーザーの認識としては音出力基準領域Z内に対象物が進入する前から、ジェスチャーの認識があり、音出力基準領域Zから離脱した後もジェスチャーをしている認識がある場合があるが、音を出力するためのジェスチャーの認識ということでは音出力基準領域Z内に進入することが客観的なジェスチャーの開始と考えられる。同様に対象物が音出力基準領域Z内から離脱することがジェスチャーの終了と考えられる。また、ジェスチャーの認識に失敗した場合、(所定のジェスチャーと判定されなかった場合)には、音は鳴らさないため、音が鳴ったということは対象物の動きがジェスチャーとして認識されたということでもある。
In the electrical configuration as described above, an example of specific processing executed by the control unit 35 based on the result of detecting the object by the gesture sensor 27 will be described below.
First, the sound output control performed by the control unit 35 based on the detection value of the gesture sensor 27 will be described in relation to specific objects in some gestures. Here, a gesture that can determine “predetermined processing” to be described later will be described as an example. However, since the movement of the object is not simple, there may be other gestures than the following.
In addition, the user may recognize the gesture before the object enters the sound output reference area Z, and may recognize the gesture after leaving the sound output reference area Z. In terms of recognition of a gesture for outputting a sound, entering the sound output reference area Z is considered to be the start of an objective gesture. Similarly, the movement of the object from the sound output reference area Z is considered to be the end of the gesture. In addition, when gesture recognition fails (when it is not determined as a predetermined gesture), no sound is produced, so that the sound is produced because the movement of the object is recognized as a gesture. is there.

(1)ジェスチャー中における対象物の第1の動き(その1)
これは、対象物が遠方からジェスチャーセンサ27方向に接近して音出力基準領域Z内に入った段階である。基本的に音の出力制御としては必ずこの課程が発生する。制御部35はジェスチャーセンサ27の検出値を読み取り、音出力基準領域Z内に対象物(図6では「手」)が存在する数値であると判断した場合(ある数値を閾値として、それを超えるあるいは下回る場合)、つまり図6のAで示す位置に存在するジェスチャーであると判断した場合には第一の音階(ここでは「レ」)の音をスピーカ装置20から出力させる。制御部35は所定のタイミング(本実施の形態では12ms毎)でジェスチャーセンサ27の検出値を読み取り、音出力基準領域Z内にあると判断する場合には途切れることなく「レ」の音の出力を継続させる。
一方、対象物が音出力基準領域Z内から移動方向判断領域Q方向に進入せずに音出力基準領域Zの外に離脱する場合にはジェスチャーの検出値に基づいて制御部35は音の出力を停止させる。つまり想定される場合として、例えば誤って対象物がジェスチャーセンサ27に近づいて一旦音出力基準領域Z内に進入したものの、反転して音出力基準領域Zの外に離脱してしまったような場合である。その場合には後述する「所定の処理」は選択されない。
(1) First movement of an object during a gesture (part 1)
This is a stage where the target object approaches the gesture sensor 27 from a distance and enters the sound output reference region Z. Basically, this process always occurs as sound output control. When the control unit 35 reads the detection value of the gesture sensor 27 and determines that the target object ("hand" in FIG. 6) exists in the sound output reference area Z (exceeds a certain numerical value as a threshold) If it is determined that the gesture is present at the position indicated by A in FIG. 6, the sound of the first scale (here “Le”) is output from the speaker device 20. The control unit 35 reads the detection value of the gesture sensor 27 at a predetermined timing (every 12 ms in the present embodiment), and when it is determined that the sound output is within the sound output reference area Z, the sound of “R” is output without interruption. To continue.
On the other hand, when the object leaves the sound output reference area Z without entering the movement direction determination area Q from the sound output reference area Z, the control unit 35 outputs the sound based on the detected value of the gesture. Stop. In other words, as an assumed case, for example, when an object accidentally approaches the gesture sensor 27 and once enters the sound output reference area Z, it reverses and leaves the sound output reference area Z. It is. In that case, “predetermined processing” described later is not selected.

(2)ジェスチャー中における対象物の第1の動き(その2)
ジェスチャーが更に進入してジェスチャーセンサ27の前面を通過している状態である。制御部35はジェスチャーセンサ27の検出値を読み取り、対象物が音出力基準領域Zを通過して移動方向判断領域Q内に存在する数値であると判断した場合(ある閾値を超えるあるいは下回る場合)、つまり図6のBで示す位置に存在するジェスチャーであると判断した場合には(1)とは異なる第二の音階(第二の音階は第一の音階よりも高いものとするとよく、ここでは「ファ♯」)の音をスピーカ装置20から出力させる。この判断タイミングで制御部35は「レ」の音を停止させる。このように音が連続的に変化したとユーザーが認識できる状態で音階を変えて出力する。
制御部35は所定のタイミング(本実施の形態では12ms毎)でジェスチャーセンサ27の検出値を読み取り、移動方向判断領域Q内にあると判断する場合には途切れることなく「ファ♯」の音の出力を継続させる。
ここで制御部35は、移動方向判断領域Q内にある対象物が「a.ジェスチャーセンサ27前面を横切って移動方向判断領域Qから離脱する場合」と「b.横切らずに移動方向判断領域Qから離脱する場合」で異なる音声制御を実行する。a.の場合には以下の(3)に移行する。一方、b.の場合、つまり想定される場合として、例えば誤って対象物がジェスチャーセンサ27に近づいてごく短い時間内に移動方向判断領域Qまで進入し反転して音出力基準領域Zを通ってその外に離脱していくような場合であって、この場合には上記(1)の判断が発生するので制御部35は「ファ♯」から「レ」の音に変更させることとなる。また、その場合には後述する「所定の処理」は選択されない。
(2) First movement of the object during the gesture (part 2)
In this state, the gesture further enters and passes the front surface of the gesture sensor 27. When the control unit 35 reads the detection value of the gesture sensor 27 and determines that the target is a numerical value that passes through the sound output reference region Z and exists in the movement direction determination region Q (when it exceeds or falls below a certain threshold). That is, if it is determined that the gesture is present at the position indicated by B in FIG. 6, a second scale different from (1) (the second scale may be higher than the first scale, Then, the sound “Fa #”) is output from the speaker device 20. At this determination timing, the control unit 35 stops the “le” sound. In this way, the sound is changed and output in a state where the user can recognize that the sound has changed continuously.
The control unit 35 reads the detection value of the gesture sensor 27 at a predetermined timing (every 12 ms in the present embodiment), and when it is determined that it is within the movement direction determination region Q, the sound of “Fah #” is output without interruption. Continue output.
Here, the control unit 35 determines that the object in the movement direction determination area Q is “a. When the object crosses the front surface of the gesture sensor 27 and leaves the movement direction determination area Q” and “b. Different voice control is executed in the case of “withdrawing from”. a. In the case of (3), the process proceeds to (3) below. On the other hand, b. In this case, that is, as an assumed case, for example, an object accidentally approaches the gesture sensor 27 and enters the moving direction determination area Q within a very short time, and then reverses and leaves the sound output reference area Z to the outside. In this case, since the determination of (1) above occurs, the control unit 35 changes the sound from “F #” to “L”. In this case, “predetermined processing” described later is not selected.

(3)ジェスチャー中における対象物の第1の動き(その3)
ジェスチャーセンサ27から徐々に離間しつつある状態である。制御部35はジェスチャーセンサ27の検出値を読み取り、上記a.の条件を満たしており、かつ音出力基準領域Z内に対象物が存在する数値であると判断した場合(ある数値を閾値として、それを超えるあるいは下回る場合)、つまり図6のCで示す位置に存在するジェスチャーであると判断した場合には(1)(2)とは異なる第三の音階((第三の音階は第二の音階よりも高いものとするとよく、ここでは「ラ」)の音をスピーカ装置20から出力させる。この判断タイミングで制御部35は「ファ♯」の音を停止させる。このように音が連続的に変化したとユーザーが認識できる状態で音階を変えて出力する。制御部35は所定のタイミング(本実施の形態では12ms毎)でジェスチャーセンサ27の検出値を読み取り、音出力基準領域Z内にあると判断する場合には途切れることなく「ラ」の音の出力を継続させる。
(3) First movement of the object during the gesture (part 3)
In this state, the gesture sensor 27 is gradually separated from the gesture sensor 27. The control unit 35 reads the detection value of the gesture sensor 27, and performs the a. 6 is satisfied, and it is determined that the object is present in the sound output reference area Z (when a certain numerical value is used as a threshold value, or exceeds or falls below), that is, the position indicated by C in FIG. (1) (3) is different from (1) and (2). ((The third scale may be higher than the second scale. Here, “La”) Is output from the speaker device 20. At this determination timing, the control unit 35 stops the sound of “Fa #.” In this way, the scale is changed and output in a state where the user can recognize that the sound has changed continuously. When the control unit 35 reads the detection value of the gesture sensor 27 at a predetermined timing (every 12 ms in the present embodiment) and determines that it is within the sound output reference area Z, the sound of “La” is not interrupted. of To continue the force.

(4)ジェスチャー中における対象物の第1の動き(その4)
ジェスチャーセンサ27の前面を通過した後に音出力基準領域Zの外に出た状態である。制御部35はジェスチャーセンサ27の検出値を読み取り、上記a.の条件を満たしており、かつ音出力基準領域Zから対象物が離脱した数値であると判断した場合(ある数値を閾値として、それを超えるあるいは下回る場合)、つまり図6のDで示す位置に存在するジェスチャーであると判断した場合には(1)(2)(3)とは異なる第四の音階の音をスピーカ装置20から出力させる。ここで、出力される「第四の音階の音」は対象物の移動方向によって異なる。この音は認識完了の音であり、認識中に変化する音の間の度数よりも、この認識完了の音とその前の認識中の音との度数が大きく設定されている。また音の長さも認識中に発する音の長さよりも短い音の長さとなることが望ましい。これは上記(2)における移動方向判断領域Qでの移動方向によって決定されている。本実施の形態では対象物の移動方向として「下方から上方」「上方から下方」「左方から右方」「右方から左方」の4つの移動方向が用意され、それぞれに対して音と後述する「所定の処理」が関連付けられている。すなわち、第一のジェスチャーは方向別に異なるジェスチャーとして認識する。制御部35は移動方向判断領域Q内での移動が「下方から上方」であると判断した場合には認識中に出力する音のうち最も音程が高い音(つまり本実施の形態では上記の第三の音階の「ラ」)よりも高音域にある音であって「ピッ」という短い音である認識確定音(例えば起動処理確定音)として「ソ」を出力させる。同様に移動が「上方から下方」であると判断した場合には「ド」を出力させる。同様に移動が「左方から右方」であると判断した場合には「レ」を出力させる。この「レ」は上記の第一の音階の「レ」よりも1オクターブ高いこととなる。同様に移動が「右方から左方」」であると判断した場合には「ミ」を出力させる。これらの音は後述する制御部35が実行する「対象物の移動方向によって異なる処理」に対応するものである。そして、図6のDから離間すると(図上右方に移動すると)、制御部35は検出するジェスチャーセンサ27の検出値に基づき(つまりある数値を閾値として、それを超えるあるいは下回る場合)音の出力を停止させる。
(5)ジェスチャー中における対象物の第1の動き(その4のバリーション)
ジェスチャーセンサ27の前面を通過した後に音出力基準領域Zの外に出て、その近傍で停止している状態である。制御部35は所定のタイミング(本実施の形態では12ms毎)でジェスチャーセンサ27の検出値を読み取り、対象物が音出力基準領域Zから離脱し、かつ音出力基準領域Z付近に留まっている数値であると判断し、かつ所定時間(例えば0.3秒)以上経過した場合、つまり図6のDで示す位置に長く存在しているジェスチャーであると判断した場合には、所定のタイミングで断続的に4つの移動方向に応じた音、つまり上記認識確定音と同じ「ソ」「ド」「レ」「ミ」のいずれかを出力させる。この断続音は後述する制御部35が実行する「所定の処理」におけるいわゆる「長押しモード」に対応するものである。そして、図6のDから離間すると(4)と同様に、制御部35は検出するジェスチャーセンサ27の検出値に基づき(つまりある数値を閾値として、それを超えるあるいは下回る場合)音の出力を停止させる。
(4) First movement of the object during gesture (part 4)
In this state, after passing through the front surface of the gesture sensor 27, the sound sensor is out of the sound output reference area Z. The control unit 35 reads the detection value of the gesture sensor 27, and performs the a. 6 is satisfied, and the object is determined to be a numerical value that has departed from the sound output reference region Z (when a certain numerical value is used as a threshold value that exceeds or falls below), that is, at a position indicated by D in FIG. If it is determined that the gesture is an existing gesture, the sound of the fourth scale different from (1), (2), and (3) is output from the speaker device 20. Here, the output “sound of the fourth scale” varies depending on the moving direction of the object. This sound is a recognition completion sound, and the frequency of the recognition completion sound and the previous recognition sound is set larger than the frequency between the sounds that change during the recognition. It is also desirable that the length of the sound be shorter than the length of the sound generated during recognition. This is determined by the moving direction in the moving direction determination area Q in (2) above. In the present embodiment, four moving directions of “moving from below”, “from above to below”, “from left to right”, and “from right to left” are prepared as the moving directions of the object. “Predetermined processing” to be described later is associated. That is, the first gesture is recognized as a different gesture for each direction. When the controller 35 determines that the movement in the movement direction determination area Q is “from the bottom to the top”, the sound having the highest pitch among the sounds output during the recognition (that is, in the present embodiment, the above-described first “So” is output as a recognition confirmation sound (for example, activation process confirmation sound) that is in a higher sound range than “La” of the third scale and is a short sound “pip”. Similarly, when it is determined that the movement is “from top to bottom”, “do” is output. Similarly, when it is determined that the movement is “from left to right”, “Le” is output. This “Le” is one octave higher than the “Le” in the first scale. Similarly, when it is determined that the movement is “from right to left”, “mi” is output. These sounds correspond to “a process that varies depending on the moving direction of the object” executed by the control unit 35 described later. Then, when separated from D in FIG. 6 (when moving to the right in the figure), the control unit 35 is based on the detected value of the gesture sensor 27 to be detected (that is, when a certain numerical value is used as a threshold value, or exceeds or falls below). Stop output.
(5) First movement of the object during gesture (part 4 variation)
After passing through the front surface of the gesture sensor 27, it is outside the sound output reference area Z and is stopped in the vicinity thereof. The control unit 35 reads the detection value of the gesture sensor 27 at a predetermined timing (every 12 ms in the present embodiment), and the numerical value at which the object leaves the sound output reference region Z and remains in the vicinity of the sound output reference region Z. And when a predetermined time (for example, 0.3 seconds) or more has elapsed, that is, when it is determined that the gesture is long at the position indicated by D in FIG. Specifically, the sound corresponding to the four moving directions, that is, any one of “So”, “Do”, “Le”, and “Mi” that is the same as the above-mentioned recognition definite sound is output. This intermittent sound corresponds to a so-called “long press mode” in “predetermined processing” executed by the control unit 35 described later. Then, when separated from D in FIG. 6, as in (4), the control unit 35 stops the sound output based on the detected value of the gesture sensor 27 to be detected (that is, when a certain numerical value is used as a threshold value and exceeds or falls below it). Let

上記の4つの移動方向に関して、対象物の移動方向が正確に水平あるいは垂直に移動するとは限らない。例えば斜め方向に対象物が移動した場合には水平あるいは垂直のどちらとも取れるケースが発生する。制御部35は得られた数値に基づいて水平成分と垂直成分を比較していずれか多い方を選択して移動が水平方向か垂直方向かを選択している。
尚、移動方向はこの音出力基準領域Zから対象物が離脱した段階(z_thの外に出ること)で確定する。つまり、上記(2)におけるa.の段階では所定の処理は選択されただけであって未だ確定している状態ではなく、それよりも後のタイミングでジェスチャーセンサ27の検出したある検出値に基づいて確定するものである。(3)の「ラ」の音の出力される位置での対象物の動きによっては所定の処理がキャンセルされたり変更される可能性がある。
Regarding the above four moving directions, the moving direction of the object does not always move accurately horizontally or vertically. For example, when an object moves in an oblique direction, a case where both horizontal and vertical can be taken occurs. The control unit 35 compares the horizontal component and the vertical component on the basis of the obtained numerical value, selects the greater one, and selects whether the movement is horizontal or vertical.
Note that the moving direction is determined when the object leaves the sound output reference area Z (goes out of z_th). In other words, a. In this stage, the predetermined process is not selected but is determined yet, and is determined based on a detection value detected by the gesture sensor 27 at a later timing. The predetermined processing may be canceled or changed depending on the movement of the object at the position where the sound of “3” is output in (3).

(6)ジェスチャー中における対象物の第2の動き
図7に示すように、制御部35はジェスチャーセンサ27の検出値を読み取り対象物が音出力基準領域Z(移動方向判断領域Qも含む)内に存在する数値であると判断し、かつ所定時間(例えば2秒)以上対象物が停止していると判断した場合には、上記のいずれの音とも異なる「カリッ」という音色の所定の音程の音を断続的にスピーカ装置20から出力させる。停止状態はジェスチャーセンサ27の検出値がまったく変動しないかある狭い数値範囲内でのみ変動することに基づいて判断される。
また、制御部35は所定のタイミング(本実施の形態では12ms毎)でジェスチャーセンサ27の検出値を読み取り、停止状態の対象物が動いた場合には音の出力を停止させる。停止状態の対象物が動いた後は対象物の位置に応じて上記(1)〜(4)の条件に従って音声出力制御がなされる。
尚、この停止に基づく音声出力処理の前提として対象物が音出力基準領域Z内に進入することで上記(1)や(2)の条件に該当するのであれば、併せて(1)や(2)に応じた音声出力も実行される。
(6) Second Movement of Object During Gesture As shown in FIG. 7, the control unit 35 reads the detection value of the gesture sensor 27 and the object is within the sound output reference area Z (including the movement direction determination area Q). If it is determined that the target is stopped for a predetermined time (for example, 2 seconds) or more, a predetermined tone with a tone of “Kari” that is different from any of the above sounds is used. Sound is output from the speaker device 20 intermittently. The stop state is determined on the basis that the detection value of the gesture sensor 27 does not change at all or changes only within a narrow numerical range.
Further, the control unit 35 reads the detection value of the gesture sensor 27 at a predetermined timing (every 12 ms in the present embodiment), and stops the output of sound when the stopped object moves. After the stopped object moves, sound output control is performed according to the above conditions (1) to (4) according to the position of the object.
As a premise of the audio output process based on this stop, if the target object enters the sound output reference area Z and satisfies the above conditions (1) and (2), (1) and ( Audio output according to 2) is also executed.

上記のジェスチャーにおいて特定のジェスチャーが行われると、音とともに所定の処理が選択され、更にそれが確定することになる。次に、制御部35が実行するそれら所定の処理について実際のジェスチャー及びジェスチャーに伴って出力される音と連動させて説明する。尚、初期設定においては音出力基準領域Zのz_thの距離は10cmに設定されている。また、非常に素早く対象物が移動方向判断領域Q内を横切った場合にはジェスチャーセンサ27の検出値の差分を取得することができずエラーとなってしまう。つまり移動方向が不定となって、結果として所定の処理が決定できないこととなる。そのため、以下では対象物が適度な速度で移動することで移動方向が判別され、それに伴って所定の処理が確定していることを前提とする。
A.音量の変更について
(下方から上方へ)
図8に示すように、レーダー探知装置10のフロントプレート12前面の例えば7cmの距離を維持して対象物としての手をレーダー探知装置10の下方位置からジェスチャーセンサ27の前面を通過させてレーダー探知装置10の上方へ抜けた位置まで一回スライドさせるジェスチャーをする。このとき、制御部35は対象物がジェスチャーセンサ27の前面で下方から上方へ一回のスライドをするジェスチャーがあったと判断して音量を現状から1段階アップさせる。そして、このジェスチャーに連動して制御部35は「レ」→「ファ♯」→「ラ」→「ソ」の順にスピーカ装置20から音を出力させる(上記の一連のジェスチャー中における対象物の第1の動きに相当)。
一方、図9に示すように、手をレーダー探知装置10の下方位置からジェスチャーセンサ27の前面を通過させた後に筐体13の上縁付近で停止させる。この位置は音出力基準領域Zに近接した音出力基準領域Zの外側位置に当たる。図8では対象物は大きく音出力基準領域Zから離間してしまうが、図9では設定した音出力基準領域Zの外側ではあるが検出値としては音出力基準領域Z内に対象物が存在する場合との差はごく小さい。
制御部35は所定の停止時間(例えば0.3秒)以上のこの位置での停止状態を検出するといわゆる「長押し」モードと判断して制御部35は連続的に音量を現状からアップさせるように制御する。このとき、このジェスチャー(上記の「その4のバリーション」に相当)に連動して制御部35は「レ」→「ファ♯」→「ラ」→「ソ」の断続音、の順にスピーカ装置20から音を出力させる。制御部35は対象物が停止状態が解除された状態あるいは音量が最大になった状態(これ以上の変更が不能な状態)をもって処理を終了し、断続音も停止させる。
When a specific gesture is performed in the above gesture, a predetermined process is selected together with the sound, and it is further confirmed. Next, the predetermined processes executed by the control unit 35 will be described in conjunction with actual gestures and sounds output with the gestures. In the initial setting, the distance z_th of the sound output reference area Z is set to 10 cm. Further, if the object crosses the moving direction determination area Q very quickly, the difference between the detection values of the gesture sensor 27 cannot be acquired, resulting in an error. That is, the moving direction becomes indefinite, and as a result, a predetermined process cannot be determined. Therefore, in the following, it is assumed that the moving direction is determined by moving the object at an appropriate speed, and that predetermined processing is confirmed accordingly.
A. Volume change (from bottom to top)
As shown in FIG. 8, radar detection is performed by maintaining a distance of, for example, 7 cm on the front surface of the front plate 12 of the radar detection device 10 and passing a hand as an object from the lower position of the radar detection device 10 to the front surface of the gesture sensor 27. A gesture is made to slide once to the position where the device 10 is pulled out. At this time, the control unit 35 determines that there is a gesture in which the object slides once from the lower side to the upper side on the front surface of the gesture sensor 27 and increases the volume by one level from the current state. In conjunction with this gesture, the control unit 35 outputs sounds from the speaker device 20 in the order of “Le” → “Fa #” → “La” → “So” (the first of the objects in the above series of gestures). Equivalent to 1 movement).
On the other hand, as shown in FIG. 9, the hand is stopped near the upper edge of the housing 13 after passing the front of the gesture sensor 27 from the lower position of the radar detection device 10. This position corresponds to a position outside the sound output reference area Z close to the sound output reference area Z. In FIG. 8, the object is largely separated from the sound output reference area Z, but in FIG. 9, the object exists in the sound output reference area Z as a detection value outside the set sound output reference area Z. The difference from the case is very small.
When the control unit 35 detects a stop state at this position for a predetermined stop time (for example, 0.3 seconds) or more, it is determined as a so-called “long press” mode, and the control unit 35 continuously increases the sound volume from the current state. To control. At this time, in conjunction with this gesture (corresponding to the above “part 4 variation”), the control unit 35 performs the speaker device in the order of “Le” → “Fa #” → “La” → “So” intermittent sound. Sound is output from 20. The control unit 35 terminates the process when the object is released from the stop state or when the volume is maximized (a state in which no further change is possible), and stops the intermittent sound.

(上方から下方へ)
逆に、図10に示すように、手をレーダー探知装置10の上方位置からジェスチャーセンサ27の前面を通過させてレーダー探知装置10の下方へ抜けた位置まで一回スライドさせるジェスチャーをする。このとき、制御部35は対象物がジェスチャーセンサ27の前面で上方から下方へ一回のスライドをするジェスチャーがあったと判断して音量を現状から1段階ダウンさせる。このとき、このジェスチャーに連動して制御部35は「レ」→「ファ♯」→「ラ」→「ド」の順にスピーカ装置20から音を出力させる(上記の一連のジェスチャー中における対象物の第1の動きに相当)。
一方、図11に示すように、手をレーダー探知装置10の上位置からジェスチャーセンサ27の前面を通過させた後に筐体13の下縁付近で停止させる。この位置は音出力基準領域Zに隣接した音出力基準領域Zの外側位置に当たる。制御部35は所定の停止時間(例えば0.3秒)以上のこの位置での停止状態を検出するといわゆる「長押し」モードと判断して連続的に音量を現状からダウンさせるように制御する。このとき、このジェスチャー(上記の「その4のバリーション」に相当)に連動して制御部35は「レ」→「ファ♯」→「ラ」→「ド」の断続音、の順にスピーカ装置20から音を出力させる。制御部35は対象物が停止状態が解除された状態あるいは音量が最大になった状態(これ以上の変更が不能な状態)をもって処理を終了し、断続音も停止させる。
(From top to bottom)
On the contrary, as shown in FIG. 10, a gesture is performed in which the hand is slid once from the upper position of the radar detection device 10 to the position where the hand passes through the front surface of the gesture sensor 27 and falls below the radar detection device 10. At this time, the control unit 35 determines that there is a gesture in which the object slides once from the upper side to the lower side on the front surface of the gesture sensor 27, and lowers the volume by one level from the current state. At this time, in conjunction with this gesture, the control unit 35 outputs sounds from the speaker device 20 in the order of “Le” → “Fa #” → “La” → “Do” (the object of the series of gestures described above). Equivalent to the first movement).
On the other hand, as shown in FIG. 11, the hand is passed through the front surface of the gesture sensor 27 from the upper position of the radar detection device 10 and then stopped near the lower edge of the housing 13. This position corresponds to a position outside the sound output reference area Z adjacent to the sound output reference area Z. When detecting a stop state at this position for a predetermined stop time (for example, 0.3 seconds) or longer, the control unit 35 determines that the mode is a so-called “long press” mode, and performs control so that the sound volume is continuously reduced from the current state. At this time, in conjunction with this gesture (corresponding to the above “fourth variation”), the control unit 35 performs the speaker device in the order of “Re” → “Fa #” → “La” → “Do”. Sound is output from 20. The control unit 35 terminates the process when the object is released from the stop state or when the volume is maximized (a state in which no further change is possible), and stops the intermittent sound.

B.待ち受け画面の変更について
(左方から右方へ)
図12に示すように、レーダー探知装置10のフロントプレート12前面の例えば7cmの距離を維持して対象物としての手をレーダー探知装置10の左方位置からジェスチャーセンサ27の前面を通過させてレーダー探知装置10の右方へ抜けた位置まで一回スライドさせるジェスチャーをする。このとき、制御部35は対象物がジェスチャーセンサ27の前面で左方から右方へ一回のスライドをするジェスチャーがあったと判断して表示画面に表示させている現状の待ち受け画面を右方向に退場させて隠れていた隣接した位置にある次の待ち受け画面を表示パネル18の表示画面に表示させるようにスライド移動させる画面表示をさせる。このとき、このジェスチャーに連動して制御部35は「レ」→「ファ♯」→「ラ」→1オクターブ上の「レ」の順にスピーカ装置20から音を出力させる(上記の一連のジェスチャー中における対象物の第1の動きに相当)。
本実施の形態の待ち受け画面はカレンダー→時計→速度→エコドライブモード→測位情報→全待ち受け画面のローテーション→表示オフ→レーダースコープ→ドライブモード・・・というようにループ化されており現状から8回の移動で当初の待ち受け画面モードに戻ることとなっている。
一方、図13に示すように、手をレーダー探知装置10の左方位置からジェスチャーセンサ27の前面を通過させた後に筐体13の右縁付近で停止させる。この位置は音出力基準領域Zに隣接した音出力基準領域Zの外側位置に当たる。制御部35は所定の停止時間(例えば0.3秒)以上のこの位置での停止状態を検出するといわゆる「長押し」モードと判断してループ化された待ち受け画面を次々と表示画面に変更表示させる。
このとき、このジェスチャー(上記の「その4のバリーション」に相当)に連動して制御部35は「レ」→「ファ♯」→「ラ」→「レ」の断続音、の順にスピーカ装置20から音を出力させる。制御部35は対象物が停止状態が解除された状態をもって処理を終了し、断続音も停止させる。
B. Changing the standby screen (from left to right)
As shown in FIG. 12, a distance of, for example, 7 cm is maintained on the front surface of the front plate 12 of the radar detection device 10, and a hand as an object is passed from the left position of the radar detection device 10 to the front surface of the gesture sensor 27. A gesture is made to slide once to the position where the detection device 10 is pulled to the right. At this time, the control unit 35 determines that there has been a gesture in which the object slides once from the left to the right in front of the gesture sensor 27 and displays the current standby screen displayed on the display screen in the right direction. The screen is displayed so as to be slid so as to display the next standby screen in the adjacent position that has been left behind and displayed, on the display screen of the display panel 18. At this time, in conjunction with this gesture, the control unit 35 outputs sounds from the speaker device 20 in the order of “Le” → “Fa #” → “La” → “Le” one octave (in the series of gestures described above). Corresponding to the first movement of the object in FIG.
The standby screen of the present embodiment is looped as calendar → clock → speed → eco-drive mode → positioning information → rotation of all standby screens → display off → radar scope → drive mode. Will return to the initial standby screen mode.
On the other hand, as shown in FIG. 13, the hand is passed through the front surface of the gesture sensor 27 from the left position of the radar detector 10 and then stopped near the right edge of the housing 13. This position corresponds to a position outside the sound output reference area Z adjacent to the sound output reference area Z. When the control unit 35 detects a stop state at this position for a predetermined stop time (for example, 0.3 seconds) or more, the control unit 35 determines a so-called “long press” mode and sequentially changes the looped standby screen to a display screen. Let
At this time, in conjunction with this gesture (corresponding to the above “part 4 variation”), the control unit 35 performs the speaker device in the order of “Le” → “Fa #” → “La” → “Re” intermittent sound. Sound is output from 20. The control unit 35 ends the process with the object being released from the stop state, and also stops the intermittent sound.

(右方から左方へ)
逆に、図14に示すように、手をレーダー探知装置10の右方位置からレーダー探知装置10の左方へ抜けた位置まで一回のスライドさせるジェスチャーをする。このとき、制御部35は対象物がジェスチャーセンサ27の前面で左方から右方へ一回のスライドをするジェスチャーがあったと判断して表示画面に表示させている現状の待ち受け画面を左方向に退場させて隠れていた隣接した位置にある次の待ち受け画面を表示パネル18の表示画面に表示させるようにスライド移動させる画面表示をさせる。このとき、このジェスチャーに連動して制御部35は「レ」→「ファ♯」→「ラ」→「ミ」の順にスピーカ装置20から音を出力させる(上記の一連のジェスチャー中における対象物の第1の動きに相当)。
一方、図15に示すように、手をレーダー探知装置10の右方位置からジェスチャーセンサ27の前面を通過させた後に表示パネル18に左方付近で停止させる。この位置は音出力基準領域Zに隣接した音出力基準領域Zの外側位置に当たる。これによっていわゆる「長押し」モードと判断して制御部35はループ化された待ち受け画面を次々と表示画面に変更表示させる。
このとき、このジェスチャー(上記の「その4のバリーション」に相当)に連動して制御部35は「レ」→「ファ♯」→「ラ」→「ミ」の断続音、の順にスピーカ装置20から音を出力させる。制御部35は対象物が停止状態が解除された状態をもって処理を終了し、断続音も停止させる。
(From right to left)
On the contrary, as shown in FIG. 14, a gesture is performed to slide the hand once from the right position of the radar detection device 10 to the position where the hand has left to the left of the radar detection device 10. At this time, the control unit 35 determines that there has been a gesture in which the object slides once from the left to the right on the front surface of the gesture sensor 27 and displays the current standby screen displayed on the display screen in the left direction. The screen is displayed so as to be slid so as to display the next standby screen in the adjacent position that has been left behind and displayed, on the display screen of the display panel 18. At this time, in conjunction with this gesture, the control unit 35 outputs sounds from the speaker device 20 in the order of “Le” → “Fa #” → “La” → “Mi” (the target object in the above series of gestures). Equivalent to the first movement).
On the other hand, as shown in FIG. 15, the hand is passed through the front surface of the gesture sensor 27 from the right position of the radar detector 10 and then stopped on the display panel 18 near the left side. This position corresponds to a position outside the sound output reference area Z adjacent to the sound output reference area Z. As a result, the control unit 35 determines the so-called “long press” mode, and sequentially changes and displays the looped standby screen on the display screen.
At this time, in conjunction with this gesture (corresponding to the above “part 4 variation”), the control unit 35 performs the speaker device in the order of “Re” → “Fa #” → “La” → “Mi” intermittent sound. Sound is output from 20. The control unit 35 ends the process with the object being released from the stop state, and also stops the intermittent sound.

C.設定画面への移行について
図16に示すように、レーダー探知装置10のフロントプレート12前面でかつジェスチャーセンサ27に正対した位置で例えば9cmの距離を維持して停止させるジェスチャーをする。このとき、制御部35は対象物がジェスチャーセンサ27の前面で所定時間(例えば2秒)以上停止するジェスチャーがあったと判断して初期設定で表示パネル18の表示画面に待ち受け画面が表示されている状態から設定画面に移行させる。
本実施の形態の設定画面は移行初期画面となるity.MAPからスタートして→モード(及びそのサブメニュー)→明るさ(及びそのサブメニュー)→フレックスディマー(及びそのサブメニュー)→レーダー警報音(及びそのサブメニュー)→センサー確認音(及びそのサブメニュー)→センサー反応範囲(及びそのサブメニュー)→設定初期(及びそのサブメニュー)→バージョン表示→デモモード(及びそのサブメニュー)→待ち受け画面→ity.MAPというようにループ化されており、上記の「B.待ち受け画面の変更について」と同様の操作で左方から右方へ、あるいは右方から左方へと次々と表示パネル18の表示画面に表示させる設定メニューを変更することができる。また、サブメニューでは上記の「A.音量の変更について」と同様の操作で下方から上方へ、あるいは上方から下方へと次々と表示パネル18の表示画面に表示させる設定メニューを変更することができる。ここで、設定画面のループ内に待ち受け画面が含まれているため、この設定画面への移行モードにおいて待ち受け画面に復帰させたいと考えた場合に一旦電源をオフとしなくとも設定画面内でジェスチャーをすることで実行することが可能となっている。待ち受け画面に復帰した後は、上記「B.待ち受け画面の変更について」のジェスチャーが可能となる。
制御部35は所定の停止時間(例えば2秒)以上この位置での停止状態を検出すると上記(6)ジェスチャー中における対象物の第2の動きの記載のように「カリッ」という音を断続的にスピーカ装置20から出力させる(上記のジェスチャー中における対象物の第2の動きに相当)。設定画面を変更する場合のジェスチャーでは上記(1)〜(4)の一連のジェスチャー中における対象物の第1の動きの記載に従った音が出力される。
C. Transition to the setting screen As shown in FIG. 16, a gesture is performed to maintain a distance of, for example, 9 cm at a position facing the gesture sensor 27 in front of the front plate 12 of the radar detector 10. At this time, the control unit 35 determines that there has been a gesture in which the object has stopped for a predetermined time (for example, 2 seconds) or more on the front surface of the gesture sensor 27, and the standby screen is displayed on the display screen of the display panel 18 by default. Transition from the state to the setting screen.
The setting screen of the present embodiment is a transition initial screen, ity. Start from MAP → Mode (and its submenu) → Brightness (and its submenu) → Flex dimmer (and its submenu) → Radar warning sound (and its submenu) → Sensor confirmation sound (and its submenu) ) → Sensor response range (and its submenu) → Initial setting (and its submenu) → Version display → Demo mode (and its submenu) → Standby screen → ity. It is looped like MAP, and it is displayed on the display screen of the display panel 18 one after another from the left to the right or from the right to the left by the same operation as “B. Changing the standby screen”. The setting menu to be displayed can be changed. In the submenu, the setting menu displayed on the display screen of the display panel 18 can be changed one after another from the bottom to the top or from the top to the bottom by the same operation as “A. . Here, since the standby screen is included in the loop of the setting screen, if you want to return to the standby screen in the transition mode to this setting screen, you can make a gesture in the setting screen without turning off the power once. By doing so, it is possible to execute. After returning to the standby screen, the gesture “B. Change of standby screen” can be performed.
When the control unit 35 detects a stop state at this position for a predetermined stop time (for example, 2 seconds) or longer, the control unit 35 intermittently generates a “crisp” sound as described in the second motion of the object in the gesture (6). Are output from the speaker device 20 (corresponding to the second movement of the object during the gesture). In the gesture for changing the setting screen, a sound according to the description of the first movement of the object in the series of gestures (1) to (4) is output.

次に、音出力基準領域Z内にジェスチャーの判断の支障となる何らかの遮蔽物が存在している場合の処理について説明する。
例えば、レーダー探知装置10を車両内で使用している場合を想定する。その場合に日の光がまぶしくてサンバイザーを使用する場合がある。するとレーダー探知装置10の取り付け位置によってはサンバイザーが遮蔽物となって音出力基準領域Z内に進入してしまう可能性がある。以下はこのような遮蔽物があった場合でもユーザーがジェスチャーを支障なく行うための処理であって、遮蔽物からの光量に基づく検出値をオフセット(減算)した上で通常のジェスチャーを認識するというものである。
Next, a process in the case where there is some shielding object that interferes with the determination of the gesture in the sound output reference area Z will be described.
For example, it is assumed that the radar detection device 10 is used in a vehicle. In that case, there is a case where a sun visor is used because of sunlight. Then, depending on the mounting position of the radar detector 10, the sun visor may become a shield and enter the sound output reference area Z. The following is a process for a user to perform a gesture without any trouble even if such an obstruction is present, and a normal gesture is recognized after offsetting (subtracting) a detection value based on the amount of light from the obstruction. Is.

(初期状態での遮蔽物の有無の判断)
まず、遮蔽物がない初期状態で制御部35は次の3つの状態を判断する。
a.音出力基準領域Z内に何らかの遮蔽物(ここは対象物も区別せずに判断する、以下同様)が進入し、所定の処理が決定されることもなく所定時間(120ms)の停止があったと判断した場合
b.音出力基準領域Z内に何らかの遮蔽物が進入し、上記の「(6)ジェスチャー中における対象物の第2の動き」のジェスチャーが5秒以上あったと判断した場合
c.音出力基準領域Z内に何らかの遮蔽物が進入し、上記の「(5)ジェスチャー中における対象物の第1の動き(その4のバリーション)」のジェスチャーが8秒以上あったと判断した場合
(Determination of the presence or absence of shielding in the initial state)
First, the control unit 35 determines the following three states in the initial state where there is no shielding object.
a. A certain obstruction (which is determined without distinguishing an object, the same applies hereinafter) enters the sound output reference area Z, and a predetermined time (120 ms) has been stopped without determining a predetermined process. When judged b. When it is determined that some kind of shielding object enters the sound output reference area Z and the gesture of “(6) Second movement of object during gesture” has been performed for 5 seconds or longer c. When it is determined that some kind of shielding object enters the sound output reference area Z and the gesture of “(5) first movement of the object in the gesture (part 4 variation)” has occurred for 8 seconds or longer.

ここで、a.は進入した遮蔽物によってなんら処理モードに移行することなかった場合を想定したものである。120msとしたのは制御部35が120ms毎にオフセットの計算をするため、その間隔に対応させたものである。この場合には制御部35は遮蔽物によって変化したジェスチャーセンサ27の検出値をオフセットする計算をし、オフセット後のジェスチャーセンサ27の状態を検出の基準とする。
また、b.及びc.はそれぞれなんらかの処理モードに移行して表示画面や音量が変化してしまった状態であり、長時間を設定することで通常のジェスチャーと異なる停止ジェスチャーとしたものである。これらの場合では、遮蔽物によって意図しない処理が実行されてしまっているので、制御部35は強制的にデフォルトで設定されている待ち受け画面に移行させるようにする。また、同様に音声も強制的にデフォルトで設定されている音量にすることで意図しない入力により開始してしまった可能性のある処理をキャンセルする。そして、その後にa.と同様に制御部35は遮蔽物によって変化したジェスチャーセンサ27の検出値をオフセットする計算をし、オフセット後のジェスチャーセンサ27の状態を検出の基準とする。
以上を模式的に説明すると図17(a)の如くである。
Where: a. Is a case where no transition is made to the processing mode due to the entering obstacle. The reason why 120 ms is set is that the control unit 35 calculates the offset every 120 ms, so that it corresponds to the interval. In this case, the control unit 35 performs a calculation for offsetting the detection value of the gesture sensor 27 changed by the shielding object, and uses the state of the gesture sensor 27 after the offset as a reference for detection.
B. And c. Each is a state in which the display screen and the volume have changed due to transition to some processing mode, and a stop gesture different from a normal gesture is set by setting a long time. In these cases, since an unintended process has been executed by the shielding object, the control unit 35 is forced to shift to a standby screen set as a default. Similarly, by canceling a process that may have been started due to an unintended input by forcing the sound to a sound volume set as a default. And then a. Similarly to the above, the control unit 35 performs a calculation for offsetting the detection value of the gesture sensor 27 changed by the shielding object, and uses the state of the gesture sensor 27 after the offset as a reference for detection.
The above is schematically described as shown in FIG.

(オフセット計算中の遮蔽物の有無の判断)
上記のようにオフセットする計算を開始して遮蔽物の光量をキャンセルした状態で通常のジェスチャー認識を実行する。制御部35はジェスチャー認識中は所定のタイミング(120ms)で常にオフセットの計算をして最新のジェスチャーセンサ27の状態を検出の基準とするようにしている。
ここで、一旦音出力基準領域Z内に留まった遮蔽物が移動する場合がある。例えば、サンバイザーが揺れたり日差しの向きによって位置を変えたり、あるいは音出力基準領域Zから離脱させて元の位置に復帰させるようなことを念頭においている。遮蔽物が移動する場合として制御部35は次の3つの状態を判断する。
d.遮蔽物が移動したが、所定の処理が決定されることがなかった場合
e.遮蔽物が移動して上記の「(6)ジェスチャー中における対象物の第2の動き」のジェスチャーが5秒以上あったと判断した場合
f.遮蔽物が移動して上記の「(5)ジェスチャー中における対象物の第1の動き(その4のバリーション)」のジェスチャーが8秒以上あったと判断した場合
d.は例えば、音出力基準領域Z内の遮蔽物が振動でわずかに揺れ動く場合を想定している。この場合には特にレーダー探知装置10の現状の処理の変化はないため、上記のように制御部35は所定のタイミングでジェスチャーセンサ27の検出値をオフセットする計算をする。
e.及びf.はそれぞれジェスチャーと認識されてなんらかの処理モードに移行して表示画面や音量が変化してしまった状態である。この場合には制御部35は上記b.及びc.と同様に強制的に待ち受け画面に移行させるとともに、音声も強制的にデフォルトで設定されている音量にし、その後に上記のように所定のタイミングでジェスチャーセンサ27の検出値をオフセットする計算をする。
制御部35が実行する処理は上記b.及びc.と同様であるが、その目的は異なる。b.及びc.では初期状態で外から遮蔽物が音出力基準領域Z内に進入してくる場合の対応でありまだオフセットの計算がない状態での対応であり、e.及びf.は遮蔽物が音出力基準領域Z内に進入して遮蔽物をオフセットする計算をしている最中(オフセット計算開始後)の対応になる。
以上を模式的に説明すると図17(b)の如くである。
(Judgment of presence or absence of shielding during offset calculation)
Normal gesture recognition is executed in a state where the calculation for offsetting is started and the light quantity of the shielding object is canceled as described above. The controller 35 always calculates an offset at a predetermined timing (120 ms) during gesture recognition, and uses the latest state of the gesture sensor 27 as a reference for detection.
Here, there is a case where the shielding object once stayed in the sound output reference area Z moves. For example, the sun visor shakes or changes its position depending on the direction of sunlight, or it is considered that the sun visor is separated from the sound output reference area Z and returned to the original position. As a case where the shielding object moves, the control unit 35 determines the following three states.
d. When the shield has moved, but the predetermined process has not been determined e. When it is determined that the gesture “(6) Second movement of the object during the gesture” has been performed for 5 seconds or longer by moving the shielding object f. When it is determined that the above-mentioned “(5) first movement of the object during gesture (part 4 variation)” gesture has been performed for 8 seconds or longer by moving the shielding object d. For example, it is assumed that the shield in the sound output reference area Z slightly swings due to vibration. In this case, since there is no change in the current processing of the radar detection device 10, the control unit 35 calculates to offset the detection value of the gesture sensor 27 at a predetermined timing as described above.
e. And f. Is a state in which the display screen and the volume have been changed after being recognized as a gesture and entering a certain processing mode. In this case, the control unit 35 sends the above b. And c. In the same manner as described above, the screen is forcibly shifted to the standby screen, the sound is forcibly set to the default volume, and thereafter the calculation value for offsetting the detection value of the gesture sensor 27 is performed at a predetermined timing as described above.
The processing executed by the control unit 35 is the above b. And c. But with a different purpose. b. And c. In the initial state, this corresponds to the case where the shielding object enters the sound output reference area Z from the outside, and corresponds to the state where the offset has not yet been calculated, e. And f. Corresponds to the time when the shielding object enters the sound output reference area Z and is calculating to offset the shielding object (after the offset calculation starts).
The above is schematically described as shown in FIG.

(遮蔽物がジェスチャーセンサ近傍にある場合)
遮蔽物がジェスチャーセンサ27に非常に接近して配置された場合には、空間に隙間が少ないため通常のジェスチャーはできなくなる。つまりジェスチャーセンサ27での検出が物理的に不可能になる。そのため、このような状態を想定して遮蔽物がジェスチャーセンサ27に非常に接近して配置された場合にジェスチャー認識をさせないような処理を行う。具体的には、制御部35はジェスチャー認識中は所定のタイミング(120ms)で常にジェスチャーセンサ27から所定の距離(例えば3cm)以内に遮蔽物があり、かつそれが所定の時間(例えば5秒)以上停止しているかどうかを判断する。そして、所定の距離以内に遮蔽物があり、かつそれが所定の時間以上停止していると判断した場合には制御部35は計算においてジェスチャーセンサ27の検出値をキャンセルする。つまり、ジェスチャーセンサ27によるジェスチャー認識はされるものの、あたかも何も検出しない状態と同様になって外見上はジェスチャーセンサ27が作動していない状態とされる(実際にジェスチャーセンサ27の検出自体を停止させてもよい)。
一方、ジェスチャーセンサ27が所定の距離以上に移動したと制御部35が判断するとジェスチャーセンサ27の検出値を用いた計算を再開する。
(When the shield is near the gesture sensor)
When the shielding object is arranged very close to the gesture sensor 27, a normal gesture cannot be performed because there are few gaps in the space. That is, detection by the gesture sensor 27 is physically impossible. Therefore, assuming such a state, processing is performed so as not to perform gesture recognition when the shielding object is arranged very close to the gesture sensor 27. Specifically, during the gesture recognition, the control unit 35 always has a shielding object within a predetermined distance (for example, 3 cm) from the gesture sensor 27 at a predetermined timing (120 ms), and this is a predetermined time (for example, 5 seconds). It is determined whether or not it has stopped. Then, when it is determined that there is an obstacle within a predetermined distance and that it has stopped for a predetermined time, the control unit 35 cancels the detection value of the gesture sensor 27 in the calculation. That is, although gesture recognition by the gesture sensor 27 is performed, the gesture sensor 27 is not in operation in the same manner as if nothing is detected (actually the detection of the gesture sensor 27 is actually stopped). May be allowed).
On the other hand, when the control unit 35 determines that the gesture sensor 27 has moved beyond a predetermined distance, the calculation using the detection value of the gesture sensor 27 is resumed.

次にユーザーが設定画面で設定した「センサー反応範囲」を一時的にデフォルト状態(ここでは10cmの範囲)に戻す場合の処理について説明する。この処理は次のようなケースを想定している。
センサー反応範囲がデフォルト状態であると範囲が広めに設定されているため何かの拍子にセンサー反応範囲(出力基準領域Z)に手が入って何らかの処理が実行されてしまう可能性がある。そのためユーザーの設定でセンサー反応範囲を、例えば普通(6cm)や狭い(4cm)に設定できることがよい。しかし、そのような場合でも状況に応じてすばやく操作するために範囲の広いデフォルト状態に戻すことがよいからである。ここでは、その一例として、レーダー探知装置10からなんらかの警報が発せられている際にその報知をミュートさせる操作をしやすくするために「センサー反応範囲」を一時的に広くするための制御部35による処理を図18のルーチンに基づいて説明する。制御部35は所定のタイミングで繰り返しこのルーチンを実行する。
まず、ステップS10において制御部35は警報が報知されているかどうかを判断し、警報が報知されていると判断すると、ステップS11で現状のセンサー反応範囲が10cmに設定されているかどうかを判断する。ここで、センサー反応範囲が10cmに設定されていると判断すると処理は一旦終了する。つまり、特にセンサー反応範囲を変更する必要はないということである。
Next, a process when the “sensor reaction range” set by the user on the setting screen is temporarily returned to the default state (here, the range of 10 cm) will be described. This process assumes the following case.
If the sensor response range is in the default state, the range is set to be wider, so that there is a possibility that some processing will be executed by entering the sensor response range (output reference region Z) at some time. Therefore, it is preferable that the sensor reaction range can be set to, for example, normal (6 cm) or narrow (4 cm) by user setting. However, even in such a case, it is preferable to return to the default state with a wide range in order to operate quickly according to the situation. Here, as an example, the control unit 35 for temporarily widening the “sensor reaction range” in order to facilitate the operation of muting the notification when any warning is issued from the radar detector 10. The process will be described based on the routine of FIG. The control unit 35 repeatedly executes this routine at a predetermined timing.
First, in step S10, the control unit 35 determines whether or not an alarm is informed, and if it is determined that the alarm is informed, it determines in step S11 whether or not the current sensor reaction range is set to 10 cm. Here, if it is determined that the sensor reaction range is set to 10 cm, the process is temporarily terminated. That is, it is not necessary to change the sensor response range.

一方、ステップS11で現状のセンサー反応範囲が10cmではない(つまり6cm又は4cmである)と判断した場合にはステップS12でセンサー反応範囲が10cmとなるように制御し、ステップS13でフラグに「1」を立てて処理を一旦終了する。これで一時的にセンサー反応範囲が10cmに変更されることとなる。
これに対して、ステップS10で警報が報知されていないと判断した場合にはステップS14でフラグが「1」かどうかを判断する。ここで、フラグが「1」の場合には直前のルーチンでセンサー反応範囲が一旦10cmに変更されているということであるため、その直前のセンサー反応範囲である6cm又は4cmに戻し、フラグを「0」とする。一方、ステップS14でフラグが「1」ではない場合には、直前のセンサー反応範囲の変更はなかったということでそのまま処理を終了させる。
このような制御であれば、警報が報知されている際には一時的にユーザが操作しやすい10cmの距離のセンサー反応範囲に変更され、ユーザーがジェスチャー操作で音量を抑制しやすくなる。一方、警報が報知完了すると元のセンサー反応範囲に復帰するのでユーザは再度設定する手間が省ける。
On the other hand, if it is determined in step S11 that the current sensor reaction range is not 10 cm (that is, 6 cm or 4 cm), control is performed so that the sensor reaction range is 10 cm in step S12, and the flag is set to “1” in step S13. ”To end the process once. This temporarily changes the sensor reaction range to 10 cm.
On the other hand, if it is determined in step S10 that an alarm has not been notified, it is determined in step S14 whether the flag is “1”. Here, when the flag is “1”, it means that the sensor reaction range has been temporarily changed to 10 cm in the previous routine, so the sensor response range immediately before that is returned to 6 cm or 4 cm. 0 ”. On the other hand, if the flag is not “1” in step S14, the process is terminated as it is because the previous sensor reaction range has not been changed.
With such a control, when an alarm is informed, the sensor reaction range of a distance of 10 cm that is easily operated by the user is temporarily changed, and the user can easily suppress the volume by a gesture operation. On the other hand, when the alarm is completed, the original sensor reaction range is restored, so that the user can save the trouble of setting again.

上記のように構成することにより本実施の形態のレーダー探知装置10では次のような効果が奏される。
(1)レーダー探知装置10では従来のように実際に触って操作するための例えば静電スイッチで構成された入力部やタッチパネル等が不要となり、4方向動作+接近停止動作で操作ができるため非常なコストダウンとなり、それら入力部等の構成部材が不要になることから重量も軽減できることとなって、特に振動の多い車両内にレーダー探知装置10を設置する際に好適である。
(2)レーダー探知装置について様々な機能が多く付随したいわゆる高級機では細かな設定が必要となるため、どうしてもリモコンやタッチパネルのような入力部が必要となる。しかし、特に設定項目の少ない傾向となるローエンド機ではジェスチャーでの入力であってもシンプルな操作となるため取りこぼしがなく、そのためローエンド機において最適である。高級機ではジェスチャーセンサ27を搭載する必要はなく、ジェスチャー機能を設けてもあくまで補助的な入力となるにすぎないため、コストアップとなってしまう。つまり、ユーザからの機器への操作入力手段としてジェスチャー検出手段以外の手段を備えることのない例えばレーダー探知装置のような機器を提供することが可能となる。
(3)レーダー探知装置10はルームミラーを兼用しているが、このようにジェスチャーによって入力できることで従来のようなミラー部の側方のスイッチエリアが必要でなくなり全面ミラーとなって、従来よりも相対的にミラー領域が増えることとなりユーザーにとってルームミラーとしての機能が向上することとなる。また、ユーザがミラー面に触らなくとも操作できるため指紋等で汚れにくくなる。
(4)ユーザーは所定のジェスチャーを実行するだけで、レーダー探知装置10を所望の処理モードに移行させることができるため実際に触って入力するための入力部等を目視して探す必要がないため操作上有利である。また、運転中であれば入力部等を探す必要がないため運転に専念できることとなる。
(5)例えば触って操作するための入力部やタッチパネル等のように接触することがなくなるため、筐体13が汚れにくくなり、また、接触による劣化も防止することができる。
(6)ユーザーはジェスチャーを何度か繰り返すことで同じ音を発するジェスチャーパターンを覚えることができ、そのジェスチャーを実行することで所望の処理を選択することが簡単にできるようになる。その際に音の種類や複数の音の出力されるタイミングに基づいて正確にジェスチャーパターンを覚えることができることとなる。
(7)一連のジェスチャーに所定の処理を実行するためのジェスチャーが含まれている場合には所定の処理に応じた音が出力され、その音との関係でユーザーは所定の処理の内容を理解することができる。
(8)音出力基準領域Z内にジェスチャーの判断の支障となる例えばサンバイザーのような遮蔽物が存在していても、この影響をキャンセルするような処理を実行するため、操作するための入力部等、実際になんらかの確実な入力手段がなくとも間違いなく入力が可能となっている。
(9)ユーザーの設定でセンサー反応範囲を、例えば普通(6cm)や狭い(4cm)に設定した場合であっても、警報が報知されている際には一時的にユーザが操作しやすい10cmの距離のセンサー反応範囲に変更されるため、ユーザーがジェスチャー操作で音量を抑制しやすくなる。一方、警報が報知完了すると元のセンサー反応範囲に復帰するのでユーザは再度設定する手間が省けることとなる。
(10)スピーカ装置20の音出口25は筐体13の下方位置であるため、レーダー探知装置10を車両内に設置した場合に耳に近く、かつホーン23内で音が増幅されるためユーザーにとって非常に聞き取りやすくなっている。
(11)センサー位置を示す4つのマーク33は同時に所定の処理を実行させるためのジェスチャー方向(上下左右)を示すため、初めてのユーザーにとって分かりやすいものとなっている。
With the configuration as described above, the radar detection device 10 of the present embodiment has the following effects.
(1) The radar detection device 10 is not required for an input unit or a touch panel configured by, for example, an electrostatic switch for actual touch operation as in the prior art, and can be operated by four-direction operation + approach stop operation. The cost is reduced, and the components such as the input unit are not necessary, so that the weight can be reduced. This is particularly suitable when the radar detection device 10 is installed in a vehicle with much vibration.
(2) Since a so-called high-end machine with many various functions associated with a radar detection device requires fine settings, an input unit such as a remote control or a touch panel is inevitably required. However, with low-end machines, which tend to have few setting items, there is no oversight because it is a simple operation even with gesture input, so it is optimal for low-end machines. In a high-class machine, it is not necessary to mount the gesture sensor 27, and even if a gesture function is provided, it is merely an auxiliary input, resulting in an increase in cost. That is, it is possible to provide a device such as a radar detection device that does not include any means other than the gesture detection unit as an operation input unit to the device from the user.
(3) Although the radar detection device 10 also serves as a rearview mirror, since it can be input by gestures in this way, the conventional switch area on the side of the mirror portion is no longer necessary, and a full mirror is provided. The mirror area is relatively increased, and the function as a room mirror is improved for the user. In addition, since the user can operate without touching the mirror surface, it becomes difficult to get dirty with fingerprints.
(4) Since the user can shift the radar detection apparatus 10 to a desired processing mode only by executing a predetermined gesture, it is not necessary to visually search for an input unit or the like for actually touching and inputting. Operationally advantageous. Moreover, since it is not necessary to search an input part etc. if it is driving | running | working, it will be able to concentrate on driving | operation.
(5) For example, an input unit or a touch panel for touching operation is not touched, so that the housing 13 is hardly soiled, and deterioration due to contact can be prevented.
(6) The user can remember a gesture pattern that emits the same sound by repeating the gesture several times, and can easily select a desired process by executing the gesture. At that time, the gesture pattern can be accurately memorized based on the kind of sound and the timing of outputting a plurality of sounds.
(7) When a gesture for executing a predetermined process is included in a series of gestures, a sound corresponding to the predetermined process is output, and the user understands the content of the predetermined process in relation to the sound can do.
(8) Even if there is a shielding object such as a sun visor that interferes with the determination of the gesture in the sound output reference area Z, an input for operation is performed in order to execute a process for canceling this influence. Even if there is actually no reliable input means such as a section, the input is definitely possible.
(9) Even when the sensor reaction range is set to, for example, normal (6 cm) or narrow (4 cm) in the user's setting, when the alarm is being notified, the user can temporarily operate 10 cm. Since it is changed to the sensor response range of the distance, it becomes easy for the user to suppress the volume by gesture operation. On the other hand, when the alarm is completed, the original sensor reaction range is restored, so that the user can save the trouble of setting again.
(10) Since the sound outlet 25 of the speaker device 20 is located below the housing 13, when the radar detection device 10 is installed in the vehicle, it is close to the ear and the sound is amplified in the horn 23, so that it is for the user. It is very easy to hear.
(11) The four marks 33 indicating the sensor positions indicate the gesture direction (up / down / left / right) for executing predetermined processing at the same time, and are easy to understand for the first user.

本発明を、以下のような態様で具体化して実施してもよい。
・上記実施の形態のレーダー探知装置10では図2に示すように、制御基板17上にジェスチャーセンサ27を搭載したセンサ基板28を図示しないBtoBコネクタを介して別体として積層状に接続するようにしていた。しかし、このような接続によってジェスチャーセンサ27をミラー部30背面に近接させて配置させようとする場合には基板の厚み公差によって予定よりもミラー部30から離間してしまい所定範囲内に収まらないという場合もあり得る。
そのため、ジェスチャーセンサを配置する場合に図19に示すような構成とすることがよい。この図19は据え置き型のレーダー探知装置50の部分拡大断面図である。レーダー探知装置50は本体ケース51とフロントプレート52から筐体53が構成されている。フロントプレート52の前面には透明ガラス製のカバー54が配設されている。ジェスチャーセンサ55を搭載したセンサ基板56はフロントプレート52に形成されたスタッド57に対してネジ58によって固定されている。センサ基板56はメイン基板59とフレキシブルケーブル60によって接続されている。
このようにセンサ基板56が単独で直接フロントプレート52側のスタッド57に固定されており、間に他の部材を介さずにミラー部30までの距離を短縮させてジェスチャーセンサ55を正確にカバー54に近接した位置に配置することが可能となる。要はセンサ基板56が単独でフロントプレート52側に固定されればよいため、ネジ58以外の固定手段、例えばクリップのような手段で固定するようにしてもよい。このような据え置き型のレーダー探知装置50のジェスチャーセンサの設置機構を上記レーダー探知装置10の構成に適用してもよい。
The present invention may be embodied in the following aspects.
In the radar detection device 10 of the above embodiment, as shown in FIG. 2, the sensor board 28 having the gesture sensor 27 mounted on the control board 17 is connected as a separate layer in a stacked manner via a BtoB connector (not shown). It was. However, when the gesture sensor 27 is to be arranged close to the rear surface of the mirror unit 30 by such connection, the distance from the mirror unit 30 is more than expected due to the thickness tolerance of the substrate and does not fall within a predetermined range. There may be cases.
Therefore, when a gesture sensor is arranged, a configuration as shown in FIG. 19 is preferable. FIG. 19 is a partially enlarged cross-sectional view of a stationary radar detector 50. The radar detection device 50 includes a main body case 51 and a front plate 52 that form a housing 53. A transparent glass cover 54 is disposed on the front surface of the front plate 52. A sensor substrate 56 on which the gesture sensor 55 is mounted is fixed to a stud 57 formed on the front plate 52 by screws 58. The sensor substrate 56 is connected to the main substrate 59 by a flexible cable 60.
In this manner, the sensor substrate 56 is directly and directly fixed to the stud 57 on the front plate 52 side, and the distance to the mirror unit 30 is shortened without any other member therebetween, so that the gesture sensor 55 is accurately covered 54. It becomes possible to arrange | position in the position close | similar to. In short, since the sensor substrate 56 may be fixed to the front plate 52 side alone, it may be fixed by fixing means other than the screws 58, for example, means such as a clip. Such a gesture sensor installation mechanism of the stationary radar detection device 50 may be applied to the configuration of the radar detection device 10.

・ジェスチャー中の対象物の位置によって様々な音が出力されるが、この際にジェスチャーはいくつかの音を出力する全体を1つのジェスチャーと考えることもでき、ある1つの音に対応したジェスチャーをもって1つのジェスチャーと考えることもできるものである。つまり、以下の例えば第1のジェスチャーはその1から始まりその4で終わるジェスチャーと考えてもよく、「第1のジェスチャー(その2)」だけでも開始と終了のある単独のジェスチャーと考えてもよい。
・上記のジェスチャー以外にも、例えば、対象物がジェスチャーセンサ27の前面を斜め方向に横切るようなジェスチャーや円を描くようなジェスチャーを採用してもよい。また、例えばジェスチャーセンサ27に対して対象物を正対させ離間した位置から接近させる(あるいは逆に離間させる)ようなジェスチャーでもよい。
・上記のミラー部30の第2の窓部32は可視光が透過するため、ジェスチャーセンサ27が目視できるような構成であった。しかし、ジェスチャーセンサ27を見せないように可視光域の光線は反射あるいは吸収させるようにし、赤外線のみを透過させるような透過特性の透過膜を配置させることがよい。
・上記第1及び第2の窓部31、32の形状や位置は適宜変更可能である。
・上記実施の形態で例示した制御部35が実行するその他の処理として、例えば、音に関する処理としてはその他、音(音声)の出力とその停止、音質(音色)の変更、音の数の変更、音のパターン(例えばメロディー)の変更、ガイダンスの声の変更等をジェスチャーによって可能とするように設定してもよい。
・上記実施の形態では手のジェスチャーの移動方向の上下左右の4方向に設定していたが、移動方向はこの4つ以外のパターンで用意してもよい。
・上記のジェスチャー中の音は一例であって他の音程の音を使用してもよい。また、音程も上記では対象物がセンサー反応範囲を横切ることで徐徐に高い音となるような設定であったが、対象物の移動に伴って出力される音がメロディーがあるかのように高くなったり低くなったりするようなパターンで設定してもよい。
・上記実施の形態ではユーザーの設定でセンサー反応範囲を、例えば普通(6cm)や狭い(4cm)に設定した場合に、警報が報知されている際に一時的にユーザが操作しやすい10cmの距離のセンサー反応範囲に変更するようにしていたが、警報報知の場合以外にこのような処理を実行するようにしてもよい。例えば、時刻の報知、事故情報の報知等の場合である。また、上記ではセンサー反応範囲を3つの距離に設定できるようにしていたが、2つあるいは4つ以上に設定できるようにしてもよい。また、一時的にユーザが操作しやすい10cmの距離のセンサー反応範囲に変更した後はセンサー反応範囲を再び普通(6cm)や狭い(4cm)に戻すような処理であったが戻さなくともよい。
・上記レーダー探知装置10の構成は一例であって、他の形状で実施するようにしてもよい。例えば、上記では正面向かって右寄りにジェスチャーセンサ27が配置されていたが、これは主として右ハンドルの車両で左手でジェスチャーをするユーザーを念頭に置いているものであるが、左ハンドルの車両を念頭に左寄りにジェスチャーセンサ27を配置するようにしてもよい(つまり、車両に応じてジェスチャーしやすい位置に配置するようにしてもよい)。あるいは、上記の正面向かって右寄りにジェスチャーセンサ27が配置された実施形態において、ミラーに変更な面内で180度回転して車両のルームミラーに取り付けられる構成とし、この場合、ユーザからの設定あるいはGセンサ等によって取り付け方向を判定し、判定した取り付け方向に合うようにジェスチャーの認識方向を180度回転させるか否かを決定するようにするとよい。
・レーダー探知装置以外に、車両用として例えば、ナビゲーション装置(レーダー探知機能のないもの)やドライブレコーダー装置に適用するようにしてもよい。
・車両用以外の様々な機器に応用するようにしてもよい。
・ジェスチャーセンサ27の検出において上記では赤外線発光素子からの赤外光を対象物に当ててその反射光の変化を受光素子で捉えるものであったが、赤外線の代わりに例えば超音波や静電容量の変化を利用したもの等他の原理のジェスチャーセンサを使用するようにしてもよい。
・ミラー部30前面にミラ−面保護用の保護シートを貼着する場合がある。この場合において、ユーザーは使用時に剥がさずに使用する場合がある。しかし、経年使用によって保護シートが一部剥がれてジェスチャーセンサ27の検出範囲内にその剥がれた保護シートが揺れてあたかもジェスチャーと間違えるような動作をする可能性がある。これは誤動作の原因となる可能性がある。そのため、図20のように保護シート62を第2の窓部32から離間した範囲内のみに貼着させたり、剥がれやすい角部を面取り状に形成したりすることができ、誤動作や保護シート62がユーザーのジェスチャーの邪魔になることがなくなるとともに、ユーザーが剥がれた部分を取り除いたりする面倒さもなくなる。特に、ミラーの全面に保護シートを設け、第2の窓部32にそってその保護シートをくりぬいた構成とするとよい。このようにすればミラー面の全面を保護することができるとともに、ユーザーが保護シートを取り外さずに使用を開始した場合でも、保護シートの動きによってジェスチャーと認識される可能性を低減できる。
・車載用の機器以外に応用するようにしてもよい。
本発明はその趣旨を逸脱しない範囲において変更した態様で実施することは自由である。
・ Various sounds are output depending on the position of the target object in the gesture. At this time, the gesture can be considered as a single gesture for the whole output of several sounds, with a gesture corresponding to a certain sound. It can be thought of as a single gesture. In other words, for example, the following first gesture may be considered as a gesture starting from 1 and ending with 4 and may be considered as a single gesture having a start and an end only by “first gesture (2)”. .
In addition to the above gestures, for example, a gesture in which an object crosses the front surface of the gesture sensor 27 in an oblique direction or a gesture in which a circle is drawn may be employed. Further, for example, the gesture may be such that the object is opposed to the gesture sensor 27 and approached from a separated position (or conversely separated).
The second window portion 32 of the mirror portion 30 has a configuration that allows the gesture sensor 27 to be viewed because visible light is transmitted. However, it is preferable to arrange a transmission film having a transmission characteristic such that light in the visible light region is reflected or absorbed so as not to show the gesture sensor 27 and only infrared light is transmitted.
The shape and position of the first and second window portions 31 and 32 can be changed as appropriate.
As other processing executed by the control unit 35 exemplified in the above embodiment, for example, as processing related to sound, output of sound (speech) and its stop, change of sound quality (timbre), change of number of sounds Further, it may be set so that a change in a sound pattern (for example, a melody), a change in a voice of guidance, and the like can be made by a gesture.
In the above-described embodiment, the four directions of up / down / left / right of the movement direction of the hand gesture are set, but the movement direction may be prepared in a pattern other than these four directions.
The sound in the above gesture is an example, and a sound having another pitch may be used. In addition, the pitch was set so that the sound gradually increased as the object crossed the sensor response range in the above, but the sound output as the object moved increased as if there was a melody. It may be set in a pattern that becomes lower or lower.
In the above embodiment, when the sensor reaction range is set to a normal (6 cm) or narrow (4 cm) by the user setting, for example, a distance of 10 cm that is easily operated by the user when an alarm is informed However, such processing may be executed in addition to the alarm notification. For example, it is a case of time notification, accident information notification, or the like. In the above description, the sensor reaction range can be set to three distances, but may be set to two or four or more. Further, after changing the sensor response range to a distance of 10 cm that is easy for the user to operate, the processing is to return the sensor response range to normal (6 cm) or narrow (4 cm) again, but it is not necessary to return it.
The configuration of the radar detection device 10 is an example, and may be implemented in other shapes. For example, in the above description, the gesture sensor 27 is disposed on the right side of the front. This is mainly intended for a user who performs a gesture with the left hand of a right-hand drive vehicle, but considers a left-hand drive vehicle. The gesture sensor 27 may be arranged on the left side (that is, it may be arranged at a position where it is easy to make a gesture according to the vehicle). Alternatively, in the above-described embodiment in which the gesture sensor 27 is disposed on the right side of the front, it is configured to be rotated 180 degrees in a plane that is changed to the mirror and attached to the vehicle rearview mirror. It is preferable to determine the attachment direction using a G sensor or the like and determine whether or not to rotate the gesture recognition direction by 180 degrees so as to match the determined attachment direction.
In addition to the radar detection device, the present invention may be applied to, for example, a navigation device (without a radar detection function) or a drive recorder device for a vehicle.
-You may make it apply to various apparatuses other than the object for vehicles.
In the detection by the gesture sensor 27, the infrared light from the infrared light emitting element is applied to the object and the change in the reflected light is captured by the light receiving element. You may make it use the gesture sensor of other principles, such as what utilized the change of.
A protective sheet for protecting the mirror surface may be attached to the front surface of the mirror unit 30. In this case, the user may use it without peeling off at the time of use. However, a part of the protective sheet may be peeled off due to use over time, and the peeled protective sheet may be shaken within the detection range of the gesture sensor 27 and may behave as if it is mistaken for a gesture. This can cause malfunction. Therefore, as shown in FIG. 20, the protective sheet 62 can be attached only within a range away from the second window portion 32, or corner portions that are easily peeled off can be formed in a chamfered shape. Will not interfere with the user's gestures, and the user will not have the trouble of removing the peeled off part. In particular, a protective sheet is preferably provided on the entire surface of the mirror, and the protective sheet is hollowed along the second window portion 32. In this way, the entire mirror surface can be protected, and even when the user starts using the protective sheet without removing the protective sheet, the possibility of being recognized as a gesture by the movement of the protective sheet can be reduced.
-You may make it apply to apparatuses other than vehicle equipment.
The present invention can be freely implemented in a modified form without departing from the spirit of the present invention.

10…電子情報システムとしてのレーダー探知装置、35…制御手段としての制御部。

DESCRIPTION OF SYMBOLS 10 ... Radar detector as an electronic information system, 35 ... Control part as a control means.

Claims (10)

ユーザーによる対象物の動きをジェスチャー検出手段で検出し、検出した対象物の動きによるジェスチャーの認識結果に基づいて所定の処理を行う電子情報システムにおいて、
前記対象物がジェスチャー検出手段の所定検出領域内において遠方から接近するジェスチャーの検出時に距離に応じた音パターンで音を発生させること
を特徴とする電子情報システム。
In an electronic information system that detects a movement of an object by a user using a gesture detection unit and performs a predetermined process based on a recognition result of the gesture based on the detected movement of the object.
An electronic information system characterized in that a sound is generated with a sound pattern corresponding to a distance when a gesture in which the object approaches from a distance within a predetermined detection area of a gesture detection means is detected.
前記対象物がジェスチャー検出手段の所定検出領域内において遠方へ離間するジェスチャーの検出時に距離に応じた音パターンで音を発生させること
を特徴とする請求項1に記載の電子情報システム。
The electronic information system according to claim 1, wherein a sound is generated with a sound pattern corresponding to the distance when detecting a gesture in which the object is far away within a predetermined detection area of the gesture detection unit.
前記対象物がジェスチャー検出手段の所定検出領域内において遠方から接近するジェスチャーの検出時に距離に応じた音パターンと、前記対象物がジェスチャー検出手段の所定検出領域内において遠方へ離間するジェスチャーの検出時に距離に応じた音パターンとは、異なる音パターンとしたこと
を特徴とする請求項2に記載の電子情報システム。
When detecting a gesture according to the distance when detecting a gesture in which the object approaches from a distance in a predetermined detection area of the gesture detection means, and when detecting a gesture in which the object moves away in a predetermined detection area of the gesture detection means The electronic information system according to claim 2, wherein the sound pattern is different from the sound pattern corresponding to the distance.
前記所定の処理は現在報知されている警報情報の報知を抑制させる処理であること
を特徴とする請求項1〜3のいずれかに記載の電子情報システム。
The electronic information system according to any one of claims 1 to 3, wherein the predetermined process is a process of suppressing notification of currently notified alarm information.
表示画面に出発点となる所定の表示をさせ、所定のジェスチャーの認識結果に基づいて他の表示モードに変更させた後、所定のジェスチャーの認識結果に基づいて再び前記第1の表示モードを表示させるように制御すること
を特徴とする請求項1〜4のいずれかに記載の電子情報システム。
Display a predetermined display as a starting point on the display screen, change to another display mode based on the recognition result of the predetermined gesture, and then display the first display mode again based on the recognition result of the predetermined gesture The electronic information system according to claim 1, wherein the electronic information system is controlled so as to be controlled.
前記ジェスチャー検出手段の検出領域内にジェスチャー検出の妨げとなる遮蔽物が存在する場合に、前記ジェスチャー検出手段は前記遮蔽物を検出せずに、あるいは検出データを使用せずにユーザーによるジェスチャーを検出すること
を特徴とする請求項1〜5のいずれかに記載の電子情報システム。
When there is an obstacle that hinders gesture detection in the detection area of the gesture detector, the gesture detector detects a gesture by the user without detecting the obstacle or using detection data. The electronic information system according to claim 1, wherein:
前記ジェスチャー検出手段は車両搭載用遮蔽物が検出領域内に所定時間停止して存在することに基づいて前記遮蔽物を検出せず、あるいは検出データを使用せずにユーザーによるジェスチャーを検出すること
を特徴とする請求項1〜6のいずれかに記載の電子情報システム。
The gesture detection means detects a gesture by a user without detecting the shield or using detection data based on the fact that the vehicle-mounted shield is present in a detection area after being stopped for a predetermined time. The electronic information system according to any one of claims 1 to 6,
遮蔽物が前記ジェスチャー検出手段に所定距離よりも近づいて検出された場合にはジェスチャーを認識させないように制御すること
を特徴とする請求項1〜7のいずれかに記載の電子情報システム。
The electronic information system according to any one of claims 1 to 7, wherein control is performed so that a gesture is not recognized when a shielding object is detected closer to the gesture detection means than a predetermined distance.
筐体上に前記ジェスチャー検出手段が検出可能な複数の異なるジェスチャーの方向をユーザーが認識可能な表示を行うようにしたと
を特徴とする請求項1〜8のいずれかに記載の電子情報システム。
The electronic information system according to any one of claims 1 to 8, wherein a display on which a user can recognize directions of a plurality of different gestures that can be detected by the gesture detection unit is performed on a housing.
請求項1〜9のいずれかに記載の電子情報システムの機能をコンピュータに実現させるためのプログラム。

The program for making a computer implement | achieve the function of the electronic information system in any one of Claims 1-9.

JP2018092704A 2018-05-14 2018-05-14 Electronic information system and its program Active JP6730552B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018092704A JP6730552B2 (en) 2018-05-14 2018-05-14 Electronic information system and its program
JP2019232178A JP6915815B2 (en) 2018-05-14 2019-12-24 Electronic information system and its programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018092704A JP6730552B2 (en) 2018-05-14 2018-05-14 Electronic information system and its program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014068020A Division JP6664609B2 (en) 2014-03-28 2014-03-28 Electronic information system and its program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019232178A Division JP6915815B2 (en) 2018-05-14 2019-12-24 Electronic information system and its programs

Publications (2)

Publication Number Publication Date
JP2018163668A true JP2018163668A (en) 2018-10-18
JP6730552B2 JP6730552B2 (en) 2020-07-29

Family

ID=63860252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018092704A Active JP6730552B2 (en) 2018-05-14 2018-05-14 Electronic information system and its program

Country Status (1)

Country Link
JP (1) JP6730552B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11167771B2 (en) 2018-01-05 2021-11-09 Magna Mirrors Of America, Inc. Vehicular gesture monitoring system
US11866063B2 (en) 2020-01-10 2024-01-09 Magna Electronics Inc. Communication system and method

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207619A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and operation range indicating method
JP2004013314A (en) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd Position measuring input support device
JP2004356819A (en) * 2003-05-28 2004-12-16 Sharp Corp Remote control apparatus
JP2005050177A (en) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd Non-contact information input device
JP2005141542A (en) * 2003-11-07 2005-06-02 Hitachi Ltd Non-contact input interface device
JP2005174356A (en) * 2000-02-01 2005-06-30 Toshiba Corp Direction detection method
JP2008077452A (en) * 2006-09-22 2008-04-03 Matsushita Electric Ind Co Ltd Setup input device and apparatus using the same
JP2009031981A (en) * 2007-07-26 2009-02-12 Mitsubishi Electric Corp Interface device, interface method and interface program
JP2011210239A (en) * 2010-03-30 2011-10-20 Harman Becker Automotive Systems Gmbh Vehicle user interface unit for vehicle electronic device
JP2012008772A (en) * 2010-06-24 2012-01-12 Sony Corp Gesture recognition apparatus, gesture recognition method, and program
JP2012502364A (en) * 2008-09-03 2012-01-26 オブロング・インダストリーズ・インコーポレーテッド A control system for navigating the main dimensions of the data space
JP2012168595A (en) * 2011-02-10 2012-09-06 Meijo University Integrated input interface
WO2013130285A2 (en) * 2012-03-01 2013-09-06 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
JP2013213610A (en) * 2012-04-02 2013-10-17 Mitsubishi Electric Corp Indoor unit of air-conditioning apparatus
JP2013246743A (en) * 2012-05-29 2013-12-09 Sony Corp Image processing apparatus and program
JP2013257762A (en) * 2012-06-13 2013-12-26 Sony Corp Image processing apparatus, and image processing method and program
JP2014026355A (en) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd Image display device and image display method
WO2014034031A1 (en) * 2012-08-30 2014-03-06 パナソニック株式会社 Information input device and information display method

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207619A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and operation range indicating method
JP2005174356A (en) * 2000-02-01 2005-06-30 Toshiba Corp Direction detection method
JP2004013314A (en) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd Position measuring input support device
JP2004356819A (en) * 2003-05-28 2004-12-16 Sharp Corp Remote control apparatus
JP2005050177A (en) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd Non-contact information input device
JP2005141542A (en) * 2003-11-07 2005-06-02 Hitachi Ltd Non-contact input interface device
JP2008077452A (en) * 2006-09-22 2008-04-03 Matsushita Electric Ind Co Ltd Setup input device and apparatus using the same
JP2009031981A (en) * 2007-07-26 2009-02-12 Mitsubishi Electric Corp Interface device, interface method and interface program
JP2012502364A (en) * 2008-09-03 2012-01-26 オブロング・インダストリーズ・インコーポレーテッド A control system for navigating the main dimensions of the data space
JP2011210239A (en) * 2010-03-30 2011-10-20 Harman Becker Automotive Systems Gmbh Vehicle user interface unit for vehicle electronic device
JP2012008772A (en) * 2010-06-24 2012-01-12 Sony Corp Gesture recognition apparatus, gesture recognition method, and program
JP2012168595A (en) * 2011-02-10 2012-09-06 Meijo University Integrated input interface
WO2013130285A2 (en) * 2012-03-01 2013-09-06 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
JP2013213610A (en) * 2012-04-02 2013-10-17 Mitsubishi Electric Corp Indoor unit of air-conditioning apparatus
JP2013246743A (en) * 2012-05-29 2013-12-09 Sony Corp Image processing apparatus and program
JP2013257762A (en) * 2012-06-13 2013-12-26 Sony Corp Image processing apparatus, and image processing method and program
JP2014026355A (en) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd Image display device and image display method
WO2014034031A1 (en) * 2012-08-30 2014-03-06 パナソニック株式会社 Information input device and information display method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11167771B2 (en) 2018-01-05 2021-11-09 Magna Mirrors Of America, Inc. Vehicular gesture monitoring system
US11648956B2 (en) 2018-01-05 2023-05-16 Magna Mirrors Of America, Inc. Vehicular cabin monitoring system
US11866063B2 (en) 2020-01-10 2024-01-09 Magna Electronics Inc. Communication system and method

Also Published As

Publication number Publication date
JP6730552B2 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
JP5409657B2 (en) Image display device
KR101365792B1 (en) Touch panel, touch panel manufacturing method, and electronic apparatus
US20130021293A1 (en) Display device
US8525723B2 (en) Radar detector with navigation function
TW541255B (en) Interactive vehicle display system
US20060022958A1 (en) Touch-panel input device having a function for providing vibration and method for providing vibration in response to input operation
JP6878437B2 (en) Control interface for automobiles
JP2008058095A (en) Operator determiner and on-vehicle device equipped with operator determiner
JP6730552B2 (en) Electronic information system and its program
JP6664609B2 (en) Electronic information system and its program
EP3570140B1 (en) Control method and device for vehicle-mounted system
JP2006007919A (en) Operating unit for vehicle
KR101648029B1 (en) An touch screen displaying apparatus, a vehicle which the touch screen displaying apparatus installed in and a method of controlling the touch screen displaying apparatus
JP2016120890A (en) Vehicular switching device
JP7214165B2 (en) Electronic information system and its program
JP2008265544A (en) On-vehicle touch panel
JP6915815B2 (en) Electronic information system and its programs
WO2014171096A1 (en) Control device for vehicle devices and vehicle device
JP6427048B2 (en) Vehicle equipment
JP3831849B2 (en) Vehicle controller
JP2003316519A (en) Input device
US20160318397A1 (en) Method for providing an operating device in a vehicle and operating device
WO2022018998A1 (en) Decorative panel
JP2013196457A (en) Display device, display method and display program
WO2023124260A1 (en) Switch control device and steering wheel

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191226

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200428

R150 Certificate of patent or registration of utility model

Ref document number: 6730552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350