JP2015141616A - Operation input device, operation input method and program - Google Patents

Operation input device, operation input method and program Download PDF

Info

Publication number
JP2015141616A
JP2015141616A JP2014014753A JP2014014753A JP2015141616A JP 2015141616 A JP2015141616 A JP 2015141616A JP 2014014753 A JP2014014753 A JP 2014014753A JP 2014014753 A JP2014014753 A JP 2014014753A JP 2015141616 A JP2015141616 A JP 2015141616A
Authority
JP
Japan
Prior art keywords
luminance
image
infrared
value
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014014753A
Other languages
Japanese (ja)
Other versions
JP6052193B2 (en
Inventor
輝彦 篠宮
Teruhiko Shinomiya
輝彦 篠宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014014753A priority Critical patent/JP6052193B2/en
Priority to PCT/JP2014/067986 priority patent/WO2015045550A1/en
Priority to EP14848824.0A priority patent/EP3051384B1/en
Publication of JP2015141616A publication Critical patent/JP2015141616A/en
Priority to US15/040,061 priority patent/US9807320B2/en
Application granted granted Critical
Publication of JP6052193B2 publication Critical patent/JP6052193B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation input device for improving the detection accuracy of a gesture by suppressing the influence of disturbance, and to provide an operation input method and a program.SOLUTION: The operation input device includes infrared irradiation means for irradiating an infrared ray, imaging means for imaging an image from the infrared ray, image processing means for detecting the shape of an indication object from the imaged image, infrared control means for adjusting the irradiation intensity of the infrared ray, storage means for respectively storing first luminance of a first area where the infrared ray is irradiated in the imaged image in the case that the irradiation intensity is adjusted, and second luminance of each of a plurality of second areas, luminance operation means for calculating third luminance of each of the second areas, and calculating a luminance correction value to correct the first luminance in the case that the absolute value of difference between the third luminance and the second luminance, which corresponds to at least one of the second areas is equal to or more than a predetermined value, determination means for determining operation contents by the indication object from the shape, and instruction means for making an operation object device execute a function corresponding to the operation contents.

Description

本発明は、操作入力装置、操作入力方法およびプログラムに関する。   The present invention relates to an operation input device, an operation input method, and a program.

近年、自動車にはカーナビゲーション装置、オーディオシステム、エアコン等多くの機器が搭載されている。運転者によるそれらの機器を操作するときの通常のボタンの押下による操作は、運転者の視線の動きを伴うことになる。したがって、自動車の運転中のボタン操作による機器の操作は、運転者の前方不注意につながる誘因となるため、前方を見たままの状態で機器の操作が可能であることが望ましい。   In recent years, automobiles are equipped with many devices such as a car navigation device, an audio system, and an air conditioner. An operation by pressing a normal button when operating these devices by the driver is accompanied by movement of the driver's line of sight. Therefore, since the operation of the device by the button operation while driving the automobile is an incentive leading to the driver's carelessness, it is desirable that the device can be operated while looking forward.

このような、前方を見たままの機器の操作を可能とする操作入力装置として、カメラで運転者の手の形状および手振り(以下、ジェスチャーという)を撮像し、ジェスチャーを判別して、車載機器の操作を行う装置が提案されている(特許文献1参照)。特許文献1に記載された操作入力装置は、カメラとして主に昼間には可視光カメラを用い、夜間には赤外線カメラを用いて、ジェスチャーを撮像および判別するものとしている。   As such an operation input device that enables the device to be operated while looking forward, the camera captures the shape and gesture (hereinafter referred to as a gesture) of the driver's hand with the camera, determines the gesture, An apparatus for performing the above operation has been proposed (see Patent Document 1). The operation input device described in Patent Document 1 uses a visible light camera as a camera mainly during the daytime and uses an infrared camera at night to capture and discriminate gestures.

特開2009−104297号公報JP 2009-104297 A

しかしながら、特許文献1に記載された操作入力装置は、赤外線カメラを使用する場合、昼間は太陽光による外乱の影響を受けるため、ジェスチャーの検出精度が悪いという問題点があった。また、赤外線カメラを夜間に用い、可視光カメラを昼間に用いる場合、2台のカメラが必要になり、コストアップにつながるという問題点もあった。   However, when using an infrared camera, the operation input device described in Patent Literature 1 is affected by disturbance due to sunlight during the daytime, and thus has a problem that gesture detection accuracy is poor. In addition, when an infrared camera is used at night and a visible light camera is used during the day, two cameras are required, leading to an increase in cost.

本発明は、上記に鑑みてなされたものであって、外乱の影響を抑制してジェスチャーの検出精度を向上させる操作入力装置、操作入力方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an operation input device, an operation input method, and a program that improve the accuracy of gesture detection by suppressing the influence of disturbance.

上述した課題を解決し、目的を達成するために、本発明は、赤外線を照射する赤外線照射手段と、赤外線を検出して画像を撮像する撮像手段と、前記撮像手段により撮像された前記画像である撮像画像から指示物体の形状を検出する画像処理手段と、前記赤外線照射手段から照射される赤外線の照射強度を調整する赤外線制御手段と、前記赤外線制御手段により前記照射強度が調整された場合の前記撮像画像における前記赤外線照射手段により赤外線が照射される第1エリアの、前記画像処理手段による前記形状の検出に利用される第1輝度、および、前記撮像画像における前記第1エリア外に配置された複数の第2エリアのそれぞれの第2輝度を記憶する記憶手段と、前記撮像手段により撮像された前記撮像画像における前記複数の第2エリアのそれぞれの第3輝度を求め、前記複数の第2エリアのうち少なくともいずれかに対応する前記第3輝度と前記第2輝度との差の絶対値が、所定値以上である場合、前記差に基づいて輝度補正値を算出し、前記輝度補正値により前記第1輝度を補正する輝度演算手段と、前記画像処理手段により検出された前記形状から、前記指示物体による操作内容を判定する判定手段と、前記操作内容に対応した機能を操作対象機器に実行させる命令手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention includes an infrared irradiation unit that irradiates infrared rays, an imaging unit that detects infrared rays and images an image, and the image captured by the imaging unit. Image processing means for detecting the shape of the pointing object from a certain captured image, infrared control means for adjusting the irradiation intensity of infrared rays emitted from the infrared irradiation means, and the irradiation intensity adjusted by the infrared control means A first area used for detecting the shape by the image processing unit in a first area irradiated with infrared rays by the infrared irradiation unit in the captured image, and disposed outside the first area in the captured image. Storage means for storing the second luminance of each of the plurality of second areas, and the plurality of second errors in the captured image captured by the imaging means. If the absolute value of the difference between the third luminance and the second luminance corresponding to at least one of the plurality of second areas is greater than or equal to a predetermined value, A brightness calculation unit that calculates a brightness correction value based on the brightness correction value, and a determination unit that determines an operation content by the pointing object from the shape detected by the image processing unit. And command means for causing the operation target device to execute a function corresponding to the operation content.

本発明によれば、外乱の影響を抑制してジェスチャーの検出精度を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the influence of a disturbance can be suppressed and the detection accuracy of a gesture can be improved.

図1は、実施形態に係る操作入力システムの全体構成の例を示す図である。FIG. 1 is a diagram illustrating an example of the overall configuration of the operation input system according to the embodiment. 図2は、実施形態の入力コントローラのブロック構成の例を示す図である。FIG. 2 is a diagram illustrating an example of a block configuration of the input controller according to the embodiment. 図3は、実施形態の入力コントローラにおける赤外線LEDの輝度調整処理の動作例を示すフローチャートである。FIG. 3 is a flowchart illustrating an operation example of luminance adjustment processing of the infrared LED in the input controller according to the embodiment. 図4は、実施形態のカメラユニットによって撮像される画像およびサンプルエリアの例を示す図である。FIG. 4 is a diagram illustrating an example of an image captured by the camera unit of the embodiment and a sample area. 図5は、実施形態の入力コントローラにおけるジェスチャー操作認識処理の動作例を示すフローチャートである。FIG. 5 is a flowchart illustrating an operation example of gesture operation recognition processing in the input controller according to the embodiment. 図6は、実施形態の入力コントローラにより撮像された画像の二値化画像の例を示す図である。FIG. 6 is a diagram illustrating an example of a binarized image captured by the input controller according to the embodiment. 図7は、実施形態の入力コントローラにより撮像された画像の二値化画像から距離変換と輪郭抽出とを行って求めた輪郭抽出画像を示す図である。FIG. 7 is a diagram illustrating a contour extraction image obtained by performing distance conversion and contour extraction from a binarized image captured by the input controller according to the embodiment.

以下に、図面を参照しながら、本発明に係る操作入力装置、操作入力方法およびプログラムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換および変更を行うことができる。   Hereinafter, embodiments of an operation input device, an operation input method, and a program according to the present invention will be described in detail with reference to the drawings. Further, the present invention is not limited by the following embodiments, and components in the following embodiments can be easily conceived by those skilled in the art, are substantially the same, and have a so-called equivalent range. Is included. Furthermore, various omissions, substitutions, and changes of the constituent elements can be made without departing from the scope of the following embodiments.

(操作入力システムの構成)
図1は、実施形態に係る操作入力システムの全体構成の例を示す図である。図1を参照しながら、本実施形態に係る操作入力システム1の全体構成について説明する。なお、以下の説明において、図1に示す操作入力システム1が自動車に搭載される場合を例に説明するが、これに限定されるものではなく、電車または飛行機等に搭載されるものとしてもよい。
(Operation input system configuration)
FIG. 1 is a diagram illustrating an example of the overall configuration of the operation input system according to the embodiment. The overall configuration of the operation input system 1 according to the present embodiment will be described with reference to FIG. In the following description, a case where the operation input system 1 shown in FIG. 1 is mounted on an automobile will be described as an example. However, the present invention is not limited to this and may be mounted on a train or an airplane. .

図1に示す操作入力システム1は、運転者のジェスチャーを認識して、ジェスチャーに対応した操作コマンドにしたがって、操作対象機器を操作するシステムである。操作入力システム1は、入力コントローラ10(操作入力装置)と、カーナビゲーション装置20とが、通信ケーブル30によって接続されて構成されている。   An operation input system 1 shown in FIG. 1 is a system that recognizes a driver's gesture and operates an operation target device according to an operation command corresponding to the gesture. The operation input system 1 is configured by connecting an input controller 10 (operation input device) and a car navigation device 20 via a communication cable 30.

入力コントローラ10は、運転者のジェスチャーを認識して、ジェスチャーに対応する操作コマンドを生成し、通信ケーブル30を介して、操作コマンドをカーナビゲーション装置20に送信する装置である。入力コントローラ10は、赤外線を照射する複数の赤外線LED401と、所定の画角内の画像を撮像するカメラ411と、カメラ411の光学系の入射側に取り付けられ、赤外線のみを透過させる赤外線透過フィルタ412と、を備えている。また、入力コントローラ10は、撮像する画像に自動車のウィンドウが入らないような撮像方向となるように設置される。例えば、入力コントローラ10は、自動車の車内のダッシュボードに設置され、ダッシュボードから斜め上方の車内のルーフに向かう撮像方向となるように設置することが望ましい。これによって、後述するジェスチャー操作認識処理において、自動車のウィンドウから入り込んでくる太陽光等の外乱によるジェスチャーの検出精度の低下を抑制することができる。   The input controller 10 is a device that recognizes a driver's gesture, generates an operation command corresponding to the gesture, and transmits the operation command to the car navigation device 20 via the communication cable 30. The input controller 10 includes a plurality of infrared LEDs 401 that emit infrared rays, a camera 411 that captures an image within a predetermined angle of view, and an infrared transmission filter 412 that is attached to the incident side of the optical system of the camera 411 and transmits only infrared rays. And. Moreover, the input controller 10 is installed so that it may become an image pick-up direction so that the window of a motor vehicle may not enter into the image picked up. For example, it is desirable that the input controller 10 be installed on a dashboard in a car of an automobile and be installed so as to have an imaging direction from the dashboard toward a roof in the car diagonally above. Thereby, in gesture operation recognition processing to be described later, it is possible to suppress a decrease in gesture detection accuracy due to disturbance such as sunlight entering from the window of the automobile.

カメラ411は、例えば、通常の可視光を検出するカメラでよいが、少なくとも赤外線についても検出できるカメラであるものとする。カメラ411は、図示しないレンズ等によって構成された光学系と、赤外線透過フィルタ412を透過して光学系に入射した赤外線を電気信号に変換することによって画像を生成する固体撮像素子(撮像素子)と、を備えている。固体撮像素子は、例えば、CCD(Charge Coupled Device)センサ、またはCMOS(Complementary Metal Oxide Semiconductor)センサ等によって実現される。   The camera 411 may be, for example, a camera that detects normal visible light, but is a camera that can detect at least infrared rays. The camera 411 includes an optical system including a lens (not shown) and the like, and a solid-state imaging device (imaging device) that generates an image by converting infrared light that has passed through the infrared transmission filter 412 and entered the optical system into an electrical signal. It is equipped with. The solid-state imaging device is realized by, for example, a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor.

上述のように、少なくとも赤外線を検出できるカメラ411および赤外線透過フィルタ412を使用しているので、赤外線のみを高精度に検出する赤外線カメラを使用する場合と比較してコストを低減することができる。   As described above, since the camera 411 capable of detecting at least infrared rays and the infrared transmission filter 412 are used, the cost can be reduced as compared with the case of using an infrared camera that detects only infrared rays with high accuracy.

なお、図1に示すように、赤外線LED401は、カメラ411の周囲を囲むように複数設けられるものとしているが、複数の赤外線LED401の配置構成は、図1に示す配置構成に限定されるものではない。また、赤外線LED401は、複数ではなく、1つであってもよい。   As shown in FIG. 1, a plurality of infrared LEDs 401 are provided so as to surround the camera 411. However, the arrangement of the plurality of infrared LEDs 401 is not limited to the arrangement shown in FIG. Absent. Further, the infrared LED 401 may be one instead of plural.

カーナビゲーション装置20は、入力コントローラ10による操作対象機器の一例としての装置であり、例えば、搭載された自動車等の車両の現在地、および目的地への経路案内等を表示する装置である。カーナビゲーション装置20は、入力コントローラ10によって生成され、通信ケーブル30を介して受信した操作コマンドに従って、操作コマンドに対応した機能を実行する。カーナビゲーション装置20は、自動車等の車両の現在地、および目的地への経路案内等を表示する表示画面421を備えている。   The car navigation device 20 is a device as an example of a device to be operated by the input controller 10, for example, a device that displays a current location of a vehicle such as a mounted car and route guidance to a destination. The car navigation device 20 executes a function corresponding to the operation command according to the operation command generated by the input controller 10 and received via the communication cable 30. The car navigation apparatus 20 includes a display screen 421 that displays a current location of a vehicle such as an automobile and route guidance to a destination.

通信ケーブル30は、入力コントローラ10およびカーナビゲーション装置20の通信規格に対応したケーブルであり、例えば、USBケーブルまたはEthernet(登録商標)ケーブル等である。なお、入力コントローラ10とカーナビゲーション装置20との通信は、通信ケーブル30による有線通信に限定されるものではなく、WiFi(Wireless Fidelity)またはBluetooth(登録商標)等の規格による無線通信であってもよい。   The communication cable 30 is a cable corresponding to the communication standard of the input controller 10 and the car navigation device 20, and is, for example, a USB cable or an Ethernet (registered trademark) cable. Note that communication between the input controller 10 and the car navigation device 20 is not limited to wired communication using the communication cable 30, and may be wireless communication based on standards such as WiFi (Wireless Fidelity) or Bluetooth (registered trademark). Good.

なお、図1に示す操作対象機器としては、カーナビゲーション装置20を例に示したが、これに限定されるものではなく、オーディオシステム、エアコンその他の車載機器であってもよい。   1 shows the car navigation device 20 as an example, but the operation target device is not limited thereto, and may be an audio system, an air conditioner, or other in-vehicle devices.

また、図1においては、入力コントローラ10と、操作対象機器としてのカーナビゲーション装置20とが別体として構成されているが、これに限定されるものではなく、一体型として構成されるものとしてもよい。この場合、カメラ411の位置は、カーナビゲーション装置20をダッシュボードに設置したとき、ダッシュボードから斜め上方の車内のルーフに向かう撮像方向となる位置に設けることが望ましい。   In FIG. 1, the input controller 10 and the car navigation device 20 as the operation target device are configured as separate units, but the present invention is not limited thereto, and may be configured as an integrated type. Good. In this case, when the car navigation device 20 is installed on the dashboard, the position of the camera 411 is preferably provided at a position that is an imaging direction toward the roof in the vehicle obliquely above the dashboard.

(入力コントローラのブロック構成)
図2は、実施形態の入力コントローラのブロック構成の例を示す図である。図2を参照しながら、本実施形態の入力コントローラ10のブロック構成について説明する。
(Block configuration of input controller)
FIG. 2 is a diagram illustrating an example of a block configuration of the input controller according to the embodiment. A block configuration of the input controller 10 of the present embodiment will be described with reference to FIG.

図2に示すように、入力コントローラ10は、赤外線LEDユニット11(赤外線照射手段)と、カメラユニット12(撮像手段)と、通信インターフェース(I/F)13と、制御ユニット14と、を備えている。   As shown in FIG. 2, the input controller 10 includes an infrared LED unit 11 (infrared irradiation means), a camera unit 12 (imaging means), a communication interface (I / F) 13, and a control unit 14. Yes.

赤外線LEDユニット11は、図1に示した赤外線LED401を備え、後述するLED制御部142からの命令によって、赤外線を照射するユニットである。   The infrared LED unit 11 includes the infrared LED 401 shown in FIG. 1 and irradiates infrared rays according to a command from the LED control unit 142 described later.

カメラユニット12は、画像を撮像し、撮像した画像を制御ユニット14に送信するユニットである。カメラユニット12は、図1に示した赤外線透過フィルタ412が装着されたカメラ411によって実現される。   The camera unit 12 is a unit that captures an image and transmits the captured image to the control unit 14. The camera unit 12 is realized by a camera 411 equipped with the infrared transmission filter 412 shown in FIG.

通信インターフェース13は、操作対象機器であるカーナビゲーション装置20の通信規格に対応したインターフェースであり、例えば、USBインターフェースまたはEthernetインターフェース等である。   The communication interface 13 is an interface corresponding to the communication standard of the car navigation device 20 that is the operation target device, and is, for example, a USB interface or an Ethernet interface.

制御ユニット14は、入力コントローラ10の全体の制御をつかさどる。制御ユニット14は、具体的には、赤外線LEDユニット11から照射する赤外線の強度の調整、カメラユニット12によって撮像された画像に対する各種処理、撮像された画像に基づいた運転者のジェスチャーの判定、および、判定されたジェスチャーに対応する操作コマンドのカーナビゲーション装置20への送信を制御する。制御ユニット14は、輝度演算部141(輝度演算手段)と、LED制御部142(赤外線制御手段)と、画像処理部143(画像処理手段)と、ジェスチャー判定部144(判定手段)と、コマンド生成部145(命令手段)と、記憶部146(記憶手段)と、を有する。   The control unit 14 is responsible for overall control of the input controller 10. Specifically, the control unit 14 adjusts the intensity of the infrared light emitted from the infrared LED unit 11, performs various processes on the image captured by the camera unit 12, determines the driver's gesture based on the captured image, and The transmission of the operation command corresponding to the determined gesture to the car navigation device 20 is controlled. The control unit 14 includes a luminance calculation unit 141 (luminance calculation unit), an LED control unit 142 (infrared control unit), an image processing unit 143 (image processing unit), a gesture determination unit 144 (determination unit), and a command generator. A unit 145 (instruction unit) and a storage unit 146 (storage unit).

輝度演算部141は、カメラユニット12によって撮像された画像において、赤外線LEDユニット11からの赤外線の照射領域に相当するエリアの輝度の平均値、および、照射領域外の所定のエリアの輝度の平均値を算出する。輝度演算部141は、照射領域に相当するエリアの輝度の平均値と、照射領域外の所定のエリアの輝度の平均値との輝度差を算出する。   In the image captured by the camera unit 12, the luminance calculation unit 141 is an average value of luminance in an area corresponding to an infrared irradiation area from the infrared LED unit 11 and an average value of luminance in a predetermined area outside the irradiation area. Is calculated. The luminance calculation unit 141 calculates a luminance difference between the average value of the luminance of the area corresponding to the irradiation region and the average value of the luminance of a predetermined area outside the irradiation region.

LED制御部142は、赤外線LEDユニット11から照射する赤外線の強度を制御する。   The LED control unit 142 controls the intensity of infrared rays emitted from the infrared LED unit 11.

画像処理部143は、カメラユニット12によって撮像された画像を二値化し、二値化した画像に運転者の手によるジェスチャーが含まれるか否かを判断する。   The image processing unit 143 binarizes the image captured by the camera unit 12 and determines whether or not a gesture by the driver's hand is included in the binarized image.

ジェスチャー判定部144は、画像処理部143によって検出されたジェスチャーが、どのようなジェスチャーであるかを判定する。なお、ジェスチャーは運転者の手によるものに限定されるものではなく、広く操作指示をするための指示物体(手を含む)であってもよい。   The gesture determination unit 144 determines what kind of gesture the gesture detected by the image processing unit 143 is. Note that the gesture is not limited to that by the driver's hand, and may be an indication object (including a hand) for giving a wide range of operation instructions.

コマンド生成部145は、ジェスチャー判定部144によって判定されたジェスチャーに対応する操作対象機器としてのカーナビゲーション装置20に対する操作コマンドを生成する。   The command generation unit 145 generates an operation command for the car navigation device 20 as an operation target device corresponding to the gesture determined by the gesture determination unit 144.

記憶部146は、LED制御部142によって照射する赤外線が所定の強度に制御された場合に、カメラユニット12によって撮像された画像において赤外線の照射領域に相当するエリアの輝度最大値、および照射領域外の所定のエリアの輝度の平均値を記憶する。記憶部146は、RAM(Random Access Memory)またはSSD(Solid State Drive)等の書き換え可能な揮発性または不揮発性の記憶装置によって実現される。   When the infrared light irradiated by the LED control unit 142 is controlled to a predetermined intensity, the storage unit 146 has a luminance maximum value in an area corresponding to the infrared irradiation area in the image captured by the camera unit 12 and the outside of the irradiation area. The average value of the brightness of the predetermined area is stored. The storage unit 146 is realized by a rewritable volatile or nonvolatile storage device such as a RAM (Random Access Memory) or an SSD (Solid State Drive).

輝度演算部141、LED制御部142、画像処理部143、ジェスチャー判定部144およびコマンド生成部145は、図示しないROM(Read Only Memory)等に記憶されたプログラムをCPU(Central Processing Unit)等が実行することにより実現される機能または手段である。なお、輝度演算部141、LED制御部142、画像処理部143、ジェスチャー判定部144およびコマンド生成部145の一部または全部は、ソフトウェアであるプログラムではなく、ハードウェア回路によって実現されてもよい。また、輝度演算部141、LED制御部142、画像処理部143、ジェスチャー判定部144およびコマンド生成部145は、機能を概念的に構成したものであって、このような構成に限定されるものではない。   The luminance calculation unit 141, the LED control unit 142, the image processing unit 143, the gesture determination unit 144, and the command generation unit 145 are executed by a CPU (Central Processing Unit) or the like that executes a program stored in a ROM (Read Only Memory) or the like (not shown). It is a function or means realized by doing. Note that some or all of the luminance calculation unit 141, the LED control unit 142, the image processing unit 143, the gesture determination unit 144, and the command generation unit 145 may be realized by a hardware circuit instead of a program that is software. Further, the luminance calculation unit 141, the LED control unit 142, the image processing unit 143, the gesture determination unit 144, and the command generation unit 145 are conceptually configured functions, and are not limited to such a configuration. Absent.

(輝度調整処理の動作)
図3は、実施形態の入力コントローラにおける赤外線LEDの輝度調整処理の動作例を示すフローチャートである。図4は、実施形態のカメラユニットによって撮像される画像およびサンプルエリアの例を示す図である。図3および4を参照しながら、本実施形態の入力コントローラ10における赤外線LEDユニット11から照射される赤外線についての輝度調整処理について説明する。
(Brightness adjustment processing operation)
FIG. 3 is a flowchart illustrating an operation example of luminance adjustment processing of the infrared LED in the input controller according to the embodiment. FIG. 4 is a diagram illustrating an example of an image captured by the camera unit of the embodiment and a sample area. With reference to FIGS. 3 and 4, a description will be given of luminance adjustment processing for infrared rays emitted from the infrared LED unit 11 in the input controller 10 of the present embodiment.

<ステップS11>
制御ユニット14のLED制御部142は、赤外線LEDユニット11から所定強度の赤外線をある程度の広がりをもった状態で照射させる。カメラユニット12は、自動車のルーフに向かう撮像方向の画像を撮像し、画像を制御ユニット14の輝度演算部141に送信する。カメラユニット12が撮像する画像は、赤外線LEDユニット11から照射された赤外線のうち自動車のルーフ等から反射した赤外線が赤外線透過フィルタ412を透過して撮像された白黒の画像である。そして、ステップS12へ進む。
<Step S11>
The LED control unit 142 of the control unit 14 irradiates the infrared LED unit 11 with an infrared ray having a predetermined intensity with a certain extent. The camera unit 12 captures an image in the imaging direction toward the roof of the automobile, and transmits the image to the luminance calculation unit 141 of the control unit 14. The image picked up by the camera unit 12 is a black and white image picked up by infrared rays reflected from the roof of an automobile among the infrared rays irradiated from the infrared LED unit 11 through the infrared transmission filter 412. Then, the process proceeds to step S12.

<ステップS12>
輝度演算部141は、図4に示すように、受信した画像である撮像画像201において、赤外線LEDユニット11からルーフに照射される赤外線のエリアである照射領域251内に含まれる所定のエリアである照射領域サンプルエリア202(第1エリア)の輝度の平均値(以下、照射部輝度平均値という)(第4輝度)を算出する。また、輝度演算部141は、撮像画像201において、照射領域251外の所定のエリアである周辺部サンプルエリア203a〜203d(第2エリア)それぞれの輝度の平均値(以下、周辺部輝度平均値という)を算出する。輝度演算部141は、算出した周辺部サンプルエリア203a〜203dそれぞれの輝度の平均値から最大の平均値(以下、周辺部輝度最大平均値という)(第5輝度)を抽出する。この場合、赤外線が照射されている照射領域251内の照射領域サンプルエリア202の輝度は高く、赤外線が照射されていない照射領域251外の周辺部サンプルエリア203a〜203dの輝度は低い状態となる。そして、輝度演算部141は、照射部輝度平均値と周辺部輝度最大平均値との差である輝度差を算出する。そして、ステップS13へ進む。なお、周辺部サンプルエリア203a〜203dについて、区別なく称する場合、または総称する場合、単に、周辺部サンプルエリア203というものとする。
<Step S12>
As shown in FIG. 4, the luminance calculation unit 141 is a predetermined area included in an irradiation area 251 that is an infrared area irradiated on the roof from the infrared LED unit 11 in the captured image 201 that is a received image. An average value of luminance in the irradiation area sample area 202 (first area) (hereinafter referred to as an irradiation unit luminance average value) (fourth luminance) is calculated. In addition, the luminance calculation unit 141 in the captured image 201 is an average value of luminance of the peripheral sample areas 203a to 203d (second area) that is a predetermined area outside the irradiation region 251 (hereinafter referred to as a peripheral luminance average value). ) Is calculated. The luminance calculation unit 141 extracts a maximum average value (hereinafter referred to as a peripheral luminance maximum average value) (fifth luminance) from the calculated average luminance values of the peripheral sample areas 203a to 203d. In this case, the luminance of the irradiation region sample area 202 in the irradiation region 251 irradiated with infrared rays is high, and the luminance of the peripheral portion sample areas 203a to 203d outside the irradiation region 251 not irradiated with infrared rays is low. And the brightness | luminance calculating part 141 calculates the brightness | luminance difference which is a difference of an irradiation part brightness | luminance average value and a peripheral part brightness | luminance maximum average value. Then, the process proceeds to step S13. The peripheral sample areas 203a to 203d are simply referred to as the peripheral sample area 203 when referred to without distinction or collectively.

図4に示す周辺部サンプルエリア203a〜203dのように、輝度の平均値を算出するサンプルエリアを複数とすることによって、照射領域251外のエリアの輝度情報の多くを含んだ状態で周辺部輝度最大平均値を算出することができる。これによって、輝度演算部141は、照射部輝度平均値と周辺部輝度最大平均値との差である輝度差を精度よく算出することができる。   As in the peripheral part sample areas 203a to 203d shown in FIG. 4, the peripheral part luminance is obtained in a state in which much of the luminance information of the area outside the irradiation area 251 is included by using a plurality of sample areas for calculating the average value of the luminance. The maximum average value can be calculated. Thereby, the brightness | luminance calculating part 141 can calculate the brightness | luminance difference which is a difference of an irradiation part brightness | luminance average value and a peripheral part brightness | luminance maximum average value accurately.

なお、図4に示すように、照射領域サンプルエリア202は1つ、かつ、周辺部サンプルエリア203a〜203dは4つとしたが、これに限定されるものではなく、その他の数のサンプルエリアを構成するものとしてもよい。また、図4に示すように、周辺部サンプルエリア203a〜203dは、撮像画像201の四隅に配置されるものとしているが、これに限定されるものではなく、照射領域251外のエリアであればいずれに配置されるものとしてもよい。ただし、撮像画像201に自動車のウィンドウ部分が含まれている場合は、太陽光による赤外線の輝度の影響を低減するため、周辺部サンプルエリア203a〜203dを、ウィンドウ部分を避けた位置に構成することが望ましい。   As shown in FIG. 4, one irradiation area sample area 202 and four peripheral sample areas 203a to 203d are provided. However, the present invention is not limited to this, and other numbers of sample areas are configured. It is good also as what to do. Further, as shown in FIG. 4, the peripheral sample areas 203 a to 203 d are arranged at the four corners of the captured image 201, but the present invention is not limited to this, and any area outside the irradiation region 251 can be used. It is good also as what is arrange | positioned in any. However, if the captured image 201 includes a window portion of the automobile, the peripheral sample areas 203a to 203d should be configured at positions avoiding the window portion in order to reduce the influence of infrared luminance due to sunlight. Is desirable.

<ステップS13>
LED制御部142は、輝度差と所定の目標値とを比較する。LED制御部142による輝度差と目標値との比較の結果、輝度差が目標値よりも大きい場合(ステップS13:大)、ステップS14へ進み、輝度差が目標値よりも小さい場合(ステップS13:小)、ステップS15へ進み、そして、輝度差が目標値と同じである場合(ステップS13:同)、ステップS16へ進む。
<Step S13>
The LED control unit 142 compares the luminance difference with a predetermined target value. As a result of the comparison between the luminance difference and the target value by the LED control unit 142, when the luminance difference is larger than the target value (step S13: large), the process proceeds to step S14, and when the luminance difference is smaller than the target value (step S13: Small), the process proceeds to step S15, and if the luminance difference is the same as the target value (step S13: the same), the process proceeds to step S16.

なお、LED制御部142は、輝度差と所定の目標値との比較を実行しているが、所定の目標値であるか否かの判定は、輝度差が所定の目標範囲内にあるか否かを判定するものを含む概念とする。この場合、輝度差が所定の目標範囲よりも大きい場合、ステップS14へ進み、輝度差が所定の目標範囲よりも小さい場合、ステップS15へ進み、そして、輝度差が所定の目標範囲内である場合、ステップS16へ進むものとすればよい。   Note that the LED control unit 142 performs a comparison between the luminance difference and the predetermined target value, but whether or not the luminance difference is within the predetermined target range is determined as to whether or not the luminance difference is within the predetermined target range. It is a concept including what determines whether or not. In this case, when the luminance difference is larger than the predetermined target range, the process proceeds to step S14. When the luminance difference is smaller than the predetermined target range, the process proceeds to step S15, and when the luminance difference is within the predetermined target range. The process proceeds to step S16.

<ステップS14>
LED制御部142は、赤外線LEDユニット11から照射している赤外線の強度を所定量小さくする。そして、ステップS11に戻り、再び、カメラユニット12は画像を撮像する。
<Step S14>
The LED control unit 142 reduces the intensity of the infrared light emitted from the infrared LED unit 11 by a predetermined amount. Then, returning to step S11, the camera unit 12 captures an image again.

<ステップS15>
LED制御部142は、赤外線LEDユニット11から照射している赤外線の強度を所定量大きくする。そして、ステップS11に戻り、再び、カメラユニット12は画像を撮像する。
<Step S15>
The LED control unit 142 increases the intensity of infrared rays emitted from the infrared LED unit 11 by a predetermined amount. Then, returning to step S11, the camera unit 12 captures an image again.

このように、ステップS14およびステップS15の動作が繰り返されることによって、輝度差が所定の目標値と一致するように、赤外線LEDユニット11から照射される赤外線の強度が調整される。   In this way, by repeating the operations of step S14 and step S15, the intensity of the infrared rays emitted from the infrared LED unit 11 is adjusted so that the luminance difference matches a predetermined target value.

<ステップS16>
LED制御部142は、輝度差と所定の目標値とが同じである場合、そのときの赤外線LEDユニット11からの赤外線の照射強度を維持し、輝度演算部141は、照射領域サンプルエリア202の輝度最大値(第1輝度)を求め、その輝度最大値を記憶部146に記憶させる。さらに、LED制御部142は、輝度差と所定の目標値とが同じである場合において、ステップS12において輝度演算部141により算出された周辺部サンプルエリア203a〜203dそれぞれの周辺部輝度平均値(第2輝度)を、記憶部146に記憶させる。ここで、記憶部146に記憶された周辺部輝度平均値を、「基準輝度平均値」というものとする。
<Step S16>
When the difference in luminance and the predetermined target value are the same, the LED control unit 142 maintains the irradiation intensity of infrared rays from the infrared LED unit 11 at that time, and the luminance calculation unit 141 displays the luminance of the irradiation area sample area 202. The maximum value (first luminance) is obtained, and the maximum luminance value is stored in the storage unit 146. Further, the LED control unit 142, when the luminance difference and the predetermined target value are the same, the peripheral luminance average values (first values) of the peripheral sample areas 203a to 203d calculated by the luminance calculation unit 141 in step S12. 2 luminance) is stored in the storage unit 146. Here, the peripheral luminance average value stored in the storage unit 146 is referred to as a “reference luminance average value”.

以上のように輝度調整処理が実行される。輝度調整処理は、操作入力システム1の起動時に初期動作として実行され、その後は、所定時間ごとに実行されるものとすればよい。   The brightness adjustment process is executed as described above. The brightness adjustment process may be executed as an initial operation when the operation input system 1 is started, and thereafter executed every predetermined time.

(ジェスチャー操作認識処理)
図5は、実施形態の入力コントローラにおけるジェスチャー操作認識処理の動作例を示すフローチャートである。図6は、実施形態の入力コントローラにより撮像された画像の二値化画像の例を示す図である。図7は、実施形態の入力コントローラにより撮像された画像の二値化画像から距離変換と輪郭抽出とを行って求めた輪郭抽出画像を示す図である。図5〜7を参照しながら、本実施形態の入力コントローラ10におけるジェスチャー操作認識処理について説明する。
(Gesture operation recognition processing)
FIG. 5 is a flowchart illustrating an operation example of gesture operation recognition processing in the input controller according to the embodiment. FIG. 6 is a diagram illustrating an example of a binarized image captured by the input controller according to the embodiment. FIG. 7 is a diagram illustrating a contour extraction image obtained by performing distance conversion and contour extraction from a binarized image captured by the input controller according to the embodiment. A gesture operation recognition process in the input controller 10 of the present embodiment will be described with reference to FIGS.

<ステップS31>
カメラユニット12は、自動車のルーフに向かう撮像方向の画像を撮像し、画像を制御ユニット14の輝度演算部141に送信する。そして、ステップS32へ進む。
<Step S31>
The camera unit 12 captures an image in the imaging direction toward the roof of the automobile, and transmits the image to the luminance calculation unit 141 of the control unit 14. Then, the process proceeds to step S32.

<ステップS32>
輝度演算部141は、受信した画像である撮像画像201(図4参照)において、周辺部サンプルエリア203a〜203dそれぞれの周辺部輝度平均値(第3輝度)を算出する。また、輝度演算部141は、算出した周辺部輝度平均値と、記憶部146に記憶された基準輝度平均値との差の絶対値を周辺部サンプルエリア203ごとに算出する。そして、輝度演算部141は、算出した絶対値がそれぞれ所定値以上であるか否かを判定する。すべての周辺部サンプルエリア203に対応する絶対値が所定値以上である場合、輝度演算部141は、操作入力システム1を搭載する自動車がトンネルに突入した等の外部環境の明るさに変化が生じたものと判定し、ステップS33へ進む。一方、周辺部サンプルエリア203に対応する絶対値のうち少なくともいずれかが所定値未満である場合、輝度演算部141は、外部環境の明るさに変化が生じていないと判定し、ステップS34へ進む。
<Step S32>
The luminance calculation unit 141 calculates the peripheral luminance average value (third luminance) of each of the peripheral sample areas 203a to 203d in the captured image 201 (see FIG. 4) that is the received image. In addition, the luminance calculation unit 141 calculates the absolute value of the difference between the calculated peripheral luminance average value and the reference luminance average value stored in the storage unit 146 for each peripheral sample area 203. And the brightness | luminance calculating part 141 determines whether the calculated absolute value is more than a predetermined value, respectively. When the absolute values corresponding to all the peripheral sample areas 203 are greater than or equal to a predetermined value, the brightness calculation unit 141 causes a change in the brightness of the external environment such as a car on which the operation input system 1 is mounted enters a tunnel. The process proceeds to step S33. On the other hand, if at least one of the absolute values corresponding to the peripheral sample area 203 is less than the predetermined value, the luminance calculation unit 141 determines that there is no change in the brightness of the external environment, and proceeds to step S34. .

<ステップS33>
輝度演算部141は、周辺部サンプルエリア203ごとの周辺部輝度平均値と基準輝度平均値との差の平均値を算出し、この平均値を輝度補正値とする。輝度演算部141は、記憶部146に記憶されている輝度最大値に対して、輝度補正値を加算することにより補正し、記憶部146に記憶されている輝度最大値を、補正した輝度最大値に更新する。そして、ステップS34へ進む。
<Step S33>
The luminance calculation unit 141 calculates an average value of the difference between the peripheral luminance average value and the reference luminance average value for each peripheral sample area 203, and uses the average value as the luminance correction value. The luminance calculation unit 141 corrects the luminance maximum value stored in the storage unit 146 by adding a luminance correction value, and the luminance maximum value stored in the storage unit 146 is corrected. Update to Then, the process proceeds to step S34.

例えば、周辺部サンプルエリア203a〜203dそれぞれの基準輝度平均値が「120」、「123」、「124」、「125」である場合を考える。まず、外部環境の明るさが暗くなって、輝度演算部141により周辺部サンプルエリア203a〜203dそれぞれの周辺部輝度平均値が「92」、「93」、「94」、「93」と算出されたものとする。この場合、輝度演算部141により算出される周辺部サンプルエリア203ごとの周辺部輝度平均値と基準輝度平均値との差の絶対値は、それぞれ「28」、「30」、「30」、「32」となる。ここで、比較対象である所定値を「10」とすると、すべての絶対値が所定値以上となるので、輝度演算部141は、外部環境の明るさに変化が生じたものと判定することになる。この場合、輝度演算部141により算出される周辺部サンプルエリア203ごとの周辺部輝度平均値と基準輝度平均値との差は、それぞれ「−28」、「−30」、「−30」、「−32」となる。そして、輝度演算部141は、これらの差の平均値である「−30」を算出して輝度補正値とする。記憶部146に記憶されている輝度最大値が、例えば「135」であるとすると、輝度演算部141は、輝度最大値「135」に対して、輝度補正値「−30」を加算することにより補正し、補正した輝度最大値「105」を求める。   For example, consider a case where the reference luminance average values of the peripheral sample areas 203a to 203d are “120”, “123”, “124”, and “125”. First, the brightness of the external environment becomes dark, and the luminance calculation unit 141 calculates the peripheral luminance average values of the peripheral sample areas 203a to 203d as “92”, “93”, “94”, and “93”. Shall be. In this case, the absolute value of the difference between the peripheral luminance average value and the reference luminance average value for each peripheral sample area 203 calculated by the luminance calculation unit 141 is “28”, “30”, “30”, “ 32 ". Here, if the predetermined value to be compared is “10”, all the absolute values are equal to or larger than the predetermined value, so the luminance calculation unit 141 determines that the brightness of the external environment has changed. Become. In this case, the difference between the peripheral luminance average value and the reference luminance average value for each peripheral sample area 203 calculated by the luminance calculation unit 141 is “−28”, “−30”, “−30”, “ −32 ”. Then, the luminance calculation unit 141 calculates “−30”, which is an average value of these differences, as a luminance correction value. Assuming that the maximum luminance value stored in the storage unit 146 is “135”, for example, the luminance calculation unit 141 adds the luminance correction value “−30” to the maximum luminance value “135”. Correction is performed to obtain a corrected luminance maximum value “105”.

一方、外部環境の明るさが明るくなって、輝度演算部141により周辺部サンプルエリア203a〜203dそれぞれの周辺部輝度平均値が「137」、「141」、「143」、「143」と算出されたものとする。この場合、輝度演算部141により算出される周辺部サンプルエリア203ごとの周辺部輝度平均値と基準輝度平均値との差の絶対値は、それぞれ「17」、「18」、「19」、「18」となる。ここで、比較対象である所定値が上述と同様に「10」であるとすると、すべての絶対値が所定値以上となるので、輝度演算部141は、外部環境の明るさに変化が生じたものと判定することになる。この場合、輝度演算部141により算出される周辺部サンプルエリア203ごとの周辺部輝度平均値と基準輝度平均値との差は、それぞれ「17」、「18」、「19」、「18」となる。そして、輝度演算部141は、これらの差の平均値である「18」を算出して輝度補正値とする。記憶部146に記憶されている輝度最大値が、上述と同様に「135」であるとすると、輝度演算部141は、輝度最大値「135」に対して、輝度補正値「18」を加算することにより補正し、補正した輝度最大値「153」を求める。   On the other hand, the brightness of the external environment becomes bright, and the brightness calculation unit 141 calculates the peripheral brightness average values of the peripheral sample areas 203a to 203d as “137”, “141”, “143”, and “143”. Shall be. In this case, the absolute values of the difference between the peripheral luminance average value and the reference luminance average value for each peripheral sample area 203 calculated by the luminance calculation unit 141 are “17”, “18”, “19”, “ 18 ”. Here, if the predetermined value to be compared is “10” as described above, all the absolute values are equal to or larger than the predetermined value, so that the luminance calculation unit 141 has changed in the brightness of the external environment. It will be judged as a thing. In this case, the difference between the peripheral luminance average value and the reference luminance average value for each peripheral sample area 203 calculated by the luminance calculation unit 141 is “17”, “18”, “19”, and “18”, respectively. Become. Then, the luminance calculation unit 141 calculates “18”, which is an average value of these differences, as a luminance correction value. Assuming that the maximum luminance value stored in the storage unit 146 is “135” as described above, the luminance calculation unit 141 adds the luminance correction value “18” to the maximum luminance value “135”. Thus, the corrected maximum luminance value “153” is obtained.

なお、ステップS32において、輝度演算部141が、すべての周辺部サンプルエリア203に対応する絶対値が所定値以上である場合、外部環境の明るさに変化が生じたものと判定するものとしているが、これに限定されるものではない。例えば、輝度演算部141は、複数の周辺部サンプルエリア203のうち半数以上に対応する絶対値が所定値以上である場合、外部環境の明るさに変化が生じたものと判定するものとしてもよい。この場合、ステップS33において、輝度演算部141は、絶対値が所定値以上である周辺部サンプルエリア203に対応する周辺部平均値と基準輝度平均と差の平均値を算出し、この平均値を輝度補正値とすればよい。   In step S32, the luminance calculation unit 141 determines that the brightness of the external environment has changed when the absolute values corresponding to all the peripheral sample areas 203 are equal to or greater than the predetermined value. However, the present invention is not limited to this. For example, the luminance calculation unit 141 may determine that the brightness of the external environment has changed when the absolute value corresponding to more than half of the plurality of peripheral sample areas 203 is greater than or equal to a predetermined value. . In this case, in step S33, the luminance calculating unit 141 calculates the average value of the difference between the peripheral average value and the reference luminance average corresponding to the peripheral sample area 203 whose absolute value is equal to or greater than the predetermined value, and calculates the average value. A brightness correction value may be used.

また、ステップS33において、輝度演算部141は、周辺部サンプルエリア203ごとの周辺部輝度平均値と基準輝度平均値との差の平均値を算出し、この平均値を輝度補正値としているが、これに限定されるものではない。例えば、輝度演算部141は、周辺部サンプルエリア203ごとの周辺部輝度平均値と基準輝度平均値との差のうち、最大値もしくは最小値等を輝度補正値としてもよく、または、差の平均値、最大値もしくは最小値に所定の係数を乗じた値もしくは所定値を加算した値等を輝度補正値としてもよい。   In step S33, the luminance calculation unit 141 calculates the average value of the difference between the peripheral luminance average value and the reference luminance average value for each peripheral sample area 203, and uses this average value as the luminance correction value. It is not limited to this. For example, the luminance calculation unit 141 may use, as the luminance correction value, the maximum value or the minimum value among the differences between the peripheral luminance average value for each peripheral sample area 203 and the reference luminance average value, or the average of the differences A value obtained by multiplying a value, a maximum value or a minimum value by a predetermined coefficient, or a value obtained by adding a predetermined value may be used as the luminance correction value.

<ステップS34>
輝度演算部141は、受信した画像を構成する各画素の画素値と、記憶部146に記憶されている輝度最大値とを比較して画像を二値化し、図6に示す二値化画像201aを生成する。例えば、輝度演算部141は、受信した画像を構成する各画素の画素値が、輝度最大値よりも大きい場合、値が「1」である画素に変換し、輝度最大値以下である場合、値が「0」である画素に変換して、二値化画像201aを生成する。そして、ステップS35へ進む。
<Step S34>
The luminance calculation unit 141 binarizes the image by comparing the pixel value of each pixel constituting the received image with the maximum luminance value stored in the storage unit 146, and binarized image 201a shown in FIG. Is generated. For example, if the pixel value of each pixel constituting the received image is larger than the maximum luminance value, the luminance calculation unit 141 converts the value to a pixel having a value of “1”, and if the pixel value is equal to or less than the maximum luminance value, Is converted to a pixel having “0” to generate a binarized image 201a. Then, the process proceeds to step S35.

<ステップS35>
図6に示した二値化画像201aは、撮像した画像を二値化した例を示すものであり、画素値「1」の画素の塊であるブロックとしてブロック301〜303を有している。運転者は、入力コントローラ10のカメラユニット12の前に手をかざすと、赤外線LED401から照射した赤外線が手に当たる。手をかざす前は、赤外線LED401から照射した赤外線は、車内のルーフに当たっていたが、手をかざすことによって、ルーフまでの距離よりも短い手の位置で反射し、カメラユニット12に入射することになる。したがって、手をかざした状態でカメラユニット12により撮像された画像において、手の領域部分の輝度は、手をかざしていない状態でカメラユニット12により撮像された画像においてルーフに相当する部分の輝度と比較して高い値となる。よって、カメラユニット12により撮像された画像を二値化すると、手の領域部分の画素の画素値は「1」となり、手の領域以外の部分の画素の画素値は「0」となる。
<Step S35>
A binarized image 201a illustrated in FIG. 6 illustrates an example of binarizing a captured image, and includes blocks 301 to 303 as blocks that are blocks of pixels having a pixel value “1”. When the driver holds his hand in front of the camera unit 12 of the input controller 10, the infrared light emitted from the infrared LED 401 hits his hand. Before the hand is held up, the infrared light emitted from the infrared LED 401 hits the roof in the vehicle, but when the hand is held up, it is reflected at the position of the hand shorter than the distance to the roof and enters the camera unit 12. . Therefore, in the image captured by the camera unit 12 with the hand held up, the brightness of the hand region portion is the brightness of the portion corresponding to the roof in the image captured by the camera unit 12 with the hand held up. It becomes a high value in comparison. Therefore, when the image captured by the camera unit 12 is binarized, the pixel value of the pixel in the hand region portion is “1”, and the pixel value of the pixel in the portion other than the hand region is “0”.

ただし、上述のような方法で撮像画像を二値化すると、細かいノイズが発生することがあるので、ノイズ除去のためのフィルタをかけるのが望ましい。二値化画像のノイズ除去のために、例えば、メディアンフィルタによってフィルタ処理を行う。ここで、メディアンフィルタとは、フィルタ対象の画像におけるn×nの局所領域における画素の画素値を小さい順に並べ、並べた画素値のうち真中に相当する画素値を局所領域の中央の画素の画素値として置換するフィルタである。このような、ノイズ除去のためのフィルタをかけた後でも、手の領域のブロック以外のブロックが残る場合がある。したがって、画像処理部143は、二値化画像201aに複数のブロックが存在する場合、それぞれのブロックの面積を算出し、最大面積のブロックを手の領域のブロックの候補として抽出する。図6においては、画像処理部143は、ブロック301〜303のうち、最大面積を有するブロック301を手の領域のブロックの候補として抽出する。そして、ステップS36へ進む。   However, if the captured image is binarized by the above-described method, fine noise may be generated. Therefore, it is desirable to apply a filter for noise removal. In order to remove noise from the binarized image, for example, filter processing is performed using a median filter. Here, the median filter refers to the pixel value of the pixel in the n × n local region in the filter target image arranged in ascending order, and the pixel value corresponding to the middle among the arranged pixel values is the pixel of the pixel in the center of the local region. A filter that replaces as a value. Even after such a filter for noise removal is applied, there are cases where blocks other than the hand region block remain. Therefore, when there are a plurality of blocks in the binarized image 201a, the image processing unit 143 calculates the area of each block and extracts the block having the maximum area as a candidate for a block in the hand region. In FIG. 6, the image processing unit 143 extracts the block 301 having the largest area among the blocks 301 to 303 as a candidate for the hand region block. Then, the process proceeds to step S36.

<ステップS36>
画像処理部143は、二値化画像201aにおける手の領域の候補であるブロック301の面積を、所定の閾値と比較し、閾値よりも大きい場合、ブロック301が手の領域に対応するものであると判定する。画像処理部143は、二値化画像201aにおいて手の領域の候補であるブロック301の面積が所定の閾値以下である場合、ブロック301が手の領域のブロックでないと判断し、ジェスチャー操作認識処理を終了する。一方、画像処理部143は、手の領域の候補であるブロック301の面積が所定の閾値より大きい場合、ブロック301が手の領域のブロックであると判断し、ステップS37へ進む。
<Step S36>
The image processing unit 143 compares the area of the block 301 that is a candidate for the hand region in the binarized image 201a with a predetermined threshold. If the area is larger than the threshold, the block 301 corresponds to the hand region. Is determined. If the area of the block 301 that is a candidate for the hand region in the binarized image 201a is equal to or smaller than a predetermined threshold, the image processing unit 143 determines that the block 301 is not a block of the hand region, and performs gesture operation recognition processing. finish. On the other hand, if the area of the block 301 that is a candidate for the hand region is larger than the predetermined threshold, the image processing unit 143 determines that the block 301 is a block of the hand region, and proceeds to step S37.

<ステップS37>
画像処理部143は、二値化画像201aにおいて、手の領域のブロックと判定したブロック301の輪郭線を抽出した図7に示す輪郭抽出ブロック301aを含む輪郭抽出画像201bを得る。具体的には、画像処理部143は、二値化画像201aのうちブロック301以外のブロックであるブロック302、303を消去した画像に対して、距離変換処理を実行する。ここで、距離変換処理とは、二値化画像における画素値が「1」である画素の画素値を、その画素から最も近い画素値が「0」である画素までの距離に置換する処理である。距離変換処理した画像において、距離が「1」である画素を結ぶことによって、画像における図形の輪郭線を求めることができる。このようにして求めた画像が輪郭抽出画像201bである。さらに、画像処理部143は、輪郭抽出ブロック301aの輪郭線の長さを算出する。そして、ステップS38へ進む。
<Step S37>
The image processing unit 143 obtains a contour extraction image 201b including a contour extraction block 301a shown in FIG. 7 in which the contour line of the block 301 determined as a hand region block is extracted from the binarized image 201a. Specifically, the image processing unit 143 performs distance conversion processing on an image obtained by deleting the blocks 302 and 303 that are blocks other than the block 301 in the binarized image 201a. Here, the distance conversion process is a process of replacing the pixel value of the pixel having a pixel value “1” in the binarized image with the distance to the pixel having the closest pixel value “0” from the pixel. is there. By connecting pixels with a distance of “1” in the distance-converted image, the contour line of the figure in the image can be obtained. The image obtained in this way is the contour extraction image 201b. Further, the image processing unit 143 calculates the length of the contour line of the contour extraction block 301a. Then, the process proceeds to step S38.

<ステップS38>
ジェスチャー判定部144は、ここでは、例えば、運転者の手によるジェスチャーとして「グー」、「チョキ」および「パー」のいずれのジェスチャーであるかを判定するものとする。手のジェスチャーが「パー」である場合、指それぞれの輪郭線が現れるため、輪郭線が長くなるのに対し、「グー」である場合、手の形状が楕円のようになるため輪郭線も短くなるという特徴がある。ここで、特徴量として(輪郭線の長さ)/(面積の平方根)を定義する。「パー」のような複雑な図形の場合、上述の特徴量は大きくなり、「グー」のような単純な図形の場合、特徴量は小さくなり、「チョキ」の場合は、特徴量はそれらの中間の値となることから、この特徴量を採用することによって、「グー」、「チョキ」および「パー」のジェスチャーの判定が可能となる。ジェスチャー判定部144は、画像処理部143によって算出されたブロック301の面積、および、輪郭抽出ブロック301aの輪郭線の長さから上述の特徴量を算出し、この特徴量に基づいて、手のジェスチャーが「グー」、「チョキ」または「パー」のいずれであるか判定する。そして、ステップS39へ進む。
<Step S38>
Here, the gesture determination unit 144 determines, for example, which gesture is “go”, “choki”, or “par” as a gesture by the driver's hand. When the hand gesture is “par”, the outline of each finger appears, so the outline becomes longer. When it is “Goo”, the shape of the hand becomes an ellipse, so the outline becomes shorter. There is a feature that becomes. Here, (length of contour line) / (square root of area) is defined as the feature amount. In the case of a complex figure such as “Par”, the above-mentioned feature amount is large. In the case of a simple figure such as “Goo”, the feature amount is small. Since this value is an intermediate value, it is possible to determine the gestures of “goo”, “choki”, and “par” by adopting this feature amount. The gesture determination unit 144 calculates the above-described feature amount from the area of the block 301 calculated by the image processing unit 143 and the length of the contour line of the contour extraction block 301a, and based on the feature amount, the gesture of the hand is calculated. Is “goo”, “choki” or “par”. Then, the process proceeds to step S39.

なお、上述のように、ジェスチャー判定部144が判定するジェスチャーとして「グー」、「チョキ」および「パー」を例に挙げたが、これに限定されるものではない。例えば、ジェスチャー判定部144は、立てた指の本数を検出してジェスチャーを判定するものとしてもよい。   As described above, “GOO”, “CHOKI”, and “PAR” are given as examples of gestures determined by the gesture determination unit 144, but the gestures are not limited thereto. For example, the gesture determination unit 144 may determine a gesture by detecting the number of fingers that are raised.

また、ジェスチャー判定部144がジェスチャーを判定するための特徴量として、(輪郭線の長さ)/(面積の平方根)を挙げたが、これに限定されるものではなく、ジェスチャーを判定することが可能な特徴量であれば、どのような特徴量を用いてもよい。   In addition, the feature amount for determining the gesture by the gesture determination unit 144 is (contour length) / (square root of area), but is not limited to this. Any feature amount may be used as long as it is a possible feature amount.

また、ジェスチャー判定部144は、上述のような「グー」、「チョキ」および「パー」のように静的な運転者のジェスチャーのみではなく、過去のジェスチャーと比較して、運転者の手の動き、その方向および指の屈伸等、動的なジェスチャーを判定するものとしてもよい。   In addition, the gesture determination unit 144 is not limited to static driver gestures such as “goo”, “choki”, and “par” as described above, but compared to past gestures, It is good also as what determines dynamic gestures, such as a motion, its direction, and bending and stretching of a finger.

<ステップS39>
コマンド生成部145は、ジェスチャー判定部144によって判定されたジェスチャーに対応するカーナビゲーション装置20に対する操作コマンドを生成する。そして、ステップS40へ進む。
<Step S39>
The command generation unit 145 generates an operation command for the car navigation device 20 corresponding to the gesture determined by the gesture determination unit 144. Then, the process proceeds to step S40.

<ステップS40>
コマンド生成部145は、生成した操作コマンドを、通信インターフェース13および通信ケーブル30を介して、カーナビゲーション装置20に送信する。カーナビゲーション装置20は、受信した操作コマンドにしたがって、操作コマンドに対応した機能を実行する。
<Step S40>
The command generation unit 145 transmits the generated operation command to the car navigation device 20 via the communication interface 13 and the communication cable 30. The car navigation device 20 executes a function corresponding to the operation command in accordance with the received operation command.

例えば、カーナビゲーション装置20は、ジェスチャー判定部144によって判定されたジェスチャーが「パー」である場合、表示画面421に表示されている地図を市街図に変更する。また、カーナビゲーション装置20は、ジェスチャーが「チョキ」である場合、表示画面421に表示されている地図を拡大し、ジェスチャーが「グー」である場合、表示画面421に表示されている地図を縮小する。   For example, when the gesture determined by the gesture determination unit 144 is “par”, the car navigation device 20 changes the map displayed on the display screen 421 to a city map. Further, the car navigation device 20 enlarges the map displayed on the display screen 421 when the gesture is “Choki”, and reduces the map displayed on the display screen 421 when the gesture is “Goo”. To do.

以上のようなジェスチャー操作認識処理は、繰り返し実行されるものとする。上述のようなジェスチャー操作認識処理が実行されることによって、運転者のジェスチャーによって、操作対象機器であるカーナビゲーション装置20を操作することが可能になる。   The gesture operation recognition process as described above is repeatedly executed. By performing the gesture operation recognition process as described above, it is possible to operate the car navigation device 20 that is the operation target device by a driver's gesture.

また、ステップS35で、画像処理部143により何らかの最大面積を有するブロックが抽出され、ステップS36で、画像処理部143によりそのブロックの面積が所定の閾値以下である場合、運転者が何らかのジェスチャー操作を試みた可能性が高く、輝度調整処理が適切に実行されていない可能性も高い。このように、ステップS36で画像処理部143によりそのブロックの面積が所定の閾値以下となり、ジェスチャー操作認識処理が終了したとき、制御ユニット14は、輝度調整処理を実行するのが望ましい。   In step S35, a block having some maximum area is extracted by the image processing unit 143. If the area of the block is equal to or smaller than a predetermined threshold value in step S36, the driver performs some gesture operation. There is a high possibility that it has been tried, and there is a high possibility that the brightness adjustment processing has not been properly executed. As described above, when the area of the block is equal to or smaller than the predetermined threshold by the image processing unit 143 in step S36 and the gesture operation recognition process is completed, the control unit 14 desirably executes the brightness adjustment process.

以上のように、入力コントローラ10は、輝度調整処理において、周辺部サンプルエリア203それぞれの周辺部輝度平均値を記憶して基準輝度平均値とし、ジェスチャー操作認識処理において、周辺部輝度平均値と基準輝度平均値との差の絶対値に基づいて、外部環境の明るさに変化が生じたか否かを判定している。そして、入力コントローラ10は、外部環境の明るさに変化が生じたと判定した場合、周辺部輝度平均値と基準輝度平均値との差に基づいて輝度補正値として算出し、この輝度補正値によって輝度最大値を補正するものとしている。これによって、自動車がトンネルに入り、または、出た場合等のように外部環境の明るさが変化した場合において、輝度最大値が補正され、補正された輝度最大値に基づいてジェスチャーが検出されるため、外乱の影響を抑制してジェスチャーの検出精度を向上させることができる。   As described above, the input controller 10 stores the peripheral brightness average value of each peripheral sample area 203 in the brightness adjustment process and sets it as the reference brightness average value. In the gesture operation recognition process, the input controller 10 determines the peripheral brightness average value and the reference brightness value. Whether or not the brightness of the external environment has changed is determined based on the absolute value of the difference from the average brightness value. When the input controller 10 determines that the brightness of the external environment has changed, the input controller 10 calculates the brightness correction value based on the difference between the peripheral brightness average value and the reference brightness average value, and the brightness correction value is used to determine the brightness. The maximum value is to be corrected. As a result, when the brightness of the external environment changes, such as when a car enters or exits a tunnel, the maximum luminance value is corrected, and a gesture is detected based on the corrected maximum luminance value. Therefore, the influence of disturbance can be suppressed and the gesture detection accuracy can be improved.

また、赤外線LEDユニット11によって撮像される赤外線による画像において、照射領域サンプルエリア202の輝度と、周辺部サンプルエリア203a〜203dの輝度との差である輝度差が、目標の輝度差となるように、赤外線LEDユニット11から照射される赤外線の照射強度を調整している。これによって、入力コントローラ10の周辺環境の変化に応じて、赤外線の照射強度が調整されるので、ジェスチャー操作認識処理に対する外乱の影響を抑制し、ジェスチャーの検出精度を向上させることができる。また、可視光を利用せずに赤外線を利用するので夜間でも使用することが可能であり、かつ、昼間でも外乱として太陽光の影響も受けにくいので、入力コントローラ10の機器の信頼性が向上する。さらに、赤外線LEDユニット11から照射される赤外線の照射強度は、上述のように、目標の輝度差となるように調整されるので、消費電力の増大を抑制することができる。   Further, in the infrared image captured by the infrared LED unit 11, the luminance difference that is the difference between the luminance of the irradiation region sample area 202 and the luminance of the peripheral sample areas 203a to 203d becomes a target luminance difference. The irradiation intensity of infrared rays emitted from the infrared LED unit 11 is adjusted. Thereby, since the irradiation intensity of infrared rays is adjusted according to the change in the surrounding environment of the input controller 10, the influence of disturbance on the gesture operation recognition process can be suppressed, and the gesture detection accuracy can be improved. In addition, since infrared rays are used without using visible light, they can be used at night and are not easily affected by sunlight as disturbances even in the daytime, so that the reliability of the device of the input controller 10 is improved. . Furthermore, since the irradiation intensity of infrared rays emitted from the infrared LED unit 11 is adjusted so as to have a target luminance difference as described above, an increase in power consumption can be suppressed.

また、本実施の形態に係る操作入力システム1は、昼間は可視光カメラを使用し、夜間は赤外線カメラを使用するというように、2つのカメラを使用する必要がないので、コストの増大を抑制することができる。   In addition, the operation input system 1 according to the present embodiment does not require the use of two cameras, such as using a visible light camera during the daytime and using an infrared camera during the nighttime, thereby suppressing an increase in cost. can do.

なお、図3に示すステップS12、および図5に示すステップS32において、周辺部サンプルエリア203ぞれぞれの輝度の平均値が周辺部輝度平均値として算出されているが、これに限定されるものではない。例えば、周辺部サンプルエリア203それぞれの輝度の最大値または最小値等が算出されるものとしてもよい。   In step S12 shown in FIG. 3 and step S32 shown in FIG. 5, the average value of the luminance of each peripheral sample area 203 is calculated as the peripheral luminance average value. However, the present invention is not limited to this. It is not a thing. For example, the maximum value or minimum value of the brightness of each peripheral sample area 203 may be calculated.

また、図3に示すステップS16において、照射領域サンプルエリア202の輝度の最大値である輝度最大値が求められ、図5に示すステップS33において、輝度最大値に対して輝度補正値により補正がなされ、ステップS34において、輝度最大値が撮像画像に対する画像処理(二値化)の基準値として用いられているが、これに限定されるものではない。例えば、ステップS16において、照射領域サンプルエリア202の輝度の平均値が求められてもよく、または、輝度の最大値もしくは平均値に所定の係数を乗じた値もしくは所定値を加算した値等が求められてもよい。この場合、図5に示すステップS33において、ステップS16において求められた値に対して輝度補正値により補正がなされ、ステップS34において、ステップS16において求められた値を撮像画像に対する画像処理の基準値として用いられるものとすればよい。   Further, in step S16 shown in FIG. 3, the maximum luminance value that is the maximum luminance value of the irradiation region sample area 202 is obtained, and in step S33 shown in FIG. 5, the maximum luminance value is corrected by the luminance correction value. In step S34, the maximum luminance value is used as a reference value for image processing (binarization) on the captured image, but the present invention is not limited to this. For example, in step S16, an average value of luminance of the irradiation region sample area 202 may be obtained, or a value obtained by multiplying the maximum value or average value of the luminance by a predetermined coefficient or adding a predetermined value is obtained. May be. In this case, in step S33 shown in FIG. 5, the value obtained in step S16 is corrected by the brightness correction value, and in step S34, the value obtained in step S16 is used as a reference value for image processing on the captured image. It should just be used.

1 操作入力システム
10 入力コントローラ
11 赤外線LEDユニット
12 カメラユニット
13 通信インターフェース
14 制御ユニット
20 カーナビゲーション装置
30 通信ケーブル
141 輝度演算部
142 LED制御部
143 画像処理部
144 ジェスチャー判定部
145 コマンド生成部
146 記憶部
201 撮像画像
201a 二値化画像
201b 輪郭抽出画像
202 照射領域サンプルエリア
203、203a〜203d 周辺部サンプルエリア
251 照射領域
301〜303 ブロック
301a 輪郭抽出ブロック
401 赤外線LED
411 カメラ
412 赤外線透過フィルタ
421 表示画面
DESCRIPTION OF SYMBOLS 1 Operation input system 10 Input controller 11 Infrared LED unit 12 Camera unit 13 Communication interface 14 Control unit 20 Car navigation apparatus 30 Communication cable 141 Luminance calculation part 142 LED control part 143 Image processing part 144 Gesture determination part 145 Command generation part 146 Storage part 201 Captured Image 201a Binary Image 201b Contour Extracted Image 202 Irradiation Area Sample Area 203, 203a-203d Peripheral Sample Area 251 Irradiation Area 301-303 Block 301a Contour Extraction Block 401 Infrared LED
411 Camera 412 Infrared transmission filter 421 Display screen

Claims (8)

赤外線を照射する赤外線照射手段と、
赤外線を検出して画像を撮像する撮像手段と、
前記撮像手段により撮像された前記画像である撮像画像から指示物体の形状を検出する画像処理手段と、
前記赤外線照射手段から照射される赤外線の照射強度を調整する赤外線制御手段と、
前記赤外線制御手段により前記照射強度が調整された場合の前記撮像画像における前記赤外線照射手段により赤外線が照射される第1エリアの、前記画像処理手段による前記形状の検出に利用される第1輝度、および、前記撮像画像における前記第1エリア外に配置された複数の第2エリアのそれぞれの第2輝度を記憶する記憶手段と、
前記撮像手段により撮像された前記撮像画像における前記複数の第2エリアのそれぞれの第3輝度を求め、前記複数の第2エリアのうち少なくともいずれかに対応する前記第3輝度と前記第2輝度との差の絶対値が、所定値以上である場合、前記差に基づいて輝度補正値を算出し、前記輝度補正値により前記第1輝度を補正する輝度演算手段と、
前記画像処理手段により検出された前記形状から、前記指示物体による操作内容を判定する判定手段と、
前記操作内容に対応した機能を操作対象機器に実行させる命令手段と、
を備えた操作入力装置。
Infrared irradiation means for irradiating infrared rays;
An image pickup means for picking up an image by detecting infrared rays;
Image processing means for detecting the shape of the pointing object from the captured image that is the image captured by the imaging means;
An infrared control means for adjusting the irradiation intensity of infrared rays emitted from the infrared irradiation means;
A first luminance used for detection of the shape by the image processing unit in a first area irradiated with infrared rays by the infrared irradiation unit in the captured image when the irradiation intensity is adjusted by the infrared control unit; And storage means for storing the second luminance of each of the plurality of second areas arranged outside the first area in the captured image;
3rd brightness | luminance of each of these 2nd area in the said picked-up image imaged by the said imaging means is calculated | required, The said 3rd brightness | luminance corresponding to at least any one of these 2nd area, and said 2nd brightness | luminance, A luminance calculation means for calculating a luminance correction value based on the difference when the absolute value of the difference is equal to or greater than a predetermined value, and correcting the first luminance by the luminance correction value;
Determination means for determining the operation content by the pointing object from the shape detected by the image processing means;
Command means for causing the operation target device to execute a function corresponding to the operation content;
An operation input device comprising:
前記輝度演算手段は、前記複数の第2エリアのうちすべてに対応する前記第3輝度と前記第2輝度との差の絶対値が、前記所定値以上である場合、前記第1輝度を補正する請求項1に記載の操作入力装置。   The luminance calculation means corrects the first luminance when an absolute value of a difference between the third luminance and the second luminance corresponding to all of the plurality of second areas is equal to or greater than the predetermined value. The operation input device according to claim 1. 前記輝度演算手段は、前記第1エリアの第4輝度と、前記複数の第2エリアについての第5輝度との輝度差を算出し、
前記赤外線制御手段は、前記輝度差が所定の目標値になるように、前記照射強度を調整し、
前記輝度演算手段は、前記輝度差が前記所定の目標値になった場合における前記第1輝度および前記第2輝度を前記記憶手段に記憶させる請求項1または2に記載の操作入力装置。
The luminance calculation means calculates a luminance difference between the fourth luminance of the first area and the fifth luminance of the plurality of second areas,
The infrared control means adjusts the irradiation intensity so that the luminance difference becomes a predetermined target value,
The operation input device according to claim 1, wherein the luminance calculation unit causes the storage unit to store the first luminance and the second luminance when the luminance difference reaches the predetermined target value.
前記第1輝度は、前記第1エリアの輝度の最大値である請求項1〜3のいずれか一項に記載の操作入力装置。   The operation input device according to claim 1, wherein the first luminance is a maximum luminance value of the first area. 前記第2輝度および前記第3輝度は、前記第2エリアの輝度の平均値である請求項1〜4のいずれか一項に記載の操作入力装置。   The operation input device according to claim 1, wherein the second luminance and the third luminance are average values of luminance of the second area. 前記画像処理手段は、前記撮像手段によって撮像された前記撮像画像を構成する各画素の画素値と、前記第1輝度とを比較して二値化画像を生成し、前記二値化画像から前記指示物体の形状を検出する請求項1〜5のいずれか一項に記載の操作入力装置。   The image processing unit generates a binarized image by comparing a pixel value of each pixel constituting the captured image captured by the imaging unit with the first luminance, and generates the binarized image from the binarized image. The operation input device according to claim 1, wherein the shape of the pointing object is detected. 赤外線を照射するステップと、
赤外線を検出して撮像し、画像を生成するステップと、
撮像した前記画像である撮像画像から指示物体の形状を検出するステップと、
照射する赤外線の照射強度を調整するステップと、
前記照射強度を調整した場合の前記撮像画像における赤外線が照射される第1エリアの、前記形状の検出に利用する第1輝度、および、前記撮像画像における前記第1エリア外に配置された複数の第2エリアのそれぞれの第2輝度を記憶するステップと、
撮像した前記撮像画像における前記複数の第2エリアのそれぞれの第3輝度を求め、前記複数の第2エリアのうち少なくともいずれかに対応する前記第3輝度と前記第2輝度との差の絶対値が、所定値以上である場合、前記差に基づいて輝度補正値を算出し、前記輝度補正値により前記第1輝度を補正するステップと、
検出した前記形状から、前記指示物体による操作内容を判定するステップと、
前記操作内容に対応した機能を操作対象機器に実行させるステップと、
を有する操作入力方法。
Irradiating with infrared rays; and
Detecting and capturing infrared light to generate an image;
Detecting the shape of the pointing object from the captured image that is the captured image;
Adjusting the irradiation intensity of the infrared rays to be irradiated;
A first luminance used for detecting the shape of a first area irradiated with infrared rays in the captured image when the irradiation intensity is adjusted, and a plurality of pixels arranged outside the first area in the captured image Storing each second luminance of the second area;
An absolute value of a difference between the third luminance and the second luminance corresponding to at least one of the plurality of second areas is obtained by obtaining a third luminance of each of the plurality of second areas in the captured image. Is a predetermined value or more, calculating a luminance correction value based on the difference, and correcting the first luminance by the luminance correction value;
Determining the operation content by the pointing object from the detected shape;
Causing the operation target device to execute a function corresponding to the operation content;
An operation input method comprising:
撮像手段によって赤外線が検出されて撮像された画像である撮像画像から指示物体の形状を検出する画像処理手段と、
赤外線照射手段から照射される赤外線の照射強度を調整する赤外線制御手段と、
前記赤外線制御手段により前記照射強度が調整された場合の前記撮像画像における前記赤外線照射手段により赤外線が照射される第1エリアの、前記画像処理手段による前記形状の検出に利用される第1輝度、および、前記撮像画像における前記第1エリア外に配置された複数の第2エリアのそれぞれの第2輝度を記憶手段に記憶させ、前記撮像手段により撮像された前記撮像画像における前記複数の第2エリアのそれぞれの第3輝度を求め、前記複数の第2エリアのうち少なくともいずれかに対応する前記第3輝度と前記第2輝度との差の絶対値が、所定値以上である場合、前記差に基づいて輝度補正値を算出し、前記輝度補正値により前記第1輝度を補正する輝度演算手段と、
前記画像処理手段により検出された前記形状から、前記指示物体による操作内容を判定する判定手段と、
前記操作内容に対応した機能を操作対象機器に実行させる命令手段と、
をコンピュータに実現するためのプログラム。
Image processing means for detecting the shape of the pointing object from a picked-up image that is an image picked up by detecting infrared rays by the image pickup means;
Infrared control means for adjusting the irradiation intensity of infrared rays emitted from the infrared irradiation means;
A first luminance used for detection of the shape by the image processing unit in a first area irradiated with infrared rays by the infrared irradiation unit in the captured image when the irradiation intensity is adjusted by the infrared control unit; And each 2nd brightness | luminance of the several 2nd area arrange | positioned outside the said 1st area in the said captured image is memorize | stored in a memory | storage means, The said 2nd multiple area in the said captured image imaged by the said imaging means When the absolute value of the difference between the third luminance and the second luminance corresponding to at least one of the plurality of second areas is equal to or greater than a predetermined value, A luminance calculation unit that calculates a luminance correction value based on the luminance correction value and corrects the first luminance by the luminance correction value;
Determination means for determining the operation content by the pointing object from the shape detected by the image processing means;
Command means for causing the operation target device to execute a function corresponding to the operation content;
A program for realizing the above on a computer.
JP2014014753A 2013-09-27 2014-01-29 Operation input device, operation input method and program Active JP6052193B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014014753A JP6052193B2 (en) 2014-01-29 2014-01-29 Operation input device, operation input method and program
PCT/JP2014/067986 WO2015045550A1 (en) 2013-09-27 2014-07-04 Operation input apparatus, operation input method, and program
EP14848824.0A EP3051384B1 (en) 2013-09-27 2014-07-04 Infrared based gesture detection
US15/040,061 US9807320B2 (en) 2013-09-27 2016-02-10 Operation input device, operation input method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014014753A JP6052193B2 (en) 2014-01-29 2014-01-29 Operation input device, operation input method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016221343A Division JP6252657B2 (en) 2016-11-14 2016-11-14 ADJUSTMENT DEVICE, ADJUSTMENT METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2015141616A true JP2015141616A (en) 2015-08-03
JP6052193B2 JP6052193B2 (en) 2016-12-27

Family

ID=53771905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014014753A Active JP6052193B2 (en) 2013-09-27 2014-01-29 Operation input device, operation input method and program

Country Status (1)

Country Link
JP (1) JP6052193B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230287A (en) * 2008-03-19 2009-10-08 Fuji Xerox Co Ltd Reading apparatus, written information processing system, controller for reading apparatus, and program
JP2011100214A (en) * 2009-11-04 2011-05-19 Sony Corp Detection device, detection method, program, and electronic equipment
JP2013152711A (en) * 2011-12-28 2013-08-08 Nikon Corp Projector and display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230287A (en) * 2008-03-19 2009-10-08 Fuji Xerox Co Ltd Reading apparatus, written information processing system, controller for reading apparatus, and program
JP2011100214A (en) * 2009-11-04 2011-05-19 Sony Corp Detection device, detection method, program, and electronic equipment
JP2013152711A (en) * 2011-12-28 2013-08-08 Nikon Corp Projector and display device

Also Published As

Publication number Publication date
JP6052193B2 (en) 2016-12-27

Similar Documents

Publication Publication Date Title
JP5983575B2 (en) Operation input device, operation input method and program
JP5228439B2 (en) Operation input device
US9152850B2 (en) Authentication apparatus, authentication method, and program
CN110335302B (en) Depth map generated from a single sensor
JP6094252B2 (en) Road sign recognition device
EP2770478A2 (en) Image processing unit, imaging device, and vehicle control system and program
JP6252657B2 (en) ADJUSTMENT DEVICE, ADJUSTMENT METHOD, AND PROGRAM
US20140055641A1 (en) System for recognizing surroundings of vehicle
JP6222306B2 (en) Adjustment device and program
EP3637758A1 (en) Image processing device
WO2016121406A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus, and image processing method
JP2010286995A (en) Image processing system for vehicle
JP6052193B2 (en) Operation input device, operation input method and program
WO2015045550A1 (en) Operation input apparatus, operation input method, and program
US9104937B2 (en) Apparatus and method for recognizing image with increased image recognition rate
US10841495B2 (en) Vehicle camera device and exposure parameter setting method thereof
JP5879990B2 (en) Adhering matter detection apparatus and adhering matter detection method
US10531021B2 (en) Image generating apparatus, image generating method, and recording medium for controlling image sensor having two types of cells
CN113784875B (en) Camera position detection device and method, camera unit, and storage medium
JP2007272785A (en) Image processing type vehicle detector and image processing type vehicle detection method
JP4995555B2 (en) Image processing device
KR20140120650A (en) System and method for recognizing gesture in vehicle
JP2011228856A (en) On-vehicle camera system, image processing apparatus, image processing method, and program
JP2018132986A (en) Image recognition apparatus
JP2010221756A (en) Vehicle light determining device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6052193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150