JP4633023B2 - User interface device - Google Patents

User interface device

Info

Publication number
JP4633023B2
JP4633023B2 JP2006237525A JP2006237525A JP4633023B2 JP 4633023 B2 JP4633023 B2 JP 4633023B2 JP 2006237525 A JP2006237525 A JP 2006237525A JP 2006237525 A JP2006237525 A JP 2006237525A JP 4633023 B2 JP4633023 B2 JP 4633023B2
Authority
JP
Japan
Prior art keywords
image
hand
infrared
camera
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006237525A
Other languages
Japanese (ja)
Other versions
JP2008059430A (en
Inventor
孝之 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2006237525A priority Critical patent/JP4633023B2/en
Publication of JP2008059430A publication Critical patent/JP2008059430A/en
Application granted granted Critical
Publication of JP4633023B2 publication Critical patent/JP4633023B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、表示装置に表示した操作受付画面上に、カメラで撮影した操作者の手の画像を合成表示するユーザインタフェース装置に関するものである。   The present invention relates to a user interface device that synthesizes and displays an image of an operator's hand photographed by a camera on an operation reception screen displayed on a display device.

従来より、表示装置に表示した操作受付画面上に、カメラで撮影した操作者の手の画像を合成表示するユーザインタフェース装置が知られている(たとえば、特許文献1、特許文献2)。
これらの技術によれば、操作者が、あたかも表示装置に表示された操作受付画面上で手を操作しているかの如く、手元で各種操作を行うことができる。
特開平10-269102号公報 特開2000-6687号公報
2. Description of the Related Art Conventionally, there is known a user interface device that synthesizes and displays an operator's hand image captured by a camera on an operation reception screen displayed on a display device (for example, Patent Document 1 and Patent Document 2).
According to these techniques, the operator can perform various operations at hand as if he / she is operating his / her hand on the operation reception screen displayed on the display device.
Japanese Patent Laid-Open No. 10-269102 JP 2000-6687

表示装置に表示した操作受付画面上に、カメラで撮影した操作者の手の画像を合成表示する従来のユーザインタフェース装置には、操作者の手の撮影に通常のカメラを用いると、夜間の車内などの周辺光が暗い環境下では操作者の手を良好に撮影できず、操作者が明瞭に視認できるように手を表示できなくなってしまうという問題があった。一方、操作者の手の撮影に赤外カメラを用いるようにすれば、夜間の車内などの周辺光が暗い環境下でも操作者が明瞭に視認できるように手を表示できるが、撮影される手の画像が、操作者が可視光で見慣れている手の形態と異なってしまうために、不自然な表示となってしまうという問題があった。   In a conventional user interface device that displays an image of an operator's hand photographed with a camera on an operation reception screen displayed on a display device, a normal camera is used for photographing an operator's hand. In an environment where the ambient light is dark, the operator's hand cannot be photographed well, and the hand cannot be displayed so that the operator can clearly see it. On the other hand, if an infrared camera is used to photograph the operator's hand, the hand can be displayed so that the operator can clearly see even in a dark environment such as in the nighttime in a car. Since the image of the hand is different from the shape of the hand familiar to the operator with visible light, there is a problem that the image becomes unnatural.

そこで、本発明は、表示装置に表示した操作受付画面上に、カメラで撮影した操作者の手の画像を合成表示するユーザインタフェース装置において、周辺光が暗い環境下でも、明瞭に視認可能、かつ、自然な形態で操作者の手を表示することを課題とする。   Therefore, the present invention provides a user interface device that composites and displays an image of an operator's hand taken by a camera on an operation reception screen displayed on a display device, and can be clearly seen even in an environment where ambient light is dark, and It is an object to display an operator's hand in a natural form.

前記課題達成のために、本発明は、表示装置に表示した操作受付画面上に、カメラで撮影した操作者の手の画像を合成表示するユーザインタフェース装置を、前記操作者の手を可視光を用いて撮影するカメラと、前記操作者の手を、前記カメラと同撮影方向から赤外光を用いて撮影する赤外カメラと、前記カメラが撮影した画像から、当該カメラが撮影した前記操作者の手の画像を手画像として生成する手画像生成手段と、前記赤外カメラが撮影した画像から、当該赤外カメラが撮影した前記操作者の手の画像であって、前記手画像よりも大きな拡大率で前記操作者の手を表す画像を赤外手画像として生成する手画像生成手段と、前記赤外手画像上に手画像を、赤外手画像の周縁部が、手画像を縁取るように合成した合成画像を、前記操作受付画面上に合成表示する画像として出力する表示手画像出力手段とを含めて構成したものである。   In order to achieve the above object, the present invention provides a user interface device that synthesizes and displays an image of an operator's hand photographed by a camera on an operation reception screen displayed on a display device, and the operator's hand displays visible light. A camera that is photographed by using the camera, an infrared camera that photographs the hand of the operator using infrared light from the same photographing direction as the camera, and the operator photographed by the camera from an image photographed by the camera. An image of the operator's hand taken by the infrared camera from an image taken by the infrared camera, and larger than the hand image. Hand image generating means for generating an image representing the operator's hand at an enlargement ratio as an infrared hand image; a hand image on the infrared hand image; and a peripheral portion of the infrared hand image borders the hand image The synthesized image is Is constructed by including a display hand image output means for outputting as an image to be synthesized and displayed on the screen.

このようなユーザインタフェース装置によれば、可視光を用いて撮影した操作者の手の画像を、赤外光を用いて撮影した操作者の手の周縁部で縁取った合成画像を、操作受付画面上に合成表示する画像として出力する。ここで、環境光が暗く可視光によって操作者の手を鮮明に撮影できない場合でも、赤外光によれば、操作者の手を比較的鮮明に撮影できる。よって、本ユーザインタフェース装置によれば、環境光が暗くなっても、表示される操作者の手の可視光で撮影した画像の輪郭は鮮明に保たれ、表示される手の画像の視認性は、可視光で撮影した手の画像のみを表示する場合に比べ良好に維持される。また、可視光を用いて撮影した手の画像を用いて、操作者の手を表示するので、当該表示による手の表現は自然でリアルなものとなる。   According to such a user interface device, an image of an operator's hand photographed using visible light and a composite image obtained by fringing the periphery of the operator's hand photographed using infrared light are accepted. Output as a composite image on the screen. Here, even when the ambient light is dark and the operator's hand cannot be clearly imaged by visible light, the infrared light can capture the operator's hand relatively clearly. Therefore, according to this user interface device, even when the ambient light becomes dark, the contour of the image taken with the visible light of the displayed operator's hand is kept clear, and the visibility of the displayed hand image is low. As compared with the case where only the image of the hand photographed with visible light is displayed, it is maintained better. In addition, since the operator's hand is displayed using an image of a hand photographed using visible light, the hand expression by the display becomes natural and realistic.

ここで、このようなユーザインタフェース装置は、前記表示手画像出力手段において、前記カメラによって前記操作者の手を鮮明に撮影できない状況にあるときには、前記赤外手画像もしくは前記赤外手画像の輝度レベルを落とした画像を前記操作受付画面上に合成表示する画像として出力するように構成してもよい。   Here, such a user interface device is configured such that when the display hand image output means cannot capture the operator's hand clearly with the camera, the infrared hand image or the brightness of the infrared hand image is obtained. An image with a lowered level may be output as an image to be displayed on the operation acceptance screen.

このように可視光によっては手をおよそ不鮮明にしか撮影できないほどに環境光が暗い場合には、赤外光で撮影した手を表示することにより、このような場合であっても良好に視認可能に操作者の手を表示することができるようになる。
また、以上のようなユーザインタフェース装置は、前記手画像生成手段は、前記赤外手画像より求まる手の領域に基づいて、前記カメラによって撮影できなかった前記操作者の手の領域が存在すると推定される場合には、当該カメラが撮影した前記操作者の手の画像に対して、当該手の領域を表す画像を補完して、前記手画像を生成するように構成してもよい。
In this way, if the ambient light is so dark that the hand can only be photographed with some visible light, the hand captured with infrared light can be displayed, so that even in such a case, the hand can be seen well. The operator's hand can be displayed on the screen.
Further, in the user interface device as described above, the hand image generation means estimates that there is a region of the operator's hand that could not be captured by the camera, based on a region of the hand obtained from the infrared hand image. In this case, the hand image may be generated by complementing an image representing the region of the hand to the image of the operator's hand taken by the camera.

このようにすることにより、可視光を用いて撮影を行うカメラによって操作者の手の画像一部が欠落した画像が撮影された場合にも、欠落した部分を補完した、より自然な形態で操作者の手を表す画像を表示することができる。
なお、以上のようなユーザインタフェース装置は、自動車に搭載されるものであってよい。
In this way, even when an image that lacks part of the operator's hand is captured by a camera that uses visible light, the operation is performed in a more natural form that complements the missing part. An image representing a person's hand can be displayed.
The user interface device as described above may be mounted on an automobile.

以上のように、本発明によれば、表示装置に表示した操作受付画面上に、カメラで撮影した操作者の手の画像を合成表示するユーザインタフェース装置において、周辺光が暗い環境下でも、明瞭に視認可能、かつ、自然な形態で操作者の手を表示することができる。   As described above, according to the present invention, in a user interface device that composites and displays an image of an operator's hand photographed by a camera on an operation reception screen displayed on a display device, it is clear even in an environment where ambient light is dark. The operator's hand can be displayed in a natural form.

以下、本発明の実施形態を、自動車に搭載れる車載システムへの適用を例にとり説明する。
図1aに、本実施形態に係る車載システムの構成を示す。
本車載システムは自動車に搭載されるシステムであり、図示するように、可視光を撮影するカメラ1、赤外光を撮影する赤外カメラ2、入力パネル3、手画像抽出補間部4、赤外手画像抽出部5、手画像合成部6、合成制御部7、処理装置8、出力画像合成部9、表示装置10とを備えている。
Hereinafter, an embodiment of the present invention will be described taking application to an in-vehicle system mounted on an automobile as an example.
FIG. 1 a shows the configuration of the in-vehicle system according to this embodiment.
This in-vehicle system is a system mounted on an automobile, and as shown in the figure, a camera 1 that captures visible light, an infrared camera 2 that captures infrared light, an input panel 3, a hand image extraction interpolation unit 4, an infrared A hand image extraction unit 5, a hand image composition unit 6, a composition control unit 7, a processing device 8, an output image composition unit 9, and a display device 10 are provided.

ここで、図1bに示すように、表示装置10は、運転者の前方のインストロメンタルパネル内に運転者に表示面が対向するように配置される。また、入力パネル3は、たとえば、タッチパネルであり運転者横のセンターコンソール内に操作面を上方に向けて配置される。また、タッチパネルの操作面はたとえば黒色に着色されている。そして、カメラ1と赤外カメラ2は、運転者の上方の天井に、操作面上に置かれた運転者の手を撮影するように配置されている。   Here, as shown in FIG. 1b, the display device 10 is arranged in an instrumental panel in front of the driver so that the display surface faces the driver. The input panel 3 is a touch panel, for example, and is disposed in the center console next to the driver with the operation surface facing upward. The operation surface of the touch panel is colored black, for example. The camera 1 and the infrared camera 2 are arranged on the ceiling above the driver so as to photograph the driver's hand placed on the operation surface.

さて、このような構成において、手画像抽出補間部4は、カメラ1が撮影した画像中の、運転者の手が写り込んでいる領域を、クロマキー技術を用いた弁別手法や、輝度しきい値を用いた弁別手法によって手画像領域として識別し、手画像領域の形状、位置を表す手画像領域情報を合成制御部7に出力する。また、カメラ1が撮影した画像の手画像領域内の画像部分を、図3aに示すような手画像31として切り出し、手画像合成部6に出力する。また、手画像抽出補間部4は、合成制御部7からの指示に従って、手画像31の補間処理も行う。この補間処理の詳細については後述する。   Now, in such a configuration, the hand image extraction / interpolation unit 4 uses the discrimination method using the chroma key technique, the luminance threshold value, or the like in the image captured by the camera 1 in which the driver's hand is reflected. Is identified as a hand image region by the discrimination method using the, and hand image region information representing the shape and position of the hand image region is output to the synthesis control unit 7. Also, the image portion in the hand image area of the image taken by the camera 1 is cut out as a hand image 31 as shown in FIG. 3 a and output to the hand image composition unit 6. The hand image extraction / interpolation unit 4 also performs interpolation processing of the hand image 31 in accordance with an instruction from the composition control unit 7. Details of this interpolation processing will be described later.

一方、赤外手画像抽出部5は、赤外カメラ2が撮影した画像中の、運転者の手が写り込んでいる領域を、クロマキー技術を用いた弁別手法や、輝度しきい値を用いた弁別手法によって赤外手画像領域として識別し、赤外手画像領域の形状、位置を表す赤外手画像領域情報を合成制御部7に出力する。また、赤外カメラ2が撮影した画像の手画像領域内の画像部分を、図3aに示すような赤外手画像32として切り出し、手画像合成部6に出力する。ここで、標準的な人間の手に対して得られる赤外線強度に対して、比較的高輝度の赤外手画像32が得られるように赤外カメラ2の感度は設定する。また、このようにして出力される赤外手画像32が、カメラ1が撮影した画像から手画像抽出補間部4が切り出した手画像31よりも、一回り大きくなるようにする。これは、カメラ1よりも赤外カメラ2の運転者の手の撮影の縮尺を大きく設定することにより、赤外手画像32が手画像31よりも一回り大きなものとなるようにすることもできるし、赤外手画像抽出部5において、赤外カメラ2が撮影した画像の手画像領域内の画像部分を所定の拡大率で拡大して赤外手画像32とすることにより、赤外手画像32が手画像31よりも一回り大きなものとなるようにすることもできる。   On the other hand, the infrared hand image extraction unit 5 uses a discrimination method using a chroma key technique or a luminance threshold value for an area where a driver's hand is reflected in an image taken by the infrared camera 2. An infrared hand image area is identified by the discrimination method, and infrared hand image area information representing the shape and position of the infrared hand image area is output to the synthesis control unit 7. Further, the image portion in the hand image area of the image taken by the infrared camera 2 is cut out as an infrared hand image 32 as shown in FIG. Here, the sensitivity of the infrared camera 2 is set so that a relatively high-intensity infrared hand image 32 is obtained with respect to the infrared intensity obtained for a standard human hand. Further, the infrared hand image 32 output in this way is set to be slightly larger than the hand image 31 cut out by the hand image extraction interpolation unit 4 from the image taken by the camera 1. This is because the infrared hand image 32 can be made slightly larger than the hand image 31 by setting the scale of the hand of the driver of the infrared camera 2 larger than that of the camera 1. Then, the infrared hand image extraction unit 5 enlarges the image portion in the hand image area of the image photographed by the infrared camera 2 at a predetermined enlargement ratio to obtain the infrared hand image 32, whereby the infrared hand image is obtained. It is also possible to make 32 larger than the hand image 31.

次に、合成制御部7は、合成制御処理を行う。
図2に、この合成制御処理の手順を示す。
図示するように、この処理では、カメラ1と赤外カメラ2が新たな画像を撮影するのを待ち(ステップ202)、カメラ1が新たな画像を撮影したならば、現在夜であるかどうかを調べる(ステップ204)。現在夜であるかどうかは、別途設けた環境光の明るさを検出する光センサの出力や、自車の前照灯の点灯状態や、手画像抽出補間部4が出力する手画像31の輝度レベルに基づいて調査することができる。
Next, the composition control unit 7 performs composition control processing.
FIG. 2 shows the procedure of this synthesis control process.
As shown in the figure, this process waits for the camera 1 and the infrared camera 2 to capture a new image (step 202). If the camera 1 captures a new image, it is determined whether it is the current night. Check (step 204). Whether it is the night or not is determined by the output of an optical sensor that detects the brightness of ambient light provided separately, the lighting state of the headlight of the vehicle, and the brightness of the hand image 31 output by the hand image extraction interpolation unit 4 Investigate based on level.

そして、夜ではないと判定されたならば(ステップ206)、手画像抽出補間部4から出力される手画像領域情報が示す手画像領域と、赤外手画像抽出部5が出力する赤外手画像領域情報が示す赤外手画像領域とから、カメラ1によって撮影された画像に手が写り込むべき領域であったにもかかわらず、手画像領域として抽出しきれなかった領域である撮影欠落領域を算定する(ステップ208)。   If it is determined that it is not night (step 206), the hand image area indicated by the hand image area information output from the hand image extraction interpolation unit 4 and the infrared hand output from the infrared hand image extraction unit 5 An imaging missing area that is an area that has not been extracted as a hand image area even though the hand should be reflected in an image taken by the camera 1 from the infrared hand image area indicated by the image area information Is calculated (step 208).

そして、撮影欠落領域が存在するかどうかを調べ(ステップ210)、存在しない場合には、手画像合成部6に、赤外手画像抽出部5が出力する赤外手画像32上に、手画像抽出補間部4が出力する手画像31を配置した合成画像を出力画像として出力画像合成部9に出力するように指示し(ステップ214)、ステップ202からの処理に戻る。ここで、この指示を受けた手画像合成部6は、たとえば、図3aのように、赤外手画像抽出部5から出力された赤外手画像32の上に、手画像抽出補間部4が出力された手画像31を、赤外手画像32の周縁部が、手画像31を縁取るように合成した合成画像33を生成し、合成画像33を、図3b2に示す出力画像34として、出力画像合成部9に出力する。   Then, it is checked whether or not there is a shooting missing region (step 210). If there is no shooting missing region, the hand image is displayed on the hand image compositing unit 6 on the infrared hand image 32 output from the infrared hand image extracting unit 5. The output interpolating unit 4 instructs the output image synthesizing unit 9 to output the composite image on which the hand image 31 output by the extraction interpolation unit 4 is output as an output image (step 214), and returns to the processing from step 202. Here, the hand image synthesizing unit 6 that has received this instruction, for example, the hand image extracting / interpolating unit 4 on the infrared hand image 32 output from the infrared hand image extracting unit 5 as shown in FIG. A composite image 33 is generated by combining the output hand image 31 so that the peripheral portion of the infrared hand image 32 borders the hand image 31, and the composite image 33 is output as the output image 34 shown in FIG. 3b2. The image is output to the image composition unit 9.

さて、図2に戻り、ステップ206で、現在が夜であると判定された場合には、手画像合成部6に、赤外手画像32の輝度レベルを落とした上で、出力画像34として出力画像合成部9に出力するように指示し(ステップ216)、ステップ202からの処理に戻る。この指示を受けた手画像合成部6は、たとえば、図3aのように赤外手画像抽出部5から出力された赤外手画像32の輝度レベルを低輝度レベルに変換した図3b6に示すような出力画像34を出力画像合成部9に出力する。   Now, returning to FIG. 2, if it is determined in step 206 that the present is night, the brightness level of the infrared hand image 32 is reduced to the hand image composition unit 6 and output as the output image 34. The image composition unit 9 is instructed to output (step 216), and the process returns to step 202. Upon receiving this instruction, the hand image synthesizing unit 6 converts the luminance level of the infrared hand image 32 output from the infrared hand image extracting unit 5 into a low luminance level as shown in FIG. The output image 34 is output to the output image composition unit 9.

さて、以上の処理の結果、手画像合成部6から出力される出力画像34は、図3bに示すようになる。図3bは、昼から夜への環境光の変化に伴う出力画像b1、b2、...、b6の変化をあらわしている。図示するように環境光が徐々に暗くなっていくと、b1からb5に示すように、出力画像34中の手画像31の部分も徐々に暗くなり不鮮明となっていく。しかしながら、出力画像34中で手画像31の部分を縁取っている赤外手画像32の部分の輝度は高輝度に保たれるので、環境光が暗くなっても、出力画像34中の手画像31の輪郭は鮮明に保たれ、出力画像34によって表される手の視認性は、手画像31のみを出力画像34とする場合に比べ鮮明に維持される。また、出力画像34中でカメラ1で手を撮影した手画像31を用いて運転者の手を表すので、出力画像34は、自然な表現でリアルに手を表したものとなる。   As a result of the above processing, the output image 34 output from the hand image synthesis unit 6 is as shown in FIG. FIG. 3b shows changes in the output images b1, b2,..., B6 accompanying changes in ambient light from day to night. As shown in the drawing, as the ambient light gradually becomes darker, the portion of the hand image 31 in the output image 34 becomes gradually darker and unclear as shown in b1 to b5. However, the brightness of the portion of the infrared hand image 32 that borders the portion of the hand image 31 in the output image 34 is kept high, so even if the ambient light becomes dark, the hand image in the output image 34 The contour of 31 is kept clear, and the visibility of the hand represented by the output image 34 is maintained more clearly than when only the hand image 31 is used as the output image 34. Further, since the driver's hand is represented using the hand image 31 obtained by photographing the hand with the camera 1 in the output image 34, the output image 34 is a realistic representation of the hand in a natural manner.

また、カメラ1によって手の画像をおよそ不鮮明にしか撮影できないほどに、さらに環境光が減じた場合には、b6に示すように、赤外手画像32の輝度を減じたものを出力画像34として出力するので、このような場合にも、出力画像34によって表される手の視認性は鮮明に保たれる。また、赤外手画像32の輝度を減じて出力画像34とすることにより、出力画像34を、赤外手画像32をそのまま出力画像34とした場合よりも、不自然な感じを抑制したものとすることができる。ただし、ステップ206で、現在が夜であると判定された場合には、ステップ216において、手画像合成部6に、赤外手画像32をそのまま出力画像34として出力画像合成部9に出力させるようにしてもよい。   When the ambient light is reduced to such an extent that the camera 1 can only capture a hand image, the output image 34 is obtained by reducing the brightness of the infrared hand image 32 as shown in b6. In such a case, the visibility of the hand represented by the output image 34 is kept clear. In addition, by reducing the luminance of the infrared hand image 32 to be the output image 34, the output image 34 is less unnatural than when the infrared hand image 32 is directly used as the output image 34. can do. However, if it is determined in step 206 that the present is night, in step 216, the hand image composition unit 6 is caused to output the infrared hand image 32 as it is as the output image 34 to the output image composition unit 9. It may be.

さて、図2に戻り、撮影欠落領域が存在すると判定された場合には(ステップ210)、手画像抽出補間部4に撮影欠落領域の補間を指示した上で(ステップ212)、前述したステップ214の処理に進む。
ここで、撮影欠落領域の補間の指示を受けた手画像抽出補間部4は、撮影欠落領域の補間処理を施した上で手画像31を手画像合成部6に出力する。
すなわち、たとえば、いま、図4aに示すように、カメラ1が撮影した画像より手画像31が抽出され、赤外カメラ2が撮影した画像より赤外手画像32が抽出された場合、両画像を合成した合成画像33は、図示するように、手の一部が途切れた不自然なものとなる。
Returning to FIG. 2, if it is determined that there is a shooting missing area (step 210), the hand image extraction interpolation unit 4 is instructed to interpolate the shooting missing area (step 212), and the above-described step 214 is performed. Proceed to the process.
Here, the hand image extraction / interpolation unit 4 that has received an instruction to interpolate the shooting missing region outputs the hand image 31 to the hand image combining unit 6 after performing the interpolation processing of the shooting missing region.
That is, for example, as shown in FIG. 4a, when a hand image 31 is extracted from an image captured by the camera 1 and an infrared hand image 32 is extracted from an image captured by the infrared camera 2, both images are extracted. As shown in the figure, the synthesized composite image 33 is unnatural with a part of the hand interrupted.

そこで、撮影欠落領域が存在する場合には、合成制御部7において、手画像領域情報と赤外手画像領域情報に基づいて、両領域の縮尺を合わせた上で求めた、赤外手画像領域であって手画像領域でない領域を、図4bに示すような撮影欠落領域311として求め、手画像抽出補間部4に、この撮影欠落領域311の補間を指示し、指示を受けた手画像抽出補間部4において、手画像31中の撮影欠落領域311の画素の画素値を、図4c1やc2のように補間し、画像合成部に出力する手画像31とする。   Therefore, in the case where there is a shooting missing area, the composition control unit 7 determines the infrared hand image area obtained by combining the scales of both areas based on the hand image area information and the infrared hand image area information. An area that is not a hand image area is obtained as a shooting missing area 311 as shown in FIG. 4b, and the hand image extraction interpolation unit 4 is instructed to interpolate the shooting missing area 311. In the unit 4, the pixel value of the pixel in the shooting missing region 311 in the hand image 31 is interpolated as shown in FIGS. 4 c 1 and c 2, and the hand image 31 is output to the image composition unit.

ここで、図4c1は、撮影欠落領域311周辺の手画像31の画素値の直線補間によって撮影欠落領域311の画素値を補間した例であり、図4c2は、撮影欠落領域311内の輝度勾配として、赤外画像の対応する領域内の輝度勾配に応じた輝度勾配を用いつつ、手画像31の撮影欠落領域311の画素値を、手画像31の撮影欠落領域311とその周辺の画素値が滑らかに連続するように補間した例である。   Here, FIG. 4 c 1 is an example in which the pixel value of the shooting missing area 311 is interpolated by linear interpolation of the pixel values of the hand image 31 around the shooting missing area 311, and FIG. 4 c 2 is a luminance gradient in the shooting missing area 311. Using the brightness gradient according to the brightness gradient in the corresponding region of the infrared image, the pixel value of the shooting missing region 311 of the hand image 31 is smoothed and the pixel value of the shooting missing region 311 of the hand image 31 and the surrounding pixel values are smooth. This is an example of interpolation so as to be continuous.

この結果、手画像合成部6が手画像31と赤外手画像32を合成した合成画像33は、図4d1、d2に示すようになり、図4aに示した合成画像33よりも不自然さが軽減されたものとなる。
ただし、ステップ208から212の処理は、これを行わず、撮影欠落領域311が発生した場合には、図4aに示すように生成した合成画像33を出力画像34とするようにしてもよい。このようにしても、手画像31をそのまま出力画像34とする場合に比べ、不自然さを減じた出力画像34を得ることができる。
As a result, the synthesized image 33 obtained by synthesizing the hand image 31 and the infrared hand image 32 by the hand image synthesizing unit 6 is as shown in FIGS. 4d1 and d2, and is more unnatural than the synthesized image 33 shown in FIG. 4a. It will be reduced.
However, the processing in steps 208 to 212 is not performed, and when the shooting missing region 311 occurs, the generated composite image 33 as shown in FIG. Even in this case, compared to the case where the hand image 31 is used as it is as the output image 34, the output image 34 with reduced unnaturalness can be obtained.

以上、合成制御部7が行う合成制御処理について説明した。
さて、図1に戻り、処理装置8は、入力パネル3を介して運転者の操作を受け付けるためのメニュー画面を出力画像合成部9に出力し、運転者の操作に応じた処理を行う。
一方、出力画像合成部9は、メニュー画面に、手画像合成部6から出力される出力画像34を合成し、表示装置10に表示する。
ここで、図5は、このようにして行われる表示装置10の表示例を示している。
図5aは、メニュー画面50上に運転者の手を表す出力画像34を重ねて表示することにより、メニュー画面50と出力画像34を合成した例であり、図5bは、メニュー画面50上に、運転者の手を表す出力画像34を半透明化して重ねて表示することにより、メニュー画面50と出力画像34を合成した例である。また、図5cは、運転者の手を表す出力画像34の上に、メニュー文字やメニューボタンの輪郭以外を透明化したメニュー画面50を重ねて表示することにより、メニュー画面50と出力画像34を合成した例である。
The combination control process performed by the combination control unit 7 has been described above.
Now, returning to FIG. 1, the processing device 8 outputs a menu screen for accepting a driver's operation via the input panel 3 to the output image composition unit 9 and performs processing according to the driver's operation.
On the other hand, the output image synthesizing unit 9 synthesizes the output image 34 output from the hand image synthesizing unit 6 and displays it on the display device 10 on the menu screen.
Here, FIG. 5 shows a display example of the display device 10 performed in this way.
FIG. 5 a is an example in which the menu screen 50 and the output image 34 are synthesized by superimposing and displaying the output image 34 representing the driver's hand on the menu screen 50, and FIG. This is an example in which the menu screen 50 and the output image 34 are combined by translucently displaying the output image 34 representing the driver's hand and displaying it. Further, FIG. 5C shows the menu screen 50 and the output image 34 by displaying a menu screen 50 that is transparent except for the outlines of menu characters and menu buttons on the output image 34 representing the driver's hand. This is an example of synthesis.

なお、入力パネル3上の各位置とメニュー画面上の各位置とは対応づけられており、出力画像34とメニュー画面は、出力画像34とメニュー画面との位置関係が、運転者の手が位置する入力パネル3上の位置とメニュー画面上の位置との位置関係に一致するように合成する。
以上、本発明の実施形態について説明した。
Each position on the input panel 3 is associated with each position on the menu screen. The output image 34 and the menu screen are related to each other in the positional relationship between the output image 34 and the menu screen. To be matched with the positional relationship between the position on the input panel 3 and the position on the menu screen.
The embodiment of the present invention has been described above.

本発明の実施形態に係る車載システムの構成と配置を示す図である。It is a figure showing composition and arrangement of an in-vehicle system concerning an embodiment of the present invention. 本発明の実施形態に係る合成制御処理を示すフローチャートである。It is a flowchart which shows the synthetic | combination control process which concerns on embodiment of this invention. 本発明の実施形態に係る合成制御処理の処理例を示す図である。It is a figure which shows the process example of the synthetic | combination control process which concerns on embodiment of this invention. 本発明の実施形態に係る合成制御処理の処理例を示す図である。It is a figure which shows the process example of the synthetic | combination control process which concerns on embodiment of this invention. 本発明の実施形態に係る車載システムの表示例を示す図である。It is a figure which shows the example of a display of the vehicle-mounted system which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1…カメラ、2…赤外カメラ、3…入力パネル、4…手画像抽出補間部、5…赤外手画像抽出部、6…手画像合成部、7…合成制御部、8…処理装置、9…出力画像合成部、10…表示装置、31…手画像、32…赤外手画像、33…合成画像、34…出力画像、311…撮影欠落領域。   DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Infrared camera, 3 ... Input panel, 4 ... Hand image extraction interpolation part, 5 ... Infrared hand image extraction part, 6 ... Hand image composition part, 7 ... Composition control part, 8 ... Processing apparatus, DESCRIPTION OF SYMBOLS 9 ... Output image synthetic | combination part, 10 ... Display apparatus, 31 ... Hand image, 32 ... Infrared hand image, 33 ... Composite image, 34 ... Output image, 311 ... Image | photographing missing area.

Claims (5)

表示装置に表示した操作受付画面上に、カメラで撮影した操作者の手の画像を合成表示するユーザインタフェース装置であって、
前記操作者の手を可視光を用いて撮影するカメラと、
前記操作者の手を、前記カメラと同撮影方向から赤外光を用いて撮影する赤外カメラと、
前記カメラが撮影した画像から、当該カメラが撮影した前記操作者の手の画像を手画像として生成する手画像生成手段と、
前記赤外カメラが撮影した画像から、当該赤外カメラが撮影した前記操作者の手の画像であって、前記手画像よりも大きな拡大率で前記操作者の手を表す画像を赤外手画像として生成する手画像生成手段と、
前記赤外手画像上に手画像を、赤外手画像の周縁部が、手画像を縁取るように合成した合成画像を、前記操作受付画面上に合成表示する画像として出力する表示手画像出力手段とを有することを特徴とするユーザインタフェース装置。
A user interface device that synthesizes and displays an image of an operator's hand photographed by a camera on an operation acceptance screen displayed on a display device,
A camera for photographing the operator's hand using visible light;
An infrared camera for photographing the operator's hand using infrared light from the same photographing direction as the camera;
Hand image generating means for generating, as a hand image, an image of the operator's hand photographed by the camera from an image photographed by the camera;
An image of the operator's hand photographed by the infrared camera from an image photographed by the infrared camera, and representing an image of the operator's hand with a larger magnification than the hand image. Hand image generating means for generating as
Display hand image output that outputs a composite image obtained by combining a hand image on the infrared hand image and a peripheral image of the infrared hand image so that the hand image borders the hand image on the operation reception screen. A user interface device.
請求項1記載のユーザインタフェース装置であって、
前記表示手画像出力手段は、前記カメラによって前記操作者の手を鮮明に撮影できない状況にあるときには、前記赤外手画像もしくは前記赤外手画像の輝度レベルを落とした画像を前記操作受付画面上に合成表示する画像として出力することを特徴とするユーザインタフェース装置。
The user interface device according to claim 1,
The display hand image output means displays the infrared hand image or an image obtained by reducing the brightness level of the infrared hand image on the operation reception screen when the operator's hand cannot be clearly photographed by the camera. A user interface device characterized in that the image is output as an image to be synthesized and displayed.
請求項1または2記載のユーザインタフェース装置であって、
前記手画像生成手段は、前記赤外手画像より求まる手の領域に基づいて、前記カメラによって撮影できなかった前記操作者の手の領域が存在すると推定される場合には、当該カメラが撮影した前記操作者の手の画像に対して、当該手の領域を表す画像を補完して、前記手画像を生成することを特徴とするユーザインタフェース装置。
The user interface device according to claim 1 or 2,
The hand image generation means captures an image of the operator's hand that was not captured by the camera based on the hand region determined from the infrared hand image. A user interface device, wherein the hand image is generated by complementing an image representing an area of the hand to the image of the operator's hand.
請求項1、2または3記載のユーザインタフェース装置であって、
当該ユーザインタフェース装置は、自動車に搭載されることを特徴とするユーザインタフェース装置。
The user interface device according to claim 1, 2, or 3,
The user interface device is mounted on an automobile.
ユーザの手を表す表示手画像を生成する表示手画像生成方法であって、
カメラを用いて、前記ユーザの手を可視光を用いて撮影するステップと、
赤外カメラを用いて、前記ユーザの手を、前記カメラと同撮影方向から赤外光を用いて撮影するステップと、
前記カメラが撮影した画像から、当該カメラが撮影した前記ユーザの手の画像を手画像として生成するステップと、
前記赤外カメラが撮影した画像から、当該赤外カメラが撮影した前記ユーザの手の画像であって、前記手画像よりも大きな拡大率で前記ユーザの手を表す画像を赤外手画像として生成するステップと、
前記赤外手画像上に手画像を、赤外手画像の周縁部が、手画像を縁取るように合成して前記表示手画像を生成するステップとを有することを特徴とする表示手画像生成方法。
A display hand image generation method for generating a display hand image representing a user's hand,
Photographing the user's hand with visible light using a camera;
Photographing the user's hand using infrared light from the same photographing direction as the camera using an infrared camera;
Generating an image of the user's hand captured by the camera as a hand image from an image captured by the camera;
From the image captured by the infrared camera, an image of the user's hand captured by the infrared camera, which represents the user's hand at a larger magnification than the hand image, is generated as an infrared hand image. And steps to
Generating the display hand image by synthesizing the hand image on the infrared hand image so that the peripheral portion of the infrared hand image borders the hand image. Method.
JP2006237525A 2006-09-01 2006-09-01 User interface device Expired - Fee Related JP4633023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006237525A JP4633023B2 (en) 2006-09-01 2006-09-01 User interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006237525A JP4633023B2 (en) 2006-09-01 2006-09-01 User interface device

Publications (2)

Publication Number Publication Date
JP2008059430A JP2008059430A (en) 2008-03-13
JP4633023B2 true JP4633023B2 (en) 2011-02-16

Family

ID=39242060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006237525A Expired - Fee Related JP4633023B2 (en) 2006-09-01 2006-09-01 User interface device

Country Status (1)

Country Link
JP (1) JP4633023B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9056549B2 (en) * 2008-03-28 2015-06-16 Denso International America, Inc. Haptic tracking remote control for driver information center system
WO2010004618A1 (en) * 2008-07-08 2010-01-14 株式会社Pfu Information processor, transparent display element control method, and program
JP5364925B2 (en) 2009-02-27 2013-12-11 現代自動車株式会社 Input device for in-vehicle equipment
JP5950851B2 (en) * 2013-03-04 2016-07-13 三菱電機株式会社 Information display control device, information display device, and information display control method
JP5984718B2 (en) * 2013-03-04 2016-09-06 三菱電機株式会社 In-vehicle information display control device, in-vehicle information display device, and information display control method for in-vehicle display device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006687A (en) * 1998-06-25 2000-01-11 Yazaki Corp Onboard equipment switch safety operation system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006687A (en) * 1998-06-25 2000-01-11 Yazaki Corp Onboard equipment switch safety operation system

Also Published As

Publication number Publication date
JP2008059430A (en) 2008-03-13

Similar Documents

Publication Publication Date Title
KR101446897B1 (en) Vehicle periphery monitoring device
JP4739122B2 (en) In-vehicle camera image composition apparatus and image composition method
JP5516998B2 (en) Image generation device
JP2009100095A (en) Image processing apparatus and image processing method
JP5533766B2 (en) Vehicle display device
JP2012147149A (en) Image generating apparatus
JP2010109684A (en) Vehicle surrounding image display system
JP2008017311A (en) Display apparatus for vehicle and method for displaying circumference video image of vehicle
JP4633023B2 (en) User interface device
JP5131152B2 (en) Visual support device
JP4579132B2 (en) Vehicle / Ambient Image Providing Device
JP2007237986A (en) Vehicular input device
JP2012257106A (en) Image generating device
JP2007043607A (en) Picture joint processing apparatus and picture joint processing method
JP2015168271A (en) Room mirror, vehicle dead angle support device using the room mirror and adjustment method of display image of the room mirror or vehicle dead angle support device
JP2013100057A (en) Driving support device
JP2019047296A (en) Display device, display method, control program, and electronic mirror system
JP7073237B2 (en) Image display device, image display method
JP2010283718A (en) Device for providing vehicle peripheral image
JP2010130413A (en) Peripheral state display device
JP4846627B2 (en) Display control device
CN113022590A (en) Vehicle periphery display device
JP5617678B2 (en) Vehicle display device
CN113678433A (en) Vehicle periphery image generation device, vehicle periphery display system, and vehicle periphery display method
WO2018034287A1 (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101116

R150 Certificate of patent or registration of utility model

Ref document number: 4633023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees