JP4283794B2 - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP4283794B2
JP4283794B2 JP2005266465A JP2005266465A JP4283794B2 JP 4283794 B2 JP4283794 B2 JP 4283794B2 JP 2005266465 A JP2005266465 A JP 2005266465A JP 2005266465 A JP2005266465 A JP 2005266465A JP 4283794 B2 JP4283794 B2 JP 4283794B2
Authority
JP
Japan
Prior art keywords
display
video
surrounding
unit
conversion map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005266465A
Other languages
Japanese (ja)
Other versions
JP2007081787A5 (en
JP2007081787A (en
Inventor
庸生 大中
紀一 増元
一男 島田
栄久 鈴木
敏夫 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
New Industry Research Organization NIRO
Original Assignee
ATR Advanced Telecommunications Research Institute International
New Industry Research Organization NIRO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International, New Industry Research Organization NIRO filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005266465A priority Critical patent/JP4283794B2/en
Publication of JP2007081787A publication Critical patent/JP2007081787A/en
Publication of JP2007081787A5 publication Critical patent/JP2007081787A5/ja
Application granted granted Critical
Publication of JP4283794B2 publication Critical patent/JP4283794B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、監視装置に関し、特に、広範囲の周囲映像からユーザが所望する箇所の映像を表示する監視装置に関する。   The present invention relates to a monitoring device, and more particularly to a monitoring device that displays a video of a location desired by a user from a wide range of surrounding video.

従来から、2箇所以上の映像の中から所望の映像を切替えて表示する監視装置が提案されている。   Conventionally, a monitoring apparatus that switches and displays a desired video from two or more video has been proposed.

たとえば、特許文献1に記載の装置では、フォークの揚高位置が所定の第1揚高位置以下のときに、走行用カメラが撮像する車両の前方画像が表示装置に表示され、フォークの揚高位置が所定の第1揚高位置を超えるときに、荷役用カメラが撮像するフォークの前方画像が表示装置に表示される。   For example, in the device described in Patent Document 1, when the lift position of the fork is equal to or lower than a predetermined first lift position, a front image of the vehicle captured by the traveling camera is displayed on the display device, and the lift height of the fork is displayed. When the position exceeds the predetermined first lift position, a front image of the fork captured by the cargo handling camera is displayed on the display device.

また、特許文献2に記載の装置では、頭部位置検出センサによって検出された作業者の頭部位置は頭部位置データとして三次元画像入力装置に供給される。三次元画像入力装置内のアクチュエータは、軸x、y、zを頭部位置データに応じて回動させる。アクチュエータの各軸が回動すると、三次元画像入力装置のTVカメラの撮像方向が変化する。TVカメラによって撮像された新たな画像データを無線によって、ドーム型表示装置に出力する。
特開2003−212494号公報 特開平6−339153号公報
Moreover, in the apparatus described in Patent Document 2, the operator's head position detected by the head position detection sensor is supplied to the 3D image input apparatus as head position data. The actuator in the three-dimensional image input device rotates the axes x, y, and z according to the head position data. As each axis of the actuator rotates, the imaging direction of the TV camera of the three-dimensional image input device changes. New image data captured by the TV camera is wirelessly output to the dome type display device.
JP 2003-212494 A JP-A-6-339153

しかしながら、特許文献1に記載の装置では、車両の前方画像またはフォークの前方画像が表示されるだけである。車両が右折するときには右方向の映像が必要となり、左折するときには左方向の映像が必要であるが、特許文献1の記載の装置は、これらを表示することができない。   However, in the apparatus described in Patent Document 1, only the front image of the vehicle or the front image of the fork is displayed. When the vehicle turns right, an image in the right direction is required, and when turning left, an image in the left direction is required. However, the apparatus described in Patent Document 1 cannot display these images.

また、特許文献2では、映像を切替えるためにカメラを動かす必要があるので、カメラを駆動するコントローラが必要となる。   In Patent Document 2, since it is necessary to move the camera in order to switch the video, a controller for driving the camera is required.

それゆえに、本発明の目的は、カメラの制御を要することなく、周囲の広範囲の映像の中から所望の映像を切替えて表示することができる監視装置を提供することである。   Therefore, an object of the present invention is to provide a monitoring device that can switch and display a desired image from a wide range of surrounding images without requiring camera control.

上記課題を解決するために、本発明の監視装置は、周囲を撮影するための1個または複数個のカメラと、カメラで撮影することによって広範囲の周囲映像を生成する周囲映像生成部と、ユーザの位置、状態または動作を検出する検出部と、生成された周囲映像から、検出結果に応じた表示用映像を生成する表示用映像生成部と、生成された表示用映像を表示する表示部とを備える。   In order to solve the above problems, a monitoring apparatus according to the present invention includes one or a plurality of cameras for photographing the surroundings, a surrounding image generating unit that generates a wide range of surrounding images by photographing with the cameras, and a user A detection unit that detects the position, state, or operation of the display, a display video generation unit that generates a display video according to the detection result from the generated surrounding video, and a display unit that displays the generated display video Is provided.

好ましくは、ユーザの視野が物体によって遮られており、カメラは、ユーザの視野外を撮影する位置に配置され、表示部または表示部による投影のためのスクリーンは、ユーザの視野内に配置される。   Preferably, the user's field of view is obstructed by an object, the camera is disposed at a position for photographing outside the user's field of view, and the display unit or a screen for projection by the display unit is disposed within the user's field of view. .

好ましくは、表示部または表示部による投影のためのスクリーンは、ユーザの視野内のユーザの視野を遮る物体の面、またはユーザの視野内の物体の面以外の箇所に配置される。   Preferably, the display unit or the screen for projection by the display unit is disposed on a surface of the object that blocks the user's field of view within the user's field of view, or at a location other than the surface of the object within the user's field of view.

好ましくは、検出部は、ユーザの顔部の位置を検出し、表示用映像生成部は、検出された顔部の位置に応じた表示用映像を生成する。   Preferably, the detection unit detects the position of the user's face, and the display video generation unit generates a display video according to the detected position of the face.

好ましくは、検出部は、さらに表示部または表示部による投影のためのスクリーンと、顔部との距離を検出し、表示用映像生成部は、検出された距離が短いほど、生成された周囲映像の中のより広範囲の映像が含まれるような表示用映像を生成する。   Preferably, the detection unit further detects the distance between the display unit or the screen for projection by the display unit and the face, and the display image generation unit generates the generated surrounding image as the detected distance is shorter A display image that includes a wider range of images is generated.

好ましくは、検出部が検出する顔部は、ユーザの顔、目、鼻、眉間、口のうちの少なくとも1つである。   Preferably, the face part detected by the detection part is at least one of the user's face, eyes, nose, eyebrows, and mouth.

好ましくは、検出部は、ユーザの視線の方向を検出し、表示用映像生成部は、検出された視線方向に応じた表示用映像を生成する。   Preferably, the detection unit detects the direction of the user's line of sight, and the display video generation unit generates a display video according to the detected line of sight.

好ましくは、監視装置は、車両の周囲を監視する装置であって、カメラは、車両の外部に配置され、表示部または表示部による投影のためのスクリーンは、車両の運転席の周囲に配置される。   Preferably, the monitoring device is a device that monitors the surroundings of the vehicle, the camera is disposed outside the vehicle, and the display unit or the screen for projection by the display unit is disposed around the driver's seat of the vehicle. The

好ましくは、監視装置は、壁に仕切られた2つの領域のうちの一方の領域を監視する装置であって、カメラは、壁に仕切られた2つの領域のうちの一方の領域内に配置され、表示部または表示部による投影のためのスクリーンは、壁に仕切られた2つの領域のうちの他方の領域内の壁に取付けられる。   Preferably, the monitoring device is a device that monitors one of the two regions partitioned by the wall, and the camera is disposed in one region of the two regions partitioned by the wall. The display or the screen for projection by the display is attached to the wall in the other of the two regions partitioned by the wall.

本発明のある局面に係る監視装置によれば、複雑な制御を要することなく、周囲の広範囲の映像の中から所望の映像を切替えて表示することができる。そして、視野を遮る物体があっても、物体がないかのように物体の向こう側の様子を見ることができる。   According to the monitoring apparatus according to an aspect of the present invention, it is possible to switch and display a desired image from a wide range of surrounding images without requiring complicated control. And even if there is an object that obstructs the field of view, it is possible to see the other side of the object as if there is no object.

以下、本発明の実施の形態について図面を用いて説明する。
[第1の実施形態]
第1の実施形態は、周囲映像から、眉間の位置に応じた表示用映像を生成する監視装置に関する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
1st Embodiment is related with the monitoring apparatus which produces | generates the image | video for a display according to the position between eyebrows from the surrounding image | video.

(監視装置の構成)
図1は、第1の実施形態の監視装置の機能ブロック図である。
(Configuration of monitoring device)
FIG. 1 is a functional block diagram of the monitoring apparatus according to the first embodiment.

図1を参照して、この監視装置1は、全方位カメラ11と、周囲映像生成部12と、検出部18と、表示用映像生成部81と、表示部16とを備える。検出部18は、顔撮影用カメラ13と、眉間位置検出部14とを含む。   With reference to FIG. 1, the monitoring device 1 includes an omnidirectional camera 11, an ambient video generation unit 12, a detection unit 18, a display video generation unit 81, and a display unit 16. The detection unit 18 includes a face photographing camera 13 and an eyebrow position detection unit 14.

表示部16は、たとえば液晶ディスプレイであり、生成された表示用映像を表示する。以下、表示部16をディスプレイと呼ぶこともある。   The display unit 16 is a liquid crystal display, for example, and displays the generated display video. Hereinafter, the display unit 16 may be referred to as a display.

全方位カメラ11は、双曲面ミラーと、カメラから構成され、周囲360度から届く光を曲面ミラーで反射して、反射した光をカメラで撮影する。   The omnidirectional camera 11 includes a hyperboloidal mirror and a camera, reflects light reaching from 360 degrees around the curved mirror, and shoots the reflected light with the camera.

周囲映像生成部12は、全方位カメラ11で撮影されたデータから円形映像(丸映像)を周囲映像として生成して、表示用映像生成部81に出力する。   The surrounding video generation unit 12 generates a circular video (round video) from the data captured by the omnidirectional camera 11 and outputs the circular video to the display video generation unit 81.

顔撮影用カメラ13は、ユーザの顔を撮影して顔画像を生成する。
図2は、第1の実施形態の監視装置1を車両の一例である戦車に取付けた例を表わす図である。
The face photographing camera 13 photographs a user's face and generates a face image.
FIG. 2 is a diagram illustrating an example in which the monitoring device 1 according to the first embodiment is attached to a tank which is an example of a vehicle.

図2を参照して、全方位カメラ11は、ユーザ(運転者)の視野外を撮影する位置、すなわち戦車の外部に配置される。   Referring to FIG. 2, the omnidirectional camera 11 is arranged at a position where the user (driver) takes a picture outside the field of view, that is, outside the tank.

表示部16は、ユーザ(運転者)の視野内である運転席の周囲に配置される。すなわち、表示部16は、運転席の前方に配置される前方ディスプレイ51、運転席の後方に配置される後方ディスプレイ52、運転席の右側に配置される右側面ディスプレイ53と、運転席の左側に配置される図示しない左側面ディスプレイとからなる。   The display part 16 is arrange | positioned around the driver's seat which is in a user's (driver | operator's) visual field. That is, the display unit 16 includes a front display 51 disposed in front of the driver seat, a rear display 52 disposed behind the driver seat, a right side display 53 disposed on the right side of the driver seat, and a left side of the driver seat. It consists of a left side display (not shown) arranged.

顔撮影用カメラ13は、各ディスプレイの上部に取付けられる。顔撮影用カメラ13の取付け位置の水平方向は、ディスプレイの水平方向の中心が望ましい。   The face photographing camera 13 is attached to the upper part of each display. The horizontal direction of the mounting position of the face photographing camera 13 is preferably the center in the horizontal direction of the display.

監視装置1のそれ以外の構成要素は、戦車内部または別の場所に配置される。これらの構成要素と、顔撮影用カメラ13、全方位カメラ11および表示部16との間は、無線または有線で接続される。   Other components of the monitoring device 1 are arranged inside the tank or at another place. These components are connected to the face photographing camera 13, the omnidirectional camera 11, and the display unit 16 by wireless or wired connection.

眉間位置検出部14は、顔画像から眉間の位置を検出する。眉間位置の検出方法については、たとえば、特許第340511号の方法を用いる。この方法によれば、人間の顔領域であって対象となる画像領域内の各画素の値のデジタルデータを準備し、対象となる画素領域内の画素の各々に対して、その画素を囲むあらかじめ定められた閉曲線上の画素の値の分布曲線が示す特定の波数成分の相対的な量を求め、顔領域内で、特定の波数成分の相対的な量が局所的に最大を示す画素を顔領域内の特徴点たる眉間を表わす点として抽出する。   The eyebrow position detecting unit 14 detects the position between the eyebrows from the face image. As a method for detecting the position between the eyebrows, for example, the method of Japanese Patent No. 3405511 is used. According to this method, digital data of the value of each pixel in a target image area that is a human face area is prepared, and each pixel in the target pixel area is preliminarily surrounded by the pixel. The relative amount of the specific wave number component indicated by the distribution curve of the pixel values on the defined closed curve is obtained, and the face where the relative amount of the specific wave number component is locally maximum in the face area is determined. It is extracted as a point representing the space between eyebrows as a feature point in the region.

図3(a)〜(c)は、眉間位置の検出例を表わす図である。これらの図は、顔撮影用カメラ13にて撮影した顔画像であって、眉間位置検出部14は、これらの顔画像に基づいて眉間位置を検出する。   3A to 3C are diagrams illustrating an example of detecting the position between the eyebrows. These figures are face images photographed by the face photographing camera 13, and the inter-eyebrow position detection unit 14 detects the inter-brow position based on these face images.

図3(a)は、眉間の位置が顔画像の水平方向の中央にある場合である。この場合には、ディスプレイと眉間との水平方向の相対位置関係は、ディスプレイに向かってディスプレイの中央に眉間があると検出される。   FIG. 3A shows a case where the position between the eyebrows is at the center in the horizontal direction of the face image. In this case, the horizontal relative positional relationship between the display and the eyebrows is detected when the eyebrows are at the center of the display toward the display.

図3(b)は、眉間の位置が顔画像の水平方向の右側にある場合である。この場合には、ディスプレイと眉間との水平方向の相対位置関係は、ディスプレイに向かってディスプレイの中央よりも左側に眉間があると検出される。   FIG. 3B shows a case where the position between the eyebrows is on the right side of the face image in the horizontal direction. In this case, the horizontal relative positional relationship between the display and the eyebrows is detected when the eyebrows are on the left side of the center of the display toward the display.

図3(c)は、眉間の位置が顔画像の水平方向の左側にある場合である。この場合には、ディスプレイと眉間との水平方向の相対位置関係は、ディスプレイに向かってディスプレイの中央よりも右側に眉間があると検出される。   FIG. 3C shows the case where the position between the eyebrows is on the left side of the face image in the horizontal direction. In this case, the horizontal relative positional relationship between the display and the eyebrows is detected when the eyebrows are on the right side of the center of the display toward the display.

表示用映像生成部81は、周囲映像から、ユーザの眉間の位置に応じた表示用映像を生成するもので、周囲映像用メモリ10と、変換マップ生成部17と、変換マップ用メモリ19と、変換部15とを含む。   The display video generation unit 81 generates a display video corresponding to the position of the user's eyebrows from the surrounding video. The display video generation unit 81, the conversion map generation unit 17, the conversion map memory 19, Conversion unit 15.

周囲映像用メモリ10を、周囲映像生成部12から出力された周囲映像を記憶する。
変換マップ生成部17は、以下の手順によって、周囲映像を表示用映像に変換するための変換マップをユーザの眉間の位置に応じて作成し、変換マップ用メモリ19に保存する。
The ambient video memory 10 stores the ambient video output from the ambient video generation unit 12.
The conversion map generation unit 17 creates a conversion map for converting the surrounding video into a display video according to the following procedure, and stores it in the conversion map memory 19.

変換マップ生成部17は、まず、検出された眉間の位置に応じて、表示用映像に含まれるべき周囲映像の部分を特定する。   First, the conversion map generation unit 17 specifies a portion of the surrounding video that should be included in the display video according to the detected position between the eyebrows.

すなわち、変換マップ生成部17は、検出された眉間の位置がディスプレイに向かってディスプレイの中心よりも左側にあるほど、ディスプレイに向かってより右側の部分の周囲映像が表示用映像に含まれるように表示用映像に含まれる周囲映像を特定する。こうすることにより、覗き込む動作に対応した周囲映像を見ることができる。   That is, the conversion map generation unit 17 causes the display video to include the surrounding video of the portion on the right side of the display as the detected position between the eyebrows is on the left side of the display center. Identify the surrounding video included in the video for display. By doing so, it is possible to view a surrounding image corresponding to the peeping operation.

また、変換マップ作成部17は、検出された眉間の位置がディスプレイに向かってディスプレイの中心よりも右側にあるほど、ディスプレイに向かってより左側の部分の周囲映像が表示用映像に含まれるように表示用映像に含まれる周囲映像を特定する。こうすることにより、覗き込む動作に対応した周囲映像を見ることができる。   In addition, the conversion map creating unit 17 includes the display image including the surrounding image of the portion on the left side of the display as the position between the detected eyebrows is on the right side of the display center. Identify the surrounding video included in the video for display. By doing so, it is possible to view a surrounding image corresponding to the peeping operation.

図4(a)〜(c)は、眉間位置と、表示用映像に含まれるように特定された周囲映像の部分との関係の具体例を表わす図である。   4A to 4C are diagrams showing specific examples of the relationship between the position between the eyebrows and the portion of the surrounding video specified to be included in the display video.

図4(a)〜(c)において、眉間とディスプレイとの距離をaとする。ここで、aは予め定められた値であるとする。眉間の位置からディスプレイに下ろした垂線がディスプレイと交わる点からディスプレイの左端までの距離、ディスプレイの右端までの距離をそれぞれb0、b1とする。ディスプレイの水平幅をbとしたときに、b0+b1=bである。   4A to 4C, the distance between the eyebrows and the display is a. Here, a is assumed to be a predetermined value. Let b0 and b1 be the distance from the point where the perpendicular line dropped from the position between the eyebrows to the display to the left end of the display and the right end of the display, respectively. When the horizontal width of the display is b, b0 + b1 = b.

表示用映像が、眉間を中心として、垂線と、垂線から角度α0だけ反時計回りにシフトした境界で挟まれた範囲の左方向の周囲映像と、眉間を中心として、垂線と、垂線から角度α1だけ時計回りにシフトした境界で挟まれた範囲の右方向の周囲映像を含むとする。そうすると、α0=tan-1(b0/a)、α1=tan-1(b1/a)が成り立つ。α=α0+α1とする。b0が大きいほど、α0が大きくなり、b1が大きいほどα1は大きくなる。 An image for display is a peripheral image in the left direction between a vertical line and a boundary shifted counterclockwise by an angle α0 from the normal between the eyebrows, an angle α1 from the vertical and the vertical lines centered on the eyebrows It is assumed that the image includes a surrounding image in the right direction within a range sandwiched by a boundary shifted clockwise only. Then, α0 = tan −1 (b0 / a) and α1 = tan −1 (b1 / a) are established. α = α0 + α1. As b0 is larger, α0 is larger, and as b1 is larger, α1 is larger.

図4(a)においては、眉間位置がディスプレイに向かってディスプレイの中央にあるので、b0=b1である。この場合には、α0=α1となる。   In FIG. 4A, b0 = b1 since the position between the eyebrows is at the center of the display toward the display. In this case, α0 = α1.

図4(b)においては、眉間位置がディスプレイに向かってディスプレイの中心よりも左側にあるので、b0<b1である。この場合には、α0<α1となるので、眉間位置がディスプレイの中央にあるときよりも、ディスプレイに向かってより右側の部分の周囲映像まで含まれる。   In FIG. 4B, the position between the eyebrows is on the left side of the center of the display toward the display, so b0 <b1. In this case, since α0 <α1, the surrounding image of the portion on the right side toward the display is included rather than when the position between the eyebrows is at the center of the display.

図4(c)においては、眉間位置がディスプレイに向かってディスプレイの中心よりも右側にあるので、b0>b1である。この場合には、α0>α1となるので、眉間位置がディスプレイの中央にあるときよりも、ディスプレイに向かってより左側の部分の周囲映像まで含まれる。   In FIG. 4C, b0> b1 because the position between the eyebrows is on the right side of the display center toward the display. In this case, since α0> α1, the surrounding image of the portion on the left side toward the display is included rather than when the position between the eyebrows is in the center of the display.

変換マップ生成部17は、表示用映像に含まれるように特定された周囲映像の部分を表示部16(ディスプレイ)の表示エリアのサイズに合うように拡大および/または縮小するための一次変換式を計算する。さらに、変換マップ生成部17は、表示用映像に含まれるように特定された周囲映像の部分をパノラマ展開するための一次変換式を算出する。   The conversion map generation unit 17 calculates a primary conversion formula for enlarging and / or reducing the surrounding video portion specified to be included in the display video so as to fit the size of the display area of the display unit 16 (display). calculate. Further, the conversion map generation unit 17 calculates a primary conversion formula for panoramic development of a portion of the surrounding video specified to be included in the display video.

変換マップ生成部17は、上記2つの一次変換式を結合させた一次変換式を算出し、結合した一次変換式にしたがって、変換マップを作成する。この変換マップは、表示用映像の各画素に対応する周囲映像(円形映像)の各画素を定める。   The conversion map generation unit 17 calculates a primary conversion expression obtained by combining the two primary conversion expressions, and creates a conversion map according to the combined primary conversion expression. This conversion map defines each pixel of the surrounding image (circular image) corresponding to each pixel of the display image.

変換部15は、変換マップ用メモリ19内の変換マップにしたがって、周囲映像用メモリ10内の周囲映像の画素を再配列することによって、表示用映像を生成する。   The conversion unit 15 generates a display video by rearranging the pixels of the surrounding video in the surrounding video memory 10 according to the conversion map in the conversion map memory 19.

(監視装置1の動作)
図5は、第1の実施形態の監視装置1の動作手順を表わすフローチャートである。
(Operation of the monitoring device 1)
FIG. 5 is a flowchart showing an operation procedure of the monitoring apparatus 1 according to the first embodiment.

まず、全方位カメラ11は、周囲360度から届く光を撮影する(ステップS101)。   First, the omnidirectional camera 11 captures light reaching from 360 degrees around (step S101).

次に、周囲映像生成部12は、全方位カメラ11で得られたデータから円形映像を周囲映像として生成して、周囲映像用メモリ10に保存する(ステップS102)。   Next, the surrounding image generation unit 12 generates a circular image as the surrounding image from the data obtained by the omnidirectional camera 11, and stores it in the surrounding image memory 10 (step S102).

上記のステップS101〜S102の処理と並行して、下記のステップS103〜S105が行なわれる。   The following steps S103 to S105 are performed in parallel with the processing of the above steps S101 to S102.

顔撮影用カメラ13は、顔を撮影して顔画像を生成する(ステップS103)。
次に、眉間位置検出部14は、顔画像から眉間の位置を検出する(ステップS104)。
The face photographing camera 13 shoots a face and generates a face image (step S103).
Next, the position between the eyebrows is detected from the face image (step S104).

次に、変換マップ生成部17は、周囲映像から表示用映像に変換するための変換マップをユーザの眉間の位置に応じて作成して、変換マップ用メモリ19に保存する(ステップS105)。   Next, the conversion map generation unit 17 creates a conversion map for converting the surrounding video into the display video according to the position between the user's eyebrows, and stores it in the conversion map memory 19 (step S105).

ステップS102およびS105の両方が終了後に、変換部15は、変換マップ用メモリ19内の変換マップにしたがって、周囲映像用メモリ10内の周囲映像を表示用映像に変換する(ステップS106)。   After both steps S102 and S105 are completed, the conversion unit 15 converts the surrounding image in the surrounding image memory 10 into a display image according to the conversion map in the conversion map memory 19 (step S106).

次に、表示部16は、生成された表示用映像を表示する(ステップS107)。
以上のように、第1の実施形態の監視装置1によれば、カメラの制御を要することなく、ユーザは眉間の位置を変えることによって、周囲の所望の部分を含むように表示用映像を変化させることができる。この監視装置1を戦車に用いることによって、戦車の運転者が、顔の位置(眉間の位置)を動かすことによって、つまり窓から外を覗き込むようにすることによって、戦車の外部の周囲映像を見ることができる。
Next, the display unit 16 displays the generated display video (step S107).
As described above, according to the monitoring device 1 of the first embodiment, without changing the camera control, the user changes the display image so as to include a desired portion around by changing the position between the eyebrows. Can be made. By using this monitoring device 1 for a tank, the driver of the tank moves the face position (the position between the eyebrows), that is, by looking into the outside through the window, so that the surrounding image of the outside of the tank can be displayed. Can see.

[第2の実施形態]
第2の実施形態は、周囲映像から、視線方向に応じた表示用映像を生成する監視装置に関する。
[Second Embodiment]
The second embodiment relates to a monitoring device that generates a display image corresponding to a line-of-sight direction from surrounding images.

(監視装置の構成)
図6は、第2の実施形態の監視装置の機能ブロック図である。
(Configuration of monitoring device)
FIG. 6 is a functional block diagram of the monitoring apparatus according to the second embodiment.

図6の監視装置2が、図1の第1の実施形態の監視装置1と相違する点について説明する。   The difference between the monitoring device 2 of FIG. 6 and the monitoring device 1 of the first embodiment of FIG. 1 will be described.

図6の監視装置2の検出部28は、眉間位置検出部14の代わりに、視線方向検出部24を含む。   The detection unit 28 of the monitoring device 2 in FIG. 6 includes a line-of-sight direction detection unit 24 instead of the inter-brow position detection unit 14.

視線方向検出部24は、ユーザの視線方向を検出する。視線方向の検出方法については、文献「4つの参照点と3枚のキャリブレーション画像に基づく単眼カメラからの視線推定、川戸 慎二郎、内海 章、安部 伸治 著、画像の認識・理解シンポジウム(MIRU2005)、1337〜1341、2005年7月」に記載された方法を用いる。この方法は、顔の上に固定された4つの参照点と3枚のキャリブレーション画像を用いて、単眼カメラで視線方向を推定する方法である。この方法では、まず、キャリブレーション画像から、4つの参照点の座標の線形結合で眼球中心の投影位置を推定するパラメータが抽出される。そして、眼球中心の投影位置と虹彩中心とを結ぶベクトルが視線方向として推定される。この方法のより詳細については、上記文献を参照されたい。   The gaze direction detection unit 24 detects the gaze direction of the user. For the method of detecting the gaze direction, refer to the document “Estimation of gaze from a monocular camera based on four reference points and three calibration images, Shinjiro Kawado, Akira Utsumi, Shinji Abe, Image Recognition and Understanding Symposium (MIRU2005), 1337 to 1341, July 2005 ”is used. This method is a method for estimating the line-of-sight direction with a monocular camera using four reference points fixed on the face and three calibration images. In this method, first, a parameter for estimating the projection position of the center of the eyeball is extracted from the calibration image by linear combination of the coordinates of the four reference points. A vector connecting the projection center of the eyeball center and the iris center is estimated as the line-of-sight direction. For more details of this method, please refer to the above-mentioned document.

表示用映像生成部82は、周囲映像から、ユーザの視線方向に応じた表示用映像を生成するもので、周囲映像用メモリ10と、変換マップ生成部27と、変換マップ用メモリ19と、変換部15とを含む。周囲映像用メモリ10、変換マップ用メモリ19および変換部15は、第1の実施形態と同様である。   The display video generation unit 82 generates a display video corresponding to the user's line-of-sight direction from the surrounding video. The display video generation unit 82, the surrounding video memory 10, the conversion map generation unit 27, the conversion map memory 19, and the conversion Part 15. The surrounding video memory 10, the conversion map memory 19, and the conversion unit 15 are the same as those in the first embodiment.

変換マップ生成部27は、以下の手順によって、周囲映像を表示用映像に変換するための変換マップをユーザの視線方向に応じて作成し、変換マップ用メモリ19に保存する。   The conversion map generator 27 creates a conversion map for converting the surrounding video into the display video according to the user's line-of-sight direction according to the following procedure, and stores it in the conversion map memory 19.

変換マップ生成部2は、まず、検出された視線方向に応じて、表示用映像に含まれるべき周囲映像の部分を特定する。すなわち、変換マップ生成部17は、ユーザの顔の中心線(眉間を通り、顔の面に垂直な線)を中心とした角度αの範囲内の周囲映像が表示用映像に含まれるように特定する。この範囲の中心の方向(この範囲の中心を通る線の方向)は、検出された視線の方向である。ここで、αは予め定められた値とする。また、ユーザの顔の中心は動かないものとする。   First, the conversion map generation unit 2 specifies a portion of the surrounding video that should be included in the display video according to the detected line-of-sight direction. In other words, the conversion map generation unit 17 specifies that the surrounding video within the range of the angle α centered on the center line of the user's face (the line passing through the eyebrows and perpendicular to the face) is included in the display video. To do. The direction of the center of this range (the direction of the line passing through the center of this range) is the direction of the detected line of sight. Here, α is a predetermined value. The center of the user's face is assumed not to move.

図7(a)〜(c)は、視線方向と、表示用映像に含まれると特定された周囲映像の部分との関係の具体例を表わす図である。   FIGS. 7A to 7C are diagrams showing specific examples of the relationship between the line-of-sight direction and the portion of the surrounding video specified as being included in the display video.

図7(a)においては、ユーザの視線方向がディスプレイの中央にあるので、表示用映像は、ディスプレイの前方の周囲映像を含む。   In FIG. 7A, since the user's line-of-sight direction is in the center of the display, the display video includes a surrounding video in front of the display.

図7(b)においては、ユーザの視線方向がディスプレイの中央よりも右側にあるので、表示用映像は、ディスプレイの右前方の周囲映像を含む。   In FIG. 7B, since the user's line-of-sight direction is on the right side of the center of the display, the display image includes a surrounding image on the right front side of the display.

図7(c)においては、ユーザの視線方向がディスプレイの中央よりも左側にあるので、表示用映像は、ディスプレイの左前方の周囲映像を含む。   In FIG. 7C, since the user's line-of-sight direction is on the left side of the center of the display, the display image includes a surrounding image on the left front of the display.

変換マップ生成部27は、表示用映像に含めるように特定された周囲映像の部分を表示部16(ディスプレイ)の表示エリアのサイズに合うように拡大および/または縮小するための一次変換式を計算する。さらに、変換マップ生成部27は、表示用映像に含めるように特定された周囲映像の部分をパノラマ展開するための一次変換式を算出する。   The conversion map generation unit 27 calculates a primary conversion formula for enlarging and / or reducing the surrounding video portion specified to be included in the display video so as to fit the size of the display area of the display unit 16 (display). To do. Furthermore, the conversion map generation unit 27 calculates a primary conversion formula for panoramic development of a portion of the surrounding video specified to be included in the display video.

変換マップ生成部27は、上記2つの一次変換式を結合させた一次変換式を算出し、結合した一次変換式にしたがって、変換マップを作成する。この変換マップは、表示用映像の各画素に対応する周囲映像(円形映像)の各画素を定める。   The conversion map generation unit 27 calculates a primary conversion formula obtained by combining the two primary conversion formulas, and creates a conversion map according to the combined primary conversion formula. This conversion map defines each pixel of the surrounding image (circular image) corresponding to each pixel of the display image.

(監視装置2の動作)
図8は、第2の実施形態の監視装置2の動作手順を表わすフローチャートである。
(Operation of monitoring device 2)
FIG. 8 is a flowchart showing an operation procedure of the monitoring device 2 according to the second embodiment.

図8を参照して、ステップS101〜S103については、図5の第1の実施形態の動作手順と同様である。   Referring to FIG. 8, steps S101 to S103 are the same as the operation procedure of the first embodiment of FIG.

ステップS204において、視線方向検出部24は、顔画像からユーザの視線方向を検出する。   In step S204, the gaze direction detection unit 24 detects the gaze direction of the user from the face image.

次に、ステップS205において、変換マップ生成部27は、周囲映像から表示用映像に変換するための変換マップをユーザの視線方向に応じて作成して、変換マップ用メモリ19に保存する。   Next, in step S <b> 205, the conversion map generation unit 27 creates a conversion map for converting the surrounding video into the display video according to the user's line-of-sight direction, and stores it in the conversion map memory 19.

その後のステップS106および107については、図5の第1の実施形態の動作手順と同様である。   Subsequent steps S106 and 107 are the same as the operation procedure of the first embodiment in FIG.

以上のように、第2の実施形態の監視装置2によれば、カメラの制御を要することなく、視線方向を変えることによって、周囲の所望の部分を含むように表示用映像を変化させることができる。   As described above, according to the monitoring device 2 of the second embodiment, it is possible to change the display image so as to include a desired peripheral portion by changing the line-of-sight direction without requiring camera control. it can.

[第3の実施形態]
第3の実施形態は、周囲映像から、目とディスプレイまでの距離に応じた表示用映像を生成する監視装置に関する。
[Third Embodiment]
The third embodiment relates to a monitoring device that generates a display video according to the distance from the surrounding video to the eyes and the display.

(監視装置の構成)
図9は、第3の実施形態の監視装置の機能ブロック図である。
(Configuration of monitoring device)
FIG. 9 is a functional block diagram of the monitoring apparatus according to the third embodiment.

図9の監視装置3が、図1の第1の実施形態の監視装置1と相違する点について説明する。   The difference between the monitoring device 3 of FIG. 9 and the monitoring device 1 of the first embodiment of FIG. 1 will be described.

図9の監視装置3の検出部38は、眉間位置検出部14の代わりに、距離検出部34を含む。   The detection unit 38 of the monitoring device 3 in FIG. 9 includes a distance detection unit 34 instead of the inter-brow position detection unit 14.

距離検出部34は、顔画像を用いて、ユーザの目(左目または右目)と顔撮影用カメラ13との距離を検出する。距離検出部34は、第1の実施形態で説明した方法で検出した眉間の両側の対象な位置の暗い領域を目の領域として検出し、この目の領域の大きさ(たとえば画素数)を計測し、計測した目の領域の大きさと基準値とを比較することによって、目と顔撮影用カメラ13との相対的な距離を検出する。たとえば、目の領域の大きさの基準値をS1、そのときの距離をd1とし、計測した目の領域の大きさをStしたときに、距離dt=d1×St/S1として検出する。そして、この距離dtをさらに目とディスプレイとの距離に一定の基準で変換する。   The distance detection unit 34 detects the distance between the user's eyes (left eye or right eye) and the face photographing camera 13 using the face image. The distance detection unit 34 detects a dark region at a target position on both sides of the eyebrows detected by the method described in the first embodiment as an eye region, and measures the size (for example, the number of pixels) of the eye region. Then, the relative distance between the eyes and the face photographing camera 13 is detected by comparing the measured size of the eye area with the reference value. For example, when the reference value of the size of the eye region is S1, the distance at that time is d1, and the size of the measured eye region is St, the distance is detected as dt = d1 × St / S1. The distance dt is further converted into the distance between the eyes and the display on a constant basis.

表示用映像生成部83は、周囲映像から、ユーザの目とディスプレイとの距離に応じた表示用映像を生成するもので、周囲映像用メモリ10と、変換マップ生成部37と、変換マップ用メモリ19と、変換部15とを含む。周囲映像用メモリ10、変換マップ用メモリ19および変換部15は、第1の実施形態と同様である。   The display video generation unit 83 generates a display video corresponding to the distance between the user's eyes and the display from the surrounding video. The display video generation unit 83, the conversion map generation unit 37, and the conversion map memory 19 and a conversion unit 15. The surrounding video memory 10, the conversion map memory 19, and the conversion unit 15 are the same as those in the first embodiment.

変換マップ生成部37は、以下の手順によって、周囲映像を表示用映像に変換するための変換マップをユーザの目とディスプレイとの距離に応じて作成し、変換マップ用メモリ19に保存する。   The conversion map generation unit 37 creates a conversion map for converting the surrounding video into a display video according to the following procedure, according to the distance between the user's eyes and the display, and stores the conversion map in the conversion map memory 19.

変換マップ生成部37は、まず、目とディスプレイとの距離に応じて、表示用映像に含まれるべき周囲映像の部分を特定する。   First, the conversion map generation unit 37 specifies a portion of the surrounding video that should be included in the display video according to the distance between the eyes and the display.

すなわち、変換マップ生成部37は、ディスプレイの正面方向(ディスプレイに向かう方向)を中心として、ユーザの顔の中心線(眉間を通る線)を中心とした角度θの範囲内の周囲映像を表示用映像に含まれるように特定する。ここで、角度θは、視距離をa、ディスプレイの水平方向の長さをbとしたときに、θ=2×tan-1(b/(2×a))である。ここで、ユーザの顔の中心は、ディスプレイに向かってディスプレイの中央の位置で固定されているものとする。距離aが短いほど、角度θは大きくなり、表示用映像に含まれる周囲映像の範囲が広くなる。また、この場合、距離aが短いほど表示用映像に含まれる周囲映像の範囲を狭くし、距離aが長いほど表示用映像に含まれる周囲映像の範囲を広くしてもよい。 That is, the conversion map generation unit 37 displays the surrounding video within the range of the angle θ centered on the center line of the user's face (line passing between the eyebrows) with the front direction of the display (direction toward the display) as the center. Specify to be included in the video. Here, the angle θ is θ = 2 × tan −1 (b / (2 × a)), where a is the viewing distance and b is the horizontal length of the display. Here, it is assumed that the center of the user's face is fixed at the center of the display toward the display. The shorter the distance a, the larger the angle θ, and the wider the range of surrounding video included in the display video. In this case, the range of the surrounding video included in the display video may be narrowed as the distance a is short, and the range of the surrounding video included in the display video may be widened as the distance a is long.

図10(a)〜(c)は、目とディスプレイとの距離と、表示用映像に含まれると特定された周囲映像の部分との関係の具体例を表わす図である。   FIGS. 10A to 10C are diagrams showing specific examples of the relationship between the distance between the eyes and the display and the portion of the surrounding video specified as being included in the display video.

図10(b)では、図10(a)に比べて、目とディスプレイとの距離aが短いため、角度θは、図10(a)よりも大きくなり、表示用映像は、より広範囲の周囲映像を含む。   In FIG. 10B, since the distance a between the eyes and the display is shorter than in FIG. 10A, the angle θ is larger than in FIG. 10A, and the display image has a wider range of surroundings. Includes video.

図10(c)では、図10(a)に比べて、目とディスプレイとの距離aが長いため、角度θは、図10(a)よりも小さくなり、表示用映像は、より狭範囲の周囲映像を含む。   In FIG. 10C, since the distance a between the eyes and the display is longer than in FIG. 10A, the angle θ is smaller than in FIG. 10A, and the display image is in a narrower range. Includes ambient video.

変換マップ生成部37は、表示用映像に含めるように特定された周囲映像の部分を表示部16(ディスプレイ)の表示エリアのサイズに合うように拡大および/または縮小するための一次変換式を計算する。さらに、変換マップ生成部37は、表示用映像に含めるように特定された周囲映像の部分をパノラマ展開するための一次変換式を算出する。   The conversion map generation unit 37 calculates a primary conversion formula for enlarging and / or reducing a portion of the surrounding video specified to be included in the display video so as to fit the size of the display area of the display unit 16 (display). To do. Furthermore, the conversion map generation unit 37 calculates a primary conversion formula for panoramic development of a portion of the surrounding video specified to be included in the display video.

変換マップ生成部37は、上記2つの一次変換式を結合させた一次変換式を算出し、結合した一次変換式にしたがって、変換マップを作成する。この変換マップは、表示用映像の各画素に対応する周囲映像(円形映像)の各画素を定める。   The conversion map generation unit 37 calculates a primary conversion formula obtained by combining the two primary conversion formulas, and creates a conversion map according to the combined primary conversion formula. This conversion map defines each pixel of the surrounding image (circular image) corresponding to each pixel of the display image.

(監視装置3の動作)
図11は、第3の実施形態の監視装置3の動作手順を表わすフローチャートである。
(Operation of the monitoring device 3)
FIG. 11 is a flowchart showing an operation procedure of the monitoring device 3 according to the third embodiment.

図11を参照して、ステップS101〜S103については、図5の第1の実施形態の動作手順と同様である。   Referring to FIG. 11, steps S101 to S103 are the same as the operation procedure of the first embodiment of FIG.

ステップS304において、距離検出部34は、顔画像を用いて、ユーザの目と表示部16(ディスプレイ)との距離を検出する。   In step S304, the distance detection unit 34 detects the distance between the user's eyes and the display unit 16 (display) using the face image.

次に、ステップS305において、変換マップ生成部37は、周囲映像から表示用映像に変換するための変換マップをユーザの目と表示部16(ディスプレイ)との距離に応じて作成して、変換マップ用メモリ19に保存する。   Next, in step S305, the conversion map generation unit 37 creates a conversion map for converting from surrounding video to display video according to the distance between the user's eyes and the display unit 16 (display), and the conversion map. The data is stored in the memory 19.

その後のステップS106および107については、図5の第1の実施形態の動作手順と同様である。   Subsequent steps S106 and 107 are the same as the operation procedure of the first embodiment in FIG.

以上のように、第3の実施形態の監視装置3によれば、カメラの制御を要することなく、ユーザの目とディスプレイとの距離を変えることによって、周囲の所望の部分を含むように表示用映像を変化させることができる。   As described above, according to the monitoring device 3 of the third embodiment, without changing the camera control, the distance between the user's eyes and the display is changed so that a desired surrounding portion is included. The video can be changed.

(変形例)
本発明は、上記の実施形態に限定するものではなく、たとえば、以下のような変形例も含む。
(Modification)
The present invention is not limited to the above embodiment, and includes, for example, the following modifications.

(1) シースルーディスプレイ
本発明の実施形態の監視装置を用いて、凹凸のある壁面上において、さも壁がないかのようにその壁の奥を見ることができる、いわゆるシースルーディスプレイ(擬似窓)を実現することができる。
(1) See-through display A so-called see-through display (pseudo window) that can be seen on the surface of an uneven surface as if there is no other wall on the uneven wall surface using the monitoring device of the embodiment of the present invention. Can be realized.

(部屋の外側の監視)
図12は、本発明の実施形態の監視装置を用いてシースルーディスプレイを実現する場合の各構成要素の取付け例を表わす図である。
(Monitoring outside the room)
FIG. 12 is a diagram illustrating an example of attachment of each component when a see-through display is realized using the monitoring device according to the embodiment of the present invention.

図12は、壁に仕切られた2つの領域のうちの一方の領域である部屋の外部を監視する場合の取付け例を表わしている。ユーザは、壁に仕切られた2つの領域のうちの他方の領域である部屋の内部に存在するものとする。   FIG. 12 shows an example of attachment in the case of monitoring the outside of a room which is one of two areas partitioned by a wall. It is assumed that the user exists in the room which is the other of the two areas partitioned by the wall.

図12を参照して、全方位カメラ11は、ユーザの視野外を撮影する位置、すなわち監視対象である部屋の外側に取付けられる。表示部16の一例であるプロジェクタ54は、ユーザの視野内の位置、すなわち部屋の内側の天井に取付けられる。部屋の内側の壁の一部が、プロジェクタ54による投影のためのスクリーン55として形成される。   Referring to FIG. 12, the omnidirectional camera 11 is attached to a position where an image is taken outside the user's field of view, that is, outside the room being monitored. The projector 54, which is an example of the display unit 16, is attached to a position in the user's visual field, that is, the ceiling inside the room. A part of the inner wall of the room is formed as a screen 55 for projection by the projector 54.

顔撮影用カメラ13は、部屋の内側の壁に取付けられる。顔撮影用カメラ13の取付け位置の上下方向は、スクリーン55よりも上または下であり、顔撮影用カメラ13の取付け位置の水平方向は、スクリーン55の水平方向の中心である。   The face photographing camera 13 is attached to the inner wall of the room. The vertical direction of the attachment position of the face photographing camera 13 is above or below the screen 55, and the horizontal direction of the attachment position of the face photographing camera 13 is the center of the horizontal direction of the screen 55.

監視装置のそれ以外の構成要素は、部屋内部または別の場所に配置される。これらの構成要素と、顔撮影用カメラ13、全方位カメラ11およびプロジェクタ54との間は、無線または有線で接続される。   The other components of the monitoring device are placed inside the room or elsewhere. These components are connected to the face photographing camera 13, the omnidirectional camera 11, and the projector 54 by wireless or wired connection.

(原子炉室内部の監視)
図13は、本発明の実施形態の監視装置を用いてシースルーディスプレイを実現する場合の各構成要素の取付けの別の例を表わす図である。
(Monitoring inside the reactor chamber)
FIG. 13 is a diagram illustrating another example of attachment of each component when a see-through display is realized using the monitoring device according to the embodiment of the present invention.

図13は、壁に仕切られた2つの領域のうちの一方の領域である原子炉が置かれた部屋(原子炉室)の内部を監視する場合の取付け例を表わしている。ユーザは、壁に仕切られた2つの領域のうちの他方の領域である原子炉室の外部に存在するものとする。   FIG. 13 shows an example of attachment in the case of monitoring the inside of a room (reactor room) in which a nuclear reactor, which is one of two areas partitioned by walls, is placed. The user is assumed to exist outside the reactor chamber, which is the other of the two regions partitioned by the wall.

図13を参照して、全方位カメラ11は、ユーザの視野外を撮影する位置、すなわち監視対象である原子炉室の内部に取付けられる。表示部16の一例であるプロジェクタ54は、ユーザの視野内の位置、すなわち原子炉室の外部の天井に取付けられる。原子炉室の外側の壁の一部が、プロジェクタ54による投影のためのスクリーン55として形成される。   Referring to FIG. 13, the omnidirectional camera 11 is attached to a position outside the user's field of view, that is, inside the reactor chamber to be monitored. The projector 54, which is an example of the display unit 16, is attached to a position in the user's field of view, that is, a ceiling outside the reactor room. A part of the outer wall of the reactor chamber is formed as a screen 55 for projection by the projector 54.

顔撮影用カメラ13は、原子炉室の外側の壁に取付けられる。顔撮影用カメラ13の取付け位置の上下方向は、スクリーン55よりも上または下であり、顔撮影用カメラ13の取付け位置の水平方向は、スクリーン55の水平方向の中心である。   The face photographing camera 13 is attached to the outer wall of the reactor chamber. The vertical direction of the attachment position of the face photographing camera 13 is above or below the screen 55, and the horizontal direction of the attachment position of the face photographing camera 13 is the center of the horizontal direction of the screen 55.

監視装置のそれ以外の構成要素は、原子炉室外部または別の場所に配置される。これらの構成要素と、顔撮影用カメラ13、全方位カメラ11およびプロジェクタ54との間は、無線または有線で接続される。   Other components of the monitoring device are located outside the reactor room or elsewhere. These components are connected to the face photographing camera 13, the omnidirectional camera 11, and the projector 54 by wireless or wired connection.

図12および図13の例において、スクリーンに表示される映像の大きさを実物の大きさと同じになるようにしてもよい。これにより、スクリーンをより窓に近いものとさせることができる。   In the examples of FIGS. 12 and 13, the size of the image displayed on the screen may be the same as the size of the actual object. Thereby, the screen can be made closer to the window.

(2) 眉間検出、視線方向検出および目とディスプレイまでの距離検出について
本発明の実施形態で説明した眉間検出、視線方向検出および目とディスプレイまでの距離の検出の方式については一例であって、これに限定するものでなく、その他の方式を用いてもよい。
(2) About eyebrow detection, eye gaze direction detection and distance detection between eyes and display The methods of eyebrow detection, eye gaze direction detection and distance detection between eyes and display described in the embodiment of the present invention are examples. However, the present invention is not limited to this, and other methods may be used.

たとえば、眉間位置検出については、特開2004−185611号公報に記載された方法を用いてもよい。   For example, the method described in Japanese Patent Application Laid-Open No. 2004-185611 may be used for detecting the position between the eyebrows.

視線方向の検出については、文献「視線を用いたインタフェース、大野 健彦 著、情報処理(44巻7号)、pp.726-732、2003年7月」に記載された方法を用いてもよい。   For the detection of the gaze direction, the method described in the document “Interface Using Gaze, Takehiko Ohno, Information Processing (Vol.44, No.7), pp.726-732, July 2003” may be used.

目とディスプレイまでの距離の検出については、人間の黒目の間隔を測定する手法、2眼ステレオカメラを用いた方式、あるいは超音波などを用いた距離センサなどで検出する方式を用いてもよい。   For the detection of the distance between the eyes and the display, a method of measuring the distance between human eyes or a method using a two-lens stereo camera, or a method using a distance sensor using ultrasonic waves or the like may be used.

(3) 眉間、目以外の顔の特徴点について
本発明の第1の実施形態では、顔部(顔の全部または一部)の特徴点として眉間を用いたが、これに限定するものではなく、顔部の他の特徴点を検出し、検出した眉間の位置に応じて表示用映像を生成したのと同様にして、検出した特徴点の中心点に応じて表示用映像を生成することとしてもよい。
(3) Regarding the feature points of the face other than the eyebrows and eyes In the first embodiment of the present invention, the eyebrows are used as the feature points of the face part (all or part of the face), but the present invention is not limited to this. In the same way as detecting other feature points of the face and generating a display image according to the detected position between the eyebrows, a display image is generated according to the center point of the detected feature point. Also good.

また、本発明の第3の実施形態では、ディスプレイまでの距離を検出するときの顔部の特徴点として目を用いたが、これに限定するものではなく、顔部の他の特徴点を検出し、目とディスプレイまでの距離に応じた表示用映像を生成したのと同様にして、検出した特徴点とディスプレイまでの距離に応じた表示用映像を生成することとしてもよい。   In the third embodiment of the present invention, the eyes are used as the facial feature points when detecting the distance to the display. However, the present invention is not limited to this, and other facial feature points are detected. Then, it is also possible to generate a display image corresponding to the detected feature point and the distance to the display in the same manner as generating the display image corresponding to the distance between the eyes and the display.

顔部の特徴点としては、顔全体、左目、右目、鼻、眉間、口のうちの少なくとも1つを用いることができる。   As the facial feature point, at least one of the entire face, left eye, right eye, nose, eyebrows, and mouth can be used.

顔全体の位置検出については、たとえば特開2004−185611号公報に記載された方法を用いることができ、目の位置検出については、たとえば特開2003−168121号公報に記載された方法を用いることができ、鼻の位置検出については、たとえば特開2004−157778号公報に記載された方法を用いることができ、口の位置検出については、たとえば文献「川戸 慎二郎、内海 章、桑原 和宏 著、あなたの顔をインターフェースに実時間画像処理で目、鼻、口を入力デバイスに使う、画像の認識・理解シンポジウム(MIRU2004)、I-107-108、2004年7月」に記載された方法を用いることができる。   For example, the method described in Japanese Patent Application Laid-Open No. 2004-185611 can be used for position detection of the entire face, and the method described in Japanese Patent Application Laid-Open No. 2003-168121 can be used for position detection of the eyes. For detecting the position of the nose, for example, the method described in Japanese Patent Application Laid-Open No. 2004-157778 can be used, and for detecting the position of the mouth, for example, the documents “Shinjiro Kawato, Akira Utsumi, Kazuhiro Kuwahara, Use the method described in the Symposium on Image Recognition and Understanding (MIRU2004), I-107-108, July 2004, which uses real-time image processing as the interface for the eyes, nose, and mouth as input devices. Can do.

(4) 周囲映像から表示用映像の生成について
本発明の実施形態では、円形映像である周囲映像を一次変換することによって、パノラマ展開した表示用映像を生成したが、これに限定するものではなく、円形映像を一次変換してパノラマ展開した映像を生成し、パノラマ展開した映像から部分映像を切出し、部分映像を拡大および/または縮小することによって表示用映像を生成することとしてもよい。
(4) Regarding generation of display video from surrounding video In the embodiment of the present invention, a panoramic display video is generated by first converting a circular video surrounding video. However, the present invention is not limited to this. Alternatively, a circular video may be converted into a primary image to generate a panoramic video, a partial video may be cut out from the panoramic video, and the partial video may be enlarged and / or reduced to generate a display video.

(5) 拡大および/または縮小について
本発明の実施形態では、表示用映像に含める周囲映像の一部をディスプレイのサイズに合うように拡大および/または縮小したが、これに限定するものではない。たとえば、周囲映像の一部を常に一定の比率で拡大および/または縮小するものであってもよく、拡大も、縮小もすることなくディスプレイに表示することとしてもよい。
(5) Enlarging and / or reducing In the embodiment of the present invention, a part of the surrounding video included in the display video is enlarged and / or reduced to fit the size of the display. However, the present invention is not limited to this. For example, a part of the surrounding video may be always enlarged and / or reduced at a certain ratio, and may be displayed on the display without being enlarged or reduced.

また、第3の実施形態では、周囲映像から、視線の方向を中心とした周囲映像の一部を、ディスプレイのサイズに拡大および/または縮小し、ディスプレイの表示エリアの全体に表示したが、図14に示すように、ディスプレイまたはスクリーン(プロジェクタの場合)の表示エリアうちの特定部分、たとえば視線方向の近辺部分のみに表示用映像を表示するものとしてもよい。   In the third embodiment, from the surrounding video, a part of the surrounding video centered on the direction of the line of sight is enlarged and / or reduced to the size of the display and displayed in the entire display area of the display. As shown in FIG. 14, the display image may be displayed only on a specific portion of the display area of the display or screen (in the case of a projector), for example, only in the vicinity of the line-of-sight direction.

(6) ユーザからの入力について
本発明の実施形態および変形例では、ユーザの顔部の位置、顔部とディスプレイとの距離、視線、およびユーザの手または足の操作に応じて、周囲映像から表示用映像を生成したが、これに限定するものではない。ユーザの位置、状態、動作のうちの少なくとも1つに応じて、周囲映像から表示用映像を用いるものとすることができる。たとえば、ユーザの位置として、ユーザの身体全体の位置を用いてもよい。また、ユーザの状態として、ユーザの顔全体を近似した面の法線とディスプレイとの角度を用いてもよい。また、ユーザの動作として、ユーザの発声またはジェスチャなどを用いてもよい。
(6) Regarding Input from User In the embodiment and the modification of the present invention, from the surrounding video according to the position of the user's face, the distance between the face and the display, the line of sight, and the operation of the user's hand or foot. Although the display video is generated, the present invention is not limited to this. The display video can be used from the surrounding video according to at least one of the user's position, state, and action. For example, the position of the entire body of the user may be used as the position of the user. Further, the angle between the normal of the surface approximating the entire face of the user and the display may be used as the user state. Further, as the user's operation, a user's voice or gesture may be used.

(7) 周囲映像を取込むためのカメラについて
本発明の実施形態では、広範囲の周囲映像を生成するために全方位カメラ11を用いたが、これに限定するものではない。複数個のカメラで撮影された映像から広範囲の周囲映像を生成するものとしてもよい。また、本発明の実施形態では、周囲360度の周囲映像を生成するものとしたが、ユーザが必要とするだけの広角の映像を生成するものであればよい。また、赤外線カメラを用いてもよい。
(7) Camera for Capturing Ambient Image In the embodiment of the present invention, the omnidirectional camera 11 is used to generate a wide range of ambient images. However, the present invention is not limited to this. A wide range of surrounding images may be generated from images captured by a plurality of cameras. Further, in the embodiment of the present invention, the surrounding video of 360 degrees around is generated, but any wide angle video as long as the user needs may be generated. An infrared camera may be used.

(8) 全方位カメラの配置について
本発明の実施形態および変形例では、全方位カメラは、ユーザの視野外を撮影する位置に配置することとしたのは、全方位カメラ自体はユーザの視野内にあってもよいが、全方位カメラによって撮影される周囲映像がユーザの視野内では、ディスプレイに周囲映像を表示する意味がないことを考慮したためである。本発明の実施形態および変形例(1)のように、全方位カメラ自体をユーザの視野外に配置するという条件が満たされれば、必然的に、全方位カメラによって撮影される周囲映像もユーザの視野外にある場合には、全方位カメラをユーザの視野外に配置するという条件を満足することだけを考慮すればよい。
(8) About arrangement of omnidirectional camera In the embodiment and the modification of the present invention, the omnidirectional camera is arranged at a position for photographing outside the user's field of view. This is because it is considered that there is no meaning to display the surrounding image on the display within the user's field of view. If the condition that the omnidirectional camera itself is arranged outside the user's field of view is satisfied as in the embodiment and the modification example (1) of the present invention, the surrounding image captured by the omnidirectional camera is inevitably also captured by the user. If it is outside the field of view, it is only necessary to consider satisfying the condition that the omnidirectional camera is placed outside the user's field of view.

(9) 表示部の具体例について
本発明の実施形態では、表示部16として液晶ディスプレイを用い、変形例(1)では、プロジェクタを用いたが、これらに限定するものではない。表示部16として、たとえば、CRT(Cathode Ray Tube)またはプラズマディスプレイなどを用いてもよい。また、本発明の実施形態において、表示部としてプロジェクタを用いた場合には、ディスプレイの位置に、プロジェクタによる投影のためのスクリーンを形成することとなる。そして、第3の実施形態において、距離検出部は、スクリーンとユーザの目との距離を検出することになる。さらに、車両の場合にはフロントガラスの一部にスクリーンを設けてもよい。
(9) Specific Example of Display Unit In the embodiment of the present invention, a liquid crystal display is used as the display unit 16 and a projector is used in the modification (1). However, the present invention is not limited to this. As the display unit 16, for example, a CRT (Cathode Ray Tube) or a plasma display may be used. In the embodiment of the present invention, when a projector is used as the display unit, a screen for projection by the projector is formed at the position of the display. In the third embodiment, the distance detection unit detects the distance between the screen and the user's eyes. Further, in the case of a vehicle, a screen may be provided on a part of the windshield.

(10) 補正処理について
本発明の実施形態では、顔の中心線を中心として、たとえばθ0<θ<θ1の範囲の周囲の映像を表示するときには、周囲映像のθ0<θ<θ1の範囲を表示することにしたが、これは、ユーザの眉間が全方位カメラ11の位置にあるものとみなしたものである。実際には、ユーザの眉間の位置と全方位カメラ11の位置が異なるので、これらの位置の相違にも基づいて、表示する範囲を補正するものとしてもよい。
(10) Correction Processing In the embodiment of the present invention, when displaying an image around the center line of the face, for example, in the range of θ0 <θ <θ1, the range of θ0 <θ <θ1 of the surrounding image is displayed. However, it is assumed that the space between the user's eyebrows is at the position of the omnidirectional camera 11. Actually, since the position between the user's eyebrows and the position of the omnidirectional camera 11 are different, the display range may be corrected based on the difference between these positions.

(11) その他の適用例について
本発明の実施形態の監視装置は、上記以外の用途にも用いることができる。たとえば、戦車以外の特殊車両の前方と後方の監視、冷蔵庫、冷凍庫、危険物車庫などの内部の外部からの監視、飛行機のパイロット室から客室の監視、飛行機の客室からパイロット室の監視、マンホール、地下室などの外部からの監視、身障者の監視、オフィス、工場などの死角の監視に用いることができる。
(11) Other Application Examples The monitoring device according to the embodiment of the present invention can be used for uses other than those described above. For example, monitoring the front and rear of special vehicles other than tanks, monitoring from inside the refrigerator, freezer, dangerous goods garage, etc., monitoring the cabin from the pilot room of the airplane, monitoring the pilot room from the airplane cabin, manhole, It can be used for external monitoring such as in a basement, monitoring disabled persons, and blind spots in offices and factories.

(12) 変換マップの作成について
変換マップの作成については、さらに、パース変換、および回転変換を組合わせるものとしてもよい。
(12) About creation of conversion map About the creation of a conversion map, it is good also as what combines parse conversion and rotation conversion further.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

第1の実施形態の監視装置の機能ブロック図である。It is a functional block diagram of the monitoring apparatus of 1st Embodiment. 第1の実施形態の監視装置1を車両の一例である戦車に取付けた例を表わす図である。It is a figure showing the example which attached the monitoring apparatus 1 of 1st Embodiment to the tank which is an example of a vehicle. (a)〜(c)は、眉間位置の検出例を表わす図である。(A)-(c) is a figure showing the example of a detection of the position between eyebrows. (a)〜(c)は、眉間位置と、表示用映像に含まれるように特定された周囲映像の部分との関係の具体例を表わす図である。(A)-(c) is a figure showing the specific example of the relationship between the position between eyebrows, and the part of the surrounding image specified so that it may be included in the image | video for a display. 第1の実施形態の監視装置の動作手順を表わすフローチャートである。It is a flowchart showing the operation | movement procedure of the monitoring apparatus of 1st Embodiment. 第2の実施形態の監視装置の機能ブロック図である。It is a functional block diagram of the monitoring apparatus of 2nd Embodiment. (a)〜(c)は、視線方向と、表示用映像に含まれると特定された周囲映像の部分との関係の具体例を表わす図である。(A)-(c) is a figure showing the specific example of the relationship between a gaze direction and the part of the surrounding image identified as being contained in the image | video for a display. 第2の実施形態の監視装置の動作手順を表わすフローチャートである。It is a flowchart showing the operation | movement procedure of the monitoring apparatus of 2nd Embodiment. 第3の実施形態の監視装置の機能ブロック図である。It is a functional block diagram of the monitoring apparatus of 3rd Embodiment. (a)〜(c)は、目とディスプレイとの距離と、表示用映像に含まれると特定された周囲映像の部分との関係の具体例を表わす図である。(A)-(c) is a figure showing the specific example of the relationship between the distance of eyes and a display, and the part of the surrounding image specified as being included in the image | video for a display. 第3の実施形態の監視装置の動作手順を表わすフローチャートである。It is a flowchart showing the operation | movement procedure of the monitoring apparatus of 3rd Embodiment. 本発明の実施形態の監視装置を用いてシースルーディスプレイを実現する場合の各構成要素の取付け例を表わす図である。It is a figure showing the example of attachment of each component in the case of implement | achieving a see-through display using the monitoring apparatus of embodiment of this invention. 本発明の実施形態の監視装置を用いてシースルーディスプレイを実現する場合の各構成要素の取付けの別例を表わす図である。It is a figure showing another example of attachment of each component in the case of implement | achieving a see-through display using the monitoring apparatus of embodiment of this invention. 表示用映像の表示例を表わす図である。It is a figure showing the example of a display of the image | video for a display.

符号の説明Explanation of symbols

1,2,3 監視装置、10 周囲映像用メモリ、11 全方位カメラ、12 周囲映像生成部、13 顔撮影用カメラ、14 眉間位置検出部、15,25,35 変換部、16 表示部、17,27,37 変換マップ生成部、18,28,38 検出部、19 変換マップ用メモリ、24 視線方向検出部、34 距離検出部、51 前方ディスプレイ、52 後方ディスプレイ、53 右側面ディスプレイ、54 プロジェクタ、55 スクリーン、81,82,83 表示用映像生成部。   1, 2, 3 Monitoring device, 10 Ambient image memory, 11 Omnidirectional camera, 12 Ambient image generation unit, 13 Face shooting camera, 14 Eyebrow position detection unit, 15, 25, 35 Conversion unit, 16 Display unit, 17 , 27, 37 Conversion map generation unit, 18, 28, 38 detection unit, 19 conversion map memory, 24 gaze direction detection unit, 34 distance detection unit, 51 front display, 52 rear display, 53 right side display, 54 projector, 55 Screen, 81, 82, 83 Display image generation unit.

Claims (8)

周囲を撮影するための1個または複数個のカメラと、
前記カメラで撮影することによって広範囲の周囲映像を生成する周囲映像生成部と、
前記周囲映像生成部で生成された周囲映像を記憶する周囲映像用メモリと、
ユーザの顔部の位置を検出する検出部と、
前記検出部で検出された顔部の位置に応じて、前記周囲映像用メモリに記憶された周囲映像のうちの一部分を特定し、前記特定された一部分が含まれる表示用映像を生成する表示用映像生成部と、
前記生成された表示用映像を表示する表示部とを備え、
前記表示用映像生成部は、前記検出部で検出された顔部の位置が前記表示部または前記表示部による投影のためのスクリーンの中心よりも左側にあるほど、前記生成された周囲映像の中の、前記表示部または前記表示部による投影のためのスクリーンに向かってより右側にある周囲映像が含まれるような表示用映像を生成すると共に、前記検出部で検出された顔部の位置が前記表示部または前記表示部による投影のためのスクリーンの中心よりも右側にあるほど、前記生成された周囲映像の中の、前記表示部または前記表示部による投影のためのスクリーンに向かってより左側にある周囲映像が含まれるような表示用映像を生成し、
前記表示用映像生成部は、
前記表示用映像の各画素に対応する前記周囲映像の画素を定めた変換マップを作成する変換マップ作成部と、
前記作成された変換マップを記憶する変換マップ用メモリと、
前記変換マップ用メモリに記憶された変換マップに従って、前記周囲映像用メモリ内の画素を再配列することによって、前記表示用映像を生成する変換部とを含み、
前記変換マップ作成部は、前記周囲映像のうちの一部分を特定し、前記特定された周囲映像の一部分を前記表示部の表示エリアのサイズに合うように補正するための一次変換式を計算し、前記一次変換式に基づいて前記変換マップを作成する、監視装置。
One or more cameras for photographing the surroundings;
A surrounding image generation unit that generates a wide range of surrounding images by shooting with the camera;
A peripheral video memory for storing the peripheral video generated by the peripheral video generator;
A detection unit for detecting the position of the user's face;
In accordance with the position of the face detected by the detection unit, a part of the surrounding video stored in the surrounding video memory is specified, and a display video that generates the display video including the specified part is generated. A video generator;
A display unit for displaying the generated display video,
The display video generation unit is configured so that the position of the face detected by the detection unit is located on the left side of the center of the screen for projection by the display unit or the display unit. Generating a display image including a surrounding image on the right side of the display unit or a screen for projection by the display unit, and the position of the face detected by the detection unit is The closer to the right side of the center of the screen for the projection by the display unit or the display unit, the more the left side of the generated surrounding image toward the screen for the projection by the display unit or the display unit. Generate a display image that includes a certain surrounding image ,
The display video generation unit
A conversion map creating unit that creates a conversion map that defines pixels of the surrounding video corresponding to each pixel of the display video;
A conversion map memory for storing the created conversion map;
A conversion unit that generates the display video by rearranging the pixels in the surrounding video memory according to the conversion map stored in the conversion map memory;
The conversion map creating unit specifies a part of the surrounding video, calculates a primary conversion formula for correcting the part of the specified surrounding video to fit the size of the display area of the display unit, A monitoring device that creates the conversion map based on the primary conversion formula .
周囲を撮影するための1個または複数個のカメラと、
前記カメラで撮影することによって広範囲の周囲映像を生成する周囲映像生成部と、
前記周囲映像生成部で生成された周囲映像を記憶する周囲映像用メモリと、
ユーザの顔部の位置を検出する検出部と、
前記検出部で検出された顔部の位置に応じて、前記周囲映像用メモリに記憶された周囲映像のうちの一部分を特定し、前記特定された一部分が含まれる表示用映像を生成する表示用映像生成部と、
前記生成された表示用映像を表示する表示部とを備え、
前記検出部は、前記表示部または前記表示部による投影のためのスクリーンと、前記顔部との距離を検出し、
前記表示用映像生成部は、前記検出部で検出された距離が短いほど、前記生成された周囲映像の中のより広範囲の映像が含まれるような表示用映像を生成し、
前記表示用映像生成部は、
前記表示用映像の各画素に対応する前記周囲映像の画素を定めた変換マップを作成する変換マップ作成部と、
前記作成された変換マップを記憶する変換マップ用メモリと、
前記変換マップ用メモリに記憶された変換マップに従って、前記周囲映像用メモリ内の画素を再配列することによって、前記表示用映像を生成する変換部とを含み、
前記変換マップ作成部は、前記周囲映像のうちの一部分を特定し、前記特定された周囲映像の一部分を前記表示部の表示エリアのサイズに合うように補正するための一次変換式を計算し、前記一次変換式に基づいて前記変換マップを作成する、監視装置。
One or more cameras for photographing the surroundings;
A surrounding image generation unit that generates a wide range of surrounding images by shooting with the camera;
A peripheral video memory for storing the peripheral video generated by the peripheral video generator;
A detection unit for detecting the position of the user's face;
In accordance with the position of the face detected by the detection unit, a part of the surrounding video stored in the surrounding video memory is specified, and a display video that generates the display video including the specified part is generated. A video generator;
A display unit for displaying the generated display video,
The detection unit detects a distance between the display unit or the screen for projection by the display unit and the face unit,
The display image generation unit generates a display image that includes a wider range of images in the generated surrounding image as the distance detected by the detection unit is shorter ,
The display video generation unit
A conversion map creating unit that creates a conversion map that defines pixels of the surrounding video corresponding to each pixel of the display video;
A conversion map memory for storing the created conversion map;
A conversion unit that generates the display video by rearranging the pixels in the surrounding video memory according to the conversion map stored in the conversion map memory;
The conversion map creating unit specifies a part of the surrounding video, calculates a primary conversion formula for correcting the part of the specified surrounding video to fit the size of the display area of the display unit, A monitoring device that creates the conversion map based on the primary conversion formula .
前記検出部が検出する顔部は、前記ユーザの顔、目、鼻、眉間、口のうちの少なくとも1つである、請求項1または2記載の監視装置。   The monitoring device according to claim 1 or 2, wherein the detection unit detects at least one of the user's face, eyes, nose, eyebrows, and mouth. 前記監視装置は、車両の周囲を監視する装置であって、
前記カメラは、前記車両の外部に配置され、
前記表示部または前記表示部による投影のためのスクリーンは、前記車両の運転席の周囲に配置される、請求項1〜3のいずれか1項に記載の監視装置。
The monitoring device is a device for monitoring the surroundings of a vehicle,
The camera is arranged outside the vehicle;
The monitoring device according to claim 1, wherein the display unit or a screen for projection by the display unit is arranged around a driver's seat of the vehicle.
壁に仕切られた2つの領域のうちの一方の領域を監視する監視装置であって、
周囲を撮影するための1個または複数個のカメラと、
前記カメラで撮影することによって広範囲の周囲映像を生成する周囲映像生成部と、
前記周囲映像生成部で生成された周囲映像を記憶する周囲映像用メモリと、
ユーザの顔部の位置を検出する検出部と、
前記検出部で検出された顔部の位置に応じて、前記周囲映像用メモリに記憶された周囲映像のうちの一部分を特定し、前記特定された一部分が含まれる表示用映像を生成する表示用映像生成部と、
前記生成された表示用映像を表示する表示部とを備え、
前記1個または複数個のカメラは、前記壁に仕切られた2つの領域のうちの一方の領域内に配置され、
前記表示部または前記表示部による投影のためのスクリーンは、前記壁に仕切られた2つの領域のうちの他方の領域内の前記壁に取り付けられ、
前記表示用映像生成部は、前記検出部で検出された顔部の位置が前記表示部または前記表示部による投影のためのスクリーンの中心よりも左側にあるほど、前記生成された周囲映像の中の、前記表示部または前記表示部による投影のためのスクリーンに向かってより右側にある周囲映像が含まれるような表示用映像を生成すると共に、前記検出部で検出された顔部の位置が前記表示部または前記表示部による投影のためのスクリーンの中心よりも右側にあるほど、前記生成された周囲映像の中の、前記表示部または前記表示部による投影のためのスクリーンに向かってより左側にある周囲映像が含まれるような表示用映像を生成し、
前記表示用映像生成部は、
前記表示用映像の各画素に対応する前記周囲映像の画素を定めた変換マップを作成する変換マップ作成部と、
前記作成された変換マップを記憶する変換マップ用メモリと、
前記変換マップ用メモリに記憶された変換マップに従って、前記周囲映像用メモリ内の画素を再配列することによって、前記表示用映像を生成する変換部とを含み、
前記変換マップ作成部は、前記周囲映像のうちの一部分を特定し、前記特定された周囲映像の一部分を前記表示部の表示エリアのサイズに合うように補正するための一次変換式を計算し、前記一次変換式に基づいて前記変換マップを作成する、監視装置。
A monitoring device that monitors one of two regions partitioned by a wall,
One or more cameras for photographing the surroundings;
A surrounding image generation unit that generates a wide range of surrounding images by shooting with the camera;
A peripheral video memory for storing the peripheral video generated by the peripheral video generator;
A detection unit for detecting the position of the user's face;
In accordance with the position of the face detected by the detection unit, a part of the surrounding video stored in the surrounding video memory is specified, and a display video that generates the display video including the specified part is generated. A video generator;
A display unit for displaying the generated display video,
The one or more cameras are arranged in one of the two regions partitioned by the wall,
The display unit or a screen for projection by the display unit is attached to the wall in the other region of the two regions partitioned by the wall,
The display video generation unit is configured so that the position of the face detected by the detection unit is located on the left side of the center of the screen for projection by the display unit or the display unit. Generating a display image including a surrounding image on the right side of the display unit or a screen for projection by the display unit, and the position of the face detected by the detection unit is The closer to the right side of the center of the screen for the projection by the display unit or the display unit, the more the left side of the generated surrounding image toward the screen for the projection by the display unit or the display unit. Generate a display image that includes a certain surrounding image ,
The display video generation unit
A conversion map creating unit that creates a conversion map that defines pixels of the surrounding video corresponding to each pixel of the display video;
A conversion map memory for storing the created conversion map;
A conversion unit that generates the display video by rearranging the pixels in the surrounding video memory according to the conversion map stored in the conversion map memory;
The conversion map creating unit specifies a part of the surrounding video, calculates a primary conversion formula for correcting the part of the specified surrounding video to fit the size of the display area of the display unit, A monitoring device that creates the conversion map based on the primary conversion formula .
壁に仕切られた2つの領域のうちの一方の領域を監視する監視装置であって、
周囲を撮影するための1個または複数個のカメラと、
前記カメラで撮影することによって広範囲の周囲映像を生成する周囲映像生成部と、
前記周囲映像生成部で生成された周囲映像を記憶する周囲映像用メモリと、
ユーザの顔部の位置を検出する検出部と、
前記検出部で検出された顔部の位置に応じて、前記周囲映像用メモリに記憶された周囲映像のうちの一部分を特定し、前記特定された一部分が含まれる表示用映像を生成する表示用映像生成部と、
前記生成された表示用映像を表示する表示部とを備え、
前記1個または複数個のカメラは、前記壁に仕切られた2つの領域のうちの一方の領域内に配置され、
前記表示部または前記表示部による投影のためのスクリーンは、前記壁に仕切られた2つの領域のうちの他方の領域内の前記壁に取り付けられ、
前記検出部は、前記表示部または前記表示部による投影のためのスクリーンと、前記顔部との距離を検出し、
前記表示用映像生成部は、前記検出部で検出された距離が短いほど、前記生成された周囲映像の中のより広範囲の映像が含まれるような表示用映像を生成し、
前記表示用映像生成部は、
前記表示用映像の各画素に対応する前記周囲映像の画素を定めた変換マップを作成する変換マップ作成部と、
前記作成された変換マップを記憶する変換マップ用メモリと、
前記変換マップ用メモリに記憶された変換マップに従って、前記周囲映像用メモリ内の画素を再配列することによって、前記表示用映像を生成する変換部とを含み、
前記変換マップ作成部は、前記周囲映像のうちの一部分を特定し、前記特定された周囲映像の一部分を前記表示部の表示エリアのサイズに合うように補正するための一次変換式を計算し、前記一次変換式に基づいて前記変換マップを作成する、監視装置。
A monitoring device that monitors one of two regions partitioned by a wall,
One or more cameras for photographing the surroundings;
A surrounding image generation unit that generates a wide range of surrounding images by shooting with the camera;
A peripheral video memory for storing the peripheral video generated by the peripheral video generator;
A detection unit for detecting the position of the user's face;
In accordance with the position of the face detected by the detection unit, a part of the surrounding video stored in the surrounding video memory is specified, and a display video that generates the display video including the specified part is generated. A video generator;
A display unit for displaying the generated display video,
The one or more cameras are arranged in one of the two regions partitioned by the wall,
The display unit or a screen for projection by the display unit is attached to the wall in the other region of the two regions partitioned by the wall,
The detection unit detects a distance between the display unit or the screen for projection by the display unit and the face unit,
The display image generation unit generates a display image that includes a wider range of images in the generated surrounding image as the distance detected by the detection unit is shorter,
The display video generation unit
A conversion map creating unit that creates a conversion map that defines pixels of the surrounding video corresponding to each pixel of the display video;
A conversion map memory for storing the created conversion map;
A conversion unit that generates the display video by rearranging the pixels in the surrounding video memory according to the conversion map stored in the conversion map memory;
The conversion map creating unit specifies a part of the surrounding video, calculates a primary conversion formula for correcting the part of the specified surrounding video to fit the size of the display area of the display unit, A monitoring device that creates the conversion map based on the primary conversion formula .
前記検出部が検出する顔部は、前記ユーザの顔、目、鼻、眉間、口のうちの少なくとも1つである、請求項5または6記載の監視装置。   The monitoring device according to claim 5 or 6, wherein the face detected by the detection unit is at least one of the user's face, eyes, nose, eyebrows, and mouth. 前記検出部は、ユーザの眉間の位置を検出し、
前記表示用映像生成部は、前記生成された周囲映像のうち、前記眉間の位置から前記表示部または前記表示部による投影のためのスクリーンに下ろした垂線と、上から見たときに前記垂線を角度α0だけ反時計回りに回転した境界線とで挟まれた角度の範囲にある左方向の周囲映像を含み、かつ前記垂線と、上から見たときに前記垂線を角度α1だけ時計回りに回転した境界線とで挟まれた角度の範囲にある右方向の周囲映像を含むような表示用映像を生成し、
前記垂線が前記表示部または前記表示部による投影のためのスクリーンと交わる点から前記表示部または前記表示部による投影のためのスクリーンの左端までの距離をb0とし、右端までの距離をb1とし、前記垂線の長さをaとしたときに、
α0=tan-1(b0/a)、かつα1=tan-1(b1/a)である、請求項1〜7のいずれか1項に記載の監視装置。
The detection unit detects a position between the user's eyebrows,
The display image generation unit includes a vertical line drawn from a position between the eyebrows to a screen for projection by the display unit or the display unit, and the vertical line when viewed from above, in the generated surrounding image. Includes a left surrounding image in the range of angles sandwiched by a boundary line rotated counterclockwise by an angle α0, and rotates the perpendicular line and the perpendicular line by an angle α1 when viewed from above. Display video that includes the right surrounding video in the range of angles between the border
The distance from the point where the perpendicular intersects the display unit or the screen for projection by the display unit to the left end of the screen for projection by the display unit or the display unit is b0, the distance to the right end is b1, When the length of the perpendicular is a,
The monitoring apparatus according to claim 1, wherein α0 = tan −1 (b0 / a) and α1 = tan −1 (b1 / a).
JP2005266465A 2005-09-14 2005-09-14 Monitoring device Expired - Fee Related JP4283794B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005266465A JP4283794B2 (en) 2005-09-14 2005-09-14 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005266465A JP4283794B2 (en) 2005-09-14 2005-09-14 Monitoring device

Publications (3)

Publication Number Publication Date
JP2007081787A JP2007081787A (en) 2007-03-29
JP2007081787A5 JP2007081787A5 (en) 2008-07-10
JP4283794B2 true JP4283794B2 (en) 2009-06-24

Family

ID=37941626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005266465A Expired - Fee Related JP4283794B2 (en) 2005-09-14 2005-09-14 Monitoring device

Country Status (1)

Country Link
JP (1) JP4283794B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123531A1 (en) 2007-03-27 2008-10-16 Ube Industries, Ltd. Method for production of polyamide resin
JP4726859B2 (en) * 2007-06-18 2011-07-20 日本放送協会 Dialogue display device
JP5017382B2 (en) * 2010-01-21 2012-09-05 株式会社コナミデジタルエンタテインメント Image display device, image processing method, and program
JP2012004809A (en) * 2010-06-16 2012-01-05 Denso Corp Imaging system
FR2964818B1 (en) * 2010-09-14 2012-09-28 Thales Sa OPTRONIC SYSTEM WITH SUPRA HEMISPHERIC VISION
JP6429350B1 (en) * 2018-08-08 2018-11-28 豊 川口 vehicle
JP6903287B1 (en) * 2020-12-25 2021-07-14 雄三 安形 Vehicles without wipers

Also Published As

Publication number Publication date
JP2007081787A (en) 2007-03-29

Similar Documents

Publication Publication Date Title
JP4283794B2 (en) Monitoring device
JP4257356B2 (en) Image generating apparatus and image generating method
JP5222597B2 (en) Image processing apparatus and method, driving support system, and vehicle
JP4323377B2 (en) Image display device
JP5136059B2 (en) Image processing apparatus, image processing method, program thereof, and recording medium recording the program
TWI574224B (en) An image processing apparatus, an image processing method, a video product processing apparatus, a recording medium, and an image display apparatus
TWI535285B (en) Conference system, surveillance system, image processing device, image processing method and image processing program, etc.
JP4952995B2 (en) Image display system, image display method, and image display program
JP5985336B2 (en) Panorama image creating apparatus and program
US20120120240A1 (en) Video image conversion device and image capture device
JP2004519139A (en) Camera system and method of operating the system
JP2009100095A (en) Image processing apparatus and image processing method
JP2007052304A (en) Video display system
JP2010109452A (en) Vehicle surrounding monitoring device and vehicle surrounding monitoring method
JP2009183473A (en) Visual line direction detection device, and visual line direction detection method
JP2006044596A (en) Display device for vehicle
US20210329171A1 (en) Image adjustment system, image adjustment device, and image adjustment
JP2017196913A (en) Image display device
CN111902859B (en) Information processing device, information processing method, and program
CN115616776A (en) Virtual reality simulator and computer-readable recording medium
JP2005269010A (en) Image creating device, program and method
Aykut et al. Delay compensation for actuated stereoscopic 360 degree telepresence systems with probabilistic head motion prediction
JP3144172U (en) Display angle adjustment device
JP2018092107A (en) Image projection device, image display device, and movable body
JP4945315B2 (en) Driving support system and vehicle

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080508

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080508

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20080508

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090319

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130327

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130327

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140327

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees