JP2020088591A - Image processing system and image processing apparatus - Google Patents

Image processing system and image processing apparatus Download PDF

Info

Publication number
JP2020088591A
JP2020088591A JP2018219927A JP2018219927A JP2020088591A JP 2020088591 A JP2020088591 A JP 2020088591A JP 2018219927 A JP2018219927 A JP 2018219927A JP 2018219927 A JP2018219927 A JP 2018219927A JP 2020088591 A JP2020088591 A JP 2020088591A
Authority
JP
Japan
Prior art keywords
reflector
marker
camera
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018219927A
Other languages
Japanese (ja)
Other versions
JP7181589B2 (en
Inventor
格 北原
Itaru Kitahara
格 北原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2018219927A priority Critical patent/JP7181589B2/en
Publication of JP2020088591A publication Critical patent/JP2020088591A/en
Application granted granted Critical
Publication of JP7181589B2 publication Critical patent/JP7181589B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing system and an image processing apparatus capable of recording a first-person view point image of a worker, without making the worker wear a heavy electronic device such as a camera.SOLUTION: The video processing apparatus corrects the distortion of a curved mirror image reflected in goggles with a marker as a clue and generates image data in the direction of the goggles. The worker no longer needs to wear a heavy camera on his or her head during a work and can obtain image data of his or her view point only by wearing light-weight goggles.SELECTED DRAWING: Figure 1

Description

本発明は、映像処理システム及び映像処理装置に関する。 The present invention relates to a video processing system and a video processing device.

今日、産業用途やコンシューマ用途等で、仮想現実(Virtual Reality:以下「VR」と略す)の技術を利用したアプリケーションが広く普及し始めている。ゴーグル型ヘッドマウントディスプレイ(以下「HMD」(Head Mount Display)と略す)に映像を映すと、HMDの装着者はあたかも自分がHMDに映された映像の世界に居るような感覚を得ることができる。
このような、自己視点からの見え方を記録した一人称視点映像は、没入感の高い映像情報の記録・伝達・提示が可能である。そこで、VRを、様々な作業の記録や、当該作業をHMD装着者に追体験させることによる作業の早期習得等が試みられており、またそのようなVRの利用が広がりつつある。
2. Description of the Related Art Today, applications using virtual reality (hereinafter abbreviated as “VR”) technology have begun to spread widely for industrial applications, consumer applications, and the like. When an image is displayed on a goggle type head mounted display (hereinafter referred to as "HMD" (Head Mount Display)), the wearer of the HMD can feel as if he/she is in the world of the image displayed on the HMD. ..
Such a first-person viewpoint video recording the appearance from the self-viewpoint enables recording, transmission, and presentation of highly immersive video information. Therefore, attempts have been made to record various operations in VR, early learning of operations by allowing HMD wearers to relive those operations, and the use of such VR is expanding.

特許文献1には、仮想空間における移動を容易に実現する情報処理装置の技術内容が開示されている。
特許文献2には、多視点からのカメラ映像から被撮像体の三次元映像を生成する技術内容が開示されている。
Patent Document 1 discloses the technical content of an information processing apparatus that easily realizes movement in a virtual space.
Patent Document 2 discloses the technical content of generating a three-dimensional image of an imaged object from camera images from multiple viewpoints.

特開2018−147498号公報JP, 2008-147498, A 特開2017−130008号公報JP, 2017-130008, A

作業の習得を目的とする一人称視点映像の具体例として、外科手術が挙げられる。高度な医療技術が求められる外科手術は、これまでは患者の存在なくしては習熟が困難であったが、貴重な外科手術の一部始終を動画撮影することで、外科手術の技術の習得を早めることが可能になってきている。そして、その動画も一般的なビデオカメラで患者を遠くから撮影するものではなく、執刀医の視点で動画を撮影することができれば、執刀医の技術をより明確に確認することが期待できる。
しかし、執刀医の施術は極めて繊細で失敗は許されず、高い集中力を必要とする。このため、ビデオカメラなどの付帯物を装着した状態での施術は、ビデオカメラの重さや映像伝送ケーブルの配線が執刀医の施術を邪魔し、執刀医の集中力を阻害する原因となるため、現実に行うことは難しかった。
Surgery is a specific example of first-person perspective video for the purpose of learning work. Surgery, which requires advanced medical technology, has been difficult to master until now without the existence of patients, but by capturing a video of the valuable surgical procedure, it is possible to acquire the skill of surgery. It has become possible to speed up. Further, even if the moving image is not taken from a long distance with a general video camera, if the moving image can be taken from the viewpoint of the surgeon, it is expected that the skill of the surgeon can be confirmed more clearly.
However, the surgery performed by the surgeon is extremely delicate, unforgivable, and requires high concentration. For this reason, in the operation with an accessory such as a video camera attached, the weight of the video camera and the wiring of the image transmission cable interfere with the operation of the surgeon, and cause the surgeon's concentration to be impaired. It was difficult to do in reality.

本発明はかかる課題を解決し、作業者にカメラ等の重い電子デバイスなどの付帯物を装着させずに、作業者の一人称視点映像などの空間環境を記録することが可能な映像処理システム及び映像処理装置を提供することを目的とする。 The present invention solves such a problem, and an image processing system and an image capable of recording a spatial environment such as a first-person viewpoint image of an operator without attaching an accessory such as a heavy electronic device such as a camera to the operator. An object is to provide a processing device.

上記課題を解決するために、本発明の映像処理システムは、任意の対象を反射する反射体と、反射体によって反射された任意の対象を撮影可能なカメラと、カメラから直接撮影可能な位置に存在する第一マーカと、反射体によって反射した鏡像がカメラから撮影可能である第二マーカと、カメラが出力する映像データに存在する第一マーカの位置から空間を把握すると共に、映像データから反射体の映像部分を切り出し、反射体の映像部分に含まれる第二マーカの形状から反射体によって生じた歪みを把握して、反射体の映像部分を平面状態に補正する映像処理装置とを具備する。 In order to solve the above-mentioned problems, an image processing system of the present invention includes a reflector that reflects an arbitrary object, a camera that can image an arbitrary object reflected by the reflector, and a position that can be directly imaged from the camera. The first marker that exists, the second marker that allows the camera to capture the mirror image reflected by the reflector, and the position of the first marker that exists in the video data output by the camera will identify the space and reflect from the video data. And an image processing device that cuts out an image portion of the body, grasps the distortion caused by the reflector from the shape of the second marker included in the image portion of the reflector, and corrects the image portion of the reflector to a flat state. .

本発明によれば、作業者に重い電子デバイスを装着させるなど、映像観察点に撮像機器を配置すること無く、任意の空間点からの視野映像を生成することが出来、作業者の一人称視点映像などを記録することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, it is possible to generate a visual field image from an arbitrary spatial point without disposing an imaging device at an image observation point such as mounting a heavy electronic device on the operator, and thus a first-person perspective image of the worker. Etc. can be recorded.
Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

本発明の実施形態の例である、映像処理システムの使用状態を説明する概略図である。It is a schematic diagram explaining the use state of the image processing system which is an example of an embodiment of the present invention. 映像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a video processing apparatus. 映像処理装置のソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function of a video processing apparatus. 全方位カメラと、マーカと、ゴーグルと、被写体の関係を示す概略図である。It is a schematic diagram showing a relation of an omnidirectional camera, a marker, goggles, and a subject. 本発明の変形例に係る、車両補助モニタ装置を搭載した乗用車の実施形態を示す概略図である。It is a schematic diagram showing an embodiment of a passenger car carrying a vehicles auxiliary monitor device concerning a modification of the present invention. 本発明の第三の実施形態の例であり、本発明の映像処理システムの使用状態を説明する概略図である。It is an example of the third embodiment of the present invention, and is a schematic diagram illustrating a usage state of the video processing system of the present invention. 映像処理装置のソフトウェア機能の一部を示すブロック図である。It is a block diagram which shows a part of software function of a video processing apparatus.

本発明の第一の実施形態に係る映像処理システムは、執刀医等の作業者が装着するゴーグルに映る画像を全方位カメラあるいは広角度カメラで撮影する。ゴーグルは凸面鏡の特徴を有し、被写体を広角度にて反射する。そして、映像処理システムは、カメラの画像からゴーグルの部分を切り出し、ゴーグルの向きを検出して、ゴーグル装着者の視点で見る映像に変換する。 The video processing system according to the first embodiment of the present invention captures an image of goggles worn by an operator such as a surgeon with an omnidirectional camera or a wide-angle camera. The goggles have the characteristic of a convex mirror and reflect the subject at a wide angle. Then, the image processing system cuts out the goggles from the image of the camera, detects the direction of the goggles, and converts the goggles into an image viewed from the viewpoint of the goggles wearer.

[第一の実施形態:映像処理システム101:概略]
図1は、本発明の第一の実施形態の例であり、本発明の映像処理システム101の使用状態を説明する概略図である。図1は、手術室において執刀医102aと看護師102bが被写体である患者103に所定の施術を施す様子を、全方位カメラ104で撮影する様子を表している。なお、執刀医102aと看護師102bを区別しない場合は作業者102と総称する。
[First Embodiment: Video Processing System 101: Outline]
FIG. 1 is an example of the first embodiment of the present invention, and is a schematic diagram illustrating a usage state of a video processing system 101 of the present invention. FIG. 1 shows a situation in which an omnidirectional camera 104 takes an image of a surgeon 102a and a nurse 102b performing a predetermined operation on a patient 103 as an object in an operating room. In addition, when the surgeon 102a and the nurse 102b are not distinguished, they are collectively referred to as an operator 102.

映像処理システム101は、全方位カメラ104と、映像処理装置105と、マーカ106と、凸面鏡の特徴を有するゴーグル107よりなる。
全方位カメラ104は全天球カメラ等とも呼ばれる、360°の全方位を撮影可能なカメラである。撮影画像は球体形状に湾曲されているが、所定の映像処理装置で画像の湾曲や歪みを修正することで、平面状の画像として利用することができる。全方位カメラ104は主に監視カメラや防犯カメラ等の用途で広く普及しているカメラである。
The image processing system 101 includes an omnidirectional camera 104, an image processing device 105, a marker 106, and goggles 107 having the features of a convex mirror.
The omnidirectional camera 104, which is also called an omnidirectional camera or the like, is a camera capable of photographing 360° in all directions. The photographed image is curved in a spherical shape, but it can be used as a planar image by correcting the curvature or distortion of the image with a predetermined video processing device. The omnidirectional camera 104 is a camera that is widely used mainly for applications such as surveillance cameras and security cameras.

映像処理装置105は周知のパソコン等の情報処理装置で構成される。情報処理装置は映像処理装置105として動作するためのプログラムを読み込み、実行することで、映像処理装置105として機能する。
マーカ106は、上下左右に非対称の幾何学模様が大きく描かれたものである。このように、上下左右に非対称な模様を有するマーカを用いることによって、計算機がマーカ106の上下左右を明確に判別することが可能になる。このマーカ106は、例えば被写体の近傍に据え置かれる。図1に示すマーカ106は一例として、長方形の枠に四則演算の演算子が描かれている。このマーカ106は紙に印刷してもよいし、薄い板に描画してもよい。また、図1に示すような手術室の手術台108に直接印刷してもよい。なお、マーカ106の模様は図1に示すものに限定されない。
映像処理装置105は、全方位カメラ104とマーカ106との相対的な位置関係を把握することによって、映像処理装置105が内部で形成する仮想三次元空間の基準を設けることができる。マーカ106はこのために必要なものである。
The video processing device 105 is composed of a known information processing device such as a personal computer. The information processing device functions as the video processing device 105 by reading and executing a program for operating as the video processing device 105.
The marker 106 has large asymmetrical geometric patterns drawn vertically and horizontally. As described above, the use of the markers having asymmetrical patterns on the top, bottom, left, and right enables the computer to clearly determine the top, bottom, left, and right of the marker 106. The marker 106 is placed, for example, near the subject. As an example of the marker 106 shown in FIG. 1, operators for four arithmetic operations are drawn in a rectangular frame. The marker 106 may be printed on paper or drawn on a thin plate. Alternatively, it may be printed directly on the operating table 108 in the operating room as shown in FIG. The pattern of the marker 106 is not limited to that shown in FIG.
By grasping the relative positional relationship between the omnidirectional camera 104 and the marker 106, the image processing device 105 can set a reference for the virtual three-dimensional space formed inside the image processing device 105. The marker 106 is necessary for this purpose.

ゴーグル107は、執刀医102a及び看護師102b等の、所定の作業を遂行する作業者102によって装着される。ゴーグル107のレンズは全方位カメラ104が撮影できるように外界風景を反射する。ゴーグル107のレンズが反射する外界風景を全方位カメラ104が捉える仕組みにはいくつかの方法が考えられる。
一つは、周知のマジックミラーを用いる方法である。ゴーグル107のレンズは例えば、アクリル等の透明な合成樹脂の板に、誘電多層膜や金属薄膜等の材料で構成されるハーフミラーフィルムを貼付したものである。ゴーグル107のレンズの表面は球面に類似する湾曲形状を有すると共に、鏡のように外界風景を反射する。すなわち、ゴーグル107のレンズは凸面鏡の特徴を有する。このような凸面鏡の特徴を有するゴーグル107は、スキーやスノーボード等のウィンタースポーツ用途として市場に流通している。
もう一つは、ゴーグル107のレンズに単なる鏡面仕上げされた板を採用する一方、全方位カメラ104に偏光カメラという、入射光のうち偏光成分のみを優先的に捉えるカメラを使用することで、ゴーグル107のレンズ部分だけを撮影する方法である。
The goggles 107 are worn by a worker 102 such as a surgeon 102a and a nurse 102b who perform a predetermined work. The lens of the goggles 107 reflects the external scenery so that the omnidirectional camera 104 can take a picture. There are several possible methods for the omnidirectional camera 104 to capture the external scenery reflected by the lens of the goggles 107.
One is a method using a well-known magic mirror. The lens of the goggles 107 is, for example, a transparent synthetic resin plate such as acryl, to which a half mirror film made of a material such as a dielectric multilayer film or a metal thin film is attached. The surface of the lens of the goggles 107 has a curved shape similar to a spherical surface, and reflects the external scenery like a mirror. That is, the lens of the goggles 107 has a characteristic of a convex mirror. The goggles 107 having the features of such a convex mirror are on the market for winter sports such as skiing and snowboarding.
The other is that while using a simple mirror-finished plate for the lens of the goggles 107, the omnidirectional camera 104 uses a polarization camera, which is a camera that preferentially captures only the polarized component of the incident light. This is a method of photographing only the lens portion of 107.

さらに、一般的に利用される、光沢面のみを有し、鏡面加工等が施されていない透明プラスチック(ポリカーボネート樹脂やアクリル樹脂が良く利用される)をそのレンズ面の材料とするゴーグル107と、偏光カメラ等ではない安価な市販のカメラ104を用いた場合でも、手術室内の、目的とする映像範囲が撮像できる場合には、本発明が適応できる。ゴーグル107のレンズの光沢面から得られる反射像のコントラストが低く、映像信号とノイズの比率(S/N比)が低い場合でも、HDR(High Dynamic Range)やデヘイズ等の映像処理を施すことで、ゴーグル107の反射像、市販カメラ104の映像を用いて本発明を実施することが可能である。
なお、「ノングレア処理」「アンチグレア処理」等と呼ばれる、反射防止加工が施されたレンズは、そもそも映像の反射ができないので、本発明の実施形態の対象外である。
Further, a goggle 107 having a lens surface made of a commonly-used transparent plastic having only a glossy surface and not subjected to mirror finishing (polycarbonate resin or acrylic resin is often used), The present invention can be applied even when an inexpensive commercially available camera 104 that is not a polarization camera or the like is used, as long as a desired image range in the operating room can be imaged. Even if the contrast of the reflected image obtained from the glossy surface of the lens of the goggles 107 is low and the ratio of the image signal and noise (S/N ratio) is low, by performing image processing such as HDR (High Dynamic Range) and dehaze. It is possible to implement the present invention by using the reflection image of the goggles 107 and the image of the commercially available camera 104.
It should be noted that a lens that has been subjected to antireflection processing, such as "non-glare processing" or "antiglare processing", cannot reflect an image in the first place, and thus is not included in the embodiments of the present invention.

全方位カメラ104は、マーカ106のみならず、作業者102が装着しているゴーグル107も撮影する。すると、ゴーグル107には作業者102が見る風景が反射して、全方位カメラ104に映り込む。この風景には、作業者102が見る被写体も含まれる。図1では、患者103が被写体に該当する。さらに、ゴーグル107にはマーカ106も映り込む。 The omnidirectional camera 104 images not only the marker 106 but also the goggles 107 worn by the worker 102. Then, the scenery viewed by the worker 102 is reflected on the goggles 107 and reflected on the omnidirectional camera 104. This scenery also includes the subject viewed by the worker 102. In FIG. 1, the patient 103 corresponds to the subject. Further, the marker 106 is also reflected in the goggles 107.

映像処理装置105は、ゴーグル107に映り込んだマーカ106を手がかりに、ゴーグル107に映り込んだ映像を切り出すと共に、映り込んだ映像に表れる歪んだ風景に補正処理を施す。そして、映像処理装置105が内部で形成する仮想三次元空間内におけるゴーグル107の座標情報と姿勢情報を算出し、ゴーグル107の座標情報と姿勢情報に基づいて、ゴーグル107を装着する作業者102が見ていると推定される映像を、補正処理を施した風景から切り出す。 The image processing apparatus 105 cuts out the image reflected in the goggles 107 by using the marker 106 reflected in the goggles 107 as a clue, and corrects the distorted landscape appearing in the reflected images. Then, the image processing apparatus 105 calculates the coordinate information and the posture information of the goggles 107 in the virtual three-dimensional space internally formed, and based on the coordinate information and the posture information of the goggles 107, the worker 102 wearing the goggles 107 The image estimated to be viewed is cut out from the landscape that has undergone correction processing.

[映像処理装置105]
図2は、映像処理装置105のハードウェア構成を示すブロック図である。
パソコンよりなる映像処理装置105は、バス201に接続されたCPU202、ROM203、RAM204、表示部205、操作部206、不揮発性ストレージ207と、全方位カメラ104が接続されるシリアルインターフェース208を備える。シリアルインターフェース208は例えば周知のUSBである。
[Video processing device 105]
FIG. 2 is a block diagram showing the hardware configuration of the video processing device 105.
The video processing device 105 including a personal computer includes a CPU 202, a ROM 203, a RAM 204, a display unit 205, an operation unit 206, a nonvolatile storage 207 connected to the bus 201, and a serial interface 208 to which the omnidirectional camera 104 is connected. The serial interface 208 is, for example, a well-known USB.

図3は、映像処理装置105のソフトウェア機能を示すブロック図である。図3中、情報処理機能ブロックを実線の枠で、データや情報を一点鎖線の枠で示している。
全方位カメラ104が出力する全方位撮影映像データ301は、第一マーカ検出処理部302に入力される。
第一マーカ検出処理部302は、不揮発性ストレージ207に記憶されているマーカ情報303に基づいて、全方位撮影映像データ301に写っているマーカ106を探し当てる。そして、全方位撮影映像データ301における位置情報及び姿勢情報である、全方位カメラマーカ姿勢座標情報304を出力する。マーカ情報303は、マーカ106の形状と大きさに関する情報よりなる。マーカ106の形状はマーカ106の画像データでもよい。
全方位カメラマーカ姿勢座標情報304は、全方位カメラ位置推定処理部305に入力される。
全方位カメラ位置推定処理部305は、全方位カメラマーカ姿勢座標情報304に基づく推定演算処理を行い、全方位カメラ104の仮想三次元空間内における座標情報である、全方位カメラ座標情報306を出力する。
FIG. 3 is a block diagram showing software functions of the video processing device 105. In FIG. 3, the information processing function block is shown by a solid line frame, and the data and information are shown by a one-dot chain line frame.
The omnidirectional captured image data 301 output by the omnidirectional camera 104 is input to the first marker detection processing unit 302.
The first marker detection processing unit 302 searches for the marker 106 included in the omnidirectional captured image data 301 based on the marker information 303 stored in the non-volatile storage 207. Then, the omnidirectional camera marker posture coordinate information 304, which is the position information and the posture information in the omnidirectional captured image data 301, is output. The marker information 303 includes information about the shape and size of the marker 106. The shape of the marker 106 may be image data of the marker 106.
The omnidirectional camera marker posture coordinate information 304 is input to the omnidirectional camera position estimation processing unit 305.
The omnidirectional camera position estimation processing unit 305 performs estimation calculation processing based on the omnidirectional camera marker posture coordinate information 304 and outputs omnidirectional camera coordinate information 306, which is coordinate information of the omnidirectional camera 104 in the virtual three-dimensional space. To do.

一方、全方位カメラ104が出力する全方位撮影映像データ301は、ゴーグル領域抽出処理部307にも入力される。
ゴーグル領域抽出処理部307は、全方位撮影映像データ301に写っているゴーグル107を探し当てる。そして、ゴーグル領域抽出処理部307は、全方位撮影映像データ301からゴーグル107の領域の部分だけ切り出した第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nを出力する。
全方位撮影映像データ301からゴーグル107を探し当てる方法には幾つかある。一例としては、全方位カメラ104に偏光カメラを採用し、全方位撮影映像データ301から偏光に基づく反射が強く得られる領域を探し当てる方法がある。また、ゴーグル107の周縁部分に近赤外線LEDを装着し、近赤外線LEDを所定の周期で点滅させることでゴーグル107の位置を探し当てる方法も考えられる。更に、近年急速に発達しているAI(artificial intelligence:人工知能)を用いた画像認識処理で、画像データ中の凸面鏡の特徴を有する箇所を探し当てるようにしてもよい。
On the other hand, the omnidirectional shot image data 301 output by the omnidirectional camera 104 is also input to the goggle area extraction processing unit 307.
The goggle area extraction processing unit 307 searches for the goggles 107 included in the omnidirectional captured image data 301. Then, the goggle region extraction processing unit 307 cuts out only the region of the goggles 107 from the omnidirectional captured image data 301, the first goggle region image data 308a, the second goggle region image data 308b,... Is output.
There are several methods for finding the goggles 107 from the omnidirectional image data 301. As an example, there is a method in which a polarization camera is used as the omnidirectional camera 104 and a region where strong reflection based on polarization is strongly obtained from the omnidirectional captured image data 301 is located. A method of mounting a near-infrared LED on the periphery of the goggles 107 and blinking the near-infrared LEDs at a predetermined cycle to find the position of the goggles 107 is also conceivable. Further, it is also possible to find a portion having a characteristic of a convex mirror in the image data by an image recognition process using AI (artificial intelligence) which has been rapidly developed in recent years.

ゴーグル領域抽出処理部307が出力する第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nは、第二マーカ検出処理部309に入力される。
第二マーカ検出処理部309は、第一マーカ検出処理部302と同様に、不揮発性ストレージ207に記憶されているマーカ情報303に基づいて、第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nのそれぞれに写っているマーカ106を探し当てる。そして、第二マーカ検出処理部309は、第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nにおける位置情報及び姿勢情報である、第一ゴーグルマーカ姿勢座標情報310a、第二ゴーグルマーカ姿勢座標情報310b、…第nゴーグルマーカ姿勢座標情報310nを出力する。
The first goggle region image data 308a, the second goggle region image data 308b,... The nth goggle region image data 308n output by the goggle region extraction processing unit 307 are input to the second marker detection processing unit 309.
The second marker detection processing unit 309, like the first marker detection processing unit 302, based on the marker information 303 stored in the non-volatile storage 207, the first goggle area video data 308a and the second goggle area video data. 308b,... Locates the markers 106 shown in each of the nth goggle area image data 308n. Then, the second marker detection processing unit 309 uses the first goggle region image data 308a, the second goggle region image data 308b,... The information 310a, the second goggle marker attitude coordinate information 310b,..., The nth goggle marker attitude coordinate information 310n are output.

第一ゴーグルマーカ姿勢座標情報310a、第二ゴーグルマーカ姿勢座標情報310b、…第nゴーグルマーカ姿勢座標情報310nは、ゴーグル座標推定処理部311に入力される。
ゴーグル座標推定処理部311は、第一ゴーグルマーカ姿勢座標情報310a、第二ゴーグルマーカ姿勢座標情報310b、…第nゴーグルマーカ姿勢座標情報310nと、全方位カメラマーカ姿勢座標情報304と、全方位カメラ座標情報306に基づく推定演算処理を行う。そして、ゴーグル座標推定処理部311は、全方位カメラ104の仮想三次元空間内における、ゴーグル107に写ったマーカ106の位置と姿勢と歪みを含む情報である、第一ゴーグル姿勢座標情報312a、第二ゴーグル姿勢座標情報312b、…第nゴーグル姿勢座標情報312nを出力する。
The first goggle marker attitude coordinate information 310a, the second goggle marker attitude coordinate information 310b,... The nth goggle marker attitude coordinate information 310n are input to the goggle coordinate estimation processing unit 311.
The goggle coordinate estimation processing unit 311 includes the first goggle marker attitude coordinate information 310a, the second goggle marker attitude coordinate information 310b,... The nth goggle marker attitude coordinate information 310n, the omnidirectional camera marker attitude coordinate information 304, and the omnidirectional camera. An estimation calculation process based on the coordinate information 306 is performed. Then, the goggle coordinate estimation processing unit 311 includes the first goggle posture coordinate information 312a, which is information including the position, the posture, and the distortion of the marker 106 reflected in the goggles 107 in the virtual three-dimensional space of the omnidirectional camera 104. The second goggles posture coordinate information 312b,... Outputs the nth goggles posture coordinate information 312n.

第二マーカ検出処理部309の処理自体は第一マーカ検出処理部302と殆ど同じ処理であるが、第二マーカ検出処理部309で第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nから検出するマーカ106は、ゴーグル107によって反転され、幾何歪みが生じている。なお、これ以降、凸面鏡、平面鏡、凹面鏡を「反射鏡」と総称する。更に、反射鏡から得られる反射映像において、反射鏡の形状及び/または方向によって生じる反射映像の歪みを「幾何歪み」と定義する。なお、幾何歪みには反射鏡の形状(曲面)に由来する歪みと、反射鏡の方向に由来する射影歪みがあるが、「幾何歪み」とはこれら二種類の歪みを包含する上位概念の言葉として定義する。
一方、第一ゴーグル姿勢座標情報312a、第二ゴーグル姿勢座標情報312b、…第nゴーグル姿勢座標情報312nは、第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nに存在するマーカ106の位置と姿勢のみならず、マーカ106の幾何歪みに関する情報も含む。マーカ106の幾何歪みは、ゴーグル107の湾曲形状に基づくものである。したがって、ゴーグル映像生成処理部313は、マーカ106の幾何歪みに関する情報を用いて、第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nの幾何歪みを補正して、平面状の映像データに変換することが可能である。
The processing itself of the second marker detection processing unit 309 is almost the same as the processing of the first marker detection processing unit 302, but the second marker detection processing unit 309 uses the first goggle area video data 308a, the second goggle area video data 308b, The marker 106 detected from the nth goggle area image data 308n is inverted by the goggles 107, and geometric distortion occurs. Note that, hereinafter, the convex mirror, the plane mirror, and the concave mirror are collectively referred to as "reflecting mirror". Further, in the reflection image obtained from the reflection mirror, the distortion of the reflection image caused by the shape and/or the direction of the reflection mirror is defined as “geometrical distortion”. Geometric distortion includes distortion caused by the shape (curved surface) of the reflecting mirror and projective distortion caused by the direction of the reflecting mirror. "Geometric distortion" is a generic term that includes these two types of distortion. Define as.
On the other hand, the first goggle posture coordinate information 312a, the second goggles posture coordinate information 312b,... The nth goggles posture coordinate information 312n are the first goggles region image data 308a, the second goggles region image data 308b,. It includes not only the position and orientation of the marker 106 existing in the data 308n but also information about the geometric distortion of the marker 106. The geometric distortion of the marker 106 is based on the curved shape of the goggles 107. Therefore, the goggle image generation processing unit 313 corrects the geometric distortion of the first goggle region image data 308a, the second goggle region image data 308b,... The nth goggle region image data 308n using the information regarding the geometric distortion of the marker 106. Then, it is possible to convert into flat video data.

そこで、ゴーグル映像生成処理部313は、第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nと、第一ゴーグル姿勢座標情報312a、第二ゴーグル姿勢座標情報312b、…第nゴーグル姿勢座標情報312nと、全方位カメラマーカ姿勢座標情報304(A)と、全方位カメラ座標情報306(B)を受けて、ゴーグル107を装着する作業者102が見ていると推定される映像を生成する。こうしてゴーグル映像生成処理部313は、第一ゴーグル視点映像データ314a、第二ゴーグル視点映像データ314b、…第nゴーグル視点映像データ314nを出力する。 Therefore, the goggle image generation processing unit 313 includes the first goggle region image data 308a, the second goggle region image data 308b,... The nth goggle region image data 308n, the first goggle posture coordinate information 312a, and the second goggle posture coordinate information. The operator 102 wearing the goggles 107 receives the nth goggle posture coordinate information 312n, the omnidirectional camera marker posture coordinate information 304(A), and the omnidirectional camera coordinate information 306(B). It is estimated that the image is generated. Thus, the goggle image generation processing unit 313 outputs the first goggle viewpoint image data 314a, the second goggle viewpoint image data 314b,... The nth goggle viewpoint image data 314n.

更に、第一ゴーグル視点映像データ314a、第二ゴーグル視点映像データ314b、…第nゴーグル視点映像データ314nは三次元形状推定処理部315に加えられ、三次元形状推定処理部315にて被写体の仮想三次元映像データ316が生成される。なお、三次元形状推定処理部315の処理は必ずしも必須のものではなく、必要に応じて行われる処理である。 Further, the first goggle viewpoint image data 314a, the second goggle viewpoint image data 314b,... The nth goggle viewpoint image data 314n are added to the three-dimensional shape estimation processing unit 315, and the three-dimensional shape estimation processing unit 315 virtualizes the subject. Three-dimensional video data 316 is generated. Note that the processing of the three-dimensional shape estimation processing unit 315 is not necessarily essential and is processing performed as needed.

単眼のカメラである全方位カメラ104が出力する画像データストリームはあくまでも二次元の画像データであるため、このままでは映像処理装置105は三次元の被写体の向きや奥行き等を検出することはできない。
しかし、複数の作業者の視点映像が同時に取得することで、映像処理装置105は多視点映像を獲得することができる。そしてその結果として、映像処理装置105は三次元画像処理が可能になる。
映像装置105が三次元画像処理を行う方法は、本特許発明者による特許文献2に開示されている。
Since the image data stream output from the omnidirectional camera 104, which is a monocular camera, is only two-dimensional image data, the video processing device 105 cannot detect the orientation, depth, etc. of a three-dimensional subject as it is.
However, the image processing apparatus 105 can acquire multi-view images by simultaneously obtaining viewpoint images of a plurality of workers. As a result, the video processing device 105 can perform three-dimensional image processing.
A method in which the video device 105 performs three-dimensional image processing is disclosed in Patent Document 2 by the present inventor.

[三次元空間におけるカメラと撮影対象とゴーグル107]
図4は、全方位カメラ104と、マーカ106と、ゴーグル107と、被写体401の関係を示す概略図である。
映像処理装置105は、全方位カメラ104がマーカ106を直接撮影することで、第一マーカ検出処理部302が全方位カメラ104とマーカ106との相対的な位置関係を把握する。そしてこれとは別に、映像処理装置105は、全方位カメラ104がゴーグル107のレンズ107aを通じてマーカ106の鏡像M402と、被写体401の鏡像M403を撮影した映像データを取得する。
[Camera, subject and goggles 107 in 3D space]
FIG. 4 is a schematic diagram showing the relationship among the omnidirectional camera 104, the marker 106, the goggles 107, and the subject 401.
In the video processing device 105, the omnidirectional camera 104 directly photographs the marker 106, so that the first marker detection processing unit 302 grasps the relative positional relationship between the omnidirectional camera 104 and the marker 106. Separately from this, the image processing apparatus 105 acquires image data in which the omnidirectional camera 104 images the mirror image M402 of the marker 106 and the mirror image M403 of the subject 401 through the lens 107a of the goggles 107.

ゴーグル座標推定処理部311は、ゴーグル107の向きを算出する。
マーカ106の鏡像には、ゴーグル107の曲面によって幾何歪みが生じている。ゴーグル座標推定処理部311は、第二マーカ検出処理部309を通じてこの幾何歪みを捉えて、被写体401の鏡像M403の幾何歪みを補正する手がかりとする。
ゴーグル映像生成処理部313は、ゴーグル座標推定処理部311が出力したゴーグル107の向きとゴーグル107の曲面に由来する幾何歪みに関する情報に基づき、ゴーグル107を装着する作業者102の視点で見ていると推定される映像を生成する。
The goggles coordinate estimation processing unit 311 calculates the orientation of the goggles 107.
The mirror image of the marker 106 has geometric distortion due to the curved surface of the goggles 107. The goggle coordinate estimation processing unit 311 captures this geometric distortion through the second marker detection processing unit 309 and uses it as a clue to correct the geometric distortion of the mirror image M403 of the subject 401.
The goggles image generation processing unit 313 is looking from the viewpoint of the worker 102 who wears the goggles 107, based on the information about the orientation of the goggles 107 and the geometric distortion derived from the curved surface of the goggles 107, which is output by the goggles coordinate estimation processing unit 311. It is estimated that the image is generated.

[第二の実施形態:車両補助モニタ装置]
図5は、本発明の第二の実施形態に係る、車両補助モニタ装置を搭載した乗用車の実施形態を示す概略図である。
乗用車501のフロントグリルには、フロントビューモニタと呼ばれる広角度カメラ502が装着されている。この広角度カメラ502に、前述の映像処理装置105が接続される。乗用車501の運転席側のダッシュボードには、映像処理装置105の表示部205が設置され、この表示部205が運転手の死角を補う。
図5において、乗用車501は車庫から出庫しようとしている。一方、壁503を隔てた運転手の死角に、子供504が自転車に乗って近づいている。
乗用車501の正面にはカーブミラーとも呼ばれる道路反射鏡505が設置されている。周知のように、道路反射鏡505は凸面鏡である。
[Second embodiment: vehicle auxiliary monitor device]
FIG. 5 is a schematic view showing an embodiment of a passenger vehicle equipped with a vehicle auxiliary monitor device according to the second embodiment of the present invention.
A wide-angle camera 502 called a front view monitor is attached to the front grill of the passenger car 501. The video processing device 105 described above is connected to the wide-angle camera 502. A display unit 205 of the image processing device 105 is installed on the dashboard on the driver's seat side of the passenger car 501, and the display unit 205 compensates for the blind spot of the driver.
In FIG. 5, the passenger car 501 is about to leave the garage. On the other hand, the child 504 is riding on a bicycle and approaching the blind spot of the driver who separates the wall 503.
A road reflecting mirror 505, which is also called a curve mirror, is installed in front of the passenger car 501. As is well known, the road reflector 505 is a convex mirror.

道路には「とまれ」の路面標示506が印字されている。この路面標示506は、乗用車501の広角度カメラ502から直接見えると共に、道路反射鏡505を通じて反射した鏡像も見える。すなわち、路面標示506は前述の実施形態におけるマーカ106の役割を担うことになる。
映像処理装置105は、路面標示506のデータをマーカ106として予め不揮発性ストレージ207に記憶しておき、広角度カメラ502の映像から道路反射鏡505の部分を切り出す。そして、運転手から死角になる領域を、道路反射鏡505から得られる鏡像の幾何歪みを補正した状態で、表示部205に表示する。
On the road, a road marking 506 of "Tomarare" is printed. The road marking 506 is directly visible from the wide-angle camera 502 of the passenger car 501, and the mirror image reflected by the road reflecting mirror 505 is also visible. That is, the road marking 506 serves as the marker 106 in the above-described embodiment.
The image processing device 105 stores the data of the road marking 506 in advance in the nonvolatile storage 207 as the marker 106, and cuts out the portion of the road reflector 505 from the image of the wide-angle camera 502. Then, the area where the driver becomes a blind spot is displayed on the display unit 205 in a state in which the geometric distortion of the mirror image obtained from the road reflecting mirror 505 is corrected.

上述の第二の実施形態には、全方位カメラ104の代わりに広角度カメラ502が使用される。但し、カメラが全方位を撮影可能であるか、あるいは広角度であるかは、必ずしも必須のものではない。広角度カメラ502に代えて複数のカメラを用いて必要な画角を得る構成にしてもよい。
また、上述の変形例にはゴーグル107が存在しない代わりに、道路反射鏡505という凸面鏡が存在する。
In the second embodiment described above, a wide angle camera 502 is used instead of the omnidirectional camera 104. However, whether the camera is capable of shooting in all directions or at a wide angle is not essential. Instead of the wide-angle camera 502, a plurality of cameras may be used to obtain a required angle of view.
Further, in the above-described modified example, the goggles 107 do not exist, but a convex mirror called a road reflecting mirror 505 exists.

[第三の実施形態:映像処理システム601:全体構成]
図6は、本発明の第三の実施形態の例であり、本発明の映像処理システム601の使用状態を説明する概略図である。
図6に示す映像処理システム601の、図1における第一の実施形態に係る映像処理システム101との相違点は、
<1>手術室の壁に、全方位カメラ104の位置を把握するための第一マーカ602が貼付されていること、
<2>第一の実施形態におけるマーカ106は、反射体であるゴーグル107によって反射した鏡像が全方位カメラ104から撮影可能である第二マーカ603として存在することである。
[Third Embodiment: Video Processing System 601: Overall Configuration]
FIG. 6 is an example of the third embodiment of the present invention and is a schematic diagram illustrating a usage state of the video processing system 601 of the present invention.
The video processing system 601 shown in FIG. 6 is different from the video processing system 101 according to the first embodiment in FIG. 1 in that
<1> A first marker 602 for grasping the position of the omnidirectional camera 104 is attached to the wall of the operating room,
<2> The marker 106 in the first embodiment is that the mirror image reflected by the goggles 107 that is a reflector is present as the second marker 603 that can be photographed by the omnidirectional camera 104.

[映像処理装置604]
図7は、映像処理装置604のソフトウェア機能の一部を示すブロック図である。
図7に示すブロック図は、図3における映像処理装置105の、第一マーカ検出処理部302と、第二マーカ検出処理部309のみを抜粋している。
第一マーカ検出処理部302には、第一マーカ602の特徴を示す第一マーカ情報701が読み込まれる。
第一マーカ検出処理部302は、不揮発性ストレージ207に記憶されている第一マーカ情報701に基づいて、全方位撮影映像データ301に写っている第一マーカ602を探し当てる。そして、全方位撮影映像データ301における位置情報及び姿勢情報である、全方位カメラマーカ姿勢座標情報304を出力する。
[Image processing device 604]
FIG. 7 is a block diagram showing a part of the software function of the video processing device 604.
The block diagram shown in FIG. 7 extracts only the first marker detection processing unit 302 and the second marker detection processing unit 309 of the video processing device 105 in FIG.
The first marker detection processing unit 302 reads the first marker information 701 indicating the characteristics of the first marker 602.
The first marker detection processing unit 302 searches for the first marker 602 included in the omnidirectional captured image data 301 based on the first marker information 701 stored in the non-volatile storage 207. Then, the omnidirectional camera marker posture coordinate information 304, which is the position information and the posture information in the omnidirectional captured image data 301, is output.

第二マーカ検出処理部309には、第二マーカ603の特徴を示す第一マーカ情報702が読み込まれる。
第二マーカ検出処理部309は、第一マーカ検出処理部302と同様に、不揮発性ストレージ207に記憶されている第二マーカ情報702に基づいて、第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nのそれぞれに写っている第二マーカ603を探し当てる。そして、第二マーカ検出処理部309は、第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nにおける位置情報及び姿勢情報である、第一ゴーグルマーカ姿勢座標情報310a、第二ゴーグルマーカ姿勢座標情報310b、…第nゴーグルマーカ姿勢座標情報310nを出力する。
The second marker detection processing unit 309 reads the first marker information 702 indicating the characteristics of the second marker 603.
The second marker detection processing unit 309, like the first marker detection processing unit 302, based on the second marker information 702 stored in the non-volatile storage 207, the first goggle area video data 308a and the second goggle area. The second marker 603 shown in each of the image data 308b,..., The nth goggle area image data 308n is searched for. Then, the second marker detection processing unit 309 uses the first goggle region image data 308a, the second goggle region image data 308b,... The information 310a, the second goggle marker attitude coordinate information 310b,..., The nth goggle marker attitude coordinate information 310n are output.

図6及び図7に示すように、映像処理システム601は、全方位カメラ104の位置を把握するための第一マーカ602と、反射体であるゴーグル107によって反射した鏡像が全方位カメラ104から撮影可能である第二マーカ603を有する。第一の実施形態における映像処理システム101は、第一マーカ602と第二マーカ603が一体化したものと考えることができる。 As shown in FIGS. 6 and 7, in the image processing system 601, a first marker 602 for grasping the position of the omnidirectional camera 104 and a mirror image reflected by the goggles 107 as a reflector are captured by the omnidirectional camera 104. It has a possible second marker 603. The video processing system 101 according to the first embodiment can be considered as an integrated first marker 602 and second marker 603.

[反射鏡及び反射体について]
第一の実施形態、第二の実施形態及び第三の実施形態に共通する事項として、これまで反射鏡またはゴーグル107の光沢面を有するレンズのような物品は凸面形状を有することを前提として説明した。しかしながら、利用範囲は限定されるものの、平面鏡や極僅かな歪みを有する凹面鏡であっても、本発明に係る映像処理システムにおいて利用することは可能である。ゴーグル映像生成処理部313は、反射体領域の映像データに含まれる幾何歪みを、マーカ情報303または第二マーカ情報702に基づいて補正を行う。
ここで反射体とは、反射鏡のように鏡面仕上げを有する物品のみならず、鏡面仕上げはされていないものの光沢面を有し、コントラストの薄い反射映像を得ることが可能な物品も包含する、上位概念の言葉と定義する。
[Reflector and reflector]
As a matter common to the first embodiment, the second embodiment, and the third embodiment, description has been made so far on the assumption that an article such as a lens having a glossy surface of a reflecting mirror or goggles 107 has a convex surface shape. did. However, although the range of use is limited, even a plane mirror or a concave mirror having an extremely slight distortion can be used in the image processing system according to the present invention. The goggle image generation processing unit 313 corrects the geometric distortion included in the image data of the reflector area based on the marker information 303 or the second marker information 702.
Here, the term "reflector" includes not only an article having a mirror-like finish such as a reflecting mirror, but also an article having a glossy surface which is not a mirror-like finish and capable of obtaining a reflected image with a low contrast. It is defined as a superordinate word.

すなわち、本発明の実施形態に係る映像処理システム601は、
任意の対象を反射する反射体と、
反射体によって反射された任意の対象を撮影可能なカメラと、
カメラから直接撮影可能な位置に存在する第一マーカ602と、
反射体によって反射した鏡像がカメラから撮影可能である第二マーカ603と、
カメラが出力する映像データに存在する前記第一マーカの位置から空間を把握すると共に、映像データから反射体の映像部分を切り出し、反射体の映像部分に含まれる第二マーカの形状から反射体によって生じた歪みを把握して、反射体の映像部分を平面状態に補正する映像処理装置604と
を具備する。
そして、反射体の具体例の一つは第一の実施形態及び第三の実施形態におけるゴーグル107であり、もう一つは第二の実施形態における道路反射鏡505、すなわち凸面鏡である。また、反射体は必ずしも鏡面仕上げでなくてもよい。これら反射体の具体例は例示列挙であり、他の物品も想定し得る。例えば、図5の変形例において、道路反射鏡505に代えて凸面鏡の形状を有するアクリル等の反射板を乗用車501の正面に設置し、広角度カメラ502を偏光カメラで構成してもよい。
That is, the video processing system 601 according to the embodiment of the present invention is
A reflector that reflects any object,
A camera that can shoot any target reflected by the reflector,
A first marker 602 existing at a position where it can be directly photographed from a camera,
A second marker 603 capable of capturing a mirror image reflected by the reflector from a camera;
While grasping the space from the position of the first marker existing in the video data output by the camera, the video portion of the reflector is cut out from the video data, and the shape of the second marker included in the video portion of the reflector is used to reflect the shape of the second marker. An image processing device 604 for grasping the generated distortion and correcting the image portion of the reflector into a flat state.
One of the specific examples of the reflector is the goggles 107 in the first and third embodiments, and the other is the road reflector 505 in the second embodiment, that is, a convex mirror. Also, the reflector need not necessarily be a mirror finish. The specific examples of these reflectors are a list of examples, and other articles may be envisioned. For example, in the modification of FIG. 5, a reflecting plate made of acrylic or the like having a convex mirror shape may be installed in front of the passenger car 501 instead of the road reflecting mirror 505, and the wide-angle camera 502 may be a polarization camera.

カメラという上位概念で映像処理装置604を見直すと、
全方位撮影映像データ301は映像データであり、
全方位カメラマーカ姿勢座標情報304はカメラマーカ姿勢座標情報であり、
全方位カメラ位置推定処理部305はカメラ位置推定処理部であり、
全方位カメラ座標情報306はカメラ座標情報である。
反射体という上位概念で映像処理装置604を見直すと、
ゴーグル領域抽出処理部307は反射体領域抽出処理部であり、
ゴーグル座標推定処理部311は反射体座標推定処理部であり、
ゴーグル映像生成処理部313は反射体映像生成処理部である。
また、第一ゴーグル領域映像データ308a、第二ゴーグル領域映像データ308b、…第nゴーグル領域映像データ308nは、第一反射体領域映像データ、第二反射体領域映像データ、…第n反射体領域映像データである。
第一ゴーグルマーカ姿勢座標情報310a、第二ゴーグルマーカ姿勢座標情報310b、…第nゴーグルマーカ姿勢座標情報310nは、第一反射体マーカ姿勢座標情報、第二反射体マーカ姿勢座標情報、…第n反射体マーカ姿勢座標情報である。
第一ゴーグル姿勢座標情報312a、第二ゴーグル姿勢座標情報312b、…第nゴーグル姿勢座標情報312nは、第一反射体姿勢座標情報、第二反射体姿勢座標情報、…第n反射体姿勢座標情報である。
第一ゴーグル視点映像データ314a、第二ゴーグル視点映像データ314b、…第nゴーグル視点映像データ314nは、第一反射体視点映像データ、第二反射体視点映像データ、…第n反射体視点映像データである。
反射体映像生成処理部は、第一反射体領域映像データ、第二反射体領域映像データ、…第n反射体領域映像データと、第一反射体姿勢座標情報、第二反射体姿勢座標情報、…第n反射体姿勢座標情報と、カメラマーカ姿勢座標情報と、カメラ座標情報を受けて、反射体が向いている方向と推定される反射体視点映像データを生成する。
また、反射体映像生成処理部は、反射体領域映像データが凸面形状反射体の形状に由来する幾何歪みを含む映像データである場合に、凸面形状反射体の形状によって生じる反射体領域映像データの幾何歪みを補正することで、凸面形状反射体の映像部分を平面状態に補正する。
When reviewing the video processing device 604 with the concept of a camera,
Omnidirectional video data 301 is video data,
The omnidirectional camera marker attitude coordinate information 304 is camera marker attitude coordinate information,
The omnidirectional camera position estimation processing unit 305 is a camera position estimation processing unit,
The omnidirectional camera coordinate information 306 is camera coordinate information.
When reviewing the image processing device 604 with the superordinate concept of a reflector,
The goggle area extraction processing unit 307 is a reflector area extraction processing unit,
The goggle coordinate estimation processing unit 311 is a reflector coordinate estimation processing unit,
The goggle image generation processing unit 313 is a reflector image generation processing unit.
Also, the first goggle region image data 308a, the second goggle region image data 308b,... The nth goggle region image data 308n are the first reflector region image data, the second reflector region image data,... The nth reflector region. It is video data.
The first goggle marker attitude coordinate information 310a, the second goggle marker attitude coordinate information 310b,... The nth goggle marker attitude coordinate information 310n are the first reflector marker attitude coordinate information, the second reflector marker attitude coordinate information,. It is reflector marker posture coordinate information.
The first goggle posture coordinate information 312a, the second goggle posture coordinate information 312b,... The nth goggle posture coordinate information 312n are the first reflector posture coordinate information, the second reflector posture coordinate information,... The nth reflector posture coordinate information. Is.
The first goggle viewpoint image data 314a, the second goggle viewpoint image data 314b,... The nth goggle viewpoint image data 314n are the first reflector viewpoint image data, the second reflector viewpoint image data,... The nth reflector viewpoint image data. Is.
The reflector image generation processing unit includes first reflector region image data, second reflector region image data,... Nth reflector region image data, first reflector posture coordinate information, second reflector posture coordinate information, ... receives the n-th reflector posture coordinate information, the camera marker posture coordinate information, and the camera coordinate information, and generates reflector viewpoint image data estimated to be the direction in which the reflector is facing.
Further, the reflector image generation processing unit, when the reflector region image data is image data including geometric distortion derived from the shape of the convex reflector, converts the reflector region image data generated by the shape of the convex reflector. By correcting the geometric distortion, the image portion of the convex reflector is corrected to a flat state.

本発明の実施形態においては、映像処理システム101を開示した。
映像処理装置105は、ゴーグル107に映る湾曲した鏡像の幾何歪みを、マーカ106を手がかりに補正して、ゴーグル107の向く方向の映像データを生成する。作業者102は作業の最中に重いカメラを頭部に装着する必要がなくなり、軽量なゴーグル107を装着するだけで、作業者102の視点の映像データを得ることができる。
映像処理システム101は、特に習得の機会が少ない外科手術の習得に大きな効果が得られるものと期待できる。また、外科手術に限らず、様々な作業の映像を、カメラを作業者102の頭部に装着することなく簡便に作業者視点の映像データを得ることができる。
更に、複数のゴーグル107や凸面鏡が被写体の周囲に存在すれば、被写体の三次元立体データを容易に得ることができる。
In the embodiment of the present invention, the video processing system 101 is disclosed.
The image processing device 105 corrects the geometric distortion of the curved mirror image reflected on the goggles 107 by using the marker 106 as a clue to generate image data in the direction in which the goggles 107 face. The worker 102 does not need to wear a heavy camera on his head during the work, and only by wearing the lightweight goggles 107, the image data of the viewpoint of the worker 102 can be obtained.
The image processing system 101 can be expected to have a great effect on the acquisition of a surgical operation, which is less likely to be acquired. Further, not only the surgical operation but also various work images can be easily obtained from the viewpoint of the operator without attaching a camera to the head of the operator 102.
Furthermore, if a plurality of goggles 107 and convex mirrors are present around the subject, three-dimensional stereoscopic data of the subject can be easily obtained.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含む。 Although the embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and other modifications and application examples are possible without departing from the gist of the present invention described in the claims. including.

101…映像処理システム、102…作業者、102a…執刀医、102b…看護師、103…患者、104…全方位カメラ、105…映像処理装置、106…マーカ、107…ゴーグル、107a…レンズ、108…手術台、201…バス、202…CPU、203…ROM、204…RAM、205…表示部、206…操作部、207…不揮発性ストレージ、208…シリアルインターフェース、301…全方位撮影映像データ、302…第一マーカ検出処理部、303…マーカ情報、304…全方位カメラマーカ姿勢座標情報、305…全方位カメラ位置推定処理部、306…全方位カメラ座標情報、307…ゴーグル領域抽出処理部、308a…第一ゴーグル領域映像データ、308b…第二ゴーグル領域映像データ、308n…第nゴーグル領域映像データ、309…第二マーカ検出処理部、310a…第一ゴーグルマーカ姿勢座標情報、310b…第二ゴーグルマーカ姿勢座標情報、310n…第nゴーグルマーカ姿勢座標情報、311…ゴーグル座標推定処理部、312a…第一ゴーグル姿勢座標情報、312b…第二ゴーグル姿勢座標情報、312n…第nゴーグル姿勢座標情報、313…ゴーグル映像生成処理部、314a…第一ゴーグル視点映像データ、314b…第二ゴーグル視点映像データ、314n…第nゴーグル視点映像データ、315…三次元形状推定処理部、316…仮想三次元映像データ、401…被写体、501…乗用車、502…広角度カメラ、503…壁、504…子供、505…道路反射鏡、506…路面標示、601…映像処理システム、602…第一マーカ、603…第二マーカ、604…映像処理装置、701…第一マーカ情報、702…第二マーカ情報 101... Image processing system, 102... Worker, 102a... Surgeon, 102b... Nurse, 103... Patient, 104... Omnidirectional camera, 105... Image processing device, 106... Marker, 107... Goggles, 107a... Lens, 108 ...Operating table, 201... Bus, 202... CPU, 203... ROM, 204... RAM, 205... Display section, 206... Operation section, 207... Nonvolatile storage, 208... Serial interface, 301... Omnidirectional image data, 302 ... first marker detection processing unit, 303... marker information, 304... omnidirectional camera marker posture coordinate information, 305... omnidirectional camera position estimation processing unit, 306... omnidirectional camera coordinate information, 307... goggle area extraction processing unit, 308a ... 1st goggle area image data, 308b... 2nd goggle area image data, 308n... nth goggle area image data, 309... 2nd marker detection processing part, 310a... 1st goggle marker posture coordinate information, 310b... 2nd goggles Marker posture coordinate information, 310n... Nth goggles posture coordinate information, 311... Goggles coordinate estimation processing unit, 312a... First goggles posture coordinates information, 312b... Second goggles posture coordinates information, 312n... Nth goggles posture coordinates information, 313... Goggle image generation processing unit, 314a... First goggle viewpoint image data, 314b... Second goggle viewpoint image data, 314n... Nth goggle viewpoint image data, 315... Three-dimensional shape estimation processing unit, 316... Virtual three-dimensional image Data, 401... Subject, 501... Passenger car, 502... Wide angle camera, 503... Wall, 504... Child, 505... Road reflector, 506... Road marking, 601... Image processing system, 602... First marker, 603... No. Two markers, 604... Image processing device, 701... First marker information, 702... Second marker information

Claims (9)

任意の対象を反射する反射体と、
前記反射体によって反射された任意の対象を撮影可能なカメラと、
前記カメラから直接撮影可能な位置に存在する第一マーカと、
前記反射体によって反射した鏡像が前記カメラから撮影可能である第二マーカと、
前記カメラが出力する映像データに存在する前記第一マーカの位置から空間を把握すると共に、前記映像データから前記反射体の映像部分を切り出し、前記反射体の映像部分に含まれる前記第二マーカの形状から前記反射体によって生じた歪みを把握して、前記反射体の映像部分を平面状態に補正する映像処理装置と
を具備する、映像処理システム。
A reflector that reflects any object,
A camera capable of photographing any object reflected by the reflector,
A first marker existing at a position where it can be directly photographed from the camera,
A second marker that allows the mirror image reflected by the reflector to be photographed from the camera,
While grasping the space from the position of the first marker existing in the video data output by the camera, cutting out the video portion of the reflector from the video data, the second marker of the second marker included in the video portion of the reflector. An image processing system, comprising: an image processing device that grasps a distortion caused by the reflector from a shape and corrects an image portion of the reflector to a planar state.
前記反射体は凸面形状反射体であり、
前記映像処理装置は、前記凸面形状反射体から得られる前記鏡像において、前記凸面形状反射体の形状によって生じる前記鏡像の幾何歪みを補正することで、前記凸面形状反射体の映像部分を平面状態に補正する、請求項1に記載の映像処理システム。
The reflector is a convex reflector,
The image processing device, in the mirror image obtained from the convex reflector, corrects the geometric distortion of the mirror image caused by the shape of the convex reflector to make the image portion of the convex reflector in a planar state. The image processing system according to claim 1, wherein correction is performed.
前記映像処理装置は、
前記映像データに写っている前記第一マーカを探し当て、カメラマーカ姿勢座標情報を出力する第一マーカ検出処理部と、
前記カメラマーカ姿勢座標情報に基づく推定演算処理を行い、前記カメラの仮想三次元空間内における座標情報であるカメラ座標情報を出力するカメラ位置推定処理部と、
前記映像データから1以上の前記反射体の部分を切り出した反射体領域映像データを出力する反射体領域抽出処理部と、
1以上の前記反射体領域映像データに写っている前記第二マーカの鏡像を探し当て、1以上の前記反射体領域映像データにおける位置情報及び姿勢情報である反射体マーカ姿勢座標情報を出力する第二マーカ検出処理部と、
1以上の前記反射体マーカ姿勢座標情報と、前記カメラマーカ姿勢座標情報と、前記カメラ座標情報に基づき、前記カメラの仮想三次元空間内における、前記1以上の前記反射体に写った前記第二マーカの位置と姿勢と歪みを含む情報である反射体姿勢座標情報を出力する反射体座標推定処理部と、
1以上の前記反射体領域映像データと、1以上の前記反射体姿勢座標情報と、前記カメラマーカ姿勢座標情報と、前記カメラ座標情報に基づき、前記反射体が向いている方向と推定される反射体視点映像データを生成すると共に、前記反射体領域映像データが前記凸面形状反射体による映像データである場合に、前記凸面形状反射体の形状によって生じる前記反射体領域映像データの幾何歪みを補正することで、前記凸面形状反射体の映像部分を平面状態に補正する、反射体映像生成処理部と
を具備する、請求項2に記載の映像処理システム。
The video processing device,
A first marker detection processing unit that searches for the first marker appearing in the video data and outputs camera marker attitude coordinate information;
A camera position estimation processing unit that performs estimation calculation processing based on the camera marker posture coordinate information and outputs camera coordinate information that is coordinate information in the virtual three-dimensional space of the camera;
A reflector region extraction processing unit that outputs reflector region image data obtained by cutting out one or more reflectors from the image data;
Second, searching for a mirror image of the second marker reflected in one or more of the reflector area image data, and outputting reflector marker attitude coordinate information that is position information and attitude information in the one or more reflector area image data. A marker detection processing unit,
The second image of the one or more reflectors in the virtual three-dimensional space of the camera based on the one or more reflector marker posture coordinate information, the camera marker posture coordinate information, and the camera coordinate information. A reflector coordinate estimation processing unit that outputs reflector posture coordinate information that is information including the position, posture, and distortion of the marker,
Reflection estimated to be the direction in which the reflector is facing based on one or more of the reflector region image data, one or more of the reflector posture coordinate information, the camera marker posture coordinate information, and the camera coordinate information. In addition to generating body viewpoint image data, when the reflector region image data is image data of the convex reflector, corrects geometric distortion of the reflector region image data caused by the shape of the convex reflector. The image processing system according to claim 2, further comprising: a reflector image generation processing unit that corrects the image portion of the convex reflector into a planar state.
前記映像処理装置は更に、
複数の前記反射体視点映像データに基づき、被写体の仮想三次元映像データを生成する三次元形状推定処理部と
を具備する、請求項3に記載の映像処理システム。
The image processing device further includes
The image processing system according to claim 3, further comprising: a three-dimensional shape estimation processing unit that generates virtual three-dimensional image data of the subject based on the plurality of reflector viewpoint image data.
前記反射体はゴーグルである、請求項2または3または4に記載の映像処理システム。 The image processing system according to claim 2, 3 or 4, wherein the reflector is goggles. 前記反射体は反射鏡である、請求項2または3または4に記載の映像処理システム。 The image processing system according to claim 2, 3 or 4, wherein the reflector is a reflecting mirror. 前記第一マーカと前記第二マーカは同一である、請求項5または6に記載の映像処理システム。 The image processing system according to claim 5, wherein the first marker and the second marker are the same. 任意の対象を反射する反射体と、前記反射体によって反射された任意の対象を撮影可能なカメラと、前記カメラから直接撮影可能な位置に存在すると共に、前記反射体によって反射した鏡像も前記カメラから撮影可能である第一マーカと、前記反射体によって反射した鏡像が前記カメラから撮影可能である第二マーカと、前記カメラが出力する映像データに存在する前記第一マーカの位置から空間を把握すると共に、前記映像データから前記反射体の映像部分を切り出し、前記反射体の映像部分に含まれる前記第二マーカの形状から前記反射体によって生じた歪みを把握して、前記反射体の映像部分を平面状態に補正する映像処理装置とを具備する映像処理システムにおける映像処理装置であり、
前記映像処理装置は、
前記映像データに写っている前記第一マーカを探し当て、カメラマーカ姿勢座標情報を出力する第一マーカ検出処理部と、
前記カメラマーカ姿勢座標情報に基づく推定演算処理を行い、前記カメラの仮想三次元空間内における座標情報であるカメラ座標情報を出力するカメラ位置推定処理部と、
前記映像データから1以上の前記反射体の部分を切り出した反射体領域映像データを出力する反射体領域抽出処理部と、
1以上の前記反射体領域映像データに写っている前記第二マーカの鏡像を探し当て、1以上の前記反射体領域映像データにおける位置情報及び姿勢情報である反射体マーカ姿勢座標情報を出力する第二マーカ検出処理部と、
1以上の前記反射体マーカ姿勢座標情報と、前記カメラマーカ姿勢座標情報と、前記カメラ座標情報に基づき、前記カメラの仮想三次元空間内における、前記1以上の前記反射体に写った前記第二マーカの位置と姿勢と歪みを含む情報である反射体姿勢座標情報を出力する反射体座標推定処理部と、
1以上の前記反射体領域映像データと、1以上の前記反射体姿勢座標情報と、前記カメラマーカ姿勢座標情報と、前記カメラ座標情報に基づき、前記反射体が向いている方向と推定される反射体視点映像データを生成すると共に、前記反射体領域映像データが凸面形状反射体による映像データである場合に、前記凸面形状反射体の形状によって生じる前記反射体領域映像データの幾何歪みを補正することで、前記凸面形状反射体の映像部分を平面状態に補正する、反射体映像生成処理部と
を具備する、映像処理装置。
A reflector that reflects an arbitrary object, a camera that can shoot an arbitrary object reflected by the reflector, and a mirror image that is present at a position that allows direct shooting from the camera and that is also reflected by the reflector. The first marker that can be photographed from the first marker, the second marker that the mirror image reflected by the reflector can be photographed from the camera, and the position of the first marker that is present in the video data output by the camera, to grasp the space In addition, the image portion of the reflector is cut out from the image data, the distortion caused by the reflector is grasped from the shape of the second marker included in the image portion of the reflector, and the image portion of the reflector is grasped. Is a video processing device in a video processing system comprising:
The video processing device,
A first marker detection processing unit that searches for the first marker appearing in the video data and outputs camera marker attitude coordinate information;
A camera position estimation processing unit that performs estimation calculation processing based on the camera marker posture coordinate information and outputs camera coordinate information that is coordinate information in the virtual three-dimensional space of the camera;
A reflector region extraction processing unit that outputs reflector region image data obtained by cutting out one or more reflectors from the image data;
Second, searching for a mirror image of the second marker reflected in one or more of the reflector area image data, and outputting reflector marker attitude coordinate information that is position information and attitude information in the one or more reflector area image data. A marker detection processing unit,
The second image of the one or more reflectors in the virtual three-dimensional space of the camera based on the one or more reflector marker posture coordinate information, the camera marker posture coordinate information, and the camera coordinate information. A reflector coordinate estimation processing unit that outputs reflector posture coordinate information that is information including the position, posture, and distortion of the marker,
Reflection estimated to be the direction in which the reflector is facing based on one or more of the reflector region image data, one or more of the reflector posture coordinate information, the camera marker posture coordinate information, and the camera coordinate information. Compensating geometric distortion of the reflector region image data generated by the shape of the convex reflector when the body region image data is generated and the reflector region image data is image data by a convex reflector. An image processing apparatus comprising: a reflector image generation processing unit that corrects an image portion of the convex reflector into a flat state.
更に、
複数の前記反射体視点映像データに基づき、被写体の仮想三次元映像データを生成する三次元形状推定処理部と
を具備する、請求項8に記載の映像処理装置。
Furthermore,
The image processing apparatus according to claim 8, further comprising: a three-dimensional shape estimation processing unit that generates virtual three-dimensional image data of a subject based on a plurality of the reflector viewpoint image data.
JP2018219927A 2018-11-26 2018-11-26 Video processing system and video processing device Active JP7181589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018219927A JP7181589B2 (en) 2018-11-26 2018-11-26 Video processing system and video processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219927A JP7181589B2 (en) 2018-11-26 2018-11-26 Video processing system and video processing device

Publications (2)

Publication Number Publication Date
JP2020088591A true JP2020088591A (en) 2020-06-04
JP7181589B2 JP7181589B2 (en) 2022-12-01

Family

ID=70909081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219927A Active JP7181589B2 (en) 2018-11-26 2018-11-26 Video processing system and video processing device

Country Status (1)

Country Link
JP (1) JP7181589B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004159186A (en) * 2002-11-07 2004-06-03 Sony Corp On-vehicle image pickup system for monitor
JP2005191655A (en) * 2003-12-24 2005-07-14 Equos Research Co Ltd Display control apparatus
JP2010122821A (en) * 2008-11-18 2010-06-03 Fujitsu Ten Ltd Vehicle driving support device
JP2019008485A (en) * 2017-06-22 2019-01-17 株式会社ショーワ Obstacle detector, vehicle, and obstacle detection system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004159186A (en) * 2002-11-07 2004-06-03 Sony Corp On-vehicle image pickup system for monitor
JP2005191655A (en) * 2003-12-24 2005-07-14 Equos Research Co Ltd Display control apparatus
JP2010122821A (en) * 2008-11-18 2010-06-03 Fujitsu Ten Ltd Vehicle driving support device
JP2019008485A (en) * 2017-06-22 2019-01-17 株式会社ショーワ Obstacle detector, vehicle, and obstacle detection system

Also Published As

Publication number Publication date
JP7181589B2 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
JP7076447B2 (en) Light field capture and rendering for head-mounted displays
CN109477966B (en) Head mounted display for virtual reality and mixed reality with inside-outside position tracking, user body tracking, and environment tracking
US7369101B2 (en) Calibrating real and virtual views
WO2016122991A1 (en) Automatic generation of virtual materials from real-world materials
CN103871045B (en) Display system and method
WO2013128612A1 (en) Head mounted display, calibration method, calibration program, and recording medium
KR20130107981A (en) Device and method for tracking sight line
JP6855872B2 (en) Face recognition device
EP1883850A1 (en) Method of navigating in a surrounding world captured by one or more image sensors and a device for carrying out the method
US20140009503A1 (en) Systems and Methods for Tracking User Postures to Control Display of Panoramas
JP4580678B2 (en) Gaze point display device
CN115086547A (en) Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium
JP2000347128A (en) Head mount display device and head mount display system
JP2022133133A (en) Generation device, generation method, system, and program
JP2002354505A (en) Stereoscopic system
CN110895433A (en) Method and apparatus for user interaction in augmented reality
JP7181589B2 (en) Video processing system and video processing device
US20190028690A1 (en) Detection system
JP6266580B2 (en) Head mounted display, calibration method and calibration program, and recording medium
JP2017215597A (en) Information display method and information display device
JP6864333B2 (en) Face orientation detection system and face orientation detection device
WO2024122191A1 (en) Image processing device and method, program, and storage medium
WO2014109398A1 (en) Display apparatus and program
US20220165190A1 (en) System and method for augmenting lightfield images
JP5332127B2 (en) Head-mounted display device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221111

R150 Certificate of patent or registration of utility model

Ref document number: 7181589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150