JP6704554B2 - 画像処理装置、画像処理方法、及び監視システム - Google Patents
画像処理装置、画像処理方法、及び監視システム Download PDFInfo
- Publication number
- JP6704554B2 JP6704554B2 JP2020508684A JP2020508684A JP6704554B2 JP 6704554 B2 JP6704554 B2 JP 6704554B2 JP 2020508684 A JP2020508684 A JP 2020508684A JP 2020508684 A JP2020508684 A JP 2020508684A JP 6704554 B2 JP6704554 B2 JP 6704554B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- unit
- complementary
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 235
- 238000012544 monitoring process Methods 0.000 title claims description 42
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000000295 complement effect Effects 0.000 claims description 135
- 230000009466 transformation Effects 0.000 claims description 65
- 239000002131 composite material Substances 0.000 claims description 47
- 230000003287 optical effect Effects 0.000 claims description 27
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 25
- 238000000034 method Methods 0.000 description 22
- 239000000470 constituent Substances 0.000 description 15
- 238000002156 mixing Methods 0.000 description 8
- 230000002194 synthesizing effect Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
-
- G06T5/75—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
Description
《1−1》構成
図1は、実施の形態1に係る画像処理装置1を概略的に示す機能ブロック図である。図1に示されるように、監視システムは、1つ以上の第1のカメラ21と、複数の第2のカメラ22a及び22bと、画像処理装置1と、表示装置100とを有する。画像処理装置1は、受信部11と、画像処理部12と、画像出力部13と、記憶部14とを有する。画像処理部12は、射影変換部121と、変換画像合成部122と、補完画像生成部123と、画像重畳部124とを有する。
図2は、実施の形態1に係る画像処理装置1及び監視システムの動作を示す説明図である。図3は、実施の形態1に係る画像処理装置1の動作例を示すフローチャートである。
以上に説明したように、実施の形態1に係る画像処理装置1及び監視システムによれば、広領域画像である第1の画像31内に物体50に隠れて見えない死角領域60が発生した場合であっても、表示装置100の1つのスクリーンに、死角領域60が補完画像123aで置き換えられた死角領域画像130aを含む表示画像130を表示することができる。したがって、死角領域画像130aだけを別のスクリーンに表示する場合に比べ、監視者は、撮影領域の状況を容易且つ正確に把握することができる。
図6は、実施の形態2に係る画像処理装置2及び監視システムを概略的に示す機能ブロック図である。図6において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図6に示されるように、画像処理装置2は、受信部11と、画像処理部22と、画像出力部13と、記憶部14とを有する。画像処理部22は、射影変換部221と、画像選択部222と、補完画像生成部223と、画像重畳部224とを有する。
図8は、実施の形態3に係る画像処理装置3及び監視システムを概略的に示す機能ブロック図である。図8において、図1又は図6に示される構成要素と同一又は対応する構成要素には、図1又は図6に示される符号と同じ符号が付される。図8に示されるように、画像処理装置3は、受信部11と、画像処理部32と、画像出力部13と、記憶部14とを有する。画像処理部32は、画像選択部321と、射影変換部322と、補完画像生成部323と、画像重畳部324とを有する。
図10は、実施の形態4に係る画像処理装置4を概略的に示す機能ブロック図である。図10において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図10に示されるように、監視システムは、1つ以上の第1のカメラ21と、複数の第2のカメラ22a及び22bと、画像処理装置4と、表示装置100とを有する。画像処理装置4は、受信部11と、画像処理部42と、画像出力部13と、カメラパラメータ情報と参照画像情報を記憶する記憶部14とを有する。参照画像情報が示す参照画像は、過去に第2のカメラ22a及び22bで撮影された第2の画像に基づく画像である。物体50(後述の図11に示される)が移動する場合、参照画像には物体50が存在しないときの情報が含まれる。また、画像処理部42は、画像分割部421と、画像生成部422と、射影変換部423と、変換画像合成部424と、補完画像生成部425と、画像重畳部426とを有する。
図15は、実施の形態5に係る画像処理装置5及び監視システムを概略的に示す機能ブロック図である。図15において、図10に示される構成要素と同一又は対応する構成要素には、図10に示される符号と同じ符号が付される。図15に示されるように、画像処理装置5は、受信部11と、画像処理部52と、画像出力部13と、記憶部14とを有する。画像処理部52は、画像分割部521と、画像生成部522と、射影変換部523と、画像選択部524と、補完画像生成部525と、画像重畳部526とを有する。
図17は、実施の形態6に係る画像処理装置6及び監視システムを概略的に示す機能ブロック図である。図17において、図10又は図15に示される構成要素と同一又は対応する構成要素には、図10又は図15に示される符号と同じ符号が付される。図17に示されるように、画像処理装置6は、受信部11と、画像処理部62と、画像出力部13と、記憶部14とを有する。画像処理部62は、画像分割部621と、画像生成部622と、画像選択部623と、射影変換部624と、補完画像生成部625と、画像重畳部626とを有する。
図19は、実施の形態7に係る画像処理装置7を概略的に示す機能ブロック図である。図19において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図19に示されるように、監視システムは、1つ以上の第1のカメラ21と、複数の第2のカメラ22a及び22bと、画像処理装置7と、表示装置100とを有する。画像処理装置7は、受信部11と、画像処理部72と、画像出力部13と、カメラパラメータ情報と3次元(「3D」とも記す)仮想物体モデルの候補とを記憶する記憶部14とを有する。3D仮想物体モデルは、予め実在する物体に似た形状の画像データである。物体とは、例えば、人物、車両、動物、設備機器などである。画像処理部72は、画像分割部721と、画像生成部722と、射影変換部723と、変換画像合成部724と、補完画像生成部725と、画像重畳部726とを有する。
図22は、実施の形態8に係る画像処理装置8及び監視システムを概略的に示す機能ブロック図である。図22において、図19に示される構成要素と同一又は対応する構成要素には、図19に示される符号と同じ符号が付される。図22に示されるように、画像処理装置8は、受信部11と、画像処理部82と、画像出力部13と、記憶部14とを有する。画像処理部82は、画像分割部821と、画像生成部822と、射影変換部823と、画像選択部824と、補完画像生成部825と、画像重畳部826とを有する。
図24は、実施の形態9に係る画像処理装置9及び監視システムを概略的に示す機能ブロック図である。図24において、図19又は図22に示される構成要素と同一又は対応する構成要素には、図19又は図22に示される符号と同じ符号が付される。図24に示されるように、画像処理装置9は、受信部11と、画像処理部92と、画像出力部13と、記憶部14とを有する。画像処理部92は、画像分割部921と、画像生成部922と、画像選択部923と、射影変換部924と、補完画像生成部925と、画像重畳部926とを有する。
図26は、実施の形態1から9に係る監視システムのハードウェア構成の例を示す図である。図26の例では、画像処理装置1と、画像処理装置1にネットワーク200を介して接続される第1のカメラ21並びに第2のカメラ22a及び22bと、物体の位置を検出するセンサ23と、表示装置100とを有する。
Claims (15)
- 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
を有し、
前記画像処理部は、
前記複数の第2の画像を射影変換することによって予め決められた位置から見た複数の第3の画像を生成する射影変換部と、
前記複数の第3の画像から、前記複数の第3の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、
前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有する
ことを特徴とする画像処理装置。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
を有し、
前記画像処理部は、
前記複数の第2の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第2の画像を選択し、選択された画像を第3の画像として出力する画像選択部と、
前記第3の画像を射影変換することによって予め決められた位置から見た第4の画像を生成する射影変換部と、
前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有する
ことを特徴とする画像処理装置。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像と、を合成することによって合成表示画像を生成する画像処理部と、
前記複数の第2のカメラによって過去に撮影された前記複数の第2の画像である参照画像を予め記憶する記憶部と、
を有し、
前記画像処理部は、
前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
前記前景画像部分を前記参照画像の一部の画像部分で置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
前記複数の第3の画像を射影変換することによって予め決められた位置から見た複数の第4の画像を生成する射影変換部と、
前記複数の第4の画像を合成することによって第5の画像を生成する変換画像合成部と、
前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有することを特徴とする画像処理装置。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像と、を合成することによって合成表示画像を生成する画像処理部と、
前記複数の第2のカメラによって過去に撮影された前記複数の第2の画像である参照画像を予め記憶する記憶部と、
を有し、
前記画像処理部は、
前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
前記前景画像部分を前記参照画像の一部の画像に置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
前記複数の第3の画像を射影変換することによって予め決められた位置から見た複数の第4の画像を生成する射影変換部と、
前記複数の第4の画像から、前記複数の第4の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供できる第4の画像を選択し、選択された画像を第5の画像として出力する画像選択部と、
前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有することを特徴とする画像処理装置。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像と、を合成することによって合成表示画像を生成する画像処理部と、
前記複数の第2のカメラによって過去に撮影された前記複数の第2の画像である参照画像を予め記憶する記憶部と、
を有し、
前記画像処理部は、
前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
前記前景画像部分を前記参照画像の一部の画像に置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
前記複数の第3の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、
前記第4の画像を射影変換することによって予め決められた位置から見た第5の画像を生成する射影変換部と、
前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有することを特徴とする画像処理装置。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
3次元仮想物体モデルの候補の画像データを予め記憶する記憶部と、
を有し、
前記画像処理部は、
前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
前記3次元仮想物体モデルの候補から前記物体に対応する3次元仮想物体モデルを選択し、前記前景画像部分を前記3次元仮想物体モデルに置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
前記複数の第3の画像を射影変換することによって予め決められた位置から見た複数の第4の画像を生成する射影変換部と、
前記複数の第4の画像を合成することによって第5の画像を生成する変換画像合成部と、
前記第5の画像における、前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有することを特徴とする画像処理装置。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
3次元仮想物体モデルの候補の画像データを予め記憶する記憶部と、
を有し、
前記画像処理部は、
前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
前記3次元仮想物体モデルの候補から前記物体に対応する3次元仮想物体モデルを選択し、前記前景画像部分を前記3次元仮想物体モデルに置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
前記複数の第3の画像を射影変換することによって予め決められた位置から見た複数の第4の画像を生成する射影変換部と、
前記複数の第4の画像から、前記複数の第4の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供できる第4の画像を選択し、選択された画像を第5の画像として出力する画像選択部と、
前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有することを特徴とする画像処理装置。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
3次元仮想物体モデルの候補の画像データを予め記憶する記憶部と、
を有し、
前記画像処理部は、
前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
前記3次元仮想物体モデルの候補から前記物体に対応する3次元仮想物体モデルを選択し、前記前景画像部分を前記3次元仮想物体モデルに置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
前記複数の第3の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、
前記第4の画像を射影変換することによって予め決められた位置から見た第5の画像を生成する射影変換部と、
前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有することを特徴とする画像処理装置。 - 前記画像処理部は、前記1つ以上の第1の画像の各々における前記マスク領域に前記補完画像を重畳することによって、又は、前記1つ以上の第1の画像から生成された合成画像に前記補完画像を重畳することによって前記合成表示画像を生成する画像重畳部を有することを特徴とする請求項6から8のいずれか1項に記載の画像処理装置。
- 前記受信部は、前記物体を検出するセンサから出力される検出信号をさらに受信し、
前記画像処理部は、前記検出信号に基づいて、前記記憶部に記憶されている前記3次元仮想物体モデルの候補から、前記物体に対応する前記3次元仮想物体モデルを選択する
ことを特徴とする請求項6から9のいずれか1項に記載の画像処理装置。 - 前記画像処理部は、選択された前記3次元仮想物体モデルにテクスチャマッピングを施す
ことを特徴とする請求項6から10のいずれか1項に記載の画像処理装置。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信するステップと、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成するステップと、
を有し、
前記合成表示画像を生成する前記ステップは、
前記複数の第2の画像を射影変換することによって予め決められた位置から見た複数の第3の画像を生成するステップと、
前記複数の第3の画像から、前記複数の第3の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる第3の画像を選択し、選択された画像を第4の画像として出力するステップと、
前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成するステップと、
を有する
ことを特徴とする画像処理方法。 - 物体が存在する領域を撮影する1つ以上の第1のカメラと、
前記物体によって前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラと、
前記1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
前記合成表示画像に基づく画像を表示する表示装置と、
を有し、
前記画像処理部は、
前記複数の第2の画像を射影変換することによって予め決められた位置から見た複数の第3の画像を生成する射影変換部と、
前記複数の第3の画像から、前記複数の第3の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、
前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有することを特徴とする監視システム。 - 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信するステップと、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成するステップと、
を有し、
前記合成表示画像を生成する前記ステップは、
前記複数の第2の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第2の画像を選択し、選択された画像を第3の画像として出力するステップと、
前記第3の画像を射影変換することによって予め決められた位置から見た第4の画像を生成するステップと、
前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成するステップと、
を有する
ことを特徴とする画像処理方法。 - 物体が存在する領域を撮影する1つ以上の第1のカメラと、
前記物体によって前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラと、
前記1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
前記合成表示画像に基づく画像を表示する表示装置と、
を有し、
前記画像処理部は、
前記複数の第2の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第2の画像を選択し、選択された画像を第3の画像として出力する画像選択部と、
前記第3の画像を射影変換することによって予め決められた位置から見た第4の画像を生成する射影変換部と、
前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
を有することを特徴とする監視システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/013113 WO2019186860A1 (ja) | 2018-03-29 | 2018-03-29 | 画像処理装置、画像処理方法、及び監視システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6704554B2 true JP6704554B2 (ja) | 2020-06-03 |
JPWO2019186860A1 JPWO2019186860A1 (ja) | 2020-07-09 |
Family
ID=68058097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020508684A Active JP6704554B2 (ja) | 2018-03-29 | 2018-03-29 | 画像処理装置、画像処理方法、及び監視システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11494934B2 (ja) |
JP (1) | JP6704554B2 (ja) |
CA (1) | CA3092565C (ja) |
GB (1) | GB2586389B (ja) |
WO (1) | WO2019186860A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7431557B2 (ja) | 2019-11-08 | 2024-02-15 | 株式会社デンソーテン | 画像処理装置および画像処理方法 |
CN112233055B (zh) * | 2020-10-15 | 2021-09-10 | 北京达佳互联信息技术有限公司 | 视频去痕方法和视频去痕装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2960733B2 (ja) | 1989-07-27 | 1999-10-12 | 株式会社日立製作所 | 画像表示方法及び画像表示装置並びに遠隔操作装置 |
JP3192875B2 (ja) * | 1994-06-30 | 2001-07-30 | キヤノン株式会社 | 画像合成方法および画像合成装置 |
US7362918B2 (en) * | 2003-06-24 | 2008-04-22 | Microsoft Corporation | System and method for de-noising multiple copies of a signal |
JP4552525B2 (ja) | 2004-06-11 | 2010-09-29 | 株式会社エクォス・リサーチ | 車両の画像処理装置 |
EP1862969A1 (en) * | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
CA2653815C (en) * | 2006-06-23 | 2016-10-04 | Imax Corporation | Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition |
US8253799B2 (en) * | 2007-07-27 | 2012-08-28 | Sportvision, Inc. | Detecting an object in an image using camera registration data indexed to location or camera sensors |
JP2009055332A (ja) | 2007-08-27 | 2009-03-12 | Mitsubishi Electric Corp | 映像合成表示装置 |
US8086071B2 (en) | 2007-10-30 | 2011-12-27 | Navteq North America, Llc | System and method for revealing occluded objects in an image dataset |
WO2011028837A2 (en) * | 2009-09-01 | 2011-03-10 | Prime Focus Vfx Services Ii Inc. | System and process for transforming two-dimensional images into three-dimensional images |
JP4849178B2 (ja) | 2010-03-15 | 2012-01-11 | トヨタ自動車株式会社 | 移動型ロボット |
JP2014175706A (ja) * | 2013-03-06 | 2014-09-22 | Sumitomo Electric Ind Ltd | 監視装置、監視方法および撮像部の配置方法 |
WO2014135910A1 (en) | 2013-03-08 | 2014-09-12 | JACQUEMET, Jean-Philippe | Method of replacing objects in a video stream and computer program |
WO2014145722A2 (en) | 2013-03-15 | 2014-09-18 | Digimarc Corporation | Cooperative photography |
KR102117273B1 (ko) | 2013-03-21 | 2020-06-01 | 삼성전자주식회사 | 수술 로봇 시스템 및 그 제어 방법 |
EP2884460B1 (en) | 2013-12-13 | 2020-01-01 | Panasonic Intellectual Property Management Co., Ltd. | Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium |
US10726593B2 (en) * | 2015-09-22 | 2020-07-28 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11184531B2 (en) * | 2015-12-21 | 2021-11-23 | Robert Bosch Gmbh | Dynamic image blending for multiple-camera vehicle systems |
JP2018117320A (ja) * | 2017-01-20 | 2018-07-26 | 株式会社東芝 | 電子ミラーの映像合成装置及び映像合成方法 |
GB2563647B (en) * | 2017-06-22 | 2020-03-25 | Jaguar Land Rover Ltd | Method of displaying an image on a display of a rearward view display system |
-
2018
- 2018-03-29 GB GB2015095.9A patent/GB2586389B/en active Active
- 2018-03-29 WO PCT/JP2018/013113 patent/WO2019186860A1/ja active Application Filing
- 2018-03-29 CA CA3092565A patent/CA3092565C/en active Active
- 2018-03-29 JP JP2020508684A patent/JP6704554B2/ja active Active
- 2018-03-29 US US16/978,941 patent/US11494934B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CA3092565A1 (en) | 2019-10-03 |
GB2586389A (en) | 2021-02-17 |
GB202015095D0 (en) | 2020-11-11 |
CA3092565C (en) | 2021-07-20 |
GB2586389B (en) | 2022-03-30 |
US11494934B2 (en) | 2022-11-08 |
WO2019186860A1 (ja) | 2019-10-03 |
US20210056723A1 (en) | 2021-02-25 |
JPWO2019186860A1 (ja) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210337177A1 (en) | Image processing apparatus, image generating method, and storage medium | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
JP5754312B2 (ja) | 画像処理装置及び画像処理方法、並びにプログラム | |
US9767611B2 (en) | Information processing apparatus and method for estimating depth values using an approximate plane | |
US20180232943A1 (en) | System and method for generating a virtual viewpoint apparatus | |
JP2019125929A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US9118903B2 (en) | Device and method for 2D to 3D conversion | |
JP5755571B2 (ja) | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 | |
JP6704554B2 (ja) | 画像処理装置、画像処理方法、及び監視システム | |
JP2013172446A (ja) | 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法 | |
JP6137910B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5464129B2 (ja) | 画像処理装置および視差情報生成装置 | |
JP2020187529A (ja) | 画像処理装置、画像処理システム、制御方法、および、プログラム | |
CN106055108B (zh) | 一种虚拟触摸屏的操控方法和系统 | |
US20230056459A1 (en) | Image processing device, method of generating 3d model, learning method, and program | |
JP6103942B2 (ja) | 画像データ処理装置及び画像データ処理プログラム | |
US10880533B2 (en) | Image generation apparatus, image generation method, and storage medium, for generating a virtual viewpoint image | |
KR101507536B1 (ko) | 적외선을 이용한 객체 추출 및 영상 합성 시스템 | |
US11263999B2 (en) | Image processing device and control method therefor | |
US20210012519A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2022131197A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2021096772A (ja) | 画像処理装置、画像処理方法、システム | |
JP2023016500A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR20150114103A (ko) | 3차원 리얼타임 가상입체 스튜디오 장치 및 3차원 리얼타임 가상입체 스튜디오 장치에서의 가상입체 스튜디오 영상 생성 방법 | |
CN113587812A (zh) | 显示设备、测量方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200312 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200312 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200312 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200414 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6704554 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |