JP6704554B2 - 画像処理装置、画像処理方法、及び監視システム - Google Patents

画像処理装置、画像処理方法、及び監視システム Download PDF

Info

Publication number
JP6704554B2
JP6704554B2 JP2020508684A JP2020508684A JP6704554B2 JP 6704554 B2 JP6704554 B2 JP 6704554B2 JP 2020508684 A JP2020508684 A JP 2020508684A JP 2020508684 A JP2020508684 A JP 2020508684A JP 6704554 B2 JP6704554 B2 JP 6704554B2
Authority
JP
Japan
Prior art keywords
image
images
unit
complementary
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020508684A
Other languages
English (en)
Other versions
JPWO2019186860A1 (ja
Inventor
浩平 岡原
浩平 岡原
古木 一朗
一朗 古木
司 深澤
司 深澤
賢人 山▲崎▼
賢人 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6704554B2 publication Critical patent/JP6704554B2/ja
Publication of JPWO2019186860A1 publication Critical patent/JPWO2019186860A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T5/75
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Description

本発明は、第1のカメラが撮影する第1の画像と複数の第2のカメラが撮影する複数の第2の画像とから合成表示画像を生成する画像処理装置、画像処理方法、及び監視システムに関する。
車両の運転者の視点位置に配置された第1のカメラが撮影した第1の画像である後方画像と、車両の外部に配置された第2のカメラが撮影した第2の画像である死角画像とを合成することによって、物体に隠れて運転者からは見えない死角領域の画像を含む合成表示画像を生成し、この合成表示画像を表示する装置の提案がある(例えば、特許文献1参照)。
特許第4552525号公報
上記従来の装置では、第1のカメラの光軸及び第2のカメラの光軸のいずれもが車両の後方を向いている。しかしながら、一般に、監視システムなどにおいては、死角領域を形成する物体である遮蔽物から離れた位置に第2のカメラが設置される。この場合には、第1のカメラの光軸の方向と第2のカメラの光軸の方向とが大きく異なり、合成表示画像における死角領域の画像に大きな歪みが生じやすいという問題がある。
本発明は、上記従来の課題を解決するためになされたものであり、第1のカメラが撮影する第1の画像と複数の第2のカメラが撮影する複数の第2の画像とから生成された合成表示画像における歪みを目立たなくすることができる画像処理装置、画像処理方法、及び監視システムを提供することを目的とする。
本発明の一態様に係る画像処理装置は、物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部とを有し、前記画像処理部は、前記複数の第2の画像を射影変換することによって予め決められた位置から見た複数の第3の画像を生成する射影変換部と、前記複数の第3の画像から、前記複数の第3の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、を有することを特徴とする。
本発明の他の態様に係る監視システムは、物体が存在する領域を撮影する1つ以上の第1のカメラと、前記物体によって前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラと、前記1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、前記合成表示画像に基づく画像を表示する表示装置とを有し、前記画像処理部は、前記複数の第2の画像を射影変換することによって予め決められた位置から見た複数の第3の画像を生成する射影変換部と、前記複数の第3の画像から、前記複数の第3の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、を有することを特徴とする。
本発明によれば、第1のカメラが撮影する第1の画像と複数の第2のカメラが撮影する複数の第2の画像とから生成された合成表示画像における歪みを目立たなくすることができる。
本発明の実施の形態1に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態1に係る画像処理装置及び監視システムの動作を示す説明図である。 実施の形態1に係る画像処理装置の動作例を示すフローチャートである。 実施の形態1に係る画像処理装置の他の動作例を示すフローチャートである。 実施の形態1に係る画像処理装置の他の動作例を示すフローチャートである。 本発明の実施の形態2に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態2に係る画像処理装置の動作例を示すフローチャートである。 本発明の実施の形態3に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態3に係る画像処理装置の動作例を示すフローチャートである。 本発明の実施の形態4に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態4に係る画像処理装置及び監視システムの動作を示す説明図である。 実施の形態4に係る画像処理装置の動作例を示すフローチャートである。 実施の形態4に係る画像処理装置の他の動作例を示すフローチャートである。 実施の形態4に係る画像処理装置の他の動作例を示すフローチャートである。 本発明の実施の形態5に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態5に係る画像処理装置の動作例を示すフローチャートである。 本発明の実施の形態6に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態6に係る画像処理装置の動作例を示すフローチャートである。 本発明の実施の形態7に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態7に係る画像処理装置及び監視システムの動作を示す説明図である。 実施の形態7に係る画像処理装置の動作例を示すフローチャートである。 本発明の実施の形態8に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態8に係る画像処理装置の動作例を示すフローチャートである。 本発明の実施の形態9に係る画像処理装置及び監視システムを概略的に示す機能ブロック図である。 実施の形態9に係る画像処理装置の動作例を示すフローチャートである。 実施の形態1から9に係る画像処理装置のハードウェア構成の例を示す図である。
以下に、本発明の実施の形態1から9に係る画像処理装置、画像処理方法、及び監視システムを、添付図面を参照しながら説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
実施の形態1から9に係る監視システムは、物体が存在する領域を撮影する1つ以上の第1のカメラと、物体に隠れて第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラと、画像処理装置と、液晶モニタなどのような表示装置とを有する。監視システムは、例えば、道路などの公共エリア、工場などの作業エリア、建造物の内部又は外部などを監視するシステムに適用可能である。
実施の形態1から9に係る画像処理装置は、1つ以上の第1のカメラから提供される1つ以上の第1の画像データ(以下「画像データ」を単に「画像」とも言う)と複数の第2のカメラから提供される複数の第2の画像とを受信する。第1の画像及び第2の画像は、静止画像及び動画像(すなわち、映像)のいずれであってもよい。画像処理装置は、複数の第2の画像から、1つ以上の第1の画像において物体に対応するマスク領域の画像である補完画像を生成し(補完画像を記憶部から取得する場合を含む)、1つ以上の第1の画像と補完画像とを合成することによって合成表示画像を生成する。表示装置は、合成表示画像に基づく画像を表示する。画像処理装置は、画像処理プログラムを実行することによって実施の形態に係る画像処理方法を実施するコンピュータであってもよい。
《1》実施の形態1.
《1−1》構成
図1は、実施の形態1に係る画像処理装置1を概略的に示す機能ブロック図である。図1に示されるように、監視システムは、1つ以上の第1のカメラ21と、複数の第2のカメラ22a及び22bと、画像処理装置1と、表示装置100とを有する。画像処理装置1は、受信部11と、画像処理部12と、画像出力部13と、記憶部14とを有する。画像処理部12は、射影変換部121と、変換画像合成部122と、補完画像生成部123と、画像重畳部124とを有する。
受信部11は、例えば、第1のカメラ21並びに第2のカメラ22a及び22bと、有線又は無線で通信可能に接続される。受信部11は、第1のカメラ21並びに複数の第2のカメラ22a及び22bと、直接通信してもよいし又はネットワークを介して通信してもよい。
第1のカメラ21は、例えば、広い撮影領域を撮影する広領域撮影用カメラである。第1のカメラ21は、例えば、広い範囲の撮影画像であるパノラマ画像又は上から見下ろすように見える画像である俯瞰画像を撮影するための撮像装置である。第1のカメラ21から出力される第1の画像31は、静止画像又は動画像のいずれであってもよい。図1には、1つの第1のカメラ21が示されているが、第1のカメラ21は、複数配置されてもよい。複数の第1のカメラの隣り合うものは、互いに重なり合う共通撮影領域を有するように配置される。画像処理装置1に複数の第1のカメラ21が接続されている場合には、複数の第1のカメラ21が撮影する複数の第1の画像31を合成することによって、合成広領域画像を作成することができる。合成広領域画像は、例えば、複数の画像を水平方向、垂直方向、又は水平及び垂直方向に繋ぎ合わせた合成パノラマ画像又は合成俯瞰画像である。共通撮影領域に物体(「遮蔽物」とも言う)が存在し、複数の第1の画像31の各々に同じ物体が含まれる場合には、複数の第1のカメラ21のいずれにも撮影されない死角領域が発生する。
第2のカメラ22a及び22bは、例えば、第1のカメラ21よりも狭い撮影領域を撮影する狭領域撮影用カメラである。第2のカメラ22a及び22bは、第1のカメラ21の位置からは物体の影になって見えない死角領域を含む領域を撮影し、第2の画像32a及び32bを出力する死角撮影用の撮像装置である。第2の画像32a及び32bは、静止画像又は動画像のいずれであってもよい。図1には、2つの第2のカメラ22a及び22bが示されているが、第2のカメラは、3つ以上配置されてもよい。また、第2のカメラ22a及び22bは、第1のカメラ21の光軸と異なる方向の光軸を持つように配置されてもよい。例えば、第2のカメラ22a及び22bは、第1のカメラ21と高さの異なる位置に配置されてもよい。
第1のカメラ21並びに第2のカメラ22a及び22bは、予めカメラキャリブレーションが行われている。カメラキャリブレーションによって得られた外部パラメータ、内部パラメータ、レンズ歪補正マップなどのカメラパラメータ情報は、予め記憶部14に記憶される。カメラキャリブレーションは、第1のカメラ21並びに第2のカメラ22a及び22bの各々を設置した状態でも行われる。カメラキャリブレーションにおいては、予め決められたキャリブレーション用のマーカを用いてもよい。
画像処理部12の射影変換部121は、複数の第2の画像32a及び32bを射影変換することによって予め決められた位置から見た複数の射影変換画像(第3の画像)121a,…を生成する。予め決められた位置は、例えば、第1のカメラ21の位置、望ましくは、第1のカメラ21の光軸上の位置である。
画像処理部12の変換画像合成部122は、複数の射影変換画像121a,…を合成することによって合成射影変換画像(第4の画像)122aを生成する。具体的には、画像処理部12の変換画像合成部122は、複数の第2のカメラ22a及び22bが撮影した複数の第2の画像32a及び32bの共通領域の画像部分をブレンド処理(例えば、αブレンド処理又はマルチバンドブレンド処理など)することによって、第1の画像31のマスク領域に対応する補完画像を生成する。なお、αブレンドに用いられるα値は、予め指定された値、又はキーボード若しくはマウスなどの入力装置でユーザが指定した値である。
画像処理部12の補完画像生成部123は、合成射影変換画像122aにおけるマスク領域(すなわち、物体に対応する設定領域)に対応する領域の画像を抽出することによって補完画像(第5の画像)123aを生成する。
画像処理部12の画像重畳部124は、第1の画像31と補完画像123aとを合成することによって合成表示画像124aを生成する。具体的には、画像重畳部124は、1つの第1の画像31におけるマスク領域に補完画像123aを重畳することによって合成表示画像124aを生成する。或いは、画像重畳部124は、複数の第1の画像31,…の各々におけるマスク領域に補完画像123aを重畳し、その後、複数の第1の画像31,…を合成することによって合成表示画像124aを生成する。或いは、画像重畳部124は、複数の第1の画像31,…から生成された合成画像(例えば、合成パノラマ画像)のマスク領域に補完画像123aを重畳することによって合成表示画像124aを生成する。なお、重畳は、2つの画像の各々の透過度(例えば、α値)を考慮に入れた合成処理であるブレンド処理(例えば、αブレンド処理)であってもよい。
画像出力部13は、画像処理部12で生成された合成表示画像124aをそのまま又は信号形式を変換して表示装置100に出力する。表示装置100は、死角領域の画像を含む表示画像をスクリーンに表示する。
《1−2》動作
図2は、実施の形態1に係る画像処理装置1及び監視システムの動作を示す説明図である。図3は、実施の形態1に係る画像処理装置1の動作例を示すフローチャートである。
先ず、ステップS120において、画像処理装置1の受信部11は、物体50が存在する領域を撮影する第1のカメラ21から提供される第1の画像31を受信する。また、受信部11は、物体50に隠れて第1のカメラ21の位置から見えない死角領域60を含む領域を撮影する第2のカメラ22a及び22bから提供される第2の画像32a及び32bを受信する。
次のステップS121において、画像処理部12の射影変換部121は、第2の画像32a及び32bの各々を射影変換することによって予め決められた位置から見た2つの射影変換画像(第3の画像)121a,…を生成する。予め決められた位置は、例えば、第1のカメラ21の位置、望ましくは、第1のカメラ21の光軸上の位置である。
次のステップS122において、画像処理部12の変換画像合成部122は、2つの射影変換画像121a,…を合成することによって合成射影変換画像(第4の画像)122aを生成する。
次のステップS123において、画像処理部12の補完画像生成部123は、合成射影変換画像122aにおけるマスク領域51に対応する領域の画像を抽出することによって補完画像(第5の画像)123aを生成する。
次のステップS124において、画像処理部12の画像重畳部124は、第1の画像31におけるマスク領域51に補完画像123aを重畳することによって合成表示画像124aを生成する。
画像出力部13は、合成表示画像124aを表示装置100に出力する。図2に示されるように、表示装置100は、スクリーンに、マスク領域51内が補完画像123aに基づく死角領域画像130aに置き換えられた表示画像130を表示する。
図4は、実施の形態1に係る画像処理装置1の他の動作例を示すフローチャートである。図4において、図3に示される処理ステップと同じ又は対応する処理ステップには、図3に示される符号と同じ符号が付される。図4の動作例では、ステップS120aにおいて、受信部11が、複数の第1の画像31,…を受信する点が図3の動作例と相違する。
図4の動作例では、ステップS123aにおいて、補完画像生成部123は、複数の第1の画像31,…のマスク領域51,…に対応する複数の補完画像123a,…を生成する。
また、図4の動作例では、ステップS124aにおいて、画像重畳部124は、複数の第1の画像31,…のマスク領域51,…に、対応する補完画像123a,…を重畳する。ステップS126において、画像重畳部124は、重畳処理後の複数の第1の画像31,…を繋ぎ合わせて合成して、合成表示画像124aを生成する。
図5は、実施の形態1に係る画像処理装置1の他の動作例を示すフローチャートである。図5において、図3又は図4に示される処理ステップと同じ又は対応する処理ステップには、図3又は図4に示される符号と同じ符号が付される。図5の動作例では、ステップS120aにおいて、受信部11が、複数の第1の画像31,…を受信する点が図3の動作例と相違する。
図5の動作例では、ステップS123bにおいて、補完画像生成部123は、複数の第1の画像31,…の合成画像のマスク領域に対応する補完画像123aを生成する。ステップS126aにおいて、画像重畳部124は、重畳処理後の複数の第1の画像31,…を繋ぎ合わせて合成して、合成画像を生成する。
次のステップS124bにおいて、画像重畳部124は、合成画像のマスク領域に補完画像123aを重畳することで合成表示画像124aを生成する。
《1−3》効果
以上に説明したように、実施の形態1に係る画像処理装置1及び監視システムによれば、広領域画像である第1の画像31内に物体50に隠れて見えない死角領域60が発生した場合であっても、表示装置100の1つのスクリーンに、死角領域60が補完画像123aで置き換えられた死角領域画像130aを含む表示画像130を表示することができる。したがって、死角領域画像130aだけを別のスクリーンに表示する場合に比べ、監視者は、撮影領域の状況を容易且つ正確に把握することができる。
《2》実施の形態2.
図6は、実施の形態2に係る画像処理装置2及び監視システムを概略的に示す機能ブロック図である。図6において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図6に示されるように、画像処理装置2は、受信部11と、画像処理部22と、画像出力部13と、記憶部14とを有する。画像処理部22は、射影変換部221と、画像選択部222と、補完画像生成部223と、画像重畳部224とを有する。
実施の形態1では、第2の画像32a及び32bの合成射影変換画像122aを用いて補完画像123aを生成したが、実施の形態2では、第2の画像32a及び32bの一方を選択し、選択された第2の画像である選択画像222aを用いて補完画像223aを生成する。この点以外に関しては、実施の形態2は、実施の形態1と同じである。
図7は、実施の形態2に係る画像処理装置2の動作例を示すフローチャートである。先ず、ステップS220において、画像処理装置2の受信部11は、第1の画像31と第2の画像32a及び32bとを受信する。
次のステップS221において、画像処理部22の射影変換部221は、第2の画像32a及び32bの各々を射影変換することによって予め決められた位置から見た2つの射影変換画像(第3の画像)221a,…を生成する。
次のステップS222において、画像処理部22の画像選択部222は、複数の射影変換画像221a,…から、複数の射影変換画像221a,…の各々の一部の領域をマスク領域51に配置した場合にマスク領域51の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる射影変換画像(第4の画像)222aを選択する。マスク領域51の境界の画素のエネルギーを用いる方法は、例えば、Seam Carving法である。
次のステップS223において、画像処理部22の補完画像生成部223は、選択された射影変換画像である選択画像222aにおけるマスク領域51に対応する領域の画像を抽出することによって補完画像223aを生成する。
次のステップS224において、画像処理部22の画像重畳部224は、第1の画像31におけるマスク領域51に補完画像223aを重畳することによって合成表示画像224aを生成する。
画像出力部13は、画像処理部22で生成された合成表示画像224aをそのまま又は信号形式を変換して表示装置100に出力する。表示装置100は、死角領域の画像を含む表示画像をスクリーンに表示する。
以上に説明したように、実施の形態2に係る画像処理装置2及び監視システムによれば、死角領域画像を別のスクリーンに表示する場合に比べ、撮影領域の状況を容易且つ正確に把握することができる。
また、実施の形態2では、第2の画像32a及び32bを合成していないので、実施の形態1の場合に比べ、データ処理の負荷を軽減することができる。
《3》実施の形態3.
図8は、実施の形態3に係る画像処理装置3及び監視システムを概略的に示す機能ブロック図である。図8において、図1又は図6に示される構成要素と同一又は対応する構成要素には、図1又は図6に示される符号と同じ符号が付される。図8に示されるように、画像処理装置3は、受信部11と、画像処理部32と、画像出力部13と、記憶部14とを有する。画像処理部32は、画像選択部321と、射影変換部322と、補完画像生成部323と、画像重畳部324とを有する。
実施の形態1では、第2の画像32a及び32bの合成射影変換画像122aを用いて補完画像123aを生成したが、実施の形態3では、第2の画像32a及び32bの一方を選択し、選択された第2の画像を射影変換して得られた選択画像321aを用いて補完画像323aを生成する。この点以外に関しては、実施の形態3は、実施の形態1と同じである。
図9は、実施の形態3に係る画像処理装置3の動作例を示すフローチャートである。先ず、ステップS320において、画像処理装置3の受信部11は、第1の画像31と第2の画像32a及び32bとを受信する。
次のステップS321において、画像処理部32の画像選択部321は、第2の画像32a及び32bから、第1のカメラ21の光軸41の方向に、より近い方向の光軸42a又は42bを持つ第2のカメラ22a又は22bで撮影された第2の画像である選択画像(第3の画像)321aを選択する。
次のステップS322において、画像処理部32の射影変換部322は、選択画像321aを射影変換することによって予め決められた位置から見た射影変換画像(第4の画像)322aを生成する。
次のステップS323において、画像処理部32の補完画像生成部323は、射影変換画像322aにおけるマスク領域51に対応する領域の画像を抽出することによって補完画像323aを生成する。
次のステップS324において、画像処理部32の画像重畳部324は、第1の画像31におけるマスク領域51に補完画像323aを重畳することによって合成表示画像324aを生成する。
画像出力部13は、画像処理部32で生成された合成表示画像324aをそのまま又は信号形式を変換して表示装置100に出力する。表示装置100は、死角領域の画像を含む表示画像をスクリーンに表示する。
以上に説明したように、実施の形態3に係る画像処理装置3及び監視システムによれば、表示装置100の1つのスクリーンに、死角領域60が補完画像で置き換えられた合成表示画像を表示させることができる。したがって、死角領域の画像を別のスクリーンに表示する場合に比べ、撮影領域の状況を容易且つ正確に把握することができる。
また、実施の形態3では、第2の画像32a及び32bを合成していないので、データ処理の負荷を軽減することができる。
《4》実施の形態4.
図10は、実施の形態4に係る画像処理装置4を概略的に示す機能ブロック図である。図10において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図10に示されるように、監視システムは、1つ以上の第1のカメラ21と、複数の第2のカメラ22a及び22bと、画像処理装置4と、表示装置100とを有する。画像処理装置4は、受信部11と、画像処理部42と、画像出力部13と、カメラパラメータ情報と参照画像情報を記憶する記憶部14とを有する。参照画像情報が示す参照画像は、過去に第2のカメラ22a及び22bで撮影された第2の画像に基づく画像である。物体50(後述の図11に示される)が移動する場合、参照画像には物体50が存在しないときの情報が含まれる。また、画像処理部42は、画像分割部421と、画像生成部422と、射影変換部423と、変換画像合成部424と、補完画像生成部425と、画像重畳部426とを有する。
実施の形態4では、第2の画像32a及び32bの各々を物体50を示す前景画像部分421aと、前景画像部分421a以外の背景画像部分421bとに分割し、前景画像部分を予め記憶されている参照画像の一部で置き換える処理を行う点が、実施の形態1と相違する。
図11は、実施の形態4に係る画像処理装置4及び監視システムの動作を示す説明図である。図11において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号が付される。図11の例では、表示装置100は、参照画像に基づいて作成された死角領域画像430aを含む表示画像430を表示する。
図12は、実施の形態4に係る画像処理装置4の動作例を示すフローチャートである。先ず、ステップS420において、画像処理装置4の受信部11は、第1の画像31と第2の画像32a及び32bとを受信する。
次のステップS421において、画像処理部42の画像分割部421は、第2の画像32a及び32bの各々を、物体50が占める前景画像部分421aと前景画像部分421a以外の背景画像部分421bとに分割する。前景画像部分である物体50の抽出は、例えば、グラフカットと呼ばれる画像の領域抽出のための画像セグメンテ−ション技術を用いて行われる。グラフカットを用いることによって、第2の画像の各々を背景画像部分421bと前景画像部分421aとに分割することができる。なお、前景画像部分421aの抽出には、ディープラーニングを用いたセマンティックセグメンテーションなどのような他の方法を用いてもよい。
次のステップS422において、画像処理部42の画像生成部422は、前景画像部分421aを参照画像の一部の画像部分で置き換えることによって第2の画像32a及び32bから複数の変更済み画像(第3の画像)422a,…を生成する。
次のステップS423において、画像処理部42の射影変換部423は、複数の変更済み画像422a,…の各々を射影変換することによって予め決められた位置から見た複数の射影変換画像(第4の画像)423a,…を生成する。予め決められた位置は、例えば、第1のカメラ21の位置、望ましくは、第1のカメラ21の光軸上の位置である。
次のステップS424において、画像処理部42の変換画像合成部424は、複数の射影変換画像423a,…を合成することによって合成射影変換画像(第5の画像)424aを生成する。
次のステップS425において、画像処理部42の補完画像生成部425は、合成射影変換画像424aにおけるマスク領域に対応する領域の画像を抽出することによって補完画像425aを生成する。
次のステップS426において、画像処理部42の画像重畳部426は、第1の画像31におけるマスク領域51に補完画像425aを重畳することによって合成表示画像426aを生成する。重畳は、各画像の透過度を考慮したブレンド処理であってもよい。
画像出力部13は、画像処理部42で生成された合成表示画像426aをそのまま又は信号形式を変換して表示装置100に出力する。表示装置100は、スクリーンに、マスク領域51内が補完画像425aに基づく死角領域画像(図11における430a)に置き換えられた表示画像(図11における430)を表示する。
図13は、実施の形態4に係る画像処理装置4の他の動作例を示すフローチャートである。図13において、図12に示される処理ステップと同じ又は対応する処理ステップには、図12に示される符号と同じ符号が付される。図13の動作例では、ステップS420aにおいて、受信部11が、複数の第1の画像31,…を受信する点が図12の動作例と相違する。
図13の動作例では、ステップS425aにおいて、補完画像生成部425は、複数の第1の画像31,…の各々のマスク領域51について、補完画像423a,…を生成する。また、ステップS426aにおいて、画像重畳部426は、複数の第1の画像31のマスク領域51,…に補完画像425a,…を重畳する。
図13の動作例では、ステップS428において、画像重畳部426は、重畳処理後の複数の第1の画像31,…を繋ぎ合わせて合成して、合成表示画像426aを生成する。
図14は、実施の形態4に係る画像処理装置4の他の動作例を示すフローチャートである。図14において、図12又は図13に示される処理ステップと同じ又は対応する処理ステップには、図12又は図13に示される符号と同じ符号が付される。図14の動作例では、ステップS420aにおいて、受信部11が、複数の第1の画像31,…を受信する点が図12の動作例と相違する。
図14の動作例では、ステップS425bにおいて、補完画像生成部425は、複数の第1の画像31,…の合成画像のマスク領域51について、補完画像425aを生成する。ステップS428aにおいて、画像重畳部426は、重畳処理後の複数の第1の画像31,…を繋ぎ合わせて合成して、合成画像を生成する。
図14の動作例では、次のステップS426bにおいて、画像重畳部426は、合成画像のマスク領域に補完画像425aを重畳することで合成表示画像426aを生成する。
以上に説明したように、実施の形態4に係る画像処理装置4及び監視システムによれば、表示装置100の1つのスクリーンに、死角領域画像430aを含む表示画像430が表示される。したがって、死角領域画像430aを別のスクリーンに表示する場合に比べ、撮影領域の状況を容易且つ正確に把握することができる。
また、実施の形態4では、予め記憶されている参照画像を用いて第2の画像を修正しているので、データ処理の負荷を増加させることなく、合成表示画像の品質を高めることができる。
《5》実施の形態5.
図15は、実施の形態5に係る画像処理装置5及び監視システムを概略的に示す機能ブロック図である。図15において、図10に示される構成要素と同一又は対応する構成要素には、図10に示される符号と同じ符号が付される。図15に示されるように、画像処理装置5は、受信部11と、画像処理部52と、画像出力部13と、記憶部14とを有する。画像処理部52は、画像分割部521と、画像生成部522と、射影変換部523と、画像選択部524と、補完画像生成部525と、画像重畳部526とを有する。
実施の形態4では、第2の画像32a及び32bの合成射影変換画像424aを用いて補完画像425aを生成したが、実施の形態5では、第2の画像32a及び32bの一方を選択し、選択された第2の画像である選択画像524aを用いて補完画像525aを生成する。この点以外に関しては、実施の形態5は、実施の形態4と同じである。
図16は、実施の形態5に係る画像処理装置5の動作例を示すフローチャートである。先ず、ステップS520において、画像処理装置5の受信部11は、第1の画像31と第2の画像32a及び32bとを受信する。
次のステップS521において、画像処理部52の画像分割部521は、第2の画像32a及び32bの各々を、物体50が占める前景画像部分521aと前景画像部分521a以外の背景画像部分521bとに分割する。
次のステップS522において、画像処理部52の画像生成部522は、前景画像部分521aを参照画像の一部の画像に置き換えることによって複数の変更済み画像(第3の画像)522a,…を生成する。
次のステップS523において、画像処理部52の射影変換部523は、複数の変更済み画像522a,…の各々を射影変換することによって予め決められた位置から見た複数の射影変換画像(第4の画像)523a,…を生成する。
次のステップS524において、画像処理部52の画像選択部524は、複数の射影変換画像523a,…から、複数の射影変換画像523a,…の一部の領域をマスク領域に配置した場合にマスク領域の境界の画素のエネルギーが最小となる一部の領域を提供できる選択画像(第5の画像)524aを選択する。
次のステップS525において、画像処理部52の補完画像生成部525は、選択画像524aにおけるマスク領域51に対応する領域の画像を抽出することによって補完画像525aを生成する。
次のステップS526において、画像処理部52の画像重畳部526は、第1の画像31におけるマスク領域51に補完画像525aを重畳することによって合成表示画像526aを生成する。
画像出力部13は、画像処理部52で生成された合成表示画像526aをそのまま又は信号形式を変換して表示装置100に出力する。表示装置100は、死角領域の画像を含む表示画像をスクリーンに表示する。
以上に説明したように、実施の形態5に係る画像処理装置5及び監視システムによれば、表示装置100の1つのスクリーンに、死角領域60が補完画像で置き換えられた合成表示画像を表示させることができる。したがって、死角領域の画像を別のスクリーンに表示する場合に比べ、撮影領域の状況を容易且つ正確に把握することができる。
また、実施の形態5では、予め記憶されている参照画像を用いて第2の画像を修正しているので、データ処理の負荷を増加させることなく、合成表示画像の品質を高めることができる。
《6》実施の形態6.
図17は、実施の形態6に係る画像処理装置6及び監視システムを概略的に示す機能ブロック図である。図17において、図10又は図15に示される構成要素と同一又は対応する構成要素には、図10又は図15に示される符号と同じ符号が付される。図17に示されるように、画像処理装置6は、受信部11と、画像処理部62と、画像出力部13と、記憶部14とを有する。画像処理部62は、画像分割部621と、画像生成部622と、画像選択部623と、射影変換部624と、補完画像生成部625と、画像重畳部626とを有する。
実施の形態4では、第2の画像32a及び32bの合成射影変換画像424aを用いて補完画像425aを生成したが、実施の形態6では、第2の画像32a及び32bの一方を選択し、選択された選択画像623aを用いて補完画像625aを生成する。この点以外に関して、実施の形態6は、実施の形態4と同じである。
図18は、実施の形態6に係る画像処理装置6の動作例を示すフローチャートである。先ず、ステップS620において、画像処理装置6の受信部11は、第1の画像31と第2の画像32a及び32bとを受信する。
次のステップS621において、画像処理部62の画像分割部621は、第2の画像32a及び32bの各々を、物体50が占める前景画像部分621aと前景画像部分621a以外の背景画像部分621bとに分割する。
次のステップS622において、画像処理部62の画像生成部622は、前景画像部分621aを参照画像の一部の画像に置き換えることによって第2の画像32a及び32bから複数の変更済み画像(第3の画像)622a,…を生成する。
次のステップS623において、画像処理部62の画像選択部623は、複数の変更済み画像622a,…から、第1のカメラ21の光軸41の方向に、より近い方向の光軸42a又は42bを持つ第2のカメラ22a又は22bで撮影された選択画像(第4の画像)623aを選択する。
次のステップS624において、画像処理部62の射影変換部624は、選択画像623aを射影変換することによって予め決められた位置から見た射影変換画像(第5の画像)624aを生成する。
次のステップS625において、画像処理部62の補完画像生成部625は、射影変換画像(第5の画像)624aにおけるマスク領域に対応する領域の画像を抽出することによって補完画像625aを生成する。
次のステップS626において、画像処理部62の画像重畳部626は、第1の画像31におけるマスク領域51に補完画像625aを重畳することによって合成表示画像626aを生成する。
画像出力部13は、画像処理部12で生成された合成表示画像626aをそのまま又は信号形式を変換して表示装置100に出力する。表示装置100は、死角領域の画像を含む表示画像をスクリーンに表示する。
以上に説明したように、実施の形態6に係る画像処理装置6及び監視システムによれば、表示装置100の1つのスクリーンに、死角領域60が補完画像で置き換えられた合成表示画像を表示させることができる。したがって、死角領域の画像を別のスクリーンに表示する場合に比べ、撮影領域の状況を容易且つ正確に把握することができる。
また、実施の形態6では、予め記憶されている参照画像を用いて第2の画像を修正しているので、データ処理の負荷を増加させることなく、合成表示画像の品質を高めることができる。
《7》実施の形態7.
図19は、実施の形態7に係る画像処理装置7を概略的に示す機能ブロック図である。図19において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図19に示されるように、監視システムは、1つ以上の第1のカメラ21と、複数の第2のカメラ22a及び22bと、画像処理装置7と、表示装置100とを有する。画像処理装置7は、受信部11と、画像処理部72と、画像出力部13と、カメラパラメータ情報と3次元(「3D」とも記す)仮想物体モデルの候補とを記憶する記憶部14とを有する。3D仮想物体モデルは、予め実在する物体に似た形状の画像データである。物体とは、例えば、人物、車両、動物、設備機器などである。画像処理部72は、画像分割部721と、画像生成部722と、射影変換部723と、変換画像合成部724と、補完画像生成部725と、画像重畳部726とを有する。
実施の形態7では、第2の画像32a及び32bの各々を物体を示す前景画像部分721aと、前景画像部分721a以外の背景画像部分721bとに分割し、前景画像部分を予め記憶されている3D仮想物体モデルで置き換える処理を行う点が、実施の形態1と相違する。他の点に関しては、実施の形態7は、実施の形態1と同じである。3D仮想物体モデルは、第2のカメラの前景画像の画像を3D仮想物体モデルにテクスチャマッピングしたものであってもよい。このようにすることで、物体の位置姿勢だけでなく、物体表面の状況まで把握することが可能になる。
図20は、実施の形態7に係る画像処理装置7及び監視システムの動作を示す説明図である。図20において、図2又は図11に示される構成要素と同一又は対応する構成要素には、図2又は図11に示される符号と同じ符号が付される。図20の例では、表示装置100は、3D仮想物体モデルに基づいて作成された死角領域画像530aを含む表示画像530を表示する。
図21は、実施の形態7に係る画像処理装置7の動作例を示すフローチャートである。先ず、ステップS720において、画像処理装置4の受信部11は、第1の画像31と第2の画像32a及び32bとを受信する。
次のステップS721において、画像処理部72の画像分割部721は、第2の画像32a及び32bの各々を、物体50が占める前景画像部分721aと前景画像部分721a以外の背景画像部分721bとに分割する。
次のステップS722において、画像処理部72の画像生成部722は、前景画像部分721aを3D仮想物体モデルで置き換えることによって第2の画像32a及び32bから複数の変更済み画像(第3の画像)722a,…を生成する。3D仮想物体モデルは、適切なスケールと位置及び姿勢で配置される。
次のステップS723において、画像処理部72の射影変換部723は、複数の変更済み画像722a,…の各々を射影変換することによって予め決められた位置から見た複数の射影変換画像(第4の画像)723a,…を生成する。予め決められた位置は、例えば、第1のカメラ21の位置、望ましくは、第1のカメラ21の光軸上の位置である。
次のステップS724において、画像処理部72の変換画像合成部724は、複数の射影変換画像723a,…を合成することによって合成射影変換画像(第5の画像)724aを生成する。
次のステップS725において、画像処理部72の補完画像生成部725は、合成射影変換画像724aにおけるマスク領域に対応する領域の画像を抽出することによって補完画像725aを生成する。
次のステップS726において、画像処理部72の画像重畳部724は、第1の画像31におけるマスク領域51に補完画像725aを重畳することによって合成表示画像726aを生成する。重畳は、各画像の透過度を考慮したブレンド処理であってもよい。
画像出力部13は、合成表示画像726aを表示装置100に出力する。表示装置100は、スクリーンに、マスク領域51内が補完画像725aに基づく死角領域画像(図20における530a)に置き換えられた表示画像(図20における530)を表示する。
以上に説明したように、実施の形態7に係る画像処理装置7及び監視システムによれば、表示装置100の1つのスクリーンに、死角領域60が補完画像で置き換えられた合成表示画像を表示させることができる。したがって、死角領域画像530aを別のスクリーンに表示する場合に比べ、撮影領域の状況を容易且つ正確に把握することができる。
また、実施の形態7では、予め記憶されている3D仮想物体モデルを用いて第2の画像を修正しているので、データ処理の負荷を増加させることなく、合成表示画像の品質を高めることができる。また、第2のカメラの撮影画像内に占める第2のカメラの前景画像の割合が大きい場合には、射影変換された前景画像の歪が目立つので、本実施の形態の方法が効果的である。
《8》実施の形態8.
図22は、実施の形態8に係る画像処理装置8及び監視システムを概略的に示す機能ブロック図である。図22において、図19に示される構成要素と同一又は対応する構成要素には、図19に示される符号と同じ符号が付される。図22に示されるように、画像処理装置8は、受信部11と、画像処理部82と、画像出力部13と、記憶部14とを有する。画像処理部82は、画像分割部821と、画像生成部822と、射影変換部823と、画像選択部824と、補完画像生成部825と、画像重畳部826とを有する。
実施の形態7では、第2の画像32a及び32bの合成射影変換画像724aを用いて補完画像725aを生成したが、実施の形態8では、第2の画像32a及び32bの一方を選択し、選択画像824aを用いて補完画像825aを生成する。この点以外に関しては、実施の形態8は、実施の形態7と同じである。
図23は、実施の形態8に係る画像処理装置8の動作例を示すフローチャートである。先ず、ステップS820において、画像処理装置8の受信部11は、第1の画像31と第2の画像32a及び32bとを受信する。
次のステップS821において、画像処理部82の画像分割部821は、第2の画像32a及び32bの各々を、物体50が占める前景画像部分821aと前景画像部分821a以外の背景画像部分821bとに分割する。
次のステップS822において、画像処理部82の画像生成部822は、前景画像部分821aを3D仮想物体モデルの画像に置き換えることによって複数の変更済み画像(第3の画像)822a,…を生成する。
次のステップS823において、画像処理部82の射影変換部823は、複数の変更済み822a,…の各々を射影変換することによって予め決められた位置から見た複数の射影変換画像(第4の画像)823a,…を生成する。
次のステップS824において、画像処理部82の画像選択部824は、複数の射影変換画像823a,…から、複数の射影変換画像823a,…の一部の領域をマスク領域に配置した場合にマスク領域の境界の画素のエネルギーが最小となる一部の領域を提供できる選択画像(第5の画像)824aを選択する。
次のステップS825において、画像処理部82の補完画像生成部825は、選択画像824aにおけるマスク領域に対応する領域の画像を抽出することによって補完画像825aを生成する。
次のステップS826において、画像処理部82の画像重畳部826は、第1の画像31におけるマスク領域51に補完画像825aを重畳することによって合成表示画像826aを生成する。
画像出力部13は、画像処理部12で生成された合成表示画像826aをそのまま又は信号形式を変換して表示装置100に出力する。表示装置100は、死角領域の画像を含む表示画像をスクリーンに表示する。
以上に説明したように、実施の形態8に係る画像処理装置8及び監視システムによれば、表示装置100の1つのスクリーンに、死角領域60が補完画像で置き換えられた合成表示画像を表示させることができる。したがって、死角領域の画像を別のスクリーンに表示する場合に比べ、撮影領域の状況を容易且つ正確に把握することができる。
また、実施の形態8では、予め記憶されている3D仮想物体モデルの画像を用いて第2の画像を修正しているので、データ処理の負荷を増加させることなく、合成表示画像の品質を高めることができる。
《9》実施の形態9.
図24は、実施の形態9に係る画像処理装置9及び監視システムを概略的に示す機能ブロック図である。図24において、図19又は図22に示される構成要素と同一又は対応する構成要素には、図19又は図22に示される符号と同じ符号が付される。図24に示されるように、画像処理装置9は、受信部11と、画像処理部92と、画像出力部13と、記憶部14とを有する。画像処理部92は、画像分割部921と、画像生成部922と、画像選択部923と、射影変換部924と、補完画像生成部925と、画像重畳部926とを有する。
実施の形態7では、第2の画像32a及び32bの合成射影変換画像724aを用いて補完画像725aを生成したが、実施の形態9では、第2の画像32a及び32bの一方を選択し、選択された第2の画像である選択画像923aを用いて補完画像925aを生成する。この点以外に関して、実施の形態9は、実施の形態7と同じである。
図24は、実施の形態9に係る画像処理装置9の動作例を示すフローチャートである。先ず、ステップS920において、画像処理装置9の受信部11は、第1の画像31と第2の画像32a及び32bとを受信する。
次のステップS921において、画像処理部92の画像分割部921は、第2の画像32a及び32bの各々を、物体50が占める前景画像部分921aと前景画像部分921a以外の背景画像部分921bとに分割する。
次のステップS922において、画像処理部92の画像生成部922は、前景画像部分921aを3D仮想物体モデルの画像に置き換えることによって第2の画像32a及び32bから複数の変更済み画像(第3の画像)922a,…を生成する。
次のステップS923において、画像処理部92の画像選択部923は、複数の変更済み画像922a,…から、第1のカメラ21の光軸41の方向に、より近い方向の光軸42a又は42bを持つ第2のカメラ22a又は22bで撮影された選択画像(第4の画像)923aを選択する。
次のステップS924において、画像処理部92の射影変換部924は、選択画像923aを射影変換することによって予め決められた位置から見た射影変換画像(第5の画像)924aを生成する。
次のステップS925において、画像処理部92の補完画像生成部925は、射影変換画像(第5の画像)924aにおけるマスク領域に対応する領域の画像を抽出することによって補完画像925aを生成する。
次のステップS926において、画像処理部92の画像重畳部926は、第1の画像31におけるマスク領域51に補完画像925aを重畳することによって合成表示画像926aを生成する。
画像出力部13は、画像処理部12で生成された合成表示画像926aをそのまま又は信号形式を変換して表示装置100に出力する。表示装置100は、死角領域画像を含む表示画像をスクリーンに表示する。
以上に説明したように、実施の形態9に係る画像処理装置9及び監視システムによれば、表示装置100の1つのスクリーンに、死角領域60が補完画像で置き換えられた合成表示画像を表示させることができる。したがって、死角領域の画像を別のスクリーンに表示する場合に比べ、撮影領域の状況を容易且つ正確に把握することができる。
また、実施の形態9では、予め記憶されている参照画像を用いて第2の画像を修正しているので、データ処理の負荷を増加させることなく、合成表示画像の品質を高めることができる。
《10》変形例.
図26は、実施の形態1から9に係る監視システムのハードウェア構成の例を示す図である。図26の例では、画像処理装置1と、画像処理装置1にネットワーク200を介して接続される第1のカメラ21並びに第2のカメラ22a及び22bと、物体の位置を検出するセンサ23と、表示装置100とを有する。
画像処理装置1は、メインプロセッサ111、メインメモリ112、補助メモリ113、画像処理プロセッサ114、画像処理メモリ115、入力インタフェース118、ファイルインタフェース117、表示インタフェース119、及び画像入力インタフェース116を有する。画像処理プロセッサ114は、例えば、GPU(Graphics Processing Unit)などの並列演算装置である。補助メモリ113には、事前のキャリブレーション処理によって算出したカメラパラメータ情報(レンズ歪補正マップなどを含む)が保存されている。メインプロセッサ111は、ファイルインタフェース117を通じて、メインメモリ112に記憶されている情報を読み込む。3D仮想物体モデルの画像データ及びテクスチャのデータは、補助メモリ113に保存される。
入力インタフェース118は、マウス入力及び、キーボード入力、タッチパネル入力などのデバイス入力を受け付け、入力結果をメインメモリ112に提供する。画像処理メモリ115には、メインメモリ112から転送された入力画像、及び画像処理プロセッサ114で作成された合成画像を記憶する。表示インタフェース119は、合成表示画像をHDMI(登録商標)(High−Definition Multimedia Interface)ケーブルなどを用いて接続された表示装置100に出力する。画像入力インタフェース116は、第1のカメラ21,…及び第2のカメラ22a、22b,…の画像入力を受け付け、入力画像をメインメモリ112に記憶させる。第1のカメラ21,…及び第2のカメラ22a、22b,…は、例えば、ネットワークカメラ、アナログカメラ、USB(Universal Serial Bus)カメラ、HD−SDI(High Definition Serial Digital Interface)カメラなどであってもよい。センサ23は、例えば、レーダー又はレーザスキャナなどである。
画像処理プロセッサ114は、メインメモリ112に格納されている画像処理プログラムを実行することで、実施の形態1から9の画像処理装置1〜9の各々の画像処理部の機能を実現することができる。
1〜9 画像処理装置、 11 受信部、 12、22、32、42、52、62、72、82、92 画像処理部、 13 画像出力部、 14 記憶部、 21 第1のカメラ、 22a、22b 第2のカメラ、 31 第1の画像、 32a、32b 第2の画像、 41、42a、42b 光軸、 50 物体、 51 マスク領域、 60 死角領域、 100 表示装置、 124a、224a、324a、426a、526a、626a、726a、826a、926a 合成表示画像、 130、430、530 表示画像、 130a、430a、530a 死角領域画像。

Claims (15)

  1. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
    を有し、
    前記画像処理部は、
    前記複数の第2の画像を射影変換することによって予め決められた位置から見た複数の第3の画像を生成する射影変換部と、
    前記複数の第3の画像から、前記複数の第3の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、
    前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有する
    ことを特徴とす画像処理装置。
  2. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
    を有し、
    前記画像処理部は、
    前記複数の第2の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第2の画像を選択し、選択された画像を第3の画像として出力する画像選択部と、
    前記第3の画像を射影変換することによって予め決められた位置から見た第4の画像を生成する射影変換部と、
    前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有する
    ことを特徴とす画像処理装置。
  3. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像と、を合成することによって合成表示画像を生成する画像処理部と、
    前記複数の第2のカメラによって過去に撮影された前記複数の第2の画像である参照画像を予め記憶する記憶部と、
    有し、
    前記画像処理部は、
    前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
    前記前景画像部分を前記参照画像の一部の画像部分で置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
    前記複数の第3の画像を射影変換することによって予め決められた位置から見た複数の第4の画像を生成する射影変換部と、
    前記複数の第4の画像を合成することによって第5の画像を生成する変換画像合成部と、
    前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有することを特徴とす画像処理装置。
  4. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像と、を合成することによって合成表示画像を生成する画像処理部と、
    前記複数の第2のカメラによって過去に撮影された前記複数の第2の画像である参照画像を予め記憶する記憶部と、
    有し、
    前記画像処理部は、
    前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
    前記前景画像部分を前記参照画像の一部の画像に置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
    前記複数の第3の画像を射影変換することによって予め決められた位置から見た複数の第4の画像を生成する射影変換部と、
    前記複数の第4の画像から、前記複数の第4の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供できる第4の画像を選択し、選択された画像を第5の画像として出力する画像選択部と、
    前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有することを特徴とす画像処理装置。
  5. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像と、を合成することによって合成表示画像を生成する画像処理部と、
    前記複数の第2のカメラによって過去に撮影された前記複数の第2の画像である参照画像を予め記憶する記憶部と、
    有し、
    前記画像処理部は、
    前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
    前記前景画像部分を前記参照画像の一部の画像に置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
    前記複数の第3の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、
    前記第4の画像を射影変換することによって予め決められた位置から見た第5の画像を生成する射影変換部と、
    前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有することを特徴とす画像処理装置。
  6. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
    3次元仮想物体モデルの候補の画像データを予め記憶する記憶部と、
    有し、
    前記画像処理部は、
    前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
    前記3次元仮想物体モデルの候補から前記物体に対応する3次元仮想物体モデルを選択し、前記前景画像部分を前記3次元仮想物体モデルに置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
    前記複数の第3の画像を射影変換することによって予め決められた位置から見た複数の第4の画像を生成する射影変換部と、
    前記複数の第4の画像を合成することによって第5の画像を生成する変換画像合成部と、
    前記第5の画像における、前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有することを特徴とす画像処理装置。
  7. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
    3次元仮想物体モデルの候補の画像データを予め記憶する記憶部と、
    有し、
    前記画像処理部は、
    前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
    前記3次元仮想物体モデルの候補から前記物体に対応する3次元仮想物体モデルを選択し、前記前景画像部分を前記3次元仮想物体モデルに置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
    前記複数の第3の画像を射影変換することによって予め決められた位置から見た複数の第4の画像を生成する射影変換部と、
    前記複数の第4の画像から、前記複数の第4の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供できる第4の画像を選択し、選択された画像を第5の画像として出力する画像選択部と、
    前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有することを特徴とす画像処理装置。
  8. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
    3次元仮想物体モデルの候補の画像データを予め記憶する記憶部と、
    有し、
    前記画像処理部は、
    前記複数の第2の画像の各々を、前記物体が占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
    前記3次元仮想物体モデルの候補から前記物体に対応する3次元仮想物体モデルを選択し、前記前景画像部分を前記3次元仮想物体モデルに置き換えることによって前記複数の第2の画像から複数の第3の画像を生成する画像生成部と、
    前記複数の第3の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、
    前記第4の画像を射影変換することによって予め決められた位置から見た第5の画像を生成する射影変換部と、
    前記第5の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有することを特徴とす画像処理装置。
  9. 前記画像処理部は、前記1つ以上の第1の画像の各々における前記マスク領域に前記補完画像を重畳することによって、又は、前記1つ以上の第1の画像から生成された合成画像に前記補完画像を重畳することによって前記合成表示画像を生成する画像重畳部を有することを特徴とする請求項6から8のいずれか1項に記載の画像処理装置。
  10. 前記受信部は、前記物体を検出するセンサから出力される検出信号をさらに受信し、
    前記画像処理部は、前記検出信号に基づいて、前記記憶部に記憶されている前記3次元仮想物体モデルの候補から、前記物体に対応する前記3次元仮想物体モデルを選択する
    ことを特徴とする請求項からのいずれか1項に記載の画像処理装置。
  11. 前記画像処理部は、選択された前記3次元仮想物体モデルにテクスチャマッピングを施す
    ことを特徴とする請求項から10のいずれか1項に記載の画像処理装置。
  12. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信するステップと、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成するステップと、
    を有し、
    前記合成表示画像を生成する前記ステップは、
    前記複数の第2の画像を射影変換することによって予め決められた位置から見た複数の第3の画像を生成するステップと、
    前記複数の第3の画像から、前記複数の第3の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる第3の画像を選択し、選択された画像を第4の画像として出力するステップと、
    前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成するステップと、
    を有する
    ことを特徴とする画像処理方法。
  13. 物体が存在する領域を撮影する1つ以上の第1のカメラと、
    前記物体によって前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラと、
    前記1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
    前記合成表示画像に基づく画像を表示する表示装置と、
    を有し、
    前記画像処理部は、
    前記複数の第2の画像を射影変換することによって予め決められた位置から見た複数の第3の画像を生成する射影変換部と、
    前記複数の第3の画像から、前記複数の第3の画像の一部の領域を前記マスク領域に配置した場合に前記マスク領域の境界の画素のエネルギーが最小となる前記一部の領域を提供することができる第3の画像を選択し、選択された画像を第4の画像として出力する画像選択部と、
    前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有することを特徴とする監視システム。
  14. 物体が存在する領域を撮影する1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記物体に隠れて前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラから提供される複数の第2の画像とを受信するステップと、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成するステップと、
    を有し、
    前記合成表示画像を生成する前記ステップは、
    前記複数の第2の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第2の画像を選択し、選択された画像を第3の画像として出力するステップと、
    前記第3の画像を射影変換することによって予め決められた位置から見た第4の画像を生成するステップと、
    前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成するステップと、
    を有する
    ことを特徴とする画像処理方法。
  15. 物体が存在する領域を撮影する1つ以上の第1のカメラと、
    前記物体によって前記第1のカメラの位置から見えない死角領域を含む領域を撮影する複数の第2のカメラと、
    前記1つ以上の第1のカメラから提供される1つ以上の第1の画像と前記複数の第2のカメラから提供される複数の第2の画像とを受信する受信部と、
    前記複数の第2の画像から、前記1つ以上の第1の画像において前記物体に対応するマスク領域の画像である補完画像を生成し、前記1つ以上の第1の画像と前記補完画像とを合成することによって合成表示画像を生成する画像処理部と、
    前記合成表示画像に基づく画像を表示する表示装置と、
    を有し、
    前記画像処理部は、
    前記複数の第2の画像から、前記第1のカメラの光軸の方向に、より近い方向の光軸を持つ第2のカメラで撮影された第2の画像を選択し、選択された画像を第3の画像として出力する画像選択部と、
    前記第3の画像を射影変換することによって予め決められた位置から見た第4の画像を生成する射影変換部と、
    前記第4の画像における前記マスク領域に対応する領域の画像を抽出することによって前記補完画像を生成する補完画像生成部と、
    を有することを特徴とする監視システム。
JP2020508684A 2018-03-29 2018-03-29 画像処理装置、画像処理方法、及び監視システム Active JP6704554B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/013113 WO2019186860A1 (ja) 2018-03-29 2018-03-29 画像処理装置、画像処理方法、及び監視システム

Publications (2)

Publication Number Publication Date
JP6704554B2 true JP6704554B2 (ja) 2020-06-03
JPWO2019186860A1 JPWO2019186860A1 (ja) 2020-07-09

Family

ID=68058097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020508684A Active JP6704554B2 (ja) 2018-03-29 2018-03-29 画像処理装置、画像処理方法、及び監視システム

Country Status (5)

Country Link
US (1) US11494934B2 (ja)
JP (1) JP6704554B2 (ja)
CA (1) CA3092565C (ja)
GB (1) GB2586389B (ja)
WO (1) WO2019186860A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7431557B2 (ja) 2019-11-08 2024-02-15 株式会社デンソーテン 画像処理装置および画像処理方法
CN112233055B (zh) * 2020-10-15 2021-09-10 北京达佳互联信息技术有限公司 视频去痕方法和视频去痕装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2960733B2 (ja) 1989-07-27 1999-10-12 株式会社日立製作所 画像表示方法及び画像表示装置並びに遠隔操作装置
JP3192875B2 (ja) * 1994-06-30 2001-07-30 キヤノン株式会社 画像合成方法および画像合成装置
US7362918B2 (en) * 2003-06-24 2008-04-22 Microsoft Corporation System and method for de-noising multiple copies of a signal
JP4552525B2 (ja) 2004-06-11 2010-09-29 株式会社エクォス・リサーチ 車両の画像処理装置
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
CA2653815C (en) * 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US8253799B2 (en) * 2007-07-27 2012-08-28 Sportvision, Inc. Detecting an object in an image using camera registration data indexed to location or camera sensors
JP2009055332A (ja) 2007-08-27 2009-03-12 Mitsubishi Electric Corp 映像合成表示装置
US8086071B2 (en) 2007-10-30 2011-12-27 Navteq North America, Llc System and method for revealing occluded objects in an image dataset
WO2011028837A2 (en) * 2009-09-01 2011-03-10 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
JP4849178B2 (ja) 2010-03-15 2012-01-11 トヨタ自動車株式会社 移動型ロボット
JP2014175706A (ja) * 2013-03-06 2014-09-22 Sumitomo Electric Ind Ltd 監視装置、監視方法および撮像部の配置方法
WO2014135910A1 (en) 2013-03-08 2014-09-12 JACQUEMET, Jean-Philippe Method of replacing objects in a video stream and computer program
WO2014145722A2 (en) 2013-03-15 2014-09-18 Digimarc Corporation Cooperative photography
KR102117273B1 (ko) 2013-03-21 2020-06-01 삼성전자주식회사 수술 로봇 시스템 및 그 제어 방법
EP2884460B1 (en) 2013-12-13 2020-01-01 Panasonic Intellectual Property Management Co., Ltd. Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
US10726593B2 (en) * 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11184531B2 (en) * 2015-12-21 2021-11-23 Robert Bosch Gmbh Dynamic image blending for multiple-camera vehicle systems
JP2018117320A (ja) * 2017-01-20 2018-07-26 株式会社東芝 電子ミラーの映像合成装置及び映像合成方法
GB2563647B (en) * 2017-06-22 2020-03-25 Jaguar Land Rover Ltd Method of displaying an image on a display of a rearward view display system

Also Published As

Publication number Publication date
CA3092565A1 (en) 2019-10-03
GB2586389A (en) 2021-02-17
GB202015095D0 (en) 2020-11-11
CA3092565C (en) 2021-07-20
GB2586389B (en) 2022-03-30
US11494934B2 (en) 2022-11-08
WO2019186860A1 (ja) 2019-10-03
US20210056723A1 (en) 2021-02-25
JPWO2019186860A1 (ja) 2020-07-09

Similar Documents

Publication Publication Date Title
US20210337177A1 (en) Image processing apparatus, image generating method, and storage medium
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
JP5754312B2 (ja) 画像処理装置及び画像処理方法、並びにプログラム
US9767611B2 (en) Information processing apparatus and method for estimating depth values using an approximate plane
US20180232943A1 (en) System and method for generating a virtual viewpoint apparatus
JP2019125929A (ja) 画像処理装置、画像処理方法、及びプログラム
US9118903B2 (en) Device and method for 2D to 3D conversion
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP6704554B2 (ja) 画像処理装置、画像処理方法、及び監視システム
JP2013172446A (ja) 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法
JP6137910B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5464129B2 (ja) 画像処理装置および視差情報生成装置
JP2020187529A (ja) 画像処理装置、画像処理システム、制御方法、および、プログラム
CN106055108B (zh) 一种虚拟触摸屏的操控方法和系统
US20230056459A1 (en) Image processing device, method of generating 3d model, learning method, and program
JP6103942B2 (ja) 画像データ処理装置及び画像データ処理プログラム
US10880533B2 (en) Image generation apparatus, image generation method, and storage medium, for generating a virtual viewpoint image
KR101507536B1 (ko) 적외선을 이용한 객체 추출 및 영상 합성 시스템
US11263999B2 (en) Image processing device and control method therefor
US20210012519A1 (en) Information processing apparatus, information processing method, and storage medium
JP2022131197A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2021096772A (ja) 画像処理装置、画像処理方法、システム
JP2023016500A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20150114103A (ko) 3차원 리얼타임 가상입체 스튜디오 장치 및 3차원 리얼타임 가상입체 스튜디오 장치에서의 가상입체 스튜디오 영상 생성 방법
CN113587812A (zh) 显示设备、测量方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200312

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200312

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200512

R150 Certificate of patent or registration of utility model

Ref document number: 6704554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250