JP2016535353A - オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品 - Google Patents
オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品 Download PDFInfo
- Publication number
- JP2016535353A JP2016535353A JP2016535510A JP2016535510A JP2016535353A JP 2016535353 A JP2016535353 A JP 2016535353A JP 2016535510 A JP2016535510 A JP 2016535510A JP 2016535510 A JP2016535510 A JP 2016535510A JP 2016535353 A JP2016535353 A JP 2016535353A
- Authority
- JP
- Japan
- Prior art keywords
- image
- object point
- objects
- point
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Abstract
Description
例示的実施形態によっては、第1の画像及び第2の画像は、予め記録されて装置200に格納されていてもよく、あるいは装置200の外部ソースから受け取られてもよい。こうした例示的実施形態では、装置200は、DVDやコンパクトディスク(CD)、フラッシュドライブ、メモリカードのような外部記憶媒体から第1の画像及び第2の画像を受取るようにされてもよく、あるいは、インターネットやBluetooth(登録商標)のような外部の記憶場所からそれを受け取るようにされてもよい。ある例示的実施形態では、1つ又は複数のオブジェクトを含むシーンであって、そのシーンにおける少なくとも1つのオブジェクトには第1の画像と第2の画像との間に視差があるようなシーンの第1の画像及び第2の画像の受取りを進めるように、処理手段が構成されてもよい。処理手段の一例は、プロセッサ202とイメージセンサ208・210を備えてもよく、プロセッサ202はコントローラ108の一例でもよい。
Claims (44)
- 1つ又は複数のオブジェクトを含む、シーンの第1の画像及び第2の画像の受取りを進めることと;
前記第1の画像で前記1つ又は複数のオブジェクトを検出することであって、該第1の画像の1つ又は複数のオブジェクトのオブジェクト点を検出することを含む、前記検出することと;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点の検出に基づいて、前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出することであって、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を検出することは、該第2の画像におけるエピポーラ線に沿って、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を探索することを含む、前記検出することと;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点と前記第2の画像における前記1つ又は複数のオブジェクトのオブジェクト点との間の視差値を決定することであって、該第1の画像のオブジェクト点と該第2の画像のオブジェクト点との間の視差値は、少なくとも、該第1の画像のオブジェクト点の検出位置及び該第2の画像のオブジェクト点の検出位置に基づいて決定される、前記決定することと;
を含む、方法。 - 前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出することは:
前記第1の画像のオブジェクト点のエピポーラ線に沿って、該第1の画像のオブジェクト点に関する探索範囲を前記第2の画像において決定することであって、前記1つ又は複数のオブジェクトの中の第1のオブジェクトが該1つ又は複数のオブジェクトの中の第2のオブジェクトよりもサイズが大きい場合、該第1のオブジェクトのオブジェクト点に関する探索範囲は、該第2のオブジェクトのオブジェクト点に関する探索範囲よりも広い、前記決定することと;
前記オブジェクト点に関して決定された探索範囲で前記第2の画像のオブジェクト点を探索することと
を含む、請求項1に記載の方法。 - 前記第1の画像及び前記第2の画像は補正画像である、請求項1に記載の方法。
- 前記第1の画像のオブジェクト点と前記第2の画像のオブジェクト点との間の視差値は、該第1の画像のオブジェクト点の検出位置と該第2の画像のオブジェクト点の検出位置との差である、請求項1に記載の方法。
- 前記オブジェクトのオブジェクト点に関する少なくとも1つの視差値に基づいて、前記第1の画像及び前記第2の画像の何れかの画像における1つ又は複数のオブジェクトの中のオブジェクトを分割することを更に含む、請求項1から4の何れかに記載の方法。
- 前記第1の画像及び第2の画像の何れかの画像のオブジェクトを分割することは:
前記オブジェクトのオブジェクト点に対応する第1の視差値及び第2の視差値を決定することと;
前記第1の視差値と前記第2の視差値との間にある複数の視差値に対して、前記第1の画像と前記第2の画像との間のオブジェクトコスト関数を計算することと;
オブジェクトコスト関数に基づいて、前記画像における前記オブジェクトのオブジェクト点にオブジェクトラベルを割り当てることと;
前記第1の視差値と前記第2の視差値との間にある前記複数の視差値以外の1つ又は複数の視差値に対して、前記第1の画像と前記第2の画像との間の非オブジェクトコスト関数を計算することと;
前記第1の画像と前記第2の画像との間の前記非オブジェクトコスト関数に基づいて、前記画像における前記オブジェクトのオブジェクト点に非オブジェクトラベルを割り当てることと;
前記オブジェクトラベル及び前記非オブジェクトラベルに基づいて、前記画像のオブジェクトを分割することと
を含む、請求項5に記載の方法。 - 前記複数のオブジェクトコスト関数の間でオブジェクトコスト関数が最小となる視差値が、前記オブジェクトラベルとして割り当てられ、前記複数の非オブジェクトコスト関数の間で非オブジェクトコスト関数が最小となる視差値が、前記非オブジェクトラベルとして割り当てられる、請求項6に記載の方法。
- 前記複数の視差値の中の視差値に対して前記第1の画像と前記第2の画像との間のオブジェクトコスト関数を計算することは、該第1の画像及び第2の画像の何れかの画素が前記視差値分だけシフトされる場合、該第1の画像と該第2の画像との間での1つ又は複数の画像パラメータの一致度を決定することを含む、請求項6に記載の方法。
- 前記第1の画像及び前記第2の画像は立体画像対である、請求項1から8の何れかに記載の方法。
- 前記第1の画像及び第2の画像は、前記シーンの複数ビューを撮影できるカメラで撮影され、該カメラは、立体カメラ及びマルチベースラインカメラ、アレイカメラ、プレノプティックカメラを含むグループから選択される、請求項1から9の何れかに記載の方法。
- 少なくとも1つのプロセッサと;
コンピュータプログラムコードを含む少なくとも1つのメモリを備える装置であって、前記少なくとも1つのメモリ及び前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサを用いて、前記装置に少なくとも:
1つ又は複数のオブジェクトを含む、シーンの第1の画像及び第2の画像の受取りを進めることと;
前記第1の画像で前記1つ又は複数のオブジェクトを検出することであって、該第1の画像の1つ又は複数のオブジェクトのオブジェクト点を検出することを含む、前記検出することと;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点の検出に基づいて、前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出することであって、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を検出することは、該第2の画像におけるエピポーラ線に沿って、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を探索することを含む、前記検出することと;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点と前記第2の画像における前記1つ又は複数のオブジェクトのオブジェクト点との間の視差値を決定することであって、該第1の画像のオブジェクト点と該第2の画像のオブジェクト点との間の視差値は、少なくとも、該第1の画像のオブジェクト点の検出位置及び該第2の画像のオブジェクト点の検出位置に基づいて決定される、前記決定することと;
を実行させるように構成される、装置。 - 前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出するために、前記装置は更に、
前記第1の画像のオブジェクト点のエピポーラ線に沿って、該第1の画像のオブジェクト点に関する探索範囲を前記第2の画像において決定することであって、前記1つ又は複数のオブジェクトの中の第1のオブジェクトが該1つ又は複数のオブジェクトの中の第2のオブジェクトよりもサイズが大きい場合、該第1のオブジェクトのオブジェクト点に関する探索範囲は、該第2のオブジェクトのオブジェクト点に関する探索範囲よりも広い、前記決定することと;
前記オブジェクト点に関して決定された探索範囲で前記第2の画像のオブジェクト点を探索することと
を少なくとも部分的に実行させられる、請求項11に記載の装置。 - 前記第1の画像及び前記第2の画像は補正画像である、請求項11に記載の装置。
- 前記第1の画像のオブジェクト点と前記第2の画像のオブジェクト点との間の視差値は、該第1の画像のオブジェクト点の検出位置と該第2の画像のオブジェクト点の検出位置との差である、請求項11に記載の装置。
- 前記装置は更に、前記オブジェクトのオブジェクト点に関する少なくとも11つの視差値に基づいて、前記第1の画像及び前記第2の画像の何れかの画像における1つ又は複数のオブジェクトの中のオブジェクトを分割することを少なくとも部分的に実行させられる、請求項11から14の何れかに記載の装置。
- 前記第1の画像及び第2の画像の何れかの画像のオブジェクトを分割するために、前記装置は更に、
前記オブジェクトのオブジェクト点に対応する第1の視差値及び第2の視差値を決定することと;
前記第1の視差値と前記第2の視差値との間にある複数の視差値に対して、前記第1の画像と前記第2の画像との間のオブジェクトコスト関数を計算することと;
オブジェクトコスト関数に基づいて、前記画像における前記オブジェクトのオブジェクト点にオブジェクトラベルを割り当てることと;
前記第1の視差値と前記第2の視差値との間にある前記複数の視差値以外の1つ又は複数の視差値に対して、前記第1の画像と前記第2の画像との間の非オブジェクトコスト関数を計算することと;
前記第1の画像と前記第2の画像との間の前記非オブジェクトコスト関数に基づいて、前記画像における前記オブジェクトのオブジェクト点に非オブジェクトラベルを割り当てることと;
前記オブジェクトラベル及び前記非オブジェクトラベルに基づいて、前記画像のオブジェクトを分割することと
を少なくとも部分的に実行させられる、請求項15に記載の装置。 - 前記複数のオブジェクトコスト関数の間でオブジェクトコスト関数が最小となる視差値が、前記オブジェクトラベルとして割り当てられ、前記複数の非オブジェクトコスト関数の間で非オブジェクトコスト関数が最小となる視差値が、前記非オブジェクトラベルとして割り当てられる、請求項16に記載の装置。
- 前記複数の視差値の中の視差値に対して前記第1の画像と前記第2の画像との間のオブジェクトコスト関数を計算することは、該第1の画像及び第2の画像の何れかの画素が前記視差値分だけシフトされる場合、該第1の画像と該第2の画像との間での1つ又は複数の画像パラメータの一致度を決定することを含む、請求項16に記載の装置。
- 前記第1の画像及び前記第2の画像は立体画像対である、請求項11から18の何れかに記載の装置。
- 前記第1の画像及び第2の画像は、前記シーンの複数ビューを撮影できるカメラで撮影され、該カメラは、立体カメラ及びマルチベースラインカメラ、アレイカメラ、プレノプティックカメラを含むグループから選択される、請求項11から19の何れかに記載の装置。
- 電子機器として構成される請求項11に記載の装置であって:
ユーザがディスプレイを利用して前記電子機器の少なくとも1つの機能を制御することを進め、かつユーザ入力に応答するように構成される、ユーザインタフェース回路及びユーザインタフェースソフトウェアと;
前記電子機器のユーザインタフェースの少なくとも一部を表示するように構成されるディスプレイ回路であって、前記ディスプレイ及び該ディスプレイ回路は、前記ユーザが前記電子機器の機能の少なくとも一部を制御することを進めるように構成される、前記ディスプレイ回路と;
を備える、装置。 - 前記電子機器は、前記第1の画像及び前記第2の画像を取り込むように構成される少なくとも1つのイメージセンサを備える、請求項21に記載の装置。
- 前記電子機器は携帯電話を含む、請求項22に記載の装置。
- 少なくとも1つのコンピュータ可読記憶媒体を含むコンピュータプログラム製品であって、前記コンピュータ可読記憶媒体は命令セットを含み、前記命令セットは、1つ又は複数のプロセッサにより実行されると、装置に少なくとも:
1つ又は複数のオブジェクトを含む、シーンの第1の画像及び第2の画像の受取りを進めることと;
前記第1の画像で前記1つ又は複数のオブジェクトを検出することであって、該第1の画像の1つ又は複数のオブジェクトのオブジェクト点を検出することを含む、前記検出することと;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点の検出に基づいて、前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出することであって、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を検出することは、該第2の画像におけるエピポーラ線に沿って、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を探索することを含む、前記検出することと;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点と前記第2の画像における前記1つ又は複数のオブジェクトのオブジェクト点との間の視差値を決定することであって、該第1の画像のオブジェクト点と該第2の画像のオブジェクト点との間の視差値は、少なくとも、該第1の画像のオブジェクト点の検出位置及び該第2の画像のオブジェクト点の検出位置に基づいて決定される、前記決定することと;
を実行させるように構成される、コンピュータプログラム製品。 - 前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出するために、前記装置は更に、
前記第1の画像のオブジェクト点のエピポーラ線に沿って、該第1の画像のオブジェクト点に関する探索範囲を前記第2の画像において決定することであって、前記1つ又は複数のオブジェクトの中の第1のオブジェクトが該1つ又は複数のオブジェクトの中の第2のオブジェクトよりもサイズが大きい場合、該第1のオブジェクトのオブジェクト点に関する探索範囲は、該第2のオブジェクトのオブジェクト点に関する探索範囲よりも広い、前記決定することと;
前記オブジェクト点に関して決定された探索範囲で前記第2の画像のオブジェクト点を探索することと
を少なくとも部分的に実行させられる、請求項24に記載のコンピュータプログラム製品。 - 前記第1の画像及び前記第2の画像は補正画像である、請求項24に記載のコンピュータプログラム製品。
- 前記第1の画像のオブジェクト点と前記第2の画像のオブジェクト点との間の視差値は、該第1の画像のオブジェクト点の検出位置と該第2の画像のオブジェクト点の検出位置との差である、請求項24に記載のコンピュータプログラム製品。
- 前記装置は更に、前記オブジェクトのオブジェクト点に関する少なくとも1つの視差値に基づいて、前記第1の画像及び前記第2の画像の何れかの画像における1つ又は複数のオブジェクトの中のオブジェクトを分割することを少なくとも部分的に実行させられる、請求項24から27の何れかに記載のコンピュータプログラム製品。
- 前記第1の画像及び第2の画像の何れかの画像のオブジェクトを分割するために、前記装置は更に、
前記オブジェクトのオブジェクト点に対応する第1の視差値及び第2の視差値を決定することと;
前記第1の視差値と前記第2の視差値との間にある複数の視差値に対して、前記第1の画像と前記第2の画像との間のオブジェクトコスト関数を計算することと;
オブジェクトコスト関数に基づいて、前記画像における前記オブジェクトのオブジェクト点にオブジェクトラベルを割り当てることと;
前記第1の視差値と前記第2の視差値との間にある前記複数の視差値以外の1つ又は複数の視差値に対して、前記第1の画像と前記第2の画像との間の非オブジェクトコスト関数を計算することと;
前記第1の画像と前記第2の画像との間の前記非オブジェクトコスト関数に基づいて、前記画像における前記オブジェクトのオブジェクト点に非オブジェクトラベルを割り当てることと;
前記オブジェクトラベル及び前記非オブジェクトラベルに基づいて、前記画像のオブジェクトを分割することと
を少なくとも部分的に実行させられる、請求項28に記載のコンピュータプログラム製品。 - 前記複数のオブジェクトコスト関数の間でオブジェクトコスト関数が最小となる視差値が、前記オブジェクトラベルとして割り当てられ、前記複数の非オブジェクトコスト関数の間で非オブジェクトコスト関数が最小となる視差値が、前記非オブジェクトラベルとして割り当てられる、請求項29に記載のコンピュータプログラム製品。
- 前記複数の視差値の中の視差値に対して前記第1の画像と前記第2の画像との間のオブジェクトコスト関数を計算することは、該第1の画像及び第2の画像の何れかの画素が前記視差値分だけシフトされる場合、該第1の画像と該第2の画像との間での1つ又は複数の画像パラメータの一致度を決定することを含む、請求項30に記載のコンピュータプログラム製品。
- 前記第1の画像及び前記第2の画像は立体画像対である、請求項24から31の何れかに記載のコンピュータプログラム製品。
- 前記第1の画像及び第2の画像は、前記シーンの複数ビューを撮影できるカメラで撮影され、該カメラは、立体カメラ及びマルチベースラインカメラ、アレイカメラ、プレノプティックカメラを含むグループから選択される、請求項24から32の何れかに記載のコンピュータプログラム製品。
- 1つ又は複数のオブジェクトを含む、シーンの第1の画像及び第2の画像の受取りを進める手段と;
前記第1の画像で前記1つ又は複数のオブジェクトを検出する手段であって、該第1の画像の1つ又は複数のオブジェクトのオブジェクト点を検出することを含む、前記検出する手段と;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点の検出に基づいて、前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出する手段であって、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を検出することは、該第2の画像におけるエピポーラ線に沿って、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を探索することを含む、前記検出する手段と;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点と前記第2の画像における前記1つ又は複数のオブジェクトのオブジェクト点との間の視差値を決定する手段であって、該第1の画像のオブジェクト点と該第2の画像のオブジェクト点との間の視差値は、少なくとも、該第1の画像のオブジェクト点の検出位置及び該第2の画像のオブジェクト点の検出位置に基づいて決定される、前記決定する手段と;
を備える、装置。 - 前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出する手段は:
前記第1の画像のオブジェクト点のエピポーラ線に沿って、該第1の画像のオブジェクト点に関する探索範囲を前記第2の画像において決定する手段であって、前記1つ又は複数のオブジェクトの中の第1のオブジェクトが該1つ又は複数のオブジェクトの中の第2のオブジェクトよりもサイズが大きい場合、該第1のオブジェクトのオブジェクト点に関する探索範囲は、該第2のオブジェクトのオブジェクト点に関する探索範囲よりも広い、前記決定する手段と;
前記オブジェクト点に関して決定された探索範囲で前記第2の画像のオブジェクト点を探索する手段と
を備える、請求項34に記載の装置。 - 前記第1の画像及び前記第2の画像は補正画像である、請求項34に記載の装置。
- 前記第1の画像のオブジェクト点と前記第2の画像のオブジェクト点との間の視差値は、該第1の画像のオブジェクト点の検出位置と該第2の画像のオブジェクト点の検出位置との差である、請求項34に記載の装置。
- 前記オブジェクトのオブジェクト点に関する少なくとも1つの視差値に基づいて、前記第1の画像及び前記第2の画像の何れかの画像における1つ又は複数のオブジェクトの中のオブジェクトを分割する普段を更に備える、請求項34から37の何れかに記載の装置。
- 前記第1の画像及び第2の画像の何れかの画像のオブジェクトを分割する手段は:
前記オブジェクトのオブジェクト点に対応する第1の視差値及び第2の視差値を決定する手段と;
前記第1の視差値と前記第2の視差値との間にある複数の視差値に対して、前記第1の画像と前記第2の画像との間のオブジェクトコスト関数を計算する手段と;
オブジェクトコスト関数に基づいて、前記画像における前記オブジェクトのオブジェクト点にオブジェクトラベルを割り当てる手段と;
前記第1の視差値と前記第2の視差値との間にある前記複数の視差値以外の1つ又は複数の視差値に対して、前記第1の画像と前記第2の画像との間の非オブジェクトコスト関数を計算する手段と;
前記第1の画像と前記第2の画像との間の前記非オブジェクトコスト関数に基づいて、前記画像における前記オブジェクトのオブジェクト点に非オブジェクトラベルを割り当てる手段と;
前記オブジェクトラベル及び前記非オブジェクトラベルに基づいて、前記画像のオブジェクトを分割する手段と
を備える、請求項38に記載の装置。 - 前記複数のオブジェクトコスト関数の間でオブジェクトコスト関数が最小となる視差値が、前記オブジェクトラベルとして割り当てられ、前記複数の非オブジェクトコスト関数の間で非オブジェクトコスト関数が最小となる視差値が、前記非オブジェクトラベルとして割り当てられる、請求項39に記載の装置。
- 前記複数の視差値の中の視差値に対して前記第1の画像と前記第2の画像との間のオブジェクトコスト関数を計算することは、該第1の画像及び第2の画像の何れかの画素が前記視差値分だけシフトされる場合、該第1の画像と該第2の画像との間での1つ又は複数の画像パラメータの一致度を決定することを含む、請求項39に記載の装置。
- 前記第1の画像及び前記第2の画像は立体画像対である、請求項34から41の何れかに記載の装置。
- 前記第1の画像及び第2の画像は、前記シーンの複数ビューを撮影できるカメラで撮影され、該カメラは、立体カメラ及びマルチベースラインカメラ、アレイカメラ、プレノプティックカメラを含むグループから選択される、請求項34から42の何れかに記載の装置。
- コンピュータ命令を含むコンピュータプログラムであって、前記コンピュータ命令は、装置により実行されると該装置に:
1つ又は複数のオブジェクトを含む、シーンの第1の画像及び第2の画像の受取りを進めることと;
前記第1の画像で前記1つ又は複数のオブジェクトを検出することであって、該第1の画像の1つ又は複数のオブジェクトのオブジェクト点を検出することを含む、前記検出することと;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点の検出に基づいて、前記第2の画像で前記1つ又は複数のオブジェクトのオブジェクト点を検出することであって、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を検出することは、該第2の画像におけるエピポーラ線に沿って、該第1の画像のオブジェクト点に対応する該第2の画像のオブジェクト点を探索することを含む、前記検出することと;
前記第1の画像における前記1つ又は複数のオブジェクトのオブジェクト点と前記第2の画像における前記1つ又は複数のオブジェクトのオブジェクト点との間の視差値を決定することであって、該第1の画像のオブジェクト点と該第2の画像のオブジェクト点との間の視差値は、少なくとも、該第1の画像のオブジェクト点の検出位置及び該第2の画像のオブジェクト点の検出位置に基づいて決定される、前記決定することと;
を実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN3658CH2013 | 2013-08-19 | ||
IN3658/CHE/2013 | 2013-08-19 | ||
PCT/FI2014/050541 WO2015025073A1 (en) | 2013-08-19 | 2014-07-01 | Method, apparatus and computer program product for object detection and segmentation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016535353A true JP2016535353A (ja) | 2016-11-10 |
JP6154075B2 JP6154075B2 (ja) | 2017-06-28 |
Family
ID=52483111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016535510A Active JP6154075B2 (ja) | 2013-08-19 | 2014-07-01 | オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9443130B2 (ja) |
EP (1) | EP3036901B1 (ja) |
JP (1) | JP6154075B2 (ja) |
KR (1) | KR101784639B1 (ja) |
CN (1) | CN105531998B (ja) |
WO (1) | WO2015025073A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10068147B2 (en) * | 2015-04-30 | 2018-09-04 | Samsung Electronics Co., Ltd. | System and method for insertion of photograph taker into a photograph |
US10855971B2 (en) * | 2015-09-16 | 2020-12-01 | HashD, Inc. | Systems and methods of creating a three-dimensional virtual image |
CN106921856B (zh) * | 2015-12-25 | 2019-07-12 | 北京三星通信技术研究有限公司 | 立体图像的处理方法、检测分割方法及相关装置和设备 |
US10136116B2 (en) * | 2016-03-07 | 2018-11-20 | Ricoh Company, Ltd. | Object segmentation from light field data |
JP6702796B2 (ja) * | 2016-05-16 | 2020-06-03 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法および画像処理プログラム |
EP3252491A1 (en) * | 2016-06-02 | 2017-12-06 | Nokia Technologies Oy | An apparatus and associated methods |
KR102462063B1 (ko) * | 2016-12-09 | 2022-11-03 | 한국전자통신연구원 | 플렌옵틱 재초점을 이용한 자동 객체 분리 방법 및 장치 |
US11272163B2 (en) * | 2017-02-07 | 2022-03-08 | Sony Corporation | Image processing apparatus and image processing method |
WO2018211127A1 (en) * | 2017-05-19 | 2018-11-22 | Movidius Ltd. | Methods, systems and apparatus to optimize pipeline execution |
US10127825B1 (en) * | 2017-06-13 | 2018-11-13 | Fuvi Cognitive Network Corp. | Apparatus, method, and system of insight-based cognitive assistant for enhancing user's expertise in learning, review, rehearsal, and memorization |
WO2019027060A1 (ko) * | 2017-07-31 | 2019-02-07 | 주식회사 렛시 | 가상 객체 증강 장치 및 방법 |
WO2019071403A1 (zh) * | 2017-10-09 | 2019-04-18 | 深圳市柔宇科技有限公司 | 一种图像处理方法及装置 |
KR102049396B1 (ko) * | 2018-04-09 | 2019-11-27 | 곽준혁 | 스테레오 카메라를 이용한 후방 어라운드뷰 생성 방법 |
US10679362B1 (en) | 2018-05-14 | 2020-06-09 | Vulcan Inc. | Multi-camera homogeneous object trajectory alignment |
US10600192B1 (en) * | 2018-05-14 | 2020-03-24 | Vulcan Inc. | Multi-camera homogeneous object alignment |
CN108986110A (zh) * | 2018-07-02 | 2018-12-11 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置、移动终端及存储介质 |
KR102365735B1 (ko) * | 2018-11-06 | 2022-02-22 | 한국전자통신연구원 | 플렌옵틱 영상 처리 장치, 그것을 포함하는 플렌옵틱 영상 처리 시스템 및 그것의 객체 분할 방법 |
CN112262411B (zh) * | 2019-12-23 | 2024-04-05 | 商汤国际私人有限公司 | 图像关联方法、系统和装置 |
SG10201913017TA (en) * | 2019-12-23 | 2020-07-29 | Sensetime Int Pte Ltd | Image association method, system and apparatus |
JP2022546880A (ja) | 2020-08-01 | 2022-11-10 | センスタイム インターナショナル プライベート リミテッド | オブジェクト関連付け方法及び装置、システム、電子機器、記憶媒体及びコンピュータプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008261756A (ja) * | 2007-04-12 | 2008-10-30 | National Institute Of Information & Communication Technology | ステレオ画像対から3次元の頭部姿勢をリアルタイムで推定するための装置及びプログラム |
US20100259597A1 (en) * | 2009-04-14 | 2010-10-14 | Electronics And Telecommunications Research Institute | Face detection apparatus and distance measurement method using the same |
JP2013105392A (ja) * | 2011-11-15 | 2013-05-30 | Kanazawa Univ | 運転支援システム、運転支援方法、及び、プログラム |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6862364B1 (en) * | 1999-10-27 | 2005-03-01 | Canon Kabushiki Kaisha | Stereo image processing for radiography |
US6671399B1 (en) * | 1999-10-27 | 2003-12-30 | Canon Kabushiki Kaisha | Fast epipolar line adjustment of stereo pairs |
US6754389B1 (en) * | 1999-12-01 | 2004-06-22 | Koninklijke Philips Electronics N.V. | Program classification using object tracking |
US7085409B2 (en) * | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
JP2004518473A (ja) * | 2001-01-30 | 2004-06-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 変形する3d物体の画像シーケンスを該物体の壁の動きの指示を伴って表示する画像処理方法 |
WO2003017680A1 (en) * | 2001-08-15 | 2003-02-27 | Koninklijke Philips Electronics N.V. | 3d video conferencing system |
GB0125774D0 (en) * | 2001-10-26 | 2001-12-19 | Cableform Ltd | Method and apparatus for image matching |
US6847728B2 (en) * | 2002-12-09 | 2005-01-25 | Sarnoff Corporation | Dynamic depth recovery from multiple synchronized video streams |
KR100729280B1 (ko) | 2005-01-08 | 2007-06-15 | 아이리텍 잉크 | 스테레오 카메라를 장착한 이동단말기를 이용한 홍채인식시스템 및 그 방법 |
US7720282B2 (en) * | 2005-08-02 | 2010-05-18 | Microsoft Corporation | Stereo image segmentation |
US7471292B2 (en) * | 2005-11-15 | 2008-12-30 | Sharp Laboratories Of America, Inc. | Virtual view specification and synthesis in free viewpoint |
US7567271B2 (en) * | 2006-01-09 | 2009-07-28 | Sony Corporation | Shared color sensors for high-resolution 3-D camera |
EP1806697B1 (en) * | 2006-01-10 | 2016-08-10 | Microsoft Technology Licensing, LLC | Segmenting image elements |
EP2042079B1 (en) * | 2006-07-14 | 2010-10-20 | Panasonic Corporation | Visual axis direction detection device and visual line direction detection method |
KR20090055803A (ko) * | 2007-11-29 | 2009-06-03 | 광주과학기술원 | 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법 |
WO2013116694A1 (en) * | 2012-02-03 | 2013-08-08 | The Trustees Of Dartmouth College | Method and apparatus for determining tumor shift during surgery using a stereo-optical three-dimensional surface-mapping system |
TW201005673A (en) * | 2008-07-18 | 2010-02-01 | Ind Tech Res Inst | Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system |
KR20100072772A (ko) | 2008-12-22 | 2010-07-01 | 한국전자통신연구원 | 스테레오 비전을 이용한 실시간 얼굴 검출 시스템 및 그 방법 |
US20120242803A1 (en) * | 2010-01-13 | 2012-09-27 | Kenjiro Tsuda | Stereo image capturing device, stereo image capturing method, stereo image display device, and program |
JP5615088B2 (ja) * | 2010-08-18 | 2014-10-29 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム、並びに撮像装置 |
US8861836B2 (en) * | 2011-01-14 | 2014-10-14 | Sony Corporation | Methods and systems for 2D to 3D conversion from a portrait image |
US8610712B2 (en) * | 2011-03-01 | 2013-12-17 | Adobe Systems Incorporated | Object selection in stereo image pairs |
JP5743142B2 (ja) * | 2011-03-29 | 2015-07-01 | ソニー株式会社 | 画像理装置および方法、並びにプログラム |
US8810640B2 (en) * | 2011-05-16 | 2014-08-19 | Ut-Battelle, Llc | Intrinsic feature-based pose measurement for imaging motion compensation |
US9002099B2 (en) * | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
US8605993B2 (en) * | 2011-11-21 | 2013-12-10 | Robo-team Ltd. | Methods and systems of merging depth data from a plurality of disparity maps |
-
2014
- 2014-07-01 JP JP2016535510A patent/JP6154075B2/ja active Active
- 2014-07-01 WO PCT/FI2014/050541 patent/WO2015025073A1/en active Application Filing
- 2014-07-01 CN CN201480045887.4A patent/CN105531998B/zh active Active
- 2014-07-01 EP EP14838227.8A patent/EP3036901B1/en active Active
- 2014-07-01 KR KR1020167007059A patent/KR101784639B1/ko active IP Right Grant
- 2014-07-17 US US14/333,857 patent/US9443130B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008261756A (ja) * | 2007-04-12 | 2008-10-30 | National Institute Of Information & Communication Technology | ステレオ画像対から3次元の頭部姿勢をリアルタイムで推定するための装置及びプログラム |
US20100259597A1 (en) * | 2009-04-14 | 2010-10-14 | Electronics And Telecommunications Research Institute | Face detection apparatus and distance measurement method using the same |
JP2013105392A (ja) * | 2011-11-15 | 2013-05-30 | Kanazawa Univ | 運転支援システム、運転支援方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN105531998B (zh) | 2017-07-07 |
US20150078669A1 (en) | 2015-03-19 |
US9443130B2 (en) | 2016-09-13 |
EP3036901A1 (en) | 2016-06-29 |
CN105531998A (zh) | 2016-04-27 |
KR101784639B1 (ko) | 2017-10-11 |
JP6154075B2 (ja) | 2017-06-28 |
EP3036901A4 (en) | 2017-04-12 |
EP3036901B1 (en) | 2019-01-30 |
WO2015025073A1 (en) | 2015-02-26 |
KR20160045098A (ko) | 2016-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6154075B2 (ja) | オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品 | |
JP5996013B2 (ja) | 立体画像の視差マップ推定のための方法,装置及びコンピュータプログラム製品 | |
US11756223B2 (en) | Depth-aware photo editing | |
KR102644273B1 (ko) | 상이한 fov를 갖는 카메라들을 이용한 시차 추정 시스템 및 방법 | |
US9542750B2 (en) | Method, apparatus and computer program product for depth estimation of stereo images | |
EP2874395A2 (en) | Method, apparatus and computer program product for disparity estimation | |
US10620826B2 (en) | Object selection based on region of interest fusion | |
CN107771391B (zh) | 用于确定图像帧的曝光时间的方法和装置 | |
CN111027438B (zh) | 一种人体姿态的迁移方法、移动终端以及计算机存储介质 | |
KR101620933B1 (ko) | 제스쳐 인식 메커니즘을 제공하는 방법 및 장치 | |
CN116324878A (zh) | 针对图像效果的分割 | |
CN108234879B (zh) | 一种获取滑动变焦视频的方法和装置 | |
CN105701762B (zh) | 一种图片处理方法和电子设备 | |
CN108776822B (zh) | 目标区域检测方法、装置、终端及存储介质 | |
EP3234908A1 (en) | Method, apparatus and computer program product for blur estimation | |
CN115205925A (zh) | 表情系数确定方法、装置、电子设备及存储介质 | |
US9489741B2 (en) | Method, apparatus and computer program product for disparity estimation of foreground objects in images | |
CN110177216B (zh) | 图像处理方法、装置、移动终端以及存储介质 | |
US20130107008A1 (en) | Method, apparatus and computer program product for capturing images | |
JP2016167258A (ja) | デコンボリューション画像において色収差を減じる方法、装置及びコンピュータプログラム製品 | |
GB2519112A (en) | Method, apparatus and computer program product for blending multimedia content | |
US9058674B1 (en) | Enhancing resolution of single images | |
CN112232143B (zh) | 一种人脸点云优化方法、装置、机器可读介质及设备 | |
US20170053413A1 (en) | Method, apparatus, and computer program product for personalized stereoscopic content capture with single camera end user devices | |
CN117274097A (zh) | 图像处理方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6154075 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |