JP2013038454A - 画像処理装置および方法、並びにプログラム - Google Patents
画像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2013038454A JP2013038454A JP2011170270A JP2011170270A JP2013038454A JP 2013038454 A JP2013038454 A JP 2013038454A JP 2011170270 A JP2011170270 A JP 2011170270A JP 2011170270 A JP2011170270 A JP 2011170270A JP 2013038454 A JP2013038454 A JP 2013038454A
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- unit
- eye image
- comparison
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Image Analysis (AREA)
Abstract
【課題】2台のカメラモジュールのそれぞれを右眼用画像および左眼用画像を撮像するカメラモジュールとして対応付けできるようにする。
【解決手段】ユーザ指示実行部35は、表示部13にユーザから見て左側のカメラモジュール21−1に手をかざすことを促す画像を表示させる。輝度分布解析部32は、2台のカメラモジュール21−1,21−2により撮像された、画像取得部31−1,31−2により取得される第1の画像、および第2の画像のそれぞれの輝度平均値の差分絶対値を所定の閾値と比較する。画像切替部33は、比較結果に基づいて、差分絶対値が所定の閾値よりも大きい場合、第1の画像の方が輝度平均値が小さいとき、第1の画像を右眼用画像として右眼用画像出力端子33bより出力し、第2の画像を左眼用画像として左眼用画像出力端子33aより出力する。本技術は、ステレオカメラに適用することができる。
【選択図】図1
【解決手段】ユーザ指示実行部35は、表示部13にユーザから見て左側のカメラモジュール21−1に手をかざすことを促す画像を表示させる。輝度分布解析部32は、2台のカメラモジュール21−1,21−2により撮像された、画像取得部31−1,31−2により取得される第1の画像、および第2の画像のそれぞれの輝度平均値の差分絶対値を所定の閾値と比較する。画像切替部33は、比較結果に基づいて、差分絶対値が所定の閾値よりも大きい場合、第1の画像の方が輝度平均値が小さいとき、第1の画像を右眼用画像として右眼用画像出力端子33bより出力し、第2の画像を左眼用画像として左眼用画像出力端子33aより出力する。本技術は、ステレオカメラに適用することができる。
【選択図】図1
Description
本技術は、画像処理装置および方法、並びにプログラムに関し、特に、2台のカメラモジュールを1のステレオカメラとして使用する場合における、2台のカメラモジュールのそれぞれを右眼用画像および左眼用画像を撮像するカメラモジュールとして対応付けできるようにした画像処理装置および方法、並びにプログラムに関する。
近年、3D(3次元立体視)テレビジョンが実用化され、立体視を実現させるためのステレオ画像(左右カメラ間の視差を有する画像)を撮像する撮像装置(ステレオカメラ)が実用化されている。
こうした状況下において、安価で汎用的なカメラモジュールを用いて、ステレオカメラを実現させることが求められている。
ステレオカメラによるステレオ撮像を実現するには、少なくとも左右のカメラモジュールがそれぞれ左眼用画像、および右眼用画像のいずれを撮像しているかを識別するといった調整が必要である。このようなステレオカメラによるステレオ撮像に際して必要とされる調整技術が提案されている(特許文献1参照)。
しかしながら、特許文献1に記述されているような調整技術を実現するには大掛かりな構成の装置が必要であり、安価で汎用的なカメラモジュールを用いてステレオカメラを実現させるには、コスト高となる。そこで、安価で汎用的なカメラモジュールによるステレオカメラを実現させるためには、より簡易な手法で左右の画像を特定できる技術が求められることになる。
既存技術を用いて簡易にステレオカメラを実現するには、2台のカメラモジュールを統合し、1つにモジュール化したステレオカメラが一般的に用いられている。こうした構成の場合、当然ながら2個のそれぞれのカメラを独立して使用することはできない。すなわち、ステレオ画像を撮像する場合においては、対象物までの距離や、求められる視差量に応じて、ベースラインを変更することが効果的であるが、1つにモジュール化した構成の場合、カメラ間の間隔(ベースライン)を自由に変更することは必ずしも実現できない構成であることもある。もちろん、ベースラインを変更可能な形で1つのモジュールへとまとめる構成もあるが、これは構成が複雑となるため、コストの増大を招いてしまう。
そこで、2台のカメラモジュールを固定可能な治具を用い、汎用の2台のカメラを固定し、ステレオ画像を撮像する手法が考えられる。このとき、カメラモジュールを機器に接続する際、2台のカメラモジュールそれぞれのどちらがステレオカメラにおける左眼画像用の左カメラ、および右眼画像用の右カメラに対応するかを対応付ける必要がある。
本技術はこのような状況に鑑みてなされたものであり、特に、2台のカメラモジュールを統合し、1つにモジュール化した簡易なステレオカメラを構成するような場合、ステレオカメラにおける2台のカメラモジュールにより撮像された画像が、それぞれ左眼用画像、または右眼用画像のいずれに対応するかを容易に対応付けられるようにするものである。
本技術の一側面の画像処理装置は、3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部と、前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部と、前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部と、前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部とを含む。
前記撮像部のうち、前記左眼用画像、または前記右眼用画像を撮像する方を手でかざすように促す提示部をさらに含ませるようにすることができ、前記比較部には、前記撮像部により撮像された前記第1の画像、および前記第2の画像のそれぞれの輝度、または彩度を比較させ、前記判定部には、前記第1の画像、および前記第2の画像のうち、前記比較部の比較結果が、前記輝度、または前記彩度が低い方を、前記提示部により手をかざすように促した左眼用画像、または右眼用画像であると判定させるようにすることができる。
前記比較部には、前記第1の画像における所定の位置における所定のサイズのブロックを抽出し、抽出したブロックを、前記第2の画像上でテンプレートマッチングし、一致するブロックの前記第2の画像上の位置と、前記所定のブロックの前記第1の画像上の位置とを比較させ、前記判定部には、一致するブロックの前記第2の画像上の位置と、前記所定のブロックの前記第1の画像上の位置との左右の関係から、前記第1の画像、および前記第2の画像を、左眼用画像、または右眼用画像であると判定させるようにすることができる。
本技術の一側面の画像処理方法は、3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部における、前記3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像ステップと、前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部における、前記撮像ステップの処理により撮像された前記第1の画像、および前記第2の画像とを比較する比較ステップと、前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部における、前記比較ステップの処理での比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定ステップと、前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部における、前記判定ステップの処理での判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力ステップとを含む。
本技術の一側面のプログラムは、3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部と、前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部と、前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部と、前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部とを含む画像処理装置を制御するコンピュータに、前記撮像部における、前記3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像ステップと、前記比較部における、前記撮像ステップの処理により撮像された前記第1の画像、および前記第2の画像とを比較する比較ステップと、前記判定部における、前記比較ステップの処理での比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定ステップと、前記出力部における、前記判定ステップの処理での判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力ステップとを含む処理を実行させる。
本技術の一側面においては、3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像がそれぞれ撮像され、撮像された前記第1の画像、および前記第2の画像とが比較され、比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかが判定され、判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像として出力される。
本技術の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
本技術の一側面によれば、2個のカメラモジュールよりステレオ画像を撮像するステレオカメラを構成する際に、それぞれのカメラモジュールにより撮像される画像を、左眼用画像、および右眼用画像に対応付けることが可能となる。
以下、発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1. 第1の実施の形態(輝度差により左眼用画像と右眼用画像とを判定する場合の一例)
2. 第2の実施の形態(ずれにより左眼用画像と右眼用画像とを判定する場合の一例)
1. 第1の実施の形態(輝度差により左眼用画像と右眼用画像とを判定する場合の一例)
2. 第2の実施の形態(ずれにより左眼用画像と右眼用画像とを判定する場合の一例)
<1.第1の実施の形態>
[画像処理部の構成例]
図1は、本技術を適用した画像処理部の第1の実施の形態の構成例を示している。図1の画像処理部12は、カメラモジュール21−1,21−2が固定治具11により固定されることで、1つのモジュール化されたステレオカメラとして機能するとき、撮像される2枚の画像をそれぞれ左眼用画像および右眼用画像として対応付けて出力する。
[画像処理部の構成例]
図1は、本技術を適用した画像処理部の第1の実施の形態の構成例を示している。図1の画像処理部12は、カメラモジュール21−1,21−2が固定治具11により固定されることで、1つのモジュール化されたステレオカメラとして機能するとき、撮像される2枚の画像をそれぞれ左眼用画像および右眼用画像として対応付けて出力する。
より詳細には、カメラモジュール21−1,21−2は、固定治具11により水平方向に離れた状態で固定されている。そして、カメラモジュール21−1,21−2は、固定治具11に対して着脱可能な構成となっており、対象物までの距離や求められる視差などは変更することができない構成となっている。ただし、カメラモジュール21−1,21−2は、固定治具11に対して、対象物までの距離や求められる視差などを変更できる構成としてもよく、この場合、それらを固定して使用するものとする。さらに、カメラモジュール21−1,21−2は、例えば、水平方向640画素×垂直方向480画素のサイズの画像を撮像して、それぞれ無線、または有線からなる通信経路22−1,22−2を介して画像処理部12に出力する。通信経路22−1,22−2は、例えば、USB(Universal Serial Bus)に代表されるような汎用シリアルバス等のケーブルによる有線からなる通信経路でもよいし、IEEE(Institute of Electrical and Electronic Engineers)802.11に代表されるような無線LAN(Local Area Network)などの無線からなる通信経路でもよい。尚、カメラモジュール21−1,21−2、および通信経路22−1,22−2は、それぞれ特に区別する必要が無い場合、単に、カメラモジュール21、および通信経路22と称するものとし、その他の構成についても同様に称するものとする。また、カメラモジュール21により撮像される画像のサイズについては、水平方向640画素×垂直方向480画素以外のサイズでもよいことはいうまでもない。
画像処理部12は、通信経路22−1,22−2を介して入力された、2枚の画像を、それぞれ左眼用画像、および右眼用画像として対応付けて出力する。
表示部13は、画像処理部12により制御され、指示メッセージをユーザに対して提示する。表示部13としては、LCD(Liquid Crystal Display)のような表示装置に限らず、後述するように手をかざすように促すタイミングが示せればよいので、例えば、単純に点灯または消灯による2通りの表現のみが可能な、信号装置等を用いてもよい。
画像処理部12は、より詳細には、画像取得部31−1,31−2、輝度分布解析部32、画像切替部33、操作部34、およびユーザ指示実行部35を備えている。画像取得部31−1,31−2は、それぞれ通信経路22−1,22−2を介してカメラモジュール21−1,21−2により撮像された画像を取得し、輝度分布解析部32、および画像切替部33に供給する。
輝度分布解析部32は、画像取得部31−1,31−2よりそれぞれ供給されてくる画像の輝度分布を解析し、ユーザによる動作の有無を検出すると共に、それぞれの画像により得られる輝度分布である輝度平均値を検出結果として画像切替部33に供給する。
画像切替部33は、輝度分布解析部32より供給されてくる画像取得部31−1,31−2より供給されてくる2枚の画像について、輝度分布解析部32より供給されてくる検出結果に基づいて、それぞれを左眼用画像および右眼用画像のいずれか判定する。より詳細には、画像切替部33は、左右判定部41を備えており、左右判定部41は、それぞれの輝度平均値に基づいて、ユーザによる動作があったとみなされた画像と、動作のない画像とに基づいて、それぞれを左眼用画像および右眼用画像のいずれか判定する。そして、画像切替部33は、判定した左眼用画像および右眼用画像を、それぞれ左眼用画像出力端子33aおよび右眼用画像出力端子33bより出力する。尚、画像切替部33は、入力された2枚の画像に対して、左眼用画像であるか右眼用画像であるかを対応付て出力できればよいので、画像信号を伝送するデジタル信号そのものをセレクタ回路等により電気的に切り替えて出力するようにしてもよい。また、画像切替部33は、マイクロプロセッサやDSP(Digital Signal Processor)により参照するフレームメモリの番地をソフトウェア的に切り替えるようにして左眼用画像および右眼用画像をそれぞれ出力するようにしてもよい。
操作部34は、操作ボタンなどからなり、図2を参照して説明する左右画像認識処理の開始を指示するとき操作され、操作に応じた操作信号を発生して、輝度分布解析部32、およびユーザ指示実行部35に供給する。
ユーザ指示実行部35は、操作部34からの操作信号に基づいて、ユーザに対して、左眼用画像を撮像するカメラモジュール21−1、または右眼用画像を撮像するカメラモジュール21−2のいずれかをかざすようなアクションを求めるメッセージを表示部13に表示させる。
[左右画像認識処理]
次に、図2のフローチャートを参照して、図1の画像処理部12による左右画像認識処理について説明する。
次に、図2のフローチャートを参照して、図1の画像処理部12による左右画像認識処理について説明する。
ステップS1において、操作部34は、ユーザにより左右画像認識処理を開始する操作がなされたか否かを判定し、操作がなされたと判定されるまで、同様の処理を繰り返す。そして、ステップS1において、ユーザにより左右画像認識処理の開始を指示するため、操作部34が操作されると、左右画像認識処理の開始を指示する信号を輝度分布解析部32、およびユーザ指示実行部35に供給する。
ステップS2において、ユーザ指示実行部35は、例えば、図3の右上部で示されるような「あなたから見て左側のカメラに手をかざしてください」といったユーザ指示メッセージを表示部13に表示させ、ユーザHに対して提示する。
ステップS3において、画像取得部31−1,31−2は、それぞれ通信経路22−1,22−2を介してカメラモジュール21−1,21−2により撮像された、新たなフレームの画像を取得し、それぞれ輝度分布解析部32および画像切替部33に供給する。
ステップS4において、輝度分布解析部32は、画像取得部31−1,31−2より供給されてくる画像における画素単位の輝度値の平均値である輝度平均値I1(t),I2(t)をそれぞれ輝度分布の解析結果として求める。
ステップS5において、輝度分布解析部32は、輝度平均値I1(t),I2(t)に基づいて、ユーザによるアクション、すなわち、カメラに手がかざされたか否かを判定する。より詳細には、輝度分布解析部32は、輝度平均値の差分絶対値|Idif(t)|(=|I1(t)−I2(t)|)を求めて所定の閾値よりも高いか否かに基づいて、ユーザによるアクション、すなわち、カメラに手がかざされたか否かを判定する。すなわち、例えば、図3の左部で示されるように、ユーザHが点線で示される自らの手LHを、自ら見て左側に存在するカメラモジュール21−1にかざしていない状態であったとすると、輝度値平均I1(t),I2(t)は、いずれもほぼ等しい状態となる。したがって、輝度平均値の差分絶対値|Idif(t)|はほぼゼロとなるため、ステップS5において、このようにアクションがない、すなわち、カメラモジュール21−1,21−2のいずれに対しても手がかざされていない場合、アクションが無いものとみなされて、処理は、ステップS3に戻る。すなわち、ステップS5において、アクションがあるとみなされるまで、ステップS3乃至S5の処理が繰り返される。
そして、ステップS5において、例えば、図3の左部における、ユーザHが実線で示される手LH’で示されるように、自ら見て左側に存在するカメラモジュール21−1の撮像方向がかざされると、カメラモジュール21−1により撮像される画像は全体として暗い画像となる。したがって、このような場合、図3の右下部で示されるように、カメラモジュール21−1により撮像された画像の平均輝度値I1(t)は、カメラモジュール21−2により撮像された画像の平均輝度値I2(t)よりも低くなる。図3の右下部では、縦軸に輝度平均値が示され、横軸に時刻が示された時系列の輝度平均値の波形が示されており、時刻t1乃至t2におけるタイミングで、図3の左部で示されるように、カメラモジュール21−1が手LH’によりかざされていることが示されている。したがって、時刻t2以降においては、輝度平均値の差分絶対値|Idif(t)|(=|I1(t)−I2(t)|)は、所定の閾値よりも高い値となるので、ステップS5において、アクションがあった、すなわち、カメラモジュール21−1に手がかざされたことが認識され、処理は、ステップS6に進む。
ステップS6において、輝度分布解析部32は、平均輝度値I1(t),I2(t)を、それぞれの画像を識別する情報として画像切替部33に供給する。画像切替部33は、左右判定部41を制御して、画像取得部31−1,31−2よりそれぞれ供給されてくる画像を、左眼用画像および右眼用画像のいずれかに判定させる。より詳細には、左右判定部41は、平均輝度値が低い画像の識別信号を、カメラモジュール21−1により撮像されている右眼用画像と判定する。すなわち、ユーザから見て左側に見えるカメラモジュール21−1は、カメラモジュール21−1,21−2からなるステレオカメラモジュールにおける、右側に対応する視野の右眼用画像を撮像することになる。同様に、ユーザから見て右側に見える、カメラモジュール21−2は、輝度平均値が高い、ステレオカメラモジュールにおける、左側に対応する視野の左眼用画像を撮像することになる。
ステップS7において、画像切替部33は、左右判定部41の判定結果に基づいて、画像取得部31−1,31−2よりそれぞれ供給されてくる画像のうち、左眼用画像とみなされた画像を左眼用画像出力端子33aより出力し、右眼用画像とみなされた画像を右眼用画像出力端子33bより出力する。
すなわち、図3の場合、カメラモジュール21−1により撮像された、画像取得部31−1からの画像の平均輝度値I1(t)の方が、カメラモジュール21−2により撮像された、画像取得部31−1からの画像の平均輝度値I2(t)よりも小さい。このため、画像取得部31−1より供給されてくる画像が、右眼用画像として右眼用画像出力端子33bより出力され、画像取得部31−2より供給されてくる画像が、左眼用画像として左眼用画像出力端子33aより出力される。
以上の処理により、カメラモジュール21−1,21−2により撮像される画像を、それぞれ左眼用画像、および右眼用画像のいずれかに識別することが可能となる。尚、以上においては、ユーザから見て左側のカメラモジュール21−1を手でかざすようにユーザ指示する例について説明してきたが、当然の如く、ユーザから見て右側のカメラモジュール21−2を手でかざすようにユーザ指示するようにしてもよく、この場合、左右の認識、すなわち、平均輝度値I1(t),I2(t)の大小関係は反転することになる。また、以上においては、平均輝度値の差分絶対値が所定の閾値よりも大きいときにユーザによりアクションがあったものとみなし、そのときの平均輝度値の大小関係から左右を認識するようにしてきたが、例えば、手がかざされたカメラモジュール21により撮像される画像内に手の画像が認識できたとき、アクションがあったものとみなし、手の画像が撮像されたカメラモジュール21により左右を認識するようにしてもよい。このような場合、学習による手の画像の画像認識技術が必要となる。このような画像認識技術については、例えば、「SVMと逐次学習を併用したHOG特徴による手形状認識手法」,電子情報通信学会, IEICE technical report 109(471), 459-464, 2010-03-15を参照されたい。また、以上においては、2枚の画像の平均輝度値を用いた例について説明してきたが、手がかざされたことが認識できればよいので、2枚の画像の平均彩度や、平均輝度値と平均彩度とを組み合わせるようにしてもよい。
<2.第2の実施の形態>
[画像処理部のその他の構成例]
以上においては、カメラモジュールに手をかざすといった、ユーザによるアクションを要求し、そのアクションに応じて左眼用画像および右眼用画像を認識できるようにする例について説明してきたが、認識方法はこれ以外でもよい。すなわち、例えば、2枚の画像の視差のずれを求め、その視差のずれに基づいて、ユーザによるアクションを要求することなく、画像のみから左眼用画像および右眼用画像を認識できるようにしてもよい。
[画像処理部のその他の構成例]
以上においては、カメラモジュールに手をかざすといった、ユーザによるアクションを要求し、そのアクションに応じて左眼用画像および右眼用画像を認識できるようにする例について説明してきたが、認識方法はこれ以外でもよい。すなわち、例えば、2枚の画像の視差のずれを求め、その視差のずれに基づいて、ユーザによるアクションを要求することなく、画像のみから左眼用画像および右眼用画像を認識できるようにしてもよい。
図4は、視差のずれを用いて、画像のみから左眼用画像および右眼用画像を認識できるようにした画像処理部12の構成例を示している。尚、図4において、図1の画像処理部12と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は適宜省略するものとする。
図4の画像処理部12において、図1の画像処理部12と異なる点は、輝度分布解析部32、操作部34、およびユーザ指示実行部35、並びに画像切替部33に代えて、視差方向検出部51を備え、視差方向検出部51に対応した画像切替部52を設けた点である。
視差方向検出部51は、入力された2枚の画像間の特徴点の対応をブロック単位でテンプレートマッチングにより求めることによって、画像間で統計的にどちらの方向に視差が付いているかずれ評価値として求め、求めたずれ評価値の情報を画像切替部52に供給する。
画像切替部52は、左右判定部61を備えており、視差方向検出部51より供給されてくるずれ評価値の情報に基づいて、画像取得部31−1,31−2より供給されてくる画像を、左眼用画像および右眼用画像に対応付けさせる。画像切替部52は、左右判定部61の判定結果に基づいて、画像取得部31−1,31−2より供給されてくる画像のうち左眼用画像を左眼用画像出力端子52aより出力し、右眼用画像を右眼用画像出力端子52bより出力する。
[左右画像認識処理]
次に、図5のフローチャートを参照して、図4の画像処理部12による左右画像認識処理について説明する。
次に、図5のフローチャートを参照して、図4の画像処理部12による左右画像認識処理について説明する。
ステップS11において、画像取得部31−1,31−2は、それぞれ通信経路22−1,22−2を介して、カメラモジュール21−1,21−2により撮像される画像を取得し、視差方向検出部51および画像切替部52に供給する。
ステップS12において、視差方向検出部51は、画像取得部31−1,31−2より供給された画像を、例えば、16画素×16画素などのブロック単位で分割する。この各ブロックがテンプレートとされる。尚、ブロックサイズは、これに限るものではなく、このサイズと異なるサイズであってもよい。
ステップS13において、視差方向検出部51は、画像取得部31−1より供給されてくる画像のうち、未処理のブロックを基準領域として、画像取得部31−2より供給されてくる画像の各ブロックに対してテンプレートマッチングし、画像取得部31−2より供給されてくる画像上に対応領域を検索する。尚、テンプレートマッチングの具体的手法については、例えば、「コンピュータ画像処理」,田村秀行 編著,オーム社出版局,8.2 2次元画像照合による位置検出,p252-259, ISBN4-274-13264-1を参照されたい。
ステップS14において、視差方向検出部51は、テンプレートマッチングにより検索された画像取得部31−1より供給されてくる画像における基準領域に対応する、画像取得部31−2より供給されてくる画像上の対応領域の相互の水平方向の差分を求める。より詳細には、例えば、図6で示されるように、画像取得部31−1より供給されてくる画像P1における基準領域Z0となるブロックの左上の座標が(xn,yn)であり、画像取得部31−2より供給されてくる画像P2における対応領域Z1となるブロックの左上座標が(xn’,yn’)であるとき、視差方向検出部51は、水平方向の差分を(xn’−xn)として算出し、この値を記憶する。
ステップS15において、視差方向検出部51は、画像取得部31−1より供給されてくる画像内に未処理のブロックが存在するか否かを判定し、未処理のブロックが存在する場合、処理は、ステップS13に戻る。すなわち、画像取得部31−1より供給されてくる画像上の全てのブロックが基準領域とされ、画像取得部31−2より供給されてくる画像に対して対応領域が検出され、それらの水平方向の差分が全て求められるまで、ステップS13乃至S15の処理が繰り返される。そして、ステップS15において、未処理のブロックがないとみなされた場合、処理は、ステップS16に進む。
ステップS16において、視差方向検出部51は、求められた水平方向の差分の平均値を求め、これを画像間のずれの評価値とし、画像切替部52に供給する。すなわち、視差方向検出部51は、ブロック数nがN個(n=0乃至N−1)であった場合、以下の式で示される演算を実行することによりずれの評価値を算出する。
ここで、Eは画像間のずれの評価値、Nはブロック数、nはブロックの識別子である。このように、水平方向が統計的に平均値として求められることにより、テンプレートマッチングによるエラーを統計的に低減することが可能となる。尚、テンプレートマッチングにおいて、マッチング領域の輝度の分散などを併せて求めるようにして、信頼度を求めておき、信頼度の高い水平方向の差分だけの平均値をずれの評価値とするようにしてもよい。
ステップS17において、画像切替部52は、左右判定部61を制御して、ずれの評価値Eに基づいて、画像取得部31−1,31−2のそれぞれより供給されてくる画像が、左眼用画像および右眼用画像のいずれであるかを判定させる。すなわち、図6で示されるような画像P1,P2間のずれ評価値EがE<0である場合、画像P2の対応点が画像P1の基準領域に対して統計的に左側に位置していることになるので、画像P1は左眼用画像であり、画像P2は右眼用画像であることになる。逆に、画像P1,P2間のずれ評価値EがE>0である場合、画像P2の対応点が画像P1の基準領域に対して統計的に右側に位置していることになるので、画像P1は左眼用画像であり、画像P2は右眼用画像であることになる。左右判定部61は、以上のようにずれ評価値Eの正負に基づいて、画像取得部31−1,31−2のそれぞれより供給されてくる画像が、左眼用画像および右眼用画像のいずれであるかを判定する。
ステップS18において、画像切替部52は、左右判定部61の判定結果に基づいて、画像取得部31−1,31−2のそれぞれからの画像を切り替えて、左眼用画像を左眼用画像出力端子52aより出力し、右眼用画像を右眼用画像出力端子52bより出力する。
以上の処理により、ユーザのアクションを求めることなく、2枚の画像のみから、左眼用画像および右眼用画像を認識して、認識結果に応じて出力することが可能となる。尚、図4の画像処理部12を使用する際、2枚の画像を撮像するのに用いた2台のカメラモジュール21−1,21−2は、水平方向に異なるx座標に配置された構成(水平方向の基線長)であることが前提となる。また、テンプレートマッチング処理には、正規化相関など、2枚の画像間の明るさの影響が低減される手法で行われることが望ましい。
さらに、図4の画像処理部12は、ユーザのアクションを伴わないため、よりユーザの負担を軽減した形で、左右のカメラモジュール21により撮像される画像の対応付けを実現することができる。しかしながら、2台のカメラモジュール21から構成されるステレオカメラは、光軸が平行、すなわち無限遠方に対する輻輳角がゼロとなることが望ましいが、これが大きくずれてしまう場合もある。つまり「輻輳角のずれが引き起こす画像間のずれ量」が、「基線長によるずれ量」を上回ってしまう可能性がある。このような場合、図4の画像処理部12は、必ずしも適切に左右の画像を認識することができない。一方、図1の画像処理部12は、光軸のずれには影響されず、位置および回転ずれがかなり大きく、「輻輳角のずれが引き起こす画像間のずれ量」が、「基線長によるずれ量」を上回ってしまうような場合においても、適切に左右の画像を識別することが可能である。このように、用途、環境等を含めた条件に応じて、実現方法を変えることが望ましい。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図7は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
尚、本技術は、以下のような構成も取ることができる。
(1)
3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部と、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部と、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部と、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部と
を含む画像処理装置。
(2)
前記撮像部のうち、前記左眼用画像、または前記右眼用画像を撮像する方を手でかざすように促す提示部をさらに含み、
前記比較部は、前記撮像部により撮像された前記第1の画像、および前記第2の画像のそれぞれの輝度、または彩度を比較し、
前記判定部は、前記第1の画像、および前記第2の画像のうち、前記比較部の比較結果が、前記輝度、または前記彩度が低い方を、前記提示部により手をかざすように促した左眼用画像、または右眼用画像であると判定する
(1)に記載の画像処理装置。
(3)
前記比較部は、前記第1の画像における所定の位置における所定のサイズのブロックを抽出し、抽出したブロックを、前記第2の画像上でテンプレートマッチングし、一致するブロックの前記第2の画像上の位置と、前記所定のブロックの前記第1の画像上の位置とを比較し、
前記判定部は、一致するブロックの前記第2の画像上の位置と、前記所定のブロックの前記第1の画像上の位置との左右の関係から、前記第1の画像、および前記第2の画像を、左眼用画像、または右眼用画像であると判定する
(1)に記載の画像処理装置。
(4)
3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部における、前記3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像ステップと、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部における、前記撮像ステップの処理により撮像された前記第1の画像、および前記第2の画像とを比較する比較ステップと、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部における、前記比較ステップの処理での比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定ステップと、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部における、前記判定ステップの処理での判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力ステップと
を含む画像処理方法。
(5)
3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部と、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部と、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部と、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部と
を含む画像処理装置を制御するコンピュータに、
前記撮像部における、前記3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像ステップと、
前記比較部における、前記撮像ステップの処理により撮像された前記第1の画像、および前記第2の画像とを比較する比較ステップと、
前記判定部における、前記比較ステップの処理での比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定ステップと、
前記出力部における、前記判定ステップの処理での判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力ステップと
を含む処理を実行させるプログラム。
(1)
3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部と、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部と、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部と、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部と
を含む画像処理装置。
(2)
前記撮像部のうち、前記左眼用画像、または前記右眼用画像を撮像する方を手でかざすように促す提示部をさらに含み、
前記比較部は、前記撮像部により撮像された前記第1の画像、および前記第2の画像のそれぞれの輝度、または彩度を比較し、
前記判定部は、前記第1の画像、および前記第2の画像のうち、前記比較部の比較結果が、前記輝度、または前記彩度が低い方を、前記提示部により手をかざすように促した左眼用画像、または右眼用画像であると判定する
(1)に記載の画像処理装置。
(3)
前記比較部は、前記第1の画像における所定の位置における所定のサイズのブロックを抽出し、抽出したブロックを、前記第2の画像上でテンプレートマッチングし、一致するブロックの前記第2の画像上の位置と、前記所定のブロックの前記第1の画像上の位置とを比較し、
前記判定部は、一致するブロックの前記第2の画像上の位置と、前記所定のブロックの前記第1の画像上の位置との左右の関係から、前記第1の画像、および前記第2の画像を、左眼用画像、または右眼用画像であると判定する
(1)に記載の画像処理装置。
(4)
3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部における、前記3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像ステップと、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部における、前記撮像ステップの処理により撮像された前記第1の画像、および前記第2の画像とを比較する比較ステップと、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部における、前記比較ステップの処理での比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定ステップと、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部における、前記判定ステップの処理での判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力ステップと
を含む画像処理方法。
(5)
3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部と、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部と、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部と、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部と
を含む画像処理装置を制御するコンピュータに、
前記撮像部における、前記3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像ステップと、
前記比較部における、前記撮像ステップの処理により撮像された前記第1の画像、および前記第2の画像とを比較する比較ステップと、
前記判定部における、前記比較ステップの処理での比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定ステップと、
前記出力部における、前記判定ステップの処理での判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力ステップと
を含む処理を実行させるプログラム。
11 固定治具, 12 画像処理部, 13 表示部, 21,21−1,21−2 カメラモジュール, 22−1,22−2 通信経路, 31,31−1,31−2 画像取得部, 32 輝度分布解析部, 33 画像切替部, 33a 左眼用画像出力端子, 33b 右眼用画像出力端子, 34 操作部, 35 ユーザ指示実行部, 41 左右判定部, 51 視差方向検出, 52 画像切替部, 61 左右判定部
Claims (5)
- 3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部と、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部と、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部と、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部と
を含む画像処理装置。 - 前記撮像部のうち、前記左眼用画像、または前記右眼用画像を撮像する方を手でかざすように促す提示部をさらに含み、
前記比較部は、前記撮像部により撮像された前記第1の画像、および前記第2の画像のそれぞれの輝度、または彩度を比較し、
前記判定部は、前記第1の画像、および前記第2の画像のうち、前記比較部の比較結果が、前記輝度、または前記彩度が低い方を、前記提示部により手をかざすように促した左眼用画像、または右眼用画像であると判定する
請求項1に記載の画像処理装置。 - 前記比較部は、前記第1の画像における所定の位置における所定のサイズのブロックを抽出し、抽出したブロックを、前記第2の画像上でテンプレートマッチングし、一致するブロックの前記第2の画像上の位置と、前記所定のブロックの前記第1の画像上の位置とを比較し、
前記判定部は、一致するブロックの前記第2の画像上の位置と、前記所定のブロックの前記第1の画像上の位置との左右の関係から、前記第1の画像、および前記第2の画像を、左眼用画像、または右眼用画像であると判定する
請求項1に記載の画像処理装置。 - 3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部における、前記3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像ステップと、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部における、前記撮像ステップの処理により撮像された前記第1の画像、および前記第2の画像とを比較する比較ステップと、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部における、前記比較ステップの処理での比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定ステップと、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部における、前記判定ステップの処理での判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力ステップと
を含む画像処理方法。 - 3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像部と、
前記撮像部により撮像された前記第1の画像、および前記第2の画像とを比較する比較部と、
前記比較部の比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定部と、
前記判定部の判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力部と
を含む画像処理装置を制御するコンピュータに、
前記撮像部における、前記3次元立体視可能な右眼用画像および左眼用画像を構成する第1の画像、および第2の画像をそれぞれ撮像する撮像ステップと、
前記比較部における、前記撮像ステップの処理により撮像された前記第1の画像、および前記第2の画像とを比較する比較ステップと、
前記判定部における、前記比較ステップの処理での比較結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれが前記右眼用画像または前記左眼用画像のいずれであるかを判定する判定ステップと、
前記出力部における、前記判定ステップの処理での判定結果に基づいて、前記第1の画像、および前記第2の画像のそれぞれを前記右眼用画像または前記左眼用画像として出力する出力ステップと
を含む処理を実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011170270A JP2013038454A (ja) | 2011-08-03 | 2011-08-03 | 画像処理装置および方法、並びにプログラム |
US13/558,792 US9019346B2 (en) | 2011-08-03 | 2012-07-26 | Image processing device and method, and program |
CN201210264650.8A CN102917234B (zh) | 2011-08-03 | 2012-07-27 | 图像处理装置和方法以及程序 |
US14/603,795 US9497441B2 (en) | 2011-08-03 | 2015-01-23 | Image processing device and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011170270A JP2013038454A (ja) | 2011-08-03 | 2011-08-03 | 画像処理装置および方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013038454A true JP2013038454A (ja) | 2013-02-21 |
Family
ID=47615443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011170270A Withdrawn JP2013038454A (ja) | 2011-08-03 | 2011-08-03 | 画像処理装置および方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (2) | US9019346B2 (ja) |
JP (1) | JP2013038454A (ja) |
CN (1) | CN102917234B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019244668A1 (ja) * | 2018-06-22 | 2019-12-26 | ソニー株式会社 | 移動体および移動体の制御方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3281576A1 (en) * | 2015-05-14 | 2018-02-14 | Olympus Corporation | Stereoscopic endoscope device |
CN105872516A (zh) * | 2015-12-28 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 获取立体片源视差参数的方法及装置 |
US20190387165A1 (en) * | 2018-06-07 | 2019-12-19 | Eys3D Microelectronics, Co. | Image device for generating depth images and related electronic device |
TWI692969B (zh) * | 2019-01-15 | 2020-05-01 | 沅聖科技股份有限公司 | 攝像頭自動調焦檢測方法及裝置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6453069B1 (en) * | 1996-11-20 | 2002-09-17 | Canon Kabushiki Kaisha | Method of extracting image from input image using reference image |
JPH10336701A (ja) | 1997-05-28 | 1998-12-18 | Sony Corp | キャリブレーション方法及び装置 |
EP1052593B1 (en) * | 1999-05-13 | 2015-07-15 | Canon Kabushiki Kaisha | Form search apparatus and method |
JP4531897B2 (ja) * | 1999-12-27 | 2010-08-25 | パナソニック株式会社 | 人物追跡装置、人物追跡方法及びそのプログラムを記録した記録媒体 |
JP3962607B2 (ja) * | 2002-02-28 | 2007-08-22 | キヤノン株式会社 | 画像処理装置及び方法及びプログラム及び記憶媒体 |
EP1796039B1 (en) * | 2005-12-08 | 2018-11-28 | Topcon Corporation | Device and method for image processing |
US10528925B2 (en) * | 2008-01-18 | 2020-01-07 | Mitek Systems, Inc. | Systems and methods for mobile automated clearing house enrollment |
JP5179223B2 (ja) * | 2008-02-26 | 2013-04-10 | オリンパス株式会社 | 撮像装置及び撮像プログラム |
US8223193B2 (en) * | 2009-03-31 | 2012-07-17 | Intuitive Surgical Operations, Inc. | Targets, fixtures, and workflows for calibrating an endoscopic camera |
TWI422213B (zh) * | 2009-07-29 | 2014-01-01 | Mstar Semiconductor Inc | 影像畫面偵測裝置及其方法 |
US20120019614A1 (en) * | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
US20120019613A1 (en) * | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
US9204132B2 (en) * | 2009-12-24 | 2015-12-01 | Trumbull Ventures Llc | Method and apparatus for photographing and projecting moving images in three dimensions |
US20110157322A1 (en) * | 2009-12-31 | 2011-06-30 | Broadcom Corporation | Controlling a pixel array to support an adaptable light manipulator |
CN101909220B (zh) * | 2010-07-19 | 2012-10-17 | 明基电通有限公司 | 立体影像显示系统、显示器及显示器的背光模组控制方法 |
EP2599311B1 (en) * | 2010-07-28 | 2020-02-05 | Synaptics Incorporated | Block compression artifact detection in digital video signals |
JP5631125B2 (ja) * | 2010-09-01 | 2014-11-26 | キヤノン株式会社 | 画像処理装置、その制御方法及びプログラム |
US20120092329A1 (en) * | 2010-10-13 | 2012-04-19 | Qualcomm Incorporated | Text-based 3d augmented reality |
-
2011
- 2011-08-03 JP JP2011170270A patent/JP2013038454A/ja not_active Withdrawn
-
2012
- 2012-07-26 US US13/558,792 patent/US9019346B2/en not_active Expired - Fee Related
- 2012-07-27 CN CN201210264650.8A patent/CN102917234B/zh not_active Expired - Fee Related
-
2015
- 2015-01-23 US US14/603,795 patent/US9497441B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019244668A1 (ja) * | 2018-06-22 | 2019-12-26 | ソニー株式会社 | 移動体および移動体の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20130033576A1 (en) | 2013-02-07 |
CN102917234A (zh) | 2013-02-06 |
US9019346B2 (en) | 2015-04-28 |
US20150138323A1 (en) | 2015-05-21 |
US9497441B2 (en) | 2016-11-15 |
CN102917234B (zh) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6276475B2 (ja) | カラービデオと深度ビデオとの同期方法、装置、および媒体 | |
US9123125B2 (en) | Image processing method and associated apparatus | |
US8928736B2 (en) | Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program | |
EP2549762A1 (en) | Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor | |
WO2018112788A1 (zh) | 图像处理方法及设备 | |
US9041776B2 (en) | 3-dimensional depth image generating system and method thereof | |
US11141557B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US20170316612A1 (en) | Authoring device and authoring method | |
US11244145B2 (en) | Information processing apparatus, information processing method, and recording medium | |
KR102450236B1 (ko) | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체 | |
TWI489326B (zh) | 操作區的決定方法與系統 | |
WO2011125461A1 (ja) | 画像生成装置及び方法並びにプリンタ | |
US9497441B2 (en) | Image processing device and method, and program | |
US20180020203A1 (en) | Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium | |
JP2013025649A (ja) | 画像処理装置及び画像処理方法、プログラム | |
US20140192163A1 (en) | Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system | |
JP2014215755A (ja) | 画像処理システム、画像処理装置及び画像処理方法 | |
TW201310970A (zh) | 三維影像擷取方法與裝置及三維影像顯示裝置 | |
WO2016158184A1 (ja) | 医療用観察装置、レンズ駆動制御装置、レンズ駆動制御方法、プログラム、及びビデオ顕微鏡装置 | |
JP2012216883A (ja) | 表示制御装置、表示制御方法、及びプログラム | |
US8917316B2 (en) | Photographing equipment | |
US20180352158A1 (en) | Omnidirectional camera captured image display system, omnidirectional camera captured image display method, and program | |
JP2018032991A (ja) | 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム | |
JP5868055B2 (ja) | 画像処理装置および画像処理方法 | |
TWI825892B (zh) | 立體格式影像偵測方法與使用該方法的電子裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141007 |