JP2024056212A - 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2024056212A JP2024056212A JP2022162948A JP2022162948A JP2024056212A JP 2024056212 A JP2024056212 A JP 2024056212A JP 2022162948 A JP2022162948 A JP 2022162948A JP 2022162948 A JP2022162948 A JP 2022162948A JP 2024056212 A JP2024056212 A JP 2024056212A
- Authority
- JP
- Japan
- Prior art keywords
- image
- captured image
- captured
- target
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 157
- 238000012545 processing Methods 0.000 title claims abstract description 119
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 64
- 238000003786 synthesis reaction Methods 0.000 claims description 64
- 238000012937 correction Methods 0.000 claims description 41
- 238000005304 joining Methods 0.000 claims description 14
- 238000009434 installation Methods 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 description 55
- 238000006243 chemical reaction Methods 0.000 description 41
- 238000001514 detection method Methods 0.000 description 41
- 230000008569 process Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 30
- 230000003287 optical effect Effects 0.000 description 24
- 230000006835 compression Effects 0.000 description 15
- 238000007906 compression Methods 0.000 description 15
- 238000009826 distribution Methods 0.000 description 12
- 239000002131 composite material Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- SUBDBMMJDZJVOS-UHFFFAOYSA-N 5-methoxy-2-{[(4-methoxy-3,5-dimethylpyridin-2-yl)methyl]sulfinyl}-1H-benzimidazole Chemical compound N=1C2=CC(OC)=CC=C2NC=1S(=O)CC1=NC=C(C)C(OC)=C1C SUBDBMMJDZJVOS-UHFFFAOYSA-N 0.000 description 3
- VJTAZCKMHINUKO-UHFFFAOYSA-M chloro(2-methoxyethyl)mercury Chemical compound [Cl-].COCC[Hg+] VJTAZCKMHINUKO-UHFFFAOYSA-M 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Studio Devices (AREA)
- Geometry (AREA)
Abstract
【課題】 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラムを提供すること。【解決手段】画像処理装置10は、第1の画像(補正画像F)および第2の画像(補正画像R)が入力される画像入力手段(206)を含む。第1の撮影画像(補正画像F)における第2の撮影画像(補正画像R)との重複領域(F0)内で、つなぎ位置を求めるための複数の対象領域(F0_u,F0_l)は、第1の撮影画像および第2の撮影画像が並べられる方向の直交方向に配置され、異なるサイズを有している。【選択図】図5
Description
本開示は、画像処理技術に関し、より詳細には、画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラムに関する。
従来、パノラマ画像や全天球画像など360度の範囲を撮像する撮像装置が知られている。このような撮像装置においては、複数の広角レンズまたは魚眼レンズを用いて撮像した画像をつなぎ合わせて1枚の画像を生成する。従来の画像つなぎ合わせ技術においては、撮像された複数の各画像に対し歪み補正および射影変換を行い、処理後の画像間の重複部分において、パターンマッチングなどにより、被写体が重なるつなぎ位置を検出する。その他、処理の高速化のため、つなぎ位置検出を行わずにつなぎ合わせる被写体距離を固定して画像をつなぎ合わせる技術も知られている。
例えば、全天球動画像のつなぎ合わせに関連して、特開2021-117924号公報(特許文献1)が知られている。特許文献1は、第1の画像および第2の画像が入力される画像入力手段と、画像入力手段に入力される画像間の複数の箇所各々のつなぎ位置を記憶する記憶手段と、複数の箇所各々について、記憶手段に記憶された過去のつなぎ位置の有効性を評価する評価手段と、有効性が基準を満たした箇所の記憶手段に記憶された過去のつなぎ位置に基づいて、画像入力手段に入力される第1の画像および第2の画像に基づく合成処理を実行する画像合成処理手段とをさらに含む画像処理装置を開示する。
しかしながら、上記従来技術は、被写体距離に応じて画像をつなぎ合わせるため高精度につなぎ合わせることが可能であるが、かかるつなぎ検出処理は、通常、時間を要する。このため、上記動画像をリアルタイムで配信する場合、フレームレートの低下やレイテンシの増加につながり、必ずしも十分なものではなかった。一方で、つなぎ合わせる被写体距離を固定する技術では、固定にした距離以外に位置している被写体がつながらない点で、充分なものではなかった。
上記背景から、複数の広角レンズまたは魚眼レンズで撮影した互いに重複する重複領域を有する複数の画像を合成する際に、被写体の距離に応じた画像つなぎ処理における精度および速度の両立が求められていた。
本開示は、従来技術における上記点に鑑みてなされたものであり、重複領域を有する複数の画像を合成する際に、精度および速度の観点で両立しながら、被写体の距離に応じた画像つなぎ合わせが可能な画像処理装置を提供することを目的とする。
本開示では、上記課題を解決するために、下記特徴を有する画像処理装置を提供する。本画像処理装置は、少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段を含む。第1の撮影画像における第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、第1の撮影画像および第2の撮影画像が並べられる方向の直交方向に配置され、異なるサイズを有している。
上記構成により、重複領域を有する複数の画像を合成する際に、精度および速度の観点で両立しながら、被写体の距離に応じた画像つなぎ合わせが可能となる。
以下、本発明の実施形態について説明するが、本発明の実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、画像処理装置、画像処理システムおよび撮像装置の一例として、2つの魚眼レンズを光学系に含む撮像体を備えるとともに、2つの魚眼レンズで撮像した2つの部分画像に対し歪曲補正および射影変換を行い、画像つなぎ合わせを行って、全天球画像を生成する画像処理機能を備えた、全天球撮像デバイス10を用いて説明する。
<全体構成>
以下、図1~図3を参照しながら、本実施形態による全天球撮像デバイス10の全体構成について説明する。図1(A)は、本実施形態による全天球撮像デバイス10の側面から見た外観図を示している。図1(A)に示す全天球撮像デバイス10は、撮像体12と、上記撮像体12に設けられた2つの結像光学系20A,20Bと、上記撮像体12およびコントローラなどの部品を保持する筐体14と、上記筐体14に設けられた操作ボタン18とを備える。
以下、図1~図3を参照しながら、本実施形態による全天球撮像デバイス10の全体構成について説明する。図1(A)は、本実施形態による全天球撮像デバイス10の側面から見た外観図を示している。図1(A)に示す全天球撮像デバイス10は、撮像体12と、上記撮像体12に設けられた2つの結像光学系20A,20Bと、上記撮像体12およびコントローラなどの部品を保持する筐体14と、上記筐体14に設けられた操作ボタン18とを備える。
また、図1(B)は、撮像体12を筐体14内に格納したときの外観図を示している。2つの結像光学系20A,20Bの埃や汚れを防止するために、撮像体12が上下に移動可能であり、使用しない場合には筐体14内に格納できるものとする。さらに、図1(C)は、全天球撮像デバイス10の上部から見た外観図を示している。全天球撮像デバイス10には、切り込み部13があり、切り込み部13に指を掛けることで、撮像体12を上下に手動で移動できるものとする。
図2は、本実施形態による全天球撮像デバイス10の断面図を示す。図2(A)は、撮像体12を筐体14から展開した場合の状態を示す。図2(B)は、撮像体12を筐体14内に格納した場合の状態を示す。図2に示す撮像体12は、2つの結像光学系20A,20Bと、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの2つの固体撮像素子22A,22Bとを含む。結像光学系20と固体撮像素子22とを1個ずつ組み合わせたものを撮像光学系と参照する。結像光学系20各々は、例えば6群7枚の魚眼レンズとして構成することができる。上記魚眼レンズは、図1および図2に示す実施形態では、180度(=360度/n;n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。
2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、固体撮像素子22A,22Bに対して位置関係が定められる。位置決めは、結像光学系20A,20Bの光学素子の光軸が、対応する固体撮像素子22の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように行われる。固体撮像素子22各々は、受光領域が面積エリアを成す2次元の固体撮像素子であり、組み合わせられる結像光学系20により集光された光を画像信号に変換する。
図1および図2に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。固体撮像素子22A,22Bは、受光した光分布を画像信号に変換して、コントローラ15A,15B上の画像処理手段に出力する。画像処理手段では、詳細は後述するが、固体撮像素子22A,22Bからそれぞれ入力される部分画像をつなぎ合わせて合成し、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)を生成する。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。ここで、図1および図2に示す実施形態では、全天球画像を生成しているが、水平面のみ360度を撮影した、いわゆるパノラマ画像であってもよい。パノラマ画像は、本実施形態においては、全天球画像の一部の領域が欠けている画像も便宜上、パノラマ画像と呼ぶ。例えば、全天球撮像デバイス10の真上方向や真下方向の一部、全天球画像の鉛直上向き方向や鉛直下向き方向の一部、または全天球画像の所定の領域の一部、などが欠けている画像など、水平方向360度であり垂直方向180度未満のパノラマ画像である。これは、例えば全天球画像に写っている被写体の真上(例えば部屋の天井など)や真下(例えば地面など)の部分などは、4πステラジアンの画像を閲覧する際にユーザがあまり注意深く見ない利用シーンが考えられる。そういう場合は、そもそも当該部分を撮影しないような撮像体12や筐体14の設計をすればよい。または、撮影しても当該部分を表示しない、撮像して表示するにしても当該部分に所定のロゴや所定のwebページへ飛ぶリンク情報などを重畳表示するなどし、4πステラジアンの画像そのものを表示しない態様であっても良い。
全天球撮像デバイス10の筐体14内には、操作ボタン18からの制御情報の入力、固体撮像素子22A,22Bの画像信号から画像処理の実施、処理結果の入出力などを行うコントローラ15A,15Bを備える。さらに、コントローラ15A,15B上にはコネクタ17(17A,17B,17C)を備える。コントローラ15間またはコントローラ15と固体撮像素子22(22A,22B)との間をケーブル16(16A,16B)とコネクタ17を介して接続する。ここで、ケーブル16は、FFC(Flexible Flat Cable)やFPC(Flexible Printed Circuit)などを示す。
図2(B)は、撮像体12を筐体14内に格納した場合の断面図を示す。撮像体12を収納または展開する際の2つの結像光学系20(20A,20B)の傷つき防止と筐体14内への埃の進入防止のためのゴムやスポンジといった弾性部材19を備える。
図3は、本実施形態による全天球撮像デバイス10のハードウェア構成を示す。全天球撮像デバイス10は、デジタル・スチルカメラ・プロセッサ(以下、単にプロセッサと参照する。)100と、鏡胴ユニット102と、プロセッサ100に接続される種々のコンポーネントから構成される。鏡胴ユニット102は、上述した2組の結像光学系20A,20Bと、固体撮像素子22A,22Bとを有する。固体撮像素子22は、プロセッサ100内の後述するCPU130からの制御指令により制御される。
プロセッサ100は、ISP(Image Signal Processor)108と、DMAC(Direct Memory Access Controller)110と、メモリアクセスの調停のためのアービタ(ARBMEMC)112と、メモリアクセスを制御するMEMC(Memory Controller)114と、歪曲補正・画像合成ブロック118とを含む。ISP108A,108Bは、それぞれ、固体撮像素子22A,22Bの信号処理を経て入力された画像データに対し、ホワイト・バランス設定やガンマ設定を行う。MEMC114には、SDRAM116が接続される。SDRAM116には、ISP108A,180Bおよび歪曲補正・画像合成ブロック118において処理を施す際にデータが一時的に保存される。歪曲補正・画像合成ブロック118は、2つの撮像光学系から得られた2つの部分画像に対し、3軸加速度センサ120からの情報を利用して、歪曲補正とともに天地補正を施し、画像合成する。
プロセッサ100は、さらに、DMAC122と、画像処理ブロック124と、CPU130と、画像データ転送部126と、SDRAMC128と、メモリカード制御ブロック140と、USBブロック146と、ペリフェラル・ブロック150と、音声ユニット152と、シリアルブロック158と、LCD(Liquid Crystal Display)ドライバ162と、ブリッジ168とを含む。
CPU130は、当該全天球撮像デバイス10の各部の動作を制御する。画像処理ブロック124は、リサイズブロック132、静止画圧縮ブロック134、動画圧縮ブロック136などを用いて、画像データに対し各種画像処理を施す。リサイズブロック132は、画像データのサイズを補間処理により拡大または縮小するためのブロックである。静止画圧縮ブロック134は、静止画をJPEG(Joint Photographic Experts Group)やTIFF(Tagged Image File Format)などの静止画フォーマットに圧縮および伸張を行うコーデック・ブロックである。動画圧縮ブロック136は、動画をMPEG(Moving Picture Experts Group)-4 AVC(Advanced Video Coding)/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。画像データ転送部126は、画像処理ブロック124で画像処理された画像を転送する。SDRAMC128は、プロセッサ100に接続されるSDRAM138制御し、SDRAM138には、プロセッサ100内で画像データに各種処理を施す際に、画像データを一時的に保存する。
メモリカード制御ブロック140は、メモリカードスロット142に挿入されたメモリカードおよびフラッシュROM144に対する読み書きを制御する。メモリカードスロット142は、全天球撮像デバイス10にメモリカードを着脱可能に装着するためのスロットである。USBブロック146は、USBコネクタ148を介して接続されるパーソナル・コンピュータなどの外部機器とのUSB通信を制御する。ペリフェラル・ブロック150には、電源スイッチ166が接続される。音声ユニット152は、ユーザが音声信号を入力するマイク156と、記録された音声信号を出力するスピーカ154とに接続され、音声入出力を制御する。シリアルブロック158は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC(Network Interface Card)160が接続される。LCDドライバ162は、LCDモニタ164を駆動するドライブ回路であり、LCDモニタ164に各種状態を表示するための信号に変換する。
フラッシュROM144には、CPU130が解読可能なコードで記述された制御プログラムや各種パラメータが格納される。電源スイッチ166の操作によって電源がオン状態になると、上記制御プログラムがメインメモリにロードされる。CPU130は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをSDRAM138と、図示しないローカルSRAMとに一時的に保存する。
図4は、本実施形態による全天球撮像デバイス10を制御するために用いることができる情報端末170のハードウェア構成を示す。図4に示す情報端末170は、CPU172と、RAM174と、HDD(Hard Disk Drive)176と、入力装置178と、外部ストレージ180と、ディスプレイ182と、無線NIC184と、USBコネクタ186と、HDMI(High-Definition Multimedia Interface,HDMIは登録商標である。)コネクタ188とを含み構成される。
CPU172は、情報端末170の各部の動作および全体動作を制御する。RAM174は、CPU172の作業領域を提供する。HDD176は、CPU172が解読可能なコードで記述された、オペレーティング・システム、本実施形態による情報端末170側の処理を担うアプリケーションなどのプログラムを格納する。
入力装置178は、マウス、キーボード、タッチパッド、タッチスクリーンなどの入力装置であり、ユーザ・インタフェースを提供する。外部ストレージ180は、メモリカードスロットなどに装着された着脱可能な記録媒体であり、動画形式の画像データや静止画データなどの各種データを記録する。無線NIC184は、全天球撮像デバイス10などの外部機器との無線LAN通信の接続を確立する。USBコネクタ186は、全天球撮像デバイス10などの外部機器とのUSB接続を確立する。なお、一例として、無線NIC184およびUSBコネクタ186を示すが、特定の規格に限定されるものではなく、Bluetooth(登録商標)やワイヤレスUSBなどの他の無線通信、有線LAN(Local Area Network)などの有線通信で外部機器と接続されてもよい。
ディスプレイ182は、ユーザが操作するための操作画面の表示、撮影前または撮影中の全天球撮像デバイス10による撮像画像のモニタ画像の表示、保存された動画や静止画の再生、閲覧のための表示を行う。ディスプレイ182および入力装置178により、ユーザは、操作画面を介して全天球撮像デバイス10に対する撮影指示や各種設定変更を行うことが可能となる。また、HDMI(登録商標)コネクタ188により、これらの映像を外部ディスプレイやプロジェクターなどの表示装置へ出力することができる。なお、一例としてHDMI(登録商標)コネクタ188を示すが、特定の規格に限定されるものではなく、DisplayPort(登録商標)やDVI(Digital Visual Interface)を用いた構成としても良い。
情報端末170に電源が投入され電源がオン状態になると、ROMやHDD176からプログラムが読み出され、RAM174にロードされる。CPU172は、RAM174に読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、情報端末170の後述する各機能部および処理が実現される。
<動画像合成処理の流れ>
以下、図5~図10を参照しながら、全天球撮像デバイス10が備える全天球動画像合成機能について詳細を説明する。図5は、全天球撮像デバイス10上に実現される全天球動画像合成処理の主要な機能ブロックを示す。画像処理ブロック200は、図5に示すように、画像合成用歪み補正部202と、画像合成部204と、つなぎ位置検出部206と、テーブル修正部212とを含み構成される。
以下、図5~図10を参照しながら、全天球撮像デバイス10が備える全天球動画像合成機能について詳細を説明する。図5は、全天球撮像デバイス10上に実現される全天球動画像合成処理の主要な機能ブロックを示す。画像処理ブロック200は、図5に示すように、画像合成用歪み補正部202と、画像合成部204と、つなぎ位置検出部206と、テーブル修正部212とを含み構成される。
また、画像処理ブロック200には、2つの固体撮像素子22A,22Bから、各種画像信号処理を経て、各フレーム毎に2つの部分画像が入力される。ここで、一方の固体撮像素子(例えば22A)をソースとするフレームの画像を、「部分画像F」のように参照し、他方の固体撮像素子(例えば22B)をソースとするフレームの画像を、「部分画像R」のように参照する。2つの固体撮像素子22A,22Bのうちの一方が、本実施形態において、第1の方向で撮像し、第1の画像を生成するための第1の撮像手段を構成し、他方が、上記第1の方向とは異なる第2の方向(例えば第1の方向と180度異なる方向)で撮像し、第2の画像を生成するための第2の撮像手段を構成する。画像処理ブロック200には、さらに、それぞれのレンズなどの光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成された、歪み補正用変換テーブル230が提供される。
画像合成用歪み補正部202は、入力される部分画像Fおよび部分画像Rに対し、画像合成用変換テーブル232を用いて歪み補正を施し、補正画像Fおよび補正画像Rを生成する。入力される部分画像F,Rは、平面座標系(x,y)で表現された画像データである。これに対し、画像合成用変換テーブル232を用いて歪み補正がかけられた補正画像F,Rは、球面座標系(動径を1とし、2つの偏角θ,φを有する極座標系である。)で表現された全天球画像フォーマットの画像データとなる。画像合成用歪み補正部202は、本実施形態において、歪み補正手段を構成する。歪み補正用変換テーブル230、画像合成用変換テーブル232については後述する。
<射影方式>
図6は、本実施形態による全天球撮像デバイス10における射影関係を説明する図である。1つ魚眼レンズで撮影された画像は、撮影地点から概ね半球分の方位を撮影したものとなる。また、魚眼レンズでは、図6(A)に示すように、光軸に対する入射角度φに対応した像高hで画像生成される。像高hと、入射角度φとの関係は、所定の投影モデルに応じた射影関数で決定される。射影関数は、魚眼レンズの性質によって異なるが、上記投影モデルとしては、等距離射影方式(h=f×φ)、中心投影方式(h=f・tanφ)、立体射影方式(h=2f・tan(φ/2))、等立体角射影方式(h=2f・sin(φ/2))および正射影方式(h=f・sinφ)を挙げることができる。いずれの方式においても、光軸からの入射角度φと焦点距離fとに対応して結像の像高hが決定される。また、説明する実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとし、得られる部分画像は、図6(B)に示すように、撮影範囲の概ね半球分が投影されたイメージサークル全体を含む平面画像となる。
図6は、本実施形態による全天球撮像デバイス10における射影関係を説明する図である。1つ魚眼レンズで撮影された画像は、撮影地点から概ね半球分の方位を撮影したものとなる。また、魚眼レンズでは、図6(A)に示すように、光軸に対する入射角度φに対応した像高hで画像生成される。像高hと、入射角度φとの関係は、所定の投影モデルに応じた射影関数で決定される。射影関数は、魚眼レンズの性質によって異なるが、上記投影モデルとしては、等距離射影方式(h=f×φ)、中心投影方式(h=f・tanφ)、立体射影方式(h=2f・tan(φ/2))、等立体角射影方式(h=2f・sin(φ/2))および正射影方式(h=f・sinφ)を挙げることができる。いずれの方式においても、光軸からの入射角度φと焦点距離fとに対応して結像の像高hが決定される。また、説明する実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとし、得られる部分画像は、図6(B)に示すように、撮影範囲の概ね半球分が投影されたイメージサークル全体を含む平面画像となる。
<全天球画像フォーマット>
図7は、本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を説明する図である。図7(B)に示す全天球画像フォーマットの画像データは、所定の軸に対するなす角度に対応する垂直角度φと、上記軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。水平角度θは、0~360度(-180度~+180度とも表現できる。)の範囲となり、垂直角度φは、0~180度(同様に-90度~+90度とも表現できる。)の範囲となる。各座標値(θ,φ)は、図7(A)に示す撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上にマッピングされる。魚眼レンズで撮影された画像の平面座標と、全天球画像フォーマットの球面上の座標との関係は、図6で説明したような射影関数を用いることによって対応付けることができる。
図7は、本実施形態で用いられる全天球画像フォーマットの画像データのデータ構造を説明する図である。図7(B)に示す全天球画像フォーマットの画像データは、所定の軸に対するなす角度に対応する垂直角度φと、上記軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。水平角度θは、0~360度(-180度~+180度とも表現できる。)の範囲となり、垂直角度φは、0~180度(同様に-90度~+90度とも表現できる。)の範囲となる。各座標値(θ,φ)は、図7(A)に示す撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上にマッピングされる。魚眼レンズで撮影された画像の平面座標と、全天球画像フォーマットの球面上の座標との関係は、図6で説明したような射影関数を用いることによって対応付けることができる。
<変換テーブル>
図8は本実施形態による、画像合成用歪み補正部202が参照する変換テーブルを説明する図である。歪み補正用変換テーブル230および画像合成用変換テーブル232は、平面座標系で表現される部分画像から、球面座標系で表現される画像への射影を規定する。歪み補正用変換テーブル230および画像合成用変換テーブル232は、図8(A)および図8(B)に示すように、各魚眼レンズ毎に、補正後画像の座標値(θ,φ)と、該座標値(θ,φ)にマッピングされる補正前の部分画像の座標値(x、y)とを対応付ける情報を、全座標値(θ,φ)(θ=0,・・・360度,φ=0,・・・,180度)に対して保持する。図8の例示では、1画素が担当する角度は、φ方向およびθ方向いずれも1/10度であり、歪み補正用変換テーブル230および画像合成用変換テーブル232は、それぞれ、各魚眼レンズについて、3600×1800の対応関係を示す情報を有している。
図8は本実施形態による、画像合成用歪み補正部202が参照する変換テーブルを説明する図である。歪み補正用変換テーブル230および画像合成用変換テーブル232は、平面座標系で表現される部分画像から、球面座標系で表現される画像への射影を規定する。歪み補正用変換テーブル230および画像合成用変換テーブル232は、図8(A)および図8(B)に示すように、各魚眼レンズ毎に、補正後画像の座標値(θ,φ)と、該座標値(θ,φ)にマッピングされる補正前の部分画像の座標値(x、y)とを対応付ける情報を、全座標値(θ,φ)(θ=0,・・・360度,φ=0,・・・,180度)に対して保持する。図8の例示では、1画素が担当する角度は、φ方向およびθ方向いずれも1/10度であり、歪み補正用変換テーブル230および画像合成用変換テーブル232は、それぞれ、各魚眼レンズについて、3600×1800の対応関係を示す情報を有している。
歪み補正用変換テーブル230は、事前に製造元等で理想的なレンズモデルからの歪みを補正した上で計算され、テーブル化されたものである。画像合成用変換テーブル232の初期値は、歪み補正用変換テーブル230であり、最初の1乃至数フレームに対して使用される。それ以降のフレームに対しては、詳細は後述するが、テーブル修正部212によって前回の画像合成用変換テーブル232とつなぎ位置検出部206によるつなぎ位置検出結果を用いて更新された画像合成用変換テーブル232を使用する。
<補正画像>
<補正画像>
詳細は後述するが、つなぎ位置検出部206は、画像合成用歪み補正部202により変換された補正画像F,Rの入力を受けて、パターンマッチング処理により、入力された補正画像F,R間のつなぎ位置を検出し、つなぎ位置情報を生成する。テーブル修正部212は、つなぎ位置情報と前回使用した画像合成用変換テーブル232に基づいて、画像合成用変換テーブル232を更新する。
図9は、本実施形態によるつなぎ位置検出および画像合成処理の際における、2つの魚眼レンズで撮像された2つの部分画像の球面座標系へのマッピングを説明する図である。図9に示すように、光軸に垂直な軸を基準とした水平角度および垂直角度の定義となる。これにより、画像合成用歪み補正部202による処理の結果、魚眼レンズで撮像された2つの部分画像F,Rは、図9に示すように、全天球画像フォーマット上に展開される。魚眼レンズFにより撮影された部分画像Fは、典型的には、全天球のうちの概ね左半球にマッピングされ、魚眼レンズRにより撮影された部分画像Rは、全天球のうちの概ね右半球にマッピングされる。
画像合成部204は、補正画像Fおよび補正画像Rを合成し、合成画像240のフレームを生成する。画像合成部204は、つなぎ位置検出部206によって求められたつなぎ位置に基づいて、入力される補正画像Fおよび補正画像Rを合成する画像合成処理手段を構成する。合成画像240は、全天球画像フォーマットの画像であり、2つの偏角を有する極座標系で表現された画像となる。なお、説明する実施形態において、画像合成部204は、全天球撮像デバイス10上に実現される画像処理ブロック200に設けられるものとして説明する。しかしながら、他の実施形態では、画像合成部204が外部装置に設けられてもよい。例えば、補正画像を生成するまでの処理を全天球撮像デバイス10上で行い、画像合成処理を、他の端末(例えば情報端末270)で行うよう構成してよい。この場合、全天球撮像デバイス10と、画像合成部204を有する情報端末170とを組み合わせて画像処理システムが構成される。
<動画配信>
図5に示す画像処理ブロック200は、さらに、動画圧縮部220と、リアルタイム配信部222とを含み構成されてもよい。
図5に示す画像処理ブロック200は、さらに、動画圧縮部220と、リアルタイム配信部222とを含み構成されてもよい。
動画圧縮部220には、合成された複数の全天球画像の合成フレームからなる画像列が入力される。動画圧縮部220は、これらを動画圧縮し、画像列を構成する各合成フレームをコマとする動画像を生成し、動画データ242を出力する。リアルタイム配信部222は、動画データ242を順次読み出しながら、動画データをネットワーク250に送信し、例えば、遠隔で接続される別拠点の装置などにリアルタイムで動画配信を行う。動画配信の際は、全天球撮像デバイス10から、情報端末170を経由して、あるいは直接、別拠点の装置に動画データが送信されてもよい。
<画像表示・保存>
図5に示す画像処理ブロック200は、さらに、表示画像生成部224を含んでもよい。上記生成された合成画像は、全天球画像フォーマットで表現されるため、そのまま、ディスプレイなどの平面表示デバイスに表示させると、垂直角度0度および180度に近づくほど画像が歪んで表示されることになる。表示画像生成部224は、全天球画像を平面表示デバイスに投影するための画像処理を実行する手段である。
図5に示す画像処理ブロック200は、さらに、表示画像生成部224を含んでもよい。上記生成された合成画像は、全天球画像フォーマットで表現されるため、そのまま、ディスプレイなどの平面表示デバイスに表示させると、垂直角度0度および180度に近づくほど画像が歪んで表示されることになる。表示画像生成部224は、全天球画像を平面表示デバイスに投影するための画像処理を実行する手段である。
表示画像生成部224は、例えば、全天球画像フォーマットの合成画像から、球面座標系から特定方向および特定画角の平面座標系への順次変換し、ユーザが指定する特定の視野方向の一定画角の画像に投影する処理を行うことができる。これにより、視聴者は、所定の視点および視野で観察した場合に相当する動画像を視聴することができるようになる。
また、上述したリアルタイム配信以外にも、複数の全天球画像フォーマットの合成画像の複数のフレームからなる画像列を動画圧縮して動画像を生成し、これらの静止画または動画の画像データを保存することができる。動画圧縮部220は、動画像を画像データとして保存する処理を行ってもよい。静止画として保存する場合には、静止画圧縮ブロック134でJPEG、TIFFなどの静止画フォーマットへ圧縮を行う。動画の場合は、動画圧縮ブロック136でMPEG-4 AVC/H.264などの動画フォーマットへ圧縮を行う。生成された画像データは、メモリカードスロット142からメモリカードなど外部ストレージの記憶領域に保存される。
<つなぎ位置検出処理>
全天球撮像デバイス10において、複数の結像光学系20は、通常、視差を有しており、したがって、2つの画像が重なる重複領域において、被写体の位置が、被写体距離に応じて変化する可能性がある。全天球撮像デバイス10は、つなぎ位置検出部206で、補正画像Fおよび補正画像Rの重複領域でつなぎ位置を検出し、つなぎ位置情報を生成する。説明する実施形態では、つなぎ位置情報は、テンプレート・マッチングにより、一方の画像から切り出されたテンプレート画像に対し他方の対応する探索範囲の画像との間でマッチングスコアが最大となる位置の基準位置からのずれ量として計算される。
全天球撮像デバイス10において、複数の結像光学系20は、通常、視差を有しており、したがって、2つの画像が重なる重複領域において、被写体の位置が、被写体距離に応じて変化する可能性がある。全天球撮像デバイス10は、つなぎ位置検出部206で、補正画像Fおよび補正画像Rの重複領域でつなぎ位置を検出し、つなぎ位置情報を生成する。説明する実施形態では、つなぎ位置情報は、テンプレート・マッチングにより、一方の画像から切り出されたテンプレート画像に対し他方の対応する探索範囲の画像との間でマッチングスコアが最大となる位置の基準位置からのずれ量として計算される。
以下、図10を参照して、テンプレート・マッチングの一例として、ゼロ平均正規化相互相関(Zero-mean Normalized Cross-Correlation)法およびZSSD(Zero-mean Sum of Squared Differences)法について説明する。図10は、(A)テンプレート画像と、(B)パターンマッチングにより探索範囲でテンプレート画像を探索する処理を説明する図である。テンプレートの全画素数をN(=W画素×H画素)とし、探索範囲上での探索位置を(kx,ky)で表す。探索位置(kx,ky)を基準座標(0,0)とした場合の座標(i,j)におけるテンプレート画像の輝度値をT(i,j)とし、探索用画像上の輝度値をS(kx+i,ky+j)とすると、ZNCC法によるマッチングスコアZNCC(kx,ky)は、下記式(1)で求めることができる。なお、図10では、探索位置(kx,ky)をテンプレート画像の左上に設定しているが、座標の取り方は、特に限定されるものではなく、テンプレート画像の中心に設定してもよい。
マッチングスコアZNCC(kx,ky)は、類似度を表し、1のときは、完全一致となり、-1のときはネガポジ反転となる。すなわち、マッチングスコアZNCC(kx,ky)が高い方が、テンプレート画像との類似度が高いことを示す。図10(B)に示すように探索範囲内でテンプレート画像を上下左右、または上下もしくは左右の一方に位置をずらしながら、テンプレート・マッチングが行われ、各探索位置におけるマッチングスコアZNCC(kx,ky)が算出される。
これに対して、ZSSD法による相違度ZSSD(kx,ky)は、下記式(2)で求めることができる。なお、ZSSD法では、同じ位置の画素の輝度値の差の2乗和が求められるので、ZSSDの値は、いわゆる相違度であり、値が大きい方が類似していないことを意味する。そのため、類似度に基づくスコアとするために、負の符号を付けて、-ZSSD(kx,ky)をマッチングスコアとする。
マッチングスコア-ZSSD(kx,ky)は、各画素値を8ビット値とすると、取りうる値の範囲は、-(255×255)~0がとなり、0のときは、完全一致となる。マッチングスコア-ZSSD(kx,ky)が高い方が、テンプレート画像との類似度が高いことを示す。
上述したZNCC法は、画像のゲインの変動を吸収することができ、また、画像の平均明るさの変動を吸収することができる点、また、類似度のマッチングの堅牢性も高い点で好適なものである。ZNCC法は、特に、画像の輝度が充分に広がって分布し、特徴量が大きい場合に好適に適用することができる。これに対して、ZSSD法は、画像の平均明るさの変動を吸収することができる点で、SSDと比較して優れており、また、SSD(Sum of Squared Differences)に比較して計算コストがかかるが、ZNCCよりも計算か簡素である。ZSSD法は、特に、特徴量が小さくぼけた画像に対しても好適に適用することができる。なお、ZSSDに代えてZSAD(Zero-mean Sum of Absolute Differences)を用いても良い。
<つなぎ位置検出処理におけるアプリケーション特有の課題>
以下、上述のような全天球撮像デバイス10および情報端末170を用いた具体的なアプリケーションについて検討する。以下に説明する実施形態では、複数の拠点(例えば会議室)の参加者がネットワークを介してビデオ会議を行うビデオ会議システムを、アプリケーションの一例として説明するが、これに限定されるものではない。
以下、上述のような全天球撮像デバイス10および情報端末170を用いた具体的なアプリケーションについて検討する。以下に説明する実施形態では、複数の拠点(例えば会議室)の参加者がネットワークを介してビデオ会議を行うビデオ会議システムを、アプリケーションの一例として説明するが、これに限定されるものではない。
図11は、本実施形態におけるビデオ会議システムの概略並びに全天球撮像デバイス10および情報端末170の設置状態を説明する図である。全天球撮像デバイス10および情報端末170は、設置空間である会議室300の机302上に設置され、互いにUSBケーブル190で接続されている。図11に示す実施形態において、全天球撮像デバイス10の底部(下部)が、机などの設置面に置かれる設置部位となる。
情報端末170には、ビデオ会議支援アプリケーションがインストールされている。ビデオ会議支援アプリケーションは、遠隔地を含む複数の拠点間で、会議映像や音声の送受信、会議に必要となる資料などの情報をリアルタイムに共有することを可能とするソフトウェアである。会議開始の事前準備として、ユーザは、操作ボタン18を押下することで全天球撮像デバイス10を起動する。また、ユーザは、情報端末170上でビデオ会議支援アプリケーションを起動し、ビデオ会議支援アプリケーション上で情報端末170と全天球撮像デバイス10との接続設定を行う。会議開始の際には、ユーザは、情報端末170のビデオ会議支援アプリケーションから会議開始の操作を行う。アプリケーションが会議開始の操作を受付けると、情報端末170は、ネットワークサーバへ接続し、全天球撮像デバイス10からの会議室内の全天球映像や音声の映像信号のリアルタイム配信を開始させる。これにより、各拠点の参加者は、会議室内の任意の方向の映像を取得することができるようになる。
なお、説明する実施形態では、パノラマ画像(通常死角となることが予定されている下側の一部を除去したものを含む。)であるものとするが、会議支援やビデオ通話などの用途では、パノラマ画像に限定されず、全天球画像であってもよい。
上述したような、リアルタイム配信を実現するためには、動画配信時に補正画像F,R間のつなぎ処理を効率的に行う必要がある。図11に示すようなテレビ会議システムに利用するための全天球撮像デバイス10は、机上で使用することを想定して設計されており、上述したように、全天球撮像デバイス10の底部が設置部位となり、例えば卓上に置かれる。このため、撮像される画像の下側の領域には机302などが、上側領域には会議出席者やホワイトボード320などの被写体が位置することになる。
ここで、上述した使用状況におけるつなぎ処理の課題について検討する。上述したように、つなぎ位置情報は、テンプレート・マッチングにより、一方の補正画像から切り出された所定領域の画像(テンプレート画像)にマッチする画像を有する、他方の補正画像における領域を発見することによって計算される。このようなつなぎ位置検出を全く行わない場合は、固定にした距離以外に位置している被写体がつながらなくなる。また、つなぎ位置の検出を、1か所だけしか行わない場合、例えば上側の領域に映る会議出席者を基準につなぎ処理を行うと、会議出席者の移動などによってつなぎ位置が変化し、下側の領域に映る机302付近の映像のつなぎ位置が、ズレてしま可能性がある。一方、つなぎ位置の検出を多数の箇所で行うと、上述したようなズレは発生し難くなるが、動画配信に際して処理速度の低下やレイテンシの増大を招く可能性がある。
本発明の実施形態は、上述したつなぎ位置を検出するための領域ないし箇所の配置を最適化することによって、動画配信時における画像つなぎ処理の速度および精度の両立を図る。
<つなぎ位置検出処理に対する最適化された位置検出領域の設定>
図5には、つなぎ位置検出部206のより詳細な構成も示されている。図5に示すつなぎ位置検出部206は、設定部208と、算出部210とを含み構成される。以下、図5および図12~図19を参照しながら、上記動画配信時における画像つなぎ処理の速度および精度の両立を図るために、本発明の実施形態による全天球撮像デバイス10が採用する、設定部208および算出部210が行う特有の処理について、より詳細に説明する。
図5には、つなぎ位置検出部206のより詳細な構成も示されている。図5に示すつなぎ位置検出部206は、設定部208と、算出部210とを含み構成される。以下、図5および図12~図19を参照しながら、上記動画配信時における画像つなぎ処理の速度および精度の両立を図るために、本発明の実施形態による全天球撮像デバイス10が採用する、設定部208および算出部210が行う特有の処理について、より詳細に説明する。
図5に示すつなぎ位置検出部206は、補正画像Fおよび補正画像Rの入力を受ける。設定部208は、一方の補正画像(例えば補正画像F)における他方の補正画像(例えば補正画像R)との重複領域内で、それぞれつなぎ位置を求めるべき複数の対象領域を設定する。算出部210は、設定した複数の対象領域各々にマッチする、他方の補正画像(例えば補正画像R)上の複数の対応領域各々の位置を算出する。ここで、対象領域は、テンプレート・マッチングにおいて、上述したテンプレート画像を切り出す画像の領域をいい、対応領域は、テンプレート画像にマッチするまたはマッチを試行する画像を有する領域である。
好ましい実施形態において、対象領域の数は、2であり、対象領域と比較される対応領域の数も、2である。この複数の対象領域、より好ましくは2つの対象領域は、補正画像F,Rが並べられる方向の直交方向で変位して(ずらして)配置され、異なるサイズを有するように設定される。より具体的には、図9に示すマッピングの場合は、補正画像F,Rは、左右方向に並べられ、図12に示す複数の対象領域は、上下方向に変位して(ずらして)配置され、複数の対応領域も上下方向に変位して(ずらして)配置されることになる。
図12は、本実施形態におけるつなぎ検出処理を説明する図である。図12に示す補正画像Fおよび補正画像Rは、画像合成用歪み補正部202より出力された画像である。補正画像Fおよび補正画像Rは、水平90度以上の領域を含み、説明する実施形態では、180度以上の領域を含む。補正画像Fの左右端部の領域F0、F1および補正画像Rの左右端部の領域R0,R1は、補正画像F,R間の重複領域であり、その中心にある破線は、画像間のつなぎ境界Bである。補正画像Fの左端部にある重複領域F0は、補正画像Rの右端部にある重複領域R0とつながる部分であり、補正画像Fの右端部にある重複領域F1は、補正画像Rの左端部にある重複領域R1とつながる別の部分である。
つなぎ位置の算出は、重複領域のペア<F0,R0>およびペア<F1,R1>で独立に行われ得る。ここで、重複領域のペア<F0,R0>に注目して説明すると、まず、つなぎ位置検出用画像のペアとして、補正画像Fから重複領域F0が、補正画像Rから重複領域R0が、それぞれ、切り出される。次いで、重複領域F0,R0において、つなぎ位置を検出するべき2つの対象領域F0_u,F0_lおよび対応する2つの対応領域R0_u,R0_lが設定される。なお、領域F0_u,F0_l,R0_u,R0_lの位置は、マッチングを試行する仮の位置である。
図13は、図11に示すビデオ会議の使用態様における、典型的な被写体Onear,Ofarの画面上の配置の傾向を説明する図である。図11のようにテレビ会議システムを構成する全天球撮像デバイス10を机上に置く場合、使用態様からは、図13に示すように近距離の被写体Onearが画面下側の小さい領域に位置し、画面上側には遠距離(または中距離)の被写体Ofarが位置する傾向にある。このようなシーンにおいては、つなぎ位置を検出すべき領域のサイズは、上下方向に関し、上側が大きい、すなわち、F0_u>F0_l,R0_u>R0_lであることが好ましい。なお、左右方向のサイズ(幅)は、同じでもよい。このようなシーンにおいて、対象領域F0_uは、相対的に被写体との距離が遠距離である(となる傾向がある)遠距離領域に対応し、対象領域F0_lが、近距離である(となる傾向がある)近距離領域に対応する。
なお、2つの領域は、それぞれ、垂直方向における赤道を境にして配置される。この場合、好ましくは、垂直方向に並ぶ領域(例えばF0_u,F0_l)は、赤道から間(余白)をあけて配置される。一例として、例えば、それぞれ、画像の垂直サイズの3%~10%程度の間(余白)を設けて配置されてもよい。また、各領域の垂直方向のサイズは、残りの全域に相当するサイズであってもよいし、残りの一部領域に相当するサイズであってもよし、その場合において、上部領域と下部領域とで異なっていてもよい。一例として、例えば、上側の領域(例えばF0_u)の垂直方向のサイズは、赤道から画像垂直サイズの3%~10%上にずらした箇所から上限(上端)まで(つまり赤道から上限の90%~97%)とし、下側の領域(例えばF0_l)の垂直方向のサイズは、赤道から画像垂直サイズの3%~10%下にずらしたところから赤道と下限(下端)までの長さの30%~70%としてもよい。また、一例として、例えば、領域の水平方向のサイズは、例えば重複領域の30%~70%とすることができる。
図12および図13に示すような領域(対象領域および対応領域)の配置にすることで、距離の異なる被写体それぞれに対して最小の領域数で精度よくつなぎ合わせることを可能とする。また、仮に、画面上側に近距離の被写体が位置し、画面下側に遠距離の被写体が位置した場合であっても、独立に処理しているため適切につなぎ位置の検出が可能である。
また、図13において、対象領域および対応領域は、それぞれ、2つのみであり、2つの対象領域および2つの対応領域は、それぞれ、垂直方向における赤道を境にして配置されている。対象領域および対応領域を2つ配置する場合は、このような配置が、最適である。全天球画像フォーマットにおいて、赤道は、通常、垂直方向中央に位置するところ、説明する実施形態では、テレビ会議用の全天球撮像デバイス10であり、卓上に底部を接して配置される。底部は、重要な箇所ではないため、説明する実施形態では、全天球画像フォーマットの全垂直画素のうちの下側部が一部欠けている。このため、赤道は、結果として、中央よりやや下側に位置することになる。
図14は、本実施形態によるつなぎ位置検出処理における、テンプレート画像を生成する対象領域および比較画像を生成する対応領域の走査の仕方を説明する図である。図14を参照しながら、本実施形態におけるつなぎ位置を検出するためのテンプレート・マッチングの仕方を説明する。なお、ここでも、一方の重複領域のペア<F0,R0>に注目して説明する。図14に示すように、まず、ペアのうち、一方の補正画像Fの重複領域F0において、つなぎ位置検出のための上部の対象領域F0_uの位置を最も近距離側に設定し、これをテンプレート画像とする。次いで、他方の補正画像Rの重複領域R0において、つなぎ位置検出のための対応領域R0_uを最も近距離側に設定する。
ここで、補正画像における、近距離および遠距離について説明する。つなぎ合わせに際し、境界付近の被写体距離が遠距離になるほど、図8に示す部分画像においては、被写体が周辺から中心へ移動する。そして、図9のマッピングを行う場合、被写体距離が遠距離になるほど、図9に示す全天球画像において、左中央または右中央よりに移動することになる。上述した近距離および遠距離は、それぞれ、被写体距離が近くなる場合、および、遠くなる場合に、補正画像においてシフトする方向をいう。
次いで、上部の対象領域F0_uおよび上部の対応領域R0_u間で画像のマッチングスコアを計算する。対応領域R0_uの探索範囲を、重複領域R0の遠距離側の端部までとし、対応領域R0_uを水平に遠距離側に所定ピクセル単位(例えば1ピクセル)ずらしながら、都度、上部対象領域F0_uおよび上部対応領域R0_u間の画像のマッチングスコアを計算する。
対応領域R0_uが遠距離側の端部に到達すると、次は、テンプレート側の対象領域F0_uを水平に所定ピクセル単位(例えば1ピクセル)だけ遠距離側にずらして設定し、これを新たなテンプレート画像とする。次いで、同様に、対応領域R0_uを近距離から遠距離に走査しながらマッチングスコアを計算する。これを対象領域F0_uが遠距離に到達するまで繰り返す。
上記の過程で得られたマッチングスコアのセットに基づいて、つなぎ境界の座標を基準位置として、マッチの程度を評価するスコアが最大となる時のテンプレート画像の位置を、対象領域F0_uのずらし量とし、探索側の位置を、対応領域R0_uのずらし量として記憶する。
ここまでは、下部の対象領域F0_uおよび下部の対応領域R0_uの組み合わせについて説明したが、同様の処理を、下部の対象領域F0_lおよび下部の対応領域R0_lの組み合わせについても実行する。これにより、重複領域のペア<F0,R0>についてのつなぎ検出処理が完了する。一つの重複領域のペアについての処理が完了すると、もう一方の重複領域のペア<F1,R1>についても同様の処理を行い、R1_uおよびF1_uの組み合わせおよびR1_lとF1_lの組み合わせでつなぎ位置検出処理を行い、それぞれ、スコアが最大となる時の位置をずらし量として記憶する。
なお、説明する実施形態では、テンプレート画像を左右方向のみ走査しているが、図10を参照して説明したように、テンプレート画像を上下方向および左右方向の両方向について走査しても良い。また、上述した説明では、補正画像F側からテンプレート画像が切り出されるものとして説明したが、補正画像R側からテンプレート画像が切り出されてもよいし、重複領域のペアの処理で、これらの関係が入れ替わってもよいし、上部および下部の領域での処理で入れ替わってもよい。
図15は、本実施形態による全天球撮像デバイス10が実行する、つなぎ位置検出処理のフローチャートである。図15に示す処理は、動画撮影時のフレーム毎に、ステップS100から開始される。
ステップS101では、つなぎ位置検出部206は、画像合成用歪み補正部202から出力される、当該処理対象のフレームの補正画像Fおよび補正画像Rの入力を受ける。ステップS102では、つなぎ位置検出部206は、処理対象として、重複領域のペア<F0,R0>および<F1,R1>のうちのいずれか1つの重複領域のペアを選択する。この選択は、ペアの数(説明する実施形態では2)だけ繰り返され、任意の順にペアが選択される。ステップS103では、つなぎ位置検出部206は、上部の領域および下部の領域のうちのいずれか1つの領域を選択する。この選択は、領域の数(説明する実施形態では2)だけ繰り返され、ここでは、任意の順に上部または下部が選択される。
ステップS104では、設定部208は、補正画像Fにおける補正画像Rとの重複領域(ステップS102の選択に応じてF0/F1)において、つなぎ位置を求めるべき対象領域(ステップS103の選択に応じて上部領域または下部領域)を近距離側の位置に設定する。ステップS105では、設定部208は、さらに、補正画像R側の重複領域(ステップS102の選択に応じてR0/R1)において、近距離側の位置に対応領域(ステップS103の選択に応じて上部領域または下部領域)を設定する。ステップS106では、算出部210は、補正画像F側の重複領域(F0/F1)の対象領域(上部領域または下部領域)から切り出されたテンプレート画像と、補正画像R側の重複領域(R0/R1)の対象領域(上部領域または下部領域)から切り出された比較画像との間のマッチングスコアを計算する。
ステップS107では、設定部208は、補正画像R側の重複領域(R0/R1)において、対応領域(R0_u/R0_l/R1_u/R1_l)の位置を遠距離側に走査する。ここでは、1ピクセル単位移動することとしてもよいし、2以上のピクセル移動させもよい。ステップS108では、設定部208は、移動の結果、対応領域の探索範囲の端である重複領域(R0/R1)の遠距離側端部を越えたか否か(スコア計算後の移動の結果、対応領域の範囲が遠距離側端部を越える場合は、スコア計算を行った位置が遠距離側端部に達していると判断できる)を判定する。ステップS108で、遠距離側の端部をまだ超えていないと判定された場合(NO)は、ステップS106に戻される。この場合、再度、移動後の位置でマッチングスコアが計算されることになる。一方、ステップS108で、遠距離側の端部を越えたと判定された場合(YES)は、ステップS109に進められる。
ステップS109では、設定部208は、補正画像F側の重複領域(F0/F1)において、対象領域(F0_u/F0_l/F1_u/F1_l)の位置を遠距離側に走査する。ここでは、1ピクセル単位移動することとしてもよいし、2以上のピクセル移動させもよい。ステップS110では、設定部208は、移動の結果、対象領域の設定範囲の端である重複領域(F0/F1)の遠距離側端部を越えたか否かを判定する。ステップS110で、遠距離側をまだ超えていないと判定された場合(NO)は、ステップS105に戻される。この場合、対象領域は、遠距離側に移動されるが、補正画像R側の重複領域(R0,R1)における対応領域は、近距離側の位置に戻される。一方、ステップS110で、遠距離側の端部を越えたと判定された場合(YES)、ステップS111に進められる。
ステップS111では、算出部210は、これまでに算出されたマッチングスコアのセットに基づいて、最大のスコアを示す、補正画像F上の対象領域の位置および補正画像R上の対応領域の位置をずらし量として算出する。
ステップS112では、対象の重複領域のペアについて、上領域および下領域の両方の処理が終了したか否かを判定する。ステップS112で、まだ両方について処理が完了していないと判定された場合(NO)は、ステップS103に戻される。この場合、先ほどとは別の領域が選択されることになる。一方、ステップS112で、両方について処理が完了したと判定された場合(YES)は、ステップS113に進められる。
ステップS113では、すべての重複領域のペアの処理が終了したか否かを判定する。ステップS113で、すべてのペアついて処理が完了していないと判定された場合(NO)は、ステップS102に戻される。この場合、先ほどとは別の重複領域のペアが選択される。一方、ステップS113で、すべてのペアについて処理が完了したと判定された場合(YES)は、ステップS114に進められ、本処理を終了する。以降、引き続き次のフレームを待ち受ける。
図16は、本実施形態において、画像合成用変換テーブル232を修正するために生成される画素毎のつなぎ位置を含むつなぎ位置テーブルのデータ構造を示す図である。図16に示すように、つなぎ位置検出部206は、変換後の各座標値(θ)に対して、ずらし量(Δθ)が対応付けられた情報を、全座標値について保持するテーブル生成する。また、本実施形態においては、つなぎ位置テーブルは、両方の補正画像について作成される。このとき、上記つなぎ位置検出により求められた領域毎のずらし量(Δθi)(iは、F0_u,F0_l,F1_u,F1_lを識別するインデックスである)を、該領域の座標の値として設定し、各座標値(θ)に対応するずらし量(Δθ)を補間して、残りの位置のつなぎ位置を計算することができる。なお、説明する実施形態では、画素毎のつなぎ位置をテーブル形式で保持する構成としたが、特に限定されるものではない。
つなぎ位置テーブルの作成は、具体的には、まず、図17(A)に示すように、つなぎ位置検出のため領域各々に対してずらし量(Δθi)を設定する。また、水平座標θの中心座標には、ずらし量を0に設定する。その他のずらし量未設定の座標については、図19(B)に示すように、設定済みの2点(中心座標と、領域中央の座標)から線形補間演算により算出する。なお、上部領域と下部領域との間に関しては、上述したように赤道を境に上部領域および下部領域(例えばF0_u,F0_l)にそれぞれ3~10%程度の間を持たせる場合、上部領域および下部領域間の領域のずらし量は、既に設定してあるθ方向の2点間の線形補間で求めた上部領域(例えばF0_u)のずらし量と下部領域(例えばF0_l)のずらし量との補間によって求めることができる。なお、上部領域と下部領域とでずらし量が所定閾値を超える場合に、ずらし量を制限することとしてもよい。例えば下部領域のずらし量を、上部領域のずらし量の所定%以内とするといった制約を与えてもよい。
テーブル修正部212は、このように得られた図16に示すようなつなぎ位置テーブルを用いて画像合成用変換テーブル232を更新する。テーブル修正部212は、最初の1乃至数フレームに対しては、歪み補正用変換テーブル230をそのまま画像合成用変換テーブル232として出力する。テーブル修正部212は、一方で、所定数フレーム以降については、前回の画像合成用変換テーブル232を用いて生成された補正画像F,Rに基づいてつなぎ位置検出を行い、前回の画像合成用変換テーブル232に対して、つなぎ位置検出部206によるつなぎ位置検出結果を用いて修正し、更新された画像合成用変換テーブル232を使用する。
図18および図19は、本実施形態において、変換後の画像合成処理を説明する図である。画像合成用歪み補正部202は、つなぎ位置情報と前回使用した画像合成用変換テーブル232とに基づいて更新された画像合成用変換テーブル232を用いて、部分画像Fおよび部分画像Rに対して歪み補正をし、補正画像Fおよび補正画像Rを生成する。図18(A)および図8(B)は、前フレームの状態(つなぎ位置の補正がなされていない状態)の補正画像Fおよび補正画像Rを表す。図18(A)および図18(B)に示した状態の前フレームの補正画像F,Rを入力としてつなぎ位置が算出され、それに基づいて生成された画像合成用変換テーブル232を用いて補正されたものが、図18(C)および図18(D)に示した補正画像F,Rである。
図18(A)および図18(B)に示すように、前フレームにおいて、本来つなぎ境界Bに位置する遠距離の被写体Ofar1,Ofar2は、つなぎ境界Bよりも遠距離側(中央寄り)に位置し、中距離の被写体Omidは、おおむねつなぎ境界Bに位置し、近距離の被写体Onearは、つなぎ境界Bよりも近距離側(周辺寄り)に位置している。これに対して、つなぎ位置を算出し、それに基づいて生成された画像合成用変換テーブル232を用いて補正された画像においては、図18(C)および図8(D)に示すように、各被写体Ofar1,Ofar2,Omid,Onearは、すべて、本来の位置の通り、つなぎ境界B上に補正されている。
引き続き、画像合成部204は、図19に示すように、つなぎ位置反映済みの補正画像Fおよび補正画像Rを合成し、合成画像240を生成する。図19左側に示す補正画像F,Rそれぞれのつなぎ境界Bより外側を切り取り、180度分の画像を左右に並べた合成画像として出力される。なお、ここでは、説明の便宜上、つなぎ境界Bより外側を切り取ることとし、これは、処理の高速化の観点からは好ましいが、別の実施形態では、重複領域については、重複領域の画像を位置に応じた透過度(α値)で滑らかに重ね合わせるブレンディング処理を行ってもよい。
生成された合成画像の合成フレームからなる合成画像列は、順次、動画圧縮部220に出力され、動画圧縮部220でさらに動画圧縮されて、動画データとして書き出されることになる。
以上説明したように、上述した実施形態によれば、重複領域を有する複数の画像を合成する際に、精度および速度の観点から両立しながら、被写体の距離に応じた画像つなぎ合わせが可能な画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラムを提供することが可能となる。これは、複数の広角レンズまたは魚眼レンズで撮影した視差を伴う複数の画像を合成する際に好適である。
上述した実施形態において、複数の対象領域および複数の対応領域は、複数の補正画像F,Rが並べられる方向の直交方向で変位して(異なる位置に)配置され、異なるサイズを有するように設定されている。このように、つなぎ検出を行う領域(対象領域および対応領域)の配置および大きさを最低化することにより、高速かつ高精度な画像つなぎ合わせが可能となる。このような処理は、特に、リアルタイム配信などのリアルタイム処理に適している。このように、複数の対象(対応)領域に写りこむ被写体の距離に偏りがある特性を利用して、相対的に近距離の被写体が写る傾向のある領域と、相対的に遠距離の被写体が写る傾向のある領域とで、そのサイズを異ならせることにより、処理の最適化が図られる。
特に、好ましい実施形態において、2つの対象領域および2つの対応領域が設けられ、そのサイズが小さい一方は、他方よりも近距離にある被写体が配置されやすい傾向にある箇所(例えば、図11に示す使用態様では下部)である。2つの対象領域および2つの対応領域は、より好ましくは、垂直方向における赤道を境にして配置される。相対的に近距離の被写体が写る傾向のある領域を小さくすることにより、効率および精度の両立した画像つなぎ合わせが可能となる。このような配置は、特に、全天球撮像デバイス10が机上に配置されるような使用態様で最適な配置となり、特にリアルタイム動画配信といった速度と品質の両方が求められる場合に、最適解であるといえる。
また、特定の実施形態においては、前回の画像合成用変換テーブル232とつなぎ位置検出部206によるつなぎ位置検出結果を用いて更新された画像合成用変換テーブル232が使用される。そのため、安価なシステムで、つなぎ位置を適用的に変更することが可能となる。
なお、上述した実施形態では、各重複領域ペアにおける一方の画像に対し、垂直方向に対象領域を2つ設定していた。しかしながら、垂直方向に並べられる対象領域の数は、2に限定されるものではない。他の実施形態では、垂直方向に対象領域を3つ設定してもよい。例えば、近距離側(画像下側)、中距離側(画像中央)、遠距離側(画像上側)にむかって徐々に対象領域を大きくした3つの対象領域を設定しても良い(近距離側のサイズ<中距離側のサイズ<遠距離側のサイズ)。あるいは、中距離側および遠距離側は、近距離側より大きくかつ同じ大きさの対象領域に設定しても良い(近距離側のサイズ<中距離側のサイズ=遠距離側のサイズ)。このように、全天球撮像デバイス10に要求される画像つなぎ処理の速度、つまり動画像をリアルタイムで配信する場合のフレームレートやレイテンシなどの条件が達成される範囲内であれば、対象領域を2つ以上に設定することが可能となる。
また、対象領域のいずれを大きくするかは、適宜、全天球撮像デバイス10の設置態様によって変更してもよい。また、上述した説明では、遠距離の被写体が配置される傾向にある方の対象領域を大きくしており、好ましいが、他の実施形態においては、近距離側の対象領域を大きく設定しても良い。
上述した実施形態では、全天球撮像デバイス10が、本実施形態における画像処理装置、画像処理システムおよび撮像装置を構成するものであった。しかしながら、画像処理装置、画像処理システムおよび撮像装置の構成は、上述した構成に限定されるものではない。例えば、他の実施形態では、上述した部分画像の撮像処理を除く画像処理を、情報端末170、その他の画像処理装置(例えばパーソナル・コンピュータやサーバ、クラウド上の仮想コンピュータなど)上で分散実装してもよい。このような実施形態では、全天球撮像デバイス10は、複数の部分画像を取得して出力し、情報端末170や他の画像処理装置は、全天球撮像デバイス10から出力された複数の部分画像の入力を受け、つなぎ検出および画像合成処理を行い、出力画像を生成し、モニタ画像を表示したり、画像データを保存したりすることができる。
また、上述した実施形態では、補正画像Fおよび補正画像Rは、画像処理を行う機能を担う画像処理装置(例えばコントローラ)に一体に構成された撮像装置が備える2つの固体撮像素子22A,22Bであって、互いに、水平面において180度異なる方向(逆方向)を撮像し、かつ、水平面において視野が一部重複するように、水平方向で一周の視野を撮影するよう構成された2つの固体撮像素子22A,22Bによりそれぞれ撮像された画像であった。また、全天球撮像デバイス10は、下部に設置部位が設けられており、画像合成に際して補正画像Fおよび補正画像Rが並べられる方向は、全天球画像において、左右方向であり、その直交方向は、上下方向であった。しかしながら、これらの構成は、一例であり、かかる構成に限定されるものではない。例えば、壁などに全天球撮像デバイス10を横方向に取り付けられ、上下方向に撮像したときは、画像合成に際して補正画像が上下方向に並べられ、その直交方向は左右方向となる。
例えば、他の実施形態では、全天球撮像デバイス10の上部に設置部位が設けられて、全天球撮像デバイス10が、天井から吊り下げられてもよい。その場合に、上述した対象領域および対応領域の大小が逆になってもよい。他の実施形態では、また、水平面に配置される3以上の固体撮像素子22が設けられてもよく、その場合に、重複領域のペアは、生じる接合部分の数に応じたものとなる。例えば、水平面において120度異なる方向を撮像し、かつ、水平面において視野が一部重複するように(例えば120度+重複分の画角を視野に入れて)、水平方向で一周の視野を撮影するよう構成された3眼の撮像装置では、重複領域のペアの数は3であってもよい。さらに、上述した水平方向に配置される固体撮像素子に加えて、水平方向以外の方向(例えば真上)の方向を向いて配置された追加の撮像素子が設けられてもよく、その場合、上述したつなぎ検出処理は、上述した水平方向に配置される複数の固体撮像素子についての画像つなぎに適用されてもよい。また、全天球撮像デバイス10は、水平方向で一周未満(例えば270度)の視野を撮影するように構成されてもよく、その場合に、重複領域のペアは、1つであってもよい。
さらに、別の実施形態では、補正画像Fおよび補正画像Rは、互いに、垂直方向において異なる方向を撮像し、かつ、垂直方向において視野が一部重複するように、かつ、垂直方向で一周の視野を撮影するよう構成された複数の固体撮像素子(例えば、左右または前後ではなく、上下方向を向く場合)によりそれぞれ撮像された画像であってもよい。その場合に、全天球撮像デバイス10は、その側部に設置部位が設けられ、壁に設置されてもよく、画像合成に際して補正画像Fおよび補正画像Rが並べられる方向は、全天球画像において、上下方向であり、その直交方向は、左右方向であってもよい。また、全天球撮像デバイス10は、垂直方向で一周未満の視野を撮影するように構成されてもよく、その場合に、重複領域のペアは、1つであってもよい。
<追加の実施形態>
別の実施形態では、これまで上述した各実施形態で説明される画像処理装置、画像処理システムおよび撮像装置を移動体に備えた構成であってもよい。ここで移動体とは、車両、航空機、船舶、移動式ロボットなどである。図20は、追加の実施形態における移動体である車両410に4つの撮像体420F,420B,420L,420Rを備えた場合を模式的に示した図である。なお、4つの撮像体は一例であり、4つ以上の撮像体を備えても良い。
別の実施形態では、これまで上述した各実施形態で説明される画像処理装置、画像処理システムおよび撮像装置を移動体に備えた構成であってもよい。ここで移動体とは、車両、航空機、船舶、移動式ロボットなどである。図20は、追加の実施形態における移動体である車両410に4つの撮像体420F,420B,420L,420Rを備えた場合を模式的に示した図である。なお、4つの撮像体は一例であり、4つ以上の撮像体を備えても良い。
ここで、撮像体420Fは、車両410の前方(進行方向側)、撮像体420Bは、車両410の後方、撮像体420Lは、車両410の左側方、撮像体420Rは、車両410の右側方をそれぞれ撮像するものである。例えば撮像体420Fは、車両のフロントグリル付近やフロントバンパー付近など、車両の高さ方向において比較的地面に近い位置に配置され、撮像体420B,420L,420Rは、撮像体420Fと同等の高さ位置に配置される。図20でそれぞれの撮像体420F,420B,420L,420Rで撮像される撮像範囲を破線VF,VB,VL,VRで示しており、図20に示すように、隣り合う撮像体(例えば420Fと420R、420Rと420B、420Bと420L、420Lと420F)の撮像範囲を重ならせた重複領域OFR,OBR,OBL,OFLを有するよう構成している。この構成により、車両の全周囲方向において撮像体420F,420B,420L,420Rそれぞれで撮像された4つの画像を取得することができる。そして、撮像した4つの画像をそれぞれ重複領域OFR,OBR,OBL,OFLに基づいて画像つなぎ処理を行うことで、水平方向の一周(車両の全周囲)を表すパノラマ画像を生成することができる。
このとき、繋ぎ位置を検出する対象領域および対応領域については上述した実施形態で説明した処理が適用可能である。そして、生成したパノラマ画像やパノラマ画像に基づくパノラマ動画などを、車両が有するカーナビゲーションなどの表示装置に表示することで、運転者が自車の周囲の状況を容易に把握することが可能となる。
本実施形態では、撮像される画像の下側の領域にはアスファルトなどの路面が、上側の領域には車両の周囲に存在し得る他の車両や歩行者などの主要被写体が位置することになる。ここで、本発明の実施形態を車両410に適用する場合、表示装置に表示される映像はリアルタイム性が求められることから、高精度のつなぎ処理をする反面、画像処理速度が遅くなることは好ましくない。また、たとえ画像処理速度が高速であったとしても、つなぎ処理が低精度であれば、画像の上側に位置する主要被写体の位置変化に伴うつなぎ位置のズレが生じた映像が表示され、運転者に違和感を与える可能性があるため好ましくない。よって、本実施形態によれば、他の実施形態と同様に、動画配信時における画像つなぎ処理の速度および精度の両立が可能となる点で好適である。
なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD-ROM、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog-HDLなどにより記述されたデータとして記録媒体により配布することができる。
これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
本開示は、さらに以下を含む。
(付記1)
少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
を含み、
上記第1の撮影画像における上記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、画像処理装置。
(付記2)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記1に記載の画像処理装置。
(付記3)
上記複数の対象領域を設定する設定手段
をさらに含む、付記1に記載の画像処理装置。
(付記4)
上記複数の対象領域各々にマッチする上記第2の撮影画像上の複数の対応領域各々の位置を算出する算出手段
をさらに含む、付記3に記載の画像処理装置。
(付記5)
上記複数の対象領域は、上記第1の撮影画像および上記第2の撮影画像が並べられる方向の直交方向に配置される、付記4に記載の画像処理装置。
(付記6)
少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
を含み、
上記第1の撮影画像における上記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、画像処理システム。
(付記7)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記6に記載の画像処理システム。
(付記8)
第1の方向で撮像し、第1の撮影画像を生成するための第1の撮像手段と、
上記第1の方向とは異なる第2の方向で撮像し、第2の撮影画像を生成するための第2の撮像手段と
を含み、上記第1の撮影画像における上記第2の撮影画像との上記重複領域内で、上記つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、撮像装置。
(付記9)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記8に記載の撮像装置。
(付記10)
第1の撮影画像および第2の撮影画像の入力を受けるステップと、
上記第1の撮影画像における上記第2の撮影画像との重複領域内で、つなぎ位置を求めるステップを含み、
上記第1の撮影画像における上記第2の撮影画像との上記重複領域内で、上記つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、画像処理方法。
(付記11)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記10に記載の画像処理方法。
(付記12)
コンピュータを、
少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
として機能させるためのプログラムであり、
上記第1の撮影画像における上記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、プログラム。
(付記13)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記12に記載のプログラム。
(付記1)
少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
を含み、
上記第1の撮影画像における上記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、画像処理装置。
(付記2)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記1に記載の画像処理装置。
(付記3)
上記複数の対象領域を設定する設定手段
をさらに含む、付記1に記載の画像処理装置。
(付記4)
上記複数の対象領域各々にマッチする上記第2の撮影画像上の複数の対応領域各々の位置を算出する算出手段
をさらに含む、付記3に記載の画像処理装置。
(付記5)
上記複数の対象領域は、上記第1の撮影画像および上記第2の撮影画像が並べられる方向の直交方向に配置される、付記4に記載の画像処理装置。
(付記6)
少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
を含み、
上記第1の撮影画像における上記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、画像処理システム。
(付記7)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記6に記載の画像処理システム。
(付記8)
第1の方向で撮像し、第1の撮影画像を生成するための第1の撮像手段と、
上記第1の方向とは異なる第2の方向で撮像し、第2の撮影画像を生成するための第2の撮像手段と
を含み、上記第1の撮影画像における上記第2の撮影画像との上記重複領域内で、上記つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、撮像装置。
(付記9)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記8に記載の撮像装置。
(付記10)
第1の撮影画像および第2の撮影画像の入力を受けるステップと、
上記第1の撮影画像における上記第2の撮影画像との重複領域内で、つなぎ位置を求めるステップを含み、
上記第1の撮影画像における上記第2の撮影画像との上記重複領域内で、上記つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、画像処理方法。
(付記11)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記10に記載の画像処理方法。
(付記12)
コンピュータを、
少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
として機能させるためのプログラムであり、
上記第1の撮影画像における上記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、相対的に被写体との距離が遠距離である遠距離領域と近距離である近距離領域とで異なる大きさを有している、プログラム。
(付記13)
上記遠距離領域および上記近距離領域では、上記遠距離領域の対象領域の方が大きい、付記12に記載のプログラム。
10…全天球撮像デバイス、12…撮像体、13…切り込み部(把手)、14…筐体、15A,15B…コントローラ基板、16A,16B…ケーブル、17A~17C…コネクタ、18…操作ボタン、20…結像光学系、22…固体撮像素子、100…プロセッサ、102…鏡胴ユニット,108…ISP、110,122…DMAC、112…アービタ(ARBMEMC)、114…MEMC、116,138…SDRAM、118…歪曲補正・画像合成ブロック、120…3軸加速度センサ、124…画像処理ブロック、126…画像データ転送部、128…SDRAMC、130…CPU、132…リサイズブロック、134…静止画ブ圧縮ロック、136…動画圧縮ブロック、140…メモリカード制御ブロック、142…メモリカードスロット、144…フラッシュROM、146…USBブロック、148…USBコネクタ、150…ペリフェラル・ブロック、152…音声ユニット、154…スピーカ、156…マイク、158…シリアルブロック、160…無線NIC、162…LCDドライバ、164…LCDモニタ、166…電源スイッチ、170…情報端末、172…CPU、174…RAM、176…HDD、178…入力装置、180…外部ストレージ、182…ディスプレイ、184…無線NIC、186…USBコネクタ、188…バス、190‥ケーブル、200…機能ブロック、202…画像合成用歪み補正部、204…画像圧縮部、206…つなぎ位置検出部、208…設定部、210…算出部、212…テーブル修正部、220…動画圧縮部、222…リアルタイム配信部、224…表示画像生成部、230…歪み補正用変換テーブル、232…画像合成用変換テーブル、240…合成画像、242…動画データ、244…表示画像、300…会議室、302…テーブル、310…インタラクティブボード、320…ホワイトボード、F0,F1,R0,R1…重複領域、F0_u,F1_u,R0_u,R1_u…上部領域、F0_l,F1_l,R0_l,R1_l…下部領域、Ofar,Ofar1,Ofar2…遠距離の被写体、Omid…中距離の被写体、Onear…近距離の被写体、
Claims (18)
- 少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
を含み、
前記第1の撮影画像における前記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、前記第1の撮影画像および前記第2の撮影画像が並べられる方向の直交方向に配置され、異なるサイズを有している、画像処理装置。 - 前記複数の対象領域を設定する設定手段
をさらに含む、請求項1に記載の画像処理装置。 - 前記複数の対象領域各々にマッチする前記第2の撮影画像上の複数の対応領域各々の位置を算出する算出手段
をさらに含む、請求項2に記載の画像処理装置。 - 前記複数の対象領域は、2つの対象領域であり、前記複数の対象領域のうちのサイズが小さい一方は、他方よりも近距離にある被写体が配置されやすい傾向にある箇所である、請求項1に記載の画像処理装置。
- 前記第1の撮影画像および前記第2の撮影画像は、全天球画像またはパノラマ画像のフォーマットの画像であり、前記複数の対象領域は、垂直方向における赤道を境にして配置される、請求項1に記載の画像処理装置。
- 前記設定手段によって設定された前記複数の対象領域各々に対して前記算出手段により算出された位置に基づいて、前記画像入力手段に入力される第1の撮影画像および第2の撮影画像を合成する画像合成処理手段
をさらに含む、請求項3に記載の画像処理装置。 - 前記第1の撮影画像および前記第2の撮影画像間には、前記重複領域とは異なる第2の重複領域があり、前記設定手段は、前記第2の重複領域内で、それぞれつなぎ位置を求めるための複数の第2の対象領域を設定し、前記算出手段は、前記複数の第2の対象領域各々にマッチする複数の第2の対応領域各々の位置を算出する、請求項3に記載の画像処理装置。
- 前記複数の対象領域のうちの一の対象領域に関し、前記設定手段は、前記複数の対応領域のうちの前記一の対象領域に対応する一の対応領域の位置を走査し、前記算出手段は、前記一の対象領域の画像と前記一の対応領域の画像とがマッチするスコアを評価し、最大のスコアを示す前記一の対応領域の位置を求める、請求項3に記載の画像処理装置。
- 前記一の対象領域に関し、前記設定手段は、さらに前記一の対象領域の位置を走査することを特徴とし、前記算出手段は、前記一の対象領域の画像と、前記一の対応領域の画像との最大の前記スコアを与える前記一の対象領域の位置および前記一の対応領域の位置の組み合わせを求める、請求項8に記載の画像処理装置。
- 前記第1の撮影画像および前記第2の撮影画像は、当該画像処理装置と一体または別体の撮像装置が備える第1の撮像手段および第2の撮像手段であって、互いに、水平面において異なる方向を撮像し、かつ、前記水平面において視野が一部重複するように構成された前記第1の撮像手段および前記第2の撮像手段によりそれぞれ撮像された画像であり、前記並べられる方向は、左右方向であり、前記直交方向は、上下方向であり、前記撮像装置は、上部また下部に設置部位が設けられる、請求項1に記載の画像処理装置。
- 前記第1の撮影画像、前記第2の撮影画像および前記合成された画像は、それぞれ、2つの偏角を有する極座標系で表現された画像である、請求項6に記載の画像処理装置。
- 少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
を含み、
前記第1の撮影画像における前記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、前記第1の撮影画像および前記第2の撮影画像が並べられる方向の直交方向に配置され、異なるサイズを有している、画像処理システム。 - 第1の方向で撮像し、第1の撮影画像を生成するための第1の撮像手段と、
前記第1の方向とは異なる第2の方向で撮像し、第2の撮影画像を生成するための第2の撮像手段と
を含み、前記第1の撮影画像における前記第2の撮影画像との前記重複領域内で、つなぎ位置を求めるための複数の対象領域は、前記第1の撮影画像および前記第2の撮影画像が並べられる方向の直交方向に配置され、異なるサイズを有している、撮像装置。 - 前記第1の撮像手段および前記第2の撮像手段により撮像された第1部分画像および第2の部分画像を歪み補正して前記第1の撮影画像および前記第2の撮影画像を生成する歪み補正手段
をさらに含む、請求項13に記載の撮像装置。 - 第1の撮影画像および第2の撮影画像の入力を受けるステップと、
前記第1の撮影画像における前記第2の撮影画像との重複領域内で、つなぎ位置を求めるステップを含み、
前記第1の撮影画像における前記第2の撮影画像との重複領域内で、前記つなぎ位置を求めるための複数の対象領域は、前記第1の撮影画像および前記第2の撮影画像が並べられる方向の直交方向に配置され、異なるサイズを有している、画像処理方法。 - 前記第1の撮影画像および前記第2の撮影画像は、全天球画像またはパノラマ画像のフォーマットの画像であり、前記複数の対象領域は、垂直方向における赤道を境にして配置される、請求項15に記載の画像処理方法。
- 前記複数の対象領域の各々に対して算出された位置に基づいて、入力される第1の撮影画像および第2の撮影画像を合成する、請求項16に記載の画像処理方法。
- コンピュータを、
少なくとも第1の撮影画像および第2の撮影画像が入力される画像入力手段
として機能させるためのプログラムであり、
前記第1の撮影画像における前記第2の撮影画像との重複領域内で、つなぎ位置を求めるための複数の対象領域は、前記第1の撮影画像および前記第2の撮影画像が並べられる方向の直交方向に配置され、異なるサイズを有している、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022162948A JP2024056212A (ja) | 2022-10-11 | 2022-10-11 | 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム |
US18/378,152 US20240135499A1 (en) | 2022-10-11 | 2023-10-10 | Image processing apparatus, imaging apparatus, image processing method |
EP23202623.7A EP4354383A1 (en) | 2022-10-11 | 2023-10-10 | Image processing apparatus, image processing system, imaging apparatus, image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022162948A JP2024056212A (ja) | 2022-10-11 | 2022-10-11 | 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024056212A true JP2024056212A (ja) | 2024-04-23 |
Family
ID=88315557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022162948A Pending JP2024056212A (ja) | 2022-10-11 | 2022-10-11 | 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240135499A1 (ja) |
EP (1) | EP4354383A1 (ja) |
JP (1) | JP2024056212A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118417199B (zh) * | 2024-07-02 | 2024-09-20 | 湖南辰铭竹木制品有限公司 | 一种基于多目标视觉检测的竹筷色选机控制方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10244164B1 (en) * | 2017-09-11 | 2019-03-26 | Qualcomm Incorporated | Systems and methods for image stitching |
JP7424076B2 (ja) | 2020-01-29 | 2024-01-30 | 株式会社リコー | 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム |
-
2022
- 2022-10-11 JP JP2022162948A patent/JP2024056212A/ja active Pending
-
2023
- 2023-10-10 US US18/378,152 patent/US20240135499A1/en active Pending
- 2023-10-10 EP EP23202623.7A patent/EP4354383A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4354383A1 (en) | 2024-04-17 |
US20240135499A1 (en) | 2024-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6721065B2 (ja) | 撮像装置、画像処理装置および方法 | |
JP7185434B2 (ja) | 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法 | |
CN108600576B (zh) | 图像处理装置、方法和系统以及计算机可读记录介质 | |
JP5109803B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP5846172B2 (ja) | 画像処理装置、画像処理方法、プログラムおよび撮像システム | |
JP7424076B2 (ja) | 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム | |
US20220230275A1 (en) | Imaging system, image processing apparatus, imaging device, and recording medium | |
US20240135499A1 (en) | Image processing apparatus, imaging apparatus, image processing method | |
JP6665917B2 (ja) | 画像処理装置 | |
JP6222205B2 (ja) | 画像処理装置 | |
JP5796611B2 (ja) | 画像処理装置、画像処理方法、プログラムおよび撮像システム | |
US11825213B2 (en) | Removal of image capture device from omnidirectional image created by stitching partial images | |
JP6079838B2 (ja) | 画像処理装置、プログラム、画像処理方法および撮像システム | |
JP6439845B2 (ja) | 画像処理装置 | |
JP2021145190A (ja) | 画像処理装置、画像処理方法、撮像装置、画像処理システムおよびプログラム | |
JP2021005829A (ja) | 撮像装置、画像処理システム、方法およびプログラム | |
JP2021005828A (ja) | 撮像装置、撮像システム、方法およびプログラム |