JP6756679B2 - 決定装置、画像処理装置、決定方法及び決定プログラム - Google Patents

決定装置、画像処理装置、決定方法及び決定プログラム Download PDF

Info

Publication number
JP6756679B2
JP6756679B2 JP2017161555A JP2017161555A JP6756679B2 JP 6756679 B2 JP6756679 B2 JP 6756679B2 JP 2017161555 A JP2017161555 A JP 2017161555A JP 2017161555 A JP2017161555 A JP 2017161555A JP 6756679 B2 JP6756679 B2 JP 6756679B2
Authority
JP
Japan
Prior art keywords
image
background
user
camera
specific object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017161555A
Other languages
English (en)
Other versions
JP2018129026A (ja
Inventor
愛 磯貝
愛 磯貝
越智 大介
大介 越智
木全 英明
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JP2018129026A publication Critical patent/JP2018129026A/ja
Application granted granted Critical
Publication of JP6756679B2 publication Critical patent/JP6756679B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、決定装置、画像処理装置、決定方法及び決定プログラムに関する。
従来、画像処理の技術として、拡張現実感(AR:Augmented Reality)及び複合現実感(MR:Mixed Reality)が知られている。拡張現実感とは、実空間に存在する物体に画像処理装置が情報を付与等することで、現実を拡張して表現する技術である。複合現実感とは、実空間に存在する物体の画像を画像処理装置が変化させ、変化した物体の画像と仮想空間に存在する物体の画像とを画像処理装置が複合化して表現する技術である。
上記のような技術分野において、実空間の物体がない状態の画像を生成し、生成した画像を実空間と重ねあわせてユーザに見せることで、実空間から物体が取り除かれたように見せることができる。実空間に物体がない状態の画像を生成する手法として、大きく2つに分類することができる。1つ目の手法として、物体が写っている画像を用いて物体周辺の領域から修復する方法が挙げられる(例えば、非特許文献1参照)。2つ目の手法として、物体の背景を撮影している複数のカメラ画像を用いて物体領域を埋める方法が挙げられる(例えば、非特許文献2参照)。
河合紀彦、外2名、「画像修復を用いた隠消現実感」、第17回画像の認識・理解シンポジウム 榎本暁人、外1名、「複数のハンディカメラを利用したDiminished Reality」、画像の認識・理解シンポジウム、2007年7月
しかしながら、非特許文献1の手法では、物体周辺の類似した色又はテクスチャで背景が埋められるため、物体の正しい背景を復元することができない場合がある。また、非特許文献2の手法では、物体の背景を取得するために異なる視点から複数の画像を撮影し、背景以外の物体をブレンディングによって見えにくくすることはできるが、物体が部分的に残ってしまう場合がある。このように、従来の手法では、実空間に物体がない状態の画像を生成する際に問題が生じる。
これに対し、実空間で物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を撮像してユーザに提示することが考えられるが、特定の物体が柱等の動かせない物体である場合には背景の画像を撮影することができない。そのため、実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することができる技術が要求されている。
上記事情に鑑み、本発明は、実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することができる技術の提供を目的としている。
本発明の一態様は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置であって、前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像していて、かつ、前記ユーザの視線方向と、前記撮像装置の光軸との成す角度が小さい撮像装置を複数の撮像装置から選択する選択部、を備える決定装置である。
本発明の一態様は、上記の決定装置であって、前記選択部は、前記角度が小さい撮像装置が複数ある場合、前記ユーザの位置から前記背景の特定の位置までの距離と、前記撮像装置の位置から前記背景の特定の位置までの距離とに基づいて撮像装置を選択する。
本発明の一態様は、上記の決定装置であって、前記選択部は、前記ユーザの位置から前記背景の特定の位置までの距離と、前記撮像装置の位置から前記背景の特定の位置までの距離との差が所定の値以下の撮像装置を選択する。
本発明の一態様は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置であって、前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像している複数の撮像装置から、前記ユーザの視線方向と、前記撮像装置の光軸との成す角度と、前記ユーザの位置から前記背景の特定の位置までの距離と前記撮像装置の位置から前記背景の特定の位置までの距離との差のいずれを優先するかを表す優先情報に基づいて撮像装置を選択する選択部、を備える決定装置である。
本発明の一態様は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置であって、前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像している複数の撮像装置から、前記背景を被写界深度内に含む画像を撮像する撮像装置を選択する選択部、を備える決定装置である。
本発明の一態様は、上記の決定装置であって、前記選択部は、前記背景を被写界深度内に含む画像を撮像する撮像装置が複数ある場合、前記背景を被写界深度内に含む画像を撮像する複数の撮像装置のうち、画像における複数のパラメータに対する評価値を前記撮像装置毎に算出し、前記評価値に対して優先度に応じた重み付けを行うことによって前記撮像装置毎の合計評価値を算出し、算出した前記合計評価値が閾値以上の撮像装置を選択する。
本発明の一態様は、上記の決定装置と、選択された前記撮像装置によって撮像された静止画像又は動画像から、前記背景画像を切り出す切出部と、切り出された前記背景画像を前記表示装置に出力する出力部と、を備える画像処理装置である。
本発明の一態様は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置が行う決定方法であって、前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像していて、かつ、前記ユーザの視線方向と、前記撮像装置の光軸との成す角度が小さい撮像装置を複数の撮像装置から選択する選択ステップ、を有する決定方法である。
本発明の一態様は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置としてコンピュータに、前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像していて、かつ、前記ユーザの視線方向と、前記撮像装置の光軸との成す角度が小さい撮像装置を複数の撮像装置から選択する選択ステップ、をコンピュータに実行させるための決定プログラムである。
本発明により、実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能となる。
第1の実施形態における画像処理システム1aの構成の例を示す図である。 物体及びカメラ2−1〜2−Nの配置の例を示す俯瞰図である。 カメラ2−1〜2−Nのそれぞれの配置に関する変数の例を示す図である。 表示画像の表示例を示す図である。 カメラ2−1〜2−Nのそれぞれによって撮像された画像の具体例を示す図である。 切出部35の処理を説明するための図である。 表示後の表示画像の表示例を示す図である。 第1の実施形態における画像処理装置3aの処理の流れを示すフローチャートである。 第2の実施形態における画像処理システム1bの構成の例を示す図である。 第2の実施形態における画像処理装置3bの処理の流れを示すフローチャートである。 第3の実施形態における画像処理システム1cの構成の例を示す図である。 物体及びカメラ2−1〜2−Nの配置の例を示す俯瞰図である。 第3の実施形態における画像処理装置3cの処理の流れを示すフローチャートである。
以下、本発明の一実施形態を、図面を参照しながら説明する。
(第1の実施形態)
図1は、第1の実施形態における画像処理システム1aの構成の例を示す図である。画像処理システム1aは、画像に画像処理を施すシステムである。画像は、静止画像又は動画像のいずれでもよい。画像処理システム1aは、カメラ2−1〜2−N(Nは2以上の整数)と、画像処理装置3aと、表示装置4とを備える。以下では、Nは一例として4である。
カメラ2−1〜2−Nは、物体が配置されている実空間において、それぞれ予め定められた向きで予め定められた位置に配置されている。カメラ2−1〜2−Nは、レンズである光学系を介して実空間を撮像する。光学系は、広角レンズ、魚眼レンズ、全天球レンズでもよい。カメラ2−1〜2−Nは、撮像した静止画像又は動画像である画像を、画像処理装置3aに出力する。
画像処理装置3aは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3aと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3aは、カメラ2−n(1≦n≦N)が出力した画像に対して画像処理を施す。画像処理装置3aは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3aは、画像処理が施された画像を表示装置4に出力する。画像処理装置3aは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3aは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。
表示装置4は、ヘッドマウントディスプレイ等の表示装置である。表示装置4の画面は、表示装置4の外から表示装置4の画面に届いた光を透過させる。例えば、表示装置4の画面は、光透過性を備えた液晶ディスプレイである。以下、表示装置4の画面を透過した光による物体の光学画像を、「物体光学像」という。表示装置4の画面は、画面上で物体光学像を隠すように、画像処理装置3aが出力した画像を表示する。これによって、表示装置4は、画像処理装置3aが出力した画像を表示することができる。以下、表示装置4の画面に表示される画像を「表示画像」という。
画像処理システム1aにおける物体及びカメラ2−1〜2−Nの配置例を図2に示す。
図2は、物体及びカメラ2−1〜2−Nの配置の例を示す俯瞰図である。図2に示すように、表示装置4を装着している観察者5が位置する実空間のある部屋100には、カメラ2−1〜2−4と、物体6が配置されている。図2において、観察者5は、視線51の方向を向いている。すなわち、観察者5は、部屋100に配置されている物体6の方向を向いている。これにより、観察者5は、部屋100に配置されている物体6の物体光学像を、表示装置4の画面を透過した光によって表示装置4を介して観察する。観察者5は、部屋100のaの位置からdの位置までの範囲を、表示装置4を介して見ているものとする。すなわち、aの位置と観察者5の位置とを結ぶ線52−1と、dの位置と観察者5の位置とを結ぶ線52−2と、aの位置とdの位置とを結ぶ線とで得られる範囲が観察者5の視野の範囲である。
カメラ2−1〜2−4は、それぞれ予め定められた向きで、部屋100の予め定められた位置に配置される。例えば、カメラ2−1〜2−4は、それぞれ、観察者5が見ている部屋100のaの位置からdの位置までの範囲内に光軸20−1〜20−4が向くように配置されている。
物体6は、例えば、箱、柱等である。以下の説明では、物体6が円柱である場合を例に説明する。物体6が観察者5の視野の範囲内に位置していることにより、観察者5は部屋100のbの位置からcの位置までの壁Cを見ることができない。すなわち、観察者5は、物体6により、物体6の後方の背景を見ることができない。ここで、背景とは、特定の物体(例えば、物体6)で遮蔽されて観察者5から見えないものを表す。背景は、例えば、物体であってもよいし、実空間における壁であってもよいし、実空間上の仮想的な位置に設定された仮想的な壁であってもよい。
物体6は、部屋100に予め定められた物体実位置に配置されている。物体実位置とは、実空間における物体の実際の位置を表す。物体6は、実空間では静止していてもよい。
以下の説明では、物体6を取り除いて、物体6の背景である壁Cを表示装置4に表示する場合を例に説明する。
次に、図1に戻り、画像処理装置3aの構成の例を説明する。画像処理装置3aは、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3aは、画像取得部30、操作部31、変数決定部32、記憶部33、選択部34、切出部35、出力部36を備える装置として機能する。なお、画像処理装置3aの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
画像取得部30は、カメラ2−1〜2−Nのそれぞれによって撮像された画像を取得する。画像取得部30は、取得した画像と、カメラ2−1〜2−Nの識別情報とを、対応付けて記憶部33に記録する。操作部31は、操作キー等を有する操作デバイスである。例えば、操作部31は、キーボード、マウス、タッチパネルである。操作部31は、操作部31に対する操作を受け付けることによって、実空間におけるカメラ2−1〜2−Nのそれぞれの配置情報、実空間における物体の配置情報、観察者5の位置情報、背景の位置情報、切り出し位置情報及び貼り付け位置情報を取得する。
実空間におけるカメラ2−1〜2−Nのそれぞれの配置情報は、例えば、カメラ2−1〜2−Nのそれぞれの実空間における座標及び光軸方向等の情報である。光軸方向は、例えば、図2のように実空間中で定義される座標のx軸を基準とする角度で表現される。実空間における物体の配置情報は、例えば、実空間に配置されている物体(例えば、図2では物体6)の座標の情報である。観察者5の位置情報は、観察者5の座標の情報である。
背景の位置情報は、背景の座標の情報である。
切り出し位置情報は、カメラ画像から切り出される領域の位置を表す情報である。切り出し位置情報は、例えば、物体光学像における左上座標、幅及び高さの情報で表されてもよい。左上座標は、物体光学像における切り出される領域の左上の座標を表す。幅は、物体光学像における切り出される領域の幅を表す。高さは、物体光学像における切り出される領域の高さを表す。貼り付け位置情報は、カメラ画像から切り出された領域が表示画像に貼り付けられる位置を表す情報である。また、例えば、貼り付け位置情報は、表示画像の座標と対応付けてあらかじめ定義されている領域である、「中央」、「右」、「左」といった情報であってもよい。
貼り付け位置情報は、例えば、表示画像における左上座標、幅及び高さの情報で表されてもよい。観察者5の位置情報は、例えば、実空間における観察者の立ち位置の座標の情報と観察者5の視線方向である。操作部31は、取得したカメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、背景の位置情報とを変数決定部32に出力し、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とを選択部34に出力する。また、操作部31は、取得した切り出し位置情報及び貼り付け位置情報を切出部35に出力する。
変数決定部32は、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、背景の位置情報とを操作部31から取得する。変数決定部32は、取得したカメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、背景の位置情報とに基づいて、カメラ2−1〜2−Nの配置に関する変数をカメラ2−1〜2−Nのそれぞれに対して決定する。
カメラ2−1〜2−Nの配置に関する変数は、例えば、観察者5の視線方向とカメラ2−1〜2−Nのそれぞれの光軸との成す角度(以下「カメラ角度」という。)と、観察者5の位置から背景の特定の位置までの距離とカメラ2−1〜2−Nのそれぞれの位置から背景の特定の位置までの距離との差(以下「距離差」という。)とである。背景の特定の位置とは、予め設定されていてもよい。例えば、背景が図2における壁Cである場合、壁Cの中点を背景の特定の位置としてもよい。また、例えば、背景が物体である場合、物体の位置を背景の特定の位置としてもよい。変数決定部32は、カメラ2の配置に関する変数情報を記憶部33に記録する。
図3は、カメラ2−1〜2−Nのそれぞれの配置に関する変数の例を示す図である。変数決定部32は、カメラ2−1〜2−Nのそれぞれの配置に関する変数情報を、カメラ2−1〜2−Nごとに記憶部33に記録する。例えば、変数決定部32は、カメラ角度を、カメラ2−1〜2−Nのそれぞれの識別情報に対応付けて記憶部33に記録する。例えば、変数決定部32は、距離差を、カメラ2−1〜2−Nのそれぞれの識別情報に対応付けて記憶部33に記録する。
図1に戻り、画像処理装置3aの構成の例の説明を続ける。記憶部33は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部33は、画像取得部30によって取得された画像と、カメラ2−1〜2−Nのそれぞれの配置に関する変数情報とを記憶する。記憶部33は、カメラ2−1〜2−Nのそれぞれの配置情報(座標、光軸方向)を記憶してもよい。記憶部33は、物体の配置情報と、観察者5の位置情報とを記憶してもよい。
選択部34は、選択されるカメラ2−nを決定する決定装置として機能する。選択部34は、記憶部33に記憶されている画像及び変数情報と、操作部31を介して入力されたカメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とを入力する。選択部34は、入力した画像及び変数情報と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景を欠けずに撮像していて、かつ、カメラ角度が所定の角度より小さいカメラ2−nを選択する。
所定の角度とは、例えば30度である。ここで、背景が欠けるとは、カメラで、物体がない空間を撮影した場合に映し出される背景の一部または全部が、物体の存在によって遮蔽されて映し出されていない状態、即ち、画像中に背景の一部または全部に物体が映り込んだ状態のことをいう。
また、選択部34は、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合、距離差に基づいてカメラ2−nを選択する。具体的には、選択部34は、距離差が所定の値以下のカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。選択部34は、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。選択部34は、選択したカメラ2−nの識別情報を切出部35に出力する。
切出部35は、選択部34から出力されたカメラ2−nの識別情報と、操作部31を介して入力された切り出し位置情報及び貼り付け位置情報とを入力する。切出部35は、入力した識別情報で識別されるカメラ2−nによって撮像された画像を、記憶部33から取得する。切出部35は、記憶部33から取得した画像から、切り出し位置情報に基づく背景領域の画像(以下「背景部分画像」という。)を切り出す。切出部35は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。また、例えば、貼り付け位置情報が表示画像の座標と対応付けてあらかじめ定義されている領域「中央」を表している場合、切出部35は、表示画面における背景部分画像の表示位置を、表示画像の座標と対応付けてあらかじめ定義されている、表示装置4の画面の中央に決定する。切出部35は、背景部分画像と、表示位置の情報である表示位置情報とを出力部36に出力する。
出力部36は、切出部35から出力された背景部分画像と、表示位置情報とを入力する。出力部36は、入力した表示位置情報に基づいて、背景部分画像に対して画像処理を施す。出力部36は、画像処理が施された背景部分画像と表示位置情報とを表示装置4に出力する。
図4は、表示画像の表示例を示す図である。表示装置4は、物体6から表示装置4の画面に届いた光を透過させる。表示装置4は、物体6の物体光学像を含む表示画像40を表示する。図4に示すように、観察者5は、物体6の物体光学像を、表示画像40の中央に見ることができる。また、図4に示すように、観察者5は、物体6の後方の背景の物体光学像を、表示画像40上で見ることができない。
図5は、カメラ2−1〜2−Nのそれぞれによって撮像された画像の具体例を示す図である。図5において、図5(a)はカメラ2−1が画像処理装置3aに出力したカメラ画像21であり、図5(b)はカメラ2−2が画像処理装置3aに出力したカメラ画像22であり、図5(c)はカメラ2−3が画像処理装置3aに出力したカメラ画像23であり、図5(d)はカメラ2−4が画像処理装置3aに出力したカメラ画像24である。
図5(a)に示すように、カメラ画像21では、壁Cの範囲(背景b−c間)の一部が物体6に遮蔽されていて壁Cの全てが撮像されていない。また、図5(b)に示すように、カメラ画像22では、壁Cが欠けずに撮像されている。すなわち、カメラ画像22では、壁Cの全てが撮像されている。また、図5(c)に示すように、カメラ画像23では、壁Cが欠けずに撮像されている。また、図5(d)に示すように、カメラ画像24では、壁Cが欠けずに撮像されているが、カメラ2−4の位置から壁Cまでの距離が他のカメラ2−1〜2−3と比べて遠いために壁Cが他のカメラ画像21〜23と比べて小さく撮像されている。
図6は、切出部35の処理を説明するための図である。ここでは、選択部34がカメラ2−3を選択した場合を例に説明する。切出部35は、選択されたカメラ2−3が出力したカメラ画像23から、背景部分画像50を切り出す。また、切出部35は、表示画面における、切り出した背景部分画像50の表示位置を、物体6に対応する位置に決定する。
出力部36は、切り出された背景部分画像50に画像処理を施して画像処理が施された背景部分画像50と、表示位置情報とを表示装置4に出力する。表示装置4の画面は、画面上で物体光学像を隠すように、画像処理が施された背景部分画像50を、表示位置情報で示される位置で物体光学像に重畳して表示する。表示後の表示画像の表示例を図7に示す。
図7は、表示後の表示画像の表示例を示す図である。図7に示すように、表示装置4は、物体光学像を含む表示画像40上に、画像処理が施された背景部分画像50を重畳して表示する。これにより、図4で表示画像40上に表示されていた物体6が取り除かれたような画像を観察者5に提示することができる。
図8は、第1の実施形態における画像処理装置3aの処理の流れを示すフローチャートである。なお、図8の説明では、既に変数決定部32による処理は行われているものとする。また、図8では、複数のカメラ2−1〜2−Nから静止画像を取得した場合の処理について説明する。
画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから画像を取得する(ステップS101)。画像取得部30は、取得した複数の画像をそれぞれ、カメラ2−1〜2−Nのそれぞれの識別情報に対応付けて記憶部33に記録する。選択部34は、記憶部33に記憶されている画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2−1〜2−Nの配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS102)。ここで、背景が欠けるとは、カメラで、物体がない空間を撮影した場合に映し出される背景の一部または全部が、物体の存在によって遮蔽されて映し出されていない状態、即ち、画像中に背景の一部または全部に物体が映り込んだ状態のことをいう。
具体的には、まず選択部34は、観察者5の位置情報と物体の配置情報とに基づいて、観察者5の視野範囲のうち物体6の遮蔽により観察者5から見えない背景の範囲を算出する。そして、選択部34は、カメラ2−1〜2−Nの配置情報と、カメラ2−1〜2−Nの視野範囲と、物体の配置情報とに基づいて、観察者5が見えない背景の範囲を欠けることなく撮像できている画像があるか否か判定する。
背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、画像処理装置3aは処理を終了する。
一方、背景が欠けずに撮像されている画像がある場合(ステップS102−YES)、次に選択部34は記憶部33に記憶されている変数情報に基づいて、カメラ角度が所定の角度より小さいカメラ2−nが複数あるか否か判定する(ステップS103)。カメラ角度が所定の角度より小さいカメラ2が複数ない場合(ステップS103−NO)、選択部34はカメラ角度が所定の角度より小さいカメラ2−nを選択する(ステップS104)。所定の角度とは、例えば30度とする。その後、選択部34は選択したカメラ2−nの識別情報を切出部35に出力する。
切出部35は、選択部34から出力された識別情報で識別されるカメラ2−nによって撮像された画像を記憶部33から取得する。切出部35は、取得した画像から背景部分画像を切り出す。例えば、切出部35は、切りだし位置情報で指定される領域を画像から切り出す。また、切出部35は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、切出部35は、貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。
切出部35は、背景部分画像と、表示位置情報とを出力部36に出力する。出力部36は、切出部35から出力された背景部分画像と表示位置情報とを入力する。出力部36は、入力した背景部分画像に対して画像処理を行う。具体的には、出力部36は、背景部分画像を、観察者5の視線51の方向から見た画像に変換する。例えば、出力部36は、アフィン変換行列を用いたアフィン変換処理を背景部分画像に対して施す。アフィン変換行列は、回転、拡大又は縮小等の処理が施される領域を示す情報を含んでもよい。その後、出力部36は、変換後の背景部分画像と表示位置情報とを表示装置4に出力する(ステップS105)。
また、ステップS103の処理において、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合(ステップS103−YES)、選択部34はカメラ角度が所定の角度より小さいカメラ2−nのうち、距離差が所定の値以下であるカメラ2−nを選択する(ステップS106)。選択部34は、選択したカメラ2−nの識別情報を切出部35に出力する。その後、ステップS105の処理が実行される。所定の角度とは、例えば30度とする。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。ステップS106において、選択部34は、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。
画像取得部30が動画像を取得する場合について、図8に示す処理との相違点を説明する。ステップS101において、画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS102において、選択部34は、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。ステップS105において、切出部35は、選択されたカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部35は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部36は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
以上のように、第1の実施形態の画像処理装置3aは、実空間に配置された物体6を撮像するように位置及び向きが定められた複数のカメラ2−1〜2−Nが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2−nを、複数のカメラ2−1〜2−Nから選択する決定装置を備える。第1の実施形態の決定装置は、選択部34を備える。
選択部34は、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像していて、かつ、観察者5の視線方向と、カメラ2−1〜2−Nのそれぞれの光軸との成す角度が小さいカメラ2−nを複数のカメラ2−1〜2−Nの中から選択する。このように選択されたカメラ2−nが撮像した画像を取得することによって、画像処理装置3aは実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されて観察者5から見ることができない背景の画像を取得することが可能になる。
<変形例>
画像処理装置3aは、特定の物体が移動又は特定の物体が変更された場合に図8の処理を実行してもよいし、観察者5が移動した場合に図8の処理を実行してもよい。
選択部34は、カメラ角度を距離差に重み付けてカメラ2−nを選択してもよい。例えば、選択部34は、カメラ角度が0に近いこと(観察者5の視線方向とカメラ2−1〜2−Nのそれぞれの光軸の方向とが水平に近いほど)を、距離差が小さいことよりも重視して重み付けしてもよい。このように構成されることによって、射影変換量が小さいカメラ2−nを選択することができる。
(第2の実施形態)
第1の実施形態では、画像処理装置が、カメラ角度に基づいてカメラを選択し、選択したカメラの中から1つのカメラを選択する構成を示した。これに対し、第2の実施形態では、画像処理装置が、カメラ角度又は距離差のどちらを優先するかを表す情報(以下「優先情報」という。)に基づいてカメラを選択する点で第1の実施形態と相違する。第2の実施形態では、第1の実施形態との相違点についてのみ説明する。
図9は、第2の実施形態における画像処理システム1bの構成の例を示す図である。画像処理システム1bは、カメラ2−1〜2−Nと、画像処理装置3bと、表示装置4とを備える。画像処理装置3bは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3bと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3bは、カメラ2−nが出力した画像に画像処理を施す。画像処理装置3bは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3bは、画像処理が施された画像を表示装置4に出力する。画像処理装置3bは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3bは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。
画像処理装置3bは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3bは、画像取得部30、操作部31b、変数決定部32、記憶部33、選択部34b、切出部35、出力部36を備える装置として機能する。なお、画像処理装置3bの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。
また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
画像処理装置3bは、操作部31及び選択部34に代えて操作部31b及び選択部34bを備える点で画像処理装置3aと構成が異なる。画像処理装置3bは、他の構成については画像処理装置3aと同様である。そのため、画像処理装置3b全体の説明は省略し、操作部31b及び選択部34bについて説明する。
操作部31bは、操作部31と同様の処理を行う。また、操作部31bは、優先情報を取得する。操作部31bは、取得した優先情報を選択部34bに出力する。
選択部34bは、選択されるカメラ2−nを決定する決定装置として機能する。選択部34bは、記憶部33に記憶されている画像及び変数情報と、操作部31を介して入力されたカメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報と、優先情報とを入力する。選択部34は、入力した画像と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景を欠けずに撮像しているカメラ2−nを複数のカメラ2−1〜2−Nの中から選択する。次に、選択部34bは、優先情報に基づいて、カメラ角度又は距離差のどちらを優先するかを判定する。
優先情報がカメラ角度を優先することを示す場合、選択部34bは第1の実施形態における選択部34と同様の処理を行うことによってカメラ2−nを選択する。優先情報が距離差を優先することを示す場合、選択部34bは距離差が所定の値以下のカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。また、選択部34bは、所定の値以下のカメラ2−nが複数ある場合、カメラ角度に基づいてカメラ2−nを選択する。所定の角度とは、例えば30度である。具体的には、選択部34は、カメラ角度が所定の角度より小さいカメラ2−nを選択する。選択部34bは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。
図10は、第2の実施形態における画像処理装置3bの処理の流れを示すフローチャートである。図8と同様の処理については、図10において図8と同様の符号を付して説明を省略する。また、図10では、複数のカメラ2−1〜2−Nから静止画像を取得した場合の処理について説明する。
ステップS102の処理において、背景が欠けずに撮像されている画像がある場合(ステップS102−YES)、選択部34は操作部31を介して入力された優先情報に基づいて、カメラ角度又は距離差のどちらを優先するかを判定する(ステップS201)。優先情報がカメラ角度を優先することを示す場合(ステップS201−カメラ角度優先)、選択部34bはステップS103以降の処理を実行する。
一方、優先情報が距離差を優先することを示す場合(ステップS201−距離差)、選択部34bは記憶部33に記憶されている変数情報に基づいて、距離差が最も小さいカメラ2−nが複数あるか否か判定する(ステップS202)。距離差が所定の値以下のカメラ2−nが複数ない場合(ステップS202−NO)、選択部34bは距離差が所定の値以下のカメラ2−nを選択する(ステップS203)。選択部34bは、選択したカメラ2−nの識別情報を切出部35に出力する。その後、ステップS105の処理が実行される。ステップS203において、選択部34bは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。
一方、距離差が所定の値以下のカメラ2−nが複数ある場合(ステップS202−YES)、選択部34bは距離差が所定の値以下のカメラ2−nのうち、カメラ角度が所定の角度以下のカメラ2−nを選択する(ステップS204)。選択部34bは、選択したカメラ2−nの識別情報を切出部35に出力する。その後、ステップS105の処理が実行される。
画像取得部30が動画像を取得する場合について、図10に示す処理との相違点を説明する。ステップS101において、画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS102において、選択部34bは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。ステップS105において、切出部35は、選択されたカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部35は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部36は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
以上のように、第2の実施形態の画像処理装置3bは、実空間に配置された物体6を撮像するように位置及び向きが定められた複数のカメラ2−1〜2−Nが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2−nを、複数のカメラ2−1〜2−Nから選択する決定装置を備える。第2の実施形態の決定装置は、選択部34bを備える。選択部34bは、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像している複数のカメラ2−1〜2−Nの中から、観察者5の視線方向と、カメラ2−1〜2−Nのそれぞれの光軸との成す角度と、距離差のいずれを優先するかを表す優先情報に基づいてカメラ2−nを選択する。このように選択されたカメラ2−nが撮像した画像を取得することによって、画像処理装置3bは実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されて観察者5から見ることができない背景の画像を取得することが可能になる。
<変形例>
画像処理装置3bは、特定の物体が移動又は特定の物体が変更された場合に図10の処理を実行してもよいし、観察者5が移動した場合に図10の処理を実行してもよい。
選択部34bは、カメラ角度を距離差に重み付けてカメラ2−nを選択してもよい。例えば、選択部34bは、カメラ角度が0に近いこと(観察者5の視線方向とカメラ2−1〜2−Nのそれぞれの光軸の方向とが水平に近いほど)を、距離差が小さいことよりも重視して重み付けしてもよい。このように構成されることによって、射影変換量が小さいカメラ2−nを選択することができる。
(第3の実施形態)
第1の実施形態及び第2の実施形態では、特定の物体で遮蔽されてユーザから見ることができない背景の画像を撮像しているカメラの選択を、カメラ角度又は距離差に基づいて行う構成を示した。しかしながら、第1の実施形態及び第2の実施形態において、ユーザが見ている視線方向に最も近い方向を向いているカメラや、カメラの位置から背景までの距離とユーザの位置から背景までの距離との差が最も小さいカメラを選択したとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化しまう。そこで、第3の実施形態では、背景が全て撮像できる位置であり、かつ、背景がぼけない位置に配置されているカメラを選択する点で第1の実施形態及び第2の実施形態と相違する。第3の実施形態では、第1の実施形態及び第2の実施形態との相違点についてのみ説明する。
図11は、第3の実施形態における画像処理システム1cの構成の例を示す図である。画像処理システム1cは、カメラ2−1〜2−Nと、画像処理装置3cと、表示装置4とを備える。画像処理装置3cは、カメラ2−1〜2−Nの中からカメラ2−nを選択する方法が画像処理装置3a及び3bと異なる。具体的には、画像処理装置3cは、複数のカメラ2−1〜2−Nのうち、背景が全て撮像できる位置であり、かつ、背景がぼけない位置に設置されているカメラ2−nを選択する。ここで、背景がぼけない位置とは、カメラ2の被写界深度の範囲内に背景を含む位置である。
画像処理装置3cは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3cは、画像取得部30、操作部31c、変数決定部32、記憶部33、選択部34c、切出部35、出力部36を備える装置として機能する。なお、画像処理装置3cの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。
また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
画像処理装置3cは、操作部31及び選択部34に代えて操作部31c及び選択部34cを備える点で画像処理装置3aと構成が異なる。画像処理装置3cは、他の構成については画像処理装置3aと同様である。そのため、画像処理装置3c全体の説明は省略し、操作部31c及び選択部34cについて説明する。
操作部31cは、操作部31と同様の処理を行う。また、操作部31cは、第2の優先情報を取得する。第2の優先情報は、カメラ選択に用いるパラメータ(以下「選択パラメータ」という。)の重み付けの係数に関する情報である。カメラ選択に用いるパラメータは、画像上の物体の歪み(カメラ角度)、画像上の物体の大きさ、及びボケ量である。カメラから物体までの距離をL、カメラの焦点距離をf、画像上の物体の大きさをyとすると、画像上の物体の大きさyは以下の式1で表される。
Figure 0006756679
また、操作部31cは、予め設定されている第2の優先情報を取得してもよいし、入力装置を介して入力されることによって第2の優先情報を取得してもよい。操作部31cは、取得した第2の優先情報を選択部34cに出力する。
選択部34cは、選択されるカメラ2−nを決定する決定装置として機能する。選択部34cは、記憶部33に記憶されている画像及び変数情報と、操作部31cを介して入力されたカメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、第2の優先情報と、カメラ2に関するパラメータの情報(以下「カメラパラメータ情報」という。)を入力する。カメラパラメータ情報は、前方被写界深度及び後方被写界深度の算出に用いるパラメータの情報であり、例えば許容錯乱円径、絞り値、及び焦点距離である。選択部34cは、カメラパラメータ情報を各カメラ2から取得する。選択部34cは、入力した画像と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景を欠けずに撮像しているカメラ2−nを複数のカメラ2−1〜2−Nの中から選択する。
画像処理システム1cにおける物体及びカメラ2−1〜2−Nの配置例を図12に示す。図12は、物体及びカメラ2−1〜2−Nの配置の例を示す俯瞰図である。図12に示すように、表示装置4を装着している観察者5が位置する実空間のある部屋100には、カメラ2−1,2−2と、物体6が配置されている。図12において、観察者5は、視線51の方向を向いている。すなわち、観察者5は、部屋100に配置されている物体6の方向を向いている。これにより、観察者5は、部屋100に配置されている物体6の物体光学像を、表示装置4の画面を透過した光によって表示装置4を介して観察する。観察者5は、部屋100のaの位置からdの位置までの範囲を、表示装置4を介して見ているものとする。すなわち、aの位置と観察者5の位置とを結ぶ線52−1と、dの位置と観察者5の位置とを結ぶ線52−2と、aの位置とdの位置とを結ぶ線とで得られる範囲が観察者5の視野の範囲である。
カメラ2−1,2−2は、それぞれ予め定められた向きで、部屋100の予め定められた位置に配置される。例えば、カメラ2−1,2−2は、それぞれ、観察者5が見ている部屋100のaの位置からdの位置までの範囲内に光軸20−1,20−2が向くように配置されている。
図12において、カメラ2−1から背景までの距離をL1、カメラ2−1から物体6までの距離をD1、カメラ2−1における後方被写界深度をd11、カメラ2−1における前方被写界深度をd21とする。また、図12において、カメラ2−2から背景までの距離をL2、カメラ2−2から物体6までの距離をD2、カメラ2−2における後方被写界深度をd12、カメラ2−2における前方被写界深度をd22とする。
前方被写界深度及び後方被写界深度は、既存の方法で算出される。例えば、前方被写界深度及び後方被写界深度は式2、式3に基づいて算出されてもよい。
Figure 0006756679
Figure 0006756679
上記式2及び式3における被写体距離はカメラ2から物体6までの距離であり、許容錯乱円径はカメラ2全てで一定である。また、焦点距離と絞り値は、各カメラ2で設定される値であり、カメラ2ごとに異なる。第3の実施形態における選択部34cは、複数のカメラ2−1〜2−Nの中から、背景を欠けずに撮像しているカメラ2−nであって、以下の式4の条件を満たすカメラ2−nを選択する。なお、式4において、Di(iは1以上の整数)はカメラ2から物体6までの距離を表し、d1iはカメラ2における後方被写界深度を表し、d2iはカメラ2における前方被写界深度を表し、Liはカメラ2から背景までの距離を表す。
Figure 0006756679
図13は、第3の実施形態における画像処理装置3cの処理の流れを示すフローチャートである。図8と同様の処理については、図13において図8と同様の符号を付して説明を省略する。なお、図13の説明では、既に変数決定部32による処理は行われているものとする。また、図13では、複数のカメラ2−1〜2−Nから静止画像を取得した場合の処理について説明する。
ステップS102の処理において、背景が欠けずに撮像されている画像がある場合(ステップS102−YES)、選択部34cは背景を欠けずに撮像しているカメラ2−1〜2−Nの中から、背景がぼけない位置に設置されているカメラ2が複数あるか否かを判定する(ステップS301)。背景がぼけない位置に設置されているカメラ2の判定は、上記式4に基づいて行われる。具体的には、まず選択部34cは、各カメラ2から取得したカメラパラメータ情報と、カメラ2−1〜2−Nのそれぞれの配置情報と、実空間における物体の配置情報とを用いて、上記式1及び2に基づいて各カメラ2の前方被写界深度及び後方被写界深度を算出する。次に、選択部34cは、算出した前方被写界深度(d2i)及び後方被写界深度(d1i)と、カメラ2−1〜2−Nのそれぞれの配置情報及び物体の配置情報から得られるカメラ2から物体6までの距離Dと、カメラ2から背景までの距離Lとを用いて、上記式4の条件を満たすか否かを各カメラ2に対して判定する。そして、選択部34cは、上記式4の条件を満たすカメラ2を、背景がぼけない位置に設置されているカメラ2と判定する。一方、選択部34cは、上記式4の条件を満たさないカメラ2を、背景がぼけない位置に設置されていないカメラ2と判定する。
背景がぼけない位置に設置されているカメラ2が複数台ない場合(ステップS301−NO)、選択部34cは背景がぼけない位置に設置されているカメラ2−nを選択する(ステップS302)。その後、画像処理装置3cは、ステップS105の処理を実行する。
一方、背景がぼけない位置に設置されているカメラ2が複数台ある場合(ステップS301−YES)、選択部34cはカメラ評価値を算出する(ステップS303)。ここでカメラ評価値とは、各カメラ2の評価に用いる値であり、例えば選択パラメータにおける各パラメータ(画像上の物体の歪み(カメラ角度)、画像上の物体の大きさ、及びボケ量)の評価値に重み付けした値の合計値で表される。
まず、選択部34cは、操作部31cを介して入力された第2の優先情報から各パラメータの重み付けの係数を取得する。例えば、第2の優先情報として、予め各パラメータの重み付けの係数が決定されていてもよい。次に、選択部34cは、カメラ2毎に各パラメータの評価を行う。例えば、選択部34cは、画像上の物体の歪みの評価として、カメラ角度が小さいカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部34cはカメラ角度が小さいカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。
また、例えば、選択部34cは、画像上の物体の大きさの評価として、観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部34cは観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2とは、すなわち画角が近いカメラ2である。
また、例えば、選択部34cは、ボケ量の評価として、被写界深度の長さが長いカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部34cは被写界深度の長さが長いカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。
カメラ評価値の算出方法について一具体例を挙げて説明する。
(重み付けの係数)
・画像上の物体の歪み :0.5
・画像上の物体の大きさ:0.3
・ボケ量 :0.2
(各パラメータの評価)
・画像上の物体の歪み :5台中2番目 評価“4”
・画像上の物体の大きさ:5台中1番目 評価“5”
・ボケ量 :5台中3番目 評価“3”
上記(重み付けの係数)及び(各パラメータの評価)とすると、選択部34cは以下のようにあるカメラ2−nのカメラ評価値を算出する。
0.5×4+0.3×3+3×0.2=3.5
選択部34cは、背景がぼけない位置に設置されているカメラ2全てにおいてカメラ評価値を算出する。その後、選択部34cは、背景がぼけない位置に設置されているカメラ2のうち、カメラ評価値が所定の閾値以上のカメラ2−nを選択する(ステップS304)。カメラ評価値が所定の閾値以上のカメラ2が複数ある場合、選択部34cはカメラ評価値が最も高いカメラ2−nを選択してもよい。選択部34cは、選択したカメラ2−nの識別情報を切出部35に出力する。その後、画像処理装置3cはステップS105の処理を実行する。
画像取得部30が動画像を取得する場合について、図13に示す処理との相違点を説明する。ステップS101において、画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS102において、選択部34cは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。ステップS105において、切出部35は、選択されたカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部35は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部36は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
以上のように、第3の実施形態の画像処理装置3cは、実空間に配置された物体6を撮像するように位置及び向きが定められた複数のカメラ2−1〜2−Nが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2−nを、複数のカメラ2−1〜2−Nから選択する決定装置を備える。第3の実施形態の決定装置は、選択部34cを備える。選択部34cは、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像している複数のカメラ2−1〜2−Nの中から、背景を被写界深度内に含む画像を撮像するカメラ2−nを選択する。このように選択されたカメラ2−nが撮像した画像を取得することによって、画像処理装置3bは実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されて観察者5から見ることができない背景の画像を取得することが可能になる。
<変形例>
画像処理装置3cは、特定の物体が移動又は特定の物体が変更された場合に図13の処理を実行してもよいし、観察者5が移動した場合に図13の処理を実行してもよい。
選択部34cは、画像上の物体の歪み、画像上の物体の大きさ、及びボケ量のいずれか1つ以上を用いてカメラ評価値を算出してもよい。
上記の各実施形態における画像処理装置が備える決定装置は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数のカメラ2−1〜2−Nが実空間に配置され、表示装置4の画面に表示された画像の空間で特定の物体が取り除かれたように観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を含む画像を出力するカメラ2−nを、複数のカメラ2−1〜2−Nの中から選択するために用いられる。
上述した実施形態における画像処理システム及び画像処理装置の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、ヘッドマウントディスプレイ等の表示装置に表示される拡張現実画像を出力する画像処理装置に適用可能である。
1a、1b、1c…画像処理システム、 2−1〜2−N…カメラ、 3a、3b、3c…画像処理装置、 4…表示装置、 5…観察者、 6…物体、 20−1〜20−4…光軸、 21〜24…カメラ画像、 30…画像取得部、 31、31b、31c…操作部、 32…変数決定部、 33…記憶部、 34、34b、34c…選択部、 35…切出部、 36…出力部

Claims (7)

  1. 実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置であって、
    前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像していて、かつ、前記ユーザの視線方向と、前記撮像装置の光軸との成す角度が所定の角度よりも小さい撮像装置を複数の撮像装置から選択する選択部、
    を備え、
    前記選択部は、前記角度が所定の角度よりも小さい撮像装置が複数ある場合、前記ユーザの位置から前記背景の特定の位置までの距離と、前記撮像装置の位置から前記背景の特定の位置までの距離との差が所定の値以下の撮像装置を選択し、
    前記選択部は、前記距離の差が所定の値よりも小さい撮像装置が複数ある場合、前記角度が0に近いことを前記距離差が小さい事よりも重視して重み付けを行い、前記背景画像を含む画像を出力する前記撮像装置を選択する決定装置。
  2. 実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置であって、
    前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像している複数の撮像装置から、前記ユーザの視線方向と、前記撮像装置の光軸との成す角度と、前記ユーザの位置から前記背景の特定の位置までの距離と前記撮像装置の位置から前記背景の特定の位置までの距離との差のいずれを優先するかを表す優先情報に基づいて撮像装置を選択する選択部、
    を備え、
    前記選択部は、前記角度が所定の角度よりも小さい撮像装置が複数ある場合、前記ユーザの位置から前記背景の特定の位置までの距離と、前記撮像装置の位置から前記背景の特定の位置までの距離との差が所定の値以下の撮像装置を選択し、
    前記選択部は、前記距離の差が所定の値よりも小さい撮像装置が複数ある場合、前記角度と前記距離差のどちらを優先するかを表す優先情報に基づいて、前記角度が0に近い、もしくは前記距離差が最も小さい前記背景画像を含む画像を出力する前記撮像装置を選択する決定装置。
  3. 実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置であって、
    前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像している複数の撮像装置から、前記背景を被写界深度内に含む画像を撮像する撮像装置を選択する選択部、
    を備える決定装置。
  4. 前記選択部は、前記背景を被写界深度内に含む画像を撮像する撮像装置が複数ある場合、前記背景を被写界深度内に含む画像を撮像する複数の撮像装置のうち、画像における複数のパラメータに対する評価値を前記撮像装置毎に算出し、前記評価値に対して優先度に応じた重み付けを行うことによって前記撮像装置毎の合計評価値を算出し、算出した前記合計評価値が閾値以上の撮像装置を選択する、請求項3に記載の決定装置。
  5. 請求項1から4のいずれか一項に記載の決定装置と、
    選択された前記撮像装置によって撮像された静止画像又は動画像から、前記背景画像を切り出す切出部と、
    切り出された前記背景画像を前記表示装置に出力する出力部と、
    を備える画像処理装置。
  6. 実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置が行う決定方法であって、
    前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像していて、かつ、前記ユーザの視線方向と、前記撮像装置の光軸との成す角度が所定の角度よりも小さい撮像装置を複数の撮像装置から選択する選択ステップ、
    を有し、
    前記選択ステップにおいて、前記角度が所定の角度よりも小さい撮像装置が複数ある場合、前記ユーザの位置から前記背景の特定の位置までの距離と、前記撮像装置の位置から前記背景の特定の位置までの距離との差が所定の値以下の撮像装置を選択し、
    前記選択ステップにおいて、前記距離の差が所定の値よりも小さい撮像装置が複数ある場合、前記角度が0に近いことを前記距離差が小さい事よりも重視して重み付けを行い、前記背景画像を含む画像を出力する前記撮像装置を選択する決定方法。
  7. 実空間に配置された特定の物体を撮像するように位置及び向きが定められた複数の撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置を、複数の撮像装置から選択する決定装置としてコンピュータに、前記表示装置を介してユーザが見ている領域内において、特定の物体で前記ユーザから見えない背景を欠けずに撮像していて、かつ、前記ユーザの視線方向と、前記撮像装置の光軸との成す角度が所定の角度よりも小さい撮像装置を複数の撮像装置から選択する選択ステップ、
    をコンピュータに実行させ、
    前記選択ステップにおいて、前記角度が所定の角度よりも小さい撮像装置が複数ある場合、前記ユーザの位置から前記背景の特定の位置までの距離と、前記撮像装置の位置から前記背景の特定の位置までの距離との差が所定の値以下の撮像装置を選択し、
    前記選択ステップにおいて、前記距離の差が所定の値よりも小さい撮像装置が複数ある場合、前記角度と前記距離差のどちらを優先するかを表す優先情報に基づいて、前記角度が0に近い、もしくは前記距離差が最も小さい前記背景画像を含む画像を出力する前記撮像装置を選択するための決定プログラム。
JP2017161555A 2017-02-07 2017-08-24 決定装置、画像処理装置、決定方法及び決定プログラム Active JP6756679B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017020583 2017-02-07
JP2017020583 2017-02-07

Publications (2)

Publication Number Publication Date
JP2018129026A JP2018129026A (ja) 2018-08-16
JP6756679B2 true JP6756679B2 (ja) 2020-09-16

Family

ID=63173389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161555A Active JP6756679B2 (ja) 2017-02-07 2017-08-24 決定装置、画像処理装置、決定方法及び決定プログラム

Country Status (1)

Country Link
JP (1) JP6756679B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022050979A (ja) 2020-09-18 2022-03-31 株式会社リコー 通信端末、画像通信システム、画像表示方法およびプログラム
JP2022057800A (ja) 2020-09-30 2022-04-11 株式会社リコー 画像通信システム、通信管理装置、通信管理方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9269003B2 (en) * 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction

Also Published As

Publication number Publication date
JP2018129026A (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
JP6561216B2 (ja) 光学フローを使用した中間ビューの生成
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5011168B2 (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4052331B2 (ja) 仮想視点画像生成方法及び3次元画像表示方法並びに装置
US11189043B2 (en) Image reconstruction for virtual 3D
CN110456967B (zh) 信息处理方法、信息处理设备以及程序
JP5666069B1 (ja) 座標算出装置及び方法、並びに画像処理装置及び方法
US20150177062A1 (en) Information processing apparatus, information processing method, and storage medium
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5809607B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101465112B1 (ko) 카메라 시스템
JP2010079505A (ja) 画像生成装置及びプログラム
EP3189493B1 (en) Depth map based perspective correction in digital photos
JP6974978B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6756679B2 (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
US20220222842A1 (en) Image reconstruction for virtual 3d
JP2018129025A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
JP5986039B2 (ja) 映像表示方法及び映像表示プログラム
JP5820716B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置
EP4075789A1 (en) Imaging device, imaging method, and program
JP5310890B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP5764097B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP5734080B2 (ja) 情報処理装置、その処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200827

R150 Certificate of patent or registration of utility model

Ref document number: 6756679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150