JP7297515B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7297515B2 JP7297515B2 JP2019084152A JP2019084152A JP7297515B2 JP 7297515 B2 JP7297515 B2 JP 7297515B2 JP 2019084152 A JP2019084152 A JP 2019084152A JP 2019084152 A JP2019084152 A JP 2019084152A JP 7297515 B2 JP7297515 B2 JP 7297515B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging device
- information processing
- image
- distance
- focal point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/671—Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Image Generation (AREA)
Description
複数の視点の画像に基づく仮想視点画像の生成、及び閲覧は、例えば、次のようにして実現することができる。まず、被写体を撮像するように複数の撮像装置を設置し、撮像した画像をサーバ装置等の画像生成装置に集約する。そして、画像生成装置は、複数の撮像装置が撮像した画像を用いて、仮想視点に基づくレンダリング等の処理を施して仮想視点画像を生成し、ユーザの視聴端末に仮想視点画像を表示する。
特許文献1には、複数の撮像装置により撮像して取得された画像を利用して、ユーザが指定した仮想視点から見た仮想視点画像を生成する技術が開示されている。
これに対し、各撮像装置の合焦位置の調整により、仮想視点画像を生成可能な領域を拡大する方法が考えられる。しかし、このような方法では、各撮像装置の合焦位置が空中となり、実際に意図した位置で合焦しているか目視により確認することができなかった。
特許文献1には、各撮像装置の合焦位置に関しての記載がない。そのため、特許文献1では、このよう問題を解決できなかった。
本発明は、複数の撮像装置のそれぞれの合焦範囲は広げた場合であっても撮像装置の合焦状態を容易に確認することを目的とする。
本実施形態の情報処理システムは、複数の撮像装置について、焦点の合う地点である合焦点を注視点よりも撮像装置寄りに設定する。これにより、情報処理システムは、複数の撮像装置の合焦領域の合計の領域を拡大したのち、ユーザの目視によりその妥当性を確認可能にする情報を出力することができるようになる。合焦とは、フォーカス(焦点)が合っていることである。合焦領域とは、対応する撮像装置により焦点の合った画像を撮像可能な領域である。注視点は、撮像装置の光軸(レンズの光軸)と撮影フィールドとの交点であり、本実施形態では、複数の撮像装置で注視点の位置が共通な場合を例にして説明を行う。ただし、注視点の位置は、複数の撮像装置で共通な位置に設定されてなくてもよく、複数の撮像装置それぞれの注視点が異なる位置に設定されていてもよい。また、複数の撮像装置の光軸が、注視点を含む所定の領域に向けられていてもよい。
図1は、本実施形態の情報処理システムのシステム構成の一例を示す図である。情報処理システムは、撮像装置101~110、情報処理装置200、UI部260、ハブ210、画像処理装置300を含む。撮像装置101~110、情報処理装置200、画像処理装置300は、それぞれハブ210を介して、相互に通信可能に接続されている。
撮像装置101~110は、それぞれ、撮像した画像を、ハブ210を通して、画像処理装置300に送信する。
ハブ210は、ネットワーク中継機器である。
UI部260は、情報処理装置200への情報の入力、情報処理装置200からの情報の出力に用いられる入出力装置である。
画像処理装置300は、撮像装置100それぞれからの画像をもとに、前景背景分離を実行し、前景から3次元モデルを生成し、3次元モデルに仮想撮像装置から見たときの色をレンダリングすることで仮想視点画像を生成する。ただし、他の例として、画像処理装置300は、仮想視点映像を生成する方式はこれに限るものではなく、ビルボード方式等の3次元モデルを作らない方式等の他の方式で、仮想視点画像を生成してもよい。
情報処理システムは、撮像装置101~110により撮像された画像を用いて、注視点130付近で発生するシーンの仮想視点画像を生成する。情報処理装置200は、撮像装置100それぞれのフォーカスを合わせる制御を行う。なお、本実施形態では、撮像装置100の注視点を、注視点130の1つであるとする。ただし、他の例として、撮像装置100の注視点は、複数あることとしてもよい。その場合、撮像装置100それぞれは、この複数の注視点のうちの何れか1つの注視点を向いている。
情報処理装置200は、CPU211、ROM212、RAM213、補助記憶装置214、表示部215、操作部216、通信I/F217を含む。各要素は、バス218を介して相互に通信可能に接続されている。
CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて情報処理装置200の全体を制御する。なお、情報処理装置200がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、DSP(デジタルシグナルプロセッサ)等がある。
表示部215は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置200を操作するためのGUI(Graphical User Interface)等を表示する。操作部216は、例えば、キーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。通信I/F217は、情報処理装置200の外部の装置との通信に用いられる。例えば、情報処理装置200が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F217に接続される。情報処理装置200が外部の装置と無線通信する機能を有する場合には、通信I/F217はアンテナを備える。バス218は、情報処理装置200の各部をつないで情報を伝達する。
本実施形態では、表示部215と操作部216とが情報処理装置200の内部に存在するものとする。ただし、表示部215と操作部216との少なくとも一方が情報処理装置200の外部に別の装置として存在していてもよい。この場合、CPU211が、表示部215を制御する表示制御部、及び操作部216を制御する操作制御部として動作してもよい。
画像処理装置300のCPUが画像処理装置300のROM又は補助記憶装置に記憶されたプログラムにしたがって処理を実行することで、画像処理装置300の機能、画像処理装置300の処理が実現される。
情報処理装置200は、画像取得部221、コマンド送信部222、パラメータ取得部223、パラメータ設定部224、フォーカス位置設定部225、被写界深度計算部226、移動量計算部227、領域特定部228、入力制御部229を含む。
画像取得部221は、撮像装置100それぞれからの画像を取得してUI部260に送る。UI部260は、撮像装置100それぞれの撮像画像を表示し、表示された撮像画像を確認したユーザからの入力される情報(例えば、画角や注視点の調整指示、フォーカス位置の指定等)を受付ける。また、ユーザは、UI部260に表示されたフォーカスの合焦状態の確認画面を視認することで、撮像装置100それぞれのフォーカスの合焦状態の確認を行う。
パラメータ取得部223は、処理時点における撮像装置100それぞれに設定されたパラメータ(例えば、ズーム値、フォーカス値、絞り値等)を、撮像装置100それぞれから取得する。パラメータ取得部223は、更に、フォーカスに関してはフォーカスレンズの物理的なポジション値だけでなく、フォーカス領域のコントラスト値も取得する。
フォーカス位置設定部225は、撮像装置の撮像画面内における、その撮像装置のフォーカス合わせ位置を、指定の場所に設定する制御を行う。フォーカス位置設定部225は、画面中心から外れた領域に、フォーカスの位置を設定することができる。
移動量計算部227では、撮像装置100それぞれについて、合焦点の移動距離をレンズの焦点距離移動量に変換する。
入力制御部229は、外部から、スタジアムの3次元形状モデルデータと、撮像装置100それぞれと注視点との距離情報と、の入力を受付け、領域特定部228へ送信する。この3次元形状モデルデータについては、図8等で後述する。3次元形状モデルデータは、3次元形状データの一例である。
人間が目で見て分からない程度のボケ量を許容ボケ量310として予め定義されている。この場合、フォーカスの合っている範囲は合焦範囲350になる。合焦範囲の前端351は、合焦点340からの距離がA、後端353は合焦点340からの距離がB+Cになり、合焦範囲の中心352は合焦点よりも後方になる。なお、A+Bの長さはCと同じである。
図5の例では、撮像装置401、402は、マーカ420の位置を注視点430として、マーカ420にフォーカスを合わせて、注視点430であるマーカ420の位置を合焦点440とする。即ち、図5の例では、マーカ420の位置と注視点430と合焦点440とは、同じ位置となる。複数の撮像装置が注視点を取り囲むように配置されている場合、合計合焦領域450(この複数の撮像装置それぞれの合焦領域の合計の領域)は、注視点430から撮像装置に向かって距離Aの位置を、端部とする範囲になる。なお、注視点から撮像装置までの距離が異なる場合には、距離Aも、対応する撮像装置に応じて異なる値になる。
この場合、複数の撮像装置が、同一の点であるマーカ420に合焦して撮影しているため、マーカ420の近傍において複数の撮像装置の合焦領域同士の重複が広範に生じてしまう。
図6の例では、撮像装置401、402それぞれは、合焦点の位置を、図5の状況と比べて、次のように移動させている。即ち、撮像装置401、402それぞれは、撮像装置と注視点430とを結ぶ線分に沿って、注視点430から撮像装置側に移動させている。これにより、撮像装置401の合焦点は、合焦点541となり、撮像装置402の合焦点は、合焦点542となる。合焦点541、542それぞれは、撮像装置401、402の光軸上、空中に存在し、空間合焦点となる。この場合、合計合焦領域550は、マーカ420の位置から撮像装置に向かって距離A+Bの位置を端点とする範囲になり、合計合焦領域450よりも広い領域となる。なお、注視点から撮像装置までの距離が異なる場合には、距離Bも、対応する撮像装置に応じて異なる値になる。合焦点541、542それぞれの位置は、空間合焦点が設定されている設定位置の一例である。
撮像装置の合焦点を、合焦点541、542のような空間合焦点にすると、その撮像装置の合焦領域を拡大することができる。しかし、合焦点が空中にあるため、実際に合焦されているか否かを確認することが困難となる。
撮像装置のレンズ610と合焦点との距離aと、レンズ610とセンサ(撮像センサ)620との距離bと、には、1/a+1/b=1/fという関係式が成り立っている。fはレンズに平行光が入射したときのセンサ距離(焦点距離)である。図7に示すように、注視点630が合焦点である状態から、レンズに対して撮像センサの位置をdだけ移動させると、合焦点は、Dだけ移動して、合焦点640の位置となる。
合焦点の移動量Dが指定されれば、レンズ610をどの程度移動させればよいかを計算できる。以下では、焦点距離という言葉は、適宜、fだけでなく、センサ距離bのことも指すものとする。
図8が示すように、スタジアムモデルデータには、フィールド中心を原点として、注視点130の3次元座標(Xn、Yn、Zn)や各撮像装置の座標が含まれる。
そのため、情報処理装置200は、スタジアムモデルデータを用いることで、設定された3次元座標上の位置の3次元座標が、撮像装置100の何れか(例えば、撮像装置109)の撮像画像上(撮像センサ面上)のどの座標に対応するかを求めることができる。本実施形態では、スタジアムモデルデータは、3次元レーザースキャンを用いて実測されたスタジアムの形状のデータを用いて作成されたデータである。ただし、他の例として、スタジアムモデルデータは、スタジアムの設計図を用いて生成されたデータであってもよい。
図10の状況は、図5と同様に、撮像装置401、402それぞれがマーカ420を向いている状況である。図10を用いて、情報処理システムが実行する撮像装置100それぞれに対する実際の合焦点の決定方法と同様の方法で、撮像装置401、402それぞれの実際の合焦点の決定する処理を説明する。
ここで、撮像装置と空間合焦点との距離をDとおく。撮像装置からの距離が、E=D±α(α:予め定められた誤差)となるフィールドの表面(フィールド面)上の点を特定する。そして、特定した点を、撮像装置の実際の合焦点として決定する。
つまり、合焦点541に対応する(撮像装置401の)実際の合焦点543は、図10で示す位置となる。また、合焦点542に対応する(撮像装置402の)実際の合焦点544は、図10で示す位置となる。
合焦点543、544は、フィールド面上の点であり、撮像装置401、402それぞれにより撮像された画像には、合焦点であるフィールド面が写った画像が撮像される。そのため、ユーザは、その画像内のフィールド面を視認することで、実際に合焦点で合焦されているか否かを容易に確認できる。
S810において、CPU211は、撮像装置100それぞれに対して、合焦領域を拡大する制御処理を実行する。これにより、パラメータ設定部224は、撮像装置100それぞれの合焦点を、注視点130よりも(各撮像装置から見て)手前に移動させた空間合焦点とすることで、各撮像装置について合焦領域を拡大させる。S810の処理の詳細については、図12で後述する。
S830において、CPU211は、撮像装置100の合焦領域の合計である合計合焦領域を特定し、特定した合計合焦領域を示すオブジェクトを、UI部260に、撮像装置100それぞれの撮像画像と重複して表示する。ユーザは、UI部260に表示された画面を確認することで、フォーカス状態を確認する。S820、S830の処理の詳細については、図13で後述する。
S710において、CPU211は、注視点130へのマーカの配置を待機する。CPU211は、UI部260を介してマーカの配置の完了が通知された場合、処理をS720に進める。
S720において、CPU211は、撮像装置100から撮像装置を1つ選択し、選択した撮像装置に対して、注視点130に配置されたマーカにフォーカスを合わせるよう指示する。図12の処理中において、最新のS720の処理で選択された撮像装置を選択撮像装置とする。
そして、CPU211は、被写界深度計算部226を介して、選択撮像装置について、被写界深度の中心を注視点130の位置(マーカ位置)にするために、合焦点をマーカ位置からどの程度、移動させればよいかを示す移動距離を計算する。
そして、CPU211は、選択撮像装置の空間合焦点と選択撮像装置との距離を求める。CPU211は、選択撮像装置からの距離が求めた距離となるフィールド面上の位置のうち、注視点130からの距離が最小となる位置を、選択撮像装置の実際の合焦点の位置として求める。ただし、他の例として、CPU211は、選択撮像装置からの距離が求めた距離となるフィールド面上の位置であって、注視点130からの距離が予め定められた閾値以下となる位置のうちの何れかの位置を、実際の合焦点の位置として求めてもよい。そして、CPU211は、選択撮像装置の合焦点を、求めた実際の合焦点の位置にするよう制御する。
撮像装置のレンズに温度特性や個体差があり、S1010で計算された合焦点の移動量が適切でない場合、S1020で合焦点を制御された撮像装置により撮像される画像は、不適切なものとなる。そのため、S750で合焦点が制御された選択撮像装置の撮像画像を確認することで、適切に合焦点が設定されているか確認できるようになる。
以上の処理により、複数の撮像装置が注視点130を取り囲むように配置されている場合に、許容ボケ量以下の撮像領域(合焦領域、被写界深度)を有効に利用することが可能となる。
S910において、CPU211は、撮像装置100から撮像装置を1つ選択する。図13の処理中において、最新のS910の処理で選択された撮像装置を選択撮像装置とする。S910の処理は、S730と同様である。そのため、CPU211は、S730の結果を用いることで、S910の処理を割愛することとしてもよい。
以下のS920~S940それぞれの処理は、領域特定部228を介した処理となる。
S930において、CPU211は、スタジアムモデルデータ上での選択撮像装置の空間合焦点と選択撮像装置との距離を求める。そして、CPU211は、選択撮像装置からの距離が求めた距離となるフィールド面上の位置のうち、注視点130からの距離が最小となる位置を特定し、特定した位置の座標を、選択撮像装置の実際の合焦点の座標として求める。ただし、他の例として、CPU211は、選択撮像装置からの距離が求めた距離となるフィールド面上の位置であって、注視点130からの距離が予め定められた閾値以下となる位置のうちの何れかの位置の座標を、実際の合焦点の座標として求めてもよい。
S950において、CPU211は、S940で求めた2次元座標に基づいて、UI部260に、選択撮像装置により撮像された画像に重畳して、フォーカスされた位置を示す枠を表示する。
S960において、CPU211は、撮像装置100の全てについてS910~S950の処理が完了したか否かを判定する。CPU211は、撮像装置100の全てについてS910~S950の処理が完了したと判定した場合、図13の処理を終了し、撮像装置100にS910~S950の処理が完了していない撮像装置が存在すると判定した場合、処理をS910に進める。
本実施形態では、情報処理システムは、撮像装置100それぞれについて、フィールド面上の実際の合焦点の位置を特定した後に、特定した実際の合焦点の位置を、合焦点に設定する。
情報処理システムのシステム構成は、実施形態1と同様である。また、情報処理装置200のハードウェア構成、及び機能構成は、実施形態1と同様である。
S1010において、CPU211は、撮像装置100それぞれについて、実際の合焦点の位置を特定する。より具体的には、CPU211は、以下のような処理を行う。
そして、CPU211は、取得したパラメータと、撮像装置100それぞれと注視点130との距離と、に基づいて、撮像装置100それぞれの被写界深度を計算する。
CPU211は、スタジアムモデルデータと、計算した移動量と、から、スタジアムモデルデータに設定された3次元座標における撮像装置100それぞれの空間合焦点の座標を求める。そして、CPU211は、撮像装置100それぞれについて、スタジアムモデルデータ上での空間合焦点と撮像装置との距離を求める。そして、CPU211は、撮像装置100それぞれについて、フィールド面上における撮像装置からの距離が求めた距離となる位置のうち、注視点130からの距離が最小となる位置を特定し、特定した位置の座標を、実際の合焦点の座標として求める。ただし、他の例として、CPU211は、撮像装置からの距離が求めた距離となるフィールド面上の位置であって、注視点130からの距離が予め定められた閾値以下となる位置のうちの何れかの位置の座標を、実際の合焦点の座標として求めてもよい。
また、選択撮像装置は、実際の合焦点が設定された後で、実際の合焦点の位置に配置されたマーカを撮像することとしてもよい。それにより、特徴点が少なくコントラストが低いフィールド面に合せてフォーカス合せを行う場合よりも、S1020でのフォーカス合せの精度が向上される。
S1030において、CPU211は、撮像装置100それぞれについて、S1010で求めた座標を、撮像画像内に設定された2次元座標系におけるどの座標に該当するか特定する。そして、CPU211は、撮像装置100それぞれについて、特定した座標に基づいて、UI部260に、撮像画像に重畳して、フォーカスされた位置を示す枠を表示する。
更に、本実施形態では、情報処理システムは、撮像装置100それぞれに実際の合焦点を設定する前に、撮像装置100それぞれの実際の合焦点の位置を決定できる。そのため、例えば、情報処理システムは、撮像装置が実際にスタジアムに設置される前に、各撮像装置の実際の合焦点を決定し、撮像装置の設置後に、決定した実際の合焦点を設定できる。このように、情報処理システムは、撮像装置の設置前に処理の一部を実行することで、撮像装置の設置後の作業負荷や作業時間を削減することができる。本実施形態は、スタジアムが屋内である場合等の外光条件が一定である場合、特に好適な形態となる。
実施形態1、2では、情報処理システムは、撮像装置100それぞれの実際の合焦点をフィールド面上の位置にするようにした。ただし、他の例として、情報処理システムは、合焦していることが理解できる画像が撮像可能であるならば、フィールド面以外のオブジェクト(例えば、壁面、ポール等)上の位置を、撮像装置100それぞれの実際の合焦点とするようにしてもよい。
例えば、CPU211は、S750で、以下のようにして、実際の合焦点の位置を求めてもよい。即ち、CPU211は、まず、選択撮像装置の空間合焦点と選択撮像装置との距離を求める。そして、CPU211は、選択撮像装置からの距離が求めた距離となるスタジアムの壁面上の位置のうち、注視点130からの距離が最小となる位置を、選択撮像装置の実際の合焦点の位置として求めてもよい。
ただし、他の例として、情報処理システムは、撮像装置100それぞれについて、撮像装置と空間合焦点との距離と、撮像装置と実際の合焦点との距離と、の差分の大きさが予め定められた閾値以下になるように、実際の合焦点を決定してもよい。
200 情報処理装置
211 CPU
Claims (13)
- オブジェクトを撮像して仮想視点画像を生成するために用いられる撮像装置の合焦点の位置であって、前記撮像装置の光軸上にあり、前記オブジェクト上の第1の位置よりも前記撮像装置に近い設定位置を特定する第1の特定手段と、
特定された前記設定位置と、前記撮像装置の位置と、の間の距離に基づいて、前記撮像装置の光軸上にない前記オブジェクト上の第2の位置を決定する決定手段と、
前記オブジェクト上の前記第2の位置に対応する、前記撮像装置により撮像された画像上の位置を特定する第2の特定手段と、
特定された前記画像上の位置に関する情報を出力する出力手段と、
を有する情報処理装置。 - 前記設定位置は、前記撮像装置の光軸上において、前記オブジェクト上の前記第1の位置から予め定められた距離だけ離れた位置である請求項1に記載の情報処理装置。
- 前記設定位置は、前記撮像装置の光軸上において、前記撮像装置の被写界深度の中心が前記オブジェクト上の前記第1の位置に対応する場合における前記撮像装置の合焦点の位置である請求項1又は2に記載の情報処理装置。
- 前記撮像装置との距離が、前記設定位置と前記撮像装置の位置との間の距離と等しくなる位置であって、前記オブジェクト上の位置を、前記オブジェクト上の前記第2の位置として特定する請求項1乃至3の何れか1項に記載の情報処理装置。
- 前記オブジェクト上の前記第2の位置は、前記設定位置と前記撮像装置の位置との間の距離と、前記オブジェクトの3次元形状データと、に基づいて決定される請求項1乃至4の何れか1項に記載の情報処理装置。
- 前記オブジェクト上の前記第2の位置は、前記オブジェクト上の前記第2の位置に配置されたマーカを用いて、前記撮像装置の合焦点として設定される請求項1乃至5の何れか1項に記載の情報処理装置。
- 前記撮像装置により撮像された画像を設定された表示部に表示する表示制御手段を更に有する請求項1乃至6の何れか1項に記載の情報処理装置。
- 前記表示制御手段は、前記撮像装置により撮像された画像と、実際の合焦点を示す表示オブジェクトと、を重畳して前記表示部に表示する請求項7に記載の情報処理装置。
- 特定された前記画像上の位置に関する情報は、フレームを使用して前記画像上に表示される、請求項7に記載の情報処理装置。
- 前記オブジェクトは、フィールドである請求項1乃至9の何れか1項に記載の情報処理装置。
- 特定された前記画像上の位置に関する情報は、前記撮像装置の焦点の状態をユーザがチェックするために使用される、請求項1乃至10の何れか1項に記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
オブジェクトを撮像して仮想視点画像を生成するために用いられる撮像装置の合焦点の位置であって、前記撮像装置の光軸上にあり、前記オブジェクト上の第1の位置よりも前記撮像装置に近い設定位置を特定する第1の特定ステップと、
特定された前記設定位置と、前記撮像装置の位置と、の間の距離に基づいて、前記撮像装置の光軸上にない前記オブジェクト上の第2の位置を決定する決定ステップと、
前記オブジェクト上の前記第2の位置に対応する、前記撮像装置により撮像された画像上の位置を特定する第2の特定ステップと、
特定された前記画像上の位置に関する情報を出力する出力ステップと、
を含む情報処理方法。 - コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として、機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019084152A JP7297515B2 (ja) | 2019-04-25 | 2019-04-25 | 情報処理装置、情報処理方法及びプログラム |
US16/837,852 US11172188B2 (en) | 2019-04-25 | 2020-04-01 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019084152A JP7297515B2 (ja) | 2019-04-25 | 2019-04-25 | 情報処理装置、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020182109A JP2020182109A (ja) | 2020-11-05 |
JP2020182109A5 JP2020182109A5 (ja) | 2022-05-02 |
JP7297515B2 true JP7297515B2 (ja) | 2023-06-26 |
Family
ID=72921778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019084152A Active JP7297515B2 (ja) | 2019-04-25 | 2019-04-25 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11172188B2 (ja) |
JP (1) | JP7297515B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488348B1 (en) * | 2021-12-09 | 2022-11-01 | Unity Technologies Sf | Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014182248A (ja) | 2013-03-19 | 2014-09-29 | Fujitsu Ltd | 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム |
JP2019009766A (ja) | 2017-06-23 | 2019-01-17 | キヤノン株式会社 | 表示制御装置、表示制御方法、およびプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002065763A2 (en) * | 2001-02-12 | 2002-08-22 | Carnegie Mellon University | System and method for manipulating the point of interest in a sequence of images |
JP2003101825A (ja) * | 2001-09-20 | 2003-04-04 | Fuji Photo Optical Co Ltd | レンズ情報表示装置 |
US20030210329A1 (en) * | 2001-11-08 | 2003-11-13 | Aagaard Kenneth Joseph | Video system and methods for operating a video system |
JP2014215828A (ja) | 2013-04-25 | 2014-11-17 | シャープ株式会社 | 画像データ再生装置、および視点情報生成装置 |
US9742974B2 (en) * | 2013-08-10 | 2017-08-22 | Hai Yu | Local positioning and motion estimation based camera viewing system and methods |
-
2019
- 2019-04-25 JP JP2019084152A patent/JP7297515B2/ja active Active
-
2020
- 2020-04-01 US US16/837,852 patent/US11172188B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014182248A (ja) | 2013-03-19 | 2014-09-29 | Fujitsu Ltd | 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム |
JP2019009766A (ja) | 2017-06-23 | 2019-01-17 | キヤノン株式会社 | 表示制御装置、表示制御方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2020182109A (ja) | 2020-11-05 |
US11172188B2 (en) | 2021-11-09 |
US20200344460A1 (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7051457B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6849430B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US11100664B2 (en) | Depth-aware photo editing | |
CN110022470B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
US11343425B2 (en) | Control apparatus, control method, and storage medium | |
JP6620394B2 (ja) | 制御装置、制御方法及びプログラム | |
KR20170031733A (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
JP2016144089A (ja) | 画像処理装置およびその制御方法 | |
JP2020004325A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2021530816A (ja) | 角検出のための方法および装置 | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
KR20140130638A (ko) | 실사 영상 기반의 스마트 피팅장치 및 그 방법 | |
JP2022058753A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7297515B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2022133133A (ja) | 生成装置、生成方法、システム、およびプログラム | |
JP6726016B2 (ja) | 情報処理装置、情報処理方法 | |
KR20210133674A (ko) | 증강 현실 장치 및 그 제어 방법 | |
JP2019144958A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2019185475A (ja) | 特定プログラム、特定方法及び情報処理装置 | |
JP6996450B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP7289754B2 (ja) | 制御装置、制御方法、及びプログラム | |
US20220408069A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2023175503A (ja) | 画像処理装置及びその画像処理方法 | |
WO2020049619A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2016023962A (ja) | 被写体の大きさを測定する方法、被写体の大きさを測定する装置、被写体の大きさを測定するプログラム、画像表示方法、画像表示装置、および、画像表示プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220421 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230614 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7297515 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |