JP7311327B2 - 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム - Google Patents
撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム Download PDFInfo
- Publication number
- JP7311327B2 JP7311327B2 JP2019121895A JP2019121895A JP7311327B2 JP 7311327 B2 JP7311327 B2 JP 7311327B2 JP 2019121895 A JP2019121895 A JP 2019121895A JP 2019121895 A JP2019121895 A JP 2019121895A JP 7311327 B2 JP7311327 B2 JP 7311327B2
- Authority
- JP
- Japan
- Prior art keywords
- visible
- space
- camera
- pyramid
- overlapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
例えば、下記特許文献1では、監視空間をボクセルで分割し、各ボクセルが監視カメラから可視であるか否かの判定を行い、可視のボクセルの表す空間を可視空間として求めている。
本発明は、上記の問題点を鑑みてなされたものであり、監視カメラの可視空間を少ない計算量で高精度に算出することを目的とする。
図1を参照する。実施形態の撮影シミュレーション装置1は、例えばコンピュータにより構成され、記憶部2と、制御部3とを備える。
記憶部2は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶部2は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明する制御部3の機能は、例えば、記憶部2に格納されたコンピュータプログラムである撮影シミュレーションプログラム20を、制御部3が備えるプロセッサが実行することによって実現される。
また、出力装置5は、撮影シミュレーション装置1が算出した監視カメラの可視空間のシミュレーション結果や監視カメラの配置条件の評価結果を出力するディスプレイ、プロジェクタ、プリンタなどである。
図2の(a)を参照する。いま、屋外空間や、構造物によって形成される屋内空間等である監視空間40内に構造物41及び42が存在し、監視カメラ43でこの監視空間40内を撮影する場合を想定する。
説明の簡単のため、図2の(b)は、図2の(a)の監視空間40を上方から見た平面図を示す。
撮影シミュレーション装置1は、予め設計データとして与えられた監視カメラ43の位置、撮影方向及び画角の情報に基づいて監視カメラ43の撮影範囲を示す視錐体50を算出する。視錐体50は、背景面44を底面とし、監視カメラ43の撮影範囲の方位角、仰角、俯角を表す側面を有する角錐(例えば四角錐)である。
図2の(b)の例では、構造物41の監視カメラ43を向いた領域51は全て視錐体50に含まれており、また領域51を監視カメラ43から遮蔽する物体が存在しないことから、領域51の全面が可視領域となる。
同様に、背景面44は一部の領域44bのみが視錐体50に含まれ、領域54以外の範囲は構造物41、42によって監視カメラ43から遮蔽されている。このため、領域54のみが可視領域となる。
図2の(c)及び図2の(d)を参照する。例えば、撮影シミュレーション装置1は、可視領域51を凸多角形である三角形51a及び51bに分割する。
そして、撮影シミュレーション装置1は、監視カメラ43の位置を頂点とし、分割された可視領域51a及び51bを底面とする角錐55a及び55bを算出する。
撮影シミュレーション装置1は、これら算出した角錐が占める空間の集合を監視カメラ43の可視空間として算出する。
このように、複雑な形状になり易い可視空間を監視カメラ43の位置を頂点とした角錐の集合として算出することにより、少ない計算量で高精度の可視空間を求めることができる。
カメラ情報21は、いわゆるカメラパラメータであり、監視カメラ43の3次元的な位置と、撮影方向を表すヨー角、ロール角及びピッチ角と、画角と、アスペクト比と、解像度と、焦点距離などの、監視カメラ43の外部パラメータ及び内部パラメータである。監視カメラ43の位置は典型的には焦点位置である。監視カメラ43の位置を近似的にレンズ中心位置としてもよい。或いは、カメラ情報21に監視カメラ43の設置位置や監視カメラ43のカメラ構造を設定し、これらから焦点位置又はレンズ中心位置を求めるようにしてもよい。
なお、これらの3次元の幾何形状データは四面体分割されていてもよい。四面体分割された3次元データを取り扱うことにより、後述の演算処理をより高速に事項することができる。
背景面設定部30は、構造物情報22により表された構造物41及び42の座標を、監視カメラ43の焦点位置を原点とするカメラ座標系の座標に変換する。
次に、背景面設定部30は最低画素密度の設定入力を受け付ける。最低画素密度は、現実世界における単位長をカメラ画像中において最低何ピクセルで写す必要があるかを規定する下限値である。プランニング実施者は、入力装置4を用いて最低画素密度の設定値を入力する。
なお、視錐体50の底面の4角形を2つの3角形に分割して、2つの四面体の集合を監視カメラ43の視錐体としてもよい。
まず、可視領域算出部31は、構造物情報22に定義されている構造物と視錐体50との接触判定(交差判定)を行う。視錐体50並びに構造物が四面体で構成されている場合には、GPR(Ganovelli,Ponchio,Rocchini)アルゴリズムを用いることにより、四面体の間の接触判定をより高速に行うことができる。それ以外の場合には、バウンディングボックスやSAT(Separating Axis Theorem)アルゴリズムを用いて視錐体50と構造物とが接触(交差)しているか否かを判定できる。
可視領域算出部31は、構造物情報22に定義されている構造物のうち視錐体50に接触(交差)している構造物41、42を選択して以降の処理を行う。
可視領域算出部31は、これらの可視候補領域を三角形に分割してもよい。
可視領域算出部31は、領域41aが存在する平面61と、監視カメラ43の画角とアスペクト比で求められた視錐体50の斜辺50a~50dとの交点61a、61b、61c及び61dを算出する。
図4の(a)の例では、交点61a~61dを結んだ凸領域内に領域41aが全て含まれるので、領域41a全てが可視候補領域となる。
可視領域算出部31は、領域42aが存在する平面62と、視錐体50の斜辺50a~50dとの交点62a、62b、62c及び62dを算出する。
可視領域算出部31は、交点62a~62dを結んだ凸領域と領域42aとが2次元平面上で重複する領域42bを、領域42aと視錐体50との交差領域として算出し、可視候補領域とする。
ある可視候補領域が、監視カメラ43から見て手前の他の可視候補領域によって遮蔽される場合には、遮蔽される部分を除いて可視領域を算出する。
図5の(a)を参照して、構造物41の可視候補領域41aから可視領域を算出する処理を説明する。
監視カメラ43から見て可視候補領域41aの手前には、他の可視候補領域が存在しないので他の可視候補領域により遮蔽される部分はない。このため、可視領域算出部31は、可視候補領域41aの全ての領域を可視領域51とする。
可視領域算出部31は、監視カメラ43の焦点位置と他の可視候補領域41aの頂点71a、71b、71c及び71dとを結んだ直線と可視候補領域42bが存在する平面との交点72a、72b、72c及び72dを算出する(交点72cは不図示)。
また、可視領域算出部31は、視錐体50の底面のうち構造物41、42の可視候補領域41a、42bによって遮蔽される領域を除いた範囲を、可視領域として算出する。
(1)可視候補領域R1の頂点のZ座標値の絶対値の最大値が、可視候補領域R2の頂点のZ座標値の絶対値の最小値よりも小さい場合には、可視候補領域R1は、監視カメラ43から見て可視候補領域R2の前に存在する。
(2)可視候補領域R1の頂点のZ座標値の絶対値の最小値が、可視候補領域R2の頂点のZ座標値の絶対値の最大値よりも大きい場合には、可視候補領域R1は、監視カメラ43から見て可視候補領域R2の後ろに存在する。
図6を参照する。原点Oから平面までの距離は(-d)となる。一方で、可視候補領域R1のいずれかの頂点の位置ベクトルをベクトルP(px、py、pz)とすると、位置ベクトルPを平面PLの法線nに射影した長さhは、法線nとベクトルPとの内積によりh=a×px+b×py+c×pzとなる。
可視領域算出部31は、h<(-d)のとき、可視候補領域R1は、監視カメラ43から見て可視候補領域R2の前に存在すると判断する。可視領域算出部31は、h>(-d)のとき、可視候補領域R1は、監視カメラ43から見て可視候補領域R2の後ろに存在すると判断する。
可視空間算出部33は、可視領域51a、51b及び52b、並びに背景面44上の可視領域についても同様に角錐を算出する。
可視空間算出部33は、これら算出した角錐が占める空間の集合を監視カメラ43の可視空間として算出する。以上により監視カメラ43の可視空間を求めることができる。
例えば、監視空間40を撮影する複数の監視カメラが配置された場合には、複数の監視カメラの可視空間同士の重複が少ない方が、効率的な配置条件と考えられる。したがって評価部35は、複数の監視カメラの可視空間とこれら可視空間の間の重複空間との体積比に基づいて、複数の監視カメラの配置条件の評価値を算出する。例えば、評価部35は、複数の監視カメラの可視空間の体積に対する重複空間の体積の比が小さいほどより高い評価値を算出する。
上記の通り、可視空間の各々は、監視カメラの焦点位置を頂点とし可視領域を底面とする角錐の集合で構成されている。重複空間算出部34は、一対の監視カメラの一方の可視空間を構成する各々の角錐と、他方の監視カメラの可視空間を構成する各々の角錐とが重複する各々の角錐重複空間を算出する角錐重複空間算出部36を備える。
重複空間算出部34は、角錐重複空間算出部36が算出した角錐重複空間を合計して、一対の監視カメラの可視空間の間の重複空間を算出する。
図1を参照する。角錐重複空間算出部36は、境界面82a~82eの各々を算出する境界面算出部37を備える。
境界面算出部37は、第1角錐80を形成する面80A、80B、80C及び80Dのうちいずれか1つの面を選択する。図8の(a)の例では面80Aを選択する。
図8の(b)を参照する。境界面算出部37は、選択した頂点81aと残りの頂点81b~81dとを各々結ぶ線分83b、83c及び83dの全てが、選択した面80Aが存在する平面85と交差するか否かを判定する。すなわち、頂点81aから見て、頂点81b~81dの全てが面80Aの裏側に存在するか否かを判断する。
境界面算出部37は、交点84b~84dを結ぶ多角形84と面80Aとの重複領域(ハッチングされた領域)を境界面82bとして算出する。
一方で、線分83b~83dの全てが平面85と交差しない場合には、交点84b~84dを結ぶ多角形84を算出できないので境界面を算出できない。したがって、この場合には、面80Aと頂点81aとの組み合わせに関して境界面の算出を中止する。
記憶部2には、要監視空間の位置及び形状の幾何形状データを記憶してもよい。要監視空間を四面体などの錐体に分割して記憶部2に記憶して、重複空間算出部34によって要監視空間と可視空間とが重複する空間を算出してもよい。
さらに、監視カメラ43の配置条件の評価値の他の例として、評価部35は、可視空間内に監視対象オブジェクトを配置して、監視対象オブジェクトの可視領域を算出し、可視領域の面積に応じた評価値を算出してもよい。この場合、可視領域の面積が広いほどより高い評価値を算出する。
以下、図9を参照して、実施形態の撮影シミュレーション方法の一例を説明する。
ステップS1では、監視カメラ43の可視空間を算出するのに先だって、監視空間40に存在する構造物の構造物情報22を取得または生成して、撮影シミュレーション装置1の記憶部2に設定登録する。
ステップS2では、監視カメラ43の焦点位置や、撮影方向、画角、アスペクト比、解像度、焦点距離などといったカメラ情報21を取得して、撮影シミュレーション装置1の記憶部2に設定登録する。
ステップS4において背景面設定部30は、最低画素密度の設定入力を受け付け、最低画素密度とカメラ情報21とに基づいて、監視カメラ43の焦点位置から所定の距離範囲に背景面44を設定する。そして、背景面44を底面とし、監視カメラ43の撮影範囲の方位角、仰角、俯角を表す側面を有する視錐体50を算出する。
ステップS6において可視領域算出部31は、可視候補領域の各々について、他の可視候補領域により監視カメラ43から遮蔽されるか否かを判定する。可視領域算出部31は、遮蔽されている部分を可視候補領域から除いて可視領域を算出する。多角形算出部32は、算出した可視領域を凸多角形に分割する。
ステップS8において評価部35は、可視空間算出部33が算出した可視空間に基づいて、監視カメラ43の配置条件の評価値を算出する。
ステップS10において重複空間算出部34は、一対の監視カメラのうち一方の監視カメラの可視空間を構成するいずれかの角錐P1と、他方の監視カメラの可視空間を構成するいずれかの角錐P2との組合せを選択する。
ステップS12において境界面算出部37は、角錐P1を第1角錐80として選択し、角錐P2を第2角錐81として選択する。
ステップS14において境界面算出部37は、第1角錐80を形成する面のうち何れかを対象面として選択する。図8の(a)の例では対象面は面80Aである。
ステップS15において境界面算出部37は、第1角錐80及び第2角錐81との角錐重複空間の境界面を算出する境界面算出処理を行う。
ステップS32において境界面算出部37は、ステップS31で算出した交点を結ぶ多角形と、対象面との重複領域を角錐重複空間の境界面の一つとして算出する。その後に処理は終了する。
ステップS16において全ての面を選択し終えていた場合(ステップS16:Y)に処理はステップS17へ進む。
ステップS17において全ての頂点を選択し終えていた場合(ステップS17:Y)に処理はステップS18へ進む。
ステップS19~S23までの処理は、ステップS13~S17までの処理と同様である。
ステップS25において重複空間算出部34は、角錐P1と角錐P2の全ての組合せを選択したか否かを判定する。全ての組合せを選択していない場合(ステップS25:N)に処理はステップS10へ進む。
ステップS25において全ての組合せを選択し終えていた場合(ステップS25:Y)に処理はステップS26に進む。
ステップS26において重複空間算出部34は、角錐重複空間算出部36が算出した角錐重複空間を合計して、一対の監視カメラの可視空間の間の重複空間を算出する。その後に処理は終了する。
記憶部2は、監視カメラ43の位置、画角及び撮影方向を含むカメラ情報21、及び監視空間40内の構造物の位置及び形状を含む構造物情報22を記憶する。背景面設定部30は、監視カメラ43の位置から所定の距離範囲に背景面を設定する。可視領域算出部31は、構造物の表面及び背景面のうち監視カメラ43の位置から見える可視領域を算出する。多角形算出部32は、可視領域を多角形に分割する。可視空間算出部33は、
監視カメラ43の位置を頂点とし、多角形に分割された可視領域を底面とする角錐が占める空間の集合を監視カメラ43の可視空間として算出する。
監視カメラ43から見える可視領域を算出することで、可視領域を底面とする角錐が占める空間の集合を監視カメラ43の可視空間として算出することができる。これにより、少ない計算量で可視空間を求めることができる。
重複空間算出部34は、一対の監視カメラ43の一方の可視空間を構成する各々の角錐と他方の可視空間を構成する各々の角錐とが重複する各々の角錐重複空間を算出する角錐重複空間算出部36を備える。重複空間算出部34は、これらの角錐重複空間を合計することにより一対の監視カメラ43の可視空間の間の重複空間を算出する。
境界面算出部37は、一対の監視カメラ43の一方の可視空間を構成する角錐を第1角錐として選択し、他方の可視空間を構成する角錐を第2角錐として選択し、第1角錐のいずれかの面である対象面と第2角錐のいずれかの頂点である対象頂点とをそれぞれ選択し、対象頂点と第2角錐の残りの頂点とを各々結ぶ線分の全てが、対象面が存在する平面と交差するか否かを判定し、線分の全てがこの平面と交差する場合に線分と平面との交点を各々算出し、これら交点を結ぶ多角形と対象面との重複領域を境界面として算出する。
これにより、複数の監視カメラ43の可視空間の重複空間を少ない計算量で算出することができる。
これにより、監視カメラ43により要監視空間が十分に撮影されているか否かを判定できる。
これにより、監視カメラ43により監視対象オブジェクトが十分に撮影されているか否かを判定できる。
Claims (9)
- カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶している記憶部と、
前記カメラの位置から所定の距離範囲に背景面を設定する背景面設定部と、
前記構造物の表面及び前記背景面のうち前記カメラの位置から見える可視領域を算出する可視領域算出部と、
前記可視領域を多角形に分割する多角形算出部と、
前記カメラの位置を頂点とし前記多角形を底面とする角錐が占める空間の集合を前記カメラの可視空間として算出する可視空間算出部と、
を備えることを特徴とする撮影シミュレーション装置。 - 前記可視領域算出部は、前記カメラ情報に基づいて前記カメラの撮影範囲を示す視錐体を求め、前記構造物の表面及び前記背景面のうち前記視錐体内に存在する領域を可視候補領域として求め、複数の前記可視候補領域のうちのいずれかの前記可視候補領域から、他の前記可視候補領域により前記カメラから遮蔽される領域を除くことにより前記可視領域を算出することを特徴とする請求項1に記載の撮影シミュレーション装置。
- 前記多角形算出部は、前記可視領域を3角形に分割することを特徴とする請求項1又は請求項2に記載の撮影シミュレーション装置。
- 一対の前記カメラの前記可視空間どうしが重複する重複空間を算出する重複空間算出部と、
複数の前記カメラの前記可視空間とこれら可視空間どうしが重複する前記重複空間との体積比に基づいて、前記複数のカメラの配置条件の評価値を算出する評価部と、
を、さらに備えることを特徴とする請求項1~3のいずれか一項に記載の撮影シミュレーション装置。 - 前記重複空間算出部は、前記一対のカメラの一方の前記可視空間を構成する各々の前記角錐と他方の前記可視空間を構成する各々の前記角錐とが重複する各々の角錐重複空間を算出する角錐重複空間算出部を備え、これらの角錐重複空間を合計することにより前記重複空間を算出し、
前記角錐重複空間算出部は、前記角錐重複空間を画定する境界面を各々求める境界面算出部を備え、これら境界面により囲まれる空間を前記角錐重複空間として算出し、
前記境界面算出部は、前記一対のカメラの一方の前記可視空間を構成する前記角錐を第1角錐として選択し、他方の前記可視空間を構成する前記角錐を第2角錐として選択し、前記第1角錐のいずれかの面と前記第2角錐のいずれかの頂点とをそれぞれ選択し、前記いずれかの頂点と前記第2角錐の残りの頂点とを各々結ぶ線分の全てが前記いずれかの面が存在する平面と交差するか否かを判定し、前記線分の全てが前記平面と交差する場合に前記線分と前記平面との交点を各々算出し、前記交点を結ぶ多角形と前記いずれかの面との重複領域を前記境界面として算出する、
ことを特徴とする請求項4に記載の撮影シミュレーション装置。 - 前記記憶部は、監視対象の空間範囲である要監視空間の位置及び形状をさらに記憶し、
前記要監視空間と前記可視空間とが重複する空間の体積に基づいて前記カメラの配置条件の評価値を算出する評価部を備えることを特徴とする請求項1~5のいずれか一項に記載の撮影シミュレーション装置。 - 前記記憶部は、監視対象物を表す3次元モデルが四面体分割された監視対象オブジェクトをさらに記憶し、
前記監視対象オブジェクトが所定の経路に沿って前記監視空間内を移動した場合の前記監視対象オブジェクトと前記可視空間との接触を判定し、接触した回数に応じて前記カメラの配置条件の評価値を算出する評価部を備えることを特徴とする請求項3に記載の撮影シミュレーション装置。 - コンピュータに、
カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶装置から読み出す情報読出ステップと、
前記カメラの位置から所定の距離範囲に背景面を設定する背景面設定ステップと、
前記構造物の表面及び前記背景面のうち前記カメラの位置から見える可視領域を算出する可視領域算出ステップと、
前記可視領域を多角形に分割する多角形算出ステップと、
前記カメラの位置を頂点とし前記多角形を底面とする角錐が占める空間の集合を前記カメラの可視空間として算出する可視空間算出ステップと、
を実行させることを特徴とする撮影シミュレーション方法。 - コンピュータに、
カメラの位置、画角及び撮影方向を含むカメラ情報、及び監視空間内の構造物の位置及び形状を含む構造物情報を記憶装置から読み出す情報読出ステップと、
前記カメラの位置から所定の距離範囲に背景面を設定する背景面設定ステップと、
前記構造物の表面及び前記背景面のうち前記カメラの位置から見える可視領域を算出する可視領域算出ステップと、
前記可視領域を多角形に分割する多角形算出ステップと、
前記カメラの位置を頂点とし前記多角形を底面とする角錐が占める空間の集合を前記カメラの可視空間として算出する可視空間算出ステップと、
を実行させることを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019121895A JP7311327B2 (ja) | 2019-06-28 | 2019-06-28 | 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019121895A JP7311327B2 (ja) | 2019-06-28 | 2019-06-28 | 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021010069A JP2021010069A (ja) | 2021-01-28 |
JP7311327B2 true JP7311327B2 (ja) | 2023-07-19 |
Family
ID=74198559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019121895A Active JP7311327B2 (ja) | 2019-06-28 | 2019-06-28 | 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7311327B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009239821A (ja) | 2008-03-28 | 2009-10-15 | Toa Corp | カメラ設置シミュレータプログラム |
WO2011096049A1 (ja) | 2010-02-02 | 2011-08-11 | 富士通株式会社 | カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置 |
-
2019
- 2019-06-28 JP JP2019121895A patent/JP7311327B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009239821A (ja) | 2008-03-28 | 2009-10-15 | Toa Corp | カメラ設置シミュレータプログラム |
WO2011096049A1 (ja) | 2010-02-02 | 2011-08-11 | 富士通株式会社 | カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2021010069A (ja) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10692271B1 (en) | Robust ray-triangle intersection | |
US20100328308A1 (en) | Three Dimensional Mesh Modeling | |
US9805509B2 (en) | Method and system for constructing a virtual image anchored onto a real-world object | |
US8390617B1 (en) | Visualizing oblique images | |
JP7063837B2 (ja) | 領域抽出装置及びプログラム | |
Wang et al. | Adaptive image-based intersection volume | |
KR20150046643A (ko) | 레이 트레이싱 시스템에서의 가속 구조 생성 장치 및 그 생성 방법 | |
US11546506B2 (en) | Imaging apparatus, imaging method, imaging program, and imaging system | |
US10719975B2 (en) | Information processing apparatus and method of generating three-dimensional model | |
US20220405878A1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN112465911A (zh) | 图像处理方法及装置 | |
US11494889B2 (en) | Imaging evaluation map, imaging evaluation map generating device, imaging evaluation map generating method, and imaging evaluation map generating program | |
KR20200089467A (ko) | 3차원 점군데이터의 단면분석을 통한 구조물 변형탐지 알고리즘 및 도구 개발 | |
JP7311327B2 (ja) | 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム | |
JP2020512536A (ja) | モデルベースのピーク選択を使用した3dプロファイル決定のためのシステム及び方法 | |
US20230162442A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7332363B2 (ja) | カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム | |
JP4548228B2 (ja) | 画像データ作成方法 | |
JP2001184526A (ja) | 3次元形状データにおける面生成方法 | |
CN113674356A (zh) | 相机筛选方法及相关装置 | |
JP7195785B2 (ja) | 3次元形状データを生成する装置、方法、及びプログラム | |
JP2011059009A (ja) | 位置計測対象物、位置計測システム、位置計測用演算装置およびプログラム | |
JP6526605B2 (ja) | 仮想カメラ画像生成装置 | |
KR102611481B1 (ko) | 이미지 내의 좌표들 간의 실제 거리를 계산하는 방법 및 장치 | |
JP2020187626A (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7311327 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |