JP2020024499A - 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 - Google Patents
撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 Download PDFInfo
- Publication number
- JP2020024499A JP2020024499A JP2018147635A JP2018147635A JP2020024499A JP 2020024499 A JP2020024499 A JP 2020024499A JP 2018147635 A JP2018147635 A JP 2018147635A JP 2018147635 A JP2018147635 A JP 2018147635A JP 2020024499 A JP2020024499 A JP 2020024499A
- Authority
- JP
- Japan
- Prior art keywords
- photographing
- evaluation target
- target block
- space
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000012544 monitoring process Methods 0.000 title claims description 41
- 230000008859 change Effects 0.000 title claims description 17
- 238000011156 evaluation Methods 0.000 claims abstract description 124
- 238000004458 analytical method Methods 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims description 73
- 238000003384 imaging method Methods 0.000 claims description 66
- 238000009826 distribution Methods 0.000 claims description 43
- 239000007787 solid Substances 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 239000000470 constituent Substances 0.000 abstract description 4
- 230000032823 cell division Effects 0.000 description 37
- 238000004364 calculation method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 108010014172 Factor V Proteins 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001459 lithography Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Abstract
【解決手段】仮想的な3次元空間を用いて、撮影装置による撮影状況を予測する撮影状況予測装置1であって、現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する解析モデル生成部30と、前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する撮影状況予測部40と、を備える。
【選択図】図1
Description
従来、これに関連する先行技術として特許文献1がある。特許文献1の技術は、3DCADを用いて監視カメラの撮影範囲を考慮したレイアウト設計を行うものである。
解析モデル生成部は、現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する。
撮影状況予測部は、前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する。
解析モデル生成工程は、現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する。
撮影状況予測工程は、前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する。
前記撮影状況予測部は、前記評価対象ブロックを順次選択して空間各所の前記可視率を計算し、前記予測結果出力部は、前記予測結果を2次元または3次元の分布として出力する。
その場合、前記撮影状況予測部は、投影処理部と、変換処理部とを備えるのがよい。
投影処理部は、前記撮影点を中心とするとともに前記撮影方向を天頂方向とした半球の球面を介して半球底面に前記評価対象ブロックおよび前記空間構成物を平面投影する。変換処理部は、前記半球底面に投影された前記評価対象ブロックおよび前記空間構成物を、立体角が等しくなるように等立体角変換する。
この監視エリア変更方法は、第1監視エリア形成工程と、新監視エリア予測工程と、第2監視エリア形成工程と、を有する。
第1監視エリア形成工程では、撮影装置を用いて、利用状況変更前の状態における第1監視エリアを前記施設内に形成する。
新監視エリア予測工程では、前記撮影装置の画角および撮影方向の少なくとも何れか一方を変更した状態の新たな監視エリアを、前記撮影状況予測方法を用いて予測する。
第2監視エリア形成工程では、前記新監視エリア予測工程に基づいて、前記撮影装置の画角および撮影方向を調整し、利用状況変更後の状態における第2監視エリアを前記施設内に形成する。
図1を参照して、本実施形態に係る撮影状況予測装置1の構成について説明する。図1は、実施形態に係る撮影状況予測装置1のブロック図である。撮影状況予測装置1は、撮影装置による空間各所の撮影状況を仮想的な3次元空間を用いて予測する装置である。ここでの撮影状況とは、撮影装置によって撮影された画像(映像を含む)に写る撮影対象の状況を広く意味し、撮影状況には、撮影対象の「可視率(可視/不可視の状態も含む)」、「解像度」などが含まれる。
・土井 章男、「ラジオシティ法における半球底面を用いたフォームファクタ計算方式およびその並列化手法」、画像電子学会誌、1995年6月、第24巻、第3号、p.189-p.195
・山田 昇、外2名、「ヘミスフィア法による形態係数の高速算出性能」、日本機械学会論文集(B編)、2009年、第75巻、第749号
四角錐投影法は、例えば、以下の文献において解説されている。
・加賀 昭和、外5名、「CG技術を用いた形態係数の高速計算法」、空気調和・衛生工学会論文集、No.138、p.1-7、2008年9月
六面体を用いた投影法(ヘミキューブ法)は、例えば、以下の文献において解説されている。
・今野 雅、外2名、「放射熱伝達解析における形態係数の計算法についての研究」、日本建築学会環境系論文集、No.572、p.17-22、2003年10月
以下では、図4を参照して(適宜、図1ないし図3参照)、制御部20の処理を具体的に説明する。図4は、実施形態に係る撮影状況予測装置1の処理を示すフローチャートの例示である。
撮影状況予測装置1の処理は、主に、解析モデル生成処理(ステップS10)と、撮影状況の予測処理(ステップS20)と、予測結果の出力処理(ステップS30)とからなる。なお、解析モデル生成処理(ステップS10)は、「解析モデル生成工程」に相当し、また、撮影状況の予測処理(ステップS20)は、「撮影状況の予測工程」に相当する。
図4を参照して、「解析モデル生成処理」について説明する。最初に、解析モデル生成部30は、記憶部10からカメラ情報および3次元形状モデルである空間構成モデルFの読み込みを行う(ステップS11)。また、解析モデル生成部30は、撮影状況の予測を行いたい領域(評価対象エリア)の指定を受け付け、評価対象エリア内に評価対象ブロックGを配置する(ステップS12)。ここでは、評価対象エリアをメッシュ分割することで、直方体状の評価対象ブロックGを隙間なく配置したことにする。なお、解析モデル生成部30は、評価対象ブロックGの位置座標を直接受け付け、その場所に評価対象ブロックGを配置してもよい。また、ユーザが評価対象ブロックGの形状モデルを事前に登録しておき、解析モデル生成部30は、登録された評価対象ブロックGを読み込むことで評価対象ブロックGを配置するようにしてもよい。これにより、図3に示すように、仮想の3次元空間(例えば、全体座標系(x,y,z))に空間構成モデルF、評価対象ブロックG、並びにカメラの撮影点Kおよび撮影方向Tが設定された解析モデルEが生成される。
図4を参照して、「撮影状況の予測処理」について説明する。撮影状況予測部40は、全てのカメラにおける撮影状況の予測が終わるまでステップS21〜ステップS27の処理を繰り返し行う(ステップS20a)。つまり、ステップS21〜ステップS27の1回のループ処理で一つのカメラにおける全ての評価対象ブロックGの撮影状況の予測が完了し、ステップS21〜ステップS27の処理をカメラの数分だけ繰り返し行うことにより、全てのカメラのシミュレーションが完了する。
(1)撮影点Kと面要素P(j)の各頂点P(j)kとの距離Lkを求める。ここで、符号kは、面要素P(j)の頂点番号である。
(2)面要素P(j)の頂点P(j)kを球面RA上に投影して点PA(j)kとする。点PA(j)kは、撮影点Kと頂点P(j)kとを結ぶ線分と球面RAとの交点である。
(3)球面RA上の点PA(j)kを半球底面RBに投影して点PB(j)kとする。点PB(j)kは、点PA(j)kから半球底面RBに垂線を下ろしたときの半球底面RB上の交点である。
これにより、半球底面RBには各面要素PB(j)が投影される。なお、距離Lkの算出は、ここでの頂点P(j)kの投影処理に直接関係しないが、後記する他の処理で距離Lkが使用される。その為、撮影状況予測部40は、点PB(j)kと距離Lkとを対応付けて記憶しておく。
なお、撮影状況予測部40の機能のうち、ステップS233の機能は「投影処理部」に相当する。
面要素PB(j)を半球底面RBに投影すると、投影された面要素PB(j)の辺は曲線(楕円弧)になる。曲線で構成される面要素PB(j)を用いてこれ以降の処理を行った場合、直線で構成される面要素PB(j)を用いて処理を行う場合に比べて処理が複雑になり計算負荷が増加する(特に、ステップS238の処理)。そこで、半球底面RBに投影された頂点PB(j)kから半球底面RBに投影された面要素PB(j)kの辺を直線近似して計算を容易にすることが望ましい。ただし、長い辺を持つ面要素P(j)や視野の端部に位置する面要素P(j)を半球底面RBに投影した場合、投影された面要素PB(j)の辺の曲率が大きくなり、直線近似が成り立たなくなる。そこで、ステップS236の処理を行う。
(1)半球底面RB上で均等になるように辺「PB(j)1−PB(j)2」を分割し、分割点PB(j)12を求める。
(2)分割点PB(j)12を通る半球底面RBの法線と線分「PA(j)1−PA(j)2」との交点であるPD(j)12を求める。交点PD(j)12は、球面RA上の点ではなく、PA(j)1とPA(j)2とを直線で結んだ半球R内部に位置する点である。
(3)撮影点Kと点PD(j)12とを通る直線と、辺「P(j)1−P(j)2」との交点を分割点P(j)3として求める。
(4)分割点P(j)3を新たな頂点とする面要素P(j1),P(j2)を半球底面RBに再投影する。再投影により、辺「P(j)1−P(j)2」を半球底面RBへ投影した曲線を1本の線分(線分「PB(j)1−PB(j)2」)ではなく、2段階の折れ線(線分「PB(j)1−PB(j)3」および線分「PB(j)2−PB(j)3」)で近似する。その為、再投影後では、本当の曲線により近づくことができる。また、再投影後における撮影点Kと面要素P(j1),P(j2)の各頂点P(j)kとの距離Lkを求める。
(5)半球底面RB上の辺の長さが所定値以下になるまで、(1)〜(5)の再分割・再投影を繰り返す。これによって、半球底面RBに投影される面要素PB(j)は、辺が直線近似できるまで小さく分割される。なお、半球底面RB上の面要素PB(j)が許容される辺長は、計算精度、計算時間、セル分割面Mの分割数などを考慮して決定されればよく、例えば、所定値として「0.1〜0.3」を設定する。
なお、ここでは、分割点PB(j)12、交点PD(j)12から分割点P(j)3を算出し、分割点P(j)3を再投影することにより球面RA上の点PA(j)3、半球底面RB上の点PB(j)3を算出していた。しかしながら、これらの点を算出する順番や方法はこれに限定されるものではない。例えば、分割点PB(j)12から交点PD(j)12を算出し、撮影点Kと交点PD(j)12との延長線により球面RA上の点PA(j)3および分割点P(j)3をそれぞれ求める。そして、球面RA上の点PA(j)3から半球底面RBに垂線を下ろすことで半球底面RB上の点PB(j)3を算出し、また、分割点P(j)3までの距離Lkを求めてもよい。
なお、撮影状況予測部40の機能のうち、ステップS237の機能は「変換処理部」に相当する。
図11を参照して、ステップS238の処理について説明する。撮影状況予測部40は、ステップS238で以下の処理を各面要素PW(j)について行う。
具体的には、セル分割面Mに投影された面要素PW(j)の頂点間をセル分割面M上の直線式で表現し、頂点を結ぶ線分が投影された分割セルM(s,t)および線分で囲まれた領域の内部に位置する分割セルM(s,t)であるか否かを判定する。そして、分割セルリストHFのこれらの投影された分割セルM(s,t)等については、投影面の投影結果の欄に投影ありを識別する情報「1」を登録する。一方、投影されていない分割セルM(s,t)等については、投影面の投影結果の欄に投影なしを識別する情報「0」を登録する。この際に、撮影状況予測部40は、面要素PW(j)を識別する情報および撮影点Kとの距離Lについても分割セルリストHFに登録する。距離Lは、例えば、面要素PW(j)を構成する三つの頂点PW(j)kとの距離Lkの線形補完値などでよい。
また、頂点を結ぶ線分が分割セルM(s,t)に投影された場合に、前記線分の位置に基づいて当該分割セルM(s,t)の投影あり/なしを判定するようにしてもよい。例えば、線分で囲まれた領域の内部に分割セルM(s,t)の中心点の位置がある場合に、当該分割セルM(s,t)を投影ありと判定してもよい。また、線分で分割された分割セルM(s,t)の面積比により、投影あり/投影なしを判定してもよい。
以上で、空間構成モデルFの投影処理とセル分割面Mへの面要素の登録処理が終了する(ステップS23)。
評価対象ブロックGに対する処理(ステップS25)は、空間構成モデルFの処理(ステップS23)と概ね同様の処理である。つまり、図13に示すように、評価対象ブロックGを構成する面要素Q(j)を一つずつ順番に球面RAを介して半球底面RBに投影するとともに、等立体角投射によって等立体角投影面W上のセル分割面Mに登録することにより行われる。ここで、面要素Q(j)の符号jは、面番号である。
なお、撮影状況予測部40の機能のうち、ステップS253の機能は「投影処理部」に相当する。
なお、撮影状況予測部40の機能のうち、ステップS257の機能は「変換処理部」に相当する。
以上で、評価対象ブロックGの投影処理とセル分割面Mへの面要素の登録処理が終了する(ステップS25)。
そして、撮影状況予測部40は、評価対象ブロックGの可視率V(i)を以下の式で算出する。
・可視率V(i)[%]=N2(i)/N1(i)×100
・d[m/pixel]=(2×D×sin(αX/2))/RX
そのため、撮影状況予測部40は、この算出した1画素に対する長さを可視率に乗じることで、評価対象ブロックGの位置の分解能を評価する。または、評価対象の長さを分解能で除した解像度で評価する。
図4を参照して、「予測結果の出力処理(ステップS30)」について説明する。ここでの撮影状況予測部40は、「撮影状況の予測処理(ステップS20)」で計算した評価対象ブロックGの予測結果を重ね合わせることにより、空間全体の評価を行う(ステップS31)。
図20A,図20Bは、空間各所の可視カメラ台数を示した3次元空間分布の例示であり、図20Aは、床面から1500mmの高さの位置の分布であり、図20Bは、床面から500mmの高さの位置の分布である。ここでは、可視カメラ台数を色の濃淡で表しており、可視カメラ台数の多い空間を薄い色で表し、可視カメラ台数の少ない空間を濃い色で表している。図20Aを参照することで、空間内に居る人の顔を撮影し易い場所および撮影し難い場所を容易に把握することができる。また、図20Bを参照することで、空間内の床面に置かれた荷物を撮影し易い場所および撮影し難い場所を容易に把握することができる。さらに、カメラの位置を変更してこれらの分布を作成することで、目的に応じたカメラの好適な配置をシミュレーションすることができる。
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を変えない範囲で実施することができる。実施形態の変形例を以下に示す。
10 記憶部
20 制御部
30 解析モデル生成部
40 撮影状況予測部
50 予測結果出力部
E 解析モデル
F 空間構成モデル
G 評価対象ブロック
H 分割セルリスト
K 撮影点
P(j) 面要素
Q(j) 面要素
R 半球
RA 球面
RB 半球底面
W 等立体角投影面(仮想スクリーン)
M(s,t) 半球底面セル
M セル分割面
Claims (7)
- 仮想的な3次元空間を用いて、撮影装置による撮影状況を予測する撮影状況予測装置であって、
現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する解析モデル生成部と、
前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する撮影状況予測部と、を備える、
ことを特徴とする撮影状況予測装置。 - 前記可視率または前記可視率を加工した情報を予測結果として出力する予測結果出力部をさらに備え、
前記評価対象ブロックは、前記3次元空間に複数配置されており、
前記撮影状況予測部は、前記評価対象ブロックを順次選択して空間各所の前記可視率を計算し、
前記予測結果出力部は、前記予測結果を2次元または3次元の分布として出力する、
ことを特徴とする請求項1に記載の撮影状況予測装置。 - 前記撮影点は、前記3次元空間に複数設定されており、
前記撮影状況予測部は、前記撮影点を順次選択して撮影点毎に全ての空間各所の前記可視率を計算し、
前記予測結果出力部は、撮影点毎の前記分布を重ね合わせたものを前記予測結果として出力する、
ことを特徴とする請求項2に記載の撮影状況予測装置。 - 前記撮影状況予測部は、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに等立体角投射する、
ことを特徴とする請求項1ないし請求項3の何れか1項に記載の撮影状況予測装置。 - 前記撮影状況予測部は、
前記撮影点を中心とするとともに前記撮影方向を天頂方向とした半球の球面を介して半球底面に前記評価対象ブロックおよび前記空間構成物を平面投影する投影処理部と、
前記半球底面に投影された前記評価対象ブロックおよび前記空間構成物を、立体角が等しくなるように等立体角変換する変換処理部と、を備える、
ことを特徴とする請求項4に記載の撮影状況予測装置。 - 仮想的な3次元空間を用いて、撮影装置による撮影状況を予測する撮影状況予測方法であって、
現実空間を構成する空間構成物の3次元形状モデルと、前記撮影装置の撮影点および撮影方向と、撮影状況を予測する位置に配置される評価対象ブロックと、から解析モデルを生成する解析モデル生成工程と、
前記評価対象ブロックを仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第1領域と、前記評価対象ブロックおよび前記空間構成物を前記仮想スクリーンに投影した場合における当該評価対象ブロックが投影された第2領域とから前記評価対象ブロックの可視率を計算する撮影状況予測工程と、を有する、
ことを特徴とする撮影状況予測方法。 - 施設の利用状況の変更に伴って監視エリアを変更する監視エリア変更方法であって、
撮影装置を用いて、利用状況変更前の状態における第1監視エリアを前記施設内に形成する第1監視エリア形成工程と、
前記撮影装置の画角および撮影方向の少なくとも何れか一方を変更した状態の新たな監視エリアを、請求項6に記載された撮影状況予測方法を用いて予測する新監視エリア予測工程と、
前記新監視エリア予測工程に基づいて、前記撮影装置の画角および撮影方向を調整し、利用状況変更後の状態における第2監視エリアを前記施設内に形成する第2監視エリア形成工程と、を有する、
ことを特徴とする監視エリア変更方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018147635A JP6876657B2 (ja) | 2018-08-06 | 2018-08-06 | 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018147635A JP6876657B2 (ja) | 2018-08-06 | 2018-08-06 | 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020024499A true JP2020024499A (ja) | 2020-02-13 |
JP6876657B2 JP6876657B2 (ja) | 2021-05-26 |
Family
ID=69618741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018147635A Active JP6876657B2 (ja) | 2018-08-06 | 2018-08-06 | 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6876657B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414664A (zh) * | 2020-02-21 | 2020-07-14 | 成都交大光芒科技股份有限公司 | 一种基于bim的牵引变电所辅助监控图像巡检配准方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015079069A (ja) * | 2013-10-15 | 2015-04-23 | 株式会社タイトー | プロジェクタ |
JP2017062831A (ja) * | 2016-11-15 | 2017-03-30 | 株式会社リコー | 方法および画像処理装置 |
JP2018013832A (ja) * | 2016-07-19 | 2018-01-25 | 大成建設株式会社 | 可視率算出装置 |
-
2018
- 2018-08-06 JP JP2018147635A patent/JP6876657B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015079069A (ja) * | 2013-10-15 | 2015-04-23 | 株式会社タイトー | プロジェクタ |
JP2018013832A (ja) * | 2016-07-19 | 2018-01-25 | 大成建設株式会社 | 可視率算出装置 |
JP2017062831A (ja) * | 2016-11-15 | 2017-03-30 | 株式会社リコー | 方法および画像処理装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414664A (zh) * | 2020-02-21 | 2020-07-14 | 成都交大光芒科技股份有限公司 | 一种基于bim的牵引变电所辅助监控图像巡检配准方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6876657B2 (ja) | 2021-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110111262B (zh) | 一种投影仪投影畸变校正方法、装置和投影仪 | |
US8442306B2 (en) | Volume-based coverage analysis for sensor placement in 3D environments | |
CN107836012B (zh) | 投影图像生成方法及其装置、图像像素与深度值之间的映射方法 | |
US9900583B2 (en) | System and method for generalized view morphing over a multi-camera mesh | |
EP3534336B1 (en) | Panoramic image generating method and apparatus | |
WO2018107910A1 (zh) | 一种全景视频融合方法及装置 | |
US20140218354A1 (en) | View image providing device and method using omnidirectional image and 3-dimensional data | |
US10580205B2 (en) | 3D model generating system, 3D model generating method, and program | |
CN110520903B (zh) | 基于用户移动信息显示图像的方法和装置 | |
US20070065002A1 (en) | Adaptive 3D image modelling system and apparatus and method therefor | |
CA2556896A1 (en) | Adaptive 3d image modelling system and apparatus and method therefor | |
Franz et al. | Real-time collaborative reconstruction of digital building models with mobile devices | |
US20180293805A1 (en) | Methods and apparatuses for determining positions of multi-directional image capture apparatuses | |
JP6782108B2 (ja) | 可視率算出装置 | |
JP2008113176A (ja) | 映像表示システムの調整システム | |
CN110807413B (zh) | 目标显示方法以及相关装置 | |
US10902674B2 (en) | Creating a geometric mesh from depth data using an index indentifying unique vectors | |
JP6876657B2 (ja) | 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法 | |
JP6212398B2 (ja) | 景観定量化装置 | |
JP7006810B2 (ja) | 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法 | |
Malhotra et al. | Optimizing camera placements for overlapped coverage with 3D camera projections | |
KR101629738B1 (ko) | 폐쇄 회로 티비 감시 시스템의 성능 평가 방법 및 시스템 | |
Bianco et al. | Sensor placement optimization in buildings | |
JP2020160756A (ja) | 画像生成装置、画像生成方法、及びプログラム | |
KR102620333B1 (ko) | 관람 데이터를 이용한 미디어 아트 컨텐츠 통합 제어 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200925 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201013 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6876657 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE Ref document number: 6876657 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |