JP2015185896A - 画像監視システム - Google Patents
画像監視システム Download PDFInfo
- Publication number
- JP2015185896A JP2015185896A JP2014058279A JP2014058279A JP2015185896A JP 2015185896 A JP2015185896 A JP 2015185896A JP 2014058279 A JP2014058279 A JP 2014058279A JP 2014058279 A JP2014058279 A JP 2014058279A JP 2015185896 A JP2015185896 A JP 2015185896A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- person
- face
- monitoring system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 description 11
- 238000009434 installation Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000009467 reduction Effects 0.000 description 2
- NCGICGYLBXGBGN-UHFFFAOYSA-N 3-morpholin-4-yl-1-oxa-3-azonia-2-azanidacyclopent-3-en-5-imine;hydrochloride Chemical compound Cl.[N-]1OC(=N)C=[N+]1N1CCOCC1 NCGICGYLBXGBGN-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
また、複数台のカメラ映像を手動または自動でシーケンシャルに切り替え表示することで監視空間全体を一定周期で監視していた。
また、複数のカメラにより撮影した画像で同一と判断された人物の顔画像をより正面に近い映像として合成表示することも目的である。
また、複数のカメラにより撮影した画像で同一と判断された人物の顔画像をより正面に近い映像として合成表示することができる。
図1は、本発明の一実施例である画像監視システムを説明するためのブロック図である。
図1において、画像監視システムは、カメラ101−1〜101−n、画像処理装置102−1〜102−n(代表する場合は画像処理装置102と称する)、IPエンコーダ103−1〜103−n、ネットワーク104、システム管理サーバ105、操作端末106−1〜106−n(代表する場合は操作端末106と称する)である構成されている。
なお、図12に示すように画像処理装置102は、カメラ101とIPエンコーダ103の間に入れずにネットワーク104と直接に接続する構成であってもよい。
また、システム管理サーバ105は、複数の画像処理装置から送られる人物の位置情報、大きさ情報を元に、それらが同一人物であるか否かを判別する。同一人物である場合、複数のカメラで撮像された映像の中から当該人物の顔画像を全て切り出し、同一人物の顔画像として管理する。システム管理サーバ105は、操作端末106−1〜106−nへブラウザ上から監視操作を行うための監視画面を提供するWEBサーバ機能を有している。
なお、操作端末106−1〜106−nは、PC(Personal Computer)であってもよい。
以降、対向に設置された2台のカメラにより撮像された映像から同一人物を特定し、位置情報をグローバル座標に展開する方法について説明する。
図2(A)のカメラの設置において、211はカメラA、212はカメラAの垂直画角、213はカメラAの設置高さZA、221はカメラB、222はカメラBの垂直画角、223はカメラBの設置高さZB、231は地面、241は対象物(人物)である。
なお、ここでは、ZA=ZBとする。
図2(B)はカメラAの撮影画像であり、251はカメラAで撮像された撮影画像を表示するモニタA、252はカメラAの画面の中の人物である。
図2(C)はカメラBの撮影画像であり、261はカメラBで撮像された撮影画像を表示するモニタB、262はカメラBの画面の中の人物である。
xyz座標軸において、カメラAを原点とし、人物の顔の位置を(x、y、z)とする。
図3(A)はカメラのx−y座標の設置図であり、211はカメラA、θHAはカメラAの水平画角、221はカメラB、θHBはカメラBの水平画角、241は対象物(人物)、xはカメラAから人物までの水平距離、yはカメラAから人物までの垂直距離、xbはカメラBから人物までの水平距離、YAは人物がいる地点でのカメラAの水平撮像範囲、YBは人物がいる地点でのカメラBの水平撮像範囲である。
ここでは、hA=hB、θHA=θHB、θVA=θVBとする。
カメラAとカメラBの水平距離をLとする。
人物までの距離の比と画面内の人物の大きさの比は相似関係であることから、以下の等式が成り立つ。
VA:VB=(L-x):x ・・・・ (式1)
x=LVB/(VA+VB) ・・・・ (式2)
カメラAから人物までの垂直距離yは、(式3)の関係から(式4)で求まる。
y:HAC=YA/2:HM/2 ・・・・ (式3)
y=xtan(θHA/2)×2HAC/HM
=(2LHACVBtan(θHA/2))/(HM(VA+VB))
・・・ (式4)
人物の高さzは、(式5)の関係から(式6)で求まる。
(z−hA):VAC=z:VA ・・・・ (式5)
z=hAVA/(VA−VAC) ・・・・ (式6)
モニタBの中心から人物までの水平距離HBCは(式7)の関係から(式8)で求まる。
HBC:HM/2=y:(L−x)tan(θHB/2) ・・・・ (式7)
HBC= HACVB/VA ・・・・ (式8)
モニタBの中心から人物の顔中心までの垂直距離VBCは、(式9)の関係から(式10)で求まる。
VBC:VM/2=(z−hB):ZB/2 ・・・・ (式9)
VBC=(hAVMVAC(VA+VB))/(4LVA(VA−VAC)
tan(θVA/2)) ・・・・ (式10)
つまり、(式8)、(式10)によりHBC、VBCを上記の値にて求めることができ、カメラA211で撮像された人物の位置情報から、別のカメラ(ここではカメラB221)の映像でどの人物が同一人物であるかを特定することができる。
そして、(式2)、(式4)(式6)により監視空間における人物の顔の3次元位置座標x、y、zを求めることができる。
なお、上記の説明は、モニタA251とモニタB261に表示した結果から所定人物の位置情報を求めたが、カメラA211およびカメラB221で撮像した撮影画像から所定人物の位置情報を求めてもよい。
図4はモニタAとモニタBの表示内容について説明するための図である。
図4において、251はモニタA、252はモニタAの映像の中の人物、411は画像処理装置102で検出された人物の顔、261はモニタB、262はモニタBの映像の中の人物、421は画像処理装置102で検出された人物の顔である。
モニタAには人物の顔の正面、モニタBには人物の顔の背面が映っているものとする。
画像処理装置102は顔の特徴点、例えば、目、鼻、口の情報を元に顔の向きを判別する。
モニタBの人物の顔は背面を向いているため、モニタAの人物の顔画像を切り出してモニタBの映像に合成する。この時、モニタAの人物の顔画像をモニタBの顔画像の大きさに変換して合成するものとする。変換する際の拡大・縮小率はVBF/VAFとする。
図5において、501は正面を向いた人物の顔部分の検出エリア、502は正面を向いた人物の顔、503は人物の右目α、504は人物の左目β、505は右目と左目の中心点を含む線分2R、506は直線505を直径とする円であり頭を上方向から見た図、507は人物の右目α、508は人物の左目β、509は半径R、510は右目の中心点と左目の中心点を端とした線分、511は線分510の中心点と円の中心点を含む直線、512は直線511と円の左端までの距離Lα、513は直線511と円の右端までの距離Lβ、14は斜めを向いた人物の顔部分の検出エリア、515は斜めを向いた人物の顔、516は人物の右目α、517は人物の左目β、518は右目と左目の中心点を含む線分2R、519は直線518を直径とする円であり頭を上方向から見た図、520は人物の右目α、521は人物の左目β、522は半径R、523は右目の中心点と左目の中心点を端とした線分、524は線分523の中心点と円の中心点を含む直線、525は顔が正面を向いた図の線分510の中心点と円の中心点を含む直線、526は直線524と直線525を含む扇型の中心角度θ、527は直線524と円の左端までの距離Lα、528は直線524と円の右端までの距離Lβである。
θ=0° ・・・・ (式11)
Lα=Lβ ・・・・ (式12)
また、人物の顔が斜めを向いた図のθ(この場合θ´とする)、Lα、Lβは下式となる。
θ=θ´ ・・・・ (式13)
Lα=R−Rsinθ´ ・・・・ (式14)
Lβ=R+Rsinθ´ ・・・・ (式15)
よって、θ´は下式より求めることができる。
Lα:Lβ=(R−Rsinθ´):(R+Rsinθ´) ・・・ (式16)
sinθ´=(Lβ−Lα)/(Lα+Lβ) ・・・ (式17)
θ´=sin−1((Lβ−Lα)/(Lα+Lβ)) ・・・ (式18)
画像処理装置102は、顔の大きさ及び右目、左目の位置を特定すると、距離Lα、距離Lβが得られる。
θ´は、(式18)の距離Lαと距離Lβにより算出可能であり、人物の顔の向きを角度で表現することができる。θ´が0°に近い程、人物は正面方向を向いていると判定できる。
図6は本発明の一実施例であるカメラ4台を配置した監視空間における人物の顔の向きと対応カメラの図である。
図6はxy座標軸における俯瞰図である。
カメラA602とカメラB603は直線上に対向に設置されるものとする。
図6は、602はカメラA、603はカメラB、604はカメラC、605はカメラD、606は上方から見た人物の頭、607は人物の顔の向き、608はx軸に対する顔の向きの角度θ、609は対向設置されたカメラA602とカメラB603を含む直線、610は直線609のカメラA602とカメラB603間の中心点とカメラC604を含む直線、611は直線609のカメラA602とカメラB603間の中心点とカメラD605を含む直線、612は直線609と直線610の中心線、613は直線609と直線610の中心線、614は直線609と直線611の中心線、615は直線609と直線611の中心線、616は直線612のx軸に対する角度θ1、617は直線610と直線613の角度θ2、618は直線614のx軸に対する角度θ3、619は直線611と直線615の角度θ4である。
人物の顔を正面方向にカメラで捕えるためには、人物の顔の向きθと割り当てカメラの関係は以下となる。
カメラA602を割り当てる場合のθの範囲は(式19)となる。
0≦θ<θ1、2(θ1+θ2+θ3)+θ4≦θ<360 ・・・ (式19)
カメラB603を割り当てる場合のθの範囲は(式20)となる。
θ1≦θ<2θ1+θ2 ・・・ (式20)
カメラC604を割り当てる場合のθの範囲は(式21)となる。
2θ1+θ2≦θ<2(θ1+θ2)+θ3 ・・・ (式21)
カメラD605を割り当てる場合のθの範囲は(式22)となる。
2(θ1+θ2)+θ3≦θ<2(θ1+θ2+θ3)+θ4 ・・・(式22)
システム管理サーバ105は、カメラA602、カメラB603、カメラC604、カメラD605で撮影した特定の映像の中の顔画像を管理している。
図7において、701は時間t=1におけるカメラA602の映像、702は映像701における人物の顔、703は時間t=1におけるカメラB603の映像、704は映像703における人物の顔、705は時間t=1におけるカメラC604の映像、706は映像705における人物の顔、707は時間t=1におけるカメラD605の映像、708は映像707における人物の顔、709は映像5をベースにした合成映像、710は映像709における人物の顔である。
また、711は時間t=2におけるカメラA602の映像、712は映像711における人物の顔、713は時間t=2におけるカメラB603の映像、714は映像713における人物の顔、715は時間t=2におけるカメラC604の映像、716は映像715における人物の顔、717は時間t=2におけるカメラD605の映像、718は映像717における人物の顔、719は映像715をベースにした合成映像、720は映像719における人物の顔である。
さらに、721は時間t=3におけるカメラA602の映像、722は映像721における人物の顔、723は時間t=3におけるカメラB603の映像、724は映像723における人物の顔、725は時間t=3におけるカメラC604の映像、726は映像725における人物の顔、727は時間t=3におけるカメラD605の映像、728は映像727における人物の顔、729は映像725をベースにした合成映像、730は映像729における人物の顔である。
時間t=1の時、正面を向いている映像はカメラA602で撮像した映像701である。この時、監視者が見ている映像705の人物は背面を向いているため、システム管理サーバ105は、映像701の人物の顔画像を切り出して画像サイズを変換して映像705の顔画像に合成して映像709を生成する。
時間t=2の時、正面を向いている映像はカメラD605で撮像した映像717である。この時、監視者が見ている映像715の人物は横を向いているため、システム管理サーバ105は、映像717の人物の顔画像を切り出して画像サイズを変換して映像715の顔画像に合成して映像719を生成する。
時間t=3の時、正面を向いている映像はカメラB603で撮像した映像723である。この時、監視者が見ている映像725の人物は横を向いているため、システム管理サーバ105は、映像723の人物の顔画像を切り出して画像サイズを変換して映像725の顔画像に合成して映像729を生成する。
なお、上述の合成映像は、画像処理装置102または操作端末106で生成してもよい。
このように、本発明では、人物の動きに左右されずに、常に顔の正面画像が表示された映像を監視することが可能になる。
図8は監視空間を説明するためのxy座標軸における平面図である。
図8において、802は平面図、803から809は監視空間に設置された監視カメラ、810は人物、811は人物の軌跡である。
システム管理サーバ105は、図3の一実施例の説明で記載の人物座標の算出を定周期で実行することで、時間ごとの人物の位置座標を管理可能であり、現在の位置座標を丸マーク810で表現し、時間ごとの人物の位置を直線でつなげて平面図上に軌跡を生成することができる。本発明では人物位置を特定するためのセンサ等を必要とせず、監視カメラのみで位置を特定し、現在の位置情報や軌跡情報を平面図で提供することが可能である。
例えば、カメラ803は対象の人物810を含む所定の監視領域を撮影し、撮影した画像を画像処理装置102に伝送する。
画像処理装置102は、監視領域画像に映った複数の人物の中で人物810の位置を上述の方法でグローバル座標に変換する。
次に、カメラ806が対象の人物810を含む所定の監視領域撮影し、撮影した画像を画像処理装置102に伝送する。
画像処理装置102は、カメラ806が撮影した画像に映った複数の人物の中で人物810の位置を上述の方法でグローバル座標に変換する。
画像処理装置102は、ある特定の時刻において、カメラ803が撮影した人物810のグローバル座標の位置情報と、カメラ806が撮影した人物810のグローバル座標の位置情報が略同じであれば、人物810が同一人物であると特定することができる。
同様に、画像処理装置102は、カメラ804およびカメラ806が対象の人物810を含む所定の監視領域を撮影した画像の中から人物810の位置を上述の方法でグローバル座標に変換し、変換した位置情報が略同じであれば、人物810が同一人物であると特定する。
そして、画像処理装置102は、人物810のグローバル座標の位置情報をつなげることにより、人物810の軌跡811を生成することができる。
図9は平面図上のカメラ割当エリアを説明するための図である。
図9において、802は平面図、803から809は監視空間に設置された監視カメラ、910は障害物、911はカメラ803の割当エリア、912はカメラ804の割当エリア、913はカメラ805の割当エリア、914はカメラ806の割当エリア、915はカメラ807の割当エリア、916はカメラ808の割当エリア、917はカメラ809の割当エリアである。
操作端末106は、監視空間の割当エリアに障害物910が存在すると、この障害物付近はカメラ807が最も近いがカメラ807から見て障害物910の影は視認不可能であるため、図9に示すようにこの部分はカメラ808の割当エリアとして登録する。このように、操作端末106が監視空間の割当エリアを設定してエリアごとにカメラを登録することで、検知された人物座標の位置に応じて対応するカメラを選択することが可能になる。
例えば、操作端末106は、障害物910の左側に人物が存在した場合はカメラ807で撮像された映像を選択し、障害物910の右側に人物が存在した場合はカメラ808で撮像された映像を選択する。
また、操作端末106は、カメラ807の映像を出力中に障害物910の裏側も表示したい場合に、障害物910の裏側を撮影しているカメラ808または809の映像を障害物910に合成することができる。なお、カメラ807の映像とカメラ808または809の映像の合成は、画像処理装置102で行い、合成した映像を操作端末106で表示してもよい。
図10において、1001は監視画面、1002は映像表示部、1003は映像の中の人物、1004は平面図、1005は平面図の中の人物位置、1006は映像表示部の映像を撮像しているカメラ、1007は人物の顔画像を提供しているカメラである。
システム管理サーバ105は、操作端末へブラウザ上から監視操作を行うための監視画面を提供するWEBサーバ機能を有しており、図10に示す画面を提供する。
映像表示部の映像を提供するカメラと顔画像を提供するカメラを平面図上のカメラアイコンで色分けして表示することで、どのカメラの映像が表示されているか監視者は視覚的に把握することが可能である。顔画像は正面を撮像可能なカメラの画像に自動的に合成表示したり、映像表示部の顔の部分を指でタッチしたり、スライドしたタイミングで正面を向いた顔画像に切替えてもよい。
また、電動雲台、電動ズームレンズを搭載したカメラの場合は、人物座標に対して割当カメラをPTZ(パン・チルト・ズーム)動作させることで、人物の視認性をより向上させることが可能である。PTZ動作は、自動的に動作させたり、平面図の人物をタッチしたタイミングでPTZ動作させてもよい。
用いて説明する。
図11(A)において、1101はカメラ、1102はカメラハウジング、1103はカメラの水平画角θ、1104は左側の鏡、1105は右側の鏡、1106左右の鏡の設置角度、1107は左右の鏡境界とカメラのレンズまでの距離x、1108は鏡の長さL、1109は直線1108を斜辺とした直角三角形の余弦、1110は直線1108を斜辺とした直角三角形の正弦、1111は左側のガラス面、1112は右側のガラス面、1113は両方の鏡を撮像したカメラ映像である。
図11(B)において、1114は映像1113の左半分の映像、1115は映像1113の右半分の映像、1116は映像1114を切り出した映像、1117は映像1115を切り出した映像である。
カメラ1101の設置条件として、カメラ1101と鏡との距離xは以下の方法で求められる。
tan(θ/2)=(L/2^(1/2))/((x+L)/2^(1/2))
・・・(式23)
x=(L/2^(1/2))×(1/(tan(θ/2)−1) ・・・(式24)
本発明の一実施例である位置情報算出は、図2に示すような対向設置カメラにより行うことが可能であるが、図11のような鏡を利用した左右監視カメラを使用することで1台で左右両方の映像を得ることができるため、カメラの設置台数を半分にすることができる。
Claims (3)
- 複数のカメラと、画像処理装置を有する画像監視システムにおいて、
前記画像処理装置は、第1のカメラで撮影した画像の中から所定人物の顔の位置情報をグローバル座標に変換し、該変換した位置情報から第2のカメラで撮影した画像の中心からの水平距離と垂直距離を算出し、該算出した位置の人物が前記所定人物と同一人物であると特定することを特徴とする画像監視システム。 - 請求項1に記載の画像監視システムにおいて、
前記画像監視システムは、さらにシステム管理サーバを有し、
前記システム管理サーバは、前記所定人物の顔が正面以外であった場合に、前記複数のカメラで撮影した前記所定人物の顔画像の中で正面に近い顔画像を選択し、該選択した顔画像を前記顔画像が正面以外の所定人物の画像と合成することを特徴とする画像監視システム。 - 複数のカメラと、操作端末を有する画像監視システムにおいて、
前記操作端末は、前記カメラごとに監視空間を割当て、該割当てられた監視空間に障害物による死角があるカメラの映像をモニタに出力する場合、前記死角の空間を撮影している別のカメラの映像を前記死角部分に合成することを特徴とする画像監視システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058279A JP6484402B2 (ja) | 2014-03-20 | 2014-03-20 | 画像監視システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058279A JP6484402B2 (ja) | 2014-03-20 | 2014-03-20 | 画像監視システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015185896A true JP2015185896A (ja) | 2015-10-22 |
JP2015185896A5 JP2015185896A5 (ja) | 2017-04-13 |
JP6484402B2 JP6484402B2 (ja) | 2019-03-13 |
Family
ID=54352041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014058279A Active JP6484402B2 (ja) | 2014-03-20 | 2014-03-20 | 画像監視システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6484402B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019062262A (ja) * | 2017-09-25 | 2019-04-18 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、システム、およびそれらの制御方法、プログラム |
WO2023276128A1 (ja) * | 2021-07-01 | 2023-01-05 | 富士通株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004146924A (ja) * | 2002-10-22 | 2004-05-20 | Matsushita Electric Ind Co Ltd | 画像出力装置及び撮像装置並びに映像監視装置 |
JP2010206405A (ja) * | 2009-03-02 | 2010-09-16 | Secom Co Ltd | 画像監視装置 |
JP2011193187A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | 監視カメラ端末 |
JP2013206140A (ja) * | 2012-03-28 | 2013-10-07 | Secom Co Ltd | 移動物体追跡装置 |
JP2014036414A (ja) * | 2012-08-10 | 2014-02-24 | Hitachi Kokusai Electric Inc | 監視システム |
-
2014
- 2014-03-20 JP JP2014058279A patent/JP6484402B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004146924A (ja) * | 2002-10-22 | 2004-05-20 | Matsushita Electric Ind Co Ltd | 画像出力装置及び撮像装置並びに映像監視装置 |
JP2010206405A (ja) * | 2009-03-02 | 2010-09-16 | Secom Co Ltd | 画像監視装置 |
JP2011193187A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | 監視カメラ端末 |
JP2013206140A (ja) * | 2012-03-28 | 2013-10-07 | Secom Co Ltd | 移動物体追跡装置 |
JP2014036414A (ja) * | 2012-08-10 | 2014-02-24 | Hitachi Kokusai Electric Inc | 監視システム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019062262A (ja) * | 2017-09-25 | 2019-04-18 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、システム、およびそれらの制御方法、プログラム |
WO2023276128A1 (ja) * | 2021-07-01 | 2023-01-05 | 富士通株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6484402B2 (ja) | 2019-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10095458B2 (en) | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system | |
KR102111935B1 (ko) | 표시 제어장치, 표시 제어방법 및 프로그램 | |
WO2013179335A1 (ja) | 監視カメラ制御装置及び映像監視システム | |
US20150062314A1 (en) | Calibration for directional display device | |
JP6062039B2 (ja) | 画像処理システムおよび画像処理用プログラム | |
JP6249248B2 (ja) | 投影装置 | |
KR20150043463A (ko) | 다수의 심도 카메라들로부터의 데이터를 결합하기 위한 시스템 및 방법 | |
US9442561B2 (en) | Display direction control for directional display device | |
JP2008140271A (ja) | 対話装置及びその方法 | |
JP5869712B1 (ja) | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム | |
WO2013014872A1 (ja) | 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体 | |
KR102176963B1 (ko) | 수평 시차 스테레오 파노라마를 캡쳐하는 시스템 및 방법 | |
JP6484402B2 (ja) | 画像監視システム | |
US20210183092A1 (en) | Measuring apparatus, measuring method and microscope system | |
KR20130088654A (ko) | 다중 카메라 기반 시선 추적 장치 및 방법 | |
JP2005015094A (ja) | エレベータのかご内監視装置 | |
JP2020088840A (ja) | 監視装置、監視システム、監視方法、監視プログラム | |
TW201205506A (en) | System and method for managing security of a roof | |
JP2007172509A (ja) | 顔検出照合装置 | |
WO2017057426A1 (ja) | 投影装置、コンテンツ決定装置、投影方法、および、プログラム | |
JP6483326B2 (ja) | 監視システムおよび端末装置 | |
JP2017011598A (ja) | 監視システム | |
JP2021197572A (ja) | カメラ制御装置及びプログラム | |
JP7012983B2 (ja) | 顔画像処理装置 | |
JP7333559B2 (ja) | 位置検出システム、位置検出装置、位置検出方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170307 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6484402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |