JP6812203B2 - 情報処理システム、情報処理方法、携帯投影端末 - Google Patents

情報処理システム、情報処理方法、携帯投影端末 Download PDF

Info

Publication number
JP6812203B2
JP6812203B2 JP2016215666A JP2016215666A JP6812203B2 JP 6812203 B2 JP6812203 B2 JP 6812203B2 JP 2016215666 A JP2016215666 A JP 2016215666A JP 2016215666 A JP2016215666 A JP 2016215666A JP 6812203 B2 JP6812203 B2 JP 6812203B2
Authority
JP
Japan
Prior art keywords
area
projection
region
designated
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016215666A
Other languages
English (en)
Other versions
JP2018074528A (ja
Inventor
基起 仲間
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016215666A priority Critical patent/JP6812203B2/ja
Publication of JP2018074528A publication Critical patent/JP2018074528A/ja
Application granted granted Critical
Publication of JP6812203B2 publication Critical patent/JP6812203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視カメラなどで撮像した領域において注目したい注目領域を設定する際のユーザインタフェース技術に関する。
オフィス空間に存在する物体を監視カメラで監視する場合、監視したい領域をモニタ画面で確認しながら設定する必要がある。しかし、モニタ画面で確認しながらの領域設定は、監視カメラの画角やズーム率等をその都度変更し、確認するという反復作業となる。そのため、ユーザにかかる負担が大きい。また、置き去り検知、持ち去り検知といった用途では、設定された3次元空間の領域中に、特に注目したい領域を新たに設定する必要がある。そのため、2次元の撮像画像を表示するモニタ画面を確認しながら領域設定するユーザの負担はさらに大きくなる。このような課題を解決するため、特許文献1、2に開示された監視装置では、監視する空間の3次元形状モデルを作成し、3次元形状モデルを基に座標変換した2次元モデルを監視カメラで撮像した画像に重畳表示している。このようにして、監視したい領域を設定する際のユーザの負荷を低減させている。
特開2011−97284号公報 特開2012−124839号公報
特許文献1、2に開示された技術による領域設定は、モニタ画面を見ながら行う作業であり、物体が存在する実際の現実空間(実空間)において領域設定するという視点はない。実空間で直接に領域設定を行うことができれば、ユーザの負担はより軽減されることが期待される。本発明は、注目したい領域を任意に設定できるようにしてユーザの負担を軽減する情報処理システムを提供することを主たる課題とする。
本発明の一適用例となる情報処理システムは、実空間の所定領域をそれぞれ同時期に異なる位置で撮像することにより得られる複数の撮像画像を取得する取得手段と、前記複数の撮像画像に共通に映る共通領域を前記実空間に投影表示する投影手段と、前記共通領域の一部または全部を指定領域として指定する指定手段と、前記指定領域を前記所定領域において注目する注目領域に設定する設定手段と、を有することを特徴とする。
本発明によれば、実空間に投影表示された共通領域を通じて注目する注目領域を指定し、かつ、設定されるので、領域設定を直観的に行うことができる。
第1実施形態に係る情報処理システムの全体構成図。 (a)〜(c)は携帯投影端末、監視カメラ、サーバのハードウェア構成図。 (a)〜(c)は携帯投影端末、監視カメラ、サーバの機能構成図。 (a)〜(c)は第1実施形態で行う領域設定操作の概要説明図。 第1実施形態における情報処理システムのシーケンス図。 (a)は3次元形状の復元処理、(b)は位置合わせ処理のフローチャート。 (a)〜(c)は第2実施形態で行う領域設定操作の概要説明図。 (a)〜(f)は第3実施形態で行う領域設定操作の概要説明図。 第3実施形態における領域指定操作の手順を示すフローチャート。
[第1実施形態]
以下、本発明を、実空間の変動を検出する情報処理システムに適用した場合の実施の形態例を説明する。「実空間」とは物体が配置されている現実空間をいう。この実空間の変動の検出は、例えば物体の置き去り検知の機能である。「置き去り検知」とは、任意の物体が一定時間以上同じ場所に留まっていることを検知することをいう。例えば、実空間の所定領域に不審物が置かれたことを検知することなどがこれに該当する。
本実施形態の情報処理システムは、実空間の所定領域をそれぞれ同時期に異なる位置で撮像することにより得られる複数の撮像画像に共通に映る領域(共通領域)を用いて置き去り検知を行う。撮像画像は、2つの撮像手段を用いて撮像する。第1撮像手段は、所定領域を実空間の固定位置で撮像する据置型のカメラ端末である。便宜上、このカメラ端末を「監視カメラ」と称する。第2撮像手段は、実空間を移動しながら撮像可能な撮像センサを有する情報処理端末である。便宜上、この情報処理端末を「携帯投影端末」と称する。監視カメラと携帯投影端末は、中継装置を介して接続される。この中継装置を便宜上「サーバ」と称する。
<全体構成>
図1は、本実施形態の情報処理システムの全体構成例を示す図である。この情報処理システムは、携帯投影端末100、監視カメラ101、サーバ102を備え、これらをネットワーク103で接続して構成される。ネットワーク103は、例えば高速無線回線を用いた無線通信回線である。
携帯投影端末100は、照明機能、撮像機能、投影機能、領域指定機能、位置および姿勢の検知機能などを備えた情報処理端末である。この携帯投影端末100は、照明モード、空間スキャンモードおよび領域指定モードを、ボタン操作などによって選択的に切替可能な端末であり、ユーザである巡回警備員が所持する。ユーザは、移動しながら実空間の床などを照らす。その際、投影する情報がないか、投影の必要がない場合、すなわち照明モードのときは、懐中電灯のように白色光だけを照射する。図1は、携帯投影端末100が光を照らしている領域を示す。ユーザは、その領域付近の3次元画像を撮像した後(空間スキャンモード)、指定可能な領域を投影表示し、その領域内でユーザが特に注目したい領域を指定する(領域指定モード)。指定される領域を「指定領域」と呼ぶ。「注目領域」は、この指定領域の一部又は全部の領域となる。
監視カメラ101は実空間の所定領域を撮像する。所定領域は、監視カメラ101の設置位置及び画角で定まる領域をいう。所定領域を「監視領域」と呼ぶ場合がある。図1の例では、パーソナルコンピュータ(PC)106が置かれた机105周辺の領域が監視領域となる。サーバ102は、ネットワーク103を用いた通信により携帯投影端末100と監視カメラ101とを中継するとともに、これらのリモート制御を行う。
<ハードウエア構成>
図2(a)は、携帯投影端末100のハードウェア構成例を示す図である。携帯投影端末100は、バス203に接続されたCPU200、RAM201、ROM202を主要部品として含むコンピュータを有する。CPU(Central Processing Unit、以下同じ)200は、バス203を介して接続される各種デバイスを統括的に制御する。オペレーティングシステム(OS)をはじめ、後述するフローチャートで示す各処理手順を実現するためのコンピュータプログラム、デバイスドライバ等はROM(Read Only Memory、以下同じ)202に記憶されている。これらのプログラム等は、RAM(Random Access Memory、以下同じ)201に一時記憶され、CPU200によって適宜実行される。RAM201は、高速にアクセス可能なCPU200の主メモリ、ワークエリア等の一時記憶領域として用いられる。なお、OSやコンピュータプログラム等は、ストレージ211に記憶されていてもよい。この場合は、電源投入時に必要な情報がRAM201に適宜読み込まれる。
携帯投影端末100は、プロジェクタ205、RGB−Dセンサ207、GPS(Global Positioning System)センサ208、慣性計測装置(IMU)209を有する。プロジェクタ205は、照明モードおよび空間スキャンモードのときは照明手段として機能し、領域指定モードのときは共通領域などの各種情報を投影表示する投影手段として機能する。GPSセンサ208は、位置センサであり、スマートフォンやタブレット端末に搭載されているGPSセンサと同等のものである。但し、屋内のユースケースではGPSの電波を受信できない可能性もある。その場合は、WiFiやBluetooth、音波、光を用いた公知の屋内位置測位技術で代用することが可能である。慣性計測装置(IMU)209は、姿勢センサであり、携帯投影端末100に加わる角速度と加速度とを検出する。RGB−Dセンサ207は撮像センサであり、RGB画像と距離画像とを同時に撮像する。本明細書では、RGB−Dセンサ207を通して観測できる座標系を「カメラ座標系」、実空間の座標系を「世界座標系」として説明する。携帯投影端末100は、さらにストレージ211を有する。ストレージ211には、携帯投影端末100が出力する各種情報やUI(User Interface)の部品となる画像、携帯投影端末100の内部で起動するプログラムなどが格納されている。ストレージ211には、ディスクデバイス、フラッシュメモリ、ネットワークドライブやUSBドライブなどの大容量記憶装置を使用することができる。また、複数の記憶装置を並列に接続して構成されていてもよいし、ネットワーク103に接続されたサーバ102に含まれるストレージ、あるいはクラウドであっても構わない。
携帯投影端末100は、また、上記各種デバイスをバス203に接続するためのインタフェース(以下、I/Fと略す)を備える。ディスプレイI/F204は、携帯投影端末100で生成された情報をプロジェクタ205で出力可能な情報に変換する。入力I/F206は、RGB−Dセンサ207で撮像したRGB画像および距離画像を携帯投影端末100(CPU200)が処理可能な形式に変換する。ストレージI/F210は、ストレージ211との間でデータの入出力を行う。ネットワークI/F212は、ネットワーク103上の監視カメラ101およびサーバ102との間でリモート通信を行う。
図2(b)は、監視カメラ101のハードウェア構成例を示す図である。監視カメラ101は、バス223に接続されたCPU220、RAM221、ROM222を主要部品として含むコンピュータを有している。これらの動作は、携帯投影端末100のものと同様である。監視カメラ101のバス223には、入力I/F225を介してRGBセンサ224が接続される。RGBセンサ224は、撮像手段として機能する。携帯投影端末100と同様のRGB−Dセンサを用いることが可能である。但し、赤外線カメラ(IRカメラ)を備え、赤外画像を撮像するように構成してもよい。入力I/F225は、RGBセンサ224で撮像したRGB画像を監視カメラ101(CPU220)が処理可能な形式に変換する。ネットワークI/F226は、ネットワーク上の携帯投影端末100およびサーバ102との間でリモート通信を行う。
図2(c)は、サーバ102のハードウェア構成例を示す図である。サーバ102は、バス233に接続されたCPU230、RAM231、ROM232を主要部品として含むコンピュータを有している。これらの動作は携帯投影端末100のものと同様である。ネットワークI/F236は、ネットワーク上の携帯投影端末100および監視カメラ101との間でリモート通信を行う。ストレージI/F235は、ストレージ234へのデータの入出力を行う。ストレージ234は、情報処理システムの記録手段として機能する。本実施形態では、監視カメラ101の実空間における設置位置、方位・姿勢を表す姿勢情報、監視カメラ101の撮像画像(RGB画像および距離画像)、サーバ102が内部で起動実行するプログラムなどが格納されている。ストレージ234にはまた、携帯投影端末100から取得した実空間の物体もしくは床などの3次元形状を表す3次元情報、携帯投影端末100に投影表示させるための各種情報が格納されていてもよい。ストレージ234に格納された各種情報は、ネットワーク103経由で携帯投影端末100が随時取得することができる。
<機能構成>
図3(a)は、携帯投影端末100の機能構成例を示す図である。携帯投影端末100は、通信部300、位置情報取得部301、姿勢取得部302、記憶部303、撮像部304の機能ブロックを備える。携帯投影端末100は、また、特徴点抽出部305、特徴点マッチング部306、カメラパラメータ算出部307、3次元形状復元部308、投影制御部309、投影部310の機能ブロックを備える。これら各機能ブロックは、CPU200が、ROM202に格納されたプログラムをRAM201に展開し、実行することで実現される。
通信部300は、バス203、入力I/F206、ストレージI/F210を介して各種センサ出力の取得あるいはストレージ211との間でデータの入出力を行う。通信部300は、また、ネットワークI/F212を介して、ネットワーク103上の監視カメラ101、サーバ102、もしくは他の携帯投影端末との間で各種情報の受け渡しを行う。つまり、通信部300は、各種センサ、撮像画像その他の情報の取得手段および外部への情報の送出手段として機能する。位置情報取得部301は、GPSセンサ208を通じて、携帯投影端末100が存在する実空間の位置情報を取得する。取得した位置情報は記憶部303に保存される。姿勢取得部302は、慣性計測装置(IMU)209で検出される角速度と加速度を取得し、取得したデータから携帯投影端末100の大まかな方位・姿勢を表す姿勢情報を算出する。算出した姿勢情報は記憶部303に保存される。
記憶部303は、RAM201およびストレージ211への各種情報の保存(記録、格納)および読み出しを行う。前述した通り、ストレージ211には携帯投影端末100がサーバ102などへ出力する各種情報やUIの部品となる画像、携帯投影端末100が内部で起動するコンピュータプログラムなどが格納されている。携帯投影端末100で過去に撮像もしくは投影した場所の情報や行動履歴、操作履歴などを撮像画像と関連付けて保存することも可能である。以後、各種情報を携帯投影端末100へ「保存する」という場合、記憶部303を介したRAM201又はストレージ211への保存(記録、格納)をいうものとする。
撮像部304は、RGB−Dセンサ207で撮像される撮像画像(RGB画像および距離画像)を所定時間毎に取得する。そして、取得した撮像画像を随時保存する。RGB画像とは、画像中の任意の1点(画素)の色を、赤(Red)、緑(Green)、青(Blue)の三原色で表わしたものである。RGB画像は、画像中の画素ごとに赤・緑・青の画素値を持つ。距離画像は、画素値に距離情報を持つ画像であり、RGB−Dセンサ207から撮像対象物までの距離情報を持つ。保存されたRGB画像および距離画像は、携帯投影端末100の各機能ブロックにおいて順次処理される。
なお、本実施形態において、撮像部304が画像を撮像する周期は、RGB−Dセンサ207が撮像する画像のフレームレートに一致するものとする。ただし、フレームレートよらない所定の時間を撮像の周期として設定することもできる。
特徴点抽出部305は、RAM201に保持されているRGB画像を画像処理することによって特徴点を抽出し、抽出した特徴点を保存する。特徴点マッチング部306は、保存されているRGB画像、距離画像、特徴点を利用して、フレーム間での特徴点マッチングを行い、マッチングに成功した特徴点を保存する。詳細は後述する。カメラパラメータ算出部307は、RAM201に保持されているマッチングに成功した特徴点の集合を利用して各フレームにおけるRGB−Dセンサ207の位置と姿勢の変化(カメラパラメータ)を算出し、保存する。3次元形状復元部308は、RGB−Dセンサ207が撮像した撮像画像の各画素を、カメラパラメータを用いて実空間にマッピングすることにより、実空間の3次元形状を復元する。復元された3次元形状の情報(3次元情報)は随時保存される。投影制御部309は、保存されている3次元情報と携帯投影端末100の姿勢情報を利用して、実空間に存在する物体(本実施形態の場合は机や床面)の形状に合わせた投影画像を生成する。そして、この投影画像を投影部310に出力する。投影部310は、投影制御部309による制御のもとで、光又は投影画像を実空間に投影表示させる。投影表示される画像は、あたかもそれがその場に存在するかのように実空間の物体の表面に重畳して投影される。領域指定部311は、投影部310が実空間上へ投影した領域すなわち投影領域の全領域もしくはユーザにより選択された一部の領域を注目領域として指定する。
次に、監視カメラ101の機能構成について説明する。図3(b)は、監視カメラ101の機能構成例を示す図である。監視カメラ101は、通信部320、撮像部321、領域設定部322の機能ブロックを備える。これら各機能ブロックは、CPU220が、ROM222に格納されたプログラムをRAM221に展開して、実行することで実現される。
通信部320は、ネットワークI/F226を介して、ネットワーク103上の携帯投影端末100およびサーバ102との間でリモート通信を行う。通信でやり取りされる具体的な情報については後述する。撮像部321は、RGBセンサ224で撮像されるRGB画像を所定時間毎に取得し、RAM221に保存する。保存されているRGB画像は、通信部320、ネットワークを介してサーバ102へ送信される。領域設定部322は、ネットワーク上のサーバ102から送信されてくる指定領域の情報に基づいて、監視カメラ101の監視領域の一部の領域を注目領域として設定する。
次に、サーバ102の機能構成について説明する。図3(c)は、サーバ102の機能構成例を示す図である。サーバ102は、通信部330、記憶部331、位置合わせ処理部332、座標変換部333の機能ブロックを備える。これら各機能ブロックは、CPU230が、ROM232に格納されたプログラムをRAM231に展開し、実行することで実現される。
通信部330は、ネットワークI/F236を介して、ネットワーク103上の携帯投影端末100、監視カメラ101との間で通信を行う。本実施形態では、携帯投影端末100からは、復元された実空間の3次元情報を取得する。監視カメラ101からは、撮像画像を撮影時情報と共に取得する。記憶部331は、ストレージ234への各種情報の記録および読み出し行う。つまり、各種情報の記録手段として機能する。位置合わせ処理部332は、携帯投影端末100から取得した3次元情報と監視カメラ101から取得した撮像画像および撮影時情報を利用して、監視カメラ101から取得した撮像画像に映っている実空間の物体の3次元形状の位置合わせを行う。その詳細は後述する。座標変換部333は、位置合わせ処理部332によって位置合わせされた3次元形状の座標を監視カメラ101で撮像される座標系に変換して保存する。
なお、CPU200,220,230を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能ブロックの処理に対応させた演算部や回路を構成すればよい。
<運用形態例>
次に、本実施形態における情報処理システムの運用形態例を説明する。図4(a)〜図4(c)は、注目領域の設定手順を示す模式図である。図5は、連携して動作する携帯投影端末100、監視カメラ101およびサーバ102が実行する処理の流れを示すシーケンス図である。図5を参照し、監視カメラ101は、所定のフレーム間隔で実空間の監視領域を撮像する(S100)。そして、撮像したRGB画像を撮像位置、撮像姿勢(基準方位に対する相対方位および仰角)、撮像時刻などを含む撮像時情報と共にサーバ102に送信する(S101)。
サーバ102は、監視カメラ101から受信した撮像画像および撮像時情報を、監視カメラ101の設置位置、撮像方位、撮像時間、画角と共に記録する(S102)。サーバ102には監視カメラ101の実空間での位置座標(世界座標系での座標)、方位・姿勢を表す姿勢情報が設置時に記録されている。そのため、これらの情報から監視カメラ101の設置位置(撮像位置)および撮像姿勢を算出する。設置位置および撮像姿勢は、設置時にサーバ102に記録しておいてもよい。ただし、監視カメラ101がGPSセンサや慣性計測装置(IMU)を備えている場合は、必要に応じてサーバ102にこれらの情報を送信するようにしても構わない。この場合、監視カメラ101は、設置位置や撮像姿勢が変更されたタイミングで、これらの情報をサーバ102に送信する。
携帯投影端末100は、起動時は照明モードで動作する。照明モードでは、実空間の物体や床などに照明光を照射する(S103)。携帯投影端末100は、起動後、GPSセンサ208より取得した位置情報を定期的にサーバ102に送信する(S104)。
位置情報を受信したサーバ102は、携帯投影端末100が存在する位置付近に監視カメラ101が存在するかどうかを判定する。存在する場合は、監視カメラ101の設置位置および撮像姿勢を携帯投影端末100に向けて送信する(S105)。これらの情報を受信した携帯投影端末100は、動作モードを照明モードから空間スキャンモードに切り替える。動作モードの切り替えは、サーバ102からの情報受信を契機に自動的に行ってもよいが、所定のメッセージに従ってユーザがボタン操作することで行うようにしてもよい。
動作モードが空間スキャンモードに切り替わると、携帯投影端末100は、実空間の所定領域付近、すなわち監視領域付近をRGB−Dセンサ207で撮像する。ユーザは、携帯投影端末100を動かしながら、監視領域にある机105とその周りの空間を様々な位置・方向・角度からスキャンする。つまり、携帯投影端末100は、様々な位置・方向・角度の撮像画像(RGB画像、距離画像)を撮像して実空間の任意の領域を撮像することができる。その後、撮像画像に基づいて実空間における3次元形状の復元処理を実行する(S106)。復元処理については後で詳細に説明する。
携帯投影端末100は、撮像画像から3次元形状を一部でも復元すると、復元できた部分の3次元形状の情報を順次サーバ102に送信する(S107)。サーバ102は、監視カメラ101より受信した撮像画像と携帯投影端末100より取得した3次元情報とを用いて3次元形状の位置合わせ処理を実行する(S108)。位置合わせの処理については後で詳細に説明する。ここでは、図4(b)に示した監視カメラ画像400に映っている実空間の物体と携帯投影端末100からの3次元形状の位置合わせが完了したものとして、以降説明を続ける。
位置合わせ処理が完了すると、サーバ102は、位置合わせの処理完了した旨を表す位置合わせ完了イベントを生成し、これを携帯投影端末100へ送信する(S109)。このとき、サーバ102は、位置合わせ完了イベントと共に、監視カメラ101から見えない死角領域の情報もあわせて携帯投影端末100へ送信する。死角領域の位置等は、監視カメラ画像400の映っている物体と携帯投影端末100で復元した3次元形状の位置合わせを行った結果から特定が可能である。
位置合わせ完了イベントを受信した携帯投影端末100は、動作モードを空間スキャンモードから領域指定モードに切り替え、注目領域の指定処理を実行する(S110)。この処理は、最も単純な例では、ユーザが指定したい領域を携帯投影端末100で一定時間以上継続して照射ないし投影したことを検知したことをもって、その領域を指定領域に決定する。具体的には、携帯投影端末100による投影領域をRGB−Dセンサ207の撮像画像から検出し、検出した投影領域の座標をカメラ座標系から世界座標系に変換することにより、指定領域の位置を特定する。そして、特定した指定領域の位置を保存する。携帯投影端末100は、その後、投影制御部309、投影部310において、指定領域を実空間に重畳表示する(S111)。携帯投影端末100は、また、指定領域の位置情報をサーバ102へ送信する(S112)。
指定領域の位置情報を受信したサーバ102は、S108で実行した位置合わせ処理の結果を利用し、指定領域の位置を監視カメラ101の座標系に変換する。そして、その結果を記録する(S113)。サーバ102は、また、監視カメラ座標系に変換された座標を監視カメラ101に送信する(S114)。監視カメラ101は、サーバ102から監視カメラ座標系に変換された座標を受信すると、領域設定部322が、指定領域の座標に基づいて、監視領域に注目領域を設定する(S115)。
このようにして設定された注目領域に基づいて、監視カメラ101で例えば背景差分処理などを行うことで、物体の変動の有無を検出する。これにより、任意の物体が一定時間以上同じ場所に留まっているか否かを識別することができる。すなわち、注目領域の近傍に不審物が置かれたこと(置き去り)を検知することができる。なお、背景差分処理は、サーバ102あるいは携帯投影端末100が行ってもよい。
図4(a)は、上述したS103において携帯投影端末100が復元処理の実行状況に応じた投影領域104bへの表示例を示す。図示の例では、携帯投影端末100が3次元形状の復元処理が実行中であることを示すメッシュパターンが投影領域104bに投影されている。そのため、メッシュパターンの有無を通じて復元処理の実行状況をユーザに視覚的に認識させることができる。
なお、監視カメラ101においてS115の注目領域の設定機能を実現するためには、ユーザが、その実空間上で、監視カメラ101に映っている監視領域を確認することが必要となる。注目領域は、監視カメラ101の監視領域に設定する必要があるからである。そのため、携帯投影端末100は、先にサーバ102から受信した監視カメラ101の座標、撮像方位、画角といった撮像時情報を利用して監視カメラ101の監視領域を推定し、推定した領域を実空間に重畳投影する機能を備えていてもよい。その結果、ユーザは実空間で重畳投影された監視領域、つまり携帯投影端末100および監視領域101で撮像された2つ以上の撮像画像に基づいて識別された共通領域を目で確認しつつ、確実にその共通領域内で注目領域を指定することができる。
但し、監視カメラ101の監視領域を投影しなくとも、指定したい注目領域が監視領域から外れていることをユーザに通知する方法は幾つか考えられる。例えば、監視カメラ101の監視領域と携帯投影端末100が照射する投影領域104a(または104b)が実空間上で重なり合うか否かを判定する。そして、重なり合っていなければ音や振動で通知することも可能である。また、単に監視カメラ101の監視領域外で携帯投影端末100が「空間スキャンモード」に変更された場合に音や振動で通知することもできる。その場合は、携帯投影端末100に振動や音を出力するためのデバイスを設ければよい。
図4(b)は、携帯投影端末100が投影領域104bを投影しているときの監視カメラ101の撮像画像例を示す。この撮像画像400には、机105、PC106のほか、注目領域を設定しようとしている携帯投影端末100と投影領域104bが映っている。サーバ102は、S108において、携帯投影端末100から受信した3次元情報とサーバ102のストレージ234に記録されている監視カメラ101の撮像画像および各種情報を取得する。そして、監視カメラ101の撮像画像と携帯投影端末100で復元された3次元形状の位置合わせ処理を実行することになる。
図4(c)は、S115において設定された注目領域の一例を示す。図4(c)の例では、机105の側面に位置する床面上に、メッシュパターンと異なる表示態様で投影領域500が形成されている。この投影領域500の中には、監視カメラ101から見えない死角領域501が他の領域(共通領域)と異なる態様で投影される。この場合、携帯投影端末100が照らしている投影領域500は、複数の部分領域から構成されることになるが、注目領域として指定され、実際に設定されるのは、投影領域500の中心位置が含まれる部分領域となる。このように、本実施形態では、指定領域ないし注目領域となり得る投影領域500の中に死角領域501を実空間にリアルに重畳表示される。そのため、ユーザは、どの部分が監視カメラ101から見えない部分なのかを把握しつつ、その場で、携帯投影端末100を用いて注目領域を直観的に指定することができる。指定領域は、投影領域500が投影表示された状態で携帯投影端末100に搭載されている所定ボタンを押下することで、死角領域501を除く部分が自動的に確定される。但し、所定ボタンの押下に限らず、例えば、注目領域の指定後、さらに一定時間経過したら指定領域を確定しても良いし、携帯投影端末100自体を回転させるといったジェスチャ操作を検出することによって、指定領域を確定しても構わない。
本実施形態では、また、投影領域の表示態様を図1の投影領域104a(単なる照明)から図4(a)の投影領域104b(復元処理実行中)に変更し、さらに図4(c)の投影領域500(領域指定完了)と切り替える投影制御を行う。そのため、携帯投影端末100が現在どういった動作を行っているのかをユーザにフィードバックすることができ、使い勝手を向上させることができる。
<3次元形状の復元処理>
次に、携帯投影端末100が実行する3次元形状の復元処理(S106)について詳しく説明する。図6(a)は、復元処理の手順説明図である。復元処理は、例えば携帯投影端末100に搭載されている所定ボタンを押下し、携帯投影端末100の動作モードが空間スキャンモードに変わることで開始される。空間スキャンモードになると、携帯投影端末100の撮像部304は、既定のフレームレートでRGB画像と距離画像を撮像し、撮像した各画像を保存する(S300)。特徴点抽出部305は、保存されているRGB画像から、濃淡の変化が大きい局所特徴量を特徴点として抽出し、これを保存する(S301)。また、特徴点マッチング部306は、保存されている特徴点をフレーム間でトラッキングし、距離画像から求められる距離情報と組み合わせて、カメラ座標系において特徴点がどのように移動したのかを求める(S302)。このような処理を「マッチング」と呼ぶ。マッチングに成功した特徴点を保存する(特徴点によってはマッチングできない場合もある)。その後、カメラパラメータ算出部307は、保存されているマッチングに成功した特徴点の集合から、RGB−Dセンサ207のフレーム毎の位置と向きの変化(カメラパラメータ)を算出し、これらを保存する(S303)。
RGB−Dセンサ207が撮像する距離画像は、カメラ座標系における3次元点群として扱うことができる。そのため、本実施形態では、3次元形状復元部308が、保存されているフレーム毎のカメラパラメータを用いて、これら3次元点群を世界座標系にマッピング(座標変換)する(S304)。このような処理をフレーム毎に行うことで、撮像した実空間の3次元形状を復元することができる。復元された3次元形状の情報は、随時保存される。
携帯投影端末100は、3次元形状の復元状況を監視する(S305)。復元された3次元形状が一つでも有る場合(S305:Y)、携帯投影端末100は、復元された3次元形状の情報をサーバ102へ送信する(S306)。このとき、現在時刻も合せて一緒に送信する。復元された3次元形状が存在しない場合(S305:N)、あるいは復元された3次元形状をサーバ102へ送信した後、携帯投影端末100は、携帯投影端末100は、現在の状態が空間スキャンモードか否かを判断する(S307)。空間スキャンモードである場合(S307:Y)、S300に処理が戻る。空間スキャンモードでない場合(S307:N)、携帯投影端末100は、復元処理を終了する。前述したように、本実施形態では、図5に示す位置合わせ処理(S108)がサーバ102で完了し、携帯投影端末100が位置合わせ完了イベントを受信する(S109)と、状態が空間スキャンモードから領域指定モードに変化する。
次に、サーバ102が実行する監視カメラ101の撮像画像と3次元形状との位置合わせ処理(S108)について詳しく説明する。図6(b)は、この処理の手順説明図であり、復元された物体の3次元形状と現在時刻を携帯投影端末100から受信することで開始される。まず、サーバ102は、記憶部331に記録されている複数の撮像画像から現在時刻に基づいて位置合わせの対象となる撮像画像を検索する(S400)。図4(b)に示した撮像画像400は、検索された撮像画像の一例である。
撮像画像が特定されると、座標変換部333は、記憶部331に記録されている当該撮像画像を撮像したときの監視カメラ101の位置情報および姿勢情報と、携帯投影端末100から受信した3次元情報とに基づいて2次元画像を生成する(S401)。具体的には、監視カメラ101の位置、視点から観察されるであろう2次元座標を予測し、座標変換することにより2次元画像を生成する。2次元画像が生成されると、位置合わせ処理部332は、S400で検索した撮像画像とS401で生成した2次元画像との位置合わせを行う。位置合わせの具体的な方法としては、それぞれの画像から局所特徴量を特徴点として抽出し、それらのマッチングによって位置合わせを行う。あるいは、各画像から輪郭形状を検出し、パターンマッチングして位置合わせを行っても構わない。位置合わせが完了すると、監視カメラ101の撮像画像に映っている物体の実空間における3次元的な位置関係を把握できたことになる。
サーバ102は、位置合わせができたか否かを判断する(S403)。位置合わせができなかった場合(S403:N)、位置合わせ処理S108を終了する。位置合わせが完了した場合(S403:Y)、通信部330は、位置合わせ完了イベントとともに、監視カメラ101から見えない死角領域の情報もあわせて携帯投影端末100へ送信する(S404)。その後、位置合わせ処理(S108)を終了する。
このように、本実施形態の情報処理システムでは、ユーザが、携帯投影端末100を用いて実空間の任意の領域を「照らす」という操作を行うことによって、直観的に注目領域を設定できる。また、実空間に監視カメラ101の監視領域や指定領域、死角領域などを重畳して投影するので、ユーザは、どの部分が監視カメラ101から見えない部分なのかを把握しつつ、注目領域を指定することができる。
なお、本実施形態では、監視領域全体の3次元形状の情報が予め作成されていない前提で説明したが、監視領域が固定されている場合は、実空間の3次元形状を予め作成しておき、それを利用しても構わない。その場合は、図5における3次元形状の復元処理(S106)が省略可能となる。但し、監視を行う実空間に置かれる物体は、レイアウト変更や移動などで日々位置が変わることが容易に予想される。物体の位置が変わってしまうと、位置合わせ処理(S108)ができなくなるおそれがある。そのため、予め監視領域の3次元形状を準備する場合は、これら物体の位置変更が行われる度に、監視領域の3次元形状を更新する必要がある。本実施形態で示したように、携帯投影端末100において3次元形状の復元処理(S106)を行えば、監視領域の3次元形状を予め作成しておく必要がなくなる。
また、仮に監視領域の3次元形状を予め作成しておいたとしても、実空間の物体の位置変化を携帯投影端末100の3次元形状の復元処理で補完できれば、予め作成しておいた実空間の3次元形状を修正(メンテナンス)する処理を追加することが可能である。
また、本実施形態では、監視カメラ101とサーバ102を別々の構成要素として説明したが、これらが一体であってもよい。同様に、携帯投影端末100のハードウェアリソースを増やすことができれば、携帯投影端末100とサーバ102の機能を合せて一体とすることも可能である。また、本実施形態では図5の復元処理(S106)を携帯投影端末100上で実行する例を示したが、RGB−Dセンサ207で撮像した画像をサーバ102に送信し、サーバ102上で実行することも可能である。
また、図1で示すオフィス空間に新たに監視カメラが設置され、かつ監視カメラの監視領域中に既存の監視カメラ101で設定した注目領域が含まれる場合、新たに設置する監視カメラにも同じ注目領域を設定しても構わない。このような利用方法は、複数台の監視カメラを利用して新たに監視システムを構築する際に、監視カメラ毎に注目領域を設定しなくて済むため、初期設置時のユーザ負荷を低減することができる。
[第2実施形態]
次に、本発明の第2実施形態について説明する。第1実施形態で説明した内容と共通するものについては同番号を付し、適宜説明を省略する。情報処理システムのハードウェア構成、および機能構成は第1実施形態に準じる。
第2実施形態では、持ち去り検知する物体の領域を指定する例について説明する。「持ち去り検知」とは、監視カメラ101が監視する領域に存在した物体が無くなって一定時間以上が経過したか否か、つまり当該物体が持ち去られたことを検知することである。第1実施形態との相違は、図5のS110において携帯投影端末100の領域指定部311が行う処理である。第1実施形態では、置き去り検知を行うための注目領域を指定する必要があった。そのため、領域指定部311では平面的な部分領域を優先的に指定領域とする処理を行ったが、第2実施形態では、注目領域を、監視カメラ101に映っている実空間の物体が存在する領域とする例を説明する。
図7は、持ち去り検知する領域を指定する例を示す模式図である。図7(a)は、机105に置かれたPC106を持ち去り検知の対象に指定するために、携帯投影端末100を用いてPC106近辺の空間をスキャンしている状態を示す。図7(a)において、PC106は、携帯投影端末100が照らしている投影領域104c内に存在する。図7(b)は、監視カメラ101で撮像される撮像画像400の例示図である。図7(b)で示すように、撮像画像600には、オフィス空間に存在する机105、PC106、携帯投影端末100および投影領域104cが、携帯投影端末100と異なる視点で映っている。
第2実施形態では、図5のS110の処理において、領域指定部311が、携帯投影端末100の投影領域104cに含まれる部分領域を検出する。また、検出した部分領域の位置関係およびRGB−Dセンサ207で撮像したRGB画像の色情報を利用して、検出した部分領域を統合する。その結果、図7(c)に示されるようにPC106を構成する統合領域700を持ち去り検知領域(注目領域)として指定する。このような処理を行うことにより、実空間上の任意の物体を「照らす」という操作を行うことによって、持ち去り検知対象となる物体が存在する領域を直感的に設定することができる。
[第3実施形態]
次に、第3実施形態に係る情報処理システムについて説明する。第3実施形態では、指定領域をユーザ操作の内容に応じて変形させる例を説明する。ユーザ操作は、例えばジェスチャ操作とする。情報処理システムのハードウェア構成および機能構成は第1実施形態に準じる。第1実施形態および第2実施形態との相違は、領域指定部311の機能と処理の内容である。第3実施形態における領域指定部311は、ユーザの手又は足の属性(形状、サイズ、色など)と投影領域に対するユーザ操作を検出する操作検出手段を備える。また、投影制御部309が、投影領域の形状を検出されたユーザ操作の内容に応じて変形させる投影制御手段として機能する。領域指定部311は、変形された形状の投影領域の一部又は全部を指定領域として指定する。
図8および図9を参照し、第3実施形態における注目領域の指定手順を説明する。図8(a)、(b)は、ジェスチャ操作によって指定領域を変形する様子を示す。図9は、その場合の処理手順説明図である。図8(a)は、携帯投影端末100により形成された投影領域800aが初期領域として形成されている。図9の領域指定処理は、この状態から開始される。領域指定処理が開始されると、領域指定部311は、保存されているRGB画像から肌色領域を検出し、検出結果を保存する(S900)。次に、領域指定部311は、RGB画像中に肌色領域が存在するか否かを判断する(S901)。肌色領域が存在しない場合(S901:N)、S900に処理を戻す。肌色領域が存在する場合(S901:Y)、領域指定部311は、肌色領域から手形状を検出する(S902)。そして、検出した手形状の領域をラベリングして保存する。
第3実施形態において検出する手形状は、例えば、図8(c)で示す手刀形状と、図8(d)で示すパー形状(手を開いた状態の形状)とする。第3実施形態では、手形状を検出するために、図8(c)、(d)に示される手形状801、802を囲んだ凸領域901、902を利用する。例えば、図8(c)、(d)をそれぞれ識別するために、凸領域901、902全体に占める肌色領域の割合を算出し、それぞれ閾値を設けることで各形状を識別する。但し、手形状の検出方法は、図8(c)、(d)の例に限定されない。例えば、検出したい手形状の画像を予めテンプレートとして用意し、撮像したRGB画像とマッチングして手形状を検出してもよい。もしくは、肌色領域の形状から既定の特徴量を抽出し、機械学習することによって手形状を検出することも可能である。
S902において手形状が検出されると、領域指定部311は、検出した形状が投影領域800aを変形させるための所定操作を表す手形状かどうか、例えば図8(c)に示す手刀形状か否かを判断する(S903)。手刀形状でない場合(S903:N)、領域指定部311は、処理をS907へ移す。手形状が手刀形状である場合(S903:Y)、領域指定部311は、保存されている手刀形状のラベリング情報を利用して、手刀形状領域の主軸を算出する。つまり、領域の2次モーメントを算出する(S904)。図8(a)の直線803は、手刀形状の主軸の一例である。領域指定部311は、求めた手刀形状の主軸を保存する。続いて、領域指定部311は、手刀形状の前フレームからの移動量を算出する(S905)。ここで算出する移動量は、S904で求めた手刀形状の主軸が、携帯投影端末100が投影する領域800aの境界と交わる点(図8の点903)からの移動量である。つまり、図8(a)の点903から矢印804方向の移行量を求め、求めた移動量を保存する。図8(a)の例では、主軸803を矢印804の方向へ、一点鎖線805で示す位置まで手刀形状が移動する場合を示している。
所定操作の検出を契機に、投影制御部309は、プロジェクタ205によって実空間に重畳表示されている投影領域の形状を変形させる。すなわち、図8(a)の投影領域800aを図8(b)の投影領域800bに変形させる(S906)。つまり、手刀形状の動きに応じて指定領域を微調整されたことをユーザ(ユーザ)にフィードバックする。
領域指定部311は、S902で検出した手形状の形状変化を監視しており、パー形状であるか否かを判断する(S907)。手形状がパー形状でない場合(S907:N)、処理をS900に移す。手形状がパー形状である場合(S907:Y)、領域指定部311は、形状変化の操作があったと認識して指定領域を確定させる(S908)。
なお、形状変化だけでなく、図8(b)に矢印で示されるように、形状変化後に領域境界線をまたぐ操作があったことをもって指定領域を確定させるようにしてもよい。
このように、第3実施形態では、手刀形状で指定領域を任意の形状に変形させる。また、手形状が他の所定形状、例えば手刀形状からパー形状に形状変化することによって指定領域を確定させる。
このように、第3実施形態によれば、指定領域をジェスチャ操作で直観的に微調整することが可能となる。なお、第3実施形態では、手を用いて投影領域の変形および確定を行う例を示したが、この限りでない。例えば図8の(e)、(f)で示すように、携帯投影端末100を利用しているユーザの足(靴)の動きジェスチャ操作を検出することによって投影領域の変形および確定を行うようにしてもよい。このときの投影領域の変形の手順は、図9で示した手を利用した場合と同様である。違いはRGB画像から検出する領域が足807の領域であることである。また手を利用した場合と比較すると、指定領域を確定する方法が異なる。足807の動きジェスチャを利用する場合は、図8(f)の矢印811の方向に足807を前後する操作を検出すると、指定領域を確定したと判断する。その結果、図8(e)の投影領域806aは図8(f)の投影領域806bに変形される。
本発明は、以下の処理を実行することによっても実施が可能である。すなわち、上述した各実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する。

Claims (14)

  1. 実空間の所定領域をそれぞれ同時期に異なる位置で撮像することにより得られる複数の撮像画像を取得する取得手段と、
    前記複数の撮像画像に共通に映る共通領域を前記実空間に投影表示する投影手段と、
    前記共通領域の一部または全部を指定領域として指定する指定手段と、
    前記指定領域を前記所定領域において注目する注目領域に設定する設定手段と、を有することを特徴とする、情報処理システム。
  2. 前記所定領域を前記実空間の固定位置で撮像する第1撮像手段と、
    前記実空間を移動しながら撮像可能な第2撮像手段と、
    前記第1撮像手段および前記第2撮像手段により撮像された撮像画像を各々の撮像位置および撮像姿勢を含む撮影時情報と共に記録し、さらに前記所定領域付近の3次元形状を記録する記録手段とを備えており、
    前記共通領域は、記録されている前記撮影時情報に基づいて前記3次元形状と前記撮像画像との位置合わせを行うことにより特定される領域であることを特徴とする、
    請求項1に記載の情報処理システム。
  3. 前記第2撮像手段は、前記実空間の任意の位置で光を照らすことにより形成される投影領域の画像を撮像することを特徴とする、
    請求項2に記載の情報処理システム。
  4. 前記投影手段は、前記第1撮像手段には映らない死角領域の情報を取得し、該死角領域の情報を前記共通領域の情報と共に投影表示することを特徴とする、
    請求項2に記載の情報処理システム。
  5. 前記指定手段は、前記投影表示により前記実空間に形成される投影領域の一部又は全部を前記指定領域として指定することを特徴とする、
    請求項3又は4に記載の情報処理システム。
  6. 前記指定手段は、前記投影領域に複数の部分領域が存在する場合は、当該投影領域の中心位置を含む部分領域を前記指定領域として指定することを特徴とする、
    請求項5に記載の情報処理システム。
  7. 前記指定手段は、前記投影領域に複数の部分領域が存在する場合は、各部分領域の色情報および位置関係を検出し、検出結果に基づいて各部分領域を統合した上で、当該統合された領域を前記指定領域として指定することを特徴とする、
    請求項5に記載の情報処理システム。
  8. 前記指定手段は、前記投影領域に対するユーザ操作を検出する操作検出手段と、前記投影領域の形状を前記操作検出手段で検出されたユーザ操作の内容に応じて変形させる投影制御手段とを備えており、変形された形状の投影領域の一部又は全部を前記指定領域として指定することを特徴とする、
    請求項5に記載の情報処理システム。
  9. 前記操作検出手段は、前記投影領域に存在するユーザの手又は足の形状を検出するとともに、検出した形状が表す所定操作を検出し、
    前記投影制御手段は、前記所定操作の検出を契機に前記投影領域の形状を変形させ、あるいは確定させることを特徴とする、
    請求項8に記載の情報処理システム。
  10. 前記所定操作は、前記投影領域に存在するユーザの手又は足の形状が当該投影領域の境界をまたぐ操作であることを特徴とする、
    請求項9に記載の情報処理システム。
  11. 前記所定操作は、ユーザの手又は足の形状が第1形状から第2形状への形状変化を伴う操作であることを特徴とする、
    請求項9に記載の情報処理システム。
  12. 前記設定手段は、前記位置合わせの実行状況を出力する出力手段を備えており、
    前記投影手段は、出力された前記実行状況に応じて前記投影領域における投影表示の態様を変更させる投影制御手段を備えることを特徴とする、
    請求項3、5乃至11のいずれか一項に記載の情報処理システム。
  13. 実空間の所定領域をそれぞれ同時期に異なる位置で撮像することにより得られる複数の撮像画像を取得する取得工程と、
    前記複数の撮像画像に共通に映る共通領域を前記実空間に投影表示させる投影工程と、
    前記共通領域の一部または全部を指定領域として指定する指定工程と、
    前記指定領域を前記所定領域において注目する注目領域に設定する設定工程と、を有することを特徴とする、情報処理方法
  14. 実空間の所定領域を撮像する撮像装置との間で直接又は中継装置を介して通信する通信手段と、
    前記所定領域を前記撮像装置と異なる位置で撮像可能な撮像センサと、
    前記撮像装置で撮像された撮像画像および前記撮像センサで撮像された撮像画像、並びに、当該撮像装置の撮像位置および撮像姿勢を含む撮像時情報に基づいて生成された共通領域の情報を前記所定領域に向けて投影表示する投影手段と、
    前記投影表示により形成される投影領域の一部又は全部を指定領域として指定する領域指定手段とを備え、
    前記指定領域を前記撮像装置において注目する注目領域に設定させることを特徴とする、
    携帯投影端末。
JP2016215666A 2016-11-02 2016-11-02 情報処理システム、情報処理方法、携帯投影端末 Active JP6812203B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016215666A JP6812203B2 (ja) 2016-11-02 2016-11-02 情報処理システム、情報処理方法、携帯投影端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016215666A JP6812203B2 (ja) 2016-11-02 2016-11-02 情報処理システム、情報処理方法、携帯投影端末

Publications (2)

Publication Number Publication Date
JP2018074528A JP2018074528A (ja) 2018-05-10
JP6812203B2 true JP6812203B2 (ja) 2021-01-13

Family

ID=62116003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016215666A Active JP6812203B2 (ja) 2016-11-02 2016-11-02 情報処理システム、情報処理方法、携帯投影端末

Country Status (1)

Country Link
JP (1) JP6812203B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7255842B2 (ja) * 2019-01-15 2023-04-11 日本電気通信システム株式会社 投影像指定装置、図形投影システム、投影像指定方法及びプログラム
JP2020149672A (ja) * 2019-03-11 2020-09-17 株式会社ミツトヨ 測定結果表示装置及びプログラム
JP7024014B2 (ja) * 2020-07-13 2022-02-22 株式会社三共 遊技機
WO2022162885A1 (ja) * 2021-01-29 2022-08-04 日本電気株式会社 領域決定装置、制御方法、コンピュータ可読媒体、監視システム、監視方法
WO2023021640A1 (ja) * 2021-08-19 2023-02-23 三菱電機株式会社 情報処理プログラム及び検知システム
JP7051031B1 (ja) * 2021-08-19 2022-04-08 三菱電機株式会社 情報処理装置及び検知システム
JP7452768B2 (ja) * 2021-09-14 2024-03-19 株式会社島津製作所 撮像システム、および撮像方法
WO2023228414A1 (ja) * 2022-05-27 2023-11-30 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3905116B2 (ja) * 2004-02-03 2007-04-18 松下電器産業株式会社 検出領域調整装置
JP2007013814A (ja) * 2005-07-01 2007-01-18 Secom Co Ltd 検出領域の設定装置
CN104704817B (zh) * 2012-12-06 2017-12-26 日本电气株式会社 视场显示系统、视场显示方法及视场显示程序

Also Published As

Publication number Publication date
JP2018074528A (ja) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6812203B2 (ja) 情報処理システム、情報処理方法、携帯投影端末
US10452133B2 (en) Interacting with an environment using a parent device and at least one companion device
US9544552B2 (en) Pickup system and pickup method
JP2019070911A (ja) 情報処理装置、接続設定方法、コンピュータプログラム、及び記憶媒体
CN106575437B (zh) 信息处理装置、信息处理方法以及程序
CN109582122B (zh) 增强现实信息提供方法、装置及电子设备
US9743048B2 (en) Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019176378A (ja) 制御装置、監視システム、及び監視カメラ制御方法
JP6685742B2 (ja) 操作装置、移動装置、およびその制御システム
JP2014206583A (ja) 撮像装置、フォーカス調整システム、フォーカス指示装置、フォーカス調整方法、及びプログラム
JP2008015815A (ja) 画像処理装置、および画像処理プログラム
KR20110087407A (ko) 카메라 시뮬레이션 시스템 및 이를 이용한 위치 감지 방법
US20190318503A1 (en) Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker
US20220244788A1 (en) Head-mounted display
JP2015038699A (ja) 拡張現実画像生成システム、3次元形状データ生成装置、拡張現実提示装置、拡張現実画像生成方法、及びプログラム
JP6882147B2 (ja) 操作案内システム
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20220070365A1 (en) Mixed reality image capture and smart inspection
JP2006033188A (ja) 監視装置および監視方法
US9041973B2 (en) Support system, control device, image forming apparatus, and support method utilizing cards on which written information is printed
EP3432204B1 (en) Telepresence framework for region of interest marking using headmount devices
JP7027171B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR102553830B1 (ko) 카메라를 이용한 실시간 로봇 원격 제어 방법 및 장치
JP4846203B2 (ja) 画像領域設定装置及び画像領域設定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201216

R151 Written notification of patent or utility model registration

Ref document number: 6812203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151