JP2020071614A - 情報処理装置、その制御方法、プログラム、及び記憶媒体 - Google Patents
情報処理装置、その制御方法、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP2020071614A JP2020071614A JP2018204384A JP2018204384A JP2020071614A JP 2020071614 A JP2020071614 A JP 2020071614A JP 2018204384 A JP2018204384 A JP 2018204384A JP 2018204384 A JP2018204384 A JP 2018204384A JP 2020071614 A JP2020071614 A JP 2020071614A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input
- predetermined device
- predetermined
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 従来は、外部機器を撮影した映像にARを利用して重畳表示されるGUIにより、外部機器の遠隔操作の操作性を向上させる技術は確立されていなかった。【解決手段】 本発明は、上記課題を鑑みてなされたものであり、撮像装置を用いて実空間を撮影した入力映像を取得する取得部201と、前記入力映像に映る所定の機器に対する指示の入力を受け付けるためのユーザインタフェース部品を、前記入力映像のうち前記所定の機器が映る部分に重畳させた出力映像を生成する生成部204と、生成された前記出力映像を表示装置に表示させる表示制御部205とを備え、前記生成部204は、自装置と前記所定の機器との位置関係が所定の基準を満たさない場合、前記入力映像のうち前記所定の機器が映る部分を加工した上で前記ユーザインタフェース部品を重畳した出力映像を生成する。【選択図】 図2
Description
本発明は、実空間を撮影した映像に仮想情報を重畳して表示させるAR(拡張現実)技術に関する。
撮像部を備えたタブレットやスマートフォンなどのデバイスを、周辺の実空間に存在する対象物にかざした時(撮像部を向けた時)に、撮影された映像を、対象物に関連づけられた仮想情報を重畳した状態で表示するAR(拡張現実)技術が知られている。特許文献1では、位置情報と対応する仮想情報を記憶しているサーバから、自装置の位置と自装置に備わる撮像部の向きによって決まる撮像エリア内の位置情報に対応する付加情報を取得し、撮像部が撮影する周囲の画像に取得した付加情報を合成して表示する。
また、自装置または他装置を操作するためのGUI(Graphical User Interface)を構成するユーザインタフェース部品が、撮像部が撮影する画像に重畳した状態で表示されることがある。特許文献2では、操作者がジェスチャによって触れたり操作したりするGUIが、撮像部によって撮影される操作者自身が映る映像に重畳して表示される。その際、映像中から人物を検出し、人物の映る領域を抽出して、表示画面のサイズに合わせて拡大表示する。
ARを用いれば、操作者が携帯するタブレットやスマートフォンの撮像部が撮像する映像に重ねて、映像に映る外部機器に関連する仮想情報として、外部機器を遠隔操作するためのGUIを表示することができる。しかしながら、ARの従来技術では、撮像手段が撮像する画像に重畳される仮想情報は、対象物の関連が分かりやすいように、画像中の対象物の位置及びサイズに合わせた形態で表現されることが多い。つまり、自装置から離れた位置に存在する対象物に関連付いた仮想情報は小さく表示されるので、ARの仮想情報にGUIの要素をただ加えるだけでは、操作性の良いインタフェースとはならない。また、特許文献2によれば、映像のうち検出された対象物が映る領域だけを拡大して表示することができるが、固定された撮像部ではなく操作者が携帯するタブレットやスマートフォンで撮影している映像は、拡大すると手振れの影響で不安定になりやすい。このように、従来技術では、外部機器を撮影した映像にARを利用して重畳表示されるGUIにより、外部機器の遠隔操作の操作性を向上させる技術は確立されていなかった。
上記の目的を達成するために、本発明に係る情報処理装置は、撮像装置を用いて実空間を撮影した入力映像を取得する取得手段と、前記入力映像に映る所定の機器に対する指示の入力を受け付けるためのユーザインタフェース部品を、前記入力映像のうち前記所定の機器が映る部分に重畳させた出力映像を生成する生成手段と、生成された前記出力映像を表示装置に表示させる表示制御手段とを備え、前記生成手段は、自装置と前記所定の機器の位置関係が所定の基準を満たさない場合、前記入力映像のうち前記所定の機器が映る部分を加工した上で前記ユーザインタフェース部品を重畳した出力映像を生成する。
本発明によれば、外部機器を撮影した映像にARを利用して重畳表示されるGUIにより、外部機器の遠隔操作の操作性が向上する。
以下、本発明に係る実施形態を、図面を参照して詳細に説明する。なお、以下の実施形態に記載する構成は代表例であり、本発明の範囲はそれらの具体的構成に必ずしも限定されない。
<第1の実施形態>
第1の実施形態では、タブレットやスマートフォンなどの表示デバイスを周辺の対象物にかざした時に、対象物の情報を閲覧または対象物を操作するためのGUIを重畳表示するシステムの例を説明する。従来から、タブレットやスマートフォンなどにインストールされたアプリケーションにより、外部機器を遠隔操作するGUIを提供する事例は多い。しかしながら、表示されたGUIが、どの外部機器を操作するためのものかを直感的に理解するのは難しい。そこでAR技術により、現実世界の対象物の映像にGUIを構成する要素を重畳して見せることで、従来に比べ、現実世界の対象物の情報にアクセスしたり、対象物を直接操作したりといった作業がより直観的になることが期待される。
第1の実施形態では、タブレットやスマートフォンなどの表示デバイスを周辺の対象物にかざした時に、対象物の情報を閲覧または対象物を操作するためのGUIを重畳表示するシステムの例を説明する。従来から、タブレットやスマートフォンなどにインストールされたアプリケーションにより、外部機器を遠隔操作するGUIを提供する事例は多い。しかしながら、表示されたGUIが、どの外部機器を操作するためのものかを直感的に理解するのは難しい。そこでAR技術により、現実世界の対象物の映像にGUIを構成する要素を重畳して見せることで、従来に比べ、現実世界の対象物の情報にアクセスしたり、対象物を直接操作したりといった作業がより直観的になることが期待される。
図1に、施設の保守に使用する監視カメラの操作に、表示デバイスによる監視カメラの遠隔操作が採用される場合を想定した実空間の模式図を示す。室内において、監視カメラによる保守業務を担当する操作者101が、天井に設置された監視カメラ102、103を操作して、撮像範囲や撮影状態を確認する。操作者が手に持った表示デバイス104を用いて保守業務を行う場合、監視カメラが遠くにあるために、監視カメラが小さく映り、また映像自体が手ぶれにより動く。第1の実施形態では、このような状況であっても操作性を低下させないために、表示デバイスの撮像部で撮影した映像中の対象物の状態に基づき、映像を加工した上でGUIを重畳表示する。
図2(a)は、本実施形態に係る情報処理装置200の一例である表示デバイスの機能ブロック図である。同図において、201は取得部、202は検出部、203は判定部、204は生成部、205は表示制御部、206は指示部であるである。これらの各機能部は、CPU301等から構成され、ROM303に記憶されたプログラムやデータをRAM302に読み出して表示制御などの処理を実行する。これらのハードウェアの構成は図2(b)に示す。また例えば、CPU301を用いたソフトウェア処理の代替として各機能部をハードウェアで構成する場合、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
取得部201は、情報処理装置200に備えられた撮像装置305から出力される入力映像を取得し、必要に応じて複合等の処理を行い、他の機能部に入力する。検出部202は、所定の対象物(遠隔操作の対象として予め登録された外部機器)を、入力映像から検出する。判定部203は、入力映像中の対象物が映る部分の状態が、ユーザインタフェース部品を重畳し、操作者による操作を受け付けるのに適した状態であるか判定する。本実施形態では、少なくとも情報処理装置200と対象物の位置関係が所定の基準を満たすか否かに基づいて、入力映像のうち対象物が映る部分が、対応するGUIを重畳するに適した状態かどうかが判定される。所定の基準が満たされない場合とは、情報処理装置200と対象物が離れているために、入力画像中での対象物のサイズが小さすぎる場合を含む。また本実施形態では、さらに、入力画像中での対象物が手振れなどの影響により対象物が頻繁に大きく動く場合にも、ユーザインタフェース部品を重畳し、操作者による操作を受け付けるのに適した状態ではないとみなす。
生成部204は、判定部203で判定された内容に基づき、入力映像を加工して、出力映像を生成する。例えば、入力映像のうち対象物が映る部分のサイズが小さすぎれば、その部分を局所的に拡大する。入力映像のうち対象物が映る部分が、手振れなどの影響により対象物が頻繁に大きく動いていれば、局所的に平滑化処理を加え、動きを抑制する、といった加工が可能である。表示制御部は生成部204で生成された映像を表示装置307に表示させる。出力映像では、入力映像のうち対象物が映る部分に、対象物(外部機器)に対する指示の入力を受け付けるためのユーザインタフェース部品が重畳される。指示部206は、表示されたユーザインタフェース部品を操作することにより操作者が入力した対象物に対する指示を、ネットワーク・インタフェース308を介して対象物に送信する。
図2(b)は、本実施形態に係る情報処理装置の一例である表示デバイスのハードウェア構成を示す構成図である。301はCPU、302はRAM、303はROM、304は記憶装置、305は撮像装置、306は入力装置、307は表示装置、309はネットワーク・インタフェース、310はシステムバスである。記憶装置304は、ハードディスクドライブや各種インタフェースによって接続された外部記憶装置などであり、実施形態の操作認識処理にかかるプログラムや各種データを記憶する。撮像装置305は、自装置の周辺の実空間をリアルタイムに撮影し、所定フォーマットの映像データとして出力するRGBカメラである。入力装置306はデバイスの位置や向きを検出するためのGPUやIMUセンサ、地磁気センサである。表示装置307は映像を表示するためのディスプレイである。ネットワーク・インタフェース308はネットワーク309を介して外部の機器との間でデータ等の授受を行う。システムバス310は、本装置の各要素を接続し、各要素間における信号の授受を行う。
次に、図3を参照して、本実施形態において、情報処理装置200が保持する対象物の関連情報の一例について説明する。図3のテーブル400には対象物の識別子401、名前402、適正表示サイズ403、位置404、特徴量405、パン406、チルト407、GUI408の各値が格納されている。識別子401には対象物を一意に特定するための識別子が格納されている。名前402には対象物の名前が格納されている。適正表示サイズ403には、対象物にGUIを重畳して表示する時の対象物の適正なサイズが、幅と高さの組で格納されている。単位はピクセルで表現されている。位置404には対象物の位置情報が3次元空間の座標値で格納されている。特徴量405には対象物を認識、トラッキングするための画像特徴量が格納されている。ここには予め監視カメラの画像から抽出したSIFTの画像特徴量が格納されているが、対象物をトラッキングできるものであれば、どのような特徴量であってよい。パン406、チルト407は監視カメラのパン、チルトの角度が格納されている。GUI408には対象物に重畳表示するGUIのデータが格納されている。GUIのデータはGUI部品の組み合わせと文字データ等により表されるが、対象物の情報を閲覧、操作できるものであればどのようなデータであってもよい。対象物の関連情報400は装置内で持っていてもよいし、ネットワーク・インタフェース308を介して外部の機器や対象物から定期的に受信してもよい。
次に、撮像装置305によって撮影される映像の一例について図4を用いて説明する。図4(a)は、図1で操作者101が、本実施形態に係る情報処理装置200の一例である表示デバイス104を用いて撮像した映像を表している。図4(b)は図4(a)の微小時間後に撮像された次のフレームの映像を表している。図1と同じ番号を付記したものは図1と同じものを表している。図中の501、502は、それぞれ対象物(監視カメラ)102、103の領域を表している。
次に、生成部204が生成した映像の一例について図5を用いて説明する。図5(a)、図5(b)はそれぞれ図4(a)、図4(b)の映像に対し、映像の加工、GUIの重畳表示を行った状態を表している。図中の601、608はそれぞれ対象物の部分領域502、501を切り出して拡大表示した映像を表している。602、605は対象物に重畳したGUIを表している。GUIは監視カメラで撮像した映像と、監視カメラのパン、チルトを変更するためのスライダー(603、604、606、607)で構成されている。スライダーを操作することで、監視カメラの撮像範囲を変更することができる。
図6は、本実施形態において情報処理装置200において実行される処理の一例を示すフローチャートである。本フローチャートは、ネットワークカメラの遠隔操作用のアプリケーションが起動されたのに応じて開始される。そしてステップS701以下の処理は、微小時間時間毎に、撮像装置305から映像データが1フレームずつ入力されるのに応じて繰り返し実行される。ここで映像が得られる微小時間は、撮像装置305が撮影する映像のフレームレートに一致させてもよい。CPU301は、ステップS701において、撮像装置305から1フレーム分の映像を取得し、ステップS702に移行する。ここでは図4(a)に示す映像が取得されることとする。ステップS702において、表示デバイスの画面に表示可能な対象物を抽出して、ステップS703に移行する。具体的には、表示デバイスの入力装置306のセンサ群から取得した位置情報と向きと、対象物の関連情報の一つである位置404を比較して、表示デバイスが撮像している範囲の対象物情報を抽出する。ここではテーブル400の対象物のうち識別子がID_001、ID_002のものが抽出されたものとする。また、識別子ID_001、ID_002はそれぞれ監視カメラ102、103に対応することとする。ステップS703において、抽出した対象物を一つずつ処理する。
まずステップS704では、対象物を認識、トラッキングするための画像特徴量を対象物の関連情報の中から取得し、ステップS705に移行する。ここではまずID_001の監視カメラが選択されるため、V1というベクタデータで表現された画像特徴量が取得される。画像特徴量は、関連情報に予め格納しておいた監視カメラの画像から抽出した特徴量を使用してもよいし、関連情報には画像を格納しておき、必要な時に画像特徴量を抽出して使用してもよい。また、画像特徴量が必要になったタイミングで、監視カメラの画像を、ネットワーク・インタフェース308を介してネットワーク309上のデータを検索した結果に基づきダウンロードし、画像特徴量を抽出してもよい。ステップS705では、取得した位置情報と画像特徴量を基に撮像した映像上の対象物の位置を検出して、ステップS706に移行する。
CPU301は、取得した映像(図4(a))から対象物の位置を検出する。具体的には、表示デバイスの位置と向いている方向、対象物の位置を基に探索範囲を絞り、画像特徴量により対象物の位置を特定する。ここではID_001の監視カメラは501の領域にあり、この範囲が検出されたとする。ステップS706では、対象物が映像上に存在するかどうかを判定し、存在すればステップS707に移行し、存在しなければ次の対象物の処理を実行する。ID_001の監視カメラは映像上に存在するためステップS707に移行する。ステップS707において、対象物を切り出した部分画像を生成し、ステップS708に移行する。図4(a)のID_001の監視カメラは領域501に存在するため、この領域を切り出した部分画像(以下、切り出し画像)を生成する。ステップS708では、対象物のサイズがGUIを重畳するのに適したサイズであるかどうかを判定し、適したサイズである場合はステップS709に移行し、適したサイズでない場合はステップS710に移行する。対象物がGUIを重畳するのに適したサイズかどうかは、対象物の切り出し画像が、対象物の適正表示サイズ403と比較して所定の閾値の範囲内かどうかで判定する。ID_001の監視カメラの切り出し画像のサイズを51x70、閾値を2ピクセルとした時、領域のサイズは閾値の範囲内であることから、ID_001の領域は重畳に表示に適したサイズと判定される。
ステップS709では、対象物の画面上の移動速度が所定の閾値内かどうかを判定し、範囲内である場合はステップS711に移行し、そうでない場合はステップS712に移行する。図4(a)の映像は表示デバイスが撮像した最初のフレームであるため、ID_001の監視カメラの切り出し画像の移動距離は0ピクセルとする。閾値を2ピクセルとした時、移動距離は閾値の範囲内にあると判定される。ステップS711では、対象物の切り出し画像の表示位置を元々の対象物の中心位置に設定して、ステップS713に移行する。ステップS713では、対象物の切り出し画像を前ステップで設定された位置に表示して、ステップS714に移行する。ID_001の監視カメラの切り出し画像は特に修正されていないため、元々あった領域501の位置に表示する。ステップS714では、GUIを対象物に合わせて重畳表示し、処理していない対象物が残っていればステップS703、なければステップS715に移行する。表示制御部205は、ID_001の監視カメラのGUIであるNC1を取得し、図5(a)に示すように、GUI602を重畳表示する。
続いて、残りの対象物ID_002について、ステップS703に戻り、処理を行う。ステップS704ではID_002の対象物の特徴量V1を取得し、次のステップに移行する。ステップS705では撮像した映像から対象物ID_002の位置を特定する。ここでは502をID_002の監視カメラの領域とする。ステップS706において、映像中にID_002の監視カメラは存在するため次のステップに移る。ステップS707では、ID_002の部分領域502を切り出した画像を生成する。ステップS708において、ID_002の監視カメラの切り出し画像を26x38とした時、領域のサイズが閾値の範囲外であることから、GUIを重畳表示するのに適したサイズでないと判定され、ステップS710に移行する。ステップ710では、対象物の切り出し画像をGUIの操作に適したサイズに拡大または縮小し、ステップS709に移行する。ID_002の監視カメラの切り出し画像のサイズが26x38、適正表示サイズが50x70である。そのため、平均二乗誤差を用いて適正表示サイズに近いサイズになるように拡大率を算出すると、拡大率が1.88となり、切り出し画像の表示サイズは48.9x71.4となる。ここでは切り出し画像のアスペクト比を保った状態で画像の拡大を行ったが、異なる拡大方法を用いてもよい。ステップS709において、ID_002の監視カメラは移動していないため、ステップS711に移行する。
ステップS711において、対象物の切り出し画像の表示位置を元々の大宝物の中心位置に決定し、ステップS713において、CPU301は、表示装置307に図5(a)の601に示すように映像に重畳して切り出し画像を表示させる。ステップS714において、ID_002の監視カメラのGUIであるNC1を取得し、図5(a)に示すように、GUI605を重畳表示する。ここで全ての対象物の処理が終了したため、ステップS715に移行する。ステップS715では、生成した映像を表示装置307であるディスプレイに転送し、ステップS701に戻る。ここでは図4(a)の映像が生成され、ディスプレイを通して操作者に提示される。
続いて、ステップS701において、図4(a)の微小時間後に撮像した図4(b)の映像(フレーム)が取得され、処理が繰り返される。なお、図4(a)と図4(b)の間で操作者の手が動くことでデバイスが左方向に移動し、画像としては3ピクセル右方向にシフトしている状態とする。図4(a)の例と処理が同じ部分については以後説明を省略する。ステップS703の繰り返し処理ではID_001とID_002の監視カメラについて順次処理を行う。ステップ709において、ID_001の監視カメラの領域501が3ピクセル右方向に移動しており、閾値の2ピクセルを超えているため、ステップS712に移行する。ステップS712では対象物の切り出し画像の表示位置を平滑化処理によって決定し、ステップS713に移行する。表示位置の平滑化処理をする際、対象物の前回の位置を記憶しておいて、その値を基に移動平均を用いて表示位置を決定する。表示位置の平滑化をする方法であれば、カルマンフィルタなどの別の方法を用いてもよい。
ステップS713では前ステップで設定された位置に対象物の切り出し画像を表示するため、図5(b)の608の位置に表示される。切り出し画像を重畳する際、検出時の対象物の領域部分にぼかしを入れて隠してもよい。重畳画像を拡大・縮小・移動した際に、裏に隠される対象物の映像が見えてしまう場合に、それが見えづらくなる方法であればどのような方法であってもよい。続いて、ステップS703から、ID_002の監視カメラを処理する流れを説明する。ステップS709において、ID_002の監視カメラの映像中の部分領域502もID_001の監視カメラ同様3ピクセル右方向に移動しており、閾値を超えているため、ステップS712に移行する。ステップS712ではID_002の監視カメラの切り出し画像の表示位置を平滑化処理によって決定する。ステップS713では、前ステップで設定された位置に対象物の切り出し画像を表示するので、図5(b)の601の位置に表示される。
以上のように、表示デバイスの撮像部が撮影した映像中の対象物の状態に基づき、対象物の領域を切り出し、拡大・縮小と位置の平滑化を行った上でGUIを重畳表示している。このようにすることで、対象物が遠くや近くにある場合や、手ぶれにより対象物が画面上で微動している場合においても、対象物が見やすく操作しやすい状態でGUIを重畳表示することができる。
<第1の実施形態の変形例1>
第1の実施形態では、表示デバイスを監視カメラの保守業務に利用したケースについて説明したが、これは第1の実施形態を実現する態様の一例にすぎない。ここで変形例として、時計の時刻合わせに利用するケースについて説明する。図7(a)は、撮像装置305によって撮像された映像の一例であって図7(a)、表示デバイス104を用いて時計801を撮像した映像を表している。図7(a)において802は、映像のうち時計801を含む領域(ここでは外接領域)を表している。
第1の実施形態では、表示デバイスを監視カメラの保守業務に利用したケースについて説明したが、これは第1の実施形態を実現する態様の一例にすぎない。ここで変形例として、時計の時刻合わせに利用するケースについて説明する。図7(a)は、撮像装置305によって撮像された映像の一例であって図7(a)、表示デバイス104を用いて時計801を撮像した映像を表している。図7(a)において802は、映像のうち時計801を含む領域(ここでは外接領域)を表している。
次に、表示制御部205が生成した映像の一例について図7(b)を用いて説明する。図7(b)は図7(a)の映像に対し、映像の加工、GUIの重畳表示を行った状態を表している。図7(b)において901は対象物の領域802を切り出して拡大表示した映像を表している。902は対象物に重畳したGUIを表している。GUIは時計の現在時刻のデジタル表示と、時計の時針と分針を変更するためのコントロール部品(903、904)で構成されている。コントロール部品を時計回りあるいは反時計回りに回転させるように操作することで、操作者は、現在時刻を変更することができる。
以上のように、表示デバイスの撮像部が撮影した映像中の対象物の状態に基づき、対象物の領域を切り出し、拡大・縮小と位置の平滑化を行った上でGUIを重畳表示している。このようにすることで、対象物が遠くや近くにある場合や、手ぶれにより対象物が画面上で微動している場合においても、対象物が見やすく操作しやすい状態でGUIを重畳表示することができる。
<その他の実施形態>
第1の実施形態によって遠隔操作される対象物(外部機器)は、監視カメラや時計に限られず、様々な機器に適用することができる。例えば、ネットワークに接続されたエアコンや暖房器具、テレビ、冷蔵庫、加湿器、扇風機、プロジェクタ、カメラ、電子黒板がある。これらの対象物の情報の閲覧、操作を、第1の実施形態の情報処理装置200に相当する表示デバイスの画面に表示されたGUIを通して行うことができる。いずれの機器が対象となる場合でも、表示デバイスは、撮像部が撮影した映像中の対象物の状態に基づき、対象物の領域を切り出し、拡大・縮小と位置の平滑化を行った上でGUIを重畳表示する。このようにすることで、対象物が遠くや近くにある場合や、手ぶれにより対象物が画面上で微動している場合においても、対象物が見やすく操作しやすい状態でGUIを重畳表示することができる。
第1の実施形態によって遠隔操作される対象物(外部機器)は、監視カメラや時計に限られず、様々な機器に適用することができる。例えば、ネットワークに接続されたエアコンや暖房器具、テレビ、冷蔵庫、加湿器、扇風機、プロジェクタ、カメラ、電子黒板がある。これらの対象物の情報の閲覧、操作を、第1の実施形態の情報処理装置200に相当する表示デバイスの画面に表示されたGUIを通して行うことができる。いずれの機器が対象となる場合でも、表示デバイスは、撮像部が撮影した映像中の対象物の状態に基づき、対象物の領域を切り出し、拡大・縮小と位置の平滑化を行った上でGUIを重畳表示する。このようにすることで、対象物が遠くや近くにある場合や、手ぶれにより対象物が画面上で微動している場合においても、対象物が見やすく操作しやすい状態でGUIを重畳表示することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
200 情報処理装置
201 取得部
202 検出部
203 判定部
204 生成部
205 表示制御部
206 指示部
201 取得部
202 検出部
203 判定部
204 生成部
205 表示制御部
206 指示部
Claims (12)
- 撮像装置を用いて実空間を撮影した入力映像を取得する取得手段と、
前記入力映像に映る所定の機器に対する指示の入力を受け付けるためのユーザインタフェース部品を、前記入力映像のうち前記所定の機器が映る部分に重畳させた出力映像を生成する生成手段と、
生成された前記出力映像を表示装置に表示させる表示制御手段とを備え、
前記生成手段は、自装置と前記所定の機器の位置関係が所定の基準を満たさない場合、前記入力映像のうち前記所定の機器が映る部分を加工した上で前記ユーザインタフェース部品を重畳した出力映像を生成することを特徴とする情報処理装置。 - 前記自装置と前記所定の機器の位置関係は、前記入力映像中での前記所定の機器のサイズに基づいて判定され、前記生成手段は、前記入力映像中での前記所定の機器が映る部分のサイズが所定のサイズに満たない場合、前記入力映像のうち前記所定の機器が映る部分を局所的に拡大する加工を加えることを特徴とする請求項1に記載の情報処理装置。
- さらに前記生成手段は、前記入力映像中での前記所定の機器が映る部分の移動速度が所定の速度より速い場合、前記入力映像のうち前記所定の機器が映る部分の位置の動きを平滑化する加工を加えることを特徴とする請求項1または2に記載の情報処理装置。
- 前記入力映像から前記所定の機器を検出する検出手段を更に備え、
前記検出手段は、前記情報処理装置の位置情報と向き、前記入力映像から検出した前記所定の機器の位置情報を基に前記所定の機器を一意に識別することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記生成手段は、前記入力映像から前記所定の機器が映る部分領域を切り出して局所的な加工を加え、前記入力映像のうち前記所定の機器が映る位置に重畳させ、さらに、前記加工された部分領域における前記所定の機器に前記ユーザインタフェース部品を重畳させて前記出力映像を生成することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 撮像装置を用いて実空間を撮影した入力映像を取得する取得手段と、
前記入力映像に映る所定の機器に対する指示の入力を受け付けるためのユーザインタフェース部品を、前記入力映像のうち前記所定の機器が映る部分に重畳させた出力映像を生成する生成手段と、
生成された前記出力映像を表示装置に表示させる表示制御手段とを有し、
前記生成手段は、前記入力映像中での前記所定の機器のサイズが所定の基準を満たす場合、前記入力映像のうち前記所定の機器が映る部分を拡大した上で前記ユーザインタフェース部品を重畳した出力映像を生成することを特徴とする情報処理装置。 - 撮像装置を用いて実空間を撮影した入力映像を取得する取得手段と、
前記入力映像に映る所定の機器に対する指示の入力を受け付けるためのユーザインタフェース部品を、前記入力映像のうち前記所定の機器が映る部分に重畳させた出力映像を生成する生成手段と、
生成された前記出力映像を表示装置に表示させる表示制御手段とを有し、
前記生成手段は、前記入力映像のうち前記所定の機器が映る部分で生じる前記所定の機器の動きが所定の基準を満たす場合、前記入力映像のうち前記所定の機器が映る部分の位置の動きを平滑化した上で前記ユーザインタフェース部品を重畳した出力映像を生成することを特徴とする情報処理装置。 - 取得手段により、撮像装置を用いて実空間を撮影した入力映像を取得する取得工程と、
生成手段により、前記入力映像に映る所定の機器に対する指示の入力を受け付けるためのユーザインタフェース部品を、前記入力映像のうち前記所定の機器が映る部分に重畳させた出力映像を生成する生成工程と、
表示制御手段により、生成された前記出力映像を表示装置に表示させる表示制御工程とを有し、
前記生成工程では、自装置と前記所定の機器の位置関係が所定の基準を満たさない場合、前記入力映像のうち前記所定の機器が映る部分を加工した上で前記ユーザインタフェース部品を重畳した出力映像を生成することを特徴とする情報処理装置の制御方法。 - 取得手段により、撮像装置を用いて実空間を撮影した入力映像を取得する取得工程と、
生成手段により、前記入力映像に映る所定の機器に対する指示の入力を受け付けるためのユーザインタフェース部品を、前記入力映像のうち前記所定の機器が映る部分に重畳させた出力映像を生成する生成工程と、
表示制御手段により、生成された前記出力映像を表示装置に表示させる表示制御工程とを有し、
前記生成工程では、前記入力映像中での前記所定の機器のサイズが所定の基準を満たす場合、前記入力映像のうち前記所定の機器が映る部分を拡大した上で前記ユーザインタフェース部品を重畳した出力映像を生成することを特徴とする情報処理装置の制御方法。 - 取得手段により、撮像装置を用いて実空間を撮影した入力映像を取得する取得工程と、
生成手段により、前記入力映像に映る所定の機器に対する指示の入力を受け付けるためのユーザインタフェース部品を、前記入力映像のうち前記所定の機器が映る部分に重畳させた出力映像を生成する生成工程と、
表示制御手段により、生成された前記出力映像を表示装置に表示させる表示制御工程とを有し、
前記生成工程では、前記入力映像のうち前記所定の機器が映る部分で生じる前記所定の機器の動きが所定の基準を満たす場合、前記入力映像のうち前記所定の機器が映る部分の位置の動きを平滑化した上で前記ユーザインタフェース部品を重畳した出力映像を生成することを特徴とする情報処理装置の制御方法。 - コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1乃至7のいずれか1項に記載の情報処理装置として機能させるプログラム。
- 請求項11に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018204384A JP2020071614A (ja) | 2018-10-30 | 2018-10-30 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018204384A JP2020071614A (ja) | 2018-10-30 | 2018-10-30 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020071614A true JP2020071614A (ja) | 2020-05-07 |
Family
ID=70547820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018204384A Pending JP2020071614A (ja) | 2018-10-30 | 2018-10-30 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020071614A (ja) |
-
2018
- 2018-10-30 JP JP2018204384A patent/JP2020071614A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10917621B2 (en) | Information processing apparatus, image generating apparatus, control methods therefor, and non-transitory computer-readable storage medium | |
JP5740884B2 (ja) | 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム | |
JP6317452B2 (ja) | ターゲット上に投影するためのコンテンツをトリミングするための方法、装置、システム及び非一時的コンピュータ可読記憶媒体 | |
CN112217998B (zh) | 拍摄装置、信息处理装置及其控制方法、存储介质 | |
JP6918455B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10866647B2 (en) | Using natural movements of a hand-held device to manipulate digital content | |
US20170316582A1 (en) | Robust Head Pose Estimation with a Depth Camera | |
JP2018107583A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2013236215A (ja) | 表示映像形成装置及び表示映像形成方法 | |
JP2012238293A (ja) | 入力装置 | |
EP3629570A2 (en) | Image capturing apparatus and image recording method | |
JP2019152980A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6685742B2 (ja) | 操作装置、移動装置、およびその制御システム | |
WO2011096571A1 (ja) | 入力装置 | |
CN113302908A (zh) | 控制方法、手持云台、系统及计算机可读存储介质 | |
US10194087B2 (en) | Transmission apparatus, setting apparatus, transmission method, reception method, and storage medium | |
JP6980450B2 (ja) | 制御装置、制御方法、及びプログラム | |
JP2006319526A (ja) | ネットワークカメラシステム及びその制御方法 | |
JP2020071614A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
KR102372711B1 (ko) | 영상 촬영 장치 및 이의 제어 방법 | |
JP2018174468A (ja) | 映像表示装置、映像表示装置の制御方法及びプログラム | |
JP2022014758A (ja) | 情報処理装置及びプログラム | |
JP2017085439A (ja) | 追尾装置 | |
JP6242009B2 (ja) | 広域画像に撮影領域枠を重畳表示する映像転送システム、端末、プログラム及び方法 | |
US20230328394A1 (en) | Information processing apparatus displaying captured image captured by imaging apparatus on display unit, information processing method, and storage medium |