JP2011158956A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2011158956A
JP2011158956A JP2010017930A JP2010017930A JP2011158956A JP 2011158956 A JP2011158956 A JP 2011158956A JP 2010017930 A JP2010017930 A JP 2010017930A JP 2010017930 A JP2010017930 A JP 2010017930A JP 2011158956 A JP2011158956 A JP 2011158956A
Authority
JP
Japan
Prior art keywords
video
information
unit
global
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010017930A
Other languages
English (en)
Other versions
JP5397245B2 (ja
Inventor
Yusuke Suzuki
雄介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2010017930A priority Critical patent/JP5397245B2/ja
Publication of JP2011158956A publication Critical patent/JP2011158956A/ja
Application granted granted Critical
Publication of JP5397245B2 publication Critical patent/JP5397245B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

【課題】過去の映像を用いてユーザ操作を支援するための補助的情報を提示する。
【解決手段】情報処理装置100は、任意の位置および向きを示すポインタを含む所定空間内の大域映像を取得する大域映像取得部104と、前記大域映像から前記所定空間内の位置情報を取得する位置情報取得部108と、前記所定空間内で撮像された映像データと、前記映像データの撮像された位置および向きの情報を含む映像情報とを関連付けて記憶している記憶部と、前記ポインタの示す位置および向きに対応する前記映像データを、前記大域映像に重畳して表示画面に表示する映像表示部101と、を備える。
【選択図】図1

Description

本発明は、情報処理装置および情報処理方法に関し、特に、撮像装置により撮像された映像を大域映像に重畳して表示する情報処理装置および情報処理方法に関する。
最近では、カメラやマイクなどが技術の進歩によって安価になり利用しやすくなったことに伴い、複数のカメラやマイクをオフィス空間内に配置し、オフィス内でのコミュニケーション支援や監視などに用いたりすることがある。例えば、実空間の映像に補助的情報を重畳することにより、ユーザが所望の映像を得るための操作支援をする技術が開示されている(例えば、特許文献1)。特許文献1によれば、移動機能を有する撮像装置を操作するシステムにおいて、撮像装置の空間内での移動操作を容易にすることが可能となる。
特願2009−165713号
また、上記技術では、撮像装置の空間内での移動操作を容易にするための補助情報が提示されている。しかし、実際にその場所に撮像装置を移動させた際に取得できる映像情報については、ユーザによる想像や記憶などで補わなければならず、ユーザ操作を支援するための補助が不十分であるという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、過去の映像を用いてユーザ操作を支援するための補助的情報を提示することが可能な、新規かつ改良された情報処理装置および情報処理方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、任意の位置および向きを示すポインタを含む所定空間内の大域映像を取得する大域映像取得部と、前記大域映像から前記所定空間内の位置情報を取得する位置情報取得部と、前記所定空間内で撮像された映像データと、前記映像データの撮像された位置および向きの情報を含む映像情報とを関連付けて記憶している記憶部と、前記ポインタの示す位置および向きに対応する前記映像データを、前記大域映像に重畳して表示画面に表示する映像表示部と、を備えることを特徴とする情報処理装置が提供される。
また、前記映像表示部は、前記位置情報取得部により取得された前記位置情報を用いて前記所定空間内の大域映像を仮想的に矩形に分割し、前記ポインタの示す位置および向きに対応する前記映像データを、前記映像データの撮像された位置に対応する前記大域映像の矩形位置に重畳して表示してもよい。
また、前記映像情報には、映像データが撮像された日時の情報が含まれ、前記映像表示部は、前記映像データの日時に応じて前記大域映像に重畳する映像データを選択してもよい。
また、前記映像表示部は、前記映像データの日時に応じて前記映像データを加工して表示してもよい。
また、撮像装置により撮像された映像を取得する映像取得部を備え、前記映像取得部は、前記ポインタの示す位置および向きの映像を取得してもよい。
また、前記撮像装置の位置および向きを制御する制御部と、ユーザ操作に応じて前記映像表示部により表示された前記映像データを選択する選択部と、を備え、前記制御部は、前記選択部により選択された前記映像データに関連付けられた映像情報に基づいて前記撮像装置の位置および向きを変更させてもよい。
また、前記制御部は、ユーザ操作に応じて前記撮像装置の位置および向きを変更させてもよい。
また、前記大域映像には前記撮像装置の位置および向きを示す映像が含まれており、前記制御部は、前記大域映像上の前記撮像装置の映像に対するユーザの接触操作に応じて、前記撮像装置の位置および向きを変更させてもよい。
また、前記映像表示部は、前記所定空間内の大域映像を仮想的矩形に分割し、前記仮想的矩形を前記大域映像に重畳して表示してもよい。
また、前記撮像装置は移動可能な移動体に備えられ、前記制御部は、前記移動体の位置および向きを変更させてもよい。
また、前記選択部により前記映像表示部に表示された前記映像データが選択された場合に、前記制御部は、前記映像データに関連付けられた映像情報に基づいて前記移動体の位置および向きを変更させてもよい。
また、前記移動体を任意の位置に移動させて前記撮像装置を用いて撮像させる移動体操作部を備え、前記移動体操作部は、前記撮像装置を用いて撮像した映像データと、前記移動体の位置および向きを含む移動体情報とを関連付けて前記記憶部に記憶してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、所定空間内の大域映像に前記所定空間内の任意の位置および向きで撮像された映像データを重畳する映像表示方法であって、任意の位置および向きを示すポインタを含む前記所定空間内の大域映像を取得するステップと、前記大域映像から前記所定空間内の位置情報を取得するステップと、前記ポインタの示す位置および向きに対応する前記映像データを、前記所定空間内で撮像された映像データと、前記映像データの撮像された位置および向きの情報を含む映像情報とを関連付けて記憶している記憶部から取得するステップと、前記記憶部から取得した前記映像データを前記大域映像に重畳して表示画面に表示するステップと、を含むことを特徴とする、映像表示方法が提供される。
以上説明したように本発明によれば、過去の映像を用いてユーザ操作を支援するための補助的情報を提示することができる。
本発明の第1の実施形態にかかる情報処理装置の機能構成を示すブロック図である。 同実施形態にかかる情報処理システムの実現イメージについて説明する説明図である。 同実施形態にかかるユーザが利用する端末のイメージ図である。 同実施形態にかかる操作用映像表示部に表示される大域映像の一例である。 同実施形態にかかる操作用映像表示部および映像表示部に表示される映像の一例である。 同実施形態にかかる情報処理装置の動作の詳細を示したフローチャートである。 同実施形態にかかる領域の分割について説明する説明図である。 同実施形態にかかるロボットの姿勢について説明する説明図である。 同実施形態にかかる過去映像の枠の強調について説明する説明図である。 同実施形態にかかる映像操作とロボットの移動を説明する説明図である。 同実施形態にかかる映像操作とロボットの移動を説明する説明図である。 本発明の第2の実施形態にかかる情報処理装置の機能構成を示すブロック図である。 同実施形態にかかる情報処理装置の動作の詳細を示したフローチャートである。 本発明の第3の実施形態にかかる情報処理装置の機能構成を示すブロック図である。 同実施形態にかかる映像データの加工を説明する説明図である。 同実施形態にかかる情報処理装置の動作の詳細を示したフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(1)本実施形態の目的
(2)第1の実施形態
(2−1)情報処理装置の機能構成
(2−2)情報処理装置の動作の詳細
(3)第2の実施形態
(3−1)情報処理装置の機能構成
(3−2)情報処理装置の動作の詳細
(4)第3の実施形態
(4−1)情報処理装置の機能構成
(4−2)情報処理装置の動作の詳細
(1)本実施形態の目的
まず、本実施形態の目的について説明する。最近では、カメラやマイクなどが技術の進歩によって安価になり利用しやすくなったことに伴い、複数のカメラやマイクをオフィス空間内に配置し、オフィス内でのコミュニケーション支援や監視などに用いたりすることがある。例えば、実空間の映像に補助的情報を重畳することにより、ユーザが所望の映像を得るための操作支援をする技術が開示されている。当該技術によれば、移動機能を有する撮像装置を操作するシステムにおいて、撮像装置の空間内での移動操作を容易にすることが可能となる。
また、上記技術では、撮像装置の空間内での移動操作を容易にするための補助情報が提示されている。しかし、実際にその場所に撮像装置を移動させた際に取得できる映像情報については、ユーザによる想像や記憶などで補わなければならず、ユーザ操作を支援するための補助が不十分であるという問題があった。そこで、上記のような事情を一着眼点として、本発明の情報処理装置が創作されるに至った。本実施形態にかかる情報処理装置によれば、過去の映像を用いてユーザ操作を支援するための補助的情報を提示することが可能となる。
(2)第1の実施形態
以上、本発明の実施形態の目的について説明した。次に、図1を参照して、本実施形態にかかる情報処理装置100の機能構成について説明する。なお、情報処理装置100の機能構成を説明するに際し、適宜、図2〜9を参照する。情報処理装置100としては、例えば、パーソナルコンピュータ等のコンピュータ装置(ノート型、デスクトップ型を問わない。)を例示できるが、かかる例に限定されず、携帯電話やPDA(Personal Digital Assistant)などで構成してもよい。
(2−1)情報処理装置の機能構成
図1の機能構成を説明する前に、情報処理装置100のハードウェア構成の一例について説明する。情報処理装置100は、例えば、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)と、入力装置と、出力装置と、ストレージ装置(HDD)などを備える。
CPUは、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100の動作全般を制御する。また、CPUは、マイクロプロセッサであってもよい。ROMは、CPUが使用するプログラムや演算パラメータ等を記憶する。RAMは、CPUの実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
入力装置は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPUに出力する入力制御回路などから構成されている。
出力装置は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Display)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置で構成される。
ストレージ装置は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置は、ハードディスクを駆動し、CPUが実行するプログラムや各種データを格納する。
以上、情報処理装置100のハードウェア構成について説明した。次に、図1を参照して、情報処理装置100の機能構成について説明する。図1に示したように、情報処理装置100は、映像表示部101、映像操作入力部102、操作用映像表示部103、大域映像取得部104、ロボット搭載映像取得部106、制御部107、ロボット位置情報取得部108、過去映像データベース109、入力指令変換部110などを備える。
ここで、図2および図3を参照して、情報処理装置100を用いて実現される情報処理システムの実現イメージについて説明する。図2および図3は、情報処理システムの実現イメージについて説明する説明図である。図2に示したように、例えば、情報処理システムは、会議室の会議卓15などの空間に配置される。そして、会議卓15上に映像取得機能を有するロボット10が配置されている。また、会議卓の上方に大域的な映像を取得する天井俯瞰型のカメラ20が配置されている。
カメラ20は、会議室の全体映像を撮像することが可能であり、高所に配置されている。カメラ20により全体映像を撮像することにより、会議室内でのロボット10の位置を把握することが可能となる。
また、図3は、情報処理システムを利用するユーザが利用する端末150のイメージ図である。端末150は、例えばディスプレイ151を備え、ディスプレイ151により映像が提示される。ユーザが端末150に備わる操作部を操作することにより、ディスプレイ151の表示が変化する。例えば、ユーザは、タッチパネルなどにより構成される操作部を操作することにより、図2に示した会議室内の対象物の周囲の映像を、ディスプレイ151を介して提示させることが可能となる。具体的には、ユーザの操作によりロボット10やロボット搭載映像取得部106が動作し、結果として映像表示部101により提示される映像が変化する。
図1に戻り、情報処理装置100の機能構成の説明を続ける。映像表示部101は、上記ディスプレイ151により構成され、ロボット搭載映像取得部106からの映像情報を提示する機能を有する。
映像操作入力部102は、ユーザが操作用映像表示部103に対する操作を行うための機能を提供する。映像操作入力部102を介して入力されたユーザ入力に応じて、操作用映像表示部103の表示が変更される。また、ユーザにより選択された操作用映像表示部103に表示された過去映像データベース109内の映像IDを取得する機能を有する。また、映像操作入力部102は、ユーザにより入力された映像操作入力を、入力指令変換部110に提供する。映像操作入力部102は、本発明の選択部の一例である。
操作用映像表示部103は、後述する大域映像取得部104から取得される大域映像を表示する機能を有する。図2に示したカメラ20により取得された映像情報が大域映像として表示される。また、操作用映像表示部103は、大域映像を表示するとともに、ロボット10を操作するための補助的情報を大域映像に重畳して表示する機能を有する。
また、操作用映像表示部103は、過去映像データベース109に記憶されている過去に撮像された映像を、大域映像内の所定の位置に表示する機能を有する。過去映像データベース109には、過去に撮像された映像と所定空間内での位置とが対応付けて記憶されている。したがって、操作用映像表示部103は、大域映像内の対応する位置に過去映像データベース109に記憶されている映像を配置して表示する。
大域映像内の撮影対象となる対象物の位置や、対象物の要素の一部の実際の空間における存在位置や大きさなどを示す位置情報を取得する方法には以下の方法を例示できる。例えば、撮影される映像内に現れる実際の空間に一つまたは複数の2次元バーコードを配しておく方法が挙げられる。空間に2次元バーコードを配した場合には、2次元バーコードを含む空間を撮影し、撮影された画面内の2次元バーコードの位置を基準とし、基準からの距離をもとに平面状の座標を表す。
また、撮影された映像内のマーカをもとに位置や方向、対象物パターンを取得する方法を例示できる。この場合、マーカの枠によって画面内の位置や方向を検出でき、マーカ内のパターンによって対象物の種類を検出することが可能となる。対象物の種類とは、上記した対象物IDなどである。マーカによる位置、方向、対象物のパターンの取得方法については、非特許文献2や特許文献2に開示されているため、詳細な説明は省略する。
(非特許文献1)
Kato,
H. Billinghurst, M. (1999) Marker Tracking and HMD Calibration for a
video-based Augmented Reality Conferencing System, In Proceedings of the 2nd
International Workshop on Augumented Reality (IWAR 99). October, San Francisco, USA.
(特許文献2)
特開2000−322602号公報
ここで、図4および図5を参照して、映像表示部101および操作用映像表示部103に表示される映像の一例について説明する。図4は、操作用映像表示部103に表示される大域映像401である。大域映像401には、撮像対象41やロボット10などが俯瞰的に表示される。これにより、例えば、会議室の会議卓上のどの位置に撮像対象41やロボット10が位置しているのかを把握することができる。
また、図5に示したように、ディスプレイ151には、操作用映像表示部103により表示される大域映像と、後述するロボット搭載映像取得部106によって取得された映像が、映像表示部101により表示されている。大域映像には、ロボット10の操作を行うための補助的情報が重畳されている。大域映像に重畳される補助的情報とは、上記したように、過去映像データベース109に記憶されている過去に撮像された映像である。
大域映像取得部104は、図2に示した天井俯瞰型のカメラ20により撮像された所定の空間内の全体映像である大域映像を取得する機能を有する。大域映像取得部104は、取得した大域映像を操作用映像表示部103に提供する。
ロボット搭載映像取得部106は、ロボット10に搭載されている撮像装置により撮像された映像を取得する機能を有する。ロボット10に搭載されている撮像装置は、例えば、パンチルト可能なカメラであり、ロボットが存在する位置から撮像する。また、ロボット搭載映像取得部106は、取得した映像を過去映像データベース109に提供する。ロボット搭載映像取得部106は、本発明の映像取得部の一例である。
制御部107は、入力指令変換部110から提供された操作信号を受信して、ロボット10の動作を制御する機能を有する。
ロボット10は、ユーザの操作に基づいて空間内を動作する機能を有する。ロボット10に備えられた撮像装置により撮像された映像がロボット搭載映像取得部106に提供される。また、制御部107によりロボット10の動作が制御される。
ロボット位置情報取得部108は、ロボット10が空間内で存在する位置の情報を取得する機能を有する。また、ロボット10の姿勢情報も取得する。ロボット位置情報取得部108は、本発明の位置情報取得部の一例である。ロボット位置情報取得部108によるロボットの位置情報や姿勢情報の取得処理については後で詳細に説明する。
過去映像データベース109はロボット位置情報取得部108により取得されたロボット10の位置および姿勢の情報とロボット搭載映像取得部106により取得された映像情報とを関連付けて記憶している。また、過去映像データベース109に、位置情報、姿勢情報、映像情報の他に、映像IDおよび撮影日時を関連付けて記憶するようにしてもよい。映像IDとは、各映像を識別するための識別情報である。過去映像データベース109は、本発明の記憶部の一例である。
また、位置情報とは、上記したように、ロボット位置情報取得部108により取得される映像データが撮影された際のロボットの位置を示す情報である。また、姿勢情報は、位置情報と同様に、ロボット位置情報取得部108から取得される映像データが撮影された際のロボットの姿勢を示す情報である。映像データは、ロボット搭載映像取得部106から取得された映像が、符号化や圧縮など通常の画像処理で行われる処理がされた後のデータであり、ファイルとして保存されているデータである。撮影日時は、映像データが撮影された時刻を示す情報である。
入力指令変換部110は、操作用映像表示部103に対するユーザの映像に対する操作を取得し、当該操作をロボット10への操作指令に変換する機能を有する。入力指令変換部110は、変換した操作指令を制御部107に提供する。
(2−2)情報処理装置の動作の詳細
以上、情報処理装置100の機能構成について説明した。次に、図6を参照して、情報処理装置100における動作の詳細について説明する。なお、情報処理装置100の動作の詳細を説明するに際して、適宜、図7〜図10を参照する。図6は、情報処理装置100の動作の詳細を示したフローチャートである。
図6に示したように、まず、大域映像取得部104から取得された大域映像からロボット10が動作する空間の位置情報を取得する(S102)。ステップS102において取得されるロボット10が動作する空間の位置情報は、画像処理によって映像自体から取得することができる。例えば、空間内の机にロボットが配置されている場合、机の輪郭線から位置情報を取得することができる。具体的には、ロボットが移動する机の輪郭線から、机上面の空間に対して、2次元空間での座標系を設定する。そして、設定した座標系においてロボットが移動する位置や、観察されるべき要素が配置された位置を取得する。
また、上記した非特許文献2に示されるように、空間内に配置された2次元バーコードなど位置、角度を画像情報から取得可能な要素を撮影することにより、大域映像内での位置情報を取得するようにしてもよい。また、位置情報は、画像処理によらず、ロボット10が動作する机近辺に配置されたセンサの情報を、大域映像内での位置情報として変換するようにしてもよい。また、上記した位置情報取得処理により、ロボットが移動可能な範囲と移動不可能な範囲の境界の情報を取得するようにしてもよい。
次に、ロボット10が移動することができる空間領域の大きさを計算し、該空間領域を各要素が一定の大きさになるように分割する(S104)。ステップS104において、ロボット10が移動可能な空間領域を画像処理により算出してもよいし、予め机の大きさなどの情報を取得するようにしてもよい。
ここで、図7を参照して、ステップS104における領域の分割について説明する。図7は、領域の分割について説明する説明図である。図7に示したように、ロボット10が移動可能な空間領域は、2次元座標(0,0)、(xm,0)、(0,ym)、(xm,ym)で表される点を結んで作られる矩形として表現されるとする。分割される最小領域の大きさは、縦xr,横yrの矩形であるとすると、縦および横の矩形の数は以下の式で表される。
Figure 2011158956
(」は小数点以下切捨てを表す)・・・(数式1)
上記数式1でx_nおよびy_nを定めた場合に、原点(0,0)からx軸方向にx_n個、y軸方向にy_n個の最小領域の大きさの矩形を2次元に配置するように空間を分割する。この場合、空間がx_n×y_n個に分割されることとなる。最小領域の形状や数、配置の方法については、上記と同様に空間を複数の領域に分割することが可能であれば、他の方法を用いて領域を分割するようにしてもよい。
次に、ロボット位置情報取得部108は、ロボットの位置情報および姿勢情報を取得する(S106)。ロボットの位置情報も、図7に示した座標系で表されるものとして以下説明する。ロボットの位置情報と空間座標との対応付けが可能であれば、図7に示した座標系以外の形式で位置情報を表してもよい。
本実施形態では、ロボットの重心からロボットが動作する平面へ垂直方向に直線を降ろし、平面と交差した位置をロボットの配置位置とする。図7では、ロボットの配置位置を(Rx,Ry)とする。また、ロボットの姿勢は、図8に示したように、ロボット10の正面を表すものとする。なお、上記ロボット10の正面とは、例えば、ロボット10の進行方向からロボット10が見える表面の全部又は一部、もしくは、ロボット10に備わるカメラのレンズが向けられている方向からロボット10が見える表面の全部又は一部である。
図8に示したように、空間領域にx軸とy軸に直行するz軸を配置して空間座標を表す。ロボット10の姿勢は、原点から伸びる長さlのx,y,zの3次元ベクトルの座標で表される。例えば、ロボット10が、x,y平面に平行にy座標が増加する方向に正対している場合、座標は(0,1,0)と表すことができる。座標(0,1,0)の状態から、x,y平面上で45度時計回りに姿勢を回転させた場合は、(sqrt(2)/2,sqrt(2)/2,0)となる。以下では、ロボット搭載映像取得部106により取得されたロボット10の姿勢を、(dx,dy,dz)として表す。
次に、分割された要素のうち、処理を行う領域(分割された要素)が残っているか否かを判定する(S108)。ステップS108において、処理を行う領域が残っていると判定された場合には、ステップS110以降の処理を実行する。ステップS108において、分割された要素が残っていないと判定された場合には、ステップS118以降の処理を実行する。
ステップS108において、分割された要素が残っていると判定された場合には、ステップS104において分割された領域に対応付けられている位置情報を取得する(S110)。ステップS110では、分割された要素を取得し、該要素に定められているキー座標を取得する。ここで、位置座標は空間領域と同様の座標系により表されているものとする。分割された領域と位置座標を対応付ける方法はいくつか考えられるが、以下では、領域内の重心位置を対応付ける場合について説明する。
図7に示したように、図7の破線で囲まれた領域について説明する。該領域の重心位置は、(xr/2,yr/2)の座標で表される。同様に、他の分割された領域についても、重心位置座標を設定することができる。この領域に対応付けられた座標を以下、キー座標と称し、(kx,ky)と表す。したがって、ステップS110では、分割された要素を取得して、取得した要素に対応付けられたキー座標を取得する。
そして、ステップS110において取得したキー座標を用いて過去映像データベース109を検索して、過去映像データの取得を試みる(S112)。また、ステップS106において姿勢情報を取得している場合には、ステップS112において、キー座標と姿勢情報とを用いて過去映像データを検索してもよい。以下では、位置情報および姿勢情報を、空間内の位置情報と関連付けて表現する。具体的には、位置情報は(d_px,d_py)の2次元座標で表され、姿勢情報(d_dx,d_dy,d_dz)は3次元座標で表現される場合を例として説明する。
キー座標とデータベース内の位置情報のユークリッド距離を以下の数式により算出する。
(数2)
Distance
p=sqrt((d_px-kx)^2+(d_py-ky)^2)・・・(数式2)
また、ロボットの現在の姿勢情報とデータベース内の姿勢情報の距離を以下の数式により算出する。
(数3)
Distance
d=sqrt((d_dx-dx)^2+(d_dy-dy)^2+(d_dz-dz)^2)・・・(数式3)
そして、数式2および数式3の平均データが最小となるものを、もっとも条件に適するデータとして採用する。
距離の計算方法としては、ユークリッド距離以外に、マンハッタン距離など他の距離水準を用いてもよい。また、位置情報の距離、姿勢情報の距離を同じ重みで平均するのではなく、それぞれの重みを変更して加重平均を求めるようにしてもよい。
通常のデータベースの検索処理と同様に、距離が一定値以下とならない場合はデータがみつからなかったものとする。ステップS112において距離が一定以下となる映像データを取得できたか否かを判定する(S114)。ステップS114において、最小データの距離を所定の閾値と比較し、所定の閾値より距離が小さい映像データを取得した場合には、映像データが取得できなかったとしてステップS108の処理に戻る。ステップS114において、映像データが取得できた場合には、大域映像内の該当位置に、ステップS110で取得した過去の映像データを重畳して表示する(S116)。
図5の大域映像が、ステップS116において、大域映像内に過去の映像データを重畳した表示イメージである。過去の映像データの表示方法は、例えば、分割された領域内の4つの頂点で構成された矩形内に映像データが収まるように、射影変換やその他の変形処理を実行するようにしてもよい。また、大域映像内で領域を示す平面上の矩形に映像が垂直に表示される構成としてもよい。
ステップS116を実行した後、再度ステップS108以降の処理を繰り返すことにより、すべての分割された領域に対して、過去映像データベース109に記憶されている映像データの検索処理を実行する。ステップS108において、分割された要素が残っていないと判定された時点で、操作用映像表示部103により、表示画面に表示された大域映像に過去映像データベースから取得された1または2以上の映像が重畳して表示される。なお、上記映像を大域映像に重畳する際、ロボットから所定距離離れた(例えば5〜6個分の分割領域離れた場合等)映像については、過去映像データベースに記録されていても、大域映像に重畳しなくてもよい。また、上記映像を大域映像に重畳する際、ロボットから所定距離離れた(例えば、2〜3個分の分割領域離れた場合等)映像について大域映像に重畳してもよい。
そして、ユーザが操作用映像表示部103により表示された操作用映像を操作する(S118)。ステップS118において、ユーザにより操作用映像が操作されることにより、ロボット10が実際に動作することとなる。ステップS118における操作は、例えば、タッチパネルディスプレイに対する接触動作や、マウスによるポインティング操作などが考えられる。
以下では、操作方法として、一般的なタッチディスプレイにタッチした場合を例として説明する。ステップS118において、ユーザが大域映像内に重畳された過去の映像データの一つをタッチして選択する。このとき、映像操作入力部102は、ユーザによりタッチされた領域に表示されている映像のIDを取得する。また、映像IDから映像が配置されている空間内の位置情報を取得する。
ここで取得される位置情報は、分割された領域にキー座標の位置情報でもよい。また、過去映像データが撮影された位置の情報をそのまま利用してもよい。以下では、キー座標の位置情報を利用する場合について説明する。
ステップS118においてユーザが映像に対して操作を実行した後、入力指令変換部110は、ステップS106において取得したロボットの位置情報と、ユーザがタッチした映像の位置情報とを用いて、ロボットへの動作指令を作成する(S120)。ステップS120における動作指令の作成方法は、単純にロボットの現在位置と映像の位置情報の差から直線を構成し、その直線上を移動する運動指令を生成するようにしてもよい。なお、ロボットへの動作指令の作成方法については、既存の技術を利用することができるため、詳細な説明は省略する。
ステップS120において生成したロボットの動作命令を、制御部107に送信する(S122)。制御部107は、ステップS122において送信された動作命令をもとに、ロボットを動作させる(S124)。ステップS124においてロボットを動作させた後、ロボット搭載映像取得部106が映像を取得する(S126)。そして、移動後のロボット10の位置情報および姿勢情報をもとに、ステップS126において取得した映像を用いて過去映像データベース109を更新する(S128)。そして、映像表示部101は、ステップS613において取得した映像を表示する(S130)。
ステップS118において、ユーザがディスプレイにタッチすると、ロボットが動作するための指令が発生する構成を例として説明した。また、カーソルをマウスで操作して、カーソルを重畳された過去映像の上に配置すると、過去映像が拡大したり、過去映像の枠が強調されたりするなどの画像処理が行われるようにしてもよい。過去映像の拡大や枠の強調などの画像処理が行われた後、再度過去映像をクリックするとロボットの移動指令が生成されるようにしてもよい。これにより、よりインタラクティブなロボット操作を実現することができる。
ここで、図9を参照して、過去映像の枠の強調について説明する。図9は、過去映像の枠の強調について説明する説明図である。図9に示したように、ディスプレイの表示例501には、大域映像に複数の過去映像が重畳されている。ユーザにより、複数の過去映像のうちの一つが選択されると、表示例502に示したように、過去映像の枠が強調される。
また、ディスプレイをタッチするだけでなく、過去映像をタッチした後に、ドラッグ操作を行って、ロボットの姿勢を変更させるようにしてもよい。例えば、図10Aに示したように、表示例510に表示された過去映像の一つを選択して、右下方にドラッグすることにより、ロボットの姿勢を変更するようにしてもよい。この場合、ユーザのドラッグ動作による移動距離によって、姿勢変更量を比例して変化させる。
また、過去映像の枠に表示されるズーム用の枠を選択して、ドラッグ動作を行うことにより、過去映像を拡大、縮小するようにしてもよい。また、過去映像の拡大をロボットの前進動作と対応付けたり、過去映像の縮小をロボットの後退動作に対応付けたりするようにしてもよい。例えば、図10Bに示したように、過去映像を拡大することによりロボットを前進させる。この場合、過去映像の拡大率に比例して、ロボットの前進距離を変化させるようにしてもよい。同様に、過去映像を縮小することによりロボットを後退させる場合には、過去映像の縮小率に比例して、ロボットの後退距離を変化させる。
以上、情報処理装置100の動作の詳細について説明した。本実施形態にかかる情報処理装置100によれば、ユーザが撮像装置を搭載したロボットを移動させる前に、移動した場所でどのような映像を取得することができるのかを予測することができる。また、所望の映像を得るまでのロボットに対する操作ミスを減らすことが可能となる。さらに、大域映像に重畳された過去映像に対する操作がロボットの動作指令に変換されるため、ユーザがロボットの動作を意識することなく所望の映像を取得することが可能となる。
(3)第2の実施形態
以上、第1の実施形態について説明した。次に、本発明にかかる第2の実施形態について説明する。第1実施形態では、過去映像データベース109を用いて、ユーザが過去にロボットを動作させた時点で撮影した映像を大域映像内に配置することで、ユーザの操作を補助していた。しかし、過去映像データベース109に過去映像の登録が少ない場合には、ユーザの操作を補助するには不十分である場合があった。そこで、本実施形態では、システムの動作時に、ロボットを自動的に空間内に移動させて、一定量の過去映像データを自動的に取得するようにした。
(3−1)情報処理装置の機能構成
図11を参照して、本実施形態にかかる情報処理装置200の機能構成について説明する。以下では、第1実施形態と異なる構成について特に詳細に説明し、第1実施形態と同様の構成については詳細な説明は省略する。図11に示したように、本実施形態にかかる情報処理装置200は、自動操作部1101を備える点で第1実施形態と異なる構成となっている。自動操作部1101は、大域映像取得部104およびロボット位置情報取得部108とからロボットの位置情報とロボットが動作する空間内の情報を取得する。そしてロボットを自動的に移動させたり、姿勢を変更させたりして、所定の位置での映像データを過去映像として過去映像データベース109に登録させる機能を有する。
(3−2)情報処理装置の動作の詳細
以上、本実施形態にかかる情報処理装置200の機能構成について説明した。次に図12を参照して、情報処理装置200における動作の詳細について説明する。図12は、情報処理装置200における動作の詳細を示すフローチャートである。本実施形態にかかる動作についても、第1実施形態と異なる処理について詳細に説明し、第1実施形態と同様の処理については詳細な説明は省略する。
ステップS202からステップS208までの処理は、第1実施形態のステップS102からステップS108までの処理と同様であるため、詳細な説明は省略する。ステップS208において、分割された要素が残っていると判定された場合にはステップS210以降の処理を実行する。ステップS208において、分割された要素が残っていないと判定された場合には、処理を終了する。
ステップS208において、分割された要素が残っていると判定された場合には、ステップS204において分割された領域に対応付けられているキー座標を取得する(S210)。そして、ステップS210において取得したキー座標を用いてロボットの動作命令を生成する(S212)。ステップS212において、キー座標を用いてロボット10の動作命令を生成することにより、キー座標をロボット10の移動目標とすることができる。
ステップS212において生成された動作命令をロボット10に送信する(S214)。そして、ロボット10が動作命令に基づいて指定された位置に移動する(S216)。そして、ロボット10の姿勢の候補をすべて実行したか否かを判定する(S218)。ステップS218において、変更する姿勢の候補とは、例えば、方向ベクトル(0,1,0)で表されるロボットの正面から、時計回りに90度ずつ、一周するまで回転させた場合に得られる姿勢が挙げられる。例えば、方向ベクトルは、(1,0,0)、(0,−1,0)、(−1,0,0)などとなり、ロボットが取り得る姿勢を離散的に有限個設定してもよい。本実施形態では、90度単位で360度回転させる場合を例示して説明しているが、かかる例に限定されず、求められる姿勢の粒度の大きさによって、角度の単位や動作の範囲などを変更するようにしてもよい。
ステップS218において、姿勢の候補をすべて実行していない場合には、ステップS220以降の処理を実行し、姿勢の候補をすべて実行した場合にはステップS208の処理に戻る。ステップS220において、未だ選択されていない姿勢の候補を一つ選択し、ロボット10に送信する(S220)。そして、ロボット10はステップS220において送信された姿勢に変更する動作を実行する(S222)。そして、ロボット10に搭載された撮像装置により撮像された映像を取得する(S224)。さらに、移動後のロボット10の位置情報および姿勢情報をもとに、ステップS224において取得した映像を用いて過去映像データベース109を更新する(S226)。
以上、情報処理装置100の動作の詳細について説明した。本実施形態にかかる情報処理装置100によれば、ロボット10が自動的に空間内を移動して映像を取得し、映像データを過去映像として過去映像データベース109に追加する。これにより、ユーザの操作がなくとも、ユーザの操作を補助するのに十分な補助情報を取得することが可能となる。
(4)第3の実施形態
以上、第2の実施形態について説明した。次に、本発明にかかる第3の実施形態について説明する。第1実施形態では、大域映像に重畳された過去映像データについて、いつ撮影されたものかが直感的に分かりづらかった。例えば、位置や姿勢が同じであっても、撮影された内容が変化している場合がある。この場合、ユーザが意図した操作を行っているにもかかわらず、周囲の環境が変化しているために、ユーザの意図した映像を取得することができないという問題があった。そこで、本実施形態では、過去映像データベース109から取得した映像データを大域映像に重畳する場合に、過去映像データがどれくらい前に撮影されたかを直感的にユーザに提示する。
(4−1)情報処理装置の機能構成
図13を参照して、本実施形態にかかる情報処理装置300の機能構成について説明する。以下では、第1実施形態と異なる構成について特に詳細に説明し、第1実施形態と同様の構成については詳細な説明は省略する。図13に示したように、本実施形態にかかる情報処理装置300は、映像加工部1301を備える点で第1実施形態と異なる構成となっている。映像加工部1301は、過去映像データベース109に記憶されている映像データを、映像データの撮影時刻のデータに基づいて加工する。
例えば、図14に示したように、映像データをセピア色にするなどして、撮影時間の古さに応じて段階的に退色加工を施すようにしてもよい。加工の方法については、退色加工に限定されず、色の明度を変更して、古い映像データほど明度を暗くしてもよい。また、一定以上古い映像データには画像上に字幕を挿入して、映像データが古いことを明示的に示してもよい。
(4−2)情報処理装置の動作の詳細
以上、本実施形態にかかる情報処理装置300の機能構成について説明した。次に、図15を参照して、情報処理装置300における動作の詳細について説明する。図15は、情報処理装置300における動作の詳細を示すフローチャートである。本実施形態にかかる動作についても、第1実施形態と異なる処理について詳細に説明し、第1実施形態と同様の処理については詳細な説明は省略する。
ステップS302からステップS314までの処理は、第1実施形態のステップS102からステップS114までの処理と同様であるため、詳細な説明は省略する。ステップS314において、距離が一定以下となる映像データが取得できたと判定された場合には、映像データの撮影時刻と現在時刻の差を計算する(S316)。そして、ステップS316において算出された撮影時刻と現在時刻との差が所定の閾値より大きいか否かを判定する(S318)。
ステップS318において、差が所定の閾値より大きいと判定された場合には、算出された差の大きさをパラメータとして、映像データに加工を施す(S320)。ステップS320において、例えば、画像をセピア調にする退色加工を施す場合には、画素をRGBにより表現して、各画像の明度を下げて白黒画像とする。さらに、オリジナルの画素をCMYK系に変換したものでのYとMに相当する画素に適切な重みをつけて、白黒画素に加えることにより退色変化を実現することができる。また、経過時間に比例するように、YとMの重みを調整することにより、時刻の差が大きくなると退色の度合いが大きくなるようにパラメータを変更することができる。
また、画像の明度を暗くする加工を施す場合には、時刻の差が大きくなると画像の輝度を全体的に小さくするような加工を加えることにより、時刻の差が大きくなると画像が暗くなるようにパラメータを変更することができる。
さらに、連続的に画像処理のパラメータを変更させるだけでなく、時刻の差が一定値より大きい場合には、画像データ上に字幕データを追加してもよい。例えば、画像データに「データ古すぎます!」などの文字データを重畳して、明示的にデータが古いことを表現するように画像データを加工してもよい。
ステップS322以降の処理は、第1実施形態のステップS116以降の処理と同様のため、詳細な説明は省略する。以上、情報処理装置300の動作の詳細について説明した。本実施形態にかかる情報処理装置300によれば、ユーザが表示されている過去映像データについて、古いデータか新しいデータかを直感的に理解できる。このため、古いデータを選択した場合には、環境が変化している可能性があることを前もって予測できるため、過去の映像データと現在の映像データとが大きく異なった場合でも、驚きや意外感を最小限にすることができる。また、過去に得た映像が古い領域はロボットが最近動作をしていない領域であるということを、空間全体の傾向として把握することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、ディスプレイのタッチパネルで対象物を選択することとしたが、かかる例に限定されず、キー操作によって注目するべき対象物が順に変化する構成としてもよい。具体的には、ユーザがキーを押下するたびに、画面内の注目されている対象物と補助情報の表示が変化する。
また、上記実施形態では、大域映像として俯瞰映像を用いて説明したが、かかる例に限定されず、大域的映像を得ることができる魚眼レンズを用いて撮影した画像や、全方位画像などを用いてもよい。また、上記実施形態では、ロボット10が2次元平面内で移動することとしたが、かかる例に限定されず、3次元空間内で移動させるようにしてもよい。
例えば、本明細書の情報処理装置100、200、300の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。すなわち、情報処理装置100、200、300の処理における各ステップは、異なる処理であっても並列的に実行されてもよい。
また、情報処理装置100、200、300などに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した情報処理装置100、200、300の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
100、200、300 情報処理装置
101 映像表示部
102 映像操作入力部
103 操作用映像表示部
104 大域映像取得部
106 ロボット搭載映像取得部
107 制御部
108 ロボット位置情報取得部
109 過去映像データベース
110 入力指令変換部
1101 自動操作部
1301 映像加工部
10 ロボット

Claims (15)

  1. 所定空間内の大域映像を取得する大域映像取得部と、
    前記所定空間内の位置情報を取得する位置情報取得部と、
    前記所定空間内で撮像された映像データと、前記映像データの撮像された位置および向きの情報を含む映像情報とを関連付けて記憶している記憶部と、
    前記大域映像内に存在し任意の位置および向きを示すポインタの示す位置および向きに対応する前記映像データを、前記大域映像に重畳して表示画面に表示する映像表示部と、
    を備えることを特徴とする、情報処理装置。
  2. 前記映像表示部は、
    前記位置情報取得部により取得された前記位置情報を用いて前記所定空間内の大域映像を、所定領域を単位とする複数の単位映像領域に仮想的に分割し、前記ポインタの示す位置および向きに対応する前記映像データを、前記映像データの撮像された位置に対応する前記大域映像の単位映像領域位置に重畳して表示することを特徴とする、請求項1に記載の情報処理装置。
  3. 前記単位映像領域は、矩形からなる領域であることを特徴とする、請求項2に記載の情報処理装置。
  4. 前記映像情報には、映像データが撮像された日時の情報が含まれ、
    前記映像表示部は、前記映像データの日時に応じて前記大域映像に重畳する映像データを選択することを特徴とする、請求項2に記載の情報処理装置。
  5. 前記映像表示部は、前記映像データの日時に応じて前記映像データを加工して表示することを特徴とする、請求項2に記載の情報処理装置。
  6. 撮像装置により撮像された映像を取得する映像取得部を備え、
    前記映像取得部は、前記ポインタの示す位置および向きの映像を取得することを特徴とする、請求項1に記載の情報処理装置。
  7. 前記撮像装置の位置および向きを制御する制御部と、
    ユーザ操作に応じて前記映像表示部により表示された前記映像データを選択する選択部と、
    を備え、
    前記制御部は、前記選択部により選択された前記映像データに関連付けられた映像情報に基づいて前記撮像装置の位置および向きを変更させる、請求項6に記載の情報処理装置。
  8. 前記制御部は、ユーザ操作に応じて前記撮像装置の位置および向きを変更させることを特徴とする、請求項7に記載の情報処理装置。
  9. 前記大域映像には前記撮像装置の位置および向きを示す映像が含まれており、
    前記制御部は、前記大域映像上の前記撮像装置の映像に対するユーザの接触操作に応じて、前記撮像装置の位置および向きを変更させることを特徴とする、請求項8に記載の情報処理装置。
  10. 前記映像表示部は、前記所定空間内の大域映像を、所定領域を単位とする複数の単位映像領域に仮想的に分割し、前記単位映像領域を示す映像を前記大域映像に重畳して表示することを特徴とする、請求項1に記載の情報処理装置。
  11. 前記単位映像領域は、矩形からなる領域であることを特徴とする、請求項10に記載の情報処理装置。
  12. 前記撮像装置は移動可能な移動体に備えられ、
    前記制御部は、前記移動体の位置および向きを変更させることを特徴とする、請求項6に記載の情報処理装置。
  13. 前記選択部により前記映像表示部に表示された前記映像データが選択された場合に、前記制御部は、前記映像データに関連付けられた映像情報に基づいて前記移動体の位置および向きを変更させることを特徴とする、請求項12に記載の情報処理装置。
  14. 前記移動体を任意の位置に移動させて前記撮像装置を用いて撮像させる移動体操作部を備え、
    前記移動体操作部は、前記撮像装置を用いて撮像した映像データと、前記移動体の位置および向きを含む移動体情報とを関連付けて前記記憶部に記憶することを特徴とする、請求項12に記載の情報処理装置。
  15. 所定空間内の大域映像に前記所定空間内の任意の位置および向きで撮像された映像データを重畳する映像表示方法であって、
    任意の位置および向きを示すポインタを含む前記所定空間内の大域映像を取得するステップと、
    前記大域映像から前記所定空間内の位置情報を取得するステップと、
    前記ポインタの示す位置および向きに対応する前記映像データを、前記所定空間内で撮像された映像データと、前記映像データの撮像された位置および向きの情報を含む映像情報とを関連付けて記憶している記憶部から取得するステップと、
    前記記憶部から取得した前記映像データを前記大域映像に重畳して表示画面に表示するステップと、
    を含むことを特徴とする、映像表示方法。
JP2010017930A 2010-01-29 2010-01-29 情報処理装置および情報処理方法 Active JP5397245B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010017930A JP5397245B2 (ja) 2010-01-29 2010-01-29 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010017930A JP5397245B2 (ja) 2010-01-29 2010-01-29 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2011158956A true JP2011158956A (ja) 2011-08-18
JP5397245B2 JP5397245B2 (ja) 2014-01-22

Family

ID=44590883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010017930A Active JP5397245B2 (ja) 2010-01-29 2010-01-29 情報処理装置および情報処理方法

Country Status (1)

Country Link
JP (1) JP5397245B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005050565A1 (ja) * 2003-11-20 2005-06-02 Matsushita Electric Industrial Co., Ltd. 移動物体検出装置及び移動物体検出方法
JP2007034373A (ja) * 2005-07-22 2007-02-08 Hitachi Ltd 空間シミュレーションプログラムおよび装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005050565A1 (ja) * 2003-11-20 2005-06-02 Matsushita Electric Industrial Co., Ltd. 移動物体検出装置及び移動物体検出方法
JP2007034373A (ja) * 2005-07-22 2007-02-08 Hitachi Ltd 空間シミュレーションプログラムおよび装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6013033403; 杉村啓: "セカイカメラ入門--世界にタグをつけまくろう" , 20090930, アイティメディア株式会社 *

Also Published As

Publication number Publication date
JP5397245B2 (ja) 2014-01-22

Similar Documents

Publication Publication Date Title
KR102638526B1 (ko) 파라미터를 갖는 마커를 사용한 증강 현실의 장면 수정
CN114245905A (zh) 深度感知照片编辑
JP6065195B2 (ja) 表示映像形成装置及び表示映像形成方法
US11044398B2 (en) Panoramic light field capture, processing, and display
JP2007072537A (ja) 360°画像撮影装置
JP2012212345A (ja) 端末装置、オブジェクト制御方法及びプログラム
JP2011146796A5 (ja)
JP6622650B2 (ja) 情報処理装置及びその制御方法、撮影システム
CN105474303A (zh) 信息处理装置、信息处理方法及程序
JP6544996B2 (ja) 制御装置及び制御方法
CN112954195A (zh) 对焦方法、装置、电子设备及介质
JP2014239384A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
WO2011096571A1 (ja) 入力装置
CN111176425A (zh) 多屏幕操作方法与使用此方法的电子系统
JP6146869B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示表示方法、システム、端末、及びプログラム
JP5446700B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2015072091A1 (ja) 画像処理装置、画像処理方法及びプログラム記憶媒体
JP2017184136A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
US20150022559A1 (en) Method and apparatus for displaying images in portable terminal
JP5397245B2 (ja) 情報処理装置および情報処理方法
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP2012173858A (ja) 全方位画像生成方法、画像生成装置およびプログラム
JP6443505B2 (ja) プログラム、表示制御装置及び表示制御方法
JP5229141B2 (ja) 表示制御装置および表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131007

R150 Certificate of patent or registration of utility model

Ref document number: 5397245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150