JP2018101308A - 画像投影装置、画像投影方法及びプログラム - Google Patents

画像投影装置、画像投影方法及びプログラム Download PDF

Info

Publication number
JP2018101308A
JP2018101308A JP2016247186A JP2016247186A JP2018101308A JP 2018101308 A JP2018101308 A JP 2018101308A JP 2016247186 A JP2016247186 A JP 2016247186A JP 2016247186 A JP2016247186 A JP 2016247186A JP 2018101308 A JP2018101308 A JP 2018101308A
Authority
JP
Japan
Prior art keywords
image
menu
projection
unit
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016247186A
Other languages
English (en)
Inventor
雄太 岡本
Yuta Okamoto
雄太 岡本
正行 石澤
Masayuki Ishizawa
正行 石澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016247186A priority Critical patent/JP2018101308A/ja
Publication of JP2018101308A publication Critical patent/JP2018101308A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】携帯型投影装置によって投影される画像に含まれる複数の対象の中から一つの対象を選択する操作の操作性を向上させる画像投影装置、画像投影方法及びプログラムを提供する。【解決手段】携帯型投影装置100は、自装置に与えられた回転に対する回転量を取得し、複数の対象101、102を、選択肢として提示する画像を投影手段に投影させる制御を行い、取得された回転量に応じて、順次、複数の対象のうち少なくとも1つの対象を選択状態とする。【選択図】図1

Description

本発明は、携帯型投影装置のユーザインタフェース技術に関する。
近年、現実世界のオブジェクト(物体)に関連する情報を直感的に表示する技術として、オブジェクト自身に情報を重畳して表示する拡張現実(Augmented Reality、以下AR)技術が注目を集めている。一例として、画像等を投影する投影装置を用いて、物体に情報を重畳表示する携帯型の機器などが提案されている。
携帯型投影装置が物体に投影する投影画像や機器の設定などを制御するために、特許文献1では、装置の光軸を中心とする回転角度、あるいは上下左右前後への振りを検出することで、機器に入力された操作を認識する構成が開示されている。
特許第5239206号公報
携帯型投影装置において、複数の対象の中から一つの対象を選択して指示したいことがある。特許文献1は、選択肢を表す補助画像を含む投影画像を、携帯型投影装置の動きに応じて更新し、背景の画像に対してあたかも静止しているかのように表示するとともに、携帯型投影装置の動きに応じて動くように見えるカーソルを投影画像に重畳させる。これにより、カーソルを動かして選択肢を選び、さらに投影装置自体を振る動作によって選択を確定させることで、複数の対象の中から一つの対象を選択する指示を操作として認識することを開示している。
ユーザが携帯型投影装置を把持している場合、手ぶれが発生する。特許文献1では、選択肢を表す補助画像を含む投影画像を背景の画像に対してあたかも静止しているかのように表示する場合に手ぶれを吸収することができるが、装置の動きに追従して動くカーソルの動きから手ぶれの影響を消去することは難しい。選択肢が多い等の理由でカーソルを合わせるべき対象(GUI部品等)が小さい場合ではカーソルのより細かい動きが必要となるため、正確な選択操作は難易度が高まる。
本発明は、携帯型投影装置によって投影される画像に含まれる複数の対象の中から一つの対象を選択する操作の操作性を向上させることを主な目的とする。
本発明に係る画像投影装置は以下の構成を備える。即ち、画像を投影出力する投影手段と、自装置に与えられた回転に対する回転量を取得する回転取得手段と、複数の対象を、選択肢として提示する画像を前記投影手段に投影させる制御を行う投影制御手段と、前記回転取得手段によって取得された回転量に応じて、順次、前記複数の対象のうち少なくとも1つの対象を選択状態とする選択手段。
本発明によれば、携帯型投影装置によって投影される画像に含まれる複数の対象の中から一つの対象を選択する操作の操作性を向上させることができる。
携帯型投影装置を用いて物体にAR画像を投影する様子の一例を表す図。 携帯型投影装置の構成の一例を示すブロック図。 携帯型投影装置で実行される処理のフローチャート。 使用者が携帯型投影装置を回転させた場合に、AR生成部が生成したAR画像を投影制御部が投影した際の挙動の一例を示す図。 携帯型投影装置で実行される処理のフローチャート。 メニュー生成部が生成するメニュー画像の一例を示す図。 携帯型投影装置を回転させた場合に、メニュー生成部が生成するメニュー画像の一例を示す図。 携帯型投影装置を回転させた場合に、メニュー生成部が生成するメニュー画像の一例を示す図。 携帯型投影装置で実行される処理のフローチャート。 携帯型投影装置で実行される処理のフローチャート。 携帯型投影装置の機能構成の一例を示すブロック図。 携帯型投影装置で実行される処理のフローチャート。 選択中のメニューに対してポインタを重畳して投影する携帯型投影装置の一例を示す図。 現在の選択状態を決定状態として、AR生成部が該決定状態に基づいてAR画像を生成する携帯型投影装置の一例を示す図。 AR生成部が実行するAR画像生成処理のフローチャート。 携帯型投影装置の機能構成の一例を示すブロック図。 携帯型投影装置で実行される処理のフローチャート。 メニュー画像内に一度に配置するアイテムの個数を制限する携帯型投影装置の一例を示す図。 携帯型投影装置と物体との距離を変化させる様子と、変化に伴って表示されるアイテムの個数が変化する様子の一例を示す図。 携帯型投影装置の機能構成の一例を示すブロック図。 物体指示部が指示対象となる物体を判別する方法と、判別結果に基づいて、メニュー生成部が生成するメニュー画像の一例を示す図。 携帯型投影装置が実行する投影処理のフローチャート。 携帯型投影装置が実行する投影処理のフローチャート。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(第1の実施の形態)
図1(a)〜(c)は、第1の実施の形態に係る画像投影装置である携帯型投影装置100の使用例を示す概略図である。携帯型投影装置100は、使用者が手に保持したり体の一部に固定したりした状態で、投影対象の物体にAR画像を投影出力できるような携帯型の投影装置である。図1(a)は、携帯型投影装置100を用いて物体101にAR画像103を投影する方法の一例を示す説明図である。
図1(b)は、図1(a)において携帯型投影装置100が物体101に関連付けられたAR画像103を投影する様子をより詳細に図示している。携帯型投影装置100は、搭載されたカメラによる撮像画像を解析して、投影対象の範囲に存在する物体101を識別し、識別した物体101に関連付けられたAR情報を装置に備えつけられたストレージから読み出す。あるいは、装置が備えるネットワーク・インタフェースを介して接続されたサーバ装置から読み出す。携帯型投影装置は、読み出した情報からAR画像103を生成して物体に投影する。なお、撮像画像から所定の物体の特徴を抽出し、抽出された特徴に関連付けられたAR情報を取得して、透過型ディスプレイあるいは投影を利用してAR情報を所定の物体に重畳するいわゆる拡張現実技術は、既存のものを利用すればよい。以降、AR情報を関連情報、AR情報取得を関連情報取得とも記載する。
本実施形態において、携帯型投影装置100は、使用者が装置に対してメニュー呼出操作を行った時に、生成したメニュー画像をAR画像103に重畳して(または、AR画像103の近傍に)投影する。ここでメニューとは、使用者が次に行おうとする動作の選択肢を表す表示アイテムである。使用者は、複数のメニューの中から少なくとも1つのメニューを選択する。図1(c)は、後述するメニュー生成部502がアイテム300、アイテム301およびアイテム302から生成したメニュー画像を、図1(b)で投影したAR画像103と共に投影する例を示している。本実施形態では、携帯型投影装置100は、投影光の光軸を中心とする回転量を携帯型投影装置100に与えることで、提示されている複数のメニューのうち少なくとも1つのメニューを選択する。続いて、決定操作を行うことにより、選択したメニューに対応する機能の実行を指示したり、選択したメニューに応じた設定値の入力や確定を行う。
図2(1)は、第1の実施の形態に係る携帯型投影装置100のハードウェア構成の一例を示すブロック図である。携帯型投影装置100は、プログラムを実行することにより各構成要素を制御するCPU401を備える。また、携帯型投影装置100は、ワークスペースや一時メモリとしてのRAM402と、携帯型投影装置100の機能を実現するプログラムや初期値等を格納するROM403と、永続的に保存されるデータを格納するストレージ404を備える。また、携帯型投影装置100は、入力装置405と、出力装置406と、ネットワーク・インタフェース407をさらに備える。携帯型投影装置100内の各構成要素は、システムバス400を介して互いに通信可能に接続されて信号の送受信を行う。
入力装置405は、一例として切替スイッチ、携帯型投影装置100の位置や姿勢、方位を取得するGPSやBluetooth(登録商標)、IMU、地磁気センサ、投影方向の物体や投影面を検出するカメラであり、これらを組み合わせたものであってもよい。出力装置は、本実施形態では、一例として映像を投影するプロジェクタや音声を出力するスピーカーであり、これらを組み合わせたものであってもよい。ネットワーク・インタフェースは、一例としてネットワークを介して携帯型投影装置100以外の装置及び/又は記憶媒体との間でデータなどの授受を行う。
図2(b)は、第1の実施の形態に係る携帯型投影装置100の機能構成の一例を示すブロック図である。携帯型投影装置100は、携帯型投影装置100の姿勢及び/又は位置を検出する姿勢検出部500と、投影対象の物体に対して投影するAR画像を生成するAR生成部501と、アイテムから画像を生成するメニュー生成部502とを備える。また、携帯型投影装置100は、AR生成部501が生成した画像と、メニュー生成部502が生成した画像に基づいて投影画像を生成する投影制御部503とを備える。また、携帯型投影装置100は、アイテムの中から一乃至複数を選択するメニュー選択部504と、選択したアイテムの適用を決定するメニュー決定部505と、投影制御部503が生成した投影画像を投影する投影部506を備える。
以上の構成を有する携帯型投影装置100の動作について、以降で詳細に説明を行う。
姿勢検出部500は、携帯型投影装置100の位置や姿勢、方位を取得するGPSやBluetooth、IMU、地磁気センサなどの入力装置405を用いて、携帯型投影装置100の姿勢を検出する。このとき検出される姿勢は、一例として、携帯型投影装置100の水平面に対する傾きを表す角度である。
AR生成部501は、投影対象の物体である物体を識別し、該識別した物体に対応付けられたAR画像を生成する。物体を識別する方法は、一例として、投影方向の物体や投影面を検出するカメラなどの入力装置405を用いてもよい。また、一例として、カメラで撮影した画像からARマーカーを検出することによって物体を識別してもよい。
図4は、使用者が携帯型投影装置100を回転させた場合に、AR生成部501が生成したAR画像700を後述の投影制御部503が投影した際の挙動の一例を示している。AR生成部501は、一例として、姿勢検出部500が検出した携帯型投影装置100の水平面に対する傾きに基づいて、使用者からAR画像700が水平面に対して静止して見えるような画像を生成する。これによって、使用者が携帯型投影装置100を回転させても、AR画像700はあたかも物体に対して常に静止しているかのように投影される。
メニュー生成部502は、使用者によるメニュー呼出操作によって携帯型投影装置100がメニュー呼出状態となった場合、一乃至複数のアイテムから構成されるメニュー画像を生成する。アイテムは、一例として、携帯型投影装置100の機器の各々に対応する。また、アイテムは、一例として、携帯型投影装置100の設定項目の各々に対応する。また、アイテムは、一例として、携帯型投影装置100の設定項目として設定される設定値の各々に対応する。
図1(c)、図6(a)および図6(b)は、メニュー生成部502が生成するメニュー画像の例である。図1(c)3においてメニュー生成部502は、アイテムを直線状に配置したメニュー画像を生成する。また、図6(a)においてメニュー生成部502は、アイテムを後述する方法で生成する投影画像の外周に円状に沿うように配置したメニュー画像を生成する。また、図6(b)においてメニュー生成部502は、アイテムを任意の位置に配置したメニュー画像を生成する。
メニュー生成部502は、アイテムを配置してメニュー画像を生成する際に、後述するメニュー選択部504がRAM402に書き出した選択状態を読み出し、該読み出した選択状態に基づいて、アイテムの各々を配置する位置や傾きを決定する。
図7(a)、図7(b)および図8は、携帯型投影装置100を回転させた場合に、メニュー生成部502が生成するメニュー画像に基づいて、投影制御部503が後述するように生成した投影画像を物体に投影した様子の一例を示す説明図である。図7(a)及び図7(b)において、メニュー生成部502は、姿勢検出部500が検出した携帯型投影装置100の水平面に対する傾きとRAM402から読み出した選択状態に基づいてメニュー画像を生成する。この際、メニュー生成部502は、投影されたメニュー画像を使用者が見た際に水平面に対して一定の角度を保つと共に、選択状態に対応したアイテムが投影面の中心付近に配置されるように各アイテムを配置したメニュー画像を生成する。図7(a)は、携帯型投影装置100が時計回り方向へ回転した場合の例を示している。図7(a)は、後述のようにアイテム1201に代わってアイテム1200が新たに選択状態になることに伴って、メニュー生成部502がアイテム1200を新たに投影面の中心付近に配置したメニュー画像を生成する様子を示している。図7(b)は、携帯型投影装置100が反時計回り方向へ回転した場合の例を示している。図7(b)は、後述のようにアイテム1201に代わってアイテム1202が新たに選択状態になることに伴って、メニュー生成部502がアイテム1202を新たに投影面の中心付近に配置したメニュー画像を生成する様子を示している。また、図8において、メニュー生成部502は、姿勢検出部500が検出した携帯型投影装置100の水平面に対する傾きとRAM402から読み出した選択状態に基づいてメニュー画像を生成する。この際、メニュー生成部502は、各アイテムの位置や傾きが、携帯型投影装置100を回転させても投影面内で背景に対して常に静止しているように見えるように配置したメニュー画像を生成する。図8は、携帯型投影装置100が時計回り方向へ回転した場合の例を示している。図8は、後述のようにアイテム1201に代わってアイテム1202が新たに選択状態になっても、メニュー生成部502は各アイテムを引き続き投影面内の同じ位置に配置する様子を示している。
また、メニュー生成部502は、RAM402から読み出した選択状態に対応するアイテムの位置や傾き、大きさ、色、透明度などを変化させたり、選択状態に対応するアイテムの画像を異なる画像に置き換えたりしてよい。図7(a)、図7(b)および図8は、RAM402から読み出した選択状態が第1のアイテム1201に対応している場合の例を示しており、該アイテムの色を変化させることで、携帯型投影装置100が選択しているメニューを使用者に対して表示する。この際、メニュー生成部502は、の例と同様に、物体に投影されたメニュー画像を使用者が見た際に、各アイテムの位置や傾きが、携帯型投影装置100の回転に伴って投影面内で変化して見えるように配置したメニュー画像を生成してもよい。
また、メニュー生成部502は、メニュー画像を生成する際に、アイテムを配置していない部分を透明色乃至半透明色として扱う指示をメニュー画像に付与してもよい。
投影制御部503は、AR生成部501が生成した画像に基づいて投影画像を生成する。また、投影制御部503は、メニュー生成部502がメニュー画像を生成している場合、該AR画像と該メニュー画像を重畳することによって投影画像を生成する。投影制御部503は、一例として、AR生成部501が生成したAR画像の上にメニュー生成部502が生成したメニュー画像を重畳して、一枚の投影画像を生成する。また、投影制御部503は、AR画像とメニュー画像を重畳する際に、画像の各々に画像処理を施した上で投影画像を作成してもよい。投影制御部503は、一例として、メニュー画像に画像内の一部乃至全部を透明色乃至半透明色として扱う指示が付与されている場合、当該の部分のAR画像が可視状態乃至半可視状態になるように、AR画像の上にメニュー画像を重畳した投影画像を生成する。
メニュー選択部504は、携帯型投影装置100がメニュー呼出状態の際に、姿勢検出部500が検出した携帯型投影装置100の姿勢に基づいて、メニュー生成部502が生成した画像に含まれる一乃至複数のアイテムからアイテムを選択する。なお、本実施の形態では一乃至複数のアイテムから一つのアイテムを選択する場合について述べるが、一つの代わりに複数のアイテムを選択する場合についても、当然に本実施形態の範囲に属する。メニュー選択部504は、一例として、現在の選択状態を携帯型投影装置100のRAM402に書き込む。
メニュー決定部505は、携帯型投影装置100がメニュー呼出状態の際に、メニュー選択部が選択したメニューに対応する機能の実施や、設定値の入力や確定を行う。メニュー決定部505は、一例として、入力装置405である切替スイッチが操作されたことに対応して、RAM402に格納された現在の選択状態を決定状態としてRAM402に書き込む。また、メニュー決定部505は、RAM402に書き込まれた選択状態を監視し、該選択状態が一定時間切り替わらなかったことに対応して決定状態をRAM402に書き込む。
投影部506は、投影制御部503が生成した投影画像をプロジェクタなどの出力装置406を用いて物体に対して投影出力する。
以上の構成を有する携帯型投影装置100の動作について以降で詳細に説明する。図22は、携帯型投影装置100により実行される投影処理のフローチャートである。図22において、姿勢検出部500は装置の姿勢を検出する(ステップS3400)。次いで、AR生成部501は、ステップS3400で検出した装置の姿勢に基づいてAR画像の生成処理を行う(ステップS3401)。次いで、メニュー生成部502は携帯型投影装置100がメニュー呼出状態であるか判定し(ステップS3402)、もしメニュー呼出状態であれば、ステップS3400で検出した装置の姿勢に基づいてメニュー画像の生成処理を行う(ステップS3403)。次いで、投影制御部503は、ステップS3401で生成したAR画像と、ステップS3403で生成したメニュー画像に基づいて、投影画像の生成処理を行う(ステップS3404)。次いで、投影部506は、ステップS3404で生成した投影画像を物体に投影する(ステップS3405)。
図3は、AR生成部501が実行するAR画像生成処理のフローチャートである。ステップS3401の処理の流れをより詳細に示している。図3においてAR生成部501は、入力装置405からの入力に基づいて物体を識別する(ステップS600)。次いで、AR生成部501は、ステップS600で識別した物体に関連付けられたAR画像の生成に用いる画像部品であるAR情報をストレージから読み出す。あるいは、携帯型投影装置100が備えるネットワーク・インタフェース407を介して接続されたサーバ装置から読み出す(ステップS601)。次いで、AR生成部501は、姿勢検出部500が検出した携帯型投影装置100の姿勢を読み出す(ステップS602)。次いで、AR生成部501は、姿勢検出部500が検出した携帯型投影装置100の姿勢に基づいて、読み出したAR情報からAR画像を生成する(ステップS603)。
図5(b)は、メニュー生成部502によるメニュー生成処理のフローチャートである。ステップS3403の処理の流れをより詳細に示している。図5(b)においてメニュー生成部502は、RAM402あるいはROM403からメニュー画像の生成に用いる画像部品であるアイテムを読み出す(ステップS900)。次いで、メニュー生成部502は、RAM402から選択状態を読み出す(ステップS901)。次いで、メニュー生成部502は、ステップS900で読み出したアイテムを配置してメニュー画像を生成する(ステップS902)。
図9は、投影制御部503が実行する投影制御処理のフローチャートである。ステップS3004の処理の流れをより詳細に示している。投影制御部503はAR生成部501が生成したAR画像を読み出し(ステップS1500)、該読み出したAR画像を投影画像として書き出す(ステップS1501)。次いで、投影制御部503は、メニュー生成部502がメニュー画像を生成しているか判定する(ステップS1502)。メニュー画像が生成されている場合はそのメニュー画像を読み出し(ステップS1503)、該読み出したメニュー画像を、AR画像を書き出した投影画像に重畳して書き出す(ステップS1504)。
図23は、携帯型投影装置100により実行されるメニュー操作処理のフローチャートである。図22のフローチャートに示される投影処理は、図23のフローチャートに示されるメニュー操作処理が携帯型投影装置100に設定した状態に基づいて制御される。図23において、メニュー選択部504はメニュー呼出信号の有無を検知する(ステップS3500)。もし、メニュー呼出信号が検知された場合、メニュー選択部504はメニュー呼出処理を行う(ステップS3501)。次いで、メニュー選択部504は携帯型投影装置100の使用者からのメニュー操作を受理する(ステップS3502)。メニュー操作とは、一例として、姿勢検出部500が検出した携帯型投影装置100の姿勢の変化や、入力装置405である切替スイッチの操作などである。次いで、メニュー選択部504は、使用者から受理したメニュー操作がメニュー決定操作であるか判別し(ステップS3503)、もしメニュー決定操作ならメニュー決定処理を行った後にメニュー操作処理のフローを終了する(ステップS3504)。このメニュー決定操作は、一例として、切替スイッチの操作である。もしステップS3503の判別結果が否であるなら、メニュー選択部504は、使用者から受理したメニュー操作がメニュー選択処理であるか判別し(ステップS3505)、もしメニュー選択部504ならメニュー選択処理を実行する(ステップS3506)。このメニュー選択操作は、一例として、姿勢検出部500が検出した携帯型投影装置100の回転操作である。次いで、メニュー選択部504は、ステップS3502に示すメニュー操作の受理を再び実施する。
図5(a)は、メニュー選択部504によるメニュー呼出処理のフローチャートである。図5(a)においてメニュー選択部504は、メニュー呼出信号を検知すると携帯型投影装置100をメニュー呼出状態に設定すると共に、RAM402あるいはROM403から初期状態を読み出す(ステップS800)。
メニュー呼出信号は、一例として、入力装置405である切替スイッチが操作されたことによって発生する。また、メニュー呼出信号は、一例として、携帯型投影装置100が特定の姿勢に変化したことを姿勢検出部500が検出したことに対応して発生する。また、メニュー呼出信号は、一例として、姿勢検出部500が姿勢の変化を検出したこと、あるいは姿勢の変化を一定時間検出しなかったことに対応して発生する。また、メニュー呼出信号は、一例として、入力装置405であるカメラが投影方向に被投影対象の物体を検出したこと、あるいは物体を一定時間検出しなかったことに対応して発生する。また、メニュー呼出信号は、一例として、RAM402に所定の値が設定されたことを携帯型投影装置100が実行するプログラムが検出することに対応して、あるいは所定の周期ごとにプログラムが発生させる。また、メニュー呼出信号は、一例として、ネットワーク・インタフェースを介して携帯型投影装置100以外の装置及び/又は記憶媒体から信号を受信したことに対応して発生する。
図5(a)に戻り、メニュー選択部504によるメニュー呼出処理のフローチャートの説明を続ける。メニュー選択部504は、ステップS800で読み出した初期状態を、選択状態としてRAM402に書き込む(ステップS801)。次いで、メニュー選択部504はRAM402に書き込まれた決定状態を初期化して未決定状態にする(ステップS802)。次いで、メニュー選択部504は、携帯型投影装置100をメニュー呼出状態に設定する(ステップS803)。携帯型投影装置100は、図22に示す投影処理を行う際に、装置がメニュー呼出状態に設定されている場合はステップS3403を実行してメニュー画像生成処理を行う。
図10は、メニュー選択部504が実行するメニュー選択処理のフローチャートである。メニュー選択部504は、姿勢検出部500が検出した携帯型投影装置100の姿勢を読み出し(ステップS1600)、次いで、RAM402から選択状態を読み出す(ステップS1601)。メニュー選択部504は、ステップS1600において姿勢検出部500が検出した携帯型投影装置100の回転方向を判別する(ステップS1602)。
メニュー選択部504は、検出した携帯型投影装置100の回転方向とRAM402から読み出した選択状態に基づいて、新たな選択状態を決定する。以下、新たな選択状態を決定する処理について、さらに詳細に説明する。図7(a)および図7(b)は、携帯型投影装置100の回転を検出した際にメニューの選択が変更する処理の一例を示している。図7(a)および図7(b)において、RAM402には第1のアイテム1201に対応する選択状態が記録されている。図7(a)に示すように、ステップS1602において判別した携帯型投影装置100の回転方向が時計回りの場合、メニュー選択部504は第1のアイテム1201の左隣に位置する第2のアイテム1200を選択する。メニュー選択部504は、該アイテムに対応する新たな選択状態をRAM402に書き込む(ステップS1603)。また、図7(b)に示すように、ステップS1602において判別した携帯型投影装置100の回転方向が反時計回りの場合、メニュー選択部504は第1のアイテム1201の右隣に位置する第3のアイテム1202を選択する。メニュー選択部504は、該アイテムに対応する新たな選択状態をRAM402に書き込む(ステップS1604)。ユーザが、携帯型投影装置を回転させてメニューを選択するときには、手振れが発生するが、手振れを相殺して、回転方向と回転量とを取得(回転取得)し、メニュー選択に反映させる。また、回転量に基づいて、順次、隣のメニューが選択状態となる。
なお、以上に示した携帯型投影装置100の回転方向に基づくアイテムの選択の方法は本実施形態の一例であり、当然ながら本発明の範囲は係る例に限定されない。図8では、一例として、ステップS1602において判別した携帯型投影装置100の回転方向が時計回りの場合に、図7(a)の場合と異なり、メニュー選択部504は第3のアイテム1202を新たに選択する。
このように、図10に示したメニュー選択処理によりメニュー選択部504がRAM402に書き込んだ選択状態に基づいて、メニュー生成部502は図22のフローチャートに示される投影処理においてメニュー生成処理を行う。また、投影制御部503は生成されたメニュー画像に基づいて投影画像を生成し、投影部が該生成された投影画像を投影する。
図23(a)は、メニュー決定部505によるメニュー決定処理のフローチャートである。図23(a)においてメニュー決定部505は、携帯型投影装置100のRAM402から選択状態を読み出す(ステップS3600)。次いで、メニュー決定部505は、該読み出した選択状態を決定状態としてRAM402に書き込む。
以上のように、本実施形態に係る携帯型投影装置100を回転させると、装置はAR画像を水平面に対して静止するように投影すると共に、メニュー画像を回転に従って投影画面内を移動したり、選択されたメニューを強調表示したりするように投影する。これにより、ユーザは携帯型投影装置を回転させることでメニューの選択をすることが可能になる。
(第2の実施の形態)
以下、第2の実施形態について図面を参照して詳細に説明する。なお、本実施の形態に係る画像投影装置の機能及び構成は第1の実施の形態に準じる。したがって、第1の実施の形態と同一の構成要素については同一符号を付し、適宜説明を省略する。
第2の実施の形態として、選択中のメニューに対してポインタを重畳して表示する携帯型投影装置100の例について説明する。図11に示すように、本実施の形態に係る携帯型投影装置100は、メニュー選択部504が選択しているアイテムに重畳するポインタ画像を生成するポインタ生成部1700をさらに備える。
投影制御部503は、AR生成部501が生成するAR画像と、メニュー生成部502が生成するメニュー画像に加えて、ポインタ生成部1700が生成するポインタ画像をそれぞれ重畳して、一枚の投影画像を生成することによって投影を行う。
図12(a)は、本実施形態において投影制御部503が実行する投影制御処理のフローチャートである。図12(a)において、投影制御部503は、図9に示した投影制御処理において、ステップS1501に示したAR画像書出処理ないしステップS1504に示したメニュー画像書出処理の後に、ポインタ生成部1700にポインタ画像の生成を指示する。(ステップS1800)次いで、投影制御部503は、生成されたポインタ画像を投影画像に重畳して書き込む(ステップS1801)。投影制御部503は、ステップS1800で上書き処理を行うポインタ画像に画像内の一部乃至全部を透明色乃至半透明色として扱う指示が付与されている場合、当該の部分を重畳しなくてもよい。すなわち、ステップS1501で書き出したAR画像が可視状態になるように重畳処理を行ってもよい。
図12(b)は、本実施形態においてポインタ生成部1700が実行するポインタ生成処理のフローチャートである。図12(b)において、ポインタ生成部1700は、RAM402あるいはROM403からポインタ画像を読み出す(ステップS1900)。次いで、ポインタ生成部1700は、ステップS1900で読み出したポインタ画像を配置したポインタ画像を生成する(ステップS1901)。
図13(a)は、選択中のメニューに対してポインタを重畳して投影する携帯型投影装置100の一例を示す図である。図13において、メニュー生成部502は、姿勢検出部500が検出した携帯型投影装置100の水平面に対する傾きとRAM402から読み出した選択状態に基づいてメニュー画像を生成する。この際、メニュー生成部502が生成するメニュー画像は選択されたアイテムが投影画像内で常に一定の位置に配置される。また、図13(a)において、ポインタ生成部1700は、姿勢検出部500が検出した携帯型投影装置100の水平面に対する傾きに基づいて、使用者からポインタ画像1803が水平面に対して静止して見えるように画像を生成する。これによって、使用者が携帯型投影装置100を回転させても、ポインタ画像1803はあたかも物体に対して常に静止しているかのように投影される。
また、ポインタ生成部1700は、姿勢検出部500が検出した携帯型投影装置100の水平面に対する傾きに加えて、RAM402から読み出した選択状態にさらに基づいてポインタ画像を生成してもよい。
図12(c)は、図12(b)に示したフローチャートとは異なるアルゴリズムに基づいて、ポインタ生成部1700がRAM402から読み出した選択状態に基づいてポインタ画像を生成する際に実行するポインタ生成処理のフローチャートである。図12(c)において、ポインタ生成部1700は、RAM402あるいはROM403からポインタ画像を読み出す(ステップS2100)。次いで、ポインタ生成部1700は、RAM402から選択状態を読み出す(ステップS2101)。次いで、ポインタ生成部1700は、ステップS2101で読み出した選択状態に基づいて算出した位置に、ステップS2100で読み出したポインタ画像を配置したポインタ画像を生成する(ステップS2102)。
図13(b)は、ステップS2102において、図13(a)に示した例とは異なるアルゴリズムに基づいて、選択中のメニューに対してポインタを重畳して投影する携帯型投影装置の一例を示す図である。図13(b)において、メニュー生成部502は、姿勢検出部500が検出した携帯型投影装置100の水平面に対する傾きに基づいて、使用者からメニュー画像が水平面に対して静止して見えるように画像を生成する。また、図13(b)において、ポインタ生成部1700は、姿勢検出部500が検出した携帯型投影装置100の水平面に対する傾きとRAM402から読み出した選択状態に基づいてポインタ画像を生成する。この際、ポインタ生成部1700は、投影制御部503がメニュー画像にポインタ生成部1700にポインタ画像を重畳した場合に、使用者から見て、ポインタが選択状態に対応したアイテムを指示しているかのように見えるようにポインタを配置する。
以上のように、本実施形態に係る携帯型投影装置は、AR画像とメニュー画像に加えてポインタ画像を重畳して投影する。これにより、ユーザはメニュー群の中で現在どのメニューが選択されているのかを投影画面から判断しやすくなり、より直感的なメニュー選択操作が可能になる。
(第3の実施の形態)
以下、第3の実施形態について図面を参照して詳細に説明する。なお、本実施の形態に係る画像投影装置の機能及び構成は第1の実施の形態に準じる。したがって、第1の実施の形態と同一の構成要素については同一符号を付し、適宜説明を省略する。
第3の実施の形態として、メニュー選択部504がRAM402に格納された選択状態を変更するたびに、メニュー決定部505が現在の選択状態を決定状態としてRAM402に書きこむ携帯型投影装置100の例について説明する。
図14は、メニュー決定部505が現在の選択状態を決定状態としてRAM402に書きこみ、AR生成部501が該決定状態に基づいてAR画像2303を生成する携帯型投影装置100の一例を示す図である。図14の左図では、AR生成部501はアイテム2301に対応するAR画像2303を生成している。次いで、図14の右図では、使用者が携帯型投影装置100を時計回りに回転させると、メニュー選択部504は図10に示すメニュー選択処理を実行する。この際、メニュー選択部504は、RAM402が格納する選択状態をアイテム2301からアイテム2302に変更すると共に、アイテム2302に対応する選択状態を決定状態としてRAM402に書きこむ。AR生成部501は、RAM402から読み出した決定状態に基づいてAR画像2303を生成する。
図15は、本実施の形態におけるメニュー操作処理のフローチャートである。図15において、メニュー選択部504は、ステップS3502において使用者から操作を受理した際に、その操作が選択操作であるか判別する(ステップS2400)。もし選択操作なら、図10に示したメニュー選択処理を行い(ステップS2401)、次いで図36に示したメニュー決定操作を行う(ステップS2402)。なお、ステップS2401のメニュー選択操作の後にステップS2402のメニュー決定操作を行うのは一例であり、これらの順序を入れ替えても、あるいは同時に行ってもよい。次いで、メニュー選択部504は、ステップS3502に示すメニュー操作の受理を再び実施する。
以上のように、本実施形態に係る携帯型投影装置は、装置の回転に伴ってメニューの選択が変更される度に装置に決定状態を変更するので、音量調整のような設定や、一覧表示された複数枚の写真の選択などについて直感的な操作が可能になる。
(第4の実施の形態)
以下、第4の実施形態について図面を参照して詳細に説明する。なお、本実施の形態に係る画像投影装置の機能及び構成は第1の実施の形態に準じる。したがって、第1の実施の形態と同一の構成要素については同一符号を付し、適宜説明を省略する。
第4の実施の形態として、メニュー画像内に一度に配置するアイテムの個数を制限する携帯型投影装置100の例について説明する。図16に示すように、本実施の形態に係る携帯型投影装置100は、複数のアイテムの中からメニュー画像に配置するアイテムを摘出するアイテム摘出部2500をさらに備える。また、携帯型投影装置100は、携帯型投影装置100と物体との距離を検出する距離検出部2501をさらに備える。
図17は、本実施形態においてメニュー生成部502とアイテム摘出部2500が実行するメニュー生成処理のフローチャートである。図17において、アイテム摘出部2500は、メニュー生成部502によるメニュー画像生成処理(ステップS2603)に先立ってアイテム摘出処理を実行する(ステップS2600)。
次いで、アイテム摘出部2500は、アイテムの摘出数を算出する(ステップS2601)。アイテム摘出部2500は、一例として、各アイテムの幅が全て同じであり、またアイテム間の幅が0であると仮定した場合に、複数のアイテムの中から摘出するアイテムの個数を以下の式(1)により求める。

式(1)において、wは各アイテムの幅を、mはメニュー画面内に配置するメニュー全体の幅の最大値を表す。このとき、メニュー全体の幅をアイテムの幅で除して小数部分を切り捨てた整数値を、メニュー画面に配置するアイテムの個数cとする。
図17に戻り、メニュー選択処理のフローチャートの説明を続ける。アイテム摘出部2500は、複数のアイテムの中からメニュー画像に配置するアイテムを摘出する(ステップS2302)。この際、アイテム摘出部2500は、ステップS901で読み出したアイテムの選択状態と、ステップS2601で算出したメニュー画面に配置するアイテムの個数に基づき、複数のアイテムの中からメニュー画像に配置するアイテムを摘出する。
図18(a)は、本実施形態に係る携帯型投影装置100の一例を示す図である。図18(a)の左図において、RAM402にはアイテム2702に対応する選択状態が格納されており、また、ステップS2601で算出したメニュー画面に配置するアイテムの個数cが3であったとする。この時、アイテム摘出部2500は、一例として、現在選択されているアイテムと、その両隣に配置されるアイテム2701とアイテム2703を一つずつ、計3個摘出する。この際、アイテム摘出部2500は、右隣や左隣に配置するアイテムが存在しない場合や、後述のステップS2603でメニュー画像に配置した場合に画像内からはみ出すアイテムが存在する場合には、c個未満のアイテムを摘出してもよい。
次いで、メニュー生成部502は、ステップS900で読み出したアイテムのうち、ステップS2602でアイテム摘出部2500が摘出したアイテムのみを配置してメニュー画像を生成する(ステップS2603)。
図18(a)の右図は、携帯型投影装置100を時計回りに回転したことに伴って、メニュー選択部504が選択状態を変更した際にメニュー生成部502が生成するメニュー画像の一例を示す説明図である。この場合も、図17のフローチャートに示したメニュー生成処理に基づいて、変更後の選択状態に対応するアイテム2701の近傍に配置される計3個のアイテムが摘出され配置される。
図18(b)は、ステップS2302において摘出されなかったアイテムを省略表示するメニュー画像の一例を示す説明図である。アイテム摘出部2500は、ステップS2302において、摘出したアイテムに追加してアイテムをさらに摘出し、メニュー生成部502は該追加で摘出したアイテムをメニュー画像に配置してもよい。メニュー生成部502は、これらの追加で摘出したアイテムの位置や傾き、大きさ、色、透明度などを変化させたり、アイテムの画像を異なる画像に置き換えたりした上でメニュー画像を生成してもよい。図18(b)の左図において、メニュー生成部502は、アイテム摘出部2500により追加で摘出されたアイテム2800およびアイテム2804の枠線を点線とし、文字を半透明として描画している。同様に、図18(b)の右図において、アイテム摘出部2500により追加で摘出されたアイテム2805およびアイテム2803の枠線を点線とし、文字を半透明として描画している。これにより、現在の選択状態に対応するアイテム2802との区別がつけやすくなる。
また、アイテム摘出部2500は、距離検出部2501が検出した物体との距離に基づいてアイテム摘出処理を行ってもよい。図19(a)は、携帯型投影装置100と物体101との距離を変化させる様子の一例を示す説明図である。図19(a)において、携帯型投影装置100が物体101から遠くの位置へ移動することに伴って、物体101に投影される投影面の面積が大きくなる。
図19(b)は、携帯型投影装置100と物体101との距離の変化に伴って、アイテム摘出部2500が摘出するアイテムの個数が変化する様子の一例を示す説明図である。アイテム摘出部2500は、式(1)に基づいて摘出するアイテムの個数cを算出するステップS2601において、wは一定の値を用いる一方で、mは距離検出部2501が検出した距離に基づいてcを算出する。図19(b)の左図はc=2である場合の、右図はc=3である場合の、アイテム摘出部2500のアイテム摘出処理の結果を示している。図19(b)において、各アイテムの幅mは一定となるようにし、メニュー全体の幅の最大値wは距離検出部2501が検出した距離が短くなるほど小さく、長くなるほど大きな値となるように算出する。
以上のように、本実施形態に係る携帯型投影装置は、投影画面内に一度に表示するアイテムの個数を制限して選択操作により入れ替えるので、投影画面内に全てのアイテムを表示できない場合でも全てのメニューを利用することができる。また、使用者から見た各アイテムの幅を維持したまま、携帯型投影装置と物体の距離に基づいてアイテムの個数の制限を変化させるので、各アイテムの視認性が改善される。
(第5の実施の形態)
以下、第5の実施形態について図面を参照して詳細に説明する。なお、本実施の形態に係る画像投影装置の機能及び構成は第1の実施の形態に準じる。したがって、第1の実施の形態と同一の構成要素については同一符号を付し、適宜説明を省略する。
第5の実施の形態として、姿勢検出部500が検出した姿勢に基づいて携帯型投影装置100の使用者が指示する物体を決定し、メニュー生成部502は該指示対象の物体に対応したメニュー画像を生成する携帯型投影装置100の例について説明する。図20に示すように、本実施の形態に係る携帯型投影装置100は、姿勢検出部500が検出した姿勢に基づいて携帯型投影装置100の使用者が指示する物体を判別する物体指示部3100をさらに備える。
図21(a)は、物体指示部3100が指示対象となる物体を判別する方法の一例を示す説明図である。図21(a)において、物体指示部3100は投影方向の物体や投影面を検出するカメラなどの入力装置405を用いて、物体101及び物体102の位置と、物体に対する投影面の相対的な位置を識別する。物体指示部3100は、一例として、投影面中心3300と物体の各々との距離に基づいて、使用者が指示する物体を判別する。図21(a)の左図において、物体指示部3100は、物体102よりも投影面中心3200に近い物体101を指示対象の物体として判別する。また、図21(a)の右図において、物体指示部3100は、物体101よりも投影面中心3300に近い物体102を指示対象の物体として判別する。
図21(b)は、物体指示部3100が識別した指示対象に基づいて、メニュー生成部502が生成するメニュー画像の一例を示す説明図である。図21(b)の左図において、物体指示部3100は物体101を指示対象として識別する。これに伴い、メニュー生成部502は、該識別した物体101に対応するアイテム3300、アイテム3301およびアイテム3302を配置したメニュー画像を生成する。また、図21(b)の右図において、使用者が携帯型投影装置100の姿勢を変更したことに伴って、物体指示部3100は新たに物体102を指示対象として識別する。これに伴い、メニュー生成部502は、該識別した物体101に対応するアイテム3303、アイテム3304およびアイテム3305を配置したメニュー画像を生成する。
以上のように、本実施形態に係る携帯型投影装置は、使用者が装置の姿勢を用いて物体を指示し、指示された物体に対応したメニューを投影できる。また、指示された物体に対応するメニューを表示することにより、物体に対応するメニューの直感的な操作が可能になる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は係る例に限定されない。本発明の属する技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
また、上述した第1から第5の実施例の構成を適宜組み合わせて画像投影装置を形成してもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100 携帯型投影装置
101,102 物体
103 関連画像(AR画像)
300〜302 アイテム

Claims (8)

  1. 画像を投影出力する投影手段と、
    自装置に与えられた回転に対する回転量を取得する回転取得手段と、
    複数の対象を、選択肢として提示する画像を前記投影手段に投影させる制御を行う投影制御手段と、
    前記回転取得手段によって取得された回転量に応じて、順次、前記複数の対象のうち少なくとも1つの対象を選択状態とする選択手段と、
    を備えることを特徴とする画像投影装置。
  2. 物体を撮影する撮影手段と、
    前記物体に関連する関連情報を取得する関連情報取得手段と、
    を更に備え、
    前記投影制御手段は、更に、前記関連情報から生成した画像を前記投影手段に投影させる制御を行うことを特徴とする請求項1記載の画像投影装置。
  3. 前記投影手段が前記関連情報から生成した画像を投影する位置は、前記回転によらず、背景に対して一定の位置を保つことを特徴とする請求項1または2に記載の画像投影装置。
  4. 前記関連情報から生成した画像は、前記選択状態に応じて異なる画像として前記投影手段に投影されることを特徴とする請求項1乃至3何れか1項に記載の画像投影装置。
  5. 自装置を、前記複数の対象からの選択を受け付ける状態に切り替える切り替え手段を更に備え、
    前記選択手段は、前記複数の対象からの選択を受け付ける状態に切り替わった後に、前記回転取得手段によって取得された回転量に応じて、順次、前記複数の対象のうち少なくとも1つの対象を選択状態とすることを特徴とする請求項1乃至4何れか1項に記載の画像投影装置。
  6. 自装置と物体との距離を検出する検出手段、を更に備え、
    前記投影制御手段は、前記距離に基づいた個数の選択肢の画像を前記投影手段に投影させることを特徴とする請求項1乃至5何れか1項に記載の画像投影装置。
  7. 画像を投影手段に出力させる投影工程と、
    自装置に与えられた回転に対する回転量を取得する回転取得工程と、
    複数の対象を、選択肢として提示する画像を前記投影手段に投影させる制御を行う投影制御工程と、
    前記回転取得工程で取得された回転量に応じて、順次、前記複数の対象のうち少なくとも1つの対象を選択状態とする選択工程と、
    を備えることを特徴とする画像投影方法。
  8. コンピュータに、
    画像を投影手段に出力させる投影工程と、
    自装置に与えられた回転に対する回転量を取得する回転取得工程と、
    複数の対象を、選択肢として提示する画像を前記投影手段に投影させる制御を行う投影制御工程と、
    前記回転取得工程で取得された回転量に応じて、順次、前記複数の対象のうち少なくとも1つの対象を選択状態とする選択工程と、
    を実行させるためのプログラム。
JP2016247186A 2016-12-20 2016-12-20 画像投影装置、画像投影方法及びプログラム Pending JP2018101308A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016247186A JP2018101308A (ja) 2016-12-20 2016-12-20 画像投影装置、画像投影方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016247186A JP2018101308A (ja) 2016-12-20 2016-12-20 画像投影装置、画像投影方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2018101308A true JP2018101308A (ja) 2018-06-28

Family

ID=62715429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016247186A Pending JP2018101308A (ja) 2016-12-20 2016-12-20 画像投影装置、画像投影方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2018101308A (ja)

Similar Documents

Publication Publication Date Title
EP3540571A1 (en) Method and device for editing virtual scene, and non-transitory computer-readable storage medium
US10178379B2 (en) Method and apparatus for testing virtual reality head display device
EP3001406A1 (en) Display control device, display control method, and recording medium
EP3001407A1 (en) Display control device, display control method, and recording medium
JPWO2016035421A1 (ja) パン・チルト操作装置、カメラシステム、パン・チルト操作用プログラム及びパン・チルト操作方法
WO2015142971A1 (en) Receiver-controlled panoramic view video share
JP2013235373A (ja) 画像処理装置、投影制御方法及びプログラム
KR20190008610A (ko) 이동 단말기 및 그 제어 방법
JP2016144089A (ja) 画像処理装置およびその制御方法
JP6812203B2 (ja) 情報処理システム、情報処理方法、携帯投影端末
EP3962090A1 (en) Communication terminal, image communication system, method for displaying image, and carrier means
US20230332888A1 (en) Information processing apparatus
JP2013235374A (ja) 画像処理装置、投影制御方法及びプログラム
JP6603706B2 (ja) ビデオ先読みにより制御されるレーザダイオード電圧源
KR102003383B1 (ko) 전자 장치에서 이미지를 촬영하는 위한 장치 및 방법
US20160284130A1 (en) Display control method and information processing apparatus
JP6685742B2 (ja) 操作装置、移動装置、およびその制御システム
CN112381729B (zh) 图像处理方法、装置、终端及存储介质
US12087256B2 (en) Head mounted display and setting method
EP4050879A1 (en) Display control device, display control method and recording medium
CN107924272B (zh) 信息处理装置、信息处理方法和程序
CN112822544A (zh) 视频素材文件生成方法、视频合成方法、设备及介质
JP2017016166A (ja) 画像処理装置及び画像処理方法
US11950030B2 (en) Electronic apparatus and method of controlling the same, and recording medium
JP6308842B2 (ja) 表示システム及びプログラム