JP2022123300A - 表示方法および表示システム - Google Patents
表示方法および表示システム Download PDFInfo
- Publication number
- JP2022123300A JP2022123300A JP2021020524A JP2021020524A JP2022123300A JP 2022123300 A JP2022123300 A JP 2022123300A JP 2021020524 A JP2021020524 A JP 2021020524A JP 2021020524 A JP2021020524 A JP 2021020524A JP 2022123300 A JP2022123300 A JP 2022123300A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual
- display
- projector
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004088 simulation Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 20
- 230000010365 information processing Effects 0.000 description 113
- 238000003384 imaging method Methods 0.000 description 63
- 238000010586 diagram Methods 0.000 description 46
- 230000003287 optical effect Effects 0.000 description 30
- 238000005259 measurement Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 16
- 238000012986 modification Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000002834 transmittance Methods 0.000 description 10
- 239000002131 composite material Substances 0.000 description 9
- 230000015654 memory Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3188—Scale or resolution adjustment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】部屋等で投写される画像を想像しやすい画像を表示可能な技術を提供する。
【解決手段】、表示方法は、面を含む対象領域と、ディスプレイと、を有する現実空間における前記対象領域を示す対象画像を取得することと、前記面の前記現実空間における位置に対応する第1位置に位置し前記面に対応する仮想面と、仮想プロジェクターと、を有する仮想空間において、前記仮想プロジェクターから前記仮想面に投写される画像を、前記現実空間における前記ディスプレイの位置に対応する第2位置から見た画像である第1表示画像を前記ディスプレイに表示する場合に、前記ディスプレイの位置に関わらず、前記ディスプレイに収まる大きさの前記第1表示画像を前記対象画像に重畳させた第1シミュレーション画像を、前記ディスプレイに表示すること、を含む。
【選択図】図11
【解決手段】、表示方法は、面を含む対象領域と、ディスプレイと、を有する現実空間における前記対象領域を示す対象画像を取得することと、前記面の前記現実空間における位置に対応する第1位置に位置し前記面に対応する仮想面と、仮想プロジェクターと、を有する仮想空間において、前記仮想プロジェクターから前記仮想面に投写される画像を、前記現実空間における前記ディスプレイの位置に対応する第2位置から見た画像である第1表示画像を前記ディスプレイに表示する場合に、前記ディスプレイの位置に関わらず、前記ディスプレイに収まる大きさの前記第1表示画像を前記対象画像に重畳させた第1シミュレーション画像を、前記ディスプレイに表示すること、を含む。
【選択図】図11
Description
本発明は、表示方法および表示システムに関する。
特許文献1は、プロジェクターから投写される投写画像の見え方に関するシミュレーション画像を表示する情報処理装置を開示する。シミュレーション画像は、プロジェクターが位置する部屋と、投写画像が表示されるスクリーンと、を示す。情報処理装置は、スクリーンが部屋からはみ出してしまう値が入力されると、部屋からはみ出したスクリーンを示すシミュレーション画像を表示する。
特許文献1に記載の情報処理装置が、部屋からはみ出したスクリーンを示すシミュレーション画像を表示する場合、シミュレーション画像において投写画像も部屋からはみ出る可能性がある。投写画像が部屋からはみ出る状態は、現実には生じない。このため、ユーザーは、シミュレーション画像を見ても、実際の部屋等で投写される投写画像を想像しにくいことがある。この場合、ユーザーは値の入力をやり直す必要があり、特許文献1に記載の情報処理装置の利便性は低い。
本発明に係る表示方法の一態様は、面を含む対象領域と、ディスプレイと、を有する現実空間における前記対象領域を示す対象画像を取得することと、前記面の前記現実空間における位置に対応する第1位置に位置し、前記面に対応する仮想面と、仮想プロジェクターと、を有する仮想空間において、前記仮想プロジェクターから前記仮想面に投写される画像を、前記現実空間における前記ディスプレイの位置に対応する第2位置から見た画像である第1表示画像を前記ディスプレイに表示する場合に、前記ディスプレイの位置に関わらず、前記ディスプレイに収まる大きさの前記第1表示画像を前記対象画像に重畳させた第1シミュレーション画像を、前記ディスプレイに表示すること、を含む。
本発明に係る表示システムの一態様は、カメラと、ディスプレイと、少なくとも一つの処理部と、を含み、前記少なくとも一つの処理部は、面を含む対象領域と、前記ディスプレイと、を有する現実空間における前記対象領域を示す対象画像を、前記カメラを用いて取得することと、前記面の前記現実空間における位置に対応する第1位置に位置し、前記面に対応する仮想面と、仮想プロジェクターと、を有する仮想空間において、前記仮想プロジェクターから前記仮想面に投写される画像を、前記現実空間における前記ディスプレイの位置に対応する第2位置から見た画像である第1表示画像を前記ディスプレイに表示する場合に、前記ディスプレイの位置に関わらず、前記ディスプレイに収まる大きさの前記第1表示画像を前記対象画像に重畳させた第1シミュレーション画像を、前記ディスプレイに表示させることと、を実行する。
A:第1実施形態
A1:情報処理装置1の概要
図1は、情報処理装置1を示す図である。情報処理装置1は、スマートフォンである。情報処理装置1は、スマートフォンに限らず、例えば、カメラ付きタブレット、カメラ付きのノート型PC(Personal Computer)、または、カメラが接続されたノート型PCでもよい。情報処理装置1は、表示システムの一例である。情報処理装置1は、現実空間RSに位置する。
A1:情報処理装置1の概要
図1は、情報処理装置1を示す図である。情報処理装置1は、スマートフォンである。情報処理装置1は、スマートフォンに限らず、例えば、カメラ付きタブレット、カメラ付きのノート型PC(Personal Computer)、または、カメラが接続されたノート型PCでもよい。情報処理装置1は、表示システムの一例である。情報処理装置1は、現実空間RSに位置する。
現実空間RSは、情報処理装置1に加えて、プロジェクター2と、壁E1と、天井E2と、床E3と、を含む。プロジェクター2の現実空間RSにおける位置は、図1に示される位置に限らず適宜変更可能である。
壁E1は、鉛直面である。壁E1は、鉛直面に限らず、水平面と交差する面であればよい。壁E1は、建物の内壁である。壁E1は、建物の内壁に限らず、例えば、建物の外壁でもよい。壁E1の少なくとも一部は、面の一例である。面は、壁E1の少なくとも一部に限らず、例えば、天井E2の少なくとも一部、床E3の少なくとも一部、スクリーン、ホワイトボードまたは扉でもよい。面は、対象領域TRに含まれる。
対象領域TRは、現実空間RSに含まれる。対象領域TRの現実空間RSにおける位置は、図1に示される位置に限らず適宜変更可能である。
プロジェクター2は、光を用いて投写画像F1を壁E1に投写する。情報処理装置1は、投写画像F1の見え方に関する第1合成画像Y1を表示する。第1合成画像Y1は、第1シミュレーション画像の一例である。
情報処理装置1は、前面1aと、背面1bと、カメラ11と、タッチパネル12と、を含む。図2は、情報処理装置1の前面1aを示す図である。図3は、情報処理装置1の背面1bを示す図である。
カメラ11は、情報処理装置1の背面1bに位置する。カメラ11は、撮像領域を撮像する。カメラ11の撮像領域は、情報処理装置1の移動に応じて移動する。
カメラ11の撮像領域は、対象領域TRとして用いられる。このため、対象領域TRは、情報処理装置1の移動に応じて移動する。カメラ11は、プロジェクター2が投写画像F1を投写していない状況で対象領域TRを撮像することによって、対象領域TRを示す対象画像H1を生成する。対象領域TRを示す対象画像H1とは、対象領域TRに存在する物体を示す画像を意味する。
図4は、対象画像H1の一例を示す図である。対象画像H1は、壁E1と、天井E2と、床E3とを示す。
図2に示されるように、タッチパネル12は、情報処理装置1の前面1aに位置する。タッチパネル12は、ディスプレイの一例である。タッチパネル12は、第1合成画像Y1を表示する。
第1合成画像Y1は、タッチパネル12に収まる大きさのサンプル画像J1を、対象画像H1に重畳させた画像である。サンプル画像J1は、例えば、投写画像F1を示す。サンプル画像J1は、投写画像F1とは異なる画像、例えば、投写画像F1の色を単色に変更することによって得られる画像でもよい。サンプル画像J1は、予め設定された透過率を有する。サンプル画像J1の透過率は、変更可能でもよい。
第1合成画像Y1は、プロジェクター画像L1を含む。プロジェクター画像L1は、プロジェクターを示す画像である。プロジェクター画像L1によって示されるプロジェクターの形状は、プロジェクター2の形状と同一である。プロジェクター画像L1によって示されるプロジェクターの形状は、プロジェクター2の形状と異なってもよい。プロジェクター画像L1は、予め設定された透過率を有する。プロジェクター画像L1の透過率は、変更可能でもよい。
第1合成画像Y1は、経路画像L2をさらに含む。経路画像L2は、プロジェクター2が投写画像F1を投写する際に用いる光の経路を示す画像である。経路画像L2は、仮想プロジェクターC4が画像を投写する際に仮想的に用いる光の経路を示す画像でもある。仮想プロジェクターC4は、プロジェクター2に対応する仮想のプロジェクターである。経路画像L2は、予め設定された透過率を有する。経路画像L2の透過率は、変更可能でもよい。
第1合成画像Y1は、プロジェクター画像L1と経路画像L2とのうち、少なくとも一方を含まなくてもよい。
A2:情報処理装置1の一例
図5は、情報処理装置1の一例を示す図である。情報処理装置1は、カメラ11と、タッチパネル12と、動きセンサー13と、記憶装置14と、処理装置15と、を含む。
図5は、情報処理装置1の一例を示す図である。情報処理装置1は、カメラ11と、タッチパネル12と、動きセンサー13と、記憶装置14と、処理装置15と、を含む。
カメラ11は、撮像レンズ111と、イメージセンサー112と、を含む。
撮像レンズ111は、光学像をイメージセンサー112に結像する。撮像レンズ111は、対象領域TRを表す対象画像H1をイメージセンサー112に結像する。
イメージセンサー112は、CCD(Charge Coupled Device)イメージセンサーである。イメージセンサー112は、CCDイメージセンサーに限らず、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサーでもよい。イメージセンサー112は、イメージセンサー112に結像される光学像に基づいて、撮像データkを生成する。例えば、イメージセンサー112は、撮像レンズ111によって結像される対象画像H1に基づいて、対象画像H1を示す撮像データktを生成する。撮像データktは、撮像データkの一例である。
タッチパネル12は、ディスプレイ121と、入力装置122と、を含む。ディスプレイ121は、種々の画像を表示する。入力装置122は、種々の指示等を受け取る。
動きセンサー13は、加速度センサーと、ジャイロセンサーと、を含む。動きセンサー13は、情報処理装置1の動きを検出する。例えば、動きセンサー13は、ユーザーによって動かされる情報処理装置1の動きを検出する。情報処理装置1の動きは、少なくとも、情報処理装置1の移動距離と、情報処理装置1の回転量と、情報処理装置1の向きと、によって表される。動きセンサー13は、情報処理装置1の動きを示す動きデータmを生成する。
記憶装置14は、処理装置15が読み取り可能な記録媒体である。記憶装置14は、例えば、不揮発性メモリーと、揮発性メモリーと、を含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。記憶装置14は、プログラムP1と、種々のデータと、を記憶する。プログラムP1は、例えば、アプリケーションプログラムである。プログラムP1は、不図示のサーバーから情報処理装置1に提供される。プログラムP1は記憶装置14に予め記憶されてもよい。
処理装置15は、1または複数のCPU(Central Processing Unit)によって構成される。1または複数のCPUは、1または複数のプロセッサーの一例である。プロセッサーは、処理部の一例である。CPUおよびプロセッサーの各々は、コンピューターの一例である。
処理装置15は、記憶装置14からプログラムP1を読み取る。処理装置15は、プログラムP1を実行することによって、取得部151、認識部152および動作制御部153として機能する。
処理装置15は、プログラムP1を実行することによって、取得部151および動作制御部153として機能し、プログラムP1とは異なるプログラムを実行することによって認識部152として機能してもよい。この場合、プログラムP1とは異なるプログラムは記憶装置14に記憶され、処理装置15は、プログラムP1とは異なるプログラムを記憶装置14から読み取る。
取得部151、認識部152および動作制御部153の各々は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって実現されてもよい。
取得部151は、対象領域TRを示す対象画像H1を取得する。例えば、取得部151は、対象画像H1を示す撮像データktをカメラ11から取得することによって、対象画像H1を取得する。また、取得部151は、動きセンサー13から、情報処理装置1の動きを示す動きデータmを取得する。
認識部152は、取得部151から、撮像データktと動きデータmとを取得する。認識部152は、撮像データktと動きデータmとに基づいて、対象領域TRに存在する物体について、3次元計測を実行する。認識部152は、動きデータmに基づいて、カメラ11の現実空間RSにおける位置を決定する。認識部152は、カメラ11の現実空間RSにおける位置と、撮像データktと、を用いることによって3次元計測を実行する。
認識部152は、カメラ11が壁E1を撮像しながら情報処理装置1が第1ポイントから第2ポイントに移動される状況においては、以下のように3次元計測を実行する。
認識部152は、取得部151から、動きデータmsを取得する。動きデータmsは、カメラ11が壁E1を撮像しながら情報処理装置1が第1ポイントから第2ポイントに移動される状況において動きセンサー13が生成する動きデータmである。認識部152は、動きデータmsに基づいて、第1ポイントから第2ポイントまでの距離を、基線長として決定する。基線長は、ベースラインの長さとも称される。
認識部152は、取得部151から、第1撮像データk1と、第2撮像データk2と、を取得する。第1撮像データk1は、情報処理装置1が第1ポイントに位置するときにカメラ11が生成した撮像データktである。第2撮像データk2は、情報処理装置1が第2ポイントに位置するときにカメラ11が生成した撮像データktである。第1撮像データk1と第2撮像データk2との各々は、少なくとも壁E1を示す。
認識部152は、基線長と第1撮像データk1と第2撮像データk2とを用いる三角測量を実行することによって、3次元計測を実行する。
3次元計測の結果は、対象領域TRに存在する物体の形状を、3次元の座標を用いて表現する。認識部152は、3次元計測の結果に基づいて、壁E1を認識する。例えば、認識部152は、3次元計測の結果に基づいて、鉛直面を壁E1として認識する。認識部152は、3次元計測の結果に基づいて、情報処理装置1から壁E1までの距離nを決定する。
動作制御部153は、情報処理装置1の動作を制御する。動作制御部153は、画像を示す画像データrをタッチパネル12に提供することによって、タッチパネル12に、画像データrが示す画像を表示させる。
動作制御部153は、タッチパネル12に第1合成画像Y1を表示させる。動作制御部153は、3次元計測の結果と、撮像データktと、情報処理装置1の動きを示す動きデータmと、仮想プロジェクターC4の仕様と、に基づいて、第1画像データr1を生成する。第1画像データr1は、第1合成画像Y1を示す。第1画像データr1は、画像データrの一例である。
動作制御部153は、対象画像H1に、サンプル画像J1と、プロジェクター画像L1と、経路画像L2と、を重畳した画像を、第1合成画像Y1として決定する。
動作制御部153は、3次元の仮想空間VSを用いて、サンプル画像J1等を決定する。図6は、仮想空間VSの一例を示す図である。
動作制御部153は、仮想空間VSを用いることによって、現実空間RSにおける物体の配置を再現する。
動作制御部153は、壁E1についての3次元計測の結果を用いることによって、仮想空間VSに第1位置C1を設定する。仮想空間VSにおける第1位置C1は、壁E1の現実空間RSにおける位置に対応する。
動作制御部153は、壁E1についての3次元計測の結果に基づいて、仮想面C3の形状を決定する。仮想面C3の形状は、壁E1についての3次元計測の結果が示す形状と同一である。仮想面C3は、壁E1に対応する面である。動作制御部153は、第1位置C1に仮想面C3を配置する。
動作制御部153は、カメラ11の現実空間RSにおける位置に基づいて、仮想空間VSに第2位置C2を設定する。仮想空間VSにおける第2位置C2は、カメラ11の現実空間RSにおける位置に対応する。カメラ11は、タッチパネル12と共に情報処理装置1に位置する。このため、仮想空間VSにおける第2位置C2は、カメラ11の現実空間RSにおける位置に対応すると共に、タッチパネル12の現実空間RSにおける位置に対応する。
動作制御部153は、第2位置C2に仮想プロジェクターC4を配置する。このため、仮想空間VSにおいて、第2位置C2に対する仮想プロジェクターC4の相対位置が固定される。仮想空間VSにおいて、第2位置C2に対する仮想プロジェクターC4の相対位置が固定される状態は、第2位置C2に仮想プロジェクターC4が位置する状態に限らない。例えば、仮想空間VSにおいて、第2位置C2とは異なる位置に仮想プロジェクターC4が位置する状態で、第2位置C2に対する仮想プロジェクターC4の相対位置が固定されてもよい。
第2位置C2は、タッチパネル12の現実空間RSにおける位置の変化に応じて変わる。このため、仮想空間VSにおいて第2位置C2に対する仮想プロジェクターC4の相対位置が固定される状況では、タッチパネル12の現実空間RSにおける位置が変わると、仮想空間VSにおいて仮想プロジェクターC4の位置が変わる。
仮想プロジェクターC4は、プロジェクター2に対応する仮想のプロジェクターである。仮想プロジェクターC4の仕様は、プロジェクター2の仕様と同様である。プロジェクター2の仕様は、プログラムP1に記載されている。このため、動作制御部153は、プロジェクター2の仕様と、仮想プロジェクターC4の仕様と、を予め認識している。なお、プロジェクター2の仕様は、プロジェクター2の画角を含む。
動作制御部153は、仮想面C3に対する仮想プロジェクターC4の投写レンズの光軸向きを、壁E1に対する撮像レンズ111の光軸の向きに一致させる。なお、動作制御部153は、壁E1の認識結果と、情報処理装置1の動きを示す動きデータmと、に基づいて、壁E1に対する撮像レンズ111の光軸の向きを決定する。
動作制御部153は、仮想面C3に画像v21を配置する。画像v21は、長方形の第1画像を仮想プロジェクターC4が仮想面C3に投写する状況において仮想面C3に表示される画像である。長方形の第1画像は、例えば、長方形の単色の画像である。長方形の第1画像は、長方形の単色の画像に限らない。長方形の第1画像は、長方形の画像であればよい。仮想プロジェクターC4の投写レンズの光軸が仮想面C3の法線に対して傾いている場合、画像v21は台形歪を有する。台形歪については後述する。このため、画像v21は、長方形の第1画像と一致しない可能性を有する。しかしながら、画像v21は、長方形の第1画像に基づく画像である。
仮想面C3に表示される画像v21を第2位置C2から見た画像を「スクリーン画像v2」と称する。スクリーン画像v2は、第1表示画像と第2表示画像との各々の一例である。
第1表示画像は、仮想空間VSにおいて仮想プロジェクターC4から第1位置C1に位置する仮想面C3に画像が投写される状況で仮想面C3に表示される画像を、第2位置C2から見た画像である。
第2表示画像は、仮想空間VSにおいて第2位置C2に対する相対位置が固定された仮想プロジェクターC4から第1位置C1に位置する仮想面C3に画像が投写される状況で仮想面C3に表示される画像を、第2位置C2から見た画像である。
画像v21は、不図示の画像J1aが表示される領域を示す画像である。画像v21は、画像J1aのスクリーンとして機能する。
画像J1aは、長方形の第2画像を仮想プロジェクターC4が仮想面C3に投写する状況において仮想面C3に表示される画像である。長方形の第2画像は、例えば、ユーザーによって選択された長方形の画像である。長方形の第2画像は、ユーザーによって選択された長方形の画像に限らない。長方形の第2画像は、長方形の画像であればよい。仮想プロジェクターC4の投写レンズの光軸が仮想面C3の法線に対して傾いている場合、画像J1aは台形歪を有する。このため、画像J1aは、長方形の第2画像と一致しない可能性を有する。しかしながら、画像J1aは、長方形の第2画像に基づく画像である。
サンプル画像J1は、仮想面C3に表示される画像J1aを第2位置C2から見た画像である。サンプル画像J1は、第1表示画像と第2表示画像との各々の一例である。
仮想面C3における画像v21の位置は、ユーザーからの位置固定指示に応じて固定される。ユーザーから位置固定指示を得るまでの間、動作制御部153は、仮想面C3における画像v21の位置を、仮想面C3と、仮想プロジェクターC4の投写レンズの光軸と、の交点の位置に基づいて決定する。例えば、動作制御部153は、仮想面C3における画像v21の中心の位置を、仮想面C3と仮想プロジェクターC4の投写レンズの光軸との交点の位置に合わせる。画像v21の中心の位置は、例えば、画像v21における対角線の交点の位置である。
動作制御部153は、スクリーン画像v2をタッチパネル12に表示させる場合、タッチパネル12の現実空間RSにおける位置に関わらず、第2合成画像Y2をタッチパネル12に表示させる。
図7は、第2合成画像Y2の一例を示す図である。第2合成画像Y2は、第1シミュレーション画像の一例である。第2合成画像Y2は、タッチパネル12に収まる大きさのスクリーン画像v2を対象画像H1に重畳させた画像である。
タッチパネル12に収まる大きさのスクリーン画像v2のサイズは、サイズa1以下である。サイズa1は、仮想面C3に表示される画像v21を第2位置C2から見た画像のサイズである。
図8は、サイズa1の一例を説明するための図である。図8では、スクリーン画像v2のサイズおよび形状は、画像v21のサイズおよび形状と同一である。図8は、サイズa1と、仮想プロジェクターC4と、仮想プロジェクターC4の画角C4aと、スクリーン画像v2と、仮想面C3と、仮想カメラC5と、仮想カメラC5の画角C5aと、対象画像H1と、タッチパネル12と、の一例を示す。
仮想カメラC5は、カメラ11に対応する仮想のカメラである。仮想カメラC5の仕様は、カメラ11の仕様と同様である。カメラ11の仕様は、カメラ11の画角を含む。このため、仮想カメラC5の画角C5aは、カメラ11の画角と等しい。カメラ11の仕様は、プログラムP1に記載されている。このため、動作制御部153は、カメラ11の仕様と、仮想カメラC5の仕様と、を予め認識している。
仮想カメラC5は、仮想プロジェクターC4と同様に、第2位置C2に位置する。仮想カメラC5の光軸C5bの位置は、仮想プロジェクターC4の光軸C4bの位置と一致する。仮想プロジェクターC4の画角C4aは、プロジェクター2の画角と等しい。このため、仮想カメラC5の画角C5aと仮想プロジェクターC4の画角C4aとの関係は、カメラ11の画角とプロジェクター2の画角との関係と等しい。
画像v21のサイズ、および、スクリーン画像v2のサイズa1は、仮想プロジェクターC4の画角C4aに依存する。対象画像H1のサイズは、カメラ11の画角に依存する。カメラ11の画角は、仮想カメラC5の画角C5aと等しい。このため、対象画像H1のサイズは、仮想カメラC5の画角C5aに依存する。対象画像H1のサイズは、タッチパネル12に収まるサイズに設定されている。
仮想プロジェクターC4の画角C4aが仮想カメラC5の画角C5aよりも大きい状況でスクリーン画像v2が対象画像H1に重畳される場合、スクリーン画像v2は、対象画像H1に収まらない。スクリーン画像v2が対象画像H1に収まらない場合、スクリーン画像v2のうち、対象画像H1に重畳されない部分は、タッチパネル12に表示されない可能性がある。例えば図8に示すように、対象画像H1の水平方向の長さがタッチパネル12の水平方向の長さと一致する状況においてスクリーン画像v2が対象画像H1に収まらない場合、スクリーン画像v2のうち、対象画像H1に重畳されない部分は、タッチパネル12に表示されない。ユーザーは、スクリーン画像v2の全体を表示しないタッチパネル12を見ても、実際に投写される投写画像F1を想像しにくい。
そこで、動作制御部153は、スクリーン画像v2をタッチパネル12に表示させる場合、タッチパネル12の位置に関わらず、第2合成画像Y2をタッチパネル12に表示させる。第2合成画像Y2は、図7に示されるように、タッチパネル12に収まる大きさのスクリーン画像v2を対象画像H1に重畳させた画像である。
動作制御部153は、図9に示すように、仮想面C3と仮想プロジェクターC4との距離Dpを調節することによって、スクリーン画像v2の大きさを、タッチパネル12に収まる大きさに調節する。
例えば、動作制御部153は、タッチパネル12と壁E1との距離に基づいて仮想面C3と仮想プロジェクターC4との距離Dpを調節することによって、スクリーン画像v2の大きさを、タッチパネル12に収まる大きさに調節する。なお、タッチパネル12は情報処理装置1に位置するため、動作制御部153は、タッチパネル12と壁E1との距離として、情報処理装置1から壁E1までの距離nを用いる。
一例を挙げると、動作制御部153は、タッチパネル12と壁E1との距離と、仮想プロジェクターC4の画角C4aと、に基づいて仮想面C3と仮想プロジェクターC4との距離を調節することによって、スクリーン画像v2の大きさを、タッチパネル12に収まる大きさに調節する。図9は、これらの方法によって仮想プロジェクターC4を仮想面C3に近づけることでスクリーン画像v2の大きさを調節した例である。詳細については図12、13を参照して後述する。
動作制御部153は、第2合成画像Y2を示す第2画像データr2をタッチパネル12に提供することによって、第2合成画像Y2をタッチパネル12に表示させる。
また、動作制御部153は、例えばユーザーの指示に応じて、スクリーン画像v2をサンプル画像J1に変更する。
動作制御部153は、サンプル画像J1をタッチパネル12に表示させる場合、タッチパネル12の位置に関わらず、第1合成画像Y1をタッチパネル12に表示させる。第1合成画像Y1は、タッチパネル12に収まる大きさのサンプル画像J1を対象画像H1に重畳させた画像である。例えば、動作制御部153は、スクリーン画像v2のサイズを調節する手法と同様の手法で、サンプル画像J1の大きさを、タッチパネル12に収まる大きさに調節する。
動作制御部153は、第1合成画像Y1を示す第1画像データr1をタッチパネル12に提供することによって、第1合成画像Y1をタッチパネル12に表示させる。
A3:壁E1の認識
図10は、壁E1を認識する動作を説明するためのフローチャートである。
図10は、壁E1を認識する動作を説明するためのフローチャートである。
タッチパネル12がユーザーから起動指示を受けると、ステップS101において処理装置15は、アプリケーションプログラムであるプログラムP1の実行を開始する。
続いて、ステップS102において動作制御部153は、カメラ11に対象領域TRの撮像を開始させる。カメラ11は、対象領域TRを撮像することによって、撮像データktを生成する。
続いて、ステップS103において動作制御部153は、動きセンサー13を動作させる。動きセンサー13は、情報処理装置1の動きを示す動きデータmを生成する。
続いて、ステップS104において取得部151は、撮像データktと動きデータmとの取得を開始する。
続いて、ステップS105において動作制御部153は、認識部152に壁E1を認識させる。
ステップS105では、認識部152は、スキャン状況において取得部151が取得した撮像データktおよび動きデータmに基づいて、対象領域TRに存在する物体について、3次元計測を実行する。
スキャン状況は、カメラ11が壁E1を撮像しながら情報処理装置1が第1ポイントから第2ポイントに移動される状況を意味する。第1ポイントは、例えば、スキャン状況の開始時点における情報処理装置1の位置である。第2ポイントは、例えば、スキャン状況の終了時点における情報処理装置1の位置である。スキャン状況において取得部151が取得した撮像データktは、第1撮像データk1と第2撮像データk2である。第1撮像データk1は、情報処理装置1が第1ポイントに位置するときにカメラ11が生成した撮像データktである。第2撮像データk2は、情報処理装置1が第2ポイントに位置するときにカメラ11が生成した撮像データktである。スキャン状況において取得部151が取得した動きデータmは、動きデータmsである。動きデータmsは、カメラ11が壁E1を撮像しながら情報処理装置1が第1ポイントから第2ポイントに移動される状況において動きセンサー13が生成する動きデータmである。
認識部152は、動きデータmsに基づいて、第1ポイントから第2ポイントまでの距離を、基線長として決定する。認識部152は、基線長と第1撮像データk1と第2撮像データk2とを用いる三角測量を実行することによって、3次元計測を実行する。
続いて、認識部152は、3次元計測の結果に基づいて、壁E1を認識する。例えば、認識部152は、3次元計測の結果に基づいて、鉛直面を壁E1として認識する。
A4:第1合成画像Y1と第2合成画像Y2との表示
図11は、第1合成画像Y1と第2合成画像Y2とを表示する動作を説明するためのフローチャートである。図11に示される動作は、壁E1が認識された状況において実行される。
図11は、第1合成画像Y1と第2合成画像Y2とを表示する動作を説明するためのフローチャートである。図11に示される動作は、壁E1が認識された状況において実行される。
ステップS201において動作制御部153は、認識部152に、情報処理装置1から壁E1までの距離nを決定させる。
ステップS201では認識部152は、まず、取得部151から、情報処理装置1の動きを示す動きデータmを取得する。続いて、認識部152は、動きデータmに基づいて、情報処理装置1の現実空間RSにおける位置、すなわち、カメラ11の現実空間RSにおける位置を決定する。続いて、認識部152は、3次元計測の結果と、カメラ11の位置と、に基づいて、情報処理装置1から壁E1までの距離nを決定する。例えば、認識部152は、カメラ11から壁E1までの距離を、情報処理装置1から壁E1までの距離nとして決定する。
続いて、ステップS202において動作制御部153は、仮想空間VSを生成する。
続いて、ステップS203において動作制御部153は、仮想空間VSに、第1位置C1と第2位置C2とを設定する。
ステップS203では動作制御部153は、まず、壁E1についての3次元計測の結果を用いることによって、仮想空間VSに第1位置C1を設定する。仮想空間VSにおける第1位置C1は、壁E1の現実空間RSにおける位置に対応する。続いて、動作制御部153は、カメラ11の現実空間RSにおける位置に基づいて、仮想空間VSに第2位置C2を設定する。仮想空間VSにおける第2位置C2は、カメラ11の現実空間RSにおける位置に対応する。
続いて、ステップS204において動作制御部153は、仮想空間VSに仮想面C3を配置する。
ステップS204では動作制御部153は、まず、壁E1についての3次元計測の結果に基づいて、仮想面C3の形状を壁E1の形状に一致させる。続いて、動作制御部153は、第1位置C1に仮想面C3を配置する。
続いて、ステップS205において動作制御部153は、第2位置C2に仮想プロジェクターC4を配置する。
ステップS205では動作制御部153は、仮想プロジェクターC4を第2位置C2に配置することによって、第2位置C2に対する仮想プロジェクターC4の相対位置を固定する。続いて、動作制御部153は、壁E1の認識結果と、情報処理装置1の動きを示す動きデータmと、に基づいて、壁E1に対する撮像レンズ111の光軸の向きを決定する。続いて、動作制御部153は、仮想面C3に対する仮想プロジェクターC4の投写レンズの光軸の向きを、壁E1に対する撮像レンズ111の光軸の向きに一致させる。
続いて、ステップS206において動作制御部153は、仮想面C3に画像v21を配置する。
ステップS206では動作制御部153は、仮想面C3における画像v21の中心の位置を、仮想面C3と、仮想プロジェクターC4の投写レンズの光軸と、の交点の位置に合わせる。なお、画像v21の中心の位置は、仮想面C3と仮想プロジェクターC4の投写レンズの光軸との交点の位置に限らず、当該交点の位置に基づく位置であればよい。続いて、動作制御部153は、プロジェクター2の画角に基づいて、情報処理装置1から壁E1までの距離nと、画像v21のサイズと、の対応関係を決定する。動作制御部153は、距離nと画像v21のサイズとの対応関係と、認識部152による距離nの決定結果と、に基づいて、画像v21のサイズを決定する。例えば、動作制御部153は、距離nの増加に応じて、画像v21のサイズを大きくする。続いて、動作制御部153は、仮想空間VSに、仮想プロジェクターC4から画像v21へ向かう投写光の経路を設定する。
続いて、ステップS207において動作制御部153は、第2位置C2に仮想カメラC5を配置する。
ステップS207では動作制御部153は、仮想カメラC5を第2位置C2に配置することによって、第2位置C2に対する仮想カメラC5の相対位置を固定する。続いて、動作制御部153は、仮想面C3に対する仮想カメラC5の撮像レンズの光軸の向きを、壁E1に対する撮像レンズ111の光軸の向きに一致させる。
続いて、ステップS208において動作制御部153は、仮想プロジェクターC4の画角C4aが、仮想カメラC5の画角C5a以上であるか否かを判断する。
仮想プロジェクターC4の画角C4aが仮想カメラC5の画角C5a以上であると動作制御部153が判断する場合、ステップS209において動作制御部153は、画像v21の大きさを調節する。仮想プロジェクターC4の画角C4aが仮想カメラC5の画角C5a未満であると動作制御部153が判断する場合、ステップS209は、スキップされる。
ステップS209では動作制御部153は、タッチパネル12と壁E1との距離に基づいて仮想面C3と仮想プロジェクターC4との距離を調節することによって、画像v21の大きさを、タッチパネル12に収まる大きさに調節する。例えば、動作制御部153は、以下に示す式1および式2を用いることによって、タッチパネル12と壁E1との距離に基づいて仮想面C3と仮想プロジェクターC4との距離を調節する。具体的には、動作制御部153は、仮想プロジェクターC4を仮想面C3に近づけることによって、画像v21の大きさを調節する。
図12は、仮想プロジェクターC4を仮想面C3に近づける前の状況を示す図である。図12に示される状況では、仮想プロジェクターC4から仮想面C3までの距離Dpは、仮想カメラC5から仮想面C3までの距離n2と等しい。なお、動作制御部153は、仮想カメラC5から仮想面C3までの距離n2として、情報処理装置1から壁E1までの距離nを用いる。情報処理装置1がタッチパネル12を含むため、情報処理装置1から壁E1までの距離nは、タッチパネル12と壁E1との距離を意味する。このため、仮想カメラC5から仮想面C3までの距離n2は、タッチパネル12と壁E1との距離を意味する。
仮想カメラC5から仮想面C3までの距離n2が、情報処理装置1から壁E1までの距離nである場合、対象画像H1の幅H1wは、式1によって表される。
H1w=tan(C5a/2)*n2*2 ・・・式1
H1w=tan(C5a/2)*n2*2 ・・・式1
仮想プロジェクターC4の画角C4aが仮想カメラC5の画角C5a以上である状況において、仮想プロジェクターC4から仮想面C3までの距離Dpが、仮想カメラC5から仮想面C3までの距離n2と等しい場合、スクリーン画像v2の幅v2wは、対象画像H1の幅H1w以上となる。
図13は、仮想プロジェクターC4を仮想面C3に近づけた後の状況を示す図である。図13に示される状況では、仮想プロジェクターC4から仮想面C3までの距離Dpは距離n11に設定される。距離n11は、仮想カメラC5から仮想面C3までの距離n2よりも小さい。
動作制御部153は、スクリーン画像v2の幅v2w1が対象画像H1の幅H1wよりも小さくなるように、仮想プロジェクターC4から仮想面C3までの距離Dpを距離n11に設定する。スクリーン画像v2の幅v2w1が、対象画像H1の幅H1wよりも小さい場合、図13に示されるように、スクリーン画像v2の端と、タッチパネル12の端と、の間に間隙が生じる。このため、スクリーン画像v2の端がユーザーに認識されやすくなる。よって、ユーザーは、スクリーン画像v2のサイズを容易に認識できる。
動作制御部153は、式2を用いることによって、距離n11を決定する。
n11=H1w*α*b ・・・式2
α=(Dp)/(v2wa)、b=0.98である。
Dpは、仮想プロジェクターC4から仮想面C3までの距離である。
v2waは、仮想プロジェクターC4から仮想面C3までの距離が距離Dpであるときのスクリーン画像v2の幅である。
αは、仮想プロジェクターC4の画角C4aによって一意に決まる。すなわち、αは、プロジェクター2の仕様に依存する固定の値である。
bは、スクリーン画像v2の幅を対象画像H1の幅H1wよりも小さくするための係数である。
n11=H1w*α*b ・・・式2
α=(Dp)/(v2wa)、b=0.98である。
Dpは、仮想プロジェクターC4から仮想面C3までの距離である。
v2waは、仮想プロジェクターC4から仮想面C3までの距離が距離Dpであるときのスクリーン画像v2の幅である。
αは、仮想プロジェクターC4の画角C4aによって一意に決まる。すなわち、αは、プロジェクター2の仕様に依存する固定の値である。
bは、スクリーン画像v2の幅を対象画像H1の幅H1wよりも小さくするための係数である。
bは、0.98に限らず、0<b<1の関係を満たす値であればよい。例えば、bの値は0.9でもよい。
スクリーン画像v2の幅は、仮想プロジェクターC4の投写レンズの光軸と、仮想面C3の法線と、のなす角度の増加に応じて増加する。仮想プロジェクターC4の投写レンズの光軸と、仮想面C3の法線と、のなす角度が0度である場合、動作制御部153は、bの値として0.98を用いてもよい。動作制御部153は、仮想プロジェクターC4の投写レンズの光軸と、仮想面C3の法線と、のなす角度の増加に応じて、0<b<1の関係を満たす範囲で、bの値を減少してもよい。この場合、仮想プロジェクターC4の投写レンズの光軸と、仮想面C3の法線と、のなす角度が増加しても、スクリーン画像v2を、タッチパネル12に収めることが可能になる。
動作制御部153は、仮想プロジェクターC4の投写レンズの光軸に沿って仮想プロジェクターC4を仮想面C3に近づけることによって、距離Dpを距離n11に設定する。動作制御部153は、距離Dpを距離n11に設定することによって、スクリーン画像v2の幅を、対象画像H1の幅H1wよりも小さくする。
説明を図11に戻す。続いて、ステップS210において動作制御部153は、第2合成画像Y2を決定する。
ステップS210では動作制御部153は、まず、仮想空間VSに、画像v21と、仮想プロジェクターC4と、仮想プロジェクターC4から画像v21へ向かう投写光の経路と、仮想カメラC5と、を残しつつ、仮想空間VSから仮想面C3を削除する。
続いて、動作制御部153は、仮想カメラC5が撮像を実行したときに得られる画像を、第1仮想画像として決定する。
第1仮想画像は、透過性を有する。第1仮想画像は、仮想面C3における画像v21を第2位置C2から見た画像を含む。第1仮想画像において、仮想面C3における画像v21を第2位置C2から見た画像が、スクリーン画像v2の一例となる。
第1仮想画像は、さらに、仮想プロジェクターC4を示す画像を含む。第1仮想画像において、仮想プロジェクターC4を示す画像が、プロジェクター画像L1の一例となる。なお、仮想カメラC5と仮想プロジェクターC4は、共に、第2位置C2に位置する。このため、例えば、仮想カメラC5が仮想プロジェクターC4よりも大きい場合には、仮想プロジェクターC4は、仮想カメラC5の内部に位置する可能性がある。この場合、仮想カメラC5が撮像を実行したときに得られる第1仮想画像には、仮想プロジェクターC4を示す画像が含まれない。第1仮想画像が、仮想プロジェクターC4を示す画像を含まない場合、動作制御部153は、第1仮想画像にプロジェクター画像L1を追加する。プロジェクター画像L1が第1仮想画像に追加される位置は、例えば、第1仮想画像における下部である。
第1仮想画像は、さらに、仮想プロジェクターC4からスクリーン画像v2へ向かう投写光の経路を示す画像を含む。第1仮想画像において、仮想プロジェクターC4からスクリーン画像v2へ向かう投写光の経路を示す画像が、経路画像L2の一例となる。
続いて、動作制御部153は、第1仮想画像を対象画像H1に重畳することによって、第2合成画像Y2を決定する。
続いて、ステップS211において動作制御部153は、第2合成画像Y2を示す第2画像データr2を生成する。
続いて、ステップS212において動作制御部153は、タッチパネル12に第2画像データr2を提供することによって、タッチパネル12に第2合成画像Y2を表示させる。
続いて、ステップS213において動作制御部153は、画像J1aを決定する。ステップS213では動作制御部153は、例えば、ユーザーに指示に応じて、画像J1aを決定する。画像J1aの形状は、画像v21の形状と同一である。
続いて、ステップS214において動作制御部153は、画像v21を画像J1aに変更する。
続いて、ステップS215において動作制御部153は、第1合成画像Y1を決定する。
ステップS215では動作制御部153は、仮想カメラC5が撮像を実行したときに得られる画像を、第2仮想画像として決定する。
第2仮想画像は、透過性を有する。第2仮想画像は、仮想面C3における画像J1aを第2位置C2から見た画像を含む。仮想面C3における画像J1aを第2位置C2から見た画像は、サンプル画像J1である。
第2仮想画像は、さらに、仮想プロジェクターC4を示す画像を含む。第2仮想画像において、仮想プロジェクターC4を示す画像が、プロジェクター画像L1の一例となる。なお、例えば、仮想カメラC5が仮想プロジェクターC4よりも大きいために、第2仮想画像が、仮想プロジェクターC4を示す画像を含まない場合、動作制御部153は、第2仮想画像にプロジェクター画像L1を追加する。プロジェクター画像L1が第2仮想画像に追加される位置は、例えば、第2仮想画像における下部である。
第2仮想画像は、さらに、仮想プロジェクターC4から画像J1aへ向かう投写光の経路を示す画像を含む。第2仮想画像において、仮想プロジェクターC4から画像J1aへ向かう投写光の経路を示す画像が、経路画像L2の一例となる。
続いて、動作制御部153は、第2仮想画像を対象画像H1に重畳することによって、第1合成画像Y1を決定する。
続いて、ステップS216において動作制御部153は、第1合成画像Y1を示す第1画像データr1を生成する。
続いて、ステップS217において動作制御部153は、タッチパネル12に第1画像データr1を提供することによって、タッチパネル12に第1合成画像Y1を表示させる。
A5:動作の一例
次に、上述の動作の一例を説明する。なお、上述の動作が実行される際に、プロジェクター2は、壁E1を有する建物に存在してもよいし、壁E1を有する建物に存在しなくてもよい。ステップS101では、処理装置15はプログラムP1の実行を開始する。ステップS101は、タッチパネル12がユーザーから起動指示を受けると実行される。起動指示は、例えば、タッチパネル12に表示されるプログラムP1のアイコンiへのタップである。図14は、タッチパネル12に表示されるアイコンiの一例を示す図である。
次に、上述の動作の一例を説明する。なお、上述の動作が実行される際に、プロジェクター2は、壁E1を有する建物に存在してもよいし、壁E1を有する建物に存在しなくてもよい。ステップS101では、処理装置15はプログラムP1の実行を開始する。ステップS101は、タッチパネル12がユーザーから起動指示を受けると実行される。起動指示は、例えば、タッチパネル12に表示されるプログラムP1のアイコンiへのタップである。図14は、タッチパネル12に表示されるアイコンiの一例を示す図である。
アイコンiがタップされると、処理装置15は、記憶装置14からプログラムP1を読み取る。続いて、処理装置15は、プログラムP1を実行する。
処理装置15は、プログラムP1を実行するまで、タッチパネル12にスプラッシュ画面を表示させる。処理装置15がプログラムP1を実行すると、動作制御部153は、タッチパネル12に、第1ガイド画像t1を表示させる。
図15は、第1ガイド画像t1の一例を示す図である。第1ガイド画像t1は、プログラムP1を実行することによって実現される情報処理装置1の機能の概要を示す。
例えば、図15に示される第1ガイド画像t1は、「ARで自分の部屋にプロジェクターを設置してみるよ」というコメントを発するプロジェクターd1を示す。ARは、Augmented Reality、すなわち、拡張現実を意味する。
第1ガイド画像t1が示すコメントは、「ARで自分の部屋にプロジェクターを設置してみるよ」というコメントに限らず適宜変更可能である。第1ガイド画像t1は、プロジェクターd1を示さなくてもよい。第1ガイド画像t1は、プロジェクターd1の代わりに、プロジェクターd1とは異なる物体、例えば動物を示してもよい。
続いて、ステップS102においてカメラ11は、対象領域TRを撮像することによって撮像データktを生成する。続いて、ステップS103において動きセンサー13は、動きデータmを生成する。続いて、ステップS104において取得部151が、撮像データktと動きデータmとを取得する。
ステップS104の完了後、動作制御部153は、取得部151から撮像データktを取得してもよい。この場合、動作制御部153は、撮像データktを画像データrとしてタッチパネル12に提供することによって、タッチパネル12に対象画像H1を表示させる。図16は、対象画像H1を表示する情報処理装置1の一例を示す図である。
続いて、ステップS105において動作制御部153は、認識部152に壁E1を認識させる。
ステップS105では、動作制御部153は、まず、画像u1をタッチパネル12に表示させる。
図17は、画像u1の一例を示す図である。画像u1は、第2ガイド画像t2を対象画像H1に重畳させた画像である。第2ガイド画像t2は、「はじめまして プロジェクターを使ってみよう!」というコメントを発するプロジェクターd1を示す。
第2ガイド画像t2が示すコメントは、「はじめまして プロジェクターを使ってみよう!」というコメントに限らず適宜変更可能である。第2ガイド画像t2は、プロジェクターd1を示さなくてもよい。第2ガイド画像t2は、プロジェクターd1の代わりに、プロジェクターd1とは異なる物体、例えば動物を示してもよい。
続いて、動作制御部153は、画像u2を、タッチパネル12に表示させる。
図18は、画像u2の一例を示す図である。画像u2は、第3ガイド画像t3とボタンv1とを対象画像H1に重畳させた画像である。第3ガイド画像t3は、スキャン状況の発生をユーザーに促す画像である。スキャン状況は、カメラ11が壁E1を撮像しながら情報処理装置1が第1ポイントから第2ポイントに移動される状況を意味する。ボタンv1は、スキャン状況の開始の入力を受け付けるためのボタンである。
第3ガイド画像t3は、「まずは、写したいところでボタンを押してスマホを振ってね」というコメントを発するプロジェクターd1を示す。
第3ガイド画像t3が示すコメントは、「まずは、写したいところでボタンを押してスマホを振ってね」というコメントに限らず、スキャン状況の発生をユーザーに促すコメントであれば適宜変更可能である。第3ガイド画像t3は、プロジェクターd1を示さなくてもよい。第3ガイド画像t3は、プロジェクターd1の代わりに、プロジェクターd1とは異なる物体、例えば動物を示してもよい。ボタンv1の形態は、図18に示される形態に限らず適宜変更可能である。
ユーザーは、第3ガイド画像t3のコメントに従って、例えば、壁E1がタッチパネル12に表示される状態で、ボタンv1を押し、その後、情報処理装置1を振る。
動作制御部153は、タッチパネル12がボタンv1へのタップを検出すると、画像u3を、タッチパネル12に表示させる。
図19は、画像u3の一例を示す図である。画像u3は、第4ガイド画像t4を対象画像H1に重畳させた画像である。第4ガイド画像t4は、「壁面をスキャンするよ」というコメントを発するプロジェクターd1を示す。
第4ガイド画像t4が示すコメントは、「壁面をスキャンするよ」というコメントに限らず適宜変更可能である。第4ガイド画像t4は、プロジェクターd1を示さなくてもよい。第4ガイド画像t4は、プロジェクターd1の代わりに、プロジェクターd1とは異なる物体、例えば動物を示してもよい。
図20は、ユーザーによって情報処理装置1が振られる状況を示す図である。ユーザーが情報処理装置1を振ると、スキャン状況が発生する。
スキャン状況において、認識部152は、第1撮像データk1と、第2撮像データk2と、動きデータmsと、を取得する。
認識部152は、第1撮像データk1と、第2撮像データk2と、動きデータmsと、に基づいて、壁E1を認識する。
続いて、ステップS201において動作制御部153は、認識部152に、情報処理装置1から壁E1までの距離nを決定させる。
続いて、ステップS202において動作制御部153は、仮想空間VSを生成する。
続いて、ステップS203において動作制御部153は、仮想空間VSに、第1位置C1と第2位置C2とを設定する。
続いて、ステップS204において動作制御部153は、仮想空間VSに仮想面C3を配置する。
続いて、ステップS205において動作制御部153は、仮想空間VSに仮想プロジェクターC4を配置する。
続いて、ステップS206において動作制御部153は、仮想面C3に画像v21を配置する。
ステップS206では、動作制御部153は、まず、仮想面C3における画像v21の中心の位置を、仮想面C3と仮想プロジェクターC4の投写レンズの光軸との交点の位置に合わせる。
続いて、動作制御部153は、仮想空間VSに、仮想プロジェクターC4から画像v21へ向かう投写光の経路を設定する。
続いて、ステップS207において動作制御部153は、第2位置C2に仮想カメラC5を設置する。仮想カメラC5の撮像レンズの光軸の位置は、仮想プロジェクターC4の投写レンズの光軸の位置と一致する。
続いて、ステップS208において動作制御部153は、仮想プロジェクターC4の画角C4aが、仮想カメラC5の画角C5a以上であるか否かを判断する。
仮想プロジェクターC4の画角C4aが仮想カメラC5の画角C5a以上であると動作制御部153が判断する場合、ステップS209において動作制御部153は、画像v21の大きさを調節する。仮想プロジェクターC4の画角C4aが仮想カメラC5の画角C5a未満であると動作制御部153が判断する場合、ステップS209は、スキップされる。
ステップS209では動作制御部153は、仮想プロジェクターC4を仮想面C3に近づけることによって、画像v21の大きさを調節する。
続いて、ステップS210において動作制御部153は、第2合成画像Y2を決定する。
続いて、ステップS211において動作制御部153は、第2合成画像Y2を示す第2画像データr2を生成する。
続いて、ステップS212において動作制御部153は、タッチパネル12に第2画像データr2を提供することによって、タッチパネル12に第2合成画像Y2を表示させる。
図21は、第2合成画像Y2の一例を示す図である。図21に示される第2合成画像Y2では、第1仮想画像に加えて、第5ガイド画像t5が対象画像H1に重畳されている。第1仮想画像は、仮想カメラC5が撮像を実行することによって得られる画像である。
第2合成画像Y2では、現実空間RSにおけるタッチパネル12の位置の変化と、現実空間RSにおけるタッチパネル12の向きの変化と、の各々に応じて、壁E1に対するスクリーン画像v2の位置が変化する。タッチパネル12は、情報処理装置1に搭載されている。このため、現実空間RSにおけるタッチパネル12の位置の変化は、現実空間RSにおける情報処理装置1の位置の変化を意味する。また、現実空間RSにおけるタッチパネル12の向きの変化は、現実空間RSにおける情報処理装置1の向きの変化を意味する。よって、ユーザーは、情報処理装置1の位置と情報処理装置1の向きとの各々を変えることによって、情報処理装置1がプロジェクター2であるかのような感覚でスクリーン画像v2の位置を調整できる。
また、現実空間RSにおけるタッチパネル12の位置の変化と、現実空間RSにおけるタッチパネル12の向きの変化と、の各々に応じて、対象画像H1に示される壁E1の部分が変更される。
このため、現実空間RSにおけるタッチパネル12の位置の変化と、現実空間RSにおけるタッチパネル12の向きの変化と、のいずれかが生じる場合、第2合成画像Y2の対象画像H1に示される壁E1の部分が変更されるのに対して、第2合成画像Y2におけるプロジェクター画像L1の位置は変更されない。したがって、ユーザーは、タッチパネル12に表示される第2合成画像Y2を見ることによって、プロジェクター2が情報処理装置1の位置に存在するような感覚で壁E1におけるスクリーン画像v2の位置を調整できる。
スクリーン画像v2は、操作ボタンv3を含む。操作ボタンv3は、壁E1に対してスクリーン画像v2の位置を固定するために用いられる。さらに言えば、操作ボタンv3は、ユーザーが位置設定指示を入力するために用いられる。
操作ボタンv3の形態は、図21に示される形態に限らず適宜変更可能である。操作ボタンv3を有するスクリーン画像v2の色は、グレーである。操作ボタンv3を有するスクリーン画像v2の色は、グレーに限らず適宜変更可能である。
第5ガイド画像t5は、壁E1に対するスクリーン画像v2の位置を固定する操作をユーザーに促す画像である。第5ガイド画像t5は、「スクリーンの場所が決まったら、操作ボタンを押そう」というコメントを発するプロジェクターd1を示す。
第5ガイド画像t5が示すコメントは、「スクリーンの場所が決まったら、操作ボタンを押そう」というコメントに限らず、スクリーン画像v2の位置を固定する操作をユーザーに促すコメントであれば適宜変更可能である。第5ガイド画像t5は、プロジェクターd1を示さなくてもよい。第5ガイド画像t5は、プロジェクターd1の代わりに、プロジェクターd1とは異なる物体、例えば動物を示してもよい。
ユーザーは、情報処理装置1の位置を変えながら第2合成画像Y2を確認する。図22は、情報処理装置1の位置が、図21に示される第2合成画像Y2を表示する情報処理装置1の位置よりも、壁E1に近くなった場合に、情報処理装置1に表示される第2合成画像Y2の一例を示す図である。図22では、第5ガイド画像t5は省略されている。情報処理装置1が壁E1に近いほど、壁E1のサイズに対するスクリーン画像v2のサイズの比は小さくなる。図22に示されるスクリーン画像v2のサイズは、図21に示されるスクリーン画像v2のサイズよりも小さい。なお、第2合成画像Y2に示されるスクリーン画像v2のサイズは変更されなくてもよい。
動作制御部153は、壁E1のサイズに対するスクリーン画像v2のサイズの比を小さくする手法をユーザーに知らせるために、「近づくと小さくなるよ」というコメントを発するプロジェクターd1を示す画像を、第2合成画像Y2に重畳してもよい。「近づくと小さくなるよ」というコメントは、壁E1のサイズに対するスクリーン画像v2のサイズの比を小さくする操作を示す第1操作コメントの一例である。
第1操作コメントは、「近づくと小さくなるよ」というコメントに限らず適宜変更可能である。第1操作コメントが示されれば、第1操作コメントを発するプロジェクターd1は示されなくてもよい。第1操作コメントを発する物体は、プロジェクターd1に限らず、例えば、プロジェクターd1とは異なる物体、例えば動物でもよい。
図23は、情報処理装置1の位置が、図21に示される第2合成画像Y2を表示する情報処理装置1の位置よりも、壁E1から遠くなった場合に、情報処理装置1に表示される第2合成画像Y2の一例を示す図である。図23では、第5ガイド画像t5は省略されている。情報処理装置1が壁E1から遠いほど、壁E1のサイズに対するスクリーン画像v2のサイズの比は大きくなる。図23に示されるスクリーン画像v2のサイズは、図21に示されるスクリーン画像v2のサイズよりも大きい。なお、第2合成画像Y2に示されるスクリーン画像v2のサイズは変更されなくてもよい。
動作制御部153は、壁E1のサイズに対するスクリーン画像v2のサイズの比を大きくする手法をユーザーに知らせるために、「離れると大きくなるよ」というコメントを発するプロジェクターd1を示す画像を、第2合成画像Y2に重畳してもよい。「離れると大きくなるよ」というコメントは、壁E1のサイズに対するスクリーン画像v2のサイズの比を大きくする操作を示す第2操作コメントの一例である。
第2操作コメントは、「離れると大きくなるよ」というコメントに限らず適宜変更可能である。第2操作コメントが示されれば、第2操作コメントを発するプロジェクターd1は示されなくてもよい。第2操作コメントを発する物体は、プロジェクターd1に限らず、例えば、プロジェクターとは異なる物体、例えば動物でもよい。
なお、動作制御部153は、第2合成画像Y2におけるスクリーン画像v2の透過率を、情報処理装置1から壁E1までの距離nに応じて変更してもよい。例えば、動作制御部153は、距離nの増加に応じて、第2合成画像Y2におけるスクリーン画像v2の透過率を高くする。この場合、距離nの増加に応じて、第2合成画像Y2におけるスクリーン画像v2の視認性が下がる。よって、動作制御部153は、壁E1からプロジェクター2までの距離の増加に応じて壁E1における投写画像F1の視認性が下がる現象をシミュレーションできる。
図24は、撮像レンズ111の光軸が壁E1の法線に対して傾く場合に、情報処理装置1に表示される第2合成画像Y2の一例を示す図である。この場合、スクリーン画像v2は、壁E1の法線に対する撮像レンズ111の光軸の傾きに応じた歪を有する。この歪は台形歪と称される。プロジェクター2が台形歪を補正する歪補正機能を有する場合、動作制御部153は、プロジェクター2が有する歪補正機能と同等の歪補正機能によって、スクリーン画像v2の台形歪を補正する。図25は、図24に示される台形歪が補正されたスクリーン画像v2を有する第2合成画像Y2の一例を示す図である。図24および図25では、第5ガイド画像t5は省略されている。
タッチパネル12が操作ボタンv3へのタップを検出すると、動作制御部153は、操作ボタンv3がタップされたときにスクリーン画像v2が示されていた位置に、スクリーン画像v2を固定する。さらに言えば、動作制御部153は、操作ボタンv3がタップされたときに画像v21が示されていた位置に、画像v21を固定する。
続いて、動作制御部153は、第2合成画像Y2を画像u5に更新する。例えば、動作制御部153は、第2合成画像Y2に対して、操作ボタンv3の削除と、スクリーン画像v2の色のグレーから青色への変更と、第6ガイド画像t6の追加と、を実行することによって、第2合成画像Y2を画像u5に更新する。スクリーン画像v2の変更後の色は、青色に限らず適宜変更可能である。画像u5は、第1シミュレーション画像の一例である。
図26は、画像u5の一例を示す図である。画像u5における第6ガイド画像t6は、スクリーン画像v2に表示させる画像の決定をユーザーに促す画像である。
図26では、第6ガイド画像t6は、「スクリーンをタップしてスクリーンに好きなものを写してみよう」というコメントを発するプロジェクターd1を示す。
第6ガイド画像t6が示すコメントは、「スクリーンをタップしてスクリーンに好きなものを写してみよう」というコメントに限らず、スクリーン画像v2に表示させる画像の決定をユーザーに促すコメントであれば適宜変更可能である。第6ガイド画像t6は、プロジェクターd1を示さなくてもよい。第6ガイド画像t6は、プロジェクターd1の代わりに、プロジェクターd1とは異なる物体、例えば動物を示してもよい。
ユーザーは、情報処理装置1を移動しながら画像u5を見ることによって、固定されたスクリーン画像v2を確認できる。図27は、情報処理装置1の位置が、図26に示される画像u5を表示する情報処理装置1の位置よりも、壁E1に近くなった場合に、情報処理装置1に表示される画像u5の一例を示す図である。図27では、第6ガイド画像t6は省略されている。スクリーン画像v2の位置が固定された状況においても、情報処理装置1と壁E1との距離の減少に応じて、壁E1のサイズに対するスクリーン画像v2のサイズの比は小さくなる。図27に示されるスクリーン画像v2のサイズは、図26に示されるスクリーン画像v2のサイズよりも小さい。なお、スクリーン画像v2のサイズは一定でもよい。
動作制御部153は、「近づくと小さくなるよ」というような第1操作コメントを発するプロジェクターd1を示す画像を、画像u5に重畳してもよい。第1操作コメントが示されれば、第1操作コメントを発するプロジェクターd1は示されなくてもよい。第1操作コメントを発する物体は、プロジェクターd1に限らず、例えば、プロジェクターd1とは異なる物体、例えば動物でもよい。
図28は、情報処理装置1の位置が、図26に示される画像u5を表示する情報処理装置1の位置よりも、壁E1から遠くなった場合に、情報処理装置1に表示される画像u5の一例を示す図である。図28では、第6ガイド画像t6は省略されている。スクリーン画像v2の位置が固定された状況においても、情報処理装置1と壁E1との距離の増加に応じて、壁E1のサイズに対するスクリーン画像v2のサイズの比は大きくなる。図28に示されるスクリーン画像v2のサイズは、図26に示されるスクリーン画像v2のサイズよりも大きい。なお、スクリーン画像v2のサイズは一定でもよい。
動作制御部153は、「離れると大きくなるよ」というような第2操作コメントを発するプロジェクターd1を示す画像を、画像u5に重畳してもよい。第2操作コメントが示されれば、第2操作コメントを発するプロジェクターd1は示されなくてもよい。第2操作コメントを発する物体は、プロジェクターd1に限らず、例えば、プロジェクターd1とは異なる物体、例えば動物でもよい。
なお、動作制御部153は、画像u5におけるスクリーン画像v2の透過率を、情報処理装置1から壁E1までの距離nに応じて変更してもよい。例えば、動作制御部153は、距離nの増加に応じて、画像u5におけるスクリーン画像v2の透過率を高くする。
図29は、撮像レンズ111の光軸が壁E1の法線に対して傾く場合に、情報処理装置1に表示される画像u5の一例を示す図である。この場合、スクリーン画像v2は、壁E1の法線に対する撮像レンズ111の光軸の傾きに応じた台形歪を有する。プロジェクター2が台形歪を補正する歪補正機能を有する場合、動作制御部153は、プロジェクター2が有する歪補正機能と同等の歪補正機能によって、スクリーン画像v2の台形歪を補正する。図30は、図29に示される台形歪が補正されたスクリーン画像v2を有する画像u5の一例を示す図である。図29および図30では、第6ガイド画像t6は省略されている。
ユーザーは、第6ガイド画像t6に従って情報処理装置1を操作することによって、スクリーン画像v2に表示させる画像を決定できる。
タッチパネル12が画像u5におけるスクリーン画像v2へのタップを検出すると、動作制御部153は、メニュー画像v4をタッチパネル12に表示させる。
図31は、メニュー画像v4の一例を示す図である。メニュー画像v4は、選択ボタンv5を含む。
選択ボタンv5は、スクリーン画像v2に表示させる画像、すなわち、サンプル画像J1を決定するために用いられる。
タッチパネル12が選択ボタンv5へのタップを検出すると、動作制御部153は、画像v81をタッチパネル12に表示させる。
図32は、画像v81の一例を示す図である。画像v81は、スクリーン画像v2に表示させる画像の候補v8を示す。画像の候補v8は、プロジェクター2から投写される投写画像F1に対応する画像である。例えば、画像の候補v8は、プロジェクター2から投写される投写画像F1を示す画像である。画像の候補v8は、例えば、写真データによって示される写真の画像である。画像の候補v8は、文書データによって示される文書の画像でもよい。
ユーザーは、サンプル画像J1として用いる1つ画像の候補v8をタップする。タッチパネル12が、画像の候補v8へのタップを検出すると、動作制御部153は、タップされた画像の候補v8を長方形の第2画像として決定する。
続いて、ステップS213において動作制御部153は、長方形の第2画像の形状およびサイズを、画像v21の形状およびサイズに一致させることによって、画像J1aを決定する。
続いて、ステップS214において動作制御部153は、画像v21を画像J1aに変更する。
続いて、ステップS215において動作制御部153は、第1合成画像Y1を決定する。
続いて、ステップS216において動作制御部153は、第1合成画像Y1を示す第1画像データr1を生成する。
続いて、ステップS217において動作制御部153は、タッチパネル12に第1画像データr1を提供することによって、タッチパネル12に第1合成画像Y1を表示させる。
なお、動作制御部153は、仮想プロジェクターC4の位置を、第2位置C2とは異なる位置に変更した場合、第1合成画像Y1と第2合成画像Y2に、仮想プロジェクターC4の位置を調節したことを示す画像を含ませてもよい。
仮想プロジェクターC4の位置を調節したことを示す画像は、例えば、「位置調整済み画像です。」というコメントを示す画像である。
仮想プロジェクターC4の位置を調節したことを示す画像は、「位置調整済み画像です。」というコメントを示す画像に限らず、適宜変更可能である。
仮想プロジェクターC4の位置を調節したことを示す画像は、例えば、「位置調整済み画像です。」というコメントを示す画像である。
仮想プロジェクターC4の位置を調節したことを示す画像は、「位置調整済み画像です。」というコメントを示す画像に限らず、適宜変更可能である。
A6:第1実施形態についてのまとめ
第1実施形態に係る表示方法と情報処理装置1は以下の態様を含む。
第1実施形態に係る表示方法と情報処理装置1は以下の態様を含む。
取得部151は、壁E1を含む対象領域TRを示す対象画像H1を取得する。動作制御部153は、サンプル画像J1をタッチパネル12に表示させる場合、タッチパネル12の位置に関わらず、タッチパネル12に収まる大きさのサンプル画像J1を対象画像H1に重畳させた第1合成画像Y1を、タッチパネル12に表示させる。サンプル画像J1は、仮想空間VSにおいて仮想プロジェクターC4から第1位置C1に位置する仮想面C3に画像が投写される状況で仮想面C3に表示される画像を第2位置C2から見た画像である。第1位置C1は、仮想空間VSにおいて、壁E1の現実空間RSにおける位置に対応する位置である。第2位置C2は、仮想空間VSにおいて、タッチパネル12の現実空間RSにおける位置に対応する位置である。
この態様によれば、タッチパネル12の位置に関わらず、タッチパネル12に収まる大きさのサンプル画像J1を対象画像H1に重畳させた第1合成画像Y1が、タッチパネル12に表示される。このため、ユーザーは、タッチパネル12の位置に関わらず、タッチパネル12に収まる大きさのサンプル画像J1を含む第1合成画像Y1を見ることができる。ユーザーは、第1合成画像Y1を見ることによって、プロジェクター2が投写画像F1を投写する状態を容易に想像できる。よって、利便性のよい情報処理装置1を提供できる。
動作制御部153は、仮想面C3と仮想プロジェクターC4との距離を調節することによって、サンプル画像J1の大きさを、タッチパネル12に収まる大きさに調節する。この態様によれば、サンプル画像J1の大きさを調節するためにユーザーが現実空間RSにおいて情報処理装置1を移動することなく、サンプル画像J1の大きさを、タッチパネル12に収まる大きさに調節できる。
動作制御部153は、タッチパネル12と壁E1との距離に基づいて仮想面C3と仮想プロジェクターC4との距離を調節することによって、サンプル画像J1の大きさを、タッチパネル12に収まる大きさに調節する。この態様によれば、タッチパネル12と壁E1との距離に基づいて、サンプル画像J1の大きさを、タッチパネル12に収まる大きさに調節できる。
動作制御部153は、タッチパネル12と壁E1との距離と、仮想プロジェクターC4の画角C4aと、に基づいて仮想面C3と仮想プロジェクターC4との距離を調節することによって、サンプル画像J1の大きさを、タッチパネル12に収まる大きさに調節する。この態様によれば、タッチパネル12と壁E1との距離と、仮想プロジェクターC4の画角C4aと、に基づいて、サンプル画像J1の大きさを、タッチパネル12に収まる大きさに調節できる。
第1合成画像Y1は、プロジェクター2を示す画像であるプロジェクター画像L1を含む。プロジェクター画像L1は、第1合成画像Y1のうち第2位置C2に対応する部分に位置する。この態様によれば、ユーザーは、プロジェクター画像L1に示されるプロジェクターがサンプル画像J1を投写する状態を見ることによって、プロジェクター2が投写画像F1を投写する状態を容易に想像できる。
B:変形例
以上に例示した実施形態の変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
以上に例示した実施形態の変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
B1:第1変形例
第1実施形態において、動作制御部153は、仮想プロジェクターの画角C4aを調節することによって、スクリーン画像v2の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節してもよい。
第1実施形態において、動作制御部153は、仮想プロジェクターの画角C4aを調節することによって、スクリーン画像v2の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節してもよい。
例えば、動作制御部153は、仮想プロジェクターC4の画角C4aが仮想カメラC5の画角C5a以上である場合、仮想プロジェクターC4の画角C4aを仮想カメラC5の画角C5a未満に変更することによって、スクリーン画像v2の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節する。また、例えば、動作制御部153は、仮想プロジェクターC4の仕様に含まれる画角C4aの値を、カメラ11の画角C5a未満の値、すなわち、仮想カメラC5の画角C5a未満の値に変更してもよい。
第1変形例によれば、仮想プロジェクターC4を移動することなく、サンプル画像J1の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節できる。また、仮想プロジェクターC4の移動後の位置を算出する処理を省略できる。
動作制御部153は、仮想プロジェクターC4の画角C4aを調節する手法として、カメラ11の有する画角C5a未満の画角を有する機種の仮想プロジェクターを仮想プロジェクターC4として用いる手法を用いてもよい。例えば、動作制御部153は、仮想プロジェクターC4の機種を、カメラ11の有する画角C5a以上の画角を有する第1の仮想プロジェクターから、カメラ11の有する画角C5a未満の画角を有する第2の仮想プロジェクターに変更する手法を用いる。具体的には、動作制御部153は、プログラムP1に記憶されている複数の機種のプロジェクターの仕様を参照し、画角がカメラ11の画角C5a未満の機種のプロジェクターを仮想プロジェクターC4として選択する。この場合、仮想プロジェクターC4の変更によって、スクリーン画像v2の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節できる。
動作制御部153は、第1の仮想プロジェクターに対応する実在のプロジェクターの名称と、第2の仮想プロジェクターに対応する実在のプロジェクターの名称と、をタッチパネル12に表示させてもよい。この場合、ユーザーは、情報処理装置1によってシミュレーションされるプロジェクターを簡単に認識できる。
動作制御部153は、仮想プロジェクターC4の画角C4aを調節する手法として、仮想プロジェクターC4の仮想投写レンズの画角を調節する手法を用いてもよい。この場合、動作制御部153は、仮想投写レンズの画角を調節することによって、スクリーン画像v2の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節する。
例えば、動作制御部153は、仮想投写レンズの画角が仮想カメラC5の画角C5a以上である場合、仮想投写レンズの画角を仮想カメラC5の画角C5a未満に変更することによって、スクリーン画像v2の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節する。また、例えば、動作制御部153は、仮想プロジェクターC4の仕様に含まれる仮想投写レンズの画角の値を、カメラ11の画角C5a未満の値、すなわち、仮想カメラC5の画角C5a未満の値に変更してもよい。
この場合、仮想プロジェクターC4を移動することなく、スクリーン画像v2の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節できる。また、仮想プロジェクターC4の移動後の位置を算出する処理を省略できる。
動作制御部153は、仮想投写レンズの画角を調節する手法として、カメラ11の画角C5a未満の画角を有する仮想投写レンズを、仮想プロジェクターC4の仮想投写レンズとして用いてもよい。例えば、動作制御部153は、仮想投写レンズを、カメラ11の有する画角C5a以上の画角を有する第1の仮想投写レンズから、カメラ11の有する画角C5a未満の画角を有する第2の仮想投写レンズに変更する手法を用いてもよい。また、例えば、動作制御部153は、仮想プロジェクターC4の仕様に含まれる仮想投写レンズの画角の値を、カメラ11の画角C5a以上の値から、カメラ11の画角C5aの値未満の値に変更してもよい。この場合、仮想投写レンズの変更によって、スクリーン画像v2の大きさと、サンプル画像J1の大きさとを、タッチパネル12に収まる大きさに調節できる。
動作制御部153は、第1の仮想投写レンズに対応する実在の投写レンズの名称と、第2の仮想投写レンズに対応する実在の投写レンズの名称と、をタッチパネル12に表示させてもよい。この場合、ユーザーは、情報処理装置1によるシミュレーションに用いられる投写レンズを簡単に認識できる。
B2:第2変形例
第1実施形態および第1変形例において、動作制御部153は、第1合成画像Y1および第2合成画像Y2の少なくとも一方において、仮想プロジェクターC4の位置と第2位置C2との距離に基づく画像である追加画像L3を含ませてもよい。追加画像L3は、仮想プロジェクターC4の位置と第2位置C2との距離を示す画像の一例である。
第1実施形態および第1変形例において、動作制御部153は、第1合成画像Y1および第2合成画像Y2の少なくとも一方において、仮想プロジェクターC4の位置と第2位置C2との距離に基づく画像である追加画像L3を含ませてもよい。追加画像L3は、仮想プロジェクターC4の位置と第2位置C2との距離を示す画像の一例である。
図33は、追加画像L3を含む第2合成画像Y2の一例を示す図である。追加画像L3は、プロジェクター画像L1が示すプロジェクターを持つ手を示す。このため、ユーザーは、プロジェクター2を手にもって動かしているような感覚で、投写画像F1の見え方を確認できる。なお、追加画像L3は、プロジェクター画像L1が示すプロジェクターを持つ手を示す画像とは異なってもよい。例えば、追加画像L3は、仮想プロジェクターC4の位置と第2位置C2との距離を示す画像でもよい。具体的には、追加画像L3は、距離を示す目盛り線や、距離に応じた長さの線分であってもよい。追加画像L3として目盛り線や線分が用いられる場合には、例えば、追加画像L3は、仮想プロジェクターC4の位置と第2位置C2との間に表示されてもよい。
動作制御部153は、追加画像L3の第2合成画像Y2における位置を、仮想プロジェクターC4の位置と第2位置C2との距離に基づいて決定する。例えば、動作制御部153は、仮想プロジェクターC4の位置と第2位置C2との距離の増加に応じて、第2合成画像Y2において、追加画像L3の仮想プロジェクターC4側またはスクリーン画像v2側の端部と第2位置C2との距離を増加する。このため、追加画像L3によって、プロジェクター画像L1が示すプロジェクターの位置と、スクリーン画像v2の位置との関係をユーザーが、認識しやすくなる。
B3:第3変形例
第1実施形態および第1変形例~第2変形例において、動作制御部153は、第1合成画像Y1または第2合成画像Y2をタッチパネル12が表示しているときに、表示の切り替えを指示する入力を受けつけた場合に、図11に示される動作からステップS209を除いた動作を実行してもよい。
第1実施形態および第1変形例~第2変形例において、動作制御部153は、第1合成画像Y1または第2合成画像Y2をタッチパネル12が表示しているときに、表示の切り替えを指示する入力を受けつけた場合に、図11に示される動作からステップS209を除いた動作を実行してもよい。
この場合、動作制御部153は、シミュレーション画像をタッチパネル12に表示させる。シミュレーション画像は、第2シミュレーション画像の一例である。シミュレーション画像は、表示画像を対象画像H1に重畳させた画像である。表示画像は、第2表示画像の一例である。表示画像は、第2位置C2に対する相対位置が固定された仮想プロジェクターC4から第1位置C1に位置する仮想面C3に画像が投写される状況で仮想面C3に表示される画像を第2位置C2から見た画像である。この場合には、表示画像の大きさは調節されない。シミュレーション画像は、表示画像に加えて、プロジェクター画像L1と経路画像L2とを対象画像H1に重畳させた画像でもよい。
第3変形例によれば、仮想プロジェクターC4の画角C4aが、仮想カメラC5の画角C5a以上である場合、シミュレーション画像は、表示画像がタッチパネル12に収まらない状態を示す。このため、ユーザーは、シミュレーション画像を見ることによって、第1合成画像Y1および第2合成画像Y2が調整済みの画像であることを認識しやすくなる。
B4:第4変形例
第1実施形態および第1変形例~第3変形例において、動作制御部153は、第1合成画像Y1および第2合成画像Y2の少なくとも一方をタッチパネル12に表示させた後にタッチパネル12がユーザーから仮想プロジェクターC4を固定する指示を受けた場合、仮想プロジェクターC4の位置を仮想空間VSに固定してもよい。
第1実施形態および第1変形例~第3変形例において、動作制御部153は、第1合成画像Y1および第2合成画像Y2の少なくとも一方をタッチパネル12に表示させた後にタッチパネル12がユーザーから仮想プロジェクターC4を固定する指示を受けた場合、仮想プロジェクターC4の位置を仮想空間VSに固定してもよい。
例えば、動作制御部153は、タッチパネル12がユーザーから仮想プロジェクターC4を固定する指示を受けたときの仮想プロジェクターC4の位置に、仮想プロジェクターC4を固定する。
この場合、動作制御部153は、重畳画像をタッチパネル12に表示させる。重畳画像は、第3シミュレーション画像とも称される。重畳画像は、第3仮想画像を対象画像H1に重畳させた画像である。第3仮想画像は、第3表示画像とも称される。第3仮想画像は、仮想空間VSにおいて位置が固定された仮想プロジェクターC4が仮想面C3に画像を投写する状況で仮想面C3に表示される画像を第2位置C2から見た画像である。仮想空間VSにおいて位置が固定された仮想プロジェクターC4は、仮想空間VSにおいて絶対位置が固定された仮想プロジェクターC4を意味する。なお、重畳画像が表示される状況において、タッチパネル12がユーザーから仮想プロジェクターC4を固定する指示を受けたときの情報処理装置1の位置に情報処理装置1が再度位置した場合、動作制御部153は、仮想プロジェクターC4を第2位置C2に再度固定してもよい。
第4変形例によれば、第1合成画像Y1および第2合成画像Y2に加えて、重畳画像が表示されるので、ユーザーによるプロジェクター2の設置位置の確認をさらに支援できる。
B5:第5変形例
第1実施形態および第1変形例~第4変形例において、カメラ11と、タッチパネル12と、処理装置15とは、相互に別体でもよい。第1実施形態および第1変形例~第4変形例において、カメラ11とタッチパネル12は、情報処理装置1と別体でもよい。第1実施形態および第1変形例~第4変形例において、カメラ11は、情報処理装置1と別体でもよい。第1実施形態および第1変形例~第4変形例において、タッチパネル12は、情報処理装置1と別体でもよい。第1実施形態および第1変形例~第4変形例において、ディスプレイ121と入力装置122は、相互に別体でもよい。
第1実施形態および第1変形例~第4変形例において、カメラ11と、タッチパネル12と、処理装置15とは、相互に別体でもよい。第1実施形態および第1変形例~第4変形例において、カメラ11とタッチパネル12は、情報処理装置1と別体でもよい。第1実施形態および第1変形例~第4変形例において、カメラ11は、情報処理装置1と別体でもよい。第1実施形態および第1変形例~第4変形例において、タッチパネル12は、情報処理装置1と別体でもよい。第1実施形態および第1変形例~第4変形例において、ディスプレイ121と入力装置122は、相互に別体でもよい。
1…情報処理装置、2…プロジェクター、11…カメラ、12…タッチパネル、13…動きセンサー、14…記憶装置、15…処理装置、111…撮像レンズ、112…イメージセンサー、121…ディスプレイ、122…入力装置、151…取得部、152…認識部、153…動作制御部。
Claims (14)
- 面を含む対象領域と、ディスプレイと、を有する現実空間における前記対象領域を示す対象画像を取得することと、
前記面の前記現実空間における位置に対応する第1位置に位置し、前記面に対応する仮想面と、仮想プロジェクターと、を有する仮想空間において、前記仮想プロジェクターから前記仮想面に投写される画像を、前記現実空間における前記ディスプレイの位置に対応する第2位置から見た画像である第1表示画像を前記ディスプレイに表示する場合に、前記ディスプレイの位置に関わらず、前記ディスプレイに収まる大きさの前記第1表示画像を前記対象画像に重畳させた第1シミュレーション画像を、前記ディスプレイに表示すること、
を含む、表示方法。 - 前記仮想面と前記仮想プロジェクターとの距離を調節することによって、前記第1表示画像の大きさを、前記ディスプレイに収まる大きさに調節すること、
をさらに含む、請求項1に記載の表示方法。 - 前記ディスプレイと前記面との距離に基づいて前記仮想面と前記仮想プロジェクターとの距離を調節することによって、前記第1表示画像の大きさを、前記ディスプレイに収まる大きさに調節すること、
をさらに含む請求項1に記載の表示方法。 - 前記ディスプレイと前記面との距離と、前記仮想プロジェクターの画角と、に基づいて、前記仮想面と前記仮想プロジェクターとの距離を調節することによって、前記第1表示画像の大きさを、前記ディスプレイに収まる大きさに調節すること、
をさらに含む請求項1に記載の表示方法。 - 前記仮想プロジェクターの画角を調節することによって、前記第1表示画像の大きさを、前記ディスプレイに収まる大きさに調節すること、
をさらに含む、請求項1に記載の表示方法。 - 前記対象画像を取得することは、カメラを用いて前記対象画像を取得することを含み、
前記調節することは、前記仮想プロジェクターとして、前記カメラの画角未満の画角を有する機種の仮想プロジェクターを用いることによって、前記仮想プロジェクターの画角を調節すること、を含む、
請求項5に記載の表示方法。 - 前記仮想プロジェクターは、前記仮想面に画像を投写する仮想投写レンズを含み、
前記仮想投写レンズの画角を調節することによって、前記第1表示画像の大きさを、前記ディスプレイに収まる大きさに調節すること、
をさらに含む、請求項1に記載の表示方法。 - 前記対象画像を取得することは、カメラを用いて前記対象画像を取得することを含み、
前記調節することは、前記仮想投写レンズとして、前記カメラの画角未満の画角を有する仮想投写レンズを用いることによって、前記仮想投写レンズの画角を調節すること、を含む、
請求項7に記載の表示方法。 - 前記第1シミュレーション画像は、プロジェクターを示す画像であるプロジェクター画像を含み、
前記プロジェクター画像は、前記第1シミュレーション画像において、前記仮想プロジェクターの前記仮想空間における位置に対応する部分に位置する、
請求項1から8のいずれか1項に記載の表示方法。 - 前記第1シミュレーション画像は、前記仮想プロジェクターの位置と前記第2位置との距離を示す画像を含む、
請求項1から9のいずれか1項に記載の表示方法。 - 前記距離を示す画像の前記第1シミュレーション画像における位置を、前記仮想プロジェクターの位置と前記第2位置との距離に基づいて決定すること、
をさらに含む請求項10に記載の表示方法。 - 前記距離を示す画像は、前記プロジェクター画像が示す前記プロジェクターを持つ手を示す、
請求項10または11に記載の表示方法。 - 前記第1シミュレーション画像を前記ディスプレイに表示しているときに、表示の切り替えを指示する入力を受けつけた場合に、前記第2位置に対する相対位置が固定された前記仮想プロジェクターから前記仮想面に投写される画像を前記第2位置から見た画像である第2表示画像を、前記対象画像に重畳させた第2シミュレーション画像を、前記ディスプレイに表示すること、
をさらに含む、請求項1から12のいずれか1項に記載の表示方法。 - カメラと、
ディスプレイと、
少なくとも一つの処理部と、を含み、
前記少なくとも一つの処理部は、
面を含む対象領域と、前記ディスプレイと、を有する現実空間における前記対象領域を示す対象画像を、前記カメラを用いて取得することと、
前記面の前記現実空間における位置に対応する第1位置に位置し、前記面に対応する仮想面と、仮想プロジェクターと、を有する仮想空間において、前記仮想プロジェクターから前記仮想面に投写される画像を、前記現実空間における前記ディスプレイの位置に対応する第2位置から見た画像である第1表示画像を前記ディスプレイに表示する場合に、前記ディスプレイの位置に関わらず、前記ディスプレイに収まる大きさの前記第1表示画像を前記対象画像に重畳させた第1シミュレーション画像を、前記ディスプレイに表示させることと、
を実行する、表示システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020524A JP2022123300A (ja) | 2021-02-12 | 2021-02-12 | 表示方法および表示システム |
US17/669,475 US11962948B2 (en) | 2021-02-12 | 2022-02-11 | Display method and display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020524A JP2022123300A (ja) | 2021-02-12 | 2021-02-12 | 表示方法および表示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022123300A true JP2022123300A (ja) | 2022-08-24 |
JP2022123300A5 JP2022123300A5 (ja) | 2023-11-30 |
Family
ID=82800752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021020524A Pending JP2022123300A (ja) | 2021-02-12 | 2021-02-12 | 表示方法および表示システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11962948B2 (ja) |
JP (1) | JP2022123300A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI779305B (zh) * | 2020-06-24 | 2022-10-01 | 奧圖碼股份有限公司 | 使用擴增實境之投影機的設置模擬方法及其終端裝置 |
WO2024038733A1 (ja) * | 2022-08-19 | 2024-02-22 | 富士フイルム株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005313291A (ja) | 2004-04-30 | 2005-11-10 | Mitsubishi Heavy Ind Ltd | ロボット行動とリンクした映像表示方法とその装置 |
US8201951B2 (en) * | 2008-11-19 | 2012-06-19 | Seiko Epson Corporation | Catadioptric projectors |
US8605324B2 (en) * | 2010-03-05 | 2013-12-10 | Kabushiki Kaisha Toshiba | Image processing system, image processing method, and computer readable recording medium storing program thereof |
JP2014056044A (ja) | 2012-09-11 | 2014-03-27 | Ricoh Co Ltd | 画像投影システム、画像投影システムの運用方法、画像投影装置、及び画像投影システムの遠隔操作装置 |
JP2017059931A (ja) | 2015-09-15 | 2017-03-23 | 株式会社リコー | 画像投影システム、情報処理装置及びプログラム |
US20190116356A1 (en) | 2016-04-15 | 2019-04-18 | Sony Corporation | Information processing apparatus, information processing method, and program |
WO2019017023A1 (ja) | 2017-07-19 | 2019-01-24 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6890306B2 (ja) * | 2018-03-20 | 2021-06-18 | パナソニックIpマネジメント株式会社 | 画像形成システム、画像補正システム、画像表示システム、移動体、画像形成方法、及びプログラム |
JP2020134895A (ja) * | 2019-02-26 | 2020-08-31 | セイコーエプソン株式会社 | 表示方法及び表示システム |
TWI779305B (zh) * | 2020-06-24 | 2022-10-01 | 奧圖碼股份有限公司 | 使用擴增實境之投影機的設置模擬方法及其終端裝置 |
-
2021
- 2021-02-12 JP JP2021020524A patent/JP2022123300A/ja active Pending
-
2022
- 2022-02-11 US US17/669,475 patent/US11962948B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11962948B2 (en) | 2024-04-16 |
US20220264066A1 (en) | 2022-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7318670B2 (ja) | 表示方法および表示システム | |
CN110456967B (zh) | 信息处理方法、信息处理设备以及程序 | |
US10754420B2 (en) | Method and device for displaying image based on virtual reality (VR) apparatus | |
JP4072330B2 (ja) | 表示装置および情報処理方法 | |
JP6476657B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2022123300A (ja) | 表示方法および表示システム | |
JP2016144089A (ja) | 画像処理装置およびその制御方法 | |
KR20190012465A (ko) | 복수의 카메라를 이용하여 영상을 획득하기 위한 전자 장치 및 이를 이용한 영상 처리 방법 | |
CN111010560B (zh) | 一种头戴显示设备的反畸变调节方法、装置和虚拟现实系统 | |
US20140327666A1 (en) | Display control system, display control apparatus, storage medium having stored therein display control program, and display control method | |
US11962946B2 (en) | Image processing apparatus, display system, image processing method, and medium | |
JP5870618B2 (ja) | 自由視点映像表示装置 | |
JP2019174984A (ja) | 表示制御装置、その制御方法、プログラム及び記憶媒体 | |
CN111095348A (zh) | 基于摄像头的透明显示器 | |
JP6852295B2 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP2018010497A (ja) | 画像処理装置 | |
CN113870213A (zh) | 图像显示方法、装置、存储介质以及电子设备 | |
JP7318669B2 (ja) | 表示方法および表示システム | |
CN109427089B (zh) | 基于环境光照条件的混合现实对象呈现 | |
JP6405539B2 (ja) | 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 | |
KR101135525B1 (ko) | 파노라마 이미지의 갱신 방법 및 이를 이용한 지역 검색 서비스 방법 | |
JP6371547B2 (ja) | 画像処理装置、方法、および、プログラム | |
WO2019163449A1 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN116097308A (zh) | 自动摄影构图推荐 | |
JP6859763B2 (ja) | プログラム、情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210915 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231121 |