JP2020134895A - 表示方法及び表示システム - Google Patents
表示方法及び表示システム Download PDFInfo
- Publication number
- JP2020134895A JP2020134895A JP2019032414A JP2019032414A JP2020134895A JP 2020134895 A JP2020134895 A JP 2020134895A JP 2019032414 A JP2019032414 A JP 2019032414A JP 2019032414 A JP2019032414 A JP 2019032414A JP 2020134895 A JP2020134895 A JP 2020134895A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- image
- information
- display
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4122—Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
- H04N21/43637—Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3182—Colour adjustment, e.g. white balance, shading or gamut
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3188—Scale or resolution adjustment
Abstract
【課題】マーカーと画像との対応づけの変更を容易にし、表示面に表示させる画像を容易に変更できるようにする。
【解決手段】端末装置10により、マーカー3の特徴を示すマーカー情報33を取得し、表示対象の画像とマーカー情報33とを対応づける対応情報35を生成し、プロジェクター100により、スクリーンSCに配置されたマーカー3の位置及び特徴を検出し、検出したマーカー3の特徴に対応するマーカー情報33と、対応情報35とに基づき、対応づけられた画像を特定し、検出したマーカー3の位置に基づいて画像の表示位置を決定し、特定した画像を決定した表示位置に表示する。
【選択図】図1
【解決手段】端末装置10により、マーカー3の特徴を示すマーカー情報33を取得し、表示対象の画像とマーカー情報33とを対応づける対応情報35を生成し、プロジェクター100により、スクリーンSCに配置されたマーカー3の位置及び特徴を検出し、検出したマーカー3の特徴に対応するマーカー情報33と、対応情報35とに基づき、対応づけられた画像を特定し、検出したマーカー3の位置に基づいて画像の表示位置を決定し、特定した画像を決定した表示位置に表示する。
【選択図】図1
Description
本発明は、表示方法及び表示システムに関する。
従来、表示面に配置されたマーカーを検出し、検出したマーカーに対応づけられた画像を表示する方法が知られている。
例えば、特許文献1に開示の画像表示装置は、画像が投影される投影面に配置された物体をカメラで撮影して撮影データから物体を識別する物体IDを抽出し、抽出した物体IDに対応づけられた物体の属性情報を取得する。また、画像表示装置は、取得した属性情報に基づいて、投影面に投影する画像を生成する。
例えば、特許文献1に開示の画像表示装置は、画像が投影される投影面に配置された物体をカメラで撮影して撮影データから物体を識別する物体IDを抽出し、抽出した物体IDに対応づけられた物体の属性情報を取得する。また、画像表示装置は、取得した属性情報に基づいて、投影面に投影する画像を生成する。
しかしながら、表示面に表示する画像の数が増加した場合、画像と同数のマーカーを用意するのが難しくなる場合がある。このような場合に、マーカーと画像との対応づけを容易に変更し、表示面に表示する画像を容易に変更可能な方法が望まれていた。
上記課題を解決する一態様は、端末装置により、マーカーの特徴を示すマーカー情報を取得し、前記端末装置により、表示対象の画像と前記マーカー情報とを対応づける対応情報を生成し、検出装置により、表示面に配置されたマーカーを検出し、表示装置により、検出された前記マーカーの特徴を抽出し、抽出した前記特徴に対応する前記マーカー情報と、前記対応情報とに基づき、対応づけられた画像を特定し、前記表示装置により、検出された前記マーカーの位置に基づいて前記画像の表示位置を決定し、前記表示装置により、特定した前記画像を決定した前記表示位置に表示する、表示方法である。
上記表示方法において、前記端末装置により、画像の元となる画像データを取得し、取得した前記画像データと、前記マーカー情報とを対応づける前記対応情報を生成する構成であってもよい。
上記表示方法において、前記表示装置により、抽出した前記マーカーの特徴に対応する前記マーカー情報を取得し、前記表示装置により、前記対応情報に従って前記マーカー情報に対応づけて前記画像データを記憶した記憶装置から、取得した前記マーカー情報に対応づけられた前記画像データを取得して表示する構成であってもよい。
上記表示方法において、前記検出装置により、前記表示面を撮像して撮像画像を生成し、前記表示装置により、生成された前記撮像画像から前記マーカーを検出して前記マーカーの特徴を抽出すると共に、前記マーカーの位置を検出する構成であってもよい。
上記表示方法において、前記表示装置により、生成された複数の前記撮像画像に基づいて前記マーカーの動きを検出し、前記表示装置により、検出した前記マーカーの動きに基づいて前記画像の表示位置及び表示サイズの少なくとも一方を決定する構成であってもよい。
上記表示方法において、前記端末装置により、前記マーカーが撮像された撮像画像から前記マーカー情報を取得する構成であってもよい。
上記表示方法において、前記マーカー情報は、前記マーカーとして使用される物体の形状又は色を含む構成であってもよい。
上記表示方法において、前記マーカーは、画像コードを含み、前記マーカー情報は、前記画像コードをデコードした情報を含む構成であってもよい。
上記課題を解決する別の一態様は、マーカーの特徴を示すマーカー情報を取得する情報取得部と、表示対象の画像と前記マーカー情報とを対応づける対応情報を生成する生成部と、を備える端末装置と、表示面に画像を表示する表示部と、前記表示面に配置された前記マーカーの位置及び特徴を検出する検出部と、検出された前記マーカーの特徴に対応する前記マーカー情報と、前記対応情報とに基づき、対応づけられた画像を特定し、検出した前記マーカーの位置に基づいて前記画像の表示位置を決定する制御部と、特定した前記画像を決定した前記表示位置に表示させる制御部と、を備える表示装置と、を備える、表示システムである。
上記表示システムにおいて、前記端末装置は、画像の元となる画像データを取得するデータ取得部を備え、前記生成部は、前記情報取得部が取得した前記マーカー情報と、前記データ取得部が取得した前記画像データとを対応づける前記対応情報を生成する構成であってもよい。
上記表示システムにおいて、前記端末装置が生成する前記対応情報に従って、前記マーカー情報に対応づけて前記画像データを記憶する記憶装置を備え、前記表示装置は、検出した前記マーカーの特徴に対応する前記マーカー情報を取得し、取得した前記マーカー情報に対応づけられた前記画像データを前記記憶装置から取得して表示する構成であってもよい。
上記表示システムにおいて、前記表示装置は、前記表示面を撮像する撮像部を備え、前記制御部は、前記撮像部が生成した撮像画像から前記マーカーを検出して前記マーカーの位置及び特徴を検出する構成であってもよい。
上記表示システムにおいて、前記制御部は、複数の前記撮像画像に基づいて前記マーカーの動きを検出し、検出した前記マーカーの動きに基づいて前記画像の表示位置及び表示サイズの少なくとも一方を決定する構成であってもよい。
上記表示システムにおいて、前記端末装置は、撮像部を備え、前記情報取得部は、前記撮像部が生成した前記マーカーの撮像画像から前記マーカー情報を取得する構成であってもよい。
上記表示システムにおいて、前記マーカー情報は、前記マーカーとして使用される物体の形状又は色を含む構成であってもよい。
上記表示システムにおいて、前記マーカーは、画像コードを含み、前記マーカー情報は、画像コードをデコードした情報を含む構成であってもよい。
[第1実施形態]
[1.表示システムの概要]
図1は、表示システム1Aの斜視図である。表示システム1Aは、端末装置10と、表示装置の一例に相当するプロジェクター100と、を備える。端末装置10は、マーカー3の特徴を示すマーカー情報33と、プロジェクター100に表示させる表示対象の画像とを対応づける。プロジェクター100は、表示面であるスクリーンSCに配置されたマーカー3の位置や特徴を検出し、検出したマーカー3の特徴に基づいて、端末装置10により対応づけられた画像を特定し、特定した画像を、マーカー3に対応する位置に表示させる。
[1.表示システムの概要]
図1は、表示システム1Aの斜視図である。表示システム1Aは、端末装置10と、表示装置の一例に相当するプロジェクター100と、を備える。端末装置10は、マーカー3の特徴を示すマーカー情報33と、プロジェクター100に表示させる表示対象の画像とを対応づける。プロジェクター100は、表示面であるスクリーンSCに配置されたマーカー3の位置や特徴を検出し、検出したマーカー3の特徴に基づいて、端末装置10により対応づけられた画像を特定し、特定した画像を、マーカー3に対応する位置に表示させる。
マーカー3は、スクリーンSCにおいてマーカー3の位置や形状を光学的に検出可能である。図1にはスクリーンSCに2個のマーカー3を配置した例を示すが、表示システム1Aで利用可能なマーカー3の数は2個に限定されるものではなく、1つであってもよいし、3個以上であってもよい。
マーカー3は、例えば、スクリーンSCの対象範囲IAの中に表示又は形成された模様、文字、図形等であってもよい。対象範囲IAは、プロジェクター100のPJ撮像部139の撮像範囲を示す。また、マーカー3は、スクリーンSCとは独立した物体であってもよい。また、複数のマーカー3を用いる場合、マーカー3の各々を認識可能なように、マーカー3の色や、形状、サイズの少なくとも1つが他のマーカー3と異なるとよい。また、マーカー3は、マーカー3の表面に画像コードが形成又は貼付されていてもよい。画像コードは、機械可読な態様で電子データを表すために体系的に作られたコードをいい、例えば、1次元コード、2次元コード、電子透かし情報等が含まれる。1次元コードにはバーコードが含まれ、2次元コードにはQRコードが含まれる。QRコードは、登録商標である。
図1には、マーカー3の一例として、QRコードが形成された円盤形状の物体を例示する。マーカー3は、ユーザーが手で移動させることができ、スクリーンSC上の任意の位置に固定できる。例えば、マーカー3は、粘着性材料を有し、スクリーンSCに粘着力により固定される。また、例えば、スクリーンSCは、磁石を付着させることが可能な材料を用いて構成してもよい。この場合、マーカー3を、永久磁石を組み込んだ構成として、スクリーンSCの任意の位置に固定可能としてもよい。また、マーカー3は、静電力でスクリーンSCに付着するものであってもよい。その他、マーカー3のスクリーンSCに対する固定方法は任意に変更可能である。
端末装置10は、ユーザーが操作する端末であり、例えば、スマートフォン、タブレット端末、PDA(Personal Digital Assistants)、ノートパソコン等を採用できる。
端末装置10は、マーカー3の特徴を示すマーカー情報33を取得又は生成し、スクリーンSCに表示させる画像データ31と、マーカー情報33とを対応づけた対応情報35を生成する。画像データ31、マーカー情報33及び対応情報35は、図2に示す。マーカー情報33は、マーカー3を光学的に特定可能な情報である。端末装置10は、マーカー3を撮像した撮像データに基づいてマーカー3の特徴を光学的に検出し、光学的に検出したマーカー3の特徴に基づいてマーカー情報33を生成する。マーカー情報33の詳細については後述する。画像データ31は、ユーザーにより選択されたデータである。ユーザーは、端末装置10のユーザーであってもよいし、他の端末装置10のユーザーであってもよい。
端末装置10は、プロジェクター100に無線接続され、プロジェクター100との間でデータ通信を行う。例えば、端末装置10は、画像データ31、マーカー情報33及び対応情報35をプロジェクター100に送信する。
プロジェクター100は、画像光PLを生成し、生成した画像光PLをスクリーンSCに向けて投射する。これによりスクリーンSCには、画像光PLに基づく画像が結像する。画像光PLがスクリーンSCに結像して表示される画像を投射画像5という。投射画像5は、静止画像及び映像のいずれであってもよい。映像はいわゆる動画像をいう。以下の説明では、静止画像及び映像を総称して投射画像5という。スクリーンSCは、例えば、壁面等の平面、或いは、吊り下げ設置された幕であり、プロジェクター100が発する画像光PLを反射して像を形成可能であればよい。例えば、筆記が可能な黒板やホワイトボードをスクリーンSCとして用いてもよい。
プロジェクター100が画像光PLを投射可能な領域を投射領域PAという。投射領域PAは、プロジェクター100が画像を表示することが可能な表示可能領域である。プロジェクター100の通常の使用状態において、投射領域PAはスクリーンSCに収まるように投射される。
プロジェクター100は、PJ撮像部139を備え、PJ撮像部139が生成した撮像データに基づき、スクリーンSCに設定される対象範囲IAにおいて、マーカー3を検出する。プロジェクター100は、端末装置10から受信したマーカー情報33に一致する物体又は表示を検出してマーカー3を特定する。対象範囲IAは、投射領域PAと一致していなくてもよいが、対象範囲IAが投射領域PAを含むことが好ましい。本実施形態では、対象範囲IAと投射領域PAとが一致する場合を例示する。プロジェクター100は、対象範囲IAにおいて検出したマーカー3について、投射領域PAにおける位置を特定する。
プロジェクター100は、スクリーンSCに配置、形成又は表示されたマーカー3の位置及び特徴を検出する。プロジェクター100は、検出したマーカー3の特徴に対応したマーカー情報33に基づいて画像を特定し、検出したマーカー3の位置に基づいてスクリーンSCの表示位置を決定する。プロジェクター100は、決定した表示位置に、特定した画像を表示させる。
[2.端末装置の構成]
図2は、端末装置10の構成を示すブロック図である。
端末装置10は、端末無線通信部11、表示部13、操作部15、端末撮像部17及び端末制御部20を備える。
図2は、端末装置10の構成を示すブロック図である。
端末装置10は、端末無線通信部11、表示部13、操作部15、端末撮像部17及び端末制御部20を備える。
端末無線通信部11は、所定の無線通信規格に従ってプロジェクター100を含む外部の装置と無線通信を行う。所定の無線通信規格には、例えば、無線LANや、Bluetooth、UWB(Ultra Wide Band)、赤外線通信等を採用できる。Bluetoothは、登録商標である。
表示部13は、表示パネル13a及び操作検出部13bを備える。
表示パネル13aには、例えば、液晶パネルや有機EL(Electro−Luminescence)ディスプレイ等が用いられる。表示部13は、端末制御部20の制御に従って、ウインドウやアイコン、ボタン等のGUI(Graphical User Interface)画像を表示パネル13aに表示させる。
操作検出部13bは、表示パネル13aに対するタッチ操作を検出するタッチセンサーを備える。タッチセンサーの図示は省略する。表示パネル13a及び操作検出部13bは、タッチパネルとして機能する。操作検出部13bは、ユーザーの指やタッチペンが表示パネル13bに接触した接触位置を検出し、検出した接触位置を示す表示パネル13bの座標を端末制御部20に出力する。端末制御部20は、操作検出部13bから入力される座標と、表示パネル13bに表示されたGUI画像の表示位置とに基づいて入力された操作を特定し、特定した操作に対応した各種処理を実行する。
操作部15は、ユーザーの操作を受け付けるハードウェアボタンを備える。このハードウェアボタンには、例えば、端末装置10の電源ボタンや、端末撮像部17のシャッターを操作するシャッターボタン等が含まれる。操作部15は、これらのボタンが操作されると、操作されたボタンに対応した操作信号を生成して端末制御部20に出力する。
端末撮像部17は、いわゆるデジタルカメラであり、「撮像部」及び「情報取得部」として機能する。端末撮像部17は、CCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide Semiconductor)等のイメージセンサーを備える。また、端末撮像部17は、イメージセンサーの受光状態から撮像データを生成するデータ処理回路を備える。端末撮像部17は、可視光により撮像を行う構成であってもよいし、赤外光や紫外光など、可視領域外の波長の光により撮像を行うものであってもよい。端末撮像部17は、シャッターボタンの操作を受け付けると、撮像を行って撮像データを生成する。端末撮像部17は、生成した撮像データを端末制御部20に出力する。
端末制御部20は、例えば、プログラムを実行する演算処理装置を備え、ハードウェアとソフトウェアとの協働により端末制御部20の機能を実現するものであってもよい。また、端末制御部20は、演算処理機能をプログラムされたハードウェアにより構成されてもよい。本実施形態では端末制御部20は、一例として、端末記憶部21と、端末プロセッサー23とを備える構成を示す。
端末記憶部21は、データを不揮発的に記憶する不揮発性記憶領域を備える。不揮発性記憶領域には、OS(Operating System)や、アプリケーションプログラム等の制御プログラム22が記憶される。また、端末記憶部21は、揮発性記憶領域を備える。この揮発性記憶領域は、端末プロセッサー23のワークエリアとして機能する。また、揮発性記憶領域には、画像データ31、マーカー情報33及び対応情報35が記憶される。
画像データ31は、端末装置10に予め記憶されたデータであってもよいし、外部装置から受信したデータであってもよい。外部装置として、例えば、サーバー装置や、他の端末装置10が挙げられる。サーバー装置は、インターネット等の広域ネットワークを介して通信可能な装置であってもよいし、端末装置10が接続されたLAN(Local Area Network)等のプライベートネットワークに接続された装置であってもよい。また、サーバー装置は、端末装置10と同一のアクセスポイントに接続され、このアクセスポイントを介して通信可能な装置であってもよい。サーバー装置や、他の端末装置10から画像データ31を受信するために機能する端末無線通信部11や、この端末無線通信部11を制御する通信制御部23cは、「データ取得部」として機能する。通信制御部23cについては後述する。
また、画像データ31は、端末撮像部17により撮像された撮像データであってもよいし、端末装置10にインストールされたアプケーションプログラムにより生成されるデータであってもよい。この場合、端末撮像部17は、「データ取得部」として機能する。また、アプケーションプログラムにより生成されるデータには、例えば、端末装置10の表示パネル13aに対するタッチ操作によりユーザーが描いた文字や図形、数字、記号が含まれる。この場合、アプケーションプログラムを実行する端末制御部20は、「データ取得部」として機能する。
端末プロセッサー23は、CPU(Central Processing Unit)やマイコン等で構成される演算処理装置である。端末プロセッサー23は、端末記憶部21が記憶する制御プログラム22を実行して端末装置10の各部を制御する。端末プロセッサー23は、単一のプロセッサーにより構成してもよいし、複数のプロセッサーにより構成することも可能である。また、端末プロセッサー23は、端末記憶部21の一部又は全部や、その他の回路と統合されたSoC(System on Chip)により構成することも可能である。さらに、端末プロセッサー23は、プログラムを実行するCPUと、所定の演算処理を実行するDSP(Digital Signal Processor)との組合せにより構成してもよい。また、端末プロセッサー23の機能の全てをハードウェアに実装した構成としてもよく、プログラマブルデバイスを用いて構成してもよい。
端末制御部20は、端末プロセッサー23が制御プログラム22に記述された命令セットを実行してデータの演算や制御を行うことにより、情報取得部23a、生成部23b及び通信制御部23cとして機能する。
情報取得部23aは、端末撮像部17と共に「情報取得部」として機能する。情報取得部23aは、マーカー3を撮像した撮像データを解析し、マーカー3の特徴を示すマーカー情報33を抽出する。マーカー3の特徴は、マーカー3の外見上の色や、模様、形状、サイズなど、光学的に識別可能な属性を指す。ここで、光学的に識別可能な属性とは、可視光を利用して検出し、識別できる属性に限定されず、赤外光や紫外光を用いる検出及び識別が可能な属性を含む。
まず、情報取得部23aは、表示パネル13aに対するタッチ操作により、マーカー3の登録要求を受け付けると、端末撮像部17に撮像を実行させてマーカー3を撮像させる。ユーザーは、登録したいマーカー3を端末撮像部17により撮像可能な範囲内に置き、シャッターボタンを押下する。情報取得部23aは、シャッターボタンが押下されると、端末撮像部17に撮像を実行させる。情報取得部23aは、端末撮像部17から入力される撮像データを端末記憶部21に一時的に記憶させる。
情報取得部23aは、撮像データを解析して、マーカー3の特徴を示すマーカー情報33を生成する。本実施形態では、QRコードが付された物体をマーカー3として使用する場合について説明する。情報取得部23aは、撮像データから2次元コードの画像を抽出し、抽出した画像をデコードしてコード情報を取得する。情報取得部23aは、取得したコード情報を、マーカー情報33として端末記憶部21に記憶させる。
また、QRコード等の画像コードが付されていない物体をマーカー3として用いる場合、情報取得部23aは、撮像データを解析して、マーカー3の色や、模様、形状、サイズ等の外見上の特徴をマーカー情報33として検出してもよい。
例えば、情報取得部23aは、マーカー3が撮像された撮像範囲の撮像データをマーカー情報33としてそのまま用いてもよい。また、情報取得部23aは、マーカー3の色や、模様をマーカー情報33とする場合、予め用意されたサンプル画像の色との比較により、マーカー3の色や配色等を特定してもよい。また、情報取得部23aは、マーカー3の形状やサイズをマーカー情報33とする場合、エッジ抽出によりマーカー3の輪郭を検出し、検出した輪郭に基づいてマーカー3の形状やサイズを特定し、マーカー情報33を生成してもよい。
例えば、情報取得部23aは、マーカー3が撮像された撮像範囲の撮像データをマーカー情報33としてそのまま用いてもよい。また、情報取得部23aは、マーカー3の色や、模様をマーカー情報33とする場合、予め用意されたサンプル画像の色との比較により、マーカー3の色や配色等を特定してもよい。また、情報取得部23aは、マーカー3の形状やサイズをマーカー情報33とする場合、エッジ抽出によりマーカー3の輪郭を検出し、検出した輪郭に基づいてマーカー3の形状やサイズを特定し、マーカー情報33を生成してもよい。
生成部23bは、画像データ31と、マーカー情報33とを対応づける対応情報35を生成する。
まず、生成部23bは、表示パネル13aに対するタッチ操作により、表示対象の画像の選択要求を受け付けると、端末記憶部21が記憶する画像データ31のサムネイル画像を表示パネル13aに表示させる。ユーザーは、プロジェクター100に表示させたい表示対象の画像がサムネイル画像に含まれていない場合、端末装置10を操作して、例えば、通信ネットワーク上のサーバー装置にアクセスし、サーバー装置から画像データ31をダウンロードする。また、他の端末装置10から送信された画像データ31を表示対象の画像としてもよいし、表示パネル13aに対するタッチ操作により、端末装置10により画像データ31を生成してもよい。
まず、生成部23bは、表示パネル13aに対するタッチ操作により、表示対象の画像の選択要求を受け付けると、端末記憶部21が記憶する画像データ31のサムネイル画像を表示パネル13aに表示させる。ユーザーは、プロジェクター100に表示させたい表示対象の画像がサムネイル画像に含まれていない場合、端末装置10を操作して、例えば、通信ネットワーク上のサーバー装置にアクセスし、サーバー装置から画像データ31をダウンロードする。また、他の端末装置10から送信された画像データ31を表示対象の画像としてもよいし、表示パネル13aに対するタッチ操作により、端末装置10により画像データ31を生成してもよい。
生成部23bは、画像データ31が選択されると、選択された画像データ31と、マーカー情報33とを対応づけた対応情報35を生成する。画像データ31には、画像データ31を識別する識別情報が設定され、マーカー情報33にも、マーカー情報33を識別する識別情報が設定されている。画像データ31を識別する識別情報を画像識別情報といい、マーカー情報33を識別する識別情報をマーカー識別情報という。生成部23bは、画像識別情報と、マーカー識別情報とを対応づけて対応情報35を生成する。
画像識別情報は、例えば、画像データ31を特定可能なファイル名であってもよいし、生成部23bが付与するものであってもよい。また、マーカー識別情報は、生成部23bが付与してもよい。
画像識別情報は、例えば、画像データ31を特定可能なファイル名であってもよいし、生成部23bが付与するものであってもよい。また、マーカー識別情報は、生成部23bが付与してもよい。
生成部23bは、表示パネル13aに対するタッチ操作により、表示対象の画像の登録要求を受け付けると、端末記憶部21に記憶され、マーカー識別情報が対応づけられた画像データ31のサムネイル画像を表示パネル13aに表示させる。
生成部23bは、ユーザーによりサムネイル画像のいずれか1つが選択されると、端末記憶部21から画像データ31、マーカー情報33及び対応情報35を読み出し、通信制御部23cに出力する。画像データ31は、選択されたサムネイル画像に対応したデータであり、対応情報35は、この画像データ33の画像識別情報を含む情報である。また、マーカー情報33は、この対応情報35に含まれるマーカー識別情報のマーカー情報33である。
生成部23bは、ユーザーによりサムネイル画像のいずれか1つが選択されると、端末記憶部21から画像データ31、マーカー情報33及び対応情報35を読み出し、通信制御部23cに出力する。画像データ31は、選択されたサムネイル画像に対応したデータであり、対応情報35は、この画像データ33の画像識別情報を含む情報である。また、マーカー情報33は、この対応情報35に含まれるマーカー識別情報のマーカー情報33である。
通信制御部23cは、端末無線通信部11を制御してプロジェクター100との無線通信を実行する。通信制御部23cは、生成部23bから入力された画像データ31、マーカー情報33及び対応情報35をプロジェクター100に送信する。以下では、プロジェクター100に送信される画像データ31、マーカー情報33及び対応情報35を総称して登録情報という。
また、生成部23bは、マーカー情報33に対応づけられた画像データ31が変更されると、変更された画像データ31、マーカー情報33及び対応情報35を含む登録情報を再度、通信制御部23cに出力する。通信制御部23cは、入力された登録情報をプロジェクター100に送信する。
[3.プロジェクターの構成]
図3は、プロジェクター100の構成を示すブロック図である。図3を参照しながらプロジェクター100の構成について説明する。
プロジェクター100は、投射部110及び駆動部120を備える。投射部110は、「表示部」の一例に対応し、光源111、光変調装置113及び光学ユニット115を備える。駆動部120は、光源駆動回路121及び光変調装置駆動回路123を備える。光源駆動回路121及び光変調装置駆動回路123は、バス105に接続される。
図3は、プロジェクター100の構成を示すブロック図である。図3を参照しながらプロジェクター100の構成について説明する。
プロジェクター100は、投射部110及び駆動部120を備える。投射部110は、「表示部」の一例に対応し、光源111、光変調装置113及び光学ユニット115を備える。駆動部120は、光源駆動回路121及び光変調装置駆動回路123を備える。光源駆動回路121及び光変調装置駆動回路123は、バス105に接続される。
光源111は、LEDやレーザー光源等の固体光源で構成される。光源111は、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプであってもよい。光源111は、光源駆動回路121により駆動されて発光する。光源駆動回路121は、バス105に接続され、同じくバス105に接続されたPJ制御部150の制御に従って光源111に電力を供給する。
光変調装置113は、光源111が発する光を光変調素子により変調して画像光PLを生成し、生成した画像光PLを光学ユニット115に射出する。光変調装置113が備える光変調素子は、例えば、透過型の液晶ライトバルブであってもよいし、反射型の液晶ライトバルブやデジタルミラーデバイスであってもよい。本実施形態では、光変調素子が、透過型の光変調素子である場合を例にして説明する。
光変調装置113は、光変調装置駆動回路123に接続される。光変調装置駆動回路123は、光変調素子の透過率を、画像光PLの元となる画像データ31に対応した透過率となるように光変調素子を駆動する。
光学ユニット115は、レンズやミラー等の光学素子を備え、光変調装置113により生成された画像光PLをスクリーンSCに投射する。スクリーンSCには、画像光PLが結像し、画像光PLに対応した投射画像5が表示される。
プロジェクター100は、入力インターフェイス131、リモコン受光部133及び操作パネル135を備える。入力インターフェイス131は、プロジェクター100に対する入力を受け付ける。入力インターフェイス131は、図示しないリモコンが送信する赤外線信号を受光するリモコン受光部133、及びプロジェクター100の本体に設けられる操作パネル135に接続される。入力インターフェイス131は、リモコン受光部133が受光した信号をデコードして、リモコンによる操作を検出する。また、入力インターフェイス131は、操作パネル135に対する操作を検出する。入力インターフェイス131は、操作内容を示すデータをPJ制御部150に出力する。
プロジェクター100は、PJ無線通信部137及びPJ撮像部139を備える。PJ無線通信部137は、所定の無線通信規格に従ってプロジェクター100を含む外部の装置と無線通信を行う。所定の無線通信規格は、例えば、無線LANや、Bluetooth、UWB、赤外線通信等を採用できる。
PJ撮像部139は、いわゆるデジタルカメラであり、「検出装置」に対応する。また、PJ撮像部139は、後述するマーカー検出部155bと共に「検出部」としても機能する。PJ撮像部139は、CMOSやCCD等のイメージセンサーや、イメージセンサーの受光状態から撮像データを生成するデータ処理回路を備える。PJ撮像部139は、可視光により撮像を行う構成であってもよいし、赤外光や紫外光など、可視領域外の波長の光により撮像を行うものであってもよい。
PJ撮像部139は、PJ制御部150の制御により撮像を行って撮像データを生成し、生成した撮像データをPJ制御部150に出力する。PJ撮像部139の撮像範囲、すなわち画角は、スクリーンSCに設定された対象範囲IAを含む範囲である。
プロジェクター100は、画像インターフェイス141、画像処理部143及びフレームメモリー145を備える。画像インターフェイス141及び画像処理部143は、バス105に接続される。
画像インターフェイス141は、画像データ31が入力されるインターフェイスであり、ケーブル7が接続されるコネクター、及びケーブル7を介して画像データ31を受信するインターフェイス回路を備える。
画像インターフェイス141は、画像データ31を供給する画像供給装置を接続可能である。プロジェクター100が扱う画像データ31は、動画像データであっても静止画像データであってもよく、データフォーマットは任意である。
画像処理部143には、フレームメモリー145が接続される。画像処理部143は、画像インターフェイス141から入力された画像データをフレームメモリー145に展開して処理する。画像処理部143が行う処理には、例えば、投射画像5の形状歪みを補正する形状歪み補正処理や、OSD(On Screen Display)画像を重畳するOSD処理等が含まれる。また、画像処理部143は、画像データに対し、輝度や色味を調整する画像調整処理や、画像データのアスペクト比や解像度を光変調装置113に合わせて調整する解像度変換処理を行ってもよい。
画像処理部143は、画像処理が終了すると、処理後の画像データを光変調装置駆動回路123に出力する。光変調装置駆動回路123は、入力された画像データに基づいて光変調装置113を駆動する駆動信号を生成する。光変調装置駆動回路123は、画像データに対応した透過率となるように、生成した駆動信号により光変調装置113の光変調素子を駆動する。光源111から射出された光が、画像が形成された光変調素子を透過することで画像光PLに変調され、変調された画像光PLが光学ユニット115によりスクリーンSCに投射される。
プロジェクター100は、プロジェクター100の各部を制御するPJ制御部150を備える。PJ制御部150は、例えば、ハードウェアとソフトウェアとの協働によりPJ制御部150の機能を実現するものであってもよい。或いは、PJ制御部150は、演算処理機能をプログラムされたハードウェアにより構成してもよい。本実施形態では一例として、PJ制御部150が、PJ記憶部151と、PJプロセッサー155とを備える構成について説明する。
第1実施形態において、PJ記憶部151は「記憶装置」に相当する。PJ記憶部151は、データを不揮発的に記憶する不揮発性記憶領域を備える。不揮発性記憶領域には、PJプロセッサー155が実行するOSや、アプリケーションプログラム等の制御プログラム152や、キャリブレーションデータ153が記憶される。
また、PJ記憶部151は、データを揮発的に記憶する揮発性記憶領域を備える。揮発性記憶領域は、PJプロセッサー155のワークエリアとして動作する。また、揮発性記憶領域には、端末装置10から受信した登録情報である画像データ31、マーカー情報33及び対応情報35が一時的に記憶される。
また、PJ記憶部151は、データを揮発的に記憶する揮発性記憶領域を備える。揮発性記憶領域は、PJプロセッサー155のワークエリアとして動作する。また、揮発性記憶領域には、端末装置10から受信した登録情報である画像データ31、マーカー情報33及び対応情報35が一時的に記憶される。
キャリブレーションデータ153は、PJ撮像部139が生成する撮像データの座標と、フレームメモリー145の座標とを対応づけるデータである。撮像データの座標を撮像座標といい、フレームメモリー145の座標をメモリー座標という。キャリブレーションデータ153により、撮像データの撮像座標が、対応するフレームメモリー145のメモリー座標に変換される。キャリブレーションデータ153は、例えば、プロジェクター100の製造時に生成され、PJ記憶部151に記憶される。
PJプロセッサー155は、CPUやマイコン等で構成される演算処理装置である。PJプロセッサー155は、単一のプロセッサーにより構成してもよいし、複数のプロセッサーにより構成してもよい。また、PJプロセッサー155は、PJ記憶部151の一部又は全部や、その他の回路と統合されたSoCで構成されてもよい。また、PJプロセッサー155は、プログラムを実行するCPUと、所定の演算処理を実行するDSPとの組合せにより構成してもよい。また、PJプロセッサー155の機能の全てを、ハードウェアに実装した構成としてもよく、プログラマブルデバイスを用いて構成してもよい。また、PJプロセッサー155は、画像処理部143の機能を兼ねてもよい。すなわち、画像処理部143の機能を、PJプロセッサー155が実行してもよい。
PJ制御部150は、PJプロセッサー155が制御プログラム152に記述された命令セットを実行してデータの演算や制御を行う。これにより、PJ制御部150は、通信制御部155a、マーカー検出部155b及び表示制御部155cとして機能する。
通信制御部155aは、PJ無線通信部137を制御して端末装置10との無線通信を実行する。通信制御部155aは、例えば、PJ無線通信部137を制御して端末装置10から送信される登録情報を受信する。登録情報は、PJ制御部150の制御によりPJ記憶部151に記憶される。
PJ制御部150は、受信した登録情報に含まれる画像データ31と、マーカー情報33とを対応づけてPJ記憶部151に記憶させる。また、画像データ31とマーカー情報33とが対応づけられてPJ記憶部151に記憶されていれば、対応情報35はPJ記憶部151に記憶しておく必要はないが、対応情報35をPJ記憶部151に記憶しておいてもよい。本実施形態では、対応情報35を消去せずにPJ記憶部151に記憶しておく場合について説明する。
マーカー検出部155bは、PJ撮像部139と共に「検出部」として機能し、スクリーンSCに配置されたマーカー3の位置を検出し、マーカー3の特徴を抽出する。
マーカー検出部155bは、PJ撮像部139に撮像を実行させる。PJ撮像部139は、対象範囲IAを含む範囲を撮像して撮像データを生成し、生成した撮像データをマーカー検出部155bに出力する。マーカー検出部155bは、入力された撮像データをPJ記憶部151に記憶させる。
マーカー検出部155bは、PJ撮像部139に撮像を実行させる。PJ撮像部139は、対象範囲IAを含む範囲を撮像して撮像データを生成し、生成した撮像データをマーカー検出部155bに出力する。マーカー検出部155bは、入力された撮像データをPJ記憶部151に記憶させる。
マーカー検出部155bは、PJ記憶部151から撮像データを読み出し、読み出した撮像データを解析してマーカー3の画像を検出する。マーカー検出部155bは、マーカー情報33が示すマーカー3の特徴に一致する範囲を検出してマーカー3の画像を検出する。
マーカー検出部155bは、マーカー3の画像を検出すると、検出したマーカー3の画像からマーカー3の特徴を抽出する。本実施形態のマーカー3には、2次元コードが付されている。このため、マーカー検出部155bは、撮像データを2値化画像に変換し、変換した2値化画像から2次元コードを抽出する。次に、マーカー検出部155bは、抽出した2次元コードをデコードしてコード情報を取得する。マーカー検出部155bは、取得したコード情報に一致するマーカー情報33がPJ記憶部151に記憶されているか否かを判定する。マーカー検出部155bは、取得したコード情報に一致するマーカー情報33がPJ記憶部151に記憶されている場合、このコード情報に一致するマーカー情報33と、2次元コードを抽出した撮像データの範囲を示す範囲情報とを表示制御部155cに出力する。この範囲情報は、撮像座標により特定される情報である。
また、マーカー3に、画像コードが付されていない場合、マーカー検出部155bは、マーカー情報33が示す特徴に一致する画像の範囲を撮像データから検出する。マーカー検出部155bは、例えば、マーカー情報33が示す色や形状の物体が撮像された範囲を、マーカー3が撮像された範囲として検出する。マーカー検出部155bは、検出した範囲を示す範囲情報と、この範囲情報の検出に用いたマーカー情報33とを表示制御部155cに出力する。
表示制御部155cは、「制御部」として機能し、マーカー検出部155bが検出したマーカー3のマーカー情報33に対応づけられた画像データ31を取得し、取得した画像データ31を表示させる表示位置を決定する。
表示制御部155cは、まず、マーカー検出部155bが検出したマーカー3の位置を示す範囲情報である撮像座標を、フレームメモリー145の座標であるメモリー座標に変換する。表示制御部155cは、PJ記憶部151からキャリブレーションデータ153を読み出し、読み出したキャリブレーションデータ153により撮像座標をメモリー座標に変換する。
表示制御部155cは、まず、マーカー検出部155bが検出したマーカー3の位置を示す範囲情報である撮像座標を、フレームメモリー145の座標であるメモリー座標に変換する。表示制御部155cは、PJ記憶部151からキャリブレーションデータ153を読み出し、読み出したキャリブレーションデータ153により撮像座標をメモリー座標に変換する。
次に、表示制御部155cは、マーカー情報33に対応づけられた画像データ31をPJ記憶部151から読み出す。次に、表示制御部155cは、変換したマーカー3のメモリー座標と、読み出した画像データ31のサイズとに基づき、画像データ31を展開するフレームメモリー145のメモリー座標を決定する。例えば、表示制御部155cは、画像データ31の水平方向の中心位置に、マーカー3が位置するように画像データ31を展開するメモリー座標を決定する。また、表示制御部155cは、マーカー3と画像データ31とが垂直方向において予め設定された距離だけ離れ、画像データ31がマーカー3よりも下に位置するように画像データ31を展開するメモリー座標を決定する。
表示制御部155cは、画像データ31と、決定したメモリー座標とを画像処理部143に出力し、画像処理部143に画像処理を実行させる。画像処理部143は、入力された画像データ31を、入力されたメモリー座標が示すフレームメモリー145の座標に展開する。
図1に示すように、複数のマーカー3がスクリーンSCに固定され、マーカー検出部155bにより複数のマーカー3が検出される場合、フレームメモリー145には、マーカー3の各々に対応づけられた画像データ31が展開される。画像処理部143は、展開された画像データ31に対して画像処理を行い、処理後の画像データ31をフレームメモリー145から読み出して光変調装置駆動回路123に出力する。
光変調装置駆動回路123が、入力された画像データ31に基づいて駆動信号を生成し、生成した駆動信号により光変調装置113の光変調素子を駆動する。これにより光変調素子の透過率が、画像データ31に対応した透過率に制御される。光源111から射出された光が、画像が形成された光変調素子を透過することで画像光PLが生成され、生成された画像光PLが光学ユニット115によりスクリーンSCに投射される。
図4は、端末装置10と、スクリーンSCとに表示される画像を示す図である。
例えば、ユーザーの操作により端末装置10の表示パネル13aに表示された画像が、魚の画像5aから車の画像5bに変更されたと仮定する。
端末制御部20は、表示パネル13aの画像を、魚の画像5aから車の画像5bに変更すると、対応情報35を変更する。すなわち、端末制御部20は、マーカー情報33に対応づける画像データ31を、魚の画像5aの画像データ31から車の画像5bの画像データ31に変更する。
例えば、ユーザーの操作により端末装置10の表示パネル13aに表示された画像が、魚の画像5aから車の画像5bに変更されたと仮定する。
端末制御部20は、表示パネル13aの画像を、魚の画像5aから車の画像5bに変更すると、対応情報35を変更する。すなわち、端末制御部20は、マーカー情報33に対応づける画像データ31を、魚の画像5aの画像データ31から車の画像5bの画像データ31に変更する。
また、端末装置10に複数のマーカー3、すなわちマーカー情報33が登録されている場合、端末制御部20は、対応づける画像データ31を変更する対象となるマーカー情報33のマーカー3の画像を表示パネル13aに表示させてもよい。マーカー3の画像は、マーカー情報33の登録のときに端末撮像部17で撮像したマーカー3の撮像データにより生成される画像である。
端末制御部20は、対応情報35を書き替え、マーカー情報33に対応づけた画像データ31を変更すると、変更された画像データ31、マーカー情報33及び対応情報35を含む登録情報を再度、プロジェクター100に送信する。
PJ制御部150は、端末装置10から登録情報を受信すると、受信した登録情報をPJ記憶部151に記憶させる。これにより、プロジェクター100において、マーカー情報33に対応づけられた画像データ31が更新される。
PJ制御部150は、登録情報をPJ記憶部151に記憶させると、PJ撮像部139の撮像データを解析して、マーカー情報33に対応したマーカー3が検出されたか否かを判定する。PJ制御部150は、マーカー情報33に対応したマーカー3が検出されると、このマーカー情報33に対応づけられた画像データ31をPJ記憶部151から読み出し、画像処理部143、投射部110及び駆動部120を制御してスクリーンSCに表示させる。従って、プロジェクター100がスクリーンSCに表示する画像が、魚の画像5aから車の画像5bに変更される。
図5は、スクリーンSCに表示される画像を示す図である。特に、図5は、マーカー3を移動させた場合の投射画像5の表示位置の変化を示す図である。
図5に破線で示すマーカー3及び投射画像5は、位置を移動する前のマーカー3及び投射画像5を示す。また、図5に実線で示すマーカー3及び投射画像5は、位置を移動した後のマーカー3及び投射画像5を示す。
図5に破線で示すマーカー3及び投射画像5は、位置を移動する前のマーカー3及び投射画像5を示す。また、図5に実線で示すマーカー3及び投射画像5は、位置を移動した後のマーカー3及び投射画像5を示す。
PJ制御部150は、複数の撮像データに基づいてマーカー3の動きを検出し、検出したマーカー3の動きに基づいて投射画像5の表示位置を決定する。
PJ撮像部139は、予め設定された一定間隔で撮像を行って撮像データを生成する。このため、マーカー検出部155bは、PJ撮像部139が連続して撮像した撮像データの各々からマーカー3を検出することで、マーカー3の移動を検出することができる。表示制御部155cは、マーカー検出部155bから入力されるマーカー3の位置を示す範囲情報の変化に対応して画像データ31の表示位置を変更する。このため、ユーザーは、スクリーンSCに配置するマーカー3の位置を移動させることにより、スクリーンSCにおける投射画像5の表示位置を移動させることができる。
PJ撮像部139は、予め設定された一定間隔で撮像を行って撮像データを生成する。このため、マーカー検出部155bは、PJ撮像部139が連続して撮像した撮像データの各々からマーカー3を検出することで、マーカー3の移動を検出することができる。表示制御部155cは、マーカー検出部155bから入力されるマーカー3の位置を示す範囲情報の変化に対応して画像データ31の表示位置を変更する。このため、ユーザーは、スクリーンSCに配置するマーカー3の位置を移動させることにより、スクリーンSCにおける投射画像5の表示位置を移動させることができる。
図6は、スクリーンSCに表示される画像を示す図である。特に、図6は、マーカー3を回転させた場合の画像の変化を示す図である。
図6に破線で示すマーカー3及び投射画像5は、マーカー3を回転させる前の投射画像5を示す。また、図6に実線で示すマーカー3及び投射画像5は、マーカー3を回転させた後の投射画像5を示す。
図6に破線で示すマーカー3及び投射画像5は、マーカー3を回転させる前の投射画像5を示す。また、図6に実線で示すマーカー3及び投射画像5は、マーカー3を回転させた後の投射画像5を示す。
PJ制御部150は、複数の撮像データに基づいてマーカー3の動きを検出し、検出したマーカー3の動きに基づいて投射画像5の表示サイズを決定する。
本実施形態のマーカー3には、QRコードが付されている。マーカー3に付されたQRコードをPJ撮像部139により撮像し、撮像データを解析することで、マーカー3の動きとしての回転を検出することができる。QRコードには、複数の位置検出用パターンが形成されている。撮像データを解析して、位置検出用パターンの配置を特定することで、マーカー3に付されたQRコードの回転、及び回転の方向を検出することができる。
本実施形態のマーカー3には、QRコードが付されている。マーカー3に付されたQRコードをPJ撮像部139により撮像し、撮像データを解析することで、マーカー3の動きとしての回転を検出することができる。QRコードには、複数の位置検出用パターンが形成されている。撮像データを解析して、位置検出用パターンの配置を特定することで、マーカー3に付されたQRコードの回転、及び回転の方向を検出することができる。
マーカー検出部155bは、一定間隔で撮像される複数の撮像データからマーカー3の画像を検出し、検出したマーカー3の画像を比較してマーカー3の回転方向及び回転角度を検出する。マーカー検出部155bが検出したマーカー3の回転方向及び回転角度は、表示制御部155cに入力される。表示制御部155cは、入力された回転方向及び回転角度に基づき、画像データ31のサイズを縮小又は拡大させる。
例えば、表示制御部155cは、図6に示すように、マーカー3のスクリーンSCに向かって左方向の回転、すなわちマーカー3の反時計回りの回転を検出した場合、フレームメモリー145に展開する画像データ31のサイズを縮小させる。画像データ31の縮小率は、マーカー検出部155bにより検出されたマーカー3の回転角度に比例して設定される。例えば、表示制御部155cは、マーカー3の回転角度が大きくなるほど、画像データ31の縮小率を大きく設定する。
また、表示制御部155cは、図6に示すように、マーカー3のスクリーンSCに向かって右方向の回転、すなわちマーカー3の時計回りの回転を検出した場合、フレームメモリー145に展開する画像データ31のサイズを拡大させる。画像データ31の拡大率は、マーカー検出部155bにより検出されたマーカー3の回転角度に比例して設定される。表示制御部155cは、マーカー3の回転角度が大きくなるほど、画像データ31の拡大率を大きく設定する。
[4.端末装置の動作]
図7は、端末装置10の動作を示すフローチャートである。
図7に示すフローチャートを参照しながら端末装置10の動作について説明する。
端末制御部20は、制御プログラム22に含まれるアプリケーションプログラムがタッチ操作により選択されると、選択されたアプリケーションプログラムを端末プロセッサー23により実行する。これにより、アプリケーションプログラムが起動される(ステップS1)。
図7は、端末装置10の動作を示すフローチャートである。
図7に示すフローチャートを参照しながら端末装置10の動作について説明する。
端末制御部20は、制御プログラム22に含まれるアプリケーションプログラムがタッチ操作により選択されると、選択されたアプリケーションプログラムを端末プロセッサー23により実行する。これにより、アプリケーションプログラムが起動される(ステップS1)。
次に、端末制御部20は、マーカー3の登録要求を受け付けたか否かを判定する(ステップS2)。端末制御部20は、マーカー3の登録要求を受け付けた場合(ステップS2/YES)、まず、マーカー3を登録するための操作をガイドする案内を表示パネル13aに表示させる。次に、端末制御部20は、シャッターボタンの操作を受け付けたか否かを判定する(ステップS3)。端末制御部20は、シャッターボタンの操作を受け付けていない場合(ステップS3/NO)、シャッターボタンの操作を受け付けるまで待機する。
端末制御部20は、シャッターボタンの操作を受け付けると(ステップS3/YES)、端末撮像部17に撮像させて撮像データを生成させる(ステップS4)。端末制御部20は、端末制御部20が生成した撮像データを端末記憶部21に記憶させる(ステップS5)。
また、端末制御部20は、端末記憶部21から撮像データを読み出し、読み出した撮像データをデコードしてコード情報に変換する(ステップS6)。端末制御部20は、変換したコード情報をマーカー情報33として端末記憶部21に記憶させる(ステップS7)。
また、端末制御部20は、マーカー3の登録要求を受け付けていない場合(ステップS2/NO)、また、ステップS7の処理が終了した場合、画像データ31の選択要求を受け付けたか否かを判定する(ステップS8)。ここで選択される画像データ31は、プロジェクター100によりスクリーンSCに表示させる画像の元となるデータである。画像データ31は、ステップS1で起動させたアプリケーションプログラムが備える機能により生成したデータであってもよい。また、画像データ31は、ステップS1で起動させたアプリケーションプログラムの制御により、サーバー装置等の外部の装置からダウンロードしたデータであってもよい。
端末制御部20は、画像データ31の選択要求を受け付けていない場合(ステップS8/NO)、ステップS15の判定に移行する。また、端末制御部20は、画像データ31の選択要求を受け付けた場合(ステップS8/YES)、マーカー情報33を登録済みであるか否かを判定する(ステップS9)。端末制御部20は、マーカー情報33が登録済みではない場合(ステップS9/NO)、マーカー情報33の登録を要求する案内を表示パネル13aに表示させ(ステップS10)、ステップS2に移行する。
また、端末制御部20は、マーカー情報33が登録済みである場合(ステップS9/YES)、画像データ31のサムネイル画像を表示パネル13aに表示させ、画像データ31を選択する操作を受け付ける(S11)。端末制御部20は、画像データ31を選択する操作を受け付けていない場合(ステップS11/NO)、操作を受け付けるまで待機する。また、端末制御部20は、画像データ31を選択する操作を受け付けると、選択された画像データ31の画像識別情報と、マーカー情報33のマーカー識別情報とを対応づけて対応情報35を生成する(ステップS12)。端末制御部20は、生成した対応情報35を端末記憶部21に記憶させる。
次に、端末制御部20は、画像データ31の登録要求を受け付けたか否か、又は対応情報35が変更されたか否かを判定する(ステップS13)。端末制御部20は、画像データ31の登録要求を受け付けていない場合、又は対応情報35が変更されていない場合(ステップS13/NO)、ステップS15の判定に移行する。
また、端末制御部20は、画像データ31の登録要求を受け付けた場合、又は対応情報35が変更されると(ステップS13/YES)、画像データ31、マーカー情報33及び対応情報35を含む登録情報をプロジェクター100に送信する(ステップS14)。
次に、端末制御部20は、アプリケーションプログラムを終了させる終了操作を受け付けたか否かを判定する(ステップS15)。端末制御部20は、アプリケーションプログラムの終了操作を受け付けた場合(ステップS15/YES)、この処理フローを終了させる。また、端末制御部20は、アプリケーションプログラムの終了操作を受け付けていない場合(ステップS15/NO)、ステップS2の判定に戻る。
[5.プロジェクターの動作]
図8は、プロジェクター100の動作を示すフローチャートである。
図8に示すフローチャートを参照しながらプロジェクター100の動作を説明する。プロジェクター100は、制御プログラム152に含まれるアプリケーションプログラムがリモコンの操作により選択されると、この選択されたアプリケーションプログラムをPJ制御部150が実行する。これにより、アプリケーションプログラムが起動される(ステップT1)。
図8は、プロジェクター100の動作を示すフローチャートである。
図8に示すフローチャートを参照しながらプロジェクター100の動作を説明する。プロジェクター100は、制御プログラム152に含まれるアプリケーションプログラムがリモコンの操作により選択されると、この選択されたアプリケーションプログラムをPJ制御部150が実行する。これにより、アプリケーションプログラムが起動される(ステップT1)。
次に、PJ制御部150は、登録情報の登録要求を端末装置10から受信したか否かを判定する(ステップT2)。PJ制御部150は、登録要求を受信していない場合(ステップT2/NO)、PJ記憶部151に対応情報35が記憶されているか否かを判定する(ステップT5)。
PJ制御部150は、PJ記憶部151に対応情報35が記憶されている場合(ステップT5/YES)、ステップT6の判定に移行する。また、PJ制御部150は、PJ記憶部151に対応情報35が記憶されていない場合(ステップT5/NO)、ステップT2の判定に戻り、登録情報の登録要求を端末装置10から受信したか否かを判定する。
PJ制御部150は、登録情報の登録要求を端末装置10から受信すると(ステップT2/YES)、端末装置10から登録情報を受信する(ステップT3)。PJ制御部150は、受信した対応情報35に従って画像データ31とマーカー情報33とを対応づけてPJ記憶部151に記憶させる(ステップT4)。
次に、PJ制御部150は、PJ撮像部139が撮像した撮像データを解析して、PJ記憶部151に記憶されたマーカー情報33の特徴に一致するマーカー3を検出する(ステップT6)。具体的には、PJ制御部150は、撮像データを2値化画像に変換し、変換した2値化画像から2次元コードを抽出する。PJ制御部150は、抽出した2次元コードをデコードしてコード情報を取得し、取得したコード情報に一致するマーカー情報33がPJ記憶部151に記憶されているか否かを判定する。PJ制御部150は、取得したコード情報に一致するマーカー情報33がPJ記憶部151に記憶されている場合、マーカー3を検出したと判定する。また、PJ制御部150は、取得したコード情報に一致するマーカー情報33がPJ記憶部151に記憶されていない場合、マーカー3を検出していないと判定する。
PJ制御部150は、マーカー3を検出していない場合(ステップT6/NO)、ステップT12に移行し、アプリケーションプログラムを終了させる操作を受け付けたか否かを判定する(ステップT12)。PJ制御部150は、アプリケーションプログラムを終了させる操作を受け付けた場合(ステップT12/YES)、この処理フローを終了させる。また、PJ制御部150は、アプリケーションプログラムを終了させる操作を受け付けていない場合(ステップT12/NO)、ステップT2の判定に戻る。
また、PJ制御部150は、マーカー3を検出した場合(ステップT6/YES)、コード情報が検出された撮像データの範囲を示す撮像座標を、キャリブレーションデータ153によりメモリー座標に座標変換する(ステップT7)。
次にPJ制御部150は、抽出したコード情報、すなわち、マーカー情報33に対応づけられた画像データ31をPJ記憶部151から取得する(ステップT8)。次に、PJ制御部150は、取得した画像データ31のサイズと、座標変換したメモリー座標とに基づき、画像データ31を展開するフレームメモリー145の展開位置を決定する。PJ制御部150は、展開位置を示すフレームメモリー145のメモリー座標を生成し、生成したメモリー座標と、画像データ31とを画像処理部143に出力する。
画像処理部143は、PJ制御部150から入力されたフレームメモリー145のメモリー座標に、入力された画像データ31を展開する。スクリーンSCに複数のマーカー3が配置され、撮像データから複数のマーカー情報33が検出される場合、他のマーカー3に対応づけられた画像データ31もフレームメモリー145に展開される。画像処理部143は、フレームメモリー145に展開された画像データ31を読み出して光変調装置駆動回路123に出力する。この後、この読み出された画像データ31に対応した画像光が投射部110により生成され、スクリーンSCに投射される(ステップT11)。この後、PJ制御部150は、ステップT6の判定に戻る。
以上説明したように第1実施形態の表示システム1Aは、端末装置10により、マーカー3の特徴を示すマーカー情報33を取得し、表示対象の画像とマーカー情報33とを対応づける対応情報35を生成する。
また、プロジェクター100により、スクリーンSCに配置されたマーカー3を検出し、検出したマーカー3の特徴を抽出し、抽出した特徴に対応するマーカー情報33と、対応情報35とに基づいて対応づけられた画像を特定する。また、プロジェクター100は、検出したマーカー3の位置に基づいて画像の表示位置を決定し、特定した画像を決定した表示位置に表示する。
従って、マーカー3と画像データ31との対応づけが容易となり、スクリーンSCに表示させる画像を容易に変更することができる。
また、プロジェクター100により、スクリーンSCに配置されたマーカー3を検出し、検出したマーカー3の特徴を抽出し、抽出した特徴に対応するマーカー情報33と、対応情報35とに基づいて対応づけられた画像を特定する。また、プロジェクター100は、検出したマーカー3の位置に基づいて画像の表示位置を決定し、特定した画像を決定した表示位置に表示する。
従って、マーカー3と画像データ31との対応づけが容易となり、スクリーンSCに表示させる画像を容易に変更することができる。
また、端末装置10により、画像データ31を取得し、取得した画像データ31と、マーカー情報33とを対応づける対応情報35を生成する。
従って、端末装置10により、プロジェクター100に表示させる画像を変更することができる。
従って、端末装置10により、プロジェクター100に表示させる画像を変更することができる。
プロジェクター100は、対応情報35に従って、マーカー情報33に対応づけて画像の元になる画像データ31をPJ記憶部151に記憶させる。
また、プロジェクター100により、検出したマーカー3の特徴に対応するマーカー情報33を取得し、取得したマーカー情報33に対応づけられた画像データ31をPJ記憶部151から取得して表示する。
従って、プロジェクター100により、スクリーンSCに配置されたマーカー3に対応した画像を表示させることができる。
また、プロジェクター100により、検出したマーカー3の特徴に対応するマーカー情報33を取得し、取得したマーカー情報33に対応づけられた画像データ31をPJ記憶部151から取得して表示する。
従って、プロジェクター100により、スクリーンSCに配置されたマーカー3に対応した画像を表示させることができる。
また、プロジェクター100により、スクリーンSCを撮像して撮像画像を生成し、生成した撮像画像からマーカー3を検出してマーカー3の位置及び特徴を検出する。
従って、マーカー3の位置及び特徴の検出が容易になる。
従って、マーカー3の位置及び特徴の検出が容易になる。
また、プロジェクター100により、複数の撮像画像に基づいてマーカー3の動きを検出し、検出したマーカー3の動きに基づいて画像の表示位置及び表示サイズの少なくとも一方を決定する。
従って、マーカー3を動かすことにより、画像の表示位置及び表示サイズの少なくとも一方を変更することができる。
従って、マーカー3を動かすことにより、画像の表示位置及び表示サイズの少なくとも一方を変更することができる。
端末装置10により、マーカー3が撮像された撮像データからマーカー情報33を取得する。
従って、簡易な構成でマーカー情報33を取得することができる。
従って、簡易な構成でマーカー情報33を取得することができる。
また、マーカー情報33には、マーカー3として使用される物体の形状又は色が含まれる。
従って、マーカー3の特定が容易になる。
従って、マーカー3の特定が容易になる。
また、マーカー3は、画像コードとしてQRコードを含み、マーカー情報33は、画像コードをデコードした情報が含まれる。
従って、マーカー3の特定がより容易になる。
従って、マーカー3の特定がより容易になる。
[第2実施形態]
図9は、第2実施形態の表示システム1Bのシステム構成を示す図である。
第2実施形態の表示システム1Bは、端末装置10、プロジェクター100に加え、サーバー装置200を備える。この第2実施形態において、サーバー装置200は、「記憶装置」に相当する。
図9は、第2実施形態の表示システム1Bのシステム構成を示す図である。
第2実施形態の表示システム1Bは、端末装置10、プロジェクター100に加え、サーバー装置200を備える。この第2実施形態において、サーバー装置200は、「記憶装置」に相当する。
端末装置10及びプロジェクター100は、サーバー装置200に通信可能に接続される。例えば、同一のWi−Fiのアクセスポイントに、プロジェクター100、端末装置10及びサーバー装置200を接続した構成であってもよい。Wi−Fiは、登録商標である。また、サーバー装置200をインターネット等の通信ネットワーク上に配置し、端末装置10及びプロジェクター100が通信ネットワークを介してサーバー装置200にアクセスする構成であってもよい。
この第2実施形態では、端末装置10は、画像データ31、マーカー情報33及び対応情報35を含む登録情報をサーバー装置200に送信して、サーバー装置200に登録する。
[6.サーバー装置の構成]
サーバー装置200は、通信部210、サーバー記憶部220及びサーバー制御部230を備える。通信部210は、通信ネットワークを介して端末装置10及びプロジェクター100とのデータ通信を行う。
サーバー装置200は、通信部210、サーバー記憶部220及びサーバー制御部230を備える。通信部210は、通信ネットワークを介して端末装置10及びプロジェクター100とのデータ通信を行う。
サーバー記憶部220は、例えば、ハードディスクドライブにより構成される。サーバー記憶部220は、端末装置10から受信した対応情報35に従って、画像データ31とマーカー情報33とを対応づけて記憶する。
サーバー制御部230は、サーバープロセッサー231を備える。サーバープロセッサー231は、制御プログラムを実行してサーバー装置200の各部を制御する。
[7.サーバー装置の動作]
図10は、サーバー装置200の動作を示すフローチャートである。
図10を参照しながらサーバー装置200の動作について説明する。
サーバー制御部230は、端末装置10から登録情報のアップロード要求を受信したか否かを判定する(ステップU1)。サーバー制御部230は、登録情報のアップロード要求を受信していない場合(ステップU1/NO)、ステップU3の判定に移行する。また、サーバー制御部230は登録情報のアップロード要求を受信した場合(ステップU1/YES)、端末装置10からアップロードされる登録情報を受信する。サーバー制御部230は、受信した登録情報に含まれる対応情報35に従って、画像データ31とマーカー情報33とを対応づけてサーバー記憶部220に記憶させる(ステップU2)。
図10は、サーバー装置200の動作を示すフローチャートである。
図10を参照しながらサーバー装置200の動作について説明する。
サーバー制御部230は、端末装置10から登録情報のアップロード要求を受信したか否かを判定する(ステップU1)。サーバー制御部230は、登録情報のアップロード要求を受信していない場合(ステップU1/NO)、ステップU3の判定に移行する。また、サーバー制御部230は登録情報のアップロード要求を受信した場合(ステップU1/YES)、端末装置10からアップロードされる登録情報を受信する。サーバー制御部230は、受信した登録情報に含まれる対応情報35に従って、画像データ31とマーカー情報33とを対応づけてサーバー記憶部220に記憶させる(ステップU2)。
次に、サーバー制御部230は、プロジェクター100からマーカー情報33を受信したか否かを判定する(ステップU3)。サーバー制御部230は、マーカー情報33を受信していない場合(ステップU3/NO)、ステップU1の判定に戻る。
また、サーバー制御部230は、マーカー情報33を受信した場合(ステップU3/YES)、受信したマーカー情報33に対応づけられた画像データ31がサーバー記憶部220に記憶されているか否かを判定する(ステップU4)。サーバー制御部230は、画像データ31がサーバー記憶部220に記憶されていない場合(ステップU4/NO)、プロジェクター100にエラーを通知する(ステップU6)。また、サーバー制御部230は、画像データ31がサーバー記憶部220に記憶されている場合(ステップU4/YES)、該当する画像データ31をプロジェクター100にダウンロードする(ステップU5)。
[8.プロジェクターの動作]
図11は、プロジェクター100の動作を示すフローチャートである。
図11に示すフローチャートを参照しながらプロジェクター100の動作について説明する。
プロジェクター100は、制御プログラム152に含まれるアプリケーションプログラムがリモコンの操作により選択されると、この選択されたアプリケーションプログラムをPJ制御部150が実行する。これにより、アプリケーションプログラムが起動される(ステップT21)。
図11は、プロジェクター100の動作を示すフローチャートである。
図11に示すフローチャートを参照しながらプロジェクター100の動作について説明する。
プロジェクター100は、制御プログラム152に含まれるアプリケーションプログラムがリモコンの操作により選択されると、この選択されたアプリケーションプログラムをPJ制御部150が実行する。これにより、アプリケーションプログラムが起動される(ステップT21)。
PJ制御部150は、PJ撮像部139に撮像を実行させ(ステップT22)、撮像データを取得する。PJ制御部150は、取得した撮像データを解析してマーカー3を検出する(ステップT23)。PJ制御部150は、撮像データを処理してコード情報を取得する。PJ制御部150は、コード情報を取得した場合、マーカー3を検出したと判定する(ステップT23/YES)。また、PJ制御部150は、コード情報を取得できなかった場合、マーカー3を検出できなかったと判定する(ステップT23/NO)。
PJ制御部150は、マーカー3を検出できなかった場合(ステップT23/NO)、ステップT31の判定に移行する。また、PJ制御部150は、マーカー3を検出した場合(ステップT23/YES)、取得したコード情報をマーカー情報33としてサーバー装置200にアップロードする(ステップT24)。次に、PJ制御部150は、サーバー装置200から画像データ31を受信したか否かを判定する(ステップT25)。
PJ制御部150は、サーバー装置200から画像データ31を受信できなかった場合(ステップT25/NO)、スクリーンSCにエラー表示を表示させる。このエラー表示には、「マーカー3に画像データ31が対応づけられていません」といったメッセージが含まれる。その後、PJ制御部150は、ステップT31の判定に移行する。
また、PJ制御部150は、画像データ31を受信した場合(ステップT25/YES)、コード情報が検出された撮像データの範囲を示す撮像座標を、キャリブレーションデータ153によりメモリー座標に座標変換する(ステップT26)。
次にPJ制御部150は、受信した画像データ31のサイズと、座標変換したメモリー座標とに基づき、画像データ31を展開するフレームメモリー145の展開位置を決定する(ステップT27)。PJ制御部150は、展開位置を示すフレームメモリー145のメモリー座標を生成し、生成したメモリー座標と、画像データ31とを画像処理部143に出力する。
画像処理部143は、PJ制御部150から入力されたフレームメモリー145のメモリー座標に、入力された画像データ31を展開する(ステップT28)。スクリーンSCに複数のマーカー3が配置され、撮像データから複数のマーカー情報33が検出される場合、他のマーカー3に対応づけられた画像データ31もフレームメモリー145に展開される。画像処理部143は、フレームメモリー145に展開された画像データ31を読み出して光変調装置駆動回路123に出力する。この後、この読み出された画像データ31に対応した画像光が投射部110により生成され、スクリーンSCに投射される(ステップT29)。
次に、PJ制御部150は、アプリケーションプログラムを終了させる操作を受け付けたか否かを判定する。PJ制御部150は、アプリケーションプログラムを終了させる操作を受け付けた場合(ステップT31/YES)、この処理フローを終了させる。また、PJ制御部150は、アプリケーションプログラムを終了させる操作を受け付けていない場合(ステップT31/NO)、ステップT22に戻り、撮像データを取得する。
上記実施形態は本発明を適用した一具体例を示すものであり、本発明はこれに限定されるものではない。
例えば、上述した実施形態では、画像データ31とマーカー3とを対応づける場合を例にして説明したが、マーカー3との対応づけは画像データ31に限らない。例えば、画像データ31をプロジェクター100に出力する装置と、マーカー3とを対応づけてもよい。装置の識別情報は、例えば、プロジェクター100が認識可能な識別情報であり、例えば、MACアドレスやIPアドレス、Bluetoothアドレス等を用いてもよい。
例えば、上述した実施形態では、画像データ31とマーカー3とを対応づける場合を例にして説明したが、マーカー3との対応づけは画像データ31に限らない。例えば、画像データ31をプロジェクター100に出力する装置と、マーカー3とを対応づけてもよい。装置の識別情報は、例えば、プロジェクター100が認識可能な識別情報であり、例えば、MACアドレスやIPアドレス、Bluetoothアドレス等を用いてもよい。
また、マーカー3の特徴に対応づけてスクリーンSCに表示される投射画像5のサイズや投射位置が設定されてもよい。プロジェクター100は、撮像データから検出したマーカー3の外見上の特徴である色や、模様、形状、サイズに基づいて投射画像5のサイズや投射位置を決定する。また、プロジェクター100は、検出したコード情報に基づいて投射画像5のサイズや投射位置を決定してもよい。
また、プロジェクター100は、マーカー3の位置に基づいて決定した表示位置が、投射領域PAからはみ出す場合、画像データ31を展開するフレームメモリー145の位置や、画像データ31のサイズを変更してもよい。プロジェクター100は、画像データ31が投射領域PAからはみ出さないように、画像データ31を展開するフレームメモリー145の位置や、画像データ31のサイズを変更する。
また、上記した実施形態では、プロジェクター100がマーカー3を光学的に検出する例を説明したが、本発明はこれに限定されない。例えば、プロジェクター100は、対象範囲IAにおいてマーカー3を無線通信により検出する構成であってもよい。例えば、マーカー3がBluetoothや、ビーコン、RFIDタグで構成され、プロジェクター100が、マーカー3からの無線信号を受信することで検出を行ってもよい。
また、上記した実施形態では、「検出装置」に対応するPJ撮像部139がプロジェクター内部にある例を説明したが、本発明はこれに限定されない。例えば、プロジェクター100の外部に設置されたデジタルカメラを「検出装置」として用いてマーカー3の撮像を行い、撮像データをプロジェクター100に送信する構成であってもよい。
また、上記実施形態では、対象範囲IAが投射領域PAに一致する構成を例示したが、本発明はこれに限定されない。対象範囲IAは、投射領域PAの一部を含むことが好ましいが、投射領域PAと一致していなくてもよく、対象範囲IAが投射領域PA及びその周辺を含んでも良いし、投射領域PAの一部が対象範囲IAとなる構成であってもよい。
また、本発明の表示装置はプロジェクター100に限定されない。例えば、液晶表示パネルに画像を表示する液晶モニター又は液晶テレビを表示装置として用いてもよいし、OLED(Organic light−emitting diode)、OEL(Organic Electro Luminescence)ディスプレイ等を用いてもよい。その他の表示方式を利用する装置にも適用可能である。
また、図2に示した端末装置10、及び図3に示したプロジェクター100の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、複数のプロセッサーが協働して、一つまたは複数の機能部の機能を実現する構成とすることも可能である。さらに、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、或いは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、表示システム1を構成する他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、表示方法を、コンピューターを用いて実現する場合、このコンピューターに実行させるプログラムを記録媒体、又はこのプログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD(Hard Disk Drive)、CD−ROM(Compact Disk Read Only Memory)、DVD、Blu−ray Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、プロジェクター100が備えるRAM(Random Access Memory)、ROM(Read Only Memory)、HDD等の不揮発性記憶装置であってもよい。Blu−rayは、登録商標である。
また、図7、図8、図10及び図11に示すフローチャートの処理単位は、端末制御部20、PJ制御部150及びサーバー制御部230の処理を理解容易にするために、主な処理内容に応じて分割したものである。このため、図7、図8、図10及び図11のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、端末制御部20、PJ制御部150及びサーバー制御部230の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
3…マーカー、5…投射画像、5a…魚の画像、5b…車の画像、7…ケーブル、10…端末装置、11…端末無線通信部(データ取得部)、13a…表示パネル、13b…操作検出部、15…操作部、17…端末撮像部(撮像部、情報取得部、データ取得部)、20…端末制御部(データ取得部)、21…端末記憶部、22…制御プログラム、23…端末プロセッサー、23a…情報取得部、23b…生成部、23c…通信制御部(データ取得部)、31…画像データ、33…マーカー情報、35…対応情報、100…プロジェクター、105…バス、110…投射部、111…光源、113…光変調装置、115…光学ユニット、120…駆動部、121…光源駆動回路、123…光変調装置駆動回路、131…入力インターフェイス、133…リモコン受光部、135…操作パネル、137…PJ無線通信部、139…PJ撮像部(検出部、検出装置)、141…画像インターフェイス、143…画像処理部、145…フレームメモリー、150…PJ制御部、151…PJ記憶部(記憶装置)、152…制御プログラム、153…キャリブレーションデータ、155…PJプロセッサー、155a…通信制御部、155b…マーカー検出部(検出部)、155c…表示制御部(制御部)、200…サーバー装置(記憶装置)、210…通信部、220…サーバー記憶部、230…サーバー制御部、231…サーバープロセッサー、IA…対象範囲、PA…投射領域、SC…スクリーン。
Claims (16)
- 端末装置により、マーカーの特徴を示すマーカー情報を取得し、
前記端末装置により、表示対象の画像と前記マーカー情報とを対応づける対応情報を生成し、
検出装置により、表示面に配置されたマーカーを検出し、
表示装置により、検出された前記マーカーの特徴を抽出し、抽出した前記特徴に対応する前記マーカー情報と、前記対応情報とに基づき、対応づけられた画像を特定し、
前記表示装置により、検出された前記マーカーの位置に基づいて前記画像の表示位置を決定し、
前記表示装置により、特定した前記画像を決定した前記表示位置に表示する、
表示方法。 - 前記端末装置により、画像の元となる画像データを取得し、取得した前記画像データと、前記マーカー情報とを対応づける前記対応情報を生成する、請求項1記載の表示方法。
- 前記表示装置により、抽出した前記マーカーの特徴に対応する前記マーカー情報を取得し、
前記表示装置により、前記対応情報に従って前記マーカー情報に対応づけて前記画像データを記憶した記憶装置から、取得した前記マーカー情報に対応づけられた前記画像データを取得して表示する、請求項2記載の表示方法。 - 前記検出装置により、前記表示面を撮像して撮像画像を生成し、
前記表示装置により、生成された前記撮像画像から前記マーカーを検出して前記マーカーの特徴を抽出すると共に、前記マーカーの位置を検出する、請求項1から3のいずれか一項に記載の表示方法。 - 前記表示装置により、生成された複数の前記撮像画像に基づいて前記マーカーの動きを検出し、
前記表示装置により、検出した前記マーカーの動きに基づいて前記画像の表示位置及び表示サイズの少なくとも一方を決定する、請求項4記載の表示方法。 - 前記端末装置により、前記マーカーが撮像された撮像画像から前記マーカー情報を取得する、請求項1から5のいずれか一項に記載の表示方法。
- 前記マーカー情報は、前記マーカーとして使用される物体の形状又は色を含む、請求項1から6のいずれか一項に記載の表示方法。
- 前記マーカーは、画像コードを含み、前記マーカー情報は、前記画像コードをデコードした情報を含む、請求項1から7のいずれか一項に記載の表示方法。
- マーカーの特徴を示すマーカー情報を取得する情報取得部と、表示対象の画像と前記マーカー情報とを対応づける対応情報を生成する生成部と、を備える端末装置と、
表示面に画像を表示する表示部と、前記表示面に配置された前記マーカーの位置及び特徴を検出する検出部と、検出された前記マーカーの特徴に対応する前記マーカー情報と、前記対応情報とに基づき、対応づけられた画像を特定し、検出した前記マーカーの位置に基づいて前記画像の表示位置を決定する制御部と、特定した前記画像を決定した前記表示位置に表示させる制御部と、を備える表示装置と、
を備える、表示システム。 - 前記端末装置は、画像の元となる画像データを取得するデータ取得部を備え、
前記生成部は、前記情報取得部が取得した前記マーカー情報と、前記データ取得部が取得した前記画像データとを対応づける前記対応情報を生成する、請求項9記載の表示システム。 - 前記端末装置が生成する前記対応情報に従って、前記マーカー情報に対応づけて前記画像データを記憶する記憶装置を備え、
前記表示装置は、検出した前記マーカーの特徴に対応する前記マーカー情報を取得し、取得した前記マーカー情報に対応づけられた前記画像データを前記記憶装置から取得して表示する、請求項10記載の表示システム。 - 前記表示装置は、前記表示面を撮像する撮像部を備え、
前記制御部は、前記撮像部が生成した撮像画像から前記マーカーを検出して前記マーカーの位置及び特徴を検出する、請求項9から11のいずれか一項に記載の表示システム。 - 前記制御部は、複数の前記撮像画像に基づいて前記マーカーの動きを検出し、検出した前記マーカーの動きに基づいて前記画像の表示位置及び表示サイズの少なくとも一方を決定する、請求項12記載の表示システム。
- 前記端末装置は、撮像部を備え、
前記情報取得部は、前記撮像部が生成した前記マーカーの撮像画像から前記マーカー情報を取得する、請求項9から13のいずれか一項に記載の表示システム。 - 前記マーカー情報は、前記マーカーとして使用される物体の形状又は色を含む、請求項9から14のいずれか一項に記載の表示システム。
- 前記マーカーは、画像コードを含み、前記マーカー情報は、画像コードをデコードした情報を含む、請求項9から14のいずれか一項に記載の表示システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019032414A JP2020134895A (ja) | 2019-02-26 | 2019-02-26 | 表示方法及び表示システム |
CN202010111010.8A CN111614947A (zh) | 2019-02-26 | 2020-02-24 | 显示方法以及显示系统 |
US16/799,965 US20200275069A1 (en) | 2019-02-26 | 2020-02-25 | Display method and display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019032414A JP2020134895A (ja) | 2019-02-26 | 2019-02-26 | 表示方法及び表示システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020134895A true JP2020134895A (ja) | 2020-08-31 |
Family
ID=72140161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019032414A Pending JP2020134895A (ja) | 2019-02-26 | 2019-02-26 | 表示方法及び表示システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200275069A1 (ja) |
JP (1) | JP2020134895A (ja) |
CN (1) | CN111614947A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022119093A (ja) * | 2021-02-03 | 2022-08-16 | セイコーエプソン株式会社 | 設定方法、及びプログラム |
WO2022181106A1 (ja) * | 2021-02-26 | 2022-09-01 | 富士フイルム株式会社 | 制御装置、制御方法、制御プログラム、及び投影装置 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021158625A (ja) * | 2020-03-30 | 2021-10-07 | セイコーエプソン株式会社 | 設定支援方法、及び設定支援装置 |
JP7287379B2 (ja) * | 2020-12-10 | 2023-06-06 | セイコーエプソン株式会社 | 表示方法、検出装置、および、プログラム |
JP2022099487A (ja) * | 2020-12-23 | 2022-07-05 | セイコーエプソン株式会社 | 画像表示システム、画像表示システムの制御方法、及び、表示装置の制御方法 |
JP2022123300A (ja) * | 2021-02-12 | 2022-08-24 | セイコーエプソン株式会社 | 表示方法および表示システム |
JP2023043372A (ja) * | 2021-09-16 | 2023-03-29 | セイコーエプソン株式会社 | 画像表示方法、及び、プロジェクター |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011081469A (ja) * | 2009-10-05 | 2011-04-21 | Hitachi Consumer Electronics Co Ltd | 入力装置 |
KR101436914B1 (ko) * | 2012-07-23 | 2014-09-11 | 대구광역시 달서구 | 가상 체험 시스템 |
JP6155889B2 (ja) * | 2013-06-19 | 2017-07-05 | 富士通株式会社 | システムの制御方法、携帯情報端末の制御方法、携帯情報端末 |
JP6314564B2 (ja) * | 2014-03-17 | 2018-04-25 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
JP7111416B2 (ja) * | 2017-03-24 | 2022-08-02 | 日本電気株式会社 | 携帯端末、情報処理システム、制御方法、及びプログラム |
-
2019
- 2019-02-26 JP JP2019032414A patent/JP2020134895A/ja active Pending
-
2020
- 2020-02-24 CN CN202010111010.8A patent/CN111614947A/zh active Pending
- 2020-02-25 US US16/799,965 patent/US20200275069A1/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022119093A (ja) * | 2021-02-03 | 2022-08-16 | セイコーエプソン株式会社 | 設定方法、及びプログラム |
JP7243748B2 (ja) | 2021-02-03 | 2023-03-22 | セイコーエプソン株式会社 | 設定方法、及びプログラム |
WO2022181106A1 (ja) * | 2021-02-26 | 2022-09-01 | 富士フイルム株式会社 | 制御装置、制御方法、制御プログラム、及び投影装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111614947A (zh) | 2020-09-01 |
US20200275069A1 (en) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020134895A (ja) | 表示方法及び表示システム | |
US9257035B2 (en) | Remote control device, remote control system, and storage medium storing control program, and medium to be attached to electrical device | |
US20170142379A1 (en) | Image projection system, projector, and control method for image projection system | |
JP6503771B2 (ja) | プロジェクター及び制御方法 | |
US9524412B2 (en) | Lighting apparatus, lighting system and method of registering lighting apparatus | |
KR102627612B1 (ko) | 증강현실을 이용한 주변 정보 표시 방법 및 그 전자 장치 | |
US10536627B2 (en) | Display apparatus, method of controlling display apparatus, document camera, and method of controlling document camera | |
JP4710734B2 (ja) | ポインティング装置、ポインティング位置検出方法及びプログラム | |
US20190278468A1 (en) | Electronic apparatus, display device, and method of controlling electronic apparatus | |
JP2017083550A (ja) | 情報処理装置、画像投影システムおよびプログラム | |
US20200184932A1 (en) | Method for controlling display device, display device, and display system | |
US10172173B2 (en) | Information processing system and display device | |
JP2010183230A (ja) | 画像入力装置、画像表示装置、及び画像表示システム | |
JP6450498B2 (ja) | 画像処理装置、画像処理システム、及び画像処理方法 | |
US10104346B2 (en) | Projector and control method for projector | |
JP2020008750A (ja) | 表示装置および表示処理方法 | |
CN115834846A (zh) | 图像显示方法及投影仪 | |
JP6620979B2 (ja) | 携帯端末、投写システム、投写システムの制御方法およびプログラム | |
JP2016164704A (ja) | 画像表示装置および画像表示システム | |
US11294614B2 (en) | Display system and control method | |
JP6358069B2 (ja) | 情報出力制御装置及びプログラム | |
JP7416231B2 (ja) | 設置支援装置、設置支援方法、およびプログラム | |
JP2020086103A (ja) | 表示システム、及び制御方法 | |
JP2022133582A (ja) | 表示装置の制御方法、表示装置、および表示システム | |
JP2017198945A (ja) | 投影装置、投影装置の制御方法、プログラム |