JP2020144413A - 表示方法および表示装置 - Google Patents
表示方法および表示装置 Download PDFInfo
- Publication number
- JP2020144413A JP2020144413A JP2019038289A JP2019038289A JP2020144413A JP 2020144413 A JP2020144413 A JP 2020144413A JP 2019038289 A JP2019038289 A JP 2019038289A JP 2019038289 A JP2019038289 A JP 2019038289A JP 2020144413 A JP2020144413 A JP 2020144413A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- region
- display
- whiteboard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19167—Active pattern learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
Abstract
【課題】物体の認識の処理負荷を低減可能な技術を提供する。【解決手段】第1領域の画像を示す第1部分データと、第2領域のうち第1領域とは異なる領域の画像を示す第2部分データを含む撮像データを取得し、第2部分データを用いず、第1部分データを用いて、第1領域に位置する物体を認識し、物体が第1機能を有する第1指示体であると認識する場合、物体が第1領域から表示面に移動すると、表示面上の物体の位置に応じた部分に第1機能に対応する第1処理が施されている第1画像を表示面に表示し、物体が第1機能とは異なる第2機能を有する第2指示体であると認識する場合、物体が第1領域から表示面に移動すると、表示面上の物体の位置に応じた部分に第2機能に対応し第1処理とは異なる第2処理が施されている第2画像を表示面に表示する。【選択図】図6
Description
本発明は、表示方法および表示装置に関する。
特許文献1には、画像が表示されている表示面上の指示体をデジタルカメラで撮像することによって生成した撮像データ全体を解析することで指示体に関する判断を行い、当該判断の結果に基づいて、描画処理を実行する画像表示装置が記載されている。
特許文献1に記載の画像表示装置は、指示体に関する判断を行うために、撮像データ全体を用いる必要があり、処理負荷が大きかった。
本発明に係る表示方法の一態様は、表示装置が実行する表示方法であって、第1領域を含む第2領域を撮像することによって生成された撮像データであって、前記第1領域の画像を示す第1部分データと、前記第2領域のうち前記第1領域とは異なる領域の画像を示す第2部分データを含む前記撮像データを取得し、前記第2部分データを用いず、前記第1部分データを用いて、前記第1領域に位置する物体を認識し、前記物体が第1機能を有する第1指示体であると認識する場合、前記物体が前記第1領域から表示面に移動すると、前記表示面上の前記物体の位置に応じた部分に前記第1機能に対応する第1処理が施されている第1画像を前記表示面に表示し、前記物体が前記第1機能とは異なる第2機能を有する第2指示体であると認識する場合、前記物体が前記第1領域から前記表示面に移動すると、前記表示面上の前記物体の位置に応じた部分に前記第2機能に対応し前記第1処理とは異なる第2処理が施されている第2画像を前記表示面に表示する。
本発明に係る表示装置の一態様は、表示面に画像を表示する表示部と、第1領域を含む第2領域を撮像することによって生成された撮像データであって、前記第1領域の画像を示す第1部分データと、前記第2領域のうち前記第1領域とは異なる領域の画像を示す第2部分データを含む前記撮像データを取得する取得部と、前記第2部分データを用いずに、前記第1部分データを用いて、前記第1領域に位置する物体を認識する認識部と、前記認識部の認識結果に基づいて、前記表示部を制御する表示制御部と、を含み、前記表示制御部は、前記物体が第1機能を有する第1指示体であると認識される場合、前記物体が前記第1領域から表示面に移動すると、前記表示部を制御することによって、前記表示面上の前記物体の位置に応じた部分に前記第1機能に対応する処理が施されている第1画像を前記表示面へ表示させ、前記物体が前記第1機能とは異なる第2機能を有する第2指示体であると認識される場合、前記物体が前記第1領域から前記表示面に移動すると、前記表示部を制御することによって、前記表示面上の前記物体の位置に応じた部分に前記第2機能に対応し前記第1処理とは異なる第2処理が施されている第2画像を前記表示面に表示させる。
A:第1実施形態
A1:プロジェクターシステム1000の概要
図1は、第1実施形態に係るプロジェクター1を含むプロジェクターシステム1000を示す図である。プロジェクターシステム1000は、プロジェクター1と、トレー2と、光出力装置3と、を含む。
A1:プロジェクターシステム1000の概要
図1は、第1実施形態に係るプロジェクター1を含むプロジェクターシステム1000を示す図である。プロジェクターシステム1000は、プロジェクター1と、トレー2と、光出力装置3と、を含む。
プロジェクター1は、ホワイトボードWBの上端WB1よりも上方または斜め上方の壁に設置される。プロジェクター1は、壁に設置されずに、例えば、机、テーブルまたは床の上に配置されてもよいし、天井から吊るされてもよい。
プロジェクター1は、ホワイトボードWBに画像を投射することによってホワイトボードWBに画像を表示する。プロジェクター1は、表示装置の一例である。表示装置は、プロジェクター1に限らず、例えば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro Luminescence)ディスプレイ等のFPD(Flat Panel Display)、さらに言えばFPDに限らず、他のタイプのディスプレイでもよい。
プロジェクター1は、ホワイトボードWB上の物体Pの位置に基づいて、ユーザーによる入力操作を実行するインタラクティブ機能を有する。図1では、物体Pとして、黒い色の線を書くための黒色のペンP1と、ホワイトボードイレーザーP2が示されている。ホワイトボードイレーザーP2は、ホワイトボード消しとも称される。以下、黒い色の線を書くための黒色のペンP1を「黒色のペンP1」と称する。物体Pは、黒色のペンP1とホワイトボードイレーザーP2に限らず、例えば、赤色の線を書くための赤色のペンでもよいし、ホワイトボードWBに紙等を固定するためのマグネットでもよい。物体Pは、ホワイトボードWB上の位置を指示する指示体とも称される。
プロジェクター1は、インタラクティブ機能によって、ホワイトボードWB上の物体Pの軌跡に応じた線をホワイトボードWBに投射したり、ホワイトボードWB上の物体Pの位置に応じて、ホワイトボードWBに投射されている線の一部を消したりする。
ホワイトボードWBは、表示面の一例である。表示面は、ホワイトボードWBに限らず、例えば、スクリーン、壁、天井、商品または扉でもよい。
トレー2は、物体Pが置かれる台である。物体Pが置かれる台は、図1に例示されるような板状のトレー2に限らず、例えば、ふち付きの容器でもよい。トレー2は、物体Pを支える支え部の一例である。支え部は、トレー2に限らず、例えば、物体Pが吊るされるフックでもよい。トレー2は、例えば、ホワイトボードWBの下端WB2よりも下方の壁に固定される。トレー2の位置は、ホワイトボードWBの下端WB2よりも下方に限らず、例えば、ホワイトボードWBの横でもよい。また、トレー2は、ホワイトボードWBの一部、例えば、ホワイトボードWBの下端WB2に設けられてもよい。
トレー2が物体Pを支える場合に物体Pが位置する領域は、認識領域R1として用いられる。認識領域R1は、物体Pを認識するための領域であり、第1領域の一例である。トレー2に置かれた物体Pは、ユーザーによって支えられなくても認識領域R1に位置できる。
プロジェクター1は、認識領域R1を含む撮像領域R2を撮像することによって得られる撮像データを用いて、認識領域R1に位置する物体Pを認識する。撮像領域R2は、第2領域の一例である。撮像領域R2には、ホワイトボードWBが含まれる。
上述の通りトレー2に置かれた物体Pは、ユーザーの支えがなくても認識領域R1に位置できる。このため、認識領域R1に位置する物体Pは、例えば物体Pを支えるユーザーの手で一部が隠されることなく、撮像データに示される。プロジェクター1は、この撮像データを用いて物体Pを認識するため、ユーザーの手等で一部が隠されている物体Pを示す撮像データを用いて物体Pを認識する構成に比べて、物体Pを認識しやすい。
また、プロジェクター1は、撮像データのうち、認識領域R1の画像を示す部分データに基づいて、物体Pを認識する。このため、撮像データ全体を用いて物体Pを認識する構成に比べて、物体Pを認識するために使用する撮像データの量を少なくできる。よって、物体Pの認識に要する処理負荷を低減できる。
光出力装置3は、ホワイトボードWBの上端WB1よりも上に設置される。光出力装置3は、下向きに赤外光を面状に出射する。
A2.光出力装置3の一例
図2は、光出力装置3の一例を示す図である。光出力装置3は、第1光出力部31と、第2光出力部32と、光学装置33と、を含む。第1光出力部31および第2光出力部32は、赤外光を出射するLD(Laser Diode)である。第1光出力部31および第2光出力部32の各々は、LDに限らず、例えば、赤外光を出射するLED(Light Emitting Diode)でもよい。第1光出力部31は、ホワイトボードWBに向かって左側に設置され、第2光出力部32は、ホワイトボードWBに向かって右側に設置される。光出力装置3に含まれる光出力部の数は2に限らず1以上であればよい。光学装置33は、第1光出力部31および第2光出力部32の各々から出射された赤外光を、ホワイトボードWBに沿って面状に拡散させる。
図2は、光出力装置3の一例を示す図である。光出力装置3は、第1光出力部31と、第2光出力部32と、光学装置33と、を含む。第1光出力部31および第2光出力部32は、赤外光を出射するLD(Laser Diode)である。第1光出力部31および第2光出力部32の各々は、LDに限らず、例えば、赤外光を出射するLED(Light Emitting Diode)でもよい。第1光出力部31は、ホワイトボードWBに向かって左側に設置され、第2光出力部32は、ホワイトボードWBに向かって右側に設置される。光出力装置3に含まれる光出力部の数は2に限らず1以上であればよい。光学装置33は、第1光出力部31および第2光出力部32の各々から出射された赤外光を、ホワイトボードWBに沿って面状に拡散させる。
プロジェクター1は、光出力装置3から出射された赤外光のうち、ホワイトボードWB上の物体Pによって反射された反射光に基づいて、ホワイトボードWBに対する物体Pのタッチの有無を判定する。
A3.プロジェクター1の一例
図3は、プロジェクター1の一例を示す図である。プロジェクター1は、操作部11と、受信部12と、投射部13と、カメラ14と、記憶部15と、処理部16とを含む。
図3は、プロジェクター1の一例を示す図である。プロジェクター1は、操作部11と、受信部12と、投射部13と、カメラ14と、記憶部15と、処理部16とを含む。
操作部11は、例えば、各種の操作ボタン、操作キーまたはタッチパネルである。操作部11は、プロジェクター1の筐体に設けられている。操作部11は、利用者の入力操作を受け取る。
受信部12は、不図示のリモートコントローラーへの入力操作に基づく情報を、リモートコントローラーから無線で受信する。リモートコントローラーは、入力操作を受け取る各種の操作ボタン、操作キーまたはタッチパネルを備える。なお、受信部12は、スマートフォン等の情報処理装置において動作するアプリケーションに対する操作入力を、情報処理装置から無線で受信してもよい。
投射部13は、ホワイトボードWBに画像を投射することによってホワイトボードWBに画像を表示する。投射部13は、表示部の一例である。投射部13は、画像処理部131と、フレームメモリー132と、ライトバルブ駆動部133と、光源134と、赤色用液晶ライトバルブ135Rと、緑色用液晶ライトバルブ135Gと、青色用液晶ライトバルブ135Bと、投射光学系136と、を含む。以下、赤色用液晶ライトバルブ135Rと、緑色用液晶ライトバルブ135Gと、青色用液晶ライトバルブ135Bとを相互に区別する必要がない場合、これらを「液晶ライトバルブ135」と称する。
画像処理部131は、1または複数のイメージプロセッサー等の回路によって構成される。画像処理部131は、例えば、処理部16から画像データを受け取る。画像処理部131は、不図示の画像供給装置から画像データを受け取ってもよい。画像供給装置は、例えば、PC(Personal Computer)である。画像供給装置は、PCに限らず、例えば、タブレット端末、スマートフォン、ビデオ再生装置、DVD(Digital Versatile Disc)プレーヤー、ブルーレイディスクプレーヤー、ハードディスクレコーダー、テレビチューナー装置またはビデオゲーム機でもよい。
画像処理部131は、画像データをフレームメモリー132に展開する。フレームメモリー132は、例えば、IC(Integrated Circuit)等の回路、またはRAM(Random Access Memory)等の記憶装置によって構成される。画像処理部131は、フレームメモリー132に展開された画像データに対して画像処理を施すことによって画像信号を生成する。
画像処理部131が実行する画像処理は、例えば、解像度変換処理を包含する。解像度変換処理では、画像処理部131は、画像データの解像度を、例えば液晶ライトバルブ135の解像度に変換する。画像処理部131は、解像度変換処理に加えて、他の画像処理、例えばガンマ補正処理を実行してもよい。
ライトバルブ駆動部133は、例えば、ドライバー等の回路で構成される。ライトバルブ駆動部133は、画像処理部131から提供される画像信号に基づいて液晶ライトバルブ135を駆動する。
光源134は、例えば、LEDである。光源134は、LEDに限らず、例えば、キセノンランプ、超高圧水銀ランプ、またはレーザー光源等でもよい。光源134から出射される光は、不図示のインテグレーター光学系によって輝度分布のばらつきが低減され、その後、不図示の色分離光学系によって光の3原色である赤色、緑色、青色の色光成分に分離される。赤色の色光成分は赤色用液晶ライトバルブ135Rに入射する。緑色の色光成分は緑色用液晶ライトバルブ135Gに入射する。青色の色光成分は青色用液晶ライトバルブ135Bに入射する。
液晶ライトバルブ135は、一対の透明基板間に液晶が存在する液晶パネル等によって構成される。液晶ライトバルブ135は、マトリクス状に位置する複数の画素135pを含む矩形の画素領域135aを有する。液晶ライトバルブ135では、液晶に対して画素135pごとに駆動電圧が印加される。ライトバルブ駆動部133が、画像信号に基づく駆動電圧を各画素135pに印加すると、各画素135pは、駆動電圧に基づく光透過率に設定される。光源134から出射される光は、画素領域135aを通ることで変調され画像信号に基づく画像が色光ごとに形成される。液晶ライトバルブ135は、光変調装置の一例である。
各色の画像は、図示しない色合成光学系によって画素135pごとに合成され、カラー画像が生成される。カラー画像は、投射光学系136を介して投射される。
カメラ14は、撮像領域R2を撮像することによって撮像データを生成する。カメラ14は、レンズ等の光学系と、光学系にて集光される光を電気信号に変換する撮像素子と、を含む。撮像素子は、例えば、赤外領域および可視光領域の光を受光するCCD(Charge Coupled Device)イメージセンサーである。撮像素子は、CCDイメージセンサーに限らず、例えば、赤外領域および可視光領域の光を受光するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーでもよい。
カメラ14は、撮像素子に入射する光の一部を遮るフィルターを備えてもよい。例えば、カメラ14は、撮像素子に赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させる構成でもよい。
カメラ14は、プロジェクター1の内部に設けられていてもよい。また、カメラ14は、プロジェクター1の外部に別体で設けられ、カメラ14とプロジェクター1とがデータの送受信ができるように有線または無線のインターフェースにより接続されていてもよい。
カメラ14は、撮像素子に入射する光の一部を遮るフィルターを備えてもよい。例えば、カメラ14は、撮像素子に赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させる構成でもよい。
カメラ14は、プロジェクター1の内部に設けられていてもよい。また、カメラ14は、プロジェクター1の外部に別体で設けられ、カメラ14とプロジェクター1とがデータの送受信ができるように有線または無線のインターフェースにより接続されていてもよい。
カメラ14が可視光による撮像を行うと、例えば、ホワイトボードWBに投射された画像と、撮像領域R2に位置する物体Pが撮像される。以下、可視光によるカメラ14の撮像によって生成される撮像データを「可視光撮像データD1」と称する。可視光撮像データD1は、後述するキャリブレーション、物体Pの認識および物体Pの追跡に使用される。
カメラ14が赤外光による撮像を行うと、例えば、光出力装置3から出射された赤外光のうち物体Pで反射した反射光を示す撮像データが生成される。以下、赤外光によるカメラ14の撮像によって生成される撮像データを「赤外光撮像データ」と称する。赤外光撮像データは、ホワイトボードWBへの物体Pのタッチの有無の判定に使用される。
記憶部15は、処理部16が読み取り可能な記録媒体である。記憶部15は、例えば、不揮発性メモリーと揮発性メモリーとによって構成される。不揮発性メモリーとしては、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)が挙げられる。揮発性メモリーとしては、例えば、RAMが挙げられる。
記憶部15は、処理部16によって実行される制御プログラム151と、処理部16が使用する各種のデータ152を記憶する。データ152には、キャリブレーション画像を示すキャリブレーション画像データが含まれる。キャリブレーション画像には、予め設定された形状のマークが間隔をあけて配置されている。また、データ152には、後述する図5に例示されるような対応表が含まれる。
処理部16は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、処理部16は、単数または複数のCPU(Central Processing Unit)によって構成される。処理部16の機能の一部または全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。処理部16は、各種の処理を並列的または逐次的に実行する。
処理部16は、記憶部15から制御プログラム151を読み取り実行することによって、取得部160、動作制御部161、認識部162および表示制御部163として機能する。
取得部160は、プロジェクター1の内部に設けられたカメラ14が撮像領域R2を撮像することによって得られる撮像データを取得する。カメラ14がプロジェクター1の外部に別体で設けられている場合は、データの送受信を行う有線または無線のインターフェースを介して、取得部160は、カメラ14から撮像データを取得する。取得部160は、可視光撮像データD1と赤外光撮像データとを取得する。
動作制御部161は、例えば、プロジェクター1の種々の動作を制御する。例えば、動作制御部161は、キャリブレーションを実行する。キャリブレーションとは、フレームメモリー132上の座標と、撮像データ上の座標とを対応づける処理である。フレームメモリー132上の座標は、ホワイトボードWBに投射される画像上の位置に対応する。フレームメモリー132上の位置と、撮像データ上の位置とが対応づけられることで、例えば、ホワイトボードWBに投射される画像のうち、物体PのホワイトボードWBへのタッチ位置に対応する部分を特定することができる。
以下、キャリブレーションについて説明する。
動作制御部161は、キャリブレーション画像データを記憶部15から読み出す。なお、動作制御部161は、キャリブレーション画像データを制御プログラム151に従って生成してもよい。動作制御部161は、画像処理部131にキャリブレーション画像データを提供することによって、予め設定された形状のマークが間隔をあけて配置されているキャリブレーション画像をホワイトボードWBへ投射させる。
動作制御部161は、キャリブレーション画像データを記憶部15から読み出す。なお、動作制御部161は、キャリブレーション画像データを制御プログラム151に従って生成してもよい。動作制御部161は、画像処理部131にキャリブレーション画像データを提供することによって、予め設定された形状のマークが間隔をあけて配置されているキャリブレーション画像をホワイトボードWBへ投射させる。
続いて、動作制御部161は、キャリブレーション画像をカメラ14に可視光で撮像させてカメラ14に可視光撮像データD1を生成させる。続いて、動作制御部161は、取得部160に、可視光撮像データD1を取得させる。動作制御部161は、可視光撮像データD1に表されたマークを検出し、各マークの重心位置を各マークの座標として特定する。
動作制御部161は、可視光撮像データD1から検出されたマークの座標と、フレームメモリー132上のマークの座標との対応づけを行う。動作制御部161は、この対応づけにより、撮像データ上の座標とフレームメモリー132上の座標とを対応づけるキャリブレーションデータを生成する。
ここまでが、キャリブレーションの説明である。
ここまでが、キャリブレーションの説明である。
認識部162は、キャリブレーション後に取得部160が取得した可視光撮像データD1のうち、認識領域R1の画像を示す部分データD2に基づいて、認識領域R1に位置する物体Pつまりトレー2に置かれている物体Pを認識する。すなわち、認識部162は、可視光撮像データD1のうち認識領域R1とは異なる領域の画像を示す部分データを用いることなく、認識領域R1の画像を示す部分データD2を用いて、認識領域R1に位置する物体Pを認識する。認識領域R1の画像を示す部分データD2は、第1部分データの一例であり、認識領域R1とは異なる領域の画像を示す部分データは、第2部分データの一例である。
可視光撮像データD1のうち、認識領域R1の画像を示す部分データD2が存在する部分Eの一例を、図4に例示する。部分Eは、ユーザーが操作部11またはリモートコントローラーを操作することによって予め設定される。なお、プロジェクター1は、部分Eを自動的に設定してもよい。例えば、トレー2に識別用の印が付され、動作制御部161が、可視光撮像データに示される識別用の印を検出し、識別用の印を基準にして位置が特定される所定の領域を、認識領域R1として設定してもよい。
可視光撮像データD1のうち、認識領域R1の画像を示す部分データD2が存在する部分Eの一例を、図4に例示する。部分Eは、ユーザーが操作部11またはリモートコントローラーを操作することによって予め設定される。なお、プロジェクター1は、部分Eを自動的に設定してもよい。例えば、トレー2に識別用の印が付され、動作制御部161が、可視光撮像データに示される識別用の印を検出し、識別用の印を基準にして位置が特定される所定の領域を、認識領域R1として設定してもよい。
認識部162は、部分データD2に基づいて、さらに言えば、部分データD2に示される物体Pの特徴に基づいて、例えば、認識領域R1に位置する物体Pの種類を認識する。物体Pの種類とは、例えば、物体Pに対して人間が認識するような種類を意味する。例えば、黒い色の線を書くための黒い色のペンの形態は様々であるが、人間は、これらを、黒い色の線を書くための黒い色のペンとして、さらに言えば、黒い色の線を書くための黒い色のペンという種類に分類される物体として認識する。
認識部162は、黒い色の線を書くための様々な形態の黒い色のペンを、黒色の線を書くという機能を有する第1筆記具として認識する。このため、認識部162は、黒色のペンP1を第1筆記具として認識する。黒色の線を書くという機能は、第1機能の一例である。第1筆記具は、第1指示体の一例である。第1機能は、黒色の線を書くという機能に限らず、例えば、点線を書くという機能でもよい。
また、認識部162は、様々な形態のホワイトボードイレーザーを、投射部13によってホワイトボードWBに表示されている線を消すという機能を有するイレーザーとして認識する。このため、認識部162は、ホワイトボードイレーザーP2をイレーザーとして認識する。投射部13によってホワイトボードWBに表示されている線を消すという機能は、第2機能の一例である。イレーザーは、第2指示体の一例である。第2機能は、投射部13によってホワイトボードWBに表示されている線を消すという機能に限らず、例えば、第1機能によって書かれた線のみを消すという機能でもよい。ただし、第2機能は第1機能とは異なる。
認識部162は、例えば、物体Pが存在する認識領域R1の画像を示す部分データD2と、物体Pの種類と、の関係を学習した学習モデルによって実現される。
学習モデルは、処理部16によって実現される統計的モデル、さらに言えば機能ブロックであり、入力Aに応じた出力Bを生成する。学習モデルとしては、例えば、ニューラルネットワーク、典型的には、ディープニューラルネットワークが用いられる。学習モデルは、入力Aから出力Bを特定する演算を処理部16に実行させるプログラム、例えば、人工知能ソフトウェアを構成するプログラムモジュールと、当該演算に適用される複数の係数Kとの組合せによって、処理部16において実現される。
学習モデルの複数の係数Kは、入力Aと出力Bとを対応させた複数の教師データを利用した事前の機械学習によって最適化されている。すなわち、学習モデルは、入力Aと出力Bとの関係を学習した統計的モデルである。
学習モデルは、学習によって特定される複数の係数Kと所定の応答関数とを適用した演算を未知の入力Aに対して実行することによって、複数の教師データから抽出される傾向に基づいて、具体的には、複数の教師データにおける入力Aと出力Bとの関係に基づいて、入力Aに対して妥当な出力Bを生成する。
学習モデルによって構成される認識部162は、入力Aとして、物体Pが位置する認識領域R1の画像を示す部分データD2を用い、出力Bとして、物体Pの種類を用いる。
例えば、認識部162は、物体Pの種類として第1筆記具を示すデータと、第1筆記具を示す部分データD2と、の組である複数の教師データと、物体Pの種類としてイレーザーを示すデータと、イレーザーを示す部分データD2と、の組である複数の教師データと、を用いて学習されている。さらに、認識部162は、物体Pの種類として第1筆記具ではない種類を示すデータと、第1筆記具ではない物体を示す部分データD2と、の組である複数の教師データと、物体Pの種類としてイレーザーではない種類を示すデータと、イレーザーではない物体を示す部分データD2と、の組である複数の教師データと、を用いて学習されている。なお、認識部162は、物体Pの他の種類について学習していてもよい。なお、物体Pの種類として、物体Pの属性が用いられてもよい。
例えば、認識部162は、物体Pの種類として第1筆記具を示すデータと、第1筆記具を示す部分データD2と、の組である複数の教師データと、物体Pの種類としてイレーザーを示すデータと、イレーザーを示す部分データD2と、の組である複数の教師データと、を用いて学習されている。さらに、認識部162は、物体Pの種類として第1筆記具ではない種類を示すデータと、第1筆記具ではない物体を示す部分データD2と、の組である複数の教師データと、物体Pの種類としてイレーザーではない種類を示すデータと、イレーザーではない物体を示す部分データD2と、の組である複数の教師データと、を用いて学習されている。なお、認識部162は、物体Pの他の種類について学習していてもよい。なお、物体Pの種類として、物体Pの属性が用いられてもよい。
表示制御部163は、認識部162の認識結果に基づいて投射部13を制御する。例えば、表示制御部163は、物体Pの認識結果に応じた処理が施されている画像を、投射部13に投射させる。表示制御部163は、トラッキング部163aと、タッチ判定部163bと、操作反映部163cと、を含む。
トラッキング部163aは、認識部162によって認識された物体Pを追跡することによって、ホワイトボードWB上の物体Pの位置を特定する。例えば、トラッキング部163aは、可視光撮像データを用いて物体Pを追跡する。
タッチ判定部163bは、物体PのホワイトボードWBへのタッチの有無を判定する。例えば、タッチ判定部163bは、赤外光撮像データに基づいて、光出力装置3から照射された赤外光のうち、ホワイトボードWB上の物体Pによって反射された反射光の有無を判断し、その判断結果に基づいて、ホワイトボードWBに対する物体Pのタッチの有無を判定する。
例えば、タッチ判定部163bは、赤外光撮像データが、黒色のペンP1で反射された反射光を表している場合、ホワイトボードWBへの黒色のペンP1のタッチがあると判定する。
一方、最新の赤外光撮像データが、黒色のペンP1で反射された反射光を表していない場合、タッチ判定部163bは、ホワイトボードWBに対する黒色のペンP1のタッチがないと判定する。
例えば、タッチ判定部163bは、赤外光撮像データが、黒色のペンP1で反射された反射光を表している場合、ホワイトボードWBへの黒色のペンP1のタッチがあると判定する。
一方、最新の赤外光撮像データが、黒色のペンP1で反射された反射光を表していない場合、タッチ判定部163bは、ホワイトボードWBに対する黒色のペンP1のタッチがないと判定する。
操作反映部163cは、ホワイトボードWBへの物体Pのタッチがあることをタッチ判定部163bが判定する場合、物体Pの認識結果に応じた処理が施されている画像を投射部13に投射させる。以下、「ホワイトボードWBへの物体Pのタッチがあることをタッチ判定部163bが判定する場合」を「ホワイトボードWBへの物体Pのタッチがある場合」と称する。
例えば、操作反映部163cは、物体Pが第1筆記具であると認識される状況において、ホワイトボードWBへの物体Pのタッチがある場合、まず、トラッキング部163aが追跡している物体Pの位置、つまり、可視光撮影データ上の物体Pの座標を、キャリブレーションデータを用いて、フレームメモリー132上の座標に変換する。
続いて、操作反映部163cは、フレームメモリー132上の物体Pの座標位置に、第1筆記具の黒色の線を書くという機能に対応する処理、具体的には、黒色の線を描くという第1処理を画像処理部131に実行させる。
このように、画像処理部131に実行させる処理を、第1筆記具が有する機能、さらに言えば、物体Pが有する機能にて実行される処理と同様にすることによって、プロジェクター1の操作に不慣れなユーザーでも、物体Pを用いて直感的にプロジェクター1を操作することが可能になる。
このように、画像処理部131に実行させる処理を、第1筆記具が有する機能、さらに言えば、物体Pが有する機能にて実行される処理と同様にすることによって、プロジェクター1の操作に不慣れなユーザーでも、物体Pを用いて直感的にプロジェクター1を操作することが可能になる。
画像処理部131は、第1処理を実行すると、第1処理が施されている第1画像を示す第1画像信号をライトバルブ駆動部133に供給する。このため、投射部13は、第1画像をホワイトボードWBに表示する。
一方、物体Pがイレーザーであると認識される状況において、ホワイトボードWBへの物体Pのタッチがある場合、操作反映部163cは、まず、トラッキング部163aが追跡している物体Pの位置を、キャリブレーションデータを用いて、フレームメモリー132上の座標に変換する。
続いて、操作反映部163cは、フレームメモリー132上の物体Pの座標位置に、イレーザーのホワイトボードWBに書かれた線を消すという機能に対応する処理、具体的には、投射されている線を消すという第2処理を画像処理部131に実行させる。
画像処理部131は、第2処理を実行すると、第2処理が施されている第2画像を示す第2画像信号をライトバルブ駆動部133に供給する。このため、投射部13は、第2画像を、ホワイトボードWBに表示する。
操作反映部163cは、物体Pの認識結果である物体Pの種類と、画像に施される処理と、の対応関係を示す対応表を用いて、物体Pの認識結果と、画像に施される処理と、の関係を認識する。対応表は、上述の通り記憶部15に記憶される。
A4.対応表
図5は、対応表の一例を示す図である。
対応表では、物体Pの種類と、画像に施される処理とが、相互に対応づけられている。一例を挙げると、第1筆記具には「黒色の線を描く」という処理が対応づけられている。対応表は、例えば、ユーザーが操作部11またはリモートコントローラーを操作することによって設定される。対応表は、書き換え可能である。
図5は、対応表の一例を示す図である。
対応表では、物体Pの種類と、画像に施される処理とが、相互に対応づけられている。一例を挙げると、第1筆記具には「黒色の線を描く」という処理が対応づけられている。対応表は、例えば、ユーザーが操作部11またはリモートコントローラーを操作することによって設定される。対応表は、書き換え可能である。
A5.動作の説明
図6は、プロジェクター1の動作の一例を説明するためのフローチャートである。なお、説明の簡略化のため、記憶部15には、図5に示す対応表が記憶されているとする。また、キャリブレーションが完了し、キャリブレーションデータが記憶部15に記憶されているとする。また、投射部13は、図1に示すようにKという文字を示す画像をホワイトボードWBに表示しているとする。また、カメラ14は、可視光撮像データと赤外光撮像データとを交互に生成しているとする。
図6は、プロジェクター1の動作の一例を説明するためのフローチャートである。なお、説明の簡略化のため、記憶部15には、図5に示す対応表が記憶されているとする。また、キャリブレーションが完了し、キャリブレーションデータが記憶部15に記憶されているとする。また、投射部13は、図1に示すようにKという文字を示す画像をホワイトボードWBに表示しているとする。また、カメラ14は、可視光撮像データと赤外光撮像データとを交互に生成しているとする。
物体Pの一例であるホワイトボードイレーザーP2をホワイトボードWB上で動かすことによってKという文字の一部を消そうとする場合、ユーザーは、まず、ホワイトボードイレーザーP2をトレー2の上に載せ、ホワイトボードイレーザーP2から手を離す。ホワイトボードイレーザーP2は、ユーザーに支えられることなく、トレー2の上、つまり認識領域R1に位置する。カメラ14は、トレー2の上に位置するホワイトボードイレーザーP2を撮像することによって、認識領域R1にホワイトボードイレーザーP2が位置する画像を示す可視光撮像データを生成する。
ステップS101において取得部160は、カメラ14から最新の可視光撮像データを取得する。
続いて、ステップS102において認識部162は、認識領域R1に存在する物体P、つまり、トレー2に置かれているホワイトボードイレーザーP2を認識するための処理を実行する。認識領域R1に存在する物体Pを認識する処理は、最新の可視光撮像データのうち、認識領域R1とは異なる領域の画像を示す部分データを用いることなく、認識領域R1の画像を示す部分データD2を用いて実行する。例えば、認識領域R1とは異なる領域の画像を示す部分データに対して、物体Pが含まれているか否か、物体Pが含まれている場合、物体Pがどのようなものであるかなどの判定は行わず、部分データD2に対してのみ、物体Pが含まれているか否か、物体Pが含まれている場合、物体Pがどのようなものであるかなどの判定を行ってもよい。
認識部162は、当該処理を実行することによって、トレー2の上のホワイトボードイレーザーP2を、ホワイトボードWBに書かれた線を消すという機能を有するイレーザーと認識する。
認識部162は、当該処理を実行することによって、トレー2の上のホワイトボードイレーザーP2を、ホワイトボードWBに書かれた線を消すという機能を有するイレーザーと認識する。
ステップS103において、認識部162がステップS102で物体Pを認識できたか否かを判定する。ステップS103において、認識部162がホワイトボードイレーザーP2を認識できなかった場合、例えば、ホワイトボードイレーザーP2がトレー2の端に置かれてトレー2から落ちてしまった場合、処理がステップS101に戻る。
一方、ステップS103において認識部162がトレー2の上の物体Pを認識できた場合、具体的には、認識部162がトレー2の上のホワイトボードイレーザーP2をイレーザーと認識できた場合、ステップS104においてトラッキング部163aは、取得部160に最新の可視光撮像データを取得させ、最新の可視光撮像データに基づいて、物体P、つまりホワイトボードイレーザーP2を追跡する。トラッキング部163aは、物体Pを追跡することによって、物体Pの位置を特定する。
なお、認識部162が物体Pを認識できた場合、動作制御部161は、投射部13に、物体Pの認識結果を示す認識結果画像を投射させてもよい。認識結果画像の一例としては、物体Pの認識結果を文字で表す画像、例えば「トレー上の物体をイレーザーとして認識しました」という文字を表す画像が挙げられる。認識結果画像は、上述の画像に限らず、例えば、認識結果を絵で表す画像でもよい。
続いて、ユーザーは、トレー2からホワイトボードイレーザーP2を手で持ち上げ、ホワイトボードイレーザーP2をホワイトボードWBにタッチさせ、Kという文字の一部を消す動作を開始する。
続いて、ステップS105においてタッチ判定部163bは、取得部160に最新の赤外光撮像データを取得させ、最新の赤外光撮像データに基づいて、ホワイトボードWBへの物体P、つまりホワイトボードイレーザーP2のタッチの有無を判定する。
ステップS105においてタッチ判定部163bがホワイトボードWBへのホワイトボードイレーザーP2のタッチがないと判定する場合、処理がステップS104に戻る。
一方、ステップS105においてタッチ判定部163bが、ホワイトボードWBに対するホワイトボードイレーザーP2のタッチがあると判定する場合、ステップS106において操作反映部163cは、物体PであるホワイトボードイレーザーP2の認識結果に応じた機能、具体的には、イレーザーの機能に応じた画像処理を画像処理部131に実行させる。
ステップS106では、まず、操作反映部163cは、対応表を参照することによって、イレーザーに対応する処理を特定する。
続いて、操作反映部163cは、最新の可視光撮影データにおけるホワイトボードイレーザーP2の座標を、キャリブレーションデータを用いて、フレームメモリー132上の座標に変換する。なお、操作反映部163cは、最新の赤外光撮像データにおけるタッチ位置の座標、すなわち、最新の赤外光撮像データにおけるホワイトボードイレーザーP2の座標を、キャリブレーションデータを用いて、フレームメモリー132上の座標に変換してもよい。
続いて、操作反映部163cは、フレームメモリー132上のホワイトボードイレーザーP2の座標位置に存在する線を消すという第2処理を、画像処理部131に実行させる。なお、操作反映部163cは、最新の可視光撮影データから特定したフレームメモリー132上のホワイトボードイレーザーP2の座標位置と、最新の赤外光撮影データから特定したフレームメモリー132上のホワイトボードイレーザーP2の座標位置とが一致する場合、第2処理を画像処理部131に実行させ、一致しない場合、第2処理を画像処理部131に実行させなくてもよい。
画像処理部131は、第2処理を実行すると、第2処理が施されている第2画像を示す第2画像信号をライトバルブ駆動部133に供給する。以上でステップS106が終了する。
続いて、操作反映部163cは、最新の可視光撮影データにおけるホワイトボードイレーザーP2の座標を、キャリブレーションデータを用いて、フレームメモリー132上の座標に変換する。なお、操作反映部163cは、最新の赤外光撮像データにおけるタッチ位置の座標、すなわち、最新の赤外光撮像データにおけるホワイトボードイレーザーP2の座標を、キャリブレーションデータを用いて、フレームメモリー132上の座標に変換してもよい。
続いて、操作反映部163cは、フレームメモリー132上のホワイトボードイレーザーP2の座標位置に存在する線を消すという第2処理を、画像処理部131に実行させる。なお、操作反映部163cは、最新の可視光撮影データから特定したフレームメモリー132上のホワイトボードイレーザーP2の座標位置と、最新の赤外光撮影データから特定したフレームメモリー132上のホワイトボードイレーザーP2の座標位置とが一致する場合、第2処理を画像処理部131に実行させ、一致しない場合、第2処理を画像処理部131に実行させなくてもよい。
画像処理部131は、第2処理を実行すると、第2処理が施されている第2画像を示す第2画像信号をライトバルブ駆動部133に供給する。以上でステップS106が終了する。
続いて、ステップS107において投射部13は、第2画像信号が示す第2画像をホワイトボードWBに表示する。
続いて、ステップS108において動作制御部161は、トラッキング部163aがホワイトボードイレーザーP2の追跡に失敗したか否かを判断する。追跡に失敗とは、追跡できなくなったことを意味する。
ステップS108においてホワイトボードイレーザーP2の追跡に失敗していない場合、処理がステップS104に戻る。
一方、ステップS108においてホワイトボードイレーザーP2の追跡に失敗した場合、例えば、ユーザーがホワイトボードイレーザーP2を床に落としてしまいホワイトボードイレーザーP2が撮像領域R2から外れてしまった場合、ステップS109において動作制御部161は、操作部11または受信部12が終了操作を受けているか否かを判断する。
ステップS109において操作部11と受信部12のいずれも終了操作を受けていない場合、処理がステップS101に戻る。
一方、ステップS109において操作部11または受信部12が終了操作を受けている場合、図6に示す処理が終了する。
ステップS108においてホワイトボードイレーザーP2の追跡に失敗していない場合、処理がステップS104に戻る。
一方、ステップS108においてホワイトボードイレーザーP2の追跡に失敗した場合、例えば、ユーザーがホワイトボードイレーザーP2を床に落としてしまいホワイトボードイレーザーP2が撮像領域R2から外れてしまった場合、ステップS109において動作制御部161は、操作部11または受信部12が終了操作を受けているか否かを判断する。
ステップS109において操作部11と受信部12のいずれも終了操作を受けていない場合、処理がステップS101に戻る。
一方、ステップS109において操作部11または受信部12が終了操作を受けている場合、図6に示す処理が終了する。
A6.第1実施形態についてのまとめ
上述の本実施形態に係る表示方法および表示装置は以下の態様を含む。
上述の本実施形態に係る表示方法および表示装置は以下の態様を含む。
投射部13は、ホワイトボードWBに画像を表示する。取得部160は、認識領域R1を含む撮像領域R2を撮像することによって生成された撮像データを取得する。認識部162は、撮像データのうち認識領域R1とは異なる領域の画像を示す部分データを用いることなく、認識領域R1の画像を示す部分データD2を用いて、認識領域R1に位置する物体Pを認識する。
表示制御部163は、物体Pが第1筆記具であると認識される場合、物体Pが認識領域R1からホワイトボードWBに移動すると、投射部13を制御することによって、ホワイトボードWB上の物体Pの位置に応じた部分に第1筆記具が有する機能に対応する黒色の線を描くという処理が施されている第1画像をホワイトボードWBへ表示させる。このため、物体Pが第1筆記具である場合、第1筆記部のホワイトボードWBへのタッチ位置に黒色の線が表示される。
表示制御部163は、物体Pがイレーザーであると認識される場合、物体Pが認識領域R1からホワイトボードWBに移動すると、投射部13を制御することによって、ホワイトボードWB上の物体Pの位置に応じた部分に位置する線を消すという処理が施されている第2画像をホワイトボードWBへ表示させる。このため、物体Pがイレーザーである場合、イレーザーのホワイトボードWBへのタッチ位置に存在する線が消される。
表示制御部163は、物体Pが第1筆記具であると認識される場合、物体Pが認識領域R1からホワイトボードWBに移動すると、投射部13を制御することによって、ホワイトボードWB上の物体Pの位置に応じた部分に第1筆記具が有する機能に対応する黒色の線を描くという処理が施されている第1画像をホワイトボードWBへ表示させる。このため、物体Pが第1筆記具である場合、第1筆記部のホワイトボードWBへのタッチ位置に黒色の線が表示される。
表示制御部163は、物体Pがイレーザーであると認識される場合、物体Pが認識領域R1からホワイトボードWBに移動すると、投射部13を制御することによって、ホワイトボードWB上の物体Pの位置に応じた部分に位置する線を消すという処理が施されている第2画像をホワイトボードWBへ表示させる。このため、物体Pがイレーザーである場合、イレーザーのホワイトボードWBへのタッチ位置に存在する線が消される。
この態様によれば、認識部162は、撮像データのうち、認識領域R1とは異なる領域の画像を示す部分データを用いることなく、認識領域R1の画像を示す部分データD2に用いて、物体Pを認識する。このため、撮像データ全体を用いて物体Pを認識する構成に比べて、物体Pを認識するために使用する撮像データの量を少なくできる。よって、物体Pの認識に要する処理負荷を低減できる。
また、認識部162は、様々な形態のホワイトボードイレーザーをイレーザーとして認識するため、例えば、プロジェクターシステム1000に予め含まれていた専用のホワイトボードイレーザーが紛失しても、他のホワイトボードイレーザーをイレーザーとして用いることが可能になる。
また、物体Pの種類から連想されやすい処理が画像に対してなされるため、プロジェクター1の操作に不慣れなユーザーでも、物体Pを用いて直感的にプロジェクター1を操作することが可能になる。
認識領域R1は、物体Pを支える支え部の一例であるトレー2が物体Pを支える場合に物体Pが位置する領域である。このため、認識領域R1に位置する物体Pは、例えば物体Pを支えるユーザーの手で一部が隠されることなく、撮像データに示される。認識部162は、この撮像データを用いて物体Pを認識するため、ユーザーの手等で一部が隠されている物体Pを示す撮像データを用いて物体Pを認識する構成に比べて、物体Pを認識しやすくなる。
支え部は、物体Pが置かれる台として機能するトレー2である。このため、ユーザーは、物体Pをトレー2に載せるという容易な操作で、物体Pを認識させることができる。
支え部として、物体Pが直接的または紐等を介して間接的に吊るされるフックが用いられてもよい。この場合、ユーザーは、物体Pをフックに吊るすという容易な操作で、物体Pを認識させることができる。
トラッキング部163aは、物体Pを追跡することによって、ホワイトボードWB上の物体Pの位置を特定する。このため、物体Pの位置だけでなく位置の変化も認識可能になる。
撮像データは、カメラ14によって生成され、撮像領域R2には、ホワイトボードWBが含まれ、トラッキング部163aは、撮像データに基づいて、ホワイトボードWB上の物体Pの位置を特定する。このため、1台のカメラ14が生成する撮像画像を用いて、物体Pの認識と物体Pの位置の特定を行える。よって、例えば、物体Pの認識用のカメラと、物体Pの位置の特定用のカメラとを、別々に有する構成に比べて、構成の簡略化が図れる。
B.変形例
以上に例示した実施形態の変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
以上に例示した実施形態の変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
B1.第1変形例
第1実施形態において、物体Pが、スマートフォンのように多くの機能を有する場合、図5に例示される対応表において、物体Pの種類に対応づけられる処理を1つに限定することが望ましい。この場合、使用状況に応じて、多くの機能を有する物体Pに対応づける処理を変更してもよい。例えば、スマートフォンには、画面上に入力した文字を削除する機能があるため、周囲にホワイトボードイレーザーが存在しない場合、対応表においてスマートフォンにイレーザーと同様の処理を対応づけてもよい。
第1実施形態において、物体Pが、スマートフォンのように多くの機能を有する場合、図5に例示される対応表において、物体Pの種類に対応づけられる処理を1つに限定することが望ましい。この場合、使用状況に応じて、多くの機能を有する物体Pに対応づける処理を変更してもよい。例えば、スマートフォンには、画面上に入力した文字を削除する機能があるため、周囲にホワイトボードイレーザーが存在しない場合、対応表においてスマートフォンにイレーザーと同様の処理を対応づけてもよい。
B2.第2変形例
第1実施形態および第1変形例において、対応表における物体Pの種類と処理との対応づけは、図5に示される例に限らず適宜変更可能である。例えば、物体Pの種類として、ホワイトボードWBに紙等を固定するためのマグネットが用いられる場合、対応する処理として「マグネットが配置された表示ウィンドウを常に最前面に表示」が用いられてもよい。
第1実施形態および第1変形例において、対応表における物体Pの種類と処理との対応づけは、図5に示される例に限らず適宜変更可能である。例えば、物体Pの種類として、ホワイトボードWBに紙等を固定するためのマグネットが用いられる場合、対応する処理として「マグネットが配置された表示ウィンドウを常に最前面に表示」が用いられてもよい。
B3.第3変形例
第1実施形態および第1〜第2変形例において、光変調装置の一例として液晶ライトバルブ135が用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、3枚の反射型の液晶パネルを用いた構成であってもよい。また、光変調装置は、1枚の液晶パネルを用いた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。光変調装置として1枚のみの液晶パネルまたはDMDが用いられる場合、色分離光学系および色合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源134が発した光を変調可能な構成は、光変調装置として採用できる。
第1実施形態および第1〜第2変形例において、光変調装置の一例として液晶ライトバルブ135が用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、3枚の反射型の液晶パネルを用いた構成であってもよい。また、光変調装置は、1枚の液晶パネルを用いた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。光変調装置として1枚のみの液晶パネルまたはDMDが用いられる場合、色分離光学系および色合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源134が発した光を変調可能な構成は、光変調装置として採用できる。
B4.第4変形例
第1実施形態および第1〜第3変形例において、表示装置として、プロジェクター1ではなくFPDが用いられる場合、光出力装置3の代わりに、タッチパネルが用いられてもよい。また、表示装置としてのFPDは、例えば、タブレット端末またはスマートフォン等の電子機器に搭載されているFPDでもよいし、電子黒板または電子会議システムに用いられているFPDでもよい。
第1実施形態および第1〜第3変形例において、表示装置として、プロジェクター1ではなくFPDが用いられる場合、光出力装置3の代わりに、タッチパネルが用いられてもよい。また、表示装置としてのFPDは、例えば、タブレット端末またはスマートフォン等の電子機器に搭載されているFPDでもよいし、電子黒板または電子会議システムに用いられているFPDでもよい。
1…プロジェクター、2…トレー、3…光出力装置、11…操作部、12…受信部、13…投射部、14…カメラ、15…記憶部、16…処理部、160…取得部、161…動作制御部、162…識別部、163…表示制御部、163a…トラッキング部、163b…タッチ判定部、163c…操作反映部、1000…プロジェクターシステム。
Claims (7)
- 表示装置が実行する表示方法であって、
第1領域を含む第2領域を撮像することによって生成された撮像データであって、前記第1領域の画像を示す第1部分データと、前記第2領域のうち前記第1領域とは異なる領域の画像を示す第2部分データを含む前記撮像データを取得し、
前記第2部分データを用いず、前記第1部分データを用いて、前記第1領域に位置する物体を認識し、
前記物体が第1機能を有する第1指示体であると認識する場合、前記物体が前記第1領域から表示面に移動すると、前記表示面上の前記物体の位置に応じた部分に前記第1機能に対応する第1処理が施されている第1画像を前記表示面に表示し、
前記物体が前記第1機能とは異なる第2機能を有する第2指示体であると認識する場合、前記物体が前記第1領域から前記表示面に移動すると、前記表示面上の前記物体の位置に応じた部分に前記第2機能に対応し前記第1処理とは異なる第2処理が施されている第2画像を前記表示面に表示する、
表示方法。 - 前記第1領域は、前記物体を支える支え部が前記物体を支える場合に前記物体が位置する領域である、
請求項1に記載の表示方法。 - 前記支え部は、前記物体が置かれる台である、
請求項2に記載の表示方法。 - 前記支え部は、前記物体が吊るされるフックである、
請求項2に記載の表示方法。 - 前記物体を追跡することによって前記表示面上の前記物体の位置を特定する、
請求項1から4のいずれか1項に記載の表示方法。 - 前記撮像データは、カメラによって生成され、
前記第2領域には、前記表示面が含まれ、
前記撮像データに基づいて、前記表示面上の前記物体の位置を特定する、
請求項1から5のいずれか1項に記載の表示方法。 - 表示面に画像を表示する表示部と、
第1領域を含む第2領域を撮像することによって生成された撮像データであって、前記第1領域の画像を示す第1部分データと、前記第2領域のうち前記第1領域とは異なる領域の画像を示す第2部分データを含む前記撮像データを取得する取得部と、
前記第2部分データを用いずに、前記第1部分データを用いて、前記第1領域に位置する物体を認識する認識部と、
前記認識部の認識結果に基づいて、前記表示部を制御する表示制御部と、
を含み、
前記表示制御部は、
前記物体が第1機能を有する第1指示体であると認識される場合、前記物体が前記第1領域から表示面に移動すると、前記表示部を制御することによって、前記表示面上の前記物体の位置に応じた部分に前記第1機能に対応する処理が施されている第1画像を前記表示面へ表示させ、
前記物体が前記第1機能とは異なる第2機能を有する第2指示体であると認識される場合、前記物体が前記第1領域から前記表示面に移動すると、前記表示部を制御することによって、前記表示面上の前記物体の位置に応じた部分に前記第2機能に対応し前記第1処理とは異なる第2処理が施されている第2画像を前記表示面に表示させる、
表示装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019038289A JP2020144413A (ja) | 2019-03-04 | 2019-03-04 | 表示方法および表示装置 |
US16/807,540 US11431899B2 (en) | 2019-03-04 | 2020-03-03 | Display method and display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019038289A JP2020144413A (ja) | 2019-03-04 | 2019-03-04 | 表示方法および表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020144413A true JP2020144413A (ja) | 2020-09-10 |
Family
ID=72335843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019038289A Pending JP2020144413A (ja) | 2019-03-04 | 2019-03-04 | 表示方法および表示装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11431899B2 (ja) |
JP (1) | JP2020144413A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11109006B2 (en) * | 2017-09-14 | 2021-08-31 | Sony Corporation | Image processing apparatus and method |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4037822B2 (ja) | 2003-12-05 | 2008-01-23 | Necディスプレイソリューションズ株式会社 | 電子ペンの位置検出方法/電子ペン/プロジェクタ/電子黒板システム |
JP4913873B2 (ja) | 2010-01-12 | 2012-04-11 | パナソニック株式会社 | 電子ペンシステム及び電子ペン |
US8482539B2 (en) | 2010-01-12 | 2013-07-09 | Panasonic Corporation | Electronic pen system |
US9189086B2 (en) * | 2010-04-01 | 2015-11-17 | Smart Technologies Ulc | Interactive input system and information input method therefor |
JP2012128762A (ja) | 2010-12-17 | 2012-07-05 | Sharp Corp | タッチ式入力装置 |
US8619027B2 (en) * | 2011-02-15 | 2013-12-31 | Smart Technologies Ulc | Interactive input system and tool tray therefor |
US8937588B2 (en) * | 2011-06-15 | 2015-01-20 | Smart Technologies Ulc | Interactive input system and method of operating the same |
WO2013067625A1 (en) * | 2011-11-11 | 2013-05-16 | Smart Technologies Ulc | Interactive pointer detection with image frame processing |
CA2862434C (en) * | 2012-01-11 | 2018-07-10 | Smart Technologies Ulc | Interactive input system and method |
US9134814B2 (en) * | 2012-04-05 | 2015-09-15 | Seiko Epson Corporation | Input device, display system and input method |
US20140137015A1 (en) * | 2012-11-12 | 2014-05-15 | Smart Technologies Ulc | Method and Apparatus for Manipulating Digital Content |
JP6425416B2 (ja) | 2013-05-10 | 2018-11-21 | 国立大学法人電気通信大学 | ユーザインタフェース装置およびユーザインタフェース制御プログラム |
JP6375660B2 (ja) * | 2014-01-21 | 2018-08-22 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
JP2016009266A (ja) * | 2014-06-23 | 2016-01-18 | コニカミノルタ株式会社 | 撮影システム、撮影の方法、およびコンピュータープログラム |
US20160085441A1 (en) * | 2014-09-22 | 2016-03-24 | Smart Technologies Ulc | Method, Apparatus, and Interactive Input System |
JP2016164704A (ja) | 2015-03-06 | 2016-09-08 | セイコーエプソン株式会社 | 画像表示装置および画像表示システム |
JP6451446B2 (ja) * | 2015-03-27 | 2019-01-16 | セイコーエプソン株式会社 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
JP6834258B2 (ja) * | 2016-08-31 | 2021-02-24 | セイコーエプソン株式会社 | 表示装置、表示システム及び表示装置の制御方法 |
JP6729297B2 (ja) * | 2016-10-27 | 2020-07-22 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム及び検出光照射装置 |
-
2019
- 2019-03-04 JP JP2019038289A patent/JP2020144413A/ja active Pending
-
2020
- 2020-03-03 US US16/807,540 patent/US11431899B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11431899B2 (en) | 2022-08-30 |
US20200288057A1 (en) | 2020-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8827461B2 (en) | Image generation device, projector, and image generation method | |
CN103197778B (zh) | 显示装置、投影仪、显示系统以及设备的切换方法 | |
US20170255253A1 (en) | Projector and image drawing method | |
CN103186293A (zh) | 显示装置、显示系统以及显示装置的数据供给方法 | |
US9024953B2 (en) | Image generating apparatus, projector, computer program, and image generating method | |
US10382731B2 (en) | Projector, multi-projection system, and method for controlling projector | |
US10276133B2 (en) | Projector and display control method for displaying split images | |
JP6950669B2 (ja) | 表示装置の制御方法、表示装置、及び、表示システム | |
CN107239178A (zh) | 显示系统、信息处理装置、投影仪及信息处理方法 | |
CN107872659B (zh) | 投影装置以及投影方法 | |
US8917291B2 (en) | Projector and control method | |
JP2020144413A (ja) | 表示方法および表示装置 | |
US10795467B2 (en) | Display device, electronic blackboard system, and user interface setting method | |
US10909947B2 (en) | Display device, display system, and method of controlling display device | |
CN112055185B (zh) | 动作方法和显示装置 | |
CN115834846A (zh) | 图像显示方法及投影仪 | |
JP7302640B2 (ja) | 表示装置の動作方法および表示装置 | |
JP6608080B1 (ja) | プロジェクタシステム | |
JP6943029B2 (ja) | 投影装置、投影システム、制御方法及びプログラム | |
JP2021190945A (ja) | 補正データ生成方法、プロジェクターの制御方法、補正データ生成装置およびプロジェクター | |
JP2020134922A (ja) | プロジェクタシステム | |
JP2020173328A (ja) | 表示方法および表示装置 | |
JP2020191045A (ja) | 指示体、表示システムおよび動作方法 | |
JP2021068145A (ja) | 頭部装着型表示装置の動作方法および頭部装着型表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20200810 |