JP2016189517A - 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 - Google Patents
表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 Download PDFInfo
- Publication number
- JP2016189517A JP2016189517A JP2015068092A JP2015068092A JP2016189517A JP 2016189517 A JP2016189517 A JP 2016189517A JP 2015068092 A JP2015068092 A JP 2015068092A JP 2015068092 A JP2015068092 A JP 2015068092A JP 2016189517 A JP2016189517 A JP 2016189517A
- Authority
- JP
- Japan
- Prior art keywords
- document camera
- unit
- image
- information
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/10—Projectors with built-in or built-on screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03542—Light pens for emitting or receiving light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0386—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/268—Signal distribution or switching
Abstract
【課題】書画カメラに簡易に所望の処理を実行させることができるようにする。
【解決手段】プロジェクター100は、書画カメラ4と通信する画像I/F部12と、画像I/F部12を介して書画カメラ4から受信した撮影画像データに基づく画像を、スクリーンSCに表示させる投射部20と、スクリーンSCに対する指示体70の位置を検出する位置検出部50と、位置検出部50の検出結果に基づいて指示体70によりスクリーンSCのアイコンに対応する領域が操作されたことを検出した場合、画像I/F部12を介して書画カメラ4にアイコンに係る機能に基づく処理をさせる制御コマンドを送信する指示情報送信部35と、を備える。
【選択図】図3
【解決手段】プロジェクター100は、書画カメラ4と通信する画像I/F部12と、画像I/F部12を介して書画カメラ4から受信した撮影画像データに基づく画像を、スクリーンSCに表示させる投射部20と、スクリーンSCに対する指示体70の位置を検出する位置検出部50と、位置検出部50の検出結果に基づいて指示体70によりスクリーンSCのアイコンに対応する領域が操作されたことを検出した場合、画像I/F部12を介して書画カメラ4にアイコンに係る機能に基づく処理をさせる制御コマンドを送信する指示情報送信部35と、を備える。
【選択図】図3
Description
本発明は、表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法に関する。
従来、書画カメラが机上やステージに置かれた書類の撮影結果に基づく画像情報をプロジェクター等の表示装置に送信し、表示装置が画像情報に基づく画像をスクリーン等の表示面に表示するシステムが知られている(例えば、特許文献1参照)。表示装置により表示面に表示された画像は、例えば、プレゼンターによるプレゼンテーションに使用される。
ここで、従来は、書画カメラのズーム倍率を変更したり、書画カメラの撮影方法について静止画撮影と動画撮影とを切り替えたり等、書画カメラに所望の処理を実行させるためには、書画カメラ自体を操作する必要があり作業が煩雑な場合があった。例えば、書画カメラの撮影結果に基づいて表示面に表示される画像がプレゼンテーションに使用される場合において、プレゼンターが書画カメラに所定の処理を実行させることを望む場合、プレゼンターは、プレゼンテーションを行っている位置から書画カメラの位置まで移動して書画カメラを操作して書画カメラに所定の処理を実行させた後、再び、プレゼンテーションを行う位置まで戻るという作業を行う必要があり、作業が煩雑であった。
本発明は、上述した事情に鑑みてなされたものであり、書画カメラの撮影結果に基づいて画像を表示する表示装置、及び、書画カメラについて、書画カメラに簡易に所望の処理を実行させることができるようにすることを目的とする。
本発明は、上述した事情に鑑みてなされたものであり、書画カメラの撮影結果に基づいて画像を表示する表示装置、及び、書画カメラについて、書画カメラに簡易に所望の処理を実行させることができるようにすることを目的とする。
上記目的を達成するために、本発明の表示装置は、書画カメラと通信する通信部と、前記通信部を介して前記書画カメラから受信した画像情報に基づく画像を、表示面に表示させる表示部と、前記表示面に対する指示体の位置を検出する位置検出部と、前記位置検出部の検出結果に基づいて前記指示体により前記表示面の第1の位置が操作されたことを検出した場合、前記通信部を介して前記書画カメラに第1の処理をさせる指示情報を送信する指示情報送信部と、を備えることを特徴とする。
本発明の構成によれば、ユーザーは、書画カメラを、直接、操作することなく、指示体により第1の位置を操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
本発明の構成によれば、ユーザーは、書画カメラを、直接、操作することなく、指示体により第1の位置を操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
また、本発明の表示装置は、前記第1の位置に表示するオブジェクトを生成するオブジェクト生成部をさらに備え、前記表示部は、前記オブジェクト生成部が生成した前記オブジェクトを表示することを特徴とする。
本発明の構成によれば、ユーザーは、表示されたオブジェクトを利用して、オブジェクトを指示体により操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
本発明の構成によれば、ユーザーは、表示されたオブジェクトを利用して、オブジェクトを指示体により操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
また、本発明の表示装置は、前記オブジェクト生成部は、前記通信部を介して前記書画カメラから第1の情報を受信し、前記第1の情報に基づいて前記オブジェクトを生成することを特徴とする。
本発明の構成によれば、オブジェクト生成部は、第1の情報に基づいて、書画カメラに対応するオブジェクトを生成できる。
本発明の構成によれば、オブジェクト生成部は、第1の情報に基づいて、書画カメラに対応するオブジェクトを生成できる。
また、本発明の表示装置は、前記第1の情報は、前記書画カメラを識別する識別情報であり、前記識別情報と前記オブジェクトに関する情報とを対応付けて記憶する記憶部をさらに備え、前記オブジェクト生成部は、前記通信部を介して前記書画カメラから前記識別情報を受信し、前記記憶部で前記識別情報と対応付けて記憶された前記オブジェクトに関する情報に基づいて前記オブジェクトを生成する。
本発明の構成によれば、オブジェクト生成部は、記憶部が記憶する識別情報とオブジェクトに関する情報とを対応付けた情報に基づいて、書画カメラに対応するオブジェクトを生成できる。
本発明の構成によれば、オブジェクト生成部は、記憶部が記憶する識別情報とオブジェクトに関する情報とを対応付けた情報に基づいて、書画カメラに対応するオブジェクトを生成できる。
また、本発明の表示装置は、第1の入力端子と、第2の入力端子とを備え、前記オブジェクト生成部は、前記表示部が表示する画像が、第1の書画カメラが接続された前記第1の入力端子を介して入力された画像情報に基づく画像から、第2の書画カメラが接続された前記第2の入力端子を介して入力された画像情報に基づく画像へと切り替わった場合、前記第2の書画カメラから受信した前記第1の情報に基づいて前記オブジェクトを生成することを特徴とする。
本発明の構成によれば、第1の書画カメラの撮影結果に基づく画像から、第2の書画カメラの撮影結果に基づく画像への切り替えに応じて、オブジェクトを、切り替え後の画像に対応したものとすることができる。
本発明の構成によれば、第1の書画カメラの撮影結果に基づく画像から、第2の書画カメラの撮影結果に基づく画像への切り替えに応じて、オブジェクトを、切り替え後の画像に対応したものとすることができる。
また、本発明の表示装置は、前記オブジェクト生成部は、前記指示体による所定の操作に応じて、前記オブジェクトの態様を変化させる。
本発明の構成によれば、ユーザーは、指示体による操作という簡易な方法で、オブジェクトの態様を変更できる。
本発明の構成によれば、ユーザーは、指示体による操作という簡易な方法で、オブジェクトの態様を変更できる。
また、上記目的を達成するために、本発明の表示装置の制御方法は、書画カメラから受信した画像情報に基づく画像を、表示面に表示し、前記表示面に対する指示体の位置を検出し、検出した前記指示体の位置に基づいて前記表示面の第1の位置が操作されたことを検出した場合、前記書画カメラに第1の処理をさせる指示情報を送信することを特徴とする。
本発明の構成によれば、ユーザーは、書画カメラを、直接、操作することなく、指示体により第1の位置を操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
本発明の構成によれば、ユーザーは、書画カメラを、直接、操作することなく、指示体により第1の位置を操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
また、上記目的を達成するために、本発明の書画カメラは、表示装置と通信する通信処理部と、撮影を実行する撮像部と、前記撮像部の撮影結果に基づく画像情報を、前記通信処理部を介して前記表示装置へ送信する画像出力部と、指示体による表示面の第1の位置の操作に基づいて前記表示装置が生成した指示情報を、前記通信制御部を介して受信し、受信した前記指示情報に基づいて第1の処理を行う処理制御部と、を備えることを特徴とする。
本発明の構成によれば、ユーザーは、書画カメラを、直接、操作することなく、指示体により第1の位置を操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
本発明の構成によれば、ユーザーは、書画カメラを、直接、操作することなく、指示体により第1の位置を操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
また、本発明の書画カメラは、実行可能な処理を判定し、実行可能と判定した処理を示す情報を、前記通信制御部を介して前記表示装置に送信する判定部をさらに備えることを特徴とする。
本発明の構成によれば、書画カメラは、判定部の機能により、自身が有する機能を表示装置に通知でき、また、表示装置は、通知に基づいて、書画カメラが有する機能に対応するオブジェクトを表示できる。
本発明の構成によれば、書画カメラは、判定部の機能により、自身が有する機能を表示装置に通知でき、また、表示装置は、通知に基づいて、書画カメラが有する機能に対応するオブジェクトを表示できる。
また、上記目的を達成するために、本発明の書画カメラの制御方法は、撮影を実行し、撮影結果に基づく画像情報を、前記画像情報に基づく画像を表示面に表示させる表示装置へ送信し、指示体による前記表示面の第1の位置の操作に基づいて前記表示装置が生成した指示情報を、受信し、受信した前記指示情報に基づいて第1の処理を行うことを特徴とする。
本発明の構成によれば、ユーザーは、書画カメラを、直接、操作することなく、指示体により第1の位置を操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
本発明の構成によれば、ユーザーは、書画カメラを、直接、操作することなく、指示体により第1の位置を操作するという簡易な作業で、書画カメラに所望の処理を実行させることができる。
図1は、表示システム1の構成及び設置状態を示す図である。
表示システム1は、プロジェクター100(表示装置)に、2台の第1書画カメラ4a(書画カメラ。第1の書画カメラ。)、第2書画カメラ4b(書画カメラ。第2の書画カメラ。)を有線接続した構成を有する。以下、第1書画カメラ4a、及び、第2書画カメラ4bを区別しない場合「書画カメラ4」と表現する。プロジェクター100に接続される書画カメラ4の数について制限はなく、1台の書画カメラ4が接続されてもよく、3台以上の書画カメラ4が接続されてもよい。
表示システム1は、プロジェクター100(表示装置)に、2台の第1書画カメラ4a(書画カメラ。第1の書画カメラ。)、第2書画カメラ4b(書画カメラ。第2の書画カメラ。)を有線接続した構成を有する。以下、第1書画カメラ4a、及び、第2書画カメラ4bを区別しない場合「書画カメラ4」と表現する。プロジェクター100に接続される書画カメラ4の数について制限はなく、1台の書画カメラ4が接続されてもよく、3台以上の書画カメラ4が接続されてもよい。
プロジェクター100は、スクリーンSC(表示面)の上方又は斜め上方に設置され、スクリーンSCに向けて画像を投射する。スクリーンSCは、壁面に固定され、又は床面に立設された平板又は幕である。本発明は、この例に限定されず、壁面をスクリーンSCとして使用することも可能である。この場合、スクリーンSCとして使用される壁面の上部にプロジェクター100を取り付けるとよい。
プロジェクター100に、PC(パーソナルコンピューター)、ビデオ再生装置、DVD再生装置、Blu−ray(登録商標)Disc(ブルーレイディスク)再生装置等の画像供給装置を接続してもよい。この場合、プロジェクター100は、画像供給装置から供給されるアナログ画像信号又はデジタル画像データに基づいて、スクリーンSCに画像を投射する。また、プロジェクター100は、内蔵する記憶部60(図3)や外部接続される記憶媒体に記憶された画像データを読み出して、この画像データに基づきスクリーンSCに画像を表示してもよい。
プロジェクター100は、スクリーンSCに対するユーザーの操作を検出する機能を有する。ユーザーは、ペン型の指示体70の軸部72を手に持ち、指示体70の先端部71でスクリーンSCに対する操作を行う。この操作には、先端部71によりスクリーンSC上の位置を指定(指示)する操作、スクリーンSC上の異なる位置を連続して指示する操作等が含まれる。スクリーンSC上の位置を指示する操作は、指示体70の先端部71をスクリーンSCの所定の位置に一定時間接触させる操作である。スクリーンSC上の異なる位置を連続して指示する操作は、先端部71をスクリーンSCに接触させながら動かして、文字や図形等を描く操作である。
プロジェクター100は、ユーザーが指示体70で行う操作を検出して、検出した操作をスクリーンSCの画像に反映させる。例えば、プロジェクター100は、先端部71が指示する操作位置の座標に基づき、プロジェクター100の機能を実行するGUI(Graphical User Interface)操作を実現する。また、プロジェクター100は、先端部71の操作位置の軌跡に沿って文字や図形を生成し、生成した文字や図形をスクリーンSCに投射する、描画機能を有する。
第1書画カメラ4aは、カメラヘッド402a、及び、カメラヘッド402aを支持する支柱403aを有する。カメラヘッド402aは下方を撮影する撮像部410a(図2)を備え、カメラヘッド402aの下方に設置される載置面401aに載置される被写体を撮影し、撮影画像データ(画像情報)をプロジェクター100に送信する。
第2書画カメラ4bは、カメラヘッド402bに対応するカメラヘッド402b、支柱403aに対応する支柱403b、及び、載置面401aに対応する載置面401bを備える。
第2書画カメラ4bは、カメラヘッド402bに対応するカメラヘッド402b、支柱403aに対応する支柱403b、及び、載置面401aに対応する載置面401bを備える。
表示システム1は、例えば、プレゼンターが行うプレゼンテーションにおいて以下の態様で使用される。すなわち、書画カメラ4は、プレゼンテーションに用いられる写真や、図表、その他の情報が印刷された資料(被写体)を撮影し、撮影結果に基づく撮影画像データをプロジェクター100に送信する。プロジェクター100は、書画カメラ4から受信した撮影画像データに基づく画像を、スクリーンSCに投射(表示)する。プレゼンターは、スクリーンSCに投射された画像を指し示したりする等して、適宜、画像に基づく情報を使用し、自身が行う説明を補完しながらプレゼンテーションを行う。また、後述するように、表示システム1では、スクリーンSCに表示される画像を、第1書画カメラ4aの撮影に基づく画像と、第2書画カメラ4bの撮影に基づく画像との間で切り替えることが可能である。プレゼンターは、自身が行う説明に応じて、適宜、スクリーンSCに表示される画像を、第1書画カメラ4aの撮影に基づく画像と、第2書画カメラ4bの撮影に基づく画像との間で切り替える。プレゼンテーション中、プレゼンターは、後述する方法で、プレゼンテーションを中断することなく、簡易な方法で、第1書画カメラ4a、及び、第2書画カメラ4bに対して、各書画カメラ4の機能に基づく処理の実行を指示し、処理を実行させることができる。
図2は、第1書画カメラ4a、第2書画カメラ4b、及び、プロジェクター100の機能ブロック図である。
図2に示すように、第1書画カメラ4aは、書画カメラ制御部411aと、撮像部410aと、インターフェース部412a(通信処理部)と、外部記憶媒体制御部416aと、を備える。
書画カメラ制御部411aは、CPUや、ROM、RAM、所定の信号処理回路等を備え、第1書画カメラ4aの各部を制御する。
書画カメラ制御部411aは、機能ブロックとして、画像出力部413a、処理制御部414a、及び、判定部415aを備える。これら機能ブロックは、例えばCPUがROMに記憶された対応する制御プログラムを読み出して実行する等のハードウェアとソフトウェアとの協働により処理を実行する。これら機能ブロックの機能、及び、機能に基づく処理については後述する。
書画カメラ制御部411aは、機能ブロックとして、画像出力部413a、処理制御部414a、及び、判定部415aを備える。これら機能ブロックは、例えばCPUがROMに記憶された対応する制御プログラムを読み出して実行する等のハードウェアとソフトウェアとの協働により処理を実行する。これら機能ブロックの機能、及び、機能に基づく処理については後述する。
撮像部410aは、デジタルスチルカメラまたはデジタルビデオカメラであり、載置面401a(図1)を撮影範囲に含むよう設置される。撮像部410aは、撮影結果に基づいて撮影画像データ(画像情報)を生成し、生成した撮影画像データを書画カメラ制御部411aに出力する。書画カメラ制御部411aの画像出力部413aは、インターフェース部412aを介して、撮影画像データをプロジェクター100に送信する。
インターフェース部412aは、プロジェクター100に対しUSB接続するUSBコネクター、及び、USBデバイスコントローラーを含む回路を有し、書画カメラ制御部411aの制御で、USBの規格に従ってプロジェクター100と通信する。
インターフェース部412aは、HDMI(High-Definition Multimedia Interface)(登録商標)の規格に対応するインターフェースであってもよいし、表示用のアナログ画像信号を出力するインターフェース(例えば、D−Sub)であってもよいし、デジタルビデオデータを出力するインターフェース(例えば、DVI)であってもよい。インターフェース部412aは、プロジェクター100に接続してデータを送信できればよく、例えば無線通信によりプロジェクター100に接続可能な構成であってもよい。
インターフェース部412aは、HDMI(High-Definition Multimedia Interface)(登録商標)の規格に対応するインターフェースであってもよいし、表示用のアナログ画像信号を出力するインターフェース(例えば、D−Sub)であってもよいし、デジタルビデオデータを出力するインターフェース(例えば、DVI)であってもよい。インターフェース部412aは、プロジェクター100に接続してデータを送信できればよく、例えば無線通信によりプロジェクター100に接続可能な構成であってもよい。
外部記憶媒体制御部416aは、SDメモリーカードや、SDHCメモリーカード等の外部記憶媒体が装着可能に構成され、書画カメラ制御部411aの制御で、装着された外部記憶媒体へのデータの書き込み、外部記憶媒体からのデータの読み出しを実行する。
第1書画カメラ4aは、以下の機能を有する。
第1書画カメラ4aは、載置面401aに載置された被写体の撮影時に、撮像部410aのピント合わせ(オートフォーカス)を自動で実行するオートフォーカス機能K1を有する。
また、第1書画カメラ4aは、後述する手段による所定の指示をトリガーとして、当該所定の指示を受け付けたときに撮影結果に基づいて生成された撮影画像データを、所定の周期で繰り返し送信する書画カメラフリーズ機能K2を有する。書画カメラフリーズ機能K2の実行中、プロジェクター100は、所定の周期で第1書画カメラ4aから受信する同一の内容の撮影画像データに基づいて、スクリーンSCに同一の内容の画像を継続して表示する。
また、第1書画カメラ4aは、撮像部410aのズーム倍率を変更する書画カメラズーム機能K3を有する。
また、第1書画カメラ4aは、撮像部410aの撮影結果に基づいて生成された撮影画像データに基づいて、当該撮影画像データおける画像の向きを180度回転したデータ(以下、「反転画像データ」という。)を生成し、生成した反転画像データをプロジェクター100に送信する画面180度回転機能K4を有する。
また、第1書画カメラ4aは、後述する手段による静止画の撮影の実行の指示をトリガーとして、当該所定の指示を受け付けたときに撮影結果に基づいて生成された撮影画像データを、所定のファイル名の静止画ファイルとして外部記憶媒体に記憶する静止画撮影機能K5を有する。
また、第1書画カメラ4aは、後述する手段による動画の撮影の開始の指示をトリガーとして、後述する手段による動画の撮影の終了の指示を受け付けるまでの期間、撮影結果に基づいて所定の周期で生成する撮影画像データを累積的に記憶して動画ファイルを生成する動画撮影を行い、動画撮影に基づく動画ファイルを外部記憶媒体に記憶する動画撮影機能K6を有する。
また、第1書画カメラ4aは、後述する手段による所定の指示をトリガーとして、外部記憶媒体に記憶されたファイル(静止画ファイル、及び、動画ファイル)を所定の順番で読み出していき、読み出したファイルに基づく撮影画像データをプロジェクター100に送信する再生画面機能K7を有する。
第1書画カメラ4aは、載置面401aに載置された被写体の撮影時に、撮像部410aのピント合わせ(オートフォーカス)を自動で実行するオートフォーカス機能K1を有する。
また、第1書画カメラ4aは、後述する手段による所定の指示をトリガーとして、当該所定の指示を受け付けたときに撮影結果に基づいて生成された撮影画像データを、所定の周期で繰り返し送信する書画カメラフリーズ機能K2を有する。書画カメラフリーズ機能K2の実行中、プロジェクター100は、所定の周期で第1書画カメラ4aから受信する同一の内容の撮影画像データに基づいて、スクリーンSCに同一の内容の画像を継続して表示する。
また、第1書画カメラ4aは、撮像部410aのズーム倍率を変更する書画カメラズーム機能K3を有する。
また、第1書画カメラ4aは、撮像部410aの撮影結果に基づいて生成された撮影画像データに基づいて、当該撮影画像データおける画像の向きを180度回転したデータ(以下、「反転画像データ」という。)を生成し、生成した反転画像データをプロジェクター100に送信する画面180度回転機能K4を有する。
また、第1書画カメラ4aは、後述する手段による静止画の撮影の実行の指示をトリガーとして、当該所定の指示を受け付けたときに撮影結果に基づいて生成された撮影画像データを、所定のファイル名の静止画ファイルとして外部記憶媒体に記憶する静止画撮影機能K5を有する。
また、第1書画カメラ4aは、後述する手段による動画の撮影の開始の指示をトリガーとして、後述する手段による動画の撮影の終了の指示を受け付けるまでの期間、撮影結果に基づいて所定の周期で生成する撮影画像データを累積的に記憶して動画ファイルを生成する動画撮影を行い、動画撮影に基づく動画ファイルを外部記憶媒体に記憶する動画撮影機能K6を有する。
また、第1書画カメラ4aは、後述する手段による所定の指示をトリガーとして、外部記憶媒体に記憶されたファイル(静止画ファイル、及び、動画ファイル)を所定の順番で読み出していき、読み出したファイルに基づく撮影画像データをプロジェクター100に送信する再生画面機能K7を有する。
図2に示すように、第2書画カメラ4bは、書画カメラ制御部411aに対応する書画カメラ制御部411bと、撮像部410aに対応する撮像部410bと、インターフェース部412aに対応するインターフェース部412bと、を備える。書画カメラ制御部411bは、画像出力部413aに対応する画像出力部413bと、処理制御部414aに対応する処理制御部414bと、判定部415aに対応する判定部415bと、を備える。
一方、第2書画カメラ4bは、外部記憶媒体制御部416aに対応する構成要素を有さず、その点で第1書画カメラ4aと構成を異にする。
一方、第2書画カメラ4bは、外部記憶媒体制御部416aに対応する構成要素を有さず、その点で第1書画カメラ4aと構成を異にする。
第2書画カメラ4bは、以下の機能を有する。
第2書画カメラ4bは、上述したオートフォーカス機能K1、書画カメラフリーズ機能K2、及び、書画カメラズーム機能K3を有する。
一方、第2書画カメラ4bは、第1書画カメラ4aが有する画面180度回転機能K4、静止画撮影機能K5、動画撮影機能K6、及び、再生画面機能K7を有さず、その点で第1書画カメラ4aと機能を異にする。
第2書画カメラ4bは、上述したオートフォーカス機能K1、書画カメラフリーズ機能K2、及び、書画カメラズーム機能K3を有する。
一方、第2書画カメラ4bは、第1書画カメラ4aが有する画面180度回転機能K4、静止画撮影機能K5、動画撮影機能K6、及び、再生画面機能K7を有さず、その点で第1書画カメラ4aと機能を異にする。
図3は、プロジェクター100の機能ブロック図である。
図3に示すように、プロジェクター100は、外部機器に接続されるインターフェースとして、I/F(インターフェース)部11及び画像I/F(インターフェース)部12(通信部)を備える。
画像I/F部12は、少なくとも、USBの規格(本実施形態に係る第1書画カメラ4a、及び、第2書画カメラ4bが対応する通信規格)に対応するインターフェースを有し、後述する制御部30の制御で、書画カメラ4と通信する。
なお、I/F部11及び画像I/F部12は、有線接続用のコネクターを備え、このコネクターに対応するインターフェース回路を備えてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェースを備えていてもよい。有線接続用のコネクター及びインターフェース回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェースとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI等の画像データ用のインターフェースを用いることができ、D−Sub等のアナログ画像信号が入力されるインターフェースを用いてもよい。画像I/F部12は、音声データが入力されるインターフェースを備えてもよい。
図3に示すように、プロジェクター100は、外部機器に接続されるインターフェースとして、I/F(インターフェース)部11及び画像I/F(インターフェース)部12(通信部)を備える。
画像I/F部12は、少なくとも、USBの規格(本実施形態に係る第1書画カメラ4a、及び、第2書画カメラ4bが対応する通信規格)に対応するインターフェースを有し、後述する制御部30の制御で、書画カメラ4と通信する。
なお、I/F部11及び画像I/F部12は、有線接続用のコネクターを備え、このコネクターに対応するインターフェース回路を備えてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェースを備えていてもよい。有線接続用のコネクター及びインターフェース回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェースとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI等の画像データ用のインターフェースを用いることができ、D−Sub等のアナログ画像信号が入力されるインターフェースを用いてもよい。画像I/F部12は、音声データが入力されるインターフェースを備えてもよい。
I/F部11は、PC等の外部の装置との間で各種データを送受信するインターフェースである。I/F部11は、画像の投射に関するデータ、プロジェクター100の動作を設定するデータ等を入出力する。後述する制御部30は、I/F部11を介して外部の装置とデータを送受信する機能を有する。
画像I/F部12は、デジタル画像データが入力されるインターフェースである。本実施形態のプロジェクター100は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。
本実施形態では、画像I/F部12は、少なくとも、USBポートである第1USBポートP1(第1の入力端子)と、第2USBポートP2(第2の入力端子)との2つのポート(入力端子)を備える。第1USBポートP1には、USBケーブルを介して第1書画カメラ4aが接続され、第1書画カメラ4aからデジタル画像データである撮影画像データが入力される。第2USBポートP2には、USBケーブルを介して第2書画カメラ4bが接続され、第2書画カメラ4bからデジタル画像データである撮影画像データが入力される。
なお、プロジェクター100は、アナログ画像信号に基づき画像を投射する機能を備えていてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェースと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
本実施形態では、画像I/F部12は、少なくとも、USBポートである第1USBポートP1(第1の入力端子)と、第2USBポートP2(第2の入力端子)との2つのポート(入力端子)を備える。第1USBポートP1には、USBケーブルを介して第1書画カメラ4aが接続され、第1書画カメラ4aからデジタル画像データである撮影画像データが入力される。第2USBポートP2には、USBケーブルを介して第2書画カメラ4bが接続され、第2書画カメラ4bからデジタル画像データである撮影画像データが入力される。
なお、プロジェクター100は、アナログ画像信号に基づき画像を投射する機能を備えていてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェースと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
プロジェクター100は、光学的な画像の形成を行う投射部20(表示部)を備える。投射部20は、光源部21、光変調装置22及び投射光学系23を有する。光源部21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等からなる光源を備える。また、光源部21は、光源が発した光を光変調装置22に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、プロジェクター100は、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、又は光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射される。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
投射光学系23は、光変調装置22により変調された画像光をスクリーンSC方向へ導き、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系23は、スクリーンSCの表示画像の拡大・縮小及び焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。プロジェクター100が短焦点型である場合、投射光学系23に、画像光をスクリーンSCに向けて反射する凹面鏡を備えていてもよい。
投射部20は、制御部30の制御に従って光源部21を点灯させる光源駆動部45、及び制御部30の制御に従って光変調装置22を動作させる光変調装置駆動部46に接続される。光源駆動部45は、光源部21の点灯、消灯の切り替えを行い、光源部21の光量を調整する機能を有していてもよい。
プロジェクター100は、投射部20が投射する画像を処理する画像処理系を備える。この画像処理系は、プロジェクター100を制御する制御部30、記憶部60、入力受付部17、画像処理部40、光源駆動部45及び光変調装置駆動部46を含む。また、画像処理部40にはフレームメモリー41が接続され、制御部30には位置検出部50が接続される。これらの各部を画像処理系に含めてもよい。
制御部30は、所定の制御プログラム61を実行することによりプロジェクター100の各部を制御する。記憶部60は、制御部30が実行する制御プログラム61を記憶する。また、記憶部60は、オブジェクト関連情報テーブル62を記憶する。オブジェクト関連情報テーブル62については、後述する。
画像処理部40は、制御部30の制御に従って、画像I/F部12を介して入力される画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40は、フレームメモリー41に接続される。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー41に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー41から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
画像処理部40は、フレームメモリー41に接続される。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー41に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー41から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
入力受付部17は、入力デバイスとして機能するリモコン受光部18及び操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター100のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター100の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。入力受付部17は、制御部30の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが入力受付部17から制御部30に出力される。
リモコン受光部18は、プロジェクター100のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター100の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。入力受付部17は、制御部30の制御に従い、プロジェクター100の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが入力受付部17から制御部30に出力される。
位置検出部50は、指示体70による操作位置を検出する。位置検出部50は、撮影部51、送信部52、撮影制御部53、対象検出部54及び座標算出部55の各部を備える。
撮影部51は、スクリーンSCとその周辺部とを含む範囲を撮影範囲として撮影した撮影画像を形成する。撮影部51は、赤外光を撮影する赤外用撮像素子、及び、インターフェース回路を備え、赤外光による撮影を行う。撮像素子には、CCD、CMOSのいずれを用いることも可能であり、また、他の素子を用いることもできる。撮影部51の撮影方向および撮影範囲(画角)は、投射光学系23と同じ方向、又は略同じ方向を向き、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする。撮影部51は撮影画像データを出力する。
撮影制御部53は、制御部30の制御に従って撮影部51を制御し、撮影部51に撮影を実行させる。撮影制御部53は、撮影部51の撮影画像データを取得して、対象検出部54に出力する。撮影部51が赤外光で撮影する撮影画像データには、指示体70が発する赤外光の像が写る。
送信部52は、撮影制御部53の制御に従って、指示体70に対して赤外線信号を送信する。送信部52は、赤外LED等の光源を有し、この光源を撮影制御部53の制御に従って点灯及び消灯させる。
対象検出部54は、撮影部51の撮影画像データに写った赤外光の像を検出して、撮影画像データにおける、指示体70の操作位置の座標を検出する。また、対象検出部54は、指示体70の先端部71がスクリーンSCに接触しているか否かを判定して、先端部71がスクリーンSCに接触しているか否かを示すタッチ情報を生成する。指示体70の先端部71がスクリーンSCに接触しているか否かの判定方法は後述する。
対象検出部54が検出する指示体70の操作位置の座標は、撮影部51の撮影画像データにおける座標である。
座標算出部55は、操作位置の座標を、スクリーンSCにおける操作位置の座標に変換する。本実施形態では、投射部20が投射する投射画像における座標に変換される。投射画像における座標は、プロジェクター100とスクリーンSCとの距離、投射光学系23におけるズーム率、プロジェクター100の設置角度、撮影部51とスクリーンSCとの距離等の様々な要素の影響を受ける。座標算出部55は、事前に実施されるキャリブレーションの結果に基づき、撮影画像データにおける操作位置の座標から、スクリーンSCの表示画像における操作位置の座標を算出する。キャリブレーションでは、所定のパターン画像を投射部20からスクリーンSCに投射して、表示されたパターン画像を撮影部51で撮影する。撮影部51の撮影したパターン画像に基づいて、撮影画像データにおける座標と、スクリーンSCの表示画像上の座標との対応関係(座標変換パラメーター)が導かれる。投射画像における操作位置の座標に基づき、制御部30は、フレームメモリー41に描画される投射画像に対する操作位置を特定できる。
座標算出部55は、操作位置の座標を、スクリーンSCにおける操作位置の座標に変換する。本実施形態では、投射部20が投射する投射画像における座標に変換される。投射画像における座標は、プロジェクター100とスクリーンSCとの距離、投射光学系23におけるズーム率、プロジェクター100の設置角度、撮影部51とスクリーンSCとの距離等の様々な要素の影響を受ける。座標算出部55は、事前に実施されるキャリブレーションの結果に基づき、撮影画像データにおける操作位置の座標から、スクリーンSCの表示画像における操作位置の座標を算出する。キャリブレーションでは、所定のパターン画像を投射部20からスクリーンSCに投射して、表示されたパターン画像を撮影部51で撮影する。撮影部51の撮影したパターン画像に基づいて、撮影画像データにおける座標と、スクリーンSCの表示画像上の座標との対応関係(座標変換パラメーター)が導かれる。投射画像における操作位置の座標に基づき、制御部30は、フレームメモリー41に描画される投射画像に対する操作位置を特定できる。
指示体70は、制御部73、送受信部74、操作スイッチ75及び電源部76を備え、これらの各部は軸部72(図1)に収容される。制御部73は、送受信部74及び操作スイッチ75に接続され、操作スイッチ75のオン/オフ状態を検出する。送受信部74は、赤外LED等の光源と、赤外光を受光する受光素子とを備え、制御部73の制御に従って光源を点灯及び消灯させるとともに、受光素子の受光状態を示す信号を制御部73に出力する。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
位置検出部50と指示体70との相互の通信により、撮影部51の撮影画像データから指示体70の操作位置を特定する方法について説明する。
制御部30は、指示体70による操作を検出する場合に、撮影制御部53を制御して、送信部52から同期用の信号を送信させる。すなわち、撮影制御部53は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター100の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された指示体70に固有の点灯パターンで送受信部74の光源を点灯(発光)させる。また、制御部73は、操作スイッチ75の操作状態に応じて、送受信部74の点灯パターンを切り替える。このため、プロジェクター100の対象検出部54は、複数の撮影画像データに基づいて、指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
また、制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。つまり、送信部52は、指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、送信部52が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
制御部30は、指示体70による操作を検出する場合に、撮影制御部53を制御して、送信部52から同期用の信号を送信させる。すなわち、撮影制御部53は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター100の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された指示体70に固有の点灯パターンで送受信部74の光源を点灯(発光)させる。また、制御部73は、操作スイッチ75の操作状態に応じて、送受信部74の点灯パターンを切り替える。このため、プロジェクター100の対象検出部54は、複数の撮影画像データに基づいて、指示体70の操作状態、すなわち先端部71がスクリーンSCに押しつけられているか否かを判定できる。
また、制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。つまり、送信部52は、指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、送信部52が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
撮影制御部53は、撮影部51による撮影タイミングを、指示体70が点灯するタイミングに合わせる制御を行う。撮影タイミングは、撮影制御部53が送信部52を点灯させるタイミングに基づいて決定される。対象検出部54は、撮影部51の撮影画像データに指示体70の光の像が写っているか否かにより、指示体70が点灯するパターンを特定できる。対象検出部54は、複数の撮影画像データに基づいて、指示体70の先端部71がスクリーンSCに押しつけられているか否かを判定して、タッチ情報を生成する。
また、指示体70の点灯パターンは、指示体70の個体毎に固有のパターン、又は複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、対象検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
また、指示体70の点灯パターンは、指示体70の個体毎に固有のパターン、又は複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、対象検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
制御部30は、記憶部60が記憶する制御プログラム61を読み出して実行することにより投射制御部31、操作取得部32、描画部33、オブジェクト生成部34、及び、指示情報送信部35の機能を実現し、プロジェクター100の各部を制御する。
投射制御部31は、入力受付部17から入力される操作データに基づいて、ユーザーがリモコンを操作して行った操作内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45及び光変調装置駆動部46を制御し、スクリーンSCに画像を投射させる。
また、投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
また、投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
操作取得部32は、位置検出部50が検出する指示体70の操作位置を取得する。また、操作取得部32は、スクリーンSCにメニューバー等のGUI操作用の画像が表示された状態で、位置検出部50が指示体70の操作位置を検出した場合、操作位置に対応する画像を特定し、指示内容を検出する。例えば、メニューバーが表示された状態で、指示体70の操作位置に対応するメニューバー中のアイコンを特定し、特定したアイコンの機能を検出する。
描画部33は、位置検出部50が検出する指示体70の操作位置に従って、文字や図形を描画する。描画部33は、操作取得部32が描画を指示する操作を検出した場合に、指示体70の操作位置の軌跡を取得し、この軌跡に沿って多角形等の図形、直線、曲線等の画像を生成する。描画部33が生成する図形や画像の種類は、操作取得部32が検出する操作により指定される。描画部33が生成する画像は画像処理部40に転送され、投射制御部31の制御に従って、画像処理部40がフレームメモリー41上の画像に描画画像を合成する。これにより、描画部33が描画する画像が投射部20により投射される。
オブジェクト生成部34、及び、指示情報送信部35の機能、及び、機能に基づく処理については後述する。
上述したように、本実施形態に係るプロジェクター100には、書画カメラ4を接続可能である。
以下、電源投入時、及び、書画カメラ4がプロジェクター100に接続されたときのプロジェクター100の動作について説明する。
以下、電源投入時、及び、書画カメラ4がプロジェクター100に接続されたときのプロジェクター100の動作について説明する。
図4は、プロジェクター100の電源投入時、及び、第1書画カメラ4aがプロジェクター100に接続されたときのプロジェクター100、及び、第1書画カメラ4aの動作を示すフローチャートである。図4(A)のフローチャートはプロジェクター100の動作を示し、図4(B)のフローチャートは第1書画カメラ4aの動作を示す。
図4のフローチャートの処理は、以下のことをトリガーとして行われる。すなわち、図4のフローチャートの処理は、第1書画カメラ4aがUSBケーブルを介してプロジェクター100のUSBポート(本例では、第1USBポートP1。)に物理的に接続された状態で、プロジェクター100の電源が投入されたことをトリガーとして行われる。この場合、プロジェクター100の制御部30は、電源投入に伴って実行する初期処理で、USBの規格に従って第1書画カメラ4aが物理的に接続された状態であることを検出する。また、図4のフローチャートの処理は、電源投入後のプロジェクター100に、第1書画カメラ4aが物理的に接続されたことをトリガーとして行われる。この場合、プロジェクター100の制御部30は、USBの規格に従って第1書画カメラ4aが物理的に接続されたことを検出する。
図4(A)、及び、図4(B)に示すように、プロジェクター100の画像I/F部12、及び、第1書画カメラ4aのインターフェース部412aは、USBの規格に従って通信して通信経路を確立し、装置間でUSBの規格に従って双方向通信できる状態とする(ステップS101、ステップS201)。
図4(A)に示すように、通信経路の確立後、プロジェクター100の制御部30は、画像I/F部12を制御して、第1書画カメラ4aに書画カメラ識別情報(識別情報)の応答を要求する識別情報応答要求コマンドを第1書画カメラ4aに送信する(ステップS102)。
書画カメラ識別情報とは、書画カメラ4を一意に識別する情報であり、例えば、書画カメラ4の製造時に、書画カメラ4に割り当てられるシリアル番号を書画カメラ識別情報として用いることができる。
通信経路の確立時に、プロジェクター100が通信経路を確立した書画カメラ4から受信する書画カメラ識別情報は、「第1の情報」に相当する。
書画カメラ識別情報とは、書画カメラ4を一意に識別する情報であり、例えば、書画カメラ4の製造時に、書画カメラ4に割り当てられるシリアル番号を書画カメラ識別情報として用いることができる。
通信経路の確立時に、プロジェクター100が通信経路を確立した書画カメラ4から受信する書画カメラ識別情報は、「第1の情報」に相当する。
図4(B)に示すように、第1書画カメラ4aの書画カメラ制御部411aは、インターフェース部412aを制御して、識別情報応答要求コマンドを受信し、当該コマンドに基づいて、第1書画カメラ4aの書画カメラ識別情報を応答する識別情報応答コマンドを送信する(ステップS202)。
図4(A)に示すように、プロジェクター100の制御部30は、画像I/F部12を制御して、識別情報応答コマンドを受信し、当該コマンドに基づいて、書画カメラ識別情報を取得する(ステップS103)。
なお、本実施形態では、制御部30は、第1書画カメラ4aに書画カメラ識別情報の応答を要求し、当該要求に対する応答に基づいて、書画カメラ識別情報を取得する。しかし、第1書画カメラ4aは、プロジェクター100に対してUSBデバイスと機能し、第1書画カメラ4aとプロジェクター100との間で通信経路を確立する際に、第1書画カメラ4aは、プロジェクター100に、USBの規格に従って、USBデバイスに一意に割り当てられるベンダーID、及び、プロダクトIDを送信する。これを踏まえ、第1書画カメラ4aのベンダーID、及び、プロダクトIDを書画カメラ識別情報として用いることも可能である。言い換えると、制御部30が書画カメラ4aに書画カメラ識別情報の応答を要求するステップS102を行わずに、第1書画カメラ4a側から書画カメラ識別情報を送信するようにしてもよい。
なお、本実施形態では、制御部30は、第1書画カメラ4aに書画カメラ識別情報の応答を要求し、当該要求に対する応答に基づいて、書画カメラ識別情報を取得する。しかし、第1書画カメラ4aは、プロジェクター100に対してUSBデバイスと機能し、第1書画カメラ4aとプロジェクター100との間で通信経路を確立する際に、第1書画カメラ4aは、プロジェクター100に、USBの規格に従って、USBデバイスに一意に割り当てられるベンダーID、及び、プロダクトIDを送信する。これを踏まえ、第1書画カメラ4aのベンダーID、及び、プロダクトIDを書画カメラ識別情報として用いることも可能である。言い換えると、制御部30が書画カメラ4aに書画カメラ識別情報の応答を要求するステップS102を行わずに、第1書画カメラ4a側から書画カメラ識別情報を送信するようにしてもよい。
次いで、制御部30は、記憶部60が記憶するオブジェクト関連情報テーブル62を参照し、オブジェクト関連情報テーブル62に、ステップS103で取得した書画カメラ識別情報を有するレコードが存在するか否かを判別する(ステップS104)。
ここで、後に明らかとなるとおり、ステップS101で通信経路を確立した書画カメラ4(本例では、第1書画カメラ4a)が、過去にプロジェクター100と接続されたことがある場合、オブジェクト関連情報テーブル62に当該書画カメラ4の書画カメラ識別情報を有するレコードが存在する状態である。一方、ステップS101で通信経路を確立した書画カメラ4(本例では、第1書画カメラ4a)が、過去にプロジェクター100と接続がされたことが無く、初めてプロジェクター100に接続された場合、オブジェクト関連情報テーブル62に当該書画カメラ4の書画カメラ識別情報を有するレコードが存在しない状態である。従って、ステップS104において、制御部30は、書画カメラ4が過去にプロジェクター100に接続されたことがある場合は、オブジェクト関連情報テーブル62に、ステップS103で取得した書画カメラ識別情報を有するレコードが存在すると判別する。一方、ステップS104において、制御部30は、書画カメラ4が過去にプロジェクター100に接続されたことがない場合は、オブジェクト関連情報テーブル62に、ステップS103で取得した書画カメラ識別情報を有するレコードが存在しないと判別する。
ここで、後に明らかとなるとおり、ステップS101で通信経路を確立した書画カメラ4(本例では、第1書画カメラ4a)が、過去にプロジェクター100と接続されたことがある場合、オブジェクト関連情報テーブル62に当該書画カメラ4の書画カメラ識別情報を有するレコードが存在する状態である。一方、ステップS101で通信経路を確立した書画カメラ4(本例では、第1書画カメラ4a)が、過去にプロジェクター100と接続がされたことが無く、初めてプロジェクター100に接続された場合、オブジェクト関連情報テーブル62に当該書画カメラ4の書画カメラ識別情報を有するレコードが存在しない状態である。従って、ステップS104において、制御部30は、書画カメラ4が過去にプロジェクター100に接続されたことがある場合は、オブジェクト関連情報テーブル62に、ステップS103で取得した書画カメラ識別情報を有するレコードが存在すると判別する。一方、ステップS104において、制御部30は、書画カメラ4が過去にプロジェクター100に接続されたことがない場合は、オブジェクト関連情報テーブル62に、ステップS103で取得した書画カメラ識別情報を有するレコードが存在しないと判別する。
オブジェクト関連情報テーブル62に、ステップS103で取得した書画カメラ識別情報を有するレコードが存在すると判別した場合(ステップS104:YES)、制御部30は、処理手順を後述するステップS107へ移行する。
オブジェクト関連情報テーブル62に、ステップS103で取得した書画カメラ識別情報を有するレコードが存在しないと判別した場合(ステップS104:NO)、制御部30は、以下の処理を実行する(ステップS105)。すなわち、制御部30は、画像I/F部12を制御して、第1書画カメラ4aに、第1書画カメラ4aが有する機能の識別情報(以下、「機能識別情報」という。)の応答を要求する機能情報応答要求コマンドを送信する(ステップS105)。
図4(B)に示すように、第1書画カメラ4aの書画カメラ制御部411aの判定部415aは、インターフェース部412aを制御して、機能情報応答要求コマンドを受信し、当該コマンドに基づいて、第1書画カメラ4aが有する機能の機能識別情報を応答する機能情報応答コマンドを送信する(ステップS203)。
詳述すると、ステップS203において、判定部415aは、第1書画カメラ4aが有する機能を判定する。例えば、第1書画カメラ4aが有する機能を示す情報を含むデータが事前に第1書画カメラ4aの所定の記憶領域に記憶され、判定部415aは、当該データに基づいて第1書画カメラ4aが有する機能を判定する。また例えば、制御プログラム61のバージョンや、機種(型番)を示す情報等の所定の情報によって第1書画カメラ4aが有する機能を判定できる場合は、判定部415aは、当該所定の情報を取得し、当該所定の情報に基づいて第1書画カメラ4aが有する機能を判定する。次いで、判定部415aは、判定した第1書画カメラ4aが有する機能の機能識別情報を含む機能情報応答コマンドを生成する。次いで、判定部415aは、生成した機能情報応答コマンドを送信する。
上述したように、第1書画カメラ4aは、オートフォーカス機能K1、書画カメラフリーズ機能K2、書画カメラズーム機能K3、画面180度回転機能K4、静止画撮影機能K5、動画撮影機能K6、及び、再生画面機能K7を有する。従って、ステップS203において、判定部415aは、これら7つの機能の機能識別情報を含む機能情報応答コマンドを生成し、送信する。
書画カメラ4の機能は、「書画カメラ4が実行可能な処理」に相当する。
詳述すると、ステップS203において、判定部415aは、第1書画カメラ4aが有する機能を判定する。例えば、第1書画カメラ4aが有する機能を示す情報を含むデータが事前に第1書画カメラ4aの所定の記憶領域に記憶され、判定部415aは、当該データに基づいて第1書画カメラ4aが有する機能を判定する。また例えば、制御プログラム61のバージョンや、機種(型番)を示す情報等の所定の情報によって第1書画カメラ4aが有する機能を判定できる場合は、判定部415aは、当該所定の情報を取得し、当該所定の情報に基づいて第1書画カメラ4aが有する機能を判定する。次いで、判定部415aは、判定した第1書画カメラ4aが有する機能の機能識別情報を含む機能情報応答コマンドを生成する。次いで、判定部415aは、生成した機能情報応答コマンドを送信する。
上述したように、第1書画カメラ4aは、オートフォーカス機能K1、書画カメラフリーズ機能K2、書画カメラズーム機能K3、画面180度回転機能K4、静止画撮影機能K5、動画撮影機能K6、及び、再生画面機能K7を有する。従って、ステップS203において、判定部415aは、これら7つの機能の機能識別情報を含む機能情報応答コマンドを生成し、送信する。
書画カメラ4の機能は、「書画カメラ4が実行可能な処理」に相当する。
図4(A)に示すように、プロジェクター100の制御部30は、画像I/F部12を制御して機能情報応答コマンドを受信し、当該コマンドに基づいて、オブジェクト関連情報テーブル62に1件のレコードを生成する(ステップS106)。
図5(A)は、オブジェクト関連情報テーブル62が有するレコードのデータ構造を模式的に示す図である。
図5(A)に示すように、オブジェクト関連情報テーブル62の1件のレコードは、書画カメラ識別情報、及び、オブジェクト関連情報を有する。オブジェクト関連情報は、1又は複数の機能関連情報を有する。機能関連情報は、機能識別情報と、表示有効/無効情報と、アイコンデータとを有する。
オブジェクト関連情報は、「オブジェクトに関する情報」に相当する。
表示有効/無効情報は、後に詳述するが、対応するレコードに基づいて書画カメラツールボックス(後述)を表示する場合に、書画カメラツールボックスに、対応する機能のアイコンを表示するか否かを示す情報である。表示有効/無効情報は、書画カメラツールボックスに対応する機能のアイコンを表示することを示す表示有効情報、又は、書画カメラツールボックスに対応する機能のアイコンを表示しないことを示す表示無効情報のいずれかの値をとる。
アイコンデータは、対応する機能のアイコンの画像データである。
図5(A)に示すように、オブジェクト関連情報テーブル62の1件のレコードは、書画カメラ識別情報、及び、オブジェクト関連情報を有する。オブジェクト関連情報は、1又は複数の機能関連情報を有する。機能関連情報は、機能識別情報と、表示有効/無効情報と、アイコンデータとを有する。
オブジェクト関連情報は、「オブジェクトに関する情報」に相当する。
表示有効/無効情報は、後に詳述するが、対応するレコードに基づいて書画カメラツールボックス(後述)を表示する場合に、書画カメラツールボックスに、対応する機能のアイコンを表示するか否かを示す情報である。表示有効/無効情報は、書画カメラツールボックスに対応する機能のアイコンを表示することを示す表示有効情報、又は、書画カメラツールボックスに対応する機能のアイコンを表示しないことを示す表示無効情報のいずれかの値をとる。
アイコンデータは、対応する機能のアイコンの画像データである。
ステップS106において、制御部30は、第1書画カメラ4aから受信した機能情報応答コマンドに含まれる機能識別情報(機能識別情報が複数含まれている場合は、複数の機能識別情報のそれぞれ)を取得する。次いで、制御部30は、取得した機能識別情報のそれぞれについて、機能識別情報と、表示有効/無効情報のデフォルト値である表示有効情報と、対応するアイコンデータとの組み合わせにより構成される機能関連情報を生成する。なお、記憶部60には、プロジェクター100に接続可能な書画カメラ4が有し得る機能のそれぞれについて、機能識別情報と、アイコンデータとを対応付けたテーブルが事前に記憶されており、制御部30は、当該テーブルに基づいて、機能識別情報のそれぞれについて、対応するアイコンデータを取得する。なお、アイコンデータを書画カメラ4が記憶し、制御部30が、書画カメラ4と通信し、書画カメラ4からアイコンデータを取得する構成であってもよい。
次いで、制御部30は、生成した機能関連情報のそれぞれの組み合わせにより構成されるオブジェクト関連情報を生成する。
次いで、制御部30は、オブジェクト関連情報テーブル62に、生成したオブジェクト関連情報と、ステップS103で取得した書画カメラ識別情報とを対応付けた1件のレコードを生成する。
次いで、制御部30は、生成した機能関連情報のそれぞれの組み合わせにより構成されるオブジェクト関連情報を生成する。
次いで、制御部30は、オブジェクト関連情報テーブル62に、生成したオブジェクト関連情報と、ステップS103で取得した書画カメラ識別情報とを対応付けた1件のレコードを生成する。
図5(B)は、制御部30が、第1書画カメラ4aから受信した機種情報応答コマンドに基づいて生成するレコードの内容を模式的に示す図である。
図5(B)に示すように、第1書画カメラ4aに係るレコードは、第1書画カメラ4aの書画カメラ識別情報と、第1書画カメラ4aに係るオブジェクト関連情報とを有する。オブジェクト関連情報は、第1書画カメラ4aが有する機能のそれぞれに対応する機能関連情報を有する。機能関連情報は、対応する機能の機能識別情報と、表示有効情報(表示有効/無効情報のデフォルト値)と、対応するアイコンデータとを有する。
図5(B)に示すように、第1書画カメラ4aに係るレコードは、第1書画カメラ4aの書画カメラ識別情報と、第1書画カメラ4aに係るオブジェクト関連情報とを有する。オブジェクト関連情報は、第1書画カメラ4aが有する機能のそれぞれに対応する機能関連情報を有する。機能関連情報は、対応する機能の機能識別情報と、表示有効情報(表示有効/無効情報のデフォルト値)と、対応するアイコンデータとを有する。
ここで、オブジェクト関連情報テーブル62が記憶される記憶部60は、不揮発性メモリーを備え、データを不揮発的に記憶する。従って、オブジェクト関連情報テーブル62は、プロジェクター100の電源がオフされた場合でも、記憶部60に継続して記憶される。
ステップS106の処理を実行した後、制御部30は、処理手順をステップS107へ移行する。
ステップS107において、制御部30は、オブジェクト関連情報テーブル62を参照し、当該テーブルが有するレコードから、ステップS103で取得した書画カメラ識別情報を有するレコードを特定し、特定したレコードが有するオブジェクト関連情報を取得する。ステップS107で制御部30が取得したオブジェクト関連情報は、ステップS101で通信経路を確立した書画カメラ4(本例では、第1書画カメラ4a)に係るオブジェクト関連情報である。
次いで、制御部30は、対応表示処理を実行する(ステップS108)。対応表示処理は、ステップS101で通信経路を確立した書画カメラ4以外にプロジェクター100に接続された書画カメラ4が存在しない場合(ケース1)と、ステップS101で通信経路を確立した書画カメラ4以外にプロジェクター100に既に書画カメラ4(以下、「他の書画カメラ4」という。)が接続されており、当該他の書画カメラ4からの入力に基づく画像、及び、当該書画カメラ4に対応する書画カメラ制御ツールボックスがスクリーンSCに表示されている場合(ケース2)とで、処理の内容が異なる。
以下、ケース1と、ケース2とに分けて、対応表示処理を説明する。
以下、ケース1と、ケース2とに分けて、対応表示処理を説明する。
<ケース1>
ケース1の場合、制御部30は、ステップS101で通信経路を確立した書画カメラ4が接続されたUSBポート(入力端子)からの入力を有効とし、当該USBポートを介して入力される撮影画像データが画像処理部40に出力される状態へと移行する。当該状態への移行に応じて、有効となったUSBポートを介して入力される撮影画像データに基づく画像のスクリーンSCへの表示が開始される。
また、制御部30のオブジェクト生成部34は、ステップS107で取得したオブジェクト関連情報に基づいて、書画カメラ制御ツールボックス(オブジェクト)の画像データを生成する。次いで、オブジェクト生成部34は、生成した書画カメラ制御ツールボックスの画像データに基づいて、画像処理部40を制御して、画像I/F部12から画像処理部40に入力されてフレームメモリー41に展開される撮影画像データを加工し、スクリーンSCの所定の位置に、書画カメラ制御ツールボックスを表示する。以下、書画カメラ制御ツールボックスのスクリーンSCへの表示について詳述する。
ケース1の場合、制御部30は、ステップS101で通信経路を確立した書画カメラ4が接続されたUSBポート(入力端子)からの入力を有効とし、当該USBポートを介して入力される撮影画像データが画像処理部40に出力される状態へと移行する。当該状態への移行に応じて、有効となったUSBポートを介して入力される撮影画像データに基づく画像のスクリーンSCへの表示が開始される。
また、制御部30のオブジェクト生成部34は、ステップS107で取得したオブジェクト関連情報に基づいて、書画カメラ制御ツールボックス(オブジェクト)の画像データを生成する。次いで、オブジェクト生成部34は、生成した書画カメラ制御ツールボックスの画像データに基づいて、画像処理部40を制御して、画像I/F部12から画像処理部40に入力されてフレームメモリー41に展開される撮影画像データを加工し、スクリーンSCの所定の位置に、書画カメラ制御ツールボックスを表示する。以下、書画カメラ制御ツールボックスのスクリーンSCへの表示について詳述する。
図6(A)は、ステップS108の処理でスクリーンSCに表示される第1書画カメラ4aの制御用の書画カメラ制御ツールボックスである第1書画カメラ制御ツールボックスTB1の一例、及び、第1書画カメラ4aから入力される撮影画像データに基づく画像である画像G1を示す図である。
書画カメラ制御ツールボックスは、1又は複数のアイコンを有するGUIであり、各アイコンは、指示体70により操作可能である。
書画カメラ制御ツールボックスは、1又は複数のアイコンを有するGUIであり、各アイコンは、指示体70により操作可能である。
図6(A)に示すように、第1書画カメラ制御ツールボックスTB1は、複数(図6(A)の例では7つ)の機能アイコンKA(機能アイコンKA1〜機能アイコンKA7)と、削除アイコンSAと、編集アイコンHAとを備える。
図6(A)において、機能アイコンKA1は、オートフォーカス機能K1を表すアイコンである。機能アイコンKA2は、書画カメラフリーズ機能K2を表すアイコンである。機能アイコンKA3は、書画カメラズーム機能K3を表すアイコンである。機能アイコンKA4は、画面180度回転機能K4を表すアイコンである。機能アイコンKA5は、静止画撮影機能K5を表すアイコンである。機能アイコンKA6は、動画撮影機能K6を表すアイコンである。機能アイコンKA7は、再生画面機能K7を表すアイコンである。
機能アイコンKAが指示体70により操作された場合のプロジェクター100、及び、書画カメラ4の動作については説明する。
削除アイコンSAは、第1書画カメラ制御ツールボックスTB1をスクリーンSC上から削除する場合に操作されるアイコンである。
編集アイコンHAは、第1書画カメラ制御ツールボックスTB1の内容を編集する場合に操作されるアイコンである。編集アイコンHAが操作された場合の制御部30の処理については後述する。
図6(A)において、機能アイコンKA1は、オートフォーカス機能K1を表すアイコンである。機能アイコンKA2は、書画カメラフリーズ機能K2を表すアイコンである。機能アイコンKA3は、書画カメラズーム機能K3を表すアイコンである。機能アイコンKA4は、画面180度回転機能K4を表すアイコンである。機能アイコンKA5は、静止画撮影機能K5を表すアイコンである。機能アイコンKA6は、動画撮影機能K6を表すアイコンである。機能アイコンKA7は、再生画面機能K7を表すアイコンである。
機能アイコンKAが指示体70により操作された場合のプロジェクター100、及び、書画カメラ4の動作については説明する。
削除アイコンSAは、第1書画カメラ制御ツールボックスTB1をスクリーンSC上から削除する場合に操作されるアイコンである。
編集アイコンHAは、第1書画カメラ制御ツールボックスTB1の内容を編集する場合に操作されるアイコンである。編集アイコンHAが操作された場合の制御部30の処理については後述する。
ケース1の場合、ステップS108において、制御部30のオブジェクト生成部34は、ステップS107で取得したオブジェクト関連情報において、表示有効情報と対応付けられた機能識別情報を特定する。次いで、オブジェクト生成部34は、特定した機能識別情報と対応付けられたアイコンデータを取得する。次いで、オブジェクト生成部34は、取得したアイコンデータに基づいて、機能アイコンKAが所定の順番で配列され、続いて削除アイコンSA、及び、編集アイコンHAが配列された第1書画カメラ制御ツールボックスTB1の画像データを生成する。なお、削除アイコンSA、及び、編集アイコンHAの画像データは、事前に所定の記憶領域に記憶される。
次いで、オブジェクト生成部34は、生成した第1書画カメラ制御ツールボックスTB1の画像データに基づいて、画像処理部40を制御して、画像I/F部12から画像処理部40に入力されてフレームメモリー41に展開される画像データ(撮影画像データ)を加工し、スクリーンSCの所定の位置に、書画カメラ制御ツールボックスを表示する。なお、制御部30は、フレームメモリー41において、第1書画カメラ制御ツールボックスTB1に含まれる各アイコンの画像データを展開した領域の座標を管理する。これにより、制御部30は、ユーザーが第1書画カメラ制御ツールボックスTB1に含まれるいずれかのアイコンを指示体70により操作した場合、操作取得部32が取得した指示体70の操作位置に基づいて、操作されたアイコンを特定できる。
次いで、オブジェクト生成部34は、生成した第1書画カメラ制御ツールボックスTB1の画像データに基づいて、画像処理部40を制御して、画像I/F部12から画像処理部40に入力されてフレームメモリー41に展開される画像データ(撮影画像データ)を加工し、スクリーンSCの所定の位置に、書画カメラ制御ツールボックスを表示する。なお、制御部30は、フレームメモリー41において、第1書画カメラ制御ツールボックスTB1に含まれる各アイコンの画像データを展開した領域の座標を管理する。これにより、制御部30は、ユーザーが第1書画カメラ制御ツールボックスTB1に含まれるいずれかのアイコンを指示体70により操作した場合、操作取得部32が取得した指示体70の操作位置に基づいて、操作されたアイコンを特定できる。
<ケース2>
ケース2の場合、制御部30は、入力を有効とするUSBポートの切り替えを行わず、既に表示されている他の書画カメラ4から入力された撮影画像データに基づく画像の表示を継続する。また、制御部30は、当該他の書画カメラ4に係る書画カメラ制御ツールボックスの表示を継続する。
一方、制御部30は、ステップS101で通信経路を確立した書画カメラ4(本例では、第1書画カメラ4a)に係る書画カメラ制御ツールボックスの表示を実行せず、スクリーンSCの所定の位置に切替アイコンCAを表示する。
ケース2の場合、制御部30は、入力を有効とするUSBポートの切り替えを行わず、既に表示されている他の書画カメラ4から入力された撮影画像データに基づく画像の表示を継続する。また、制御部30は、当該他の書画カメラ4に係る書画カメラ制御ツールボックスの表示を継続する。
一方、制御部30は、ステップS101で通信経路を確立した書画カメラ4(本例では、第1書画カメラ4a)に係る書画カメラ制御ツールボックスの表示を実行せず、スクリーンSCの所定の位置に切替アイコンCAを表示する。
図6(B)は、ケース2において、他の書画カメラが第2書画カメラ4bである場合に、第2書画カメラ4bに係る書画カメラ制御ツールボックスである第2書画カメラ制御ツールボックスTB2、及び、第2書画カメラ4bの撮影結果に基づく画像G2と併せてスクリーンSCに表示される切替アイコンCAを示す図である。
切替アイコンCAに係る画像データは所定の記憶領域に事前に記憶されている。ステップS108において、制御部30は、切替アイコンCAの画像データに基づいて、画像I/F部12から画像処理部40に入力されてフレームメモリー41に展開される画像データ(撮影画像データ)を加工し、スクリーンSCの所定の位置に、切替アイコンCAを表示する。なお、制御部30は、フレームメモリー41において、切替アイコンCAの画像データを展開した領域の座標を管理する。これにより、制御部30は、ユーザーが切替アイコンCAを指示体70により操作した場合、操作取得部32が取得した指示体70の操作位置に基づいて、切替アイコンCAが操作されたことを検出できる。
切替アイコンCAに係る画像データは所定の記憶領域に事前に記憶されている。ステップS108において、制御部30は、切替アイコンCAの画像データに基づいて、画像I/F部12から画像処理部40に入力されてフレームメモリー41に展開される画像データ(撮影画像データ)を加工し、スクリーンSCの所定の位置に、切替アイコンCAを表示する。なお、制御部30は、フレームメモリー41において、切替アイコンCAの画像データを展開した領域の座標を管理する。これにより、制御部30は、ユーザーが切替アイコンCAを指示体70により操作した場合、操作取得部32が取得した指示体70の操作位置に基づいて、切替アイコンCAが操作されたことを検出できる。
切替アイコンCAが指示体70により操作されたことを検出した場合、制御部30は、以下の処理を実行する。すなわち、制御部30は、スクリーンSCに表示する画像を、入力を有効とする入力端子を、1の入力端子から他の入力端子へと切り替える。これにより、スクリーンSCに表示される画像が、1の入力端子に接続された書画カメラ4から入力された撮影画像データに基づく画像から、他の入力端子に接続された書画カメラ4から入力された撮影画像データに基づく画像へと切り替わる。また、制御部30は、切り替えにより入力が無効とされた1の入力端子に接続された書画カメラ4に係る書画カメラ制御ツールボックスの表示を停止する。また、オブジェクト生成部34は、切り替えにより入力が有効とされた他の入力端子に接続された書画カメラ4との通信経路の確立時に、当該書画カメラ4から受信する書画カメラ識別情報に基づいて、オブジェクト関連テーブルから対応するオブジェクト関連情報を取得し、取得したオブジェクト関連情報に基づいて当該書画カメラ4に係る書画カメラ制御ツールボックスの画像データを生成し、生成した画像データに基づいて、書画カメラ制御ツールボックスを表示する。制御部30は、切替アイコンCAを継続して表示する。
例えば、第1書画カメラ4aが第1USBポートP1に接続され、第2書画カメラ4bが第2USBポートP2に接続されており、第1USBポートP1の入力が有効の場合において、切替アイコンCAが操作されたことを検出した場合、制御部30は、以下の処理を実行する。
すなわち、制御部30は、入力を有効とするUSBポートを第1USBポートP1から第2USBポートP2へと切り替える。当該切り替えに応じて、スクリーンSCに表示される画像が、第1書画カメラ4aから入力された撮影画像データに基づく画像から、第2書画カメラ4bから入力された撮影画像データに基づく画像へと切り替わる。次いで、制御部30は、第1書画カメラ4aに係る第1書画カメラ制御ツールボックスTB1の表示を停止する。次いで、制御部30のオブジェクト生成部34は、第2書画カメラ4bと通信経路を確立したときに第2書画カメラ4bから受信した書画カメラ識別情報に基づいて、オブジェクト関連テーブルから対応するオブジェクト関連情報を取得する。次いで、オブジェクト生成部34は、取得したオブジェクト関連情報に基づいて第2書画カメラ4bに係る第2書画カメラ制御ツールボックスTB2の画像データを生成し、生成した画像データに基づいて、第2書画カメラ制御ツールボックスTB2を表示する。
すなわち、制御部30は、入力を有効とするUSBポートを第1USBポートP1から第2USBポートP2へと切り替える。当該切り替えに応じて、スクリーンSCに表示される画像が、第1書画カメラ4aから入力された撮影画像データに基づく画像から、第2書画カメラ4bから入力された撮影画像データに基づく画像へと切り替わる。次いで、制御部30は、第1書画カメラ4aに係る第1書画カメラ制御ツールボックスTB1の表示を停止する。次いで、制御部30のオブジェクト生成部34は、第2書画カメラ4bと通信経路を確立したときに第2書画カメラ4bから受信した書画カメラ識別情報に基づいて、オブジェクト関連テーブルから対応するオブジェクト関連情報を取得する。次いで、オブジェクト生成部34は、取得したオブジェクト関連情報に基づいて第2書画カメラ4bに係る第2書画カメラ制御ツールボックスTB2の画像データを生成し、生成した画像データに基づいて、第2書画カメラ制御ツールボックスTB2を表示する。
次に、編集アイコンHAが指示体70により操作されたことを検出した場合の制御部30の処理について説明する。
編集アイコンHAが指示体70により操作されたことを検出した場合、制御部30は、スクリーンSC上に編集画面HGをスクリーンSCに表示する。
編集アイコンHAが指示体70により操作されたことを検出した場合、制御部30は、スクリーンSC上に編集画面HGをスクリーンSCに表示する。
図7は、スクリーンSCに表示された編集画面HGの一例を示す図である。
図7に示すように、編集画面HGは、対応する書画カメラ4(操作された編集アイコンHAを含む書画カメラ制御ツールボックスに係る書画カメラ4)が有する機能のそれぞれについて、機能の名称(以下、「機能名称」という。)を一覧表示する。さらに、編集画面HGは、一覧表示された機能名称のそれぞれと対応付けて、対応する機能の機能アイコンKAの表示が有効か無効かを示す情報、及び、有効/無効切替ボタンBB(後述)を表示する。
1の機能に係る機能アイコンKAの表示が有効とは、書画カメラ制御ツールボックスを表示する場合に、当該ツールボックスに当該1の機能に係る機能アイコンKAを含めることを意味する。1の機能に係る機能アイコンKAの表示が無効とは、書画カメラ制御ツールボックスを表示する場合に、当該ツールボックスに当該1の機能に係る機能アイコンKAを含めないことを意味する。
図7に示すように、編集画面HGは、対応する書画カメラ4(操作された編集アイコンHAを含む書画カメラ制御ツールボックスに係る書画カメラ4)が有する機能のそれぞれについて、機能の名称(以下、「機能名称」という。)を一覧表示する。さらに、編集画面HGは、一覧表示された機能名称のそれぞれと対応付けて、対応する機能の機能アイコンKAの表示が有効か無効かを示す情報、及び、有効/無効切替ボタンBB(後述)を表示する。
1の機能に係る機能アイコンKAの表示が有効とは、書画カメラ制御ツールボックスを表示する場合に、当該ツールボックスに当該1の機能に係る機能アイコンKAを含めることを意味する。1の機能に係る機能アイコンKAの表示が無効とは、書画カメラ制御ツールボックスを表示する場合に、当該ツールボックスに当該1の機能に係る機能アイコンKAを含めないことを意味する。
編集画面HGの表示に際し、制御部30は、上述した方法で、オブジェクト関連情報テーブル62から、対応する書画カメラ4のオブジェクト関連情報を取得する。次いで、制御部30は、オブジェクト関連情報に含まれる機能関連情報に基づいて、対応する書画カメラ4が有する機能の機能識別情報を取得する。ここで、プロジェクター100に接続可能な書画カメラ4が有し得る機能のそれぞれについて、機能識別情報と、機能名称とを対応付けたテーブルが所定の記憶領域に事前に記憶されている。制御部30は、当該テーブルに基づいて、取得した機能識別情報のそれぞれに対応する機能名称を取得する。次いで、制御部30は、オブジェクト関連情報に基づいて、対応する書画カメラ4が有する機能の表示有効/無効情報を取得する。次いで、制御部30は、取得した機能名称、及び、表示有効/無効情報に基づいて、編集画面HGの画像データを生成する。次いで、制御部30は、生成した編集画面HGの画像データに基づいて、スクリーンSCに編集画面HGを表示する。
編集画面HGにおいて、有効/無効切替ボタンBBは、指示体70により操作可能なボタンである。1の有効/無効切替ボタンBBが指示体70により操作されたことを検出した場合、制御部30は、オブジェクト関連情報テーブル62における対応するレコードのオブジェクト関連情報に含まれる対応する表示有効/無効情報の値を、表示有効情報から表示無効情報へ、又は、表示無効情報から表示有効情報へと更新する。この結果、表示有効/無効情報の値が、表示有効情報から表示無効情報へと更新された場合、オブジェクト関連情報に基づいて表示される書画カメラ制御ツールボックスに対応する機能アイコンKAが表示された状態から表示されない状態へと変化する。また、表示有効/無効情報の値が、表示無効情報から表示有効情報へと更新された場合、オブジェクト関連情報に基づいて表示される書画カメラ制御ツールボックスに、対応する機能アイコンKAが表示されない状態から表示された状態へと変化する。
ここで、編集画面HGを利用したオブジェクト関連情報の表示有効/無効情報の更新が行われた場合、オブジェクト関連情報テーブル62において、更新後のオブジェクト関連情報が不揮発的に記憶される。このため、プロジェクター100の電源投入や、書画カメラ4のプロジェクター100への接続、切替アイコンCAの操作等の所定の事象をトリガーとして、1の書画カメラ4に係る書画カメラ制御ツールボックスが表示される場合、更新後のオブジェクト関連情報に基づいて当該ツールボックスが表示される。従って、ユーザーが、編集画面HGを利用して1の書画カメラ4の1の機能に係る機能アイコンKAを書画カメラ制御ツールボックスから削除した場合、その後、所定の事象をトリガーとして表示される当該1の書画カメラ4の書画カメラ制御ツールボックスには、当該1の機能に係る機能アイコンKAが表示されない。すなわち、ユーザーが意図的な作業を行うことなく、ユーザーが書画カメラ制御ツールボックスから削除した機能に係る機能アイコンKAが表示されない状態とすることができ、ユーザーの利便性が高い。
次に、書画カメラ制御ツールボックスに含まれる機能アイコンKAが指示体70により操作された場合のプロジェクター100、及び、書画カメラ4の動作について説明する。
図8は、書画カメラ制御ツールボックスに含まれる機能アイコンKAが指示体70により操作された場合のプロジェクター100、及び、第1書画カメラ4aの動作を示すフローチャートである。図8(A)はプロジェクター100の動作を示し、(B)は第1書画カメラ4aの動作を示す。
図8は、書画カメラ制御ツールボックスに含まれる機能アイコンKAが指示体70により操作された場合のプロジェクター100、及び、第1書画カメラ4aの動作を示すフローチャートである。図8(A)はプロジェクター100の動作を示し、(B)は第1書画カメラ4aの動作を示す。
図8のフローチャートを用いた説明では、以下のことを前提とする。
すなわち、第1USBポートP1に第1書画カメラ4aが接続されており、第1USBポートP1の入力が有効であり、第1書画カメラ4aに係る第1書画カメラ制御ツールボックスTB1がスクリーンSCに表示された状態であることを前提とする。
すなわち、第1USBポートP1に第1書画カメラ4aが接続されており、第1USBポートP1の入力が有効であり、第1書画カメラ4aに係る第1書画カメラ制御ツールボックスTB1がスクリーンSCに表示された状態であることを前提とする。
ユーザーは、指示体70により書画カメラ制御ツールボックスに含まれる機能アイコンKAのいずれかを操作する(ステップSX1)。
図8(A)に示すように、プロジェクター100の制御部30は、操作取得部32が取得した指示体70の操作位置に基づいて、操作された機能アイコンKAを特定する(ステップS301)。
次いで、制御部30の指示情報送信部35は、ステップS301で特定した機能アイコンKAに対応する機能に基づく処理を第1書画カメラ4aに実行させる制御コマンド(指示情報)を生成する(ステップS302)。
例えば、操作された機能アイコンKAが、オートフォーカス機能K1に係るアイコンである場合、指示情報送信部35は、第1書画カメラ4aにオートフォーカスの実行を指示する制御コマンドを生成する。
なお、指示情報送信部35の機能を実現する制御プログラムには、プロジェクター100に接続可能な書画カメラ4が有し得る機能のそれぞれについて、機能に基づく処理の実行を指示する制御コマンドを生成するアルゴリズムが実装されている。
次いで、指示情報送信部35は、画像I/F部12を制御して、生成した制御コマンドを第1書画カメラ4aに送信する(ステップS303)。
図8(A)に示すように、プロジェクター100の制御部30は、操作取得部32が取得した指示体70の操作位置に基づいて、操作された機能アイコンKAを特定する(ステップS301)。
次いで、制御部30の指示情報送信部35は、ステップS301で特定した機能アイコンKAに対応する機能に基づく処理を第1書画カメラ4aに実行させる制御コマンド(指示情報)を生成する(ステップS302)。
例えば、操作された機能アイコンKAが、オートフォーカス機能K1に係るアイコンである場合、指示情報送信部35は、第1書画カメラ4aにオートフォーカスの実行を指示する制御コマンドを生成する。
なお、指示情報送信部35の機能を実現する制御プログラムには、プロジェクター100に接続可能な書画カメラ4が有し得る機能のそれぞれについて、機能に基づく処理の実行を指示する制御コマンドを生成するアルゴリズムが実装されている。
次いで、指示情報送信部35は、画像I/F部12を制御して、生成した制御コマンドを第1書画カメラ4aに送信する(ステップS303)。
なお、指示体70により操作された機能アイコンKAが表示された領域は、「第1の位置」に相当し、操作された機能アイコンKAに対応する機能に基づく処理は、「第1の処理」に相当する。
図8(B)に示すように、第1書画カメラ4aの書画カメラ制御部411aの処理制御部414aは、インターフェース部412aを制御して、制御コマンドを受信する(ステップS401)。
次いで、処理制御部414aは、受信した制御コマンドに基づいて、操作された機能アイコンKAに対応する機能に基づく処理を実行する(ステップS402)。
例えば、受信した制御コマンドが、オートフォーカス機能K1に基づく処理の実行を指示する制御コマンドである場合、処理制御部414aは、オートフォーカスを実行する。
次いで、処理制御部414aは、受信した制御コマンドに基づいて、操作された機能アイコンKAに対応する機能に基づく処理を実行する(ステップS402)。
例えば、受信した制御コマンドが、オートフォーカス機能K1に基づく処理の実行を指示する制御コマンドである場合、処理制御部414aは、オートフォーカスを実行する。
このように、本実施形態では、ユーザーは、書画カメラ4を、直接、操作することなく、書画カメラ制御ツールボックスに含まれる機能アイコンKAを指示体70により操作するという簡易な作業を行うことで、書画カメラ4に所望の処理を実行させることができる。このため、表示システム1がプレゼンテーションに使用されている場合、プレゼンターは、書画カメラ4に所定の処理を実行させたいと考えた場合、プレゼンテーションを中断して書画カメラ4の場所まで移動して書画カメラ4を操作することなく、書画カメラ制御ツールボックスに含まれる機能アイコンKAを指示体70により操作するという簡易な作業で、書画カメラ4に当該所定の処理を実行させることが可能である。
以上説明したように、本実施形態に係るプロジェクター100(表示装置)は、書画カメラ4と通信する画像I/F部12(通信部)と、画像I/F部12を介して書画カメラ4から受信した撮影画像データ(画像情報)に基づく画像を、スクリーンSC(表示面)に表示させる投射部20(表示部)と、スクリーンSCに対する指示体70の位置を検出する位置検出部50と、位置検出部50の検出結果に基づいて指示体70によりスクリーンSCの機能アイコンKAに対応する領域(第1の位置)が操作されたことを検出した場合、画像I/F部12を介して書画カメラ4に機能アイコンKAに係る機能に基づく処理(第1の処理)をさせる制御コマンド(指示情報)を送信する指示情報送信部35と、を備える。
この構成によれば、ユーザーは、書画カメラ4を、直接、操作することなく、機能アイコンKAを指示体70により操作するという簡易な作業で、書画カメラ4に所望の処理を実行させることができる。
この構成によれば、ユーザーは、書画カメラ4を、直接、操作することなく、機能アイコンKAを指示体70により操作するという簡易な作業で、書画カメラ4に所望の処理を実行させることができる。
また、本実施形態に係るプロジェクター100は、書画カメラ制御ツールボックス(オブジェクト)を生成するオブジェクト生成部34をさらに備え、投射部20は、オブジェクト生成部34が生成した書画カメラ制御ツールボックスを表示する。
この構成によれば、ユーザーは、書画カメラ制御ツールボックスを利用して、当該ツールボックスに含まれる機能アイコンKAを指示体70により操作するという簡易な作業で、書画カメラ4に所望の処理を実行させることができる。
この構成によれば、ユーザーは、書画カメラ制御ツールボックスを利用して、当該ツールボックスに含まれる機能アイコンKAを指示体70により操作するという簡易な作業で、書画カメラ4に所望の処理を実行させることができる。
また、本実施形態では、オブジェクト生成部34は、画像I/F部12を介して書画カメラ4から書画カメラ識別情報(第1の情報)を受信し、書画カメラ識別情報に基づいて書画カメラ制御ツールボックスを生成する。
この構成によれば、オブジェクト生成部34は、書画カメラ識別情報に基づいて、書画カメラ4に対応する書画カメラ制御ツールボックスを生成できる。
この構成によれば、オブジェクト生成部34は、書画カメラ識別情報に基づいて、書画カメラ4に対応する書画カメラ制御ツールボックスを生成できる。
また、本実施形態に係るプロジェクター100は、書画カメラ識別情報とオブジェクト関連情報(オブジェクトに関する情報)とを対応付けて記憶する記憶部60備える。そして、オブジェクト生成部34は、画像I/F部12を介して書画カメラ4から書画カメラ識別情報を受信し、記憶部60で書画カメラ識別情報と対応付けて記憶されたオブジェクト関連情報に基づいて書画カメラ制御ツールボックスを生成する。
この構成によれば、オブジェクト生成部34は、記憶部60が記憶する書画カメラ識別情報とオブジェクト関連情報とを対応付けた情報に基づいて、書画カメラ4に対応する書画カメラ制御ツールボックスを生成できる。
この構成によれば、オブジェクト生成部34は、記憶部60が記憶する書画カメラ識別情報とオブジェクト関連情報とを対応付けた情報に基づいて、書画カメラ4に対応する書画カメラ制御ツールボックスを生成できる。
また、本実施形態係るプロジェクター100は、第1USBポートP1(第1の入力端子)と、第2USBポートP2(第2の入力端子)とを備える。そして、オブジェクト生成部34は、投射部20が表示する画像が、第1書画カメラ4a(第1の書画カメラ)が接続された第1USBポートP1を介して入力された撮影画像データに基づく画像から、第2書画カメラ4bが接続された第2USBポートP2を介して入力された撮影画像データに基づく画像へと切り替わった場合、第2書画カメラ4bから受信した書画カメラ識別情報に基づいて第2書画カメラ制御ツールボックスTB2を生成する。
この構成によれば、第1書画カメラ4aの撮影結果に基づく画像から、第2書画カメラ4bの撮影結果に基づく画像への切り替えに応じて、書画カメラ制御ツールボックスを、切り替え後の画像に対応したものとすることができる。
この構成によれば、第1書画カメラ4aの撮影結果に基づく画像から、第2書画カメラ4bの撮影結果に基づく画像への切り替えに応じて、書画カメラ制御ツールボックスを、切り替え後の画像に対応したものとすることができる。
また、本実施形態では、オブジェクト生成部34は、編集画面HGに対応する指示体70の操作に応じて(指示体70による所定の操作に応じて)、書画カメラ制御ツールボックスの態様を変化させる。
この構成によれば、ユーザーは、指示体70による操作という簡易な方法で、書画カメラ制御ツールボックスの態様を変更できる。
この構成によれば、ユーザーは、指示体70による操作という簡易な方法で、書画カメラ制御ツールボックスの態様を変更できる。
また、本実施形態に係る第1書画カメラ4aは、プロジェクター100と通信するインターフェース部412a(通信処理部)と、撮影を実行する撮像部410aと、撮像部410aの撮影結果に基づく撮影画像データを、インターフェース部412aを介してプロジェクター100へ送信する画像出力部413aと、指示体70によるスクリーンSCの機能アイコンKAに対応する領域の操作に基づいてプロジェクター100が生成した制御コマンドを、インターフェース部412aを介して受信し、受信した制御コマンドに基づいて、操作された機能アイコンKAに係る機能に基づく処理を行う処理制御部414aと、を備える。
この構成によれば、ユーザーは、書画カメラ4を、直接、操作することなく、機能アイコンKAを指示体70により操作するという簡易な作業で、書画カメラ4に所望の処理を実行させることができる。
この構成によれば、ユーザーは、書画カメラ4を、直接、操作することなく、機能アイコンKAを指示体70により操作するという簡易な作業で、書画カメラ4に所望の処理を実行させることができる。
また、本実施形態に係る第1書画カメラ4aは、機能(実行可能な処理)を判定し、機能を示す情報を、インターフェース部412aを介してプロジェクター100に送信する判定部415aを備える。
この構成によれば、書画カメラ4は、判定部415aの機能により、自身が有する機能をプロジェクター100に通知でき、また、プロジェクター100は、通知に基づいて、書画カメラ4が有する機能に対応する機能アイコンKAを含む書画カメラ制御ツールボックスを表示できる。
このことは、第2書画カメラ4bについても同様である。
この構成によれば、書画カメラ4は、判定部415aの機能により、自身が有する機能をプロジェクター100に通知でき、また、プロジェクター100は、通知に基づいて、書画カメラ4が有する機能に対応する機能アイコンKAを含む書画カメラ制御ツールボックスを表示できる。
このことは、第2書画カメラ4bについても同様である。
なお、上述した実施形態及び変形例は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。例えば、スクリーンSCに対する操作に用いる指示体は、ペン型の指示体70に限らず、ユーザーの手指、レーザーポインター、指示棒等を用いてもよく、その形状やサイズは限定されない。
また、上記実施形態では、位置検出部50は、撮影部51によりスクリーンSCを撮影して指示体70の位置を特定するものとしたが、本発明はこれに限定されない。例えば、撮影部51は、プロジェクター100の本体に設けられ、投射光学系23の投射方向を撮影するものに限定されない。撮影部51をプロジェクター100本体とは別体として配置してもよいし、撮影部51がスクリーンSCの側方や正面から撮影を行うものとしてもよい。さらに、複数の撮影部51を配置し、これら複数の撮影部51の撮影画像データに基づいて、対象検出部54が操作位置を検出してもよい。
また、上記実施形態では、プロジェクター100から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。
また、上記実施形態では、プロジェクター100から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。
また、上述した実施形態では、指示体70の先端部71がスクリーンSCに接触しているか否かを、送受信部74の点灯パターンに基づいて判定する例を説明したが、本発明はこれに限定されない。例えば、指示体70の先端部71がスクリーンSCに押しつけられているか否かを、撮影画像データに写る指示体70及び先端部71の画像をもとに、判定してもよい。この構成は、例えば、撮影画像データから先端部71の像と指示体70の影の像とを検出することで、実現できる。
また、上述した実施形態では、プロジェクター100が内蔵する位置検出部50の機能により、指示体70の操作を検出する例を説明したが、本発明はこれに限定されない。例えば、位置検出部50の機能を、プロジェクター100とは独立した装置として実現することもできる。また、プロジェクター100以外の表示装置に、位置検出部50の機能を持たせて、位置検出装置として動作させる態様も実現可能である。
また、上述した実施形態では、プロジェクター100が内蔵する位置検出部50の機能により、指示体70の操作を検出する例を説明したが、本発明はこれに限定されない。例えば、位置検出部50の機能を、プロジェクター100とは独立した装置として実現することもできる。また、プロジェクター100以外の表示装置に、位置検出部50の機能を持たせて、位置検出装置として動作させる態様も実現可能である。
また、本発明の表示装置は、上述したようにスクリーンSCに画像を投射するプロジェクター100に限定されず、液晶表示パネルに画像を表示する液晶モニターまたは液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像を表示するモニター装置またはテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに画像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の表示システムに含まれる。この場合、液晶表示パネル、プラズマディスプレイパネル、有機EL表示パネルが表示部及び表示面に相当する。
また、上記実施形態では、光源が発した光を変調する光変調装置22として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、3枚の反射型液晶パネルを用いた構成としてもよいし、1枚の液晶パネルとカラーホイールを組み合わせた方式を用いてもよい。また、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。光変調装置22として1枚のみの液晶パネル又はDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な光変調装置であれば問題なく採用できる。
また、図2、3の機能ブロック図に示した機能ブロックは、書画カメラ4及びプロジェクター100の機能的構成を示すものであって、具体的な実装形態を制限しない。つまり、図中の機能ブロックに対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。
また、図4で示したフローでは、書画カメラ4から書画カメラ識別情報をプロジェクター100が受信した後、オブジェクト関連情報テーブル62を参照し、当該テーブルが有するレコードから、ステップS103で取得した書画カメラ識別情報を有するレコードを特定し、特定したレコードが有するオブジェクト関連情報を取得するとしたが、これに限定されない。例えば、S102〜S105、S202のステップを経ずに、書画カメラ4から機能識別情報を含む機能情報応答コマンドをプロジェクター100へ送信し、それを基にオブジェクト関連情報を取得するようにしてもよい。
さらに、プロジェクター100に接続可能な外部機器は、書画カメラ4に限定されない。例えば、デスクトップ型のコンピューター、スマートフォンを含む携帯型電話機、映像/音楽プレーヤー、テレビ放送のチューナー装置等、画像や音声を出力可能な装置であればよい。また、外部機器とプロジェクター100とを接続するインターフェースの具体的構成は制限されず、アナログ画像信号、音声信号あるいはデジタルデータを伝送可能なインターフェースであれば制限なく適用可能である。その他、表示システム1を構成する機器の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、図4で示したフローでは、書画カメラ4から書画カメラ識別情報をプロジェクター100が受信した後、オブジェクト関連情報テーブル62を参照し、当該テーブルが有するレコードから、ステップS103で取得した書画カメラ識別情報を有するレコードを特定し、特定したレコードが有するオブジェクト関連情報を取得するとしたが、これに限定されない。例えば、S102〜S105、S202のステップを経ずに、書画カメラ4から機能識別情報を含む機能情報応答コマンドをプロジェクター100へ送信し、それを基にオブジェクト関連情報を取得するようにしてもよい。
さらに、プロジェクター100に接続可能な外部機器は、書画カメラ4に限定されない。例えば、デスクトップ型のコンピューター、スマートフォンを含む携帯型電話機、映像/音楽プレーヤー、テレビ放送のチューナー装置等、画像や音声を出力可能な装置であればよい。また、外部機器とプロジェクター100とを接続するインターフェースの具体的構成は制限されず、アナログ画像信号、音声信号あるいはデジタルデータを伝送可能なインターフェースであれば制限なく適用可能である。その他、表示システム1を構成する機器の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
1…表示システム、4…書画カメラ、4a…第1書画カメラ(書画カメラ、第1の書画カメラ)、4b…第2書画カメラ(書画カメラ、第2の書画カメラ)、12…画像I/F部(通信部)、34…オブジェクト生成部、35…指示情報送信部、50…位置検出部、60…記憶部、70…指示体、100…プロジェクター(表示装置)、410a…撮像部、410b…撮像部、412a、412b…インターフェース部(通信処理部)、413a、413b…画像出力部、414a、414b…処理制御部、415a、415b…判定部、TB1…第1書画カメラ制御ツールボックス(オブジェクト)、TB2…第2書画カメラ制御ツールボックス(オブジェクト)、P1…第1USBポート(第1の入力端子)、P2…第2USBポート(第2の入力端子)、SC…表示面。
Claims (10)
- 書画カメラと通信する通信部と、
前記通信部を介して前記書画カメラから受信した画像情報に基づく画像を、表示面に表示させる表示部と、
前記表示面に対する指示体の位置を検出する位置検出部と、
前記位置検出部の検出結果に基づいて前記指示体により前記表示面の第1の位置が操作されたことを検出した場合、前記通信部を介して前記書画カメラに第1の処理をさせる指示情報を送信する指示情報送信部と、
を備えることを特徴とする表示装置。 - 前記第1の位置に表示するオブジェクトを生成するオブジェクト生成部をさらに備え、
前記表示部は、前記オブジェクト生成部が生成した前記オブジェクトを表示することを特徴とする請求項1に記載の表示装置。 - 前記オブジェクト生成部は、
前記通信部を介して前記書画カメラから第1の情報を受信し、前記第1の情報に基づいて前記オブジェクトを生成することを特徴とする請求項2に記載の表示装置。 - 前記第1の情報は、前記書画カメラを識別する識別情報であり、
前記識別情報と前記オブジェクトに関する情報とを対応付けて記憶する記憶部をさらに備え、
前記オブジェクト生成部は、
前記通信部を介して前記書画カメラから前記識別情報を受信し、前記記憶部で前記識別情報と対応付けて記憶された前記オブジェクトに関する情報に基づいて前記オブジェクトを生成することを特徴とする請求項3に記載の表示装置。 - 第1の入力端子と、第2の入力端子とを備え、
前記オブジェクト生成部は、
前記表示部が表示する画像が、第1の書画カメラが接続された前記第1の入力端子を介して入力された画像情報に基づく画像から、第2の書画カメラが接続された前記第2の入力端子を介して入力された画像情報に基づく画像へと切り替わった場合、前記第2の書画カメラから受信した前記第1の情報に基づいて前記オブジェクトを生成することを特徴とする請求項3乃至4のいずれか1項に記載の表示装置。 - 前記オブジェクト生成部は、
前記指示体による所定の操作に応じて、前記オブジェクトの態様を変化させることを特徴とする請求項2乃至5のいずれか1項に記載の表示装置。 - 書画カメラから受信した画像情報に基づく画像を、表示面に表示し、
前記表示面に対する指示体の位置を検出し、
検出した前記指示体の位置に基づいて前記表示面の第1の位置が操作されたことを検出した場合、前記書画カメラに第1の処理をさせる指示情報を送信する
ことを特徴とする表示装置の制御方法。 - 表示装置と通信する通信処理部と、
撮影を実行する撮像部と、
前記撮像部の撮影結果に基づく画像情報を、前記通信処理部を介して前記表示装置へ送信する画像出力部と、
指示体による表示面の第1の位置の操作に基づいて前記表示装置が生成した指示情報を、前記通信処理部を介して受信し、受信した前記指示情報に基づいて第1の処理を行う処理制御部と、
を備えることを特徴とする書画カメラ。 - 実行可能な処理を判定し、実行可能と判定した処理を示す情報を、前記通信処理部を介して前記表示装置に送信する判定部をさらに備えることを特徴とする請求項8に記載の書画カメラ。
- 撮影を実行し、
撮影結果に基づく画像情報を、前記画像情報に基づく画像を表示面に表示させる表示装置へ送信し、
指示体による前記表示面の第1の位置の操作に基づいて前記表示装置が生成した指示情報を、受信し、受信した前記指示情報に基づいて第1の処理を行う
ことを特徴とする書画カメラの制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015068092A JP2016189517A (ja) | 2015-03-30 | 2015-03-30 | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 |
US15/560,338 US10536627B2 (en) | 2015-03-30 | 2016-03-18 | Display apparatus, method of controlling display apparatus, document camera, and method of controlling document camera |
PCT/JP2016/001601 WO2016157803A1 (ja) | 2015-03-30 | 2016-03-18 | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015068092A JP2016189517A (ja) | 2015-03-30 | 2015-03-30 | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016189517A true JP2016189517A (ja) | 2016-11-04 |
JP2016189517A5 JP2016189517A5 (ja) | 2018-04-26 |
Family
ID=57005839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015068092A Withdrawn JP2016189517A (ja) | 2015-03-30 | 2015-03-30 | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10536627B2 (ja) |
JP (1) | JP2016189517A (ja) |
WO (1) | WO2016157803A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108696653A (zh) * | 2017-04-06 | 2018-10-23 | 富士施乐株式会社 | 受理装置以及检测装置 |
JP2018170645A (ja) * | 2017-03-30 | 2018-11-01 | 日本電気株式会社 | 画像入出力装置及び画像入出力方法 |
JP2018201246A (ja) * | 2018-09-05 | 2018-12-20 | 日本電気株式会社 | 画像入出力装置及び画像入出力方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016194194A1 (ja) * | 2015-06-04 | 2016-12-08 | オリンパス株式会社 | 撮像システム |
JP6635892B2 (ja) * | 2016-07-22 | 2020-01-29 | 株式会社キーエンス | 拡大観察装置 |
US11064338B2 (en) * | 2019-06-27 | 2021-07-13 | Johnson Controls Fire Protection LP | Heads up mass notification |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005122323A (ja) * | 2003-10-14 | 2005-05-12 | Casio Comput Co Ltd | 撮影装置、画像処理装置、撮影装置の画像処理方法及びプログラム |
JP2005284874A (ja) * | 2004-03-30 | 2005-10-13 | Seiko Epson Corp | プロジェクタおよびコマンド抽出方法 |
JP2007228038A (ja) * | 2006-02-21 | 2007-09-06 | Nikon Corp | 画像管理装置 |
JP2007279144A (ja) * | 2006-04-03 | 2007-10-25 | Canon Inc | 映像表示装置、映像表示方法、及びプログラム |
JP2013222280A (ja) * | 2012-04-16 | 2013-10-28 | Seiko Epson Corp | プロジェクター、プロジェクターの制御方法、プログラム、および、プロジェクションシステム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3491990B2 (ja) | 1994-10-26 | 2004-02-03 | キヤノン株式会社 | 書画カメラ装置 |
JP2008217590A (ja) * | 2007-03-06 | 2008-09-18 | Fuji Xerox Co Ltd | 情報共有支援システム、情報処理装置及び制御プログラム |
JP5532992B2 (ja) * | 2010-02-10 | 2014-06-25 | セイコーエプソン株式会社 | 書画カメラ、書画カメラの制御方法およびプログラム |
US20120044140A1 (en) * | 2010-08-19 | 2012-02-23 | Sanyo Electric Co., Ltd. | Information display system and program, and optical input system, projection-type images and display apparatus |
JP6064319B2 (ja) * | 2011-12-27 | 2017-01-25 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
JP5894506B2 (ja) * | 2012-06-08 | 2016-03-30 | 株式会社Pfu | 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム |
JP2014116881A (ja) | 2012-12-12 | 2014-06-26 | Seiko Epson Corp | 書画カメラ、書画カメラの制御方法 |
-
2015
- 2015-03-30 JP JP2015068092A patent/JP2016189517A/ja not_active Withdrawn
-
2016
- 2016-03-18 US US15/560,338 patent/US10536627B2/en active Active
- 2016-03-18 WO PCT/JP2016/001601 patent/WO2016157803A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005122323A (ja) * | 2003-10-14 | 2005-05-12 | Casio Comput Co Ltd | 撮影装置、画像処理装置、撮影装置の画像処理方法及びプログラム |
JP2005284874A (ja) * | 2004-03-30 | 2005-10-13 | Seiko Epson Corp | プロジェクタおよびコマンド抽出方法 |
JP2007228038A (ja) * | 2006-02-21 | 2007-09-06 | Nikon Corp | 画像管理装置 |
JP2007279144A (ja) * | 2006-04-03 | 2007-10-25 | Canon Inc | 映像表示装置、映像表示方法、及びプログラム |
JP2013222280A (ja) * | 2012-04-16 | 2013-10-28 | Seiko Epson Corp | プロジェクター、プロジェクターの制御方法、プログラム、および、プロジェクションシステム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018170645A (ja) * | 2017-03-30 | 2018-11-01 | 日本電気株式会社 | 画像入出力装置及び画像入出力方法 |
CN108696653A (zh) * | 2017-04-06 | 2018-10-23 | 富士施乐株式会社 | 受理装置以及检测装置 |
JP2018201246A (ja) * | 2018-09-05 | 2018-12-20 | 日本電気株式会社 | 画像入出力装置及び画像入出力方法 |
Also Published As
Publication number | Publication date |
---|---|
US10536627B2 (en) | 2020-01-14 |
US20180077346A1 (en) | 2018-03-15 |
WO2016157803A1 (ja) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103049233B (zh) | 显示装置以及显示装置的控制方法 | |
WO2016157803A1 (ja) | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 | |
JP6064319B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US9035971B2 (en) | Image display apparatus, image display method, and of image display program | |
JP5849560B2 (ja) | 表示装置、プロジェクター、及び、表示方法 | |
JP6307852B2 (ja) | 画像表示装置、及び、画像表示装置の制御方法 | |
JP6349838B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6834258B2 (ja) | 表示装置、表示システム及び表示装置の制御方法 | |
JP6051828B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
US20160283087A1 (en) | Display apparatus, display system, control method for display apparatus, and computer program | |
WO2016157804A1 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6269801B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6350175B2 (ja) | 位置検出装置、プロジェクター、及び、位置検出方法 | |
JP2018132769A (ja) | 画像表示装置、及び、画像表示装置の制御方法 | |
JP2023043372A (ja) | 画像表示方法、及び、プロジェクター | |
JP2018054880A (ja) | 表示装置、情報処理装置および情報処理方法 | |
JP6098153B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6596935B2 (ja) | 表示装置、表示システム、及び、表示装置の制御方法 | |
JP6111682B2 (ja) | 表示装置、および、表示装置の制御方法 | |
JP6291911B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6291912B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6255810B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6471414B2 (ja) | 表示システム、表示装置、及び、表示方法 | |
JP2012242927A (ja) | 移動端末装置、移動端末装置の制御方法、及び、プログラム | |
JP6524741B2 (ja) | 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20181210 |