JP2016161869A - 表示装置及び表示制御方法 - Google Patents

表示装置及び表示制御方法 Download PDF

Info

Publication number
JP2016161869A
JP2016161869A JP2015042684A JP2015042684A JP2016161869A JP 2016161869 A JP2016161869 A JP 2016161869A JP 2015042684 A JP2015042684 A JP 2015042684A JP 2015042684 A JP2015042684 A JP 2015042684A JP 2016161869 A JP2016161869 A JP 2016161869A
Authority
JP
Japan
Prior art keywords
unit
screen
video
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015042684A
Other languages
English (en)
Other versions
JP2016161869A5 (ja
Inventor
壱星 横山
Kazuhoshi Yokoyama
壱星 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015042684A priority Critical patent/JP2016161869A/ja
Priority to PCT/JP2016/000785 priority patent/WO2016139902A1/ja
Priority to US15/555,032 priority patent/US20180039407A1/en
Priority to CN201680012712.2A priority patent/CN107430838A/zh
Publication of JP2016161869A publication Critical patent/JP2016161869A/ja
Publication of JP2016161869A5 publication Critical patent/JP2016161869A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Image Analysis (AREA)

Abstract

【課題】表示されている画面を簡単の操作で複数領域に分割する。【解決手段】プロジェクター10は、コネクターで複数の映像信号を取得する。プロジェクター10は、スクリーンSCを含む範囲を撮像し、指によって行われる特定の操作を検知する。プロジェクター10は、特定の操作を検知すると、投写する画面を指の位置に応じて複数領域に分割する。プロジェクター10は、複数領域が互いに異なる映像を表示するように、各領域へ取得した映像信号が表す映像を割り振る。【選択図】図1

Description

本発明は、画面を複数領域に分割し、各領域に映像を表示する技術に関する。
特許文献1には、メイン画像とサブ画像を投影する投影装置において、メイン画像とサブ画像の投影比率を変更する技術が開示されている。この投影装置は、ポインタを投影し、カーソルキーの操作によりポインタの位置を移動させ、メイン画像に相当する矩形枠の大きさを可変し、連動してサブ画像に相当する矩形の大きさをメイン画像とは反対の方向に可変することで、メイン画像とサブ画像の投影比率を変更する。
特開2009−133985号公報
例えば、プレゼンテーションなどでプロジェクターを使用する場合、ユーザーは、投写された画像の近くでプレゼンテーションを行う。この状態で、例えば、複数の映像ソースを投写してプレゼンテーションを行う場合には、ユーザーは、プロジェクターが設置されている場所まで移動してプロジェクターを操作するか又はリモコンでプロジェクターを操作することにより、メイン画像とサブ画像を投写し、投写した画像の投影比率を変更する必要がある。しかしながら、プロジェクターの設置場所まで移動してプロジェクター本体を操作する場合、プロジェクターと映像の投写面までの距離が遠いと、プロジェクターの設置場所まで移動するのに手間がかかる。また、リモコンのキーの操作でも投影比率を変更が可能ではあるが、リモコンを携帯するか近くに置いておく必要があり、手間がかかる。
本発明は、表示されている画面を簡単の操作で複数領域に分割する技術を提供する。
本発明は、複数の映像信号を取得する映像取得部と、前記映像取得部が取得した映像信号が表す映像を表示する表示部と、前記表示部で表示された画面上で指示体が指示した位置を検知する位置検知部と、前記位置検知部が検知した位置に応じて前記画面内に描画を行う描画部と、前記画面上で前記指示体によって行われた操作を検知する操作検知部と、前記操作検知部により第1操作が検知された場合、前記表示部が表示する画面を前記位置検知部が検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ前記映像取得部が取得した映像信号が表す映像を割り振る画面分割部とを備える表示装置を提供する。
この表示装置によれば、指示体による操作で簡単に画面を複数領域に分割することができる。
本発明においては、前記画面分割部は、前記画面が分割されている状態において前記操作検知部が第2操作を検知した後に、前記位置検知部が検知した位置が変化した場合、変化後の位置に追従して前記複数領域の大きさを変更する構成としてもよい。
この構成によれば、分割された領域の大きさを特定の操作により変更することができる。
また、本発明においては、前記第1操作と前記第2操作のいずれかは、前記指示体を前記画面へ複数回接触させる操作である構成としてもよい。
この構成によれば、簡単な操作で画面を複数領域に分割することができる。
また、本発明においては、前記画面分割部は、前記位置検知部が検知した位置に応じて前記複数領域の数を決定する構成としてもよい。
この構成によれば、指示体の位置に応じて複数領域の数を変更することができる。
また、本発明においては、前記画面分割部は、前記映像取得部が取得した映像信号の数に応じて、前記複数領域の数を決定する構成としてもよい。
この構成によれば、映像信号の有無に応じて複数領域の数を変更することができる。
また、本発明においては、前記画面が分割されている状態において前記操作検知部が第3操作を検知した場合、前記画面分割部は、前記指示体が指示した第1位置に表示されている映像と、前記指示体が指示した第2位置に表示されている映像とを入れ替える構成としてもよい。
この構成によれば、複数領域に表示されている映像の位置を入れ替えることができる。
また、本発明においては、前記描画部は、前記操作検知部により検知された操作については、前記指示体の位置に応じた描画を行わない構成としてもよい。
この構成によれば、画面を複数領域に分割する操作で描画を行わないようにすることができる。
また、本発明は、表示部で表示された画面上で指示体が指示した位置を検知する位置検知ステップと、前記位置検知ステップで検知した位置に応じて前記画面内に描画を行う描画ステップと、前記画面上で前記指示体によって行われた操作を検知する操作検知ステップと、前記操作検知ステップで第1操作が検知された場合、前記表示部が表示する画面を前記位置検知ステップで検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ映像取得部が取得した複数の映像信号が表す映像を割り振る画面分割ステップとを備える表示制御方法を提供する。
この方法によれば、指示体による操作で簡単に画面を複数領域に分割することができる。
表示システム1を構成する装置を示した図。 プロジェクター10と指示体20のハードウェア構成を示した図。 第1テーブルに格納される情報を示した図。 制御部110と制御部210の機能ブロック図。 指示体を検出するタイムチャートの一例を示した図。 制御部110が行う処理の流れを示したフローチャート。 投写領域の座標を示した図。 分割位置Posと分割された投写領域との関係を示した図。 制御部110が行う処理の流れを示したフローチャート。 分割位置Posと分割された投写領域との関係を示した図。
[実施形態]
図1は、本発明の一実施形態に係る表示システム1を構成する装置を示した図である。表示システム1は、スクリーンSC(投写面)に映像を投写するプロジェクター10、指示体20、発光装置30を備える。
表示装置の一例であるプロジェクター10は、映像信号を供給する外部装置に接続され、外部装置から供給された映像信号が表す映像をスクリーンSCへ投写する。また、プロジェクター10は、投写された映像に対して指や指示体20で書き込みを行うインタラクティブ機能を備えている。本実施形態に係るプロジェクター10は、スクリーンSCの斜め上方に設置され、スクリーンSCに向けて映像を投写する。本実施形態においては、プロジェクター10は、スクリーンSCへ映像を投写するが、スクリーンSCの替わりに壁面(投写面)に映像を投写してもよい。また、本実施形態においては、プロジェクター10は、金具によって壁面に設置される構成となっているが、天井に設置してもよい。また、プロジェクター10は、壁面や天井に設置する構成に限定されず、テーブルの上に設置する据え置き型のものであってもよい。
ペン型の指示体20は、プロジェクター10を操作するためのポインティングデバイスとして機能し、プロジェクター10が投写するGUI(Graphical User Interface)をユーザーが操作するときや、投写された画像へユーザーが書き込みを行うときなどに使用される。
発光装置30は、光(本変形例では赤外光)を発する発光部を有する。発光装置30はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を拡散させて出射する。発光装置30から出射された光は、スクリーンSCに沿う光の層を形成する。本実施形態では、角度θは、ほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と、発光装置30により形成される光の層とは近接していることが好ましい。発光装置30からの光の出射は、プロジェクター10により制御される。
図2は、プロジェクター10及び指示体20のハードウェア構成を示した図である。指示体20は、制御部210、通信部220、発光部230、操作部240、電源250を有する。電源250は、例えば乾電池又は二次電池であり、制御部210、通信部220、発光部230及び操作部240へ電力を供給する。操作部240は、電源250から各部への電力供給を制御するスイッチ(図示略)を備えている。操作部240のスイッチがオンとなると、電源250から各部へ電力が供給され、操作部240のスイッチがオフとなると、電源250から各部へ電力の供給が停止される。発光部230は、赤外光を発する発光ダイオードを有しており、指示体20の先端に設けられている。発光部230の点灯及び消灯は、制御部210により制御される。発光部230は、点光源であり、発光部230が発する光は、指示体20の先端から球面上に広がる。通信部220は、赤外光を受光する受光素子を備えている。通信部220は、プロジェクター10から赤外光で送られる各種信号を受信する。通信部220は、受信した各種信号を電気信号に変換して制御部210へ供給する。制御部210は、発光部230及び通信部220に接続されている。制御部210は、通信部220から供給される信号に応じて発光部230の制御を開始し、発光部230の発光ダイオードの点灯及び消灯を制御する。制御部210及び発光部230は、指示体20を光らせる発光装置として機能する。
プロジェクター10は、制御部110、記憶部120、操作部130、投写部140を備える。また、プロジェクター10は、映像処理部150、映像インターフェース160、撮像部170、通信部180を備える。制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えたマイクロコンピューターである。ROMに記憶されているプログラムをCPUが実行すると、プロジェクター10においては、制御部110が各部を制御し、映像をスクリーンSCに投写する機能やインタラクティブ機能、指や指示体20をポインティングデバイスとして利用する機能などが実現する。
また、プロジェクター10においては、制御部110に接続された発光装置30からの赤外光の出射を制御する機能や、映像を表示する矩形の投写領域を複数領域に分割し、外部装置から供給された映像信号の映像を分割された領域へ投写する画面分割機能、分割された領域の数や面積を変更する機能、分割された領域に投写する映像を交換する機能などの各種機能が実現する。
映像インターフェース160は、RCA、D−Sub、HDMI(登録商標)、USBなど、映像信号が供給されるコネクターを複数有し、外部装置からコネクターに供給された映像信号を映像処理部150へ供給する。映像インターフェース160は、複数の映像信号を取得する映像取得部の一例である。映像インターフェース160は、無線LANやBluetooth(登録商標)などの無線通信のインターフェースを有し、無線通信により映像信号を取得してもよい。
記憶部120は、投写する映像の画質に係る設定値や、各種機能の設定に係る情報を記憶する。また、記憶部120は、画面分割機能で分割された投写領域のそれぞれの領域と、各領域に投写する映像の映像信号との対応関係を格納した第1テーブルを記憶する。
本実施形態では、画面分割機能を実行した場合、投写領域は、最大で第1領域から第4領域までの4つに分割される。このため、初期状態の第1テーブルにおいては、第1領域から第4領域について、図3に示したように、映像インターフェース160に供給される第1映像ソースS1が第1領域に対応付けられ、第2映像ソースS2が第2領域に対応付けられ、第3映像ソースS3が第3領域に対応付けられ、第4映像ソースS4が第4領域に対応付けられている。
操作部130は、プロジェクター10を操作するための複数のボタンを備えている。操作されたボタンに応じて制御部110が各部を制御することにより、スクリーンSCに投写される映像の調整や、プロジェクター10が有する各種機能の設定などが行われる。また、操作部130は、リモートコントローラー(図示略)からの赤外光の信号を受光する受光部(図示略)を備えている。操作部130は、リモートコントローラーから送信された信号を電気信号に変換して制御部110へ供給し、制御部110は、供給される信号に応じて各部を制御する。
投写部140と映像処理部150は協働し、画像を表示する表示部として機能する。
映像処理部150は、映像インターフェース160から供給される映像信号を取得する。また、映像処理部150は、プロジェクター10を操作するためのGUIや指示体20が指し示す位置を表すカーソル、インタラクティブ機能で描画する画像などのオンスクリーン画像の信号を制御部110から取得する。映像処理部150は、各種の画像処理機能を備えており、映像インターフェース160から供給された映像信号に画像処理を施し、投写する映像の画質を調整する。映像処理部150は、制御部110からオンスクリーン画像の信号が供給された場合には、オンスクリーン画像の信号を重畳した映像信号を投写部140へ供給する。
また、映像処理部150は、制御部110が画面分割機能を実行していると、投写領域を複数に分割し、外部装置から供給された映像信号の映像を分割された領域へ配置した映像信号を生成し、生成した映像信号を投写部140へ供給する。
映像を投写する投写部140は、光源141、ライトバルブ142、駆動回路144及び投写光学系143を有している。光源141は、光を発するランプであり、光源141が発した光は、図示省略した複数のダイクロイックミラーやミラーによって赤、緑、青の光に分光され、分光された赤、緑、青のそれぞれの光はライトバルブ142に導かれる。なお、光源141は、ランプではなく、発光ダイオード又はレーザ光を発する半導体レーザ装置であってもよい。
駆動回路144は、映像処理部150から供給される映像信号を取得する。駆動回路144に供給される映像信号は、投写する映像における赤の成分の階調を表す階調データ、投写する映像における緑の成分の階調を表す階調データ及び投写する映像における青の成分の階調を表す階調データを有する。駆動回路144は、赤、緑、青の各色の階調データを抽出し、抽出した各色の階調データに基づいてライトバルブ142を駆動する。
ライトバルブ142は、前述の赤の光が入射する液晶ライトバルブ、前述の緑の光が入射する液晶ライトバルブ、及び前述の青の光が入射する液晶ライトバルブを有している。液晶ライトバルブは、透過型の液晶パネルであり、複数行複数列でマトリクス状に配置された画素を備えている。赤の光が入射する液晶ライトバルブは赤の階調データに基づいて駆動され、緑の光が入射する液晶ライトバルブは緑の階調データに基づいて駆動され、青の光が入射する液晶ライトバルブは青の階調データに基づいて駆動される。各液晶ライトバルブは、駆動回路144によって各画素が制御されて画素の透過率が変化する。画素の透過率が制御されることにより、液晶ライトバルブを透過した各色の光は、各階調データに対応した映像となる。液晶ライトバルブを透過した赤、緑、青の光の映像は、図示省略したダイクロイックプリズムにより合成されて投写光学系143に入射する。投写光学系143は、入射した映像を拡大する光学系であり、入射した映像をレンズやミラーによって拡大してスクリーンSCに投写する。
撮像部170は、発光部230が発する赤外光や、発光装置30から出射されて指で反射した赤外光を受光する撮像素子(CMOSやCCDなど)、撮像素子に像を結像する光学系、撮像素子へ入射する光を制限する絞りなどを備えている。撮像部170は、スクリーンSCを含む範囲を撮像範囲とし、撮像した範囲の画像を生成し、生成した画像を表す画像信号を出力する。なお、本実施形態においては、プロジェクター10がスクリーンSCの斜め上方に設置されるため、撮像部170は、スクリーンSCを含む範囲を斜め上方から撮像することになる。通信部180は、赤外光を発する発光ダイオードを備えている。通信部180は、制御部110により、発光ダイオードの点灯及び消灯が制御され、発光部230の点灯及び消灯を制御する赤外光の信号を送信する。
図4は、制御部110がプログラムを実行することにより実現する機能と、制御部210において実現する機能の構成を示した機能ブロック図である。まず、プロジェクター10の制御部110において実現する機能について説明する。
距離取得部111は、撮像部170から投写面までの距離を取得する。具体的には、距離取得部111は、撮像部170から投写面までの距離を測定するためのパターン画像を映像処理部150を制御してスクリーンSCに投写する。パターン画像がスクリーンSCに投写されると、投写されたパターン画像を撮像部170に撮像させ、撮像されたパターン画像の大きさに基づいて投写面までの距離を取得する。なお、距離取得部111は、ユーザーがリモートコントローラーや操作部130を操作することによって入力した距離に係る情報を取得するようにしてもよい。ここで、距離取得部111が取得すべき情報は、距離そのものに限定されず、距離に係る情報(距離に対応する情報)であればよい。例えば、プロジェクター10がズーム機能を有しない場合には、撮像部170から投写面までの距離に応じて画面サイズが定まるため、距離に係る情報として、ユーザーに画面サイズを入力させるようにしてもよい。また、撮像部170から投写面までの距離については、距離センサーをプロジェクター10に設け、距離センサーの測定結果から、撮像部170から投写面までの距離を得てもよい。
位置検知部112は、例えば図5に示したタイムチャートで、投写された画面上において指示体20や指示体の一例である指が指示した位置を特定する。指が指示した位置や指示体20が指示した位置を特定する期間は、図5に示したようにフェーズP11からフェーズP14までの4つのフェーズを有する。指が指示した位置や指示体20が指示した位置を検出する際には、フェーズP11からフェーズP14までが繰り返される。フェーズP11は、プロジェクター10が撮像部170で撮像を行うタイミングと、指示体20が発光するタイミングとを同期させるためのフェーズである。フェーズP11においては、位置検知部112は、所定期間te1で赤外光の同期信号が出力されるように通信部180を制御する。
指示体20においては、通信部220が同期信号を受光し、同期信号を受光してから所定時間が経過すると、設定された期間te2で発光部230が点灯するように、制御部210が発光部230を制御する。本実施形態においては、フェーズP12、フェーズP13及びフェーズP14の開始時点から発光部230が点灯するように制御される。
また、位置検知部112は、フェーズP12及びフェーズP14の開始時間から期間te2で発光装置30が赤外光を出射するように、発光装置30を制御する。
位置検知部112は、フェーズP12〜フェーズP14において、撮像部170を制御し、設定されているシャッタースピードでスクリーンSCを含む所定範囲を撮像する。撮像部170において電子シャッター機能により露光が行われる露光期間は、フェーズP12とフェーズP14の開始時点から始まり、露光が終了する時点は、設定されているシャッタースピードにより定まる。撮像部170がフェーズP12〜フェーズP14の露光期間で撮像した画像の画像信号は、位置検知部112へ供給される。
位置検知部112は、供給された画像信号が示す画像と、距離取得部111が得た距離を用いて、投写された画像上において指や指示体20が指示した位置を特定する。具体的には、第2フェーズP12と第4フェーズP14において、指がスクリーンSCに接している場合には、撮像部170で得られた画像に発光装置30から出射されて指で反射した赤外光が映る。また、第2フェーズP12と第4フェーズP14において、指示体20がスクリーンSCに接していると、撮像部170で得られた画像に指示体20が発した赤外光も映る。第3フェーズP13においては、発光装置30は光を出射しないため、撮像部170で得られた画像には、指示体20が発した赤外光が映る。
位置検知部112は、第2フェーズP12と第4フェーズP14において撮像部170で得られた画像に映る赤外光のうち、第3フェーズP13において撮像部170で得られた画像に映る赤外光の位置に近い位置の赤外光を特定し、特定した赤外光の位置を指示体20の位置とする。また、位置検知部112は、第2フェーズP12と第4フェーズP14において撮像部170で得られた画像に映る赤外光のうち、第3フェーズP13において撮像部170で得られた画像に映る赤外光の位置から遠い位置の赤外光を特定し、特定した赤外光の位置を指の位置とする。この特定した位置は、指示体20をポインティングデバイスとして用いるときや各種機能を実行するときに使用される。
操作検知部113は、撮像部170から供給される画像信号を解析し、画像信号が表す画像に映る赤外光に基づいて、ユーザーが投写面上で行った特定の操作を検知する。
画面分割部114は、操作検知部113が特定の操作を検知した場合、位置検知部112が検知した位置に応じて投写領域を複数領域に分割し、複数領域のそれぞれに互いに異なる映像が表示されるように、映像処理部150を制御する。
描画部115は、投写する映像内に位置検知部112が検知した位置に応じて描画を行う。但し、操作検知部113が検知した特定の操作が行われた位置については、描画部115は、位置検知部112が検知した位置に応じた描画を行わない。
次に、指示体20の制御部210において実現する機能について説明する。信号取得部211は、通信部220が受信した同期信号を取得する。発光制御部212は、信号取得部211から同期信号を取得し、同期信号を取得してから所定時間が経過すると、フェーズP12及びフェーズP14において期間te2で発光部230が点灯するように、発光部230を制御する。
(実施形態の動作例)
次に、本実施形態の動作例について、図6〜図9を用いて説明する。なお、以下の説明においては、映像インターフェース160のD−Subコネクターに供給される映像信号を第1映像ソースS1、HDMIコネクターに供給される映像信号を第2映像ソースS2、USBコネクターに供給される映像信号を第3映像ソースS3、RCAコネクターに供給される映像信号を第4映像ソースS4として説明を行う。
(投写する画面を複数領域に分割し、外部装置から供給された映像信号の映像を分割された領域へ投写するときの動作例)
図6は、投写領域を複数の領域に分割し、外部装置から供給された映像ソースの映像を、分割された領域へ投写する処理の流れを示したフローチャートである。制御部110は、予め定められた特定の操作が行われると、投写領域を分割する処理を行う。本実施形態においては、予め定められた特定の操作(第1操作)は、「投写面に二本の指で触れる→二本の指を投写面から離す→二本の指を再度投写面に接触させる→所定時間を超えて二本の指を投写面に接触させたままにする」という操作である。制御部110は、撮像部170から供給される画像信号を解析し、予め定められた特定の操作がユーザーにより行われたか判断する。
具体的には、まず、プロジェクター10のユーザーが、投写面に二本の指(例えば親指と人差し指)で触れると、発光装置30から出射した赤外光が投写面に触れている二本の指で反射し、反射した光は撮像部170に入射する。制御部110は、撮像部170から供給される画像信号を解析し、撮像部170が撮像した画像において、指で反射した赤外光が二つ映っている場合、二本の指がスクリーンSCに接していると判断し、図6に示した処理を開始する。
まず、制御部110は、二本の指がスクリーンSCに接していると判断してから所定時間内に、指で反射した赤外光が映っていない画像信号が撮像部170から供給されたか、即ち、二本の指が投写面に接してから所定時間内に二本の指が投写面から離れたか判断する(ステップSA1)。ここで制御部110は、二本の指がスクリーンSCに接していると判断してから所定時間内に、指で反射した赤外光が映っていない画像信号が撮像部170から供給された場合(ステップSA1でYES)、所定時間内に投写面から二本の指が離れたと判断する。
次に制御部110は、ステップSA1でYESと判断してから所定時間内に、指で反射した赤外光が二つ映っている画像信号が撮像部170から供給されたか、即ち、所定時間内に再度投写面に二本の指が接したか判断する(ステップSA2)。ここで制御部110は、ステップSA1でYESと判断してから所定時間内撮影された画像において、指で反射した赤外光が二つ映っている場合(ステップSA2でYES)、所定時間内に再度投写面に二本の指が接したと判断する。
制御部110は、ステップSA2でYESと判断した場合、投写面上における二本の指の位置を特定し、特定した位置に基づいて、投写領域を複数領域に分割するときの分割位置を決定する(ステップSA3)。ここで、制御部110は、二本の指の位置を結ぶ線分の中点の位置を特定し、特定した位置を分割位置Posとする。
本実施形態においては、図7に示したように、分割しない状態の矩形の投写領域の幅をw、高さをhとし、投写領域の左上の頂点の座標を(0,0)とすると、右上の頂点の座標は(w,0)、左下の頂点の座標は(0,h)、右下の頂点の座標は(w,h)となる。制御部110は、特定した分割位置Posの座標に応じて、例えば、図8に示したように投写領域を分割する(ステップSA4)。
本実施形態においては、分割位置Posの座標を(a、b)とした場合、例えば、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標が0<b<hであると、図8の2行2列目に示したように、制御部110は、投写領域を4つに分割する。また、制御部110は、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標がb=0又はb=hであると、図8の1行2列目や3行2列目に示したように、制御部110は、投写領域を2つに分割する。また、制御部110は、分割位置Posの上下方向の座標が0<b<hであり、分割位置Posの左右方向の座標がa=0又はa=wであると、図8の2行1列目や2行3列目に示したように、制御部110は、投写領域を2つに分割する。
次に制御部110は、第1テーブルに格納されている情報に従って、分割された各領域内に、各領域に対応した映像ソースの映像が投写されるように、映像処理部150を制御する(ステップSA5)。例えば、制御部110は、図8の2行2列目に示したように、投写領域を4つに分割し、左上の領域を第1領域A1、右上の領域を第2領域A2、左下の領域を第3領域A3、右下の領域を第4領域A4とする。そして、制御部110は、
第1テーブルが図3に示した状態である場合、第1テーブルに従って、第1領域A1に第1映像ソースS1の映像が投写され、第2領域A2に第2映像ソースS2の映像が投写され、第3領域A3に第3映像ソースS3の映像が投写され、第4領域A4に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。
制御部110は、投写領域を分割した後、撮像部170が撮像した画像において、指で反射した赤外光が二つ映っているか、即ち、二本の指がスクリーンSCに接しているか判断する(ステップSA6)。制御部110は、撮影された画像において、指で反射した赤外光が映っていない場合、即ち、ユーザーの指が投写領域を分割した後に投写面から離れた場合、図6に示した処理を終了する。
また、制御部110は、撮影された画像において、二本の指で反射された赤外光が映っている場合(ステップSA6でYES)、二本の指がスクリーンSCに接していると判断する。制御部110は、ステップSA6でYESと判断した場合、投写面上における二本の指の位置を特定し、特定した位置に基づいて、投写領域を複数領域に分割するときの最新の分割位置Posを決定する(ステップSA7)。ここで、制御部110は、二本の指が移動しており、新たに特定した分割位置Posが前回特定した位置と異なる場合、新たに特定した分割位置Posに応じて投写領域を分割する(ステップSA8)。そして制御部110は、第1テーブルに格納した情報に従って、分割した各領域内に映像が投写されるように映像処理部150を制御し(ステップSA9)、処理の流れをステップSA6へ戻す。
例えば、制御部110は、分割位置Posの左右方向の座標が0<a<wであり、分割位置の上下方向の座標がb=0となった場合、図8の1行2列目に示したように、投写領域を左右方向で2つの領域に分割し、左側の領域を第3領域A3とし、右側の領域を第4領域A4とし、第3領域A3に第3映像ソースS3の映像が投写され、第4領域A4に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。
また、制御部110は、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標がb=hとなった場合、図8の3行2列目に示したように、投写領域を左右方向で2つの領域に分割し、左側の領域を第1領域A1とし、右側の領域を第2領域A2とし、第1領域A1に第1映像ソースS1の映像が投写され、第2領域A2に第2映像ソースS2の映像が投写されるように、映像処理部150を制御する。
また、制御部110は、分割位置Posの左右方向の座標がa=0であり、分割位置Posの上下方向の座標が0<b<hとなった場合、図8の2行1列目に示したように、投写領域を上下方向で2つの領域に分割し、上側の領域を第2領域A2とし、下側の領域を第4領域A4とし、第2領域A2に第2映像ソースS2の映像が投写され、第4領域A4に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。
また、制御部110は、分割位置Posの左右方向の座標がa=wであり、分割位置Posの上下方向の座標が0<b<hとなった場合、図8の2行3列目に示したように、投写領域を上下方向で2つの領域に分割し、上側の領域を第1領域A1とし、下側の領域を第3領域A3とし、第1領域A1に第1映像ソースS1の映像が投写され、第3領域A3に第3映像ソースS3の映像が投写されるように、映像処理部150を制御する。
また、制御部110は、分割位置Posの座標が投写領域の頂点の座標となった場合、投写する映像を、第1テーブルと分割位置Posの座標に応じて選択し、選択した映像を投写する。例えば、制御部110は、分割位置Posの左右方向の座標がa=0であり、上下方向の座標がb=0である場合、投写領域を第4領域A4とし、図8の1行1列目に示したように、投写領域に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。また、制御部110は、分割位置Posの左右方向の座標がa=wであり、上下方向の座標がb=0である場合、投写領域を第3領域A3とし、図8の1行3列目に示したように、投写領域に第3映像ソースS3の映像の映像が投写されるように、映像処理部150を制御する。また、制御部110は、分割位置Posの左右方向の座標がa=0であり、上下方向の座標がb=hである場合、投写領域を第2領域A2とし、図8の3行1列目に示したように、投写領域に第2映像ソースS2の映像の映像が投写されるように、映像処理部150を制御する。また、制御部110は、分割位置Posの左右方向の座標がa=wであり、上下方向の座標がb=hである場合、投写領域を第1領域A1とし、図8の3行3列目に示したように、投写領域に第1映像ソースS1の映像の映像が投写されるように、映像処理部150を制御する。
以上説明したように本実施形態によれば、操作部130やリモートコントローラーを操作しなくとも、投写領域を複数領域に分割し、複数の映像を投写することができる。
(分割された領域に投写されている映像を交換するときの動作例)
図9は、分割された領域に投写されている映像を交換する処理の流れを示したフローチャートである。制御部110は、投写領域が分割されている状態において、予め定められた特定の操作が行われると、2つの領域に投写されている映像を交換する処理を行う。本実施形態においては、分割された領域に投写されている映像を交換する処理を開始する契機となる特定の操作(第3操作)は、「投写面に三本の指で触れる→三本の指を投写面から離す→三本の指を再度投写面に接触させる→所定時間を超えて三本の指を投写面に接触させたままにする」という操作である。制御部110は、撮像部170から供給される画像信号を解析し、予め定められた特定の操作がユーザーの指により行われたか判断する。
具体的には、まず、プロジェクター10のユーザーが、投写面に三本の指(例えば親指、人差し指及び中指)で触れると、発光装置30から出射した赤外光が投写面に触れている三本の指で反射し、三本の指で反射した光は、撮像部170に入射する。制御部110は、撮像部170から供給される画像信号を解析し、撮像部170が撮像した画像において、指で反射した赤外光が三つ映っている場合、三本の指がスクリーンSCに接していると判断し、図9に示した処理を開始する。
まず、制御部110は、撮影された画像において、三本の指がスクリーンSCに接していると判断してから所定時間内に、指で反射した赤外光が映っていない画像信号が撮像部170から供給されたか、即ち、三本の指が投写面に接してから所定時間内に三本の指が投写面から離れたか判断する(ステップSB1)。ここで制御部110は、三本の指がスクリーンSCに接していると判断してから所定時間内に、指で反射した赤外光が映っていない画像信号が撮像部170から供給された場合(ステップSB1でYES)、所定時間内に投写面から三本の指が離れたと判断する。
次に制御部110は、ステップSB1でYESと判断してから所定時間内に、指で反射した赤外光が三つ映っている画像信号が撮像部170から供給されたか、即ち、所定時間内に再度投写面に三本の指が接したか判断する(ステップSB2)。ここで制御部110は、ステップSB1でYESと判断してから所定時間内撮影された画像において、指で反射した赤外光が三つ映っている場合(ステップSB2でYES)、所定時間内に再度投写面に三本の指が接したと判断する。
制御部110は、ステップSB2でYESと判断した場合、投写面上における三本の指の位置を特定し、特定した三つの位置のうちの一つの座標を第1座標としてRAMに記憶させる(ステップSB3)。なお、本実施形態では、三本の指の位置のうち、最も上にある指の位置の座標を第1座標とするが、最も下にある指の位置の座標を第1座標としてもよい。また、三本の指の位置のうち、左右方向で原点に最も近い指の位置を第1座標としてもよく、また、三本の指の位置のうち、左右方向で原点に最も遠い指の位置を第1座標としてもよい。
制御部110は、第1座標を記憶した後、撮像部170から供給される画像信号を解析し、三本の指が投写面に接しているか判断する(ステップSB4)。制御部110は、撮像部170から供給された画像信号が表す画像において、三か所に赤外光が映っている場合、即ち、ユーザーの指が投写面から離れていない場合、制御部110は、三本の指の位置を特定し、特定した三つの位置のうちの一つの座標を第2座標としてRAMに記憶させる(ステップSB5)。次に制御部110は、処理の流れをステップSB4へ戻し、ユーザーの三本の指が接している間は、三本の指のうち最も上にある指の位置を特定し、特定した位置の座標で第2座標を更新する。
制御部110は、撮像部170から供給された画像信号が表す画像において、赤外光が映っていない場合、即ち、ユーザーの三本の指が投写面から離れた場合(ステップSB4でNO)、RAMに記憶されている第1座標と第2座標に基づいて、分割されている領域に投写されている映像を交換する(ステップSB6)。
具体的には、制御部110は、記憶した第1座標を含む第1の交換領域と記憶した第2座標を含む第2の交換領域を特定する。
例えば、投写領域が4つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、制御部110は、c<aであり、d<bである場合、第1領域A1を第1の交換領域として特定し、c≧aであり、d<bである場合、第2領域A2を第1の交換領域として特定し、c<aであり、d≧bである場合、第3領域A3を第1の交換領域として特定し、c≧aであり、d≧bである場合、第4領域A4を第1の交換領域として特定する。
また、投写領域が4つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、制御部110は、e<aであり、f<bである場合、第1領域A1を第2の交換領域として特定し、e≧aであり、f<bである場合、第2領域A2を第2の交換領域として特定し、e<aであり、f≧bである場合、第3領域A3を第2の交換領域として特定し、e≧aであり、f≧bである場合、第4領域A4を第2の交換領域として特定する。
また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、0<a<wであってb=0であると、c<aの場合には、第3領域A3を第1の交換領域として特定し、c≧aの場合には、第4領域A4を第1の交換領域として特定する。また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、0<e<wであってb=0であると、e<aの場合には、第3領域A3を第2の交換領域として特定し、e≧aの場合には、第4領域A4を第2の交換領域として特定する。
また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、0<a<wであってb=hであると、c<aである場合、第1領域A1を第1の交換領域として特定し、c≧aである場合、第2領域A2を第1の交換領域として特定する。また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、0<e<wであってb=hであると、e<aの場合には、第1領域A1を第2の交換領域として特定し、e≧aの場合には、第2領域A2を第2の交換領域として特定する。
また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、0<b<hであってa=0であると、d<bの場合には、第2領域A2を第1の交換領域として特定し、d≧bの場合には、第4領域A4を第1の交換領域として特定する。また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、0<f<hであってa=0であると、f<bの場合には、第2領域A2を第2の交換領域として特定し、f≧bの場合には、第4領域A4を第2の交換領域として特定する。
また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、0<b<hであってa=wであると、d<bである場合、第1領域A1を第1の交換領域として特定し、d≧bである場合、第3領域A3を第1の交換領域として特定する。また、制御部110は、投写領域が2つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、0<f<hであってa=wであると、f<bの場合には、第1領域A1を第2の交換領域として特定し、f≧bの場合には、第3領域A3を第2の交換領域として特定する。
制御部110は、第1の交換領域と第2の交換領域が同じである場合、分割された領域に投写されている映像を交換せず、図9に示した処理を終了する。制御部110は、第1の交換領域と第2の交換領域とが異なる場合、第1の交換領域に投写されている映像の映像ソースと、第2の交換領域に投写されている映像の映像ソースとを交換する。
例えば、投写領域が4つに分割されており、第1の交換領域が第1領域A1であり、第2の交換領域が第4領域A4である場合、制御部110は、第1テーブルにおいて第1領域に対応付けられている映像ソースと、第1テーブルにおいて第4領域に対応付けられている映像ソースとを交換する。これにより、第1テーブルにおいては、第1領域に第4映像ソースS4が対応付けられ、第4領域に第1映像ソースS1が対応付けられる。制御部110は、更新された第1テーブルに格納されている情報に従って、左上の第1領域A1に第4映像ソースS4が投写され、右上の第2領域に第2映像ソースS2が投写され、左下の第3領域に第3映像ソースS3が投写され、右下の第4領域A4に第1映像ソースS1が投写されるように、映像処理部150を制御する。
以上説明したように、本実施形態によれば、操作部130やリモートコントローラーを操作しなくとも、複数の投写領域に投写されている映像を交換することができる。
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した各実施形態及び以下の変形例は、一つ又は複数を適宜組み合わせて実施してもよい。
上述した実施形態においては、映像インターフェース160のコネクターに供給される映像ソースの有無を検知し、画面の分割数を映像インターフェース160のコネクターに供給される映像ソースの有無に応じた数としてもよい。
例えば、4つのコネクターのうち映像ソースが供給されているコネクターが2つあり、映像ソースが供給されていないコネクターが2つある場合、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標が0<b<hであっても、投写領域を上下又は左右の2つに分割し、分割された領域に、コネクターに供給されている映像ソースの映像を投写するようにしてもよい。
また、4つのコネクターのうち映像ソースが供給されているコネクターが3つあり、映像ソースが供給されていないコネクターが1つある場合、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標が0<b<hの場合、投写領域を3つに分割し、分割された領域に、コネクターに供給されている映像ソースの映像を投写するようにしてもよい。投写領域を3つに分割する場合、例えば、図10の(a)〜(d)のいずれかの状態に分割するようにしてもよい。
上述した実施形態においては、投写領域が分割されており、投写面から指が離れている状態において、「投写面に二本の指で触れる→二本の指を投写面から離す→二本の指を再度投写面に接触させる」という操作(第2操作)が行われると、制御部110は、図6のフローチャートのステップSA6へ処理の流れを移すようにしてもよい。この構成によれば、投写面が分割されている状態で「投写面に二本の指で触れる→二本の指を投写面から離す→二本の指を再度投写面に接触させる」という操作が行われ、二本の指を投写面に接触させたまま移動させると、分割位置Posが変更される。
上述した実施形態においては、投写領域を分割する契機となる操作は、指による操作となっているが、投写領域を分割する契機となる操作は、指による操作に限定されるものではなく、例えば、指示体20による操作であってもよい。
例えば、指示体20の位置に応じて画面に描画を行う機能を実行していない状態において、「投写面に指示体20で触れる→指示体20を投写面から離す→指示体20を再度投写面に接触させる→所定時間を超えて指示体20を投写面に接触させたままにする」という操作が行われると、制御部110は、指示体20が接している位置に基づいて投写領域を分割するようにしてもよい。
また、指示体20に位置に応じて画面に描画を行う機能を実行していない状態において、指示体20を投写面に接触させたまま螺旋状に指示体20を動かすと、指示体20が接している位置に基づいて投写領域を分割するようにしてもよく、また、螺旋状に限定されず、投写面上において特定の文字や記号を書くように指示体20を動かすと、指示体20が接している位置に基づいて投写領域を分割するようにしてもよい。
また、指示体20にボタンを設け、ボタンが押されていると、指示体20からプロジェクター10へボタンが押されていることを表す信号を無線通信で送信し、プロジェクター10は、この信号を受信すると、投写面上における指示体20の位置を検知し、検知した位置に基づいて投写領域を分割してもよい。
また、分割された領域に投写されている映像を交換する処理を実行する契機となる動作についても、指による操作に限定されるものではなく、指示体20による操作であってもよい。
上述した実施形態では、映像を表示する装置は、画像を投写するプロジェクター10となっているが、液晶テレビや液晶モニターなど、直視型の表示装置であってもよい。
1…表示システム、10…プロジェクター、20…指示体、30…発光装置、110…制御部、111…距離取得部、112…位置検知部、113…操作検知部、114…画面分割部、115…描画部、120…記憶部、130…操作部、140…投写部、150…映像処理部、160…映像インターフェース、170…撮像部、180…通信部、210…制御部、211…信号取得部、212…発光制御部、220…通信部、230…発光部、240…操作部、250…電源、SC…スクリーン、Pos…分割位置、S1…第1映像ソース、S2…第2映像ソース、S3…第3映像ソース、S4…第4映像ソース

Claims (8)

  1. 複数の映像信号を取得する映像取得部と、
    前記映像取得部が取得した映像信号が表す映像を表示する表示部と、
    前記表示部で表示された画面上で指示体が指示した位置を検知する位置検知部と、
    前記位置検知部が検知した位置に応じて前記画面内に描画を行う描画部と、
    前記画面上で前記指示体によって行われた操作を検知する操作検知部と、
    前記操作検知部により第1操作が検知された場合、前記表示部が表示する画面を前記位置検知部が検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ前記映像取得部が取得した映像信号が表す映像を割り振る画面分割部と
    を備える表示装置。
  2. 前記画面分割部は、前記画面が分割されている状態において前記操作検知部が第2操作を検知した後に、前記位置検知部が検知した位置が変化した場合、変化後の位置に追従して前記複数領域の大きさを変更する
    請求項1に記載の表示装置。
  3. 前記第1操作と前記第2操作のいずれかは、前記指示体を前記画面へ複数回接触させる操作である
    請求項2に記載の表示装置。
  4. 前記画面分割部は、前記位置検知部が検知した位置に応じて前記複数領域の数を決定する
    請求項1から請求項3のいずれか一項に記載の表示装置。
  5. 前記画面分割部は、前記映像取得部が取得した映像信号の数に応じて、前記複数領域の数を決定する
    請求項1から請求項4のいずれか一項に記載の表示装置。
  6. 前記画面が分割されている状態において前記操作検知部が第3操作を検知した場合、前記画面分割部は、前記指示体が指示した第1位置に表示されている映像と、前記指示体が指示した第2位置に表示されている映像とを入れ替える
    請求項1から請求項5のいずれか一項に記載の表示装置。
  7. 前記描画部は、前記操作検知部により検知された操作については、前記指示体の位置に応じた描画を行わない
    請求項1から請求項6のいずれか一項に記載の表示装置。
  8. 表示部で表示された画面上で指示体が指示した位置を検知する位置検知ステップと、
    前記位置検知ステップで検知した位置に応じて前記画面内に描画を行う描画ステップと、
    前記画面上で前記指示体によって行われた操作を検知する操作検知ステップと、
    前記操作検知ステップで第1操作が検知された場合、前記表示部が表示する画面を前記位置検知ステップで検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ映像取得部が取得した複数の映像信号が表す映像を割り振る画面分割ステップと
    を備える表示制御方法。
JP2015042684A 2015-03-04 2015-03-04 表示装置及び表示制御方法 Pending JP2016161869A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015042684A JP2016161869A (ja) 2015-03-04 2015-03-04 表示装置及び表示制御方法
PCT/JP2016/000785 WO2016139902A1 (ja) 2015-03-04 2016-02-16 表示装置及び表示制御方法
US15/555,032 US20180039407A1 (en) 2015-03-04 2016-02-16 Display device and display control method
CN201680012712.2A CN107430838A (zh) 2015-03-04 2016-02-16 显示装置和显示控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015042684A JP2016161869A (ja) 2015-03-04 2015-03-04 表示装置及び表示制御方法

Publications (2)

Publication Number Publication Date
JP2016161869A true JP2016161869A (ja) 2016-09-05
JP2016161869A5 JP2016161869A5 (ja) 2018-03-08

Family

ID=56845152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015042684A Pending JP2016161869A (ja) 2015-03-04 2015-03-04 表示装置及び表示制御方法

Country Status (4)

Country Link
US (1) US20180039407A1 (ja)
JP (1) JP2016161869A (ja)
CN (1) CN107430838A (ja)
WO (1) WO2016139902A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110780799B (zh) * 2019-10-21 2021-04-30 湖南新云网科技有限公司 一种信息显示控制方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250465A (ja) * 2009-04-14 2010-11-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2011013400A1 (ja) * 2009-07-30 2011-02-03 シャープ株式会社 携帯型表示装置およびその制御方法、プログラム、記録媒体
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
WO2013051052A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 情報表示装置、情報表示方法及び情報表示プログラム
JP2013535724A (ja) * 2010-07-16 2013-09-12 クアルコム,インコーポレイテッド 投影されたユーザインターフェースと対話するための方法およびシステム
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
JP2014132427A (ja) * 2013-01-07 2014-07-17 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8297758B2 (en) * 2007-02-20 2012-10-30 Daegu Gyeongbuk Institute Of Science And Technology Multimedia player displaying 2 projection images
JP5432288B2 (ja) * 2008-12-31 2014-03-05 エスティー‐エリクソン、ソシエテ、アノニム 同期ofdmシステムにおける干渉基地局の干渉相殺のためのプロセスおよびレシーバ
JP5673191B2 (ja) * 2011-02-21 2015-02-18 セイコーエプソン株式会社 インタラクティブシステム、位置情報変換方法、およびプロジェクター
US9315479B2 (en) * 2012-07-13 2016-04-19 Basf Se Process for preparing pyrrolidine
JP2014127184A (ja) * 2012-12-27 2014-07-07 Toshiba Corp 情報処理装置および表示制御方法
US10025420B2 (en) * 2013-12-05 2018-07-17 Huawei Device (Dongguan) Co., Ltd. Method for controlling display of touchscreen, and mobile device
KR102297330B1 (ko) * 2015-01-16 2021-09-02 삼성전자주식회사 화면 제어 방법 및 그 방법을 처리하는 전자 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250465A (ja) * 2009-04-14 2010-11-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2011013400A1 (ja) * 2009-07-30 2011-02-03 シャープ株式会社 携帯型表示装置およびその制御方法、プログラム、記録媒体
JP2013535724A (ja) * 2010-07-16 2013-09-12 クアルコム,インコーポレイテッド 投影されたユーザインターフェースと対話するための方法およびシステム
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
WO2013051052A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 情報表示装置、情報表示方法及び情報表示プログラム
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
JP2014132427A (ja) * 2013-01-07 2014-07-17 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム

Also Published As

Publication number Publication date
WO2016139902A1 (ja) 2016-09-09
US20180039407A1 (en) 2018-02-08
CN107430838A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
US10228611B2 (en) Projector, projection system, and control method of projector
JP6064319B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US10416813B2 (en) Display system, display device, information processing device, and information processing method
CN103197778A (zh) 显示装置、投影仪、显示系统以及设备的切换方法
US10303307B2 (en) Display system, information processing device, projector, and information processing method
US20150279336A1 (en) Bidirectional display method and bidirectional display device
US20170270700A1 (en) Display device, method of controlling display device, and program
JP2017111828A (ja) プロジェクター、及び、プロジェクターの制御方法
JP6750268B2 (ja) 表示装置及び表示装置の制御方法
JP2016161869A (ja) 表示装置及び表示制御方法
JP6728849B2 (ja) 表示装置及び表示装置の制御方法
US11276372B2 (en) Method of operation of display device and display device
CN107018393B (zh) 投影仪和投影仪的控制方法
JP6586891B2 (ja) プロジェクター及びプロジェクターの制御方法
JP2017068001A (ja) 表示装置及び表示装置の制御方法
US11016629B2 (en) Display device, method for controlling display device, and display system
JP2016151924A (ja) プロジェクター及びプロジェクターの制御方法
JP6707945B2 (ja) 表示装置及び表示装置の制御方法
US20200145628A1 (en) Projection apparatus and correcting method of display image
JP2017204162A (ja) 表示装置及び表示方法
JP2016186525A (ja) 表示装置及び表示方法
JP2020173327A (ja) 表示方法および表示装置
US20160259490A1 (en) Display apparatus and display control method
JP2020173328A (ja) 表示方法および表示装置
JP2017169160A (ja) プロジェクター、プロジェクターの制御方法、およびプロジェクションシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191112