JP2016161869A - 表示装置及び表示制御方法 - Google Patents
表示装置及び表示制御方法 Download PDFInfo
- Publication number
- JP2016161869A JP2016161869A JP2015042684A JP2015042684A JP2016161869A JP 2016161869 A JP2016161869 A JP 2016161869A JP 2015042684 A JP2015042684 A JP 2015042684A JP 2015042684 A JP2015042684 A JP 2015042684A JP 2016161869 A JP2016161869 A JP 2016161869A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- screen
- video
- area
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0308—Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Image Analysis (AREA)
Abstract
Description
この表示装置によれば、指示体による操作で簡単に画面を複数領域に分割することができる。
この構成によれば、分割された領域の大きさを特定の操作により変更することができる。
この構成によれば、簡単な操作で画面を複数領域に分割することができる。
この構成によれば、指示体の位置に応じて複数領域の数を変更することができる。
この構成によれば、映像信号の有無に応じて複数領域の数を変更することができる。
この構成によれば、複数領域に表示されている映像の位置を入れ替えることができる。
この構成によれば、画面を複数領域に分割する操作で描画を行わないようにすることができる。
この方法によれば、指示体による操作で簡単に画面を複数領域に分割することができる。
図1は、本発明の一実施形態に係る表示システム1を構成する装置を示した図である。表示システム1は、スクリーンSC(投写面)に映像を投写するプロジェクター10、指示体20、発光装置30を備える。
また、プロジェクター10においては、制御部110に接続された発光装置30からの赤外光の出射を制御する機能や、映像を表示する矩形の投写領域を複数領域に分割し、外部装置から供給された映像信号の映像を分割された領域へ投写する画面分割機能、分割された領域の数や面積を変更する機能、分割された領域に投写する映像を交換する機能などの各種機能が実現する。
本実施形態では、画面分割機能を実行した場合、投写領域は、最大で第1領域から第4領域までの4つに分割される。このため、初期状態の第1テーブルにおいては、第1領域から第4領域について、図3に示したように、映像インターフェース160に供給される第1映像ソースS1が第1領域に対応付けられ、第2映像ソースS2が第2領域に対応付けられ、第3映像ソースS3が第3領域に対応付けられ、第4映像ソースS4が第4領域に対応付けられている。
映像処理部150は、映像インターフェース160から供給される映像信号を取得する。また、映像処理部150は、プロジェクター10を操作するためのGUIや指示体20が指し示す位置を表すカーソル、インタラクティブ機能で描画する画像などのオンスクリーン画像の信号を制御部110から取得する。映像処理部150は、各種の画像処理機能を備えており、映像インターフェース160から供給された映像信号に画像処理を施し、投写する映像の画質を調整する。映像処理部150は、制御部110からオンスクリーン画像の信号が供給された場合には、オンスクリーン画像の信号を重畳した映像信号を投写部140へ供給する。
また、映像処理部150は、制御部110が画面分割機能を実行していると、投写領域を複数に分割し、外部装置から供給された映像信号の映像を分割された領域へ配置した映像信号を生成し、生成した映像信号を投写部140へ供給する。
距離取得部111は、撮像部170から投写面までの距離を取得する。具体的には、距離取得部111は、撮像部170から投写面までの距離を測定するためのパターン画像を映像処理部150を制御してスクリーンSCに投写する。パターン画像がスクリーンSCに投写されると、投写されたパターン画像を撮像部170に撮像させ、撮像されたパターン画像の大きさに基づいて投写面までの距離を取得する。なお、距離取得部111は、ユーザーがリモートコントローラーや操作部130を操作することによって入力した距離に係る情報を取得するようにしてもよい。ここで、距離取得部111が取得すべき情報は、距離そのものに限定されず、距離に係る情報(距離に対応する情報)であればよい。例えば、プロジェクター10がズーム機能を有しない場合には、撮像部170から投写面までの距離に応じて画面サイズが定まるため、距離に係る情報として、ユーザーに画面サイズを入力させるようにしてもよい。また、撮像部170から投写面までの距離については、距離センサーをプロジェクター10に設け、距離センサーの測定結果から、撮像部170から投写面までの距離を得てもよい。
指示体20においては、通信部220が同期信号を受光し、同期信号を受光してから所定時間が経過すると、設定された期間te2で発光部230が点灯するように、制御部210が発光部230を制御する。本実施形態においては、フェーズP12、フェーズP13及びフェーズP14の開始時点から発光部230が点灯するように制御される。
また、位置検知部112は、フェーズP12及びフェーズP14の開始時間から期間te2で発光装置30が赤外光を出射するように、発光装置30を制御する。
位置検知部112は、第2フェーズP12と第4フェーズP14において撮像部170で得られた画像に映る赤外光のうち、第3フェーズP13において撮像部170で得られた画像に映る赤外光の位置に近い位置の赤外光を特定し、特定した赤外光の位置を指示体20の位置とする。また、位置検知部112は、第2フェーズP12と第4フェーズP14において撮像部170で得られた画像に映る赤外光のうち、第3フェーズP13において撮像部170で得られた画像に映る赤外光の位置から遠い位置の赤外光を特定し、特定した赤外光の位置を指の位置とする。この特定した位置は、指示体20をポインティングデバイスとして用いるときや各種機能を実行するときに使用される。
画面分割部114は、操作検知部113が特定の操作を検知した場合、位置検知部112が検知した位置に応じて投写領域を複数領域に分割し、複数領域のそれぞれに互いに異なる映像が表示されるように、映像処理部150を制御する。
描画部115は、投写する映像内に位置検知部112が検知した位置に応じて描画を行う。但し、操作検知部113が検知した特定の操作が行われた位置については、描画部115は、位置検知部112が検知した位置に応じた描画を行わない。
次に、本実施形態の動作例について、図6〜図9を用いて説明する。なお、以下の説明においては、映像インターフェース160のD−Subコネクターに供給される映像信号を第1映像ソースS1、HDMIコネクターに供給される映像信号を第2映像ソースS2、USBコネクターに供給される映像信号を第3映像ソースS3、RCAコネクターに供給される映像信号を第4映像ソースS4として説明を行う。
図6は、投写領域を複数の領域に分割し、外部装置から供給された映像ソースの映像を、分割された領域へ投写する処理の流れを示したフローチャートである。制御部110は、予め定められた特定の操作が行われると、投写領域を分割する処理を行う。本実施形態においては、予め定められた特定の操作(第1操作)は、「投写面に二本の指で触れる→二本の指を投写面から離す→二本の指を再度投写面に接触させる→所定時間を超えて二本の指を投写面に接触させたままにする」という操作である。制御部110は、撮像部170から供給される画像信号を解析し、予め定められた特定の操作がユーザーにより行われたか判断する。
第1テーブルが図3に示した状態である場合、第1テーブルに従って、第1領域A1に第1映像ソースS1の映像が投写され、第2領域A2に第2映像ソースS2の映像が投写され、第3領域A3に第3映像ソースS3の映像が投写され、第4領域A4に第4映像ソースS4の映像が投写されるように、映像処理部150を制御する。
図9は、分割された領域に投写されている映像を交換する処理の流れを示したフローチャートである。制御部110は、投写領域が分割されている状態において、予め定められた特定の操作が行われると、2つの領域に投写されている映像を交換する処理を行う。本実施形態においては、分割された領域に投写されている映像を交換する処理を開始する契機となる特定の操作(第3操作)は、「投写面に三本の指で触れる→三本の指を投写面から離す→三本の指を再度投写面に接触させる→所定時間を超えて三本の指を投写面に接触させたままにする」という操作である。制御部110は、撮像部170から供給される画像信号を解析し、予め定められた特定の操作がユーザーの指により行われたか判断する。
例えば、投写領域が4つに分割されているときの分割位置の座標を(a、b)とし、第1座標を(c、d)とすると、制御部110は、c<aであり、d<bである場合、第1領域A1を第1の交換領域として特定し、c≧aであり、d<bである場合、第2領域A2を第1の交換領域として特定し、c<aであり、d≧bである場合、第3領域A3を第1の交換領域として特定し、c≧aであり、d≧bである場合、第4領域A4を第1の交換領域として特定する。
また、投写領域が4つに分割されているときの分割位置の座標を(a、b)とし、第2座標を(e、f)とすると、制御部110は、e<aであり、f<bである場合、第1領域A1を第2の交換領域として特定し、e≧aであり、f<bである場合、第2領域A2を第2の交換領域として特定し、e<aであり、f≧bである場合、第3領域A3を第2の交換領域として特定し、e≧aであり、f≧bである場合、第4領域A4を第2の交換領域として特定する。
例えば、投写領域が4つに分割されており、第1の交換領域が第1領域A1であり、第2の交換領域が第4領域A4である場合、制御部110は、第1テーブルにおいて第1領域に対応付けられている映像ソースと、第1テーブルにおいて第4領域に対応付けられている映像ソースとを交換する。これにより、第1テーブルにおいては、第1領域に第4映像ソースS4が対応付けられ、第4領域に第1映像ソースS1が対応付けられる。制御部110は、更新された第1テーブルに格納されている情報に従って、左上の第1領域A1に第4映像ソースS4が投写され、右上の第2領域に第2映像ソースS2が投写され、左下の第3領域に第3映像ソースS3が投写され、右下の第4領域A4に第1映像ソースS1が投写されるように、映像処理部150を制御する。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した各実施形態及び以下の変形例は、一つ又は複数を適宜組み合わせて実施してもよい。
例えば、4つのコネクターのうち映像ソースが供給されているコネクターが2つあり、映像ソースが供給されていないコネクターが2つある場合、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標が0<b<hであっても、投写領域を上下又は左右の2つに分割し、分割された領域に、コネクターに供給されている映像ソースの映像を投写するようにしてもよい。
また、4つのコネクターのうち映像ソースが供給されているコネクターが3つあり、映像ソースが供給されていないコネクターが1つある場合、分割位置Posの左右方向の座標が0<a<wであり、分割位置Posの上下方向の座標が0<b<hの場合、投写領域を3つに分割し、分割された領域に、コネクターに供給されている映像ソースの映像を投写するようにしてもよい。投写領域を3つに分割する場合、例えば、図10の(a)〜(d)のいずれかの状態に分割するようにしてもよい。
例えば、指示体20の位置に応じて画面に描画を行う機能を実行していない状態において、「投写面に指示体20で触れる→指示体20を投写面から離す→指示体20を再度投写面に接触させる→所定時間を超えて指示体20を投写面に接触させたままにする」という操作が行われると、制御部110は、指示体20が接している位置に基づいて投写領域を分割するようにしてもよい。
また、指示体20に位置に応じて画面に描画を行う機能を実行していない状態において、指示体20を投写面に接触させたまま螺旋状に指示体20を動かすと、指示体20が接している位置に基づいて投写領域を分割するようにしてもよく、また、螺旋状に限定されず、投写面上において特定の文字や記号を書くように指示体20を動かすと、指示体20が接している位置に基づいて投写領域を分割するようにしてもよい。
また、指示体20にボタンを設け、ボタンが押されていると、指示体20からプロジェクター10へボタンが押されていることを表す信号を無線通信で送信し、プロジェクター10は、この信号を受信すると、投写面上における指示体20の位置を検知し、検知した位置に基づいて投写領域を分割してもよい。
また、分割された領域に投写されている映像を交換する処理を実行する契機となる動作についても、指による操作に限定されるものではなく、指示体20による操作であってもよい。
Claims (8)
- 複数の映像信号を取得する映像取得部と、
前記映像取得部が取得した映像信号が表す映像を表示する表示部と、
前記表示部で表示された画面上で指示体が指示した位置を検知する位置検知部と、
前記位置検知部が検知した位置に応じて前記画面内に描画を行う描画部と、
前記画面上で前記指示体によって行われた操作を検知する操作検知部と、
前記操作検知部により第1操作が検知された場合、前記表示部が表示する画面を前記位置検知部が検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ前記映像取得部が取得した映像信号が表す映像を割り振る画面分割部と
を備える表示装置。 - 前記画面分割部は、前記画面が分割されている状態において前記操作検知部が第2操作を検知した後に、前記位置検知部が検知した位置が変化した場合、変化後の位置に追従して前記複数領域の大きさを変更する
請求項1に記載の表示装置。 - 前記第1操作と前記第2操作のいずれかは、前記指示体を前記画面へ複数回接触させる操作である
請求項2に記載の表示装置。 - 前記画面分割部は、前記位置検知部が検知した位置に応じて前記複数領域の数を決定する
請求項1から請求項3のいずれか一項に記載の表示装置。 - 前記画面分割部は、前記映像取得部が取得した映像信号の数に応じて、前記複数領域の数を決定する
請求項1から請求項4のいずれか一項に記載の表示装置。 - 前記画面が分割されている状態において前記操作検知部が第3操作を検知した場合、前記画面分割部は、前記指示体が指示した第1位置に表示されている映像と、前記指示体が指示した第2位置に表示されている映像とを入れ替える
請求項1から請求項5のいずれか一項に記載の表示装置。 - 前記描画部は、前記操作検知部により検知された操作については、前記指示体の位置に応じた描画を行わない
請求項1から請求項6のいずれか一項に記載の表示装置。 - 表示部で表示された画面上で指示体が指示した位置を検知する位置検知ステップと、
前記位置検知ステップで検知した位置に応じて前記画面内に描画を行う描画ステップと、
前記画面上で前記指示体によって行われた操作を検知する操作検知ステップと、
前記操作検知ステップで第1操作が検知された場合、前記表示部が表示する画面を前記位置検知ステップで検出した位置に応じて複数領域に分割し、当該複数領域が互いに異なる映像を表示するように、各領域へ映像取得部が取得した複数の映像信号が表す映像を割り振る画面分割ステップと
を備える表示制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015042684A JP2016161869A (ja) | 2015-03-04 | 2015-03-04 | 表示装置及び表示制御方法 |
PCT/JP2016/000785 WO2016139902A1 (ja) | 2015-03-04 | 2016-02-16 | 表示装置及び表示制御方法 |
US15/555,032 US20180039407A1 (en) | 2015-03-04 | 2016-02-16 | Display device and display control method |
CN201680012712.2A CN107430838A (zh) | 2015-03-04 | 2016-02-16 | 显示装置和显示控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015042684A JP2016161869A (ja) | 2015-03-04 | 2015-03-04 | 表示装置及び表示制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016161869A true JP2016161869A (ja) | 2016-09-05 |
JP2016161869A5 JP2016161869A5 (ja) | 2018-03-08 |
Family
ID=56845152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015042684A Pending JP2016161869A (ja) | 2015-03-04 | 2015-03-04 | 表示装置及び表示制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20180039407A1 (ja) |
JP (1) | JP2016161869A (ja) |
CN (1) | CN107430838A (ja) |
WO (1) | WO2016139902A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110780799B (zh) * | 2019-10-21 | 2021-04-30 | 湖南新云网科技有限公司 | 一种信息显示控制方法、装置及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010250465A (ja) * | 2009-04-14 | 2010-11-04 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
WO2011013400A1 (ja) * | 2009-07-30 | 2011-02-03 | シャープ株式会社 | 携帯型表示装置およびその制御方法、プログラム、記録媒体 |
JP2012194915A (ja) * | 2011-03-17 | 2012-10-11 | Seiko Epson Corp | 画像表示システム |
WO2013051052A1 (ja) * | 2011-10-03 | 2013-04-11 | 古野電気株式会社 | 情報表示装置、情報表示方法及び情報表示プログラム |
JP2013535724A (ja) * | 2010-07-16 | 2013-09-12 | クアルコム,インコーポレイテッド | 投影されたユーザインターフェースと対話するための方法およびシステム |
JP2013257686A (ja) * | 2012-06-12 | 2013-12-26 | Sony Corp | 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム |
JP2014132427A (ja) * | 2013-01-07 | 2014-07-17 | Sony Corp | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8297758B2 (en) * | 2007-02-20 | 2012-10-30 | Daegu Gyeongbuk Institute Of Science And Technology | Multimedia player displaying 2 projection images |
JP5432288B2 (ja) * | 2008-12-31 | 2014-03-05 | エスティー‐エリクソン、ソシエテ、アノニム | 同期ofdmシステムにおける干渉基地局の干渉相殺のためのプロセスおよびレシーバ |
JP5673191B2 (ja) * | 2011-02-21 | 2015-02-18 | セイコーエプソン株式会社 | インタラクティブシステム、位置情報変換方法、およびプロジェクター |
US9315479B2 (en) * | 2012-07-13 | 2016-04-19 | Basf Se | Process for preparing pyrrolidine |
JP2014127184A (ja) * | 2012-12-27 | 2014-07-07 | Toshiba Corp | 情報処理装置および表示制御方法 |
US10025420B2 (en) * | 2013-12-05 | 2018-07-17 | Huawei Device (Dongguan) Co., Ltd. | Method for controlling display of touchscreen, and mobile device |
KR102297330B1 (ko) * | 2015-01-16 | 2021-09-02 | 삼성전자주식회사 | 화면 제어 방법 및 그 방법을 처리하는 전자 장치 |
-
2015
- 2015-03-04 JP JP2015042684A patent/JP2016161869A/ja active Pending
-
2016
- 2016-02-16 WO PCT/JP2016/000785 patent/WO2016139902A1/ja active Application Filing
- 2016-02-16 CN CN201680012712.2A patent/CN107430838A/zh active Pending
- 2016-02-16 US US15/555,032 patent/US20180039407A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010250465A (ja) * | 2009-04-14 | 2010-11-04 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
WO2011013400A1 (ja) * | 2009-07-30 | 2011-02-03 | シャープ株式会社 | 携帯型表示装置およびその制御方法、プログラム、記録媒体 |
JP2013535724A (ja) * | 2010-07-16 | 2013-09-12 | クアルコム,インコーポレイテッド | 投影されたユーザインターフェースと対話するための方法およびシステム |
JP2012194915A (ja) * | 2011-03-17 | 2012-10-11 | Seiko Epson Corp | 画像表示システム |
WO2013051052A1 (ja) * | 2011-10-03 | 2013-04-11 | 古野電気株式会社 | 情報表示装置、情報表示方法及び情報表示プログラム |
JP2013257686A (ja) * | 2012-06-12 | 2013-12-26 | Sony Corp | 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム |
JP2014132427A (ja) * | 2013-01-07 | 2014-07-17 | Sony Corp | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2016139902A1 (ja) | 2016-09-09 |
US20180039407A1 (en) | 2018-02-08 |
CN107430838A (zh) | 2017-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10228611B2 (en) | Projector, projection system, and control method of projector | |
JP6064319B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US10416813B2 (en) | Display system, display device, information processing device, and information processing method | |
CN103197778A (zh) | 显示装置、投影仪、显示系统以及设备的切换方法 | |
US10303307B2 (en) | Display system, information processing device, projector, and information processing method | |
US20150279336A1 (en) | Bidirectional display method and bidirectional display device | |
US20170270700A1 (en) | Display device, method of controlling display device, and program | |
JP2017111828A (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP6750268B2 (ja) | 表示装置及び表示装置の制御方法 | |
JP2016161869A (ja) | 表示装置及び表示制御方法 | |
JP6728849B2 (ja) | 表示装置及び表示装置の制御方法 | |
US11276372B2 (en) | Method of operation of display device and display device | |
CN107018393B (zh) | 投影仪和投影仪的控制方法 | |
JP6586891B2 (ja) | プロジェクター及びプロジェクターの制御方法 | |
JP2017068001A (ja) | 表示装置及び表示装置の制御方法 | |
US11016629B2 (en) | Display device, method for controlling display device, and display system | |
JP2016151924A (ja) | プロジェクター及びプロジェクターの制御方法 | |
JP6707945B2 (ja) | 表示装置及び表示装置の制御方法 | |
US20200145628A1 (en) | Projection apparatus and correcting method of display image | |
JP2017204162A (ja) | 表示装置及び表示方法 | |
JP2016186525A (ja) | 表示装置及び表示方法 | |
JP2020173327A (ja) | 表示方法および表示装置 | |
US20160259490A1 (en) | Display apparatus and display control method | |
JP2020173328A (ja) | 表示方法および表示装置 | |
JP2017169160A (ja) | プロジェクター、プロジェクターの制御方法、およびプロジェクションシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190510 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191112 |