JP6412778B2 - 映像装置、方法、およびプログラム - Google Patents

映像装置、方法、およびプログラム Download PDF

Info

Publication number
JP6412778B2
JP6412778B2 JP2014234955A JP2014234955A JP6412778B2 JP 6412778 B2 JP6412778 B2 JP 6412778B2 JP 2014234955 A JP2014234955 A JP 2014234955A JP 2014234955 A JP2014234955 A JP 2014234955A JP 6412778 B2 JP6412778 B2 JP 6412778B2
Authority
JP
Japan
Prior art keywords
display
operation image
area
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014234955A
Other languages
English (en)
Other versions
JP2016099740A (ja
Inventor
達雄 新垣
達雄 新垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Visual Solutions Corp
Original Assignee
Toshiba Visual Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Visual Solutions Corp filed Critical Toshiba Visual Solutions Corp
Priority to JP2014234955A priority Critical patent/JP6412778B2/ja
Priority to US14/677,573 priority patent/US20160142624A1/en
Publication of JP2016099740A publication Critical patent/JP2016099740A/ja
Application granted granted Critical
Publication of JP6412778B2 publication Critical patent/JP6412778B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Description

本発明の実施形態は、映像装置、方法、およびプログラムに関する。
従来、自機器を操作するための操作画像を表示可能なタッチパネル機能を有する携帯型の電子機器が知られている。
特開2014−102796号公報
近年では、携帯型ではない大型の映像表示装置にタッチパネル機能を持たせる場合がある。この場合では、映像表示装置が大型である分、映像表示装置のタッチパネルを操作する際のユーザの負担が増大する。
実施形態による映像装置は、タッチパネルが設けられるディスプレイの表示領域に映像を表示可能な映像装置である。映像装置は、取得部と、検出処理部と、表示処理部とを備える。取得部は、表示領域に対向する領域を撮像するカメラから画像を取得するように構成されている。検出処理部は、取得された画像に基づいて、表示領域に対向するユーザの顔の位置を検出するように構成されている。表示処理部は、表示領域に映像装置を操作するための操作画像が表示されている場合に、検出処理部による検出結果に基づいて、表示領域が仮想的に分割されることで構成される予め決められた位置に存在する複数の領域のうちユーザの顔の位置に最も近い1つの領域に対応する第1領域であって、表示領域の一部の第1領域に、操作画像が縮小された縮小操作画像を表示するように構成されている。表示処理部は、縮小操作画像の全体を第1領域内に表示し、縮小操作画像へのタッチパネルを介したユーザの操作が終了してから所定時間が経過した場合に、第1領域に縮小操作画像が表示された状態から、表示領域に操作画像が表示された状態にディスプレイを切り替え、操作画像の縦横比と縮小操作画像の縦横比とを一致させ、かつ、操作画像の画面レイアウトと縮小操作画像の画面レイアウトとを一致させる。
図1は、実施形態による映像装置の外観構成を示した例示図である。 図2は、実施形態による映像装置のハードウェア構成を示した例示ブロック図である。 図3は、実施形態による映像装置のCPUが実行するプログラムの機能的構成を示した例示ブロック図である。 図4は、実施形態による映像装置とユーザとの位置関係の例を示した例示図である。 図5は、実施形態による映像装置の横長に配置されたディスプレイに表示されたホーム画面を示した例示図である。 図6Aは、実施形態による映像装置の横長に配置されたディスプレイの左側の領域に表示された縮小ホーム画面を示した例示図である。 図6Bは、実施形態による映像装置の横長に配置されたディスプレイの中央の領域に表示された縮小ホーム画面を示した例示図である。 図6Cは、実施形態による映像装置の横長に配置されたディスプレイの右側の領域に表示された縮小ホーム画面を示した例示図である。 図7は、実施形態による実施形態による映像装置の縦長に配置されたディスプレイに表示されるホーム画面を示した例示図である。 図8Aは、実施形態による映像装置の縦長に配置されたディスプレイの左側の領域に表示された縮小ホーム画面を示した例示図である。 図8Bは、実施形態による映像装置の縦長に配置されたディスプレイの中央の領域に表示された縮小ホーム画面を示した例示図である。 図8Cは、実施形態による映像装置の縦長に配置されたディスプレイの右側の領域に表示された縮小ホーム画面を示した例示図である。 図9は、実施形態による映像装置の横長に配置されたディスプレイに表示されたキーボード画面を示した例示図である。 図10は、実施形態による映像装置の縦長に配置されたディスプレイに表示されたキーボード画面を示した例示図である。 図11は、実施形態による映像装置のディスプレイに表示されたメニューバーを示した例示図である。 図12は、実施形態による映像装置のホーム画面が携帯端末に表示された例を示した例示図である。 図13は、実施形態による携帯端末のハードウェア構成を示した例示ブロック図である。 図14は、実施形態による携帯端末のCPUが実行するプログラムの機能的構成を示した例示ブロック図である。 図15は、実施形態による映像装置が縮小操作画像を表示する際に実行する一連の処理を示した例示フローチャートである。 図16は、実施形態による映像装置が縮小操作画像の表示位置および大きさを変更する際に実行する一連の処理を示した例示フローチャートである。 図17は、実施形態による映像装置が縮小操作画像の表示を解除する際に実行する一連の処理を示した例示フローチャートである。 図18は、実施形態による映像装置が縮小操作画像のデフォルトの表示位置および大きさを設定する際に実行する一連の処理を示した例示フローチャートである。 図19は、実施形態による携帯端末が映像装置から受信した画像データに基づく画像を表示する際に実行する一連の処理を示した例示フローチャートである。 図20は、実施形態による携帯端末が映像装置に操作情報を送信する際に実行する一連の処理を示した例示フローチャートである。
以下、実施形態を図面に基づいて説明する。
まず、図1を参照して、実施形態による映像装置100の外観構成について説明する。
図1に示すように、映像装置100は、動画や静止画などの映像を表示可能な表示モジュール101を備えている。映像装置100とは、たとえばテレビジョンやコンピュータ用モニタなどの映像表示装置である。また、以下で説明する映像装置100は、大型の映像表示装置である。
次に、図2を参照して、映像装置100のハードウェア構成についてより具体的に説明する。
図2に示すように、映像装置100は、表示モジュール101と、カメラI/F(インターフェース)102と、通信部103と、受光部104と、グラフィクスコントローラ105と、タッチパネルコントローラ106と、CPU(Central Processing Unit)107と、メモリ108と、ストレージ109とを主として備える。
表示モジュール101は、ディスプレイ101Aとタッチパネル101Bとを組み合わせた、いわゆるタッチスクリーンデバイスである。ディスプレイ101Aは、たとえば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどである。タッチパネル101Bは、ユーザの指やスタイラスなどによってタッチされた、ディスプレイ101Aの表示領域内の位置(タッチ位置)を検出するように構成されている。
カメラI/F102は、カメラ200に接続されるインターフェースである。ここで、カメラ200は、映像装置100に取り付けられる、たとえばwebカメラなどの撮像デバイスである。カメラ200は、ディスプレイ101Aの表示領域に対向する領域を撮像するように構成されている(後述の図4参照)。通信部103は、他の機器(後述する携帯端末400など)との間でデータを送受信するためのインターフェースである。受光部104は、映像装置100を操作するためのリモートコントローラ150からの赤外線信号を受光するように構成されている。
グラフィクスコントローラ105は、ディスプレイ101Aへの映像出力を制御するように構成されている。タッチパネルコントローラ106は、タッチパネル101Bを制御し、ユーザがタッチした表示領域内のタッチ位置を示す座標データを取得するように構成されている。
CPU107は、各種コンピュータプログラムを実行することにより、映像装置100の各コンポーネントを制御するように構成されている。メモリ108は、主記憶装置としてのROM(Read Only Memory)およびRAM(Random Access Memory)を備え、CPU107が実行する各種処理に用いられる各種コンピュータプログラムや各種データなどを記憶するように構成されている。ストレージ109は、補助記憶装置としてのHDD(Hard Disk Drive)やSSD(Solid State Drive)などを備える。
ここで、CPU107は、図3に示すようなプログラム300を実行するように構成されている。このプログラム300は、次のようなモジュール構成となっている。
図3に示すように、プログラム300は、カメラ制御部301と、検出処理部302と、表示処理部303と、設定処理部304と、入力制御部305と、通信制御部306とを主として備える。これらの各モジュールは、映像装置100のCPU107がメモリ108のROMからプログラム300を読み出して実行した結果としてメモリ108のRAM上に生成される。
カメラ制御部301は、カメラI/F102に接続されたカメラ200を制御するように構成されている。たとえば、カメラ制御部301は、カメラ200の光源を制御したり、カメラ200により撮像された画像をカメラ200から取得したりするように構成されている。なお、カメラ制御部301は、「取得部」の一例である。
検出処理部302は、撮像された画像に基づいて、ディスプレイ101Aの表示領域に対向するユーザの顔の位置を検出するように構成されている。より具体的には、検出処理部302は、撮像された画像にユーザの顔が含まれているか否かを検出し、撮像された画像にユーザの顔が含まれている場合に、ユーザの顔の位置を検出するように構成されている。
たとえば、図4に示すように、ディスプレイ101Aの表示領域に対向する位置にユーザの顔が位置している場合には、カメラ200により撮像された画像には、ユーザの顔が含まれる。図4は、表示領域を3つの領域R1〜R3に分割した場合に、左側の領域R1に対向するユーザ(実線参照)と、中央の領域R2に対向するユーザ(一点鎖線参照)と、右側の領域R3に対向するユーザ(二点鎖線参照)とを模式的に示している。検出処理部302は、撮像された画像にユーザの顔が含まれている場合に、その顔の大きさなどに基づいて、ユーザと表示領域との間の距離D(図4参照)を検出することが可能なように構成されている。なお、検出処理部302は、撮像された画像に複数のユーザの複数の顔が含まれている場合、それら複数のユーザのうち表示領域に最も近いユーザの顔の位置を検出対象とするように構成されている。
図3に戻り、表示処理部303は、ディスプレイ101Aに映像を出力する処理を行うように構成されている。たとえば、表示処理部303は、映像装置100を操作するための操作画像をディスプレイ101Aに表示することが可能なように構成されている。操作画像とは、タッチパネル101Bを介したユーザの入力操作を受け付けるための画像である。操作画像は、ディスプレイ101Aの表示領域いっぱいに表示される。
操作画像の一例としては、ホーム画面が挙げられる。ホーム画面とは、映像装置100にインストールされた1以上のアプリケーションを起動するための1以上のアイコンが表示された、たとえば図5に示すような基本画面である。図5のホーム画面IM1には、映像装置100にインストールされた複数のアプリケーションを起動するための複数のアイコンI1が表示されている。
ここで、実施形態による表示処理部303は、ディスプレイ101Aの表示領域に上記のような操作画像が表示されている場合に、検出処理部302による検出結果に基づいて、表示領域の一部の領域であって、ユーザの顔の位置に対応する領域(第1領域)に、操作画像が縮小された縮小操作画像を表示するように構成されている。また、表示処理部303は、ユーザとディスプレイ101Aとの間の距離がしきい値以下になったことが確認された場合に、第1領域に縮小操作画像を表示するように構成されている。
たとえば、図5のホーム画面IM1がディスプレイ101Aに表示されている状態でユーザが表示領域の左側の領域R1に近づいた場合、表示処理部303は、図6Aに示すように、ホーム画面IM1が縮小された縮小ホーム画面IM1aを領域R1内の所定の位置に所定の大きさで表示するように構成されている。
また、たとえば図5のホーム画面IM1がディスプレイ101Aに表示されている状態でユーザが表示領域の中央の領域R2に近づいた場合、表示処理部303は、図6Bに示すように、ホーム画面IM1が縮小された縮小ホーム画面IM1aを領域R2内の所定の位置に所定の大きさで表示するように構成されている。
さらに、たとえば図5のホーム画面IM1がディスプレイ101Aに表示されている状態でユーザが表示領域の右側の領域R3に近づいた場合、表示処理部303は、図6Cに示すように、ホーム画面IM1が縮小された縮小ホーム画面IM1aを領域R3内の所定の位置に所定の大きさで表示するように構成されている。
なお、図6A〜図6Cの例では、表示領域を3つの領域R1〜R3に分割し、3つの領域R1〜R3のうちユーザの顔の位置に最も近い1つの領域に縮小ホーム画面IM1aが表示されている。しかしながら、実施形態では、表示領域を4つ以上の領域により細かく分割し、それら4つ以上の領域のうちユーザの顔の位置に最も近い1つの領域に縮小ホーム画面IM1aが表示されてもよい。また、実施形態では、図6A〜図6Cの点線で示す分割線は、実際に表示されるものではない。
また、図6A〜図6Cの例では、縮小ホーム画面IM1aが、領域R1〜R3の左右方向の中央部でかつ下側の位置に表示されているが、実施形態では、検出処理部302により検出されたユーザの顔の位置を利用して、領域R1〜R3内でユーザの顔に最も近い位置に寄せて縮小ホーム画面IM1aを表示してもよい。また、実施形態では、縮小ホーム画面IM1aのデフォルトの表示位置は、ユーザが任意に設定可能である。同様に、実施形態では、縮小ホーム画面IM1aのデフォルトの大きさは、ユーザが任意に設定可能である。なお、表示位置の設定には、左右方向(映像装置100の幅方向)の位置の設定のみならず、上下方向(映像装置100の高さ方向)の位置の設定も含まれる。
また、実施形態では、縮小ホーム画面IM1aの表示位置および大きさは、縮小ホーム画面IM1aが表示された後に変更することも可能である。たとえば、ユーザは、縮小ホーム画面IM1aに対応するタッチパネル101Bの部分をタッチしながらスワイプ(ドラッグ)操作を行ったり、フリック操作を行ったり、ピンチ操作を行ったりすることにより、縮小ホーム画面IM1aの表示位置および大きさを変更することができる。つまり、ユーザは、スワイプ操作またはフリック操作によって縮小ホーム画面IM1aを左右方向および上下方向に移動させることが可能である(図6Aの一点鎖線参照)。また、ユーザは、ピンチアウト操作によって縮小ホーム画面IM1aを拡大することができるとともに(図6Bの符号IM1b参照)、ピンチイン操作によって縮小ホーム画面IM1aを縮小することができる(図6Bの符号IM1c参照)。このように、実施形態による表示処理部303は、縮小ホーム画面IM1aの表示位置および大きさを、タッチパネル101Bを介したユーザの操作に応じて変更するように構成されている。なお、縮小ホーム画面IM1aの表示位置は、1つの領域R1、R2またはR3内で移動され得るのみならず、領域R1〜R3を跨って移動され得る。たとえば、図6Cの例に示すように、縮小ホーム画面IM1aは、領域R3から領域R2を超えて領域R1まで移動され得る。
図5および図6A〜図6Cの例では、横長に配置されたディスプレイ101Aにホーム画面IM1aが表示されたが、実施形態では、図7に示すように、縦長に配置されたディスプレイ101Aにもホーム画面IM2が表示され得る。この縦長のホーム画面IM2も、図5の横長のホーム画面IM1と同様に、映像装置100にインストールされた複数のアプリケーションを起動するための複数のアイコンI2が表示されている。
実施形態では、図7の縦長のホーム画面IM2は、図5および図6A〜図6Cの例と同様に、ユーザがディスプレイ101Aの表示領域に近づいた場合、表示領域の一部の、ユーザの顔の位置に対応する領域に縮小表示される。つまり、図7のホーム画面IM2がディスプレイ101Aに表示されている状態でユーザが表示領域に近づいた場合、表示処理部303は、図8A〜図8Cに示すように、ホーム画面IM2が縮小された縮小ホーム画面IM2aを、表示領域の一部の、ユーザの顔の位置に対応する領域R11〜R13に表示するように構成されている。これらの図8A〜図8Cの例において、表示領域を4つ以上に分割してもよい点や、縮小ホーム画面IM2aの表示位置および大きさを調整可能な点などは、上記の図6A〜図6Cの例と同様である。
なお、実施形態では、横長のホーム画面IM1(図5参照)は、横長の縮小ホーム画面IM1a(図6A〜図6C参照)として縮小され、縦長のホーム画面IM2(図7参照)は、縦長の縮小ホーム画面IM2a(図8A〜図8C参照)として縮小される。具体的には、ホーム画面IM1およびIM2(図5および図7参照)の縦横の比率と、縮小ホーム画面IM1aおよびIM2a(図6A〜図6Cおよび図8A〜図8C参照)の縦横の比率とは、互いに一致している。つまり、実施形態による表示処理部303は、ディスプレイ101Aの表示領域が縦長である場合、縮小操作画像を表示するための第1領域を縦長に形成し、ディスプレイ101Aの表示領域が横長である場合、縮小操作画像を表示するための第1領域を横長に形成するように構成されている。
また、実施形態では、上記のような縮小表示は、縮小操作画像へのタッチパネル101Bを介したユーザの操作が終了してから所定時間が経過した場合に解除される。つまり、実施形態による表示処理部303は、縮小操作画像へのタッチパネル101Bを介したユーザの操作が終了してから所定時間が経過した場合に、縮小操作画像の表示を解除して、表示領域いっぱいに元の操作画像を表示するように構成されている。また、実施形態では、上記のような縮小表示を自動で行う機能のオンオフを、ユーザの操作によって切り替えることができる。
さらに、実施形態では、操作画像の他の一例として、キーボード画面が挙げられる。キーボード画面とは、文字入力を行うためのソフトウェアキーボードを含む画面であり、たとえば図9および図10に示すような画面である。図9のキーボード画面IM3は、ソフトウェアキーボードIM3aを含む横長の画面であり、図10のキーボード画面IM4は、ソフトウェアキーボードIM4aを含む縦長の画面である。これらのキーボード画面IM3およびIM4も、上記のホーム画面IM1およびIM2と同様に、ユーザが表示領域に近づいた場合に、表示領域の一部の、ユーザの顔の位置に対応する第1領域に縮小表示され得る。
図3に戻り、設定処理部304は、上記の縮小操作画像(図6A〜図6Cおよび図8A〜図8C参照)のデフォルトの表示位置および大きさの設定を管理するように構成されている。また、入力制御部305は、ユーザの入力操作を検出するように構成されている。通信制御部306は、後述する携帯端末400との間で行われる通信部103を介したデータの送受信を制御するように構成されている。
なお、実施形態では、ディスプレイ101Aに操作画像以外の映像が表示されている状態でタッチパネル101Bをタッチすることにより、図11に示すようなメニューバーB1を表示させることが可能である。この図11のメニューバーB1には、ディスプレイ101Aの表示内容をホーム画面に切り替えるためのホームボタンB11と、ディスプレイ101Aの表示内容を1つ前の内容に戻すための戻るボタンB12と、ディスプレイ101Aの表示内容の履歴を表示するための履歴ボタンB13とが表示されている。図11の例では、ディスプレイ101Aが横長に配置されているので、ホームボタンB11がタッチされると、図5の横長のホーム画面IM1が表示される。なお、メニューバーB1は、図5および図7のホーム画面IM1およびIM2や、図6A〜図6Cおよび図8A〜図8Cの縮小ホーム画面IM1aおよびIM2aや、図9および図10のキーボード画面IM3およびIM4にも表示可能である。
実施形態による表示処理部303は、メニューバーB1のホームボタンB11がタッチされた場合、表示領域のうち、ホームボタンB11が表示されていた部分を含む領域にホーム画面を縮小表示するように構成されている。つまり、ホームボタンB11がタッチされるという事実は、ホームボタンB11に手が届く位置にユーザが存在するという事実を示すので、ホームボタンB11が表示されていた部分を含む領域にホーム画面を縮小表示すれば、ユーザが操作しやすい位置に、縮小されたホーム画面を表示することができる。
ここで、上記のような縮小操作画像を表示させるためには、ユーザがディスプレイ101Aに近づく必要がある。特に、ディスプレイ101Aに操作画像以外の他の映像が表示されている場合には、ディスプレイ101Aに近づいてメニューバーB1(図11参照)を表示させなければ、ホームボタンB11をタッチしてホーム画面を呼び出すことができない。
そこで、実施形態による通信制御部306は、ユーザとディスプレイ101Aとの間の距離がしきい値よりも大きい場合に、映像装置100を操作するための操作画像に対応する画像データを外部機器に送信するように構成されている。そして、外部機器は、受信した画像データに基づいて、自身が有する表示手段に、映像装置100の操作画像を表示することが可能なように構成されている。
具体的には、通信制御部306は、ユーザとディスプレイ101Aとの間の距離がしきい値よりも大きい場合であって、ディスプレイ101Aに現在表示されている画像が操作画像である場合に、その操作画像に対応する画像データを外部機器に送信するように構成されている。これにより、映像装置100に近づいて縮小操作画像を表示させることなく、外部機器に表示される画像を操作するだけで、映像装置100の操作画像を操作するのと同等の効果を得ることができる。
また、通信制御部306は、ユーザとディスプレイ101Aとの間の距離がしきい値よりも大きい場合であって、ディスプレイ101Aに現在表示されている画像が操作画像以外の他の映像である場合には、映像装置100のホーム画面に対応する画像データを外部機器に送信するように構成されている。これにより、映像装置100に近づいてホーム画面を呼び出す操作を行うことなく、外部機器に表示される画像を操作するだけで、映像装置100に操作画像以外の他の映像を表示させたままで映像装置100のホーム画面を操作するのと同等の効果を得ることができる。
上記の外部機器の一例としては、図12に示すような携帯端末400が挙げられる。携帯端末400とは、スマートフォンやタブレットなどの携帯型の情報処理装置(電子機器)である。この携帯端末400は、映像を表示可能な表示モジュール401を備える。なお、実施形態では、外部機器として、携帯型の情報処理装置以外の一般的な電子機器を用いてもよい。
ここで、図13を参照して、携帯端末400のハードウェア構成についてより具体的に説明する。
図13に示すように、携帯端末400は、表示モジュール401と、通信部402と、操作部403と、グラフィクスコントローラ404と、タッチパネルコントローラ405と、CPU406と、メモリ407と、ストレージ408とを主として備える。
表示モジュール401は、ディスプレイ401Aとタッチパネル401Bとを組み合わせた、いわゆるタッチスクリーンデバイスである。ディスプレイ401Aは、たとえば、LCDや有機ELディスプレイなどである。タッチパネル401Bは、ユーザの指やスタイラスなどによってタッチされた、ディスプレイ401Aの表示領域内のタッチ位置を検出するように構成されている。
通信部402は、他の機器(映像装置100など)との間でデータを送受信するためのインターフェースである。操作部403は、タッチパネル401Bとは別に携帯端末400を操作するための物理的なスイッチやボタンなどのデバイスである。グラフィクスコントローラ404は、ディスプレイ401Aへの映像出力を制御するように構成されている。タッチパネルコントローラ405は、タッチパネル401Bを制御し、ユーザがタッチした表示領域内のタッチ位置を示す座標データを取得するように構成されている。
CPU406は、各種コンピュータプログラムを実行することにより、携帯端末400の各コンポーネントを制御するように構成されている。メモリ407は、主記憶装置としてのROMおよびRAMを備え、CPU406が実行する各種処理に用いられる各種コンピュータプログラムや各種データなどを記憶するように構成されている。ストレージ408は、補助記憶装置としてのHDDやSSDなどを備える。
ここで、CPU406は、図14に示すようなプログラム500を実行するように構成されている。このプログラム500は、次のようなモジュール構成となっている。
図14に示すように、プログラム500は、通信制御部501と、表示処理部502と、入力制御部503とを備える。これらの各モジュールは、CPU406がメモリ407のROMからプログラム500を読み出して実行した結果としてメモリ407のRAM上に生成される。
通信制御部501は、映像装置100との間で行われる通信部402を介したデータの送受信を制御するように構成されている。たとえば、通信制御部501は、映像装置100のホーム画面に対応する画像データを映像装置100から取得するように構成されている。
表示処理部502は、ディスプレイ401Aに映像を出力する処理を行うように構成されている。たとえば、表示処理部502は、映像装置100のホーム画面に対応する画像データが通信制御部501により取得された場合に、取得された画像データに基づいて、映像装置100を操作するための画面IM5(図12参照)をディスプレイ401Aに表示するように構成されている。
入力制御部503は、ユーザの入力操作を検出するように構成されている。たとえば、入力制御部503は、図12の画面IM5上のアイコンをタッチする操作を検出した場合に、その操作に関する操作情報を通信制御部501に通知するように構成されている。この場合、通信制御部501は、入力制御部503から通知された操作情報を映像装置100に送信するように構成されている。これにより、携帯端末400の画面IM5を操作するだけで、映像装置100に近づくことなく、映像装置100の操作画像を操作するのと同等の効果を得ることができる。
次に、図15を参照して、実施形態による映像装置100が縮小操作画像を表示する際に実行する一連の処理について説明する。この図15の処理フローは、ユーザの操作によって図3のプログラム300が呼び出され、かつ、操作画像の縮小表示を自動で行う機能がオンになっている場合に開始する。
図15の処理フローでは、カメラ制御部301は、まず、ステップS1において、カメラ200により撮像された画像を取得する。そして、ステップS2に処理が進む。
ステップS2において、検出処理部302は、ステップS1で取得した画像に基づいて、ユーザの顔の位置と、ユーザとディスプレイ101Aとの間の距離を検出する。そして、ステップS3に処理が進む。
ステップS3において、検出処理部302は、ユーザとディスプレイ101Aとの間の距離がしきい値以下か否かを判断する。ステップS3において、ユーザとディスプレイ101Aとの間の距離がしきい値以下であると判断された場合には、ステップS4に処理が進む。
ステップS4において、表示処理部303は、ディスプレイ101Aに現在表示されている画像が操作画像か否かを判断する。操作画像としては、たとえば図5および図7のホーム画面IM1およびIM2や、図9および図10のキーボード画面IM3およびIM4などが挙げられる。
ステップS4において、現在表示されている画像が操作画像であると判断された場合には、ステップS5に処理が進む。そして、ステップS5において、表示処理部303は、表示領域の一部の、ユーザの顔の位置に対応する領域に縮小操作画像を表示する。そして、処理が終了する。なお、ステップS4において、現在表示されている画像が操作画像ではないと判断された場合には、ステップS5のような縮小表示処理は行われずに、そのまま処理が終了する。
ここで、ステップS3において、ユーザとディスプレイ101Aとの間の距離がしきい値よりも大きいと判断された場合には、ステップS6に処理が進む。そして、ステップS6において、通信制御部306は、ディスプレイ101Aに現在表示されている画像が操作画像か否かを判断する。
ステップS6において、現在表示されている画像が操作画像であると判断された場合には、ステップS7に処理が進む。そして、ステップS7において、通信制御部306は、現在表示されている操作画像に対応する画像データを携帯端末400に送信する。そして、処理が終了する。
一方、ステップS6において、現在表示されている画像が操作画像ではないと判断された場合には、ステップS8に処理が進む。そして、ステップS8において、通信制御部306は、現在は表示されていない映像装置100のホーム画面に対応する画像データを携帯端末400に送信する。そして、処理が終了する。
次に、図16を参照して、実施形態による映像装置100が縮小操作画像の表示位置および大きさを変更する際に実行する一連の処理について説明する。
図16の処理フローでは、表示処理部303は、まず、ステップS11において、ディスプレイ101Aに表示された縮小操作画像の表示位置および大きさを変更する操作が入力制御部305により検出されたか否かを判断する。つまり、表示処理部303は、縮小操作画像に対応するタッチパネル101Bの部分に対するスワイプ(ドラッグ)操作や、フリック操作や、ピンチ操作などが入力制御部305により検出されたか否かを判断する。
ステップS11の処理は、縮小操作画像の表示位置および大きさを変更する操作が検出されたと判断されるまで繰り返される。ステップS11において、縮小操作画像の表示位置および大きさを変更する操作が検出されたと判断された場合には、ステップS12に処理が進む。
ステップS12において、表示処理部303は、ステップS11で検出された操作に応じて、ディスプレイ101Aに表示された縮小操作画像の表示位置および大きさを変更する。そして、処理が終了する。
次に、図17を参照して、実施形態による映像装置100が縮小操作画像の表示を解除する際に実行する一連の処理について説明する。
図17の処理フローでは、表示処理部303は、まず、ステップS21において、縮小操作画像へのタッチパネル101Bを介したユーザの操作が最後に検出されてから所定時間が経過したか否かを判断する。
上記のステップS21の処理は、縮小操作画像へのユーザの操作が最後に検出されてから所定時間が経過したと判断されるまで繰り返される。ステップS21において、縮小操作画像へのユーザの操作が最後に検出されてから所定時間が経過したと判断された場合には、ステップS22に処理が進む。
ステップS22において、表示処理部303は、縮小操作画像の表示を解除し、ディスプレイ101Aの表示領域いっぱいに元の操作画像を表示する。そして、処理が終了する。
次に、図18を参照して、実施形態による映像装置100が縮小操作画像のデフォルトの表示位置および大きさを設定する際に実行する一連の処理について説明する。
図18の処理フローでは、設定処理部304は、まず、ステップS31において、縮小操作画像のデフォルトの表示位置および大きさを設定する操作が入力制御部305により検出されたか否かを判断する。
ステップS31の処理は、縮小操作画像のデフォルトの表示位置および大きさを設定する操作が検出されたと判断されるまで繰り返される。ステップS31において、縮小操作画像のデフォルトの表示位置および大きさを設定する操作が検出されたと判断された場合には、ステップS32に処理が進む。
ステップS32において、設定処理部304は、ステップS31で検出された操作に応じた設定を記憶する。そして、処理が終了する。
次に、図19を参照して、実施形態による携帯端末400が映像装置100から受信した画像データに基づく画像を表示する際に実行する一連の処理について説明する。この図19の処理フローは、ユーザの操作によって図14のプログラム500が呼び出された場合に開始する。
図19の処理フローでは、表示処理部502は、まず、ステップS41において、映像装置100から画像データが取得されたか否かを判断する。画像データは、ユーザと映像装置100のディスプレイ101Aとの間の距離がしきい値よりも大きい場合(図15のステップS3でNoになった場合)に、映像装置100から携帯端末400に送信される。
ステップS41の処理は、映像装置100から画像データが取得されたと判断されるまで繰り返される。ステップS41において、映像装置100から画像データが取得されたと判断された場合には、ステップS42に処理が進む。
ステップS42において、表示処理部502は、映像装置100から取得された画像データに対応する画像を、携帯端末400のディスプレイ401Aに表示する。そして、処理が終了する。
次に、図20を参照して、実施形態による携帯端末400が映像装置100に操作情報を送信する際に実行する一連の処理について説明する。
図20の処理フローでは、通信制御部501は、まず、ステップS51において、図19のステップS42でディスプレイ401Aに表示された、映像装置100を操作するための画像へのユーザの操作が入力制御部503により検出されたか否かを判断する。
ステップS51の処理は、ディスプレイ401Aに表示された画像へのユーザの操作が入力制御部503により検出されたと判断されるまで繰り返される。ステップS51において、ディスプレイ401Aに表示された画像へのユーザの操作が入力制御部503により検出されたと判断された場合には、ステップS52に処理が進む。
ステップS52において、通信制御部501は、ステップS51で検出された操作に対応する操作情報を映像装置100に送信する。これにより、映像装置100のディスプレイ101Aに近づくことなく、携帯端末400を用いて遠隔で映像装置100を操作することができる。そして、処理が終了する。
以上説明したように、実施形態による映像装置100のCPU107は、プログラム300を実行することにより、ディスプレイ101Aの表示領域に対向するユーザの顔の位置を検出する検出処理部302と、表示領域に操作画像が表示されている場合に、検出処理部302による検出結果に基づいて、表示領域の一部の領域であって、ユーザの顔の位置に対応する領域(第1領域)に、操作画像が縮小された縮小操作画像を表示する表示処理部303とを備える。これにより、映像装置100を操作するための操作画像が、ユーザに近い位置に、ユーザが操作しやすい大きさで縮小表示されるので、タッチパネル機能を有する大型の映像表示装置である映像装置100を操作する際のユーザの負担を軽減することができる。
なお、実施形態によるプログラム300(500)は、インストール可能な形式または実行可能な形式のコンピュータプログラムプロダクトとして提供される。すなわち、プログラム300(500)は、CD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)などの、非一時的で、コンピュータで読み取り可能な記録媒体を有するコンピュータプログラムプロダクトに含まれた状態で提供される。
上記のプログラム300(500)は、インターネットなどのネットワークに接続されたコンピュータに格納された状態で、ネットワーク経由で提供または配布されてもよい。また、プログラム300(500)は、ROMなどに予め組み込まれた状態で提供されてもよい。
以上、本発明の実施形態および変形例を説明したが、上記実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上記実施形態および変形例は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態および変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 映像装置
101A ディスプレイ
101B タッチパネル
301 カメラ制御部(取得部)
302 検出処理部
303 表示処理部
IM1、IM2 ホーム画面(操作画像)
IM1a、IM2a 縮小ホーム画面(縮小操作画像)
IM3、IM4 キーボード画面(操作画像)

Claims (12)

  1. タッチパネルが設けられるディスプレイの表示領域に映像を表示可能な映像装置であって、
    前記表示領域に対向する領域を撮像するカメラから画像を取得する取得部と、
    取得された前記画像に基づいて、前記表示領域に対向するユーザの顔の位置を検出する検出処理部と、
    前記表示領域に前記映像装置を操作するための操作画像が表示されている場合に、前記検出処理部による検出結果に基づいて、前記表示領域が仮想的に分割されることで構成される複数の予め決められた位置に存在する複数の領域のうち前記ユーザの顔の位置に最も近い1つの領域に対応する第1領域であって、前記表示領域の一部の第1領域に、前記操作画像が縮小された縮小操作画像を表示する表示処理部とを備え
    前記表示処理部は、
    前記縮小操作画像の全体を前記第1領域内に表示し、
    前記縮小操作画像への前記タッチパネルを介したユーザの操作が終了してから所定時間が経過した場合に、前記第1領域に前記縮小操作画像が表示された状態から、前記表示領域に前記操作画像が表示された状態に前記ディスプレイを切り替え、
    前記操作画像の縦横比と前記縮小操作画像の縦横比とを一致させ、かつ、前記操作画像の画面レイアウトと前記縮小操作画像の画面レイアウトとを一致させる、映像装置。
  2. 前記表示処理部は、前記ユーザと前記ディスプレイとの間の距離がしきい値以下になったことが前記取得された画像に基づいて確認された場合に、前記第1領域に前記縮小操作画像を表示するように構成されている、請求項1に記載の映像装置。
  3. 前記表示処理部は、前記縮小操作画像の表示位置および大きさを、前記縮小操作画像への前記タッチパネルを介したユーザの操作に応じて変更するように構成されている、請求項1または2に記載の映像装置。
  4. 前記表示処理部は、前記表示領域が縦長である場合、前記第1領域を縦長に形成し、前記表示領域が横長である場合、前記第1領域を横長に形成するように構成されている、請求項1〜のいずれか1項に記載の映像装置。
  5. タッチパネルが設けられるディスプレイの表示領域に映像を表示可能な映像装置で実行される方法であって
    前記表示領域に対向する領域を撮像するカメラから画像を取得することと、
    取得された前記画像に基づいて、前記表示領域に対向するユーザの顔の位置を検出することと、
    前記表示領域に前記映像装置を操作するための操作画像が表示されている場合に、前記ユーザの顔の位置の検出結果に基づいて、前記表示領域が仮想的に分割されることで構成される複数の予め決められた位置に存在する複数の領域のうち前記ユーザの顔の位置に最も近い1つの領域に対応する第1領域であって、前記表示領域の一部の第1領域に、前記操作画像が縮小された縮小操作画像を表示することとを備え
    前記縮小操作画像の全体を前記第1領域内に表示し、
    前記縮小操作画像への前記タッチパネルを介したユーザの操作が終了してから所定時間が経過した場合に、前記第1領域に前記縮小操作画像が表示された状態から、前記表示領域に前記操作画像が表示された状態に前記ディスプレイを切り替え、
    前記操作画像の縦横比と前記縮小操作画像の縦横比とを一致させ、かつ、前記操作画像の画面レイアウトと前記縮小操作画像の画面レイアウトとを一致させる、方法。
  6. 前記ユーザと前記ディスプレイとの間の距離がしきい値以下になったことが前記取得された画像に基づいて確認された場合に、前記第1領域に前記縮小操作画像を表示することを備える、請求項に記載の方法。
  7. 前記縮小操作画像の表示位置および大きさを、前記縮小操作画像への前記タッチパネルを介したユーザの操作に応じて変更することを備える、請求項5または6に記載の方法。
  8. 前記表示領域が縦長である場合、前記第1領域を縦長に形成し、前記表示領域が横長である場合、前記第1領域を横長に形成することを備える、請求項5〜7のいずれか1項に記載の方法。
  9. タッチパネルが設けられるディスプレイの表示領域に映像を表示可能な映像装置のコンピュータに、
    前記表示領域に対向する領域を撮像するカメラから画像を取得することと、
    取得された前記画像に基づいて、前記表示領域に対向するユーザの顔の位置を検出することと、
    前記表示領域に前記映像装置を操作するための操作画像が表示されている場合に、前記ユーザの顔の位置の検出結果に基づいて、前記表示領域が仮想的に分割されることで構成される複数の予め決められた位置に存在する複数の領域のうち前記ユーザの顔の位置に最も近い1つの領域に対応する第1領域であって、前記表示領域の一部の第1領域に、前記操作画像が縮小された縮小操作画像を表示することとを実行させるためのプログラムであって、
    前記縮小操作画像の全体を前記第1領域内に表示し、
    前記縮小操作画像への前記タッチパネルを介したユーザの操作が終了してから所定時間が経過した場合に、前記第1領域に前記縮小操作画像が表示された状態から、前記表示領域に前記操作画像が表示された状態に前記ディスプレイを切り替え、
    前記操作画像の縦横比と前記縮小操作画像の縦横比とを一致させ、かつ、前記操作画像の画面レイアウトと前記縮小操作画像の画面レイアウトとを一致させることを前記コンピュータに実行させる、プログラム。
  10. 前記ユーザと前記映像装置との間の距離がしきい値以下になったことが前記取得された画像に基づいて確認された場合に、前記第1領域に前記縮小操作画像を表示することを前記コンピュータに実行させるための、請求項に記載のプログラム。
  11. 前記縮小操作画像の表示位置および大きさを、前記縮小操作画像への前記タッチパネルを介したユーザの操作に応じて変更することを前記コンピュータに実行させるための、請求項9または10に記載のプログラム。
  12. 前記表示領域が縦長である場合、前記第1領域を縦長に形成し、前記表示領域が横長である場合、前記第1領域を横長に形成することを前記コンピュータに実行させるための、請求項9〜11のいずれか1項に記載のプログラム。
JP2014234955A 2014-11-19 2014-11-19 映像装置、方法、およびプログラム Active JP6412778B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014234955A JP6412778B2 (ja) 2014-11-19 2014-11-19 映像装置、方法、およびプログラム
US14/677,573 US20160142624A1 (en) 2014-11-19 2015-04-02 Video device, method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014234955A JP6412778B2 (ja) 2014-11-19 2014-11-19 映像装置、方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018186900A Division JP6603383B2 (ja) 2018-10-01 2018-10-01 映像装置、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2016099740A JP2016099740A (ja) 2016-05-30
JP6412778B2 true JP6412778B2 (ja) 2018-10-24

Family

ID=52874950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014234955A Active JP6412778B2 (ja) 2014-11-19 2014-11-19 映像装置、方法、およびプログラム

Country Status (2)

Country Link
US (1) US20160142624A1 (ja)
JP (1) JP6412778B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7013808B2 (ja) * 2017-11-15 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
JP7102175B2 (ja) * 2018-03-14 2022-07-19 株式会社東芝 表示装置
JP6578044B1 (ja) * 2018-07-18 2019-09-18 株式会社Epark 順番管理システム、順番管理方法及び順番管理プログラム
CN111093027B (zh) * 2019-12-31 2021-04-13 联想(北京)有限公司 一种显示方法及电子设备
CN113992540B (zh) * 2021-11-01 2023-06-16 创盛视联数码科技(北京)有限公司 设备检测方法及电子设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008268327A (ja) * 2007-04-17 2008-11-06 Sharp Corp 情報表示装置
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
JP4907483B2 (ja) * 2007-09-28 2012-03-28 パナソニック株式会社 映像表示装置
EP2333652B1 (en) * 2008-09-29 2016-11-02 Panasonic Intellectual Property Corporation of America Method and apparatus for improving privacy of users of a display device for several users wherein each user has a private space allocated to him
KR101694820B1 (ko) * 2010-05-07 2017-01-23 삼성전자주식회사 사용자 위치 인식 방법 및 장치
JP5606281B2 (ja) * 2010-11-08 2014-10-15 シャープ株式会社 表示装置
JP5648844B2 (ja) * 2010-12-21 2015-01-07 ソニー株式会社 画像表示制御装置および画像表示制御方法
JP2012242913A (ja) * 2011-05-16 2012-12-10 Nikon Corp 電子機器
JP5902444B2 (ja) * 2011-11-24 2016-04-13 京セラ株式会社 携帯端末装置、プログラムおよび表示制御方法
WO2013105443A1 (ja) * 2012-01-13 2013-07-18 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2013150129A (ja) * 2012-01-19 2013-08-01 Kyocera Corp 携帯端末
JP5972629B2 (ja) * 2012-03-27 2016-08-17 京セラ株式会社 装置、方法、及びプログラム
US8890812B2 (en) * 2012-10-25 2014-11-18 Jds Uniphase Corporation Graphical user interface adjusting to a change of user's disposition
KR102155708B1 (ko) * 2013-02-26 2020-09-14 삼성전자 주식회사 휴대 단말기 및 그의 멀티 어플리케이션 운용 방법
JP6221535B2 (ja) * 2013-09-11 2017-11-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2015049931A1 (ja) * 2013-10-04 2015-04-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2015090547A (ja) * 2013-11-05 2015-05-11 ソニー株式会社 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
DE102014103621A1 (de) * 2014-03-17 2015-09-17 Christian Nasca Bildstabilisierungsverfahren

Also Published As

Publication number Publication date
JP2016099740A (ja) 2016-05-30
US20160142624A1 (en) 2016-05-19

Similar Documents

Publication Publication Date Title
US11276144B2 (en) Information processing apparatus, display control method, and storage medium
US9170722B2 (en) Display control device, display control method, and program
JP6412778B2 (ja) 映像装置、方法、およびプログラム
US20140184547A1 (en) Information processor and display control method
US10209945B2 (en) Information processing apparatus capable of quickly updating a display in accordance with an operation for changing a display appearance and control method thereof
JP2015127871A (ja) 制御装置、制御方法、及び、プログラム
US20140298205A1 (en) Program, Communication Apparatus and Control Method
US20150193133A1 (en) Display control apparatus and display control method
US20140292694A1 (en) Display control apparatus and display control method
US11630565B2 (en) Image processing apparatus, control method for image processing apparatus, and recording medium for displaying a screen with inverted colors
JP6603383B2 (ja) 映像装置、方法、およびプログラム
KR20140140759A (ko) 터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치
JP6794520B2 (ja) 映像装置、方法、およびプログラム
US10728487B2 (en) Image display apparatus, external device, image display method, and image display system
JP2014071669A (ja) 情報表示装置、制御方法及びプログラム
JP2020013613A (ja) 映像装置、方法、およびプログラム
US11009991B2 (en) Display control apparatus and control method for the display control apparatus
JP6779778B2 (ja) 表示制御装置およびその制御方法
JP2018010691A (ja) 表示装置及び表示方法
JP2013069298A (ja) タッチスクリーンを具備する電子装置で画面サイズを調節するための方法及びその装置
JP2015049836A (ja) 携帯端末
US20150277689A1 (en) Display input apparatus and computer-readable non-transitory recording medium with display input control program recorded thereon
JP6224407B2 (ja) 表示装置及び表示方法
JP2016038619A (ja) 携帯端末装置及びその操作方法
JP2014211776A (ja) 情報端末装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20161014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171020

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R150 Certificate of patent or registration of utility model

Ref document number: 6412778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250