JP2015508211A - カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体 - Google Patents

カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体 Download PDF

Info

Publication number
JP2015508211A
JP2015508211A JP2014558687A JP2014558687A JP2015508211A JP 2015508211 A JP2015508211 A JP 2015508211A JP 2014558687 A JP2014558687 A JP 2014558687A JP 2014558687 A JP2014558687 A JP 2014558687A JP 2015508211 A JP2015508211 A JP 2015508211A
Authority
JP
Japan
Prior art keywords
content
screen
user
displayed
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014558687A
Other languages
English (en)
Inventor
ソン キム,デ
ソン キム,デ
ヒョン アン,ジェ
ヒョン アン,ジェ
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2015508211A publication Critical patent/JP2015508211A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

カメラモジュールを用いてユーザの頭部を追跡することによるスクリーンの制御であって、(a)コンテンツを表示する要求が受信されると、スクリーンに複数のコンテンツ領域を表示し、及び前記カメラモジュールを通じて前記スクリーンを見ている前記ユーザの頭部を追跡するステップと、(b)第1のコンテンツに関する情報が前記複数のコンテンツ領域のうちの中央コンテンツ領域に表示される状態で、前記ユーザの頭部が特定の方向に動くと前記の追跡で決定されると、前記中央コンテンツ領域に、周辺コンテンツ領域に表示された第2のコンテンツに関する情報を表示するステップであって、前記周辺コンテンツ領域は、前記特定コンテンツから前記特定方向に又は前記特定方向と反対の方向に位置する、ステップと、を有する。

Description

本開示は、カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、及びそのコンピュータ可読記録媒体に関する。より詳細には、本開示は、カメラモジュールを通じてユーザの頭部の動きを追跡し、及びユーザの頭部の動きに従ってスクリーンを動かして、ユーザがスクリーンから選択したいコンテンツに関する情報が中央コンテンツ領域に表示されるようにする方法及び装置、及びそのコンピュータ可読記録媒体に関する。
モバイル通信端末、ポータブルメディアプレイヤ(PMP)、テレビジョン(TV)、又はパーソナルコンピュータ(PC)のような従来のスクリーン制御装置では、機械的キーボタン、ボタン型リモコン、又はマウスのような入力装置は、ディスプレイスクリーンを制御するためにユーザにより用いられている。近年、接触検知技術の発展により、画像出力装置の機能の殆ど全ては、従来の入力装置を使用しないで、ユーザの指のディスプレイパネルとの接触を通じて制御できる。したがって、スマートフォン、タブレットPC又はスマートTVのような画像出力装置は、従来の端末より便利に且つ多くの種々の機能を実行できる。
しかしながら、感圧接触検知技術又は抵抗性接触検知技術では、接触感度は低い。容量性接触検知技術では、ユーザが指のキャパシタンスと異なるキャパシタンスを有するグローブを装着するとき、又は指が水若しくは夾雑物で覆われているとき、画像出力装置を制御することは困難である。さらに、接触検知が用いられても良いが、個々の指のスクリーンとの接触は、ユーザを披露させ不便にする。したがって、ユーザのためにより便利且つ簡易な入力ユニットが必要である。
本開示の目的は、カメラモジュールを通じてユーザの頭部を追跡し、ユーザの頭部の動きに従って表示されるスクリーンを制御し、ユーザが追加入力ユニットを使用することなく複数のコンテンツから所望のコンテンツを検索し及び選択できるようにする方法を提供することである。
さらに、本開示の別の目的は、種々のコンテンツを3次元グリッドのそれぞれに個々に対応させることにより、及び中央コンテンツ領域に位置する特定のコンテンツに関する詳細情報を容易に読めるようにすることにより、ユーザに便利なインタフェースを実施することである。
上述の目的を達成するための本開示の種々の実施形態の代表的構成を以下に説明する。
本開示の幾つかの態様によると、カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法であって、(a)コンテンツを表示する要求が受信されると、スクリーンに複数のコンテンツ領域を表示し、及び前記カメラモジュールを通じて前記スクリーンを見ている前記ユーザの頭部を追跡するステップと、(b)第1のコンテンツに関する情報が前記複数のコンテンツ領域のうちの中央コンテンツ領域に表示される状態で、前記ユーザの頭部が特定の方向に動くと前記の追跡で決定されると、前記中央コンテンツ領域に、周辺コンテンツ領域に表示された第2のコンテンツに関する情報を表示するステップであって、前記周辺コンテンツ領域は、前記中央コンテンツ領域から前記特定方向に又は前記特定方向と反対の方向に位置する、ステップと、を有する方法が提供される。
本開示の別の態様によると、カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する装置であって、前記カメラモジュールを通じて前記スクリーンを見ている前記ユーザの頭部を追跡する頭部追跡ユニットと、コンテンツの表示要求が受信されると、スクリーンに複数のコンテンツ領域を表示し、及び第1のコンテンツに関する情報が前記複数のコンテンツ領域のうちの中央コンテンツ領域に表示される状態で、前記ユーザの頭部が特定の方向に動くと前記の追跡で決定されると、前記中央コンテンツ領域に、周辺コンテンツ領域に表示された第2のコンテンツに関する情報を表示するスクリーン制御ユニットであって、前記周辺コンテンツ領域は、前記中央コンテンツ領域から前記特定方向に又は前記特定方向と反対の方向に位置する、スクリーン制御ユニットと、を有する装置が提供される。
種々の実施形態によると、本開示は、種々のコンテンツが対応する3次元グリッドにマッピングされ、ユーザが単純な頭部の動きを通じて各グリッドに対応する特定コンテンツに容易にアクセスできる直感的且つ便利なユーザインタフェースを提供する。
さらに、本開示の幾つかの実施形態によると、ユーザは、所望のコンテンツに対して、選択、拡大、縮小、再生及びスクロールを含むがこれらに限定されない種々の指示/動作を、単純な頭部の動きを通じて実行できる。
幾つかの実施形態によるスクリーン制御装置の構成を示す例示的な図である。 幾つかの実施形態によるスクリーン制御方法の実行の処理を示す例示的なフローチャートである。 幾つかの実施形態によるスクリーン制御方法が適用されるときの、各段階におけるスクリーンを示す例示的な図である。 幾つかの実施形態によるスクリーン制御方法の実行の処理を示す例示的なフローチャートである。 幾つかの実施形態によるスクリーン制御方法の実行の処理を示す例示的なフローチャートである。 幾つかの実施形態によるスクリーン制御方法が適用されるときの、各段階において表示されるスクリーンを示す例示的な図である。 幾つかの実施形態によるスクリーン制御方法が適用されるときの、詳細スクリーンへの連続的な移行を示す例示的な図である。 幾つかの実施形態によるスクリーン制御方法が適用されるときの、詳細スクリーンを制御する処理を示す例示的な図である。 幾つかの実施形態によるスクリーン制御方法が適用されるときの、詳細スクリーンを制御する処理を示す例示的な図である。 幾つかの実施形態によるスクリーン制御方法が適用されるときの、詳細スクリーンを制御する処理を示す例示的な図である。
本開示の以下の詳細な説明では、説明のために本開示の種々の実施形態が実施され得る特定の実施形態を示す添付の図面を参照する。これらの実施形態は、当業者が本開示を実施するために十分且つ詳細に記載される。理解されるべきことに、本開示の種々の実施形態は、異なるが必ずしも互いに排他的ではない。例えば、一実施形態と関連してここに記載される特定の特徴、構造、又は特性は、本開示の精神及び範囲から逸脱することなく他の実施形態の中で実施されても良い。また、理解されるべきことに、実施形態中の個々の要素の位置又は配置は、本開示の精神及び範囲から逸脱することなく変更できる。したがって、以下の詳細な説明は限定的意味と考えられるのではなく、本発明の範囲は、適切な場合、添付の請求の範囲、並びに権利化された請求項の等価物の全範囲によってのみ定められる。
図1は、幾つかの実施形態によるスクリーン制御装置の構成を示す例示的な図である。
図1を参照すると、スクリーン制御装置は、カメラモジュール110、ディスプレイモジュール120、接触感知モジュール130、動作処理モジュール160(頭部追跡ユニット140及びスクリーン制御ユニット150を含む)、及びメモリ170を有する。
カメラモジュール110は、オブジェクトを撮影するために、レンズユニット、画像センサユニット、照明ユニット、等(図示しない)を有しても良く、ユーザを撮影することにより得た画像センサ情報を動作処理モジュール160へ転送しても良い。
ディスプレイモジュール120は、動作処理モジュール160からのディスプレイ信号を受信し、スクリーンに出力する。接触感知モジュール130は、抵抗性接触感知モジュール、感圧接触感知モジュール、及び容量性接触感知モジュールのうちのいずれとして構成されても良い。接触感知モジュール130は、ディスプレイモジュール120と結合されても良く、ディスプレイモジュール120と別個にむき出しにされても良い。接触感知モジュール130は、ユーザの接触に基づき入力信号を生成して動作処理モジュール160へ送信しても良い。したがって、動作処理モジュール160がスクリーンを制御して、ディスプレイモジュールを通じて出力されるようにできる。
動作処理モジュール160は、頭部追跡ユニット140及びスクリーン制御ユニット150を有する。頭部追跡ユニット140及びスクリーン制御ユニット150は、動作処理モジュール160の中で機能的に区別される部分であり、両者はアプリケーションプログラムモジュールを通じて動作する。アプリケーションプログラムモジュールの少なくとも一部は、動作システム、アプリケーションプログラムモジュール、他のプログラムモジュールの形式を有しても良く、スクリーン制御装置100に含まれるメモリ170に物理的に格納され又は有線若しくは無線方式でスクリーン制御装置100に通信可能に接続される種々のよく知られた記憶装置に格納されても良い。アプリケーションプログラムモジュールは、以下に記載する特定の作業を実行する又は特定の抽象データ型を実行するルーチン、サブルーチン、プログラム、オブジェクト、コンポーネント、データ構造、等を有しても良いが、これらに限定されない。
頭部追跡ユニット140は、カメラモジュール110により撮影された画像内で、ユーザの頭部又は頭部の一部である顔を認識する。ユーザの頭部又は頭部の一部である顔が認識されるとき、画像内のユーザの頭部の大きさ、位置又は角度は、リアルタイムに計算される。例えば、ユーザの頭部は、ユーザの頭部の大きさ、位置、又は角度が変化するか否かを決定しながら、毎秒50フレームの画像内で連続的に追跡される。頭部追跡ユニット140は、ユーザの頭部の大きさ、位置、又は角度が変化した場合、ユーザの頭部を通じて所定の入力が実行されたことを決定する。ノイズを除去するために、ユーザの頭部の大きさ、位置、又は角度の変化が所定フレーム数、例えばユーザの頭部の大きさ、位置、又は角度の変化が生成されたフレームから10より多いフレーム数の間連続的に保たれたときのみ、ユーザが所定の入力を実行したと決定されても良い。ここで、頭部の回転角、又は同様のものは、顔の特徴点の変化を観察することにより得られても良い。
しかしながら、頭部追跡ユニット140は、上述のようなユーザの頭部の大きさ、位置、又は角度の変化を通じたユーザの頭部の追跡に限定されず、ユーザの髪及び顔の色の変化又は顔及び首の形状の変化のような、顔の動きに従って撮影された画像内で生成され得る他の変化を感知することにより、ユーザの頭部を追跡しても良い。
スクリーン制御ユニット150は、ユーザからコンテンツの表示要求を受信すると、複数のコンテンツ領域を表示するよう、ディスプレイモジュール120を制御しても良い。コンテンツの表示要求は、接触検知モジュール130を通じて受信されても良く、図示しない追加の機械的キーボタン又はマイクを通じて入力されても良い。
スクリーン制御ユニット150は、複数のコンテンツ領域の一部に重なるように又はスクリーンの追加領域に、カメラモジュールにより撮影された画像並びに複数のコンテンツ領域を表示しても良い。さらに、スクリーン制御ユニット150は、中央コンテンツ領域を強調表示して、中央コンテンツ領域が他の周辺コンテンツ領域から区別できるようにしても良い。例えば、スクリーン制御ユニット150は、固定中央コンテンツ領域内に、カメラのファインダーのような点線又は色付きの線を更に表示しても良い。
スクリーン制御ユニット150は、頭部追跡ユニット140がユーザの頭部が上方向に、下方向に、又は横方向に動くと決定すると、第1のコンテンツに関する情報が中央コンテンツ領域に表示された状態で、複数のコンテンツ領域をスライドさせることにより、周辺領域内に表示された第2のコンテンツに関する情報を中央コンテンツ領域内に表示するよう、ディスプレイモジュール120を制御する。例えば、ユーザの頭部が左に動くとき、複数のコンテンツ領域は左へスライドし、中央コンテンツ領域の右の周辺コンテンツ領域内に表示されたコンテンツに関する情報が、中央コンテンツ領域内に表示されるようにしても良い。
さらに、スクリーン制御ユニット150は、追加接触入力が接触感知モジュール130から受信されるか否かと頭部追跡結果との組合せに基づき、ディスプレイモジュール120からのスクリーン出力を制御しても良い。例えば、スクリーン制御ボタンは、複数のコンテンツ領域が表示される状態で、スクリーンの特定領域内に表示されても良い。スクリーン制御ボタンがユーザにより選択されるとき、スクリーン制御ユニット150は、ユーザの頭部の動きと接触感知モジュール130を通じて受信されるタッチ入力の両者が存在するときのみ、複数のコンテンツ領域をスライドさせても良い。
さらに、スクリーン制御ボタンが所定時間t1、例えば3秒の間、ボタンを連続的に押下することにより選択される場合、スクリーン制御ユニット150は、頭部追跡ユニット140がユーザの頭部の動きを検出したとしても、複数のコンテンツ領域がスライドするのを防ぐよう、ディスプレイモジュール120を制御しても良い。次に、スクリーン制御ボタンが、所定時間t2、例えば3秒の間、ボタンを連続的に押下することにより選択される場合、スクリーン制御ユニット150は、複数のコンテンツ領域を再びスライドさせ、中央コンテンツ領域内に表示されたコンテンツに関する情報、例えばサムネイル画像が頭部の動きに従って変化されるようにしても良い。
特定コンテンツに関する情報が所定時間t3、例えば2秒の間、中央コンテンツ領域内に連続的に表示される場合、スクリーン制御ユニット150は、特定コンテンツの詳細スクリーンへと移るようディスプレイモジュール120を制御しても良い。詳細スクリーン状態でも、スクリーン制御ユニットは、詳細スクリーンをスクロースさせ、拡大させ若しくは縮小させるよう、又は頭部追跡ユニットがユーザの頭部の動きがないと決定した場合、複数のコンテンツ領域のスクリーンに戻るよう制御しても良い。
上述のように制御の結果として表示されるスクリーンは、図3、6〜10を参照して詳細に後述する。
図2は、幾つかの実施形態によるスクリーン制御方法の実行の処理を示す例示的なフローチャートである。
図2を参照すると、スクリーン制御装置100は、ユーザからコンテンツの表示要求を受信し、複数のコンテンツ領域をスクリーンに表示する(S210)。複数のコンテンツ領域は、スクリーン領域を予め分割することにより得られそれぞれが個々のコンテンツに関する情報を表示できるスクリーンユニットを含むグリッド状領域である。例えば、画像、写真及び動画像に関する情報は、それぞれ複数のコンテンツ領域内に表示されても良く、カメラモジュールにより撮影された写真及び動画像、ダウンロードされた画像及び動画像、並びにユーザにより作成された画像及び動画像のようなコンテンツは、ユーザにより容易に検索できる。画像及び動画像を低解像度の画像に符号化することにより得られるサムネイル画像は、複数のコンテンツ領域に配置され、ユーザがどのコンテンツが存在するかを一目で確認できるようにしても良い。しかしながら、スクリーンに通常表示され得るサムネイル画像の最大数は、合計で20個を超えない。例えば、5×4のグリッド配列の場合には、スクリーン制御装置100のメモリ170に格納されるコンテンツの数は、20より多い。したがって、ユーザが複数の格納されたコンテンツの全部を検索するために、スクリーンは、ユーザにより望まれる方向に移動されるべき複数のコンテンツ領域を示す必要がある。
本開示の幾つかの実施形態によると、スクリーン制御装置100は、複数のコンテンツ領域の中で中央コンテンツ領域内に、第1のコンテンツに関する情報を表示しても良い(S220)。複数のコンテンツ領域のうちの1つとしての中央コンテンツ領域は、例えば、スクリーンの中央に位置付けられても良く、強調表示されても良い。例えば、中央コンテンツ領域のフレームは、中央コンテンツ領域が周辺コンテンツ領域から区別できるように、色付きの線又は点線により表示されても良く、中央コンテンツ領域の内側の明るさは制御され、又はフリッカ効果が与えられても良い。しかしながら、本開示はこの点に限定されない。
この状態で、本開示によると、スクリーン制御装置100は、カメラモジュールにより撮影されたユーザの頭部を追跡する(S230)。ユーザの頭部の動きを追跡する頭部追跡は、図1を参照して上述した種々の方法により実施されても良い。本開示によると、ユーザの頭部の動きは、図1を参照して上述したように、ユーザの頭部の一部である顔の動きを含む。
本開示の幾つかの実施形態によると、スクリーン制御装置100がユーザの頭部が特定方向に動くと決定すると(S240)、S220で中央コンテンツ領域内に表示された第1のコンテンツに関する情報の代わりに、中央コンテンツ領域の周辺コンテンツ領域内に表示された第2のコンテンツに関する情報が、中央コンテンツ領域内に表示される(S250)。
例えば、左右に3個のコンテンツに関する情報アイテム(順に、サムネイル画像1、サムネイル画像2、及びサムネイル画像3)がそれぞれ左周辺コンテンツ領域、中央コンテンツ領域、及び右周辺コンテンツ領域に表示された状態で、ユーザが頭を左に傾けることにより又は頭を左に回転することにより彼又は彼女の頭部を左に動かすと決定されると、スクリーン全体は、例えばサムネイル画像3が中央コンテンツ領域に表示されるように、左へスライドしても良い。中央コンテンツ領域は、スクリーンの中央に固定されて表示されても良い。
図3は、幾つかの実施形態によるスクリーン制御方法が適用されるときの、各段階におけるスクリーンを示す例示的な図である。
5×3のグリッド配列に合計15個のコンテンツ領域が、図3の左に示すスクリーン制御装置100のスクリーン300に表示される。図3では、説明の便宜上、複数のコンテンツ領域がグリッド形式で配置される。しかしながら、複数のコンテンツ領域は、3次元球又は立方体の内側又は外側に配置されるようにユーザに示されるよう設定されても良く、2次元リストの形式で示されるよう設定されても良い。
個々のコンテンツに関する情報アイテムは、複数のコンテンツ領域に表示される。コンテンツに関する情報アイテムは、サムネイル画像、アイコン、メタデータ、テキスト記述、及びタグ情報のような種々の形式で表示されても良いが、特定のデータ形式及びコンテンツに限定されない。さらに、コンテンツは、オーディオファイル、文書ファイル、等、並びに画像若しくは動画像の形式でも良い。この場合、コンテンツに関する情報アイテムは、サムネイル画像以外に文書又はオーディオのタイトル、作成者等を表すテキストとして表示されても良く、又はアイコンのような画像の形式で表示されても良い。特に、文書は、doc、docx、hwp、ppt、pptx、xls、xlsx、pps、ppsx、pdf及びgulのような拡張子を有するファイルであっても良い。この場合、拡張子により区別されるアイコン及び文書タイトルは、コンテンツに関する情報アイテムと同時に表示されても良い。しかしながら、文書の種類又はコンテンツに関する情報アイテムの種類及び形式は、上述に限定されない。
以下では、説明の便宜上、画像又は動画像コンテンツの複数のサムネイル画像は、それぞれスクリーン300上に複数のコンテンツ領域に表示されるとする。
スクリーン300の中央上端で、カメラモジュール110によりユーザを撮影することにより得られる画像310は、複数のコンテンツ領域の幾つかと重なり合う上位レイヤに表示される。しかしながら、ユーザを撮影することにより得られる画像310の位置は、中央上端に限定されない。画像310は、複数のコンテンツ領域を有する重構造の代わりに、複数のコンテンツ領域から別個に割り当てられた領域に表示されても良い。
ユーザを撮影することにより得られる画像310は、追加輪郭等により複数のコンテンツ領域から区別されても良い。ユーザの頭部又は顔315が画像内で認識されると、頭部又は顔の目、鼻、唇等を3次元的に表す表示線も表示されても良い。表示線は、固定され、又は頭部の動きの追跡をリアルタイムに反映するために変化しても良い。表示線が固定されるとき、ユーザは、画像を一目見て、画像内で頭部が動く程度を確認できる。一方、表示線がユーザを撮影することにより得られる画像310内で頭部315と共に移動するよう設定されるとき、ユーザは、頭部追跡が正常に実行されることを確認できる。
さらに、例えば、ユーザを撮影することにより得られる画像310の輪郭は、頭部追跡が正常に実行されるときは緑に、一方、バックライト等のような粗悪な照明条件のために又は大量のノイズ情報のために、頭部又は顔が正しく認識できないときは赤に表示されて、ユーザが頭部追跡の状態を確認できるようにしても良い。頭部追跡が正常に実行されるか否かは、上述の方法以外に、「追跡正常」又は「追跡失敗」のようなテキストメッセージにより提示されても良く、又はビープ音のような音声出力を通じてユーザに提供されても良い。このようなフィードバックは、頭部又は頭部に含まれる顔が認識できる照明条件、顔サイズ条件、及び顔角度条件を達成するために姿勢を正すようユーザを誘導し、ユーザに頭部追跡に適する環境、姿勢、及び動きを学習させる。
最初にサムネイル画像8が中央コンテンツ領域320内に表示されている状態で、ユーザが頭部を後ろに傾けることにより又は首を直立させることにより頭部を情報に動かすと、スクリーン制御装置100は、ユーザの頭部は情報へ動き、複数のコンテンツ領域全体は上方へスライドし、中央コンテンツ領域320の下側に位置する周辺コンテンツ領域内に表示されていたサムネイル画像13が中央コンテンツ領域320に表示されるようにする。したがって、ユーザは、従来の入力ユニットを用いることなく、頭部の動きのみにより、所望のサムネイル画像を中央コンテンツ領域320内に位置づけることができる。この場合、複数のコンテンツ領域に表示された複数のコンテンツに関する情報アイテムの配置は、維持されても良い。例えば、サムネイル画像1、サムネイル画像2、...、サムネイル画像15の配置が維持されたまま、スクリーン全体はスライドしても良い。
ユーザが頭部を下方向に動かすと、上述と同様の処理に従い、複数のコンテンツ領域全体はスライドし、中央コンテンツ領域の上側に位置する周辺コンテンツ領域に表示されていたサムネイル画像3は、中央コンテンツ領域320に表示される。
同様に、ユーザが頭部を横方向に回転すると又は頭部自体の位置が変化するように首を左右に肩へと傾けると、スクリーン制御装置100は、ユーザの頭部が左右に移動すると決定し、複数のコンテンツ領域全体をスライドし、サムネイル画像7又はサムネイル画像9が中央コンテンツ領域に表示されるようにする。
図3では、複数のコンテンツ領域全体がユーザの頭部の移動方向と同じ方向にスライドする処理を示した。しかしながら、複数のコンテンツ領域のスライド方向は上述に限定されず、複数のコンテンツ領域全体がユーザの頭部の移動方向と反対の方向にスライドしても良い。例えば、中央コンテンツ領域320が、カメラのビューファインダのような3次元的若しくは階層的に浮いたエンティティとして認識され得る追加点線、色付き線、等により強調表示されるとき、ユーザは、中央コンテンツ領域の左にある周辺コンテンツ領域を選択するために彼又は彼女が自身の頭部を左へ動かさなければならないと直感的に信じることができる。この場合、スクリーンは、頭部の移動方向と反対の方向にスライドするよう設定されても良い。スクリーン制御装置100は、ユーザにより望まれるように、スクリーンのスライド方向が頭部の移動方向と同じ又は反対に設定されるかを選択するために、ユーザに別個のメニューを提供しても良い。
以上では、複数のコンテンツ領域がグリッド形式で配置されると想定して説明された。しかしながら、複数のコンテンツ領域が3次元球若しくは立方体の内部又は外部にあるように配置されるように設定されるときでも、球若しくは立方体の重量中心が固定される状態で、複数のコンテンツ領域は、ユーザの頭部の動きに従って回転しても良い。
図4は、幾つかの実施形態によるスクリーン制御方法の実行の処理を示す例示的なフローチャートである。
ユーザは、彼又は彼女が頭部を動かすとき常に、本開示によるスクリーン制御方法を実行することを意図していなくても良い。特に、ユーザが長時間コンテンツに関する情報を検索する場合、又は本開示によるスクリーン制御方法が振動する地下鉄若しくは乗り物内で実行される場合、意図しない頭部の動きが生成され得る。この場合、ユーザが望まなくても、スクリーンはスライドして中央コンテンツ領域に表示されるコンテンツに関する情報を変化してしまう。
図4を参照すると、図2で説明したように、ユーザの頭部は、ステップS210及びS220が実行される状態で追跡される(S230)。
次に、タッチ入力が存在する状態でユーザの頭部が移動したと決定されたときのみ(S400)、第2のコンテンツに関する情報は、中央コンテンツ領域に表示される(S410)。この場合、スクリーン制御装置100は、左及び右に又はスクリーンの下端に、スクリーン制御ボタンを追加で表示し、ユーザがスクリーン制御ボタンをタッチすることにより該ボタンを選択できるようにしても良い。
幾つかの実施形態によると、ユーザがスクリーン制御ボタンにタッチし彼又は彼女の頭部を動かすときのみステップS410が実行されるので、意図しないユーザの頭部の動きによってスクリーンがスライドするのを防ぐことができる。
以上では、上述の説明でタッチ入力が想定された。しかしながら、本開示は上述に限定されず、ユーザの頭部の動きが決定され、スクリーン制御装置100に含まれる追加の機械的キーボタンを通じた入力若しくは「上」、「下」、「左」及び「右」のような音声入力による入力が存在するときに、ステップS410を実行するよう構成されても良い。
図4に示したスクリーン制御方法を適用することにより表示されるスクリーンは、図6を参照して後に詳述する。
図5は、幾つかの実施形態によるスクリーン制御方法の実行の処理を示す例示的なフローチャートである。
図5を参照すると、スクリーン制御装置100は、図2で説明したようなステップS210及びS220を実行しても良い。次に、スクリーン制御装置100は、所定時間t1の間、タッチ入力を連続的に受信し(S500)、図1と異なり、ユーザの頭部又は頭部の一部である顔の動きが存在すると追跡で決定されたときでも(S520)、ステップS220で中央コンテンツ領域に表示された第1のコンテンツに関する情報が中央コンテンツ領域内に維持される(S530)。例えば、ユーザがスクリーンの一部に表示されたスクリーン制御ボタンを3秒間連続的に押下することにより選択する場合、複数のコンテンツ領域はスライド又は回転しないので、第1のコンテンツに関するは中央コンテンツ領域に表示される。
本開示の別の実施形態によると、上述のステップS510、S520及びS530は、頭部追跡自体を停止するステップS501により置き換えられても良い。つまり、頭部追跡が停止されるとき、複数のコンテンツ領域はスライドしないので、第1のコンテンツに関する情報が中央コンテンツ領域に表示される状態は、勿論維持される。
図示しないが、上述のステップS510及びS501を実行する前に、スクリーン制御装置100は、スクリーンはユーザが彼又は彼女の頭部を動かしても変化しないことを表すメッセージ又はマークを、スクリーンの領域に表示するステップを更に実行しても良い。つまり、「ロック」のようなテキストメッセージ又は任意の他のマークが表示されても良い。さらに、スクリーンは変化されないことを意味するビープ音は、ユーザにそのことを知らせるためにオーディオ出力されても良い。
その後、上述のテキストメッセージ又は他のマークを所定時間t2、例えば3秒間、連続的に接触する入力が受信された場合、画像出力装置は頭部追跡を実行しても良く、ユーザの顔の動きが検出された場合、中央コンテンツ領域に第2のコンテンツに関する情報を表示するステップを実行する。つまり、顔の動きによるスクリーンのスライド機能は、ロック解除される。ここで、t1及びt2は、必ずしも同じに設定される必要はなく、t1は3秒及びt2は4秒のように異なって設定されても良い。
図5に示したスクリーン制御方法を適用することにより表示されるスクリーンは、図6を参照して後に詳述する。
図6は、幾つかの実施形態によるスクリーン制御方法が適用されるときの、各段階において表示されるスクリーンを示す例示的な図である。
図6を参照すると、複数のコンテンツ領域は、スクリーン300に表示される。スクリーン300上に、カメラモジュールを通じてユーザの顔を撮影することにより得られたスクリーン310が表示される。特定コンテンツに関する情報も、中央コンテンツ領域320に表示される。さらに、スクリーン制御ボタン600は、その中に図示される手形を含むソフトボタンであり、スクリーン300の左及び右に表示されても良い。図4に示したように、スクリーン制御装置100が、追加タッチ入力が存在するときのみ、ユーザの頭部の動きを反映するようスクリーンを制御するよう設定される場合、追加タッチ入力は、図6に示すスクリーン制御ボタン600を通じて受信されても良い。しかしながら、図示のスクリーン制御ボタン600の位置、サイズ、形状及び色は単なる例であり、スクリーン制御ボタン600は、種々の位置に種々の形式で表示されても良い。
図4に示したように、ユーザの頭部は上、下又は横方向に動くが、ユーザの指のスクリーン制御ボタンへの接触を通じてスクリーン制御ボタンが選択されない限り、複数のコンテンツ領域は上及び下及び左右にスライドせず、中央コンテンツ領域に表示されたコンテンツに関する情報は変化しない。
他方で、ユーザが指等によりスクリーン制御ボタンに接触している間、ユーザが彼又は彼女の頭部を動かす場合、複数のコンテンツ領域全体は頭部の移動方向にスライドして、中央コンテンツ領域に表示されたコンテンツに関する情報が変化するようにしても良い。この場合、スクリーン制御ボタンがタッチされていることを表すマーク610が表示され、ユーザがスクリーン制御ボタンが選択されていることを認識できるようにしても良い。図6で、スクリーン制御ボタンはマーク610により表示され、各マーク610はテキスト「Touch(タッチ)」を含むが、それらはスクリーン制御ボタンがタッチされていることを意味する種々の指等により置き換えられても良い。
一方、図5に示したように、ユーザがスクリーン制御ボタンに所定時間t1、例えば3秒間連続的にタッチする場合、ユーザの頭部が動くと決定されても、複数のコンテンツ領域はスライドせず、中央コンテンツ領域に表示されたコンテンツに関する情報は変化しない。この場合、スクリーン制御が実行されないことを表すマーク620が表示されても良い。図6で、スクリーン制御ボタンはマーク620により表示され、各マーク620はテキスト「Lock(ロック)」を含むが、それらは種々の指等により置き換えられても良い。このような状態は、それぞれテキスト「Lock(ロック)」を含むマーク620が所定時間t2、例えば2秒間再び押下されるまで、維持される。しかしながら、t1及びt2は、必ずしも同じではなく、t1は4秒及びt2は3秒のようにあ変化しても良い。
さらに詳細には、例えば、ユーザはテキスト「Lock(ロック)」を含むマーク620をタッチしながら彼又は彼女の頭部を動かすが、スクリーンはスライドしない。しかしながら、ユーザがテキスト「Lock(ロック)」を含むマーク620をタッチする時間がt2、例えば3秒より長いとき、スクリーン制御ボタン600は再び表示される。したがって、スクリーン制御装置100が、スクリーン制御ボタン600が選択された状態でユーザの頭部の動きを検出するとき、複数のコンテンツ領域はスライドして、周辺コンテンツ領域に表示されたコンテンツに関する情報が中央コンテンツ領域に表示されるようにしても良い。
図7は、幾つかの実施形態によるスクリーン制御方法が適用されるときの、詳細スクリーンへの連続的な移行を示す例示的な図である。
図7を参照すると、所定時間t3、例えば2秒間、特定コンテンツに関する情報のサムネイル画像13が中央コンテンツ領域320に連続的に表示され、ユーザの頭部の動きがないとき、スクリーン制御装置100は、サムネイル画像13に対応する元の写真又は画像が詳細に表示される詳細スクリーンへの移行を行う。
この場合、サムネイル画像13の代わりに、スクリーン制御装置100が対応する画像を全体を表示するために読み込んでいることを表す読み込み中画像700が、中央コンテンツ領域320に表示されても良い。読み込み中画像700は、円形矢印又はバーの形式で表示されても良い。
以上では、特定コンテンツが、画像若しくは写真のような静止画像であり、特定コンテンツに関する情報がサムネイル画像により表示されるとして説明した。しかしながら、これは単なる例であり、特定コンテンツは、動画像、文書、オーディオファイル等を有しても良く、特定コンテンツに関する情報は、上述のようにサムネイル画像と同じく、アイコン、図、テキスト等の形式で表示されても良い。
図8は、実施形態によるスクリーン制御方法が適用されるときの、詳細スクリーンを制御する処理を示す例示的な図である。
図8を参照すると、図7に示した詳細スクリーンに対して動きが行われたと想定する。説明の便宜上、韓国国旗画像のような特定コンテンツが詳細スクリーンに表示される場合に関して説明する。
カメラモジュール110を通じてユーザを撮影することにより得られた画像310は、詳細スクリーンの上端の中央に出力される。したがって、ユーザは、彼又は彼女の頭部が動き又は追跡されることを直接知ることができる。
詳細スクリーンで、前の又は次のコンテンツが存在することを表す画像インジケータ800は、詳細スクリーンの左及び右に表示される。「前の」又は「次の」は、詳細スクリーンに移行する前に表示される複数のコンテンツ領域の配置順に基づく。例えば、図6で、アメリカ国旗のサムネイル画像(サムネイル画像12)が中央コンテンツ領域320の左周辺コンテンツ領域に出力され、韓国国旗のサムネイル画像(サムネイル画像13)が中央コンテンツ領域に出力され、日本国旗のサムネイル画像(サムネイル画像14)が中央コンテンツ領域の右周辺コンテンツ領域にに出力されるとする。この場合、「前の」コンテンツはアメリカ国旗画像であり、「次の」コンテンツは日本国旗画像である。
ユーザは、複数のコンテンツ領域が表示される状態に戻ることなく、画像インジケータ800を通じて前の画像又は次の画像が存在するか否かを決定できる。
上述の状態で、ユーザが彼又は彼女の頭部を右に動かすと決定されると、スクリーン制御装置100は、詳細スクリーンを右にスライドしても良い。したがって、ユーザには、韓国国旗画像810が右に消えるように示され、前の画像であるアメリカ国旗画像820が左から現れるように示されても良い。したがって、本開示の幾つかの実施形態によると、複数のコンテンツ領域の表示に再び戻ることなく、ユーザが頭部の動きを通じて詳細スクリーン状態で前のコンテンツ又は次のコンテンツを見れるように、スクリーンは制御され得る。
詳細スクリーン状態で、ユーザの頭部がカメラモジュール110から離れるように、ユーザは彼又は彼女の頭部を後方に動かす、又はカメラモジュールがユーザから離れると仮定する。この場合、ユーザの頭部又はユーザの頭部の一部である顔のサイズは、カメラモジュール110により撮影された画像310内で減少するので、スクリーン制御装置100は、ユーザの頭部がカメラモジュール110から離れるよう動かされたと決定しても良い。この場合、詳細スクリーン上の画像、つまり韓国国旗画像は、縮小されて表示される。
さらに、詳細スクリーン状態で、ユーザが彼又は彼女の頭部をカメラモジュールに近付けるよう動かす、又はカメラモジュール110をユーザの顔へと動かすとき、ユーザの頭部又はユーザの頭部の一部である顔のサイズは、撮影された画像内で増大するので、スクリーン制御装置100は、ユーザの頭部がカメラモジュールに近付くように動かされたと決定しても良い。この場合、詳細スクリーン上の画像、つまり韓国国旗画像は、拡大されて表示される。したがって、図8に示すように、韓国国旗画像内のtaegeukパターンのみが拡大されて表示される。
さらに、詳細スクリーンが拡大される状態で、スクリーン制御装置100がユーザの頭部の上及び下及び左右の動きを決定するとき、詳細スクリーンは、韓国国旗画像が拡大される状態を維持しながらスクロールされても良い。したがって、拡大されたtaegeukパターンを示す詳細スクリーンは、ユーザの頭部の上及び下及び左右の動きに従って、スクロールされて韓国国旗の4つの三重文字、つまりgeon、gon、gam及びriが拡大されて示されるようにする。
図9は、実施形態によるスクリーン制御方法が適用されるときの、詳細スクリーンを制御する処理を示す例示的な図である。
図9は、図7に示した詳細スクリーンの状態を示し、特定コンテンツが図8のよう画像又は写真ではなく動画像である。
図9を参照すると、動画像の詳細スクリーンは、先ず、動画像の第1のフレーム、又は暗く色づけされたスクリーンを有し中央に動画像を表す図900を有するスクリーンを表示しても良い。
この場合、ユーザが彼又は彼女の頭部を後方に傾けるとき、スクリーン制御装置100は、ユーザの頭部が後方に移動すると決定し、動画像を再生しても良い。動画像が再生されている間に、ユーザが彼又は彼女の頭部を後方に振るとき、スクリーン制御装置100は、ユーザの頭部が後方に動くと決定し、動画像の再生及び表示を停止しても良い。次に、動画像の再生が停止されるときの動画像のフレームスクリーンは、静止画像として表示されても良い。この場合、動画像の再生が停止されたことを表す所定の図は、停止されたフレームスクリーンの中央に表示されても良い。
動画像が停止された状態で詳細スクリーンに対してユーザが彼又は彼女の頭部を上方に動かすとき、ユーザの頭部は上方に動くと決定され、詳細スクリーンに対する動きが行われる前に、動きは、複数のコンテンツ領域が表示されるスクリーンに対して行われるようにしても良い。
以上では、ユーザの頭部は上方及び下方に動かされると想定した。しかしながら、本開示は、上述に限定されず、動画像の再生及び停止がユーザの頭部の左右の動きに従って繰り返されるように制御されても良い。
図10は、幾つかの実施形態によるスクリーン制御方法が適用されるときの、詳細スクリーンを制御する処理を示す例示的な図である。
カメラモジュールを通じてユーザを撮影することにより得られた画像310は、詳細スクリーンに対する動きが図8及び9を参照して上述したように行われる状態でも、表示され得る。しかしながら、ユーザは、スクリーン制御が詳細スクリーンに対する頭部追跡を通じて実行されないことを望み得る。さらに、詳細スクリーンがコンテンツのための再生スクリーンなので、ユーザは、カメラスクリーン等が再生スクリーンと重なり合うことを望まない。
したがって、ユーザがカメラモジュール110によりユーザを撮影することにより得られた画像310に指で接触してタッチ入力を生成するとき、スクリーン制御装置100は、ユーザを撮影することにより得られた画像310をもう表示されないように制御する。この場合、スクリーン制御装置100は、ユーザの撮影及び頭部追跡を保持するようカメラモジュール110を制御しても良い。
しかしながら、ユーザが再び頭部の動きにより詳細スクリーンを制御することを望むとき、カメラモジュール110を通じてユーザを撮影することにより得られた画像310は、再び表示されなければならない。したがって、カメラスクリーン出力ボタン950が表示されても良い。したがって、ユーザがカメラスクリーン出力ボタン950を選択するとき、撮影された画像は再び表示される。
上述の本開示の実施形態は、コンピュータ可読媒体内のコンピュータ可読コードとして実装できる。コンピュータ可読記録媒体は、プログラム命令、ローカルデータファイル、ローカルデータ構造、又はそれらの組合せを含み得るが、これらに限定されない。コンピュータ可読記録媒体は、本開示の種々の実施形態に専用であっても良く、又はコンピュータソフトウェアの当業者に一般に知られていても良い。コンピュータ可読記録媒体は、コンピュータ可読データが格納されるあらゆる種類の記録媒体を含む。コンピュータ可読記録媒体の例は、ハードディスク、フロッピディスク及び磁気テープのような磁気媒体、CD−ROM及びDVDのような光記録媒体、フロプティカルディスクのような光磁気媒体、ROM、RAM、フラッシュメモリ等のようなプログラム命令を格納し実行するよう特に構成されるハードウェアメモリを有する。プログラム命令の例は、コンパイラにより生成される機械コード、インタプリタ等を用いてコンピュータにより実行される高級言語を含み得るがこれらに限定されない。上述のハードウェア装置は、本開示の動作を実行する1又は複数のソフトウェアモジュールとして動作するよう構成されても良い。逆も同様である。
本開示の特定の実施形態が説明されたが、これらの実施形態は、単なる例として提示されたものであり、本開示の範囲を限定することを意図しない。実際に、本願明細書に記載の新規な方法及び装置は種々の他の形式で具現化でき、更に、本願明細書に記載の実施形態に関して種々の変更、修正、補正、及び代替が本開示の精神から逸脱することなく行われ得る。
したがって、添付の請求の範囲及び前述の変更を含むそれらの等価物は、本開示の範囲及び精神を包含することを意図し、本開示により限定されない。

Claims (45)

  1. カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法であって、
    コンテンツを表示する要求が受信されると、スクリーンに複数のコンテンツ領域を表示し、及び前記カメラモジュールを通じて前記スクリーンを見ている前記ユーザの頭部を追跡するステップと、
    第1のコンテンツに関する情報が前記複数のコンテンツ領域のうちの中央コンテンツ領域に表示される状態で、前記ユーザの頭部が特定の方向に動くと前記の追跡で決定されると、前記中央コンテンツ領域に、周辺コンテンツ領域に表示された第2のコンテンツに関する情報を表示するステップであって、前記周辺コンテンツ領域は、前記中央コンテンツ領域から前記特定方向に又は前記特定方向と反対の方向に位置する、ステップと、
    を有する方法。
  2. 前記ステップ(a)で、前記複数のコンテンツ領域は、グリッド形式に配置されるように前記スクリーンに表示される、請求項1に記載の方法。
  3. 前記複数のコンテンツ領域は、3次元球の形式に配置されるようにユーザに示されるように前記スクリーンに表示される、請求項2に記載の方法。
  4. 前記ステップ(b)で、前記中央コンテンツ領域は、前記スクリーンの中央部に位置する、請求項1に記載の方法。
  5. 前記第1のコンテンツに関する情報が前記複数のコンテンツ領域のうちの前記中央コンテンツ領域に表示される状態で、前記ユーザの頭部が特定方向に動くと前記の追跡で決定されると、前記中央コンテンツ領域に、周辺コンテンツ領域に表示された前記第2のコンテンツに関する情報を表示するステップであって、前記中央コンテンツ領域から前記周辺コンテンツ領域は、前記複数のコンテンツ領域に表示される複数のコンテンツに関する情報をそれらの配置順が保たれるようにスライドさせることにより、前記特定方向に又は前記特定方向と反対の方向に位置付けられる、ステップと、
    を有する請求項1に記載の方法。
  6. 前記ユーザに前記頭部追跡の実行が成功したか否かに関する情報を提示するステップ、を更に有する請求項1に記載の方法。
  7. 前記頭部追跡の実行が成功したか否かに関する情報は、前記スクリーンの領域の色を変化することにより提示される、請求項6に記載の方法。
  8. 前記ステップ(b)は、所定のスクリーン制御ボタンを表示するステップを有し、
    前記所定のスクリーン制御ボタンが選択された状態で、前記ユーザの頭部が特定方向に動くと前記の追跡で決定されると、周辺コンテンツ領域に表示された前記第2のコンテンツに関する情報は、前記中央コンテンツ領域に表示され、前記周辺コンテンツ領域は、前記中央コンテンツ領域から、前記特定方向に又は前記特定方向と反対の方向に位置づけられる、請求項1に記載の方法。
  9. 前記ステップ(b)で、キーボタン信号又はオーディオ信号が入力される状態で、前記ユーザの頭部が特定方向に動くと前記の追跡で決定されると、周辺コンテンツ領域に表示された前記第2のコンテンツに関する情報は、前記中央コンテンツ領域に表示され、前記周辺コンテンツ領域は、前記中央コンテンツ領域から、前記特定方向に又は前記特定方向と反対の方向に位置づけられる、請求項1に記載の方法。
  10. 前記ステップ(b)は、所定のスクリーン制御ボタンを表示するステップを有し、
    前記所定のスクリーン制御ボタンが所定時間t1の間該ボタンを連続的に押下することにより選択される場合、前記第2のコンテンツに関する情報の前記中央コンテンツ領域への表示は、前記所定のスクリーン制御ボタンが所定時間t2の間該ボタンを連続的に押下することにより再び選択されるまで、保持される、請求項1に記載の方法。
  11. 前記表示される中央コンテンツを強調表示するステップ、を更に有する請求項1に記載の方法。
  12. 前記第1のコンテンツ又は前記第2のコンテンツは、写真、画像、動画像、文書及びオーディオコンテンツのうちの少なくとも1つを有する、請求項1に記載の方法。
  13. 前記ユーザの頭部の動きを検出することなく、特定コンテンツに関する情報が所定時間の間前記中央コンテンツ領域に連続的に表示される場合、前記特定コンテンツの詳細スクリーンへの移行を行うステップ、を更に有する請求項1に記載の方法。
  14. 前記特定コンテンツに関する情報が前記所定時間の間、前記中央コンテンツ領域に連続的に表示される場合、前記特定コンテンツの詳細スクリーンへの移行のための読み込み中画像を表示するステップ、を更に有する請求項13に記載の方法。
  15. 前記詳細スクリーンが表示される状態で、前記ユーザの頭部が特定方向に動くと検出された場合、前記複数のコンテンツ領域が前記スクリーン上で配置された順序に関して、前の又は次のコンテンツの詳細スクリーンへ直接移行を行うステップ、を更に有する請求項13に記載の方法。
  16. 前記詳細スクリーンが表示される状態で、前記ユーザの頭部が特定方向に動くと検出された場合、前記複数のコンテンツ領域が前記スクリーン上で配置された順序に関して、前の又は次のコンテンツが存在するか否かを示す画像インジケータを表示するステップ、を更に有する請求項13に記載の方法。
  17. 前記詳細スクリーンが表示される状態で、前記ユーザの頭部が前記カメラモジュールに近付く又は前記カメラモジュールから離れると検出された場合、前記詳細スクリーンを拡大又は縮小させるステップ、を更に有する請求項13に記載の方法。
  18. 前記詳細スクリーンが拡大される状態で、前記ユーザの頭部が特定方向に動くと検出された場合、前記詳細スクリーンを前記特定方向に又は前記特定方向と反対の方向にスクロールさせるステップ、を更に有する請求項17に記載の方法。
  19. 前記特定コンテンツが動画像であり、及び前記詳細スクリーンが表示される状態で、前記ユーザの頭部が第1の方向に動くと検出された場合、前記動画像を再生するステップ、を更に有する請求項13に記載の方法。
  20. 前記動画像が再生される間、前記ユーザの頭部が前記第1の方向に動くと検出された場合、前記動画像の再生を停止するステップ、を更に有する請求項19に記載の方法。
  21. 前記動画像の再生が停止される状態で、前記ユーザの頭部が第2の方向に動くと検出された場合、前記複数のコンテンツ領域が表示されるスクリーンへの移行を行うステップ、を更に有する請求項20に記載の方法。
  22. 前記スクリーンの一部に前記カメラモジュールによりキャプチャされたカメラスクリーンを表示するステップと、
    前記カメラスクリーンでタッチ入力が生成されると、前記カメラスクリーンを所定のスクリーン制御ボタンに変更するステップと、
    を更に有する請求項13に記載の方法。
  23. カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する装置であって、
    前記カメラモジュールを通じて前記スクリーンを見ている前記ユーザの頭部を追跡する頭部追跡ユニットと、
    コンテンツの表示要求が受信されると、スクリーンに複数のコンテンツ領域を表示し、及び第1のコンテンツに関する情報が前記複数のコンテンツ領域のうちの中央コンテンツ領域に表示される状態で、前記ユーザの頭部が特定の方向に動くと前記の追跡で決定されると、前記中央コンテンツ領域に、周辺コンテンツ領域に表示された第2のコンテンツに関する情報を表示するスクリーン制御ユニットであって、前記周辺コンテンツ領域は、前記中央コンテンツ領域から前記特定方向に又は前記特定方向と反対の方向に位置する、スクリーン制御ユニットと、
    を有する装置。
  24. 前記スクリーン制御ユニットは、前記スクリーンに前記複数のコンテンツ領域をグリッド形式で配置されるように表示する、請求項23に記載の装置。
  25. 前記スクリーン制御ユニットは、前記スクリーンに前記複数のコンテンツ領域を3次元球の形式で配置されるようにユーザに示されるように表示する、請求項24に記載の装置。
  26. 前記スクリーン制御ユニットは、前記中央コンテンツ領域が前記スクリーンの中央部に位置するように前記スクリーンを制御する、請求項23に記載の装置。
  27. 前記第1のコンテンツに関する情報が前記複数のコンテンツ領域のうちの前記中央コンテンツ領域に表示される状態で、前記ユーザの頭部が特定方向に動くと前記の追跡で決定されると、前記スクリーン制御ユニットは、前記中央コンテンツ領域に、周辺コンテンツ領域に表示された前記第2のコンテンツに関する情報を表示し、前記中央コンテンツ領域から前記周辺コンテンツ領域は、前記複数のコンテンツ領域に表示される複数のコンテンツに関する情報をそれらの配置順が保たれるようにスライドさせることにより、前記特定方向に又は前記特定方向と反対の方向に位置付けられる、請求項23に記載の装置。
  28. 前記スクリーン制御ユニットは、前記ユーザに前記頭部追跡の実行が成功したか否かに関する情報を提示する、請求項23に記載の装置。
  29. 前記スクリーン制御ユニットは、前記頭部追跡の実行が成功したか否かに関する情報を、前記スクリーンの領域の色を変化することにより提示する、請求項28に記載の装置。
  30. 前記スクリーン制御ユニットは、所定のスクリーン制御ボタンを更に表示し、
    前記所定のスクリーン制御ボタンが選択された状態で、前記ユーザの頭部が特定方向に動くと前記の追跡で決定されると、前記スクリーン制御ユニットは、周辺コンテンツ領域に表示された前記第2のコンテンツに関する情報を、前記中央コンテンツ領域に表示し、前記周辺コンテンツ領域は、前記中央コンテンツ領域から、前記特定方向に又は前記特定方向と反対の方向に位置づけられる、請求項23に記載の装置。
  31. 機械的キーボタン又はスピーカを更に有し、
    前記機械的キーボタン又はスピーカを通じて信号が入力された状態で、前記ユーザの頭部が特定方向に動くと前記の追跡で決定されると、前記スクリーン制御ユニットは、周辺コンテンツ領域に表示された前記第2のコンテンツに関する情報を、前記中央コンテンツ領域に表示し、前記周辺コンテンツ領域は、前記中央コンテンツ領域から、前記特定方向に又は前記特定方向と反対の方向に位置づけられる、請求項23に記載の装置。
  32. 前記スクリーン制御ユニットは、所定のスクリーン制御ボタンを更に表示し、
    前記所定のスクリーン制御ボタンが、所定時間t1の間、該ボタンを連続的に押下することにより選択された場合、前記スクリーン制御ユニットは、前記所定のスクリーン制御ボタンが所定時間t2の間、該ボタンを連続的に押下することにより再び選択されるまで、前記中央コンテンツ領域に前記第2のコンテンツに関する情報の表示を保持する、請求項23に記載の装置。
  33. 前記スクリーン制御ユニットは、前記の表示された中央コンテンツ領域を強調表示する、請求項23に記載の装置。
  34. 前記第1のコンテンツ又は前記第2のコンテンツは、写真、画像、動画像、文書及びオーディオコンテンツのうちの少なくとも1つを有する、請求項23に記載の装置。
  35. 前記スクリーン制御ユニットは、前記ユーザの頭部の動きを検出することなく、特定コンテンツに関する情報が所定時間の間前記中央コンテンツ領域に連続的に表示される場合、前記特定コンテンツの詳細スクリーンへの移行を行う、を更に有する請求項23に記載の装置。
  36. 前記スクリーン制御ユニットは、前記特定コンテンツに関する情報が前記所定時間の間、前記中央コンテンツ領域に連続的に表示される場合、前記特定コンテンツの詳細スクリーンへの移行のための読み込み中画像を表示する、を更に有する請求項35に記載の装置。
  37. 前記詳細スクリーンが表示される状態で、前記ユーザの頭部が特定方向に動くと検出された場合、前記スクリーン制御ユニットは、前記複数のコンテンツ領域が前記スクリーン上で配置された順序に関して、前の又は次のコンテンツの詳細スクリーンへ直接移行が行われるように前記スクリーンを制御する、請求項35に記載の装置。
  38. 前記詳細スクリーンが表示される状態で、前記ユーザの頭部が特定方向に動くと検出された場合、前記スクリーン制御ユニットは、前記複数のコンテンツ領域が前記スクリーン上で配置された順序に関して、前の又は次のコンテンツが存在するか否かを示す画像インジケータを表示する、請求項35に記載の装置。
  39. 前記詳細スクリーンが表示される状態で、前記ユーザの頭部が前記カメラモジュールに近付く又は前記カメラモジュールから離れると検出された場合、前記スクリーン制御ユニットは、前記詳細スクリーンを拡大又は縮小させる、請求項35に記載の装置。
  40. 前記詳細スクリーンが拡大される状態で、前記ユーザの頭部が特定方向に動くと検出された場合、前記スクリーン制御ユニットは、前記詳細スクリーンを前記特定方向に又は前記特定方向と反対の方向にスクロールさせる、請求項39に記載の装置。
  41. 前記特定コンテンツが動画像であり、及び前記詳細スクリーンが表示される状態で、前記ユーザの頭部が第1の方向に動くと検出された場合、前記スクリーン制御ユニットは、前記動画像を再生する、請求項35に記載の装置。
  42. 前記動画像が再生される間、前記ユーザの頭部が前記第1の方向に動くと検出された場合、前記スクリーン制御ユニットは、前記動画像の再生を停止する、請求項41に記載の装置。
  43. 前記動画像の再生が停止される状態で、前記ユーザの頭部が第2の方向に動くと検出された場合、前記スクリーン制御ユニットは、前記複数のコンテンツ領域が表示されるスクリーンへの移行を行う、請求項42に記載の装置。
  44. 前記スクリーン制御ユニットは、前記スクリーンの一部に前記カメラモジュールによりキャプチャされたカメラスクリーンを表示し、前記カメラスクリーンでタッチ入力が生成されると、前記カメラスクリーンを所定のスクリーン制御ボタンに変更する、請求項35に記載の装置。
  45. 請求項1乃至22のいずれか一項に記載の方法を実行するためのコンピュータプログラムを格納するコンピュータ可読記録媒体。
JP2014558687A 2012-02-23 2013-02-25 カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体 Pending JP2015508211A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020120018737A KR101180119B1 (ko) 2012-02-23 2012-02-23 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체
KR10-2012-0018737 2012-02-23
PCT/KR2013/001482 WO2013125921A1 (en) 2012-02-23 2013-02-25 Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor

Publications (1)

Publication Number Publication Date
JP2015508211A true JP2015508211A (ja) 2015-03-16

Family

ID=47073863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014558687A Pending JP2015508211A (ja) 2012-02-23 2013-02-25 カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体

Country Status (5)

Country Link
US (2) US9261957B2 (ja)
JP (1) JP2015508211A (ja)
KR (1) KR101180119B1 (ja)
CN (1) CN104145233B (ja)
WO (1) WO2013125921A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135841A (ja) * 2020-02-28 2021-09-13 日本精機株式会社 操作装置

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201305402D0 (en) * 2013-03-25 2013-05-08 Sony Comp Entertainment Europe Head mountable display
CN105144704B (zh) * 2013-03-27 2018-10-23 日本电气株式会社 显示设备和显示方法
KR20140133362A (ko) * 2013-05-10 2014-11-19 삼성전자주식회사 디스플레이 장치 및 그 ui 화면 제공 방법
KR101799294B1 (ko) 2013-05-10 2017-11-20 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
CN104166835A (zh) * 2013-05-17 2014-11-26 诺基亚公司 用于识别活体用户的方法和装置
KR20150003560A (ko) 2013-07-01 2015-01-09 삼성전자주식회사 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 방법 및 장치
US9244539B2 (en) 2014-01-07 2016-01-26 Microsoft Technology Licensing, Llc Target positioning with gaze tracking
US9846522B2 (en) * 2014-07-23 2017-12-19 Microsoft Technology Licensing, Llc Alignable user interface
KR20160025922A (ko) * 2014-08-28 2016-03-09 삼성전자주식회사 영상 처리 방법 및 장치
KR101682215B1 (ko) * 2015-05-26 2016-12-02 (주)펀퍼니브라더스 가상현실 vr 웹툰의 제공 장치 및 방법
JP6547563B2 (ja) * 2015-09-30 2019-07-24 富士通株式会社 検出プログラム、検出方法及び検出装置
CN105388973B (zh) * 2015-11-13 2019-03-19 业成光电(深圳)有限公司 可携式电子装置
KR102163149B1 (ko) * 2015-11-25 2020-10-08 한국전자기술연구원 서비스 프로토타이핑에서의 ux 프로파일링을 위한 실감형 테스트 시스템
JP6729069B2 (ja) * 2016-06-28 2020-07-22 富士ゼロックス株式会社 情報処理装置
EP3508965A1 (en) * 2016-08-31 2019-07-10 Sony Corporation Information processing device, information processing method, and recording medium
US10955987B2 (en) * 2016-10-04 2021-03-23 Facebook, Inc. Three-dimensional user interface
CN106599652A (zh) * 2016-11-14 2017-04-26 深圳市金立通信设备有限公司 屏幕解锁方法及终端
CN109343754A (zh) * 2018-08-27 2019-02-15 维沃移动通信有限公司 一种图像显示方法及终端
US11991450B2 (en) * 2019-05-27 2024-05-21 Sony Group Corporation Composition control device, composition control method, and program
WO2021132013A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187092A (ja) * 1992-12-21 1994-07-08 Fujitsu Ltd 頭部駆動ポインティング装置
JPH118822A (ja) * 1997-06-17 1999-01-12 Olympus Optical Co Ltd 画像信号処理装置及び電子的撮像装置
JP2002116859A (ja) * 2000-10-11 2002-04-19 Sony Corp 情報処理装置、命令認識処理方法及びプログラム格納媒体
JP2005056059A (ja) * 2003-08-01 2005-03-03 Canon Inc 撮像部を備えた頭部搭載型ディスプレイを用いた入力装置および方法
JP2005121768A (ja) * 2003-10-15 2005-05-12 Sharp Corp 記録データ再生システム及び記録データ再生方法
JP2008015942A (ja) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc ユーザインタフェースプログラム、装置および方法、情報処理システム
JP2009031368A (ja) * 2007-07-24 2009-02-12 Nec Corp 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
US20100125816A1 (en) * 2008-11-20 2010-05-20 Bezos Jeffrey P Movement recognition as input mechanism
JP2010262525A (ja) * 2009-05-08 2010-11-18 Alps Electric Co Ltd 入力処理装置
JP2011015301A (ja) * 2009-07-03 2011-01-20 Sony Corp 表示制御装置および表示制御方法
JP2011517357A (ja) * 2008-03-04 2011-06-02 ジェスチャー テック,インコーポレイテッド 改良されたジェスチャに基づく画像操作
JP2011209786A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5859642A (en) 1996-09-26 1999-01-12 Sandia Corporation Virtual button interface
US8064647B2 (en) * 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US7667700B1 (en) 2004-03-05 2010-02-23 Hrl Laboratories, Llc System and method for navigating operating in a virtual environment
JP4699139B2 (ja) * 2004-09-14 2011-06-08 富士フイルム株式会社 セキュリティシステム
US8069420B2 (en) * 2004-12-29 2011-11-29 Karl Storz Endoscopy-America, Inc. System for controlling the communication of medical imaging data
US20060271867A1 (en) * 2005-05-27 2006-11-30 Wang Kong Q Mobile communications terminal and method therefore
KR100843093B1 (ko) 2006-11-28 2008-07-02 삼성전자주식회사 움직임에 따라 컨텐츠를 디스플레이하는 장치 및 방법
US8077915B2 (en) 2007-10-12 2011-12-13 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
JP2009294728A (ja) * 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
KR20100012124A (ko) 2008-07-28 2010-02-08 주식회사 미래인식 얼굴인식을 이용한 실시간 개인컴퓨터 보안 인증 방법 및시스템
KR101194259B1 (ko) 2010-06-14 2012-10-29 한국과학기술원 얼굴방향 인식기반의 단일 입력 인터페이스 방법 및 이를 이용한 시스템
US8493390B2 (en) * 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187092A (ja) * 1992-12-21 1994-07-08 Fujitsu Ltd 頭部駆動ポインティング装置
JPH118822A (ja) * 1997-06-17 1999-01-12 Olympus Optical Co Ltd 画像信号処理装置及び電子的撮像装置
JP2002116859A (ja) * 2000-10-11 2002-04-19 Sony Corp 情報処理装置、命令認識処理方法及びプログラム格納媒体
JP2005056059A (ja) * 2003-08-01 2005-03-03 Canon Inc 撮像部を備えた頭部搭載型ディスプレイを用いた入力装置および方法
JP2005121768A (ja) * 2003-10-15 2005-05-12 Sharp Corp 記録データ再生システム及び記録データ再生方法
JP2008015942A (ja) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc ユーザインタフェースプログラム、装置および方法、情報処理システム
JP2009031368A (ja) * 2007-07-24 2009-02-12 Nec Corp 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
JP2011517357A (ja) * 2008-03-04 2011-06-02 ジェスチャー テック,インコーポレイテッド 改良されたジェスチャに基づく画像操作
US20100125816A1 (en) * 2008-11-20 2010-05-20 Bezos Jeffrey P Movement recognition as input mechanism
JP2010262525A (ja) * 2009-05-08 2010-11-18 Alps Electric Co Ltd 入力処理装置
JP2011015301A (ja) * 2009-07-03 2011-01-20 Sony Corp 表示制御装置および表示制御方法
JP2011209786A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135841A (ja) * 2020-02-28 2021-09-13 日本精機株式会社 操作装置
JP7375611B2 (ja) 2020-02-28 2023-11-08 日本精機株式会社 操作装置

Also Published As

Publication number Publication date
US20140210705A1 (en) 2014-07-31
WO2013125921A1 (en) 2013-08-29
US9261957B2 (en) 2016-02-16
US9465437B2 (en) 2016-10-11
KR101180119B1 (ko) 2012-09-05
US20160179191A1 (en) 2016-06-23
CN104145233B (zh) 2017-10-27
CN104145233A (zh) 2014-11-12

Similar Documents

Publication Publication Date Title
US9465437B2 (en) Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor
US12086399B2 (en) Device, method, and graphical user interface for media playback
US11797146B2 (en) Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
KR102423826B1 (ko) 사용자 단말 장치 및 그의 제어 방법
US11750888B2 (en) User interfaces including selectable representations of content items
US20240302952A1 (en) User interfaces for viewing and accessing content on an electronic device
EP3127119B1 (en) Device, method, and graphical user interface for navigating media content
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
KR102203885B1 (ko) 사용자 단말 장치 및 그 제어 방법
US8217905B2 (en) Method and apparatus for touchscreen based user interface interaction
JP5429060B2 (ja) 表示制御装置、表示制御方法、表示制御プログラム並びにこの表示制御プログラムが記録された記録媒体
KR102028952B1 (ko) 휴대 단말에 의해 촬영된 이미지들을 합성하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US11188192B2 (en) Information processing device, information processing method, and computer program for side menus
US20140164990A1 (en) Display device and method of controlling the same
JP5754074B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20160378318A1 (en) Information processing device, information processing method, and computer program
CA2782786A1 (en) Electronic device interface
US20150063785A1 (en) Method of overlappingly displaying visual object on video, storage medium, and electronic device
CA2782784A1 (en) Electronic device interface
KR102317619B1 (ko) 전자 장치 및 이의 제어 방법
US20220248101A1 (en) User interfaces for indicating and/or controlling content item playback formats
US9886167B2 (en) Display apparatus and control method thereof
EP3128397B1 (en) Electronic apparatus and text input method for the same
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
KR20160040028A (ko) 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160308