JP2013109459A - Display device, display method and program - Google Patents

Display device, display method and program Download PDF

Info

Publication number
JP2013109459A
JP2013109459A JP2011252460A JP2011252460A JP2013109459A JP 2013109459 A JP2013109459 A JP 2013109459A JP 2011252460 A JP2011252460 A JP 2011252460A JP 2011252460 A JP2011252460 A JP 2011252460A JP 2013109459 A JP2013109459 A JP 2013109459A
Authority
JP
Japan
Prior art keywords
display
unit
data
display device
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011252460A
Other languages
Japanese (ja)
Inventor
Yumi Tachibana
裕美 立花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung Yokohama Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Yokohama Research Institute filed Critical Samsung Yokohama Research Institute
Priority to JP2011252460A priority Critical patent/JP2013109459A/en
Priority to KR1020120125092A priority patent/KR20130055520A/en
Priority to US13/680,610 priority patent/US20130127841A1/en
Publication of JP2013109459A publication Critical patent/JP2013109459A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To stop three-dimensional display of an unnecessary object while a user is watching contents.SOLUTION: A three-dimensional data generation unit 113 of a display device 100 generates data for two-dimensional display of each object constituting a content and data for three-dimensional display of the object for focus, out of the content for display 300. An output unit 130, in an operation start state, displays a content screen in which the object for focus is displayed in a three-dimensional way, on a display device 400 with the use of the data for three-dimensional display of the object for focus and data for two-dimensional display of another object. A determination unit 121 instructs the output unit 130 to stop three-dimensional display when it is determined that an operation end is input in an input unit 120. The output unit 130 displays a content screen in which all the objects are planarly displayed, on the display device 400 with the use of data for two-dimensional display for all the objects.

Description

本発明は、表示装置、表示方法、及びプログラムに関する。   The present invention relates to a display device, a display method, and a program.

主にテレビなどがコンテンツを表示する際、ブラウザのフォーカスやメニューなどのオブジェクトを立体表示する技術がある。例えば、特許文献1には、フォーカスがあたっている部品を立体表示する技術が記載されている。また、特許文献2には、使用頻度、重要度、ユーザ嗜好等のオブジェクトの属性に応じて優先度が高いオブジェクトを立体表示することで、ユーザがコンテンツを操作する上での利便性を向上させることが記載されている。   There is a technology for stereoscopically displaying objects such as browser focus and menus when a television or the like displays content. For example, Patent Document 1 describes a technique for stereoscopically displaying a focused component. Further, in Patent Document 2, the convenience for the user to operate the content is improved by stereoscopically displaying an object having a high priority according to the attribute of the object such as usage frequency, importance, and user preference. It is described.

特開2004−354540号公報JP 2004-354540 A 特開2005−49668号公報JP 2005-49668 A

上述した従来の技術では、立体表示させる対象を考慮することで、ユーザが実際にオブジェクトを操作する際の操作性を向上させている。しかし、これは常に何らかのオブジェクトが立体表示された状態であり、ユーザが本来見たいと思っていない情報が立体視されたままとなる可能性がある。例えば、ユーザは、データ放送の電車の運行情報や、テロップで流れるニュースなどで提示される情報を見ていたいだけの場合や、ブラウザで再生している映像を見ているだけの場合などがある。このときに、ユーザが意識する必要のない、あるいは意識したくないメニューやアイコンなどのオブジェクトが立体視されているままの状態では、本来見たい情報や映像を見にくくしてしまう。   In the conventional technology described above, the operability when the user actually operates the object is improved by considering the object to be stereoscopically displayed. However, this is always a state in which some object is stereoscopically displayed, and there is a possibility that information that the user originally does not want to see remains stereoscopically viewed. For example, there are cases where the user only wants to see information provided by train operation information of data broadcasting, news that flows in a telop, or only watching video that is being played back by a browser. At this time, if an object such as a menu or icon that the user does not need to be aware of or does not want to be aware of is stereoscopically viewed, it becomes difficult to see information or video that the user originally wants to see.

本発明は、このような事情を考慮してなされたものであり、ユーザがコンテンツを見ているときに必要のないオブジェクトの立体表示を終了することができる表示装置、表示方法、及びプログラムを提供する。   The present invention has been made in view of such circumstances, and provides a display device, a display method, and a program capable of terminating stereoscopic display of an object that is not necessary when a user is viewing content. To do.

上述した課題を解決するために、本発明は、画像を表示する表示部と、前記表示部に表示用データを表示させる出力部と、操作終了が入力されたか否かを判断する判定部とを備え、前記出力部は、オブジェクトを立体表示させる表示用データを前記表示部に表示させているときに前記判定部が操作終了のユーザ入力を判断した場合、前記オブジェクトを立体表示させる前記表示用データに代えて、前記オブジェクトを平面表示させる表示用データを前記表示部に表示させる、ことを特徴とする表示装置である。   In order to solve the above-described problem, the present invention includes a display unit that displays an image, an output unit that displays display data on the display unit, and a determination unit that determines whether or not an operation end has been input. And the output unit displays the object in a three-dimensional display when the determination unit determines a user input to end the operation while displaying the display data for displaying the object in the three-dimensional display on the display unit. Instead, the display device displays display data for displaying the object in a plane on the display unit.

また、本発明は、上述する表示装置であって、前記出力部は、前記表示部にコンテンツを構成するオブジェクトを立体表示させる表示用データ及び前記コンテンツを構成する他のオブジェクトを平面表示させる表示用データを表示させているときに前記判定部が操作終了のユーザ入力を判断した場合、前記オブジェクトを立体表示させる前記表示用データに代えて、前記オブジェクトを平面表示させる表示用データを前記表示部に表示させる、ことを特徴とする。   Further, the present invention is the above-described display device, wherein the output unit displays data for displaying the object constituting the content in a three-dimensional manner on the display unit, and for displaying the other object constituting the content on a plane. When the determination unit determines the user input to end the operation while displaying the data, the display unit displays display data for displaying the object in a plane instead of the display data for displaying the object in three dimensions. It is displayed.

また、本発明は、上述する表示装置であって、立体表示対象の前記オブジェクトはユーザに操作を選択させるメニューである、ことを特徴とする。   Moreover, the present invention is the display device described above, wherein the object to be stereoscopically displayed is a menu that allows a user to select an operation.

また、本発明は、表示装置が実行する表示方法であって、出力部が、前記表示装置が備える表示部に表示用データを表示させる出力ステップと、判定部が、操作終了が入力されたか否かを判断する判定ステップと、前記出力部が、オブジェクトを立体表示させる表示用データを前記表示部に表示させているときに前記判定ステップにおいて操作終了のユーザ入力を判断した場合、前記オブジェクトを立体表示させる前記表示用データに代えて、前記オブジェクトを平面表示させる表示用データを前記表示部に表示させる立体表示終了ステップと、を有することを特徴とする表示方法である。   In addition, the present invention is a display method executed by the display device, wherein the output unit displays the display data on the display unit included in the display device, and whether the determination unit inputs an operation end. A determination step for determining whether or not the output unit displays display data for stereoscopic display of the object on the display unit, and when the user input for the end of the operation is determined in the determination step, the object is stereoscopically displayed. Instead of the display data to be displayed, there is a stereoscopic display end step of displaying on the display unit display data for planar display of the object.

また、本発明は、表示装置として用いられるコンピュータに、前記表示装置が備える表示部に表示用データを表示させる出力手順と、操作終了が入力されたか否かを判断する判定手順と、オブジェクトを立体表示させる表示用データを前記表示部に表示させているときに前記判定手順において操作終了のユーザ入力を判断した場合、前記オブジェクトを立体表示させる前記表示用データに代えて、前記オブジェクトを平面表示させる表示用データを前記表示部に表示させる立体表示終了手順と、を実行させるためのプログラムである。   Further, the present invention provides an output procedure for causing a computer used as a display device to display display data on a display unit included in the display device, a determination procedure for determining whether or not an operation end is input, and a three-dimensional object. When the display input data to be displayed is displayed on the display unit and the user input for ending the operation is determined in the determination procedure, the object is displayed in a plane instead of the display data for stereoscopic display of the object. And a stereoscopic display end procedure for displaying display data on the display unit.

本発明によれば、ユーザがコンテンツを見ているときに必要のないオブジェクトの立体表示を終了することができる。   According to the present invention, it is possible to end stereoscopic display of an object that is not necessary when the user is viewing content.

本発明の一実施形態による情報表示装置の構成を示す図である。It is a figure which shows the structure of the information display apparatus by one Embodiment of this invention. 同実施形態による表示装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the display apparatus by the embodiment. 同実施形態による表示用データ生成処理フローを示す図である。It is a figure which shows the display data production | generation processing flow by the embodiment. 同実施形態による表示処理フローを示す図である。It is a figure which shows the display processing flow by the embodiment. 同実施形態による表示装置が表示する画面イメージを示す図である。It is a figure which shows the screen image which the display apparatus by the embodiment displays. 同実施形態による表示装置が表示する画面イメージを示す図である。It is a figure which shows the screen image which the display apparatus by the embodiment displays.

以下、図面を参照しながら本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の一実施形態による情報表示装置1の構成を示す図である。同図に示すように、本実施形態の情報表示装置1は、例えば、表示デバイス400を備えるテレビジョン受像機などの表示装置100と、操作デバイスであるコントローラ200とから構成される。表示デバイス400は、立体表示(以下、「3D(三次元)表示」と記載する。)が可能なディスプレイであり、専用の眼鏡が必要な場合もある。
なお、表示装置100にジェスチャー入力や音声入力が可能である場合、コントローラ200などの操作デバイスはなくともよい。また、情報表示装置1は、携帯電話端末、パーソナルコンピュータ、ゲーム機など、操作デバイスを同じ筐体に備える表示装置100でもよい。
FIG. 1 is a diagram showing a configuration of an information display device 1 according to an embodiment of the present invention. As shown in the figure, the information display device 1 according to the present embodiment includes, for example, a display device 100 such as a television receiver including a display device 400 and a controller 200 that is an operation device. The display device 400 is a display capable of stereoscopic display (hereinafter referred to as “3D (three-dimensional) display”), and may require dedicated glasses.
Note that when a gesture input or a voice input is possible on the display device 100, an operation device such as the controller 200 may not be provided. The information display device 1 may be a display device 100 that includes an operation device in the same casing, such as a mobile phone terminal, a personal computer, and a game machine.

図2は、表示装置100の内部構成を示すブロック図であり、本実施形態と関係する機能ブロックのみ抽出して示してある。同図に示すように、表示装置100は、コンテンツ解析部110、入力部120、判定部121、出力部130、及び表示デバイス400(表示部)を備えて構成される。   FIG. 2 is a block diagram showing an internal configuration of the display apparatus 100, and only functional blocks related to the present embodiment are extracted and shown. As shown in the figure, the display device 100 includes a content analysis unit 110, an input unit 120, a determination unit 121, an output unit 130, and a display device 400 (display unit).

コンテンツ解析部110は、コンテンツの画像を表示させるためのデータである表示用コンテンツ300を取得する。表示用コンテンツ300は、1以上のオブジェクトの画像を表示させるためのデータからなる。オブジェクトには、例えば、動画、静止画、テキスト、メニューボタンなどが含まれる。コンテンツ解析部110は、取得した表示用コンテンツ300から、表示デバイス400にコンテンツの画像を表示させるための各オブジェクトの表示用データを生成する。   The content analysis unit 110 acquires display content 300 that is data for displaying a content image. The display content 300 includes data for displaying an image of one or more objects. Objects include, for example, moving images, still images, texts, menu buttons, and the like. The content analysis unit 110 generates display data for each object for causing the display device 400 to display an image of the content from the acquired display content 300.

コンテンツ解析部110は、フォーカス位置判定部111及び3D表示データ生成部113を備える。フォーカス位置判定部111は、表示用コンテンツ300の言語記述に基づいてフォーカスされているオブジェクトを特定する。
3D表示データ生成部113は、表示用コンテンツ300に含まれる全てのオブジェクトの2D(二次元)表示用データを生成するとともに、フォーカス位置判定部111によってフォーカスされていると特定されたオブジェクトの3D表示用データを生成する。2D表示用データは、3D表示を行なわずに、オブジェクトを通常どおり平面表示させる表示用データであり、3D表示用データは、オブジェクトを3D表示させる表示用データである。3D表示データ生成部113は、生成した各オブジェクトの2D表示用データと、フォーカスされているオブジェクトの3D表示用データとを出力部130に出力する。
The content analysis unit 110 includes a focus position determination unit 111 and a 3D display data generation unit 113. The focus position determination unit 111 identifies the focused object based on the language description of the display content 300.
The 3D display data generation unit 113 generates 2D (two-dimensional) display data of all objects included in the display content 300, and 3D display of the object identified as being focused by the focus position determination unit 111 Data is generated. The 2D display data is display data for displaying an object on a plane as usual without performing 3D display, and the 3D display data is display data for displaying an object in 3D. The 3D display data generation unit 113 outputs the generated 2D display data of each object and 3D display data of the focused object to the output unit 130.

入力部120は、ユーザによる操作の入力を受けるインタフェースである。例えば、入力部120は、コントローラ200に行われたユーザ操作を赤外線通信等の無線通信により受信する。あるいは、入力部120は、ユーザのジェスチャーや音声による入力を受けてもよい。また、入力部120は、表示装置100が備えるキーやボタンなどの入力装置(操作デバイス)であってもよい。
判定部121は、入力部120に入力されたユーザ操作に基づいて、操作の開始や終了を判定する。
The input unit 120 is an interface that receives an operation input by a user. For example, the input unit 120 receives a user operation performed on the controller 200 by wireless communication such as infrared communication. Alternatively, the input unit 120 may receive an input by a user's gesture or voice. The input unit 120 may be an input device (operation device) such as a key or a button provided in the display device 100.
The determination unit 121 determines the start or end of the operation based on the user operation input to the input unit 120.

出力部130は、3D表示データ生成部113から入力された表示用データを表示デバイス400に表示させる。出力部130は、判定部121が操作開始と判定した場合、フォーカスされているオブジェクトの3D表示用データと、フォーカスされていないオブジェクトの2D表示用データとを出力部130に出力し、コンテンツの画像を表示させる。また、出力部130は、判定部121が操作終了と判定した場合、全てのオブジェクトについて2D表示用データを出力部130に出力し、コンテンツの画像を表示させる。
表示デバイス400は、既存の3D表示方式により3D表示が可能なディスプレイである。
The output unit 130 causes the display device 400 to display the display data input from the 3D display data generation unit 113. When the determination unit 121 determines that the operation is started, the output unit 130 outputs the 3D display data of the focused object and the 2D display data of the unfocused object to the output unit 130, and the content image Is displayed. Further, when the determination unit 121 determines that the operation is finished, the output unit 130 outputs 2D display data for all objects to the output unit 130 to display the content image.
The display device 400 is a display capable of 3D display using an existing 3D display method.

次に、表示装置100の動作について説明する。   Next, the operation of the display device 100 will be described.

図3は、本実施形態の表示装置100における表示用データ生成処理フローを示す図である。
表示装置100のコンテンツ解析部110は、表示用コンテンツ300を取得する(ステップS11)。コンテンツ解析部110は、表示用コンテンツ300を放送や通信により受信してもよく、内部に備える図示しない記憶装置やウェブサーバなど外部の記憶装置から読み出してもよい。
FIG. 3 is a diagram showing a display data generation processing flow in the display device 100 of the present embodiment.
The content analysis unit 110 of the display device 100 acquires the display content 300 (step S11). The content analysis unit 110 may receive the display content 300 by broadcasting or communication, and may read it from an external storage device such as a storage device or a web server (not shown) provided inside.

フォーカス位置判定部111は、取得した表示用コンテンツ300の言語記述を解析し、この表示用コンテンツ300に含まれるオブジェクトのうち、フォーカスされているオブジェクトを特定する(ステップS12)。   The focus position determination unit 111 analyzes the language description of the acquired display content 300 and identifies a focused object among the objects included in the display content 300 (step S12).

例えば、フォーカス位置判定部111は、表示用コンテンツ300にデフォルトでフォーカス対象である旨が記述されているオブジェクト(例えば、メニューボタンなど)を特定する。
あるいは、フォーカス位置判定部111は、表示用コンテンツ300に含まれるオブジェクトのうち、過去のユーザの入力に基づいてフォーカス対象のオブジェクトを特定する。例えば、フォーカス位置判定部111は、入力部120に入力されたユーザ操作から判定部121においてユーザが選択したと判断したメニューボタンと、その選択回数を記憶しておく。フォーカス位置判定部111は、記憶している各メニューボタンの選択回数に基づいて、使用頻度の高いメニューボタンをフォーカス対象のオブジェクトであると判断する。
For example, the focus position determination unit 111 identifies an object (for example, a menu button or the like) that is described as a focus target by default in the display content 300.
Alternatively, the focus position determination unit 111 identifies an object to be focused among objects included in the display content 300 based on past user input. For example, the focus position determination unit 111 stores the menu button determined by the determination unit 121 to be selected by the user from the user operation input to the input unit 120 and the number of selections. The focus position determination unit 111 determines that the frequently used menu button is the object to be focused based on the stored number of selections of each menu button.

またあるいは、現在表示装置100がユーザ操作モードであり、表示デバイス400に3D表示を行っている状態である場合、フォーカス位置判定部111は、入力部120に入力されたユーザ操作に基づいて判定部121が操作対象であると判断したオブジェクトを、フォーカス対象のオブジェクトであると判断する。例えば、判定部121は、入力部120に入力されたユーザ操作からあるメニューボタンが選択されたと判定した場合、その旨をフォーカス位置判定部111に通知する。フォーカス位置判定部111は、通知されたメニューボタンをフォーカス対象のオブジェクトであると判断する。   Alternatively, when the display device 100 is currently in the user operation mode and performing 3D display on the display device 400, the focus position determination unit 111 determines the determination unit based on the user operation input to the input unit 120. The object determined to be the operation target 121 is determined to be the focus target object. For example, if the determination unit 121 determines that a certain menu button has been selected from a user operation input to the input unit 120, the determination unit 121 notifies the focus position determination unit 111 accordingly. The focus position determination unit 111 determines that the notified menu button is an object to be focused.

3D表示データ生成部113は、表示用コンテンツ300をデコードするなどして、表示対象の各オブジェクトの2D表示用データを生成する(ステップS13)。
例えば、表示用コンテンツ300が放送コンテンツである場合、表示対象のオブジェクトは、コントローラ200により選択されたチャネルの番組(動画)や、データ放送の天気予報(静止画)、ニュース(テキストデータ)、データ放送のメニューボタン、メニューボタンにより選択された情報(静止画やテキストデータ)などである。
The 3D display data generation unit 113 generates 2D display data for each object to be displayed, for example, by decoding the display content 300 (step S13).
For example, when the display content 300 is broadcast content, the object to be displayed is a program (moving image) of a channel selected by the controller 200, a weather forecast (still image) of data broadcasting, news (text data), data Broadcast menu button, information selected by the menu button (still image or text data), and the like.

さらに、3D表示データ生成部113は、ステップS12において特定されたオブジェクトの2D表示用データを用いて、3D表示用データを生成する(ステップS14)。2D表示を行うための表示用データから3D表示を行うための表示用データを生成する方法として、例えば、特開平8―63615号公報に記載の方法などがあるが、任意の既存の方法を用いることができる。3D表示データ生成部113は、生成した全てのオブジェクトの2D表示用データと、フォーカスされているオブジェクトの3D表示用データを出力部130に出力する(ステップS15)。   Further, the 3D display data generation unit 113 generates 3D display data using the 2D display data of the object specified in step S12 (step S14). As a method for generating display data for performing 3D display from display data for performing 2D display, for example, there is a method described in Japanese Patent Laid-Open No. 8-63615, but any existing method is used. be able to. The 3D display data generation unit 113 outputs the generated 2D display data of all objects and the 3D display data of the focused object to the output unit 130 (step S15).

図4は、本実施形態の表示装置100における表示処理フローを示す図である。
出力部130は、現在、操作モードであるか否かを判断する(ステップS21)。なお、表示装置100の初期状態を操作モードとするか、閲覧モードとするかについては、任意である。出力部130は、現在閲覧モードであり、操作モードではないと判断した場合(ステップS21:NO)、3D表示データ生成部113から入力された各オブジェクトの2D表示用データを表示デバイス400に表示させる(ステップS22)。これにより、表示デバイス400には、全てのオブジェクトが2D表示されているコンテンツの画像が表示される。
FIG. 4 is a diagram showing a display processing flow in the display device 100 of the present embodiment.
The output unit 130 determines whether or not it is currently in the operation mode (step S21). Note that it is arbitrary whether the initial state of the display device 100 is the operation mode or the browsing mode. When the output unit 130 determines that the current viewing mode is not the operation mode (step S21: NO), the display device 400 displays the 2D display data of each object input from the 3D display data generation unit 113. (Step S22). As a result, an image of content in which all objects are displayed in 2D is displayed on the display device 400.

判定部121は、入力部120に操作開始が入力されたかを判定する(ステップS23)。判定部121が、操作開始は入力されていないと判断した場合(ステップS23:NO)、表示装置100は、ステップS22の処理を繰り返す。   The determination unit 121 determines whether an operation start is input to the input unit 120 (step S23). When the determination unit 121 determines that the operation start is not input (step S23: NO), the display device 100 repeats the process of step S22.

判定部121は、入力部120に入力されたユーザ操作が操作開始を示していると判断した場合(ステップS23:YES)、ユーザ操作モードに遷移し、3D表示要求を出力部130に出力する(ステップS24)。このとき、判定部121は、ユーザ操作が、特定のオブジェクトについての操作開始を示していると判断した場合、そのオブジェクトをフォーカス位置判定部111に通知する。これにより、図3のステップS12においてフォーカス位置判定部111は、判定部121から通知されたオブジェクトをフォーカス対象として特定し、図3のステップS14において、3D表示データ生成部113は、通知されたオブジェクトの3D表示用データを生成する。   When the determination unit 121 determines that the user operation input to the input unit 120 indicates the start of operation (step S23: YES), the determination unit 121 transitions to the user operation mode and outputs a 3D display request to the output unit 130 ( Step S24). At this time, when the determination unit 121 determines that the user operation indicates the start of an operation for a specific object, the determination unit 121 notifies the focus position determination unit 111 of the object. Thereby, in step S12 in FIG. 3, the focus position determination unit 111 identifies the object notified from the determination unit 121 as a focus target, and in step S14 in FIG. 3, the 3D display data generation unit 113 displays the notified object. The 3D display data is generated.

出力部130は、判定部121から3D表示要求を受信すると、操作モードへ遷移したと判断し、ステップS21からの処理を繰り返す。これにより、出力部130は、現在、操作モードであると判断し(ステップS21:YES)、3D表示データ生成部113から入力されたフォーカス対象のオブジェクトの3D表示用データと、フォーカス対象以外のオブジェクトの2D表示用データを表示デバイス400に表示させる(ステップS25)。これにより、表示デバイス400には、フォーカスされているオブジェクトが3D表示され、他のオブジェクトは2D表示されているコンテンツの画像が表示される。   When receiving the 3D display request from the determination unit 121, the output unit 130 determines that the operation mode has been changed, and repeats the processing from step S21. Thereby, the output unit 130 determines that the current operation mode is selected (step S21: YES), and the 3D display data of the object to be focused input from the 3D display data generation unit 113 and the object other than the focus target. The 2D display data is displayed on the display device 400 (step S25). As a result, the focused object is displayed in 3D on the display device 400, and an image of the content displayed in 2D is displayed on the other objects.

判定部121は、入力部120に操作終了が入力されたかを判定する(ステップS26)。判定部121が、操作終了は入力されていないと判断した場合(ステップS26:NO)、表示装置100は、ステップS25の処理を繰り返す。   The determination unit 121 determines whether an operation end is input to the input unit 120 (step S26). When the determination unit 121 determines that the operation end has not been input (step S26: NO), the display device 100 repeats the process of step S25.

判定部121は、入力部120に入力されたユーザ操作が操作終了を示していると判断した場合(ステップS26:YES)、閲覧モードに遷移し、3D表示終了要求を出力部130に出力する(ステップS27)。出力部130は、判定部121から3D表示終了要求を受信すると、閲覧モードに遷移したと判断し、ステップS21からの処理を繰り返す。これにより、出力部130は、現在、操作モードではないと判断し(ステップS21:YES)、3D表示データ生成部113から入力された各オブジェクトの2D表示用データを表示デバイス400に表示させる(ステップS22)。つまり、表示装置100は、操作モードのときに3D表示させていたオブジェクトの3D表示用データに代えて、当該オブジェクトの2D表示用データを表示デバイス400に表示させる。
このようにして、表示装置100は、ユーザによる操作終了の指示に従って3D表示を終了させる。
When the determination unit 121 determines that the user operation input to the input unit 120 indicates the end of the operation (step S26: YES), the determination unit 121 transitions to the viewing mode and outputs a 3D display end request to the output unit 130 ( Step S27). When receiving the 3D display end request from the determination unit 121, the output unit 130 determines that the mode has been changed to the viewing mode, and repeats the processing from step S21. As a result, the output unit 130 determines that it is not currently in the operation mode (step S21: YES) and causes the display device 400 to display the 2D display data of each object input from the 3D display data generation unit 113 (step S21). S22). That is, the display device 100 causes the display device 400 to display the 2D display data of the object instead of the 3D display data of the object that has been displayed in 3D during the operation mode.
In this way, the display device 100 ends the 3D display in accordance with an operation end instruction from the user.

なお、ステップS25においてユーザが他のオブジェクトの操作開始を入力した場合、ステップS26において判定部121は、NOと判断する。判定部121は、新たに操作開始が指示されたオブジェクトをフォーカス位置判定部111に通知する。これにより、図3のステップS12においてフォーカス位置判定部111は、判定部121から通知されたオブジェクトをフォーカス対象として特定し、図3のステップS14において、3D表示データ生成部113は、通知されたオブジェクトの3D表示用データを生成する。従って、ステップS25において、出力部130は、新たに操作開始が指示されたオブジェクトの3D表示用データと、これまで3D表示を行っていたオブジェクトを含む他のオブジェクトの2D表示用データを表示デバイス400に表示させる。   When the user inputs an operation start of another object in step S25, the determination unit 121 determines NO in step S26. The determination unit 121 notifies the focus position determination unit 111 of an object for which an operation start has been newly instructed. Thereby, in step S12 in FIG. 3, the focus position determination unit 111 identifies the object notified from the determination unit 121 as a focus target, and in step S14 in FIG. 3, the 3D display data generation unit 113 displays the notified object. The 3D display data is generated. Accordingly, in step S25, the output unit 130 displays the 3D display data of the object for which the operation start is newly instructed and the 2D display data of other objects including the object that has been displayed in 3D so far. To display.

ステップS23において、判定部121が操作開始として判断するユーザ操作の例を以下に示す。
(操作a1)コントローラ200を手に取る。例えば、コントローラ200は、内部に備えるセンサに基づいてユーザが当該コントローラ200を手に取ったことを検出した場合、その旨を表示装置100の入力部120に通知する。
(操作a2)操作開始に対応した特定のジェスチャーを行う。この場合、入力部120は、ジェスチャー入力装置であり、判定部121は、入力部120によるジェスチャーの解析結果から操作開始を判断する。
(操作a3)ユーザがコントローラ200の操作開始キーを押す。コントローラ200は、操作開始キーが押された旨を表示装置100の入力部120に通知する。
(操作a4)表示デバイス400の前に存在するユーザの手を動かし始める。入力部120は、表示デバイス400の前に存在するユーザが手を動かし始めたことを検出し、判定部121は、入力部120の検出結果から操作開始と判断する。
(操作a5)ユーザが口頭で操作開始を指示する。この場合、入力部120は、音声入力装置であり、ユーザの発声を音声認識した結果を判定部121に出力する。判定部121は、入力部120の音声認識結果から操作開始と判断する。
An example of a user operation that the determination unit 121 determines as an operation start in step S23 is shown below.
(Operation a1) The controller 200 is picked up. For example, when the controller 200 detects that the user has picked up the controller 200 based on an internal sensor, the controller 200 notifies the input unit 120 of the display device 100 to that effect.
(Operation a2) A specific gesture corresponding to the operation start is performed. In this case, the input unit 120 is a gesture input device, and the determination unit 121 determines the operation start from the result of gesture analysis by the input unit 120.
(Operation a3) The user presses the operation start key of the controller 200. The controller 200 notifies the input unit 120 of the display device 100 that the operation start key has been pressed.
(Operation a4) The user's hand existing in front of the display device 400 is started to move. The input unit 120 detects that the user existing in front of the display device 400 starts moving his hand, and the determination unit 121 determines that the operation is started from the detection result of the input unit 120.
(Operation a5) The user verbally instructs operation start. In this case, the input unit 120 is a voice input device, and outputs the result of voice recognition of the user's utterance to the determination unit 121. The determination unit 121 determines that the operation is started from the voice recognition result of the input unit 120.

また、ステップS26において、判定部121が操作終了として判断するユーザ操作の例を示す。
(操作b1)コントローラ200を手から離す。例えば、コントローラ200は、内部に備えるセンサに基づいてユーザが当該コントローラ200から手を離したことを検出した場合、その旨を表示装置100の入力部120に通知する。
(操作b2)操作終了に対応した特定のジェスチャーを行う。判定部121は、ジェスチャー入力装置である入力部120におけるジェスチャーの解析結果から操作終了を判断する。
(操作b3)ユーザがコントローラ200の操作終了キーを押す。コントローラ200は、操作終了キーが押された旨を表示装置100の入力部120に通知する。なお、閲覧モードへの遷移指示や、現在3D表示されているフォーカス対象のオブジェクトとは異なるオブジェクトに対する操作指示も、現在3D表示されているオブジェクトに対する操作終了とみなすことができる。
(操作b4)表示デバイス400の前に存在するユーザが手の動きを止める。入力部120は、表示デバイス400の前に存在するユーザの手の動きが止まったことを検出し、判定部121は、入力部120の検出結果から操作終了を判断する。
(操作b5)ユーザが口頭で操作終了を指示する。判定部121は、音声入力装置である入力部120の音声認識結果から操作終了と判断する。
(操作b6)所定時間以上操作を行なわない。判定部121は、操作モードになってから、予め決められた時間以上何らの操作も入力されない場合、操作終了と判断する。
In addition, an example of a user operation that the determination unit 121 determines as the operation end in step S26 is shown.
(Operation b1) The controller 200 is released from the hand. For example, when the controller 200 detects that the user has released his / her hand from the controller 200 based on a sensor provided therein, the controller 200 notifies the input unit 120 of the display device 100 to that effect.
(Operation b2) A specific gesture corresponding to the end of the operation is performed. The determination unit 121 determines the end of the operation from the analysis result of the gesture in the input unit 120 that is a gesture input device.
(Operation b3) The user presses the operation end key of the controller 200. The controller 200 notifies the input unit 120 of the display device 100 that the operation end key has been pressed. Note that an instruction to transition to the viewing mode and an operation instruction for an object different from the object to be focused currently displayed in 3D can also be regarded as an operation end for the object currently displayed in 3D.
(Operation b4) The user existing in front of the display device 400 stops the movement of the hand. The input unit 120 detects that the movement of the user's hand existing in front of the display device 400 has stopped, and the determination unit 121 determines the end of the operation from the detection result of the input unit 120.
(Operation b5) The user verbally instructs the end of the operation. The determination unit 121 determines that the operation is completed from the voice recognition result of the input unit 120 that is a voice input device.
(Operation b6) No operation is performed for a predetermined time. The determination unit 121 determines that the operation is completed when no operation is input for a predetermined time after entering the operation mode.

図5は、ステップS25において、表示装置100の表示デバイス400に3D表示がされているときの表示例を示す図であり、図6は、図5に示す3D表示が終了したときの表示デバイス400の表示例を示す図である。これらの図では、コンテンツとして、テレビのデータ放送が表示されている例を示している。   FIG. 5 is a diagram illustrating a display example when 3D display is performed on the display device 400 of the display device 100 in step S25, and FIG. 6 is a display device 400 when the 3D display illustrated in FIG. It is a figure which shows the example of a display. In these drawings, an example in which a television data broadcast is displayed as content is shown.

図5に示すように、ユーザがコンテンツを操作する際は、フォーカスされているオブジェクトであるメニューボタンA1が表示デバイス400に3D表示され、他のオブジェクトは2D表示される。ユーザがコントローラ200によってメニューボタンA1を選択操作することにより、メニューボタンA1の下部の情報表示エリアA2、A3、A4、A5に、ユーザが選択した情報が表示される。この場合、ユーザは、メニューボタンA1の下部の情報表示エリアA2、A3、A4、A5に表示されている情報を順に見たいと考えている。
また、メニューボタンA1の操作を途中で終了した場合や、デフォルトでメニューボタンA1が3D表示されるようになっている場合などに、ユーザが、情報表示エリアA2、A3、A4、A5に表示されている情報を順に見たいと思うこともある。
しかしこれは、メニューボタンA1が立体視されており、ユーザが必要としない情報が手前に表示されている状態である。このような表示では、情報表示エリアA2〜A5の表示がユーザにとって見にくいものと成り得る。
As shown in FIG. 5, when the user operates the content, the menu button A1, which is the focused object, is displayed in 3D on the display device 400, and the other objects are displayed in 2D. When the user selects the menu button A1 with the controller 200, the information selected by the user is displayed in the information display areas A2, A3, A4, and A5 below the menu button A1. In this case, the user wants to view the information displayed in the information display areas A2, A3, A4, and A5 below the menu button A1 in order.
In addition, when the operation of the menu button A1 is terminated in the middle or when the menu button A1 is displayed in 3D by default, the user is displayed in the information display areas A2, A3, A4, A5. Sometimes you want to see the information you have.
However, this is a state in which the menu button A1 is stereoscopically viewed and information that the user does not need is displayed in the foreground. In such a display, the display of the information display areas A2 to A5 can be difficult for the user to see.

そこで本実施形態では、上述した(操作b6)のように、判定部121は、ユーザが操作をしないことを検出した場合、操作終了、すなわち、「コンテンツを閲覧する」状態(閲覧モード)になったと判断する(図4のステップS26:YES)。これにより、表示装置100は、操作終了による閲覧モードに遷移し(図4のステップS27、ステップS21:NO)、出力部130は、表示デバイス400に図6に示すように、全てのコンテンツが平面表示されるようにコンテンツの表示を行う。
このように、表示装置100は、各情報を同一の高さに表示する通常表示に戻して不必要な注視を避け、ユーザが見たい情報を見やすくする(図4のステップS22)。
Therefore, in the present embodiment, as described above (operation b6), when the determination unit 121 detects that the user does not perform an operation, the operation ends, that is, enters the “browse content” state (browsing mode). (Step S26 in FIG. 4: YES). As a result, the display device 100 transitions to the browsing mode by the end of the operation (step S27 in FIG. 4, step S21: NO), and the output unit 130 displays all content on the display device 400 as shown in FIG. Display content as it is displayed.
In this way, the display device 100 returns to the normal display in which each piece of information is displayed at the same height, avoids unnecessary gaze, and makes it easier to see the information that the user wants to see (step S22 in FIG. 4).

また、図5のように、メニューボタンA1が3D表示されているときに、ユーザがコントローラ200に、情報閲覧モード指示など、メニューボタンA1の選択操作以外の操作を行った場合も(操作b3)、判定部121は、メニューボタンA1の操作終了と判断し、出力部130に閲覧モードへの遷移を指示する。   Further, as shown in FIG. 5, when the menu button A1 is displayed in 3D, the user performs an operation other than the selection operation of the menu button A1, such as an information browsing mode instruction, on the controller 200 (operation b3). The determination unit 121 determines that the operation of the menu button A1 has ended, and instructs the output unit 130 to transition to the viewing mode.

なお、上記においては、表示装置100がテレビである場合について説明したが、表示装置100がパーソナルコンピュータであれば、表示用コンテンツ300として、例えば、ブラウザに表示させるコンテンツデータを用いることができる。また、表示装置100がゲーム機であれば、表示用コンテンツ300として、例えば、ゲーム条件設定画面などの画面データを用いることができる。   In the above description, the case where the display device 100 is a television has been described. However, if the display device 100 is a personal computer, for example, content data to be displayed on a browser can be used as the display content 300. If the display device 100 is a game machine, screen data such as a game condition setting screen can be used as the display content 300, for example.

以上説明した本実施形態によれば、表示装置100は、ユーザによる操作の開始・終了を契機に3D表示の開始・終了を行う。つまり、表示装置100は、3D表示と2D表示とを切替えることにより、元のコンテンツの色やレイアウトを変更することなく、ユーザに対して操作開始と終了を明示することができる。そしてこのように、操作が終了した場合、表示装置100は、操作対象であったオブジェクトの3D表示を終了することによって、ユーザにとって不必要な情報への注視を避け、見たい情報を見やすく表示させることができる。   According to the present embodiment described above, the display device 100 starts and ends 3D display in response to the start and end of an operation by the user. That is, the display device 100 can clearly indicate the operation start and end to the user without changing the color or layout of the original content by switching between 3D display and 2D display. In this way, when the operation is completed, the display device 100 displays the information that is desired to be viewed in an easy-to-view manner by ending the 3D display of the object that was the operation target, thereby avoiding a gaze on information unnecessary for the user. be able to.

上述した表示装置100は、内部にコンピュータシステムを有している。そして、表示装置100のコンテンツ解析部110、判定部121、及び出力部130の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。   The display device 100 described above has a computer system therein. The operation processes of the content analysis unit 110, the determination unit 121, and the output unit 130 of the display device 100 are stored in a computer-readable recording medium in the form of a program, and the computer system reads and executes this program. Thus, the above process is performed. The computer system here includes a CPU, various memories, an OS, and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

1 情報表示装置
100 表示装置
110 コンテンツ解析部
111 フォーカス位置判定部
113 3D表示データ生成部
120 入力部
121 判定部
130 出力部
200 コントローラ
400 表示デバイス
DESCRIPTION OF SYMBOLS 1 Information display apparatus 100 Display apparatus 110 Content analysis part 111 Focus position determination part 113 3D display data generation part 120 Input part 121 Determination part 130 Output part 200 Controller 400 Display device

Claims (5)

画像を表示する表示部と、
前記表示部に表示用データを表示させる出力部と、
操作終了が入力されたか否かを判断する判定部とを備え、
前記出力部は、オブジェクトを立体表示させる表示用データを前記表示部に表示させているときに前記判定部が操作終了のユーザ入力を判断した場合、前記オブジェクトを立体表示させる前記表示用データに代えて、前記オブジェクトを平面表示させる表示用データを前記表示部に表示させる、
ことを特徴とする表示装置。
A display for displaying an image;
An output unit for displaying display data on the display unit;
A determination unit that determines whether or not an operation end has been input,
The output unit replaces the display data for stereoscopic display of the object when the determination unit determines a user input to end the operation while displaying the display data for stereoscopic display of the object on the display unit. Display data for displaying the object on a plane on the display unit,
A display device characterized by that.
前記出力部は、前記表示部にコンテンツを構成するオブジェクトを立体表示させる表示用データ及び前記コンテンツを構成する他のオブジェクトを平面表示させる表示用データを表示させているときに前記判定部が操作終了のユーザ入力を判断した場合、前記オブジェクトを立体表示させる前記表示用データに代えて、前記オブジェクトを平面表示させる表示用データを前記表示部に表示させる、
ことを特徴とする請求項1に記載の表示装置。
When the output unit displays display data for stereoscopic display of objects constituting the content on the display unit and display data for planar display of other objects constituting the content, the determination unit ends the operation. When the user input is determined, instead of the display data for stereoscopic display of the object, display data for planar display of the object is displayed on the display unit.
The display device according to claim 1.
立体表示対象の前記オブジェクトはユーザに操作を選択させるメニューである、
ことを特徴とする請求項1または請求項2に記載の表示装置。
The object to be stereoscopically displayed is a menu that allows the user to select an operation.
The display device according to claim 1, wherein the display device is a display device.
表示装置が実行する表示方法であって、
出力部が、前記表示装置が備える表示部に表示用データを表示させる出力ステップと、
判定部が、操作終了が入力されたか否かを判断する判定ステップと、
前記出力部が、オブジェクトを立体表示させる表示用データを前記表示部に表示させているときに前記判定ステップにおいて操作終了のユーザ入力を判断した場合、前記オブジェクトを立体表示させる前記表示用データに代えて、前記オブジェクトを平面表示させる表示用データを前記表示部に表示させる立体表示終了ステップと、
を有することを特徴とする表示方法。
A display method executed by a display device,
An output step for causing the display unit to display display data on the display unit included in the display device;
A determination step for determining whether or not the operation end is input;
When the display unit displays display data for stereoscopic display of the object on the display unit and determines the user input to end the operation in the determination step, the output unit replaces the display data for stereoscopic display of the object. A three-dimensional display end step for displaying display data on the display unit for planar display of the object;
A display method characterized by comprising:
表示装置として用いられるコンピュータに、
前記表示装置が備える表示部に表示用データを表示させる出力手順と、
操作終了が入力されたか否かを判断する判定手順と、
オブジェクトを立体表示させる表示用データを前記表示部に表示させているときに前記判定手順において操作終了のユーザ入力を判断した場合、前記オブジェクトを立体表示させる前記表示用データに代えて、前記オブジェクトを平面表示させる表示用データを前記表示部に表示させる立体表示終了手順と、
を実行させるためのプログラム。
In a computer used as a display device,
An output procedure for displaying display data on a display unit included in the display device;
A determination procedure for determining whether or not an operation end has been input;
When the display end data is displayed on the display unit and the user input for the end of the operation is determined in the determination procedure, the object is displayed instead of the display data for displaying the object in 3D. 3D display end procedure for displaying display data to be displayed on a plane on the display unit;
A program for running
JP2011252460A 2011-11-18 2011-11-18 Display device, display method and program Pending JP2013109459A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011252460A JP2013109459A (en) 2011-11-18 2011-11-18 Display device, display method and program
KR1020120125092A KR20130055520A (en) 2011-11-18 2012-11-06 Stereo-scopic image display method and apparatus for display three dimensionally contents according to operation start or end
US13/680,610 US20130127841A1 (en) 2011-11-18 2012-11-19 Three-dimensional (3d) image display method and apparatus for 3d imaging and displaying contents according to start or end of operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011252460A JP2013109459A (en) 2011-11-18 2011-11-18 Display device, display method and program

Publications (1)

Publication Number Publication Date
JP2013109459A true JP2013109459A (en) 2013-06-06

Family

ID=48706170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011252460A Pending JP2013109459A (en) 2011-11-18 2011-11-18 Display device, display method and program

Country Status (1)

Country Link
JP (1) JP2013109459A (en)

Similar Documents

Publication Publication Date Title
US10565288B2 (en) Video streaming in a web browser
US11188208B2 (en) Display apparatus for classifying and searching content, and method thereof
KR102071579B1 (en) Method for providing services using screen mirroring and apparatus thereof
US9723123B2 (en) Multi-screen control method and device supporting multiple window applications
JP6913634B2 (en) Interactive computer systems and interactive methods
JP5942978B2 (en) Information processing apparatus, information processing method, and program
US8495495B2 (en) Information processing apparatus, bookmark setting method, and program
JP2013152693A (en) Information processing program, information processing device, image display method, and image display system
KR101688145B1 (en) Method for reproducing moving picture and mobile terminal using this method
TW201327202A (en) Cooperative provision of personalized user functions using shared and personal devices
JP2014130590A (en) Display apparatus and method for controlling the same
KR20150054631A (en) display apparatus and user interface screen providing method thereof
JP2013250771A (en) Program, information processing device, image display method and display system
JP2013250772A (en) Program, information processing device, image display method and display system
JPWO2016125339A1 (en) Moving image processing device
KR102506608B1 (en) An electronic apparatus and a method for operating in the electronic apparatus
JP7187737B2 (en) Method, program and electronic device for providing a user interface
JP5911168B2 (en) Display device, display method, and display program
KR102139331B1 (en) Apparatus, server, and method for playing moving picture contents
KR101597563B1 (en) Apparatus and method for sharing contents
JP2013109459A (en) Display device, display method and program
CN115643454A (en) Display device, video playing method and device thereof
US20130127841A1 (en) Three-dimensional (3d) image display method and apparatus for 3d imaging and displaying contents according to start or end of operation
KR101810188B1 (en) Device and method for displaying image, device and method for creating image, computer program for executing the methods, and image providing server
JP6719276B2 (en) Information processing device, information processing method, and program