JP5339445B2 - Terminal device and program - Google Patents

Terminal device and program Download PDF

Info

Publication number
JP5339445B2
JP5339445B2 JP2009156861A JP2009156861A JP5339445B2 JP 5339445 B2 JP5339445 B2 JP 5339445B2 JP 2009156861 A JP2009156861 A JP 2009156861A JP 2009156861 A JP2009156861 A JP 2009156861A JP 5339445 B2 JP5339445 B2 JP 5339445B2
Authority
JP
Japan
Prior art keywords
display
content
depth
terminal device
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009156861A
Other languages
Japanese (ja)
Other versions
JP2011015133A (en
Inventor
美香 木邨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2009156861A priority Critical patent/JP5339445B2/en
Publication of JP2011015133A publication Critical patent/JP2011015133A/en
Application granted granted Critical
Publication of JP5339445B2 publication Critical patent/JP5339445B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、三次元表示が可能な表示部に表示情報を表示させる端末装置及びプログラムに関する。   The present invention relates to a terminal device and a program for displaying display information on a display unit capable of three-dimensional display.

従来、平面状の表示部に画像(静止画、動画)、テキスト、メニューなどの表示情報を三次元表示(3D表示)して使用者に立体視させるようにした技術には、各種の技術があり、例えば、二次元(2D)表示情報の中のオブジェクトに立体に見えるような視覚効果を施して、そのオブジェクトを立体に見せる技術がある。なお、ポリゴンを利用した技術はこの技術の一例である。また、使用者の右目と左目の視差を利用した技術もある。すなわち、互いに少しずらした右目用の表示情報と左目用の表示情報を用意し、それら2つの表示情報を同時に表示させた際に、右目用の表示情報は右目で見えて左目では見えないように、左目用の表示情報は左目で見えて右目では見えないようにするために、光の経路を遮断する電子式の視差バリア(スイッチング液晶パネル)を適切な位置に配置することによって表示情報を立体に見せるようにした技術である。   2. Description of the Related Art Conventionally, there are various technologies for displaying information such as images (still images, moving images), texts, menus, and the like on a flat display unit in a three-dimensional display (3D display) so that the user can view stereoscopically. For example, there is a technique in which an object in two-dimensional (2D) display information is given a visual effect that makes it appear three-dimensional, and the object is made three-dimensional. The technique using polygons is an example of this technique. There is also a technique that uses parallax of the user's right eye and left eye. That is, when the display information for the right eye and the display information for the left eye that are slightly shifted from each other are prepared and the two pieces of display information are displayed at the same time, the display information for the right eye is visible to the right eye and not to the left eye. In order to prevent the display information for the left eye from being seen by the left eye but from the right eye, the electronic parallax barrier (switching liquid crystal panel) that blocks the light path is placed at an appropriate position to display the display information in three dimensions. It is a technology that I tried to show.

上述したいずれの3D表示技術においても、3Dの奥行きや飛び出しの程度を示す3D深度というパラメータがあり、この3D深度が大きいほど、使用者には表示情報がより深く、あるいはより飛び出して見えることになる。反対に3D深度が小さいほど、表示情報が浅く見える、あるいはあまり飛び出して見えないことになり、3D深度がゼロでは、2Dに見える(すなわち2D表示する)ということになる。従来、電子式の視差バリアを用いて、平面(2D)/立体(3D)画像を適宜変換して表示する表示システムが知られている(特許文献1参照)。   In any of the 3D display technologies described above, there is a parameter called 3D depth indicating the depth of 3D or the degree of popping out, and the larger the 3D depth, the deeper the display information appears to the user or the more the popping out. Become. On the other hand, as the 3D depth is smaller, the display information appears shallower or does not appear to protrude so much, and when the 3D depth is zero, it appears as 2D (that is, 2D display). 2. Description of the Related Art Conventionally, there is known a display system that appropriately converts a flat (2D) / stereoscopic (3D) image and displays it using an electronic parallax barrier (see Patent Document 1).

特開2006−121553号公報JP 2006-121553 A

ところで、表示情報を3D表示させることは、必ずしも最良であるとは限らず、返って見にくい画像を使用者に見せることにもなることにもなり、また、3D処理は、電力消費が多いため、いつも3D表示を行うことは、電力消費の点で好ましくない。   By the way, displaying the display information in 3D is not always the best, and it may also cause the user to see an image that is difficult to view, and the 3D processing consumes a lot of power. It is not preferable in terms of power consumption to always perform 3D display.

本発明の課題は、3D表示が可能な表示部に表示情報を表示させる場合に、使用者に煩わしさを感じさせることなく、適切な表示を実現できるようにすることである。   An object of the present invention is to realize appropriate display without causing the user to feel bothered when displaying display information on a display unit capable of 3D display.

上述した課題を解決するために請求項1記載の発明は、三次元表示が可能な表示部に表示情報を表示させる端末装置であって、当該端末装置が手持ち状態であるか否かを検出する手持ち検出手段と、この手持ち検出手段によって手持ち状態であるか否かの検出結果に基づいて前記表示情報の三次元表示での適正を判別する判別手段と、この判別手段によって判別された三次元表示での適正に基づいて、前記表示情報を前記表示部に表示させる際の表示制御を決定する決定手段と、この決定手段によって決定された表示制御にしたがって前記表示情報を前記表示部に表示させる表示制御手段と、を具備したことを特徴とする。   In order to solve the above-described problem, the invention described in claim 1 is a terminal device that displays display information on a display unit capable of three-dimensional display, and detects whether or not the terminal device is in a handheld state. A hand-held detecting means, a determining means for determining the appropriateness of the display information in the three-dimensional display based on a detection result of whether or not the hand-held state is detected by the hand-held detecting means, and the three-dimensional display determined by the determining means Determining means for determining display control when displaying the display information on the display section based on the appropriateness in the display, and a display for displaying the display information on the display section according to the display control determined by the determining means And a control means.

請求項1に従属する発明として、前記検出手段は、当該端末装置に人体が接触した場合の接触の仕方に基づいて当該端末装置が手持ち状態であるか否かを検出する、ようにしたことを特徴とする請求項2記載の発明であってもよい。   As an invention dependent on claim 1, the detection means detects whether or not the terminal device is in a hand-held state based on a contact method when a human body contacts the terminal device. The invention according to claim 2 may be used.

請求項1または2に記載に従属する発明として、前記決定手段は、前記判別手段によって判別された三次元表示での適正に基づいて、前記表示情報を前記表示部に二次元表示させるか三次元表示させるかの表示制御を決定する、ようにしたことを特徴とする請求項記載の発明であってもよい。 As an invention dependent on claim 1 or 2, the determining means causes the display unit to display the display information two-dimensionally or three-dimensionally based on the appropriateness of the three-dimensional display determined by the determining means. The invention according to claim 3 , wherein display control for determining whether to display is determined.

請求項1または2に記載に従属する発明として、前記決定手段は、前記判別手段によって判別された三次元表示での適正に基づいて、前記表示情報を前記表示部に表示させる際の表示制御として、三次元表示の深度を決定し、前記表示制御手段は、前記決定手段によって決定された三次元表示の深度で前記表示情報を前記表示部に表示させる、ようにしたことを特徴とする請求項記載の発明であってもよい。 As an invention dependent on claim 1 or 2, the determination means as display control when displaying the display information on the display unit based on the appropriateness in the three-dimensional display determined by the determination means. The depth of three-dimensional display is determined, and the display control unit displays the display information on the display unit at the depth of three-dimensional display determined by the determining unit. The invention described in item 4 may be used.

請求項記載に従属する発明として、前記表示情報として、三次元表示の深度が異なる複数の実データを持つコンテンツを複数種記憶するコンテンツ記憶手段を更に備え、前記表示制御手段は、前記コンテンツ記憶手段に記憶されている複数種のコンテンツの中から表示対象として選択されたコンテンツを表示させる際に、この表示対象コンテンツとして前記決定手段によって決定された三次元表示の深度に対応する実データを読み出して前記表示情報を前記表示部に三次元表示させる、ようにしたことを特徴とする請求項記載の発明であってもよい。 According to a fourth aspect of the present invention, the display control unit further includes a content storage unit that stores a plurality of types of content having a plurality of actual data with different depths of three-dimensional display as the display information, and the display control unit includes the content storage unit When displaying a content selected as a display target from a plurality of types of content stored in the means, actual data corresponding to the depth of the three-dimensional display determined by the determination means is read as the display target content it may be an invention of claim 5, wherein the said display information so as to display the three-dimensional on the display unit Te.

請求項記載に従属する発明として、前記決定手段は、前記判別手段によって判別された三次元表示での適正として、三次元表示に適していないと判別された場合に、三次元表示の深度として弱い深度を決定する、請求項記載の発明であってもよい。 As a subordinate invention according to claim 5 , the determination means determines the depth of the three-dimensional display when it is determined that the determination means is not suitable for the three-dimensional display as appropriate in the three-dimensional display determined by the determination means. The invention according to claim 6 may determine the weak depth.

請求項1または2に記載に従属する発明として、前記表示情報としてコンテンツを受信する受信手段を更に備え、前記表示制御手段は、前記受信手段によって受信したコンテンツを前記決定手段によって決定された表示制御にしたがって前記表示部にリアルタイムに表示させる、ようにしたことを特徴とする請求項記載の発明であってもよい。 The invention according to claim 1 or 2, further comprising receiving means for receiving content as the display information, wherein the display control means is a display control in which the content received by the receiving means is determined by the determining means. The display according to claim 7 may be displayed on the display unit in real time.

また、上述した課題を解決するために請求項記載の発明は、コンピュータに対して、三次元表示が可能な表示部に表示情報を表示させる端末装置が手持ち状態であるか否かを検出する機能と、前記手持ち状態であるか否かの検出結果に基づいて前記表示情報の三次元表示での適正を判別する機能と、前記判別された三次元表示での適正に基づいて、前記表示情報を前記表示部に表示させる際の表示制御を決定する機能と、前記決定された表示制御にしたがって前記表示情報を前記表示部に表示させる機能と、を実現させるためのプログラムを特徴とする。 In order to solve the above-described problem, the invention according to claim 8 detects whether or not the terminal device for displaying the display information on the display unit capable of three-dimensional display is in a handheld state with respect to the computer. The display information based on the function, the function of determining the appropriateness of the display information in the three-dimensional display based on the detection result of whether or not the handheld state, and the appropriateness of the determined three-dimensional display A program for realizing a function of determining display control when displaying the image on the display unit and a function of displaying the display information on the display unit according to the determined display control.

本発明によれば、3D表示が可能な表示部に表示情報を表示させる場合に、使用者に煩わしさを感じさせることなく、適切な表示を実現することができ、実用性に富んだものとなる。   According to the present invention, when display information is displayed on a display unit capable of 3D display, an appropriate display can be realized without causing the user to feel bothersome, and it is rich in practicality. Become.

端末装置として適用した携帯電話機が利用可能な通信ネットワークシステムを示したブロック図。The block diagram which showed the communication network system which can use the mobile telephone applied as a terminal device. 携帯電話機1の基本的な構成要素を示したブロック図。FIG. 2 is a block diagram showing basic components of the mobile phone 1. 表示制御情報記憶部M3を説明するための図。The figure for demonstrating the display control information storage part M3. テレビアプリなどのビューワアプリの起動で実行開始される表示制御処理を示したフローチャート。The flowchart which showed the display control process started execution by starting viewer applications, such as a television application. “手持ち状態”に応じて表示制御を決定する表示制御決定処理(図4のステップA7)を詳述するためのフローチャート。6 is a flowchart for explaining in detail display control determination processing (step A7 in FIG. 4) for determining display control in accordance with the “hand-held state”. “時間帯”に応じて表示制御を決定する表示制御決定処理(図4のステップA8)を詳述するためのフローチャート。5 is a flowchart for explaining in detail display control determination processing (step A8 in FIG. 4) for determining display control according to “time zone”. “使用者”に応じて表示制御を決定する表示制御決定処理(図4のステップA9)を詳述するためのフローチャート。6 is a flowchart for explaining in detail display control determination processing (step A9 in FIG. 4) for determining display control in accordance with “user”. 第2実施形態においてコンテンツ記憶部M4を説明するための図。The figure for demonstrating the content memory | storage part M4 in 2nd Embodiment. 第2実施形態において、コンテンツ再生操作に応答して実行開始される表示制御処理を示したフローチャート。The flowchart which showed the display control process started in response to content reproduction operation in 2nd Embodiment.

(実施形態1)
以下、図1〜図7を参照して本発明の第1実施形態を説明する。
この実施形態は、端末装置として携帯電話機に適用した場合を例示したもので、図1は、この携帯電話機が利用可能な通信ネットワークシステムを示したブロック図である。
携帯電話機1は、例えば、2つの筐体(操作部筐体、表示部筐体)が開閉可能(折り畳み自在)に取り付けた折り畳みタイプで、この携帯電話機1には、通話機能、電子メール機能、インターネット接続機能(Webアクセス機能)、カメラ機能のほか、デジタルテレビ放送(例えば、ワンセグ地上デジタルテレビ放送)を受信して視聴が可能なテレビ機能及び3D(三次元)表示機能、録画機能などが備えられている。3D表示機能は、左右の目の視差を利用した視差バリア方式によって、動画、静止画、テキスト、メニューなどの表示情報(コンテンツ)を2D(二次元)表示させるのではなく、3Dの奥行きあるいは飛び出しの程度を示す3D深度で表示させる機能である。
(Embodiment 1)
The first embodiment of the present invention will be described below with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a mobile phone as a terminal device, and FIG. 1 is a block diagram showing a communication network system in which the mobile phone can be used.
The mobile phone 1 is, for example, a foldable type in which two housings (an operation unit housing and a display unit housing) are attached so that they can be opened and closed (foldable). The mobile phone 1 includes a call function, an e-mail function, In addition to the Internet connection function (Web access function) and camera function, it is equipped with a TV function, a 3D (three-dimensional) display function, a recording function, etc. that can receive and watch digital TV broadcasts (for example, one-segment digital terrestrial TV broadcasts). It has been. The 3D display function does not display display information (contents) such as moving images, still images, texts, menus, etc. in 2D (two-dimensional) by a parallax barrier method using the parallax of the left and right eyes, but 3D depth or popping This is a function of displaying at a 3D depth indicating the degree of.

携帯電話機1は、最寄りの基地局2A、交換機2Bから無線通信網(移動体通信網)2に接続されると、この無線通信網2を介して他の携帯電話機1との間で通話可能な状態となる。また、携帯電話機1は、無線通信網2を介してインターネット3に接続されると、Webサイトをアクセスして閲覧可能となり、また、情報配信装置4から動画、静止画、音楽、ニュース、音楽などのマルチメディアのコンテンツをインターネット3、無線通信網2を介してダウンロードして再生するストリーミングが可能となる。   When the mobile phone 1 is connected to the wireless communication network (mobile communication network) 2 from the nearest base station 2A and exchange 2B, the mobile phone 1 can communicate with another mobile phone 1 via the wireless communication network 2. It becomes a state. In addition, when the mobile phone 1 is connected to the Internet 3 via the wireless communication network 2, the mobile phone 1 can access and browse a Web site, and from the information distribution device 4, movies, still images, music, news, music, etc. The multimedia content can be downloaded and played back via the Internet 3 and the wireless communication network 2 for streaming.

また、携帯電話機1は、テレビ局5から送信アンテナ6を介して発信された地上波デジタル放送(放送コンテンツ)を受信するようにしているが、インターネットラジオのように無線通信網2、インターネット3を介して情報配信装置4からデジタル放送をダウンロード受信したりすることもできる。このように携帯電話機1は、テレビ機能などを介して放送コンテンツを受信したり、インターネット接続機能を介してストリーミング用コンテンツをダウンロード受信したりすることができるようになっている。その他に、着脱自在な可搬型メモリカードなどの記録メディア7から各種コンテンツを取得したり、Bluetooth(登録商標)通信、赤外線通信などの近距離通信を介して他の携帯電話機などの外部機器8から各種のコンテンツを取得したりすることができるようになっている。   The mobile phone 1 receives terrestrial digital broadcasting (broadcast content) transmitted from the TV station 5 via the transmission antenna 6, but via the wireless communication network 2 and the Internet 3 like Internet radio. The digital broadcast can be downloaded and received from the information distribution device 4. As described above, the mobile phone 1 can receive broadcast content via a TV function or the like, and can download and receive streaming content via an Internet connection function. In addition, various contents can be acquired from a recording medium 7 such as a removable portable memory card, or from an external device 8 such as another mobile phone via short-range communication such as Bluetooth (registered trademark) communication or infrared communication. Various contents can be acquired.

図2は、携帯電話機1の基本的な構成要素を示したブロック図である。
中央制御部11は、二次電池を備えた電源部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの携帯電話機1の全体動作を制御する中央演算処理装置やメモリなどを有している。この記憶部13には、プログラム記憶部M1、各種情報一時記憶部M2、表示制御情報記憶部M3、後述する第2実施形態で使用するコンテンツ記憶部M4などが設けられている。なお、記憶部13は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しない所定の外部サーバ上にあってもよい。
FIG. 2 is a block diagram showing basic components of the mobile phone 1.
The central control unit 11 operates by supplying power from a power supply unit 12 including a secondary battery, and controls the overall operation of the mobile phone 1 according to various programs in the storage unit 13 and a memory. Etc. The storage unit 13 includes a program storage unit M1, various information temporary storage units M2, a display control information storage unit M3, a content storage unit M4 used in a second embodiment to be described later, and the like. Note that the storage unit 13 may include a removable portable memory (recording medium) such as an SD card or an IC card, or may be on a predetermined external server (not shown).

プログラム記憶部M1には、図4〜図7に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。各種情報一時記憶部M2は、フラグ情報、タイマ情報、画面情報など、携帯電話機1が動作するために必要な各種の情報を一時的に記憶するワーク領域である。なお、表示制御情報記憶部M3については後で詳述するものとする。   The program storage unit M1 stores programs and various applications for realizing the present embodiment in accordance with the operation procedures shown in FIGS. 4 to 7, and stores information necessary for the programs. ing. The various information temporary storage unit M2 is a work area that temporarily stores various information necessary for the mobile phone 1 to operate, such as flag information, timer information, and screen information. The display control information storage unit M3 will be described in detail later.

その他アプリ処理関係部14は、電子メール機能、インターネット接続機能、カメラ機能、テレビ機能などのアプリケーション処理に関する情報を記憶したり、その処理に関する制御を行ったりする。無線通信部15は、無線部、ベースバンド部、多重分離部などを備え、例えば、通話機能、電子メール機能、インターネット接続機能などの動作時に、最寄りの基地局2Aとの間でデータの送受信を行うもので、通話機能の動作時にはベースバンド部の受信側から信号を取り込んで受信ベースバンド信号に復調した後、音声信号処理部16を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部16から取り込み、送信ベースバンド信号に符号化した後、ベースバンド部の送信側に与えてアンテナAT1から発信出力させる。   The other application processing related unit 14 stores information related to application processing such as an electronic mail function, an Internet connection function, a camera function, and a television function, and performs control related to the processing. The radio communication unit 15 includes a radio unit, a baseband unit, a demultiplexing unit, and the like. For example, during operation of a call function, an e-mail function, an Internet connection function, etc., data is transmitted to and received from the nearest base station 2A. When the call function is in operation, a signal is taken from the receiving side of the baseband unit and demodulated into a received baseband signal, and then the voice is output from the calling speaker SP via the audio signal processing unit 16. The input audio data from the microphone MC is taken from the audio signal processing unit 16 and encoded into a transmission baseband signal, which is then given to the transmission side of the baseband unit and transmitted from the antenna AT1.

テレビ放送受信部17は、テレビ機能を構成するもので、通信端末装置向けのワンセグ地上波デジタルテレビ放送のほか、電子番組表(EPG情報)などの番組情報も含めて受信可能となっている。このテレビ放送受信部17は、テレビ用アンテナAT2によって受信したテレビ放送信号の中から予め選局されているチャンネルの放送信号を抽出する受信部(アナログ回路部)と、受信した放送信号をOFDM(直交周波数分割多重)復調したり、多重化されている放送信号から映像、音声、データ(文字データ)に分離して復号化したり、圧縮データの解凍などを行うデジタル回路部を有している。   The TV broadcast receiving unit 17 constitutes a TV function and can receive not only one-segment terrestrial digital TV broadcasts for communication terminal devices but also program information such as an electronic program guide (EPG information). This television broadcast receiving unit 17 extracts a broadcast signal of a channel selected in advance from the television broadcast signal received by the television antenna AT2, and receives the received broadcast signal by OFDM ( It has a digital circuit unit that performs demodulation (orthogonal frequency division multiplexing), decodes the multiplexed broadcast signal into video, audio, and data (character data), decodes the compressed data, and the like.

撮像処理部18は、静止画撮影のほかに動画撮影も可能なカメラ機能を構成するもので、図示省略するが、インカメラ、アウトカメラを構成する。なお、インカメラは、自己の顔などを撮影するTV電話用の撮像部であり、また、アウトカメラは、外界を撮影する通常の撮像部である。例えば、この携帯電話装置を構成する2つの筐体(操作部筐体、表示部筐体)が開閉可能(折り畳み可能)に取り付けられている場合に、この2つの筐体を開いた状態において、インカメラは、表示部筐体の内側(表示画面側)に配置されたカメラであり、アウトカメラは、表示部筐体の外側(インカメラの反対側)に配置されたカメラである。   The imaging processing unit 18 constitutes a camera function capable of photographing a moving image in addition to still image photographing, and constitutes an in-camera and an out-camera although not shown. The in-camera is an imaging unit for a videophone that captures the face of the user, and the out-camera is a normal imaging unit that captures the outside world. For example, when two casings (an operation unit casing and a display unit casing) constituting the mobile phone device are attached so as to be openable and closable (foldable), The in-camera is a camera arranged on the inner side (display screen side) of the display unit casing, and the out-camera is a camera arranged on the outer side (opposite side of the in-camera) of the display unit casing.

そして、撮像処理部18は、撮影レンズ、ミラーなどのレンズ・ミラーブロック、撮像素子、その駆動系のほか、測距センサ、光量センサ、アナログ処理回路、信号処理回路、圧縮伸張回路などを備え、光学ズームを調整制御したり、撮像する焦点を調整するオートフォーカス、あるいは手動操作による手動フォーカスを調整制御したり、シャッター駆動制御、露出、ホワイトバランスなどを制御したりするようにしている。なお、上述したインカメラは、TV電話用として利用されるほか、使用者特定用としても利用されるもので、制御部1は、このインカメラによって使用者の顔が撮影された際に、この顔画像を解析すると共に、その解析結果と予め登録されている顔情報(図示省略)とを照合することによってその使用者は誰かを特定したり、使用者はどのような年齢層に該当するかを推測したりするようにしている。   The imaging processing unit 18 includes a photographic lens, a lens / mirror block such as a mirror, an imaging device, and a driving system thereof, as well as a distance measuring sensor, a light amount sensor, an analog processing circuit, a signal processing circuit, a compression / expansion circuit, and the like. The optical zoom is adjusted and controlled, the auto focus for adjusting the focus for imaging, or the manual focus by manual operation is adjusted and controlled, and the shutter drive control, exposure, white balance, and the like are controlled. The in-camera described above is used not only for videophones but also for user identification. When the user's face is photographed by the in-camera, the control unit 1 Analyzing the face image and comparing the result of the analysis with pre-registered face information (not shown) identifies who the user is and what age group the user falls into Or to guess.

3D表示対応の表示部19は、高精細液晶を使用し、例えば、文字情報、待受画像、テレビ映像、撮影画像などの表示情報(コンテンツ)を表示させるもので、この表示部19の表面には、視差バリア(図示省略)を生成するための液晶の層が設けられていて3D表示が可能となっている。2D/3D変換処理部20は、2Dコンテンツを3D深度に応じた右目用のコンテンツと左目用のコンテンツに変換したり、3Dコンテンツを別の3D深度のコンテンツに変換したり、3Dコンテンツを2Dコンテンツに変換したりするもので、この3D変換処理部20によって変換されたコンテンツは、表示部19に3D表示されたり2D表示されたりする。   The display unit 19 corresponding to 3D display uses high-definition liquid crystal and displays display information (contents) such as character information, a standby image, a television image, and a photographed image, and is displayed on the surface of the display unit 19. Is provided with a liquid crystal layer for generating a parallax barrier (not shown) to enable 3D display. The 2D / 3D conversion processing unit 20 converts 2D content into right-eye content and left-eye content according to 3D depth, converts 3D content into another 3D depth content, or converts 3D content into 2D content. The content converted by the 3D conversion processing unit 20 is displayed in 3D or 2D on the display unit 19.

操作部21は、ダイヤル入力、文字入力、コマンド入力などを入力するもので、中央制御部11は、この操作部21からの入力操作信号に応じた処理を実行する。報知部22は、図示しないサウンドスピーカ、LED(発光ダイオード)ランプ、振動モータを備え、着信時に駆動されて着信報知を行うほか、アラーム報知時などでも駆動される。タッチセンサ部23は、携帯電話機1を構成する操作部筐体の両側部に人体接触部(透明タッチセンサ)をそれぞれ配設した構成で、中央制御部11は、タッチセンサ部23への接触状況に基づいて携帯電話機1が手持ち状態にあるか否かを検出するようにしている。   The operation unit 21 inputs dial input, character input, command input, and the like. The central control unit 11 executes processing according to an input operation signal from the operation unit 21. The notification unit 22 includes a sound speaker, an LED (light emitting diode) lamp, and a vibration motor (not shown). The notification unit 22 is driven when an incoming call is received to notify an incoming call, and is also driven when an alarm is notified. The touch sensor unit 23 has a configuration in which a human body contact unit (transparent touch sensor) is disposed on both sides of the operation unit casing constituting the mobile phone 1, and the central control unit 11 is in contact with the touch sensor unit 23. Whether or not the mobile phone 1 is in a handheld state is detected based on the above.

なお、手持ち状態を検出するために、例えば、スタイル検出部(図示省略)を設けることによって、携帯電話機1を構成する2つの筐体(操作部筐体、表示部筐体)の折り畳みを開いた状態(オープンスタイル)であることを検出し、かつ、操作部筐体の両側部に配設したタッチセンサ部23に人体がそれぞれ接触したことを検出した際に、手持ち状態にあると検出するようにしてもよい。また、タッチセンサ部23は、上述のように手持ち状態か否かを検出する場合に利用されるほか、この携帯電話機1の使用者を特定するために、その使用者がタッチセンサ部23に接触した接触部位から指紋情報を採取する場合にも利用される。この場合、中央制御部11は、タッチセンサ部23からの指紋情報(使用者の生体情報)を解析すると共に、その解析結果と予め登録されている指紋情報(図示省略)とを照合することによってその使用者は誰かを特定するようにしている。計時部24は、現在時刻(時分秒のほか、曜日、日付を含む)を計時する時計を構成するもので、中央制御部11は、現在時刻が所定の時間帯に該当するかを判別するようにしている。   In order to detect a hand-held state, for example, by providing a style detection unit (not shown), folding of two casings (an operation unit casing and a display unit casing) constituting the mobile phone 1 is opened. When it is detected that the human body is in contact with the touch sensor unit 23 provided on both sides of the operation unit casing, and detects that it is in a handheld state. It may be. Further, the touch sensor unit 23 is used when detecting whether or not the mobile phone 1 is in a handheld state as described above, and the user touches the touch sensor unit 23 in order to identify the user of the mobile phone 1. It is also used when fingerprint information is collected from the touched part. In this case, the central control unit 11 analyzes the fingerprint information (user's biometric information) from the touch sensor unit 23, and collates the analysis result with previously registered fingerprint information (not shown). The user is trying to identify someone. The time measuring unit 24 constitutes a clock that measures the current time (including day of the week, date in addition to hour, minute, second), and the central control unit 11 determines whether the current time corresponds to a predetermined time zone. I am doing so.

図3は、表示制御情報記憶部M3を説明するための図である。
表示制御情報記憶部M3は、表示対象のコンテンツを表示部19に表示させる際に、当該コンテンツの3D表示での適正に基づいて、当該コンテンツを2D表示させるか3D表示させるかを示すほかに3D表示させる場合にはどの位の深さ(強さ)の3D深度で表示させるかを示す表示制御情報を記憶するもので、「適性条件」と「表示制御情報」とを対応付けて記憶する構成となっている。この表示制御情報記憶部M3の内容は、手動操作によって任意に設定されたものである。中央制御部11は、この表示制御情報記憶部M3を参照し、表示対象として受信した放送コンテンツやストリーミング用コンテンツの3D表示での適正を判別すると共に、この3D表示での適性に応じてその表示制御を決定し、この表示制御にしたがって表示部19に当該コンテンツを2D表示させたり、3D表示させたりするようにしている。
FIG. 3 is a diagram for explaining the display control information storage unit M3.
In addition to indicating whether the content is to be displayed in 2D or 3D based on the appropriateness in 3D display of the content when the display target content is displayed on the display unit 19, the display control information storage unit M <b> 3 displays 3D. In the case of displaying, the display control information indicating how much depth (strength) the 3D depth is displayed is stored, and “appropriate condition” and “display control information” are stored in association with each other. It has become. The contents of the display control information storage unit M3 are arbitrarily set by manual operation. The central control unit 11 refers to the display control information storage unit M3 to determine whether or not the broadcast content or streaming content received as a display target is suitable for 3D display, and displays the content according to the suitability for the 3D display. The control is determined, and the content is displayed in 2D or 3D on the display unit 19 in accordance with the display control.

すなわち、表示制御情報記憶部M3は、種類テーブルT1、適性条件別テーブルT2、T3、T4のほか、参照用テーブルT5を有している。種類テーブルT1は、「適性条件」の種類を記憶するもので、タッチセンサ部23への接触状況に基づいて携帯電話機1が手持ち状態であるか否かを適性条件とする“手持ち状態”と、計時部24によって計時された現在時刻が予め決められている時間帯に該当するか否かを適性条件とする“時間帯”と、携帯電話機1を使用してコンテンツ表示を見る使用者は誰か又はどのような属性の人かを適性条件とする“使用者(個人/属性)”とを記憶するようにしている。この「適性条件」の種類としての“手持ち状態”、“時間帯”、“使用者(個人/属性)”に対応付けられている「設定フラグ」は、どの適性条件が有効であるか否かを示すもので、このフラグ“1”は、現在、有効な適性条件であることを示し、図示の例では、“手持ち状態”が現在有効な適性条件であることを示している。   In other words, the display control information storage unit M3 includes a reference table T5 in addition to the type table T1 and the appropriate condition tables T2, T3, and T4. The type table T1 stores the types of “appropriate conditions”, and “hand-held state” that uses whether or not the mobile phone 1 is in a hand-held state based on the state of contact with the touch sensor unit 23; Who is the user who sees the content display using the mobile phone 1 and the “time zone” in which an appropriate condition is whether or not the current time measured by the time measuring unit 24 falls within a predetermined time zone? “Users (individuals / attributes)” whose aptitude condition is a person with what kind of attribute is stored. The “setting flag” associated with “handheld state”, “time zone”, and “user (individual / attribute)” as the type of “appropriate condition” indicates which aptitude condition is valid. This flag “1” indicates that the fitness condition is currently valid. In the example shown in the drawing, “hand-held state” indicates that the fitness condition is currently valid.

適性条件別テーブルT2は、「適性条件」の“時間帯”に応じて「表示制御情報」を記憶するもので、使用者の生活時間帯として、例えば、“食事時間帯”、“趣味時間帯1”、“趣味時間帯2”、…が記憶され、更に、“食事時間帯”は、例えば、“7:00〜8:00”、“12:00〜13:00”、“19:00〜20:00”に区分されている。この「適性条件」としての“時間帯”は、手動操作によって任意に設定されたもので、“趣味時間帯1”は、例えば、ヨガ教室の番組を視聴する時間帯として、“毎週水曜日20:00〜22:00”、また、“趣味時間帯2”は、映画番組を鑑賞する時間帯として、“毎週金曜日21:00〜23:00”であることを示している。「表示制御情報」は、現在時刻が該当する時間帯に応じて表示制御を決定する際に使用されるもので、2D表示させるか3D表示させるかを示す「2D/3D」を有するほか、3D表示させる場合にはその適性具合に応じてどの位の深さ(強さ)の3D深度で表示させるかを示す「3D深度」を有している。   The table according to suitability condition T2 stores “display control information” according to “time zone” of “suitability condition”. For example, “meal time zone”, “hobby time zone” can be used as the user's life time zone. 1 ”,“ Hobby time zone 2 ”,... Are stored, and“ Meal time zone ”is, for example,“ 7: 0 to 8:00 ”,“ 12: 0 to 13:00 ”,“ 19:00 ” To 20:00 ". The “time zone” as the “appropriate condition” is arbitrarily set by manual operation, and the “hobby time zone 1” is, for example, “every Wednesday 20: “00 to 22:00” and “hobby time zone 2” indicate that “every Friday 21: 00 to 23:00” is a time zone for watching a movie program. “Display control information” is used when determining display control in accordance with a time zone corresponding to the current time, and includes “2D / 3D” indicating whether 2D display or 3D display is performed. When displaying, it has “3D depth” indicating how much depth (strength) 3D depth is displayed according to the suitability.

「3D深度」は、コンテンツの3Dの奥行きあるいは飛び出しの程度を示すもので、“レベル3”、“レベル2”、“レベル1”、レベル0が設定され、3D深度の強い順に、レベル3>レベル2>レベル1>レベル0の関係となっている。なお、“レベル0”は、3D深度が“レベル0(ゼロ)”で、2D(平面)であることを示し、「3D深度」が“レベル0”のコンテンツは、2D表示される。なお、図示の例において、各“食事時間帯”に対応して「2D/3D」にはそれぞれ“2D”が記憶され、「3D深度」には“レベル0”がそれぞれ記憶されている。また、“趣味時間帯1”に対応して「2D/3D」には“2D”が記憶され、「3D深度」には“レベル0”が記憶され、また、“趣味時間帯2”に対応して「2D/3D」には“3D”が記憶され、「3D深度」には“レベル2”が記憶されている。つまり、本格的にテレビ放送を視聴する場合には、3D表示、それ以外では2D表示のような表示制御を行うようにしている。   “3D Depth” indicates the 3D depth of the content or the degree of pop-up. “Level 3”, “Level 2”, “Level 1”, and Level 0 are set, and level 3> The relationship is level 2> level 1> level 0. Note that “level 0” indicates that the 3D depth is “level 0 (zero)” and 2D (plane), and the content whose “3D depth” is “level 0” is displayed in 2D. In the illustrated example, “2D” is stored in “2D / 3D” and “level 0” is stored in “3D depth” corresponding to each “meal time zone”. Also, “2D” is stored in “2D / 3D” corresponding to “hobby time zone 1”, “level 0” is stored in “3D depth”, and “hobby time zone 2” is supported. Then, “3D” is stored in “2D / 3D”, and “level 2” is stored in “3D depth”. That is, display control such as 3D display is performed when watching television broadcasting in earnest, and 2D display is performed otherwise.

適性条件別テーブルT3は、「適性条件」の“使用者(個人)”に応じて「表示制御情報」を記憶する構成となっている。この「適性条件」としての“使用者(個人)”は、手動操作によって任意に設定されたもので、携帯電話機1を使用してテレビ放送などを視聴する可能性のある各個人(家族、友人、知人など)として、例えば、“祖母”、“父”、“母”、“兄”、“妹”などが記憶されている。「表示制御情報」は、携帯電話機1を使用してテレビ放送などを視聴する使用者に応じて表示制御を決定する際に使用されるもので、上述した適性条件別テーブルT2と同様の「2D/3D」及び「3D深度」を有している。なお、図示の例では、眼の健康状態、成長期などを考慮して、“祖母”に対応して「2D/3D」には“2D”が記憶され、「3D深度」には“レベル0”が記憶され、また、“父”及び“兄”に対応して「2D/3D」には“3D”が記憶され、「3D深度」には“レベル3”が記憶され、また、“母”に対応して「2D/3D」には“3D”が記憶され、「3D深度」には“レベル2”が記憶され、また、“妹”に対応して「2D/3D」には“3D”が記憶され、「3D深度」には“レベル1”が記憶されている。   The appropriate condition table T3 is configured to store “display control information” according to “user (individual)” of “appropriate condition”. The “user (individual)” as the “appropriate condition” is arbitrarily set by manual operation, and each individual (family, friend) who may watch TV broadcast using the mobile phone 1. For example, “grandmother”, “father”, “mother”, “brother”, “sister”, and the like are stored. The “display control information” is used when determining display control according to a user who views a television broadcast or the like using the mobile phone 1, and “2D” similar to the above-described appropriate condition table T 2. / 3D "and" 3D depth ". In the illustrated example, “2D” is stored in “2D / 3D” corresponding to “grandmother” and “level 0” is stored in “3D depth” in consideration of the health condition of the eye, the growth period, and the like. “3D” is stored in “2D / 3D” corresponding to “Father” and “Brother”, “Level 3” is stored in “3D Depth”, and “Mother” is stored. “3D” is stored in “2D / 3D”, “Level 2” is stored in “3D Depth”, and “2D / 3D” is stored in “2D / 3D”. “3D” is stored, and “Level 1” is stored in “3D depth”.

適性条件別テーブルT4は、「適性条件」の“使用者(属性)”に応じて「表示制御情報」を記憶する構成となっている。この「適性条件」としての“使用者(属性)”は、手動操作によって任意に設定されたもので、携帯電話機1を使用してテレビ放送などを視聴する可能性のある使用者の属性(年齢層)として、例えば、“12歳未満”、“12歳以上65歳未満”、“65歳以上”に区分されている。「表示制御情報」は、この携帯電話機1を使用してテレビ放送などを視聴する使用者の属性に応じて表示制御を決定する際に使用されるもので、上述した適性条件別テーブルT2と同様の「2D/3D」及び「3D深度」を有している。なお、図示の例では、成長期などを考慮して、“12歳未満”、及び“65歳以上”に対応して「2D/3D」には“2D”が記憶され、「3D深度」には“レベル0”が記憶され、“12歳以上65歳未満”に対応して「2D/3D」には“3D”が記憶され、「3D深度」には“レベル2”が記憶されている。   The appropriate condition condition table T4 is configured to store “display control information” in accordance with “user (attribute)” of “appropriate condition”. The “user (attribute)” as the “appropriate condition” is arbitrarily set by manual operation, and the attribute (age) of a user who may watch a television broadcast using the mobile phone 1. Layer), for example, “under 12 years old”, “12 years old and under 65 years old”, and “65 years old and over”. The “display control information” is used when determining display control according to the attribute of the user who views the television broadcast or the like using the mobile phone 1, and is the same as the table T2 by aptitude condition described above. “2D / 3D” and “3D depth”. In the illustrated example, “2D” is stored in “2D / 3D” and “3D depth” corresponding to “under 12 years old” and “over 65 years old” in consideration of the growth period and the like. “Level 0” is stored, “3D” is stored in “2D / 3D”, and “Level 2” is stored in “3D depth” corresponding to “12 years old and under 65 years old” .

参照用テーブルT5は、この携帯電話機1を使用してテレビ放送などを視聴する使用者(個人/属性)を特定する方法を決定する際に参照されるもので、「決定方法」、「設定フラグ」を有する構成となっている。「決定方法」は、使用者(個人/属性)を特定するための情報を手動操作によって入手する方法の“手動操作”と、使用者の指紋を採取することによって使用者(個人/属性)を特定するための情報を入手する方法の“自動1”と、使用者の顔を撮影した画像を解析することによって使用者(個人/属性)を特定するための情報を入手する方法の“自動2”を有している。この「決定方法」に対応する「設定フラグ」は、そのいずれを有効であるかを示すフラグで、図示の例では、“自動2”が現在有効な「決定方法」であることを示している。   The reference table T5 is referred to when determining a method for specifying a user (individual / attribute) who views a television broadcast or the like by using the mobile phone 1, and the “determination method” and “setting flag” are referred to. It has the structure which has. The “determination method” includes “manual operation” in which information for identifying a user (individual / attribute) is obtained by manual operation and the user (individual / attribute) by collecting the user's fingerprint. “Auto 1” for a method for obtaining information for specifying, and “Auto 2” for a method for obtaining information for identifying a user (individual / attribute) by analyzing an image obtained by photographing a user's face. "have. The “setting flag” corresponding to this “determination method” is a flag indicating which one is valid, and in the illustrated example, “Auto 2” is the currently valid “determination method”. .

次に、第1実施形態における携帯電話機1の動作概念を図4〜図7に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなど伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。
なお、図4は、携帯電話機1の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図4のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。
Next, the operation concept of the mobile phone 1 in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Moreover, the operation | movement according to the above-mentioned program code transmitted via transmission media, such as a network, can also be performed sequentially. The same applies to other embodiments described later. In addition to the recording medium, an operation peculiar to the present embodiment can be executed using a program / data supplied externally via a transmission medium.
FIG. 4 is a flowchart showing an outline of the operation of the characteristic part of the present embodiment in the overall operation of the cellular phone 1. When the flow of FIG. Return to (omitted).

図4は、テレビアプリなどのビューワアプリの起動で実行開始される表示制御処理を示したフローチャートである。
先ず、中央制御部11は、コンテンツ受信再生操作(リアルタイム再生操作)に応答して、テレビ機能が起動されたかを調べ(ステップA1)、テレビ機能が起動された場合には(ステップA1でYES)、表示対象のコンテンツとして、テレビ放送受信部17から放送コンテンツ(2D表示用コンテンツ)の受信を開始する(ステップA2)。また、インターネット接続機能が起動された場合には(ステップA1でNO)、表示対象のコンテンツとして、無線通信部15からストリーミング用コンテンツ(2D表示用コンテンツ)の受信を開始する(ステップA3)。
FIG. 4 is a flowchart showing a display control process that is started when a viewer application such as a TV application is started.
First, in response to the content reception / playback operation (real-time playback operation), the central control unit 11 checks whether the television function is activated (step A1). If the television function is activated (YES in step A1). As a display target content, reception of broadcast content (2D display content) from the television broadcast receiving unit 17 is started (step A2). When the Internet connection function is activated (NO in step A1), reception of streaming content (2D display content) from the wireless communication unit 15 as display target content is started (step A3).

そして、表示制御情報記憶部M3を構成する種類テーブルT1の「設定フラグ」を参照し(ステップA4)、「設定フラグ」が“1”の「適性条件」は、“手持ち状態”であるか否かを調べたり(ステップA5)、“時間帯”であるか“使用者”であるかを調べたりする(ステップA6)。いま、「設定フラグ」が“1”の「適性条件」が“手持ち状態”であれば(ステップA5でYES)、“手持ち状態”に応じて表示制御を決定する表示制御決定処理に移るが(ステップA7)、“時間帯”であれば(ステップA6でYES)、“時間帯”に応じて表示制御を決定する表示制御決定処理に移り(ステップA8)、“使用者”であれば(ステップA6でNO)、“使用者”に応じて表示制御を決定する表示制御決定処理に移る(ステップA9)。   Then, the “setting flag” in the type table T1 constituting the display control information storage unit M3 is referred to (step A4), and the “appropriate condition” in which the “setting flag” is “1” is “hand-held state”. (Step A5) or whether it is a "time zone" or "user" (step A6). Now, if the “suitability condition” with the “setting flag” being “1” is “hand-held state” (YES in step A5), the process proceeds to a display control determination process for determining display control according to the “hand-held state” ( If it is “time zone” (YES in step A6), the process proceeds to display control determination processing for determining display control according to “time zone” (step A8), and if “user” (step A7) The process proceeds to a display control determination process for determining display control according to “user” (NO in A6) (step A9).

図5は、“手持ち状態”に応じて表示制御を決定する表示制御決定処理(図4のステップA7)を詳述するためのフローチャートである。
先ず、中央制御部11は、タッチセンサ部23を動作させた状態において(ステップB1)、操作部筐体の両側部に配設されているタッチセンサ部23への接触状況を取得し(ステップB2)、この接触状況に基づいて携帯電話機1が“手持ち状態”であるか否かを検出する(ステップB3)。この場合、タッチセンサ部23への接触を検出しなかったときや接触を検出しても3D表示を視認する場合の適切な視距離が安定して確保できるような持ち方に対応する接触状況でないときには、“手持ち状態”ではないと判断する。
FIG. 5 is a flowchart for explaining in detail the display control determination process (step A7 in FIG. 4) for determining display control according to the “hand-held state”.
First, in a state where the touch sensor unit 23 is operated (step B1), the central control unit 11 acquires a contact state with the touch sensor unit 23 disposed on both sides of the operation unit casing (step B2). ) Based on this contact state, it is detected whether or not the mobile phone 1 is in the “hand-held state” (step B3). In this case, when the contact to the touch sensor unit 23 is not detected, or even when contact is detected, it is not a contact situation corresponding to a holding method in which an appropriate viewing distance can be stably secured when viewing a 3D display. Sometimes, it is determined that it is not in the “handheld state”.

いま、“手持ち状態”でなければ(ステップB3でNO)、3D表示に適さないと判断し、受信コンテンツを2D表示させるために3D深度として“レベル0”を決定するが(ステップB5)、手持ち状態であると判断した場合には(ステップB3でYES)、3D表示に適すると判断し、受信コンテンツを3D表示させるための3D深度として“レベル2”を決定する(ステップB4)。なお、手持ち状態での3D深度は、“レベル2”に限らず、“レベル1”あるいは“レベル3”であってもよい。そして、上述のようにして決定した3D深度を各種情報一時記憶部M2に一時記憶する(ステップB6)。   If it is not “hand-held” (NO in step B3), it is determined that it is not suitable for 3D display, and “level 0” is determined as 3D depth to display received content in 2D (step B5). If it is determined that it is in a state (YES in step B3), it is determined that it is suitable for 3D display, and “level 2” is determined as the 3D depth for displaying the received content in 3D (step B4). Note that the 3D depth in the handheld state is not limited to “level 2” but may be “level 1” or “level 3”. Then, the 3D depth determined as described above is temporarily stored in the various information temporary storage unit M2 (step B6).

図6は、“時間帯”に応じて表示制御を決定する表示制御決定処理(図4のステップA8)を詳述するためのフローチャートである。
先ず、中央制御部11は、計時部24から現在時刻を取得した後(ステップC1)、時間帯の適性条件別テーブルT2の有無を調べる(ステップC2)。ここで、手動操作によって適性条件別テーブルT2が作成され、“時間帯”に対応付けて「表示制御情報」が設定されていれば(ステップC2でYES)、現在時刻に該当する“時間帯”の有無を調べる(ステップC3)。ここで、いずれかの“時間帯”に該当していれば(ステップC3でYES)、この“時間帯”に対応付けられている「表示制御情報」から「3D深度」を読み出して、受信コンテンツを3D表示させるための3D深度として決定する(ステップC4)。例えば、現在時刻が“金曜日の21:00〜23:00”であれば、“趣味時間帯2”に該当するため、「3D深度」として“レベル2”を決定する。
FIG. 6 is a flowchart for explaining in detail the display control determination process (step A8 in FIG. 4) for determining the display control according to the “time zone”.
First, the central control unit 11 obtains the current time from the time measuring unit 24 (step C1), and then checks whether or not there is a table T2 classified by suitability conditions for time zones (step C2). Here, if the table T2 by suitability condition is manually created and “display control information” is set in association with “time zone” (YES in step C2), the “time zone” corresponding to the current time is set. The presence or absence of this is examined (step C3). Here, if one of the “time zones” is applicable (YES in step C3), “3D depth” is read from “display control information” associated with the “time zone”, and the received content Is determined as a 3D depth for 3D display (step C4). For example, if the current time is “Friday 21:00:00 to 23:00”, it corresponds to “Hobby time zone 2”, and therefore “Level 2” is determined as “3D depth”.

また、適性条件別テーブルT2が設定されていない場合(ステップC2でNO)、あるいは適性条件別テーブルT2が設定されていても、現在時刻がいずれの“時間帯”にも該当しない場合には(ステップC3でNO)、深夜時間帯又は早朝時間帯かを調べ(ステップC6)、深夜時間帯又は早朝時間帯であれば(ステップC6でYES)、3D表示に適さないと判断し、受信コンテンツを2D表示させるための3D深度として“レベル0”を決定する(ステップC7)。また、深夜時間帯又は早朝時間帯以外であれば(ステップC6でNO)、受信コンテンツを3D表示させるための3D深度として“レベル2”を決定する(ステップC8)。この場合の3D深度は、“レベル2”に限らず、“レベル1”あるいは“レベル3”であってもよい。そして、上述のようにして決定した3D深度を各種情報一時記憶部M2に一時記憶する(ステップC5)。   Further, when the suitability condition table T2 is not set (NO in step C2), or when the suitability condition table T2 is set, the current time does not correspond to any “time zone” ( NO in step C3), it is checked whether it is a midnight time zone or an early morning time zone (step C6). If it is a midnight time zone or an early morning time zone (YES in step C6), it is determined that it is not suitable for 3D display, and the received content is “Level 0” is determined as the 3D depth for 2D display (step C7). If it is not a midnight time zone or an early morning time zone (NO in step C6), “level 2” is determined as the 3D depth for displaying the received content in 3D (step C8). The 3D depth in this case is not limited to “level 2” but may be “level 1” or “level 3”. Then, the 3D depth determined as described above is temporarily stored in the various information temporary storage unit M2 (step C5).

図7は、“使用者”に応じて表示制御を決定する表示制御決定処理(図4のステップA9)を詳述するためのフローチャートである。
先ず、中央制御部11は、参照用テーブルT5の「設定フラグ」を参照し(ステップD1)、「設定フラグ」が“1”の「決定方法」は、“自動1”であるか否かを調べたり(ステップD2)、“自動2”であるか“手動操作”であるかを調べたりする(ステップD3)。いま、「設定フラグ」が“1”の「決定方法」が“自動1”であれば(ステップD2でYES)、タッチセンサ部23を動作させた後(ステップD4)、タッチセンサ部23から指紋情報を取得すると共に(ステップD5)、この指紋情報に基づいて指紋認証処理を行う(ステップD6)。
FIG. 7 is a flowchart for explaining in detail the display control determination process (step A9 in FIG. 4) for determining the display control in accordance with the “user”.
First, the central control unit 11 refers to the “setting flag” in the reference table T5 (step D1), and determines whether or not the “determination method” with the “setting flag” being “1” is “automatic 1”. It is checked (step D2), and it is checked whether it is "automatic 2" or "manual operation" (step D3). If the “setting flag” is “1” and the “determination method” is “automatic 1” (YES in step D2), the touch sensor unit 23 is operated (step D4), and then the fingerprint is printed from the touch sensor unit 23. Information is acquired (step D5), and fingerprint authentication processing is performed based on the fingerprint information (step D6).

この場合、タッチセンサ部23からの指紋情報を解析すると共に、その解析結果と予め登録されている指紋情報とを照合することによって指紋認証処理を行い、その結果、登録されている指紋情報に該当しないと判別された場合には(ステップD7でNO)、受信コンテンツを2D表示させるために3D深度として“レベル0”を決定する(ステップD8)。また、登録されている指紋情報に該当すると判別された場合には(ステップD7でYES)、その使用者を特定すると共に当該使用者に基づいて適性条件別テーブルT3を参照することによって(ステップD9)、対応する「表示制御情報」の「3D深度」を読み出し、受信コンテンツを3D表示させるための3D深度として決定する(ステップD10)。例えば、使用者が“父”であれば、それに対応する「3D深度」として“レベル3”が決定され、“祖母”であれば、それに対応する「3D深度」として“レベル0”が決定される。   In this case, the fingerprint information from the touch sensor unit 23 is analyzed, and the fingerprint authentication process is performed by collating the analysis result with the registered fingerprint information. If it is determined not to do so (NO in step D7), “level 0” is determined as the 3D depth in order to display the received content in 2D (step D8). If it is determined that the fingerprint information is registered (YES in step D7), the user is specified and the appropriate condition condition table T3 is referred to based on the user (step D9). ), “3D depth” of the corresponding “display control information” is read out and determined as 3D depth for displaying the received content in 3D (step D10). For example, if the user is “father”, “level 3” is determined as “3D depth” corresponding to the user, and “level 0” is determined as “3D depth” corresponding to “grandmother”. The

また、「設定フラグ」が“1”の「決定方法」が“自動2”であれば(ステップD3でYES)、撮像処理部18のインカメラを動作させる(ステップD11)。そして、インカメラによって撮影された顔画像を取得した後(ステップD12)、次の顔認証処理に移る(ステップD13)。この場合、インカメラからの顔画像を解析すると共に、この解析結果と予め登録されている顔情報とを照合することによって顔認証処理を行う。ここで、登録されている顔情報に該当していると判別された場合には(ステップD14でYES)、その使用者を特定すると共に当該使用者に基づいて適性条件別テーブルT3を参照することによって(ステップD9)、対応する「表示制御情報」の「3D深度」を読み出し、受信コンテンツを3D表示させるための3D深度として決定する(ステップD10)。例えば、使用者が“父”であれば、それに対応する「3D深度」として“レベル3”が決定される。   If the “setting flag” is “1” and the “determination method” is “automatic 2” (YES in step D3), the in-camera of the imaging processing unit 18 is operated (step D11). And after acquiring the face image image | photographed with the in-camera (step D12), it moves to the next face authentication process (step D13). In this case, face authentication processing is performed by analyzing the face image from the in-camera and comparing the analysis result with face information registered in advance. If it is determined that the face information is registered (YES in step D14), the user is identified and the appropriate condition condition table T3 is referred to based on the user. (Step D9), the “3D depth” of the corresponding “display control information” is read and determined as the 3D depth for displaying the received content in 3D (step D10). For example, if the user is “father”, “level 3” is determined as the “3D depth” corresponding to the user.

一方、顔認証処理の結果、登録されている顔情報に該当していないと判別された場合には(ステップD14でNO)、インカメラからの顔画像を解析することによって使用者の年齢層を推定する処理を行う(ステップD15)。この場合、白髪や薄毛具合、皺の数、皮膚の弛みなどを総合的に判断して年齢層の推定を行い、その結果、推定が不可能であれば(ステップD16でNO)、受信コンテンツを2D表示させるために3D深度として“レベル0”を決定するが(ステップD17)、推定が可能であれば(ステップD16でYES)、この推定年齢層に基づいて適性条件別テーブルT4を参照することによって(ステップD18)、対応する「表示制御情報」の「3D深度」を読み出し、受信コンテンツを3D表示させるための3D深度として決定する(ステップD19)。例えば、“12歳未満”、“65歳以上”であれば、3D深度として“レベル0”が決定され、“12歳以上65歳未満”であれば、3D深度として“レベル2”が決定される。   On the other hand, if it is determined that the face information does not correspond to the registered face information (NO in step D14), the age group of the user is determined by analyzing the face image from the in-camera. An estimation process is performed (step D15). In this case, the age group is estimated by comprehensively judging the condition of gray hair, thin hair, number of wrinkles, skin looseness, etc. If the estimation is impossible (NO in step D16), the received content is “Level 0” is determined as the 3D depth for 2D display (step D17), but if estimation is possible (YES in step D16), refer to the table T4 by suitability condition based on this estimated age group. (Step D18), the “3D depth” of the corresponding “display control information” is read and determined as the 3D depth for displaying the received content in 3D (step D19). For example, if “less than 12 years old” or “65 years old or older”, “level 0” is determined as the 3D depth, and if “12 years old or older and less than 65 years old”, “level 2” is determined as the 3D depth. The

また、「設定フラグ」が“1”の「決定方法」が“手動操作”であれば(ステップD3でNO)、使用者個人を特定するための情報の入力待ち状態となる(ステップD20)。ここで、手動操作による情報入力がなければ(ステップD20でNO)、受信コンテンツを2D表示させるために3D深度として“レベル0”を決定するが(ステップD21)、情報入力があれば(ステップD20でYES)、この入力情報に基づいて適性条件別テーブルT3を参照することによって(ステップD22)、対応する「表示制御情報」の「3D深度」を読み出し、受信コンテンツを3D表示させるための3D深度として決定する(ステップD23)。そして、上述のようにして決定した3D深度を各種情報一時記憶部M2に一時記憶する(ステップC24)。   If the “setting flag” is “1” and the “determination method” is “manual operation” (NO in step D3), the process waits for input of information for identifying the individual user (step D20). If there is no information input by manual operation (NO in step D20), “level 0” is determined as the 3D depth to display the received content in 2D (step D21), but if there is information input (step D20). YES), by referring to the appropriate condition condition table T3 based on this input information (step D22), the “3D depth” of the corresponding “display control information” is read, and the received content is displayed in 3D depth. (Step D23). Then, the 3D depth determined as described above is temporarily stored in the various information temporary storage unit M2 (step C24).

このような表示制御決定処理(図4のステップA7〜A9)が終了すると、一時記憶の「3D深度」を読み出し(図4のステップA10)、その“レベル0”であるかを調べる(ステップA11)。いま、「3D深度」が“レベル0”であれば(ステップA11でYES)、受信コンテンツを2D表示させる処理に移るが、その際、表示部19の表面に視差バリアが生成されていれば、この視差バリアを消去した後(ステップA12)、受信コンテンツを表示部19に2D表示させる(ステップA13)。そして、受信コンテンツの終了が検出されたり、表示終了を指示するユーザ操作が行われたりするまで(ステップA14)、上述のステップA13に戻る。   When such display control determination processing (steps A7 to A9 in FIG. 4) is completed, the “3D depth” in the temporary storage is read (step A10 in FIG. 4), and it is checked whether it is “level 0” (step A11). ). Now, if “3D depth” is “level 0” (YES in step A11), the process proceeds to 2D display of received content. At this time, if a parallax barrier is generated on the surface of the display unit 19, After erasing the parallax barrier (step A12), the received content is displayed in 2D on the display unit 19 (step A13). The process returns to the above-described step A13 until the end of the received content is detected or a user operation for instructing the display end is performed (step A14).

また、「3D深度」が“レベル0”でなければ(ステップA11でNO)、視差バリアを表示部19の表層に生成させると共に(ステップA15)、受信コンテンツ(2Dコンテンツ)を「3D深度」に応じた3D表示用のコンテンツに変換する(ステップA16)。その際、2D/3D変換処理部20では、2Dの受信コンテンツを3D深度に応じた右目用のコンテンツと左目用のコンテンツに変換する処理が行われるので、この変換後の受信コンテンツを取得し、上述の「3D深度」で表示部19に3D表示させる(ステップA17)。そして、受信コンテンツの終了が検出されたり、表示終了を指示するユーザ操作が行われたりするまで(ステップA18)、上述のステップA17に戻る。なお、上述したステップA14又はステップA18での終了検出に応答して、図4の表示制御処理は終了する。   If “3D depth” is not “level 0” (NO in step A11), a parallax barrier is generated on the surface layer of the display unit 19 (step A15), and the received content (2D content) is set to “3D depth”. The content is converted into the corresponding 3D display content (step A16). At that time, the 2D / 3D conversion processing unit 20 performs processing for converting the 2D received content into the right-eye content and the left-eye content according to the 3D depth, and thus acquires the converted received content, 3D display is performed on the display unit 19 at the above-mentioned “3D depth” (step A17). Then, the process returns to step A17 described above until the end of the received content is detected or a user operation for instructing the display end is performed (step A18). Note that the display control process in FIG. 4 ends in response to the end detection in step A14 or step A18 described above.

以上のように、第1実施形態においては、携帯電話機1の中央制御部11は、携帯電話機1が手持ち状態であるか否かに基づいて表示対象コンテンツの3D表示での適正を判別し、この3D表示での適性に応じて決定された表示制御にしたがって当該コンテンツを表示部19に表示させるようにしたので、使用者に煩わしさを感じさせることなく、携帯電話機1が手持ち状態であるか否かに応じて2D表示の見易い表示から臨場感のある3D表示まで使用者の意向に沿った適切な表示を実現することができ、電力消費の点でも有利であるなどの効果を有し、実用性に富んだものとなる。   As described above, in the first embodiment, the central control unit 11 of the mobile phone 1 determines whether the display target content is appropriate for 3D display based on whether the mobile phone 1 is in a handheld state. Since the content is displayed on the display unit 19 in accordance with the display control determined according to the suitability for 3D display, whether or not the mobile phone 1 is in a handheld state without causing the user to feel bothered. Depending on the situation, it is possible to realize appropriate display according to the user's intentions from easy-to-view 2D display to realistic 3D display, and it is advantageous in terms of power consumption. It will be rich in nature.

携帯電話機1に人体が接触した場合の接触の仕方に基づいて当該携帯電話機1が手持ち状態であるか否かを検出するようにしたので、手持ち状態を確実に検出することができる。   Since whether or not the mobile phone 1 is in a hand-held state is detected based on how the human body comes into contact with the mobile phone 1, the hand-held state can be reliably detected.

計時部24によって計時された現在時刻に基づいて3D表示での適正を判別し、この3D表示での適性に応じて決定された表示制御にしたがって当該コンテンツを表示部19に表示させるようにしたので、使用者に煩わしさを感じさせることなく、現在時刻に応じて2D表示の見易い表示から臨場感のある3D表示まで使用者の意向に沿った適切な表示を実現することが、電力消費の点でも有利であるなどの効果を有し、実用性に富んだものとなる。   Since the appropriateness in the 3D display is determined based on the current time measured by the timekeeping unit 24, the content is displayed on the display unit 19 in accordance with the display control determined according to the suitability in the 3D display. It is possible to realize appropriate display according to the user's intention from easy-to-view 2D display to realistic 3D display according to the current time without making the user feel bothersome. However, it has advantages such as advantages and is practical.

3D表示での適正を判別するための適性条件として時間帯を手動操作によって任意に設定するようにしたので、その設定によってユーザが所望する時間帯で3D表示させることができる。   Since the time zone is arbitrarily set by manual operation as an appropriate condition for determining the suitability in 3D display, 3D display can be performed in the time zone desired by the user by the setting.

携帯電話機1を使用してコンテンツ表示を見る使用者を特定し、この使用者に基づいて3D表示での適正を判別し、この3D表示での適性に応じて決定された表示制御にしたがって当該コンテンツを表示部19に表示させるようにしたので、使用者に煩わしさを感じさせることなく、使用者に応じて2D表示の見易い表示から臨場感のある3D表示まで使用者の意向に沿った適切な表示を実現することが、電力消費の点でも有利であるなどの効果を有し、実用性に富んだものとなる。   The user who views the content display using the mobile phone 1 is specified, the appropriateness in the 3D display is determined based on the user, and the content is determined according to the display control determined in accordance with the suitability in the 3D display. Is displayed on the display unit 19, so that the user does not feel bothersome, and appropriate to the user's intentions from easy-to-view 2D display to realistic 3D display depending on the user. Realizing the display has advantages such as being advantageous in terms of power consumption, and is practical.

使用者の属性(年齢層)を特定するようにしたので、例えば、ユーザが子供の場合、眼の発達を考慮して、高齢者の場合、眼の疲れを考慮して、2Dによる見易い表示に切り替えることができ、その他の年齢層では臨場感のある3D表示に切り替えることができる。   Since the user's attributes (age group) are specified, for example, when the user is a child, considering the development of the eyes, when the user is an elderly person, considering the eye fatigue, the display is easy to see in 2D. It is possible to switch to 3D display with a sense of reality in other age groups.

使用者の生体情報(指紋情報)に基づいて使用者を特定するようにしたので、使用者を確実に特定することができる。   Since the user is specified based on the biometric information (fingerprint information) of the user, the user can be specified reliably.

使用者を撮影した撮影画像に基づいて使用者を特定するようにしたので、使用者に何ら操作を要求することなく、使用者を適切に特定することができる。   Since the user is specified based on the photographed image obtained by photographing the user, the user can be appropriately specified without requiring any operation from the user.

3D表示での適性に基づいて当該コンテンツを2D表示させるか3D表示させるかを制御するようにしたので、2D表示と3D表示とを適切に切り替えることができる。   Since whether the content is to be displayed in 2D or 3D is controlled based on the suitability in 3D display, it is possible to appropriately switch between 2D display and 3D display.

3D表示での適性に応じて3Dの奥行きや飛び出しの程度を示す3D深度を決定して3D表示させるようにしたので、3D深度を制御することができる。   Since the 3D depth indicating the 3D depth and the degree of popping out is determined and displayed in 3D according to the suitability in 3D display, the 3D depth can be controlled.

受信したコンテンツの3D表示での適正に応じて当該コンテンツを表示部19にリアルタイムに表示させるようにしたので、放送コンテンツなどをリアルタイム出力する場合でも、2D表示の見易い表示から臨場感のある3D表示まで適切な表示を実現することができる。   Since the received content is displayed on the display unit 19 in real time according to the appropriateness of the received content in 3D display, even when broadcasting content or the like is output in real time, the 2D display is easy to see and the 3D display is realistic. Appropriate display can be realized.

なお、上述した第1実施形態においては、2D表示用の受信コンテンツを3D表示用のコンテンツに変換して3D表示させるようにしたが、同一時間に同一内容の2D表示用コンテンツ(放送コンテンツ)と3D表示用コンテンツ(放送コンテンツ)とを受信可能な携帯電話機1においては、サイマル放送としての2D表示用の放送コンテンツと3D表示用の放送コンテンツとを切り替えて2D/3D表示させるようにしてもよい。このことは、放送コンテンツの場合に限らず、無線通信部15から受信したストリーミング用コンテンツとして2D表示用コンテンツと3D表示用コンテンツとが含まれている場合にも、それらのコンテンツを切り替えて2D/3D表示させるようにしてもよい。   In the above-described first embodiment, the received content for 2D display is converted into the content for 3D display and displayed in 3D, but the content for 2D display (broadcast content) having the same content at the same time is used. In the mobile phone 1 capable of receiving 3D display content (broadcast content), 2D / 3D display may be switched between 2D display broadcast content and 3D display broadcast content as simulcast. . This is not limited to the case of broadcast content, and even when 2D display content and 3D display content are included as streaming content received from the wireless communication unit 15, the content is switched to 2D / You may make it display 3D.

(実施形態2)
以下、本発明の第2実施形態について図8及び図9を参照して説明する。
なお、上述した第1実施形態においては、放送コンテンツなどを受信して当該コンテンツの3D表示での適性を判別しながらリアルタイムに再生出力する場合を示したが、第2実施形態においては、テレビ放送を受信して記録したコンテンツ、カメラ撮影して保存したコンテンツなどのように予め記憶(蓄積)されているコンテンツを表示部19に表示させる場合を示したものである。また、上述した第1実施形態においては、2D表示用コンテンツを3D表示用のコンテンツに変換して3D表示させるようにしたが、予め記憶されている2D/3D用コンテンツを読み出すことによって適切な2D/3D表示させるようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Embodiment 2)
Hereinafter, a second embodiment of the present invention will be described with reference to FIGS.
In the first embodiment described above, a case has been shown in which broadcast content or the like is received and reproduced and output in real time while determining the suitability of the content in 3D display. In the second embodiment, a television broadcast is provided. This shows a case where content stored in advance (accumulated), such as content recorded by receiving and recorded by a camera, is displayed on the display unit 19. In the first embodiment described above, 2D display content is converted into 3D display content and displayed in 3D. However, appropriate 2D can be obtained by reading out 2D / 3D content stored in advance. / 3D display. Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

図8は、第2実施形態においてコンテンツ記憶部M4を説明するための図である。
コンテンツ記憶部M4は、表示部19に表示させるための表示情報(コンテンツ)を記憶するもので、例えば、情報配信装置4から動画、静止画、音楽、ニュースなどの情報をインターネット3、無線通信網2を介してダウンロードしたり、テレビ放送受信部17によって受信した放送番組を録画記録したりした情報をコンテンツとして記憶するようにしている。このコンテンツ記憶部M4は、コンテンツを識別する「情報ID」に対応して「タイトル」、「種別」、「実データ」、「3D深度」などを記憶する構成となっている。
FIG. 8 is a diagram for explaining the content storage unit M4 in the second embodiment.
The content storage unit M4 stores display information (contents) to be displayed on the display unit 19. For example, information such as moving images, still images, music, and news from the information distribution device 4 is transmitted to the Internet 3 and the wireless communication network. 2, and information recorded by recording and recording broadcast programs received by the television broadcast receiver 17 is stored as contents. The content storage unit M4 is configured to store “title”, “type”, “actual data”, “3D depth”, and the like corresponding to the “information ID” for identifying the content.

「タイトル」は、コンテンツの内容に関するタイトルを示し、図示の例では“二次元コード”、“運動会2008”、“Jリーグ観戦**”、“サンプル動画**”、“サンプル静止画**”、…である。「種別」は、動画コンテンツであるか静止画コンテンツであるかを示す種別情報である。「実データ」は、コンテンツの実データで、その「3D深度」が“レベル0(2D表示用)”の実データのみを持つコンテンツもあれば、各3D深度の実データを持つコンテンツもある。つまり、同じ内容であっても3D深度毎に実データ(2D表示を含む)をそれぞれ持つコンテンツがあり、また、3D深度がレベル0(2D表示)の実データのみを持つコンテンツがある。なお、“レベル0(2D)”は、3D深度が“レベル0(ゼロ)”で、2D(平面)であることを示している。   “Title” indicates a title related to the content, and in the illustrated example, “Two-dimensional code”, “Athletic meet 2008”, “J-League watching **”, “Sample video **”, “Sample still image **” .... “Type” is type information indicating whether the content is moving image content or still image content. “Real data” is actual data of content, and there are contents having only “3D depth” of actual data with “level 0 (for 2D display)” and other contents having actual data of each 3D depth. That is, even if the content is the same, there are contents each having actual data (including 2D display) for each 3D depth, and there are contents having only actual data having a 3D depth of level 0 (2D display). Note that “level 0 (2D)” indicates that the 3D depth is “level 0 (zero)” and is 2D (plane).

このように同じ内容のコンテンツであっても、様々な3D深度の複数の「実データ」が用意されており、中央制御部11は、それら複数の「実データ」の中から所定の3D深度の「実データ」を選択し、その「実データ」をコンテンツ記憶部M4から読み出して表示部19に3D表示させるようにしている。この場合、このコンテンツ記憶部M4に記憶されていない3D深度の「実データ」にあっては、同じ内容の2D用のデータを所定の3D深度のデータに変換して3D表示させるようにしている。   In this way, even for content of the same content, a plurality of “real data” of various 3D depths are prepared, and the central control unit 11 has a predetermined 3D depth of the plurality of “real data”. "Real data" is selected, and the "real data" is read from the content storage unit M4 and displayed on the display unit 19 in 3D. In this case, in the “actual data” of 3D depth not stored in the content storage unit M4, 2D data having the same content is converted into data of a predetermined 3D depth and displayed in 3D. .

図9は、第2実施形態において、コンテンツ再生操作に応答して実行開始される表示制御処理を示したフローチャートである。
先ず、中央制御部11は、コンテンツ再生操作に応答して、コンテンツ記憶部M4の「タイトル」を読み出してメニュー表示させた後(ステップE1)、そのメニュー画面の中から表示対象として所望するコンテンツがユーザ操作によって選択されると(ステップE2)、その選択コンテンツを表示対象として特定する(ステップE3)。
FIG. 9 is a flowchart showing display control processing that is started in response to a content reproduction operation in the second embodiment.
First, in response to the content reproduction operation, the central control unit 11 reads the “title” in the content storage unit M4 and displays the menu (step E1), and then a desired content as a display target is displayed from the menu screen. When selected by a user operation (step E2), the selected content is specified as a display target (step E3).

そして、表示制御情報記憶部M3を構成する種類テーブルT1の「設定フラグ」を参照し(ステップE4)、「設定フラグ」が“1”の「適性条件」は、“手持ち状態”であるか否かを調べたり(ステップE5)、“時間帯”であるか“使用者”であるかを調べたりする(ステップE6)。いま、「設定フラグ」が“1”の「適性条件」が“手持ち状態”であれば(ステップE5でYES)、“手持ち状態”に応じて表示制御を決定する表示制御決定処理に移るが(ステップA7)、“時間帯”であれば(ステップE6でYES)、“時間帯”に応じて表示制御を決定する表示制御決定処理に移り(ステップE8)、“使用者”であれば(ステップE6でNO)、“使用者”に応じて表示制御を決定する表示制御決定処理に移る(ステップE9)。なお、上述の各表示制御決定処理は、第1実施形態で説明した図5〜図7の表示制御決定処理と同様であるため、その説明は省略するものとする。   Then, with reference to the “setting flag” of the type table T1 constituting the display control information storage unit M3 (step E4), the “suitability condition” with the “setting flag” being “1” is “hand-held state”. Or whether it is a “time zone” or “user” (step E6). Now, if the “appropriate condition” with the “setting flag” being “1” is “hand-held state” (YES in step E5), the process proceeds to a display control determination process for determining display control according to the “hand-held state” ( Step A7) If “time zone” (YES in step E6), the process proceeds to display control determination processing for determining display control according to “time zone” (step E8), and if “user” (step E7) NO at E6), the process proceeds to a display control determination process for determining display control according to "user" (step E9). Note that each of the display control determination processes described above is the same as the display control determination process illustrated in FIGS. 5 to 7 described in the first embodiment, and thus the description thereof is omitted.

このような表示制御決定処理(ステップE7〜E9)が終了すると、一時記憶されている「3D深度」、つまり、この表示制御決定処理によって決定された「3D深度」を読み出し(ステップE10)、その“レベル0”であるかを調べる(ステップE11)。いま、この決定3D深度が“レベル0”であれば(ステップE11でYES)、コンテンツ記憶部M4を検索し、その結果、2Dの「実データ」が記憶されていれば(ステップE12でYES)、その「実データ」を読み出すが(ステップE13)、2Dの「実データ」が記憶されていなければ(ステップE12でNO)、2D/3D変換処理部20によって3Dの「実データ」を2Dのデータに変換させる(ステップE14)。   When such display control determination processing (steps E7 to E9) ends, the temporarily stored “3D depth”, that is, “3D depth” determined by the display control determination processing is read (step E10). It is checked whether it is “level 0” (step E11). If the determined 3D depth is “level 0” (YES in step E11), the content storage unit M4 is searched. As a result, if 2D “actual data” is stored (YES in step E12). The “actual data” is read (step E13). If the 2D “actual data” is not stored (NO in step E12), the 2D / 3D conversion processing unit 20 converts the 3D “actual data” into the 2D. Data is converted (step E14).

なお、3Dの「実データ」を2Dのデータに変換する代わりに、3D深度の異なる複数の「実データ」の中から最も弱い(2Dに近い)深度の「実データ」を選択して2Dのデータに変換するようにしてもよい。そして、2D表示させる処理に移るが、その際、表示部19の表面に視差バリアが生成されていれば、この視差バリアを消去したのち(ステップE15)、当該コンテンツを表示部19に2D表示させる(ステップE16)。以下、コンテンツ表示の終了が指示されるまで(ステップE17でYES)、選択コンテンツを2D表示させる(ステップE16、E17)。   Instead of converting 3D “actual data” into 2D data, the “actual data” having the weakest (close to 2D) depth is selected from a plurality of “actual data” having different 3D depths. You may make it convert into data. Then, the process proceeds to 2D display. At this time, if a parallax barrier is generated on the surface of the display unit 19, the parallax barrier is deleted (step E15), and then the content is displayed on the display unit 19 in 2D. (Step E16). Thereafter, until the end of content display is instructed (YES in step E17), the selected content is displayed in 2D (steps E16 and E17).

また、決定3D深度が“レベル0”でなければ(ステップE11でNO)、コンテンツ記憶部M4を検索し、この決定3D深度に対応する3Dの「実データ」の有無を調べる(ステップE18)。なお、「実データ」には、「3D深度」が“レベル0”の実データのみを持つコンテンツもあれば、各3D深度の実データを持つコンテンツもあるので、その中から該当する3D深度の実データの有無を調べる。いま、決定3D深度に該当する3Dの「実データ」が記憶されていれば(ステップE18でYES)、その「実データ」を読み出して(ステップE19)、3D表示させる処理に移るが、その際、視差バリアを表示部19の表層に生成させた後(ステップE21)、表示部19に3D表示させる(ステップE22)。以下、コンテンツ表示の終了を指示する操作が行われるまで(ステップE23でYES)、選択コンテンツを3D表示させる(ステップE22、E23)。   If the determined 3D depth is not “level 0” (NO in step E11), the content storage unit M4 is searched to check whether there is 3D “actual data” corresponding to the determined 3D depth (step E18). Note that “actual data” includes content having only real data with “3D depth” of “level 0” and content having actual data of each 3D depth. Check for actual data. If 3D “actual data” corresponding to the determined 3D depth is stored (YES in step E18), the “actual data” is read (step E19), and the process proceeds to 3D display. After the parallax barrier is generated on the surface layer of the display unit 19 (step E21), 3D display is performed on the display unit 19 (step E22). Thereafter, the selected content is displayed in 3D (steps E22 and E23) until an operation for instructing the end of the content display is performed (YES in step E23).

また、決定3D深度に対応する3Dの「実データ」が記憶されていなければ(ステップE18でNO)、つまり、別の3D深度(例えば、深度レベル“1”)の「実データ」しか記憶されていなければ、2D/3D変換処理部20によって、この別の3D深度の「実データ」を、決定3D深度のコンテンツに変換させる(ステップE20)。そして、上述の場合と同様に、視差バリアを表示部19の表層に生成させた後(ステップE21)、表示部19に3D表示させる(ステップE22)。以下、コンテンツ表示の終了を指示する操作が行われるまで(ステップE23でYES)、選択コンテンツを3D表示させる(ステップE22、E23)。   If 3D “actual data” corresponding to the determined 3D depth is not stored (NO in step E18), that is, only “actual data” of another 3D depth (for example, depth level “1”) is stored. If not, the 2D / 3D conversion processing unit 20 converts the “real data” of another 3D depth into content of the determined 3D depth (step E20). In the same manner as described above, a parallax barrier is generated on the surface layer of the display unit 19 (step E21), and then 3D is displayed on the display unit 19 (step E22). Thereafter, the selected content is displayed in 3D (steps E22 and E23) until an operation for instructing the end of the content display is performed (YES in step E23).

以上のように、この第2実施形態においては、3D深度が異なる複数の実データを持つコンテンツを記憶するコンテンツ記憶部M4の中から、3D表示での適性に応じて決定された3D深度に対応する実データ(2D/3D)を読み出して適切な2D/3D表示させるようにしたので、予め記憶(蓄積)されているコンテンツの中に適切とされる実データがある場合は、表示対象として選択されたコンテンツに対し2D/3D変換を行うことなく、適切な2D/3D表示させることができる。   As described above, in the second embodiment, the 3D depth determined according to the suitability for 3D display is selected from the content storage unit M4 that stores content having a plurality of actual data with different 3D depths. Since the actual data (2D / 3D) to be read is read out and displayed as appropriate 2D / 3D, if there is appropriate actual data among the contents stored (stored) in advance, select it as the display target Appropriate 2D / 3D display can be performed without performing 2D / 3D conversion on the content that has been made.

また、3D表示に適していないコンテンツを弱い3D深度(例えば、レベル0)で表示させるようにしたから、適切な3D深度での表示を行うことができ、例えば、レベル0の3D深度での3D表示(すなわち、擬似的な2D表示)もさせることができる。   In addition, since content that is not suitable for 3D display is displayed at a weak 3D depth (for example, level 0), it is possible to perform display at an appropriate 3D depth, for example, 3D at a 3D depth of level 0. Display (that is, pseudo 2D display) can also be performed.

また、第2実施形態においても上述した第1実施形態と同様の効果を有し、使用者に煩わしさを感じさせることなく、2D表示の見易い表示から臨場感のある3D表示まで使用者の意向に沿った適切な表示を実現することができ、電力消費の点でも有利であるなどの効果を有し、実用性に富んだものとなる。   In addition, the second embodiment has the same effect as the first embodiment described above, and the user's intention is from easy-to-see 2D display to realistic 3D display without making the user feel bothersome. Appropriate display along the line can be realized, and there is an effect that it is advantageous in terms of power consumption, and it is rich in practicality.

なお、上述した各実施形態において3Dのコンテンツは、その3D深度に応じた右目用のコンテンツと左目用のコンテンツを同時に表示して、それらが正しく3Dに見えるように3D深度に応じた視差バリアを表示部19の表層に生成して3D表示を行う方法を例示したが、例えば、コンテンツが3Dに見えるような視覚効果を施して3D表示を行う方法など、任意の3D表示方法であってもよい。   In each of the above-described embodiments, the 3D content is displayed simultaneously with the right-eye content and the left-eye content corresponding to the 3D depth, and a parallax barrier corresponding to the 3D depth is displayed so that they can be viewed correctly in 3D. Although the method of generating the 3D display on the surface layer of the display unit 19 has been illustrated, any 3D display method may be used, such as a method of performing the 3D display by applying a visual effect that makes the content look 3D. .

その他、記憶部13はメモリカードや外付けハードディスクなど、任意の外部記憶装置であってもよい。また、表示部19は、外部モニタなど、任意の外部表示装置であってもよい。また、端末装置は携帯電話機1に限らず、パーソナルコンピュータ、PDA、デジタルカメラ、音楽プレイヤーなど、任意の端末装置であってもよい。更に、折り畳みタイプの端末装置に限らず、ストレートタイプ、スライドタイプ、スピントップタイプなど任意の筐体構造であってもよい。   In addition, the storage unit 13 may be any external storage device such as a memory card or an external hard disk. The display unit 19 may be an arbitrary external display device such as an external monitor. The terminal device is not limited to the mobile phone 1 and may be any terminal device such as a personal computer, a PDA, a digital camera, or a music player. Furthermore, it is not limited to a folding type terminal device, but may be an arbitrary housing structure such as a straight type, a slide type, or a spin top type.

また、上述した各実施形態において示した“装置”や“機”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “device” and “machine” shown in each of the above-described embodiments may be separated into a plurality of housings by function, and are not limited to a single housing. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

1 携帯電話機
2 無線通信網
3 インターネット
4 情報配信装置
11 中央制御部
13 記憶部
15 無線通信部
17 テレビ放送受信部
18 撮像処理部
19 表示部
20 3D変換処理部
21 操作部
23 タッチセンサ部
M1 プログラム記憶部
M3 表示制御情報記憶部
M4 コンテンツ記憶部
T1 種類テーブル
T2、T3、T4 適性条件別テーブル
T5 参照用テーブル
DESCRIPTION OF SYMBOLS 1 Mobile phone 2 Wireless communication network 3 Internet 4 Information delivery apparatus 11 Central control part 13 Storage part 15 Wireless communication part 17 Television broadcast receiving part 18 Imaging process part 19 Display part 20 3D conversion process part 21 Operation part 23 Touch sensor part M1 program Storage unit M3 Display control information storage unit M4 Content storage unit T1 Type table T2, T3, T4 Appropriate condition table T5 Reference table

Claims (8)

三次元表示が可能な表示部に表示情報を表示させる端末装置であって、
当該端末装置が手持ち状態であるか否かを検出する手持ち検出手段と、
この手持ち検出手段によって手持ち状態であるか否かの検出結果に基づいて前記表示情報の三次元表示での適正を判別する判別手段と、
この判別手段によって判別された三次元表示での適正に基づいて、前記表示情報を前記表示部に表示させる際の表示制御を決定する決定手段と、
この決定手段によって決定された表示制御にしたがって前記表示情報を前記表示部に表示させる表示制御手段と、
を具備したことを特徴とする端末装置。
A terminal device that displays display information on a display unit capable of three-dimensional display,
Hand-holding detecting means for detecting whether or not the terminal device is in a hand-held state;
Discriminating means for discriminating the appropriateness in the three-dimensional display of the display information based on the detection result of whether or not the handheld state by the handheld detection means,
Determining means for determining display control when displaying the display information on the display unit based on the appropriateness in the three-dimensional display determined by the determining means;
Display control means for displaying the display information on the display unit according to the display control determined by the determination means;
A terminal device comprising:
前記検出手段は、当該端末装置に人体が接触した場合の接触の仕方に基づいて当該端末装置が手持ち状態であるか否かを検出する、
ようにしたことを特徴とする請求項1記載の端末装置。
The detection means detects whether or not the terminal device is in a handheld state based on a contact method when a human body contacts the terminal device.
The terminal device according to claim 1, which is configured as described above.
前記決定手段は、前記判別手段によって判別された三次元表示での適正に基づいて、前記表示情報を前記表示部に二次元表示させるか三次元表示させるかの表示制御を決定する、
ようにしたことを特徴とする請求項1または2に記載の端末装置。
The determining means determines display control whether to display the display information two-dimensionally or three-dimensionally on the display unit based on the appropriateness in the three-dimensional display determined by the determining means.
The terminal device according to claim 1 , wherein the terminal device is configured as described above.
前記決定手段は、前記判別手段によって判別された三次元表示での適正に基づいて、前記表示情報を前記表示部に表示させる際の表示制御として、三次元表示の深度を決定し、
前記表示制御手段は、前記決定手段によって決定された三次元表示の深度で前記表示情報を前記表示部に表示させる、
ようにしたことを特徴とする請求項1または2に記載の端末装置。
The determining means determines the depth of the three-dimensional display as display control when displaying the display information on the display unit based on the appropriateness in the three-dimensional display determined by the determining means,
The display control means causes the display unit to display the display information at the depth of the three-dimensional display determined by the determination means.
The terminal device according to claim 1 , wherein the terminal device is configured as described above.
前記表示情報として、三次元表示の深度が異なる複数の実データを持つコンテンツを複数種記憶するコンテンツ記憶手段を更に備え、
前記表示制御手段は、前記コンテンツ記憶手段に記憶されている複数種のコンテンツの中から表示対象として選択されたコンテンツを表示させる際に、この表示対象コンテンツとして前記決定手段によって決定された三次元表示の深度に対応する実データを読み出して前記表示情報を前記表示部に三次元表示させる、
ようにしたことを特徴とする請求項記載の端末装置。
The display information further includes content storage means for storing a plurality of types of content having a plurality of actual data with different depths of three-dimensional display,
When the display control means displays a content selected as a display target from among a plurality of types of content stored in the content storage means, the three-dimensional display determined by the determination means as the display target content Reading out the actual data corresponding to the depth of the display and displaying the display information three-dimensionally on the display unit,
The terminal device according to claim 4, which is configured as described above.
前記決定手段は、前記判別手段によって判別された三次元表示での適正として、三次元表示に適していないと判別された場合に、三次元表示の深度として弱い深度を決定する、
ようにしたことを特徴とする請求項記載の端末装置。
The determining means determines a weak depth as the depth of the three-dimensional display when it is determined that the three-dimensional display is not suitable as the appropriateness in the three-dimensional display determined by the determining means.
The terminal device according to claim 5, which is configured as described above.
前記表示情報としてコンテンツを受信する受信手段を更に備え、
前記表示制御手段は、前記受信手段によって受信したコンテンツを前記決定手段によって決定された表示制御にしたがって前記表示部にリアルタイムに表示させる、
ようにしたことを特徴とする請求項1または2に記載の端末装置。
A receiving means for receiving content as the display information;
The display control means causes the display unit to display the content received by the receiving means in real time according to the display control determined by the determining means.
The terminal device according to claim 1 , wherein the terminal device is configured as described above.
コンピュータに対して、
三次元表示が可能な表示部に表示情報を表示させる端末装置が手持ち状態であるか否かを検出する機能と、
前記手持ち状態であるか否かの検出結果に基づいて前記表示情報の三次元表示での適正を判別する機能と、
前記判別された三次元表示での適正に基づいて、前記表示情報を前記表示部に表示させる際の表示制御を決定する機能と、
前記決定された表示制御にしたがって前記表示情報を前記表示部に表示させる機能と、
を実現させるためのプログラム。
Against the computer,
A function of detecting whether or not the terminal device that displays the display information on the display unit capable of three-dimensional display is in a handheld state;
A function of determining the appropriateness in the three-dimensional display of the display information based on the detection result of whether or not the handheld state;
A function for determining display control when displaying the display information on the display unit based on the appropriateness in the determined three-dimensional display;
A function of causing the display unit to display the display information according to the determined display control;
A program to realize
JP2009156861A 2009-07-01 2009-07-01 Terminal device and program Expired - Fee Related JP5339445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009156861A JP5339445B2 (en) 2009-07-01 2009-07-01 Terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009156861A JP5339445B2 (en) 2009-07-01 2009-07-01 Terminal device and program

Publications (2)

Publication Number Publication Date
JP2011015133A JP2011015133A (en) 2011-01-20
JP5339445B2 true JP5339445B2 (en) 2013-11-13

Family

ID=43593594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009156861A Expired - Fee Related JP5339445B2 (en) 2009-07-01 2009-07-01 Terminal device and program

Country Status (1)

Country Link
JP (1) JP5339445B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5941620B2 (en) * 2011-02-24 2016-06-29 任天堂株式会社 Information processing program, information processing apparatus, information processing method, and information processing system
CN103430556A (en) * 2011-03-18 2013-12-04 松下电器产业株式会社 Display apparatus, 3D glasses, and 3D-video viewing system
JP2013143749A (en) * 2012-01-12 2013-07-22 Toshiba Corp Electronic apparatus and control method of electronic apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060103664A1 (en) * 2002-08-27 2006-05-18 Sharp Kabushiki Kaisha Contents reproduction device capable of reproducing a contents in optimal reproduction mode
JP2006262191A (en) * 2005-03-17 2006-09-28 Victor Co Of Japan Ltd Multiple viewpoint solid image display method, multiple viewpoint solid image display unit and multiple viewpoint solid image display program
JP5074827B2 (en) * 2007-06-01 2012-11-14 キヤノン株式会社 Image presentation apparatus and method

Also Published As

Publication number Publication date
JP2011015133A (en) 2011-01-20

Similar Documents

Publication Publication Date Title
JP4576570B1 (en) Terminal device and program
JP4587237B1 (en) Terminal device and program
US8510156B2 (en) Viewing terminal apparatus, viewing statistics-gathering apparatus, viewing statistics-processing system, and viewing statistics-processing method
CN105120301B (en) Method for processing video frequency and device, smart machine
JP4609805B2 (en) Terminal device and program
CN111327916B (en) Live broadcast management method, device and equipment based on geographic object and storage medium
TW201216689A (en) Rendering apparatus, rendering method and display system
CN106412710A (en) Method and device for exchanging information through graphical label in live video streaming
CN113490010B (en) Interaction method, device and equipment based on live video and storage medium
KR20140038799A (en) Image display apparatus, server and method for operating the same
CN112714327A (en) Interaction method, device and equipment based on live application program and storage medium
JP2011197537A (en) Terminal device and program
JP5339445B2 (en) Terminal device and program
CN111382355A (en) Live broadcast management method, device and equipment based on geographic object and storage medium
CN110147466A (en) A kind of interaction content displaying method and device
CN114302160A (en) Information display method, information display device, computer equipment and medium
JP2006086717A (en) Image display system, image reproducer, and layout controller
TW201222276A (en) Server device for collecting survey responses
JP5381917B2 (en) Terminal device
CN107908325A (en) Method for showing interface and device
KR20140094132A (en) Image display apparatus and Method for the same
CN106534750A (en) Display control method and device
KR20160114849A (en) Image display apparatus, mobile apparatus and operating method for the same
CN102169406B (en) Electronic device and method for providing graphical user interface (GUI)
JP2011166572A (en) Apparatus for estimation of program preference, image viewing system, program viewing confirmation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130801

R150 Certificate of patent or registration of utility model

Ref document number: 5339445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees