JP6126195B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP6126195B2
JP6126195B2 JP2015252372A JP2015252372A JP6126195B2 JP 6126195 B2 JP6126195 B2 JP 6126195B2 JP 2015252372 A JP2015252372 A JP 2015252372A JP 2015252372 A JP2015252372 A JP 2015252372A JP 6126195 B2 JP6126195 B2 JP 6126195B2
Authority
JP
Japan
Prior art keywords
dimensional object
control unit
display
detected
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015252372A
Other languages
Japanese (ja)
Other versions
JP2016042391A (en
Inventor
上野 泰弘
泰弘 上野
茂輝 田辺
茂輝 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2015252372A priority Critical patent/JP6126195B2/en
Publication of JP2016042391A publication Critical patent/JP2016042391A/en
Application granted granted Critical
Publication of JP6126195B2 publication Critical patent/JP6126195B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、表示機器に関する。   The present invention relates to a display device.

携帯電話端末等の表示部を備える表示機器には、画像等を立体表示することができるものがある(例えば、特許文献1参照)。立体表示は、両眼の視差を利用して実現される。   Some display devices including a display unit such as a mobile phone terminal can display an image or the like in a three-dimensional manner (see, for example, Patent Document 1). Stereoscopic display is realized using parallax of both eyes.

特開2011−95547号公報JP 2011-95547 A

立体表示は利用者にとって親しみやすい表示形式であるにも関わらず、従来の表示機器では、立体表示は視聴目的でしか利用されず、操作の利便性を向上させるためには利用されてこなかった。本発明は、利用者に対して利便性の高い操作方法を提供することができる表示機器を提供することを目的とする。   Although the stereoscopic display is a display format that is familiar to the user, the stereoscopic display is used only for viewing purposes in conventional display devices, and has not been used to improve the convenience of operation. An object of this invention is to provide the display apparatus which can provide the operation method with high convenience with respect to a user.

本発明に係る表示機器は、表示物を立体的に表示する表示部と、前記表示物が立体的に表示される立体視空間において物体を検出する検出部と、前記立体視空間において前記物体の移動が検出されたときに、前記物体の移動に応じて前記表示物を前記立体視空間において変化させる制御部とを備える。   A display device according to the present invention includes a display unit that stereoscopically displays a display object, a detection unit that detects an object in a stereoscopic space where the display object is stereoscopically displayed, and a display unit that detects the object in the stereoscopic space. A control unit that changes the display object in the stereoscopic space according to the movement of the object when the movement is detected.

また、本発明に係る表示機器は、他の態様において、表示物を立体的に表示する表示部と、前記表示物が立体的に表示される立体視空間において物体の移動が検出されたときに、前記物体の移動に応じて前記表示物を前記立体視空間において変化させる制御部とを備える。   In another aspect, the display device according to the present invention is a display unit that displays a display object in three dimensions, and when movement of an object is detected in a stereoscopic space in which the display object is displayed in three dimensions. And a control unit that changes the display object in the stereoscopic space in accordance with the movement of the object.

本発明は、利用者に対して利便性の高い操作方法を提供することができるという効果を奏する。   The present invention has an effect that it is possible to provide a user with a highly convenient operation method.

図1は、第1の実施例に係る携帯電話端末の外観を示す正面図である。FIG. 1 is a front view showing an appearance of a mobile phone terminal according to the first embodiment. 図2は、第1の実施例に係る携帯電話端末の機能的な構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the mobile phone terminal according to the first embodiment. 図3は、第1の実施例における3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。FIG. 3 is a diagram for explaining detection of an operation of pushing a three-dimensional object in the first embodiment and changes in the three-dimensional object according to the detected operation. 図4は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。FIG. 4 is a diagram for explaining detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. 図5は、オブジェクトデータに格納される情報の一例を示す図である。FIG. 5 is a diagram illustrating an example of information stored in object data. 図6は、作用データに格納される情報の一例を示す図である。FIG. 6 is a diagram illustrating an example of information stored in the action data. 図7は、作用データに格納される情報の一例を示す図である。FIG. 7 is a diagram illustrating an example of information stored in the action data. 図8は、作用データに格納される情報の一例を示す図である。FIG. 8 is a diagram illustrating an example of information stored in the action data. 図9は、作用データに格納される情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of information stored in the action data. 図10は、作用データに格納される情報の一例を示す図である。FIG. 10 is a diagram illustrating an example of information stored in the action data. 図11は、作用データに格納される情報の一例を示す図である。FIG. 11 is a diagram illustrating an example of information stored in the action data. 図12は、接触検出処理の処理手順を示すフローチャートである。FIG. 12 is a flowchart illustrating the processing procedure of the contact detection process. 図13は、操作検出処理の処理手順を示すフローチャートである。FIG. 13 is a flowchart showing the procedure of the operation detection process. 図14は、第2の実施例における3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。FIG. 14 is a diagram for explaining the detection of an operation of pushing a three-dimensional object in the second embodiment and the change of the three-dimensional object according to the detected operation. 図15は、操作検出処理の処理手順を示すフローチャートである。FIG. 15 is a flowchart illustrating the processing procedure of the operation detection process. 図16は、第3の実施例における3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。FIG. 16 is a diagram for explaining the detection of an operation of pushing a three-dimensional object in the third embodiment and the change of the three-dimensional object according to the detected operation. 図17は、第3の実施例における3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。FIG. 17 is a diagram for explaining the detection of an operation of pushing a three-dimensional object in the third embodiment and the change of the three-dimensional object according to the detected operation. 図18は、操作検出処理の処理手順を示すフローチャートである。FIG. 18 is a flowchart illustrating a procedure of the operation detection process. 図19は、第4の実施例に係る携帯電話端末の外観を示す正面図である。FIG. 19 is a front view showing an appearance of a mobile phone terminal according to the fourth embodiment. 図20は、第4の実施例に係る携帯電話端末の機能的な構成を示すブロック図である。FIG. 20 is a block diagram showing a functional configuration of the mobile phone terminal according to the fourth embodiment. 図21は、第4の実施例における3次元オブジェクトに対する操作の検出について説明するための図である。FIG. 21 is a diagram for explaining the detection of an operation on a three-dimensional object in the fourth embodiment. 図22は、第4の実施例に係る携帯電話端末の変形例を示す図である。FIG. 22 is a diagram illustrating a modification of the mobile phone terminal according to the fourth embodiment.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、表示機器の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone terminal will be described as an example of a display device. However, the application target of the present invention is not limited to a mobile phone terminal. For example, a PHS (Personal Handyphone System), a PDA, a portable navigation device, a notebook The present invention can also be applied to personal computers, game machines, and the like.

まず、図1および図2を参照しながら、第1の実施例に係る携帯電話端末(表示機器)1の構成について説明する。図1は、携帯電話端末1の外観を示す正面図である。図2は、携帯電話端末1の機能的な構成を示すブロック図である。   First, the configuration of the mobile phone terminal (display device) 1 according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a front view showing the appearance of the mobile phone terminal 1. FIG. 2 is a block diagram showing a functional configuration of the mobile phone terminal 1.

図1および図2に示すように、携帯電話端末1は、操作部13と、マイク15と、レシーバ16と、制御部22と、記憶部24と、通信部26と、音声処理部30と、タッチパネル32と、撮影部40と、撮影部42とを有する。操作部13、マイク15、レシーバ16、タッチパネル32および撮影部40は、携帯電話端末1の正面に一部が露出する。   As shown in FIGS. 1 and 2, the mobile phone terminal 1 includes an operation unit 13, a microphone 15, a receiver 16, a control unit 22, a storage unit 24, a communication unit 26, an audio processing unit 30, The touch panel 32, the photographing unit 40, and the photographing unit 42 are included. The operation unit 13, the microphone 15, the receiver 16, the touch panel 32, and the photographing unit 40 are partly exposed on the front surface of the mobile phone terminal 1.

操作部13は、物理的なボタンを有し、押下されたボタンに対応する信号を制御部22へ出力する。なお、図1に示す例では、操作部13はボタンを1つしか有していないが、操作部13は複数のボタンを有していてもよい。   The operation unit 13 includes physical buttons and outputs a signal corresponding to the pressed button to the control unit 22. In the example shown in FIG. 1, the operation unit 13 has only one button, but the operation unit 13 may have a plurality of buttons.

マイク15は、外部の音声を取得する。レシーバ16は、通話時に通話相手の音声を出力する。音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から入力されるデジタル信号を復号してレシーバ16へ出力する。   The microphone 15 acquires external sound. The receiver 16 outputs the other party's voice during a call. The sound processing unit 30 converts the sound input from the microphone 15 into a digital signal and outputs the digital signal to the control unit 22. In addition, the audio processing unit 30 decodes the digital signal input from the control unit 22 and outputs the decoded digital signal to the receiver 16.

通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介して、基地局との間にCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立する。通信部26は、基地局との間に確立された無線信号回線を通じて、他の装置との間で電話通信および情報通信を行う。   The communication unit 26 includes an antenna 26a, and establishes a radio signal line using a CDMA (Code Division Multiple Access) method or the like with a base station via a channel assigned by the base station. The communication unit 26 performs telephone communication and information communication with other devices through a radio signal line established with the base station.

タッチパネル32は、文字、図形、画像等の各種の情報を表示するとともに、表示されたアイコン、ボタン、文字入力領域等の所定領域に対する入力操作を検出する。タッチパネル32は、表示部32aと、タッチセンサ32bとを重畳して構成される。   The touch panel 32 displays various types of information such as characters, graphics, and images, and detects an input operation on a predetermined area such as a displayed icon, button, or character input area. The touch panel 32 is configured by superimposing a display unit 32a and a touch sensor 32b.

表示部32aは、液晶ディスプレイ(Liquid Crystal Display)や有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、制御部22から入力される制御信号に従って各種の情報を表示する。タッチセンサ32bは、タッチパネル32の表面に対して行われる入力操作を検出し、検出した入力操作に応じた信号を制御部22へ出力する。タッチセンサ32bが各種操作を検出する方式は、静電容量式、抵抗膜式、感圧式等の任意の方式でよい。   The display unit 32 a includes a display device such as a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel, and displays various information according to a control signal input from the control unit 22. The touch sensor 32 b detects an input operation performed on the surface of the touch panel 32 and outputs a signal corresponding to the detected input operation to the control unit 22. The touch sensor 32b may detect any operation using an arbitrary method such as a capacitance type, a resistance film type, or a pressure sensitive type.

また、タッチパネル32は、3次元オブジェクトを表示できる。3次元オブジェクトは、視差を利用して立体的に見えるように作成された画像や形状等の表示物である。なお、3次元オブジェクトを表示する方式は、眼鏡等の器具を用いて立体視を実現する方式であってもよいし、裸眼で立体視を実現する方式であってもよい。   The touch panel 32 can display a three-dimensional object. The three-dimensional object is a display object such as an image or a shape created so as to be viewed stereoscopically using parallax. The method for displaying the three-dimensional object may be a method for realizing stereoscopic vision using an instrument such as glasses, or a method for realizing stereoscopic vision with the naked eye.

撮影部40および42は、CCD(Charge Coupled Device Image Sensor)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮影する。そして、撮影部40および42は、撮影した画像を信号に変換して制御部22へ出力する。撮影部40および42は、3次元オブジェクトが立体的に表示される空間(以下、「立体視空間」または「視認空間」ということがある)において3次元オブジェクトを選択して操作する物体を検出する検出部としても機能する。   The imaging units 40 and 42 electronically capture an image using an image sensor such as a charge coupled device image sensor (CCD) or a complementary metal oxide semiconductor (CMOS). The photographing units 40 and 42 convert the photographed images into signals and output the signals to the control unit 22. The imaging units 40 and 42 detect an object to be operated by selecting the three-dimensional object in a space in which the three-dimensional object is displayed in three dimensions (hereinafter, sometimes referred to as “stereoscopic space” or “viewing space”). It also functions as a detection unit.

なお、撮影部40および42は、立体視空間内のどこに指等の物体が位置していてもその物体を撮影することができるように画角や配置が設定されていることが好ましい。また、撮影部40および42は、可視光の画像を取得する装置であってもよいし、赤外線等の不可視光の画像を取得する装置であってもよい。   Note that it is preferable that the photographing units 40 and 42 have an angle of view and an arrangement so that an object such as a finger can be photographed wherever the object is located in the stereoscopic space. Further, the imaging units 40 and 42 may be a device that acquires an image of visible light, or may be a device that acquires an image of invisible light such as infrared rays.

制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、通信部26や表示部32a等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータやタッチセンサ32b等から入力される信号がパラメータや判定条件の一部として利用される。   The control unit 22 includes a CPU (Central Processing Unit) that is a calculation unit and a memory that is a storage unit, and implements various functions by executing programs using these hardware resources. Specifically, the control unit 22 reads a program or data stored in the storage unit 24 and expands it in a memory, and causes the CPU to execute instructions included in the program expanded in the memory. The control unit 22 reads / writes data from / to the memory and the storage unit 24 and controls operations of the communication unit 26, the display unit 32a, and the like according to the execution result of the instruction by the CPU. When the CPU executes an instruction, data developed in the memory, a signal input from the touch sensor 32b, or the like is used as a part of parameters or determination conditions.

記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24aが含まれる。また、記憶部24に記憶されるデータには、オブジェクトデータ24bと、作用データ24cとが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24a、オブジェクトデータ24b、作用データ24cは、記憶媒体に記憶されていてもよい。また、制御プログラム24a、オブジェクトデータ24b、作用データ24cは、通信部26による無線通信によってサーバ装置等の他の装置から取得することとしてもよい。   The storage unit 24 includes a nonvolatile storage device such as a flash memory, and stores various programs and data. The program stored in the storage unit 24 includes a control program 24a. The data stored in the storage unit 24 includes object data 24b and action data 24c. In addition, the memory | storage part 24 may be comprised by the combination of portable storage media, such as a memory card, and the reading / writing apparatus which reads / writes with respect to a storage medium. In this case, the control program 24a, the object data 24b, and the action data 24c may be stored in a storage medium. Further, the control program 24a, the object data 24b, and the action data 24c may be acquired from other devices such as a server device by wireless communication by the communication unit 26.

制御プログラム24aは、携帯電話端末1を稼働させるための各種制御に関する機能を提供する。制御プログラム24aが提供する機能には、タッチパネル32での3次元オブジェクトの表示を制御する機能や、タッチパネル32によって表示される3次元オブジェクトに対する利用者の操作を検出する機能が含まれる。   The control program 24 a provides functions related to various controls for operating the mobile phone terminal 1. The functions provided by the control program 24 a include a function for controlling the display of the three-dimensional object on the touch panel 32 and a function for detecting a user operation on the three-dimensional object displayed on the touch panel 32.

オブジェクトデータ24bは、3次元オブジェクトの形状や性質に関する情報を含む。オブジェクトデータ24bは、3次元オブジェクトを表示するために用いられる。作用データ24cは、表示されている3次元オブジェクトに対する操作が3次元オブジェクトにどのように作用するかに関する情報を含む。作用データ24cは、表示されている3次元オブジェクトに対する操作が検出された場合に3次元オブジェクトを変化させるために用いられる。ここでいう変化には、移動、回転、変形、消失等が含まれる。   The object data 24b includes information regarding the shape and properties of the three-dimensional object. The object data 24b is used for displaying a three-dimensional object. The action data 24c includes information regarding how an operation on the displayed three-dimensional object acts on the three-dimensional object. The action data 24c is used to change the three-dimensional object when an operation on the displayed three-dimensional object is detected. The change here includes movement, rotation, deformation, disappearance, and the like.

次に、図3および図4を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。図3および図4は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図3に示すステップS11では、タッチパネル32によって、立体視空間50中に、3次元オブジェクトOB1が立体的に表示されている。3次元オブジェクトOB1は、例えば、ボールを模したオブジェクトである。また、ステップS11では、タッチパネル32によって、3次元オブジェクトOB1を支持する底面B1が表示されている。   Next, detection of an operation of pushing a three-dimensional object and change of the three-dimensional object according to the detected operation will be described with reference to FIGS. 3 and 4 are diagrams for explaining detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. In step S <b> 11 shown in FIG. 3, the three-dimensional object OB <b> 1 is stereoscopically displayed in the stereoscopic space 50 by the touch panel 32. The three-dimensional object OB1 is an object that imitates a ball, for example. In step S11, the touch panel 32 displays the bottom surface B1 that supports the three-dimensional object OB1.

ステップS12では、利用者が指F1を3次元オブジェクトOB1と接触する位置に置き、そのまま静止させている。携帯電話端末1は、立体視空間内で現実の物体が検出され、かつ、その物体が3次元オブジェクトOB1と接触する状態が所定時間以上継続した場合、3次元オブジェクトOB1が操作対象として選択されたと判定する。そして、携帯電話端末1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として選択されたことを利用者に通知する。   In step S12, the user places the finger F1 in a position in contact with the three-dimensional object OB1 and keeps it still. When the mobile phone terminal 1 detects a real object in the stereoscopic space and the state in which the object is in contact with the three-dimensional object OB1 continues for a predetermined time or more, the three-dimensional object OB1 is selected as the operation target. judge. Then, the cellular phone terminal 1 notifies the user that the three-dimensional object OB1 has been selected as an operation target, for example, by changing the display mode of the three-dimensional object OB1.

物体が3次元オブジェクトOB1と接触しているかの判定は、立体視空間における物体の現実の位置と、立体視空間における3次元オブジェクトOB1の形状および計算上の位置とに基づいて行われる。3次元オブジェクトOB1の形状は、オブジェクトデータ24bにおいて定義される。   Whether the object is in contact with the three-dimensional object OB1 is determined based on the actual position of the object in the stereoscopic space and the shape and the calculated position of the three-dimensional object OB1 in the stereoscopic space. The shape of the three-dimensional object OB1 is defined in the object data 24b.

物体の位置は、撮影部40および42が撮影する画像に基づいて算出される。物体の位置の算出は、予め登録されている物体の大きさと画像中の物体の大きさおよび位置とに基づいて行ってもよい。また、物体の位置の算出は、撮影部40が撮影した画像における物体の大きさおよび位置と撮影部42が撮影した画像における物体の大きさおよび位置とを照合して行ってもよい。なお、指等の物体の検出は、周知の技術を用いて実現してよい。また、指が物体の場合、指のつま先の位置を物体の位置として処理することが好ましい。   The position of the object is calculated based on images taken by the photographing units 40 and 42. The calculation of the position of the object may be performed based on the size of the object registered in advance and the size and position of the object in the image. The calculation of the position of the object may be performed by comparing the size and position of the object in the image captured by the imaging unit 40 with the size and position of the object in the image captured by the imaging unit 42. Note that detection of an object such as a finger may be realized using a known technique. When the finger is an object, it is preferable to process the position of the finger toe as the position of the object.

立体視空間における3次元オブジェクトOB1の計算上の位置は、タッチパネル32の表示面上での3次元オブジェクトOB1の位置と、立体視空間内での3次元オブジェクトOB1の浮き上がり量とに基づいて算出される。立体視空間内での3次元オブジェクトOB1の浮き上がり量は、表示時に決定された値であってもよいし、3次元オブジェクトOB1を立体的に表示するために用いられる右目用の画像と左目用の画像における3次元オブジェクトOB1の位置の差から算出された値であってもよい。   The calculated position of the three-dimensional object OB1 in the stereoscopic space is calculated based on the position of the three-dimensional object OB1 on the display surface of the touch panel 32 and the lift amount of the three-dimensional object OB1 in the stereoscopic space. The The floating amount of the three-dimensional object OB1 in the stereoscopic space may be a value determined at the time of display, or a right-eye image and a left-eye image used for stereoscopically displaying the three-dimensional object OB1. It may be a value calculated from the difference in position of the three-dimensional object OB1 in the image.

また、操作対象として選択されたことの通知は、例えば、3次元オブジェクトOB1の全体の色を変更することや、3次元オブジェクトOB1の表面のうち、物体と接触している位置の近傍の色を変更することによって実現される。このような視覚的な通知に代えて、あるいは、このような視覚的な通知に加えて、音や振動による通知を行ってもよい。   The notification of selection as the operation target may be, for example, changing the overall color of the three-dimensional object OB1, or changing the color near the position in contact with the object on the surface of the three-dimensional object OB1. Realized by changing. Instead of such visual notification, or in addition to such visual notification, notification by sound or vibration may be performed.

このように、携帯電話端末1は、指等の現実が3次元オブジェクトOB1と接触する状態が所定時間以上継続して検出された場合に、3次元オブジェクトOB1が操作対象として選択されたと判定する。接触状態が所定時間以上継続して検出されることを条件として付加することにより、他の3次元オブジェクトを操作するために指を移動させる過程で、意図しない3次元オブジェクトが操作対象として選択されることを抑止できる。   In this way, the mobile phone terminal 1 determines that the three-dimensional object OB1 has been selected as the operation target when a state in which a finger or the like is in contact with the three-dimensional object OB1 is detected for a predetermined time or longer. By adding the condition that the contact state is continuously detected for a predetermined time or longer, an unintended three-dimensional object is selected as an operation target in the process of moving a finger to operate another three-dimensional object. Can be suppressed.

3次元オブジェクトOB1が操作対象として選択された後、ステップS13に示すように、利用者が、3次元オブジェクトOB1を押すように、指F1を3次元オブジェクトOB1の内側に侵入させたものとする。携帯電話端末1は、操作対象として選択された3次元オブジェクト内に物体を侵入させる操作が検出された場合、操作に応じて3次元オブジェクトを変化させる。3次元オブジェクトをどのように変化させるかは、オブジェクトデータ24bにおいて定義されている3次元オブジェクトの種別と、作用データ24cにおいてその種別と対応付けて定義されている変化のルールとによって決定される。   After the three-dimensional object OB1 is selected as the operation target, it is assumed that the user has intruded the finger F1 inside the three-dimensional object OB1 so as to press the three-dimensional object OB1, as shown in step S13. The mobile phone terminal 1 changes the three-dimensional object according to the operation when the operation for intruding the object into the three-dimensional object selected as the operation target is detected. How to change the three-dimensional object is determined by the type of the three-dimensional object defined in the object data 24b and the change rule defined in association with the type in the action data 24c.

例えば、オブジェクトデータ24bにおいて3次元オブジェクトOB1が弾性体であると定義され、作用データ24cにおいて弾性体は押された場合に押された量に応じて押された方向に変形することが定義されていたものとする。この場合、携帯電話端末1は、ステップS14に示すように、指F1が侵入した部分が押されて凹んだように3次元オブジェクトOB1を変化させる。   For example, in the object data 24b, the three-dimensional object OB1 is defined as an elastic body, and in the action data 24c, it is defined that the elastic body is deformed in the pressed direction according to the amount of pressing when pressed. Shall be. In this case, as shown in step S14, the cellular phone terminal 1 changes the three-dimensional object OB1 so that the part into which the finger F1 has entered is depressed and depressed.

また、オブジェクトデータ24bにおいて3次元オブジェクトOB1が剛体であると定義され、作用データ24cにおいて剛体は押された場合に押された量に応じて押された方向に移動することが定義されていたものとする。この場合、携帯電話端末1は、図4のステップS15に示すように、指F1に押されたように3次元オブジェクトOB1を指F1の進行方向へ移動させる。なお、図4のステップS15では、3次元オブジェクトOB1は、底面B1に支持されているため、剛体によって印加される力の底面B1と水平方向の成分に従って移動している。   Further, the object data 24b defines the three-dimensional object OB1 as a rigid body, and the action data 24c defines that the rigid body moves in the pressed direction according to the amount of pressing when pressed. And In this case, the cellular phone terminal 1 moves the three-dimensional object OB1 in the traveling direction of the finger F1 as if pressed by the finger F1, as shown in step S15 of FIG. In step S15 in FIG. 4, since the three-dimensional object OB1 is supported by the bottom surface B1, the three-dimensional object OB1 moves according to the horizontal component of the bottom surface B1 of the force applied by the rigid body.

このように、3次元オブジェクトを押す操作が検出された場合に、オブジェクトデータ24bおよび作用データ24cに基づいて3次元オブジェクトOB1を変化させることにより、3次元オブジェクトを操作に応じて様々に変化させることができる。押すという操作は、現実の世界の様々な場面で利用されている操作であり、3次元オブジェクトOB1を押す操作を検出して対応する処理を実行することにより、直感的で利便性の高い操作性を実現することができる。   As described above, when an operation of pushing the three-dimensional object is detected, the three-dimensional object is changed variously according to the operation by changing the three-dimensional object OB1 based on the object data 24b and the action data 24c. Can do. The operation of pressing is an operation that is used in various scenes in the real world. By detecting the operation of pressing the three-dimensional object OB1 and executing the corresponding process, the operation is intuitive and highly convenient. Can be realized.

なお、3次元オブジェクトを操作するために用いられる物体は、指に限定されず、手、足、棒、器具等であってもよい。また、押す操作に応じて3次元オブジェクトを変化させる態様は、現実の物理法則に則していてもよいし、現実ではあり得ないものであってもよい。   Note that the object used for operating the three-dimensional object is not limited to the finger, and may be a hand, a foot, a stick, an instrument, or the like. In addition, the manner in which the three-dimensional object is changed according to the pressing operation may be in accordance with actual physical laws or may not be actual.

また、携帯電話端末1は、3次元オブジェクトが押される方向がタッチパネル32の表示面と平行でない場合、すなわち、検出された物体の移動方向がタッチパネル32の表示面または表示面と水平な平面と交わる場合にも操作に応じて3次元オブジェクトを変化させる。このように、3次元オブジェクトを押す操作を立体的に判定することにより、3次元オブジェクトに対して多様な操作を行うことが可能になる。なお、3次元オブジェクトを押す操作を立体的に判定するためには、障害物が死角を作らないように、複数の撮影部を用意して異なる方向から指F1等を撮影することが望ましい。   Further, in the mobile phone terminal 1, when the direction in which the three-dimensional object is pressed is not parallel to the display surface of the touch panel 32, that is, the detected moving direction of the object intersects the display surface of the touch panel 32 or a horizontal plane with the display surface. Even in this case, the three-dimensional object is changed according to the operation. As described above, various operations can be performed on the three-dimensional object by three-dimensionally determining the operation of pushing the three-dimensional object. In order to three-dimensionally determine an operation of pressing a three-dimensional object, it is desirable to prepare a plurality of photographing units and photograph the finger F1 and the like from different directions so that the obstacle does not create a blind spot.

次に、図5から図11を参照しながら、図2に示したオブジェクトデータ24bおよび作用データ24cについてさらに詳しく説明する。図5は、オブジェクトデータ24bに格納される情報の一例を示す図である。図6から図11は、作用データ24cに格納される情報の一例を示す図である。   Next, the object data 24b and the action data 24c shown in FIG. 2 will be described in more detail with reference to FIGS. FIG. 5 is a diagram illustrating an example of information stored in the object data 24b. 6 to 11 are diagrams illustrating examples of information stored in the action data 24c.

図5に示すように、オブジェクトデータ24bには、種別、形状情報、色、透明度等を含む情報が3次元オブジェクト毎に格納される。種別は、3次元オブジェクトの物理的な性質を示す。種別は、例えば、「剛体」、「弾性体」等の値をとる。形状情報は、3次元オブジェクトの形状を示す情報である。形状情報は、例えば、3次元オブジェクトを構成する面の頂点座標の集合である。色は、3次元オブジェクトの表面の色である。透明度は、3次元オブジェクトが光を透過させる度合いである。なお、オブジェクトデータ24bは、複数の3次元オブジェクトに関する情報を保持することができる。   As shown in FIG. 5, the object data 24b stores information including type, shape information, color, transparency, etc. for each three-dimensional object. The type indicates the physical property of the three-dimensional object. The type takes values such as “rigid body” and “elastic body”, for example. The shape information is information indicating the shape of the three-dimensional object. The shape information is, for example, a set of vertex coordinates of the surfaces constituting the three-dimensional object. The color is the color of the surface of the three-dimensional object. Transparency is the degree to which a three-dimensional object transmits light. The object data 24b can hold information regarding a plurality of three-dimensional objects.

作用データ24cには、押す操作が検出された場合の変化に関する情報が3次元オブジェクトの種別毎に格納される。図6に示すように、3次元オブジェクトの種別が「剛体」の場合、支点の有無、押された方向における障害物の有無、押される速度に応じて、押す操作が検出された場合の変化が異なる。なお、ここでいう障害物とは、他の3次元オブジェクトである。また、押される速度が速いか遅いかは閾値に基づいて判定される。   In the action data 24c, information regarding a change when a pressing operation is detected is stored for each type of three-dimensional object. As shown in FIG. 6, when the type of the three-dimensional object is “rigid”, the change when the pressing operation is detected according to the presence / absence of the fulcrum, the presence / absence of the obstacle in the pressed direction, and the pressing speed changes. Different. Here, the obstacle is another three-dimensional object. Further, whether the pressing speed is fast or slow is determined based on a threshold value.

3次元オブジェクトに支点がなく、押された方向に障害物がない場合、3次元オブジェクトは、押された方向に押された量に応じて移動するように表示される。このように表示される3次元オブジェクトは、例えば、積み木、ペン、本である。なお、移動の仕方については、滑るのか回転するのかを3次元オブジェクトの形状に基づいて決定してよい。また、押す物体と一緒に移動するのか、押す物体にはじかれるように物体と離れて移動するのかについては、押される速度に基づいて決定してよいし、3次元オブジェクトと底面の摩擦抵抗の算出値または設定値に基づいて決定してもよい。   If the three-dimensional object has no fulcrum and there is no obstacle in the pushed direction, the three-dimensional object is displayed so as to move according to the amount pushed in the pushed direction. The three-dimensional object displayed in this way is, for example, a building block, a pen, or a book. As for the movement method, whether to slide or rotate may be determined based on the shape of the three-dimensional object. Further, whether to move with the pushed object or move away from the object so as to be repelled by the pushed object may be determined based on the pushing speed, and calculation of frictional resistance between the three-dimensional object and the bottom surface. You may determine based on a value or a setting value.

3次元オブジェクトに支点がなく、押された方向に固定された障害物がある場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、障害物と接触した時点で移動が停止するように表示される。このように表示される3次元オブジェクトは、例えば、積み木、ペン、本である。なお、押された速度が速い場合は、3次元オブジェクトが障害物を破壊して移動を継続することとしてもよい。また、3次元オブジェクトが押す物体にはじかれるように物体と離れて移動している間に障害物と接触した場合は、跳ね返ったように3次元オブジェクトを逆方向に移動させてもよい。   If the 3D object has no fulcrum and there is an obstacle fixed in the pushed direction, the 3D object moves according to the amount pushed in the pushed direction and moves when it touches the obstacle. Appears to stop. The three-dimensional object displayed in this way is, for example, a building block, a pen, or a book. If the pushed speed is high, the three-dimensional object may destroy the obstacle and continue to move. Also, when the 3D object comes in contact with an obstacle while being moved away from the object so as to be repelled by the pressed object, the 3D object may be moved in the opposite direction so as to bounce off.

3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があり、押される速度が遅い場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、他の剛体と接触した後は、他の剛体もともに移動するように表示される。また、3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があり、押される速度が速い場合、3次元オブジェクトは、押された方向に押された量に応じて移動するように表示される。そして、3次元オブジェクトが他の剛体と接触した後は、他の剛体がはじかれて移動するように表示される。他の剛体と接触した後、3次元オブジェクトは、その場で停止してもよいし、速度を落として移動を継続してもよい。このように表示される3次元オブジェクトと他の剛体の組み合わせは、例えば、ボーリングの球とピンの組み合わせや、ビー玉同士の組み合わせである。   If the 3D object has no fulcrum and there are other rigid bodies that are not fixed in the pushed direction, and the pushed speed is slow, the 3D object moves according to the amount pushed in the pushed direction, After contacting another rigid body, the other rigid bodies are displayed to move together. If the 3D object has no fulcrum and there is another rigid body that is not fixed in the pressed direction, and the pressed speed is fast, the 3D object moves according to the amount pressed in the pressed direction. Is displayed. After the three-dimensional object comes into contact with another rigid body, the other rigid body is displayed so as to be repelled and moved. After coming into contact with another rigid body, the three-dimensional object may stop on the spot or continue to move at a reduced speed. The combination of the three-dimensional object and the other rigid body displayed in this way is, for example, a combination of a bowling ball and a pin, or a combination of marbles.

3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があるが、他の剛体はすり抜け可能である場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、他の剛体と接触した後も、他の剛体をすり抜けてそのまま移動し続けるように表示される。現実には、剛体が剛体をすり抜けることはないが、このようなすり抜けを可能にすることにより、利用者に斬新な体験を提供することができる。このように表示される3次元オブジェクトと他の剛体の組み合わせは、例えば、ボーリングの球とピンの組み合わせや、ビー玉同士の組み合わせである。なお、押される速度に閾値を設け、押される速度が閾値以下の場合は、3次元オブジェクトが他の剛体をすり抜けないこととしてもよい。   If there is another rigid body that does not have a fulcrum in the 3D object and is not fixed in the pressed direction, but the other rigid body can pass through, the 3D object will depend on the amount pressed in the pressed direction. After moving and contacting another rigid body, it is displayed to continue moving as it passes through the other rigid body. In reality, a rigid body does not slip through a rigid body, but by enabling such a slip-through, a novel experience can be provided to the user. The combination of the three-dimensional object and the other rigid body displayed in this way is, for example, a combination of a bowling ball and a pin, or a combination of marbles. It should be noted that a threshold value is provided for the pressing speed, and when the pressing speed is equal to or less than the threshold value, the three-dimensional object may not pass through another rigid body.

3次元オブジェクトに支点がある場合、3次元オブジェクトは、押された方向および量に応じて、支点を中心に回転するように表示される。ここでいう回転とは、360度ぐるぐると回る回転であってもよいし、所定の回転範囲内を往復する回動であってもよい。このように表示される3次元オブジェクトは、例えば、振り子、ボクシングのサンドバック、風車である。   When the three-dimensional object has a fulcrum, the three-dimensional object is displayed so as to rotate around the fulcrum according to the pressed direction and amount. The rotation referred to here may be a rotation that rotates around 360 degrees, or a rotation that reciprocates within a predetermined rotation range. The three-dimensional object displayed in this way is, for example, a pendulum, a boxing sandback, or a windmill.

また、図7に示すように、3次元オブジェクトの種別が「弾性体」の場合、素材、変化量の制限の有無、押される速度に応じて、押す操作が検出された場合の変化が異なる。なお、ここでいう素材は、3次元オブジェクトの想定上の素材であり、オブジェクトデータ24bにおいて定義される。   As shown in FIG. 7, when the type of the three-dimensional object is “elastic body”, the change when the pressing operation is detected differs depending on the material, whether or not the amount of change is limited, and the pressing speed. The material here is an assumed material of the three-dimensional object, and is defined in the object data 24b.

3次元オブジェクトの素材がゴム系であり、変化量に制限がなく、押される速度が遅い場合、3次元オブジェクトは、押された方向に押された量に応じて変形し、押される状態から解放されると元の形状に戻るように表示される。また、3次元オブジェクトの素材がゴム系であり、変化量に制限がなく、押される速度が速い場合、3次元オブジェクトは、押された方向に押された量に応じて変形し、その後、はじかれて、元の形状に戻りながら押された方向へ移動するように表示される。このように表示される3次元オブジェクトは、例えば、ゴムボール、消しゴムである。   If the material of the 3D object is rubber, there is no limit on the amount of change, and the pressing speed is slow, the 3D object is deformed according to the amount pressed in the pressed direction and released from the pressed state. When it is done, it is displayed so as to return to the original shape. In addition, when the material of the three-dimensional object is rubber, there is no limit on the amount of change and the pressing speed is fast, the three-dimensional object is deformed according to the amount pressed in the pressing direction, and then the flip It is displayed to move in the pressed direction while returning to the original shape. The three-dimensional object displayed in this way is, for example, a rubber ball or an eraser.

3次元オブジェクトの素材がゴム系であり、変化量に制限がある場合、3次元オブジェクトは、押された方向に押された量に応じて変形可能範囲まで変形し、その後も押す操作が検出されると、元の形状に戻りながら押された方向へ移動するように表示される。このように表示される3次元オブジェクトは、例えば、ゴムボール、消しゴムである。   If the material of the 3D object is rubber, and the amount of change is limited, the 3D object will be deformed to the deformable range according to the amount pressed in the pressed direction, and the pressing operation will be detected thereafter. Then, it is displayed to move in the pushed direction while returning to the original shape. The three-dimensional object displayed in this way is, for example, a rubber ball or an eraser.

3次元オブジェクトの素材が金属系の場合、3次元オブジェクトは、押された方向に押された量に応じて変形可能範囲まで変形し、押される状態から解放されると元の形状に戻ったり変形したりを繰り返す(振動する)ように表示される。なお、変形可能方向以外の方向に押された場合、3次元オブジェクトは、剛体と同様に移動する。このように表示される3次元オブジェクトは、例えば、板ばね、弦巻ばねである。   If the material of the 3D object is metal, the 3D object will be deformed to the deformable range according to the amount pressed in the pressed direction, and will return to its original shape when released from the pressed state. To repeat (vibrate). Note that when pressed in a direction other than the deformable direction, the three-dimensional object moves in the same manner as the rigid body. The three-dimensional object displayed in this way is, for example, a leaf spring or a string spring.

また、図8に示すように、3次元オブジェクトの種別が「塑性体」の場合、3次元オブジェクトは、押された箇所がへこんで全体形状が変化するように表示される。このように表示される3次元オブジェクトは、例えば、粘土である。   As shown in FIG. 8, when the type of the three-dimensional object is “plastic”, the three-dimensional object is displayed such that the pressed portion is recessed and the overall shape changes. The three-dimensional object displayed in this way is, for example, clay.

また、図9に示すように、3次元オブジェクトの種別が「液体」の場合、押される速度に応じて、押す操作が検出された場合の変化が異なる。押される速度が遅い場合、押す物体が3次元オブジェクト、すなわち、液体につかるように表示される。押される速度が中程度の場合、押す物体が液体につかり、液体に波紋が拡がるように表示される。押される速度が速い場合、押す物体が液体につかり、液体から水しぶきがあがるように表示される。このように表示される3次元オブジェクトは、例えば、コップに入った水である。   As shown in FIG. 9, when the type of the three-dimensional object is “liquid”, the change when the pressing operation is detected differs depending on the pressing speed. When the pushing speed is slow, the object to be pushed is displayed so as to be in contact with the three-dimensional object, ie, the liquid. When the pressing speed is medium, the object to be pressed is displayed on the liquid so that the ripple spreads on the liquid. When the pushed speed is high, the object to be pushed is touched by the liquid, and it is displayed that the liquid splashes. The three-dimensional object displayed in this way is, for example, water in a cup.

また、図10に示すように、3次元オブジェクトの種別が「気体」の場合、押される速度に応じて、押す操作が検出された場合の変化が異なる。押される速度が遅い場合、3次元オブジェクト、すなわち、気体が押す物体によってさえぎられてその周囲を漂うように表示される。押される速度が中程度の場合、気体が押す物体によって散乱されるように表示される。押される速度が速い場合、押す物体の移動方向の後ろ側で乱流により気体に渦が生まれるように表示される。このように表示される3次元オブジェクトは、例えば、煙である。   As shown in FIG. 10, when the type of the three-dimensional object is “gas”, the change when the pressing operation is detected differs depending on the pressing speed. When the pushed speed is slow, a three-dimensional object, i.e., a gas is interrupted by the pushed object and is displayed to drift around it. When the pressing speed is medium, it is displayed that the gas is scattered by the pressing object. When the pushing speed is high, the vortex is generated in the gas behind the pushing object in the moving direction. The three-dimensional object displayed in this way is, for example, smoke.

また、図11に示すように、3次元オブジェクトの種別が「集合体」の場合、集合体の要素の結合状況に応じて、押す操作が検出された場合の変化が異なる。集合体の要素の結合がない場合、3次元オブジェクトは、押された箇所がへこんで集合体としての全体形状が変化するように表示される。このように表示される3次元オブジェクトは、例えば、砂、砂糖である。   As shown in FIG. 11, when the type of the three-dimensional object is “aggregate”, the change when the pressing operation is detected differs depending on the coupling state of the elements of the aggregate. When there is no connection of the elements of the aggregate, the three-dimensional object is displayed such that the pressed portion is recessed and the overall shape of the aggregate changes. The three-dimensional object displayed in this way is, for example, sand or sugar.

集合体の要素の結合がある場合、3次元オブジェクトは、押された箇所がへこんで集合体としての全体形状が変化するように表示される。さらに、押された箇所以外の要素が、押された箇所の要素に引っ張られて移動するように表示される。このように表示される3次元オブジェクトは、例えば、鎖である。   When there is a combination of the elements of the aggregate, the three-dimensional object is displayed such that the pressed portion is recessed and the overall shape of the aggregate changes. Further, an element other than the pressed part is displayed so as to be moved by being pulled by the element at the pressed part. The three-dimensional object displayed in this way is, for example, a chain.

集合体の要素の結合はないが押す物体との間に引力または斥力が働く場合、3次元オブジェクトは、押す物体と接しなくても移動するように表示される。押す物体との間に引力が働く場合、3次元オブジェクトは、押す物体と接しなくても、押す物体と所定距離以内に入ると押す物体に引き寄せられる。また、押す物体との間に斥力が働く場合、3次元オブジェクトは、押す物体と接しなくても、押す物体と所定距離以内に入ると押す物体から遠ざかる。このように表示される3次元オブジェクトと押す物体の組み合わせは、例えば、鉄粉と磁石の組み合わせである。   When there is no combination of the elements of the aggregate, but an attractive force or a repulsive force is applied to the pushing object, the three-dimensional object is displayed so as to move even if it does not contact the pushing object. When an attractive force acts between the pressed object and the pressed object, the three-dimensional object is attracted to the pressed object when it is within a predetermined distance from the pressed object without contacting the pressed object. In addition, when a repulsive force acts between the pressed object and the pressed object, the three-dimensional object moves away from the pressed object when it is within a predetermined distance from the pressed object without contacting the pressed object. The combination of the displayed three-dimensional object and the pressed object is, for example, a combination of iron powder and a magnet.

このように、オブジェクトデータ24bに格納された情報と作用データ24cに格納された情報とに基づいて3次元オブジェクトを変化させることにより、押す操作に応じて、3次元オブジェクトを多様に変化させることができる。なお、オブジェクトデータ24bおよび作用データ24cに格納される情報は、上記の例に限定されず、用途等に応じて適宜変更してよい。例えば、押す物体の種別および大きさや押す物体と3次元オブジェクトの接触面積の大きさに応じて、3次元オブジェクトの変化の仕方が切り替わるように設定してもよい。   As described above, by changing the three-dimensional object based on the information stored in the object data 24b and the information stored in the action data 24c, the three-dimensional object can be variously changed according to the pressing operation. it can. Note that the information stored in the object data 24b and the action data 24c is not limited to the above example, and may be changed as appropriate according to the application. For example, the method of changing the three-dimensional object may be set according to the type and size of the pressed object and the size of the contact area between the pressed object and the three-dimensional object.

次に、図12および図13を参照しながら、3次元オブジェクトを押す操作に関して携帯電話端末1が実行する処理手順について説明する。図12は、3次元オブジェクトの接触検出処理の処理手順を示すフローチャートである。図12に示す処理手順は、所定の操作が検出されたこと等を契機として、制御部22が制御プログラム24aを実行することによって実現される。   Next, a processing procedure executed by the mobile phone terminal 1 regarding an operation of pressing a three-dimensional object will be described with reference to FIGS. FIG. 12 is a flowchart illustrating a processing procedure of contact detection processing of a three-dimensional object. The processing procedure shown in FIG. 12 is realized by the control unit 22 executing the control program 24a when a predetermined operation is detected.

図12に示すように、制御部22は、まず、ステップS101として、オブジェクトデータ24bに基づいて3次元オブジェクトを立体的に表示する。オブジェクトデータ24bは、予め記憶部24に記憶されていてもよいし、通信部26による無線通信によってサーバ装置等の他の装置から取得してもよい。   As shown in FIG. 12, the control part 22 displays a three-dimensional object three-dimensionally based on the object data 24b as step S101 first. The object data 24b may be stored in the storage unit 24 in advance, or may be acquired from another device such as a server device by wireless communication by the communication unit 26.

続いて、制御部22は、ステップS102として、検出部、すなわち、撮影部40および42によって所定の物体が検出されたかを判定する。所定の物体は、例えば、利用者の指である。所定の物体が検出されない場合(ステップS102,No)、制御部22は、ステップS108として、操作終了が検出されたかを判定する。   Subsequently, in step S102, the control unit 22 determines whether a predetermined object is detected by the detection unit, that is, the imaging units 40 and 42. The predetermined object is, for example, a user's finger. When the predetermined object is not detected (No at Step S102), the control unit 22 determines whether the operation end is detected as Step S108.

操作終了は、例えば、操作部13に対する所定の操作が行われた場合に検出されてもよいし、タッチパネル32に対する所定の操作が行われた場合に検出されてもよい。また、操作終了は、撮影部40または42の少なくとも一方で利用者の手による所定のジェスチャーが撮影された場合に検出されてもよい。操作終了が検出された場合(ステップS108,Yes)、制御部22は、接触検出処理を終了させる。操作終了が検出されない場合(ステップS108,No)、制御部22は、ステップS102以降を再実行する。   The operation end may be detected, for example, when a predetermined operation is performed on the operation unit 13 or may be detected when a predetermined operation is performed on the touch panel 32. The end of the operation may be detected when a predetermined gesture by the user's hand is photographed by at least one of the photographing units 40 or 42. When the end of operation is detected (step S108, Yes), the control unit 22 ends the contact detection process. When the operation end is not detected (No at Step S108), the control unit 22 re-executes Step S102 and the subsequent steps.

所定の物体が検出された場合(ステップS102,Yes)、制御部22は、ステップS103として、所定の物体の種別を判定する。所定の物体の種別は、例えば、撮影部40および42によって撮影された画像中の物体の大きさ、形状、色等に基づいて判定される。続いて、制御部22は、ステップS104として、所定の物体に接触している3次元オブジェクトを探す。   When a predetermined object is detected (step S102, Yes), the control unit 22 determines the type of the predetermined object as step S103. The type of the predetermined object is determined based on, for example, the size, shape, color, and the like of the object in the images photographed by the photographing units 40 and 42. Subsequently, in step S104, the control unit 22 searches for a three-dimensional object that is in contact with a predetermined object.

所定の物体に接触している3次元オブジェクトがない場合(ステップS105,No)、制御部22は、ステップS108として、操作終了が検出されたかを判定する。操作終了が検出された場合(ステップS108,Yes)、制御部22は、接触検出処理を終了させる。操作終了が検出されない場合(ステップS108,No)、制御部22は、ステップS102以降を再実行する。   When there is no three-dimensional object in contact with the predetermined object (No at Step S105), the control unit 22 determines whether the operation end is detected as Step S108. When the end of operation is detected (step S108, Yes), the control unit 22 ends the contact detection process. When the operation end is not detected (No at Step S108), the control unit 22 re-executes Step S102 and the subsequent steps.

所定の物体に接触している3次元オブジェクトがみつかった場合(ステップS105,Yes)、制御部22は、ステップS106として、オブジェクトデータ24bに基づいて、所定の物体に接触している3次元オブジェクトの種別を判定する。そして、制御部22は、ステップS107として、後述する操作検出処理を実行する。その後、制御部22は、ステップS108として、操作終了が検出されたかを判定する。操作終了が検出された場合(ステップS108,Yes)、制御部22は、接触検出処理を終了させる。操作終了が検出されない場合(ステップS108,No)、制御部22は、ステップS102以降を再実行する。   When a three-dimensional object in contact with the predetermined object is found (step S105, Yes), the control unit 22 determines in step S106 the three-dimensional object in contact with the predetermined object based on the object data 24b. Determine the type. And the control part 22 performs the operation detection process mentioned later as step S107. Thereafter, the control unit 22 determines whether the operation end is detected as step S108. When the end of operation is detected (step S108, Yes), the control unit 22 ends the contact detection process. When the operation end is not detected (No at Step S108), the control unit 22 re-executes Step S102 and the subsequent steps.

図13は、操作検出処理の処理手順を示すフローチャートである。図13に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。   FIG. 13 is a flowchart showing the procedure of the operation detection process. The processing procedure shown in FIG. 13 is realized by the control unit 22 executing the control program 24a.

図13に示すように、制御部22は、まず、ステップS201として、所定の物体と3次元オブジェクトの接触時間を取得する。そして、制御部22は、ステップS202として、所定の物体が3次元オブジェクトの内部に移動したかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップS202,No)、制御部22は、ステップS201以降を再実行する。   As illustrated in FIG. 13, the control unit 22 first acquires a contact time between a predetermined object and a three-dimensional object as step S201. Then, in step S202, the control unit 22 determines whether the predetermined object has moved into the three-dimensional object. When the predetermined object has not moved to the inside of the three-dimensional object (No at Step S202), the control unit 22 re-executes Step S201 and the subsequent steps.

所定の物体が3次元オブジェクトの内部に移動している場合(ステップS202,Yes)、制御部22は、ステップS203として、接触時間が所定時間以上であるかを判定する。接触時間が所定時間よりも短い場合(ステップS203,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。   When the predetermined object is moving inside the three-dimensional object (step S202, Yes), the control unit 22 determines whether the contact time is equal to or longer than the predetermined time as step S203. When the contact time is shorter than the predetermined time (No at Step S203), the control unit 22 ends the operation detection process because it is determined that the three-dimensional object is not an operation target.

接触時間が所定時間以上の場合(ステップS203,Yes)、制御部22は、ステップS204として、所定の物体の速度を算出する。そして、制御部22は、ステップS205として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。   When the contact time is equal to or longer than the predetermined time (step S203, Yes), the control unit 22 calculates the speed of the predetermined object as step S204. In step S205, the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object, the type of the three-dimensional object, and the like. A specific method of change is determined according to the action data 24c.

続いて、制御部22は、ステップS206として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップS206,No)、制御部22は、ステップS204以降を再実行する。   Subsequently, in step S206, the control unit 22 determines whether the predetermined object has moved outside the three-dimensional object. When the predetermined object has not moved outside the three-dimensional object, that is, when the pressing operation is continued (No at Step S206), the control unit 22 re-executes Step S204 and the subsequent steps.

所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップS206,Yes)、制御部22は、ステップS207として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。   When the predetermined object moves outside the three-dimensional object, that is, when the three-dimensional object is released (Yes at Step S206), the control unit 22 determines whether the change of the three-dimensional object continues as Step S207. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.

3次元オブジェクトの変化が継続する場合(ステップS207,Yes)、制御部22は、ステップS208として、3次元オブジェクトを変化させ、その後、ステップS207以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップS207,No)、制御部22は、操作検出処理を終了させる。   When the change of the three-dimensional object continues (step S207, Yes), the control unit 22 changes the three-dimensional object as step S208, and then re-executes step S207 and subsequent steps. When the change of the three-dimensional object does not continue (No at Step S207), the control unit 22 ends the operation detection process.

上述してきたように、第1の実施例では、押す操作に応じて3次元オブジェクトを多様に変化させ、それにより、利用者に対して利便性の高い操作方法を提供することができる。   As described above, in the first embodiment, the three-dimensional object can be variously changed in accordance with the pressing operation, thereby providing a user-friendly operation method.

以下に、第2の実施例について説明する。第2の実施例に係る携帯電話端末1は、制御プログラム24aが提供する機能に基づいて実行する操作検出処理の処理手順が第1の実施例と異なるものの、ハードウェアとして見ると、第1の実施例に係る携帯電話端末1と同一の構成を有する。そこで、第2の実施例では、第1の実施例と重複する説明は省略し、主として、操作検出処理について説明する。   The second embodiment will be described below. The cellular phone terminal 1 according to the second embodiment is different from the first embodiment in the processing procedure of the operation detection process executed based on the function provided by the control program 24a. It has the same configuration as the mobile phone terminal 1 according to the embodiment. Therefore, in the second embodiment, description overlapping with that in the first embodiment is omitted, and the operation detection process will be mainly described.

まず、図14を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。図14は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図14に示すステップS21では、利用者が指F1を3次元オブジェクトOB1と接触させ、ステップS22では、利用者が指F1を3次元オブジェクトOB1の内側に侵入させている。   First, detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation will be described with reference to FIG. FIG. 14 is a diagram for describing detection of an operation of pushing a three-dimensional object and a change in the three-dimensional object according to the detected operation. In step S21 shown in FIG. 14, the user contacts the finger F1 with the three-dimensional object OB1, and in step S22, the user causes the finger F1 to enter the inside of the three-dimensional object OB1.

携帯電話端末1は、立体視空間内で現実の物体が検出され、かつ、その物体が3次元オブジェクトOB1と接触した後に3次元オブジェクトOB1の内部へ移動する状態が所定時間以上継続した場合、3次元オブジェクトOB1が操作対象として選択されたと判定する。そして、携帯電話端末1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として選択されたことを利用者に通知する。さらに、携帯電話端末1は、ステップS23に示すように、3次元オブジェクトOB1を、あたかもステップS21の段階で既に押す操作の対象として選択されていたかのように、接触検出以降の指F1による操作に応じて変化させる。   When a real object is detected in the stereoscopic space and the state in which the mobile phone terminal 1 moves to the inside of the three-dimensional object OB1 after contacting the three-dimensional object OB1 continues for a predetermined time or more, It is determined that the dimension object OB1 is selected as an operation target. Then, the cellular phone terminal 1 notifies the user that the three-dimensional object OB1 has been selected as an operation target, for example, by changing the display mode of the three-dimensional object OB1. Further, as shown in step S23, the cellular phone terminal 1 responds to the operation with the finger F1 after the contact detection as if the three-dimensional object OB1 was already selected as the target of the operation to be pressed in the step S21. Change.

このように、物体と3次元オブジェクトの接触を検出した後は、物体がその場に留まらなくても押す操作を検出可能にすることにより、利用者は、3次元オブジェクトを押す操作を迅速に開始することができる。また、接触後に物体が3次元オブジェクトOB1の内部へ移動する状態が所定時間以上継続することを条件として付加することにより、他の3次元オブジェクトを操作するために指を移動させる過程で、意図しない3次元オブジェクトが操作対象として選択されることを抑止できる。   As described above, after detecting the contact between the object and the three-dimensional object, the user can quickly start the operation of pressing the three-dimensional object by making it possible to detect the pressing operation even if the object does not stay on the spot. can do. Further, by adding the condition that the state in which the object moves to the inside of the three-dimensional object OB1 after the contact continues for a predetermined time or longer is not intended in the process of moving the finger to operate another three-dimensional object. Selection of a three-dimensional object as an operation target can be suppressed.

次に、図15を参照しながら、第2の実施例における操作検出処理の処理手順について説明する。図15は、操作検出処理の処理手順を示すフローチャートである。図15に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。なお、接触検出処理の処理手順は、図12に示した手順と同様である。   Next, the procedure of the operation detection process in the second embodiment will be described with reference to FIG. FIG. 15 is a flowchart illustrating the processing procedure of the operation detection process. The processing procedure shown in FIG. 15 is realized by the control unit 22 executing the control program 24a. Note that the processing procedure of the contact detection processing is the same as the procedure shown in FIG.

図15に示すように、制御部22は、まず、ステップS301として、所定の物体が3次元オブジェクトの内部に移動しているかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップS301,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。   As illustrated in FIG. 15, the control unit 22 first determines whether a predetermined object has moved inside the three-dimensional object in step S <b> 301. If the predetermined object has not moved to the inside of the three-dimensional object (No at Step S301), since the three-dimensional object is determined not to be an operation target, the control unit 22 ends the operation detection process.

所定の物体が3次元オブジェクトの内部に移動している場合(ステップS301,Yes)、制御部22は、ステップS302として、接触検出からの経過時間が所定時間以上であるかを判定する。経過時間が所定時間よりも短い場合(ステップS302,No)、制御部22は、ステップS301以降を再実行する。   When the predetermined object is moving inside the three-dimensional object (step S301, Yes), the control unit 22 determines whether the elapsed time from the contact detection is equal to or longer than the predetermined time as step S302. When the elapsed time is shorter than the predetermined time (No at Step S302), the control unit 22 re-executes Step S301 and the subsequent steps.

接触時間が所定時間以上の場合(ステップS302,Yes)、制御部22は、ステップS303として、所定の物体の速度を算出する。そして、制御部22は、ステップS304として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。   When the contact time is equal to or longer than the predetermined time (step S302, Yes), the control unit 22 calculates the speed of the predetermined object as step S303. In step S304, the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object, the type of the three-dimensional object, and the like. A specific method of change is determined according to the action data 24c.

続いて、制御部22は、ステップS305として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップS305,No)、制御部22は、ステップS303以降を再実行する。   Subsequently, in step S305, the control unit 22 determines whether the predetermined object has moved outside the three-dimensional object. When the predetermined object has not moved to the outside of the three-dimensional object, that is, when the pressing operation is continued (No in step S305), the control unit 22 re-executes step S303 and subsequent steps.

所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップS305,Yes)、制御部22は、ステップS306として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。   When the predetermined object moves outside the three-dimensional object, that is, when the three-dimensional object is released (Yes in step S305), the control unit 22 determines whether the change of the three-dimensional object continues as step S306. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.

3次元オブジェクトの変化が継続する場合(ステップS306,Yes)、制御部22は、ステップS307として、3次元オブジェクトを変化させ、その後、ステップS306以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップS306,No)、制御部22は、操作検出処理を終了させる。   When the change of the three-dimensional object continues (step S306, Yes), the control unit 22 changes the three-dimensional object as step S307, and then re-executes step S306 and the subsequent steps. When the change of the three-dimensional object does not continue (No at Step S306), the control unit 22 ends the operation detection process.

上述してきたように、第2の実施例では、指等の物体が3次元オブジェクトに接触する状態が所定時間以上継続しなくても押す操作が認識されることとしたので、利用者は、3次元オブジェクトを押す操作を迅速に開始することができる。   As described above, in the second embodiment, since the pressing operation is recognized even when the object such as the finger is in contact with the three-dimensional object does not continue for a predetermined time or longer, the user can The operation of pushing the dimension object can be started quickly.

以下に、第3の実施例について説明する。第3の実施例に係る携帯電話端末1は、制御プログラム24aが提供する機能に基づいて実行する操作検出処理の処理手順が第1の実施例と異なるものの、ハードウェアとして見ると、第1の実施例に係る携帯電話端末1と同一の構成を有する。そこで、第3の実施例では、第1の実施例と重複する説明は省略し、主として、操作検出処理について説明する。   The third embodiment will be described below. The cellular phone terminal 1 according to the third embodiment is different from the first embodiment in the processing procedure of the operation detection process executed based on the function provided by the control program 24a. It has the same configuration as the mobile phone terminal 1 according to the embodiment. Therefore, in the third embodiment, descriptions overlapping with those in the first embodiment are omitted, and the operation detection process will be mainly described.

まず、図16および図17を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。図16および図17は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図16に示すステップS31では、タッチパネル32によって、立体視空間中に、3次元オブジェクトOB1が立体的に表示されている。また、利用者は、指F1を3次元オブジェクトOB1と接触させている。   First, detection of an operation of pushing a three-dimensional object and change of the three-dimensional object according to the detected operation will be described with reference to FIGS. 16 and 17. 16 and 17 are diagrams for explaining detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. In step S31 illustrated in FIG. 16, the three-dimensional object OB1 is stereoscopically displayed in the stereoscopic space by the touch panel 32. In addition, the user is bringing the finger F1 into contact with the three-dimensional object OB1.

ここで、利用者が指F1を3次元オブジェクトOB1の内側に侵入させたものとする。携帯電話端末1は、3次元オブジェクトOB1に接触した物体が3次元オブジェクトOB1の内側に移動したことを検出すると、ステップS32に示すように、その時点から、3次元オブジェクトOB1を指F1による操作に応じて変化させる。図16に示す例では、ステップS32において、3次元オブジェクトOB1は、指F1の移動に合わせて移動を開始している。   Here, it is assumed that the user has caused the finger F1 to enter the inside of the three-dimensional object OB1. When the cellular phone terminal 1 detects that the object that has touched the three-dimensional object OB1 has moved to the inside of the three-dimensional object OB1, as shown in step S32, the three-dimensional object OB1 is operated by the finger F1 from that point. Change accordingly. In the example shown in FIG. 16, in step S32, the three-dimensional object OB1 starts moving in accordance with the movement of the finger F1.

そして、携帯電話端末1は、ステップS33に示すように、指F1が3次元オブジェクトOB1の内側へ向けて移動することが所定時間以上継続した段階で、3次元オブジェクトOB1を操作対象として確定する。そして、携帯電話端末1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として確定したことを利用者に通知する。その後も、指F1の3次元オブジェクトOB1の内側への移動が検出される間、携帯電話端末1は、3次元オブジェクトOB1を変化させ続ける。   Then, as shown in step S33, the mobile phone terminal 1 determines the three-dimensional object OB1 as an operation target when the finger F1 continues to move toward the inside of the three-dimensional object OB1 for a predetermined time or more. Then, the mobile phone terminal 1 notifies the user that the three-dimensional object OB1 has been determined as an operation target, for example, by changing the display mode of the three-dimensional object OB1. Thereafter, while the movement of the finger F1 to the inside of the three-dimensional object OB1 is detected, the mobile phone terminal 1 continues to change the three-dimensional object OB1.

なお、図17のステップS34に示すように、所定時間が経過する前に指F1の3次元オブジェクトOB1の内側への移動が検出されなくなった場合、携帯電話端末1は、それまでに加えた変化と逆の変化を3次元オブジェクトOB1に加える。その結果、3次元オブジェクトOB1は、ステップS31の段階と同じ位置に同じ状態で表示される。逆の変化を3次元オブジェクトOB1に加える速度は、それまでに3次元オブジェクトOB1に変化が加えられた速度よりも速くてもよい。すなわち、高速に逆再生しているかのように3次元オブジェクトOB1を逆変化させてもよい。   Note that, as shown in step S34 of FIG. 17, when the movement of the finger F1 to the inside of the three-dimensional object OB1 is not detected before the predetermined time has elapsed, the mobile phone terminal 1 changes so far. The opposite change is applied to the three-dimensional object OB1. As a result, the three-dimensional object OB1 is displayed in the same state at the same position as in the step S31. The speed at which the reverse change is applied to the three-dimensional object OB1 may be faster than the speed at which the change has been applied to the three-dimensional object OB1 so far. That is, the three-dimensional object OB1 may be reversely changed as if it is reversely played back at high speed.

このように、3次元オブジェクトの内側への物体の侵入が検出された段階から3次元オブジェクトに変化を加え始めることにより、利用者は、3次元オブジェクトが選択されつつあることを選択が確定する前から認識することができる。その結果、利用者は、意図した3次元オブジェクトが選択されたか否かを早期に知ることができる。意図しない3次元オブジェクトが選択された場合、利用者は、所定時間が経過する前に操作を中止することにより、意図せずに選択された3次元オブジェクトを元の状態に戻すことができる。   In this way, by starting to apply changes to the 3D object from the stage where the intrusion of the object inside the 3D object is detected, the user can confirm that the 3D object is being selected before the selection is confirmed. Can be recognized from. As a result, the user can know at an early stage whether or not the intended three-dimensional object has been selected. When an unintended three-dimensional object is selected, the user can return the original three-dimensional object to an original state by canceling the operation before a predetermined time elapses.

なお、指F1の3次元オブジェクトOB1の内側への移動が所定時間以上継続するまでは、変化を加えられている3次元オブジェクトを通常時とも操作対象としての選択が確定した状態とも異なる態様(例えば、半透明)で表示してもよい。このように表示態様を変更することにより、利用者が3次元オブジェクトの状態を判別しやすくなる。   It should be noted that until the movement of the finger F1 to the inside of the three-dimensional object OB1 continues for a predetermined time or more, the mode is different from the state in which the selected three-dimensional object is changed as the operation target at both the normal time (eg , Translucent). By changing the display mode in this way, the user can easily determine the state of the three-dimensional object.

次に、図18を参照しながら、第3の実施例における操作検出処理の処理手順について説明する。図18は、操作検出処理の処理手順を示すフローチャートである。図18に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。なお、接触検出処理の処理手順は、図12に示した手順と同様である。   Next, the procedure of the operation detection process in the third embodiment will be described with reference to FIG. FIG. 18 is a flowchart illustrating a procedure of the operation detection process. The processing procedure shown in FIG. 18 is realized by the control unit 22 executing the control program 24a. Note that the processing procedure of the contact detection processing is the same as the procedure shown in FIG.

図18に示すように、制御部22は、まず、ステップS401として、所定の物体が3次元オブジェクトの内部に移動しているかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップS401,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。   As shown in FIG. 18, the control unit 22 first determines whether a predetermined object has moved inside the three-dimensional object in step S401. If the predetermined object has not moved to the inside of the three-dimensional object (No at Step S401), since the three-dimensional object is determined not to be an operation target, the control unit 22 ends the operation detection process.

所定の物体が3次元オブジェクトの内部に移動している場合(ステップS401,Yes)、制御部22は、ステップS402として、所定の物体の速度を算出する。そして、制御部22は、ステップS403として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。   When the predetermined object is moving inside the three-dimensional object (step S401, Yes), the control unit 22 calculates the speed of the predetermined object as step S402. In step S403, the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object, the type of the three-dimensional object, and the like. A specific method of change is determined according to the action data 24c.

続いて、制御部22は、ステップS404として、接触検出からの経過時間が所定時間以上であるかを判定する。経過時間が所定時間よりも短い場合、すなわち、3次元オブジェクトが押す操作の対象として確定していない場合(ステップS404,No)、制御部22は、ステップS405として、所定の物体の3次元オブジェクトの内部方向への移動が継続しているかを判定する。   Subsequently, in step S404, the control unit 22 determines whether the elapsed time from the contact detection is a predetermined time or more. When the elapsed time is shorter than the predetermined time, that is, when the three-dimensional object is not fixed as the target of the pressing operation (No at Step S404), the control unit 22 sets the three-dimensional object of the predetermined object as Step S405. It is determined whether the movement in the internal direction continues.

3次元オブジェクトの内部方向への移動が継続している場合(ステップS405,Yes)、制御部22は、ステップS402以降を再実行する。3次元オブジェクトの内部方向への移動が継続していない場合(ステップS405,No)、制御部22は、ステップS406として、3次元オブジェクトを逆変化させて元の状態に戻す。そして、制御部22は、操作検出処理を終了させる。   When the movement of the three-dimensional object in the internal direction continues (step S405, Yes), the control unit 22 re-executes step S402 and subsequent steps. When the movement of the three-dimensional object in the internal direction is not continued (No in step S405), the control unit 22 reversely changes the three-dimensional object to return to the original state in step S406. Then, the control unit 22 ends the operation detection process.

また、接触検出からの経過時間が所定時間以上である場合(ステップS404,Yes)、制御部22は、ステップS407として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップS407,No)、制御部22は、ステップS402以降を再実行する。   If the elapsed time from the contact detection is equal to or longer than the predetermined time (step S404, Yes), the control unit 22 determines whether the predetermined object has moved outside the three-dimensional object as step S407. When the predetermined object has not moved to the outside of the three-dimensional object, that is, when the pressing operation continues (No at Step S407), the control unit 22 re-executes Step S402 and the subsequent steps.

所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップS407,Yes)、制御部22は、ステップS408として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。   When the predetermined object moves outside the three-dimensional object, that is, when the three-dimensional object is released (step S407, Yes), the control unit 22 determines whether the change of the three-dimensional object continues as step S408. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.

3次元オブジェクトの変化が継続する場合(ステップS408,Yes)、制御部22は、ステップS409として、3次元オブジェクトを変化させ、その後、ステップS408以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップS408,No)、制御部22は、操作検出処理を終了させる。   When the change of the three-dimensional object continues (step S408, Yes), the control unit 22 changes the three-dimensional object as step S409, and then re-executes step S408 and subsequent steps. When the change of the three-dimensional object is not continued (step S408, No), the control unit 22 ends the operation detection process.

上述してきたように、第3の実施例では、押す操作が検出された時点から、操作に応じて3次元オブジェクトを変化させることとしたので、利用者が、押す操作の対象となっている3次元オブジェクトを認識しやすい。   As described above, in the third embodiment, since the three-dimensional object is changed according to the operation from the time when the pressing operation is detected, the user is the target of the pressing operation 3 Easy to recognize dimensional objects.

以下に、第4の実施例について説明する。上記の各実施例では、3次元オブジェクトを操作する物体を撮影部が撮影する画像に基づいて検出することとしたが、他の検出方式を用いてもよい。例えば、静電容量式のタッチセンサは、感度を上げることにより、タッチセンサに接触していない指の位置を検出することができる。そこで、第4の実施例では、タッチセンサを、3次元オブジェクトを操作する物体を検出する検出部として活用する例を示す。なお、以下の説明では、既に説明した部分と同様の部分には既に説明した部分と同一の符号を付す。また、重複する説明については、説明を省略することがある。   The fourth embodiment will be described below. In each of the above-described embodiments, the object for manipulating the three-dimensional object is detected based on the image photographed by the photographing unit, but other detection methods may be used. For example, a capacitive touch sensor can detect the position of a finger not touching the touch sensor by increasing sensitivity. Therefore, the fourth embodiment shows an example in which a touch sensor is used as a detection unit that detects an object that operates a three-dimensional object. In the following description, the same parts as those already described are denoted by the same reference numerals as those already described. In addition, description may be omitted for overlapping descriptions.

まず、図19および図20を参照しながら、第4の実施例に係る携帯電話端末(表示機器)2の構成について説明する。図19は、携帯電話端末2の外観を示す正面図である。図20は、携帯電話端末2の機能的な構成を示すブロック図である。   First, the configuration of a mobile phone terminal (display device) 2 according to a fourth embodiment will be described with reference to FIGS. 19 and 20. FIG. 19 is a front view showing the appearance of the mobile phone terminal 2. FIG. 20 is a block diagram showing a functional configuration of the mobile phone terminal 2.

図19および図20に示すように、携帯電話端末2は、操作部13と、マイク15と、レシーバ16と、制御部22と、記憶部24と、通信部26と、音声処理部30と、タッチパネル32とを有する。   As shown in FIGS. 19 and 20, the mobile phone terminal 2 includes an operation unit 13, a microphone 15, a receiver 16, a control unit 22, a storage unit 24, a communication unit 26, a voice processing unit 30, A touch panel 32.

タッチパネル32は、文字、図形、画像等の各種の情報を表示するとともに、表示されたアイコン、ボタン、文字入力領域等の所定領域に対する入力操作を検出する。タッチパネル32は、表示部32aと、タッチセンサ32bとを重畳して構成される。本実施例において、タッチセンサ32bは、静電容量式のタッチセンサである。タッチセンサ32bは、3次元オブジェクトを操作する指を検出する検出部としても機能する。   The touch panel 32 displays various types of information such as characters, graphics, and images, and detects an input operation on a predetermined area such as a displayed icon, button, or character input area. The touch panel 32 is configured by superimposing a display unit 32a and a touch sensor 32b. In the present embodiment, the touch sensor 32b is a capacitive touch sensor. The touch sensor 32b also functions as a detection unit that detects a finger that operates a three-dimensional object.

次に、図21を参照しながら、3次元オブジェクトに対する操作の検出について説明する。図21は、3次元オブジェクトに対する操作の検出について説明するための図である。図21では、タッチパネル32によって、立体視空間中に、3次元オブジェクトOB1が立体的に表示されている。また、図21では、利用者が、指F1を3次元オブジェクトOB1に接触させている。   Next, detection of an operation on a three-dimensional object will be described with reference to FIG. FIG. 21 is a diagram for describing detection of an operation on a three-dimensional object. In FIG. 21, the three-dimensional object OB <b> 1 is stereoscopically displayed in the stereoscopic space by the touch panel 32. In FIG. 21, the user is bringing the finger F1 into contact with the three-dimensional object OB1.

携帯電話端末2は、指F1の位置を、タッチセンサ32bを用いて検出する。タッチセンサ32bは、感度を高めることで、例えば、指F1からタッチパネル32の表面までのZ軸方向の距離が10cm程度ある場合でも、指F1のX軸方向およびY軸方向の位置を検出することができる。また、タッチセンサ32bは、静電容量の大きさに基づいて、指F1からタッチパネル32の表面までのZ軸方向の距離D2を検出することができる。   The mobile phone terminal 2 detects the position of the finger F1 using the touch sensor 32b. The touch sensor 32b detects the position of the finger F1 in the X-axis direction and the Y-axis direction by increasing sensitivity, for example, even when the distance in the Z-axis direction from the finger F1 to the surface of the touch panel 32 is about 10 cm. Can do. Further, the touch sensor 32b can detect the distance D2 in the Z-axis direction from the finger F1 to the surface of the touch panel 32 based on the capacitance.

こうして検出された指F1の立体視空間での位置に基づいて、携帯電話端末2は、指F1と3次元オブジェクトOB1の接触を検出したり、指F1が3次元オブジェクトOB1を押す操作を検出したりすることができる。   Based on the detected position of the finger F1 in the stereoscopic space, the mobile phone terminal 2 detects a contact between the finger F1 and the three-dimensional object OB1, or detects an operation in which the finger F1 presses the three-dimensional object OB1. Can be.

上述してきたように、第4の実施例では、タッチセンサを検出部として用いることとしたので、撮影部を備えない表示装置であっても、3次元オブジェクトに対する操作を検出することができる。   As described above, in the fourth embodiment, the touch sensor is used as the detection unit. Therefore, even a display device that does not include a photographing unit can detect an operation on a three-dimensional object.

なお、3次元オブジェクトに対する操作を検出するために撮影部およびタッチセンサを併用してもよい。撮影部およびタッチセンサを併用する場合、それぞれの検出結果を平均して指F1の位置を特定してもよい。また、タッチパネル32と近い領域では、撮影部40は指F1の画像を取得し難いのでタッチセンサの検出結果の重みづけを大きくし、タッチパネル32と遠い領域では、タッチセンサの検出精度が低くなるので撮影部40の検出結果の重みづけを大きくした加重平均を用いてもよい。   Note that an imaging unit and a touch sensor may be used in combination to detect an operation on a three-dimensional object. When using an imaging | photography part and a touch sensor together, you may specify the position of the finger | toe F1 by averaging each detection result. In addition, in the area close to the touch panel 32, the imaging unit 40 hardly obtains the image of the finger F1, so the weight of the detection result of the touch sensor is increased, and in the area far from the touch panel 32, the detection accuracy of the touch sensor is low. You may use the weighted average which increased weighting of the detection result of the imaging | photography part 40. FIG.

また、他の指等が障害となってタッチセンサが指の位置を精度よく検出できないことが生じにくいように、3次元オブジェクトに対する操作を複数のタッチセンサを用いて検出してもよい。図22は、3次元オブジェクトに対する操作を複数のタッチセンサを用いて検出する携帯電話端末3の構成の一例を示す図である。   In addition, an operation on a three-dimensional object may be detected using a plurality of touch sensors so that it is difficult for another finger or the like to become an obstacle and the touch sensor cannot accurately detect the position of the finger. FIG. 22 is a diagram illustrating an example of a configuration of the mobile phone terminal 3 that detects an operation on a three-dimensional object using a plurality of touch sensors.

携帯電話端末3は、第1の筐体3aと、第2の筐体3bと、ヒンジ部3cとを有する。ヒンジ部3cは、第1の筐体3aおよび第2の筐体3bを開閉可能に連結する。そして、第1の筐体3aは、タッチセンサ32bを有するタッチパネル32を備え、第2の筐体3bは、タッチセンサ34bを有するタッチパネル34を備える。タッチセンサ32bおよびタッチセンサ34bは、図22に示すように、第1の筐体3aおよび第2の筐体3bが約90度の角度をもって固定された場合に、立体視空間に異なる角度で接する。   The mobile phone terminal 3 includes a first housing 3a, a second housing 3b, and a hinge portion 3c. The hinge portion 3c connects the first housing 3a and the second housing 3b so that they can be opened and closed. The first casing 3a includes a touch panel 32 having a touch sensor 32b, and the second casing 3b includes a touch panel 34 having a touch sensor 34b. As shown in FIG. 22, the touch sensor 32b and the touch sensor 34b come into contact with the stereoscopic space at different angles when the first housing 3a and the second housing 3b are fixed at an angle of about 90 degrees. .

タッチセンサ32bは、指F1のX軸方向およびY軸方向の位置を検出することができる。また、タッチセンサ32bは、静電容量の大きさに基づいて、指F1からタッチパネル32の表面までのZ軸方向の距離D2を検出することができる。タッチセンサ34bは、指F1のX軸方向およびZ軸方向の位置を検出することができる。また、タッチセンサ34bは、静電容量の大きさに基づいて、指F1からタッチパネル34の表面までのY軸方向の距離D4を検出することができる。   The touch sensor 32b can detect the position of the finger F1 in the X-axis direction and the Y-axis direction. Further, the touch sensor 32b can detect the distance D2 in the Z-axis direction from the finger F1 to the surface of the touch panel 32 based on the capacitance. The touch sensor 34b can detect the position of the finger F1 in the X-axis direction and the Z-axis direction. The touch sensor 34b can detect the distance D4 in the Y-axis direction from the finger F1 to the surface of the touch panel 34 based on the capacitance.

このように、異なる方向から指F1を検出することにより、何らかの障害物がある場合でもいずれかの方向から指F1の位置を検出することができる。なお、異なる方向から指F1を検出する場合、一方のタッチパネルが3次元オブジェクトを表示し、他方のタッチパネルは非表示とするか、2次元でガイダンス等を表示してもよい。また、3次元オブジェクトを表示しない方のタッチパネルを単なるタッチセンサとしてもよい。   As described above, by detecting the finger F1 from different directions, the position of the finger F1 can be detected from any direction even when there is some obstacle. When the finger F1 is detected from a different direction, one touch panel may display a three-dimensional object and the other touch panel may not be displayed, or two-dimensional guidance may be displayed. The touch panel that does not display the three-dimensional object may be a simple touch sensor.

以下に、上記の各実施例において説明した表示装置の適用例および変形例について説明する。操作の対象となる3次元オブジェクト(表示物)は、例えば、本、積み木、スプーン、箸、トランプ、粘土、楽器のように現実に存在するものを模したオブジェクトであってもよいし、仮想のアバター、ゲームのキャラクター、仮想現実のARタグのように実在はしないオブジェクトであってもよい。また、検出された操作に応じて3次元オブジェクトに加えられる変化は、上記の移動、変形、消失等に限定されない。また、押す操作に応じて3次元オブジェクトに加えられる変化は、上記の実施例に限定されず、3次元オブジェクトの種類に応じて変更してよい。   Hereinafter, application examples and modifications of the display device described in each of the above embodiments will be described. The three-dimensional object (display object) to be operated may be an object that imitates an actual object such as a book, a building block, a spoon, a chopstick, a playing card, clay, or a musical instrument, or a virtual object. It may be an object that does not exist, such as an avatar, a game character, or a virtual reality AR tag. Further, the change applied to the three-dimensional object according to the detected operation is not limited to the above movement, deformation, disappearance, and the like. Further, the change applied to the three-dimensional object according to the pressing operation is not limited to the above-described embodiment, and may be changed according to the type of the three-dimensional object.

例えば、粘土を模した3次元オブジェクト(以下、単に「粘土」という)を操作対象とする場合、押す操作に応じて粘土を変形させて、利用者が粘土を任意の形に成形できるようにしてもよい。また、時間の経過にしたがって、あたかも粘土が乾いていくかのように、粘土の粘性を低下させていってもよい。また、水の3次元オブジェクトに浸けた指や手で粘土を押す操作が検出された場合に、粘土の粘性を向上させてもよい。   For example, when a three-dimensional object imitating clay (hereinafter simply referred to as “clay”) is an operation target, the clay is deformed according to the pressing operation so that the user can shape the clay into an arbitrary shape. Also good. In addition, the viscosity of the clay may be lowered as if the clay dries over time. Further, when an operation of pushing clay with a finger or hand immersed in a three-dimensional object of water is detected, the viscosity of the clay may be improved.

また、レコード盤を模した3次元オブジェクト(以下、単に「レコード盤」という)を操作対象とする場合、押す操作に応じてレコード盤が支点を中心として回転するとともに、音を再生するようにしてもよい。回転と音の再生を連動させることにより、ディスクジョッキーによるスクラッチ等の技法を仮想的に実現してもよい。   In addition, when a three-dimensional object that imitates a record board (hereinafter simply referred to as “record board”) is an operation target, the record board rotates around a fulcrum and plays a sound according to the pressing operation. Also good. A technique such as scratching by a disc jockey may be virtually realized by linking rotation and sound reproduction.

なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。また、上記の実施例を適宜組み合わせてもよい。例えば、上記の実施例で示した制御プログラム24aは、複数のモジュールに分割されていてもよいし、他のプログラムと統合されていてもよい。また、上記の実施例では、3次元オブジェクトに対して指で操作を行うこととしたが、先端に静電気を帯びた棒状の物等を指の代わりに用いてもよい。   In addition, the aspect of this invention shown by said Example can be arbitrarily changed in the range which does not deviate from the summary of this invention. Moreover, you may combine said Example suitably. For example, the control program 24a shown in the above embodiment may be divided into a plurality of modules or may be integrated with other programs. In the above embodiment, the three-dimensional object is operated with a finger. However, a rod-like object having a static charge at the tip may be used instead of the finger.

また、上記実施例では、3次元オブジェクトを検出するために撮影部やタッチセンサを検出部として用いる例を示したが、検出部はこれに限られない。例えば、撮影部に代えて、TOF(Time-of-Flight)法を用いたセンサでもよい。また、立体視空間における面方向の移動を検出できる近接センサ等を、物体の移動方向とほぼ水平に配置すると、物体の変位が非接触でも検出できることから、もちろんこれらを用いてもよい。なお、物体にセンサ等を配置することなく、物体の変位の検出ができることが好ましい。物体にセンサ等を配置しないことにより、指にわざわざ加速度センサを取り付けたり、加速度を備えた表示機器そのものを移動させたりする必要がないので、コスト低減が図れる。   Moreover, although the example which uses an imaging | photography part and a touch sensor as a detection part in order to detect a three-dimensional object was shown in the said Example, a detection part is not restricted to this. For example, a sensor using a TOF (Time-of-Flight) method may be used instead of the photographing unit. Further, if a proximity sensor or the like that can detect the movement in the plane direction in the stereoscopic space is arranged almost horizontally with the moving direction of the object, the displacement of the object can be detected even without contact. It is preferable that the displacement of the object can be detected without arranging a sensor or the like on the object. By not arranging a sensor or the like on the object, it is not necessary to attach an acceleration sensor to the finger or move the display device itself with acceleration, so that the cost can be reduced.

また、上述の実施例では、3次元オブジェクトが利用者側に飛び出す場合について記載したが、表示部よりも奥側に3次元オブジェクトが存在するように見せる場合でも本発明を適用できる。この場合、表示部の裏面側にセンサやカメラを配置すればよい。表示機器が携帯電話端末の場合、利用者自身を撮影するためのインカメラと、風景等を撮影するためのアウトカメラとを備えていることが多い。そこで、このアウトカメラを用いることで裏面側における物体の変位を捕捉することができるようにしてもよい。   In the above-described embodiment, the case where the three-dimensional object jumps out to the user side has been described. However, the present invention can also be applied to the case where the three-dimensional object is present behind the display unit. In this case, a sensor or a camera may be disposed on the back side of the display unit. When the display device is a mobile phone terminal, the display device often includes an in-camera for photographing the user himself and an out-camera for photographing a landscape or the like. Therefore, it may be possible to capture the displacement of the object on the back side by using this out camera.

また、上記の実施例では、表示機器が単独で3次元オブジェクトに対する操作を検出することとしたが、表示機器がサーバ装置と協業して3次元オブジェクトに対する操作を検出することとしてもよい。この場合、表示機器は、検出部の検出した情報をサーバ装置へ逐次送信し、サーバ装置が操作を検出して検出結果を表示機器へ通知する。このような構成とすることにより、表示機器の負荷を低減することができる。   In the above embodiment, the display device alone detects an operation on the three-dimensional object. However, the display device may detect an operation on the three-dimensional object in cooperation with the server device. In this case, the display device sequentially transmits the information detected by the detection unit to the server device, and the server device detects the operation and notifies the display device of the detection result. By setting it as such a structure, the load of a display apparatus can be reduced.

1、2、3 携帯電話端末
22 制御部
24 記憶部
24a 制御プログラム
26 通信部
32、34 タッチパネル
32a 表示部
32b、34b タッチセンサ(検出部)
40、42 撮影部(検出部)
1, 2, 3 Mobile phone terminal 22 Control unit 24 Storage unit 24a Control program 26 Communication unit 32, 34 Touch panel 32a Display unit 32b, 34b Touch sensor (detection unit)
40, 42 Imaging unit (detection unit)

Claims (6)

視認空間に表示物を表示する表示部と、
前記視認空間において物体を検出する検出部と、
制御部と、を備え、
前記制御部は、前記物体が前記表示物に接触してから当該物体が当該表示物の内部方向に移動したことを検出すると、当該表示物を変化させるとともに、前記接触からの接触時間が所定時間以上か否かを判定し、
前記接触時間が所定時間以上であると判定すると、前記表示物が操作対象であると判定する
表示機器。
A display unit for displaying a display object in a viewing space;
A detection unit for detecting an object in the viewing space;
A control unit,
When the control unit detects that the object has moved in the internal direction of the display object after the object has contacted the display object, the control unit changes the display object, and a contact time from the contact is a predetermined time. Determine whether or not
If it determines with the said contact time being more than predetermined time, it will determine with the said display thing being an operation target.
前記制御部は、前記接触時間が前記所定時間よりも短いと判定すると、前記表示物が操作対象でないと判定する
請求項1に記載の表示機器。
The display device according to claim 1, wherein the control unit determines that the display object is not an operation target when it determines that the contact time is shorter than the predetermined time.
前記制御部は、前記接触時間が前記所定時間よりも短いと判定すると、前記物体が前記表示物の外部方向へ移動しているかを判定し、当該外部方向へ移動していると判定すると、前記表示物の変化を元に戻す逆変化の表示を行う
請求項1に記載の表示機器。
When the control unit determines that the contact time is shorter than the predetermined time, the control unit determines whether the object is moving in the external direction of the display object, and determines that the object is moving in the external direction, The display device according to claim 1, wherein a reverse change is displayed to restore the change of the display object.
前記制御部は、前記接触時間が前記所定時間よりも短いと判定すると、前記物体が前記表示物の外部方向へ移動しているかを判定し、当該外部方向へ移動していると判定すると、前記表示物を振動させる
請求項1に記載の表示機器。
When the control unit determines that the contact time is shorter than the predetermined time, the control unit determines whether the object is moving in the external direction of the display object, and determines that the object is moving in the external direction, The display device according to claim 1, wherein the display object is vibrated.
前記制御部は、前記物体が前記表示物に接触してから当該物体が当該表示物の内部方向に移動したことを検出すると、当該物体の移動に合わせて当該表示物を変位させるとともに、前記接触からの接触時間が所定時間以上か否かを判定し、When the control unit detects that the object has moved in the internal direction of the display object after the object has contacted the display object, the control unit displaces the display object in accordance with the movement of the object, and the contact It is determined whether the contact time from is a predetermined time or more,
前記接触時間が所定時間以上であると判定すると、前記表示物が操作対象であると判定するIf it determines with the said contact time being more than predetermined time, it will determine with the said display thing being an operation target
請求項1から4の何れか一項に記載の表示機器。The display device according to any one of claims 1 to 4.
前記制御部は、前記表示物が操作対象であると判定すると、当該表示物の色を変更する、または、音または振動による通知を行うWhen the control unit determines that the display object is an operation target, the control unit changes the color of the display object or performs notification by sound or vibration.
請求項1から5の何れか一項に記載の表示機器。The display device according to any one of claims 1 to 5.
JP2015252372A 2015-12-24 2015-12-24 Display device Active JP6126195B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015252372A JP6126195B2 (en) 2015-12-24 2015-12-24 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015252372A JP6126195B2 (en) 2015-12-24 2015-12-24 Display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011143070A Division JP5864144B2 (en) 2011-06-28 2011-06-28 Display device

Publications (2)

Publication Number Publication Date
JP2016042391A JP2016042391A (en) 2016-03-31
JP6126195B2 true JP6126195B2 (en) 2017-05-10

Family

ID=55592068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015252372A Active JP6126195B2 (en) 2015-12-24 2015-12-24 Display device

Country Status (1)

Country Link
JP (1) JP6126195B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3939709B2 (en) * 2004-04-30 2007-07-04 日本電信電話株式会社 Information input method and information input / output device
JP4706409B2 (en) * 2005-09-20 2011-06-22 ソニー株式会社 Input display device and input display method
WO2008062586A1 (en) * 2006-11-22 2008-05-29 Sharp Kabushiki Kaisha Display, display method, display program, and recording medium
WO2011044936A1 (en) * 2009-10-14 2011-04-21 Nokia Corporation Autostereoscopic rendering and display apparatus

Also Published As

Publication number Publication date
JP2016042391A (en) 2016-03-31

Similar Documents

Publication Publication Date Title
JP5864144B2 (en) Display device
JP5694883B2 (en) Display device
JP5785753B2 (en) Electronic device, control method, and control program
US8872854B1 (en) Methods for real-time navigation and display of virtual worlds
JP5774387B2 (en) Display device
JP5852346B2 (en) Display device, control system and control program
JP5715007B2 (en) Display device
EP2630563B1 (en) Apparatus and method for user input for controlling displayed information
WO2012133226A1 (en) Electronic apparatus, control method, and control program
US11886643B2 (en) Information processing apparatus and information processing method
US9619048B2 (en) Display device
JP6159069B2 (en) Display device
JP6126195B2 (en) Display device
JP5815303B2 (en) Electronic device, control method, and control program
WO2012090920A1 (en) Content display device, content display method, and recording medium
JP2016189194A (en) Display device, control method, and control program
JP2015109092A (en) Display device
JP5977415B2 (en) Electronic device, control method, and control program
JP5926008B2 (en) Electronic device, control method, and control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170406

R150 Certificate of patent or registration of utility model

Ref document number: 6126195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150