JP2005071332A - Portable terminal equipment and image display method - Google Patents

Portable terminal equipment and image display method Download PDF

Info

Publication number
JP2005071332A
JP2005071332A JP2004210670A JP2004210670A JP2005071332A JP 2005071332 A JP2005071332 A JP 2005071332A JP 2004210670 A JP2004210670 A JP 2004210670A JP 2004210670 A JP2004210670 A JP 2004210670A JP 2005071332 A JP2005071332 A JP 2005071332A
Authority
JP
Japan
Prior art keywords
image
information
block
terminal device
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004210670A
Other languages
Japanese (ja)
Other versions
JP2005071332A5 (en
Inventor
Toshikazu Otsuki
俊和 大槻
Katsunori Orimoto
勝則 折本
Toshinori Hijiri
利紀 樋尻
Akira Kamisaki
亮 上崎
Yoshiyuki Mochizuki
義幸 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004210670A priority Critical patent/JP2005071332A/en
Publication of JP2005071332A publication Critical patent/JP2005071332A/en
Publication of JP2005071332A5 publication Critical patent/JP2005071332A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide portable terminal equipment that improves convenience of viewing and searching of image information by a user, displaying more image information arranged for easy understanding even if a small-sized screen is used, by using three dimensional computer graphics technology. <P>SOLUTION: The portable terminal equipment 100 includes an object section 100a for generating and storing various objects constructing three dimensional objects, a database section 100b for storing information to be displayed with the three dimensional objects, a key input section 100c for executing input processing according to input keys such as cursor keys, a drawing section 100d for drawing the various objects transferred from the object section 100a based on arrangement information, and a display section 100e for generating and displaying an image to be displayed on a screen. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、デジタル画像やデジタル動画を画面に表示する携帯電話やPDA等の携帯端末機器に関し、特に、3次元表示技術を用いてオブジェクトを生成して画面に表示する携帯端末機器に関するものである。   The present invention relates to a portable terminal device such as a mobile phone or a PDA that displays a digital image or a digital moving image on a screen, and more particularly to a portable terminal device that generates an object using a three-dimensional display technology and displays the object on a screen. .

近年のデジタルカメラやビデオカメラの普及により、個人の持つデジタル画像やデジタル映像は増加しており、また現行の携帯電話機については、ほとんどのモデルがデジタルカメラ機能を搭載しているため、特に携帯電話機にはユーザが撮影した大量の画像が記憶されている。このような状況の中、ユーザが撮影して端末機器に蓄積された大量のデジタル画像をどのように利用、選択するかが課題となってきている。   With the spread of digital cameras and video cameras in recent years, the number of digital images and digital images possessed by individuals has increased, and most current mobile phones are equipped with a digital camera function. Stores a large number of images taken by the user. Under such circumstances, it has become an issue how to use and select a large amount of digital images that are photographed by the user and stored in the terminal device.

そして、デジタル画像の利用法としては、例えば一連の関連ある画像をアルバムとしてまとめたり、撮影された人物の顔を変形させたり、いわゆるプリクラといったデジタル画像に別の縁取りを組み合わせる等のアプリケーションがある。しかし、このようなデジタル画像のアプリケーションの利用においても、利用するデジタル画像を多くのデジタル画像から選択する必要がある。   For example, digital images can be used by collecting a series of related images as an album, deforming a photographed person's face, or combining another border with a digital image such as a so-called photo book. However, even in the use of such digital image applications, it is necessary to select a digital image to be used from many digital images.

従来、PC、携帯電話機、PDA、モニタつきカメラ等においては、大量のデジタル画像から好みの写真を閲覧及び選択するために、複数のデジタル画像を画面内に縮小表示して配列するサムネイル方式による表示法が一般的である。   Conventionally, in a PC, a mobile phone, a PDA, a camera with a monitor, etc., in order to view and select a favorite photo from a large number of digital images, a thumbnail display in which a plurality of digital images are reduced and arranged on the screen The law is common.

そして、サムネイルによる表示方法を3次元に拡張した表示方法として、3次元表示処理装置及び方法並びにその制御プログラムを記録した媒体が開示されている(例えば、特許文献1参照)。この3次元表示装置では、評価値を持つ多くの入力データを3次元空間に一覧表示可能な表示画像として配置することにより、ユーザは3次元空間内をウォークスルーして入力データを比較することを可能とする。
特開平11−231993号公報
As a display method in which the thumbnail display method is extended to three dimensions, a three-dimensional display processing apparatus and method and a medium on which a control program is recorded are disclosed (for example, see Patent Document 1). In this three-dimensional display device, by arranging a lot of input data having evaluation values as display images that can be displayed as a list in the three-dimensional space, the user can walk through the three-dimensional space and compare the input data. Make it possible.
Japanese Patent Laid-Open No. 11-231993

しかしながら、上述した従来のサムネイル表示方法では、携帯端末機器の小型の画面に大量のデジタル画像を表示しようとすると、表示画面の大きさに限定があると共に、デジタル画像の表示面積が大きくなるために、ユーザは頻繁に画面をスクロールさせたり、切り替えたりしなければならない。従って、携帯端末機器等の小型の表示画面に用いるサムネイル表示方法では、ユーザ操作が煩雑となるという問題がある。   However, in the conventional thumbnail display method described above, when a large amount of digital images are displayed on a small screen of a mobile terminal device, the size of the display screen is limited and the display area of the digital image increases. The user must scroll and switch the screen frequently. Therefore, the thumbnail display method used for a small display screen of a mobile terminal device or the like has a problem that the user operation becomes complicated.

また、従来のサムネイル表示方法においては、通常撮影した順番にサムネイル画像が縮小表示して並べられるため、ユーザは多数の画像間の関係や、日時、昼夜等の時間関係が判断しづらい。また、ユーザは画像に関連する情報を検索するために表示画面を切り替える必要がある。このように、サムネイル表示においては、ユーザは大量のデジタル画像毎に有する複雑多岐な情報が分かりにくい上に、好みの画像を検索しづらいという問題もある。   Further, in the conventional thumbnail display method, thumbnail images are reduced and arranged in the order of normal shooting, so that it is difficult for the user to determine the relationship between a large number of images and the time relationship such as date and time. Further, the user needs to switch the display screen in order to search for information related to the image. As described above, in the thumbnail display, there is a problem that it is difficult for the user to find a variety of complicated information for each large amount of digital images and it is difficult to search for a favorite image.

本発明は、前記課題に鑑み、携帯端末機器の備える小型の画面において、画面サイズが小さくても、より多くの画像に関連する情報を分かり易く表示して、ユーザの画像検索、情報閲覧等における利便性を向上させた携帯端末機器を提供することを第一の目的とする。   In view of the above-mentioned problems, the present invention displays information related to more images in an easy-to-understand manner even when the screen size is small on a small screen included in a mobile terminal device, so that the user can search for images, browse information, etc. The first object is to provide a portable terminal device with improved convenience.

また、画像と共に画像の持つ様々な関連情報を分かり易く表示して、ユーザが画面を切り替えることなく、好みの画像を選択できる携帯端末機器を提供することを第二の目的とする。さらに、携帯端末機器の画面に画像を視覚的に美しく表示して、ユーザ操作における娯楽性を高めた表示法を行う携帯端末機器を提供することを第三の目的とする。   A second object of the present invention is to provide a mobile terminal device that displays various related information of an image together with the image in an easy-to-understand manner and allows the user to select a favorite image without switching the screen. It is a third object of the present invention to provide a mobile terminal device that displays a picture visually and beautifully on the screen of the mobile terminal device and performs a display method with enhanced entertainment in user operations.

前記課題を解決するために、本発明に係る携帯端末機器は、オブジェクトを生成するオブジェクト生成手段と、デジタル画像に関連する情報である関連情報の内容毎のテクスチャ画像を生成するテクスチャ生成手段と、デジタル画像及び前記テクスチャ生成手段において生成された前記テクスチャ画像を前記オブジェクト生成手段において生成された前記オブジェクトにテクスチャマッピングして画像オブジェクトを作成する付与手段と、複数の前記画像オブジェクトを前記関連情報に基づいて3次元空間中に配列してなるブロックオブジェクトを生成するブロック生成手段と、前記ブロックオブジェクトの画像を生成する画像生成手段と、前記画像生成手段において生成された画像を表示する表示手段とを備えることを特徴とする。   In order to solve the above-described problem, a mobile terminal device according to the present invention includes an object generation unit that generates an object, a texture generation unit that generates a texture image for each content of related information that is information related to a digital image, Based on the related information, the digital image and the texture image generated by the texture generating unit are texture-mapped to the object generated by the object generating unit to create an image object, and the plurality of image objects are based on the related information. Block generating means for generating block objects arranged in a three-dimensional space, image generating means for generating images of the block objects, and display means for displaying images generated by the image generating means. It is characterized by that.

また、本発明に係る携帯端末機器の前記オブジェクト生成手段は、3次元オブジェクトを生成し、前記付与手段は、前記デジタル画像を前記3次元オブジェクトの正面に、前記関連情報を前記3次元オブジェクトの側面にテクスチャマッピングして画像オブジェクトを作成し、前記ブロック生成手段は、前記関連情報に基づいて複数の前記画像オブジェクトを多面体を構成するように3次元空間中に配置してブロックオブジェクトを生成し、前記画像生成手段は、前記ブロックオブジェクトの画像を生成し、前記表示手段は、当該画像を表示することを特徴とする。   Further, the object generation means of the mobile terminal device according to the present invention generates a three-dimensional object, and the provision means provides the digital image in front of the three-dimensional object and the related information as a side surface of the three-dimensional object. The block generation means generates a block object by arranging a plurality of the image objects in a three-dimensional space so as to form a polyhedron based on the related information. The image generation means generates an image of the block object, and the display means displays the image.

従って、携帯端末機器の画面に3次元コンピュータグラフィックス技術を用いて3次元オブジェクトを作成でき、複数の画像と画像の持つ様々な情報を携帯端末の小さな画面でも分かり易く表示でき、ユーザは同時に少なくとも2つの関連情報を参照することができ、より多くの情報を用いてユーザによるデジタル画像の検索効率を高めることが出来る。   Therefore, a 3D object can be created on the screen of the mobile terminal device using 3D computer graphics technology, and various images and various information included in the images can be easily displayed on a small screen of the mobile terminal. Two pieces of related information can be referred to, and the search efficiency of a digital image by a user can be improved using more information.

さらに、本発明に係る携帯端末機器のオブジェクト生成手段は、2次元オブジェクトを生成し、前記付与手段は、前記第一テクスチャ画像を前記2次元オブジェクトの正面に、前記第二テクスチャ画像を前記2次元オブジェクトの外周部の一部又は全部に貼り付けて画像オブジェクトを作成し、前記ブロック生成手段は、前記関連情報に基づいて、後方に位置する画像オブジェクトの少なくとも一部が認識可能となるように、複数の2次元の前記画像オブジェクトを3次元空間中に斜め方向に配置して、ブロックオブジェクトを生成し、前記画像生成手段は、前記ブロックオブジェクトの画像を生成し、前記表示手段は、当該画像を表示することを特徴とする。   Furthermore, the object generation means of the mobile terminal device according to the present invention generates a two-dimensional object, and the assigning means places the first texture image in front of the two-dimensional object and the second texture image as the two-dimensional object. An image object is created by pasting a part or all of the outer periphery of the object, and the block generation unit can recognize at least a part of the image object located behind based on the related information. A plurality of two-dimensional image objects are arranged obliquely in a three-dimensional space to generate a block object, the image generation unit generates an image of the block object, and the display unit displays the image It is characterized by displaying.

このため、ユーザは最手前の2次元の画像オブジェクト以外に奥行き方向に位置する他の画像オブジェクトの表示内容が確認できるため、より画像選択における利便性を向上できる。また、画像オブジェクトには関連情報が付与されているため、ユーザの画像選択をより容易化できる。   For this reason, since the user can confirm the display contents of other image objects located in the depth direction in addition to the frontmost two-dimensional image object, the convenience in image selection can be further improved. Further, since related information is given to the image object, the user can select an image more easily.

尚、本発明は、上述のような携帯端末機器として実現できるのみではなく、この携帯端末機器が備える手段をステップとする画像表示方法、この画像表示方法をコンピュータ等で実現させるプログラムとして実現したりすることができる。そして、当該プログラムをCD−ROM等の記録媒体や通信ネットワーク等の伝送媒体を介して流通させることができるのは言うまでもない。   The present invention can be realized not only as a portable terminal device as described above, but also as an image display method using steps included in the portable terminal device as a step, and as a program for realizing the image display method on a computer or the like. can do. Needless to say, the program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as a communication network.

以上のように本発明に係る携帯端末機器のユーザは画面に3次元コンピュータグラフィックス技術を用いて3次元オブジェクトを作成することにより、複数の画像と画像の持つ様々な情報を携帯端末の小さな画面でも分かり易く表示することが可能となる。すなわち、写真を3次元のブロックオブジェクトを用いて表示することより、画像情報と同時に少なくとも2つの関連情報を参照することが出来るため、画像以外に関連情報を用いてユーザによるデジタル画像の検索効率を高めることが出来る。また、カラフルなブロックオブジェクトがふきだし表示等と共に画面に表示されるため、画像を画面に美しく表示して、携帯端末機器のユーザの娯楽性を高めることができる。   As described above, the user of the portable terminal device according to the present invention creates a three-dimensional object on the screen by using the three-dimensional computer graphics technology, and thereby displays a plurality of images and various information included in the images on a small screen of the portable terminal. However, it becomes possible to display it in an easy-to-understand manner. That is, by displaying a photograph using a three-dimensional block object, it is possible to refer to at least two pieces of related information simultaneously with the image information. Can be increased. In addition, since colorful block objects are displayed on the screen together with the speech bubble display and the like, the image can be displayed beautifully on the screen, and the entertainment of the user of the mobile terminal device can be enhanced.

そして、携帯端末機器のユーザは、2次元の画像オブジェクトとすることにより奥行き方向に位置する画像オブジェクトの内容を確認しながら検索できると共に、複数の配列方法から好みの画像オブジェクトの配列方法を選択でき、画像オブジェクトの表示法を多様化できる。   Then, the user of the mobile terminal device can search while confirming the contents of the image object positioned in the depth direction by using a two-dimensional image object, and can select a preferred method of arranging the image object from a plurality of arrangement methods. The display method of the image object can be diversified.

以下、本発明の実施の形態に係る携帯端末機器について図面を用いて説明する。尚、本発明に係る携帯端末機器は、例えば、小型の画面を有する携帯電話機、PDA、カーナビゲーション装置、或いはデジタルカメラ機等である。
(実施の形態1)
図1は、本実施の形態1に係る携帯端末機器100の機能構成の一例を示すブロック図である。携帯端末機器100は、オブジェクト部100a、データベース部100b、キー入力部100c、描画部100d、及び表示部100eにより構成される。以下詳細の説明を行う。
Hereinafter, a mobile terminal device according to an embodiment of the present invention will be described with reference to the drawings. The mobile terminal device according to the present invention is, for example, a mobile phone having a small screen, a PDA, a car navigation device, or a digital camera machine.
(Embodiment 1)
FIG. 1 is a block diagram illustrating an example of a functional configuration of the mobile terminal device 100 according to the first embodiment. The mobile terminal device 100 includes an object unit 100a, a database unit 100b, a key input unit 100c, a drawing unit 100d, and a display unit 100e. Details will be described below.

尚、本実施の形態1に係る携帯端末機器100は、デジタル画像やデジタル動画像、また画像や動画像に関連付けられた関連情報を表示するための小画面を有し、サムネイル表示方式でなく、3次元CG技術を用いて大量の画像を、画像の持つ関連情報に基づいて奥行き方向に並べたブロックオブジェクトとして扱うことを特徴とする。   The mobile terminal device 100 according to the first embodiment has a small screen for displaying a digital image, a digital moving image, and related information associated with the image or moving image, and is not a thumbnail display method. A feature is that a large amount of images are handled as block objects arranged in the depth direction based on related information of the images using a three-dimensional CG technique.

図1に示すオブジェクト部100aは、画像オブジェクトを構成する各種のオブジェクトを生成、記憶等行う管理部であり、オブジェクト管理部200、オブジェクト生成部210、テクスチャ生成部220、モデル生成部230、及びオブジェクト記憶部240より構成される。   An object unit 100a illustrated in FIG. 1 is a management unit that generates and stores various objects constituting an image object, and includes an object management unit 200, an object generation unit 210, a texture generation unit 220, a model generation unit 230, and an object. The storage unit 240 is configured.

テクスチャ生成部220は、オブジェクト管理部200のデータテーブルからオブジェクト生成部210を介して渡される画像毎に関連する関連情報、例えば「ジャンル」、「優先度」、「撮影時間」、「参照回数」等を予め内部に保持したフォント画像データと組み合わせて色分け、形状分け、模様分け、又はグラデーションされたテクスチャ画像を生成する。また、このテクスチャ画像には、携帯端末機器のヘルプ情報等を表示する文字情報も含まれる。   The texture generation unit 220 is related information related to each image passed from the data table of the object management unit 200 via the object generation unit 210, for example, “genre”, “priority”, “shooting time”, “reference count”. Etc. are combined with font image data stored in advance in advance to generate texture images that are color-coded, shape-divided, patterned, or gradated. The texture image also includes character information for displaying help information of the mobile terminal device.

モデル生成部230は、オブジェクト生成部210より指示を受け、テクスチャ生成部220において生成されたテクスチャ画像を貼り付けるオブジェクトモデルを生成する。また、オブジェクトモデルに撮影されたテクスチャ画像を貼り付けて画像オブジェクトを生成し、複数の画像オブジェクトを3次元空間中に配列することにより画面に表示されるブロックオブジェクトが生成される。   The model generation unit 230 receives an instruction from the object generation unit 210 and generates an object model to which the texture image generated in the texture generation unit 220 is pasted. In addition, a texture object photographed on the object model is pasted to generate an image object, and a block object displayed on the screen is generated by arranging a plurality of image objects in a three-dimensional space.

尚、オブジェクトモデルとしては、3次元的な座標を有するポリゴンモデルがある。このポリゴンモデルは4頂点の3次元空間における頂点座標と、各頂点に対応するテクスチャ座標を持っている。尚、ポリゴンモデルは4頂点を持った板状のポリゴンモデルだけでなく、球や直方体といったプリミティブやポリゴンにより構成される物体でも構わない。   An object model is a polygon model having three-dimensional coordinates. This polygon model has vertex coordinates in a three-dimensional space of four vertices and texture coordinates corresponding to each vertex. The polygon model is not limited to a plate-like polygon model having four vertices, but may be a primitive or polygonal object such as a sphere or a rectangular parallelepiped.

オブジェクト生成部210は、テクスチャ生成部220で生成されたテクスチャ画像をモデル生成部230で生成されたオブジェクトモデルに貼り付けて関連情報が側面に貼り付けられた画像オブジェクトを生成する。この画像オブジェクトを立方体を形成するように奥行き方向に配列することによりブロックオブジェクトが生成される。   The object generation unit 210 pastes the texture image generated by the texture generation unit 220 to the object model generated by the model generation unit 230 and generates an image object in which related information is pasted on the side surface. A block object is generated by arranging the image objects in the depth direction so as to form a cube.

オブジェクト記憶部240は、オブジェクト管理部200からの指示に従い、オブジェクト生成部210において生成されたブロックオブジェクト、画像オブジェクト等を記憶する。   The object storage unit 240 stores block objects, image objects, and the like generated by the object generation unit 210 in accordance with instructions from the object management unit 200.

オブジェクト管理部200は、描画制御部600からの指示に従いシーン生成に必要な各種のオブジェクトの生成をオブジェクト生成部210に指示すると共に、情報管理部101に画像オブジェクト、ブロックオブジェクト等のオブジェクト毎のデータテーブルの作成を要求する。   The object management unit 200 instructs the object generation unit 210 to generate various objects necessary for scene generation in accordance with instructions from the drawing control unit 600, and also transmits data for each object such as an image object and a block object to the information management unit 101. Request creation of a table.

図1に示すデータベース部100bは、3次元オブジェクトに表示される画像に関する様々な情報を記憶し、情報管理部101、画像記憶部110、情報記憶部120、画像処理部130、及び情報入力部140の5つの処理部により構成される。   The database unit 100b illustrated in FIG. 1 stores various information related to images displayed on the three-dimensional object, and includes an information management unit 101, an image storage unit 110, an information storage unit 120, an image processing unit 130, and an information input unit 140. These five processing units are included.

情報管理部101は、画像記憶部110及び情報記憶部120に記憶されている情報を画像ID及び関連情報IDにより管理している。この情報管理部101は、オブジェクト管理部200からの指示に従い各記憶部110及び120に記憶されている情報を記載したデータテーブルを作成してオブジェクト管理部200に渡す。   The information management unit 101 manages information stored in the image storage unit 110 and the information storage unit 120 using the image ID and the related information ID. The information management unit 101 creates a data table in which information stored in each of the storage units 110 and 120 is written according to an instruction from the object management unit 200 and passes the data table to the object management unit 200.

画像記憶部110は、画面に表示されるデジタル画像の実体を記憶しているハードディスクであり、携帯電話機においてはSDカード等のメモリカードでも良い。この画像記憶部110は、画像IDを用いて各デジタル画像を管理し、情報管理部101からの指示に従って選択されたデジタル画像を送信する。尚、動画の撮影が可能な携帯端末機器100においては画像記憶部110にデジタル動画を記録することが可能である。   The image storage unit 110 is a hard disk that stores an entity of a digital image displayed on the screen, and may be a memory card such as an SD card in a mobile phone. The image storage unit 110 manages each digital image using the image ID, and transmits the selected digital image according to an instruction from the information management unit 101. Note that the mobile terminal device 100 capable of shooting a moving image can record a digital moving image in the image storage unit 110.

情報記憶部120は、画像に関連付けられた関連情報を記憶する。この関連情報としては、例えば、デジタルカメラの標準規格であるExif形式のフォーマットにより撮影時に自動的に付与される情報である、携帯端末機器のメーカー、機種、焦点距離、画像の作成時刻や撮影時刻、日付、動画を表示する場合はその収録時間、画像のサイズ、明るさ、色合いがある。また、画像処理部130により画像中から抽出される情報や、情報入力部140を介してユーザが入力した情報、例えば撮影場所、お気に入り度、優先度、ジャンル、参照回数等の撮影内容に関する様々な情報や、GPS付のカメラで撮影された画像からは撮影場所の情報である。尚、情報記憶部120においては、デジタル画像毎に固有の情報となる関連情報を画像IDと関連付けたIDにより管理して記憶している。   The information storage unit 120 stores related information associated with an image. Examples of the related information include, for example, information automatically provided at the time of shooting in the format of the Exif format, which is a standard of a digital camera, the mobile terminal device manufacturer, model, focal length, image creation time, and shooting time. When displaying a date and a movie, there are recording time, image size, brightness, and hue. In addition, information extracted from the image by the image processing unit 130 and information input by the user via the information input unit 140, such as various shooting contents such as a shooting location, a favorite level, a priority, a genre, a reference count, and the like. From information and images taken with a camera with GPS, it is information on the shooting location. The information storage unit 120 manages and stores related information, which is unique information for each digital image, using an ID associated with an image ID.

画像処理部130は、画像中から特徴情報を抽出する。この画像中から抽出する特徴情報の例としては、画像に含まれる肌色領域の面積から求まる画像中に含まれる人物領域の大小や、顔認識技術を用いて「妻」や「子供」等の特定の人物が含まれるかどうかといった情報や特定人物の出現頻度、また色合いの情報から緑が多い自然の風景であることなどの情報が抽出される。また、画像中に含まれる輝度情報を用いて昼夜、部屋の中等の情報、晴雨等の情報も抽出される。そして、画像処理部130は、画像中から抽出した特徴情報を関連情報として情報記憶部120に記録する。   The image processing unit 130 extracts feature information from the image. Examples of feature information extracted from this image include the size of the human area included in the image obtained from the area of the skin color area included in the image, and identification of “wife” or “child” using face recognition technology. Information such as whether or not a person is included, the appearance frequency of a specific person, and information on a natural landscape with a lot of green are extracted from information on hue. In addition, information such as day and night, in the room, and information such as fine rain are also extracted using the luminance information included in the image. Then, the image processing unit 130 records the feature information extracted from the image in the information storage unit 120 as related information.

情報入力部140は、ユーザが直接入力して情報記憶部120に記憶されている画像に関連する関連情報を入力、更新等するための処理部である。入力される情報は「お気に入り度」、「撮影場所」、「撮影者」等である。また、この新たに入力される情報は、情報管理部101を介して関連情報として画像IDに関連付けて情報記憶部120に渡される。   The information input unit 140 is a processing unit for inputting, updating, and the like related information related to an image directly input by a user and stored in the information storage unit 120. Input information includes “favorite degree”, “photographing place”, “photographer”, and the like. The newly input information is passed to the information storage unit 120 as related information via the information management unit 101 in association with the image ID.

キー入力部100cは、ユーザ操作のために携帯端末機器100に設けられる入力ボタン等の入力部及び制御部より構成される。
カーソルキー入力部300は、携帯端末機器100に設けられている上下左右の4方向のキーで構成され、一般に十字キーと呼ばれる操作ボタンである。カーソルキー制御部310は、携帯端末機器100のユーザによるカーソルキー入力部300の入力に従って画面上のカーソル位置の制御をイベント制御部400に伝える。
The key input unit 100c includes an input unit such as an input button provided on the mobile terminal device 100 for user operation and a control unit.
The cursor key input unit 300 is composed of four-way keys provided in the mobile terminal device 100, and is an operation button generally called a cross key. The cursor key control unit 310 transmits control of the cursor position on the screen to the event control unit 400 according to the input of the cursor key input unit 300 by the user of the mobile terminal device 100.

ここでカーソルオブジェクトを配置する座標の求め方について説明すると、携帯端末機器100のユーザからの入力に応じて、カーソルキー入力部300は、カーソル制御部310に上下左右それぞれのキーに一対一対応したキーの識別子であるキーコードを送る。   Here, how to obtain the coordinates at which the cursor object is arranged will be described. In response to an input from the user of the mobile terminal device 100, the cursor key input unit 300 has a one-to-one correspondence with the cursor control unit 310 on each of the upper, lower, left, and right keys. Send a key code that is the identifier of the key.

カーソル制御部310は、どの方向のキーコードが入力されたのかをイベント制御部400に渡す。本発明では表示モード毎に、上下左右のキーコード入力によってカーソルが3次元空間中のどの方向に移動するかが異なるため、イベント制御部400は、モード制御部370により設定される表示モードと、カーソルの上下左右と3次元空間中での方向の対応関係をあらかじめデータテーブルとして保持している。そして、イベント制御部400はこのデータテーブルに従って、カーソルの3次元空間中での移動方向を描画制御部600に渡す。例えば、ブロック表示モードの場合は、カーソルの上下左右はそれぞれ3次元空間中での、y軸負方向、y軸正方向、x軸負方向、x軸正方向への移動を意味する。   The cursor control unit 310 passes to the event control unit 400 which direction the key code has been input. In the present invention, since the direction in which the cursor moves in the three-dimensional space differs depending on the display mode key code input for each display mode, the event control unit 400 includes a display mode set by the mode control unit 370, The correspondence between the cursor's up / down / left / right direction and the direction in the three-dimensional space is stored in advance as a data table. Then, the event control unit 400 passes the movement direction of the cursor in the three-dimensional space to the drawing control unit 600 according to the data table. For example, in the block display mode, the top, bottom, left, and right of the cursor mean movement in the y-axis negative direction, the y-axis positive direction, the x-axis negative direction, and the x-axis positive direction, respectively, in a three-dimensional space.

ここで、カーソルオブジェクトの配置方法を説明すると、描画制御部600は、オブジェクトの配置情報とカーソルの移動方向から、どのオブジェクトが選択されているのかを判定し、カーソルによって選択されているオブジェクトのIDをシーン生成部610に渡す。シーン生成部610は、選択されているオブジェクトの座標から、カーソルの座標を求め、カーソルオブジェクトを配置する。   Here, the arrangement method of the cursor object will be described. The drawing control unit 600 determines which object is selected from the object arrangement information and the moving direction of the cursor, and the ID of the object selected by the cursor. To the scene generation unit 610. The scene generation unit 610 obtains the coordinates of the cursor from the coordinates of the selected object, and arranges the cursor object.

決定キー入力部320は、携帯端末機器100のユーザが複数の表示情報より情報を決定する場合において用いられる操作ボタンであり、携帯端末機器100のユーザが複数の画像オブジェクトの中から好みの画像オブジェクトを決定する際に用いる。   The enter key input unit 320 is an operation button used when the user of the mobile terminal device 100 determines information from a plurality of display information, and the user of the mobile terminal device 100 selects a desired image object from among a plurality of image objects. Used to determine

決定キー制御部330は、決定キー入力部320により入力された決定キーのキーコードから、イベント制御部400に決定キーの状態を渡す。例えば、決定キー入力部320により、特定の画像が決定されると、イベント制御部400は選択された画像を情報出力部500に渡す。   The determination key control unit 330 passes the state of the determination key to the event control unit 400 from the key code of the determination key input by the determination key input unit 320. For example, when a specific image is determined by the determination key input unit 320, the event control unit 400 passes the selected image to the information output unit 500.

キャンセルキー入力部340は、ユーザの入力に従って一度選択した情報をキャンセルするための操作ボタンである。
キャンセルキー制御部350は、キャンセルキー入力部340により入力されたキャンセルキーのキーコードから、イベント制御部400にキャンセルキーの状態を渡す。イベント制御部400は、各制御部からの情報に基づいてキャンセルが行われる以前の表示を行う。例えば、モード制御部370においては前に選択した表示モードの履歴、視点制御部390においては前に選択した視点位置の履歴が保持されておりキャンセルキー入力部340を用いることで、前に選択した表示モードや視点位置に戻ることが出来る。
The cancel key input unit 340 is an operation button for canceling information once selected in accordance with a user input.
The cancel key control unit 350 passes the cancel key state to the event control unit 400 from the key code of the cancel key input by the cancel key input unit 340. The event control unit 400 performs display before cancellation is performed based on information from each control unit. For example, the mode control unit 370 holds the history of the previously selected display mode, and the viewpoint control unit 390 holds the history of the previously selected viewpoint position. The cancel key input unit 340 is used to select the previously selected display mode history. You can return to the display mode or viewpoint position.

モード選択部360は、携帯端末機器100のユーザが本発明に係る表示モードを選択する入力部であり、また、モード制御部370は、モード選択部360において選択された表示モードをイベント制御部400に伝える。   The mode selection unit 360 is an input unit for the user of the mobile terminal device 100 to select a display mode according to the present invention, and the mode control unit 370 selects the display mode selected by the mode selection unit 360 from the event control unit 400. To tell.

視点変更部380は、携帯端末機器100のユーザが画面に表示されるオブジェクトの視点を変更するために、画面に表示される画像をズーム、スクロール、及び回転するために、ズームアップキー、ズームダウンキー、上下左右スクロールキー、x軸回転キー、y軸回転キー、及びz軸回転キーの9つのキー入力部から構成される操作ボタンである。   The viewpoint changing unit 380 is a zoom-up key and zoom-down key for zooming, scrolling, and rotating the image displayed on the screen in order for the user of the mobile terminal device 100 to change the viewpoint of the object displayed on the screen. This is an operation button composed of nine key input units, a key, an up / down / left / right scroll key, an x-axis rotation key, a y-axis rotation key, and a z-axis rotation key.

視点制御部390は、視点変更部380から送られ、それぞれのキーに一対一対応した識別子であるキーコードを受け取ることにより、視点座標を求め、描画制御部600を介してシーン生成部610に視点座標を渡す。また、イベント制御部400にも視点変更を伝える。   The viewpoint control unit 390 obtains viewpoint coordinates by receiving a key code that is an identifier corresponding to each key, sent from the viewpoint changing unit 380, and sends the viewpoint coordinates to the scene generation unit 610 via the drawing control unit 600. Pass the coordinates. Also, the event control unit 400 is notified of the viewpoint change.

描画部100dは、オブジェクト管理部200より渡されたオブジェクトを配置情報に基づいて描画してゆく処理部である。
描画制御部600は、イベント制御部400より表示モードの指示を受ける。そして、オブジェクト管理部200に選択された表示モードに必要なオブジェクトの生成の指示を行うと共に、オブジェクト管理部200より生成されたオブジェクトを受け取る。また、視点制御部370よりズームアップやズームダウン等の視点変更の指示を受けるとシーン生成部610に視点変更された画像の生成を指示する。
The drawing unit 100d is a processing unit that draws the object passed from the object management unit 200 based on the arrangement information.
The drawing control unit 600 receives a display mode instruction from the event control unit 400. The object management unit 200 is instructed to generate an object necessary for the selected display mode, and receives the object generated from the object management unit 200. In addition, when an instruction to change the viewpoint such as zooming up or down is received from the viewpoint control unit 370, the scene generation unit 610 is instructed to generate an image whose viewpoint has been changed.

表示部100eは、携帯端末機器100の画面に表示される画像を生成して表示する処理部であり、シーン生成部610、画像生成部620、及び表示部630より構成される。   The display unit 100 e is a processing unit that generates and displays an image displayed on the screen of the mobile terminal device 100, and includes a scene generation unit 610, an image generation unit 620, and a display unit 630.

シーン生成部610は、描画制御部600からの指示に従い、生成された画像オブジェクトを配置情報記憶部640に記憶されている配置情報に従って3次元空間中に配置してブロックオブジェクトを生成すると共に、表示モードに基づいて他のオブジェクトの配置も行う。   The scene generation unit 610 generates a block object by arranging the generated image object in the three-dimensional space according to the arrangement information stored in the arrangement information storage unit 640 in accordance with an instruction from the drawing control unit 600 and displaying the block object. Other objects are also arranged based on the mode.

画像生成部620は、シーン生成部610が全てのオブジェクトを配置し終わると、ユーザが視点変更部360を介して選択した視点座標よりどのように3次元画像がどのように見えるのかを計算し、その結果を画像情報として表示部630に出力する。例えば、サムネイル表示モードが選択される場合には、描画制御部600により、視点は表示モードに一対一に対応した視点の初期位置に設定される。   When the scene generation unit 610 finishes arranging all objects, the image generation unit 620 calculates how the 3D image looks from the viewpoint coordinates selected by the user via the viewpoint change unit 360, The result is output to the display unit 630 as image information. For example, when the thumbnail display mode is selected, the drawing control unit 600 sets the viewpoint to the initial position of the viewpoint corresponding to the display mode on a one-to-one basis.

表示部630は、画像生成部620において生成された画像を携帯端末機器100の画面に表示する処理を行う。
イベント制御部400は、携帯端末機器100にユーザによって要求される表示モードの切り替え等の動作を実行するために、各制御部310等からの指示を受けると共に、各制御部310等へ指示を行う。
The display unit 630 performs processing for displaying the image generated by the image generation unit 620 on the screen of the mobile terminal device 100.
The event control unit 400 receives instructions from the control units 310 and the like and performs instructions to the control units 310 and the like in order to execute operations such as display mode switching requested by the user to the mobile terminal device 100. .

情報出力部500は、外部装置に情報を出力するための処理部であり、イベント制御部400からの画像添付のメール送信等の指示に従い、携帯端末機器100に備えられるメール作成装置等その他の装置に画像及び関連情報を出力する。外部装置の例としては、個人情報のメールアドレス宛にメールを作成するためのメール作成装置、個人情報の電話番号に電話をかけるための電話発信装置、個人情報の住所、情報を編集するための編集装置、画像を印刷するための印刷装置、外部記憶装置等がある。   The information output unit 500 is a processing unit for outputting information to an external device, and other devices such as a mail creation device provided in the mobile terminal device 100 in accordance with an instruction from the event control unit 400 such as mail transmission with an image attached. Output images and related information. As an example of an external device, a mail creation device for creating a mail addressed to a personal information email address, a telephone transmission device for making a call to a personal information telephone number, a personal information address, and information editing There are an editing device, a printing device for printing an image, an external storage device, and the like.

図2は、本実施の形態1に係る携帯端末機器100の画面表示の参考図である。本発明に係る携帯端末機器100の画面201には、カーソルの位置に合わせて画像のふきだしが表示されるサムネイル表示モードが表示されている。   FIG. 2 is a reference diagram of screen display of the mobile terminal device 100 according to the first embodiment. The screen 201 of the mobile terminal device 100 according to the present invention displays a thumbnail display mode in which a speech bubble is displayed in accordance with the position of the cursor.

このサムネイル表示モードにおいては、画面には画像オブジェクト301、ブロックオブジェクト401、カーソルオブジェクト501、フレームカーソルオブジェクト601、軸オブジェクト701、及びふきだしオブジェクト801が配置情報に基づいて配置される。そして、ユーザは画面201にブロックオブジェクトを表示することにより画像情報以外に、関連情報を同時に参照することができることができる。   In the thumbnail display mode, an image object 301, a block object 401, a cursor object 501, a frame cursor object 601, an axis object 701, and a speech bubble object 801 are arranged on the screen based on the arrangement information. Then, by displaying the block object on the screen 201, the user can refer to related information in addition to the image information.

次に、本実施の形態1に係る携帯端末機器100のオブジェクト生成部210において生成される各オブジェクトの説明を行う。本発明において使用されるオブジェクトには、画像オブジェクト301、ブロックオブジェクト401、カーソルオブジェクト501、フレームカーソルオブジェクト601、軸オブジェクト701、ふきだしオブジェクト801の6種類あり、各表示モードにおいて使用されるオブジェクトが異なる。   Next, each object generated in the object generation unit 210 of the mobile terminal device 100 according to the first embodiment will be described. There are six types of objects used in the present invention: an image object 301, a block object 401, a cursor object 501, a frame cursor object 601, an axis object 701, and a speech bubble object 801. The objects used in each display mode are different.

図3は、本実施の形態1の携帯端末機器100において表示される画像オブジェクト301の参考図及びデータテーブル302である。
図3(a)に示す画像オブジェクト301は、画像とその画像に関連する関連情報を可視化したオブジェクトであり、画像記憶部110に記憶されている2次元のテクスチャ画像と、3次元空間中に配置して描画するためのモデル生成部230において生成される3次元座標を有するポリゴンモデルとから構成される。
FIG. 3 is a reference diagram and a data table 302 of the image object 301 displayed on the mobile terminal device 100 according to the first embodiment.
An image object 301 shown in FIG. 3A is an object that visualizes an image and related information related to the image, and is arranged in a three-dimensional space with a two-dimensional texture image stored in the image storage unit 110. And a polygon model having a three-dimensional coordinate generated in the model generation unit 230 for drawing.

図3(b)に示すデータテーブル302には、画像オブジェクト301に関連付けられた情報が記載され、具体的には、画像記憶部110に記憶されている画像データID、モデル生成部230において生成されるポリゴンモデルID、画像オブジェクトの幅、高さ、画像サイズ、撮影された日付、色深度、Exifタグ、ユーザ定義タグ等が記載されている。尚、Exifタグとは、デジタルカメラの標準規格であり、撮影時に自動的に付与される情報、例えば、携帯端末機器のメーカー、機種、焦点距離等である。また、ユーザ定義タグは、情報入力部140を介して入力される情報、及び画像処理部130で抽出される情報であり、位置情報、お気に入り度等の情報を示す。   In the data table 302 shown in FIG. 3B, information associated with the image object 301 is described. Specifically, the image data ID stored in the image storage unit 110 is generated by the model generation unit 230. Polygon model ID, image object width, height, image size, date taken, color depth, Exif tag, user-defined tag, and the like. The Exif tag is a standard of a digital camera, and is information automatically given at the time of shooting, for example, the manufacturer, model, focal length, etc. of the mobile terminal device. The user-defined tag is information input via the information input unit 140 and information extracted by the image processing unit 130, and indicates information such as position information and favorite degree.

図4は、本実施の形態1の携帯端末機器100において表示されるブロックオブジェクト401の参考図及びデータテーブル402である。
図4(a)に示すブロックオブジェクト401は、複数の画像オブジェクトを直方体状に並べて配置して3次元のオブジェクトであり、ブロックオブジェクト401に含まれる画像オブジェクト301ごとの関連情報を可視化して側面にテクスチャとして貼り付ける。また、ブロックオブジェクト401に含まれる画像オブジェクト301は互いにアルバム的な一連の関連性を有する。
FIG. 4 is a reference diagram and a data table 402 of the block object 401 displayed on the mobile terminal device 100 according to the first embodiment.
A block object 401 shown in FIG. 4A is a three-dimensional object in which a plurality of image objects are arranged in a rectangular parallelepiped shape, and related information for each image object 301 included in the block object 401 is visualized on the side surface. Paste as texture. The image objects 301 included in the block object 401 have a series of album-like relationships with each other.

図4(b)に示すデータテーブル402には、ブロックオブジェクト401のアルバム名等のタイトルID、各画像オブジェクトID、各面に付与される情報の情報ID、画像の枚数及び画像オブジェクト数を示すフレームID、各画像オブジェクトの撮影日付、旅行場所の情報等のユーザ定義タグ、各画像オブジェクトの優先度、画像オブジェクトのID配列、ポリゴンモデルID等が記載される。   The data table 402 shown in FIG. 4B includes a frame ID indicating the title ID such as the album name of the block object 401, each image object ID, information ID of information given to each surface, the number of images, and the number of image objects. An ID, a user-defined tag such as a shooting date of each image object, travel location information, the priority of each image object, an ID array of the image object, a polygon model ID, and the like are described.

尚、ブロックオブジェクト401の正面に表示される画像には、例えば、京都旅行のアルバムにおいては「京都旅行での集合写真」等、画像中の代表画像、もしくはブロックオブジェクト401の持ついずれかの情報でソートしたときにもっとも値の高い画像、もしくは低い画像、もしくはユーザによって選択された画像をテクスチャ画像としてブロックオブジェクト401の正面にマッピングすることも考え得る。   The image displayed in front of the block object 401 is, for example, a representative image in the image such as “group photo at Kyoto travel” in the Kyoto travel album, or any information held by the block object 401. It is also conceivable to map the image with the highest value or the lowest value when sorted, or the image selected by the user as a texture image on the front of the block object 401.

図5は、本実施の形態1の携帯端末機器100において表示されるカーソルオブジェクト501の参考図及びデータテーブル502である。
図5(a)に示すカーソルオブジェクト501は画面に表示される矢印等であり、例えば、携帯端末機器100のユーザがサムネイル表示モードにおいてブロックオブジェクト401から画像オブジェクト301の選択等を行う際に用いられ、カーソルキー入力部300を介して操作される。
FIG. 5 is a reference diagram and a data table 502 of the cursor object 501 displayed on the mobile terminal device 100 according to the first embodiment.
A cursor object 501 shown in FIG. 5A is an arrow or the like displayed on the screen. For example, the cursor object 501 is used when the user of the mobile terminal device 100 selects the image object 301 from the block object 401 in the thumbnail display mode. It is operated via the cursor key input unit 300.

図5(b)に示すデータテーブル502には、ID、指示しているオブジェクトのID、及びポリゴンモデルIDが記載される。
図6は、本実施の形態1の携帯端末機器100において表示されるフレームカーソルオブジェクト601の参考図及びデータテーブル602である。
In the data table 502 shown in FIG. 5B, the ID, the ID of the instructed object, and the polygon model ID are described.
FIG. 6 is a reference diagram and a data table 602 of the frame cursor object 601 displayed on the mobile terminal device 100 according to the first embodiment.

図6(a)に示すフレームカーソルオブジェクト601は、サムネイル表示モード等においてブロックオブジェクト401内のカーソルオブジェクト501で示されている画像オブジェクト301の位置をより視覚的に明示するために表示される。   A frame cursor object 601 shown in FIG. 6A is displayed to more clearly indicate the position of the image object 301 indicated by the cursor object 501 in the block object 401 in the thumbnail display mode or the like.

図6(b)に示すデータテーブル602には、ID、形状を決めるための指示しているフレームID、所属しているブロックオブジェクトID、ポリゴンモデルID等が記載される。   In the data table 602 shown in FIG. 6B, an ID, an instructed frame ID, a block object ID to which it belongs, a polygon model ID, and the like are described.

図7は、本実施の形態1の携帯端末機器100において表示される軸オブジェクト701の参考図及びデータテーブル702である。
図7(a)に示す軸オブジェクト701は、サムネイル表示モードにおいてブロックオブジェクト401の時間情報等を表示するものである。また、図7(b)に示すデータテーブル702には、ID、軸オブジェクト701が指示している情報の内容、所属しているブロックオブジェクトID、ポリゴンモデルID等が記載される。
FIG. 7 is a reference diagram and a data table 702 of the axis object 701 displayed on the mobile terminal device 100 according to the first embodiment.
An axis object 701 shown in FIG. 7A displays time information and the like of the block object 401 in the thumbnail display mode. Also, in the data table 702 shown in FIG. 7B, the ID, the content of information indicated by the axis object 701, the block object ID to which it belongs, the polygon model ID, and the like are described.

図8は、本実施の形態1の携帯端末機器100において表示されるふきだしオブジェクト801の参考図及びデータテーブル802である。
図8(a)に示すふきだしオブジェクト801は、フレームと共に、サムネイル表示モードにおいてカーソルオブジェクト501の位置の画像オブジェクト301のサムネイルを表示し、また、このサムネイル表示と共に画像オブジェクト301の関連情報、例えば日付等の情報を表示できる。
FIG. 8 is a reference diagram and a data table 802 of the speech bubble object 801 displayed on the mobile terminal device 100 according to the first embodiment.
A speech bubble object 801 shown in FIG. 8A displays a thumbnail of the image object 301 at the position of the cursor object 501 in the thumbnail display mode together with the frame, and related information of the image object 301 such as a date, for example, together with the thumbnail display. Information can be displayed.

図8(b)に示すデータテーブル802には、ふきだし形状を決めるための指示しているフレームID、所属しているブロックオブジェクトID、サムネイル表示する画像ID、ポリゴンモデルID等が記載される。   In the data table 802 shown in FIG. 8B, an instructed frame ID, a block object ID to which the speech bubble belongs, an image ID for thumbnail display, a polygon model ID, and the like are described.

図9は、本実施の形態1に係る携帯端末機器100の各表示モードの関連を示す説明図である。携帯端末機器100に表示されるオブジェクトの表示モードの種類は、表示情報選択モード901、情報入力モード902、ブロック表示モード903、サムネイル表示モード904、及び画像表示モード905がある。   FIG. 9 is an explanatory diagram showing the relationship between the display modes of the mobile terminal device 100 according to the first embodiment. Types of display modes of objects displayed on the mobile terminal device 100 include a display information selection mode 901, an information input mode 902, a block display mode 903, a thumbnail display mode 904, and an image display mode 905.

ユーザはモード選択部360において表示モードの選択を行うと共に、各表示モードにおいてキー入力を行うことにより他の表示モードに移行する。例えば、ユーザが決定キー入力部320を用いてブロック表示モード903において複数のブロックオブジェクト401から1つのブロックオブジェクト401を選択すると、自動的にサムネイル表示モード904に移行する。また、ユーザが決定キー入力部320を用いてサムネイル表示モード904において画像オブジェクト301を選択すると、当該画像を表示する画像表示モード905に移行する。   The user selects a display mode in the mode selection unit 360 and shifts to another display mode by performing key input in each display mode. For example, when the user selects one block object 401 from a plurality of block objects 401 in the block display mode 903 using the enter key input unit 320, the thumbnail display mode 904 is automatically entered. When the user selects the image object 301 in the thumbnail display mode 904 using the enter key input unit 320, the image display mode 905 for displaying the image is displayed.

そして、ユーザが選択されている画像の関連情報を付与するためには、例えば画像表示モード905においてモード選択部360を用いて情報入力モード902に移行できる。また、モード制御部370内に、選択したモードの履歴が保持されておりキャンセルキー入力部340を用いることで、前のモードに戻ることが出来る。   Then, in order to give the related information of the image selected by the user, for example, in the image display mode 905, the mode selection unit 360 can be used to shift to the information input mode 902. In addition, the history of the selected mode is held in the mode control unit 370, and it is possible to return to the previous mode by using the cancel key input unit 340.

そして、表示情報選択モード901においては各面に表示される情報が決定されるモード選択部360を介してとブロック表示モード903又はサムネイル表示モード904に移行できる。また、表示情報選択モード901において決定キー入力部320によりデジタル画像を選択することにより情報入力モード902に移行できる。   In the display information selection mode 901, it is possible to shift to the block display mode 903 or the thumbnail display mode 904 via the mode selection unit 360 in which information displayed on each surface is determined. Further, the display information selection mode 901 can be shifted to the information input mode 902 by selecting a digital image by the enter key input unit 320.

以上のように、本実施の形態1に係る携帯端末機器100において、ユーザはモード選択部360等を用いて他の表示モードに移行することができユーザ操作を向上させた携帯端末機器100とできる。   As described above, in the mobile terminal device 100 according to the first embodiment, the user can shift to another display mode using the mode selection unit 360 or the like, and the mobile terminal device 100 can be improved in user operation. .

図10は、本実施の形態1に係る携帯端末機器100の各モード移行の処理手順を示すフローチャートである。
携帯端末機器100のユーザは、モード選択部360よりキー入力と表示モードに対応をもつモードキーにより入力されたキー情報から、表示モードを1つ選択する(S1001)。
FIG. 10 is a flowchart showing a process procedure of each mode transition of the mobile terminal device 100 according to the first embodiment.
The user of the mobile terminal device 100 selects one display mode from the key information input from the mode selection unit 360 using the mode key having a correspondence with the key input and the display mode (S1001).

イベント制御部400は、携帯端末機器100のユーザよりブロック表示モード選択された場合にはブロック表示モード処理(S1002)、サムネイル表示モード選択された場合にはサムネイル表示モード処理(S1003)、画像表示モード選択された場合には画像表示モード処理(S1004)、情報入力モード選択された場合には情報入力モード処理(S1005)、表示情報選択モード選択された場合には表示情報選択モード処理(S1006)を行う。   When the block display mode is selected by the user of the mobile terminal device 100, the event control unit 400 performs block display mode processing (S1002), when the thumbnail display mode is selected, thumbnail display mode processing (S1003), and image display mode. When selected, image display mode processing (S1004), when information input mode is selected, information input mode processing (S1005), and when display information selection mode is selected, display information selection mode processing (S1006) is performed. Do.

以下、本実施の形態に係る携帯端末機器100の画面に表示される5つの表示モード、ブロック表示モード、サムネイル表示モード、画像表示モード、情報入力モード、及び表示情報選択モードについて順に説明する。尚、これら表示モードは例示であり、本発明に係る携帯端末機器100に表示される表示モードはこれら表示モードに限定されるものではない。   Hereinafter, five display modes, a block display mode, a thumbnail display mode, an image display mode, an information input mode, and a display information selection mode displayed on the screen of the mobile terminal device 100 according to the present embodiment will be described in order. These display modes are examples, and the display modes displayed on the mobile terminal device 100 according to the present invention are not limited to these display modes.

図11は、本実施の形態1に係る携帯端末機器100の画面に表示されるサムネイル表示モードの参考図である。
サムネイル表示モードでは、複数の情報と共に画面に表示されているブロックオブジェクトに含まれる画像オブジェクトを検索、閲覧して、好きな画像をアルバム的に1つのフォルダにまとめたり、不必要な画像の消去を行ったり、大量の画像の編集を3次元のブロックオブジェクトを参照して行うことができる。
FIG. 11 is a reference diagram of the thumbnail display mode displayed on the screen of the mobile terminal device 100 according to the first embodiment.
In the thumbnail display mode, you can search and browse the image objects included in the block objects displayed on the screen together with multiple information, group your favorite images into an album, or delete unnecessary images. Or editing a large number of images with reference to a three-dimensional block object.

また、図11(a)と図11(b)とは、画像オブジェクトの関連情報に基づいて並び替えを行った場合の参考図である。図11(a)に示すように画像オブジェクトを「時刻順」に並べたり、図11(b)に示すように画像オブジェクトを「内容順」に並べ替えることもできる。その他「優先度」に関する関連情報がテクスチャ画像として画像オブジェクトに貼り付けられているならば、優先度の順番に並び代えることもできる。   FIGS. 11A and 11B are reference diagrams when rearrangement is performed based on the related information of the image objects. Image objects can be arranged in “time order” as shown in FIG. 11A, or image objects can be arranged in “content order” as shown in FIG. 11B. In addition, if related information related to “priority” is pasted to an image object as a texture image, it can be rearranged in order of priority.

このように、サムネイル表示モードにおいては、画像検索を画像以外の関連情報を用いて行うと共に、表示されている画像オブジェクトを情報に応じて並べ替えたブロックオブジェクトとして表示することができる。尚、この画像オブジェクトの並べ替えは、ユーザが並べ替えと設定されているキー入力部100cを介して行い、好みの情報に基づいて要求する画像を手前側より表示して、ユーザはより容易に画像の選択ができる。   In this way, in the thumbnail display mode, image search can be performed using related information other than images, and displayed image objects can be displayed as block objects rearranged according to the information. This image object rearrangement is performed by the user via the key input unit 100c which is set to be rearranged, and the requested image is displayed from the front side based on the favorite information. You can select an image.

以下、サムネイル表示モードについて動作を説明する。
図12は、本実施の形態1に係る携帯端末機器100の表示モードにおいてサムネイル表示モードが選択された場合の表示処理手順について示すフローチャートである。
Hereinafter, the operation of the thumbnail display mode will be described.
FIG. 12 is a flowchart showing a display processing procedure when the thumbnail display mode is selected in the display mode of the mobile terminal device 100 according to the first embodiment.

最初に、モード選択部360においてサムネイル表示モードが選択されると、イベント制御部400は描画制御部600にサムネイル表示モードで必要なオブジェクトの指定を行う。サムネイル表示モードにおいて、指定されるオブジェクトは、ブロックオブジェクト、カーソルオブジェクト、フレームカーソルオブジェクト、ふきだしオブジェクト、画像オブジェクト、及び軸オブジェクトである(S1201)。   First, when the thumbnail display mode is selected by the mode selection unit 360, the event control unit 400 designates a necessary object in the thumbnail display mode to the drawing control unit 600. In the thumbnail display mode, designated objects are a block object, a cursor object, a frame cursor object, a speech bubble object, an image object, and an axis object (S1201).

次に、イベント制御部400は描画制御部600に指定されたオブジェクトを描画するように伝える(S1202)。そして、描画制御部600はオブジェクト管理部200に、これらオブジェクトの作成を要求し、オブジェクト管理部200は情報管理部101に画像及び画像毎の関連情報を要求する。オブジェクト管理部200はオブジェクト記憶部240に記憶されていないオブジェクトがあれば、情報管理部101にデジタル画像と画像に付与されている関連情報を要求する。   Next, the event control unit 400 informs the drawing control unit 600 to draw the designated object (S1202). The drawing control unit 600 requests the object management unit 200 to create these objects, and the object management unit 200 requests the information management unit 101 for images and related information for each image. If there is an object that is not stored in the object storage unit 240, the object management unit 200 requests the information management unit 101 for a digital image and related information added to the image.

情報管理部101は、各画像とそれぞれのデジタル画像の有する関連情報を画像オブジェクトIDごとに示す画像オブジェクトデータテーブルを作成し、オブジェクト管理部200に送る(S1203)。尚、情報管理部101は、当該情報管理部101に保持されている関連情報IDと、情報記憶部110に保持されているアドレスの対応情報とを用いて、情報記憶部110から関連情報を取得してデータテーブルを作成することとなる。各オブジェクトにおけるデータテーブルは上述の図3から図8において例示した。   The information management unit 101 creates an image object data table indicating the related information of each image and each digital image for each image object ID, and sends the image object data table to the object management unit 200 (S1203). The information management unit 101 uses the related information ID held in the information management unit 101 and the correspondence information of the address held in the information storage unit 110 to acquire the related information from the information storage unit 110. Thus, a data table is created. The data table for each object is illustrated in FIGS. 3 to 8 described above.

また、情報管理部101は、ブロック情報とブロックオブジェクトに含まれる画像オブジェクトのIDを示すブロックオブジェクトデータテーブルを作成し、オブジェクト管理部200に送る(S1203)。次に、情報管理部101は、同様に情報記憶部120に記憶されたデフォルト値をセットしたカーソルオブジェクト、フレームカーソルオブジェクト、ふきだしオブジェクト、及び軸オブジェクトのデータテーブルを作成し(S1203)、オブジェクト管理部200に送る。   In addition, the information management unit 101 creates a block object data table indicating the block information and the ID of the image object included in the block object, and sends it to the object management unit 200 (S1203). Next, the information management unit 101 creates a data table of a cursor object, a frame cursor object, a speech bubble object, and an axis object in which default values stored in the information storage unit 120 are similarly set (S1203). Send to 200.

そして、オブジェクト管理部200は、オブジェクト生成部210にブロックオブジェクトデータテーブルに含まれる画像オブジェクトの生成を要求する。オブジェクト生成部210はブロックオブジェクトデータテーブルに含まれる画像オブジェクトのIDから、必要な画像オブジェクトの情報を情報管理部101から取得する。   Then, the object management unit 200 requests the object generation unit 210 to generate an image object included in the block object data table. The object generation unit 210 acquires necessary image object information from the information management unit 101 from the IDs of the image objects included in the block object data table.

また、オブジェクト生成部210はオブジェクト管理部200から取得した画像オブジェクトデータテーブルをテクスチャ生成部220及びモデル生成部230に渡す。
テクスチャ生成部220は、画像オブジェクトに含まれるそれぞれの関連情報に応じたテクスチャ画像を内部に保持した画像データや、フォント画像データを組み合わせて2次元のテクスチャ画像を生成する(S1204)。
Further, the object generation unit 210 passes the image object data table acquired from the object management unit 200 to the texture generation unit 220 and the model generation unit 230.
The texture generation unit 220 generates a two-dimensional texture image by combining image data in which a texture image corresponding to each related information included in the image object is held and font image data (S1204).

モデル生成部230は画像オブジェクトデータテーブルの記載に従って直方体ポリゴンモデルを生成する(S1205)。尚、ポリゴンモデルは8頂点の3次元空間における頂点座標と、各頂点に対応するテクスチャ座標を持つ。   The model generation unit 230 generates a rectangular parallelepiped polygon model according to the description of the image object data table (S1205). The polygon model has vertex coordinates in a three-dimensional space of eight vertices and texture coordinates corresponding to each vertex.

オブジェクト生成部210は、テクスチャ生成部220において生成されたテクスチャ画像と、対応するモデル生成部230において生成されたポリゴンモデルとを用いて取得した情報から画像オブジェクトを生成する(S1206)。生成された画像オブジェクトはオブジェクト管理部200によりオブジェクト記憶部240に記憶される(S1206)。同様に、オブジェクト生成部210においては、サムネイル表示モードにおいて必要な他のオブジェクトが生成される。   The object generation unit 210 generates an image object from information acquired using the texture image generated by the texture generation unit 220 and the polygon model generated by the corresponding model generation unit 230 (S1206). The generated image object is stored in the object storage unit 240 by the object management unit 200 (S1206). Similarly, in the object generation unit 210, other objects necessary in the thumbnail display mode are generated.

全てのオブジェクトが作成され、記憶されると、オブジェクト管理部200は描画制御部600にオブジェクトが全て作成されたことを伝え、オブジェクト作成におけるループを終了する(S1207)。   When all the objects are created and stored, the object management unit 200 informs the drawing control unit 600 that all the objects have been created, and ends the loop in object creation (S1207).

そして、描画制御部600は、オブジェクト管理部200から描画に必要な全てのオブジェクトが作成されたことが伝えられると、視点制御部390から取得した視点情報と共に、各オブジェクトをシーン生成部610に送る。   Then, when the drawing control unit 600 is notified from the object management unit 200 that all objects necessary for drawing have been created, the drawing control unit 600 sends each object to the scene generation unit 610 along with the viewpoint information acquired from the viewpoint control unit 390. .

シーン生成部610は、各オブジェクトの配置座標を決定すると共に(S1208)、決定された配置座標を用いてブロックオブジェクト、カーソルオブジェクト、フレームカーソルオブジェクト、ふきだしオブジェクト、及び軸オブジェクトを3次元空間中に配置して画面に表示されるシーンを生成する(S1209)。尚、サムネイル表示モードにおいては、配置情報は図11に示すように3次元の座標配列となるように記述されている。   The scene generation unit 610 determines the arrangement coordinates of each object (S1208), and uses the determined arrangement coordinates to arrange a block object, a cursor object, a frame cursor object, a balloon object, and an axis object in the three-dimensional space. Then, a scene displayed on the screen is generated (S1209). In the thumbnail display mode, the arrangement information is described as a three-dimensional coordinate array as shown in FIG.

シーン生成部610によって全てのオブジェクトが配置されると、画像生成部620は視点制御部390から取得した視点座標から3次元空間がどのように見えるかを計算し、その結果を画像情報として表示部630に出力する。この視点変更部380において視点の変更がある場合においては(S1210でY)、画像生成部620は、再度新たな視点位置からの配置座標の決定を行う。   When all the objects are arranged by the scene generation unit 610, the image generation unit 620 calculates how the three-dimensional space looks from the viewpoint coordinates acquired from the viewpoint control unit 390, and displays the result as image information. To 630. When the viewpoint change unit 380 has a viewpoint change (Y in S1210), the image generation unit 620 determines the arrangement coordinates from the new viewpoint position again.

次に、視点変更部380において視点の変更がない場合においては(S1210でN)、カーソルキー入力部300を介してカーソルオブジェクトの移動があるか否かの判定を行う(S1211)。また、例えば、サムネイル表示モードではカーソル制御部310の上下はそれぞれ、3次元空間中でのz軸負方向、z軸正方向を意味する。カーソル制御部310の上下キーを押すと、カーソルオブジェクトの持つ情報である「指し示しているオブジェクトのID」がそれぞれ上下する。そして、指し示す画像オブジェクトのz座標と同じz座標の位置にカーソルオブジェクトを配置する。   Next, when the viewpoint changing unit 380 does not change the viewpoint (N in S1210), it is determined whether or not the cursor object is moved via the cursor key input unit 300 (S1211). For example, in the thumbnail display mode, the top and bottom of the cursor control unit 310 mean the z-axis negative direction and the z-axis positive direction in the three-dimensional space, respectively. When the up / down key of the cursor control unit 310 is pressed, the “ID of the pointing object”, which is information held by the cursor object, goes up and down. Then, the cursor object is placed at the same z coordinate position as the z coordinate of the image object to be pointed.

カーソルオブジェクトの移動がある場合においては(S1211でY)、同様に、フレームカーソルオブジェクトの「指し示しているオブジェクトのID」がそれぞれ上下し、同様にしてフレームカーソルオブジェクトを配置する(S1212)。
また、同様にふきだしオブジェクトを配置し(S1213)、カーソルによって指し示されている画像オブジェクトのサムネイル画像をふきだしと共に表示する(S1214)。従って、ユーザはカーソルキーを上下することでブロックオブジェクトに含まれる画像をふきだしオブジェクトにおいて容易に閲覧することが出来る。尚、カーソルオブジェクトの移動がない場合においては(S1211でN)、画像選択(S1215)以下の処理を行う。
When the cursor object has moved (Y in S1211), similarly, the “ID of the pointing object” of the frame cursor object goes up and down, and the frame cursor object is similarly arranged (S1212).
Similarly, a balloon object is arranged (S1213), and a thumbnail image of the image object pointed by the cursor is displayed together with the balloon (S1214). Therefore, the user can easily browse the image included in the block object by moving the cursor key up and down. If there is no movement of the cursor object (N in S1211), the processing after the image selection (S1215) is performed.

次に、ユーザはふきだしオブジェクトに表示されている画像から画像表示を行う画像の選択を行う(S1215)。画像の選択が行われる場合においては(S1215でY)、画像表示モードに移行する(S1216)。   Next, the user selects an image for image display from the images displayed on the speech bubble object (S1215). When an image is selected (Y in S1215), the image display mode is entered (S1216).

次に、携帯端末機器100のユーザがモード選択部360を用いてモードの変更を行ったかを確認して(S1217)、変更された場合には選択されたモード表示処理を行い(S1218)、変更されていない場合には、次にカーソルキー入力部300からカーソルオブジェクトの移動があるかを確認する(S1211)。以上のようにして、図11に示すようなサムネイル表示モードの表示が行われる。   Next, it is confirmed whether the user of the mobile terminal device 100 has changed the mode using the mode selection unit 360 (S1217), and if changed, the selected mode display process is performed (S1218). If not, next, it is confirmed whether or not the cursor object is moved from the cursor key input unit 300 (S1211). As described above, the thumbnail display mode as shown in FIG. 11 is displayed.

以上のように、本実施の形態1に係る携帯端末機器100のサムネイル表示モードにおいては、画像と共に関連情報を貼り付けた3次元のブロックオブジェクトが表示され、ユーザはふきだし表示を用いて画像の確認を行うことができる。従って、ユーザにおけるデジタル画像の検索効率をより多くの情報を用いることで高めることが出来る。   As described above, in the thumbnail display mode of the mobile terminal device 100 according to the first embodiment, the three-dimensional block object with the related information pasted together with the image is displayed, and the user confirms the image using the balloon display. It can be performed. Therefore, the digital image search efficiency for the user can be increased by using more information.

また、画像と共にカラフルなブロックオブジェクトが表示されるため、携帯端末機器100の画面に美しくオブジェクトを表示して、ユーザ操作における娯楽性を高めることが可能となる。   In addition, since colorful block objects are displayed together with images, it is possible to display objects beautifully on the screen of the mobile terminal device 100 and enhance entertainment in user operations.

以下、ブロック表示モードについて説明する。
図13は、本実施の形態に係る携帯端末機器におけるブロック表示モードの画面表示の参考図である。尚、ブロック表示モードでは、一連の関連する情報によりグループ化された画像オブジェクト群をアルバム的にまとめてブロックオブジェクトとして表示することを特徴とする。
Hereinafter, the block display mode will be described.
FIG. 13 is a reference diagram of screen display in the block display mode in the mobile terminal device according to the present embodiment. The block display mode is characterized in that image object groups grouped according to a series of related information are displayed as block objects together in an album form.

図13(a)は、複数のブロックオブジェクト1301aを3次元空間中に配置した画面1301であり、ブロックオブジェクト毎に、例えば「9月の運動会」、「11月の京都旅行」といった一連の関連するデジタル画像群をまとめたアルバムとして表示され、ユーザはこれら複数のブロックオブジェクトから編集を希望するブロックオブジェクトをカーソルキー入力部300を介してカーソルオブジェクト1301bにより選択し、図13(d)に示すサムネイル表示モードの画面1304に移行できる。   FIG. 13A shows a screen 1301 in which a plurality of block objects 1301a are arranged in a three-dimensional space. For each block object, for example, a series of related events such as “September athletic meet” and “November trip to Kyoto” are shown. The album is displayed as a group of digital images, and the user selects a block object desired to be edited from the plurality of block objects by the cursor object 1301b via the cursor key input unit 300, and the thumbnail display shown in FIG. The mode screen 1304 can be entered.

図13(b)は、ブロックオブジェクト1302aを順次画面1302に表示し、ユーザはカーソルキー入力部300を介して表示されている矢印1302bに従って表示するブロックオブジェクト1302aを変更できる。そして、ユーザは、決定キー入力部320を介してブロックオブジェクト1302aを選択すると、図13(d)に示すサムネイル表示モードの表示画面1304に移行できる。   In FIG. 13B, the block object 1302a is sequentially displayed on the screen 1302, and the user can change the block object 1302a to be displayed according to the arrow 1302b displayed via the cursor key input unit 300. When the user selects the block object 1302a via the enter key input unit 320, the user can shift to the display screen 1304 in the thumbnail display mode shown in FIG.

尚、図13(c)に示す画面1303にはブロックオブジェクトは表示されないが、画像記憶部110に記憶されているアルバム群を、ID順、優先度や日付順にタイトルを並べたリスト1303aが表示される。このリスト1303aには、例えば「京都旅行」、「日飲み会」等の表示が行われる。そして、携帯端末機器100のユーザは、決定キー入力部320を介して1つのリスト項目を選択すると、図13(d)に示すサムネイル表示モードの表示画面1304に移行できる。   Although a block object is not displayed on the screen 1303 shown in FIG. 13C, a list 1303a in which titles of album groups stored in the image storage unit 110 are arranged in order of ID, priority, and date is displayed. The In this list 1303a, for example, “Kyoto trip”, “Sun drinking party” and the like are displayed. When the user of the mobile terminal device 100 selects one list item via the enter key input unit 320, the user can move to the display screen 1304 in the thumbnail display mode illustrated in FIG.

以下、ブロック表示モードについて動作を説明する。
図14は、本実施の形態1に係る携帯端末機器100の表示モードにおいてブロック表示モードが選択された場合の表示処理手順について示すフローチャートである。
Hereinafter, the operation of the block display mode will be described.
FIG. 14 is a flowchart illustrating a display processing procedure when the block display mode is selected in the display mode of the mobile terminal device 100 according to the first embodiment.

最初に、モード選択部360においてブロック表示モードが選択されると、イベント制御部400は描画制御部600にブロック表示モードで必要なオブジェクトの指定を行う。ブロック表示モードにおいて、指定されるオブジェクトは、画像オブジェクト、ブロックオブジェクト、及びカーソルオブジェクトである(S1401)。   First, when the block display mode is selected in the mode selection unit 360, the event control unit 400 designates a necessary object in the block display mode to the drawing control unit 600. In the block display mode, designated objects are an image object, a block object, and a cursor object (S1401).

次に、イベント制御部400は描画制御部600に指定されたオブジェクトを描画するように伝え、これらオブジェクトの作成を開始する(S1402)。そして、描画制御部600はオブジェクト管理部200に、これらオブジェクトの作成を要求し、オブジェクト管理部200は情報管理部101に画像及び画像毎の関連情報を要求する。   Next, the event control unit 400 informs the drawing control unit 600 to draw the designated objects, and starts creating these objects (S1402). The drawing control unit 600 requests the object management unit 200 to create these objects, and the object management unit 200 requests the information management unit 101 for images and related information for each image.

情報管理部101は、各画像とそれぞれのデジタル画像の有する関連情報を画像オブジェクトIDごとに示す画像オブジェクトデータテーブルを作成し、オブジェクト管理部200に送る(S1403)。また、情報管理部101は、ブロック情報とブロックオブジェクトに含まれる画像オブジェクトのIDを示すブロックオブジェクトデータテーブルを作成し、オブジェクト管理部200に送る(S1403)。次に、情報管理部101は、同様に情報記憶部120に記憶されたデフォルト値をセットしたカーソルオブジェクトのデータテーブルを作成し(S1403)、オブジェクト管理部200に送る。   The information management unit 101 creates an image object data table indicating the related information of each image and each digital image for each image object ID, and sends the image object data table to the object management unit 200 (S1403). In addition, the information management unit 101 creates a block object data table indicating the block information and the ID of the image object included in the block object, and sends it to the object management unit 200 (S1403). Next, the information management unit 101 creates a cursor object data table in which default values stored in the information storage unit 120 are similarly set (S1403), and sends them to the object management unit 200.

そして、オブジェクト管理部200は、オブジェクト生成部210にブロックオブジェクトデータテーブルに含まれる画像オブジェクトの生成を要求する。オブジェクト生成部210はブロックオブジェクトデータテーブルに含まれる画像オブジェクトのIDから、必要な画像オブジェクトの情報を情報管理部101から取得する。また、オブジェクト生成部210はオブジェクト管理部200から取得した画像オブジェクトデータテーブルをテクスチャ生成部220及びモデル生成部230に渡す。   Then, the object management unit 200 requests the object generation unit 210 to generate an image object included in the block object data table. The object generation unit 210 acquires necessary image object information from the information management unit 101 from the IDs of the image objects included in the block object data table. Further, the object generation unit 210 passes the image object data table acquired from the object management unit 200 to the texture generation unit 220 and the model generation unit 230.

テクスチャ生成部220は、画像オブジェクトに含まれるそれぞれの関連情報に応じた2次元のテクスチャ画像を生成する(S1404)。
モデル生成部230は画像オブジェクトデータテーブルの記載に従って直方体ポリゴンモデルを生成する(S1405)。そして、オブジェクト生成部210は、テクスチャ生成部220において生成されたテクスチャ画像と、対応するモデル生成部230において生成されたポリゴンモデルとを用いて取得した情報からブロックオブジェクトを生成する(S1406)。生成されたブロックオブジェクトはオブジェクト管理部200によりオブジェクト記憶部240に記憶される(S1406)。全てのオブジェクトが作成され、記憶されると、オブジェクト管理部200は描画制御部600にオブジェクトが全て作成されたことを伝え、オブジェクト作成におけるループを終了する(S1407)。
The texture generation unit 220 generates a two-dimensional texture image corresponding to each piece of related information included in the image object (S1404).
The model generation unit 230 generates a rectangular parallelepiped polygon model according to the description in the image object data table (S1405). Then, the object generation unit 210 generates a block object from information acquired using the texture image generated by the texture generation unit 220 and the polygon model generated by the corresponding model generation unit 230 (S1406). The generated block object is stored in the object storage unit 240 by the object management unit 200 (S1406). When all the objects are created and stored, the object management unit 200 informs the drawing control unit 600 that all the objects have been created, and ends the loop for object creation (S1407).

そして、描画制御部600は、モード選択部360や決定キー入力部340からの入力に従ってブロック表示モードにおける各ブロックオブジェクトの配置方法の決定を行う(S1408)。また、描画制御部600は、オブジェクト管理部200から描画に必要な全ての画像オブジェクトが作成されたことが伝えられると、視点制御部390から取得した視点情報と共に、ブロックオブジェクトをシーン生成部610に送る。   Then, the drawing control unit 600 determines the arrangement method of each block object in the block display mode according to the input from the mode selection unit 360 and the determination key input unit 340 (S1408). Further, when the drawing control unit 600 is notified from the object management unit 200 that all image objects necessary for drawing have been created, the drawing control unit 600 sends the block object to the scene generation unit 610 together with the viewpoint information acquired from the viewpoint control unit 390. send.

尚、ブロック表示モードにおいて複数のブロックオブジェクトを3次元空間中に配置する場合は、画面サイズから縦、横それぞれ一度に表示できるブロックオブジェクトの最大値が予め描画制御部600に保持されており、全てのブロックオブジェクトがマトリックス状に配置され、一度に画面に表示できる最大の数のブロックオブジェクトが表示されるように視点が設定される。ユーザは視点変更部380により、視点を変更することで全てのブロックオブジェクトを見ることが出来る。   When arranging a plurality of block objects in the three-dimensional space in the block display mode, the maximum value of the block objects that can be displayed at the same time in the vertical and horizontal directions from the screen size is held in advance in the drawing control unit 600. The block objects are arranged in a matrix, and the viewpoint is set so that the maximum number of block objects that can be displayed on the screen at a time is displayed. The user can view all the block objects by changing the viewpoint with the viewpoint changing unit 380.

また、ブロック表示モードにおいてブロックオブジェクトを一つずつ表示する場合は、ブロックオブジェクトをブロックID順、もしくはユーザの定義した優先順位順、もしくはブロックオブジェクトの持つ関連情報の順、例えば日付順に表示し、カーソルキー入力部300の左右で表示するブロックオブジェクトを切り替える。このとき、カーソルキーの上下で一つずつではなく5つずつ切り替えて表示するとか異なる機能を持たせることも出来る。   When displaying block objects one by one in the block display mode, the block objects are displayed in order of block ID, order of priority defined by the user, or order of related information of the block object, for example, in order of date. The block object displayed on the left and right of the key input unit 300 is switched. At this time, it is possible to switch the display up and down five times instead of one by one up and down the cursor keys or to have different functions.

尚、ブロック表示モードにおいて画像記憶部110に記憶されているアルバムのリスト表示を行うことも考えられる。この場合は、それぞれのブロックオブジェクトのID順、もしくはユーザの定義した優先順位順、もしくはブロックオブジェクトの持つ情報の順にそれぞれのブロックオブジェクトのタイトルをリスト表示する。カーソルキーの上下によって選択するブロックオブジェクトを切り替え、カーソルキーの左右に異なる機能を持たせることも出来る。   It is also possible to display a list of albums stored in the image storage unit 110 in the block display mode. In this case, the titles of the respective block objects are displayed in a list in the order of the IDs of the respective block objects, the order of priority defined by the user, or the information of the block objects. The block object to be selected can be switched by moving the cursor key up and down, and the left and right cursor keys can have different functions.

そして、ブロック表示モードではカーソル制御部310の上下左右はそれぞれ、図13に示した3次元空間中でのy軸正方向、y軸負方向、x軸負方向、x軸正方向を意味する。カーソルの上下キーを押すと、カーソルオブジェクトの持つ情報である、「指し示しているオブジェクトのID」がそれぞれ上下する。指し示すオブジェクトと同じ位置にカーソルオブジェクトを配置する。   In the block display mode, the top, bottom, left, and right of the cursor control unit 310 mean the y-axis positive direction, the y-axis negative direction, the x-axis negative direction, and the x-axis positive direction in the three-dimensional space shown in FIG. When the cursor up / down key is pressed, the information of the cursor object, “ID of the object being pointed”, goes up and down. Place the cursor object at the same position as the object it points to.

シーン生成部610は、ブロックオブジェクトの配列方法及び視点情報を用いて各オブジェクトの配置座標を決定する(S1409)。尚、ブロック表示モードにおいては、配置座標は3次元の座標配列となるように記述されている。この決定された配置座標を用いてブロックオブジェクト及びカーソルオブジェクトを3次元空間中に配置して画面に表示されるシーンを生成する(S1410)。シーン生成部610によって全てのオブジェクトが配置されると、画像生成部620は視点制御部390から取得した視点座標から3次元空間がどのように見えるかを計算し、その結果を画像情報として表示部630に出力する。以上のようにして、図13に示すようなブロック表示モードにおける画面が表示される。   The scene generation unit 610 determines the arrangement coordinates of each object using the block object arrangement method and viewpoint information (S1409). In the block display mode, the arrangement coordinates are described as a three-dimensional coordinate array. Using the determined arrangement coordinates, a block object and a cursor object are arranged in the three-dimensional space to generate a scene displayed on the screen (S1410). When all the objects are arranged by the scene generation unit 610, the image generation unit 620 calculates how the three-dimensional space looks from the viewpoint coordinates acquired from the viewpoint control unit 390, and displays the result as image information. To 630. As described above, the screen in the block display mode as shown in FIG. 13 is displayed.

そして、視点変更部380において視点の変更があるか否かの確認を行い(S1411)、視点変更がある場合においては(S1411でY)画像生成部620は、再度新たな視点位置からの配置座標の決定(S1409)以下の処理を行う。   Then, the viewpoint changing unit 380 confirms whether or not there is a viewpoint change (S1411). If there is a viewpoint change (Y in S1411), the image generation unit 620 again sets the arrangement coordinates from the new viewpoint position. (S1409) The following processing is performed.

次に、視点変更部380において視点の変更がない場合においては(S1411でN)、ユーザはブロック表示モードにおいて表示されているブロックオブジェクトから決定キー入力部320を介して画面表示や編集を行うブロックオブジェクトの選択を行う(S1412)。ブロックが選択される場合には(S1412でY)ブロック表示モードから選択されたブロックオブジェクトのサムネイル表示モードに移行する(S1413)。   Next, when the viewpoint change unit 380 does not change the viewpoint (N in S1411), the user performs block display or editing from the block object displayed in the block display mode via the enter key input unit 320. An object is selected (S1412). When a block is selected (Y in S1412), the block display mode is shifted to the thumbnail display mode of the selected block object (S1413).

また、モード選択部360を用いてモードの変更を行ったかを確認して(S1414)、変更された場合(S1414でY)には選択されたモード表示処理を行い(S1415)、変更されていない場合(S1414でN)には、ブロック選択(S1412)以下の処理を繰り返す。   In addition, it is confirmed whether the mode has been changed using the mode selection unit 360 (S1414). If the mode has been changed (Y in S1414), the selected mode display process is performed (S1415), and no change has been made. In the case (N in S1414), the block selection (S1412) and subsequent processes are repeated.

以上の説明のように、本実施の形態1に係る携帯端末機器100のブロック表示モードにおいては、旅行や出来事の一連の関連するデジタル画像群をアルバム的に1つのブロックオブジェクトとして画面に表示でき、また、ユーザが決定キー入力部320を介してブロックオブジェクトを選択することにより、各デジタル画像の編集が可能なサムネイル表示モードに移行できる。   As described above, in the block display mode of the mobile terminal device 100 according to the first embodiment, a series of related digital images of travel and events can be displayed on the screen as one block object like an album, Further, when the user selects a block object via the enter key input unit 320, it is possible to shift to a thumbnail display mode in which each digital image can be edited.

従って、ユーザは携帯端末機器100に記録されているアルバム群をブロックオブジェクトとして一覧でき、ユーザの画像検索における操作性を向上させる。
また、ブロックオブジェクトには記録されているデジタル画像のデータ量に比例して奥行き方向に表示されるため、ユーザは撮影したデジタル画像のデータ量を視覚的に確認できる。
Therefore, the user can list album groups recorded in the mobile terminal device 100 as block objects, and the operability in the user's image search is improved.
Further, since the block object is displayed in the depth direction in proportion to the data amount of the recorded digital image, the user can visually confirm the data amount of the photographed digital image.

図15は、本実施の形態1に係る携帯端末機器100の画面に表示される画像表示モードの参考図である。画像表示モードでは、サムネイル表示モード等において選択した画像1501aが画面1501に表示される。尚、画面1501には表示される画像1501aにリンクしている関連情報を表示してもよく、また、矢印表示1501bを設けて画像を変更できるようにしても良い。   FIG. 15 is a reference diagram of an image display mode displayed on the screen of the mobile terminal device 100 according to the first embodiment. In the image display mode, the image 1501a selected in the thumbnail display mode or the like is displayed on the screen 1501. Note that related information linked to the displayed image 1501a may be displayed on the screen 1501, or an arrow display 1501b may be provided so that the image can be changed.

以下、表示モードについて動作を説明する。
図16は、本実施の形態1に係る携帯端末機器100の表示モードにおいて画像表示モードが選択された場合の処理手順について示すフローチャートである。
Hereinafter, the operation of the display mode will be described.
FIG. 16 is a flowchart showing a processing procedure when the image display mode is selected in the display mode of the mobile terminal device 100 according to the first embodiment.

モード選択部360において、画像表示モードが選択されると、イベント制御部400は描画制御部600に画像表示モードで必要なデジタル画像を指定する。そして、描画制御部600は、画像記憶部110より識別番号により指定されるデジタル画像を取得する。画像生成部620は、取得したデジタル画像をそのまま表示部630に伝え、表示部630においてデジタル画像を表示する(S1601)。   When the mode selection unit 360 selects an image display mode, the event control unit 400 designates a digital image necessary for the image display mode to the drawing control unit 600. Then, the drawing control unit 600 acquires a digital image designated by the identification number from the image storage unit 110. The image generation unit 620 transmits the acquired digital image to the display unit 630 as it is, and displays the digital image on the display unit 630 (S1601).

そして、画像表示モードではカーソルキー入力部300における上下はそれぞれ、画像オブジェクトの変更を意味するものとし、カーソルキー入力部300の上下キーを押すと、カーソルオブジェクトの持つ情報である、「指し示しているオブジェクトのID」がそれぞれ上下する。指し示す画像オブジェクトが変化すると、描画制御部600は画像記憶部110から指定されたデジタル画像を取得して、表示するデジタル画像を変更する(S1602でY)。   In the image display mode, the up and down directions in the cursor key input unit 300 mean that the image object is changed. When the up and down keys of the cursor key input unit 300 are pressed, the information that the cursor object has is “pointing”. The “object ID” goes up and down. When the pointing image object changes, the drawing control unit 600 acquires the designated digital image from the image storage unit 110 and changes the digital image to be displayed (Y in S1602).

次に、画像変更がない場合であって(S1602でN)、携帯端末機器100のユーザがモード選択部360を用いてモードの変更を行う際には(S1603でY)、選択されたモード表示処理を行う(S1604)。以上のようにして、図15のように画像表示モードの画像1501が表示される。   Next, in the case where there is no image change (N in S1602), when the user of the mobile terminal device 100 changes the mode using the mode selection unit 360 (Y in S1603), the selected mode display is displayed. Processing is performed (S1604). As described above, the image 1501 in the image display mode is displayed as shown in FIG.

以上の説明のように、画像表示モードにおいては、ユーザが閲覧したい画像を画面に表示できる。
図17は、本実施の形態1に係る携帯端末機器100の画面に表示される表示情報選択モードの参考図である。尚、表示情報選択モードにおいて、ユーザはブロック表示モードやサムネイル表示モードにおいて表示されるブロックオブジェクトの各面に対応する情報を入力、更新する。
As described above, in the image display mode, an image that the user wants to view can be displayed on the screen.
FIG. 17 is a reference diagram of the display information selection mode displayed on the screen of the mobile terminal device 100 according to the first embodiment. In the display information selection mode, the user inputs and updates information corresponding to each surface of the block object displayed in the block display mode and the thumbnail display mode.

表示情報選択モードの画面には、画像オブジェクトの展開図1701aである6面図が表示され、各面には表示される画像に関連する関連情報をユーザが選択できる「選択ボックス1701b」が表示される。ユーザは、決定キー入力部320を介して選択ボックス1701bにおいて画面表示を希望する関連情報を選択する。尚、関連情報は上述と同様であり、例えば、「優先度」、「撮影場所」、「優先度」等の情報となる。   On the screen of the display information selection mode, a six-sided view that is a development view 1701a of the image object is displayed, and a “selection box 1701b” that allows the user to select related information related to the displayed image is displayed on each side. The The user selects related information desired to be displayed on the screen in the selection box 1701b via the enter key input unit 320. The related information is the same as described above, for example, information such as “priority”, “photographing place”, “priority”, and the like.

以下、表示情報選択モードについて動作を説明する。
図18は、本実施の形態1に係る携帯端末機器100の表示モードにおいて表示情報選択モードが選択された場合の処理手順について示すフローチャートである。
Hereinafter, the operation of the display information selection mode will be described.
FIG. 18 is a flowchart illustrating a processing procedure when the display information selection mode is selected in the display mode of the mobile terminal device 100 according to the first embodiment.

モード選択部360において、表示情報選択モードが選択されると、イベント制御部400は描画制御部600に現在指定されているブロックオブジェクトの展開図を指定して、画像記憶部110から展開図を取得する。また、描画制御部600は画像記憶部110から展開図と共に表示される選択ボックスの取得を行う。   When the display information selection mode is selected in the mode selection unit 360, the event control unit 400 designates a development view of the block object currently designated in the drawing control unit 600 and acquires a development view from the image storage unit 110. To do. In addition, the drawing control unit 600 acquires a selection box displayed together with the development view from the image storage unit 110.

画像生成部620は、展開図及び選択ボックスを描画制御部600から取得して画像の生成を行い、表示部630は、展開図及び選択ボックスの表示を行う(S1801及びS1802)。   The image generation unit 620 acquires the development view and the selection box from the drawing control unit 600 and generates an image, and the display unit 630 displays the development view and the selection box (S1801 and S1802).

そして、表示情報選択モードではカーソルキー入力部300における上下はそれぞれ、選択ボックスに含まれる関連情報の変更を意味する。選択操作がある場合においては(S1803でY)、選択された関連情報を、当該面に対応する関連情報として設定する(S1804)。   In the display information selection mode, the up and down directions in the cursor key input unit 300 each mean change of related information included in the selection box. When there is a selection operation (Y in S1803), the selected related information is set as related information corresponding to the surface (S1804).

次に、選択操作がなく(S1803でN)、また携帯端末機器100のユーザがモード選択部360を用いてモードの変更を行う際には(S1805でY)、選択されたモード表示処理を行う(S1806)。以上のようにして、図17のように選択情報表示モードの画面1701が表示される。   Next, when there is no selection operation (N in S1803) and the user of the mobile terminal device 100 changes the mode using the mode selection unit 360 (Y in S1805), the selected mode display process is performed. (S1806). As described above, the selection information display mode screen 1701 is displayed as shown in FIG.

以上の説明のように、本発明に係る表示情報選択モードにおいては、ユーザは表示されるブロックオブジェクト及び画像オブジェクトの各面に対応する情報を入力、更新することができるため、ユーザは好みの情報をブロックオブジェクト及び画像オブジェクトの各面に表示することが可能となる。   As described above, in the display information selection mode according to the present invention, the user can input and update information corresponding to each surface of the block object and the image object to be displayed. Can be displayed on each surface of the block object and the image object.

図19は、本実施の形態1に係る携帯端末機器100の画面に表示される情報入力モードの参考図である。情報入力モードの画面1901においては、ユーザは画像オブジェクト1901aに関連する関連情報を入力ボックス1901bを用いて更新、入力できる。そして、ユーザが入力した関連情報は情報記憶部120に記録される。   FIG. 19 is a reference diagram of the information input mode displayed on the screen of the mobile terminal device 100 according to the first embodiment. On the information input mode screen 1901, the user can update and input related information related to the image object 1901a using the input box 1901b. The related information input by the user is recorded in the information storage unit 120.

以下、情報入力モードについて動作を説明する。
図20は、本実施の形態1に係る携帯端末機器100の表示モードにおいて情報入力モードが選択された場合の処理手順について示すフローチャートである。
Hereinafter, the operation in the information input mode will be described.
FIG. 20 is a flowchart showing a processing procedure when the information input mode is selected in the display mode of portable terminal device 100 according to the first embodiment.

モード選択部360において情報入力モードが選択されると、イベント制御部400は描画制御部600に現在指定されているデジタル画像を指定して、画像記憶部110から画像データ及び入力ボックスを取得する。   When the information input mode is selected in the mode selection unit 360, the event control unit 400 specifies the digital image currently specified in the drawing control unit 600 and acquires image data and an input box from the image storage unit 110.

画像生成部620は、画像及び入力ボックスを描画制御部600から取得して画像の生成を行い、表示部630は、展開図及び入力ボックスの表示を行う(S2001及びS2002)。   The image generation unit 620 acquires an image and an input box from the drawing control unit 600 and generates an image, and the display unit 630 displays a development view and an input box (S2001 and S2002).

そして、ユーザは情報入力部140を介して入力ボックスに入力操作を行う(S2003)。入力操作がある場合においては(S2003でY)、入力された関連情報を情報記憶部120に記憶する(S2004)。   Then, the user performs an input operation on the input box via the information input unit 140 (S2003). When there is an input operation (Y in S2003), the input related information is stored in the information storage unit 120 (S2004).

次に、入力操作がなく(S2003でN)、また携帯端末機器100のユーザがモード選択部360を用いてモードの変更を行う際には(S2005でY)、選択されたモード表示処理を行う(S2006)。以上のようにして、図19のように情報入力モードの画面1901が表示される。   Next, when there is no input operation (N in S2003) and the user of the mobile terminal device 100 changes the mode using the mode selection unit 360 (Y in S2005), the selected mode display process is performed. (S2006). As described above, the information input mode screen 1901 is displayed as shown in FIG.

以上の説明のように、本発明に係る情報入力モードにおいては、Exif形式で撮影時に自動的に記録されない画像の関連情報を情報入力部140を介して入力することができ、画像に好みの関連情報を付与でき、ユーザの情報選択を向上できる。   As described above, in the information input mode according to the present invention, related information of an image that is not automatically recorded at the time of shooting in the Exif format can be input via the information input unit 140. Information can be given and user information selection can be improved.

また、以上の説明のように、本実施の形態1に係る携帯端末機器100は、オブジェクトを生成するモデル生成部230と、前記オブジェクトにデジタル画像及び関連情報を貼り付けて画像オブジェクト、及び画像オブジェクトを3次元的に配列してブロックオブジェクトを生成するオブジェクト生成部210を備える。   Further, as described above, the mobile terminal device 100 according to the first embodiment includes the model generation unit 230 that generates an object, an image object by pasting a digital image and related information to the object, and an image object. Are generated in a three-dimensional manner to generate a block object.

このため、携帯端末機器100のユーザは画面に3次元のブロックオブジェクトを表示することにより、ユーザはふきだし表示される画像情報と同時に少なくとも2つの関連情報を参照することができ、複数の画像と画像の持つ関連情報を携帯端末の小さな画面でも分かり易く表示することが可能となる。従って、画像や画像のもつ様々な関連情報を参照する毎に、画面を切り替える必要がなく、ユーザはより多くの情報を参照でき、デジタル画像の検索効率を高めることが出来る。   For this reason, the user of the mobile terminal device 100 can display at least two pieces of related information simultaneously with the image information displayed by the speech display by displaying the three-dimensional block object on the screen. Related information can be easily displayed even on a small screen of a portable terminal. Therefore, it is not necessary to switch the screen every time the image or various related information of the image is referred to, and the user can refer to more information, and the digital image search efficiency can be improved.

また、ブロックオブジェクトには画像表示と関連情報が色分け等により貼り付けられるために、携帯端末機器100の画面をカラフルに美しく表示して飽きのこない表示とできる。   In addition, since the image display and related information are pasted on the block object by color coding or the like, the screen of the mobile terminal device 100 can be displayed colorfully and beautifully and can be displayed without getting tired.

そして、携帯端末機器100が画面に表示されるオブジェクトの視点位置を変更する視点変更部380を備えることにより、画面に表示されるブロックオブジェクトを好きな方向に回転させて表示することが可能となり、画面の表示法に娯楽性を加えるのみでなく、ユーザは初期画面では隠れている他の面に表示されている関連情報をも参照しながらデジタル画像の検索を行うことができる。   The mobile terminal device 100 includes the viewpoint changing unit 380 that changes the viewpoint position of the object displayed on the screen, so that the block object displayed on the screen can be rotated and displayed in a desired direction. In addition to adding entertainment to the display method of the screen, the user can search for a digital image while referring to related information displayed on another surface hidden on the initial screen.

さらに、本実施の形態1に係る携帯端末機器100が画像から特徴的な情報を抽出する画像処理部130を備えることにより、デジタル画像に含まれる顔認識技術、色情報、輝度情報等を用いて特徴的な情報を抽出して、関連情報として情報記憶部120に記憶される。従って、特定の人物の出現頻度、昼夜の写真等の情報を画像オブジェクトの側面にテクスチャ画像として表示して、ユーザの画像検索における更なる関連情報を付与することができる。   Furthermore, since the mobile terminal device 100 according to the first embodiment includes the image processing unit 130 that extracts characteristic information from the image, the face recognition technology, color information, luminance information, and the like included in the digital image are used. Characteristic information is extracted and stored in the information storage unit 120 as related information. Therefore, it is possible to display information such as the appearance frequency of a specific person and photographs of day and night as a texture image on the side of the image object, and to give further related information in the user's image search.

また、本実施の形態1に係る携帯端末機器100は関連情報の種類に基づいてテクスチャの色、グラデーション、模様、形状等を変えてテクスチャを生成するテクスチャ生成部220を備えるため、ブロックオブジェクトに貼り付けられる関連情報を分かりやすく表示することができる。   In addition, since the mobile terminal device 100 according to the first embodiment includes the texture generation unit 220 that generates a texture by changing the color, gradation, pattern, shape, or the like of the texture based on the type of related information, the mobile terminal device 100 is pasted on the block object. Related information can be displayed in an easy-to-understand manner.

さらに、本実施の形態1に係る携帯端末機器100は、関連情報に基づいて画像オブジェクトの配列順序を変更できる描画制御部600を備えるため、ユーザは「時刻」や「お気に入り度」等の好みの情報に基づいて画像オブジェクトを配列したブロックオブジェクトとできるため、検索効率を高めることができる。また、時間の順に画像オブジェクトを配列してブロックオブジェクトを構成できるため、従来のサムネイル表示と異なり画像間の時間の流れを可視化して、大量のデジタル画像が記録されているような場合においても、例えば「2日前の夜の飲み会の写真」といった時間情報を用いた検索が行える。   Furthermore, since the mobile terminal device 100 according to the first embodiment includes the drawing control unit 600 that can change the arrangement order of the image objects based on the related information, the user can select a favorite time such as “time” and “favorite degree”. Since it is possible to obtain a block object in which image objects are arranged based on information, search efficiency can be improved. Also, since block objects can be configured by arranging image objects in time order, unlike the conventional thumbnail display, even when a large amount of digital images are recorded by visualizing the flow of time between images, For example, it is possible to perform a search using time information such as “a picture of a drinking party at night two days ago”.

そして、本実施の形態1に係る携帯端末機器100の備えるキー入力部100cを介してデジタル画像を一連の関連性を持つ画像群をアルバムとして編集することにより、アルバムごとの画像群を同じフォルダに記憶して、ブロック表示モードにおいてアルバム毎のブロックオブジェクトとして表示できる。
(実施の形態2)
次に、実施の形態2に係る携帯端末機器100について説明を行う。尚、本実施の形態2においては、画面に表示される画像オブジェクトを3次元でなく2次元オブジェクトとして奥行き方向に位置する画像オブジェクトの一部が認識可能なように配列される。また、関連情報は、画像オブジェクトの外周部に貼り付けられるものとする。
Then, the digital image is edited as an album with a series of related images through the key input unit 100c included in the mobile terminal device 100 according to the first embodiment, so that the image group for each album is stored in the same folder. It can be stored and displayed as a block object for each album in the block display mode.
(Embodiment 2)
Next, the mobile terminal device 100 according to Embodiment 2 will be described. In the second embodiment, the image objects displayed on the screen are arranged as two-dimensional objects instead of three-dimensional objects so that a part of the image objects positioned in the depth direction can be recognized. Further, it is assumed that the related information is pasted on the outer periphery of the image object.

尚、本実施の形態2において、上述した実施の形態1における携帯端末機器100と同様の機能構成や動作手順の説明は省略するものとし、画面に表示される画像オブジェクトの配列方法のバリエーションについての説明を行う。   In the second embodiment, description of the functional configuration and operation procedure similar to those of the mobile terminal device 100 in the first embodiment will be omitted, and variations in the arrangement method of the image objects displayed on the screen will be omitted. Give an explanation.

図21は、本実施の形態2に係る携帯端末機器100の画像オブジェクトの他の表示例を示す参考図である。
画面2101には、2次元の画像オブジェクト2102が奥行き方向に配列される。この画像オブジェクト2101は、オブジェクト生成部210において、モデル生成部230において生成される2次元の板ポリゴン等に画像記憶部110に記憶されているテクスチャ画像を貼り付けて生成される。そして、画像オブジェクト2102の外周部2101aにはテクスチャ生成部220において関連情報に基づいて色分け、模様わけ、グラデーション、形状分け等されたテクスチャが貼り付けられる。例えば、「家族」の写真は赤色、「会社」の写真は緑色、「旅行」の写真は青色のテクスチャが外周部2102aに貼り付けられている。
FIG. 21 is a reference diagram illustrating another display example of the image object of the mobile terminal device 100 according to the second embodiment.
On the screen 2101, two-dimensional image objects 2102 are arranged in the depth direction. The image object 2101 is generated in the object generation unit 210 by pasting a texture image stored in the image storage unit 110 on a two-dimensional board polygon generated in the model generation unit 230. Then, on the outer peripheral portion 2101a of the image object 2102, textures classified by colors, patterns, gradations, shapes, and the like based on related information in the texture generation unit 220 are pasted. For example, a red texture is pasted on the outer peripheral portion 2102 a for a “family” photograph, a green for a “company” photograph, and a blue for a “travel” photograph.

従って、画面2101には、2次元の画像オブジェクト2102が表示され、最手前の写真以外に奥行き方向に位置する他の画像オブジェクト2102の写真内容が確認でき、また画像オブジェクト2102には外周部2102aに関連情報に基づいて色分け等されているためユーザの画像選択における理解を助けると共に、視覚的にも美しく画面2101に表示される。   Accordingly, a two-dimensional image object 2102 is displayed on the screen 2101, and the photo content of another image object 2102 positioned in the depth direction can be confirmed in addition to the foremost photo, and the image object 2102 has a peripheral portion 2102 a on the outer periphery 2102 a. Since the color classification is performed based on the related information, the image is displayed on the screen 2101 visually and beautifully while helping the user to understand the image selection.

尚、選択されている画像オブジェクト2102を列の上方に移動して配置してユーザの選択している画像を目立つように表示でき、また、本実施の形態1に画面に、画像配列方法を変更するための表示2103を行い、ユーザが容易に画像オブジェクト2102の配列方法を変更できるようにすることも考え得る。   The selected image object 2102 can be moved and arranged above the column to display the image selected by the user conspicuously, and the image arrangement method has been changed to the screen in the first embodiment. It is also conceivable that a display 2103 for displaying the image object 2102 is displayed so that the user can easily change the arrangement method of the image objects 2102.

図22は、本実施の形態2に係る携帯端末機器100の画像オブジェクトの他の表示例を示す参考図である。
画面2201には、円筒オブジェクト2202が表示されると共に、表面には画像オブジェクト2202aが貼り付けられる。尚、各画像オブジェクト2202aの外周部2202bには関連情報に基づいて模様分け等されている。
FIG. 22 is a reference diagram illustrating another display example of the image object of the mobile terminal device 100 according to the second embodiment.
A cylindrical object 2202 is displayed on the screen 2201, and an image object 2202a is pasted on the surface. The outer peripheral portion 2202b of each image object 2202a is divided into patterns based on the related information.

そして、ユーザはカーソルキー入力部300を用いて左右キーで円筒オブジェクト2202を回転させ、上下キーで画像オブジェクト2202aを選択する。尚、円筒オブジェクト2202による配列を選択する際には、常に真ん中の列の画像オブジェクト2202aが仮選択されているものとできる。   Then, the user uses the cursor key input unit 300 to rotate the cylindrical object 2202 with the left and right keys, and selects the image object 2202a with the up and down keys. It should be noted that when selecting the array by the cylindrical objects 2202, the image object 2202a in the middle row can always be provisionally selected.

従って、ユーザは写真を円筒オブジェクト2202を回転させながら表面に貼り付けられた画像オブジェクト2202aを選択でき、ユーザの画像選択における娯楽性を高める表示とできる。   Therefore, the user can select the image object 2202a pasted on the surface while rotating the cylindrical object 2202, and can display the photograph to enhance the entertainment in the user's image selection.

図23は、本実施の形態2に係る携帯端末機器100の画像オブジェクトの他の表示例を示す参考図である。
本図において、携帯端末機器100のユーザは、カーソルキー入力部300の左右のキーで列を選択して、上下のキーで画像オブジェクト2302を選択できる。従って、一度に多くの画像オブジェクト2302が画面に表示されるため、ユーザにおいての画像ファイルの検索効率を向上させ、また、多数の画像オブジェクト2302が色分け等された関連情報と共にカラフルに表示されるため、視覚的にも美しく表示できる。
FIG. 23 is a reference diagram illustrating another display example of the image object of the mobile terminal device 100 according to the second embodiment.
In this figure, the user of the mobile terminal device 100 can select a column with the left and right keys of the cursor key input unit 300 and select an image object 2302 with the up and down keys. Therefore, since many image objects 2302 are displayed on the screen at a time, the search efficiency of the image file for the user is improved, and a large number of image objects 2302 are colorfully displayed together with related information such as color coding. It can be displayed visually and beautifully.

従って、本実施の形態2に係る携帯端末機器100の画面2101等には、2次元の画像オブジェクト2102等が表示され、ユーザは最手前の写真以外に奥行き方向に位置する他の画像オブジェクト2102等の写真内容が確認できるため、より画像選択における利便性を向上できる。また、画像オブジェクト2102等の外周部2102a等には、色分け等される関連情報が付与されているため、ユーザの画像選択をより容易化すると共に、視覚的にも美しく表示される。   Therefore, a two-dimensional image object 2102 or the like is displayed on the screen 2101 or the like of the mobile terminal device 100 according to the second embodiment, and the user can have other image objects 2102 or the like positioned in the depth direction in addition to the frontmost photo. Therefore, the convenience in image selection can be improved. In addition, since the peripheries 2102a and the like of the image object 2102 and the like are provided with related information such as color coding, the image selection of the user is further facilitated and displayed visually beautifully.

さらに、携帯端末機器100のユーザは、複数の配列方法から好みの画像オブジェクト2101等の配列方法を選択でき、表示法による娯楽性を高めることができる。
尚、以上の実施の形態に係る携帯端末機器における表示モードとして、デジタル画像の配置方法を選択できる配置方法選択モードを設定することも考え得る。
Furthermore, the user of the mobile terminal device 100 can select a preferred arrangement method of the image object 2101 and the like from a plurality of arrangement methods, and can enhance entertainment by the display method.
Note that it is also conceivable to set an arrangement method selection mode in which a digital image arrangement method can be selected as a display mode in the portable terminal device according to the above embodiment.

この配置方法選択モードにおいては、ユーザは画面に表示される画像オブジェクトの配置方法を予め設定された配置に従って表示できる。配置方法には、実施の形態1に係る携帯端末機器100の画面に表示されるブロックオブジェクトによる配置、実施の形態2に係る2次元オブジェクトによる配置等がある。   In this arrangement method selection mode, the user can display the arrangement method of the image objects displayed on the screen according to a preset arrangement. Examples of the arrangement method include an arrangement using a block object displayed on the screen of the mobile terminal device 100 according to the first embodiment, an arrangement using a two-dimensional object according to the second embodiment, and the like.

従って、携帯端末機器100のユーザは配置方法選択モードを選択することにより、画面に配列する画像オブジェクトの配置方法の選択を行える。
尚、図24は、本実施の形態2に係る携帯端末機器100の画像オブジェクトの他の表示例を示す参考図である。この図24に示す表示例においては、2次元オブジェクトとしての携帯電話機のヘルプ情報を3次元的に並べて表示する。
Therefore, the user of the mobile terminal device 100 can select the arrangement method of the image objects arranged on the screen by selecting the arrangement method selection mode.
FIG. 24 is a reference diagram illustrating another display example of the image object of the mobile terminal device 100 according to the second embodiment. In the display example shown in FIG. 24, help information of a mobile phone as a two-dimensional object is displayed in a three-dimensional manner.

画面2401には、携帯電話機のヘルプ情報が、種類毎に各1枚の2次元オブジェクト2402として表示され、各2次元オブジェクトの正面にはヘルプ情報のアウトラインが文字情報として表示され、ふち枠2402aにはヘルプ情報のカテゴリ毎に色分けされた色情報が表示されている。ふち枠2402aは、例えば、メールに関するヘルプ情報は赤色に、携帯カメラに関するヘルプ情報は緑色に表示される。   On the screen 2401, help information of the mobile phone is displayed as one two-dimensional object 2402 for each type, and an outline of help information is displayed as character information on the front of each two-dimensional object, and a border frame 2402a is displayed. Displays color information that is color-coded for each category of help information. The border frame 2402a displays, for example, help information related to mail in red and help information related to the portable camera in green.

また、画面2401には、後方に位置する2次元オブジェクト2402の情報の一部が認識可能となるように、各2次元オブジェクト2402を斜め方向に3次元的に配置する。このため、ユーザは、同一画面において、後方に位置するヘルプ情報の一部を認識でき、より容易にヘルプ情報の検索を行うことが可能となる。   In addition, on the screen 2401, each two-dimensional object 2402 is arranged three-dimensionally in an oblique direction so that a part of information of the two-dimensional object 2402 located behind can be recognized. For this reason, the user can recognize a part of the help information located rearward on the same screen, and can search for help information more easily.

さらに、例えば、2次元オブジェクト2402の下段に表示されているカメラマーク2402bを選択することにより、ダウンロードしたヘルプ情報を動画像で参照することもでき、また、画面2401の上方に位置するカーソル2403は、全体のヘルプ情報の中での位置を示している。   Furthermore, for example, by selecting the camera mark 2402b displayed in the lower part of the two-dimensional object 2402, the downloaded help information can be referred to by a moving image, and a cursor 2403 positioned above the screen 2401 , Shows the position in the whole help information.

また、以上の実施の形態の説明においては、画面にはデジタル画像が表示されるものとして説明を行ったが、本発明はこれに限定されるものではなく、デジタル動画像をブロックオブジェクトとして表示することも考え得る。また、その際には、デジタル動画像のデータ量に比例して3次元オブジェクトの奥行き幅を表示することも考え得る。   In the above description of the embodiment, the description has been made assuming that a digital image is displayed on the screen. However, the present invention is not limited to this, and the digital moving image is displayed as a block object. You can also think about that. In this case, it may be possible to display the depth width of the three-dimensional object in proportion to the data amount of the digital moving image.

さらに、上述した実施の形態に係る説明は例示であり、本発明は実施の形態の使用形態に限定されるものではなく、その適用可能な範囲において本発明を使用することができるのは言うまでもない。   Furthermore, the description according to the above-described embodiment is an exemplification, and the present invention is not limited to the usage form of the embodiment, and it goes without saying that the present invention can be used within the applicable range. .

本発明に係る携帯端末機器は、画像を表示する機能を有する画像表示装置に関し、特に小型の画面を有する携帯電話機、PDA、カーナビゲーション装置等に適用できる。   The mobile terminal device according to the present invention relates to an image display device having a function of displaying an image, and is particularly applicable to a mobile phone having a small screen, a PDA, a car navigation device, and the like.

実施の形態1に係る携帯端末機器の機能構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a functional configuration of a mobile terminal device according to Embodiment 1. FIG. 実施の形態1に係る携帯端末機器の画面表示の参考図である。4 is a reference diagram of screen display of the mobile terminal device according to Embodiment 1. FIG. 実施の形態1の携帯端末機器において表示される画像オブジェクトの参考図及びデータテーブルである。4 is a reference diagram and a data table of an image object displayed in the mobile terminal device according to the first embodiment. 実施の形態1の携帯端末機器において表示されるブロックオブジェクトの参考図及びデータテーブルである。6 is a reference diagram and data table of a block object displayed in the mobile terminal device according to the first embodiment. 実施の形態1の携帯端末機器において表示されるカーソルオブジェクトの参考図及びデータテーブルである。6 is a reference diagram and a data table of a cursor object displayed in the mobile terminal device of the first embodiment. 実施の形態1の携帯端末機器において表示されるフレームカーソルオブジェクトの参考図及びデータテーブルである。6 is a reference diagram and a data table of a frame cursor object displayed in the mobile terminal device of the first embodiment. 実施の形態1の携帯端末機器において表示される軸オブジェクトの参考図及びデータテーブルである。4 is a reference diagram and a data table of axis objects displayed in the mobile terminal device of the first embodiment. 実施の形態1の携帯端末機器において表示されるふきだしオブジェクトの参考図及びデータテーブルである。4 is a reference diagram and a data table of a speech bubble object displayed in the mobile terminal device according to the first embodiment. 実施の形態1に係る携帯端末機器の各モードの関連を示す説明図である。FIG. 3 is an explanatory diagram showing a relationship between each mode of the mobile terminal device according to the first embodiment. 実施の形態1に係る携帯端末機器の各モード移行の処理手順を示すフローチャートである。3 is a flowchart showing a processing procedure for mode transition of the mobile terminal device according to the first embodiment. 実施の形態1に係る携帯端末機器の画面に表示されるサムネイル表示モードの参考図である。6 is a reference diagram of a thumbnail display mode displayed on the screen of the mobile terminal device according to Embodiment 1. FIG. 実施の形態1に係る携帯端末機器の表示モードにおいてサムネイル表示モードが選択された場合の表示処理手順について示すフローチャートである。6 is a flowchart illustrating a display processing procedure when a thumbnail display mode is selected in the display mode of the mobile terminal device according to the first embodiment. 実施の形態に係る携帯端末機器におけるブロック表示モードの画面表示の参考図である。It is a reference figure of the screen display of the block display mode in the portable terminal device which concerns on embodiment. 実施の形態1に係る携帯端末機器の表示モードにおいてブロック表示モードが選択された場合の表示処理手順について示すフローチャートである。6 is a flowchart illustrating a display processing procedure when a block display mode is selected in the display mode of the mobile terminal device according to the first embodiment. 実施の形態1に係る携帯端末機器の画面に表示される画像表示モードの参考図である。4 is a reference diagram of an image display mode displayed on the screen of the mobile terminal device according to Embodiment 1. FIG. 実施の形態1に係る携帯端末機器の表示モードにおいて画像表示モードが選択された場合の処理手順について示すフローチャートである。5 is a flowchart illustrating a processing procedure when an image display mode is selected in the display mode of the mobile terminal device according to the first embodiment. 実施の形態1に係る携帯端末機器の画面に表示される表示情報選択モードの参考図である。6 is a reference diagram of a display information selection mode displayed on the screen of the mobile terminal device according to Embodiment 1. FIG. 実施の形態1に係る携帯端末機器の表示モードにおいて表示情報選択モードが選択された場合の処理手順について示すフローチャートである。6 is a flowchart illustrating a processing procedure when a display information selection mode is selected in the display mode of the mobile terminal device according to the first embodiment. 実施の形態1に係る携帯端末機器の画面に表示される情報入力モードの参考図である。6 is a reference diagram of an information input mode displayed on the screen of the mobile terminal device according to Embodiment 1. FIG. 実施の形態1に係る携帯端末機器の表示モードにおいて情報入力モードが選択された場合の処理手順について示すフローチャートである。5 is a flowchart illustrating a processing procedure when an information input mode is selected in the display mode of the mobile terminal device according to the first embodiment. 実施の形態2に係る携帯端末機器の画像オブジェクトの他の表示例を示す参考図である。12 is a reference diagram illustrating another display example of an image object of the mobile terminal device according to Embodiment 2. FIG. 実施の形態2に係る携帯端末機器の画像オブジェクトの他の表示例を示す参考図である。12 is a reference diagram illustrating another display example of the image object of the mobile terminal device according to Embodiment 2. FIG. 実施の形態2に係る携帯端末機器の画像オブジェクトの他の表示例を示す参考図である。12 is a reference diagram illustrating another display example of an image object of the mobile terminal device according to Embodiment 2. FIG. 実施の形態2に係る携帯端末機器の画像オブジェクトの他の表示例を示す参考図である。12 is a reference diagram illustrating another display example of an image object of the mobile terminal device according to Embodiment 2. FIG.

符号の説明Explanation of symbols

100 携帯端末機器
101 情報管理部
110 画像記憶部
120 情報記憶部
130 画像処理部
140 情報入力部
200 オブジェクト管理部
210 オブジェクト生成部
220 テクスチャ生成部
230 モデル生成部
240 オブジェクト記憶部
300 カーソルキー入力部
310 カーソル制御部
320 決定キー入力部
330 決定キー制御部
340 キャンセルキー入力部
350 キャンセルキー制御部
360 モード選択部
370 モード制御部
380 視点変更部
390 視点制御部
400 イベント制御部
500 情報出力部
600 描画制御部
610 シーン生成部
620 画像生成部
630 表示部

DESCRIPTION OF SYMBOLS 100 Mobile terminal device 101 Information management part 110 Image storage part 120 Information storage part 130 Image processing part 140 Information input part 200 Object management part 210 Object generation part 220 Texture generation part 230 Model generation part 240 Object storage part 300 Cursor key input part 310 Cursor control unit 320 Determination key input unit 330 Determination key control unit 340 Cancel key input unit 350 Cancel key control unit 360 Mode selection unit 370 Mode control unit 380 View point change unit 390 View point control unit 400 Event control unit 500 Information output unit 600 Drawing control Section 610 Scene generation section 620 Image generation section 630 Display section

Claims (28)

オブジェクトを生成するオブジェクト生成手段と、
第一テクスチャ画像に関連する情報である関連情報の内容毎の第二テクスチャ画像を生成するテクスチャ生成手段と、
前記第一テクスチャ画像及び前記テクスチャ生成手段において生成された前記第二テクスチャ画像を前記オブジェクト生成手段において生成された前記オブジェクトにテクスチャマッピングして画像オブジェクトを作成する付与手段と、
複数の前記画像オブジェクトを前記関連情報に基づいて3次元空間中に配列してなるブロックオブジェクトを生成するブロック生成手段と、
前記ブロックオブジェクトの画像を生成する画像生成手段と、
前記画像生成手段において生成された画像を表示する表示手段と
を備えることを特徴とする携帯端末機器。
An object generation means for generating an object;
Texture generating means for generating a second texture image for each content of related information, which is information related to the first texture image;
An assigning unit that texture-maps the first texture image and the second texture image generated by the texture generation unit to the object generated by the object generation unit, and creates an image object;
Block generating means for generating a block object formed by arranging a plurality of the image objects in a three-dimensional space based on the related information;
Image generating means for generating an image of the block object;
And a display unit that displays the image generated by the image generation unit.
前記オブジェクト生成手段は、2次元オブジェクトを生成し、
前記付与手段は、前記第一テクスチャ画像を前記2次元オブジェクトの正面に、前記第二テクスチャ画像を前記2次元オブジェクトの外周部の一部又は全部に貼り付けて画像オブジェクトを作成し、
前記ブロック生成手段は、前記関連情報に基づいて、後方に位置する画像オブジェクトの少なくとも一部が認識可能となるように、複数の2次元の前記画像オブジェクトを3次元空間中に斜め方向に配置して、ブロックオブジェクトを生成し、
前記画像生成手段は、前記ブロックオブジェクトの画像を生成し、
前記表示手段は、当該画像を表示する
ことを特徴とする請求項1記載の携帯端末機器。
The object generation means generates a two-dimensional object;
The assigning means creates the image object by pasting the first texture image on the front of the two-dimensional object and pasting the second texture image on a part or all of the outer periphery of the two-dimensional object,
The block generation means arranges a plurality of two-dimensional image objects in an oblique direction in a three-dimensional space so that at least a part of an image object located behind can be recognized based on the related information. Create a block object,
The image generation means generates an image of the block object,
The mobile terminal device according to claim 1, wherein the display unit displays the image.
前記第一テクスチャ画像は、文字情報を含む画像であり、前記第二テクスチャ画像は、前記第一テクスチャ画像のカテゴリ毎に区分された色情報を含む画像である
ことを特徴とする請求項2記載の携帯端末機器。
The first texture image is an image including character information, and the second texture image is an image including color information divided for each category of the first texture image. Mobile terminal equipment.
前記オブジェクト生成手段は、3次元オブジェクトを生成し、
前記付与手段は、前記3次元オブジェクトの正面に前記第一テクスチャ画像を、前記3次元オブジェクトの側面に前記第二テクスチャ画像をテクスチャマッピングして画像オブジェクトを作成し、
前記ブロック生成手段は、前記関連情報に基づいて複数の前記画像オブジェクトを多面体を構成するように3次元空間中に配置してブロックオブジェクトを生成し、
前記画像生成手段は、前記ブロックオブジェクトの画像を生成し、
前記表示手段は、当該画像を表示する
ことを特徴とする請求項1記載の携帯端末機器。
The object generating means generates a three-dimensional object;
The giving means creates an image object by texture mapping the first texture image on the front of the three-dimensional object and the second texture image on the side of the three-dimensional object,
The block generation means generates a block object by arranging a plurality of the image objects in a three-dimensional space so as to constitute a polyhedron based on the related information,
The image generation means generates an image of the block object,
The mobile terminal device according to claim 1, wherein the display unit displays the image.
前記テクスチャ生成手段は、前記第一テクスチャ画像の関連情報の内容毎に色分け、模様分け、グラデーション、又は形状分けした第二テクスチャ画像を生成する
ことを特徴とする請求項1記載の携帯端末機器。
The mobile terminal device according to claim 1, wherein the texture generation unit generates a second texture image that is color-coded, pattern-divided, gradation, or shape-based for each content of related information of the first texture image.
前記携帯端末機器は、さらに、
前記第一テクスチャ画像を記憶する画像記憶手段と、
前記関連情報及び前記ブロックオブジェクトの配置位置に関する配置情報を記憶する情報記憶手段とを備え、
前記画像生成手段は、前記配置情報に基づいて前記ブロックオブジェクトの画像を生成する
ことを特徴とする請求項1、請求項2又は請求項4記載の携帯端末機器。
The portable terminal device further includes:
Image storage means for storing the first texture image;
Comprising information storage means for storing arrangement information regarding the arrangement position of the related information and the block object,
The mobile terminal device according to claim 1, wherein the image generation unit generates an image of the block object based on the arrangement information.
前記関連情報には、作成時刻、撮影時刻、日付、動画の収録時間、画像のサイズ、明るさ、色合いの画像自体の情報、及び撮影場所、お気に入り度、ジャンル、参照回数の撮影内容、前記携帯端末機器のヘルプに関する情報の少なくとも1つが含まれ、
前記携帯端末機器は、さらに、
前記関連情報に基づいて前記画像オブジェクトの配列を変更する配列変更手段を備え、
前記ブロック生成手段は、前記配列変更手段における変更に基づいて前記画像オブジェクトを3次元空間中に配列してブロックオブジェクトを生成する
ことを特徴とする請求項1記載の携帯端末機器。
The related information includes creation time, shooting time, date, video recording time, image size, brightness, color image information itself, and shooting location, favorite level, genre, shooting content of reference count, mobile phone Contains at least one piece of information about terminal device help,
The portable terminal device further includes:
An arrangement changing means for changing the arrangement of the image objects based on the related information;
The mobile terminal device according to claim 1, wherein the block generation unit generates the block object by arranging the image objects in a three-dimensional space based on the change in the arrangement changing unit.
前記携帯端末機器は、さらに、
ユーザからの入力に従って画面上の視点を自由に移動させる視点変更手段と、
前記視点変更手段における移動後の視点から見た配置情報を生成する配置情報生成手段とを備え、
前記画像生成手段は、変更後の前記配置情報に基づいて前記ブロックオブジェクトの画像を生成し、
前記表示手段は、当該画像を表示する
ことを特徴とする請求項1記載の携帯端末機器。
The portable terminal device further includes:
Viewpoint changing means for freely moving the viewpoint on the screen according to the input from the user;
Arrangement information generating means for generating arrangement information viewed from the viewpoint after movement in the viewpoint changing means,
The image generation means generates an image of the block object based on the changed arrangement information,
The mobile terminal device according to claim 1, wherein the display unit displays the image.
前記携帯端末機器は、さらに、
前記第一テクスチャ画像から画像の特徴を示す特徴情報を抽出する抽出手段を備え、
前記特徴情報には、画像中に含まれる人物情報、画像中に含まれる色情報、又は画像中に含まれる輝度情報の少なくとも1つが含まれる
ことを特徴とする請求項1記載の携帯端末機器。
The portable terminal device further includes:
Extraction means for extracting feature information indicating the feature of the image from the first texture image;
The portable terminal device according to claim 1, wherein the feature information includes at least one of person information included in the image, color information included in the image, or luminance information included in the image.
前記抽出手段は、前記特徴情報を関連情報として前記情報記憶手段に記録する
ことを特徴とする請求項9記載の携帯端末機器。
The portable terminal device according to claim 9, wherein the extraction unit records the feature information as related information in the information storage unit.
前記携帯端末機器は、さらに、
ユーザからの指示に従って画面に表示されるカーソルの位置をユーザの所望の位置に移動するカーソルキー入力手段と、
前記カーソルが位置する前記画像オブジェクトを選択するための決定キー入力手段と、
前記決定キー入力手段において選択された画像オブジェクトの取捨選択を決める選択手段と
を備えることを特徴とする請求項1記載の携帯端末機器。
The portable terminal device further includes:
Cursor key input means for moving the position of the cursor displayed on the screen to a user's desired position in accordance with an instruction from the user;
A decision key input means for selecting the image object where the cursor is located;
The portable terminal device according to claim 1, further comprising selection means for determining selection of an image object selected by the determination key input means.
前記ブロック生成手段は、前記関連情報に基づいて、一連の関連を有する複数の画像オブジェクト群をアルバムとして3次元空間中に配列してブロックオブジェクトを生成し、
前記画像生成手段は、前記アルバムに対応する少なくとも1つ以上のブロックオブジェクトの画像を生成し、
前記表示手段は、当該画像を表示する
ことを特徴とする請求項1記載の携帯端末機器。
The block generation means generates a block object by arranging a plurality of image object groups having a series of relationships as an album in a three-dimensional space based on the related information,
The image generation means generates an image of at least one block object corresponding to the album;
The mobile terminal device according to claim 1, wherein the display unit displays the image.
前記オブジェクト生成手段は、さらに、
(a)画面に表示される矢印であるカーソルオブジェクト、
(b)前記ブロックオブジェクトの視点位置を示すフレームカーソルオブジェクト、
(c)前記ブロックオブジェクトの時間情報を表示する矢印である軸オブジェクト、
(d)前記カーソルオブジェクトが指し示す画像オブジェクトのサムネイル画像をふきだしと共に表示するふきだしオブジェクトを生成する
ことを特徴とする請求項1記載の携帯端末機器。
The object generation means further includes:
(A) a cursor object that is an arrow displayed on the screen;
(B) a frame cursor object indicating the viewpoint position of the block object;
(C) an axis object that is an arrow that displays time information of the block object;
(D) A speech bubble object for displaying a thumbnail image of an image object pointed to by the cursor object together with a speech bubble is generated.
前記携帯端末機器は、さらに、
前記3次元オブジェクトの複数の表示モードの内1つを選択するためのモード選択手段を備え、
前記画像生成手段は、前記表示モードに応じて前記画像オブジェクト、前記ブロックオブジェクト、前記カーソルオブジェクト、前記フレームカーソルオブジェクト、前記軸オブジェクト、又は前記ふきだしオブジェクトを3次元空間中に配置して画像を生成し、
前記表示手段は、当該画像を表示する
ことを特徴とする請求項1記載の携帯端末機器。
The portable terminal device further includes:
Mode selection means for selecting one of a plurality of display modes of the three-dimensional object;
The image generating means generates an image by arranging the image object, the block object, the cursor object, the frame cursor object, the axis object, or the balloon object in a three-dimensional space according to the display mode. ,
The mobile terminal device according to claim 1, wherein the display unit displays the image.
前記表示モードは、
(a)グループ化された少なくとも1つ以上の前記ブロックオブジェクトが3次元空間に配置されるブロック表示モード、
(b)カーソルキー入力手段を介してカーソルオブジェクトを移動させることによりブロックオブジェクトに含まれる画像を検索することができるサムネイル表示モード、
(c)前記第一テクスチャ画像の表示を行う画像表示モード、
(d)前記ブロックオブジェクト及び前記画像オブジェクトの持つ情報を入力する情報入力モード、
(e)ブロックオブジェクトの各面に表示される情報を選択する表示情報選択モードのいずれかである
ことを特徴とする請求項14記載の携帯端末機器。
The display mode is
(A) a block display mode in which at least one grouped block object is arranged in a three-dimensional space;
(B) a thumbnail display mode in which an image included in the block object can be searched by moving the cursor object via the cursor key input means;
(C) an image display mode for displaying the first texture image;
(D) an information input mode for inputting information held by the block object and the image object;
(E) The mobile terminal device according to claim 14, wherein the mobile terminal device is in one of display information selection modes for selecting information displayed on each surface of the block object.
前記モード選択手段において前記サムネイル表示モードが選択された場合においては、
前記画像生成手段は、配置情報に基づいて、前記ブロックオブジェクト、前記カーソルオブジェクト、前記フレームカーソルオブジェクト、前記ふきだしオブジェクト、前記画像オブジェクト、及び前記軸オブジェクトを3次元空間中に配置して画像を生成する
ことを特徴とする請求項15記載の携帯端末機器。
In the case where the thumbnail display mode is selected by the mode selection means,
The image generation means generates an image by arranging the block object, the cursor object, the frame cursor object, the balloon object, the image object, and the axis object in a three-dimensional space based on the arrangement information. The mobile terminal device according to claim 15.
前記モード選択手段において前記ブロック表示モードが選択された場合においては、
前記画像生成手段は、複数の前記ブロックオブジェクト及び前記カーソルオブジェクトを3次元空間中に配置する画像、又は前記ブロックオブジェクトを一つ表示し、前記カーソルキー入力手段を介して表示するブロックを順次変更する画像を生成する
ことを特徴とする請求項15記載の携帯端末機器。
In the case where the block display mode is selected by the mode selection means,
The image generation means displays an image in which a plurality of the block objects and the cursor object are arranged in a three-dimensional space, or one block object, and sequentially changes the blocks to be displayed via the cursor key input means. The mobile terminal device according to claim 15, wherein an image is generated.
前記モード選択手段において前記画像表示モードが選択された場合においては、前記表示手段は、前記決定キー入力手段により決定された前記第一テクスチャ画像を画面に表示する
ことを特徴とする請求項15記載の携帯端末機器。
16. When the image selection mode is selected by the mode selection unit, the display unit displays the first texture image determined by the determination key input unit on a screen. Mobile terminal equipment.
前記携帯端末機器は、さらに、
ユーザからの前記第一テクスチャ画像に関連する情報が入力される情報入力手段を備え、
前記モード選択手段において前記情報入力モードが選択された場合においては、前記表示手段は、前記決定キー入力手段により決定された前記第一テクスチャ画像及び前記情報入力手段により情報が入力される入力ボックスを画面に表示する
ことを特徴とする請求項15記載の携帯端末機器。
The portable terminal device further includes:
Comprising information input means for inputting information related to the first texture image from the user;
When the information selection mode is selected by the mode selection unit, the display unit includes an input box in which information is input by the first texture image determined by the determination key input unit and the information input unit. It displays on a screen. The portable terminal device of Claim 15 characterized by the above-mentioned.
前記モード選択手段において前記表示情報選択モードが選択された場合には、前記表示手段は、前記決定キー入力手段により決定された前記画像オブジェクトの展開図及び表示情報を選択するための表示情報選択ボックスを画面に表示する
ことを特徴とする請求項15記載の携帯端末機器。
When the display information selection mode is selected by the mode selection means, the display means is a display information selection box for selecting a development view and display information of the image object determined by the determination key input means. The mobile terminal device according to claim 15, wherein the mobile terminal device is displayed on a screen.
前記ブロック生成手段は、複数の前記画像オブジェクトを円筒体を構成するように配置して前記ブロックオブジェクトを生成する
ことを特徴とする請求項1記載の携帯端末機器。
The mobile terminal device according to claim 1, wherein the block generation unit generates the block object by arranging a plurality of the image objects so as to form a cylindrical body.
前記携帯端末機器は、さらに、
デジタル動画像及び当該デジタル動画像に関連する関連情報を前記オブジェクトにテクスチャマッピングして動画像オブジェクトを作成する第二付与手段
を備えることを特徴とする請求項1から請求項21のいずれか1項に記載の携帯端末機器。
The portable terminal device further includes:
22. The apparatus according to claim 1, further comprising: a second assigning unit configured to texture-map a digital moving image and related information related to the digital moving image to the object to create a moving image object. The mobile terminal device described in 1.
オブジェクトを生成するオブジェクト生成ステップと、
第一テクスチャ画像に関連する情報である関連情報の内容毎の第二テクスチャ画像を生成するテクスチャ生成ステップと、
前記第一テクスチャ画像及び前記テクスチャ生成ステップにおいて生成された前記第二テクスチャ画像を前記オブジェクト生成ステップにおいて生成された前記オブジェクトにテクスチャマッピングして画像オブジェクトを作成する付与ステップと、
複数の前記画像オブジェクトを前記関連情報に基づいて3次元空間中に配列してなるブロックオブジェクトを生成するブロック生成ステップと、
前記ブロックオブジェクトの画像を生成する画像生成ステップと、
前記画像生成ステップにおいて生成された画像を表示する表示ステップと
を含むことを特徴とする画像表示方法。
An object generation step for generating an object;
A texture generation step for generating a second texture image for each content of the related information, which is information related to the first texture image;
An imparting step of creating an image object by texture mapping the first texture image and the second texture image generated in the texture generation step to the object generated in the object generation step;
A block generation step of generating a block object formed by arranging a plurality of the image objects in a three-dimensional space based on the related information;
An image generating step for generating an image of the block object;
A display step of displaying the image generated in the image generation step.
前記オブジェクト生成ステップにおいては、2次元オブジェクトを生成し、
前記付与ステップにおいては、前記第一テクスチャ画像を前記2次元オブジェクトの正面に、前記第二テクスチャ画像を前記2次元オブジェクトの外周部の一部又は全部に貼り付けて画像オブジェクトを作成し、
前記ブロック生成ステップにおいては、前記関連情報に基づいて、後方に位置する画像オブジェクトの少なくとも一部が認識可能となるように、複数の2次元の前記画像オブジェクトを3次元空間中に斜め方向に配置して、ブロックオブジェクトを生成し、
前記画像生成ステップにおいては、前記ブロックオブジェクトの画像を生成し、
前記表示ステップにおいては、当該画像を表示する
ことを特徴とする請求項23記載の画像表示方法。
In the object generation step, a two-dimensional object is generated,
In the assigning step, the first texture image is pasted on the front of the two-dimensional object, and the second texture image is pasted on a part or all of the outer periphery of the two-dimensional object, thereby creating an image object,
In the block generation step, a plurality of two-dimensional image objects are arranged in an oblique direction in a three-dimensional space so that at least a part of an image object located behind can be recognized based on the related information. To generate a block object,
In the image generation step, an image of the block object is generated,
The image display method according to claim 23, wherein the image is displayed in the display step.
前記オブジェクト生成ステップにおいては、3次元オブジェクトを生成し、
前記付与ステップにおいては、前記3次元オブジェクトの正面に前記第一テクスチャ画像を、前記3次元オブジェクトの側面に前記第二テクスチャ画像をテクスチャマッピングして画像オブジェクトを作成し、
前記ブロック生成ステップにおいては、前記関連情報に基づいて複数の前記画像オブジェクトを多面体を構成するように3次元空間中に配置してブロックオブジェクトを生成し、
前記画像生成ステップにおいては、前記ブロックオブジェクトの画像を生成し、
前記表示ステップにおいては、当該画像を表示する
ことを特徴とする請求項23記載の画像表示方法。
In the object generation step, a three-dimensional object is generated,
In the assigning step, an image object is created by texture mapping the first texture image on the front surface of the three-dimensional object and the second texture image on the side surface of the three-dimensional object;
In the block generation step, a plurality of the image objects are arranged in a three-dimensional space so as to constitute a polyhedron based on the related information, and a block object is generated,
In the image generation step, an image of the block object is generated,
The image display method according to claim 23, wherein the image is displayed in the display step.
オブジェクトを生成するオブジェクト生成ステップと、
第一テクスチャ画像に関連する情報である関連情報の内容毎の第二テクスチャ画像を生成するテクスチャ生成ステップと、
前記第一テクスチャ画像及び前記テクスチャ生成ステップにおいて生成された前記第二テクスチャ画像を前記オブジェクト生成ステップにおいて生成された前記オブジェクトにテクスチャマッピングして画像オブジェクトを作成する付与ステップと、
複数の前記画像オブジェクトを前記関連情報に基づいて3次元空間中に配列してなるブロックオブジェクトを生成するブロック生成ステップと、
前記ブロックオブジェクトの画像を生成する画像生成ステップと、
前記画像生成ステップにおいて生成された画像を表示する表示ステップとをコンピュータに実行させる
ことを特徴とするプログラム。
An object generation step for generating an object;
A texture generation step for generating a second texture image for each content of the related information, which is information related to the first texture image;
An imparting step of creating an image object by texture mapping the first texture image and the second texture image generated in the texture generation step to the object generated in the object generation step;
A block generation step of generating a block object formed by arranging a plurality of the image objects in a three-dimensional space based on the related information;
An image generating step for generating an image of the block object;
A program causing a computer to execute a display step of displaying an image generated in the image generation step.
前記オブジェクト生成ステップにおいては、2次元オブジェクトを生成し、
前記付与ステップにおいては、前記第一テクスチャ画像を前記2次元オブジェクトの正面に、前記第二テクスチャ画像を前記2次元オブジェクトの外周部の一部又は全部に貼り付けて画像オブジェクトを作成し、
前記ブロック生成ステップにおいては、前記関連情報に基づいて、後方に位置する画像オブジェクトの少なくとも一部が認識可能となるように、複数の2次元の前記画像オブジェクトを3次元空間中に斜め方向に配置して、ブロックオブジェクトを生成し、
前記画像生成ステップにおいては、前記ブロックオブジェクトの画像を生成し、
前記表示ステップにおいては、当該画像を表示する
ことを特徴とする請求項26記載のプログラム。
In the object generation step, a two-dimensional object is generated,
In the assigning step, the first texture image is pasted on the front of the two-dimensional object, and the second texture image is pasted on a part or all of the outer periphery of the two-dimensional object, thereby creating an image object,
In the block generation step, a plurality of two-dimensional image objects are arranged in an oblique direction in a three-dimensional space so that at least a part of an image object located behind can be recognized based on the related information. To generate a block object,
In the image generation step, an image of the block object is generated,
27. The program according to claim 26, wherein the image is displayed in the display step.
前記オブジェクト生成ステップにおいては、3次元オブジェクトを生成し、
前記付与ステップにおいては、前記3次元オブジェクトの正面に前記第一テクスチャ画像を、前記3次元オブジェクトの側面に前記第二テクスチャ画像をテクスチャマッピングして画像オブジェクトを作成し、
前記ブロック生成ステップにおいては、前記関連情報に基づいて複数の前記画像オブジェクトを多面体を構成するように3次元空間中に配置してブロックオブジェクトを生成し、
前記画像生成ステップにおいては、前記ブロックオブジェクトの画像を生成し、
前記表示ステップにおいては、当該画像を表示する
ことを特徴とする請求項26記載のプログラム。

In the object generation step, a three-dimensional object is generated,
In the assigning step, an image object is created by texture mapping the first texture image on the front surface of the three-dimensional object and the second texture image on the side surface of the three-dimensional object;
In the block generation step, a plurality of the image objects are arranged in a three-dimensional space so as to constitute a polyhedron based on the related information, and a block object is generated,
In the image generation step, an image of the block object is generated,
27. The program according to claim 26, wherein the image is displayed in the display step.

JP2004210670A 2003-08-04 2004-07-16 Portable terminal equipment and image display method Withdrawn JP2005071332A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004210670A JP2005071332A (en) 2003-08-04 2004-07-16 Portable terminal equipment and image display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003286005 2003-08-04
JP2004210670A JP2005071332A (en) 2003-08-04 2004-07-16 Portable terminal equipment and image display method

Publications (2)

Publication Number Publication Date
JP2005071332A true JP2005071332A (en) 2005-03-17
JP2005071332A5 JP2005071332A5 (en) 2007-08-23

Family

ID=34425143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004210670A Withdrawn JP2005071332A (en) 2003-08-04 2004-07-16 Portable terminal equipment and image display method

Country Status (1)

Country Link
JP (1) JP2005071332A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069471A1 (en) * 2005-12-14 2007-06-21 Yappa Corporation Image display device
JP2008193426A (en) * 2007-02-05 2008-08-21 Fujifilm Corp Image display device, image display program and photographing device
JP2010140116A (en) * 2008-12-09 2010-06-24 Ricoh Co Ltd File management apparatus, file management method, and file management program
JP2012060636A (en) * 2010-09-08 2012-03-22 Nhn Corp Method and system for supplying three-dimensional content
JP2014123402A (en) * 2014-03-07 2014-07-03 Sharp Corp Content display device, content display method, program, and recording medium
US8947426B2 (en) 2011-04-08 2015-02-03 Canon Kabushiki Kaisha Display control apparatus and display control method
US9189070B2 (en) 2010-09-24 2015-11-17 Sharp Kabushiki Kaisha Content display device, content display method, portable terminal, program, and recording medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069471A1 (en) * 2005-12-14 2007-06-21 Yappa Corporation Image display device
JP2008193426A (en) * 2007-02-05 2008-08-21 Fujifilm Corp Image display device, image display program and photographing device
JP2010140116A (en) * 2008-12-09 2010-06-24 Ricoh Co Ltd File management apparatus, file management method, and file management program
US8527890B2 (en) 2008-12-09 2013-09-03 Ricoh Company, Limited File management apparatus, file management method, and computer program product
JP2012060636A (en) * 2010-09-08 2012-03-22 Nhn Corp Method and system for supplying three-dimensional content
US9189070B2 (en) 2010-09-24 2015-11-17 Sharp Kabushiki Kaisha Content display device, content display method, portable terminal, program, and recording medium
US8947426B2 (en) 2011-04-08 2015-02-03 Canon Kabushiki Kaisha Display control apparatus and display control method
JP2014123402A (en) * 2014-03-07 2014-07-03 Sharp Corp Content display device, content display method, program, and recording medium

Similar Documents

Publication Publication Date Title
US20050034084A1 (en) Mobile terminal device and image display method
CN101142595B (en) Album generating apparatus, album generating method and computer readable medium
CN103458180B (en) Communication terminal and the display packing using communication terminal displays image
CN104657458B (en) The methods of exhibiting and device of the target information of foreground target in scene image
JP4341408B2 (en) Image display method and apparatus
KR101667345B1 (en) System and method of indicating transition between street level images
CN100507814C (en) Key-based advanced navigation techniques
CN101652741B (en) System and method for navigation of display data
US20050134945A1 (en) 3D view for digital photograph management
KR102435185B1 (en) How to create 3D images based on 360° VR shooting and provide 360° VR contents service
JP2004199142A (en) Portable terminal device and image display method
US20150286364A1 (en) Editing method of the three-dimensional shopping platform display interface for users
Kaneva et al. Infinite images: Creating and exploring a large photorealistic virtual space
CN102385512A (en) Apparatus and method for providing augmented reality (AR) using a marker
CN103391396B (en) Display control apparatus and display control method
CN113347373B (en) Image processing method for making special-effect video in real time through AR space positioning
JP2005071332A (en) Portable terminal equipment and image display method
Pierdicca et al. 3D visualization tools to explore ancient architectures in South America
JP2022118068A (en) System and method for displaying additional information on 3d tour
Plesa et al. Evaluating the effectiveness of non-realistic 3D maps for navigation with mobile devices
JP2012175324A5 (en)
JP2012175324A (en) Automatic photograph creation system, automatic photograph creation apparatus, server device and terminal device
JPH08329281A (en) Image display method
JP2007058686A (en) Electronic apparatus, computer program and method for generating retrieving picture
Gunawan et al. Developing 360 Degree Virtual Tour of Dharma Rakhita Temple as a Cultural Learning Source

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070705

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080213