JP3959393B2 - Mobile communication terminal - Google Patents

Mobile communication terminal Download PDF

Info

Publication number
JP3959393B2
JP3959393B2 JP2004021972A JP2004021972A JP3959393B2 JP 3959393 B2 JP3959393 B2 JP 3959393B2 JP 2004021972 A JP2004021972 A JP 2004021972A JP 2004021972 A JP2004021972 A JP 2004021972A JP 3959393 B2 JP3959393 B2 JP 3959393B2
Authority
JP
Japan
Prior art keywords
imaging
data
image
mobile phone
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004021972A
Other languages
Japanese (ja)
Other versions
JP2005217785A (en
Inventor
尚美 西方
隆久 水野
洋久 楠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Mobile Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Mobile Corp filed Critical SoftBank Mobile Corp
Priority to JP2004021972A priority Critical patent/JP3959393B2/en
Publication of JP2005217785A publication Critical patent/JP2005217785A/en
Application granted granted Critical
Publication of JP3959393B2 publication Critical patent/JP3959393B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、撮像手段と、この撮像手段で撮像して得た画像データを記憶する画像データ記憶手段とを備えた移動体通信端末に関するものである。   The present invention relates to a mobile communication terminal including an imaging unit and an image data storage unit that stores image data obtained by imaging with the imaging unit.

近年、小型のデジタルカメラ等の撮像手段を備えた携帯電話機等の移動体通信端末が広く知られており、このような移動体通信端末についてその撮像手段を利用した様々な機能を付加する試みがなされている。例えば、特許文献1には、装置本体に設けられたデジタルカメラで撮像した画像情報を、利用者によって入力された文字情報とともに画像表示部に表示する携帯電話装置が開示されている。この携帯電話装置によれば、例えば、通話相手となる人の電話番号と氏名等の文字情報と、その顔画像等の画像情報とを、同時に画像表示部に表示することができる。これにより、顔画像等の画像情報から通話相手を選ぶことで、通話相手の電話番号や氏名等の文字情報を検索することができる。また、特許文献2には、撮像部を収容した第1の筐体とこれとは別の第2の筐体とを回動可能に結合するヒンジ部が所定角度以上回動したら、その撮像部の設定を近接撮影の設定に変更する携帯電話装置が開示されている。この携帯電話装置によれば、撮像部の設定を近接撮影の設定に変更するための独立したスイッチを設けることなく、撮像部の設定を近接撮影の設定に変更することができる。   In recent years, mobile communication terminals such as mobile phones equipped with imaging means such as small digital cameras are widely known, and attempts have been made to add various functions using such imaging means to such mobile communication terminals. Has been made. For example, Patent Document 1 discloses a mobile phone device that displays image information captured by a digital camera provided in the apparatus main body on an image display unit together with character information input by a user. According to this mobile phone device, for example, the telephone number and name information of the person who is the other party of call and the image information such as the face image can be simultaneously displayed on the image display unit. Thus, by selecting a call partner from image information such as a face image, it is possible to search for character information such as the telephone number and name of the call partner. Further, in Patent Document 2, when a hinge unit that rotatably couples a first housing that houses an imaging unit and a second housing that is different from the first housing rotates, the imaging unit There has been disclosed a mobile phone device that changes the setting to the setting for close-up shooting. According to this mobile phone device, the setting of the imaging unit can be changed to the setting of the proximity shooting without providing an independent switch for changing the setting of the imaging unit to the setting of the proximity shooting.

一方、特許文献3には、加速度を検知するセンサ(検知手段)を備えた携帯電話機が開示されている。この特許文献3には、利用者が文字入力ボタンを押しながら空中に字を書くように携帯電話機を動かすことで、文字入力を行う実施例が記載されている。具体的には、加速度データを2回積分して携帯電話機の移動距離を算出して得た移動距離データと、同じく加速度データから得た移動方向データとから、携帯電話機の移動軌跡を求め、その移動軌跡を入力文字として認識するという動作制御を行う。また、特許文献4には、方位を検知する地磁気センサ(検知手段)を備えた携帯電話機が開示されている。この携帯電話機は、複数の方位に数値が関連付けられていて、携帯電話機本体を特定の方位に向けることで、数値入力を行うことができる。   On the other hand, Patent Document 3 discloses a mobile phone provided with a sensor (detection means) for detecting acceleration. Patent Document 3 describes an embodiment in which a user inputs characters by moving a mobile phone so as to write characters in the air while pressing a character input button. Specifically, the movement trajectory of the mobile phone is obtained from the movement distance data obtained by integrating the acceleration data twice to calculate the movement distance of the mobile phone and the movement direction data obtained from the acceleration data. Operation control of recognizing the movement locus as an input character is performed. Patent Document 4 discloses a mobile phone provided with a geomagnetic sensor (detection means) for detecting the direction. In this mobile phone, numerical values are associated with a plurality of directions, and numerical values can be input by directing the mobile phone body in a specific direction.

特開平11−205761号公報JP-A-11-205761 特開2003−188953号公報JP 2003-188953 A 特開2002−169645号公報JP 2002-169645 A 特開2003−111142号公報JP 2003-111142 A

最近は、撮像手段を備えた携帯電話機等の移動体通信端末が急速に普及したため、その利用者の要望を満たすべく、その撮像手段を利用した機能やサービスを更に充実させることが重要となってきている。そのため、移動体通信端末の開発者や移動体通信端末上で動作するアプリケーションプログラムの開発者等は、その機能やサービスを充実させるべく日々研究を重ねているが、利用者の要望を満たすような機能やサービスの提供は未だ十分とは言えない。   Recently, mobile communication terminals such as mobile phones equipped with image capturing means have rapidly spread, and it is important to further enhance functions and services using the image capturing means in order to satisfy the demands of users. ing. For this reason, developers of mobile communication terminals and developers of application programs that run on mobile communication terminals are conducting research every day to enhance their functions and services. The provision of functions and services is still not enough.

本発明は、上記背景に鑑みなされたものであり、その目的とするところは、撮像手段を利用した今までにない新たな機能又はサービスを提供することが可能な移動体通信端末を提供することである。   The present invention has been made in view of the above background, and an object of the present invention is to provide a mobile communication terminal capable of providing an unprecedented new function or service using an imaging unit. It is.

上記目的を達成するために、請求項1の発明は、撮像手段と、該撮像手段で撮像して得た画像データを記憶する画像データ記憶手段とを備えた移動体通信端末において、上記撮像手段の撮像方向を特定するための検知を行う検知手段と、該撮像手段での撮像時に行った該検知手段の検知により特定される撮像方向を示す撮像方向データを記憶する撮像方向データ記憶手段と、該撮像により得た画像データを上記画像データ記憶手段に保存し、かつ、該撮像時の撮像方向データを該撮像方向データ記憶手段に保存するデータ保存手段と、該撮像手段により撮像した後、その撮像時の撮像方向データに基づいてその撮像時に撮像した画像データから1画像分だけ変化させた撮像方向を算出し、算出した撮像方向を示す画像を、該検知手段の検知により特定される現在の撮像方向を示す画像とともに、上記表示手段に表示させる制御を行う表示制御手段とを有することを特徴とするものである。
この移動体通信端末においては、撮像手段で撮像して得た画像データと、その撮像時に行った検知手段の検知により特定される撮像方向を示す撮像方向データとが保存される。したがって、撮像時の撮像方向を利用して画像データを加工するなどのデータ処理が可能となる。なお、ここでいう撮像方向は、2次元上の方向であってもよいし、3次元上の方向であってもよい。水平面上(2次元)の方向とする場合、その撮像方向を、例えばその撮像方向が向く方位として把握することができる。また、鉛直面からなる2次元上の方向とする場合、その撮像方向を、例えば水平面に対する傾斜角度として把握することができる。また、撮像方向を、例えば前回撮像時の撮像方向等の基準方向に対する相対的な方向として把握してもよい。この場合、その撮像方向を示す撮像方向データとしては、基準方向に対する撮像方向の傾斜角度を示すものを用いることができる。
ここで、複数の画像を合成して1枚の画像を得る場合、各画像の結合部分での画像連続性がなるべく高い方が望ましい。本移動体通信端末によれば、前回の撮影画像との間で画像がきちんと連続するような適切な撮像方向において、利用者に撮像を行わせることができる。したがって、利用者が撮像方向を変更しながら撮像した画像を合成する場合でも、高い画像連続性を確保することが可能となる。
In order to achieve the above object, the invention of claim 1 is directed to a mobile communication terminal comprising an imaging means and an image data storage means for storing image data obtained by imaging with the imaging means. Detection means for performing detection for specifying the imaging direction, imaging direction data storage means for storing imaging direction data indicating an imaging direction specified by detection of the detection means performed at the time of imaging by the imaging means, The image data obtained by the imaging is stored in the image data storage unit, the imaging direction data at the time of imaging is stored in the imaging direction data storage unit, and the image storage unit captures the image data. Based on the imaging direction data at the time of imaging, the imaging direction changed by one image is calculated from the image data captured at the time of imaging, and an image showing the calculated imaging direction is detected by the detection means. Together with the image showing the current imaging direction specified Ri, it is characterized in that it has a display control means for performing control to display on the display means.
In this mobile communication terminal, image data obtained by imaging by the imaging unit and imaging direction data indicating the imaging direction specified by detection of the detection unit performed at the time of imaging are stored. Therefore, data processing such as processing image data using the imaging direction at the time of imaging becomes possible. The imaging direction here may be a two-dimensional direction or a three-dimensional direction. In the case of a horizontal (two-dimensional) direction, the imaging direction can be grasped as an orientation in which the imaging direction is directed, for example. Moreover, when it is set as the two-dimensional direction which consists of a vertical surface, the imaging direction can be grasped | ascertained as an inclination angle with respect to a horizontal surface, for example. Moreover, you may grasp | ascertain an imaging direction as a relative direction with respect to reference directions, such as the imaging direction at the time of last imaging, for example. In this case, as the imaging direction data indicating the imaging direction, data indicating the inclination angle of the imaging direction with respect to the reference direction can be used.
Here, when a single image is obtained by combining a plurality of images, it is desirable that the image continuity at the combined portion of the images is as high as possible. According to this mobile communication terminal, it is possible to cause the user to perform imaging in an appropriate imaging direction in which the images are properly continuous with the previous captured image. Therefore, even when a user combines images captured while changing the imaging direction, high image continuity can be ensured.

また、請求項の発明は、請求項1の移動体通信端末において、上記画像データ記憶手段に記憶された複数の画像データを、該複数の画像データのそれぞれに関連付けられた上記撮像方向データに基づいて合成し、1つの画像データとするデータ処理を行うデータ処理手段を有することを特徴とするものである。
この移動体通信端末においては、データ処理手段により複数の画像データを合成することで、1回の撮像では撮像できないような大きな画像を得ることが可能となる。例えば、山頂から360°の風景を1枚の画像として撮像する場合、まず、固定地点から撮像方向を順次変更しながら複数回撮像して複数の画像データを得る。各画像データの適切な配列順序は、それぞれの撮像方向データから特定することができるので、撮影順序に関係なく、各画像データを適切に配列して、これらを合成することができる。よって、360°の風景画像を1つの画像データとして得ることができる
The invention of claim 2 is the mobile communication terminal according to claim 1, said image data a plurality of image data stored in the storage means, the imaging direction data associated with each of the image data of the plurality of And data processing means for performing data processing to be combined into one image data.
In this mobile communication terminal, it is possible to obtain a large image that cannot be captured by one imaging by combining a plurality of image data by the data processing means. For example, when imaging a 360 ° landscape from the top of a mountain as a single image, first, a plurality of image data are obtained by imaging a plurality of times while sequentially changing the imaging direction from a fixed point. Since an appropriate arrangement order of the image data can be specified from the respective imaging direction data, the image data can be appropriately arranged and synthesized regardless of the imaging order. Therefore, a 360 ° landscape image can be obtained as one image data .

なお、上記「移動体通信端末」としては、PDC(Personal Digital Cellular)方式、GSM(Global SYstem for Mobile Communication)方式、TIA(Telecommunications IndustrY Association)方式等の携帯電話機、IMT(International Mobile Telecommunications)−2000で標準化された携帯電話機、PHS(Personal HandYphone Service)、自動車電話機等の電話機のうち、撮像手段を備えたものが挙げられる。また、この「移動体通信端末」としては、上記電話機のほか、電話機能を有しないPDA(Personal Digital Assistance)等の移動型の移動体通信端末も挙げられる。 As the "mobile communication terminal" is, PDC (Personal Digital Cellular) system, GSM (Global S Y stem for Mobile Communication) system, TIA (Telecommunications Industr Y Association) system such as a mobile phone, IMT (International Mobile Telecommunications )-Phones such as mobile phones, PHS (Personal Hand Y phone Service), and automobile phones that are standardized in -2000 are provided with imaging means. Examples of the “mobile communication terminal” include a mobile mobile communication terminal such as a PDA (Personal Digital Assistance) that does not have a telephone function in addition to the above-described telephone.

以上、請求項1及び2の発明によれば、撮像手段の撮像時における撮像方向を用いて画像データを加工するなどのデータ処理が可能となり、撮像手段を利用した今までにない新たな機能又はサービスを提供することが可能となるという優れた効果が奏される。
特に、請求項の発明によれば、1回の撮像では撮像できないような大きな画像を1つの画像データとして得ることができるという優れた効果が奏される
As described above, according to the invention of claim 1 and 2 and the data processing such as processing the image data becomes possible using imaging Direction at the time of imaging of the imaging unit, a new unprecedented utilizing imaging means functions Or the outstanding effect that it becomes possible to provide a service is show | played.
In particular, according to the invention of claim 2 , there is an excellent effect that a large image that cannot be captured by one imaging can be obtained as one image data .

以下、本発明の一実施形態を、図面を参照しながら説明する。
図2は、本実施形態に係る移動体通信端末としての携帯電話機が利用可能な移動体通信システムの全体構成を説明するための説明図である。
この移動体通信システムにおいて、ユーザー1が使用する携帯電話機20は、ユーザー1によって登録されたアプリケーションプログラムを実行可能な構成を有している。本実施形態において、このアプリケーションプログラムは、プラットフォームに依存しないオブジェクト指向プログラミングによって開発されたものである。このようなアプリケーションプログラムとしては、JAVA(登録商標)で記述されたアプリケーションプログラム、BREW(登録商標)のアプリケーション実行環境上で動作するアプリケーションプログラムなどが挙げられる。この携帯電話機20は、通信ネットワークとしての携帯電話通信網10に接続可能である。また、この携帯電話通信網10には、プログラム提供用サーバとしてのアプリケーションプログラムダウンロードサーバ(以下、「ダウンロードサーバ」という。)11が接続されている。このダウンロードサーバ11は、携帯電話機20からのダウンロード要求を受け付けると、その要求に係るアプリケーションプログラムを携帯電話機20に対して送信する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 2 is an explanatory diagram for explaining the overall configuration of a mobile communication system in which a mobile phone as a mobile communication terminal according to the present embodiment can be used.
In this mobile communication system, the mobile phone 20 used by the user 1 has a configuration capable of executing an application program registered by the user 1. In the present embodiment, the application program is developed by object-oriented programming independent of the platform. Examples of such an application program include an application program written in JAVA (registered trademark), an application program operating in an application execution environment of BREW (registered trademark), and the like. The mobile phone 20 can be connected to a mobile phone communication network 10 as a communication network. Further, an application program download server (hereinafter referred to as “download server”) 11 as a program providing server is connected to the mobile phone communication network 10. When the download server 11 receives a download request from the mobile phone 20, the download server 11 transmits an application program related to the request to the mobile phone 20.

ダウンロードサーバ11から提供されるアプリケーションプログラムは、アプリケーションプログラムの開発元2から提供される。具体的には、例えば、アプリケーションプログラム開発元2側のパーソナルコンピュータ等から、専用回線や公衆回線を介してダウンロードサーバ11にアップロードして提供する。なお、開発したアプリケーションプログラムを記録した光ディスクや磁気ディスク等の記録媒体を、アプリケーションプログラム開発元2からダウンロードサーバ11を管理・運営する通信事業者に送り、その記録媒体内のアプリケーションプログラムをダウンロードサーバ11で読み取るようにして、提供してもよい。このようにして提供されたアプリケーションプログラムは、携帯電話機20から携帯電話通信網10を介してダウンロード可能な状態でダウンロードサーバ11に登録される。   The application program provided from the download server 11 is provided from the application program developer 2. Specifically, for example, it is uploaded from the personal computer on the application program developer 2 side to the download server 11 via a dedicated line or a public line. Note that a recording medium such as an optical disk or a magnetic disk on which the developed application program is recorded is sent from the application program developer 2 to a communication carrier that manages and operates the download server 11, and the application program in the recording medium is downloaded to the download server 11. You may read and provide. The application program thus provided is registered in the download server 11 in a state where it can be downloaded from the mobile phone 20 via the mobile phone communication network 10.

図3は、上記ダウンロードサーバ11のハードウェア構成を示す概略構成図である。
このダウンロードサーバ11は、システムバス100、CPU101、内部記憶装置、外部記憶装置104、入力装置105及び出力装置106を備えている。上記内部記憶装置は、RAM102やROM103等で構成されている。上記外部記憶装置は、ハードディスクドライブ(HDD)や光ディスクドライブ等で構成されている。上記入力装置105は、外部記憶装置104、マウスやキーボード等で構成されている。上記出力装置106は、ディスプレイやプリンタ等で構成されている。更に、このダウンロードサーバ11は、携帯電話通信網10を介して各ユーザー1の携帯電話機20と通信するための携帯電話用通信装置107を備えている。
上記CPU101やRAM102等の構成要素は、システムバス100を介して、互いにデータやプログラムの命令等のやり取りを行っている。このダウンロードサーバ11を所定の手順に従って動作させるためのプログラムは、ROM103や外部記憶装置104に記憶されており、必要に応じてCPU101やRAM102上の作業エリアに呼び出されて実行される。また、このダウンロードサーバ11には、携帯電話機20に提供するアプリケーションプログラムが外部記憶装置104に記憶されている。ダウンロードサーバ11は、携帯電話機20からのダウンロード要求に応じ、CPU101、RAM102、携帯電話通信網用通信装置107等が協働して、外部記憶装置104に記憶されているアプリケーションプログラムを、携帯電話通信網10を介して携帯電話機20に送信する機能を有している。なお、このダウンロードサーバ11は、専用の制御装置として構成してもいいし、汎用のコンピュータシステムを用いて構成してもよい。また、1台のコンピュータで構成してもいいし、複数の機能をそれぞれ受け持つ複数台のコンピュータをネットワークで結んで構成してもよい。
FIG. 3 is a schematic configuration diagram showing a hardware configuration of the download server 11.
The download server 11 includes a system bus 100, a CPU 101, an internal storage device, an external storage device 104, an input device 105, and an output device 106. The internal storage device includes a RAM 102, a ROM 103, and the like. The external storage device includes a hard disk drive (HDD), an optical disk drive, and the like. The input device 105 includes an external storage device 104, a mouse, a keyboard, and the like. The output device 106 includes a display, a printer, and the like. The download server 11 further includes a mobile phone communication device 107 for communicating with the mobile phone 20 of each user 1 via the mobile phone communication network 10.
The components such as the CPU 101 and the RAM 102 exchange data and program instructions with each other via the system bus 100. A program for operating the download server 11 according to a predetermined procedure is stored in the ROM 103 or the external storage device 104, and is called up and executed in the work area on the CPU 101 or the RAM 102 as necessary. In the download server 11, an application program to be provided to the mobile phone 20 is stored in the external storage device 104. In response to a download request from the mobile phone 20, the download server 11 cooperates with the CPU 101, the RAM 102, the mobile phone communication network communication device 107, and the like to transfer the application program stored in the external storage device 104 to the mobile phone communication It has a function of transmitting to the mobile phone 20 via the network 10. The download server 11 may be configured as a dedicated control device or may be configured using a general-purpose computer system. Further, it may be configured by a single computer, or may be configured by connecting a plurality of computers each having a plurality of functions via a network.

図4は、上記携帯電話機20の外観を示す正面図であり、図5は、その携帯電話機20のハードウェア構成を示す概略構成図である。
この携帯電話機20は、クラムシェル(折り畳み)タイプの携帯電話機であり、システムバス200、CPU201、RAM202やROM203等からなる内部制御装置、入力装置204、出力装置205、携帯電話用通信装置206、加速度センサ207、地磁気センサ208及びカメラ209を備えている。CPU201やRAM202等の構成要素は、システムバス200を介して、互いに各種データや後述のプログラムの命令等のやり取りを行っている。上記入力装置204は、データ入力キー(テンキー、*キー、#キー)21、通話開始キー22、終話キー23、スクロールキー24、多機能キー25、マイク26などから構成されている。上記出力装置205は、表示手段としての液晶ディスプレイ(LCD)27、スピーカ28等から構成されている。上記携帯電話用通信装置206は、携帯電話通信網10を介して他の携帯電話機や上記ダウンロードサーバ11と通信するためのものである。また、RAM202内には、後述する電話機プラットフォームが管理する第1の記憶手段としてのプラットフォーム用記憶領域と、後述するアプリケーション実行環境上で管理される第2の記憶手段としてのアプリケーション用記憶領域とが存在する。
4 is a front view showing the appearance of the mobile phone 20, and FIG. 5 is a schematic configuration diagram showing the hardware configuration of the mobile phone 20. As shown in FIG.
The mobile phone 20 is a clamshell (folding) type mobile phone, and includes an internal control device including a system bus 200, a CPU 201, a RAM 202, a ROM 203, an input device 204, an output device 205, a mobile phone communication device 206, an acceleration. A sensor 207, a geomagnetic sensor 208, and a camera 209 are provided. Components such as the CPU 201 and the RAM 202 exchange various data and instructions of a program to be described later via the system bus 200. The input device 204 includes a data input key (ten key, * key, # key) 21, a call start key 22, an end key 23, a scroll key 24, a multi-function key 25, a microphone 26, and the like. The output device 205 includes a liquid crystal display (LCD) 27 as a display means, a speaker 28, and the like. The mobile phone communication device 206 is for communicating with another mobile phone or the download server 11 via the mobile phone communication network 10. Further, in the RAM 202, there are a platform storage area as a first storage means managed by a telephone platform described later and an application storage area as a second storage means managed in an application execution environment described later. Exists.

上記加速度センサ207は、データ入力キーが設けられた面に対して平行な面内で互いに直交する2方向(図4中、X軸方向及びY軸方向)に向かう加速度αX,αYを検出する2軸の加速度センサである。この加速度センサ207は、携帯電話機20の内部に設けられた図示しない回路基板上に実装されており、上記加速度αX,αYを検出できる公知のものを用いることができる。
また、上記地磁気センサ208は、上記X軸及び上記Y軸並びにこれらの軸に直交するZ軸からなる3次元座標上における地磁気の磁界強度成分(磁束密度成分)を検知する3軸のセンサである。そして、本実施形態では、この地磁気センサ208の検知結果を利用して、X軸、Y軸及びZ軸のまわりの角度θX,θY,θZを検出する。具体的には、地磁気の方向が、基準となる地磁気の方向(基準方向)に対して変化したときの変化量を、X軸、Y軸及びZ軸のまわりの角度θX,θY,θZを用いて検出する。これにより、地磁気の方向が基準方向にあるときの姿勢から携帯電話機がその姿勢を変化させたとき、その変化後の姿勢を各角度θX,θY,θZによって特定することができる。なお、以下の説明では、X軸まわりの角度θXをピッチ角といい、Y軸まわりの角度θYをロール角といい、Z軸まわりの角度θZをヨー角という。
また、上記地磁気センサ208を用いることで、例えば上記Z軸が北方位に対してどの向きに向いているかを検知することもできる。この場合、例えば、上記Z軸と北方位とのなす角(以下、「方位角」という。)θNによって携帯電話機が向いている方角を特定する。この地磁気センサ208も、携帯電話機20の内部に設けられた図示しない回路基板上に実装されている。
なお、これらのセンサ207,208は、携帯電話機20の本体とは別体の装置として構成してもよい。この場合、例えば、これらのセンサ207,208を備えた外部装置を、携帯電話機20の本体に設けられる外部端子に接続し、その外部装置と携帯電話機20の本体とが一体となるように構成する。
The acceleration sensor 207 detects accelerations α X and α Y directed in two directions (X-axis direction and Y-axis direction in FIG. 4) orthogonal to each other in a plane parallel to the plane on which the data input key is provided. This is a two-axis acceleration sensor. The acceleration sensor 207 is mounted on a circuit board (not shown) provided inside the mobile phone 20, and a known sensor that can detect the accelerations α X and α Y can be used.
The geomagnetic sensor 208 is a three-axis sensor that detects a magnetic field strength component (magnetic flux density component) of the geomagnetism on a three-dimensional coordinate composed of the X axis, the Y axis, and the Z axis orthogonal to these axes. . In the present embodiment, the angles θ X , θ Y , and θ Z around the X axis, the Y axis, and the Z axis are detected using the detection result of the geomagnetic sensor 208. Specifically, the amount of change when the direction of the geomagnetism changes with respect to the reference geomagnetic direction (reference direction) is expressed as the angles θ X , θ Y , θ around the X , Y , and Z axes. Detect using Z. Thereby, when the mobile phone changes its attitude from the attitude when the direction of geomagnetism is in the reference direction, the attitude after the change can be specified by each angle θ X , θ Y , θ Z. In the following description, the angle θ X around the X axis is referred to as the pitch angle, the angle θ Y around the Y axis is referred to as the roll angle, and the angle θ Z around the Z axis is referred to as the yaw angle.
Further, by using the geomagnetic sensor 208, for example, it can be detected in which direction the Z-axis is directed with respect to the north direction. In this case, for example, the direction in which the mobile phone is facing is specified by the angle (hereinafter referred to as “azimuth angle”) θ N formed by the Z axis and the north direction. The geomagnetic sensor 208 is also mounted on a circuit board (not shown) provided inside the mobile phone 20.
Note that these sensors 207 and 208 may be configured as separate devices from the main body of the mobile phone 20. In this case, for example, an external device including these sensors 207 and 208 is connected to an external terminal provided on the main body of the mobile phone 20 so that the external device and the main body of the mobile phone 20 are integrated. .

また、上記カメラ209は、図2中左側に図示されているように、そのレンズ面が携帯電話機20の背面側に露出した内蔵カメラ29から構成されている。この内蔵カメラ29としては、CMOS(Complementary Metal Oxide Semiconductor)カメラやCCD(Charge Coupled Device)カメラなどのデジタル方式の小型カメラを用いることができる。本実施形態において、内蔵カメラ29は、撮像方向が上記Z軸方向に向くように、携帯電話機20の本体に固定されている。   The camera 209 includes a built-in camera 29 whose lens surface is exposed on the back side of the mobile phone 20, as shown on the left side in FIG. As the built-in camera 29, a digital small camera such as a complementary metal oxide semiconductor (CMOS) camera or a charge coupled device (CCD) camera can be used. In the present embodiment, the built-in camera 29 is fixed to the main body of the mobile phone 20 so that the imaging direction is in the Z-axis direction.

図6は、上記携帯電話機20の主要部を抽出して示したブロック図であり、図7は、その携帯電話機20におけるソフトウェア構造の説明図である。
この携帯電話機20は、無線通信手段としての電話通信部211及びデータ通信部212、操作手段としての操作部213、アプリケーションプログラム実行手段としてのアプリケーションプログラム実行管理部214、主制御部215、出力部216、検知手段としてのセンサ検知部217、撮像手段としてのカメラ部219等を備えている。
FIG. 6 is a block diagram showing an extracted main part of the mobile phone 20, and FIG. 7 is an explanatory diagram of the software structure in the mobile phone 20.
The cellular phone 20 includes a telephone communication unit 211 and a data communication unit 212 as wireless communication units, an operation unit 213 as operation units, an application program execution management unit 214 as application program execution units, a main control unit 215, and an output unit 216. A sensor detection unit 217 as a detection unit, a camera unit 219 as an imaging unit, and the like.

上記電話通信部211は、他の携帯電話機や固定電話機と電話通信を行うために、携帯電話通信網10の基地局と無線通信を行うものであり、上述のハードウェア構成上の携帯電話用通信装置206等に対応する。
上記データ通信部212は、上記電話通信部211と同様に、上述のハードウェア構成上の携帯電話用通信装置206等に対応する。このデータ通信部212は、携帯電話機通信網10を介して他の携帯電話機とメールのやり取りを行ったり、携帯電話機通信網10からゲートウェイサーバを介して、インターネット等の外部の通信ネットワークに接続し、インターネット上での電子メールのやり取りやWebページの閲覧等を行ったりするためのものである。また、このデータ通信部212は、携帯電話機通信網10を介して、ダウンロードサーバ11が提供するアプリケーションプログラムをダウンロードするためにも用いられる。
The telephone communication unit 211 performs wireless communication with a base station of the mobile phone communication network 10 in order to perform telephone communication with other mobile phones or fixed phones. This corresponds to the device 206 and the like.
Similar to the telephone communication unit 211, the data communication unit 212 corresponds to the mobile phone communication device 206 having the above-described hardware configuration. The data communication unit 212 exchanges mail with other mobile phones via the mobile phone communication network 10 or connects to an external communication network such as the Internet from the mobile phone communication network 10 via a gateway server. This is for exchanging e-mails on the Internet, browsing web pages, and the like. The data communication unit 212 is also used to download an application program provided by the download server 11 via the mobile phone communication network 10.

上記操作部213は、ユーザー1が操作可能な上述のテンキー21、通話開始キー22、終話キー23等で構成されている。この操作部213を操作することにより、ユーザーは、携帯電話機20に対してURL等のデータを入力したり、電話着信の際に通話の開始及び終了を行ったり、アプリケーションプログラムの選択、起動及び停止を行ったりすることができる。また、ユーザーは操作部213を操作することにより、上記ダウンロードサーバ11からアプリケーションプログラムをダウンロードすることもできる。   The operation unit 213 includes the above-described numeric keypad 21, call start key 22, and call end key 23 that can be operated by the user 1. By operating the operation unit 213, the user inputs data such as a URL to the mobile phone 20, starts and ends a call when receiving a call, and selects, starts, and stops an application program. Can be done. The user can also download the application program from the download server 11 by operating the operation unit 213.

上記アプリケーションプログラム実行管理部214は、上述のシステムバス200、CPU201やRAM202の一部等で構成されている。このアプリケーションプログラム実行管理部214は、図7のソフトウェア構造上において中央の「アプリケーション実行環境」に対応しており、オブジェクト指向プログラミングで開発されたアプリケーションプログラムに利用されるクラスライブラリ、実行環境管理ライブラリ、アプリケーション管理等のソフトウェアを提供し、アプリケーションプログラムの実行環境を管理する。このアプリケーション実行環境は、実行するアプリケーションプログラムに応じて適宜選定される。例えば、実行するアプリケーションプログラムがJAVAで記述されたものである場合には、JAVAのアプリケーション実行環境を選定する。また、実行するアプリケーションプログラムがBREWの実行環境上で動作するC言語で記述されたものである場合には、BREWのアプリケーション実行環境を選定する。なお、実行するアプリケーションプログラムがJAVAで記述されたものである場合には、BREWのアプリケーション実行環境上に更にJAVAのアプリケーション実行環境を構築することで、これを実行することができる。   The application program execution management unit 214 includes the system bus 200, the CPU 201, a part of the RAM 202, and the like. The application program execution management unit 214 corresponds to the central “application execution environment” in the software structure of FIG. 7, and includes a class library, an execution environment management library, and an application program developed by object-oriented programming. Software such as application management is provided to manage the execution environment of application programs. This application execution environment is appropriately selected according to the application program to be executed. For example, if the application program to be executed is written in JAVA, the JAVA application execution environment is selected. If the application program to be executed is written in C language that operates in the BREW execution environment, the BREW application execution environment is selected. If the application program to be executed is written in JAVA, it can be executed by constructing a JAVA application execution environment on the BREW application execution environment.

ここで、アプリケーションプログラムは、クラスライブラリAPI(アプリケーションインターフェース)を介して上記アプリケーション実行環境内にある関数等のクラスライブラリを呼び出して使用できるようになっている。この関数等のクラスライブラリの呼び出しの履歴は、アプリケーションプログラムの仮想的な実行環境(仮想マシン:VM)が終了するまで、RAM202内におけるアプリケーション用記憶領域に記憶される。また、アプリケーション実行環境は、アプリケーションプログラムの実行に際して用いる各種データも、そのアプリケーション用記憶領域に保存する。そして、この各種データを用いるときには、このアプリケーション用記憶領域から読み出したり、書き込んだりする。また、アプリケーション実行環境内の実行環境管理ライブラリは、電話機プラットフォームAPIを介して後述の電話機プラットフォーム内の電話機プラットフォームライブラリを呼び出して使用できるようになっている。   Here, the application program can be used by calling a class library such as a function in the application execution environment via a class library API (application interface). The call history of the class library such as this function is stored in the application storage area in the RAM 202 until the virtual execution environment (virtual machine: VM) of the application program is terminated. The application execution environment also saves various data used when executing the application program in the application storage area. When these various data are used, they are read from or written to the application storage area. The execution environment management library in the application execution environment can be used by calling a telephone platform library in the telephone platform described later via the telephone platform API.

上記主制御部215は、上記電話通信部211、データ通信部212、操作部213、センサ検知部217、カメラ部219を制御するものであり、上述のシステムバス200、CPU201やRAM202等で構成されている。この主制御部215は、アプリケーションプログラム実行管理部214との間で制御命令や各種データのやりとりを行い、これらと協働して制御を行う。主制御部215は、図7のソフトウェア構造上において最下部の「電話機プラットフォーム」に対応しており、上記電話通信部211等を制御するための制御用プログラムやユーザインターフェースを実行したり、電話機プラットフォームライブラリを提供したりする。この電話機プラットフォームは、上記アプリケーション実行環境内の実行環境管理ライブラリに対してイベントを送ることにより、アプリケーションプログラムにおいて各種処理を実行したり、アプリケーション管理APIを介して上記アプリケーション実行環境内のアプリケーション管理のソフトウェアを呼び出して使用したりできるようになっている。また、アプリケーション実行環境が電話機プラットフォームAPIを介して電話機プラットフォームライブラリを呼び出して使用したとき、電話機プラットフォームは、その電話機プラットフォームライブラリに応じた処理を実行する。例えば、電話機プラットフォームは、電話機プラットフォームライブラリを利用したアプリケーション実行環境からの指示に基づき、RAM202内における電話機プラットフォームが管理するプラットフォーム用記憶領域に記憶されたデータを読み出して、これをアプリケーション用記憶領域に移行することができる。   The main control unit 215 controls the telephone communication unit 211, the data communication unit 212, the operation unit 213, the sensor detection unit 217, and the camera unit 219, and includes the above-described system bus 200, CPU 201, RAM 202, and the like. ing. The main control unit 215 exchanges control commands and various data with the application program execution management unit 214 and performs control in cooperation with them. The main control unit 215 corresponds to the lowermost “telephone platform” in the software structure of FIG. 7 and executes a control program and user interface for controlling the telephone communication unit 211 and the like, Or provide a library. The telephone platform executes various processes in an application program by sending an event to an execution environment management library in the application execution environment, or performs application management software in the application execution environment via an application management API. Can be called and used. When the application execution environment calls and uses the telephone platform library via the telephone platform API, the telephone platform executes processing according to the telephone platform library. For example, the telephone platform reads data stored in the platform storage area managed by the telephone platform in the RAM 202 based on an instruction from the application execution environment using the telephone platform library, and migrates it to the application storage area. can do.

上記出力部216は、上述の液晶ディスプレイ27、スピーカ28等からなる出力装置205等で構成されている。この出力部216は、上記データ通信部212で受信したWebページ画面を液晶ディスプレイ27に表示する。また、この出力部216の液晶ディスプレイ27は、上記電話通信部211やデータ通信部212で情報を着信した旨をユーザーに報知するときに用いられる。具体的には、その情報を着信すると、主制御部215により、出力部216の液晶ディスプレイ27に着信報知画像を表示したり、スピーカ28から着信音を出力させたりする。更に、この出力部216は、アプリケーション実行環境で実行されるアプリケーションプログラムの実行中に、そのプログラム実行に関連したメニュー画面等の表示や音楽の出力にも用いられる。例えば、カメラ部219を利用するカメラ用アプリケーションプログラムを実行して撮影を行う場合、カメラ部219により撮像される撮像対象の画像を表示したり、後述するレリーズタイミングを報知するための報知音を出力したりする。   The output unit 216 includes the output device 205 including the liquid crystal display 27 and the speaker 28 described above. The output unit 216 displays the Web page screen received by the data communication unit 212 on the liquid crystal display 27. The liquid crystal display 27 of the output unit 216 is used when the telephone communication unit 211 or the data communication unit 212 notifies the user that information has been received. Specifically, when the information is received, the main control unit 215 displays an incoming call notification image on the liquid crystal display 27 of the output unit 216 or outputs a ring tone from the speaker 28. Further, the output unit 216 is also used for displaying a menu screen or the like related to the execution of the program or outputting music during execution of the application program executed in the application execution environment. For example, when shooting is performed by executing a camera application program that uses the camera unit 219, an image to be captured that is captured by the camera unit 219 is displayed, or a notification sound for notifying a release timing described later is output. To do.

上記センサ検知部217は、上述の加速度センサ207や地磁気センサ208等で構成されている。このセンサ検知部217は、上記主制御部215の制御の下で動作し、その検知データは主制御部215が取得する。検知データである加速度αX,αYのデータ、ピッチ角θX、ロール角θY及びヨー角θZのデータ、並びに、方位角θNのデータは、上述したようにRAM202のプラットフォーム用記憶領域に記憶される。例えばユーザー1によって携帯電話機20が変位すると、X軸方向及びY軸方向に働く加速度がセンサ検知部217を構成する加速度センサ207によって検知される。その検知データが主制御部215に入力されると、主制御部215は、その検知データからX軸方向の加速度αX及びY軸方向の加速度αYを把握することができる。この加速度αX,αYのデータは、主制御部215によって、RAM202内のプラットフォーム用記憶領域に一時保存される。
また、携帯電話機20の姿勢が変わると、その姿勢の変化後における磁界強度成分(磁束密度成分)がセンサ検知部217を構成する地磁気センサ207によって検知される。センサ検知部217は、地磁気センサ207で検知された検出信号から姿勢変化後のそれぞれの角度θx,θY,θZを算出する。算出した各角度θx,θY,θZのデータは、加速度αx,αYの場合と同様に、主制御部215へ出力され、主制御部215によってRAM202内のプラットフォーム用記憶領域に一時保存される。
また、携帯電話機20の向きが変わると、その向きの変化後における磁界強度成分(磁束密度成分)がセンサ検知部217を構成する地磁気センサ207によって検知される。センサ検知部217は、地磁気センサ207で検知された検出信号から向きの変化後における方位角θNを算出する。算出した方位角θNのデータも、同様に、主制御部215へ出力され、主制御部215によってRAM202内のプラットフォーム用記憶領域に一時保存される。
The sensor detection unit 217 includes the acceleration sensor 207 and the geomagnetic sensor 208 described above. The sensor detection unit 217 operates under the control of the main control unit 215, and the detection data is acquired by the main control unit 215. As described above, the acceleration α X and α Y data, the pitch angle θ X , the roll angle θ Y and the yaw angle θ Z data, and the azimuth angle θ N data, which are detection data, are stored in the RAM 202 platform storage area. Is remembered. For example, when the mobile phone 20 is displaced by the user 1, acceleration acting in the X-axis direction and the Y-axis direction is detected by the acceleration sensor 207 that constitutes the sensor detection unit 217. When the detection data is input to the main control unit 215, the main control unit 215 can grasp the acceleration α X in the X- axis direction and the acceleration α Y in the Y-axis direction from the detection data. The acceleration α X and α Y data are temporarily stored in the platform storage area in the RAM 202 by the main control unit 215.
Further, when the posture of the mobile phone 20 changes, the magnetic field strength component (magnetic flux density component) after the change of the posture is detected by the geomagnetic sensor 207 constituting the sensor detection unit 217. The sensor detection unit 217 calculates the respective angles θ x , θ Y , and θ Z after the posture change from the detection signal detected by the geomagnetic sensor 207. The data of the calculated angles θ x , θ Y , θ Z is output to the main control unit 215 as in the case of the accelerations α x , α Y , and is temporarily stored in the platform storage area in the RAM 202 by the main control unit 215. Saved.
In addition, when the orientation of the mobile phone 20 changes, the magnetic field strength component (magnetic flux density component) after the change of the orientation is detected by the geomagnetic sensor 207 constituting the sensor detection unit 217. The sensor detection unit 217 calculates the azimuth angle θ N after the change in direction from the detection signal detected by the geomagnetic sensor 207. Similarly, the data of the calculated azimuth angle θ N is also output to the main control unit 215 and temporarily stored in the platform storage area in the RAM 202 by the main control unit 215.

なお、プラットフォーム記憶領域へ保存する加速度αx,αYや各角度θx,θY,θZのデータを、主制御部215がセンサ検知部217から取得する方法としては、次のようなものが挙げられる。例えば、主制御部215からセンサ検知部217へリクエストを送り、これに応じてセンサ検知部217が出力したデータを主制御部215が受信する取得方法である。また、例えば、リクエストがなくてもセンサ検知部217が連続的に出力するデータを、主制御部215が適宜受信する取得方法を採用してもよい。また、アプリケーションプログラムがアプリケーションプログラム実行管理部214を介して出力したリクエストに応じて主制御部215がセンサ検知部217へリクエストを送り、これに応じてセンサ検知部217が出力したデータを主制御部215が受信する取得方法を採用することもできる。 The following is a method for the main control unit 215 to acquire the data of the accelerations α x and α Y and the angles θ x , θ Y , and θ Z stored in the platform storage area from the sensor detection unit 217. Is mentioned. For example, this is an acquisition method in which a request is sent from the main control unit 215 to the sensor detection unit 217, and the data output by the sensor detection unit 217 is received by the main control unit 215 accordingly. In addition, for example, an acquisition method may be employed in which the main control unit 215 appropriately receives data continuously output from the sensor detection unit 217 even when there is no request. The main control unit 215 sends a request to the sensor detection unit 217 in response to a request output from the application program via the application program execution management unit 214, and the data output by the sensor detection unit 217 in response to the request is sent to the main control unit. The acquisition method received by 215 can also be adopted.

上記カメラ部219は、上述のカメラ209等で構成されている。このカメラ部219は、上記主制御部215の制御の下で動作し、その撮像データは主制御部215が取得する。この撮像データは、主制御部215を介して出力部216に送られ、撮像対象の画像が液晶ディスプレイ27に表示される。よって、利用者は、カメラ29を用いて撮影を行う場合、液晶ディスプレイ27に表示される画像を見ながら撮像対象をとらえることができる。そして、利用者が操作部213に対して所定のレリーズ操作を行うと、主制御部215は、カメラ部219にレリーズ命令を出力する。これにより、カメラ部219は撮像対象を撮像し、その画像データを主制御部215に出力する。主制御部215は、この画像データをRAM202のプラットフォーム用記憶領域に保存する。   The camera unit 219 includes the above-described camera 209 and the like. The camera unit 219 operates under the control of the main control unit 215, and the main control unit 215 acquires the image data. This imaging data is sent to the output unit 216 via the main control unit 215, and an image to be captured is displayed on the liquid crystal display 27. Therefore, the user can capture the imaging target while viewing the image displayed on the liquid crystal display 27 when shooting using the camera 29. When the user performs a predetermined release operation on the operation unit 213, the main control unit 215 outputs a release command to the camera unit 219. As a result, the camera unit 219 images the imaging target and outputs the image data to the main control unit 215. The main control unit 215 stores this image data in the platform storage area of the RAM 202.

携帯電話機20を所定の手順に従って動作させる電話機プラットフォームを構築するための制御用プログラムは、RAM202やROM203に記憶されている。また、基本OS(オペレーティングシステム)のプログラムや、上記アプリケーション実行環境を構築するためのプログラム及びアプリケーションプログラムも、RAM202やROM203に記憶されている。そして、これらのプログラムは、必要に応じてCPU201やRAM202中の作業エリアに呼び出されて実行される。   A control program for constructing a telephone platform for operating the mobile telephone 20 according to a predetermined procedure is stored in the RAM 202 and the ROM 203. Further, a basic OS (operating system) program, a program for building the application execution environment, and an application program are also stored in the RAM 202 and the ROM 203. These programs are called up and executed in the work area in the CPU 201 or RAM 202 as necessary.

〔制御例1〕
次に、上記カメラ部219で撮像して得た画像データについてのデータ処理の一制御例(以下、本制御例を「制御例1」という。)について説明する。
本制御例1は、山頂から水平360°の風景を1枚の画像として撮像する場合の例である。以下、説明のため、内蔵カメラ29の撮影角度は、水平45°、垂直30°とする。よって、水平360°の風景を1枚の画像として撮像するには、その撮像方向を水平方向に45°ずつズラしながら合計8枚の画像を撮像した後、これらの画像を適切に配列して合成するデータ処理を行う必要がある。以下、本制御例1を、撮像工程と、データ処理工程とに分けて説明する。
[Control example 1]
Next, one control example of data processing for image data obtained by imaging with the camera unit 219 (hereinafter, this control example will be referred to as “control example 1”) will be described.
This control example 1 is an example in the case of taking a landscape 360 ° horizontally from the mountain top as one image. Hereinafter, for the sake of explanation, the shooting angle of the built-in camera 29 is assumed to be 45 ° horizontal and 30 ° vertical. Therefore, in order to capture a horizontal 360 ° landscape as a single image, a total of eight images are captured while shifting the imaging direction by 45 ° in the horizontal direction, and then these images are arranged appropriately. It is necessary to perform data processing to be synthesized. Hereinafter, the present control example 1 will be described separately for an imaging process and a data processing process.

撮像工程を開始する前に、まず、ユーザー1は、パノラマ撮影用のアプリケーションプログラムを上記ダウンロードサーバ11からダウンロードして取得し、これを登録する。具体的には、ユーザー1は、操作部213のキーを操作して、ダウンロードサーバ11にアクセスする。これにより、ダウンロード可能なアプリケーションプログラムを選択するためのダウンロード選択画面が液晶ディスプレイ27上に表示される。そして、そのダウンロード選択画面において、実行対象となるパノラマ撮影用のアプリケーションプログラムをスクロールキー24を用いて選択し、多機能キー25を押下すると、主制御部215がデータ通信部212を制御して、そのアプリケーションプログラムをダウンロードサーバ11からダウンロードする。このようにしてダウンロードされたアプリケーションプログラムは、主制御部215により、RAM102に記憶される。   Before starting the imaging process, first, the user 1 downloads and acquires a panorama shooting application program from the download server 11 and registers it. Specifically, the user 1 accesses the download server 11 by operating a key of the operation unit 213. As a result, a download selection screen for selecting a downloadable application program is displayed on the liquid crystal display 27. On the download selection screen, when the panorama shooting application program to be executed is selected using the scroll key 24 and the multifunction key 25 is pressed, the main control unit 215 controls the data communication unit 212, The application program is downloaded from the download server 11. The application program downloaded in this way is stored in the RAM 102 by the main control unit 215.

図1は、本制御例1の撮像工程の流れを示すフローチャートである。
山頂において、ユーザー1は、まず、ダウンロードしたパノラマ撮影用のアプリケーションプログラムを実行する。具体的には、ユーザー1は、操作部213のキーを操作して、実行するアプリケーションプログラムを選択するためのアプリケーション選択画面を液晶ディスプレイ27上に表示させる。そして、そのアプリケーション選択画面において、実行対象であるパノラマ撮影用のアプリケーションプログラムをスクロールキー24を用いて選択し、多機能キー25を押下する。すると、図7に示した電話機プラットフォームすなわち図6に示した主制御部215に、アプリケーションプログラムの実行指示が入力される(S1)。これにより、主制御部215は、パノラマ撮影用のアプリケーションプログラムを読み出してこれを起動する(S2)。アプリケーションプログラムが起動すると、図7に示したアプリケーション実行環境すなわち図6に示したアプリケーションプログラム実行管理部214上で、そのアプリケーションプログラムが動作する。
FIG. 1 is a flowchart illustrating the flow of the imaging process of the first control example.
At the summit, the user 1 first executes the downloaded application program for panoramic photography. Specifically, the user 1 operates a key of the operation unit 213 to display an application selection screen for selecting an application program to be executed on the liquid crystal display 27. Then, on the application selection screen, the panorama shooting application program to be executed is selected using the scroll key 24 and the multifunction key 25 is pressed. Then, an application program execution instruction is input to the telephone platform shown in FIG. 7, that is, the main control unit 215 shown in FIG. 6 (S1). As a result, the main control unit 215 reads the application program for panoramic photography and activates it (S2). When the application program is started, the application program operates on the application execution environment shown in FIG. 7, that is, the application program execution management unit 214 shown in FIG.

パノラマ撮影用のアプリケーションプログラムが起動した後、ユーザー1は、上記アプリケーションプログラムの起動後、携帯電話機20の内蔵カメラ29のレンズ面が撮像対象に向くように、携帯電話機20を把持する。このとき、携帯電話機20の液晶ディスプレイ27には、内蔵カメラ29により撮像される撮像対象の画像が表示される。よって、ユーザー1は、液晶ディスプレイ27に表示される画像を見ることで、撮像対象を確認しながら撮像を行うことができる。そして、360°の風景の中から最初に撮像する部分を決めたら、ユーザー1は、操作部213に対して所定のレリーズ操作する(S3)。なお、ここでは真北の風景を最初に撮像するものとする。すると、その操作信号が操作部213から主制御部215へ送られ、主制御部215は、カメラ部219へレリーズ命令を出力する。レリーズ命令を受けたカメラ部219は撮像を行い(S4)、これにより得た画像データを主制御部215へ送る。
一方で、主制御部215は、操作部213から上記操作信号を受けたとき、センサ検知部217によって検知された方位角θNのデータ(撮像方向データ)を取得する(S5)。ここで、方位角θNは、内蔵カメラ29の撮像方向が向くZ軸方向と北方位とのなす角であるので、この方位角θNによって撮像方向が向いている方位を特定することができる。なお、ここでは真北の風景を撮像したので、方位角θNは0°である。そして、主制御部215は、データ保存手段として機能し、カメラ部219から取得した画像データを、センサ検知部217から取得した方位角θNのデータに関連付けた状態で、RAM202内のプラットフォーム用記憶領域に保存する。具体的には、画像データは、プラットフォーム用記憶領域中の画像データ記憶領域(画像データ記憶手段)に保存され、その画像データの撮像時における方位角θNのデータは、その画像データの管理情報が記憶される管理情報記憶領域(撮像方向データ記憶手段)に保存される(S6)。
After the application program for panoramic photography is activated, after the application program is activated, the user 1 holds the cellular phone 20 so that the lens surface of the built-in camera 29 of the cellular phone 20 faces the imaging target. At this time, an image to be imaged captured by the built-in camera 29 is displayed on the liquid crystal display 27 of the mobile phone 20. Therefore, the user 1 can perform imaging while confirming the imaging target by viewing the image displayed on the liquid crystal display 27. When the first imaged part is determined from the 360 ° landscape, the user 1 performs a predetermined release operation on the operation unit 213 (S3). Here, it is assumed that the true north landscape is imaged first. Then, the operation signal is sent from the operation unit 213 to the main control unit 215, and the main control unit 215 outputs a release command to the camera unit 219. Upon receiving the release command, the camera unit 219 performs imaging (S4), and sends image data obtained thereby to the main control unit 215.
On the other hand, when receiving the operation signal from the operation unit 213, the main control unit 215 acquires data of the azimuth angle θ N (imaging direction data) detected by the sensor detection unit 217 (S5). Here, since the azimuth angle θ N is an angle formed by the Z-axis direction in which the imaging direction of the built-in camera 29 is directed and the north direction, the azimuth direction in which the imaging direction is directed can be specified by the azimuth angle θ N. . Here, since a true north landscape is imaged, the azimuth angle θ N is 0 °. The main control unit 215 functions as a data storage unit, and stores the platform data in the RAM 202 in a state in which the image data acquired from the camera unit 219 is associated with the data of the azimuth angle θ N acquired from the sensor detection unit 217. Save to area. Specifically, the image data is stored in an image data storage area (image data storage means) in the platform storage area, and the data of the azimuth angle θ N at the time of imaging the image data is management information of the image data Is stored in the management information storage area (imaging direction data storage means) (S6).

このようにして最初の撮像を終えたら、次に、ユーザー1は、内蔵カメラ20の撮像方向が画像データの1画像分だけ変化するまで、携帯電話機20の向きを水平方向に変える。本実施形態では、内蔵カメラ29の水平方向の撮像角度が45°であるので、ユーザー1は、最初に撮像したときの撮像方向から水平方向に東側へ45°分だけ携帯電話機20の向きを変える。このとき、後述するデータ処理工程によって得られる合成画像データにおいて画像の連続性を高めるためには、ユーザー1がきちんと45°分だけ携帯電話機20の向きを変える必要がある。そこで、本制御例1では、ユーザー1がきちんと45°分だけ携帯電話機20の向きを変えることができるように、液晶ディスプレイ27に、内蔵カメラ29により撮像される撮像対象の画像とともに、その撮像方向を示す画像も表示する。   After the first imaging is completed in this way, the user 1 next changes the orientation of the mobile phone 20 in the horizontal direction until the imaging direction of the built-in camera 20 changes by one image data. In the present embodiment, since the horizontal imaging angle of the built-in camera 29 is 45 °, the user 1 changes the orientation of the mobile phone 20 by 45 ° to the east side in the horizontal direction from the imaging direction at the time of first imaging. . At this time, in order to increase the continuity of the image in the composite image data obtained by the data processing process described later, the user 1 needs to properly change the orientation of the mobile phone 20 by 45 °. Therefore, in the present control example 1, in order to enable the user 1 to properly change the orientation of the mobile phone 20 by 45 °, the image pickup direction along with the image to be picked up by the built-in camera 29 is displayed on the liquid crystal display 27. An image showing is also displayed.

具体的に説明すると、主制御部215は、ユーザー1がレリーズ操作して操作部213から操作信号を受けたとき、その旨を示すイベントをアプリケーション実行環境を介してアプリケーションプログラムへ送る。これにより、パノラマ撮影用のアプリケーションプログラムは、図8に示すように、液晶ディスプレイ27の画面が上下に2分割されるように、アプリケーション実行環境を介して出力部216により表示制御を行う(S7)。この画面において、上側の画面部分Aには上述したように内蔵カメラ29により撮像される撮像対象の画像を表示し、下側の画面部分Bには、内蔵カメラ29の撮像方向を示す画像であるインジケータ枠b1を表示する。また、下側の画面部分Bには、このインジケータ枠b1の中央上部に2番目に撮像すべき撮像方向の目標(北東方位)を示す矢印b2も表示する。
また、上記アプリケーションプログラムは、主制御部215からの上記イベントを受けると、アプリケーションプログラム実行管理部214に対して計測開始命令を送る。これを受けたアプリケーションプログラム実行管理部214は、電話機プラットフォームの主制御部215に対して計測開始命令を送る。これを受けた主制御部215は、以後、センサ検知部217によって検知された方位角θNのデータを連続的に取得する処理を開始し(S8)、これをRAM202内のアプリケーション用記憶領域に一時的に保存していく。これにより、最初の撮像を終えたユーザー1が携帯電話機の向きを水平方向に変えると、その変化に応じた方位角θNのデータがセンサ検知部217から主制御部215へ連続的に出力される。したがって、主制御部215は、ほぼリアルタイムで方位角θNのデータを連続的に取得することができる。
More specifically, when the user 1 performs a release operation and receives an operation signal from the operation unit 213, the main control unit 215 sends an event indicating that to the application program via the application execution environment. As a result, the application program for panoramic photography performs display control by the output unit 216 via the application execution environment so that the screen of the liquid crystal display 27 is vertically divided into two as shown in FIG. 8 (S7). . In this screen, the upper screen portion A displays an image to be imaged by the built-in camera 29 as described above, and the lower screen portion B shows an image indicating the imaging direction of the built-in camera 29. An indicator frame b 1 is displayed. In addition, on the lower screen portion B, an arrow b 2 indicating the target (northeast direction) of the imaging direction to be imaged second is displayed at the upper center of the indicator frame b 1 .
When the application program receives the event from the main control unit 215, the application program sends a measurement start command to the application program execution management unit 214. In response to this, the application program execution management unit 214 sends a measurement start command to the main control unit 215 of the telephone platform. Receiving this, the main control unit 215 thereafter starts processing to continuously acquire data of the azimuth angle θ N detected by the sensor detection unit 217 (S8), and stores this in the application storage area in the RAM 202. Save temporarily. Thereby, when the user 1 who has finished the first imaging changes the orientation of the mobile phone to the horizontal direction, the data of the azimuth angle θ N corresponding to the change is continuously output from the sensor detection unit 217 to the main control unit 215. The Therefore, the main control unit 215 can continuously acquire data of the azimuth angle θ N in substantially real time.

最初の撮像を終えたユーザー1が携帯電話機の向きを水平方向に変えると、上記アプリケーションプログラムは、アプリケーション用記憶領域に保存された方位角θNのデータに基づき、現在の撮像方向をほぼリアルタイムで把握することができる。そして、把握した撮像方向に応じて、図8中斜線で示すインジケータb3の長さが変わるように表示制御を行う(S9)。このような表示制御を行うことで、ユーザー1は、そのインジケータb3の先端が矢印b2に到達するように、携帯電話機20の向きを水平方向に変えることができる。そして、インジケータb3の先端が矢印b2に到達したとき、内蔵カメラ29の撮像方向は、最初に撮像したときの撮像方向から水平方向に東側へ45°分だけ変化したものとなる。このように、ユーザー1は、液晶ディスプレイ27に表示されるインジケータb3及び矢印b2によって、最初の撮像が終了した後、内蔵カメラ29の撮像方向が最初の撮像により得られた画像データの1画像分だけ変化したことが報知される。したがって、ユーザー1は、インジケータb3の先端が矢印b2に到達したときに、レリーズ操作を行えば、最初に撮像した画像に対して高い連続性のある画像を撮像することができる。なお、インジケータb3の先端が矢印b2の箇所に存在するときに、すなわち、方位角θNのデータが次の撮像方向の目標(北東方位:45°)に一致するときに、出力部216のスピーカ28から音を出すようにしてもよい。これにより、ユーザー1は、内蔵カメラ29の撮像方向が次の撮像方向の目標とピッタリと合う向きを更に認識しやすくなり、画像連続性を更に高めることができる。 When the user 1 who finished the first imaging changes the orientation of the mobile phone to the horizontal direction, the application program changes the current imaging direction in near real time based on the azimuth angle θ N data stored in the application storage area. I can grasp it. Then, according to the imaging direction that is grasped, performs display control so that the length of the indicator b 3 indicated by hatching in FIG. 8 is changed (S9). By performing such display control, the user 1 can change the orientation of the mobile phone 20 in the horizontal direction so that the tip of the indicator b 3 reaches the arrow b 2 . Then, when the tip of the indicator b 3 reaches the arrow b 2 , the imaging direction of the built-in camera 29 is changed by 45 ° eastward in the horizontal direction from the imaging direction at the first imaging. As described above, the user 1 uses the indicator b 3 and the arrow b 2 displayed on the liquid crystal display 27, and after the first imaging is completed, the imaging direction of the built-in camera 29 is 1 of the image data obtained by the first imaging. It is notified that the image has changed by the amount. Therefore, if the user 1 performs the release operation when the tip of the indicator b 3 reaches the arrow b 2 , the user 1 can capture an image having high continuity with respect to the first captured image. Note that when the tip of the indicator b 3 is present at the position of the arrow b 2 , that is, when the data of the azimuth angle θ N matches the target of the next imaging direction (north azimuth direction: 45 °), the output unit 216 You may make it emit a sound from the speaker 28 of this. As a result, the user 1 can more easily recognize the direction in which the imaging direction of the built-in camera 29 matches the target of the next imaging direction, and can further improve image continuity.

以上のようにして、2枚目以降の画像を撮影する場合、ユーザー1は、インジケータb3を確認しながらレリーズ操作を行い、主制御部215は、画像データ及び撮像時の方位角θNのデータを保存する処理を繰り返し行う(S3〜S9)。そして、8回撮像を行って360°の風景をすべて撮像し終えたら、ユーザー1は、操作部213のキーを操作して、撮像工程を終了する(S10)。その結果、RAM202のプラットフォーム用記憶領域には、下記の表1に示すような8つの画像データが保存されることになる。

Figure 0003959393
As described above, when shooting the second and subsequent images, the user 1 performs the release operation while checking the indicator b 3 , and the main control unit 215 determines the image data and the azimuth angle θ N at the time of imaging. The process of saving data is repeated (S3 to S9). Then, after imaging 8 times and capturing all 360 ° scenery, the user 1 operates the keys of the operation unit 213 to end the imaging process (S10). As a result, eight image data as shown in Table 1 below are stored in the platform storage area of the RAM 202.
Figure 0003959393

図9は、本制御例1のデータ処理工程の流れを示すフローチャートである。
上記撮像工程を終えた後、ユーザーは、データ処理工程を開始すべく操作部213のキーに対して所定の操作を行うと、主制御部215は、データ処理手段としてのアプリケーションプログラム実行管理部214へその旨の指示を送り、パノラマ撮影用のアプリケーションプログラムがデータ処理工程を開始する。データ処理工程が開始すると、まず、主制御部215は、電話機プラットフォームライブラリを利用したアプリケーション実行環境からの指示に基づき、RAM202のプラットフォーム用記憶領域に記憶された8つの画像データ及びこれらに関連付けられた方位角θNのデータを読み出し、これらのデータをアプリケーション用記憶領域へ移行する(S11)。その後、アプリケーションプログラム実行管理部214は、アプリケーションプログラムの内容に従い、アプリケーション用記憶領域へ移行されたデータの中から方位角θNのデータを読み出し(S12)、各方位角θNのデータに基づいて各画像データの適切な配列順序を特定する(S13)。そして、各画像データの画像がその配列順序に配列された1つの画像となるように、各画像データを合成して1つの画像データとするデータ合成処理を行う(S14)。このようにして合成された合成画像データは、RAM202のアプリケーション用記憶領域に保存される(S15)。
FIG. 9 is a flowchart showing the flow of the data processing process of the first control example.
When the user performs a predetermined operation on the key of the operation unit 213 in order to start the data processing process after the imaging process is finished, the main control unit 215 causes the application program execution management unit 214 as a data processing unit. The application program for panoramic photography starts a data processing process. When the data processing process starts, first, the main control unit 215, based on an instruction from the application execution environment using the telephone platform library, the eight image data stored in the platform storage area of the RAM 202 and the associated image data. Data of the azimuth angle θ N is read, and these data are transferred to the application storage area (S11). Thereafter, the application program execution management unit 214 reads out the data of the azimuth angle θ N from the data transferred to the application storage area according to the contents of the application program (S12), and based on the data of each azimuth angle θ N An appropriate arrangement order of each image data is specified (S13). Then, a data composition process is performed to synthesize the image data into one image data so that the images of the image data become one image arranged in the arrangement order (S14). The synthesized image data synthesized in this way is stored in the application storage area of the RAM 202 (S15).

以上、本制御例1によれば、ユーザー1が山頂から水平360°の風景を8回に分けて撮像して得た8つの画像データを、各画像データの撮像時の方位角θNのデータ(撮像方向データ)に基づいて適切に合成することができる。したがって、山頂から見える水平360°の風景を1枚の画像として得ることができる。しかも、本制御例1では、撮像した画像データが撮像時の方位角θNのデータに関連付けられているので、画像の配列順序と撮像の順序がバラバラでも、画像データを合成する際に適切な配列順序を特定することができる。よって、パノラマ撮影を行う際のユーザー1の利便性が非常に高い。 As described above, according to the present control example 8, eight image data obtained by the user 1 capturing a landscape 360 ° horizontally from the top of the mountain in eight portions are obtained as azimuth θ N data at the time of capturing each image data. Based on (imaging direction data), it is possible to combine appropriately. Therefore, a horizontal 360 ° landscape seen from the top of the mountain can be obtained as one image. Moreover, in the present control example 1, since the captured image data is associated with the data of the azimuth angle θ N at the time of imaging, it is appropriate when combining image data even if the arrangement order of the images and the imaging order are different. The arrangement order can be specified. Therefore, the convenience of the user 1 when performing panoramic shooting is very high.

なお、本制御例1では、ユーザーが次に撮像すべき適切な撮像方向に向かって撮像を行うようにユーザー1を誘導するインジケータは、図8に示したものに限られない。
例えば、図10に示すような円形のインジケータ枠c1を用いることができる。この場合、最初の撮像を終えたユーザー1が携帯電話機20の向きを水平方向に変えると、方位角θNのデータに基づいて把握される撮像方向に応じて、3つの菱形マークが円形のインジケータ枠c1の円周に沿って移動するように表示制御を行う。このインジケータ枠c1には、最初に撮像したときの撮像方向を示す菱形マークc2と、2番目に撮像すべき撮像方向の目標(北東方位及び北西方向)を示す菱形マークc3も表示されている。また、このインジケータ枠c1には、十字の照準マークが表示されており、この照準の上下方向に延びる線が現在の撮像方向を示している。よって、ユーザー1は、現在の撮像方向を示す照準マークの線に次の目標となる菱形マークc3が重なるように、携帯電話機20の向きを水平方向に変えることで、水平方向については、次に撮像すべき適切な撮像方向で撮像を行うことができる。
また、図11に示すような円形のインジケータ枠d1を用いることができる。この場合、最初の撮像を終えたユーザー1が携帯電話機20の向きを水平方向に変えると、方位角θNのデータに基づいて把握される撮像方向に応じて、現在の撮像方向を示し矢印d4が円形のインジケータ枠c1の円周に沿って移動するように表示制御を行う。このインジケータ枠d1に表示されている菱形マークのうち、符号d2で示すものは最初に撮像したときの撮像方向を示すマークであり、符号d3で示すものは2番目に撮像すべき撮像方向の目標(北東方位及び北西方向)を示すマークである。よって、ユーザー1は、現在の撮像方向を示す矢印d4が次の目標となる菱形マークd3を指すように、携帯電話機20の向きを水平方向に変えることで、水平方向については、次に撮像すべき適切な撮像方向で撮像を行うことができる。
In the present control example 1, the indicator for guiding the user 1 so that the user performs imaging in the appropriate imaging direction to be imaged next is not limited to that shown in FIG.
For example, a circular indicator frame c 1 as shown in FIG. 10 can be used. In this case, when the user 1 having been subjected to the first imaging changing the orientation of the mobile phone 20 in the horizontal direction, according to the imaging direction is grasped based on the data of azimuth theta N, three diamond mark circular indicator Display control is performed so as to move along the circumference of the frame c 1 . In this indicator frame c 1 , a rhombus mark c 2 indicating the imaging direction when the image is first captured and a rhombus mark c 3 indicating the target of the imaging direction to be imaged second (the northeast direction and the northwest direction) are also displayed. ing. Moreover, this indicator frame c 1, the cross of the aiming mark is displayed and a line extending in the vertical direction of the sight indicates the current imaging direction. Therefore, the user 1 changes the orientation of the mobile phone 20 in the horizontal direction so that the next target rhombus mark c 3 overlaps the line of the aiming mark indicating the current imaging direction. Imaging can be performed in an appropriate imaging direction to be imaged.
Further, a circular indicator frame d 1 as shown in FIG. 11 can be used. In this case, when the user 1 having been subjected to the first imaging changing the orientation of the mobile phone 20 in the horizontal direction, according to the imaging direction is grasped based on the data of azimuth theta N, indicates the current imaging direction arrow d 4 performs display control to move along a circumference of the circular indicator frame c 1. Among the rhombus marks displayed in the indicator frame d 1 , the one indicated by the symbol d 2 is a mark indicating the imaging direction when first imaged, and the one indicated by the symbol d 3 is an image to be imaged second. It is a mark indicating a direction target (northeast direction and northwest direction). Therefore, the user 1 changes the direction of the mobile phone 20 in the horizontal direction so that the arrow d 4 indicating the current imaging direction points to the next target diamond mark d 3 , so that Imaging can be performed in an appropriate imaging direction to be imaged.

また、本制御例1では、図8、図10及び図11に示したようにインジケータによって、ユーザーが次に撮像すべき適切な撮像方向に向かって撮像を行うようにユーザー1を誘導する場合について説明したが、音声等を出力する他の報知手段によってユーザー1を誘導してもよい。
また、本制御例1では、水平方向について1回では撮像できないような撮像対象を撮像する場合について説明したが、鉛直方向について1回では撮像できないような撮像対象を撮像する場合も同様である。この場合、方位角θNのデータに代えて、ピッチ角θXのデータを撮像方向データとして画像データに関連付けて記憶すればよい。このような鉛直方向について複数回に分けて撮像して得た画像データを合成することは、例えば高層ビルの全体を比較的近い場所で撮像する場合などに有効である。また、水平方向について複数画像を合成する処理と、鉛直方向について複数画像を合成する処理とを組み合わせることもできる。この場合、方位角θNのデータに加えて、ピッチ角θXのデータも撮像方向データとして画像データに関連付けて記憶し、その方位角θNのデータ及びピッチ角θXのデータに基づいて2次元配列を特定し、データ合成処理を行えばよい。
In the present control example 1, as shown in FIGS. 8, 10, and 11 , the user 1 is guided by the indicator so that the user performs imaging in an appropriate imaging direction to be imaged next. As described above, the user 1 may be guided by other notification means that outputs voice or the like.
Further, in the present control example 1, the case where an imaging target that cannot be captured at once in the horizontal direction has been described, but the same applies to the case where an imaging target that cannot be captured at once in the vertical direction is captured. In this case, instead of the azimuth angle θ N data, the pitch angle θ X data may be stored in association with the image data as imaging direction data. Combining image data obtained by capturing images in such a plurality of times in the vertical direction is effective, for example, when capturing the entire high-rise building at a relatively close location. Also, the process of combining a plurality of images in the horizontal direction and the process of combining a plurality of images in the vertical direction can be combined. In this case, in addition to the data of the azimuth angle θ N, the data of the pitch angle θ X is also stored in association with the image data as the imaging direction data, and 2 based on the data of the azimuth angle θ N and the data of the pitch angle θ X. What is necessary is just to specify a dimension array and to perform a data composition process.

〔変形例1〕
上記制御例1によれば、インジケータによって、ユーザー1は、水平方向についてだけ次に撮像すべき適切な撮像方向を認識することができる。しかし、水平方向についてだけ適切な撮像方向に向かって撮像しても、鉛直方向についての撮像方向が他の画像データとズレていると画像の連続性が低下する。よって、液晶ディスプレイ27に、水平方向のインジケータだけでなく、鉛直方向のインジケータも表示して、ユーザー1を誘導する方が好ましい。このような鉛直方向のインジケータを表示する場合は、センサ検知部217で検知されるピッチ角θXを利用すればよい。また、水平方向及び鉛直方向についての撮像方向が適切な方向に向かっていても、その撮像方向を回転軸として携帯電話機20が回転していると、画像の上下方向と鉛直方向とが一致せず、撮像した画像が傾いたものとなる。この場合も、画像の連続性が低下する。よって、液晶ディスプレイ27に、水平方向や鉛直方向のインジケータだけでなく、携帯電話機20の回転についてのインジケータも表示して、ユーザー1を誘導する方が好ましい。携帯電話機20の回転についてのインジケータを表示する場合は、センサ検知部217で検知される加速度αX,αYのデータを利用すればよい。なお、センサ検知部217で検知されるヨー角θZを利用しても、携帯電話機20の回転についてのインジケータを表示することができる。
[Modification 1]
According to the control example 1, the indicator 1 allows the user 1 to recognize an appropriate imaging direction to be imaged next only in the horizontal direction. However, even if the image is picked up in an appropriate image pickup direction only in the horizontal direction, the continuity of the image is lowered if the image pickup direction in the vertical direction is different from other image data. Therefore, it is preferable to guide the user 1 by displaying not only a horizontal indicator but also a vertical indicator on the liquid crystal display 27. When displaying such an indicator in the vertical direction, the pitch angle θ X detected by the sensor detection unit 217 may be used. Even if the imaging directions in the horizontal direction and the vertical direction are in appropriate directions, if the mobile phone 20 is rotated about the imaging direction as a rotation axis, the vertical direction of the image does not match the vertical direction. The captured image is tilted. Also in this case, the continuity of the image is lowered. Therefore, it is preferable to guide the user 1 by displaying not only horizontal and vertical indicators on the liquid crystal display 27 but also an indicator about the rotation of the mobile phone 20. In order to display an indicator for the rotation of the mobile phone 20, the acceleration α X and α Y data detected by the sensor detection unit 217 may be used. Even by utilizing the yaw angle theta Z detected by the sensor detecting unit 217 can display an indicator for the rotation of the mobile phone 20.

具体的に説明すると、図8に示したインジケータ枠b1に代えて、例えば図12(a)及び(b)に示すようなインジケータ枠e1を用いる。そして、ユーザー1が最初の撮像を行うためにレリーズ操作を行ったときに、センサ検知部217によって検知されるピッチ角θXを記憶しておき、これを基準ピッチ角θX0とする。図12(a)及び(b)に示したインジケータ枠e1を用いる場合、最初の撮像を終えたユーザー1が携帯電話機20の向きを水平方向に変えると、方位角θNのデータに基づいて把握される撮像方向に応じて、撮像方向を示す実線菱形マークe2が円形のインジケータ枠e1の円周に沿って移動するように表示制御を行う。このインジケータ枠e1には、2番目に撮像すべき撮像方向の目標(北東方位及び北西方向)を示す破線菱形マークe3も表示されている。よって、ユーザー1は、現在の撮像方向を示す実線菱形マークe2が目標となる破線菱形マークe3に到達するように、携帯電話機20の向きを水平方向に変えることで、水平方向については、次に撮像すべき適切な撮像方向で撮像を行うことができる。 Specifically, for example, an indicator frame e 1 as shown in FIGS. 12A and 12B is used instead of the indicator frame b 1 shown in FIG. The pitch angle θ X detected by the sensor detection unit 217 when the user 1 performs the release operation for the first image pickup is stored, and this is set as the reference pitch angle θ X0 . When the indicator frame e 1 shown in FIGS. 12A and 12B is used, when the user 1 who has finished the first imaging changes the orientation of the mobile phone 20 to the horizontal direction, the data is based on the azimuth θ N data. Display control is performed so that the solid rhombus mark e 2 indicating the imaging direction moves along the circumference of the circular indicator frame e 1 according to the grasped imaging direction. In the indicator frame e 1 , a broken-line rhombus mark e 3 indicating a target of the imaging direction to be imaged secondly (northeast direction and northwest direction) is also displayed. Therefore, the user 1 changes the orientation of the mobile phone 20 in the horizontal direction so that the solid rhombus mark e 2 indicating the current imaging direction reaches the target broken rhombus mark e 3 . Next, imaging can be performed in an appropriate imaging direction to be imaged.

また、このようにして携帯電話機20の向きを水平方向に変える間に、携帯電話機の向きが鉛直方向に変化してしまうことがある。この変化は、リアルタイムで検知されるピッチ角θXのデータと上記基準ピッチ角θX0のデータとの差分によって把握することができる。そして、この差分に応じて、撮像方向を示す実線菱形マークe2が円形のインジケータ枠e1の上下方向に移動するように表示制御を行う。これにより、ユーザー1は、円形のインジケータ枠e1における実線菱形マークe2の上下方向位置が、目標となる破線菱形マークe3の上下方向位置と一致するように携帯電話機20の向きを調節することで、次の撮像時において携帯電話機の向きが最初に撮像した画像に対して鉛直方向にズレるのを抑制できる。 In addition, while changing the orientation of the mobile phone 20 in the horizontal direction in this way, the orientation of the mobile phone may change in the vertical direction. This change can be grasped by the difference between the pitch angle θ X data detected in real time and the reference pitch angle θ X0 data. And according to this difference, display control is performed so that the solid rhombus mark e 2 indicating the imaging direction moves in the vertical direction of the circular indicator frame e 1 . Thereby, the user 1 adjusts the orientation of the mobile phone 20 so that the vertical position of the solid rhombus mark e 2 in the circular indicator frame e 1 coincides with the vertical position of the target dashed rhombus mark e 3. In this way, it is possible to suppress the mobile phone from being displaced in the vertical direction with respect to the first captured image during the next imaging.

更に、このようにして携帯電話機20の向きを水平方向に変えたり、鉛直方向に調節したりしている間に、上述したように、上記撮像方向を回転軸として携帯電話機20が回転してしまうことがある。すなわち、本変形例1では、撮像時には図4に示したY軸が鉛直方向と一致している必要があり、携帯電話機20がZ軸を回転軸として回転してしまうと、Z軸方向に一致した撮像方向は変わらないが、撮像した画像の上下方向が鉛直方向からズレてしまい、画像の連続性が悪化する。そこで、本変形例1では、このような携帯電話機20の回転を、センサ検知部217の加速度センサ207で重力加速度を検知して得た加速度αX,αYのデータに基づいて把握する。具体的には、加速度αX,αYのデータに基づいて得られる、携帯電話機20のY軸の鉛直方向に対する傾斜角を、携帯電話機20の回転角として把握する。そして、把握した回転角に応じて、撮像方向を示す実線菱形マークe2が回転(自転)するように表示制御を行う。これにより、ユーザー1は、実線菱形マークe2の回転姿勢が、目標となる破線菱形マークe3の回転姿勢と一致するように携帯電話機20の姿勢を調節することで、撮像した画像の上下方向が鉛直方向からズレるのを抑制できる。 Furthermore, as described above, the mobile phone 20 rotates around the imaging direction as the rotation axis while the orientation of the mobile phone 20 is changed to the horizontal direction or adjusted in the vertical direction in this way. Sometimes. That is, in the first modification, the Y axis shown in FIG. 4 needs to coincide with the vertical direction at the time of imaging, and if the mobile phone 20 rotates about the Z axis as the rotation axis, it coincides with the Z axis direction. Although the captured image direction is not changed, the vertical direction of the captured image is shifted from the vertical direction, and the continuity of the image is deteriorated. Therefore, in the first modification, such rotation of the mobile phone 20 is grasped based on acceleration α X and α Y data obtained by detecting gravitational acceleration with the acceleration sensor 207 of the sensor detection unit 217. Specifically, the inclination angle of the mobile phone 20 with respect to the vertical direction obtained based on the acceleration α X and α Y data is grasped as the rotation angle of the mobile phone 20. Then, display control is performed so that the solid diamond mark e 2 indicating the imaging direction rotates (autorotates) according to the grasped rotation angle. Accordingly, the user 1 adjusts the posture of the mobile phone 20 so that the rotation posture of the solid rhombus mark e 2 matches the rotation posture of the target broken rhombus mark e 3. Can be prevented from shifting from the vertical direction.

そして、本変形例1によれば、円形のインジケータ枠e1における実線菱形マークe2が、目標となる破線菱形マークe3とピッタリと一致したとき、内蔵カメラ29の撮像方向は、最初に撮像したときの撮像方向から水平方向に東側へ45°分だけ変化し、かつ、鉛直方向にズレもなく、更に撮像画像の上下方向と鉛直方向との間にズレがないものとなる。本変形例1では、実線菱形マークe2が破線菱形マークe3とピッタリと一致したとき、音が出力されるので、ユーザー1は、その音が出力されたときにレリーズ操作を行うことで、最初に撮像した画像に対して高い連続性のある画像を撮像することができる。 According to the first modification, when the solid rhombus mark e 2 in the circular indicator frame e 1 matches the target broken rhombus mark e 3 , the image capturing direction of the built-in camera 29 is first captured. In this case, the image is changed from the imaging direction to the east side by 45 ° in the horizontal direction, there is no deviation in the vertical direction, and there is no deviation between the vertical direction and the vertical direction of the captured image. In the first modification, a sound is output when the solid rhombus mark e 2 matches the dashed rhombus mark e 3 , so that the user 1 performs a release operation when the sound is output, An image having high continuity with respect to the image captured first can be captured.

以上のようにして、8回撮像を行って360°の風景をすべて撮像し終えると、RAM202のプラットフォーム用記憶領域には、下記の表2に示すような8つの画像データが保存される。

Figure 0003959393
As described above, when image capturing is completed eight times and all 360 ° landscapes are imaged, eight image data as shown in Table 2 below are stored in the platform storage area of the RAM 202.
Figure 0003959393

インジケータ枠e1によってユーザー1を誘導したとしても、上記表2に示すように、2番目と6番目の撮像時には加速度αXのデータが−10となっており、携帯電話機20のY軸が鉛直方向に対して傾き、携帯電話機20が回転してしまっている。また、4番目の撮像時には、その撮像時のピッチ角θXのデータと基準ピッチ角θX0のデータとの間で差分が生じており、その撮像方向Y軸が鉛直方向にズレてしまっている。このままでは、上記制御例1と同じように、単に各方位角θNのデータに基づいて各画像データを適切な配列順序に配列して合成するだけでは、画像の連続性が得られない。そこで、本変形例1では、各画像データにそれぞれ関連付けられ加速度αX,αYのデータ及びピッチ角θXのデータと基準ピッチ角θX0のデータとの差分に基づいて、画像の連続性が高まるように画像データを加工する。例えば、携帯電話機20が回転してしまっている2番目と6番目の画像データについては、その加速度αX,αYのデータから得られる回転角分だけ、これらの画像データを回転させるなどの加工処理を行う。 Even if the user 1 is guided by the indicator frame e 1 , as shown in Table 2 above, the acceleration α X data is −10 during the second and sixth imaging, and the Y axis of the mobile phone 20 is vertical. The mobile phone 20 has been rotated with respect to the direction. In addition, at the time of the fourth imaging, a difference occurs between the data of the pitch angle θ X at the time of imaging and the data of the reference pitch angle θ X0 , and the imaging direction Y axis is shifted in the vertical direction. . As in the case of the control example 1, the image continuity cannot be obtained simply by arranging the image data in an appropriate arrangement order based on the data of each azimuth angle θ N and combining them. Therefore, in the first modification, the image continuity is based on the acceleration α X , α Y data and the difference between the pitch angle θ X data and the reference pitch angle θ X0 data associated with each image data. Process the image data to increase. For example, for the second and sixth image data in which the mobile phone 20 has been rotated, the image data is rotated by the rotation angle obtained from the acceleration α X and α Y data. Process.

〔制御例2〕
次に、上記カメラ部219で撮像して得た画像データについてのデータ処理の他の制御例(以下、本制御例を「制御例2」という。)について説明する。
本制御例2は、1回では撮影できないような横長のポスターを1枚の画像として撮像する場合の例である。このような横長のポスターを1枚の画像として撮像するには、その撮像位置を水平方向に1画像分ずつズラしながら画像を撮像した後、これらの画像を適切に配列して合成するデータ処理を行う必要がある。以下、本制御例2を、撮像工程とデータ処理工程とに分けて説明する。なお、内蔵カメラ29の撮影角度は、上記制御例1と同じとする。また、ポスターの寸法は、縦の長さが0.5m、横の長さが4mとする。
[Control example 2]
Next, another control example of data processing on image data obtained by imaging with the camera unit 219 (hereinafter, this control example will be referred to as “control example 2”) will be described.
This control example 2 is an example in which a horizontally long poster that cannot be photographed once is captured as a single image. In order to capture such a horizontally long poster as a single image, data processing is performed in which images are captured while the image capturing position is shifted by one image in the horizontal direction, and then these images are appropriately arranged and combined. Need to do. Hereinafter, the second control example will be described separately for the imaging process and the data processing process. Note that the shooting angle of the built-in camera 29 is the same as in the control example 1 described above. In addition, the poster is assumed to have a vertical length of 0.5 m and a horizontal length of 4 m.

図13は、本制御例2の撮像工程の流れを示すフローチャートである。
この撮像工程を開始する前に、ユーザー1は、上記制御例1と同様に、横長撮影用のアプリケーションプログラムを上記ダウンロードサーバ11からダウンロードして取得し、これを登録する。そして、ユーザー1は、ダウンロードした横長撮影用のアプリケーションプログラムを実行する(S21〜S22)。アプリケーションプログラムが起動した後、ユーザー1は、例えば横長ポスターの左端部分が撮像対象となるように携帯電話機20の内蔵カメラ29のレンズ面に向かせるように、携帯電話機20を把持する。そして、ユーザー1は、操作部213に対して所定のレリーズ操作する(S23)。これにより、カメラ部219では撮像が行われ(S24)、これにより得た画像データが主制御部215へ送られる。そして、主制御部215は、データ保存手段として機能し、カメラ部219から取得した画像データを、後述する移動距離データ(撮像位置データ)に関連付けた状態で、RAM202内のプラットフォーム用記憶領域に保存する。具体的には、画像データは、プラットフォーム用記憶領域中の画像データ記憶領域(画像データ記憶手段)に保存され、その画像データの撮像時における移動距離データは、その画像データの管理情報が記憶される管理情報記憶領域(撮像位置データ記憶手段)に保存される(S25)。今回の撮影は最初の撮影なので、この移動距離データは0である。
FIG. 13 is a flowchart illustrating the flow of the imaging process of the second control example.
Before starting this imaging process, the user 1 downloads and acquires the application program for landscape shooting from the download server 11 and registers it, as in the first control example. Then, the user 1 executes the downloaded application program for landscape shooting (S21 to S22). After the application program is activated, the user 1 holds the mobile phone 20 so that, for example, the left end portion of the landscape poster is directed to the lens surface of the built-in camera 29 of the mobile phone 20 so as to be imaged. Then, the user 1 performs a predetermined release operation on the operation unit 213 (S23). Thereby, the camera unit 219 performs imaging (S24), and the image data obtained thereby is sent to the main control unit 215. The main control unit 215 functions as a data storage unit, and stores the image data acquired from the camera unit 219 in the platform storage area in the RAM 202 in a state in which the image data is associated with movement distance data (imaging position data) described later. To do. Specifically, the image data is stored in an image data storage area (image data storage means) in the platform storage area, and the management information of the image data is stored as the movement distance data when the image data is captured. Stored in the management information storage area (imaging position data storage means) (S25). Since the current shooting is the first shooting, the moving distance data is zero.

このようにして最初の撮像を終えたら、次に、ユーザー1は、内蔵カメラ20の撮像位置が画像データの1画像分だけ変化するまで、携帯電話機20の位置を水平方向に変える。ここで、内蔵カメラ29の垂直方向の撮像角度が30°であり、ポスターの縦の長さが0.5mなので、ポスターの縦の長さ分を1回で撮像するためには、内蔵カメラのレンズ面からポスターまでの撮影距離を1mとする必要がある。そして、内蔵カメラ29の水平方向の撮像角度が45°なので、内蔵カメラ20の撮像位置を画像データの1画像分だけ移動させるには、ユーザー1は、最初に撮像したときの撮像位置から水平方向に約0.8m分だけポスターに沿って移動する必要がある。なお、この撮影距離は、例えば、最初の撮像前に計測しておくことで得ることができる。具体例を挙げると、ユーザー1は、携帯電話機20の図4に示すX−Y平面が水平となるように把持し、携帯電話機20の底面(図4中の下側端面)をポスター面に接触させた姿勢で、操作部213のキーを操作して計測開始を指示する。この指示を受けたアプリケーションプログラムは、主制御部215にセンサ検知部217から加速度αYのデータを連続的に取得させ、そのデータを受け取る。そして、ユーザー1が携帯電話機20を上記姿勢のまま把持した状態でポスターから離れる方向に向かって撮影ポイントまで移動する。この移動の間、アプリケーションプログラムは、加速度αYのデータを2回積分して携帯電話機の移動距離を算出する。これにより、アプリケーションプログラムは、撮影距離を得ることができる。 After completing the first imaging in this manner, the user 1 next changes the position of the mobile phone 20 in the horizontal direction until the imaging position of the built-in camera 20 changes by one image data. Here, since the vertical imaging angle of the built-in camera 29 is 30 ° and the vertical length of the poster is 0.5 m, in order to capture the vertical length of the poster at a time, the built-in camera 29 The shooting distance from the lens surface to the poster needs to be 1 m. Since the horizontal imaging angle of the built-in camera 29 is 45 °, in order to move the imaging position of the built-in camera 20 by one image of the image data, the user 1 must move horizontally from the imaging position when the image was first captured. It is necessary to move along the poster by about 0.8m. In addition, this imaging distance can be obtained by measuring before the first imaging, for example. As a specific example, the user 1 holds the mobile phone 20 so that the XY plane shown in FIG. 4 is horizontal, and contacts the bottom surface (lower end surface in FIG. 4) of the mobile phone 20 with the poster surface. In the posture, the operation unit 213 is operated to instruct the start of measurement. Upon receiving this instruction, the application program causes the main control unit 215 to continuously acquire the acceleration α Y data from the sensor detection unit 217 and receives the data. Then, the user 1 moves to the shooting point in a direction away from the poster while holding the mobile phone 20 in the above posture. During this movement, the application program calculates the moving distance of the mobile phone by integrating the acceleration α Y data twice. Thereby, the application program can obtain the shooting distance.

本制御例2においても、上記制御例1と同様に、後述するデータ処理工程によって得られる合成画像データにおいて画像の連続性を高めるために、液晶ディスプレイ27に内蔵カメラ29により撮像される撮像対象の画像とともに、その撮像位置を示す画像も表示する。具体的に説明すると、主制御部215は、ユーザー1がレリーズ操作して操作部213から操作信号を受けたとき、その旨を示すイベントをアプリケーション実行環境を介してアプリケーションプログラムへ送る。これにより、横長撮影用のアプリケーションプログラムは、図8に示したものと同様、液晶ディスプレイ27の画面が上下に2分割されるように、アプリケーション実行環境を介して出力部216により表示制御を行う(S26)。なお、本制御例2の場合、その画面の下側の画面部分に表示される矢印は、2番目に撮像すべき撮像位置の目標を示すものとなる。   Also in this control example 2, in the same manner as in the above control example 1, in order to improve the continuity of the image in the composite image data obtained by the data processing step described later, the imaging target imaged by the built-in camera 29 on the liquid crystal display 27 is selected. Along with the image, an image indicating the imaging position is also displayed. More specifically, when the user 1 performs a release operation and receives an operation signal from the operation unit 213, the main control unit 215 sends an event indicating that to the application program via the application execution environment. As a result, the application program for landscape shooting performs display control by the output unit 216 via the application execution environment so that the screen of the liquid crystal display 27 is vertically divided into two in the same manner as shown in FIG. S26). In the case of this control example 2, the arrow displayed on the lower screen portion of the screen indicates the target of the imaging position to be imaged second.

また、上記アプリケーションプログラムは、主制御部215からの上記イベントを受けると、アプリケーションプログラム実行管理部214に対して計測開始命令を送る。これを受けたアプリケーションプログラム実行管理部214は、電話機プラットフォームの主制御部215に対して計測開始命令を送る。これを受けた主制御部215は、以後、センサ検知部217によって検知された加速度αXのデータを連続的に取得する処理を開始し(S27)、これをRAM202内のアプリケーション用記憶領域に一時的に保存していく。これにより、最初の撮像を終えたユーザー1が、撮像方向すなわちZ軸がポスターへ向いた状態で、携帯電話機の位置をポスターに沿って水平方向に移動させると、その移動に応じた加速度αXのデータがセンサ検知部217から主制御部215へ連続的に出力される。したがって、主制御部215は、ほぼリアルタイムで加速度αXのデータを連続的に取得することができる。 When the application program receives the event from the main control unit 215, the application program sends a measurement start command to the application program execution management unit 214. In response to this, the application program execution management unit 214 sends a measurement start command to the main control unit 215 of the telephone platform. Receiving this, the main control unit 215 thereafter starts processing to continuously acquire the data of the acceleration α X detected by the sensor detection unit 217 (S27), and temporarily stores it in the application storage area in the RAM 202. To save. Accordingly, when the user 1 who has finished the first imaging moves the position of the mobile phone in the horizontal direction along the poster while the imaging direction, that is, the Z-axis is directed toward the poster, the acceleration α X corresponding to the movement is obtained. Is continuously output from the sensor detection unit 217 to the main control unit 215. Therefore, the main control unit 215 can continuously acquire the acceleration α X data substantially in real time.

このようにして携帯電話機の位置が水平方向に移動すると、上記アプリケーションプログラムは、アプリケーション用記憶領域に保存された加速度αXのデータを2回積分して携帯電話機20の移動距離データを連続的に算出しながら、インジケータの表示制御を行う(S28)。この移動距離データは、最初の撮像したときの撮像位置から携帯電話機20が移動した距離を示すものなので、この移動距離データから最初の撮影位置に対する現在の位置を特定することができる。そして、アプリケーションプログラムは、この移動距離データに応じて、上記制御例1と同様にインジケータの長さが変わるように表示制御を行う。このような表示制御を行うことで、ユーザー1は、そのインジケータの先端が目標を示す矢印に到達するように、携帯電話機20の位置を水平方向に移動させることができる。そして、インジケータの先端が矢印に到達したときにレリーズ操作を行うことで、最初に撮像した画像に対して高い連続性のある画像を撮像することができる。なお、上記制御例1と同様に、インジケータの先端が矢印の箇所に存在するときに出力部216のスピーカ28から音を出すようにしてもよい。 When the position of the mobile phone moves in the horizontal direction in this way, the application program integrates the acceleration α X data stored in the application storage area twice to continuously obtain the movement distance data of the mobile phone 20. While calculating, indicator display control is performed (S28). Since this moving distance data indicates the distance that the mobile phone 20 has moved from the imaging position when the first image was taken, the current position with respect to the first shooting position can be specified from this moving distance data. Then, the application program performs display control according to the movement distance data so that the length of the indicator changes as in the control example 1 described above. By performing such display control, the user 1 can move the position of the mobile phone 20 in the horizontal direction so that the tip of the indicator reaches the arrow indicating the target. Then, by performing a release operation when the tip of the indicator reaches the arrow, it is possible to capture an image having high continuity with respect to the image captured first. Similar to the control example 1 described above, sound may be emitted from the speaker 28 of the output unit 216 when the tip of the indicator exists at the position of the arrow.

以上のようにして、2枚目以降の画像を撮影する場合、ユーザー1は、インジケータを確認しながらレリーズ操作を行い、主制御部215は、画像データ及び撮像時の移動距離データ(撮像位置データ)を保存する処理を繰り返し行う(S23〜S28)。そして、5回撮像を行ってポスター全体を撮像し終えたら、ユーザー1は、操作部213のキーを操作して、撮像工程を終了する(S29)。その結果、RAM202のプラットフォーム用記憶領域には、下記の表3に示すような5つの画像データが保存されることになる。

Figure 0003959393
As described above, when shooting the second and subsequent images, the user 1 performs the release operation while checking the indicator, and the main control unit 215 moves the image data and the movement distance data (imaging position data) at the time of imaging. ) Is repeatedly performed (S23 to S28). Then, after imaging five times and capturing the entire poster, the user 1 operates the keys of the operation unit 213 to end the imaging process (S29). As a result, five image data as shown in Table 3 below are stored in the platform storage area of the RAM 202.
Figure 0003959393

図14は、本制御例2のデータ処理工程の流れを示すフローチャートである。
上記撮像工程を終えた後、ユーザーは、データ処理工程を開始すべく操作部213のキーに対して所定の操作を行うと、上記制御例1と同様に、横長撮影用のアプリケーションプログラムがデータ処理工程を開始する。そして、上記制御例1と同様に、主制御部215によって、5つの画像データ及びこれらに関連付けられた移動距離データをアプリケーション用記憶領域へ移行する(S30)。その後、アプリケーションプログラムは、アプリケーション用記憶領域へ移行されたデータの中から移動距離データを読み出し(S31)、各移動距離データに基づいて各画像データの適切な配列順序を特定する(S32)。そして、各画像データの画像がその配列順序に配列された1つの画像となるように、各画像データを合成して1つの画像データとするデータ合成処理を行った後(S33)、その合成画像データをRAM202のアプリケーション用記憶領域に保存する(S34)。
FIG. 14 is a flowchart showing the flow of the data processing step of the present control example 2.
When the user performs a predetermined operation on the key of the operation unit 213 to start the data processing process after the imaging process is completed, the application program for landscape shooting is processed by the data processing similarly to the control example 1 described above. Start the process. Then, similarly to the control example 1, the main control unit 215 shifts the five image data and the movement distance data associated therewith to the application storage area (S30). Thereafter, the application program reads movement distance data from the data transferred to the application storage area (S31), and specifies an appropriate arrangement order of the image data based on the movement distance data (S32). Then, after combining each image data to form one image data so that the image of each image data becomes one image arranged in the arrangement order (S33), the combined image Data is stored in the application storage area of the RAM 202 (S34).

以上、本制御例2によれば、ユーザー1が横長のポスターを5回に分けて撮像して得た5つの画像データを、各画像データの撮像時の移動距離データ(撮像位置データ)に基づいて適切に合成することができる。したがって、横長のポスターを1枚の画像として得ることができる。しかも、本制御例2では、撮像した画像データが撮像時の移動距離データに関連付けられているので、画像の配列順序と撮像の順序がバラバラでも、画像データを合成する際に適切な配列順序を特定することができる。よって、このような横長の被写体を撮影する際のユーザー1の利便性が非常に高い。   As described above, according to the second control example, the five image data obtained by the user 1 capturing the horizontally long poster in five times are obtained based on the movement distance data (imaging position data) at the time of capturing each image data. Can be synthesized appropriately. Therefore, a horizontally long poster can be obtained as one image. In addition, in this control example 2, since the captured image data is associated with the movement distance data at the time of imaging, an appropriate arrangement order can be set when combining the image data even if the arrangement order of the images and the order of the imaging are different. Can be identified. Therefore, the convenience of the user 1 when photographing such a horizontally long subject is very high.

なお、本制御例2では、インジケータによって、ユーザーが次に撮像すべき適切な撮像位置で撮像を行うようにユーザー1を誘導する場合について説明したが、音声等を出力する他の報知手段によってユーザー1を誘導してもよい。
また、本制御例2によれば、インジケータによって、ユーザー1は、水平方向についてだけ次に撮像すべき適切な撮像位置を認識することができる。しかし、水平方向についてだけ適切な撮像位置で撮像しても、鉛直方向についての撮像方向が他の画像データとズレていると画像の連続性が低下する。よって、上記制御例1と同様に、液晶ディスプレイ27に、水平方向のインジケータだけでなく、鉛直方向のインジケータも表示して、ユーザー1を誘導する方が好ましい。このような鉛直方向のインジケータを表示する方法は、上記制御例1と同様である。
また、本制御例2では、水平方向について1回では撮像できないような撮像対象を撮像する場合について説明したが、鉛直方向について1回では撮像できないような撮像対象を撮像する場合も同様である。この場合、X軸方向の加速度αXから算出される移動距離データに代えて、Y軸方向の加速度αYを2回積分して得られる移動距離データを、撮像位置データとして画像データに関連付けて記憶すればよい。また、水平方向について複数画像を合成する処理と、鉛直方向について複数画像を合成する処理とを組み合わせることもできる。この場合、X軸方向の加速度αXから算出される移動距離データに加えて、Y軸方向の加速度αXから算出される移動距離データも、撮像位置データとして画像データに関連付けて記憶し、これらの移動距離データに基づいて2次元配列を特定し、データ合成処理を行えばよい。
In the second control example, the case where the user guides the user 1 to take an image at an appropriate imaging position to be imaged next by the indicator has been described. However, the user is notified by other notification means that outputs sound or the like. 1 may be induced.
Further, according to this control example 2, the indicator allows the user 1 to recognize an appropriate imaging position to be imaged next only in the horizontal direction. However, even if the image is picked up at an appropriate image pickup position only in the horizontal direction, the image continuity deteriorates if the image pickup direction in the vertical direction is different from other image data. Therefore, it is preferable to guide the user 1 by displaying not only the horizontal indicator but also the vertical indicator on the liquid crystal display 27 as in the control example 1 described above. The method for displaying such a vertical indicator is the same as in the first control example.
Further, in the present control example 2, a case has been described in which an imaging target that cannot be captured once in the horizontal direction is described, but the same applies to a case where an imaging target that cannot be captured in the vertical direction is captured once. In this case, instead of the movement distance data calculated from the acceleration α X in the X-axis direction, movement distance data obtained by integrating the acceleration α Y in the Y-axis direction twice is associated with the image data as imaging position data. Just remember. Also, the process of combining a plurality of images in the horizontal direction and the process of combining a plurality of images in the vertical direction can be combined. In this case, in addition to the travel distance data calculated from the acceleration alpha X in the X-axis direction, also the moving distance data calculated from the acceleration alpha X in the Y-axis direction, and stored in association with the image data as the image position data, these A two-dimensional array may be specified based on the movement distance data and data synthesis processing may be performed.

〔変形例2〕
次に、上記携帯電話機20の一変形例(以下、本変形例を「変形例2」という。)について説明する。
携帯電話機20に固定された内蔵カメラ29を用いて撮像する場合、ユーザー1が携帯電話機20の向きを変えたり、位置を移動させたりして、ユーザーにより撮像方向や撮像位置を変更する必要がある。ユーザーにより撮像方向や撮像位置を変更する場合には、上述したようにインジケータによる誘導があっても、その撮像方向や撮像位置にズレが生じやすく、合成した画像について高い画像連続性を安定して得ることが難しい。そこで、本変形例2では、撮像方向や撮像位置を携帯電話機20側で自動的に行う構成について説明する。
[Modification 2]
Next, a modified example of the mobile phone 20 (hereinafter, this modified example is referred to as “modified example 2”) will be described.
When imaging is performed using the built-in camera 29 fixed to the mobile phone 20, the user 1 needs to change the imaging direction and the imaging position by changing the orientation or moving the position of the mobile phone 20. . When the user changes the imaging direction or imaging position, even if there is guidance by the indicator as described above, the imaging direction or imaging position is likely to be misaligned, and the synthesized image has high image continuity stably. Difficult to get. Therefore, in the second modification, a configuration in which the imaging direction and the imaging position are automatically performed on the mobile phone 20 side will be described.

図15は、携帯電話機20の外部端子に接続される撮像手段としての外部カメラ装置30を示す外観図である。
この外部カメラ装置30は、携帯電話機20の底部に設けられた図示しない外部端子とデータ通信可能に接続される接続部31と、この接続部31に回動自在に取り付けられた可動カメラ部32とから構成されている。可動カメラ部32の内部には、上記内蔵カメラ29と同様のカメラが収容されており、そのレンズ面32aが外部に露出している。また、このレンズ面32aに対して90°ズレた位置からは、回転軸32bが延びており、その端部が接続部31に回動自在に支持されている。この回転軸32bの端部は、接続部31の内部に設けられた図示しない駆動モータに接続されている。これにより、駆動モータを回転させることで、可動カメラ部32の撮像方向を変更することができる。
FIG. 15 is an external view showing an external camera device 30 as imaging means connected to an external terminal of the mobile phone 20.
The external camera device 30 includes a connection unit 31 connected to an external terminal (not shown) provided on the bottom of the mobile phone 20 so as to be able to perform data communication, and a movable camera unit 32 rotatably attached to the connection unit 31. It is composed of A camera similar to the built-in camera 29 is accommodated inside the movable camera unit 32, and its lens surface 32a is exposed to the outside. Further, the rotation shaft 32b extends from a position shifted by 90 ° with respect to the lens surface 32a, and an end portion of the rotation shaft 32b is rotatably supported by the connection portion 31. The end of the rotating shaft 32 b is connected to a drive motor (not shown) provided inside the connection portion 31. Thereby, the imaging direction of the movable camera unit 32 can be changed by rotating the drive motor.

図16は、上記外部カメラ装置30が接続された携帯電話機20の主要部を抽出して示したブロック図である。なお、携帯電話機20の本体構成は、上述したものと同じであるが、本変形例2では、内蔵カメラ29に代えて外部カメラ装置30を利用するため、内蔵カメラ29により構成されるカメラ部219についての図示は省略してある。
上記外部カメラ装置30は、カメラ部319、カメラ駆動部320、図示を省略してある通信インターフェース等から構成されている。カメラ部319は、上述のハードウェア構成上の可動カメラ部32に対応し、カメラ駆動部320は、上述のハードウェア構成上の接続部31に対応している。カメラ部319及びカメラ駆動部320は、通信インターフェース及び外部端子を介して、携帯電話機本体の主制御部215に接続されている。カメラ駆動部320は、携帯電話機本体の主制御部215による制御の下、カメラ部319の撮像方向を変更する変更手段として機能する。具体的には、主制御部215から送られてくる駆動制御命令に従い、図示しない駆動モータを駆動制御して、カメラ部319の撮像方向を変更する。なお、カメラ部319は、上述の内蔵カメラ29により構成されるカメラ部219と同様の動作をするので、説明を省略する。
FIG. 16 is a block diagram showing an extracted main part of the mobile phone 20 to which the external camera device 30 is connected. Although the main body configuration of the mobile phone 20 is the same as that described above, in the second modification, the external camera device 30 is used instead of the built-in camera 29, and thus the camera unit 219 configured by the built-in camera 29 is used. The illustration about is omitted.
The external camera device 30 includes a camera unit 319, a camera driving unit 320, a communication interface not shown, and the like. The camera unit 319 corresponds to the movable camera unit 32 on the hardware configuration described above, and the camera driving unit 320 corresponds to the connection unit 31 on the hardware configuration described above. The camera unit 319 and the camera driving unit 320 are connected to the main control unit 215 of the mobile phone main body via a communication interface and an external terminal. The camera driving unit 320 functions as a changing unit that changes the imaging direction of the camera unit 319 under the control of the main control unit 215 of the mobile phone body. Specifically, in accordance with a drive control command sent from the main control unit 215, a drive motor (not shown) is drive-controlled to change the imaging direction of the camera unit 319. Since the camera unit 319 operates in the same manner as the camera unit 219 configured by the built-in camera 29 described above, the description thereof is omitted.

図17は、本変形例2の撮像工程の流れを示すフローチャートである。
本変形例2では、上記制御例1と同様に、山頂からの風景を1枚の画像として撮像する場合を例に挙げるが、ここでは、山頂から水平180°の風景を1枚の画像として撮像するものとする。撮像工程を開始する前に、ユーザー1は、上記制御例1と同様に、上記外部カメラ装置30を利用するパノラマ撮影用のアプリケーションプログラムを上記ダウンロードサーバ11からダウンロードして取得し、これを登録する。そして、ユーザー1は、ダウンロードした横長撮影用のアプリケーションプログラムを実行する(S41〜S42)。アプリケーションプログラムが起動した後、ユーザー1は、操作部213のキーを操作して撮影範囲を指定する(S43)。具体的には、水平方向についてどのくらいの角度範囲を撮影するかを、操作部213のキーを用いて入力する。本変形例2では、この角度範囲は上述したように180°である。入力された角度範囲は、主制御部215に送られる。このようにして撮影範囲を指定したら、ユーザー1は、携帯電話機20の可動カメラ部32のレンズ面32aが例えば180°の風景の中の最も左側に位置する部分に向くように、携帯電話機20を把持する。そして、ユーザー1は、操作部213に対して所定のレリーズ操作する(S44)。すると、その操作信号が操作部213から主制御部215へ送られ、主制御部215はレリーズがあった旨を示すイベントをアプリケーション実行環境を介してパノラマ撮影用のアプリケーションプログラムへ送る。
FIG. 17 is a flowchart illustrating the flow of the imaging process of the second modification.
In the second modification, as in the case of the control example 1 described above, a case where a landscape from the top is taken as a single image is taken as an example. Here, a landscape at a horizontal angle of 180 ° from the top is taken as a single image. It shall be. Before starting the imaging process, the user 1 downloads and acquires the panorama shooting application program using the external camera device 30 from the download server 11 and registers it, as in the control example 1. . Then, the user 1 executes the downloaded application program for landscape shooting (S41 to S42). After the application program is activated, the user 1 operates the keys of the operation unit 213 to specify the shooting range (S43). Specifically, the angle range for photographing in the horizontal direction is input using the keys of the operation unit 213. In the second modification, this angle range is 180 ° as described above. The input angle range is sent to the main control unit 215. When the shooting range is designated in this way, the user 1 moves the mobile phone 20 so that the lens surface 32a of the movable camera unit 32 of the mobile phone 20 faces the leftmost part of the landscape of, for example, 180 °. Hold it. Then, the user 1 performs a predetermined release operation on the operation unit 213 (S44). Then, the operation signal is sent from the operation unit 213 to the main control unit 215, and the main control unit 215 sends an event indicating that a release has occurred to the application program for panoramic photography through the application execution environment.

上記イベントを受け取ったアプリケーションプログラムは、まず、アプリケーション実行環境を介して、電話機プラットフォームライブラリを利用してレリーズ指示を主制御部215へ送る。これにより、主制御部215は、カメラ部319へレリーズ命令を出力し、このレリーズ命令を受けたカメラ部319は撮像を行う(S45)。これにより得た画像データは主制御部215へ送られる。また、主制御部215は、センサ検知部217によって検知された方位角θNのデータ(撮像方向データ)を取得し(S46)、カメラ部319から取得した画像データを、この方位角θNのデータに関連付けた状態で、RAM202内のプラットフォーム用記憶領域の画像データ記憶領域に保存する(S47)。なお、この方位角θNのデータは、プラットフォーム用記憶領域の管理情報記憶領域に保存される(S47)。このようにして最初の撮像を終えたら、次に、アプリケーションプログラムは、アプリケーション実行環境を介して、電話機プラットフォームライブラリを利用して可動カメラ部32を一定角度だけ回転させるカメラ駆動指示を主制御部215へ送る。これにより、主制御部215は、外部カメラ装置30のカメラ部320へ駆動命令を出力する。すると、カメラ部320は、その駆動命令に従い、撮像方向が最初の撮影時から45°だけズレるように可動カメラ部32を回転させる(S49)。その後、アプリケーションプログラムは、再び、アプリケーション実行環境を介して、電話機プラットフォームライブラリを利用してレリーズ指示を主制御部215へ送り、上記S45〜S49の処理を繰り返す。そして、最初の撮影時における位置からの可動カメラ部32の回転角度が、上記S43で指定した撮影範囲すなわちユーザー1が入力した角度範囲(180°)以上に達したら、撮像工程を終了する(S48)。この結果、RAM202のプラットフォーム用記憶領域には、4つの画像データがその撮像時の方位角θNのデータ(撮像方向データ)に関連付けられて保存されることになる。
なお、このようにして得た4つの画像データを合成して1つの画像データとするデータ処理工程は、上記制御例1と同様であるので説明を省略する。
The application program that has received the event first sends a release instruction to the main control unit 215 using the telephone platform library via the application execution environment. Accordingly, the main control unit 215 outputs a release command to the camera unit 319, and the camera unit 319 that has received the release command performs imaging (S45). The image data obtained in this way is sent to the main control unit 215. Further, the main control unit 215 acquires data (imaging direction data) of the azimuth angle θ N detected by the sensor detection unit 217 (S46), and uses the image data acquired from the camera unit 319 as the azimuth angle θ N. In a state associated with the data, the data is stored in the image data storage area of the platform storage area in the RAM 202 (S47). The azimuth angle θ N data is stored in the management information storage area of the platform storage area (S47). After completing the first imaging in this manner, the application program then issues a camera drive instruction to rotate the movable camera unit 32 by a certain angle using the telephone platform library via the application execution environment. Send to. As a result, the main control unit 215 outputs a drive command to the camera unit 320 of the external camera device 30. Then, according to the drive command, the camera unit 320 rotates the movable camera unit 32 so that the imaging direction is deviated by 45 ° from the time of the first shooting (S49). Thereafter, the application program again sends a release instruction to the main control unit 215 using the telephone platform library via the application execution environment, and repeats the processes of S45 to S49. When the rotation angle of the movable camera unit 32 from the position at the time of the first shooting reaches the shooting range specified in S43, that is, the angle range (180 °) input by the user 1, the imaging process is ended (S48). ). As a result, four image data items are stored in the platform storage area of the RAM 202 in association with the azimuth angle θ N data (imaging direction data) at the time of imaging.
The data processing step of combining the four image data obtained in this way into one image data is the same as that in the control example 1 and will not be described.

本変形例2によれば、山頂から水平180°の風景を撮影する場合、ユーザー1は携帯電話機20を動かないように把持して1回レリーズ操作を行うだけで、後は上記パノラマ撮影用のアプリケーションプログラムに従って自動的に撮像工程が行われる。しかも、本変形例2では、撮影方向の変更をカメラ駆動部320により自動的に行うので、上記制御例1のようにユーザーが携帯電話機20の向きを変えて撮影方向を変更する場合に比べて、合成した画像について高い画像連続性を安定して得ることができる。   According to the second modification, when shooting a landscape of 180 ° horizontally from the top of the mountain, the user 1 simply holds the mobile phone 20 so as not to move and performs a release operation once. An imaging process is automatically performed according to the application program. In addition, in the second modification, since the shooting direction is automatically changed by the camera driving unit 320, as compared to the case where the user changes the shooting direction by changing the orientation of the mobile phone 20 as in the first control example. High image continuity can be stably obtained for the synthesized image.

なお、本変形例2では、水平方向について1回では撮像できないような撮像対象を撮像する場合について説明したが、鉛直方向について1回では撮像できないような撮像対象を撮像する場合も同様である。この場合、X軸方向が鉛直方向に対して平行になるように携帯電話機20を把持して撮影を行い、方位角θNのデータに代えて可動カメラ部32の回転角のデータを撮像方向データとして画像データに関連付けて記憶すればよい。また、可動カメラ部32の可動範囲によっては、水平方向について複数画像を合成する処理と、鉛直方向について複数画像を合成する処理とを組み合わせることも可能である。
また、本変形例2では、携帯電話機20の本体を静止させた状態で外部カメラ装置30の可動カメラ部32が回転して撮像方向を変更する構成について説明したが、他の構成によって撮像方向を変更するようにしてもよい。例えば、図18に示すような三脚33を用いてもよい。詳しく説明すると、図示の三脚33は、携帯電話機20の外部端子との接続部33に、携帯電話機20の本体を回転させる駆動部が内蔵されている。この駆動部は、上記外部カメラ装置30のカメラ駆動部320と同様の構成とする。このような三脚33に携帯電話機20を取り付けて撮影を行えば、携帯電話機20に固定的に設けられた内蔵カメラ29を用いて、上記変形例2のようなパノラマ撮影を行うことができる。
また、本変形例2では、撮像して得た画像データを、その撮像時の方位角θNのデータに関連付けて保存する場合を例に挙げて説明したが、上記制御例2のように、加速度データから算出した移動距離データに関連付けて保存する場合でも、同様の効果を得ることが可能である。
In the second modification, the case has been described in which an imaging target that cannot be captured once in the horizontal direction is described. However, the same applies to the case where an imaging target that cannot be captured in the vertical direction is captured once. In this case, the cellular phone 20 is gripped and photographed so that the X-axis direction is parallel to the vertical direction, and the rotation angle data of the movable camera unit 32 is replaced with the imaging direction data instead of the azimuth angle θ N data. May be stored in association with the image data. Further, depending on the movable range of the movable camera unit 32, it is possible to combine a process of combining a plurality of images in the horizontal direction and a process of combining a plurality of images in the vertical direction.
Further, in the second modification, the configuration in which the movable camera unit 32 of the external camera device 30 rotates and changes the imaging direction while the main body of the mobile phone 20 is stationary has been described. It may be changed. For example, a tripod 33 as shown in FIG. 18 may be used. More specifically, the illustrated tripod 33 has a built-in drive unit for rotating the main body of the mobile phone 20 in the connection portion 33 with the external terminal of the mobile phone 20. This drive unit has the same configuration as the camera drive unit 320 of the external camera device 30. If the mobile phone 20 is attached to such a tripod 33 and shooting is performed, panoramic shooting as in Modification 2 can be performed using the built-in camera 29 fixedly provided on the mobile phone 20.
In the second modification, the case where the image data obtained by imaging is stored in association with the data of the azimuth angle θ N at the time of imaging has been described as an example. The same effect can be obtained even in the case of saving in association with the movement distance data calculated from the acceleration data.

なお、上述した実施形態(上記各制御例及び上記各変形例を含む。以下同じ。)においては、上述した撮像工程及びデータ処理工程を実行するプログラムが、アプリケーションプログラム実行管理部214のアプリケーション実行環境上で動作するアプリケーションプログラムである場合を例に挙げたが、主制御部215の電話機プラットフォーム上で直接動作するアプリケーションプログラムであってもよい。この場合、図19に示すようにアプリケーションプログラム実行管理部214を備えていない携帯電話機にも、本発明を適用することができる。この場合、そのアプリケーションプログラムは、電話機プラットフォームに依存したものとなる。また、アプリケーションプログラム実行管理部214で行っていた処理は、主制御部215が行うことになる。
また、上述した実施形態では、上記方位角θNのデータ等の撮像方向データや上記移動距離データ等の撮像位置データに関連付けた状態の画像データを、複数の画像データから1つの画像データを得るために利用する場合について説明したが、他の利用形態であってもよい。例えば、撮像により得た画像を表示する際に、その撮像時における撮像方向データや撮像位置データに基づく画像を一緒に表示する利用形態が挙げられる。
また、本発明は、携帯電話機のほか、PHS、自動車電話機等の電話機、携帯型のPDAの場合についても適用でき、同様な効果が得られるものである。
In the above-described embodiment (including the above-described control examples and the above-described modification examples; the same applies hereinafter), a program that executes the above-described imaging process and data processing process is an application execution environment of the application program execution management unit 214. Although the case of the application program operating above has been described as an example, the application program may operate directly on the telephone platform of the main control unit 215. In this case, the present invention can also be applied to a mobile phone that does not include the application program execution management unit 214 as shown in FIG. In this case, the application program depends on the telephone platform. Further, the main control unit 215 performs the processing performed by the application program execution management unit 214.
In the above-described embodiment, image data in a state associated with imaging direction data such as the azimuth angle θ N data and imaging position data such as the moving distance data is obtained from a plurality of image data. However, other usage forms may be used. For example, when displaying an image obtained by imaging, there is a usage form in which an image based on imaging direction data and imaging position data at the time of imaging is displayed together.
Further, the present invention can be applied to a case of a mobile phone, a phone such as a PHS and a car phone, and a portable PDA, and similar effects can be obtained.

実施形態における携帯電話機の制御例1の撮像工程の流れを示すフローチャート。The flowchart which shows the flow of the imaging process of the control example 1 of the mobile telephone in an embodiment. 同携帯電話機が利用可能な移動体通信システムの全体構成を説明するための説明図。Explanatory drawing for demonstrating the whole structure of the mobile communication system which can use the mobile phone. 同移動体通信システムを構成するダウンロードサーバのハードウェア構成を示す概略構成図。The schematic block diagram which shows the hardware constitutions of the download server which comprises the mobile communication system. 同携帯電話機の外観を示す正面図。The front view which shows the external appearance of the mobile phone. 同携帯電話機のハードウェア構成を示す概略構成図。The schematic block diagram which shows the hardware constitutions of the mobile phone. 同携帯電話機の主要部を抽出して示したブロック図。The block diagram which extracted and showed the principal part of the mobile phone. 同携帯電話機におけるソフトウェア構造の説明図。Explanatory drawing of the software structure in the mobile phone. 同制御例1の撮像工程中における同携帯電話機の液晶ディスプレイの表示内容を示す説明図。Explanatory drawing which shows the display content of the liquid crystal display of the mobile telephone in the imaging process of the control example 1. FIG. 同制御例1のデータ処理工程の流れを示すフローチャート。7 is a flowchart showing a flow of a data processing process of the control example 1; 同制御例1におけるインジケータの他の例を示す説明図。Explanatory drawing which shows the other example of the indicator in the example 1 of the control. 同制御例1におけるインジケータの更に他の例を示す説明図。Explanatory drawing which shows the further another example of the indicator in the control example 1. FIG. 変形例1の撮像工程中における同携帯電話機の液晶ディスプレイに表示されるインジケータを示す説明図。Explanatory drawing which shows the indicator displayed on the liquid crystal display of the mobile phone in the imaging process of the modification 1. 同携帯電話機の制御例2の撮像工程の流れを示すフローチャート。The flowchart which shows the flow of the imaging process of the control example 2 of the same mobile phone. 同制御例2のデータ処理工程の流れを示すフローチャート。7 is a flowchart showing a flow of a data processing process of the control example 2. 変形例2における携帯電話機の外部端子に接続される外部カメラ装置を示す外観図。FIG. 14 is an external view showing an external camera device connected to an external terminal of a mobile phone in Modification 2. 同外部カメラ装置が接続された携帯電話機の主要部を抽出して示したブロック図。The block diagram which extracted and showed the principal part of the mobile telephone to which the same external camera apparatus was connected. 同変形例2における撮像工程の流れを示すフローチャート。9 is a flowchart showing a flow of an imaging process in the second modification. 同携帯電話機の他の構成を示す、携帯電話機を三脚に取り付けた状態の斜視図。The perspective view of the state which attached the mobile phone to the tripod which shows the other structure of the mobile phone. 同携帯電話機の他の内部構成を示すブロック図。The block diagram which shows the other internal structure of the mobile phone.

符号の説明Explanation of symbols

10 携帯電話通信網
11 ダウンロードサーバ
20 携帯電話機
29 内蔵カメラ
30 外部カメラ装置
32 可動カメラ部
32b 回転軸
207 加速度センサ
208 地磁気センサ
213 操作部
214 アプリケーションプログラム実行管理部
215 主制御部
216 出力部
217 センサ検知部
219,319 カメラ部
320 カメラ駆動部
DESCRIPTION OF SYMBOLS 10 Mobile phone communication network 11 Download server 20 Mobile phone 29 Built-in camera 30 External camera device 32 Movable camera part 32b Rotating shaft 207 Acceleration sensor 208 Geomagnetic sensor 213 Operation part 214 Application program execution management part 215 Main control part 216 Output part 217 Sensor detection Sections 219 and 319 Camera section 320 Camera drive section

Claims (2)

撮像手段と、該撮像手段で撮像して得た画像データを記憶する画像データ記憶手段とを備えた移動体通信端末において、
上記撮像手段の撮像方向を特定するための検知を行う検知手段と、
該撮像手段での撮像時に行った該検知手段の検知により特定される撮像方向を示す撮像方向データを記憶する撮像方向データ記憶手段と、
該撮像により得た画像データを上記画像データ記憶手段に保存し、かつ、該撮像時の撮像方向データを該撮像方向データ記憶手段に保存するデータ保存手段と
該撮像手段により撮像した後、その撮像時の撮像方向データに基づいてその撮像時に撮像した画像データから1画像分だけ変化させた撮像方向を算出し、算出した撮像方向を示す画像を、該検知手段の検知により特定される現在の撮像方向を示す画像とともに、上記表示手段に表示させる制御を行う表示制御手段とを有することを特徴とする移動体通信端末
In a mobile communication terminal comprising an imaging means and an image data storage means for storing image data obtained by imaging with the imaging means,
Detection means for performing detection for specifying the imaging direction of the imaging means;
Imaging direction data storage means for storing imaging direction data indicating an imaging direction specified by detection of the detection means performed at the time of imaging by the imaging means;
Data storage means for storing image data obtained by the imaging in the image data storage means, and for storing imaging direction data at the time of imaging in the imaging direction data storage means ;
After imaging by the imaging means, the imaging direction changed by one image is calculated from the image data captured at the time of imaging based on the imaging direction data at the time of imaging, and an image indicating the calculated imaging direction is detected. A mobile communication terminal comprising: a display control unit that performs control to display the image on the display unit together with an image indicating a current imaging direction specified by the detection of the unit .
求項1の移動体通信端末において、
上記画像データ記憶手段に記憶された複数の画像データを、該複数の画像データのそれぞれに関連付けられた上記撮像方向データに基づいて合成し、1つの画像データとするデータ処理を行うデータ処理手段を有することを特徴とする移動体通信端末
The mobile communication terminal Motomeko 1,
Said plurality of image data stored in the image data storage means, and synthesized based on the imaging direction data associated with each of the image data of the plurality of data processing means for performing data processing for one image data mobile communication terminal characterized by having a.
JP2004021972A 2004-01-29 2004-01-29 Mobile communication terminal Expired - Fee Related JP3959393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004021972A JP3959393B2 (en) 2004-01-29 2004-01-29 Mobile communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004021972A JP3959393B2 (en) 2004-01-29 2004-01-29 Mobile communication terminal

Publications (2)

Publication Number Publication Date
JP2005217785A JP2005217785A (en) 2005-08-11
JP3959393B2 true JP3959393B2 (en) 2007-08-15

Family

ID=34905453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004021972A Expired - Fee Related JP3959393B2 (en) 2004-01-29 2004-01-29 Mobile communication terminal

Country Status (1)

Country Link
JP (1) JP3959393B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5157116B2 (en) * 2006-10-04 2013-03-06 カシオ計算機株式会社 Imaging apparatus, composite image creation method, and program
US8098894B2 (en) * 2008-06-20 2012-01-17 Yahoo! Inc. Mobile imaging device as navigator
JP5243280B2 (en) * 2009-01-23 2013-07-24 京セラ株式会社 Mobile terminal and synthesis program
EP2779621B1 (en) 2011-11-07 2021-12-22 Sony Interactive Entertainment Inc. Image generation device, image generation method and program
US10284776B2 (en) 2011-11-07 2019-05-07 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
CN103907341B (en) * 2011-11-07 2017-05-24 索尼电脑娱乐公司 Image generation device, and image generation method
US9894272B2 (en) 2011-11-07 2018-02-13 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
JP6593795B2 (en) * 2016-02-26 2019-10-23 三菱電機ビルテクノサービス株式会社 Indoor unit photography device

Also Published As

Publication number Publication date
JP2005217785A (en) 2005-08-11

Similar Documents

Publication Publication Date Title
US8205211B2 (en) Application switching within electronic apparatus
JP4220943B2 (en) Electronics
EP1783592B1 (en) Mobile communication terminal, application program, image display control apparatus, electronic device, and image display control method
JP5340974B2 (en) Portable electronic devices
US9743067B2 (en) Methods and devices for generating a stereoscopic image
JP2005122100A (en) Image displaying system, image displaying apparatus, and program
JP2005143075A (en) External device for mobile communication terminal, mobile communication terminal, and external display system for mobile communication terminal
KR100869735B1 (en) Information processing method, information processor and information processing program
JP3959393B2 (en) Mobile communication terminal
JP2006146455A (en) Electronic equipment and display method for image with index
JP2022002393A (en) Image processing device, image data providing device, photographing game device, image data providing system, image display method, and image display program
JP4559140B2 (en) Electronics
CA2827594C (en) Methods and devices for generating a stereoscopic image
EP2672699B1 (en) Terminal device and image capturing method
JP2008070884A (en) Mobile communication terminal
JP2013206365A (en) Image processor, image processing method and program
JP2005227899A (en) Information communication terminal
JP4149893B2 (en) Mobile communication terminal and application program
JP2008235971A (en) Imaging apparatus and stereoscopic shape photographing method in imaging apparatus
JP2005242283A (en) Mobile communication terminal
JP4394742B2 (en) Mobile communication terminal and application program
JP4331239B2 (en) Mobile communication terminal and application program
JP5472994B2 (en) Imaging apparatus and program
JP4669751B2 (en) Direction measuring apparatus with wireless communication function, direction measuring method, and program
JP2006011106A (en) Display device and mobile communication terminal equipped with same

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20051209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070514

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160518

Year of fee payment: 9

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees