JP2007243241A - Mobile communication terminal and program - Google Patents

Mobile communication terminal and program Download PDF

Info

Publication number
JP2007243241A
JP2007243241A JP2006058586A JP2006058586A JP2007243241A JP 2007243241 A JP2007243241 A JP 2007243241A JP 2006058586 A JP2006058586 A JP 2006058586A JP 2006058586 A JP2006058586 A JP 2006058586A JP 2007243241 A JP2007243241 A JP 2007243241A
Authority
JP
Japan
Prior art keywords
image
mobile communication
communication terminal
inclination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006058586A
Other languages
Japanese (ja)
Other versions
JP2007243241A5 (en
JP4632971B2 (en
Inventor
Shigeru Imaizumi
茂 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Hitachi Mobile Communications Co Ltd
Original Assignee
Casio Hitachi Mobile Communications Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Hitachi Mobile Communications Co Ltd filed Critical Casio Hitachi Mobile Communications Co Ltd
Priority to JP2006058586A priority Critical patent/JP4632971B2/en
Publication of JP2007243241A publication Critical patent/JP2007243241A/en
Publication of JP2007243241A5 publication Critical patent/JP2007243241A5/ja
Application granted granted Critical
Publication of JP4632971B2 publication Critical patent/JP4632971B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile communication terminal capable of easily acquiring more satisfactory photographed images. <P>SOLUTION: When a self-photographing mode is selected as an operation mode of an imaging function by a camera unit 160, a control unit 110 calculates the inclination of the mobile communication terminal 100, on the basis of a posture detection of a posture detecting unit 180. The control unit 110 calculates the degree of distortions, corresponding to the calculated inclination for each distance of a vertical direction from the center position of the image for an image photographed by self-photographing, and corrects the image on the basis of the calculated degree of distortion. In this case, distortions in the horizontal direction of the image is corrected per the coordinate in the vertical direction, and the distortions in the vertical direction of the image is corrected per block having a height in the vertical direction, thereby efficiently readily correcting trapezoidal distortions generated in self-photographing, and outputting the image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、移動体通信端末、および、プログラムに関し、特に、撮像機能を有する移動体通信端末の利便性向上に好適な移動体通信端末、および、プログラムに関する。   The present invention relates to a mobile communication terminal and a program, and more particularly to a mobile communication terminal and a program suitable for improving convenience of a mobile communication terminal having an imaging function.

携帯電話などの移動体通信端末においては、基本機能である通話機能以外の様々な機能が付加されており、例えば、CCD(Charge Coupled Device:電荷結合素子)などの撮像素子を用いた撮像機能(カメラ機能)が多くの移動体通信端末に搭載されている。   In mobile communication terminals such as mobile phones, various functions other than a call function which is a basic function are added. For example, an imaging function using an imaging element such as a charge coupled device (CCD) (charge coupled device) Camera function) is installed in many mobile communication terminals.

このような撮像機能を有する移動体通信端末には、液晶表示装置などの表示部が備えられており、撮像画像を表示させることで、撮影時のビューファインダとして用いられている。このような表示部と撮像に用いるレンズとが同一方向である場合、撮影者が自分自身の被写体像を見ながら撮影することのできる、いわゆる自分撮り機能を持つ移動体通信端末も多く提案されている(例えば、特許文献1)。
特開2005−167322号公報
A mobile communication terminal having such an imaging function is provided with a display unit such as a liquid crystal display device, and is used as a viewfinder at the time of shooting by displaying a captured image. Many mobile communication terminals having a so-called self-shooting function, in which a photographer can shoot while viewing his / her own subject image when such a display unit and a lens used for imaging are in the same direction, have been proposed. (For example, Patent Document 1).
JP 2005-167322 A

このような自分撮りでは、撮影者の顔部分が撮影対象となるが、移動体通信端末を自然に保持した状態で撮影すると、撮影対象である顔部分よりも移動体通信端末の位置が低くなることが多い。このように、撮像対象に対する撮像方向が下から上に向かうような場合、撮像画像が台形状に歪む、いわゆる台形歪みが発生しやすくなる。   In such a self-portrait, the face portion of the photographer is a subject to be photographed. However, when photographing with the mobile communication terminal held naturally, the position of the mobile communication terminal is lower than the face portion that is the subject of photographing. There are many cases. Thus, when the imaging direction with respect to the imaging target is directed from the bottom to the top, the so-called trapezoidal distortion in which the captured image is distorted in a trapezoidal shape is likely to occur.

このような台形歪みを防止するには、撮影対象の正面に移動体通信端末が位置するような姿勢で撮影する必要があり、撮影の自由度が妨げられる不都合があった。   In order to prevent such trapezoidal distortion, it is necessary to shoot in such a posture that the mobile communication terminal is positioned in front of the shooting target, and there is a disadvantage that the degree of freedom of shooting is hindered.

本発明は、上記実状に鑑みてなされたものであり、より良好な撮像画像を容易に得ることができる移動体通信端末を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a mobile communication terminal capable of easily obtaining a better captured image.

上記目的を達成するため、本発明の第1の観点にかかる移動体通信端末は、
撮像機能を有する移動体通信端末において、
前記移動体通信端末の姿勢を検出する姿勢検出手段と、
前記撮像機能で自分撮りモードが選択された場合、前記姿勢検出手段が検出した前記移動体通信端末の姿勢に基づいて、前記移動体通信端末の傾きを算出する傾き算出手段と、
前記傾き算出手段が算出した前記移動体通信端末の傾きに基づいて、前記自分撮りモードで撮像された画像の歪みを補正する画像補正手段と、
を備えることを特徴とする。
In order to achieve the above object, a mobile communication terminal according to the first aspect of the present invention includes:
In a mobile communication terminal having an imaging function,
Attitude detecting means for detecting the attitude of the mobile communication terminal;
An inclination calculating means for calculating an inclination of the mobile communication terminal based on the attitude of the mobile communication terminal detected by the attitude detection means when the self-portrait mode is selected by the imaging function;
Image correcting means for correcting distortion of an image captured in the self-portrait mode based on the inclination of the mobile communication terminal calculated by the inclination calculating means;
It is characterized by providing.

このような構成によれば、例えば、加速度センサなどを用いて移動体通信端末の姿勢を検出することで、移動体通信端末の傾きを算出して撮像画像を補正するので、移動体通信端末の傾きによって発生する台形歪みなどを自動的に補正して表示や保存することができる。   According to such a configuration, for example, by detecting the attitude of the mobile communication terminal using an acceleration sensor or the like, the inclination of the mobile communication terminal is calculated and the captured image is corrected. Trapezoidal distortion caused by tilt can be automatically corrected and displayed and saved.

上記移動体通信端末は、
前記画像補正手段は、前記自分撮りモードで撮像された画像の中心位置からの距離と前記移動体通信端末の傾きに基づいて、当該画像の縦方向の座標単位で横方向の歪みを補正することが望ましい。
The mobile communication terminal is
The image correction means corrects lateral distortion in the vertical coordinate unit of the image based on the distance from the center position of the image captured in the self-portrait mode and the inclination of the mobile communication terminal. Is desirable.

このような構成によれば、画像の中心位置からの縦方向の距離に応じて横方向の歪み度合いが変化する台形歪みを、その歪み度合いに影響する移動体通信端末の傾きに基づいて補正するので、効果的な台形歪み補正を効率的におこなうことができる。   According to such a configuration, the trapezoidal distortion in which the horizontal distortion degree changes according to the vertical distance from the center position of the image is corrected based on the inclination of the mobile communication terminal that affects the distortion degree. Therefore, effective trapezoidal distortion correction can be performed efficiently.

上記移動体通信端末において、
前記画像補正手段は、前記自分撮りモードで撮像された画像の縦方向に複数のブロックを設定し、当該画像の中心位置からの距離と前記移動体通信端末の傾きに基づいて、前記ブロック単位で縦方向の歪みを補正することが望ましい。
In the mobile communication terminal,
The image correction means sets a plurality of blocks in the vertical direction of the image captured in the self-portrait mode, and based on the distance from the center position of the image and the inclination of the mobile communication terminal for each block. It is desirable to correct the vertical distortion.

このような構成によれば、画像の中心位置からの縦方向の距離に応じて縦方向の歪み度合いが変化する台形歪みを、その歪み度合いに影響する移動体通信端末の傾きに基づいて補正するので、効果的な台形歪み補正を効率的におこなうことができる。また、縦方向の歪みについては、縦方向に高さのあるブロックを画像上に設定し、ブロック単位で補正することで、効果的な歪み補正を効率的におこなうことができる。   According to such a configuration, the trapezoidal distortion in which the vertical distortion degree changes according to the vertical distance from the center position of the image is corrected based on the inclination of the mobile communication terminal that affects the distortion degree. Therefore, effective trapezoidal distortion correction can be performed efficiently. As for distortion in the vertical direction, effective distortion correction can be efficiently performed by setting a block having a height in the vertical direction on the image and correcting the block in units of blocks.

上記目的を達成するため、本発明の第2の観点にかかるプログラムは、
撮像機能を有する移動体通信端末を制御するコンピュータに、
前記撮像機能にかかる動作モードを選択する機能と、
前記動作モードとして自分撮りモードが選択された場合に、前記移動体通信端末の傾きを算出する機能と、
前記算出した前記移動体通信端末の傾きに基づいて、前記自分撮りモードで撮像された画像を補正する機能と、
を実現させることを特徴とする。
In order to achieve the above object, a program according to the second aspect of the present invention is:
In a computer that controls a mobile communication terminal having an imaging function,
A function of selecting an operation mode according to the imaging function;
A function of calculating the inclination of the mobile communication terminal when the selfie mode is selected as the operation mode;
A function of correcting an image captured in the self-portrait mode based on the calculated inclination of the mobile communication terminal;
It is characterized by realizing.

このようなプログラムを適用することで、既存の移動体通信端末を上記移動体通信端末として機能させることができる。   By applying such a program, an existing mobile communication terminal can function as the mobile communication terminal.

本発明によれば、移動体通信端末で自分撮りをおこなうときに、移動体通信端末の傾きに基づいて撮像画像を補正するので、より良好な撮像画像を得ることができる。   According to the present invention, when taking a selfie with the mobile communication terminal, the captured image is corrected based on the inclination of the mobile communication terminal, so that a better captured image can be obtained.

以下、図面を参照して、本発明にかかる実施形態を説明する。本実施形態では、カメラによる撮像機能を備えた移動体通信端末(携帯電話やPHS(Personal Handyphone System)の端末装置)に本発明を適用した場合を説明する。本発明の実施形態にかかる移動体通信端末100を、図1を参照して説明する。図1は、移動体通信端末100の外観構成を示す図である。   Embodiments according to the present invention will be described below with reference to the drawings. In the present embodiment, a case will be described in which the present invention is applied to a mobile communication terminal (a mobile phone or a personal handyphone system (PHS) terminal device) having an imaging function by a camera. A mobile communication terminal 100 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram showing an external configuration of the mobile communication terminal 100.

図示するように、本実施形態にかかる移動体通信端末100は、2つの可動筐体(筐体100Aと筐体100B)がヒンジ部100Cによって接続された、折りたたみ可能な構成を有している。図1では、このような移動体通信端末100を展開した状態を示している。ここで、図1(a)は、展開した移動体通信端末100の主面側の外観を示している。図示するように、筐体100Aの主面側には、表示部141、スピーカ151、撮像レンズ161などが同一面上に配置されている。また、筐体100Bの主面上には、キーやボタンなどの操作部131やマイクロフォン152などが配置されている。   As illustrated, the mobile communication terminal 100 according to the present embodiment has a foldable configuration in which two movable housings (a housing 100A and a housing 100B) are connected by a hinge portion 100C. FIG. 1 shows a state where such a mobile communication terminal 100 is deployed. Here, FIG. 1A shows the appearance of the developed mobile communication terminal 100 on the main surface side. As shown in the drawing, a display unit 141, a speaker 151, an imaging lens 161, and the like are arranged on the same surface on the main surface side of the housing 100A. An operation unit 131 such as keys and buttons, a microphone 152, and the like are arranged on the main surface of the housing 100B.

図1(b)は、図1(a)に示した移動体通信端末100の主面の反対側となる外面側の構成を示している。図示するように、筐体100Aの外面側には、表示部142や撮像レンズ162などが同一面上に配置されている。   FIG.1 (b) has shown the structure of the outer surface side used as the other side of the main surface of the mobile communication terminal 100 shown to Fig.1 (a). As shown in the drawing, a display unit 142, an imaging lens 162, and the like are arranged on the same surface on the outer surface side of the housing 100A.

図1(a)に示した撮像レンズ161は、撮影者が自分自身を撮影する、いわゆる「自分撮り」に用いられるレンズである。つまり、図2(a)に示すように、移動体通信端末100の主面側が自分に向くように撮影者が移動体通信端末100を保持すると、撮像レンズ161が撮影者に向く。このとき、表示部141も撮影者に向いているので、撮像レンズ161が捉える被写体像を表示部141に表示することで、撮影者は、自身が被写体像として表示される表示部141をビューファインダとした撮影をおこなうことができる。   An imaging lens 161 shown in FIG. 1A is a lens used for so-called “self-portrait” in which a photographer photographs himself / herself. That is, as shown in FIG. 2A, when the photographer holds the mobile communication terminal 100 so that the main surface side of the mobile communication terminal 100 faces itself, the imaging lens 161 faces the photographer. At this time, since the display unit 141 is also suitable for the photographer, by displaying the subject image captured by the imaging lens 161 on the display unit 141, the photographer displays the display unit 141 in which the photographer himself is displayed as the subject image. Can be taken.

つまり、移動体通信端末100を展開して使用する場合、撮像レンズ161を用いた撮影をおこなうことで、自分撮りをおこなうことができる。本実施形態では、移動体通信端末100の撮像機能にかかる動作モードとして「自分撮りモード」が用意されているものとし、移動体通信端末100を展開しているときに自分撮りモードが選択された場合は、上記のように、表示部141と撮像レンズ161とを用いた撮像をおこなう。   That is, when the mobile communication terminal 100 is deployed and used, self-portrait can be performed by performing shooting using the imaging lens 161. In the present embodiment, it is assumed that a “selfie mode” is prepared as an operation mode for the imaging function of the mobile communication terminal 100, and the self-portrait mode is selected when the mobile communication terminal 100 is deployed. In this case, imaging is performed using the display unit 141 and the imaging lens 161 as described above.

また、本実施形態では、移動体通信端末100の外面側に構成されている表示部142と撮像レンズ162を用いても自分撮りをおこなえるものとする。この場合、図2(b)に示すように、移動体通信端末100を折りたたんで使用する。つまり、移動体通信端末100が折りたたまれているときに自分撮りモードが選択された場合は、撮像レンズ162を用いた撮像動作をおこなうとともに、被写体像を表示部142に表示させてビューファインダとする。この場合も、折りたたまれた移動体通信端末100を、図2(a)に示すような姿勢で撮影者が保持することで、自分撮りがおこなわれるものとする。   Further, in the present embodiment, it is assumed that self-portrait can be performed using the display unit 142 and the imaging lens 162 configured on the outer surface side of the mobile communication terminal 100. In this case, the mobile communication terminal 100 is folded and used as shown in FIG. That is, when the self-portrait mode is selected when the mobile communication terminal 100 is folded, an imaging operation using the imaging lens 162 is performed, and a subject image is displayed on the display unit 142 to form a viewfinder. . Also in this case, it is assumed that the photographer holds the folded mobile communication terminal 100 in a posture as shown in FIG.

本実施形態では、図1および図2(b)を示す紙面の上下方向を、そこに示されている移動体通信端末100の上下方向とする。この場合、自分撮りをおこなうときの表示画面とレンズとの位置関係は、表示画面(表示部141および表示部142)よりも下方にレンズ(撮像レンズ161および撮像レンズ162)が位置することになる。また、図2(a)に示したような撮影方法によって、撮影者の顔写真を撮影することを「自分撮り」の定義とする。   In the present embodiment, the vertical direction of the paper surface shown in FIGS. 1 and 2B is the vertical direction of the mobile communication terminal 100 shown therein. In this case, the lens (imaging lens 161 and imaging lens 162) is positioned below the display screen (display unit 141 and display unit 142) with respect to the positional relationship between the display screen and the lens when taking a selfie. . Further, taking a photograph of the photographer's face by the photographing method as shown in FIG. 2A is defined as “selfie”.

次に、移動体通信端末100の内部構成を、図3を参照して説明する。図3は、移動体通信端末100の構成を示すブロック図である。   Next, the internal configuration of the mobile communication terminal 100 will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration of mobile communication terminal 100.

図示するように、移動体通信端末100は、制御部110、通信部120、入力制御部130、表示制御部140、音声処理部150、カメラ部160、開閉検出部170、姿勢検出部180、記憶部190、などから構成される。   As illustrated, the mobile communication terminal 100 includes a control unit 110, a communication unit 120, an input control unit 130, a display control unit 140, an audio processing unit 150, a camera unit 160, an open / close detection unit 170, an attitude detection unit 180, and a storage. Part 190, and the like.

制御部110は、例えば、CPU(Central Processing Unit:中央演算処理装置)やワークエリアとなる所定の記憶装置(RAM(Random Access Memory)など)から構成され、移動体通信端末100の各部を制御するとともに、記憶部190に格納されている所定の動作プログラムに基づいて後述する各処理を実行する。なお、後述する移動体通信端末100の各構成はそれぞれ制御部110と接続されており、各構成間でのデータ授受などは制御部110を介しておこなわれるものとする。   The control unit 110 includes, for example, a CPU (Central Processing Unit) and a predetermined storage device (RAM (Random Access Memory)) serving as a work area, and controls each unit of the mobile communication terminal 100. At the same time, each process described later is executed based on a predetermined operation program stored in the storage unit 190. In addition, each structure of the mobile communication terminal 100 mentioned later is each connected with the control part 110, and data transmission / reception between each structure shall be performed via the control part 110. FIG.

通信部120は、例えば、所定の無線通信回路などから構成され、所定のアンテナ部123を介して基地局との無線通信などをおこなう。通信部120はさらに、音声通信部121、データ通信部122、などを有する。   The communication unit 120 includes, for example, a predetermined wireless communication circuit and performs wireless communication with a base station via a predetermined antenna unit 123. The communication unit 120 further includes a voice communication unit 121, a data communication unit 122, and the like.

音声通信部121は、移動体通信端末100の電話機能(音声通話機能)にかかる通信を制御する。ここでは、例えば、アンテナ部123を制御して、移動体通信網などの電話回線網を介した音声通話のための無線通信をおこなうとともに、音声の符号化処理や復号処理などをおこなう。   The voice communication unit 121 controls communication related to the telephone function (voice call function) of the mobile communication terminal 100. Here, for example, the antenna unit 123 is controlled to perform wireless communication for a voice call through a telephone line network such as a mobile communication network, and perform voice encoding processing, decoding processing, and the like.

データ通信部122は、移動体通信端末100のデータ通信機能にかかる通信を制御し、例えば、ウェブサイトへのアクセスや電子メールの送受信をおこなう。   The data communication unit 122 controls communication related to the data communication function of the mobile communication terminal 100 and performs, for example, access to a website and transmission / reception of e-mails.

入力制御部130は、図1(a)に示すような各種ボタンやキー群など(例えば、文字キー(テンキー)や機能ボタン、十字キーなど)から構成される操作部131と接続されたスイッチ回路などから構成され、操作部131の操作に応じた入力信号を生成して制御部110に入力する。この場合、入力制御部130は、移動体通信端末100の各種モードなどに応じて操作部131のキー毎に機能を割り当てる。また、操作部131を構成するボタンやキーは、図1(a)に示したような筐体100Bの主面上のみならず、例えば、筐体の側面などにも配置されているものとする。本実施形態では、撮像機能時に用いられるシャッタボタンが筐体100Bの側面に配置されているものとする。   The input control unit 130 is a switch circuit connected to an operation unit 131 including various buttons and key groups as shown in FIG. 1A (for example, character keys (ten keys), function buttons, cross keys, etc.). Etc., and an input signal corresponding to the operation of the operation unit 131 is generated and input to the control unit 110. In this case, the input control unit 130 assigns a function to each key of the operation unit 131 according to various modes of the mobile communication terminal 100. Further, the buttons and keys constituting the operation unit 131 are arranged not only on the main surface of the housing 100B as shown in FIG. 1A but also on the side surface of the housing, for example. . In the present embodiment, it is assumed that a shutter button used for the imaging function is disposed on the side surface of the housing 100B.

表示制御部140は、例えば、液晶表示装置などから構成される表示部141および表示部142と接続された表示回路やビデオメモリなどから構成され、制御部110からの制御信号に基づいて表示部141および表示部142を制御することで、種々の画像を表示部141および表示部142に表示させる。   The display control unit 140 includes, for example, a display unit 141 configured by a liquid crystal display device and the like, a display circuit connected to the display unit 142, a video memory, and the like, and the display unit 141 based on a control signal from the control unit 110. In addition, various images are displayed on the display unit 141 and the display unit 142 by controlling the display unit 142.

ここで、移動体通信端末100の主面上に構成されている表示部141は、移動体通信端末100のメインディスプレイとして機能するものであり、上述した自分撮り時のビューファインダとして用いられる他、自分撮りモード以外の通常撮影の場合は、撮像レンズ162を用いた撮像画像を表示するビューファインダとして機能する。その他、各種メニュー画面や操作画面などといった、移動体通信端末100が有する機能のほとんどにかかる画面表示は表示部141によっておこなわれる。   Here, the display unit 141 configured on the main surface of the mobile communication terminal 100 functions as a main display of the mobile communication terminal 100, and is used as a viewfinder at the time of the above-described selfie. In normal shooting other than the self-portrait mode, it functions as a viewfinder that displays a captured image using the imaging lens 162. In addition, the display unit 141 performs screen display related to most of the functions of the mobile communication terminal 100 such as various menu screens and operation screens.

一方、移動体通信端末100の外面上に構成されている表示部142は、移動体通信端末100のサブディスプレイとして機能する。つまり、移動体通信端末100が使用されていない状態である折りたたみ時の画面表示をおこなうものであり、例えば、時計表示や電子メールや電話の着信の通知などに通常は用いられる。本実施形態では、折りたたみ時に撮像機能を動作させた場合に、上述したような自分撮り用のビューファインダとして機能させる。   On the other hand, the display unit 142 configured on the outer surface of the mobile communication terminal 100 functions as a sub display of the mobile communication terminal 100. That is, the mobile communication terminal 100 is displayed when it is folded when it is not being used. For example, it is normally used for clock display, e-mail or incoming call notification. In the present embodiment, when the imaging function is operated at the time of folding, it is made to function as a self-viewing viewfinder as described above.

このように、表示部141はメインディスプレイとして用いられ、表示部142はサブディスプレイとして用いられるので、表示部141には比較的大型の表示装置が用いられ、表示部142には比較的小型の表示装置が用いられることになる。上述したように、いずれの表示装置も自分撮り時のビューファインダとして用いられるので、高精細なカラー表示装置であることが望ましい。   Thus, since the display unit 141 is used as a main display and the display unit 142 is used as a sub-display, a relatively large display device is used for the display unit 141, and a relatively small display is used for the display unit 142. The device will be used. As described above, since any display device is used as a viewfinder at the time of self-portrait, a high-definition color display device is desirable.

音声処理部150は、例えば、音声用のコーデック回路やアンプなどのアナログ信号回路などから構成され、音声通信部121が受信したデジタル音声データをアナログ音声信号に変換してスピーカ151から出力する他、マイクロフォン152に入力された音声をデジタルデータに変換して音声通信部121に送出する。ここで、移動体通信端末100の撮像機能に動画像撮像機能が含まれている場合、音声処理部150によって音声の記録・再生がおこなわれる。   The audio processing unit 150 includes, for example, an analog signal circuit such as an audio codec circuit or an amplifier, converts the digital audio data received by the audio communication unit 121 into an analog audio signal, and outputs the analog audio signal from the speaker 151. The voice input to the microphone 152 is converted into digital data and sent to the voice communication unit 121. Here, when the moving image imaging function is included in the imaging function of the mobile communication terminal 100, the audio processing unit 150 records and reproduces the audio.

カメラ部160は、移動体通信端末100の撮像機能を実現する構成であり、例えば、CCD(Charge Coupled Device:電荷結合素子)などの撮像素子やADC(Analog-Digital Converter:アナログ−デジタル変換器)などから構成され、撮像レンズ161および撮像レンズ162への入射光を光電変換することで、撮像画像を生成する。本実施形態では、撮像レンズ161と撮像レンズ162の2つのレンズが移動体通信端末100に構成されているので、カメラ部160は、各レンズに対応した撮像素子を有している。   The camera unit 160 is configured to realize the imaging function of the mobile communication terminal 100. For example, the imaging unit such as a CCD (Charge Coupled Device) or an ADC (Analog-Digital Converter) is used. The incident image to the imaging lens 161 and the imaging lens 162 is photoelectrically converted to generate a captured image. In the present embodiment, since the imaging lens 161 and the imaging lens 162 are configured in the mobile communication terminal 100, the camera unit 160 has an imaging device corresponding to each lens.

ここで、筐体100Aの主面上に構成されている撮像レンズ161は、その配置から、自分撮り専用のレンズとなる。ここで、筐体100Aの主面には、大型の表示部141やスピーカ151などが配置されることから、撮像レンズ161には比較的小型なレンズが用いられることになる。しかしながら、自分撮り専用であれば常に撮影距離が近く一定であるので、高性能ではない小型レンズ(例えば、固定焦点レンズ)であっても必要十分な撮像画像が得られる。一方、筐体100Aの外面上に構成されている撮像レンズ162は、自分撮り以外の撮像にも用いられるので、可能な限り高性能なレンズであることが望ましい。よって、撮像レンズ162には、例えば、オートフォーカス機能やズーム機能が備えられていてもよい。この場合、自分撮りする際に移動体通信端末100の開閉を選択すれば、性能の異なるレンズを選択して使用することができるので、所望する画像品質に応じた自分撮りをおこなうことができる。   Here, the imaging lens 161 configured on the main surface of the housing 100A is a lens dedicated to self-taking because of its arrangement. Here, since the large display unit 141, the speaker 151, and the like are disposed on the main surface of the housing 100A, a relatively small lens is used as the imaging lens 161. However, since the shooting distance is always close and constant if it is dedicated to self-photographing, a necessary and sufficient captured image can be obtained even with a small lens (for example, a fixed focus lens) that does not have high performance. On the other hand, the imaging lens 162 configured on the outer surface of the housing 100A is also used for imaging other than self-portrait. Therefore, the imaging lens 162 may be provided with, for example, an autofocus function or a zoom function. In this case, if the opening / closing of the mobile communication terminal 100 is selected when taking a selfie, a lens having a different performance can be selected and used, so that a selfie can be taken according to the desired image quality.

開閉検出部170は、例えば、角度センサなどから構成され、例えば、ヒンジ部100Cの回転角度などを検出することで筐体の開閉状態を検出する。   The open / close detection unit 170 includes, for example, an angle sensor, and detects the open / close state of the housing by detecting the rotation angle of the hinge unit 100C, for example.

姿勢検出部180は、例えば、加速度センサなどから構成され、移動体通信端末100の姿勢を検出する。本実施形態では、姿勢検出部180によって、移動体通信端末100の傾きを検出する。なお、姿勢検出部180が検出する傾きは、カメラ部160による撮像画像の補正に用いられる(詳細後述)。よって、姿勢検出部180は、移動体通信端末100のうち、撮像レンズ161(162)が構成されている筐体100Aの傾きを検出するものとする。したがって、本実施形態では、筐体100A内に姿勢検出部180が構成されているものとする。   The posture detection unit 180 includes, for example, an acceleration sensor and detects the posture of the mobile communication terminal 100. In the present embodiment, the posture detection unit 180 detects the inclination of the mobile communication terminal 100. Note that the inclination detected by the posture detection unit 180 is used for correction of a captured image by the camera unit 160 (details will be described later). Therefore, the posture detection unit 180 detects the inclination of the housing 100A in which the imaging lens 161 (162) is configured in the mobile communication terminal 100. Therefore, in this embodiment, it is assumed that the posture detection unit 180 is configured in the housing 100A.

本実施形態では、姿勢検出部180に加速度センサを用いるものとする。この場合の加速度センサは、例えば、重錘体が取り付けられたダイヤフラムに圧電素子を貼着した構成を有する圧電型の加速度センサであり、移動体通信端末100が動くことにより発生する加速度を検出する。より詳細には、移動体通信端末100に発生した加速度が重錘体に作用することで、ダイヤフラムおよび圧電素子に歪みが生じ、圧電素子の圧電効果が発生する。そして、この圧電効果による電圧変化を検出することで、発生した加速度を検出する。   In the present embodiment, an acceleration sensor is used for the posture detection unit 180. The acceleration sensor in this case is, for example, a piezoelectric acceleration sensor having a configuration in which a piezoelectric element is attached to a diaphragm to which a weight body is attached, and detects an acceleration generated when the mobile communication terminal 100 moves. . More specifically, when the acceleration generated in the mobile communication terminal 100 acts on the weight body, the diaphragm and the piezoelectric element are distorted, and the piezoelectric effect of the piezoelectric element is generated. The generated acceleration is detected by detecting a voltage change due to the piezoelectric effect.

また、本実施形態で用いられる加速度センサは、X方向、Y方向、Z方向の3方向に発生する加速度を検出する3軸加速度センサとする。本実施形態では、筐体100Aの傾きを検出するので、姿勢検出部180は、筐体100Aでの3方向の加速度を検出することになる。この場合のX方向は、図1(a)あるいは図2(b)に示した向きにおける筐体100Aの左右方向となる。同様に、Y方向は、図1(a)あるいは図2(b)に示した向きにおける筐体100Aの上下方向となる。また、Z方向は、このようなX方向とY方向とに直交する筐体100Aの奥行き方向となる。   In addition, the acceleration sensor used in the present embodiment is a three-axis acceleration sensor that detects acceleration generated in three directions of the X direction, the Y direction, and the Z direction. In the present embodiment, since the inclination of the housing 100A is detected, the posture detection unit 180 detects acceleration in three directions in the housing 100A. The X direction in this case is the left-right direction of the housing 100A in the direction shown in FIG. 1 (a) or 2 (b). Similarly, the Y direction is the vertical direction of the housing 100A in the direction shown in FIG. 1 (a) or 2 (b). The Z direction is the depth direction of the casing 100A orthogonal to the X direction and the Y direction.

記憶部190は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ(着脱可能なメモリカードを含む)などといった所定の記憶装置などから構成され、制御部110が実行する動作プログラムの他、各処理の実行に必要なデータや各処理の実行によって生成されたデータなどを格納する。本実施形態では、図3に示すように、画像展開領域191、撮像画像格納領域192、プログラム格納領域193、などの記憶領域が記憶部190に用意される。   The storage unit 190 includes, for example, a predetermined storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory (including a removable memory card), and the like, and an operation executed by the control unit 110 In addition to the program, data necessary for executing each process, data generated by executing each process, and the like are stored. In the present embodiment, as shown in FIG. 3, storage areas such as an image development area 191, a captured image storage area 192, and a program storage area 193 are prepared in the storage unit 190.

画像展開領域191は、例えば、RAMなどに用意される記憶領域であり、カメラ部160による撮像動作中に取得される被写体像の画像データを展開するための領域である。本実施形態では、上述したように、表示部141(142)をビューファインダとして利用するので、カメラ部160の動作時は、常に画像データが生成される。したがって、画像展開領域191に随時画像を展開しながら表示部141(142)に表示させる。また、後述する画像補正処理をおこなう場合も、対象となる画像データを画像展開領域191に展開して処理をおこなう。   For example, the image development area 191 is a storage area prepared in a RAM or the like, and is an area for developing image data of a subject image acquired during an imaging operation by the camera unit 160. In the present embodiment, as described above, since the display unit 141 (142) is used as a viewfinder, image data is always generated when the camera unit 160 operates. Therefore, the image is displayed on the display unit 141 (142) while developing the image in the image development area 191 as needed. Also, when performing image correction processing to be described later, processing is performed by developing target image data in the image development area 191.

撮像画像格納領域192は、例えば、フラッシュメモリなどに用意される記憶領域であり、カメラ部160の撮像によって得られた画像データを保存するための領域である。   The captured image storage area 192 is a storage area prepared in, for example, a flash memory, and is an area for storing image data obtained by imaging by the camera unit 160.

プログラム格納領域193は、例えば、ROMやフラッシュメモリなどに用意される記憶領域であり、制御部110が実行する動作プログラムを格納するための領域である。プログラム格納領域193に格納される動作プログラムは、移動体通信端末100の基本動作を司る任意の基本プログラムなどの他に、後述する各処理を実現するための動作プログラムが格納されている。後述する移動体通信端末100による処理は、制御部110がこれらの動作プログラムを実行することで実現される。   The program storage area 193 is a storage area prepared in, for example, a ROM or a flash memory, and is an area for storing an operation program executed by the control unit 110. The operation program stored in the program storage area 193 stores an operation program for realizing each process to be described later, in addition to an arbitrary basic program that controls the basic operation of the mobile communication terminal 100. Processing performed by the mobile communication terminal 100 to be described later is realized by the control unit 110 executing these operation programs.

すなわち、記憶部190に格納されている動作プログラムを実行することで、制御部110は、図4に示すような構成として機能する。図示するように、制御部110は、撮像処理部111、モード選択部112、傾き算出部113、画像処理部114、などとして機能する。   That is, by executing the operation program stored in the storage unit 190, the control unit 110 functions as a configuration as shown in FIG. As illustrated, the control unit 110 functions as an imaging processing unit 111, a mode selection unit 112, an inclination calculation unit 113, an image processing unit 114, and the like.

撮像処理部111は、入力制御部130、表示制御部140、カメラ部160、開閉検出部170、記憶部190、などと協働し、移動体通信端末100の撮像機能にかかる処理を実行する。ここでは、撮像動作時に必要となる画面表示を表示制御部140に指示する他、シャッタ操作などに応じた撮像動作をカメラ部160に指示することで撮像機能が実現される。本実施形態ではさらに、表示部141または表示部142のいずれを用いるかを表示制御部140に指示するとともに、撮像レンズ161または撮像レンズ162のいずれに対応する撮像素子を用いるかをカメラ部160に指示する。このとき、撮像処理部111は、記憶部190に格納されている撮像パラメータなどを参照し、そのときの撮影条件に応じた動作をカメラ部160に指示する。   The imaging processing unit 111 cooperates with the input control unit 130, the display control unit 140, the camera unit 160, the open / close detection unit 170, the storage unit 190, and the like to execute processing related to the imaging function of the mobile communication terminal 100. Here, in addition to instructing the display control unit 140 to display a screen necessary for the imaging operation, the imaging function is realized by instructing the camera unit 160 to perform an imaging operation corresponding to a shutter operation or the like. In the present embodiment, the display control unit 140 is instructed whether to use the display unit 141 or the display unit 142, and the camera unit 160 determines which of the imaging lens 161 or the imaging lens 162 is used. Instruct. At this time, the imaging processing unit 111 refers to the imaging parameters stored in the storage unit 190 and instructs the camera unit 160 to perform an operation according to the imaging conditions at that time.

モード選択部112は、入力制御部130や表示制御部140などと協働し、移動体通信端末100の撮像機能にかかる動作モード(撮影モード)の選択処理をおこなう。ここでは、所定の画面表示によって移動体通信端末100のユーザ(撮影者)に撮影モードを選択させるとともに、選択された撮影モードにかかる動作を撮像処理部111に指示する。本実施形態ではまた、開閉検出部170との協働により、自分撮りモード時の移動体通信端末100の開閉状態を検出することで、表示部141または表示部142のいずれを用いるか、および、撮像レンズ161または撮像レンズ162のいずれに対応する撮像素子を用いるかを判別する。   The mode selection unit 112 cooperates with the input control unit 130, the display control unit 140, and the like to perform an operation mode (imaging mode) selection process related to the imaging function of the mobile communication terminal 100. Here, the user (photographer) of the mobile communication terminal 100 selects a shooting mode by a predetermined screen display, and instructs the imaging processing unit 111 to perform an operation related to the selected shooting mode. In the present embodiment, either the display unit 141 or the display unit 142 is used by detecting the open / closed state of the mobile communication terminal 100 in the self-portrait mode in cooperation with the open / close detection unit 170, and It is determined whether the imaging element corresponding to either the imaging lens 161 or the imaging lens 162 is used.

傾き算出部113は、姿勢検出部180などとの協働により、自分撮りモード時の移動体通信端末100の傾きを算出する。本実施形態では、姿勢検出部180の検出値に基づいて、撮影者に対する移動体通信端末100の垂直方向の傾きを算出する。より詳細には、傾き算出部113によって、撮影者に対する筐体100Aの垂直方向の傾きが算出される。   The inclination calculation unit 113 calculates the inclination of the mobile communication terminal 100 in the self-portrait mode in cooperation with the posture detection unit 180 and the like. In the present embodiment, the vertical inclination of the mobile communication terminal 100 with respect to the photographer is calculated based on the detection value of the posture detection unit 180. More specifically, the inclination calculation unit 113 calculates the inclination of the casing 100A in the vertical direction with respect to the photographer.

画像処理部114は、入力制御部130、表示制御部140、記憶部190などとの協働により、カメラ部160によって得られた撮像画像に画像処理をおこなう。ここでは、カメラ部160によって撮像された画像の画像データを撮像処理部111から随時取得し、記憶部190の画像展開領域191に展開して画像処理をおこなう。本実施形態では特に、自分撮りモード時にかかる画像処理をおこなう。ここでは、撮像時に表示する被写体画像の表示方向を変える処理などをおこなう他、傾き算出部113によって算出された傾きを用いて、自分撮りモードで撮像された画像の歪みを補正する処理(詳細後述)をおこなう。画像処理部114はまた、処理した画像データを表示制御部140に出力することで、表示部141(142)をビューファインダとして機能させる。画像処理部114は、以上のような自分撮り時に特有の画像処理をおこなう他、他の撮影モードにかかる通常の画像処理なども、選択された撮影モードに応じて実行する。   The image processing unit 114 performs image processing on the captured image obtained by the camera unit 160 in cooperation with the input control unit 130, the display control unit 140, the storage unit 190, and the like. Here, image data of an image captured by the camera unit 160 is acquired from the imaging processing unit 111 as needed, and is expanded in the image expansion area 191 of the storage unit 190 for image processing. Particularly in the present embodiment, the image processing is performed in the self-portrait mode. Here, processing for changing the display direction of the subject image displayed at the time of imaging is performed, and processing for correcting distortion of an image captured in the self-portrait mode using the tilt calculated by the tilt calculation unit 113 (details will be described later). ). The image processing unit 114 also causes the display unit 141 (142) to function as a viewfinder by outputting the processed image data to the display control unit 140. The image processing unit 114 performs image processing peculiar to self-shooting as described above, and also performs normal image processing for other shooting modes according to the selected shooting mode.

本実施形態では、制御部110によって上記の各機能構成が論理的に実現されるものとするが、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などの専用回路を用いて、これらの機能を物理的な構成によって実現してもよい。特に、画像処理部114は、いわゆる画像処理エンジンなどの専用回路によって構成することで、より高速な処理を実現することができる。   In the present embodiment, each functional configuration described above is logically realized by the control unit 110. For example, these functions are configured using a dedicated circuit such as an ASIC (Application Specific Integrated Circuit). These functions may be realized by a physical configuration. In particular, the image processing unit 114 is configured by a dedicated circuit such as a so-called image processing engine, so that higher-speed processing can be realized.

以上説明した移動体通信端末100の各構成は、本発明を実現するために必要な構成であり、移動体通信端末としての基本機能に必要なその他の構成や、種々の付加機能に必要な構成などは、必要に応じて備えられているものとする。   Each configuration of the mobile communication terminal 100 described above is a configuration necessary for realizing the present invention, and other configurations necessary for basic functions as the mobile communication terminal and configurations necessary for various additional functions. Etc. shall be provided as necessary.

以上のような構成を有する移動体通信端末100による動作を以下説明する。まず、移動体通信端末100の撮像機能(ここでは、スチル撮像とする)で自分撮りをおこなう際に実行される自分撮り処理を、図5に示すフローチャートを参照して説明する。この自分撮り処理は、移動体通信端末100のユーザ(撮影者)が操作部131の所定のキーなどを操作することで、移動体通信端末100の撮像機能が起動したことを契機に開始されるものとする。すなわち、撮像機能の起動を指示する入力信号が入力制御部130から制御部110に入力されたことを契機に、撮像処理部111が起動して処理を開始する。   The operation of the mobile communication terminal 100 having the above configuration will be described below. First, a self-portrait process executed when taking a self-portrait with the image capturing function (here, still image capturing) of the mobile communication terminal 100 will be described with reference to a flowchart shown in FIG. This self-portrait process is started when the user of the mobile communication terminal 100 (photographer) operates a predetermined key or the like of the operation unit 131 to activate the imaging function of the mobile communication terminal 100. Shall. That is, when the input signal instructing activation of the imaging function is input from the input control unit 130 to the control unit 110, the imaging processing unit 111 is activated and starts processing.

処理が開始されると、撮像処理部111は、開閉検出部170から移動体通信端末100の開閉状態を示す検出結果を取得し、モード選択部112に通知する。モード選択部112は、撮像処理部111からの通知に応じて表示制御部140を制御し、ユーザに撮影モードを選択させるためのモード選択画面を表示する(ステップS101)。このとき、撮像処理部111から通知された開閉状態を示す情報に基づいて、移動体通信端末100が展開されていれば表示部141に表示させ、移動体通信端末100が折りたたまれていれば表示部142に表示させる。   When the process is started, the imaging processing unit 111 acquires a detection result indicating the open / closed state of the mobile communication terminal 100 from the open / close detection unit 170 and notifies the mode selection unit 112 of the detection result. The mode selection unit 112 controls the display control unit 140 in response to the notification from the imaging processing unit 111, and displays a mode selection screen for allowing the user to select a shooting mode (step S101). At this time, based on the information indicating the open / closed state notified from the imaging processing unit 111, the mobile communication terminal 100 is displayed on the display unit 141 when it is expanded, and the mobile communication terminal 100 is displayed when it is folded. Displayed on the unit 142.

ユーザ(撮影者)は、操作部131を操作し、表示されたモード選択画面から、所望する撮影モードを選択する。この場合、いずれの撮影モードが選択されたかを示す入力信号が入力制御部130から制御部110に入力される。モード選択部112は、入力制御部130からの入力信号に基づいて、自分撮りモードが選択されたか否かを判別する(ステップS102)。ここで、自分撮りモード以外の撮影モードが選択された場合(ステップS102:No)は、本処理を終了する。この場合、選択された撮影モードに応じた処理が実行される。   The user (photographer) operates the operation unit 131 and selects a desired shooting mode from the displayed mode selection screen. In this case, an input signal indicating which shooting mode is selected is input from the input control unit 130 to the control unit 110. The mode selection unit 112 determines whether the self-portrait mode is selected based on the input signal from the input control unit 130 (step S102). Here, when a shooting mode other than the self-portrait mode is selected (step S102: No), this process ends. In this case, processing according to the selected shooting mode is executed.

一方、自分撮りモードが選択された場合(ステップS102:Yes)、モード選択部112は、その旨を撮像処理部111に通知する。撮像処理部111は、モード選択部112からの通知に応じて、表示制御部140およびカメラ部160を制御して、自分撮りモードの撮像動作を開始する(ステップS103)。ここでは、開閉検出部170から取得した開閉状態を示す情報に基づいて、移動体通信端末100が展開されていれば、表示部141と撮像レンズ161に対応する撮像素子が用いられるよう制御し、折りたたまれていれば、表示部142と撮像レンズ162に対応する撮像素子が用いられるよう制御する。撮像処理部111はまた、自分撮りモードが選択された旨を傾き算出部113と画像処理部114に通知する。   On the other hand, when the self-portrait mode is selected (step S102: Yes), the mode selection unit 112 notifies the imaging processing unit 111 to that effect. In response to the notification from the mode selection unit 112, the imaging processing unit 111 controls the display control unit 140 and the camera unit 160 to start an imaging operation in the self-portrait mode (step S103). Here, based on the information indicating the open / closed state acquired from the open / close detection unit 170, if the mobile communication terminal 100 is deployed, control is performed so that the image sensor corresponding to the display unit 141 and the imaging lens 161 is used. If it is folded, control is performed so that the image sensor corresponding to the display unit 142 and the imaging lens 162 is used. The imaging processing unit 111 also notifies the inclination calculation unit 113 and the image processing unit 114 that the self-portrait mode has been selected.

傾き算出部113は、撮像処理部111からの通知に応じて、筐体100Aの垂直方向の傾きを算出するための傾き算出処理を実行する(ステップS200)。この傾き算出処理の詳細は後述する。ここで算出される筐体100Aの垂直方向の傾き角度をθとする。   In response to the notification from the imaging processing unit 111, the inclination calculating unit 113 executes an inclination calculating process for calculating the vertical inclination of the housing 100A (step S200). Details of the inclination calculation processing will be described later. The vertical inclination angle of the casing 100A calculated here is assumed to be θ.

傾き算出部113は、傾き算出処理によって筐体100Aの傾きを算出すると、その旨を撮像処理部111に通知するとともに、算出された傾き角度θを画像処理部114に通知する。撮像処理部111は、傾き算出部113からの通知に応じて、カメラ部160から撮像画像データを取得し(ステップS104)、順次画像処理部114に供給する。このとき、撮像処理部111は、ビューファインダとして撮像画像をスルー表示させるための画像データであることを画像処理部114に通知しながら画像データを供給する。   When the inclination calculation unit 113 calculates the inclination of the housing 100A by the inclination calculation process, the inclination calculation unit 113 notifies the imaging processing unit 111 of the fact and notifies the image processing unit 114 of the calculated inclination angle θ. The imaging processing unit 111 acquires captured image data from the camera unit 160 in response to the notification from the inclination calculating unit 113 (step S104), and sequentially supplies the captured image data to the image processing unit 114. At this time, the imaging processing unit 111 supplies the image data while notifying the image processing unit 114 that the image data is for through-displaying the captured image as a viewfinder.

画像処理部114は、供給された画像データを画像展開領域191(メモリ)に順次展開する(ステップS105)。ここでは、取得された画像を連続的に表示部141(142)に表示することでビューファインダ用のスルー表示をおこなうので、画像データを連続的に処理する必要がある。よって、画像処理部114は、処理負荷を低減するため、スルー表示用の画像データについては低解像度で展開して処理をおこなう。   The image processing unit 114 sequentially develops the supplied image data in the image development area 191 (memory) (step S105). Here, since the obtained images are continuously displayed on the display unit 141 (142) to perform through display for the viewfinder, it is necessary to continuously process the image data. Therefore, the image processing unit 114 develops and processes the image data for through display at a low resolution in order to reduce the processing load.

画像処理部114は、傾き算出部113から通知された傾き角度θに基づいて、画像補正が必要であるか否かを判別する(ステップS106)。ここで、判別の基準となる筐体100Aの傾きと撮像される画像との関係を以下説明する。   The image processing unit 114 determines whether image correction is necessary based on the tilt angle θ notified from the tilt calculation unit 113 (step S106). Here, the relationship between the inclination of the housing 100A, which is a criterion for determination, and the captured image will be described below.

図2(a)に示すような姿勢でおこなわれる自分撮り撮影においては、撮像対象は撮影者の顔である。この場合の撮像対象と筐体100Aとの位置関係を図10(a)に示す。図10(a)において、撮像対象上の水平線をHとし、この水平線Hと直交する垂直線をVとする。また、筐体100Aについての垂直軸をVaとし、筐体100Aに構成されている撮像レンズ161(162)の撮像方向をDaとする。ここで、筐体100Aの垂直軸Vaは、筐体100Aの長辺方向に平行する中心軸とする。   In self-portrait photography performed in a posture as shown in FIG. 2A, the subject to be imaged is the face of the photographer. FIG. 10A shows the positional relationship between the imaging target and the housing 100A in this case. In FIG. 10A, a horizontal line on the imaging target is H, and a vertical line orthogonal to the horizontal line H is V. In addition, the vertical axis of the housing 100A is Va, and the imaging direction of the imaging lens 161 (162) configured in the housing 100A is Da. Here, the vertical axis Va of the casing 100A is a central axis parallel to the long side direction of the casing 100A.

以上のように規定した各線を抽出して示した図が図10(b)である。図示するように、水平線Hと垂直線Vとが直交しているとともに、筐体100Aの垂直軸Vaと撮像方向Daとが直交している。ここで、水平線Hと撮像方向Daとのなす角、すなわち、撮像対象に対する撮像方向の角度をθ1とし、垂直線Vと筐体100Aの垂直軸Vaとのなす角、すなわち、筐体100Aの垂直方向の傾きをθ2とすると、水平線Hと垂直線Vとが直交し、垂直軸Vaと撮像方向Daとが直交しているので、θ1とθ2とは等角となる(θ1=θ2)。すなわち、撮像対象に対する撮像方向の角度(θ1)は、筐体100Aの垂直方向の傾き(θ2)が判れば求めることができる。本実施形態では、筐体100Aの垂直方向の傾きを姿勢検出部180の加速度検出によって算出することで、撮像対象に対する撮像方向を求める。以下、筐体100Aの垂直方向の傾きをθとする。   FIG. 10B is a diagram showing the extracted lines defined as described above. As shown in the figure, the horizontal line H and the vertical line V are orthogonal to each other, and the vertical axis Va of the housing 100A and the imaging direction Da are orthogonal to each other. Here, the angle between the horizontal line H and the imaging direction Da, that is, the angle of the imaging direction with respect to the imaging target is θ1, and the angle between the vertical line V and the vertical axis Va of the casing 100A, that is, the vertical of the casing 100A. When the inclination of the direction is θ2, since the horizontal line H and the vertical line V are orthogonal to each other, and the vertical axis Va and the imaging direction Da are orthogonal to each other, θ1 and θ2 are equiangular (θ1 = θ2). That is, the angle (θ1) of the imaging direction with respect to the imaging target can be obtained if the vertical inclination (θ2) of the housing 100A is known. In the present embodiment, the imaging direction with respect to the imaging target is obtained by calculating the vertical inclination of the casing 100 </ b> A by the acceleration detection of the posture detection unit 180. Hereinafter, the vertical inclination of the housing 100A is denoted by θ.

ここで、撮像対象に対する撮像方向が水平であれば、撮像画像に歪みは生じないが、撮像方向に角度がついていると、撮像画像に歪みが発生する(詳細後述)。したがって、筐体100Aの垂直方向の傾きθに基づいて、撮像画像に歪みが発生するか否かを判別することができる。また、筐体100Aの垂直方向の傾きθの方向によって、発生する歪み方が異なってくる(詳細後述)。本実施形態では、このような傾きθによって歪み方を特定するために、傾きθの基準を定義する。   Here, if the imaging direction with respect to the imaging target is horizontal, the captured image is not distorted, but if the imaging direction is angled, the captured image is distorted (details will be described later). Therefore, it is possible to determine whether or not distortion occurs in the captured image based on the vertical inclination θ of the casing 100A. Further, the generated distortion differs depending on the direction of the vertical inclination θ of the housing 100A (details will be described later). In the present embodiment, in order to specify the distortion method based on such an inclination θ, a reference for the inclination θ is defined.

まず、図10(c)に示すように、撮像対象の正面に筐体100Aがあり、撮像画像に歪みが発生しない状況を仮定する。この場合、撮像レンズ161(162)のある筐体100Aの垂直軸Vaと垂直線Vとのなす角(=θ)は0°となる。このような、撮像画像に歪みが発生しない筐体100Aの傾きを基準傾きθ0とする。そして、基準傾きθ0の角度を0°と定義する。 First, as shown in FIG. 10C, it is assumed that there is a casing 100A in front of the imaging target and no distortion occurs in the captured image. In this case, the angle (= θ) formed by the vertical axis Va and the vertical line V of the housing 100A with the imaging lens 161 (162) is 0 °. The inclination of the casing 100A that does not cause distortion in the captured image is set as a reference inclination θ 0 . The angle of the reference inclination θ 0 is defined as 0 °.

ここで、図2(a)に示すような撮影姿勢の場合、筐体100Aの位置は、撮像対象より下方となる。この場合、撮像対象を撮像するには、図10(d)に示すように、筐体100Aを垂直方向に傾けることになる。このように、撮像方向が下から上に向かっている場合の傾きθは、図10(d)において、基準傾きθ0よりも右方向となる。すなわち、筐体100Aの上端が撮像対象から遠ざかり、下端が撮像対象に近づく方向に傾く。本実施形態では、基準傾きθ0に対し、このような方向となる傾きθを正の傾き(+θ)とする。 Here, in the case of the photographing posture as shown in FIG. 2A, the position of the housing 100A is below the object to be imaged. In this case, to image the imaging target, the casing 100A is tilted in the vertical direction as shown in FIG. Thus, the inclination θ when the imaging direction is from the bottom to the top is the right direction with respect to the reference inclination θ 0 in FIG. 10D. That is, the upper end of the housing 100A is moved away from the imaging target, and the lower end is inclined in a direction approaching the imaging target. In the present embodiment, the inclination θ that is in such a direction with respect to the reference inclination θ 0 is a positive inclination (+ θ).

一方、例えば、図2(a)に示した撮影姿勢よりも上方に移動体通信端末100を構えて撮影した場合、図10(e)に示すように、筐体100Aの位置は、撮像対象より上方となる。この場合も、筐体100Aを垂直方向に傾けて撮像することになり、この時の撮像方向は上から下に向かう。この場合の傾きθは、図10(e)において、基準傾きθ0よりも左方向となる。すなわち、筐体100Aの上端が撮像対象に近づき、下端が撮像対象から遠ざかる方向に傾く。本実施形態では、基準傾きθ0に対し、このような方向となる傾きを負の傾き(−θ)とする。 On the other hand, for example, when shooting is performed with the mobile communication terminal 100 above the shooting posture shown in FIG. 2A, the position of the housing 100A is closer to the imaging target as shown in FIG. It becomes upper. Also in this case, the casing 100A is tilted in the vertical direction to capture an image, and the imaging direction at this time is from top to bottom. In this case, the inclination θ is leftward from the reference inclination θ 0 in FIG. That is, the upper end of the housing 100A approaches the imaging target, and the lower end is inclined in a direction away from the imaging target. In the present embodiment, the inclination in such a direction with respect to the reference inclination θ 0 is a negative inclination (−θ).

以上のように定義される筐体100Aの傾きθと、撮像画像の歪みとの関係を説明する。図11(a)は、図10(c)に示したような、撮像対象の正面で撮像したときに得られる撮像画像の例である。このように、正面で撮像した場合、被写体像に歪みは発生しない。すなわち、筐体100Aの傾きθが0°(すなわち、基準傾きθ0)のときは、歪みのない撮像画像となる。このような歪みのない画像を以下、基準画像IM0とする。なお、基準画像IM0となるのはθ=0°のときのみではなく、一定の許容範囲(基準傾きθ0±所定角度)があるものとする。この許容範囲を以下、許容範囲αとする。 The relationship between the inclination θ of the housing 100A defined as described above and the distortion of the captured image will be described. FIG. 11A is an example of a captured image obtained when an image is captured in front of the imaging target as illustrated in FIG. In this way, when the image is taken in front, the subject image is not distorted. That is, when the inclination θ of the housing 100A is 0 ° (that is, the reference inclination θ 0 ), a captured image without distortion is obtained. Hereinafter, an image without such distortion is referred to as a reference image IM 0 . It is assumed that the reference image IM 0 is not only when θ = 0 ° but also has a certain allowable range (reference inclination θ 0 ± predetermined angle). This allowable range is hereinafter referred to as an allowable range α.

図11(a)のような基準画像IM0に対し、図10(d)に示したような、傾きθが正となる場合の撮像画像の例を図11(b)に示す。筐体100Aが+θ傾いた場合、撮像方向が下から上に向かうので、図示するように、撮像画像が、破線で示すような台形状に歪む(台形歪み)。つまり、各斜辺がy=0で画像の左右端に接する上底<下底の台形型に画像を変形させたように歪む。このような、筐体100Aが+θ傾くことで台形歪みが発生した画像を以下、画像IM(+)とする。 FIG. 11B shows an example of a captured image when the inclination θ is positive as shown in FIG. 10D with respect to the reference image IM 0 as shown in FIG. When the housing 100A is tilted by + θ, the imaging direction is from the bottom to the top, so that the captured image is distorted in a trapezoidal shape as shown by a broken line (trapezoidal distortion) as illustrated. In other words, each oblique side is distorted as if the image was deformed into a trapezoidal shape with an upper base <lower base contacting the left and right edges of the image when y = 0. Hereinafter, an image in which the trapezoidal distortion is generated by tilting the housing 100A by + θ is referred to as an image IM (+) .

また、図10(e)に示したような、傾きθが負となる場合の撮像画像は、図11(c)のようになる。この場合、撮像方向が上から下に向かうので、画像IM(+)の場合とは上下反対の台形状(上底>下底)に歪む。このような、筐体100Aが−θ傾くことで歪んだ画像を以下、画像IM(−)とする。 Further, a captured image when the inclination θ is negative as shown in FIG. 10E is as shown in FIG. In this case, since the imaging direction is from top to bottom, the image is distorted in a trapezoidal shape (upper base> lower base) that is opposite to that of the image IM (+) . Such an image distorted by tilting the housing 100A by −θ is hereinafter referred to as an image IM (−) .

このように、傾き算出処理によって算出された筐体100Aの傾きθに基づき、画像処理部114は、ステップS106(図5)で画像補正の要否を判別する。ここでは、算出された傾きθが、歪みの発生しない許容範囲α内(すなわち、基準傾きθ0±所定角度)であるか否かを判別することで画像補正の要否を判別する。つまり、傾きθが範囲内であれば画像補正は不要と判別し、範囲外であれば画像補正が必要と判別する。 As described above, based on the inclination θ of the housing 100A calculated by the inclination calculation process, the image processing unit 114 determines whether or not image correction is necessary in step S106 (FIG. 5). Here, the necessity of image correction is determined by determining whether or not the calculated inclination θ is within an allowable range α in which distortion does not occur (that is, the reference inclination θ 0 ± predetermined angle). That is, if the inclination θ is within the range, it is determined that image correction is unnecessary, and if it is outside the range, it is determined that image correction is necessary.

ここで、傾きθが範囲内であり画像補正は不要と判別した場合(ステップS106:No)、ステップS107に進む。一方、画像補正が必要と判別した場合(ステップS106:Yes)、取得された画像データの歪みを補正するための画像補正処理を実行する(ステップS300)。ここでは、図11(b)または図11(c)に示したような、自分撮り時に発生しやすい画像歪み(台形歪み)を補正する。この画像補正処理の詳細は後述する。   If it is determined that the inclination θ is within the range and no image correction is necessary (step S106: No), the process proceeds to step S107. On the other hand, when it is determined that image correction is necessary (step S106: Yes), an image correction process for correcting distortion of the acquired image data is executed (step S300). Here, image distortion (trapezoidal distortion) that is likely to occur during self-shooting as shown in FIG. 11B or FIG. 11C is corrected. Details of this image correction processing will be described later.

画像処理部114は、ステップS105で画像展開領域191に展開した撮像画像データもしくは画像補正処理によって補正した画像データを表示制御部140に供給することで、表示部141(142)にビューファインダ表示する(ステップS107)。このとき、画像処理部114は、図1(a)に示す表示部141、または、図1(b)に示す表示部142に、撮像された被写体像が正立して表示されるよう、画像の上下方向を規定するとともに、撮影者が構図などを決めやすいよう画像の左右反転をおこなう。画像を左右反転させることにより、自分の姿をミラーに映しているような被写体像がビューファインダ表示されるので、構図やアングルの調整を違和感なくおこなうことができる。ここで、使用しているレンズにオートフォーカス機能やズーム機能がある場合は、ユーザによる操作部131の操作に応じて、フォーカス動作やズーミング動作をおこなうことになる。この場合、撮像処理部111が入力制御部130からの入力信号に応じた動作をカメラ部160に指示する。   The image processing unit 114 supplies the captured image data expanded in the image expansion area 191 in step S105 or the image data corrected by the image correction processing to the display control unit 140, thereby displaying the viewfinder on the display unit 141 (142). (Step S107). At this time, the image processing unit 114 displays an image so that the captured subject image is displayed upright on the display unit 141 illustrated in FIG. 1A or the display unit 142 illustrated in FIG. In addition to defining the vertical direction of the image, the image is reversed horizontally so that the photographer can easily determine the composition. By reversing the image from side to side, the subject image that reflects your appearance on the mirror is displayed in the viewfinder, so you can adjust the composition and angle without any discomfort. Here, when the lens being used has an autofocus function and a zoom function, a focus operation and a zooming operation are performed according to the operation of the operation unit 131 by the user. In this case, the imaging processing unit 111 instructs the camera unit 160 to perform an operation according to the input signal from the input control unit 130.

ステップS104〜ステップS107、および、ステップS300の動作が、シャッタ操作されるまで(ステップS108:No)繰り返し実行されることで、表示部141または表示部142に、撮像画像を連続的に表示するビューファインダ表示(スルー表示)がおこなわれる。   A view in which captured images are continuously displayed on the display unit 141 or the display unit 142 by repeatedly executing the operations in steps S104 to S107 and step S300 until the shutter operation is performed (step S108: No). Viewfinder display (through display) is performed.

ユーザ(撮影者)は、所望するシャッタチャンスとなると、シャッタボタンとして機能する操作部131を操作する。この場合、シャッタ操作を示す入力信号が入力制御部130から制御部110に入力される。撮像処理部111は、入力制御部130からの入力信号に基づいて、シャッタ操作がされたと判別すると(ステップS108:Yes)、カメラ部160にシャッタ動作を指示する。   The user (photographer) operates the operation unit 131 that functions as a shutter button when a desired photo opportunity is reached. In this case, an input signal indicating a shutter operation is input from the input control unit 130 to the control unit 110. If it is determined that the shutter operation has been performed based on the input signal from the input control unit 130 (step S108: Yes), the imaging processing unit 111 instructs the camera unit 160 to perform a shutter operation.

カメラ部160は、撮像処理部111からの指示に応じて、所定のシャッタ動作をおこない、そのときの撮影条件に応じたパラメータで撮像レンズ161(162)や対応する撮像素子を動作させて撮像する。この撮像によって生成された画像データ(撮像画像データ)を撮像処理部111が取得すると(ステップS109)、画像処理部114に供給する。このとき、撮像処理部111は、供給する画像データがシャッタ操作による撮像画像であることを画像処理部114に通知する。   The camera unit 160 performs a predetermined shutter operation in accordance with an instruction from the imaging processing unit 111, and operates the imaging lens 161 (162) or a corresponding imaging element with parameters according to the imaging conditions at that time to perform imaging. . When the image processing unit 111 acquires image data (captured image data) generated by the image capturing (step S109), the image data is supplied to the image processing unit 114. At this time, the imaging processing unit 111 notifies the image processing unit 114 that the supplied image data is a captured image obtained by a shutter operation.

画像処理部114では、撮像処理部111から供給された画像データを画像展開領域191(メモリ)に展開する(ステップS110)。ここでは、上述したスルー表示と異なり、シャッタ操作によって撮像されたスチル画像であるため連続的な処理を必要としない。また、撮影者の意図に基づく撮像画像であるため、画像品質の確認などができるよう、画像処理部114は、高解像度で画像展開領域191に画像データを展開する。   The image processing unit 114 develops the image data supplied from the imaging processing unit 111 in the image development area 191 (memory) (step S110). Here, unlike the through display described above, since it is a still image captured by a shutter operation, continuous processing is not required. Since the captured image is based on the photographer's intention, the image processing unit 114 expands the image data in the image expansion area 191 with high resolution so that the image quality can be confirmed.

この場合も、画像処理部114は、ステップS106と同様の処理により、画像補正の要否を判別する(ステップS111)。そして、画像補正が必要であれば(ステップS111:Yes)、上述した画像補正処理(詳細後述)を再度実行し(ステップS300)、画像展開領域191に展開した撮像画像の補正をおこなう。一方、不要であれば(ステップS111:No)、ステップS112に進む。   Also in this case, the image processing unit 114 determines whether or not image correction is necessary by the same processing as in step S106 (step S111). If image correction is necessary (step S111: Yes), the above-described image correction process (details will be described later) is executed again (step S300), and the captured image developed in the image development area 191 is corrected. On the other hand, if unnecessary (step S111: No), the process proceeds to step S112.

画像処理部114は、画像補正処理によって補正した画像データを表示制御部140に出力することで、表示部141または表示部142に、ユーザ(撮影者)による撮影で得られた撮像画像を表示する(ステップS112)。画像処理部114は、入力制御部130および表示制御部140との協働により、表示した撮像画像を保存するか否かを問い合わせるメッセージなどとともに、保存するか否かを指示するためのボタン画像などをステップS112での表示画面上に表示させる。ユーザ(撮影者)は、表示された撮像画像を確認し、保存すべきものであるか否かを判断し、操作部131を操作していずれかの指示を入力する。   The image processing unit 114 outputs the image data corrected by the image correction processing to the display control unit 140, thereby displaying a captured image obtained by shooting by the user (photographer) on the display unit 141 or the display unit 142. (Step S112). The image processing unit 114 cooperates with the input control unit 130 and the display control unit 140 to send a message for inquiring whether to save the displayed captured image, a button image for instructing whether to save the image, or the like. Is displayed on the display screen in step S112. The user (photographer) checks the displayed captured image, determines whether or not the image should be saved, and operates the operation unit 131 to input any instruction.

操作部131の操作に応じた入力信号が入力制御部130から制御部110に入力されると、画像処理部114は、当該入力信号に基づいて、撮像画像の保存指示が入力されたか否かを判別する(ステップS113)。保存指示が入力された場合(ステップS113:Yes)、画像処理部114は、ステップS110で画像展開領域191に展開し、ステップS300の画像補正処理をおこなった撮像画像データを撮像画像格納領域192に格納して保存する(ステップS114)。一方、入力された指示が保存指示ではない場合(ステップS111:No)、画像処理部114は、撮像画像を撮像画像格納領域192に格納せず、画像展開領域191に展開した撮像画像をクリアする。   When an input signal corresponding to the operation of the operation unit 131 is input from the input control unit 130 to the control unit 110, the image processing unit 114 determines whether or not an instruction to save the captured image is input based on the input signal. It discriminate | determines (step S113). When the save instruction is input (step S113: Yes), the image processing unit 114 expands the captured image data that has been expanded in the image expansion area 191 in step S110 and subjected to the image correction processing in step S300 in the captured image storage area 192. Store and save (step S114). On the other hand, if the input instruction is not a save instruction (step S111: No), the image processing unit 114 does not store the captured image in the captured image storage area 192, but clears the captured image expanded in the image expansion area 191. .

そして、例えば、自分撮りモードの解除や撮像機能の終了などといった、自分撮りを終了する指示が入力されるまで(ステップS115:No)、上述したステップS103〜ステップS114、ステップS200、ステップS300を繰り返し実行する。ここで、ステップS200の傾き算出処理からおこなうのは、ステップS112で表示した撮像画像の確認のためにユーザ(撮影者)の姿勢が変わり、次の撮影時には、筐体100Aの傾きが前回とは異なっている可能性があるためである。   Then, for example, the above-described steps S103 to S114, step S200, and step S300 are repeated until an instruction to end the self-shooting, such as canceling the self-shooting mode or ending the imaging function, is input (step S115: No). Execute. Here, what is performed from the tilt calculation process in step S200 is that the posture of the user (photographer) changes for confirmation of the captured image displayed in step S112, and the tilt of the housing 100A is different from the previous time at the next shooting. This is because they may be different.

ユーザ(撮影者)が操作部131を操作することで、自分撮りモードの解除や撮像機能の終了などの終了指示を入力した場合(ステップS115:Yes)、制御部110は処理を終了する。   When the user (photographer) operates the operation unit 131 to input an end instruction such as cancellation of the self-portrait mode or the end of the imaging function (step S115: Yes), the control unit 110 ends the process.

次に、上述した自分撮り処理において実行される傾き検出処理を、図6に示すフローチャートを参照して説明する。   Next, the inclination detection process executed in the above-described self-portrait process will be described with reference to the flowchart shown in FIG.

処理が開始されると、傾き算出部113は、姿勢検出部180、すなわち加速度センサの出力を取得する(ステップS201)。上述したように、姿勢検出部180は3軸加速度センサであるので、姿勢検出部180は、X方向、Y方向、Z方向の加速度を検出し、その加速度ベクトル(Ax、Ay、Az)を出力する。ここで、AxはX方向の加速度ベクトルを示し、AyはY方向の加速度ベクトルを示し、AzはZ方向の加速度ベクトルを示す。   When the process is started, the inclination calculating unit 113 acquires the output of the posture detecting unit 180, that is, the acceleration sensor (step S201). As described above, since the posture detection unit 180 is a three-axis acceleration sensor, the posture detection unit 180 detects accelerations in the X direction, the Y direction, and the Z direction, and outputs the acceleration vectors (Ax, Ay, Az). To do. Here, Ax represents an acceleration vector in the X direction, Ay represents an acceleration vector in the Y direction, and Az represents an acceleration vector in the Z direction.

各加速度ベクトルを取得すると、傾き算出部113は、制御部110の計時機能などによって実現されるタイマなどを用いたカウントアップをおこなう。このとき、傾き算出部113は、当該タイマのカウント値をリセットしてからカウントアップを開始する(ステップS202)。   When each acceleration vector is acquired, the inclination calculation unit 113 counts up using a timer or the like that is realized by the time measuring function of the control unit 110 or the like. At this time, the inclination calculating unit 113 starts counting up after resetting the count value of the timer (step S202).

カウントアップを開始すると、傾き算出部113は、ステップS201で取得した加速度ベクトル(Ax、Ay、Az)から、加速度の大きさA(=√(Ax+Ay+Az))を算出する(ステップS203)。そして、算出した加速度の大きさAと重力加速度の大きさgとを比較し、加速度の大きさAと重力加速度の大きさgとの差が、所定の誤差βの範囲内にあるか否かを判別する(ステップS204)。 When the count-up is started, the inclination calculating unit 113 calculates the magnitude of acceleration A 0 (= √ (Ax 2 + Ay 2 + Az 2 )) from the acceleration vector (Ax, Ay, Az) acquired in step S201 ( Step S203). Then, the calculated acceleration magnitude A 0 is compared with the gravitational acceleration magnitude g, and whether the difference between the acceleration magnitude A 0 and the gravitational acceleration magnitude g is within a predetermined error β. It is determined whether or not (step S204).

加速度の大きさAと重力加速度の大きさgとの差が、所定の誤差βの範囲を超えている場合(ステップS204:No)、傾き算出部113は、移動体通信端末100が静止していないものと判断し、ステップS202で開始したタイマのカウント値が所定期間mとなるまで待機した後(ステップS205)、ステップS201〜ステップS204の動作を再度実行する。 If the difference between the magnitude A 0 and gravitational acceleration of magnitude g of the acceleration exceeds the predetermined range of error beta (step S204: No), the slope calculation unit 113, the mobile communication terminal 100 is stationary After determining that the timer has not counted and waiting until the count value of the timer started in step S202 reaches a predetermined period m (step S205), the operations in steps S201 to S204 are executed again.

一方、加速度の大きさAと重力加速度の大きさgとの差が、所定の誤差βの範囲内にある場合(ステップS204:Yes)、傾き算出部113は、移動体通信端末100が静止しているものと判断する。この場合、傾き算出部113は、そのときのZ方向の加速度ベクトルを用いて、ユーザ(撮影者)に対する移動体通信端末100の垂直方向の傾き角度θを算出して(ステップS206)、図5に示す自分撮り処理のフローに戻る。 On the other hand, the difference between the acceleration magnitude A 0 and gravitational acceleration of magnitude g is, if within a predetermined error range beta (step S204: Yes), the slope calculation unit 113, the mobile communication terminal 100 is still Judge that you are doing. In this case, the inclination calculation unit 113 calculates the vertical inclination angle θ of the mobile communication terminal 100 with respect to the user (photographer) using the acceleration vector in the Z direction at that time (step S206), and FIG. Return to the self-shooting process flow shown in FIG.

ここで傾きθの算出について説明する。図10(d)または図10(e)に示すような筐体100Aの傾きは、筐体100AにおけるZ方向の動きによって発生する。よって、ステップS206では、そのときのZ方向の加速度ベクトルを用いて、傾き角度θを算出する。この場合、傾き算出部113は、θ=sin−1Azを算出することで、傾き角度θを算出する。 Here, calculation of the inclination θ will be described. The inclination of the housing 100A as shown in FIG. 10D or FIG. 10E is caused by the movement of the housing 100A in the Z direction. Therefore, in step S206, the inclination angle θ is calculated using the acceleration vector in the Z direction at that time. In this case, the inclination calculation unit 113 calculates the inclination angle θ by calculating θ = sin −1 Az 2 .

このように筐体100Aが傾いた状態で撮像した場合、図11(b)または図11(c)に示したような台形状の歪みが発生する。よって、本実施形態では、上記自分撮り処理において撮像された自分撮り画像に生じる台形歪みを、画像処理部114が画像補正処理(ステップS300)を実行することで補正する(台形補正)。この画像補正処理を、図7に示すフローチャートを参照して説明する。   Thus, when imaging is performed with the housing 100A tilted, trapezoidal distortion as shown in FIG. 11B or FIG. 11C occurs. Therefore, in the present embodiment, the trapezoidal distortion generated in the self-portrait image captured in the self-portrait process is corrected by the image processing unit 114 executing the image correction process (step S300) (trapezoid correction). This image correction processing will be described with reference to the flowchart shown in FIG.

図示するように、画像補正処理は、画像の横方向(X方向)の補正をおこなう横方向補正処理(ステップS400)と、画像の縦方向(Y方向)の補正をおこなう縦方向補正処理(ステップS500)とをおこなうことで実現される。それぞれの処理を以下説明する。   As shown in the figure, the image correction process includes a horizontal direction correction process (step S400) for correcting the horizontal direction (X direction) of the image and a vertical direction correction process (step for correcting the vertical direction (Y direction) of the image. This is realized by performing S500). Each process will be described below.

なお、以下に説明する処理では、撮像画像の座標に基づいて画像補正をおこなう。よって、本実施形態では、図12に示すような座標軸(X軸とY軸)を撮像画像に設定する。X軸は撮像画像の短辺と平行する軸であり、Y軸は撮像画像の長辺と平行する軸である。そして、X軸とY軸とは、撮像画像の中心位置で交わる。この交点を原点とし、その座標を(0,0)とする。ここで、撮像画像上でのX座標の最大値をxmax、最小値をxminとし、Y座標の最大値をymax、最小値をyminとする。この場合、原点座標を(0,0)としているので、xmaxとymaxはそれぞれ正の座標値となり、xminとyminのそれぞれは負の座標値となる。そして、原点が画像の中心であるため、xminとxmaxの絶対値、および、yminとymaxの絶対値はそれぞれ同じ値となる(|xmin|=|xmax|、|ymin|=|ymax|)。 In the process described below, image correction is performed based on the coordinates of the captured image. Therefore, in this embodiment, coordinate axes (X axis and Y axis) as shown in FIG. 12 are set in the captured image. The X axis is an axis parallel to the short side of the captured image, and the Y axis is an axis parallel to the long side of the captured image. The X axis and the Y axis intersect at the center position of the captured image. Let this intersection be the origin, and its coordinates be (0, 0). Here, the maximum value of the X coordinate on the captured image is x max , the minimum value is x min , the maximum value of the Y coordinate is y max , and the minimum value is y min . In this case, since the origin coordinates are (0, 0), x max and y max are positive coordinate values, and x min and y min are negative coordinate values. Since the origin is the center of the image, the absolute values of x min and x max and the absolute values of y min and y max are the same values (| x min | = | x max |, | y min | = | Y max |).

例えば、撮像画像の解像度がQVGAであるとすると、その長辺方向の画素数が320であるので、本実施形態にかかる撮像画像のY方向の画素数は320ということになる。この場合、撮像画像のY方向の座標値の範囲は−160(ymin)〜+160(ymax)となる。 For example, if the resolution of the captured image is QVGA, the number of pixels in the long side direction is 320, and thus the number of pixels in the Y direction of the captured image according to the present embodiment is 320. In this case, the range of the coordinate value in the Y direction of the captured image is −160 (y min ) to +160 (y max ).

このような座標設定でおこなわれる横方向補正処理を、図8に示すフローチャートを参照して説明する。ここでは、図11(b)に示したような、画像の上下方向(Y方向)の位置が移動するにしたがって、次第に画像が横方向に縮小あるいは拡大されるように歪んだ画像IM(+)の画像補正をおこなう場合を以下説明する。 The lateral direction correction processing performed with such coordinate settings will be described with reference to the flowchart shown in FIG. Here, as shown in FIG. 11B, the image IM (+) distorted so that the image is gradually reduced or enlarged in the horizontal direction as the position in the vertical direction (Y direction) of the image moves. The case where the image correction is performed will be described below.

このような画像IM(+)では、上底<下底となる台形状に画像が歪んでいる。これは、撮像画像のY座標毎に異なる歪み度合いで横方向(X方向)に歪んでいることになる。よって、横方向補正処理においては、撮像画像のY座標毎に歪み度合いを求めて補正をおこなう。 In such an image IM (+) , the image is distorted into a trapezoidal shape with the upper base <the lower base. This means that the image is distorted in the horizontal direction (X direction) with a different degree of distortion for each Y coordinate of the captured image. Therefore, in the horizontal direction correction processing, correction is performed by obtaining the degree of distortion for each Y coordinate of the captured image.

ここでは、撮像画像の上端から下端に向かって、Y座標毎に歪みを補正するものとする。よって、画像処理部114は、まず、対象とするY座標(y)に、画像の上端部のY座標となる最大値(ymax)を設定する(ステップS401)。QVGAであれば、+160が設定されることになる。 Here, it is assumed that distortion is corrected for each Y coordinate from the upper end to the lower end of the captured image. Therefore, the image processing unit 114 first sets the maximum value (y max ) that becomes the Y coordinate of the upper end portion of the image as the target Y coordinate (y) (step S401). In the case of QVGA, +160 is set.

画像処理部114は、ステップS401で設定したY座標(y行目)における、X方向の歪み度合いVxを算出する(ステップS402)。ここでは、以下の数1によってX方向の歪み度合いVxを算出する。   The image processing unit 114 calculates the distortion degree Vx in the X direction at the Y coordinate (y-th line) set in step S401 (step S402). Here, the distortion degree Vx in the X direction is calculated by the following equation (1).

(数1)
Vx=a・Ry・cosθ+b (a、bは定数)
(Equation 1)
Vx = a · Ry · cos θ + b (a and b are constants)

上記数1において、Ryは、撮像画面の中心から、対象とするY座標までのY方向の距離を座標値で示したものである。上述したように、画面の中心座標を(0,0)としているので、Ry=y−0で求められる。上述したような台形歪みでは、画像の中心からY方向に離れるほど歪み度合いが大きくなるとともに、筐体100Aの傾き角度θが大きくなるほど歪み度合いが大きくなる。よって、数1では、画像の中心位置からのY方向距離であるRyと筐体100Aの傾き角度θを要素としている。   In the above equation 1, Ry indicates the distance in the Y direction from the center of the imaging screen to the target Y coordinate, as a coordinate value. As described above, since the center coordinates of the screen are (0, 0), Ry = y-0 is obtained. In the trapezoidal distortion as described above, the degree of distortion increases as the distance from the center of the image increases in the Y direction, and the degree of distortion increases as the tilt angle θ of the housing 100A increases. Therefore, in Equation 1, Ry that is the distance in the Y direction from the center position of the image and the tilt angle θ of the housing 100A are used as elements.

ここで、定数a、bは、例えば、自分撮りという撮影条件下で定められる数値とする。例えば、標準的な腕の長さなどに基づいて規定される自分撮り時の撮影距離や、自分撮りの場合に想定される撮影方向の範囲などに基づいて定められる。このような定数は、予めデフォルト値を設定して用いてもよい他、自分撮りをおこなう際(例えば、初回実行時など)に、定数を変更可能にして補正画像を表示し、ユーザが選択した補正画像で用いた値を設定してもよい。なお、定数a、bはそれぞれ正の値とする。   Here, the constants a and b are numerical values determined under photographing conditions such as self-portrait, for example. For example, it is determined based on a shooting distance at the time of self-taking defined based on a standard arm length or the like, a range of a shooting direction assumed in the case of self-taking. Such constants may be used by setting default values in advance, or when taking a selfie (for example, at the first execution), the constants can be changed to display a corrected image and selected by the user. A value used in the corrected image may be set. The constants a and b are positive values.

画像IM(+)の場合、筐体100Aの傾きθは正である(+θ)。また、各定数が正であるので、数1で求められるVxの正負はRyの正負と対応する。Ryが正となるのは、対象となるY座標がy≧0の場合であり、Ryが負となるのは、Y座標がy<0の場合である。画像IM(+)では、y=0を境に、Y軸の+方向に向かうほどX方向に画像が縮小し、Y軸の−方向に向かうほどX方向に画像が拡大している。よって、求められたVxが負であれば拡大率(拡大歪みの度合い)を示し、正であれば縮小率(縮小歪みの度合い)を示していることになる。 In the case of the image IM (+) , the inclination θ of the housing 100A is positive (+ θ). Further, since each constant is positive, the positive / negative sign of Vx obtained by Equation 1 corresponds to the positive / negative sign of Ry. Ry is positive when the target Y coordinate is y ≧ 0, and Ry is negative when the Y coordinate is y <0. In the image IM (+) , with y = 0 as the boundary, the image is reduced in the X direction as it goes in the + direction of the Y axis, and the image is enlarged in the X direction as it goes in the − direction of the Y axis. Therefore, if the obtained Vx is negative, it indicates an enlargement ratio (degree of enlargement distortion), and if it is positive, it indicates a reduction ratio (degree of reduction distortion).

画像処理部114は、このように算出した歪み度合いVxに基づいて、各Y座標でのX方向の補正をおこなう。つまり、Vxが拡大率を示しているのであれば、その度合い(つまり、Vxの絶対値)でX方向に縮小させ、Vxが縮小率を示しているのであれば、その度合い(つまり、Vxの絶対値)でX方向に拡大することで、当該Y座標におけるX方向の歪みが補正される。すなわち、当該Y座標で求めた歪み度合いVxの絶対値(|Vx|)でX方向に変倍することでX方向の歪みを補正する(ステップS403)。   The image processing unit 114 corrects the X direction at each Y coordinate based on the distortion degree Vx thus calculated. That is, if Vx indicates an enlargement rate, the image is reduced in the X direction by the degree (that is, the absolute value of Vx), and if Vx indicates the reduction rate, the degree (that is, Vx By magnifying in the X direction by (absolute value), distortion in the X direction at the Y coordinate is corrected. That is, the distortion in the X direction is corrected by scaling in the X direction by the absolute value (| Vx |) of the distortion degree Vx obtained by the Y coordinate (step S403).

ステップS401で設定したY座標でのX方向補正が終了すると、画像処理部114は、当該Y座標の座標値yを−1する(ステップS404)。この値が最小値ymin以上であれば(ステップS405:No)、ステップS402〜ステップS403を繰り返し実行することで、撮像画像の全Y座標について、X方向の補正がおこなわれる。よって、ステップS404で−1した座標値yが最小値ymin未満となった場合(ステップS405:Yes)、対象とするY座標は存在しないので、図7に示す画像補正処理のフローに戻る。なお、本実施形態では、Y座標を1座標ずつ指定して補正したが、例えば、間欠的にY座標を指定して補正したり、複数のY座標単位で補正したりすることも可能であり、指定する座標の数を減らすことで処理効率を向上させてもよい。 When the X direction correction at the Y coordinate set in step S401 is completed, the image processing unit 114 decrements the coordinate value y of the Y coordinate by 1 (step S404). If this value is equal to or greater than the minimum value y min (step S405: No), the correction in the X direction is performed for all the Y coordinates of the captured image by repeatedly executing steps S402 to S403. Therefore, when the coordinate value y decremented by 1 in step S404 becomes less than the minimum value y min (step S405: Yes), the target Y coordinate does not exist, and the process returns to the image correction processing flow shown in FIG. In the present embodiment, the Y coordinate is specified and corrected one by one. However, for example, the Y coordinate may be specified and corrected intermittently, or may be corrected in a plurality of Y coordinate units. The processing efficiency may be improved by reducing the number of designated coordinates.

画像補正処理では、引き続き、Y方向の画像歪みを補正するための縦方向補正処理が実行される。この縦方向補正処理を図9に示すフローチャートを参照して説明する。上述した横方向補正処理では、Y座標毎に補正をおこなったが、以下に説明する縦方向補正処理では、図13に示すような、Y方向のブロック単位にY方向の歪みを補正する。これは、Y方向に1画素分の画像データではY方向の歪みを検出することができないので、Y方向に複数画素分の高さを持つブロック単位で歪みの検出と補正をおこなうためである。   In the image correction process, a vertical direction correction process for correcting image distortion in the Y direction is subsequently executed. This vertical direction correction processing will be described with reference to the flowchart shown in FIG. In the horizontal direction correction process described above, correction is performed for each Y coordinate. However, in the vertical direction correction process described below, distortion in the Y direction is corrected in units of blocks in the Y direction as shown in FIG. This is because distortion in the Y direction cannot be detected from image data for one pixel in the Y direction, and distortion is detected and corrected in units of blocks having a height of a plurality of pixels in the Y direction.

ここで、Y方向に高さのあるブロック単位で処理をおこなうため、各ブロックのY方向の位置を示す座標値として、ブロック上辺のY座標を座標値yとし、ブロック下辺のY座標を座標値yとする。また、各ブロックの高さをY方向のn座標分とする。なお、各ブロックの横方向の幅は、撮像画像の横方向の幅と同一である。また、各ブロックの横幅をX方向の座標範囲で表すと、xmin(−x)〜xmax(+x)となる。また、ブロックの高さnはY方向画素数の約数とする。すなわち、画像がY方向に等分されるブロックの高さである。 Here, since the processing is carried out in block units with a height in the Y direction, as a coordinate value that indicates the Y position of each block, the Y coordinate of the block upper and coordinate values y t, coordinate the Y coordinate of the block lower side the value y b. In addition, the height of each block is the n coordinate in the Y direction. Note that the horizontal width of each block is the same as the horizontal width of the captured image. In addition, when the horizontal width of each block is represented by a coordinate range in the X direction, x min (−x) to x max (+ x). The block height n is a divisor of the number of pixels in the Y direction. That is, the height of the block in which the image is equally divided in the Y direction.

縦方向補正処理の場合も、上述した横方向補正処理と同様に、撮像画像の上端から下端方向に向かって、順次補正をおこなうものとする。よって、画像処理部114はまず、画像の上端に上辺が接するブロックを指定する。つまり、上辺のY座標であるyをY座標の最大値ymaxとする(ステップS501)。 Also in the case of the vertical direction correction process, correction is sequentially performed from the upper end to the lower end direction of the captured image, similarly to the above-described horizontal direction correction process. Therefore, the image processing unit 114 first designates a block whose upper side is in contact with the upper end of the image. That is, the y t being the upper side of the Y coordinate is the maximum value y max of the Y coordinate (step S501).

つぎに画像処理部114は、ブロックの下辺位置を指定する。つまり、ブロックの高さがn座標分なので、ブロック下辺のY座標であるyは、ステップS501で指定したyからn座標分下げた位置となる。つまり、画像処理部114は、y−nで求められる座標値をブロック下辺のY座標を示すyとする(ステップS502)。 Next, the image processing unit 114 designates the lower side position of the block. In other words, the height of the block is n coordinates fraction, y b a Y-coordinate of the block lower side is a position lowered by n coordinate component from the specified y t at step S501. That is, the image processing unit 114 sets the coordinate value obtained by y t −n to y b indicating the Y coordinate of the block lower side (step S502).

画像処理部114は、このように設定したyとyによって、画像上にブロックを指定する(ステップS503)。すなわち、上辺のY座標がytとなり、下辺のY座標がybとなる矩形のブロックを指定する。ここで、上辺および下辺それぞれの左右端は、いずれも画像の左右端、すなわちxminとxmaxになる。 The image processing unit 114, by thus setting the y t and y b, specifies the block on the image (step S503). That is, a rectangular block in which the upper side Y coordinate is yt and the lower side Y coordinate is yb is designated. Here, the left and right ends of the upper side and the lower side are both the left and right ends of the image, that is, x min and x max .

台形歪みの場合、Y方向の歪みも、X方向の歪みと同様に、画像の中心からY方向に離れるほど大きく歪む。よって、Y方向歪みを補正する場合も、画像上の原点(0,0)からY方向の距離を座標値で示したRyを用いる。ここで、ブロック単位で指定しているので、各ブロックについての距離Ryには幅がある。本実施形態では、各ブロックの高さの中心に該当するY座標と画像中心までの距離を距離Ryとする。この場合、ブロックの上辺と下辺のY座標が求められているので、座標yと座標yの中点となるY座標(yとする)を求め、画像の中心からyまでの距離を距離Ryとする。 In the case of trapezoidal distortion, the distortion in the Y direction increases as the distance from the center of the image in the Y direction increases, similar to the distortion in the X direction. Therefore, even when correcting the Y-direction distortion, Ry indicating the distance in the Y direction from the origin (0, 0) on the image is used. Here, since it is specified in units of blocks, the distance Ry for each block has a width. In the present embodiment, a distance between the Y coordinate corresponding to the center of the height of each block and the center of the image is defined as a distance Ry. In this case, since the Y coordinates of the upper and lower sides of the block are obtained, the Y coordinate (y m ) that is the middle point between the coordinates y t and the coordinates y b is obtained, and the distance from the center of the image to y m Is the distance Ry.

すなわち、ブロックのY方向の中点となる座標yは、y=(y+y)/2であり、この場合、画像中心からのY方向距離を座標値で示したRyはRy=y−0となる。指定したブロックについての距離Ryを求めると、画像処理部114は、当該ブロックにおけるY方向の歪み度合いVyを算出する(ステップS504)。Y方向の歪み度合いVyは、以下の数2を演算することで求められる。 That is, the coordinate y m which is the midpoint of the Y direction of the block is y m = (y t + y b ) / 2, and in this case, Ry indicating the Y direction distance from the image center by the coordinate value is Ry = y m −0. When the distance Ry for the designated block is obtained, the image processing unit 114 calculates the distortion degree Vy in the Y direction in the block (step S504). The distortion degree Vy in the Y direction can be obtained by calculating the following formula 2.

(数2)
Vy=c・Ry・cosθ+d (c、dは定数)
(Equation 2)
Vy = c · Ry · cos θ + d (where c and d are constants)

X方向の歪みと同様、Y方向の歪み度合いも、画像の中心から離れるほど、また、筐体100Aの傾きが大きくなるほど大きくなる。よって、Y方向の歪み度合いVyを求める数2でも、画像中心からの距離Ryと、筐体100Aの傾きθを要素としている。数2で用いられる定数c、dも、上述した数1で用いられた定数a、bと同様に、例えば、自分撮りという撮影条件下で規定される値とする。この場合も、定数c、dは正の値であるものとする。   Similar to the distortion in the X direction, the degree of distortion in the Y direction increases as the distance from the center of the image increases and the inclination of the housing 100A increases. Therefore, even in Equation 2 for obtaining the degree of distortion Vy in the Y direction, the distance Ry from the image center and the inclination θ of the housing 100A are used as elements. The constants c and d used in Equation 2 are also set to values defined under, for example, a photographing condition of self-taking, similar to the constants a and b used in Equation 1 described above. Also in this case, the constants c and d are assumed to be positive values.

上述した横方向補正におけるVxと同様、Vyが負であれば拡大率(拡大歪みの度合い)を示し、正であれば縮小率(縮小歪みの度合い)を示していることになる。よって、画像処理部114は、ステップS504で算出した歪み度合いVyに基づいて、当該ブロックでのY方向の補正をおこなう。つまり、Vyが拡大率を示しているのであれば、その度合い(つまり、Vyの絶対値)でY方向に縮小させ、Vyが縮小率を示しているのであれば、その度合い(つまり、Vyの絶対値)でY方向に拡大することで、当該ブロックにおけるY方向の歪みが補正される。すなわち、歪み度合いVyの絶対値(|Vy|)で当該ブロックをY方向に変倍することでY方向の歪みを補正する(ステップS505)。   Like Vx in the lateral correction described above, if Vy is negative, it indicates an enlargement rate (degree of enlargement distortion), and if it is positive, it indicates a reduction rate (degree of reduction distortion). Therefore, the image processing unit 114 corrects the Y direction in the block based on the distortion degree Vy calculated in step S504. That is, if Vy indicates an enlargement rate, the image is reduced in the Y direction by that degree (that is, the absolute value of Vy), and if Vy indicates a reduction rate, that degree (that is, Vy By magnifying in the Y direction by (absolute value), distortion in the Y direction in the block is corrected. That is, the distortion in the Y direction is corrected by scaling the block in the Y direction with the absolute value (| Vy |) of the distortion degree Vy (step S505).

ここで、Y方向の補正は、当該ブロック全体の画像に対しておこなわれる。すなわち、(xmin,y)、(xmax,y)、(xmin,y)、(xmax,y)を頂点とした矩形領域の画像をY方向に変倍して補正する。 Here, the correction in the Y direction is performed on the image of the entire block. That is, an image of a rectangular area having (x min , y t ), (x max , y t ), (x min , y b ), and (x max , y b ) as vertices is corrected by scaling in the Y direction. To do.

このようにして、ステップS501で指定したY位置を上辺としたブロックの補正をおこなうと、画像処理部114は、次のブロックを指定する。この場合、画像処理部114は、直前のブロックの下辺位置を示す座標値yを−1し、次のブロックの上辺についてのY座標であるyとする(ステップS506)。この値が最小値ymin以上であれば(ステップS507:No)、ステップS502〜ステップS505を繰り返し実行することで、撮像画像上に設定されるすべてのブロックについて、Y方向の補正がおこなわれる。一方、新たな上辺Y座標の座標値yが最小値ymin未満(y<ymin)となった場合(ステップS507:Yes)、対象とするY座標は存在しないので、図7に示す画像補正処理のフローに戻り、そのまま図5に示す自分撮り処理のフローに戻る。 In this way, when the block having the Y position designated in step S501 as the upper side is corrected, the image processing unit 114 designates the next block. In this case, the image processing unit 114, a coordinate value y b indicating the lower position of the immediately preceding block -1, and y t is the Y coordinate of the upper side of the next block (step S506). If this value is equal to or greater than the minimum value y min (step S507: No), the correction in the Y direction is performed for all the blocks set on the captured image by repeatedly executing steps S502 to S505. On the other hand, when the coordinate value y t of the new upper side Y coordinate is less than the minimum value y min (y t <y min ) (step S507: Yes), the target Y coordinate does not exist, and therefore, as shown in FIG. Returning to the image correction process flow, the process returns to the self-portrait process flow shown in FIG.

なお、ブロックの高さnは一義の値でなくてもよい。例えば、演算量を減らすために、nの値を可変とし、画像の中心からY方向に離れるに従ってnの値を大きくすることで、全体としてブロックの分割数をより少なくするようにしてもよい。   The height n of the block may not be a unique value. For example, in order to reduce the amount of calculation, the value of n may be variable, and the value of n may be increased as the distance from the center of the image increases in the Y direction, so that the number of block divisions as a whole may be further reduced.

このように、横方向の補正と縦方向の補正をおこなうことで、図11(b)に示すような台形歪みの画像IM(+)が、図11(a)に示すような基準画像IM0となるように補正される。 In this way, by performing the correction in the horizontal direction and the correction in the vertical direction, the trapezoidal distortion image IM (+) as shown in FIG. 11B becomes the reference image IM 0 as shown in FIG. It is corrected so that

上記画像補正処理の説明では、上底<下底の台形状に歪んだ画像IM(+)の補正を例示したが、図11(c)に示すような上底>下底の台形状に歪んだ画像IM(−)についても、上述した画像補正処理をおこなうことで補正することができる。この場合、筐体100Aの傾きが−θであるので、数1および数2において、Ryが正のときはVxおよびVyが負となり、Ryが負のときはVxおよびVyが正となる。画像IM(−)の場合、y=0を境に、Y軸で+方向となるにしたがって画像が拡大方向に歪み、−方向となるにしたがって画像が縮小方向に歪んでいる。つまり、Y座標が正のときに負となるVxおよびVyは拡大率を示しており、Y座標が負のときに正となるVxおよびVyは縮小率を示している。よって、上述した画像IM(+)の補正と同様に、VxおよびVyが負となるときは、それぞれの絶対値で縮小変倍し、VxおよびVyが正となるときは、それぞれの絶対値で拡大変倍することで、画像IM(−)が画像IM0となるよう補正することができる。 In the above description of the image correction processing, the correction of the image IM (+) distorted into the upper base <the trapezoid of the lower base is exemplified, but the upper base as shown in FIG. The image IM (−) can also be corrected by performing the image correction process described above. In this case, since the inclination of the housing 100A is −θ, in Equations 1 and 2, Vx and Vy are negative when Ry is positive, and Vx and Vy are positive when Ry is negative. In the case of the image IM (−) , with y = 0 as a boundary, the image is distorted in the enlargement direction as it becomes the + direction on the Y axis, and the image is distorted in the reduction direction as it becomes the − direction. That is, Vx and Vy that are negative when the Y coordinate is positive indicate an enlargement ratio, and Vx and Vy that are positive when the Y coordinate is negative indicate a reduction ratio. Therefore, similarly to the correction of the image IM (+) described above, when Vx and Vy are negative, they are reduced and scaled by their respective absolute values, and when Vx and Vy are positive, their respective absolute values are used. By enlarging and scaling, the image IM (−) can be corrected to become the image IM 0 .

以上説明したように、本発明を上記実施形態の如く適用することで、撮像機能を有する移動体通信端末で自分撮り撮影をおこなう場合に、移動体通信端末の傾きに基づいて、自分撮り時に起こりやすい画像歪みを自動的に補正した撮像画像を得ることができる。この場合、自分撮り時に発生する縦方向の台形歪みについて、横方向(x方向)の歪みはy座標単位で、縦方向(y方向)の歪みはブロック単位で補正するので、効果的な補正を効率的におこなうことができる。   As described above, by applying the present invention as in the above embodiment, when taking a self-portrait with a mobile communication terminal having an imaging function, it occurs at the time of self-taking based on the inclination of the mobile communication terminal. A captured image in which easy image distortion is automatically corrected can be obtained. In this case, for the vertical trapezoidal distortion that occurs during self-shooting, the horizontal (x-direction) distortion is corrected in y-coordinate units, and the vertical (y-direction) distortion is corrected in block units. Can be done efficiently.

上記各実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施形態が本発明の範囲に含まれる。   Each said embodiment is an example and the application range of this invention is not restricted to this. That is, various applications are possible, and all the embodiments are included in the scope of the present invention.

例えば、上記実施形態では、移動体通信端末100(筐体100A)の傾きを算出するため、加速度センサによる姿勢検出をおこなったが、移動体通信端末100(筐体100A)の姿勢検出をおこなえるのであれば、用いられるセンサは任意である。例えば、地磁気センサなどによって移動体通信端末100(筐体100A)の姿勢(傾き)を検出してもよい。   For example, in the above embodiment, the attitude detection by the acceleration sensor is performed to calculate the inclination of the mobile communication terminal 100 (housing 100A), but the attitude detection of the mobile communication terminal 100 (housing 100A) can be performed. If present, the sensor used is arbitrary. For example, the posture (tilt) of the mobile communication terminal 100 (housing 100A) may be detected by a geomagnetic sensor or the like.

また、上記実施形態では、自分撮りに用いられるレンズが筐体100Aに構成されているため、筐体100Aの傾きに基づいて画像補正をおこなった。つまり、撮像方向に影響する部分の傾き(姿勢)が検出されればよいため、姿勢検出部180の配置や方向、個数などは、レンズの配置に応じて任意に設定すればよく、上記実施形態で示した配置等に限定されるものではない。   Further, in the above embodiment, since the lens used for the self-portrait is configured in the casing 100A, the image correction is performed based on the inclination of the casing 100A. That is, since it is only necessary to detect the inclination (posture) of the portion that affects the imaging direction, the arrangement, direction, number, and the like of the attitude detection unit 180 may be arbitrarily set according to the arrangement of the lenses. It is not limited to the arrangement shown in FIG.

上記実施形態では、2つの筐体による折りたたみ型の移動体通信端末において、レンズと、当該レンズによって撮像した画像をビューファインダ表示する表示装置とが同一の筐体上に構成された場合を例示したが、レンズの撮像方向と表示装置の表示方向が同一または略同一となるのであれば、レンズ(撮像レンズ161および撮像レンズ162)と表示装置(表示部141と表示部142)の配置等は任意であり、上記実施形態で示した配置等に限定されるものではない。   In the above embodiment, in a foldable mobile communication terminal using two housings, a case where a lens and a display device that displays a viewfinder image captured by the lens are configured on the same housing is illustrated. However, if the imaging direction of the lens and the display direction of the display device are the same or substantially the same, the arrangement of the lens (imaging lens 161 and imaging lens 162) and the display device (display unit 141 and display unit 142) is arbitrary. However, the present invention is not limited to the arrangement shown in the above embodiment.

例えば、上記実施形態で示した移動体通信端末100のヒンジ部100Cを2軸ヒンジによって構成することで、筐体100Aが2軸回転可能な構成である場合、筐体100Bの外面上に撮像レンズを構成し、そのレンズによって撮像された画像を筐体100Aの主面上に構成した表示部141にビューファインダ表示させてもよい。この場合、2軸ヒンジによる2軸回転により、筐体100Aを垂直中心軸まわりに180°回転させることで、筐体100Bの外面上に構成した撮像レンズの撮像方向と表示部141の表示方向が同一または略同一になる。このような形態であれば、上記実施形態で示したような自分撮りが可能となるので、本発明を適用して自分撮り時の画像補正等をおこなうことができる。   For example, when the casing 100A is configured to be biaxially rotatable by configuring the hinge portion 100C of the mobile communication terminal 100 shown in the above embodiment with a biaxial hinge, an imaging lens is formed on the outer surface of the casing 100B. The image captured by the lens may be displayed on the display unit 141 configured on the main surface of the housing 100A in a viewfinder display. In this case, the imaging direction of the imaging lens configured on the outer surface of the housing 100B and the display direction of the display unit 141 are changed by rotating the housing 100A by 180 ° around the vertical central axis by biaxial rotation by the biaxial hinge. Identical or nearly identical. In such a form, self-portrait as shown in the above-described embodiment is possible, so that the present invention can be applied to perform image correction during self-portrait.

つまり、撮像レンズの撮像方向と、その撮像レンズによる撮像画像の表示方向が同一または略同一となるのであれば、筐体の形態も任意であり、上記実施形態で示したものに限定されるものではない。例えば、1つの筐体によって構成されるストレート型の移動体通信端末であってもよい。   That is, as long as the imaging direction of the imaging lens and the display direction of the captured image by the imaging lens are the same or substantially the same, the form of the housing is arbitrary and is limited to the one shown in the above embodiment. is not. For example, it may be a straight type mobile communication terminal constituted by a single housing.

また、上記実施形態では、撮像レンズ161と撮像レンズ162の2つの撮像レンズが構成されている例を示したが、自分撮りが可能であればレンズの個数や配置等は、上記実施形態で示したものに限定されるものではなく任意である。また、表示部141と表示部142についても同様であり、その個数や配置等は任意である。   In the above-described embodiment, an example in which the two imaging lenses 161 and 162 are configured is shown. However, the number and arrangement of the lenses are shown in the above-described embodiment if self-portrait is possible. It is not limited to the above, but is arbitrary. The same applies to the display unit 141 and the display unit 142, and the number and arrangement thereof are arbitrary.

なお、上記実施形態の移動体通信端末100のように、本発明にかかる構成を予め有する移動体通信端末によって本発明を実現できることはもとより、複数のアプリケーション実行機能を有する既存の移動体通信端末にプログラムを適用することでも本発明を実現することができる。   It should be noted that the present invention can be realized by a mobile communication terminal having the configuration according to the present invention in advance, such as the mobile communication terminal 100 of the above-described embodiment, as well as an existing mobile communication terminal having a plurality of application execution functions. The present invention can also be realized by applying a program.

この場合、既存の移動体通信端末を制御するコンピュータ(例えば、CPU)が、上記実施形態の制御部110によって実現される各機能構成として機能させるプログラムを適用することで、既存の移動体通信端末を上記実施形態の移動体通信端末100として機能させることができる。すなわち、上記実施形態の制御部110が実行した動作プログラムと同様の動作プログラムを、既存の移動体通信端末の記憶装置にインストールし、これを当該移動体通信端末の制御装置(CPU)が実行することで、本発明にかかる移動体通信端末として機能させることができる。   In this case, the computer (for example, CPU) which controls the existing mobile communication terminal applies the program which functions as each function structure implement | achieved by the control part 110 of the said embodiment, By existing mobile communication terminal Can function as the mobile communication terminal 100 of the above embodiment. That is, an operation program similar to the operation program executed by the control unit 110 of the above embodiment is installed in a storage device of an existing mobile communication terminal, and this is executed by the control device (CPU) of the mobile communication terminal. Thus, it can function as a mobile communication terminal according to the present invention.

このようなプログラムを提供する形態は任意であり、例えば、インターネットなどの通信媒体を介して配布することで提供可能であることはもとより、例えば、所定の記録媒体(例えば、メモリカードなど)に格納して提供することができる。   Such a program can be provided in any form. For example, the program can be provided by being distributed via a communication medium such as the Internet, and stored in a predetermined recording medium (for example, a memory card). Can be provided.

本発明の実施形態にかかる移動体通信端末の外観構成を示す図であり、(a)は展開時の主面側を示し、(b)は展開時の外面側を示す。It is a figure which shows the external appearance structure of the mobile communication terminal concerning embodiment of this invention, (a) shows the main surface side at the time of expansion | deployment, (b) shows the outer surface side at the time of expansion | deployment. 図1に示す移動体通信端末の使用例を説明するための図であり、(a)は自分撮り時の撮影姿勢を示し、(b)は自分撮り時に用いられる折りたたみ時の移動体通信端末の外観を示す。It is a figure for demonstrating the usage example of the mobile communication terminal shown in FIG. 1, (a) shows the imaging | photography attitude | position at the time of self-portrait, (b) is the mobile communication terminal at the time of folding used at the time of self-portrait. Appearance is shown. 図1に示す移動体通信端末の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile communication terminal shown in FIG. 図3に示す制御部によって実現される機能を示す機能ブロック図である。It is a functional block diagram which shows the function implement | achieved by the control part shown in FIG. 本発明の実施形態にかかる「自分撮り処理」を説明するためのフローチャートである。It is a flowchart for demonstrating the "self-portrait process" concerning embodiment of this invention. 図5に示す自分撮り処理において実行される「傾き算出処理」を説明するためのフローチャートである。It is a flowchart for demonstrating "the inclination calculation process" performed in the self-portrait process shown in FIG. 図5に示す自分撮り処理において実行される「画像補正処理」を説明するためのフローチャートである。6 is a flowchart for explaining an “image correction process” executed in the self-portrait process shown in FIG. 5. 図7に示す画像補正処理において実行される「横方向補正処理」を説明するためのフローチャートである。It is a flowchart for demonstrating the "horizontal direction correction process" performed in the image correction process shown in FIG. 図7に示す画像補正処理において実行される「縦方向補正処理」を説明するためのフローチャートである。It is a flowchart for demonstrating the "vertical direction correction process" performed in the image correction process shown in FIG. (a)および(b)は自分撮り時の移動体通信端末の傾きを説明するための図であり、(c)〜(e)は移動体通信端末の傾きについての基準を説明するための図である。(A) And (b) is a figure for demonstrating the inclination of the mobile communication terminal at the time of a self-portrait, (c)-(e) is a figure for demonstrating the reference | standard regarding the inclination of a mobile communication terminal. It is. (a)〜(c)は、移動体通信端末の傾きに応じた撮像画像の例を示す図である。(A)-(c) is a figure which shows the example of the captured image according to the inclination of a mobile communication terminal. 図7に示す画像補正処理における撮像画像上の設定を説明するための図である。It is a figure for demonstrating the setting on the captured image in the image correction process shown in FIG. 図9に示す縦方向補正処理における撮像画像上の設定を説明するための図である。It is a figure for demonstrating the setting on the captured image in the vertical direction correction process shown in FIG.

符号の説明Explanation of symbols

100…移動体通信端末、100A…筐体、100B…筐体、100C…ヒンジ部、110…制御部、111…撮像処理部、112…モード選択部、113…傾き算出部、114…画像処理部、120…通信部、121…音声通信部、122…データ通信部、123…アンテナ部、130…入力制御部、131…操作部、140…表示制御部、141…表示部、142…表示部、150…音声処理部、151…スピーカ、152…マイクロフォン、160…カメラ部、161…撮像レンズ、162…撮像レンズ、170…開閉検出部、180…姿勢検出部、190…記憶部、191…画像展開領域、192…撮像画像格納領域、193…プログラム格納領域 DESCRIPTION OF SYMBOLS 100 ... Mobile communication terminal, 100A ... Housing | casing, 100B ... Housing | casing, 100C ... Hinge part, 110 ... Control part, 111 ... Imaging process part, 112 ... Mode selection part, 113 ... Inclination calculation part, 114 ... Image processing part , 120 ... communication section, 121 ... voice communication section, 122 ... data communication section, 123 ... antenna section, 130 ... input control section, 131 ... operation section, 140 ... display control section, 141 ... display section, 142 ... display section, DESCRIPTION OF SYMBOLS 150 ... Sound processing part, 151 ... Speaker, 152 ... Microphone, 160 ... Camera part, 161 ... Imaging lens, 162 ... Imaging lens, 170 ... Opening / closing detection part, 180 ... Attitude detection part, 190 ... Memory | storage part, 191 ... Image expansion | deployment Area, 192 ... captured image storage area, 193 ... program storage area

Claims (4)

撮像機能を有する移動体通信端末において、
前記移動体通信端末の姿勢を検出する姿勢検出手段と、
前記撮像機能で自分撮りモードが選択された場合、前記姿勢検出手段が検出した前記移動体通信端末の姿勢に基づいて、前記移動体通信端末の傾きを算出する傾き算出手段と、
前記傾き算出手段が算出した前記移動体通信端末の傾きに基づいて、前記自分撮りモードで撮像された画像の歪みを補正する画像補正手段と、
を備えることを特徴とする移動体通信端末。
In a mobile communication terminal having an imaging function,
Attitude detecting means for detecting the attitude of the mobile communication terminal;
An inclination calculating means for calculating an inclination of the mobile communication terminal based on the attitude of the mobile communication terminal detected by the attitude detection means when the self-portrait mode is selected by the imaging function;
Image correcting means for correcting distortion of an image captured in the self-portrait mode based on the inclination of the mobile communication terminal calculated by the inclination calculating means;
A mobile communication terminal comprising:
前記画像補正手段は、前記自分撮りモードで撮像された画像の中心位置からの距離と前記移動体通信端末の傾きに基づいて、当該画像の縦方向の座標単位で横方向の歪みを補正する、
ことを特徴とする請求項1に記載の移動体通信端末。
The image correcting means corrects lateral distortion in the vertical coordinate unit of the image based on the distance from the center position of the image captured in the self-portrait mode and the inclination of the mobile communication terminal.
The mobile communication terminal according to claim 1.
前記画像補正手段は、前記自分撮りモードで撮像された画像の縦方向に複数のブロックを設定し、当該画像の中心位置からの距離と前記移動体通信端末の傾きに基づいて、前記ブロック単位で縦方向の歪みを補正する、
ことを特徴とする請求項1または2に記載の移動体通信端末。
The image correction means sets a plurality of blocks in the vertical direction of the image captured in the self-portrait mode, and based on the distance from the center position of the image and the inclination of the mobile communication terminal for each block. Correct vertical distortion,
The mobile communication terminal according to claim 1 or 2.
撮像機能を有する移動体通信端末を制御するコンピュータに、
前記撮像機能にかかる動作モードを選択する機能と、
前記動作モードとして自分撮りモードが選択された場合に、前記移動体通信端末の傾きを算出する機能と、
前記算出した前記移動体通信端末の傾きに基づいて、前記自分撮りモードで撮像された画像を補正する機能と、
を実現させることを特徴とするプログラム。
In a computer that controls a mobile communication terminal having an imaging function,
A function of selecting an operation mode according to the imaging function;
A function of calculating the inclination of the mobile communication terminal when the selfie mode is selected as the operation mode;
A function of correcting an image captured in the self-portrait mode based on the calculated inclination of the mobile communication terminal;
A program characterized by realizing.
JP2006058586A 2006-03-03 2006-03-03 Terminal having imaging function, and program Expired - Fee Related JP4632971B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006058586A JP4632971B2 (en) 2006-03-03 2006-03-03 Terminal having imaging function, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006058586A JP4632971B2 (en) 2006-03-03 2006-03-03 Terminal having imaging function, and program

Publications (3)

Publication Number Publication Date
JP2007243241A true JP2007243241A (en) 2007-09-20
JP2007243241A5 JP2007243241A5 (en) 2008-11-27
JP4632971B2 JP4632971B2 (en) 2011-02-16

Family

ID=38588385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006058586A Expired - Fee Related JP4632971B2 (en) 2006-03-03 2006-03-03 Terminal having imaging function, and program

Country Status (1)

Country Link
JP (1) JP4632971B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089331A (en) * 2007-10-03 2009-04-23 Nec Corp Camera-attached mobile communication terminal
JP2009171059A (en) * 2008-01-11 2009-07-30 Fujitsu Ltd Communication apparatus, noise canceler, noise canceling method, and noise canceling program
WO2010137513A1 (en) * 2009-05-26 2010-12-02 コニカミノルタオプト株式会社 Electronic device
JP2011199479A (en) * 2010-03-18 2011-10-06 Toshiba Corp Device, program, and method for processing information
JP2014199964A (en) * 2012-09-04 2014-10-23 パナソニック株式会社 Imaging apparatus and image processing apparatus
JP2015126243A (en) * 2013-12-25 2015-07-06 キヤノン株式会社 Imaging device, method of controlling display control device, and method of controlling recording device
JP2016005055A (en) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 Projector and projection method
CN105850110A (en) * 2013-12-25 2016-08-10 佳能株式会社 Imaging apparatus, method for controlling imaging apparatus, method for controlling display control apparatus, and method for controlling recording apparatus
CN108513072A (en) * 2012-09-11 2018-09-07 株式会社理光 Image processor, image processing method and imaging system
WO2023282963A1 (en) * 2021-07-06 2023-01-12 Qualcomm Incorporated Enhanced object detection
US11792505B2 (en) 2021-07-06 2023-10-17 Qualcomm Incorporated Enhanced object detection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196346A (en) * 1997-09-22 1999-04-09 Konica Corp Image processing method and image processor
JP2000101982A (en) * 1998-09-18 2000-04-07 Kokusai Electric Co Ltd Image communication device
JP2002335438A (en) * 2001-02-28 2002-11-22 Hewlett Packard Co <Hp> Digital camera for removal of digital image perspective distortion
JP2004147138A (en) * 2002-10-25 2004-05-20 Kyocera Corp Automatic camera movement compensation device for electronic camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196346A (en) * 1997-09-22 1999-04-09 Konica Corp Image processing method and image processor
JP2000101982A (en) * 1998-09-18 2000-04-07 Kokusai Electric Co Ltd Image communication device
JP2002335438A (en) * 2001-02-28 2002-11-22 Hewlett Packard Co <Hp> Digital camera for removal of digital image perspective distortion
JP2004147138A (en) * 2002-10-25 2004-05-20 Kyocera Corp Automatic camera movement compensation device for electronic camera

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089331A (en) * 2007-10-03 2009-04-23 Nec Corp Camera-attached mobile communication terminal
JP2009171059A (en) * 2008-01-11 2009-07-30 Fujitsu Ltd Communication apparatus, noise canceler, noise canceling method, and noise canceling program
US8428540B2 (en) 2008-01-11 2013-04-23 Fujitsu Limited Communication apparatus, noise canceller, noise canceling method, and noise canceling program
WO2010137513A1 (en) * 2009-05-26 2010-12-02 コニカミノルタオプト株式会社 Electronic device
JP2011199479A (en) * 2010-03-18 2011-10-06 Toshiba Corp Device, program, and method for processing information
JP2014199964A (en) * 2012-09-04 2014-10-23 パナソニック株式会社 Imaging apparatus and image processing apparatus
CN108513072A (en) * 2012-09-11 2018-09-07 株式会社理光 Image processor, image processing method and imaging system
CN105850110A (en) * 2013-12-25 2016-08-10 佳能株式会社 Imaging apparatus, method for controlling imaging apparatus, method for controlling display control apparatus, and method for controlling recording apparatus
JP2015126243A (en) * 2013-12-25 2015-07-06 キヤノン株式会社 Imaging device, method of controlling display control device, and method of controlling recording device
US10491835B2 (en) 2013-12-25 2019-11-26 Canon Kabushiki Kaisha Imaging apparatus, method for controlling imaging apparatus, method for controlling display control apparatus, and method for controlling recording apparatus
CN105850110B (en) * 2013-12-25 2020-01-10 佳能株式会社 Image pickup apparatus, control method thereof, control method of display control apparatus, and control method of recording apparatus
JP2016005055A (en) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 Projector and projection method
WO2023282963A1 (en) * 2021-07-06 2023-01-12 Qualcomm Incorporated Enhanced object detection
US11792505B2 (en) 2021-07-06 2023-10-17 Qualcomm Incorporated Enhanced object detection

Also Published As

Publication number Publication date
JP4632971B2 (en) 2011-02-16

Similar Documents

Publication Publication Date Title
JP4632971B2 (en) Terminal having imaging function, and program
US9712751B2 (en) Camera field of view effects based on device orientation and scene content
WO2010123011A1 (en) Image capturing device and image capturing method
JP4118322B2 (en) Imaging device, portable terminal device, imaging method, and program
US20150348325A1 (en) Method and system for stabilization and reframing
JP2005117661A (en) Apparatus and method for controlling auto-zooming operation of mobile terminal
KR20210032922A (en) Image processing method, device, device and media based on multiple camera modules
JP2008113185A (en) Portable information terminal
JP5594485B2 (en) Portable communication device
JP5482327B2 (en) Imaging apparatus, imaging method, and imaging program
JP4687001B2 (en) Mobile terminal device
JP2004104463A (en) Imaging device
JP2011019094A (en) Mobile terminal with camera, camera device, and photographing direction correction method
JP2004159014A (en) Digital camera attached mobile communication terminal
KR20150128689A (en) Method and system for stabilization and reframing
KR100686310B1 (en) Method and processor for compensating image tilt and record media recored program therefor
US11555696B2 (en) Electronic terminal, photographing method and device, and storage medium
JP2005005791A (en) Electronic camera
JP5349123B2 (en) Imaging apparatus and imaging method
JP2014045404A (en) Portable terminal
WO2011039947A1 (en) Imaging device and control method for same, imaging system and non-transient computer-readable medium with stored program
JP2007233135A (en) Photographic device and method for setting operating buttons thereof
JP2010252238A (en) Imaging apparatus and imaging method
CN114827447B (en) Image jitter correction method and device
JP2010183364A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081009

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100730

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees