JP2023099729A - Mobile information terminal - Google Patents

Mobile information terminal Download PDF

Info

Publication number
JP2023099729A
JP2023099729A JP2023085363A JP2023085363A JP2023099729A JP 2023099729 A JP2023099729 A JP 2023099729A JP 2023085363 A JP2023085363 A JP 2023085363A JP 2023085363 A JP2023085363 A JP 2023085363A JP 2023099729 A JP2023099729 A JP 2023099729A
Authority
JP
Japan
Prior art keywords
image
user
information terminal
face
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023085363A
Other languages
Japanese (ja)
Inventor
宏 清水
Hiroshi Shimizu
裕明 小野
Hiroaki Ono
康宣 橋本
Yasunobu Hashimoto
和彦 吉澤
Kazuhiko Yoshizawa
尚久 高見澤
Naohisa TAKAMIZAWA
信夫 益岡
Nobuo Masuoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022080184A external-priority patent/JP7286838B2/en
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2023085363A priority Critical patent/JP2023099729A/en
Publication of JP2023099729A publication Critical patent/JP2023099729A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technology that can realize a hands-free videophone with more suitable usability.SOLUTION: A mobile information terminal 1 has a videophone function and is equipped with a first camera (in-camera C1) including a wide-angle lens at a predetermined position (point PC1) on a front surface s1 having a display screen DP in a flat plate-shaped housing. When a first user (user A) makes a videophone call with another second user by using the videophone function, the housing is placed flat on a first surface (horizontal plane s0) of an object and a state in which the face of the first user is included in a range of an angle of view AV1 of the in-camera C1 is a first state. The mobile information terminal 1 detects a first area including the face of the first user from a wide-angle image taken by the in-camera C1, trims a first image corresponding to the first area, and creates a transmission image to be transmitted to another terminal on the basis of the first image, and transmits the transmission image to the other terminal.SELECTED DRAWING: Figure 2

Description

本発明は、スマートフォン等の携帯情報端末の技術に関し、特に、テレビ電話(Video phone)機能に関する。 TECHNICAL FIELD The present invention relates to technology of a mobile information terminal such as a smart phone, and more particularly to a video phone function.

近年、スマートフォンやタブレット端末等の携帯情報端末では、1枚の概略平板形状の筐体への高密度実装等の小型化が進むと共に、多様な機能や高度な機能の搭載が進んでいる。それらの機能としては、テレビ受信機能、デジタルカメラ機能、テレビ電話機能等が挙げられる。特に、携帯情報端末におけるテレビ電話機能は、例えばSkype(登録商標)等のアプリケーションやサービスによって、簡便に利用できる状況になってきている。 2. Description of the Related Art In recent years, mobile information terminals such as smartphones and tablet terminals have been miniaturized by high-density mounting in a single roughly flat plate-shaped housing, and have been equipped with various functions and advanced functions. These functions include a television reception function, a digital camera function, a videophone function, and the like. In particular, the videophone function of mobile information terminals is becoming easier to use, for example, through applications and services such as Skype (registered trademark).

また、携帯情報端末は、デジタルカメラ機能としては、筐体の主面のうち表示画面がある側の前面に設けられたカメラ(インカメラとも呼ばれる)や、前面の反対側の背面に設けられたカメラ(アウトカメラとも呼ばれる)を有する場合がある。 In addition, as a digital camera function, the mobile information terminal has a camera (also called an in-camera) provided on the front of the main surface of the housing on the side where the display screen is located, and a camera provided on the back opposite to the front. It may have a camera (also called out-camera).

ユーザが携帯情報端末でテレビ電話(通話と記載する場合がある)を行う際には、ユーザ自身を撮影できる側である前面のインカメラを利用する。携帯情報端末は、テレビ電話相手の端末から受信した相手の画像を表示画面に表示すると共に、インカメラで撮影したユーザ自身の画像を、相手の端末へ送信する。そのため、通常、ユーザは、例えば一方の手に持った携帯情報端末の前面を、自身の顔および視線に対して正面で対面する位置に、例えば筐体が鉛直に立つ状態に近い位置に、保持しておく必要がある。この場合、ユーザは、両手が自由にはならない。 When a user makes a videophone call (sometimes referred to as a call) with a portable information terminal, the user uses the front in-camera, which is the side on which the user himself/herself can be photographed. The mobile information terminal displays the image of the other party received from the terminal of the other party on the videophone on the display screen, and transmits the image of the user himself/herself taken by the in-camera to the terminal of the other party. For this reason, the user normally holds the front of the mobile information terminal held in one hand, for example, in a position facing the user's face and line of sight, for example, in a position close to a state in which the housing is standing vertically. need to keep In this case, the user does not have both hands free.

ユーザが携帯情報端末でテレビ電話を行う際に、両手が自由な状態(ハンズフリーと記載する場合がある)で行いたい場合がある。その場合、ユーザは、例えば机等の水平面上に携帯情報端末の筐体を置いた状態として、表示画面およびインカメラに対して垂直な方向で顔を対面させる位置関係とすれば、ハンズフリーでのテレビ電話が可能である。 When a user makes a videophone call using a portable information terminal, he or she may want to do so in a state in which both hands are free (sometimes referred to as "hands-free"). In this case, the user can place the housing of the mobile information terminal on a horizontal surface such as a desk, and face the display screen and the in-camera in a vertical direction. video calls are possible.

上記携帯情報端末やテレビ電話機能に係わる先行技術例として、特開2005-175777号公報(特許文献1)、特開2007-17596号公報(特許文献2)が挙げられる。特許文献1には、携帯型電話機として、机上の載置時のユーザの視認性を向上する旨や、本体の形状を変化させてハンズフリーテレビ電話に対応できる旨が記載されている。特許文献2には、携帯端末装置として、本体のカメラが撮影した画像に基づいて、使用者の顔の情報を取得し、顔の向きと本体の向きとの相対的な位置関係を把握し、表示画面に表示する情報の向きを決定する旨が記載されている。 As prior art examples related to the mobile information terminal and the videophone function, Japanese Patent Application Laid-Open No. 2005-175777 (Patent Document 1) and Japanese Patent Application Laid-Open No. 2007-17596 (Patent Document 2) can be cited. Japanese Patent Application Laid-Open No. 2002-200002 describes that the mobile phone can improve the user's visibility when placed on a desk, and that the shape of the main body can be changed to support a hands-free videophone. Patent Document 2 describes a mobile terminal device that obtains information on a user's face based on an image captured by a camera of the main body, grasps the relative positional relationship between the orientation of the face and the orientation of the main body, It is described that the orientation of information to be displayed on the display screen is determined.

特開2005-175777号公報JP 2005-175777 A 特開2007-17596号公報JP 2007-17596 A

ユーザが携帯情報端末でテレビ電話を行う際に、両手が自由ではない通常の状態(非ハンズフリーと記載する場合がある)では、利便性に欠ける場合がある。例えば、ユーザは両手でPCを操作しながら通話することはできず、また、資料等の何らかの物体を通話相手に見せながら通話することもしにくい。 When a user makes a videophone call using a portable information terminal, it may be inconvenient in a normal state where both hands are not free (sometimes referred to as non-hands-free). For example, the user cannot make a call while operating the PC with both hands, and it is difficult to make a call while showing some object such as a document to the other party.

また、ユーザが携帯情報端末でテレビ電話を行う際に、両手が自由なハンズフリー状態を実現しようとする場合、例えば机等の水平面上に平らに置かれた筐体に対して顔を対面させる位置関係となるように無理な姿勢をとる必要があり、使い勝手が良くない。あるいは、机等の水平面上に、固定器具を用いて、筐体が斜めになるように配置すれば実現できるが、固定器具を必要とするため、利便性に欠ける。あるいは、折り畳み型や分離型等の、姿勢が変形可能である構造を持つ携帯情報端末を用いれば、同様の状態が実現できるが、1枚の概略平板形状の筐体を持つ携帯情報端末の場合には適用できない。 In addition, when a user wants to realize a hands-free state in which both hands are free when making a videophone call using a portable information terminal, the user faces a housing that is placed flat on a horizontal surface such as a desk. It is necessary to take an unreasonable posture to achieve the positional relationship, which is not convenient. Alternatively, it can be realized by arranging the housing obliquely on a horizontal surface such as a desk using a fixing device, but this is inconvenient because the fixing device is required. Alternatively, a similar state can be achieved by using a mobile information terminal having a structure that allows the posture to be changed, such as a foldable type or a separate type. cannot be applied to

本発明の目的は、テレビ電話機能を持つ携帯情報端末の技術に関して、概略平板形状の筐体を持ち、変形可能な特殊な構造を持たない構成を前提として、ハンズフリー状態のテレビ電話を、より好適な使い勝手で実現できる技術を提供することである。 An object of the present invention is to improve the hands-free state of the videophone in relation to the technology of a portable information terminal having a videophone function, on the premise of having a configuration that has a generally flat plate-shaped housing and does not have a special deformable structure. To provide a technique that can be realized with suitable usability.

本発明のうち代表的な実施の形態は、携帯情報端末であって、以下に示す構成を有することを特徴とする。一実施の形態の携帯情報端末は、テレビ電話機能を持つ携帯情報端末であって、平板形状の筐体における表示画面を持つ前面の所定の位置に、広角レンズを含む第1カメラを備え、前記テレビ電話機能を用いて第1ユーザが相手の第2ユーザとの間でテレビ電話を行う際に、前記筐体が物体の第1面上に平らに配置され、前記第1カメラの第1画角の範囲内に前記第1ユーザの顔が含まれる状態である第1状態とし、前記第1状態で、前記第1カメラによって撮影された広角画像から、前記第1ユーザの顔を含む第1領域を検出し、前記第1領域に対応する第1画像をトリミングし、前記第1画像に基づいて、前記第2ユーザの携帯情報端末である相手端末に送信するための送信画像を作成し、前記送信画像を前記相手端末に送信する。 A representative embodiment of the present invention is a portable information terminal, characterized by having the following configuration. A mobile information terminal of one embodiment is a mobile information terminal having a videophone function, comprising a first camera including a wide-angle lens at a predetermined position on the front surface of a flat plate-shaped housing having a display screen, When a first user makes a videophone call with a second user on the other end using the videophone function, the housing is placed flat on the first surface of the object, and the first screen of the first camera is used. A first state is a state in which the face of the first user is included within a range of angles, and a first state including the face of the first user is obtained from a wide-angle image captured by the first camera in the first state. detecting a region, trimming a first image corresponding to the first region, and based on the first image, creating a transmission image to be transmitted to a partner terminal that is a mobile information terminal of the second user; The transmission image is transmitted to the remote terminal.

本発明のうち代表的な実施の形態によれば、ハンズフリー状態のテレビ電話を、より好適な使い勝手で実現できる。 According to the representative embodiments of the present invention, a hands-free videophone can be realized with more suitable usability.

本発明の実施の形態1の携帯情報端末を含む、通信システムおよびテレビ電話システムの構成を示す図である。1 is a diagram showing configurations of a communication system and a videophone system including a mobile information terminal according to Embodiment 1 of the present invention; FIG. 実施の形態1の携帯情報端末で、ハンズフリー状態のテレビ電話の際の、ユーザと端末との位置関係や端末の配置状態を示す図である。FIG. 10 is a diagram showing the positional relationship between the user and the terminal and the arrangement state of the terminal when the mobile information terminal of the first embodiment is used for a videophone call in a hands-free state; 実施の形態1の携帯情報端末の構成を示す図である。1 is a diagram showing a configuration of a portable information terminal according to Embodiment 1; FIG. 実施の形態1の携帯情報端末で、ソフトウェア構成を示す図である。2 is a diagram showing a software configuration in the portable information terminal of Embodiment 1; FIG. 実施の形態1の携帯情報端末で、カメラ部の構成を示す図である。2 is a diagram showing a configuration of a camera unit in the portable information terminal of Embodiment 1; FIG. 実施の形態1の携帯情報端末で、処理フローを示す図である。4 is a diagram showing a processing flow in the portable information terminal of Embodiment 1; FIG. 実施の形態1の携帯情報端末で、表示画面の例を示す図である。4 is a diagram showing an example of a display screen of the portable information terminal according to the first embodiment; FIG. 実施の形態1の携帯情報端末で、通常カメラによる顔を正面から撮影した画像の例を示す図である。FIG. 4 is a diagram showing an example of an image of a face taken from the front by a normal camera in the mobile information terminal of Embodiment 1; 実施の形態1の携帯情報端末で、インカメラによる広角画像と顔検出の例を示す図である。4 is a diagram showing an example of a wide-angle image and face detection by an in-camera in the portable information terminal of Embodiment 1; FIG. 実施の形態1の携帯情報端末で、広角画像からのトリミングの例を示す図である。4 is a diagram showing an example of trimming from a wide-angle image in the portable information terminal of Embodiment 1; FIG. 実施の形態1の携帯情報端末で、トリミング画像(矩形の場合)の例を示す図である。4 is a diagram showing an example of a trimmed image (in the case of a rectangle) in the mobile information terminal of Embodiment 1; FIG. 実施の形態1の携帯情報端末で、トリミング画像の例を示す図である。4 is a diagram showing an example of a trimmed image in the portable information terminal of Embodiment 1; FIG. 実施の形態1の携帯情報端末で、広角レンズを用いたモデルおよび座標系の例を示す図である。4 is a diagram showing an example of a model and a coordinate system using a wide-angle lens in the portable information terminal of Embodiment 1; FIG. 実施の形態1の携帯情報端末で、正像変換を示す図である。4 is a diagram showing normal image conversion in the portable information terminal of Embodiment 1. FIG. 実施の形態1の携帯情報端末で、台形補正を示す図である。FIG. 10 is a diagram showing trapezoidal correction in the portable information terminal according to the first embodiment; 実施の形態1の携帯情報端末で、他の利用状態の第1例を示す図である。4 is a diagram showing a first example of another usage state of the mobile information terminal of Embodiment 1. FIG. 実施の形態1の携帯情報端末で、他の利用状態の第2例を示す図である。FIG. 10 is a diagram showing a second example of another usage state of the portable information terminal of Embodiment 1; 実施の形態1の携帯情報端末で、他の利用状態の第3例を示す図である。FIG. 10 is a diagram showing a third example of another usage state of the mobile information terminal of Embodiment 1; 実施の形態1に対する比較例の携帯情報端末、および実施の形態1の他のテレビ電話モードにおける、非ハンズフリー状態での位置関係等を示す図である。FIG. 10 is a diagram showing a positional relationship and the like in a non-hands-free state in a mobile information terminal as a comparative example with respect to Embodiment 1 and in another videophone mode of Embodiment 1; 本発明の実施の形態2の携帯情報端末におけるカメラ部の構成を示す図である。FIG. 10 is a diagram showing the configuration of a camera unit in the portable information terminal according to Embodiment 2 of the present invention; 実施の形態2の携帯情報端末で、ユーザと端末との位置関係等を示す図である。FIG. 10 is a diagram showing the positional relationship between the user and the terminal in the portable information terminal of the second embodiment; 実施の形態の変形例の携帯情報端末で、撮影処理と画像例を示す図である。FIG. 10 is a diagram showing a photographing process and an example of an image in a portable information terminal according to a modification of the embodiment; 実施の形態の変形例の携帯情報端末で、特定の物体を含む画像の例を示す図である。FIG. 10 is a diagram showing an example of an image including a specific object in a mobile information terminal according to a modification of the embodiment; 実施の形態の変形例の携帯情報端末で、複数のユーザの顔を含む画像の例を示す図である。FIG. 10 is a diagram showing an example of an image including faces of a plurality of users in a portable information terminal according to a modification of the embodiment; 実施の形態の変形例の携帯情報端末で、相手画像補正機能の画像例を示す図である。FIG. 10 is a diagram showing an image example of the partner image correcting function in the mobile information terminal of the modified example of the embodiment; 実施の形態に対する比較例の携帯情報端末で、ハンズフリー状態のテレビ電話を実現する場合の状態の例を示す図である。FIG. 10 is a diagram showing an example of a state in which a hands-free videophone is realized by a mobile information terminal of a comparative example with respect to the embodiment;

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において同一部には原則として同一符号を付し、その繰り返しの説明は省略する。なお、説明上の方向として、X方向、Y方向、Z方向を用いる。X方向、Y方向は、水平面を構成する直交する2つの方向であり、Z方向は、鉛直方向である。X方向は特にユーザから見て左右方向であり、Y方向は特にユーザから見て前後方向である。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In principle, the same parts are denoted by the same reference numerals in all the drawings for describing the embodiments, and repeated description thereof will be omitted. As directions for explanation, the X direction, the Y direction, and the Z direction are used. The X direction and the Y direction are two orthogonal directions forming a horizontal plane, and the Z direction is the vertical direction. In particular, the X direction is the left-right direction as seen from the user, and the Y direction is the front-back direction as seen from the user.

[課題等]
課題等について補足説明する。図26は、比較例として、従来のテレビ電話機能付きの携帯情報端末を用いて、ハンズフリー状態を実現しようとする場合の利用状態の例を示す。(A)は第1例、(B)は第2例を示す。図26の(A)では、ユーザAは、携帯情報端末260の筐体を、机等の水平面s0上に、平らに置いた状態としている。筐体の前面には表示画面やインカメラ261が設けられている。インカメラ261のレンズは、点p2の位置に配置されている。インカメラ261は、通常画角を持つ通常カメラである。ユーザAの顔や目の代表点を点p1で示す。点p1からの視線は鉛直下方の向きである。ユーザAは、自身の顔および目(点p1)が、筐体の前面の表示画面やインカメラ261に対面する位置になるように、首を曲げた姿勢をとっている。このような状態で、ユーザAは、両手を自由としてテレビ電話が可能である。しかし、姿勢に無理があるので身体には負担がかかり、使い勝手は良くない。
[Problems, etc.]
Supplementary explanation of issues, etc. FIG. 26 shows, as a comparative example, an example of a usage state when trying to achieve a hands-free state using a conventional mobile information terminal with a videophone function. (A) shows the first example, and (B) shows the second example. In (A) of FIG. 26, the user A has placed the housing of the portable information terminal 260 flat on a horizontal surface s0 such as a desk. A display screen and an in-camera 261 are provided on the front surface of the housing. The lens of the in-camera 261 is arranged at the position of the point p2. The in-camera 261 is a normal camera with a normal angle of view. A representative point of user A's face and eyes is indicated by point p1. The line of sight from the point p1 is vertically downward. User A takes a posture in which his or her face and eyes (point p1) face the display screen on the front surface of the housing and the in-camera 261 . In this state, user A can make a videophone call with both hands free. However, since the posture is unreasonable, the burden is placed on the body, and it is not convenient to use.

図26の(B)では、ユーザAは、携帯情報端末260の筐体を、机等の水平面s0上において、固定器具262を用いて、前面が斜めの状態となるように固定して配置している。ユーザAの顔や目(点p1)からの視線の方向は、斜め下方となっている。インカメラ261(点p2)からの光軸の方向は、斜め上方(例えば45度程度の仰角)となっている。このような状態で、ユーザAは、両手を自由としてテレビ電話が可能である。しかし、スタンド等の固定器具262を利用しないとこのような状態を実現できず、ユーザAが固定器具262を所持しなければならない等、汎用性や利便性に欠ける。 In FIG. 26B, user A fixes and arranges the housing of portable information terminal 260 on horizontal surface s0 such as a desk using fixture 262 so that the front surface is slanted. ing. The direction of the line of sight from the user A's face and eyes (point p1) is obliquely downward. The direction of the optical axis from the in-camera 261 (point p2) is obliquely upward (for example, an elevation angle of about 45 degrees). In this state, user A can make a videophone call with both hands free. However, such a state cannot be realized without using a fixing device 262 such as a stand, and the user A has to carry the fixing device 262. This lacks versatility and convenience.

また、固定器具262ではなく、姿勢を変形可能な構造を持つ携帯情報端末を用いれば、同様の状態が実現できる。例えば、特許文献1の技術では、折り畳み型の携帯情報端末の形状を変化させることで、カメラおよび表示画面をユーザの顔に対面するように配置することができる。しかしながら、1枚の概略平板形状の筐体を持つ携帯情報端末261の場合、変形のために可動する構造自体を有さないので、そのような技術は適用できない。 A similar state can be achieved by using a portable information terminal having a structure that allows the posture to be changed instead of the fixture 262 . For example, in the technique disclosed in Patent Literature 1, by changing the shape of the foldable portable information terminal, the camera and display screen can be arranged so as to face the user's face. However, such a technique cannot be applied to the mobile information terminal 261 having a single, substantially flat plate-shaped housing, because it does not have a structure itself that can move due to deformation.

(実施の形態1)
図1~図19を用いて、本発明の実施の形態1の携帯情報端末について説明する。実施の形態1の携帯情報端末では、後述の図2のように、ユーザがその携帯情報端末(単に端末と記載する場合がある)を用いてテレビ電話を行う際に、ユーザの手持ちによる筐体の保持を必要とせず、ハンズフリー状態となる。また、ユーザがハンズフリー状態でテレビ電話を行いたい場合に、携帯情報端末の筐体(前面)の向きがユーザの顔に対面する向きになるように配置する考慮や手間を不要とする。実施の形態1の携帯情報端末は、ハンズフリー状態での好適なテレビ電話を実現するために、以下のように、カメラ等の構成を有し、ユーザの顔と端末との位置関係、端末の配置状態を規定する。
(Embodiment 1)
A portable information terminal according to Embodiment 1 of the present invention will be described with reference to FIGS. 1 to 19. FIG. In the mobile information terminal of the first embodiment, as shown in FIG. 2 described later, when the user makes a videophone call using the mobile information terminal (sometimes simply referred to as a terminal), the housing held by the user is used. It becomes a hands-free state without the need to hold the Also, when the user wants to make a hands-free videophone call, there is no need to consider or trouble arranging the housing (front face) of the mobile information terminal so that it faces the user's face. The portable information terminal of Embodiment 1 has a configuration such as a camera as described below in order to realize a suitable videophone in a hands-free state, and the positional relationship between the user's face and the terminal and the position of the terminal. Defines the placement state.

実施の形態1の携帯情報端末では、筐体の前面に設けられたインカメラ(第1カメラ)として、広角の画角を持つ広角カメラを有する。このインカメラは、筐体の前面に垂直な光軸を有し、その前面と光軸とが成す断面で例えば180度程度(少なくとも30度から150度までの角度範囲)の所定の広い画角(水平画角としては360度)を有する。 The portable information terminal of Embodiment 1 has a wide-angle camera having a wide angle of view as an in-camera (first camera) provided on the front surface of the housing. This in-camera has an optical axis perpendicular to the front surface of the housing, and a predetermined wide angle of view of, for example, about 180 degrees (at least an angle range from 30 degrees to 150 degrees) in a cross section formed by the front surface and the optical axis. (360 degrees as a horizontal angle of view).

ユーザは、ハンズフリー状態でのテレビ電話の利用時に、机等の概略水平面上に、概略平板状の筐体を、前面のインカメラが上を向くようにして平らに置く。そして、端末のインカメラの位置からみて斜め上の仰角の方向にユーザの顔がある位置関係とする。ユーザの目からみると、斜め下に見下ろす方向の位置に筐体の表示画面およびインカメラがある位置関係となる。この状態(第1状態)で、インカメラからの顔の撮影の方向と、ユーザの目から表示画面を見る方向とは、概略的に同じまたは十分に近い。例えば、それらの方向は、水平面に対する仰角で45度程度(例えば30度から60度までの角度範囲内の角度)となる。 When using the videophone in a hands-free state, the user lays down the generally flat plate-shaped housing flat on a generally horizontal surface such as a desk so that the front camera faces upward. Then, the positional relationship is such that the user's face is obliquely upward when viewed from the position of the in-camera of the terminal. When viewed from the user's eyes, the positional relationship is such that the display screen of the housing and the in-camera are positioned in a diagonally downward direction. In this state (first state), the direction in which the face is captured by the in-camera and the direction in which the user sees the display screen are approximately the same or sufficiently close. For example, these directions are elevation angles of about 45 degrees with respect to the horizontal plane (for example, angles within the angle range of 30 degrees to 60 degrees).

このような位置関係、配置状態の場合、インカメラの画像(広角画像)内では、一部の領域(例えば0度から90度までの角度範囲内にある領域)に、ユーザの顔が写っている。携帯情報端末は、その広角画像を用いて、ユーザの顔を含む領域を捉えることができる。携帯情報端末は、その広角画像から、ユーザの顔を含む領域を検出し、トリミング(切り出し)する。 In the case of such a positional relationship and arrangement state, the user's face is captured in a part of the in-camera image (wide-angle image) (for example, an area within an angle range of 0 degrees to 90 degrees). there is Using the wide-angle image, the mobile information terminal can capture an area including the user's face. The portable information terminal detects an area including the user's face from the wide-angle image and trims (cuts out) it.

ただし、広角レンズを通じた広角画像内では、ユーザの顔を含む広角画像全体で、広角レンズに特有の歪(ひずみ)が生じている。広角画像を相手の携帯情報端末に送信した場合、相手のユーザは、その広角画像からユーザの顔等を認識しにくいおそれがある。そのため、実施の形態1の携帯情報端末は、その広角画像の顔を含む領域に対し、歪補正処理を行うことで、歪が解消または低減された平面化画像を得る。これにより、視覚的により見やすく好適な送信画像が得られる。 However, within the wide-angle image through the wide-angle lens, distortion (distortion) peculiar to the wide-angle lens occurs in the entire wide-angle image including the user's face. When a wide-angle image is transmitted to the other party's portable information terminal, the other user may have difficulty recognizing the user's face or the like from the wide-angle image. Therefore, the portable information terminal according to the first embodiment obtains a planarized image in which the distortion is eliminated or reduced by performing distortion correction processing on the area including the face of the wide-angle image. As a result, it is possible to obtain a transmission image that is visually easier to see and suitable for transmission.

携帯情報端末1は、歪補正後のユーザAの顔を含む画像から、テレビ電話の相手の端末に送信するための送信画像を作成し、相手の端末に送信する。上記のように、実施の形態1の携帯情報端末では、ユーザがハンズフリー状態でテレビ電話が可能であり、使い勝手が良い。 The portable information terminal 1 creates a transmission image to be transmitted to the terminal of the other party of the videophone call from the image including the face of the user A after the distortion correction, and transmits the transmission image to the terminal of the other party. As described above, the mobile information terminal according to the first embodiment is convenient because the user can make videophone calls in a hands-free state.

[(1)通信システムおよびテレビ電話システム]
図1は、実施の形態1の携帯情報端末1を含む、通信システムおよびテレビ電話システムの全体の構成を示す。図1の通信システムおよびテレビ電話システムでは、モバイル通信網101およびインターネット102を介して、第1ユーザ(ユーザA)の携帯情報端末1と、第2ユーザ(ユーザB)の携帯情報端末2とが接続されている。第1ユーザの携帯情報端末1と第2ユーザの携帯情報端末2との間でテレビ電話の通信を行う。基地局103は、モバイル通信網101を構成する無線基地局である。携帯情報端末1,2は、基地局103を通じて、モバイル通信網101に接続される。アクセスポイント104は、無線LAN等における無線通信用のアクセスポイント装置である。携帯情報端末1,2は、アクセスポイント104を通じて、無線LAN等を含むインターネット102に接続される。
[(1) Communication system and videophone system]
FIG. 1 shows the overall configuration of a communication system and videophone system including a mobile information terminal 1 according to the first embodiment. In the communication system and video phone system of FIG. It is connected. Videophone communication is performed between the mobile information terminal 1 of the first user and the mobile information terminal 2 of the second user. A base station 103 is a radio base station that constitutes the mobile communication network 101 . Mobile information terminals 1 and 2 are connected to mobile communication network 101 through base station 103 . The access point 104 is an access point device for wireless communication in a wireless LAN or the like. Mobile information terminals 1 and 2 are connected to the Internet 102 including a wireless LAN or the like through an access point 104 .

携帯情報端末1,2は、スマートフォン等の装置であり、いずれもテレビ電話機能を備える。第1ユーザの携帯情報端末1は、実施の形態1の携帯情報端末であり、テレビ電話に関する特有の機能を備える。ユーザAは、テレビ電話を行う一方の通話者の第1ユーザであり、ユーザBは、テレビ電話を行う他方の通話者、ユーザAからみた相手の第2ユーザである。以下では、第1ユーザの携帯情報端末1を主として説明する。ユーザBは、例えば従来型のテレビ電話機能付きの携帯情報端末2を使用する。第2ユーザの携帯情報端末2においても、第1ユーザの携帯情報端末1と同様に特有のテレビ電話機能を備えていてもよい。なお、テレビ電話の通信の際に、モバイル通信網101やインターネット102上で、テレビ電話機能に関するサービスを提供するサーバ等が介在してもよい。 The mobile information terminals 1 and 2 are devices such as smartphones, and both have a videophone function. The mobile information terminal 1 of the first user is the mobile information terminal of the first embodiment, and has specific functions related to the videophone. User A is the first user of one caller who makes the videophone call, and user B is the other caller of the videophone call, the second user of the other party viewed from user A. Below, the mobile information terminal 1 of the first user will be mainly described. User B uses, for example, a conventional portable information terminal 2 with a videophone function. The mobile information terminal 2 of the second user may also have a unique videophone function like the mobile information terminal 1 of the first user. Note that a server or the like that provides services related to the videophone function may intervene on the mobile communication network 101 or the Internet 102 during videophone communication.

[(2)テレビ電話の利用概要]
図2は、図1のユーザAとユーザBとの間のテレビ電話の際における、ユーザAによる携帯情報端末1の利用の概要、状況、方法を示す模式図である。図2では、ユーザAがハンズフリー状態のテレビ電話を行う際の、ユーザAの顔と携帯情報端末1との位置関係や端末の配置状態を示す。テレビ電話の利用の概要として以下である。
[(2) Overview of videophone usage]
FIG. 2 is a schematic diagram showing an outline, situation, and method of use of the portable information terminal 1 by user A during a videophone call between user A and user B in FIG. FIG. 2 shows the positional relationship between the user A's face and the mobile information terminal 1 and the layout of the terminals when the user A makes a hands-free videophone call. The outline of the use of the videophone is as follows.

(1) 図2のように、ユーザAは、ハンズフリー状態のテレビ電話を行う際、携帯情報端末1の平板状の筐体を、机等の任意の物体の水平面s0(X-Y面、第1面)上に、前面s1のインカメラC1を鉛直上方に向けて、平らに置く。筐体の背面s2は水平面s0に接していて隠れている。携帯情報端末1は、縦長の筐体の前面s1において、主に、矩形の表示画面DPが設けられ、その表示画面DPの外周の額縁領域には、カメラや操作ボタン、マイク、スピーカ等が設けられている。この携帯情報端末1では、額縁領域の上辺部の位置PC1に、インカメラC1(特に広角レンズ部)が配置されている。ユーザAは、配置の際、特に、前面s1のインカメラC1(位置PC1)が、ユーザAから見てY方向で遠い奥側の方向Y1の位置になるように、筐体を置く。 (1) As shown in FIG. 2, when a user A makes a hands-free videophone call, the flat plate-shaped housing of the portable information terminal 1 is placed on a horizontal plane s0 (XY plane, The in-camera C1 on the front surface s1 is placed flat on the first surface) with the in-camera C1 facing vertically upward. The rear surface s2 of the housing is in contact with and hidden from the horizontal surface s0. The mobile information terminal 1 is mainly provided with a rectangular display screen DP on the front surface s1 of the vertically long housing, and a camera, operation buttons, a microphone, a speaker, etc. are provided in the frame area around the display screen DP. It is In this portable information terminal 1, an in-camera C1 (especially a wide-angle lens portion) is arranged at a position PC1 on the upper side of the frame area. When arranging the housing, the user A places the housing so that the in-camera C1 (position PC1) on the front surface s1 is positioned farther in the Y direction from the user A in the Y1 direction.

ユーザAは、自身の顔や目を、携帯情報端末1に対し、斜め上の位置に置く。言い換えると、ユーザAの目(点P1)から見て、斜め下の位置に、携帯情報端末1の表示画面DP(点PD)が配置される。ユーザAの頭、顔、または目等に対応付けられた代表的な点を点P1とする。表示画面DPには、相手(ユーザB)の画像等が表示される(図7)。ユーザAは、表示画面DP内の相手の顔画像等を見る。方向J1は、ユーザAの目(点P1)から端末の表示画面DP(点PD)を見る目線方向を示す。角度θ1は、方向J1に対応する仰角(水平面s0を基準として0度とする)を示す。角度θ1は、30度から60度までの範囲内の角度であり、例えば45度程度である。 User A places his/her own face and eyes obliquely above the portable information terminal 1 . In other words, the display screen DP (point PD) of the mobile information terminal 1 is arranged diagonally below the user A's eyes (point P1). A representative point associated with user A's head, face, eyes, or the like is assumed to be point P1. An image of the other party (user B) and the like are displayed on the display screen DP (FIG. 7). The user A sees the other party's face image or the like on the display screen DP. A direction J1 indicates a line-of-sight direction in which the display screen DP (point PD) of the terminal is viewed from the user A's eyes (point P1). An angle θ1 indicates an elevation angle (0 degrees with respect to the horizontal plane s0) corresponding to the direction J1. The angle θ1 is an angle within the range of 30 degrees to 60 degrees, for example, about 45 degrees.

この状態で、当然、端末のインカメラC1からは、斜め上の仰角の方向に、ユーザAの顔や目が撮影可能な状態となっている。インカメラC1の光軸は、前面s1に対して垂直な方向(鉛直上方)であり、方向J2として示す。インカメラC1の画角AV1は、光軸を中心として広い角度範囲を有し、水平画角として360度、Y-Z断面での画角では180度程度、特に第1角度ANG1から第2角度ANG2までの角度範囲を有する。例えば、第1角度ANG1は30度以下であり、第2角度ANG2は150度以上である。 In this state, of course, the in-camera C1 of the terminal is in a state where the face and eyes of the user A can be photographed obliquely upward in the direction of the elevation angle. The optical axis of the in-camera C1 is in a direction perpendicular to the front surface s1 (vertically upward), which is shown as a direction J2. The angle of view AV1 of the in-camera C1 has a wide angle range centering on the optical axis. It has an angular range up to ANG2. For example, the first angle ANG1 is 30 degrees or less, and the second angle ANG2 is 150 degrees or more.

この状態で、インカメラC1は、広角の画角AV1によって、ユーザAの顔が撮影可能である。すなわち、この状態では、インカメラC1の画角AV1内に、特に第1角度ANG1から90度までの角度範囲内に、ユーザAの顔を撮影する範囲に対応する画角AV2(顔撮影画角)が含まれている。対応して、インカメラC1の広角画像内の一部の領域には、ユーザAの顔が写っている。インカメラC1(点PC1)からユーザAの顔(点P1)を捉える方向を方向J3で示す。方向J3に対応する仰角を角度θ3で示す。角度θ3は、例えば45度より少し小さい角度である。 In this state, the in-camera C1 can photograph the face of the user A with a wide angle of view AV1. That is, in this state, within the angle of view AV1 of the in-camera C1, particularly within the angle range from the first angle ANG1 to 90 degrees, the angle of view AV2 corresponding to the range in which the face of the user A is photographed (face photographing angle of view) )It is included. Correspondingly, the face of the user A is shown in a part of the wide-angle image of the in-camera C1. A direction J3 indicates a direction in which the user A's face (point P1) is captured from the in-camera C1 (point PC1). An elevation angle corresponding to the direction J3 is indicated by an angle θ3. The angle θ3 is, for example, an angle slightly smaller than 45 degrees.

ユーザAの目線の方向J1と、インカメラC1からの顔撮影の方向J3とは、十分に近い状態となり、角度θ1と角度θ3との角度差AD1は十分に小さい。そのため、インカメラC1は、ユーザAの目線を確認できる方向J3および画角AV2でユーザAの顔を撮影可能である。これらの方向差や角度差がなるべく小さい方が、画像内の目線の状態がより自然となるので、より好適である。実施の形態1の携帯情報端末1では、インカメラC1の広角画像を用いるので、図2のような位置関係でも、画角AV2のようにユーザAの顔を捉えることができる。 The line-of-sight direction J1 of the user A is sufficiently close to the face photographing direction J3 from the in-camera C1, and the angle difference AD1 between the angles θ1 and θ3 is sufficiently small. Therefore, the in-camera C1 can photograph the face of the user A in the direction J3 and the angle of view AV2 in which the user A's line of sight can be confirmed. It is preferable that the directional difference and the angular difference are as small as possible, because the state of the line of sight in the image becomes more natural. In the mobile information terminal 1 of Embodiment 1, the wide-angle image of the in-camera C1 is used, so even with the positional relationship shown in FIG.

(2) 図2の状態で、ユーザAは、携帯情報端末1の表示画面DPに表示される相手の画像(図7)を見ながら、テレビ電話(通話)を行うことができる。携帯情報端末1は、相手の携帯情報端末2から受信した音声をスピーカから出力する。携帯情報端末1は、マイクで入力したユーザAの音声を、相手の携帯情報端末2へ送信する。 (2) In the state shown in FIG. 2, user A can make a videophone call (call) while viewing the other party's image (FIG. 7) displayed on the display screen DP of the portable information terminal 1. FIG. Mobile information terminal 1 outputs the voice received from mobile information terminal 2 of the other party from a speaker. The mobile information terminal 1 transmits the voice of the user A input by the microphone to the mobile information terminal 2 of the other party.

携帯情報端末1は、インカメラC1による広角画像から、ユーザAの顔を含む領域を検出し、トリミングする。携帯情報端末1は、そのトリミングした画像を用いて、相手の携帯情報端末2に送信するための送信画像を作成する。ただし、インカメラC1で撮影した広角画像では、ユーザAの顔を含め、広角レンズに依存する歪を持つ。 The mobile information terminal 1 detects an area including the face of the user A from the wide-angle image captured by the in-camera C1, and trims the area. Using the trimmed image, mobile information terminal 1 creates a transmission image to be sent to mobile information terminal 2 of the other party. However, the wide-angle image captured by the in-camera C1, including the face of the user A, has distortion dependent on the wide-angle lens.

そこで、携帯情報端末1は、トリミングした画像に対し、歪が解消または低減されるように、歪補正処理を行う。携帯情報端末1は、歪補正後の画像から、相手の携帯情報端末2に送信するための送信画像と、送信画像に対応するユーザA自身の顔等の状態の確認用のモニタ画像とを作成する。携帯情報端末1は、送信画像に対応するモニタ画像を、表示画面DP内に表示する(図7)。モニタ画像(および送信画像)内では、ユーザAの目線の向きが概ね正面を向いている。ユーザAは、携帯情報端末1の表示画面DP内で、相手(ユーザB)の画像と、ユーザA自身のモニタ画像とを見て確認することができる。ユーザAは、必要に応じて、モニタ画像に対応する送信画像の送信を拒否することもできる。 Therefore, the mobile information terminal 1 performs distortion correction processing on the trimmed image so as to eliminate or reduce the distortion. The portable information terminal 1 creates a transmission image to be transmitted to the other party's portable information terminal 2 and a monitor image for confirming the state of the user A's own face, etc. corresponding to the transmission image from the image after distortion correction. do. The portable information terminal 1 displays the monitor image corresponding to the transmitted image within the display screen DP (FIG. 7). In the monitor image (and the transmitted image), the line of sight of the user A is generally facing the front. User A can see and confirm the image of the other party (user B) and the monitor image of user A himself on the display screen DP of portable information terminal 1 . User A can also refuse transmission of the transmission image corresponding to the monitor image, if necessary.

携帯情報端末1は、マイクで入力したユーザAの音声と、上記送信画像とを含む、テレビ電話用のデータを、相手の携帯情報端末2に送信する。相手の携帯情報端末2では、受信したデータに基づいて、ユーザAに関する画像および音声を出力し、ユーザBは、ユーザAとのテレビ電話が可能である。 The portable information terminal 1 transmits data for a videophone call, including user A's voice input with a microphone and the transmission image, to the other party's portable information terminal 2 . The mobile information terminal 2 of the other party outputs an image and voice regarding the user A based on the received data, and the user B can make a videophone call with the user A. FIG.

[(3)携帯情報端末]
図3は、実施の形態1の携帯情報端末1の構成を示す。携帯情報端末1は、コントローラ10、カメラ部11、ROM14、RAM15、外部メモリ16、マイク17、スピーカ18、バス19、表示部(タッチパネル)21、LAN通信部22、モバイル網通信部23、加速度センサ31やジャイロセンサ32等のセンサ類30、等を備える。
[(3) Portable information terminal]
FIG. 3 shows the configuration of the portable information terminal 1 according to the first embodiment. The mobile information terminal 1 includes a controller 10, a camera section 11, a ROM 14, a RAM 15, an external memory 16, a microphone 17, a speaker 18, a bus 19, a display section (touch panel) 21, a LAN communication section 22, a mobile network communication section 23, and an acceleration sensor. 31 and sensors 30 such as a gyro sensor 32, and the like.

コントローラ10は、携帯情報端末1の全体を制御し、各部への指示等を行う。コントローラ10は、テレビ電話アプリに基づいたテレビ電話機能100を実現する。携帯情報端末1のコントローラ10は、各部や各機能を用いて、テレビ電話機能100を制御する。コントローラ10は、マイクロプロセッサユニット(MPU)等で構成され、ROM14のプログラムに従って、携帯情報端末1の全体を制御する。コントローラ10等の各部は、バス19(システムバスを含む)を介して、携帯情報端末1内の各部との間でデータ送受信を行う。 The controller 10 controls the entire portable information terminal 1 and issues instructions to each unit. The controller 10 implements a videophone function 100 based on a videophone application. The controller 10 of the mobile information terminal 1 controls the videophone function 100 using each unit and each function. The controller 10 is composed of a microprocessor unit (MPU) or the like, and controls the entire mobile information terminal 1 according to a program in the ROM 14 . Each unit such as the controller 10 performs data transmission/reception with each unit in the portable information terminal 1 via a bus 19 (including a system bus).

カメラ部11は、インカメラC1、通常カメラ(アウトカメラ)C2、撮影処理部12、メモリ13を含む。前述の図2のように、筐体の前面s1にインカメラC1、筐体の背面s2に通常カメラC2が設けられている。インカメラC1は、広角レンズ、カメラセンサ(撮像素子)、駆動回路等の公知の要素から構成される。カメラセンサは、例えばCCDやCMOSセンサ等で構成される。通常カメラC2は、通常レンズ、カメラセンサ、駆動回路等の公知の要素から構成される。通常カメラC2は、通常画角を有し、その通常画角は、インカメラC1の広角レンズの画角AV1よりも狭い画角である。通常カメラC2の光軸は、インカメラC1の光軸とは反対の向きである。実施の形態1でのテレビ電話機能では、通常カメラC2については使用しない。 The camera unit 11 includes an in-camera C<b>1 , a normal camera (out-camera) C<b>2 , a photographing processing unit 12 and a memory 13 . As shown in FIG. 2, an in-camera C1 is provided on the front surface s1 of the housing, and a normal camera C2 is provided on the rear surface s2 of the housing. The in-camera C1 is composed of known elements such as a wide-angle lens, a camera sensor (imaging device), and a drive circuit. The camera sensor is composed of, for example, a CCD or CMOS sensor. The normal camera C2 is generally composed of known elements such as a lens, a camera sensor, and a drive circuit. The normal camera C2 has a normal angle of view, which is narrower than the angle of view AV1 of the wide-angle lens of the in-camera C1. The optical axis of the normal camera C2 is in the opposite direction to the optical axis of the in-camera C1. The videophone function in the first embodiment does not normally use the camera C2.

撮影処理部12は、コントローラ10の制御に基づいて、カメラを用いた撮影処理や画像処理を行う部分である。実施の形態1では、撮影処理部12は、コントローラ10とは別の部位として、例えばLSI等の回路で実装されている。これに限らず、撮影処理部12は、その一部または全部が、コントローラ10のプログラム処理等によって一体的に実装されてもよい。顔検出機能201等の機能は、全部または一部が、ソフトウェアプログラム処理で実装されてもよいし、高速化等のためにハードウェア回路等で実装されてもよい。メモリ13は、撮影処理に係わる画像データ等を格納するメモリである。 The shooting processing unit 12 is a part that performs shooting processing and image processing using a camera under the control of the controller 10 . In Embodiment 1, the imaging processing unit 12 is implemented as a circuit such as an LSI, for example, as a part separate from the controller 10 . Without being limited to this, the photographing processing unit 12 may be integrally implemented by program processing or the like of the controller 10 in part or in its entirety. All or part of the functions such as the face detection function 201 may be implemented by software program processing, or may be implemented by hardware circuits or the like for speeding up. The memory 13 is a memory for storing image data and the like related to photographing processing.

撮影処理部12は、公知の機能や処理部としては、オートフォーカス機能、拡大縮小機能、コーデック部、画質改善処理部、角度・回転補正部、等を備える。オートフォーカス機能は、カメラの焦点を自動的に撮影対象物に合わせる機能である。拡大縮小機能は、画像の対象物を拡大や縮小する機能である。コーデック部は、撮影された画像や動画の圧縮や伸張を行う処理部である。画質改善処理部は、ノイズ除去等、撮影画像の画質の改善を行う処理部である。角度・回転補正部は、撮影画像から角度補正や回転補正を行う処理部である。 The photographing processing unit 12 includes, as well-known functions and processing units, an autofocus function, a scaling function, a codec unit, an image quality improvement processing unit, an angle/rotation correction unit, and the like. The autofocus function is a function that automatically focuses the camera on an object to be photographed. The enlargement/reduction function is a function for enlarging or reducing an object of an image. The codec unit is a processing unit that compresses and decompresses captured images and moving images. The image quality improvement processing unit is a processing unit that improves the image quality of the captured image, such as noise removal. The angle/rotation correction unit is a processing unit that performs angle correction and rotation correction from the captured image.

マイク17は、ユーザAの声を含む、端末の周囲の音声を集音して、音声データを得る。スピーカ18は、通話相手(ユーザB)の携帯情報端末2からのテレビ電話の音声を含む音声を出力する。 The microphone 17 collects sounds around the terminal, including the voice of the user A, to obtain sound data. The speaker 18 outputs audio including videophone audio from the portable information terminal 2 of the other party (user B).

表示部21は、図2の表示画面DPを備え、特に液晶タッチパネル等のタッチパネルであり、ユーザによるタッチ入力操作が可能である。表示画面DPには、撮影画像や他の各種の情報が表示される。 The display unit 21 includes the display screen DP shown in FIG. 2, and is particularly a touch panel such as a liquid crystal touch panel, and allows the user to perform a touch input operation. A captured image and various other information are displayed on the display screen DP.

LAN通信部22は、図1のアクセスポイント104との無線LAN通信を含めた、インターネット102上の通信に対応した通信処理を行う。モバイル網通信部23は、図1の基地局103との無線通信を含めた、モバイル網101上の通信に対応した通信処理を行う。 The LAN communication unit 22 performs communication processing corresponding to communication on the Internet 102 including wireless LAN communication with the access point 104 in FIG. The mobile network communication unit 23 performs communication processing corresponding to communication on the mobile network 101 including wireless communication with the base station 103 in FIG.

センサ類30は、加速度センサ31やジャイロセンサ32、図示しないGPS受信器、近接センサ、照度センサ、温度センサ等の、公知のセンサデバイスを含む。コントローラ10は、センサ類30の検出情報を用いて、携帯情報端末1の向きや動き等を検出する。コントローラ10は、センサ類30を用いて、携帯情報端末1がユーザAによって手持ちされているか否か、図2のように水平面s0上に平らに置かれているか否か等の状態も把握可能である。 The sensors 30 include known sensor devices such as an acceleration sensor 31, a gyro sensor 32, a GPS receiver (not shown), a proximity sensor, an illuminance sensor, and a temperature sensor. The controller 10 uses detection information from the sensors 30 to detect the orientation, movement, and the like of the mobile information terminal 1 . Using the sensors 30, the controller 10 can also determine whether or not the mobile information terminal 1 is being held by the user A, or whether or not the mobile information terminal 1 is placed flat on the horizontal surface s0 as shown in FIG. be.

撮影処理部12は、プログラムや回路等で実現される機能として、顔検出機能201、トリミング機能202、歪補正機能203を有する。撮影処理部12の撮影処理や機能の概要は以下である。撮影処理部12は、インカメラC1を用いて撮影するカメラモードにおいて、インカメラC1により撮影された画像である広角画像を入力する。なお、実施の形態1では、インカメラC1によって動画(時系列の複数の画像フレーム)を撮影可能であり、撮影処理部11は、その動画を処理する。これに限らず、インカメラC1の画像としては、所定のタイミングでの静止画を扱ってもよい。 The photographing processing unit 12 has a face detection function 201, a trimming function 202, and a distortion correction function 203 as functions realized by programs, circuits, and the like. The outline of the shooting processing and functions of the shooting processing unit 12 is as follows. The imaging processing unit 12 inputs a wide-angle image, which is an image captured by the in-camera C1, in a camera mode in which an image is captured using the in-camera C1. In Embodiment 1, the in-camera C1 can shoot a moving image (a plurality of time-series image frames), and the shooting processing unit 11 processes the moving image. The image captured by the in-camera C1 is not limited to this, and may be a still image captured at a predetermined timing.

撮影処理部12は、顔検出機能201によって、広角画像から、ユーザAの顔を含む領域を検出する。撮影処理部12は、トリミング機能202によって、広角画像から、ユーザAの顔を含む領域をトリミングする。撮影処理部12は、歪補正機能203によって、トリミング画像に対し、歪補正処理を行う。撮影処理部12は、歪補正後の画像をメモリ13に格納する。撮影処理部12(またはコントローラ10)は、補正後画像から、相手の携帯情報端末2へ送信するための送信画像と、自己確認用のモニタ画像とを作成する。 The imaging processing unit 12 detects an area including the face of the user A from the wide-angle image using the face detection function 201 . The photographing processing unit 12 uses the trimming function 202 to trim an area including the user A's face from the wide-angle image. The imaging processing unit 12 performs distortion correction processing on the trimmed image using the distortion correction function 203 . The imaging processing unit 12 stores the distortion-corrected image in the memory 13 . The photographing processing unit 12 (or the controller 10) creates a transmission image for transmission to the other party's mobile information terminal 2 and a monitor image for self-confirmation from the corrected image.

携帯情報端末1のコントローラ10(テレビ電話機能100)は、ユーザAの送信画像を、マイク17から入力したユーザAの音声データと共にまとめたテレビ電話用のデータを作成する。コントローラ10は、そのデータを、LAN通信部22またはモバイル網通信部23等を用いて、相手の携帯情報端末2に送信する。相手の携帯情報端末2は、そのデータを受信し、その送信画像を表示画面に表示し、音声を出力する。 The controller 10 (videophone function 100) of the portable information terminal 1 creates videophone data in which the user A's transmission image and the user A's voice data input from the microphone 17 are put together. The controller 10 uses the LAN communication unit 22, the mobile network communication unit 23, or the like to transmit the data to the portable information terminal 2 of the other party. The mobile information terminal 2 of the other party receives the data, displays the transmitted image on the display screen, and outputs sound.

コントローラ10(テレビ電話機能100)は、LAN通信部22またはモバイル網通信部23を通じて、相手の携帯情報端末2から、テレビ電話用のデータ(相手画像および音声を含む)を受信する。コントローラ10は、受信したデータのうちの相手画像を、表示画面DP内に表示する共に、ユーザAのモニタ画像を表示する。コントローラ10は、相手の音声をスピーカ18から出力する。 The controller 10 (videophone function 100) receives videophone data (including the partner's image and voice) from the other party's portable information terminal 2 via the LAN communication unit 22 or the mobile network communication unit 23. FIG. The controller 10 displays the other party's image in the received data on the display screen DP, and also displays the user A's monitor image. The controller 10 outputs the other party's voice from the speaker 18 .

[(4)ソフトウェア構成]
図4は、携帯情報端末1のソフトウェア構成を示す。ROM14には、OSやミドルウェア等の基本動作プログラム14aや、その他のアプリケーションプログラム等が格納されている。ROM14は、例えばEEPROMやフラッシュROM等の書き換え可能なROMが用いられる。通信等を通じて、ROM14のプログラムの更新が適宜に可能であり、バージョンアップや機能拡張等が可能である。ROM14等はコントローラ10と一体としてもよい。
[(4) Software configuration]
FIG. 4 shows the software configuration of the portable information terminal 1. As shown in FIG. The ROM 14 stores a basic operation program 14a such as an OS and middleware, and other application programs. For the ROM 14, for example, a rewritable ROM such as EEPROM or flash ROM is used. Through communication or the like, the program in the ROM 14 can be updated as appropriate, and version upgrades, function extensions, and the like are possible. The ROM 14 and the like may be integrated with the controller 10 .

RAM15は、基本動作プログラム14aやテレビ電話アプリプログラム16b等の実行時のワークエリアとして使用される。RAM15には、各種のプログラムの実行時に必要に応じてデータや情報を一時的に保持する一時記憶領域15cも有する。コントローラ10(MPU)は、ROM14の基本動作プログラム14aをRAM15に展開して、そのプログラムに従った処理を実行する。これにより、RAM15には、基本動作実行部15aが構成される。同様に、テレビ電話アプリプログラム16bの処理に伴い、RAM15にテレビ電話処理実行部15bが構成される。一時記憶領域15cには、テレビ電話機能100に関する処理用のデータが記憶され、例えば携帯情報端末1の位置や姿勢の状態等の情報も記憶される。 The RAM 15 is used as a work area during execution of the basic operation program 14a, videophone application program 16b, and the like. The RAM 15 also has a temporary storage area 15c that temporarily holds data and information as required during execution of various programs. The controller 10 (MPU) develops the basic operation program 14a of the ROM 14 in the RAM 15 and executes processing according to the program. Thus, the RAM 15 is configured with a basic operation executing section 15a. Similarly, a videophone processing execution unit 15b is configured in the RAM 15 in accordance with the processing of the videophone application program 16b. The temporary storage area 15c stores data for processing related to the videophone function 100, and also stores information such as the position and attitude of the portable information terminal 1, for example.

外部メモリ16には、撮影プログラム16aやテレビ電話アプリプログラム16b等のプログラムが格納されており、また、撮影処理部12で撮影された画像や、各種の処理に係わるデータや情報を蓄積するためのデータ記憶領域16cも有する。外部メモリ16は、電源非供給状態でもデータを保持する不揮発性記憶装置で構成され、例えばフラッシュROMやSSD等が用いられる。データ記憶領域16cには、例えば携帯情報端末1の機能や動作の設定値も保存される。各種のプログラムは、ROM14や他の不揮発性記憶装置等に格納されてもよい。携帯情報端末1は、外部のサーバ装置等から、プログラムや情報を取得してもよい。 The external memory 16 stores programs such as a shooting program 16a and a videophone application program 16b. It also has a data storage area 16c. The external memory 16 is composed of a non-volatile storage device that retains data even when power is not supplied. For example, a flash ROM, an SSD, or the like is used. The data storage area 16c also stores, for example, settings for the functions and operations of the mobile information terminal 1 . Various programs may be stored in the ROM 14 or other non-volatile storage devices. The mobile information terminal 1 may acquire programs and information from an external server device or the like.

撮影プログラム16aは、カメラ部11の撮影処理部12に対する撮影制御処理を実現する。この撮影制御処理は、テレビ電話に限らない一般的なカメラ撮影の制御処理と、テレビ電話用の撮影制御処理とを含む。撮影プログラム16aは、RAM15または撮影処理部12内に展開され、実行部が構成される。 The shooting program 16 a implements shooting control processing for the shooting processing unit 12 of the camera unit 11 . This photographing control processing includes general camera photographing control processing that is not limited to videophones, and photographing control processing for videophones. The photographing program 16a is expanded in the RAM 15 or the photographing processing section 12, and constitutes an execution section.

コントローラ10(MPU)は、撮影処理部12に対し、カメラモード、カメラによる動画の撮影開始や撮影終了、撮影詳細設定(例えばフォーカス、露光)、等を指示する。カメラモードは、複数のうちいずれのカメラを用いて撮影するモードであるかを示す。 The controller 10 (MPU) instructs the photographing processing unit 12 about the camera mode, the start and end of photographing of moving images by the camera, detailed photographing settings (for example, focus and exposure), and the like. The camera mode indicates which of a plurality of cameras is used for photographing.

テレビ電話アプリプログラム16bに基づいたテレビ電話処理実行部15bは、テレビ電話機能100に対応する処理を行う。コントローラ10(MPU)は、テレビ電話機能100の実現の際に、撮影処理部12の各機能に対する制御処理や、関連する各部に対する制御処理を行う。 The videophone processing execution unit 15b based on the videophone application program 16b performs processing corresponding to the videophone function 100. FIG. When the videophone function 100 is realized, the controller 10 (MPU) performs control processing for each function of the shooting processing section 12 and control processing for each related section.

[(5)カメラ部、撮影処理部]
図5は、カメラ部11、撮影処理部12、メモリ13の詳しい構成を示す。撮影処理部12の顔検出機能201は、個人認識機能201Bを含む。歪補正機能203は、処理として、正像変換処理203A、台形補正処理203B、収差補正処理203C等を行う。メモリ13には、登録画像D10、補正後画像D11、送信画像D12、モニタ画像D13等のデータが記憶される。メモリ13は、撮影画像データを一時的に保持し、各機能の処理に係わるワークエリアとしても利用される。撮影処理部12内にメモリ13があってもよい。撮影処理部12の処理概要は以下である。
[(5) Camera unit, shooting processing unit]
FIG. 5 shows detailed configurations of the camera section 11, the photographing processing section 12, and the memory 13. As shown in FIG. The face detection function 201 of the imaging processing unit 12 includes a personal recognition function 201B. The distortion correction function 203 performs normal image conversion processing 203A, keystone correction processing 203B, aberration correction processing 203C, and the like as processing. The memory 13 stores data such as a registered image D10, a corrected image D11, a transmission image D12, a monitor image D13, and the like. The memory 13 temporarily holds captured image data and is also used as a work area for processing of each function. A memory 13 may be provided in the imaging processing unit 12 . The outline of the processing of the photographing processing unit 12 is as follows.

(1) まず、インカメラC1を通じて撮影された広角画像(データD1)は、撮影処理部12の顔検出機能201に入力される。顔検出機能201は、広角画像のデータD1から、画像処理に基づいて、ユーザAの顔を含む領域を検出する処理を行う。顔検出機能201は、例えば、広角画像内から、特徴点群を抽出し、目、耳、鼻、口等を検出し、また、画素の色や輝度の差に基づいて、顔や頭の輪郭を検出する。これにより、後述の図9のように、顔領域B1等が検出可能である。顔検出機能201からは、広角画像および検出結果のデータD2が出力される。 (1) First, a wide-angle image (data D1) shot through the in-camera C1 is input to the face detection function 201 of the shooting processing unit 12 . The face detection function 201 detects an area including the face of the user A from the wide-angle image data D1 based on image processing. The face detection function 201, for example, extracts a feature point group from within a wide-angle image, detects eyes, ears, nose, mouth, etc., and also detects the contours of the face and head based on differences in pixel color and brightness. to detect As a result, the face area B1 and the like can be detected as shown in FIG. 9, which will be described later. The face detection function 201 outputs a wide-angle image and detection result data D2.

また、個人認識機能201Bでは、顔画像から、特定のユーザA個人の顔であるかどうかを認識する。撮影処理部12は、例えば特定のユーザA個人の顔を検出した場合にのみ、それ以降の処理を適用する。 Further, the individual recognition function 201B recognizes whether or not the face image is that of a specific user A from the face image. The photographing processing unit 12 applies subsequent processing only when, for example, the face of a specific user A is detected.

(2) 次に、トリミング機能202は、広角画像のデータD2に基づいて、検出された顔を含む領域に対応するトリミング領域をトリミングしてトリミング画像を得る処理を行う。トリミング機能202からは、そのトリミング画像等のデータD3が出力される。トリミングの仕方として、例えば、検出された顔領域における中心点(点P1)を基準として、所定の形状およびサイズの領域がトリミングされる。なお、トリミング領域は、顔領域のみとしてもよいし、頭領域としてもよいし、頭とその周辺とを含む領域としてもよい。トリミング領域の種類やサイズは、ユーザ設定機能を用いて変更できる。 (2) Next, the trimming function 202 trims the trimming area corresponding to the area including the detected face based on the wide-angle image data D2 to obtain a trimmed image. The trimming function 202 outputs data D3 such as the trimmed image. As a method of trimming, for example, a region of a predetermined shape and size is trimmed with reference to the center point (point P1) in the detected face region. The trimming area may be only the face area, the head area, or the area including the head and its periphery. The type and size of the trimming area can be changed using the user setting function.

(3) 次に、歪補正機能203は、データD3に基づいて、トリミング画像における、広角レンズによる歪を、歪が無い正像を持つ平面になるように補正する処理を行う。歪補正機能203は、まず、トリミング画像に対し、正像変換処理203A(図14)を行う。これにより、歪が無い正像を持つ平面にされた画像(平面化画像)が得られ、その平面化画像を含むデータD4が出力される。 (3) Next, based on the data D3, the distortion correction function 203 performs processing for correcting the distortion caused by the wide-angle lens in the trimmed image so that the flat image has a normal image without distortion. The distortion correction function 203 first performs normal image conversion processing 203A (FIG. 14) on the trimmed image. As a result, a flat image (planarized image) having a normal image without distortion is obtained, and data D4 including the flattened image is output.

歪補正機能203は、次に、平面化画像のデータD4に対し、台形補正処理203B(図15)を行う。これにより、台形状の画像内容を、直角四角形状の画像内容となるようにした画像が得られ、そのデータD5が出力される。台形変換によって、画像内容がより好適な見た目になるようにされる。 The distortion correction function 203 next performs keystone correction processing 203B (FIG. 15) on the data D4 of the planarized image. As a result, an image is obtained in which the trapezoidal image content is transformed into a rectangular image content, and data D5 thereof is output. Trapezoidal transformation causes the image content to have a more pleasing appearance.

歪補正機能203は、次に、収差補正処理203Cでは、データD5に対し、広角の歪以外で、レンズ系の特性に起因する各種の収差を補正する公知の処理を行う。これにより、補正後画像D11が得られる。例えば、レンズ系が固定である場合、予め製品出荷時に、レンズ系補正パラメータD14が、例えばメモリ13に格納されている。レンズ系補正パラメータD14は、収差補正用の設定情報や初期値等であり、設定可変としてもよい。収差補正処理203Cは、そのレンズ系補正パラメータD14を参照する。 Next, in the aberration correction processing 203C, the distortion correction function 203 performs known processing for correcting various types of aberration caused by the characteristics of the lens system, other than the wide-angle distortion, on the data D5. As a result, a post-correction image D11 is obtained. For example, when the lens system is fixed, the lens system correction parameters D14 are stored in the memory 13, for example, in advance at the time of product shipment. The lens system correction parameters D14 are setting information for aberration correction, initial values, etc., and may be set variable. The aberration correction processing 203C refers to the lens system correction parameter D14.

なお、通常、正像変換処理203A後の画像の状態で、ユーザAの顔の状態が見た目で十分に違和感が無い状態(少なくともテレビ電話に使用できる状態)とされる。そのため、台形変換処理203Bや収差補正処理203Cについては省略する形態としてもよい。また、歪補正機能203で行われる処理は、必ずしもこの順番で行う必要は無く、任意の順で処理を行ってもよい。また、条件によっては特定の処理を行わないように制御をしてもよい。 Normally, in the state of the image after the normal image conversion processing 203A, the state of the face of the user A is sufficiently comfortable to the eye (at least in a state that can be used for a videophone). Therefore, the trapezoidal transformation processing 203B and the aberration correction processing 203C may be omitted. Also, the processing performed by the distortion correction function 203 does not necessarily have to be performed in this order, and may be performed in any order. Also, depending on the conditions, control may be performed so that specific processing is not performed.

(4) 歪補正機能203による補正後画像D11が、メモリ13に格納される。補正後画像D11では、広角画像に起因する歪やレンズの収差が解消または低減されており、ユーザが違和感少なく顔等を認識できるレベルの画像となっている。撮影処理部12またはコントローラ10(テレビ電話機能100)は、補正後画像D11を用いて、相手(ユーザB)に送信するための送信画像D12や、自己確認用のモニタ画像D13を作成する。コントローラ10は、送信画像D12や、マイク17で入力された音声を用いて、テレビ電話用のデータを作成する。 (4) The image D11 after correction by the distortion correction function 203 is stored in the memory 13. FIG. In the post-correction image D11, the distortion and lens aberration caused by the wide-angle image are eliminated or reduced, and the image is of a level that allows the user to recognize the face and the like with little discomfort. The photographing processing unit 12 or the controller 10 (videophone function 100) uses the post-correction image D11 to create a transmission image D12 for transmission to the other party (user B) and a monitor image D13 for self-confirmation. The controller 10 uses the transmitted image D<b>12 and the voice input by the microphone 17 to create data for videophone.

送信画像D12は、例えば、相手の携帯情報端末2が要求している画像サイズ(表示画面サイズ等)に合わせるように、カットや拡大/縮小等が適宜に施された画像である。モニタ画像D13は、表示画面DP内のモニタ画像表示用領域(図7の領域R2)のサイズ等に合わせるように、カットや拡大/縮小等が適宜に施された画像である。 The transmission image D12 is, for example, an image that has been appropriately cut, enlarged/reduced, etc. so as to match the image size (display screen size, etc.) requested by the mobile information terminal 2 of the other party. The monitor image D13 is an image that has been appropriately cut or enlarged/reduced so as to match the size of the monitor image display area (area R2 in FIG. 7) in the display screen DP.

(5) コントローラ10は、モニタ画像D13を、表示画面DP内の領域に表示する。コントローラ10は、モニタ画像D13に対するユーザAによる確認の結果が肯定(送信許可)である場合には、送信画像D12を含むデータを、通信部を介して、相手の携帯情報端末2に送信する。 (5) The controller 10 displays the monitor image D13 in an area within the display screen DP. When the result of confirmation by user A on monitor image D13 is affirmative (transmission permitted), controller 10 transmits data including transmission image D12 to portable information terminal 2 of the other party via the communication unit.

(6) また、撮影処理部12は、顔検出機能201によってユーザAの顔を検出できなかった場合や、ユーザAによるモニタ画像D13の確認の上で送信拒否の指示を受けた場合等には、登録画像D10を用いて送信画像D12を作成する。登録画像D10は、ユーザAの顔画像を含む。 (6) If the face detection function 201 fails to detect the face of the user A, or if the user A confirms the monitor image D13 and receives a transmission refusal instruction, the photographing processing unit 12 , a transmission image D12 is created using the registration image D10. Registered image D10 includes user A's face image.

撮影処理部12は、所定の時間間隔の撮影画像毎に、同様に上記処理を繰り返す。その際、ある時点の画像からユーザAの顔を捉えきれない場合等には、過去最後に検出済みの画像、または登録画像D10の顔画像を用いて、代替の送信画像D12を作成してもよい。 The photographing processing unit 12 similarly repeats the above processing for each photographed image at a predetermined time interval. At that time, if the face of user A cannot be completely captured from the image at a certain point in time, an alternative transmission image D12 may be created using the last detected image in the past or the face image of the registered image D10. good.

[(6)処理フロー]
図6は、携帯情報端末1におけるテレビ電話機能100の処理フローを示す。図6のフローは、ステップS1~S13を有する。以下、ステップの順に説明する。
[(6) Processing flow]
FIG. 6 shows a processing flow of the videophone function 100 in the portable information terminal 1. As shown in FIG. The flow of FIG. 6 has steps S1 to S13. The steps will be described below.

(S1) まず、S1で、ユーザAがテレビ電話を行う際(自分から相手に発信する場合または相手から自分に着信した場合)、携帯情報端末1のコントローラ10(テレビ電話機能100)は、自機の制御状態を、テレビ電話モードに移行する。詳しくは、例えば、ユーザAは、相手(ユーザB)とテレビ電話したい場合に、相手の電話番号へ発信する。これに伴い、テレビ電話アプリプログラム16b(テレビ電話処理実行部15b)が起動される。コントローラ10は、テレビ電話モードで、インカメラC1の撮影、マイク17の音声入力、スピーカ18の音声出力、表示部21の表示、各種通信等を、同時並行的に制御する。 (S1) First, in S1, when user A makes a videophone call (when he or she makes a call to the other party or when the other party receives an incoming call), the controller 10 (videophone function 100) of the mobile information terminal 1 automatically The control state of the machine is shifted to videophone mode. Specifically, for example, when user A wants to make a videophone call with a partner (user B), he calls the other party's telephone number. Along with this, the videophone application program 16b (videophone processing execution unit 15b) is started. In the videophone mode, the controller 10 concurrently controls the photographing of the in-camera C1, the voice input of the microphone 17, the voice output of the speaker 18, the display of the display unit 21, various communications, and the like.

また、携帯情報端末1は、ユーザAによる、音声電話(非テレビ電話)またはテレビ電話の選択の操作に応じて、テレビ電話モードに移行する。例えば、携帯情報端末1は、表示画面DPに音声電話かテレビ電話かの選択ボタンを表示し、選択操作に応じて、対応するモードへ移行させる。また、携帯情報端末1は、テレビ電話モードではインカメラC1を用いるので、カメラ部11のカメラモードを、インカメラC1を用いるモードにする。 In addition, the mobile information terminal 1 shifts to the videophone mode in response to the user A's operation of selecting a voice call (non-videophone) or a videophone. For example, the portable information terminal 1 displays a selection button for voice call or videophone on the display screen DP, and shifts to the corresponding mode according to the selection operation. Moreover, since the portable information terminal 1 uses the in-camera C1 in the videophone mode, the camera mode of the camera section 11 is set to the mode using the in-camera C1.

さらに、実施の形態1では、テレビ電話モードの詳細として、通常モード(非ハンズフリーモード)とハンズフリーモードとの2種類を設けている。通常モード(非ハンズフリーモード)は、図19のような状態に対応する第1モードである。ハンズフリーモードは、図2のような状態に対応する第2モードである。携帯情報端末1は、ユーザAによる所定の指示操作、あるいはセンサ類30を用いた自動的な端末状態把握に応じて、それらのモードから選択する。例えば、携帯情報端末1は、表示画面DPに、通常モードとハンズフリーモードとの選択ボタンを表示し、選択操作に応じて、対応するモードへ移行させてもよい。あるいは、携帯情報端末1は、加速度センサ31等の検出情報から、ユーザAが筐体を手持ちしているか、水平面s0上に平らに置いているか等の状態を把握し、その状態に応じて自動的にモードを決定してもよい。 Furthermore, in Embodiment 1, as details of the videophone mode, two types of a normal mode (non-hands-free mode) and a hands-free mode are provided. The normal mode (non-hands-free mode) is the first mode corresponding to the state shown in FIG. Hands-free mode is the second mode corresponding to the state shown in FIG. The portable information terminal 1 selects one of these modes in accordance with a predetermined instruction operation by the user A or automatic terminal state grasping using the sensors 30 . For example, the mobile information terminal 1 may display selection buttons for the normal mode and the hands-free mode on the display screen DP, and shift to the corresponding mode according to the selection operation. Alternatively, the mobile information terminal 1 can grasp the state such as whether the user A is holding the housing by hand or laying it flat on the horizontal plane s0 from the detection information of the acceleration sensor 31, etc., and automatically mode may be determined explicitly.

本例では、ユーザAは、図2のようなハンズフリー状態(対応するハンズフリーモード)でのテレビ電話を行う。ユーザAは、携帯情報端末1の筐体を図2のような状態にし、携帯情報端末1はハンズフリーモードを選択する。なお、他の実施の形態では、上記2種類のモードを区別しなくてもよい。 In this example, user A makes a videophone call in a hands-free state (corresponding hands-free mode) as shown in FIG. User A puts the housing of portable information terminal 1 in the state shown in FIG. 2, and portable information terminal 1 selects the hands-free mode. It should be noted that in other embodiments, it is not necessary to distinguish between the two types of modes.

(S2) 携帯情報端末1は、端末状態把握と共に、テレビ電話モードではカメラ部11を、インカメラC1を使用するモード(インカメラモード)にして、撮影を開始させる。撮影処理部12は、インカメラC1からの動画を入力する。 (S2) The mobile information terminal 1 recognizes the terminal state, sets the camera section 11 to a mode (in-camera mode) in which the in-camera C1 is used in the videophone mode, and starts photographing. The shooting processing unit 12 inputs a moving image from the in-camera C1.

(S3) 携帯情報端末1の撮影処理部12は、インカメラC1の広角画像から、顔検出機能201によって、ユーザAの顔を含む領域(例えば図9の領域B1)を検出する。 (S3) The photographing processing unit 12 of the mobile information terminal 1 uses the face detection function 201 to detect an area including the face of the user A (for example, area B1 in FIG. 9) from the wide-angle image captured by the in-camera C1.

(S4) 撮影処理部12は、S3で検出した領域に対し、トリミング機能202によって、顔を含む所定の領域をトリミング領域(例えば図10のトリミング領域TRM1)としてトリミングし、トリミング画像(例えば図12の画像GT1)を得る。 (S4) The photographing processing unit 12 uses the trimming function 202 to trim a predetermined region including the face from the region detected in S3 as a trimming region (for example, trimming region TRM1 in FIG. 10), and produces a trimmed image (for example, FIG. 12 image GT1) is obtained.

(S5) 撮影処理部12は、S4で得たトリミング画像に対し、歪補正機能203によって、歪補正処理(正像変換処理203A)を施す。また、歪補正機能203では、前述の台形補正処理203Bや収差補正処理203Cを行う。これにより、補正後画像D11(例えば図12の画像GP1)が得られる。 (S5) The photographing processing unit 12 uses the distortion correction function 203 to apply distortion correction processing (normal image conversion processing 203A) to the trimmed image obtained in S4. Further, the distortion correction function 203 performs the above-described trapezoidal correction processing 203B and aberration correction processing 203C. As a result, a corrected image D11 (for example, the image GP1 in FIG. 12) is obtained.

(S6) 撮影処理部12(またはコントローラ10)は、S5による補正後画像D11を用いて、送信画像D12およびモニタ画像D13(例えば図12の画像GP11,GP12)を作成する。 (S6) The photographing processing unit 12 (or the controller 10) creates a transmission image D12 and a monitor image D13 (for example, images GP11 and GP12 in FIG. 12) using the corrected image D11 obtained in S5.

(S7) コントローラ10は、相手(ユーザB)の携帯情報端末2から受信した画像を表示画面DP内の領域(図7の領域R1)に表示する。また、コントローラ10は、ユーザAのモニタ画像D13を、表示画面DP内の領域(図7の領域R2)に表示する。 (S7) The controller 10 displays the image received from the portable information terminal 2 of the other party (user B) in the area (area R1 in FIG. 7) within the display screen DP. Further, the controller 10 displays the monitor image D13 of the user A in the area (area R2 in FIG. 7) within the display screen DP.

(S8) コントローラ10は、ユーザAに対し、モニタ画像D13の顔の状態で対応する送信画像D12としてもよいかどうかを確認する(送信確認と記載する場合がある)。例えば、表示画面DP内に送信確認情報(例えば「画像を送信してもいいですか?」)や操作ボタン(例えば送信許可ボタン、送信拒否ボタン)が表示されてもよい。ユーザAは、モニタ画像D13等を見て、その画像内容で送信してもよいかを判断する。例えば、ユーザAは、表示画面DP内の送信許可ボタンまたは送信拒否ボタンを押す。S8で送信許可の場合(Y)にはS10へ進み、送信拒否の場合(N)にはS9へ進む。ユーザAは、モニタ画像D13を見て、例えば目等の状態に違和感がある場合には、送信拒否を選択できる。 (S8) The controller 10 confirms with the user A whether or not the state of the face of the monitor image D13 may be used as the corresponding transmission image D12 (sometimes referred to as transmission confirmation). For example, the display screen DP may display transmission confirmation information (for example, "Can I send the image?") and operation buttons (for example, a transmission permission button and a transmission refusal button). User A looks at the monitor image D13 or the like and determines whether or not the content of the image may be transmitted. For example, user A presses a transmission permission button or transmission refusal button on the display screen DP. If the transmission is permitted in S8 (Y), the process proceeds to S10, and if the transmission is rejected (N), the process proceeds to S9. When the user A looks at the monitor image D13 and feels uncomfortable with the condition of his/her eyes, for example, he/she can select to reject the transmission.

(S9) コントローラ10は、登録画像D10を用いて代替の送信画像D12を作成する。また、その際、コントローラ10は、ユーザAに対し、表示画面DPで、登録画像D10を用いて代替の送信画像D12としてもよいかどうかを確認してもよい。例えば、図7のモニタ画像表示用の領域R2に、登録画像D10の顔画像が表示され、確認情報や操作ボタンが表示される。 (S9) The controller 10 creates a substitute transmission image D12 using the registered image D10. Further, at that time, the controller 10 may confirm with the user A on the display screen DP whether or not the registered image D10 may be used as the alternative transmission image D12. For example, in the monitor image display area R2 in FIG. 7, the face image of the registered image D10 is displayed, and confirmation information and operation buttons are displayed.

(S10) コントローラ10は、送信画像D12等を含むテレビ電話用の形式のデータを、通信部を介して、相手の携帯情報端末2に送信する。 (S10) The controller 10 transmits the videophone format data including the transmission image D12 and the like to the mobile information terminal 2 of the other party via the communication unit.

(S11) コントローラ10は、ユーザAとユーザBとのテレビ電話の通話(音声の入力や出力、画像表示等を含む)を処理する。なお、通話者の音声データについては、通常の電話の場合と同様に、画像とは別に常時に送受信されるようにしてもよい。 (S11) The controller 10 processes videophone calls between users A and B (including voice input and output, image display, etc.). Note that the voice data of the caller may be constantly transmitted and received separately from the image, as in the case of a normal telephone call.

(S12) コントローラ10は、テレビ電話が終了かどうかを確認する。例えば、ユーザAは、テレビ電話を終了する場合、終了ボタンを押す。あるいは、携帯情報端末1は、相手の携帯情報端末2から、終了の旨の情報を受信する。テレビ電話の終了の場合(Y)にはS13へ進み、継続の場合(N)にはS2へ戻る。S2からは同様にループで時点毎の処理が繰り返される。なお、ループによって自動的にユーザAの顔が追尾される。ループ中の各処理では、同じ処理をなるべく繰り返さないように、処理が効率化されている。例えば、S3の顔検出処理では、ある時点で一旦検出した顔領域について、その後の時点での動き検出等よって、自動的に顔が追尾される。 (S12) The controller 10 confirms whether the videophone call has ended. For example, user A presses the end button when ending the videophone call. Alternatively, mobile information terminal 1 receives information indicating the end of communication from mobile information terminal 2 of the other party. If the videophone call is terminated (Y), the process proceeds to S13, and if continued (N), the process returns to S2. From S2, the processing for each time point is similarly repeated in a loop. User A's face is automatically tracked by the loop. Each process in the loop is streamlined so that the same process is not repeated as much as possible. For example, in the face detection process of S3, the face area once detected at a certain time is automatically tracked by motion detection or the like at a later time.

(S13) コントローラ10は、テレビ電話モードの終了処理を行い、テレビ電話アプリの起動(実行)を終了する。終了処理には、テレビ電話に係わる設定(例えばリトライ回数)のリセットや、画像データ消去等が含まれる。 (S13) The controller 10 performs videophone mode termination processing, and terminates activation (execution) of the videophone application. The end processing includes resetting settings (for example, the number of retries) related to the videophone, erasing image data, and the like.

上記処理フローの補足や変形例として以下である。上記処理フローでは、基本的に、インカメラC1の動画の各画像についてループで同様に処理が行われる。S8のモニタ画像D13を用いた送信確認については、例えばテレビ電話の開始の際に、すなわち動画の最初の期間の画像を用いて、1回行われる。その送信確認で送信許可とされた場合、その後のテレビ電話中では、各時点で作成された送信画像D12が自動的に送信される。これに限らず、送信確認は、テレビ電話中に定期的なタイミングで行われるものとしてもよいし、所定のユーザ操作に応じて行われるものとしてもよいし、全く行わないようにしてもよい。テレビ電話アプリのユーザ設定機能において、上記送信確認についての有無やタイミング等に関する設定が可能である。送信確認を行わない設定とした場合、S6のモニタ画像D13の作成、S7のモニタ画像D13の表示、S8の送信確認等が省略でき、携帯情報端末1は、自動的に送信許可として送信画像D12を送信する。 Supplements and modifications of the above processing flow are as follows. In the above processing flow, basically, each image of the moving image of the in-camera C1 is similarly processed in a loop. The transmission confirmation using the monitor image D13 in S8 is performed once, for example, at the start of the videophone call, that is, using the image of the first period of the moving image. If the transmission is confirmed to be permitted, the transmission image D12 created at each point in time is automatically transmitted during the subsequent videophone call. Not limited to this, the confirmation of transmission may be performed at regular intervals during the videophone call, may be performed in response to a predetermined user operation, or may not be performed at all. In the user setting function of the videophone application, it is possible to set whether or not to confirm transmission, timing, and the like. If the transmission confirmation is not set, the creation of the monitor image D13 in S6, the display of the monitor image D13 in S7, the transmission confirmation in S8, etc. can be omitted. to send.

また、テレビ電話の最初に送信確認で送信許可された場合に、その後、テレビ電話の終了まで、または次の送信確認まで、最初に作成した送信画像D12と同じものを使用し続けるようにしてもよい。 Also, if the transmission is permitted by the transmission confirmation at the beginning of the videophone call, the same image as the transmission image D12 created first may continue to be used until the end of the videophone call or until the next transmission confirmation. good.

S3の顔検出処理では、例えばある時点の広角画像から顔領域を検出できなかった場合に、予め設定されたリトライ回数に従って、別の時点の画像を用いて、顔検出処理をリトライしてもよい。また、顔領域が検出できない場合や追尾できない場合には、過去最後に検出済みの顔画像、または登録画像D10を、代替として用いてもよい。また、携帯情報端末1は、ユーザAに対し、表示画面DP内に、顔が検出できない旨等を表示し、代わりに登録画像D10を用いて送信画像D12とするか確認を行って対応してもよい。 In the face detection process of S3, for example, when a face area cannot be detected from a wide-angle image at a certain point in time, the face detection process may be retried using an image at another point in time according to a preset number of retries. . If the face region cannot be detected or tracked, the last detected face image or the registered image D10 may be used as an alternative. In addition, the mobile information terminal 1 displays to the user A on the display screen DP that the face cannot be detected, etc., and confirms whether or not the registered image D10 is used as the transmission image D12 instead. good too.

また、S8の送信確認でユーザAが送信拒否の指示操作をした場合、携帯情報端末1は、すぐにS9の登録画像の利用を行ってもよいが、これに限らず、例えば、S5またはS3等のステップに戻り、所定のリトライ回数までで、処理をリトライするようにしてもよい。リトライ回数等の設定は、テレビ電話アプリのデフォルト設定としてもよいし、ユーザ設定で変更可能としてもよい。ユーザのニーズおよび操作に応じて、テレビ電話アプリのユーザ設定機能を用いて、送信確認や、登録画像を用いた送信画像の作成等を含む、各種の機能について、利用有無や動作詳細を設定可能である。ユーザ設定に応じて、テレビ電話の最初から最後まで全て、リアルタイムのカメラ画像を用いることも、登録画像D10のみを用いることも、可能である。 In addition, when the user A instructs to reject the transmission in the transmission confirmation of S8, the mobile information terminal 1 may immediately use the registered image of S9. The process may be retried up to a predetermined number of retries by returning to steps such as the above. Settings such as the number of retries may be set as the default settings of the videophone application, or may be changed by user settings. Depending on the user's needs and operations, it is possible to use the user setting function of the videophone application to set whether or not to use various functions, including confirmation of transmission and creation of transmission images using registered images, and operation details. is. Depending on user settings, it is possible to use real-time camera images or only registered images D10 throughout the video call.

[(7)携帯情報端末-表示画面]
図7は、テレビ電話の際の、携帯情報端末1の前面s1を平面視したX-Y面での表示画面DP等の構成を示す。携帯情報端末1の平板状の筐体の主面(前面s1、背面s2)のうち、表示画面DPを持つ前面s1側に、広角レンズ部を含むインカメラC1を備えている。前面s1の縦長の長方形領域において、主な表示画面DPの領域の外側の額縁領域のうち上辺部の例えば中央位置(点PC1)に、インカメラC1が設けられている。
[(7) Personal digital assistant - display screen]
FIG. 7 shows the configuration of the display screen DP and the like on the XY plane when the front surface s1 of the portable information terminal 1 is viewed in plan during a videophone call. Of the main surfaces (front surface s1, rear surface s2) of the flat plate-shaped housing of the portable information terminal 1, the front surface s1 side having the display screen DP is provided with an in-camera C1 including a wide-angle lens portion. In the vertically long rectangular area of the front surface s1, the in-camera C1 is provided at, for example, the central position (point PC1) of the upper side of the frame area outside the area of the main display screen DP.

テレビ電話アプリの制御およびユーザBの携帯情報端末2から受信した画像データに基づいて、携帯情報端末1の表示画面DP内の領域R1には、通話相手(ユーザB)の顔を含む画像(相手画像)g1が表示される。 Based on the control of the videophone application and the image data received from the portable information terminal 2 of user B, an image (partner Image) g1 is displayed.

表示画面DP内の領域R1の画像g1の表示と共に、一部の所定の領域R2には、インカメラC1の画像に基づいて作成された、ユーザAの顔を含むモニタ画像g2が表示される。このモニタ画像g2は、テレビ電話の際にユーザAが相手へ送信する自己の画像の状態を確認できるように設けられている。このモニタ画像g2を表示する機能は、必須ではないが、表示する場合には、より使い勝手を高くできる。ユーザAは、このモニタ画像g2を見ることで、自分の顔等の状態を確認でき、必要に応じて、このモニタ画像g2に対応する内容の送信画像D12の送信を拒否することもできる。 Along with the display of the image g1 in the area R1 within the display screen DP, a monitor image g2 including the face of the user A, which is created based on the image of the in-camera C1, is displayed in a predetermined partial area R2. This monitor image g2 is provided so that the user A can check the state of his/her own image to be transmitted to the other party during the videophone call. The function of displaying the monitor image g2 is not essential, but if it is displayed, the usability can be enhanced. User A can check the state of his/her own face, etc. by looking at this monitor image g2, and can refuse transmission of the transmission image D12 corresponding to this monitor image g2, if necessary.

図7の(A)の表示例では、表示画面DP内で、殆ど全体に対応する主な領域R1に相手の画像g1が表示され、領域R1のうち、インカメラC1に近い例えば右上角隅の位置に、重畳する領域R2を設け、その領域R2にモニタ画像g2を表示している。 In the display example of FIG. 7A, the other party's image g1 is displayed in the main area R1 corresponding to almost the entire display screen DP, and in the area R1, for example, the upper right corner near the in-camera C1 is displayed. A superimposed area R2 is provided at the position, and the monitor image g2 is displayed in the area R2.

図7の(B)の別の表示例では、表示画面DA内で、相手の画像g1を表示する主な領域R1は、インカメラC1に近い上側寄りの位置に配置されており、領域R1の下側に、分けられた領域R2を設け、その領域R2にモニタ画像g2を表示している。これらに限らず、各種の表示の仕方が可能であり、ユーザ設定機能によって変更可能である。 In another display example of FIG. 7B, the main area R1 in which the image g1 of the other party is displayed in the display screen DA is arranged at a position closer to the in-camera C1 and closer to the upper side of the area R1. A divided area R2 is provided on the lower side, and the monitor image g2 is displayed in the area R2. Various display methods are possible without being limited to these, and can be changed by the user setting function.

また、図7の表示例では、領域R2のモニタ画像g2は、領域R1の相手の画像g1よりも小さいサイズとしている。これに限らず、領域R2のモニタ画像g2のサイズについても設定変更可能である。また、表示画面DPに対するタッチ操作に応じて、モニタ画像g2のみを拡大表示すること等も可能である。 In addition, in the display example of FIG. 7, the monitor image g2 in the area R2 is smaller in size than the other party's image g1 in the area R1. The size of the monitor image g2 in the area R2 can also be changed. It is also possible to enlarge and display only the monitor image g2 according to a touch operation on the display screen DP.

[(8)画像例、処理例]
図8~図12は、携帯情報端末1のインカメラC1の広角画像に基づいた、顔検出、トリミング、および歪補正についての画像例や処理例を示す。
[(8) Image example, processing example]
8 to 12 show image examples and processing examples for face detection, trimming, and distortion correction based on the wide-angle image of the in-camera C1 of the portable information terminal 1. FIG.

(1) まず、図8は、比較説明用に、通常カメラC2でユーザAの顔を正面から撮影した場合の画像(通常画像)の例を示している。この通常画像は、正方形のサイズとした場合を示す。ユーザAの顔または頭における中心点または代表点を点P1とする。両目の中間点等を点P1としてもよい。概略的に、顔領域A1、頭領域A2、領域A3を示す。顔領域A1は、顔(目、鼻、口、耳、肌等を含む)を含むようにとった領域である。頭領域A2は、顔領域A1よりも広く、頭(髪等を含む)を含むようにとった領域である。領域A3は、顔領域A1や頭領域A2よりも広く、顔または頭の外側の周辺領域もある程度の大きさで含むようにとった領域である。領域A3は、例えば点P1からの所定の距離までの領域としてもよいし、領域A3内の顔領域A1等の比率に応じてとった領域としてもよい。各領域の形状は、矩形に限らず、楕円等でもよい。なお、図2のようにカメラから斜め上を見上げる方向の位置関係で撮影された画像の場合、実際の画像内容は、図15の(B)のように、やや台形状の画像内容になる。 (1) First, for comparative explanation, FIG. 8 shows an example of an image (normal image) when the user A's face is photographed from the front by the normal camera C2. This normal image shows a case of a square size. A central point or a representative point on the face or head of user A is defined as point P1. The point P1 may be the middle point between both eyes. Schematically, a face area A1, a head area A2 and an area A3 are shown. The face area A1 is an area that includes a face (including eyes, nose, mouth, ears, skin, etc.). The head area A2 is wider than the face area A1 and is an area that includes the head (including hair and the like). The area A3 is wider than the face area A1 and the head area A2, and is an area that includes a peripheral area outside the face or head to some extent. The area A3 may be, for example, an area up to a predetermined distance from the point P1, or may be an area taken according to the ratio of the face area A1 or the like in the area A3. The shape of each region is not limited to a rectangle, and may be an ellipse or the like. In the case of an image captured in a positional relationship in which the camera is viewed obliquely upward as shown in FIG. 2, the actual image content is slightly trapezoidal as shown in FIG. 15B.

(2) 図9は、インカメラC1で撮像した広角画像G1の概要と顔領域検出について模式的に示す。この広角画像G1は、円領域を有する。点PG1は、広角画像G1の中心点を示し、光軸の方向J2に対応する。広角画像G1内の位置座標を(x,y)で示す。破線枠で示す領域(顔領域)B1は、概略的に顔領域A1に対応する矩形の領域を示す。同様に、領域(頭領域)B2は、頭領域A2に対応する矩形の領域、領域B3は、領域A3に対応する矩形の領域を示す。領域B4は、さらに、領域B3よりも大きく、処理用に十分に大きな矩形の領域をとる場合を示す。各領域は矩形で示しているが、これに限らず、広角画像の座標系に合わせた形状としてもよい。 (2) FIG. 9 schematically shows an overview of a wide-angle image G1 captured by the in-camera C1 and face area detection. This wide-angle image G1 has a circular area. A point PG1 indicates the center point of the wide-angle image G1 and corresponds to the direction J2 of the optical axis. Position coordinates in the wide-angle image G1 are indicated by (x, y). A region (face region) B1 indicated by a dashed frame schematically indicates a rectangular region corresponding to the face region A1. Similarly, an area (head area) B2 indicates a rectangular area corresponding to the head area A2, and an area B3 indicates a rectangular area corresponding to the area A3. Region B4 is also larger than region B3 and illustrates the case of taking a sufficiently large rectangular region for processing. Each region is shown as a rectangle, but the shape is not limited to this, and may be a shape that matches the coordinate system of the wide-angle image.

図9の広角画像G1では、図2のような位置関係に基づいて、広角画像G1内の一部の領域、特に中央の点PG1から下側の位置(点P1)の付近の領域に、ユーザAの顔等が写っている。このように、インカメラC1の広角レンズを通じて撮像した広角画像G1内の顔を含む全体には、広角レンズに依存する歪が生じている。広角画像G1内では、中央(点PG1)に比べて外周の位置ほど歪が大きくなる場合がある。 In the wide-angle image G1 of FIG. 9, based on the positional relationship shown in FIG. 2, the user's The face of A is shown. Thus, the wide-angle lens-dependent distortion occurs in the entire wide-angle image G1 captured through the wide-angle lens of the in-camera C1, including the face. Within the wide-angle image G1, distortion may be greater at the outer peripheral position than at the center (point PG1).

顔検出機能201では、広角画像G1内から、顔を含む領域を検出する。顔検出機能201では、例えば顔領域B1または頭領域B2を検出する。 The face detection function 201 detects an area including a face from within the wide-angle image G1. The face detection function 201 detects, for example, the face area B1 or the head area B2.

(3) 図10は、図9の広角画像G1について、後述の図13、図14の原画像の(x,y)平面での状態を重ねて示している。トリミング機能202では、広角画像G1から、顔領域B1や領域B3等に対応するトリミング領域を設定して、トリミング画像を得る。図10の例では、広角画像G1から、領域B3に対応する、原画像の(x,y)平面の座標系に対応する盾形状の領域を、トリミング領域TRM1(破線枠)として設定している。このトリミング領域TRM1の盾形状は、例えばy方向で中央から外周になるにつれてx方向の幅が小さくなる形状である。 (3) FIG. 10 shows the wide-angle image G1 of FIG. 9 superimposed on the (x, y) plane of the original images of FIGS. 13 and 14 to be described later. The trimming function 202 sets trimming regions corresponding to the face region B1, region B3, etc. from the wide-angle image G1 to obtain a trimming image. In the example of FIG. 10, from the wide-angle image G1, a shield-shaped region corresponding to the coordinate system of the (x, y) plane of the original image, which corresponds to the region B3, is set as the trimming region TRM1 (broken line frame). . The shield shape of the trimming region TRM1 is, for example, a shape in which the width in the x direction decreases from the center to the outer periphery in the y direction.

(4) また、図11は、比較説明用に、図9の広角画像G1から、矩形(直角四角形)のトリミング領域としてトリミングする場合のトリミング画像の例を示す。領域111は、頭とその周辺とを含む矩形の領域を示す。領域112は、処理用に領域111よりも大きくとる場合の矩形の領域の例を示す。領域111において、概略的に、顔領域等の横幅H1と、全体の横幅H2とを示す。領域111のサイズの決定に関しては、顔領域等の横幅H1に対し、所定の比率(H1/H2)となるように、全体の幅H2が設定される。例えば、H1/H2=1/2、あるいは2/3等とされる。この比率はユーザ設定可能である。あるいは、領域111,112のサイズに関しては、顔領域の中心の点P1から、横方向や縦方向に所定の距離K1,K2等をとることで決定してもよい。 (4) Also, FIG. 11 shows an example of a trimmed image in the case of trimming the wide-angle image G1 of FIG. 9 as a rectangular (right-angled quadrilateral) trimming area for comparative explanation. A region 111 indicates a rectangular region including the head and its surroundings. Region 112 shows an example of a rectangular region that is larger than region 111 for processing. In an area 111, the horizontal width H1 of the face area, etc., and the overall horizontal width H2 are schematically shown. Regarding the determination of the size of the area 111, the overall width H2 is set so as to have a predetermined ratio (H1/H2) to the horizontal width H1 of the face area or the like. For example, H1/H2=1/2 or 2/3. This ratio is user configurable. Alternatively, the sizes of the areas 111 and 112 may be determined by taking predetermined distances K1 and K2 in the horizontal and vertical directions from the center point P1 of the face area.

(5) 図12は、トリミング画像と歪補正の例について示す。図12の(A)は、図10のトリミング領域TRM1に対応するトリミング画像GT1を示す。また、トリミング領域TRM2およびトリミング画像GT2は、処理用にトリミング領域TRM1およびトリミング画像GT1よりも大きくとった場合の例を示す。原画像の(x,y)平面上において、ユーザAの顔の周辺を含むサイズ(例えば上半身を含むサイズ)のトリミング領域TRM1とされている。 (5) FIG. 12 shows an example of a trimming image and distortion correction. (A) of FIG. 12 shows a trimming image GT1 corresponding to the trimming region TRM1 of FIG. Also, an example in which the trimming region TRM2 and the trimming image GT2 are larger than the trimming region TRM1 and the trimming image GT1 for processing is shown. On the (x, y) plane of the original image, the trimming area TRM1 has a size that includes the periphery of the user A's face (for example, a size that includes the upper half of the body).

図12の(B)は、(A)のトリミング画像GT1に対する歪補正の結果の画像である平面化画像GP1を示す。歪補正機能203では、トリミング画像GT1に対し、正像変換処理203A(図14)を行う。この結果、ほぼ歪が無い平面化画像GP1が得られる。平面化画像GP1は、矩形(直角四角形)の平面PL1を持つ。また、平面PL2は、トリミング画像GT2の場合に同様に得られる平面化画像の平面を示す。また、特に、画像GP11や画像GP12は、平面化画像GP1のうち一部の領域を抽出する場合の例を示す。画像GP11は顔領域に対応し、画像GP12は頭領域とその周辺とを含む領域に対応する。 (B) of FIG. 12 shows a flattened image GP1 that is an image resulting from distortion correction on the trimmed image GT1 of (A). The distortion correction function 203 performs normal image conversion processing 203A (FIG. 14) on the trimming image GT1. As a result, a planarized image GP1 with almost no distortion is obtained. The planarized image GP1 has a rectangular (rectangular) plane PL1. A plane PL2 indicates a plane of a flattened image obtained in the same manner as in the case of the trimmed image GT2. In particular, the image GP11 and the image GP12 show an example of extracting a part of the planarized image GP1. Image GP11 corresponds to the face region, and image GP12 corresponds to the region including the head region and its periphery.

撮影処理部12は、平面化画像GP1を補正後画像D11として取得する。さらに、撮影処理部12は、この平面化画像GP1から、一部の画像GP11等を抽出し、適宜に加工することで、モニタ画像D13を作成してもよい。 The imaging processing unit 12 acquires the flattened image GP1 as the post-correction image D11. Furthermore, the imaging processing unit 12 may extract a part of the image GP11 and the like from the flattened image GP1 and process it appropriately to create the monitor image D13.

撮影処理部12は、歪補正機能203を用いて、広角画像G1(原画像)の状態から、歪の無い状態になるように正像変換処理203Aを行う。ここで、原画像の円形の全領域に対して正像変換処理203Aの計算を施す場合、計算量が大きくなることが懸念される。そのため、実施の形態1では、上記のように、処理例として、撮影処理部12は、広角画像G1(原画像)のうちの一部の領域をトリミングした画像に対して限定的に正像変換処理203A等の計算を施している。 The imaging processing unit 12 uses the distortion correction function 203 to perform a normal image conversion process 203A from the state of the wide-angle image G1 (original image) to a state without distortion. Here, when performing the calculation of the normal image conversion processing 203A on the entire circular area of the original image, there is concern that the amount of calculation will increase. Therefore, in the first embodiment, as an example of processing, as described above, the photographing processing unit 12 performs limited normal image conversion on an image obtained by trimming a part of the wide-angle image G1 (original image). Calculations such as processing 203A are performed.

[(9)歪補正]
図13および図14を用いて、インカメラC1で撮影された歪を持つ広角画像を、歪が無い平面化画像に補正する歪補正方法について説明する。
[(9) Distortion correction]
A distortion correction method for correcting a distorted wide-angle image captured by the in-camera C1 into a distortion-free planarized image will be described with reference to FIGS. 13 and 14. FIG.

図13は、インカメラC1の広角レンズを使用した場合の正像変換のモデルおよび座標系を示す。広角レンズに対応する半球面500、カメラセンサの平面的な撮像面501、平面化画像502等を示す。撮像面501は、原画像の(x,y)平面としても示す。平面化画像502は、対象物体の撮影画像に対応し、(u,v)平面として示す。広角レンズは、画角等によっても半径等が異なるが、球面に近い形状を有し、半球面500として示す。撮像面501は、半球面500の撮影範囲のZ方向の軸に垂直な位置に配置されている。半球面500や撮像面501の原点O、半径R、3次元座標(X,Y,Z)を示す。球面座標系(半球面500)の底面の平面が、カメラセンサ上の撮像面501に相当し、原画像の(x,y)平面として示す。 FIG. 13 shows a model of normal image conversion and a coordinate system when the wide-angle lens of the in-camera C1 is used. A hemispherical surface 500 corresponding to a wide-angle lens, a planar imaging surface 501 of a camera sensor, a planarized image 502, and the like are shown. The imaging plane 501 is also shown as the (x,y) plane of the original image. A planarized image 502 corresponds to a captured image of the target object and is shown as a (u, v) plane. A wide-angle lens has a shape close to a sphere although the radius and the like vary depending on the angle of view and the like, and is shown as a hemispherical surface 500 . The imaging surface 501 is arranged at a position perpendicular to the axis of the imaging range of the hemispherical surface 500 in the Z direction. The origin O, radius R, and three-dimensional coordinates (X, Y, Z) of the hemispherical surface 500 and imaging surface 501 are shown. The bottom plane of the spherical coordinate system (hemispherical surface 500) corresponds to the imaging surface 501 on the camera sensor and is shown as the (x, y) plane of the original image.

携帯情報端末1は、インカメラC1の広角レンズを通じて撮影された広角画像の画角AV1内における、撮影対象物であるユーザAの顔が撮影されている位置や画角AV2について、図13のモデルに基づいて、中心位置からの距離、角度、範囲等が判断できる。よって、撮影処理部12は、図13のモデルに基づいた歪補正処理(図14の正像変換)を行うことにより、歪を持つ顔画像を、歪が解消または低減された平面化画像にすることができる。 The mobile information terminal 1 uses the model of FIG. , the distance, angle, range, etc. from the center position can be determined. Therefore, the photographing processing unit 12 converts the distorted face image into a flattened image in which the distortion is eliminated or reduced by performing distortion correction processing based on the model of FIG. 13 (normal image transformation of FIG. 14). be able to.

前述の図2のように、インカメラC1の広角レンズによる画角AV1は、180度程度と大きい。広角レンズに対応する、球面に近い形状(半球面500)で物体(例えば顔)を撮影、透過した光学像を、撮像面501で示す平面を持つカメラセンサで受像する。すると、そのカメラセンサ上の画像(広角画像)には、図14の左側に示すように、歪を生じる。中央に比べて外周になるほど、カメラセンサ正面角度(Z方向)と撮影画像方向(n方向)との関係(角度βで示す)がきつくなる。 As shown in FIG. 2 described above, the angle of view AV1 of the wide-angle lens of the in-camera C1 is as large as about 180 degrees. An object (for example, a face) is photographed in a nearly spherical shape (hemispherical surface 500 ) corresponding to a wide-angle lens, and a transmitted optical image is received by a camera sensor having a plane indicated by an imaging surface 501 . Then, the image (wide-angle image) on the camera sensor is distorted as shown on the left side of FIG. The relationship (indicated by angle β) between the front angle of the camera sensor (Z direction) and the captured image direction (n direction) becomes tighter toward the outer periphery than toward the center.

図14の左側には、原画像の(x,y)平面における歪を概念的に示す。(x,y)平面では、座標系の単位領域が直角四角形ではない(例:歪量δu,δv)。図14の右側には、平面化画像502として、(u,v)平面を示す。この(u,v)平面が、歪が無い画像として取り出したい画像である。(u,v)平面では、座標系の単位領域が直角四角形(例:Δu,Δv)となっている。 The left side of FIG. 14 conceptually shows the distortion in the (x, y) plane of the original image. In the (x, y) plane, the unit area of the coordinate system is not a rectangular rectangle (eg strain amounts δu, δv). The right side of FIG. 14 shows the (u, v) plane as a flattened image 502 . This (u, v) plane is an image to be extracted as an image without distortion. On the (u, v) plane, the unit area of the coordinate system is a rectangular rectangle (eg Δu, Δv).

広角レンズの焦点距離やレンズ形状に関する諸元は予め分かっている。よって、上記球面の画像(原画像)から平面の画像(平面化画像と記載する)への座標変換が容易に可能である。この座標変換として、図14のような正像変換を適用可能である。この正像変換は、歪を持つ画像を、人の目で見たままの歪を持たない画像に変換するものであり、例えば魚眼レンズ等の歪補正で使用されている。この正像変換を用いて、図14の左側の原画像の(x,y)平面の各点位置の画素を、右側の平面化画像の(u,v)平面の各点位置の画素に変換する。変換の詳細については以下である。 The specifications regarding the focal length and lens shape of the wide-angle lens are known in advance. Therefore, it is possible to easily perform coordinate conversion from the spherical image (original image) to a planar image (referred to as a planarized image). As this coordinate transformation, normal image transformation as shown in FIG. 14 can be applied. This normal image conversion converts an image with distortion into an image without distortion as seen by the human eye, and is used for distortion correction of a fisheye lens, for example. Using this normal image conversion, the pixels at each point position on the (x, y) plane of the original image on the left side of FIG. do. Details of the conversion are below.

図13のように、対象物体の撮影の方向nに関して、方位角をα、天頂角をβ、取り出す平面(平面化画像502)の回転角をφとする。レンズの倍率をmとする。すると、公知の正像変換の式から、下記の式1,式2である。また、その式中のA,B,C,Dは、式3~式6である。
式1: x=R(uA-vB+mRsinβsinα)/√(u+v+m
式2: y=R(uC-vD+mRsinβcosα)/√(u+v+m
式3: A=cosφcosα-sinφsinαcosβ
式4: B=sinφcosα+cosφsinαcosβ
式5: C=cosφsinα+sinφcosαcosβ
式6: D=sinφsinα-cosφcosαcosβ
As shown in FIG. 13, let α be the azimuth angle, β be the zenith angle, and φ be the rotation angle of the extracted plane (planarized image 502) with respect to the shooting direction n of the target object. Let m be the magnification of the lens. Then, the following formulas 1 and 2 are obtained from the known normal image conversion formulas. Also, A, B, C, and D in the formula are formulas 3 to 6.
Formula 1: x=R(uA−vB+mR sinβsinα)/√(u 2 +v 2 +m 2 R 2 )
Equation 2: y=R(uC−vD+mR sinβcosα)/√(u 2 +v 2 +m 2 R 2 )
Equation 3: A = cosφcosα−sinφsinαcosβ
Equation 4: B = sin φ cos α + cos φ sin α cos β
Equation 5: C=cosφsinα+sinφcosαcosβ
Equation 6: D=sinφsinα−cosφcosαcosβ

上記式に従った計算によって、原画像の各画素を、平面化画像の各画素に変換して、歪を解消することができる。原画像の(x,y)平面における各画素位置での歪量δu,δvが、平面化画像の(u,v)平面における正方形の単位領域のように、歪の無い状態(Δu,Δv)にされる。 By calculation according to the above formula, each pixel of the original image can be transformed into each pixel of the flattened image to eliminate the distortion. The amount of distortion δu, δv at each pixel position on the (x, y) plane of the original image is equivalent to a square unit area on the (u, v) plane of the flattened image, where there is no distortion (Δu, Δv) be made.

[(10)台形補正]
図15は、台形補正処理203Bについての画像例等を示す。図15の(A)のように、携帯情報端末1を水平面s0上に平らに置いた状態の場合、ユーザAの顔は、インカメラC1から見て斜め上の方向J3で撮影される。そのため、顔撮影の画像の画角AV2において、顔や頭におけるZ方向下方側の部分(あご等)の方が、Z方向上方側の部分よりも、距離が近い。距離DST1は、インカメラC1の位置PC1と、頭の上方側の部分との距離、距離DST2は、インカメラC1の位置PC1と、頭の下方側の部分との距離の例を示す。DST1>DST2である。
[(10) Keystone correction]
FIG. 15 shows an image example and the like for the trapezoidal correction processing 203B. As shown in FIG. 15A, when the portable information terminal 1 is placed flat on the horizontal plane s0, the face of the user A is photographed in an obliquely upward direction J3 as viewed from the in-camera C1. Therefore, at the angle of view AV2 of the photographed face image, the lower part of the face or head in the Z direction (such as the chin) is closer in distance than the upper part in the Z direction. The distance DST1 is the distance between the position PC1 of the in-camera C1 and the upper part of the head, and the distance DST2 is the distance between the position PC1 of the in-camera C1 and the lower part of the head. DST1>DST2.

このため、撮影画像(広角画像)内では、図15の(B)のように、ユーザAの顔領域等が、台形状の画像内容(台形画像と記載する)となる。台形画像151では、Z方向での上辺が下辺よりも小さい。台形画像151は、正像変換後の、広角画像の歪が無い状態の形状を模式的に示している。台形画像151では、例えば頭頂側が相対的に小さく、あご側が相対的に大きく写っている。 Therefore, in the captured image (wide-angle image), as shown in FIG. 15B, the face area of the user A and the like have trapezoidal image contents (referred to as a trapezoidal image). In the trapezoidal image 151, the upper side in the Z direction is smaller than the lower side. A trapezoidal image 151 schematically shows the shape of the wide-angle image without distortion after conversion to the normal image. In the trapezoidal image 151, for example, the parietal side is relatively small and the chin side is relatively large.

この台形画像を用いて送信画像D12を構成した場合、相手(ユーザB)からその送信画像D12を見ると、やや違和感を感じる可能性がある。そこで、より好適な送信画像D12を作成するために、台形補正処理203Bを用いる。携帯情報端末1は、インカメラC1の位置PC1からユーザAの顔の代表的な位置の点P1を見る場合の仰角(角度θ1)の範囲等の状態を、インカメラC1の画像やセンサ類を用いて判断可能である。撮影処理部12は、その判断した情報に基づいて、台形補正処理203Bを行う。 If the transmission image D12 is configured using this trapezoidal image, the other party (user B) may feel a sense of discomfort when viewing the transmission image D12. Therefore, the keystone correction process 203B is used to create a more suitable transmission image D12. The mobile information terminal 1 uses the image of the in-camera C1 and sensors to determine the range of the elevation angle (angle θ1) when a point P1 at a representative position of the face of the user A is viewed from the position PC1 of the in-camera C1. can be determined using The photographing processing unit 12 performs keystone correction processing 203B based on the determined information.

図15の(C)は、(B)からの台形補正の結果得られた画像152を示す。この画像152は、直角四角形画像であり、上辺と下辺とが同じ長さである。この画像152を用いて送信画像D12を作成することで、相手(ユーザB)からは、ユーザAの顔を正面から見たような画像となる。 FIG. 15C shows an image 152 resulting from trapezoidal correction from (B). This image 152 is a right-angled square image, and the upper side and the lower side have the same length. By creating the transmission image D12 using this image 152, the image appears as if the user A's face is viewed from the front from the perspective of the other party (user B).

[(11)モニタ機能、画像修正機能]
図7のように、実施の形態1の携帯情報端末1では、ユーザA自身の画像についてのモニタ機能も備えている。携帯情報端末1は、表示画面DP内に、送信画像D12に対応させたユーザAのモニタ画像D13を表示して、ユーザAにそのモニタ画像D12の顔の状態で送信画像としてもよいかどうかを確認する。このモニタ機能では、ユーザAは、モニタ画像D13を見て、歪補正後の自己の顔画像について、違和感や気に入らないと感じる場合、そのモニタ画像D13に対応する送信画像D12を、送信拒否することができる。携帯情報端末1は、その送信拒否の指示の操作を受けた場合、そのモニタ画像D13に対応する送信画像D12を送信しない。
[(11) Monitor function, image correction function]
As shown in FIG. 7, the mobile information terminal 1 of the first embodiment also has a function of monitoring user A's own image. The mobile information terminal 1 displays the monitor image D13 of the user A corresponding to the transmission image D12 in the display screen DP, and asks the user A whether or not the face state of the monitor image D12 is acceptable as the transmission image. confirm. With this monitor function, if user A looks at the monitor image D13 and feels that the distortion-corrected face image of the user A is uncomfortable or dislikes it, the user A can refuse to send the transmission image D12 corresponding to the monitor image D13. can be done. When the mobile information terminal 1 receives the operation of the transmission refusal instruction, it does not transmit the transmission image D12 corresponding to the monitor image D13.

また、その場合、携帯情報端末1は、その送信画像D12の代わりに、登録画像D10に基づいた新たな送信画像D12を作成し、元の送信画像D12と交換して、送信するようにしてもよい。携帯情報端末1は、登録画像D10の顔画像をそのまま用いてもよいし、加工して送信画像D12を作成してもよい。登録画像D10は、ユーザAが自己の顔を任意のカメラで撮影した静止画または動画でもよいし、顔以外でも、他の任意の画像(アイコン画像、アニメーション画像等)でもよい。 Further, in that case, the mobile information terminal 1 may create a new transmission image D12 based on the registered image D10 instead of the transmission image D12, replace the original transmission image D12, and transmit the new transmission image D12. good. The mobile information terminal 1 may use the face image of the registration image D10 as it is, or may process it to create the transmission image D12. The registered image D10 may be a still image or moving image of the user A's own face captured by an arbitrary camera, or may be any other image (icon image, animation image, etc.) other than the face.

また、他の機能として、携帯情報端末1は、画像修正機能を備えてもよい。携帯情報端末1は、一旦作成した補正後画像D11(モニタ画像D13、送信画像D12)について、送信拒否の指示を受けた場合に、この機能を用いて、顔画像を修正する。携帯情報端末1は、この際、補正後画像D11に対し、登録画像D10の顔画像に基づいて、修正処理を施して、修正版の顔画像を作成する。例えば、携帯情報端末1は、顔画像内の両目の状態について、目線の向きが正面になるように加工して、修正版の顔画像を作成する。なお、修正版の顔画像についても表示画面DP内に表示してユーザAに送信確認してもよい。 As another function, the mobile information terminal 1 may have an image correction function. The portable information terminal 1 corrects the face image using this function when receiving an instruction to reject transmission of the corrected image D11 (monitor image D13, transmission image D12) once created. At this time, the mobile information terminal 1 applies correction processing to the post-correction image D11 based on the face image of the registered image D10 to create a corrected version of the face image. For example, the portable information terminal 1 processes the state of both eyes in the face image so that the line of sight faces the front, and creates a modified version of the face image. The modified version of the face image may also be displayed on the display screen DP and transmitted to the user A for confirmation.

具体例としては、あるタイミングで撮影したユーザAの顔画像において、目の部分がうまく撮影できていない場合、例えば目線の向きについて正面(方向J3)からのずれが大きい場合がある。その場合に、携帯情報端末1は、その顔画像の目の部分を、登録画像D10の目の部分を用いて、合成や置換するように修正する。これにより、修正後の顔画像では目が正面を向いた状態にする。 As a specific example, in a face image of user A captured at a certain timing, when the eye part is not captured well, for example, there is a case where the direction of the line of sight deviates significantly from the front (direction J3). In that case, the mobile information terminal 1 corrects the eye portion of the face image by combining or replacing it with the eye portion of the registered image D10. As a result, the face image after correction is in a state in which the eyes face the front.

また、携帯情報端末1は、モニタ画像D13の確認の上でユーザAが送信拒否の指示をした場合、その時点の処理結果(補正後画像D11、送信画像D12)を一旦リセットし、異なるタイミングの入力画像に基づいて、送信画像D12の作成をリトライするようにしてもよい。その際のリトライ回数も設定可能である。携帯情報端末1は、所定の回数まででリトライした結果、最終的に十分な画像が得られなかった場合(ユーザAの送信指示が出ない場合)、登録画像D10の顔画像を送信画像D12としてもよい。 Further, when the user A gives an instruction to reject the transmission after confirming the monitor image D13, the mobile information terminal 1 once resets the processing result (the corrected image D11 and the transmission image D12) at that time, and then resets the processing result at a different timing. The generation of the transmission image D12 may be retried based on the input image. The number of retries at that time can also be set. If a sufficient image cannot be finally obtained as a result of retrying up to a predetermined number of times (when user A does not issue a transmission instruction), the mobile information terminal 1 uses the face image of registered image D10 as transmission image D12. good too.

また、携帯情報端末1は、表示画面DP内の領域に対するユーザAのタッチ操作に応じて、送信画像D12とする画像を、リアルタイムに作成した画像とするか、登録画像D12の顔画像とするかを切り替えるようにしてもよい。 In addition, the mobile information terminal 1 determines whether the image to be the transmission image D12 is an image created in real time or the face image of the registered image D12 according to the user A's touch operation on the area within the display screen DP. may be switched.

[(12)登録機能および登録画像]
登録機能および登録画像D10を用いることで、顔検出等の精度を高めることができ、また、各種の付属的な機能も利用可能である。登録画像D1のデータは、メモリ13または外部メモリ16等に格納されている。登録画像D10としてユーザAの顔画像を登録する方法としては以下である。例えば、ユーザAは、テレビ電話アプリのユーザ設定機能のうちの登録機能を操作し、通常カメラC2(または後述の実施の形態2でのインカメラC3)を用いて、自己の顔を正面から撮像し、歪の無い顔画像を、登録画像D10として登録する。なお、インカメラC1および歪補正機能203を用いて登録画像D10を作成してもよいし、別のカメラや外部装置からのデータ読み込みによって登録を行ってもよい。
[(12) Registered function and registered image]
By using the registration function and the registration image D10, the accuracy of face detection and the like can be improved, and various auxiliary functions can also be used. Data of the registered image D1 is stored in the memory 13, the external memory 16, or the like. A method for registering the face image of the user A as the registered image D10 is as follows. For example, user A operates the registration function of the user setting functions of the videophone application, and uses the normal camera C2 (or the in-camera C3 in Embodiment 2, which will be described later) to image his/her own face from the front. Then, a face image without distortion is registered as a registered image D10. Note that the registration image D10 may be created using the in-camera C1 and the distortion correction function 203, or registration may be performed by reading data from another camera or an external device.

登録画像D10は、ユーザAの顔の正面から撮像した顔画像だけではなく、他の色々な方向から顔を撮像した複数の画像を含んでもよい。この場合、携帯情報端末1の顔検出機能201は、ユーザAがテレビ電話の際に顔の向きを変えたり動いたりしている場合でも、その登録画像D10を用いて、その時の顔の状態を検出することができる。携帯情報端末1の画像修正機能は、その顔の状態に合わせて、修正処理が可能である。 The registered image D10 may include not only a face image captured from the front of the face of the user A, but also a plurality of images captured from various other directions. In this case, the face detection function 201 of the portable information terminal 1 detects the state of the face at that time using the registered image D10 even when the user A changes the direction of the face or moves during the videophone call. can be detected. The image correction function of the mobile information terminal 1 can perform correction processing according to the state of the face.

また、ユーザAが表示画面DPでモニタ画像D13を確認して送信拒否し、代わりに登録画像D10を用いる場合に、登録画像D10の複数の顔画像のうちユーザAが選択した顔画像を用いて送信画像D12とすることもできる。 Further, when the user A confirms the monitor image D13 on the display screen DP and refuses to send it, and uses the registered image D10 instead, the face image selected by the user A from among the plurality of face images of the registered image D10 is used. It can also be a transmission image D12.

また、登録画像D10は、あるユーザA一人の顔画像だけではなく、その携帯情報端末1を使用してテレビ電話を行う可能性がある他の複数のユーザについての複数の顔画像を含めてもよい。 In addition, the registered image D10 may include not only a face image of a certain user A, but also a plurality of face images of a plurality of other users who may use the mobile information terminal 1 to make a videophone call. good.

[(13)個人認識機能]
実施の形態1では、撮影処理部12の顔検出機能201は、特に、特定のユーザ個人の顔を認識する機能(個人認識機能201B)も備えている。携帯情報端末1は、広角画像から、不特定の顔領域を検出するだけでなく、特定のユーザ個人の顔を認識してもよい。その場合、携帯情報端末1は、特定のユーザの顔のみを検出して、送信画像D12を作成してもよい。
[(13) Personal recognition function]
In Embodiment 1, the face detection function 201 of the photographing processing unit 12 also includes a function (personal recognition function 201B) for recognizing the face of a particular user. The mobile information terminal 1 may not only detect an unspecified face area from a wide-angle image, but also recognize the face of a specific individual user. In that case, the mobile information terminal 1 may detect only the face of a specific user and create the transmission image D12.

顔検出機能201は、例えば、広角画像から任意の顔領域を検出する。その後、個人認識機能201Bでは、その顔領域を、予め登録画像D10に登録されているユーザAの個人認識用の顔画像と比較照合する。個人認識機能201Bでは、その比較の結果、類似性に基づいて、広角画像内の顔領域が、特定のユーザAの顔に該当するかどうかを判定する。個人認識機能201Bは、個人認識結果情報を出力する。 A face detection function 201 detects an arbitrary face area from, for example, a wide-angle image. After that, the personal recognition function 201B compares and collates the face area with the face image for personal recognition of the user A registered in advance in the registered image D10. As a result of the comparison, the personal recognition function 201B determines whether the face region in the wide-angle image corresponds to the face of the specific user A based on the similarity. The personal recognition function 201B outputs personal recognition result information.

携帯情報端末1は、特定のユーザAの顔である場合にのみ、ハンズフリー状態のテレビ電話機能の制御を適用し、例えば送信画像D12を作成する。広角画像内に複数のユーザの顔が映っている場合に、特定のユーザAの顔のみを対象として送信画像D12を作成することができる。例えば、広角画像内でユーザAの背景にいるだけの通行人の顔については対象として扱わずに済む。なお、変形例としては、個人認識機能201Bを備えなくてもよい。また、撮影処理部12は、歪補正前の画像に対して特定の個人の顔の認識を行うようにしてもよいし、歪補正後の画像に対して特定の個人の顔の認識を行うようにしてもよい。 The portable information terminal 1 applies the control of the videophone function in the hands-free state only when it is the face of the specific user A, and creates, for example, the transmission image D12. When the faces of a plurality of users are shown in the wide-angle image, the transmission image D12 can be created for only the face of a specific user A. For example, the face of a passerby who is only in the background of user A in the wide-angle image need not be treated as an object. As a modification, the individual recognition function 201B may not be provided. Further, the photographing processing unit 12 may perform face recognition of a specific individual on the image before distortion correction, or may perform face recognition of a specific individual on the image after distortion correction. can be

[(14)顔追尾機能]
実施の形態1で、撮影処理部12(特に顔検出機能201)は、インカメラC1の動画(所定のレートの複数の画像)に基づいて、ユーザの顔領域の動きを自動的に追尾する機能(顔追尾機能)も含んでいる。携帯情報端末1は、広角のインカメラC1を用いることで、ユーザ自身が多少移動したとしても、広角画像内であれば、顔検出によって追尾することができる。携帯情報端末1は、常にユーザの顔が画像中心となるように追尾した送信画像D12とすることもできる。
[(14) Face tracking function]
In Embodiment 1, the imaging processing unit 12 (especially the face detection function 201) has a function of automatically tracking the movement of the user's face area based on the moving images (a plurality of images at a predetermined rate) from the in-camera C1. (face tracking function) is also included. By using the wide-angle in-camera C1, the mobile information terminal 1 can track the user by face detection within the wide-angle image, even if the user himself/herself moves a little. The portable information terminal 1 can also make the transmission image D12 tracked such that the user's face is always at the center of the image.

テレビ電話中、ユーザAが同じ位置に静止しているとは限らず、動いている場合がある。撮影処理部12は、動画から、所定の時点毎の広角画像毎に、ユーザAの顔領域を検出する。例えば、顔検出機能201によって一旦ある時点で顔領域を検出した後、その後の時点では、その検出済みの顔領域の付近で探索して、顔領域の動きを判断する。これにより、画像処理量を抑制しつつ、ユーザが動いている場合でも、時間軸上で継続的にユーザAの顔領域を追尾できる。 During the videophone call, the user A is not always stationary at the same position, but may be moving. The imaging processing unit 12 detects the face area of the user A for each wide-angle image at each predetermined point in time from the moving image. For example, after the face detection function 201 once detects a face area at a certain time point, the vicinity of the detected face area is searched at a later time point to determine the movement of the face area. As a result, the face area of user A can be continuously tracked on the time axis even when the user is moving while suppressing the amount of image processing.

また、図2の状態でのテレビ電話の際に、ユーザA(特に顔)は、最初の位置から移動する場合がある。例えば、ユーザAが一時的に最初の位置から離れて、その後に最初の位置に戻る場合がある。その場合でも、撮影処理部12は、顔追尾機能によって、移動する顔領域をできるかぎり追尾する。撮影処理部12は、ユーザAの顔が広角画像内に映っていない状態になった場合、すなわち追尾できない場合、その後の時間では、例えば以下のように対応する。撮影処理部12は、過去最後に検出済みの画像、作成済みの送信画像D12を用いて対応する。または、撮影処理部12は、一時的に登録画像D10の顔画像に切り替えて対応する。撮影処理部12は、ユーザAの顔が再び広角画像内に写った状態になった場合、その顔領域を検出して、その後同様に追尾する。また、撮影処理部11は、ユーザAの顔が任意の物体によって一時的に隠された場合でも、同様に、顔追尾機能によって対応することができる。 Also, during the videophone call in the state of FIG. 2, the user A (especially the face) may move from the initial position. For example, user A may temporarily leave the initial position and then return to the initial position. Even in that case, the photographing processing unit 12 tracks the moving face area as much as possible by the face tracking function. When the face of user A is not captured in the wide-angle image, that is, when it cannot be tracked, the photographing processing unit 12 responds, for example, as follows. The photographing processing unit 12 responds using the last detected image in the past and the created transmission image D12. Alternatively, the photographing processing unit 12 responds by temporarily switching to the face image of the registered image D10. When the face of user A is captured again in the wide-angle image, the photographing processing unit 12 detects the face area and tracks it in the same way. Further, even when the face of user A is temporarily hidden by an arbitrary object, the photographing processing unit 11 can deal with the situation by using the face tracking function.

[(15)他の利用状態、配置状態、およびガイド機能]
図16~図18は、実施の形態1の携帯情報端末1の他の利用状態や配置状態の例を示す。ユーザAがハンズフリー状態のテレビ電話を行う際の、端末の配置状態については、図2の状態に限らず、以下のような状態も可能である。
[(15) Other usage states, placement states, and guide functions]
16 to 18 show examples of other usage states and arrangement states of the portable information terminal 1 of the first embodiment. The arrangement state of the terminals when user A makes a videophone call in the hands-free state is not limited to the state shown in FIG. 2, and the following state is also possible.

図16は、状態の第1例を示す。図16では、水平面s0に対してある程度の角度161で傾いた斜面s5を持つ、台等の任意の物体160がある。ユーザAは、携帯情報端末1の筐体を、その台等の物体160の斜面s5に沿って平らに置く。物体160や角度161は、特に限定されず、筐体が静止する状態となればよい。この状態で、ユーザAは、前方にある筐体の表示画面DPを見る。インカメラC1は、角度161に応じた光軸の方向J2で配置されている。インカメラC1は、方向J3の画角AV2で、ユーザAの顔(点P1)を撮影する。このように、筐体がある程度傾いて配置されていても、図2と同様にハンズフリー状態でのテレビ電話が実現できる。 FIG. 16 shows a first example of states. In FIG. 16 there is an arbitrary object 160, such as a platform, with a slope s5 inclined at some angle 161 with respect to the horizontal plane s0. The user A places the housing of the portable information terminal 1 flat along the slope s5 of the object 160 such as the table. The object 160 and the angle 161 are not particularly limited as long as the housing is stationary. In this state, the user A looks at the display screen DP of the housing in front. The in-camera C<b>1 is arranged in the optical axis direction J<b>2 corresponding to the angle 161 . The in-camera C1 captures the face of the user A (point P1) at the angle of view AV2 in the direction J3. In this way, even if the housing is arranged with a certain degree of inclination, a hands-free videophone can be realized in the same manner as in FIG.

図17は、第2例として、筐体の前面s1のインカメラC1の位置PC1が、ユーザAから見てY方向で手前側の方向Y2の位置になっている。この場合、インカメラC1の顔撮影の方向J3(角度θ3)が、図2の状態とは変わっている。例えば仰角がより大きくなっている。この場合、広角画像内では、ユーザAの顔領域が反転して写っている。撮影処理部12は、その広角画像からその反転の状態を認識できる。撮影処理部12は、適宜に画像反転処理を行い、表示画面DP内には上下を適切な方向にしたモニタ画像D13を表示する。 In FIG. 17, as a second example, the position PC1 of the in-camera C1 on the front surface s1 of the housing is positioned in the direction Y2 on the front side in the Y direction as viewed from the user A. FIG. In this case, the face shooting direction J3 (angle θ3) of the in-camera C1 is different from the state shown in FIG. For example, the elevation angle is larger. In this case, in the wide-angle image, the face area of user A is shown inverted. The photographing processing unit 12 can recognize the reversed state from the wide-angle image. The photographing processing unit 12 appropriately performs image reversal processing, and displays the monitor image D13 in the display screen DP with the top and bottom in an appropriate direction.

図18は、第3例として、筐体の長手方向をX方向(ユーザAからみて左右方向)に沿って配置した場合を示す。この場合、前面s1のインカメラC1の位置PC1が、ユーザAから見てX方向で左右の一方の側(例えば方向X1)の位置になる。撮影処理部12は、適宜に画像回転処理を行い、表示画面DP内には適切な方向にしたモニタ画像D13を表示する。 FIG. 18 shows, as a third example, the case where the longitudinal direction of the housing is arranged along the X direction (horizontal direction as viewed from user A). In this case, the position PC1 of the in-camera C1 on the front surface s1 is positioned on one of the left and right sides (for example, the direction X1) of the user A in the X direction. The photographing processing unit 12 appropriately performs image rotation processing, and displays the monitor image D13 in an appropriate direction within the display screen DP.

実施の形態1では、ユーザに対し特に図2の配置状態を推奨するが、上記各配置状態でも概略同様にテレビ電話機能を実現できる。また、実施の形態1では、水平面s0上の携帯情報端末1の配置状態およびユーザAとの位置関係が、図2、図17、図18等のいずれの状態であっても、インカメラC1によって概略同様に対応可能である。そのため、ユーザAは、テレビ電話の際に、端末の状態や自身の位置を、ある程度自由に変えることもでき、利便性が高い。 In Embodiment 1, the arrangement shown in FIG. 2 is particularly recommended to the user, but the videophone function can be realized in substantially the same manner even in each arrangement described above. Further, in Embodiment 1, regardless of the state of arrangement of the mobile information terminal 1 on the horizontal plane s0 and the positional relationship with the user A in any of the states of FIGS. 2, 17, 18, etc., It can be handled in roughly the same manner. Therefore, user A can freely change the state of the terminal and his/her own position to some extent during the videophone call, which is highly convenient.

また、携帯情報端末1は、筐体の配置状態について、ユーザに対し推奨やガイドを行う機能(ガイド機能)を備えていてもよい。携帯情報端末1は、カメラ画像やセンサ類30を用いて、筐体の配置状態を把握する。携帯情報端末1は、例えば、図2の配置状態を推奨するように、ガイド情報(例:「カメラを奥側にして置くことをおすすめします。」)を、表示画面DPに表示したり、音声出力したりしてもよい。 Further, the portable information terminal 1 may have a function (guide function) of recommending or guiding the user regarding the layout of the housing. The mobile information terminal 1 uses the camera image and the sensors 30 to grasp the arrangement state of the housing. For example, the mobile information terminal 1 displays guide information (e.g., "It is recommended that the camera be placed on the back side") on the display screen DP so as to recommend the placement state shown in FIG. Audio output may be used.

また、携帯情報端末1は、筐体の配置状態が適切ではない場合には、その旨のガイド情報を出力してもよい。例えば、携帯情報端末1は、ある配置状態で、インカメラC1の位置PC1からユーザAの顔(点P1)を撮影する方向J3に関する角度θ3が、所定の角度範囲内ではない場合(仰角が小さすぎる場合または大きすぎる場合)には、配置位置が適切ではない旨のガイド情報を出力してもよい。 In addition, when the arrangement state of the housing is not appropriate, the mobile information terminal 1 may output guide information to that effect. For example, when the mobile information terminal 1 is in a certain arrangement state, the angle θ3 with respect to the direction J3 in which the face (point P1) of the user A is photographed from the position PC1 of the in-camera C1 is not within a predetermined angle range (the elevation angle is small). too large or too large), guide information indicating that the placement position is not appropriate may be output.

また、例えば、携帯情報端末1に対するユーザAの位置関係において、特にインカメラC1から顔を認識できない位置関係となる場合も想定される。その場合、携帯情報端末1は、位置関係(端末位置およびユーザ位置)を適切にするために、ユーザAに対し、ガイド情報を出力してもよい。例えば、携帯情報端末1の位置や配置状態を変更させる旨の情報、またはユーザAの顔の位置を変更させる旨の情報を出力させてもよい。この際、携帯情報端末1は、ユーザAとの位置関係を把握している場合には、どの方向や位置へ変更させるべきかの指示情報を出力してもよい。 Further, for example, in the positional relationship of the user A with respect to the mobile information terminal 1, it is assumed that the face cannot be recognized particularly from the in-camera C1. In that case, the mobile information terminal 1 may output guide information to the user A in order to make the positional relationship (terminal position and user position) appropriate. For example, information to the effect that the position or arrangement state of the portable information terminal 1 is to be changed, or information to the effect that the position of the user A's face is to be changed may be output. At this time, if the mobile information terminal 1 knows the positional relationship with the user A, it may output instruction information indicating to which direction or position the mobile information terminal 1 should be changed.

[(16)比較例-非ハンズフリー状態]
図19は、比較例の携帯情報端末における通常のテレビ電話モード(通常モード)、および、実施の形態1における別のテレビ電話モードとして非ハンズフリー状態の非ハンズフリーモードの場合を示す。この状態、モードでは、ユーザAは、携帯情報端末の筐体を手に持っており、両手が自由ではない。図19の例では、筐体が鉛直上方に立つ状態とされている。筐体の前面のインカメラCXは、通常画角(いわゆる狭角)の通常レンズを持つ通常カメラである。この通常画角は、インカメラC1の画角AV1よりも狭い。インカメラCXの光軸の方向JX2を示し、本例ではY方向で手前側の方向Y2を向いている。インカメラCXの画角AVX1は、例えば45度から135度までの角度範囲である。画角AVX1のうち、顔撮影範囲に対応する画角AVX2を示す。
[(16) Comparative example - non-hands-free state]
FIG. 19 shows a normal videophone mode (normal mode) in the mobile information terminal of the comparative example, and a non-handsfree non-handsfree mode as another videophone mode in the first embodiment. In this state or mode, user A holds the casing of the portable information terminal in his/her hand, and both hands are not free. In the example of FIG. 19, the housing is in a vertically upward position. The in-camera CX on the front of the housing is a normal camera having a normal lens with a normal angle of view (so-called narrow angle). This normal angle of view is narrower than the angle of view AV1 of the in-camera C1. The direction JX2 of the optical axis of the in-camera CX is shown, and in this example, it faces the direction Y2 on the front side in the Y direction. The angle of view AVX1 of the in-camera CX is, for example, an angular range from 45 degrees to 135 degrees. Of the angle of view AVX1, the angle of view AVX2 corresponding to the face photographing range is shown.

また、ユーザAの目線の方向JX1と、インカメラCXの顔撮影の方向JX3と、それらが成す角度差AD2とを示す。このような角度差が大きいほど、画像内でのユーザAの目線の向きが下向きとなる。相手(ユーザB)から見ると、ユーザAの目が正面を向いていない状態となる。 Also shown are a line-of-sight direction JX1 of the user A, a face photographing direction JX3 of the in-camera CX, and an angle difference AD2 formed therebetween. The greater the angular difference, the more the user A's line of sight is directed downward in the image. When viewed from the other party (user B), the user A's eyes are not facing the front.

一方、実施の形態1での図2のハンズフリーモードの場合、角度差AD1は、比較例の角度差AD2よりも小さくすることができる。そのため、実施の形態1でのハンズフリーモードの場合、画像内でのユーザの目線の向きが、通常モードの場合よりも、より正面に近い向きになる。これにより、相手(ユーザB)から見ると、ユーザAの目線がより正面を向いている状態となるので、より自然で違和感が少ないテレビ電話が可能である。 On the other hand, in the hands-free mode of FIG. 2 in the first embodiment, the angle difference AD1 can be made smaller than the angle difference AD2 in the comparative example. Therefore, in the hands-free mode of the first embodiment, the direction of the user's line of sight in the image is closer to the front than in the normal mode. As a result, when viewed from the other party (user B), the user A's line of sight is directed more toward the front, so that a more natural and less uncomfortable videophone call is possible.

なお、従来の携帯情報端末のインカメラCXは、通常レンズを持ち、撮影可能範囲が限られている。そのため、このインカメラCXをテレビ電話機能に利用して、ユーザAが手で筐体を持って非ハンズフリー状態でテレビ電話を行う場合には、以下のような考慮や手間が必要である。ユーザAは、自身の顔を適切に撮影して相手に伝えるために、手で筐体の向きを調整しながら、顔と筐体との位置関係を保持し続ける必要がある。一方、実施の形態1の携帯情報端末1では、インカメラC1を用いてハンズフリー状態でテレビ電話を行うことができ、上記のような考慮や手間が不要である。 Note that the in-camera CX of the conventional mobile information terminal usually has a lens, and the shooting range is limited. Therefore, when the user A uses the in-camera CX for the videophone function to make a videophone call in a non-hands-free state while holding the housing with his/her hand, the following considerations and labor are required. User A needs to maintain the positional relationship between the face and the housing while adjusting the orientation of the housing by hand in order to appropriately photograph his own face and convey it to the other party. On the other hand, in the mobile information terminal 1 of Embodiment 1, videophone calls can be made in a hands-free state using the in-camera C1, and the above considerations and troubles are unnecessary.

なお、実施の形態1で、通常モードを用いる場合では、インカメラC1の広角画像内の中央付近の位置にユーザAの顔が写ることになる。この通常モードの場合、携帯情報端末1は、歪補正処理等を省略してもよく、ハンズフリーモードとは異なる動作として、異なる効果が得られる。 In the first embodiment, when the normal mode is used, the user A's face is captured at a position near the center of the wide-angle image of the in-camera C1. In the case of this normal mode, the portable information terminal 1 may omit the distortion correction processing and the like, and a different effect can be obtained as an operation different from that in the hands-free mode.

[(17)効果等]
上記のように、実施の形態1のテレビ電話機能を持つ携帯情報端末1によれば、ハンズフリーのテレビ電話を、より好適な使い勝手で実現できる。ユーザは、両手が自由な状態でテレビ電話が可能であり、利便性も高い。なお、携帯情報端末1の前面s1のインカメラC1は、テレビ電話専用に限らず、他の用途(自撮り等)にも使用可能な一般的なものである。実施の形態1では、そのインカメラC1をうまく利用してハンズフリーのテレビ電話を実現している。実施の形態1の携帯情報端末1は、ハンズフリーのテレビ電話の際に、筐体を変形させる必要が無く、また、別の固定器具等を用いる必要も無く、使い勝手が良く、汎用性が高い。
[(17) Effects, etc.]
As described above, according to the mobile information terminal 1 having the videophone function of the first embodiment, a hands-free videophone can be realized with more suitable usability. The user can make videophone calls with both hands free, which is highly convenient. Note that the in-camera C1 on the front surface s1 of the mobile information terminal 1 is a general camera that can be used not only for videophone but also for other purposes (self-portrait, etc.). In Embodiment 1, the in-camera C1 is effectively used to realize a hands-free videophone. The portable information terminal 1 according to the first embodiment does not require deformation of the housing or the use of a separate fixture or the like for hands-free videophone, and is easy to use and highly versatile. .

また、実施の形態1の携帯情報端末1は、カメラ(インカメラC1)の光軸が一般的な面垂直方向となっており、カメラの光軸の方向が斜め(例えば45度)になっているような従来技術例や、カメラの光軸の方向を機械的に駆動して変更可能とする従来技術例等とは異なり、実装も容易である。 Further, in the mobile information terminal 1 of Embodiment 1, the optical axis of the camera (in-camera C1) is generally perpendicular to the plane, and the direction of the optical axis of the camera is oblique (for example, 45 degrees). It is also easy to implement, unlike conventional techniques such as those described above and conventional techniques in which the direction of the optical axis of a camera can be changed by mechanical driving.

(実施の形態2)
図20、図21を用いて、本発明の実施の形態2の携帯情報端末について説明する。実施の形態2の基本的な構成は実施の形態1と同様であり、以下では実施の形態2における実施の形態1とは異なる構成部分について説明する。実施の形態2の携帯情報端末1は、筐体の前面s1に複数のインカメラを備え、それらを使い分ける。
(Embodiment 2)
A mobile information terminal according to Embodiment 2 of the present invention will be described with reference to FIGS. 20 and 21. FIG. The basic configuration of the second embodiment is the same as that of the first embodiment, and the components of the second embodiment that are different from those of the first embodiment will be described below. The mobile information terminal 1 of Embodiment 2 has a plurality of in-cameras on the front surface s1 of the housing, and uses them properly.

図20は、実施の形態2の携帯情報端末1における、カメラ部11の構成を示す。このカメラ部11は、前述のインカメラC1、通常カメラC2(特に広角カメラとしてもよい)に加え、通常画角を持つインカメラC3を備えている。前述のインカメラC1が第1インカメラ、インカメラC3が第2インカメラに相当する。 FIG. 20 shows the configuration of the camera section 11 in the portable information terminal 1 of the second embodiment. The camera section 11 includes an in-camera C3 having a normal angle of view in addition to the above-described in-camera C1 and normal camera C2 (which may in particular be a wide-angle camera). The aforementioned in-camera C1 corresponds to the first in-camera, and the in-camera C3 corresponds to the second in-camera.

撮影処理部12は、通常カメラC2の通常画像を処理するアウトカメラ処理部12Bと、インカメラC1の広角画像を処理する第1インカメラ処理部12Aと、インカメラC3の通常画像を処理する第2インカメラ処理部12Cと、モード制御部12Dとを含む。撮影処理部12は、モード制御部12Dで、これらの複数のカメラのうちいずれのカメラを使用するモードとするか等を切り替える。携帯情報端末1は、端末とユーザAの顔との位置関係、端末の配置状態の把握に応じて、カメラモードを切り替える。 The shooting processing unit 12 includes an out-camera processing unit 12B that processes normal images from the normal camera C2, a first in-camera processing unit 12A that processes wide-angle images from the in-camera C1, and a first in-camera processing unit 12A that processes normal images from the in-camera C3. It includes a 2-in-camera processing unit 12C and a mode control unit 12D. The photographing processing unit 12 uses the mode control unit 12D to switch which camera among the plurality of cameras is to be used. The mobile information terminal 1 switches the camera mode according to the positional relationship between the terminal and the face of the user A and the positional state of the terminal.

図21は、実施の形態2の携帯情報端末1における利用状態の例、インカメラC3の画角等を示す。図21の(A)では、携帯情報端末1の筐体が、水平面s0上に平らに配置されている。例えば、筐体の前面s1において、インカメラC1の位置PC1の近くの位置PC3に、インカメラC3(特に通常レンズ部)が設けられている。インカメラC3の光軸の方向J4は、インカメラC1と同様に鉛直上方となっている。インカメラC3の画角AV4(第1角度ANG3から第2角度ANG4までの角度範囲)を示す。この画角AV4は、インカメラC1の画角AV1よりも狭く、例えば第1角度ANG3が60度程度、第2角度ANG3が135度程度である。 FIG. 21 shows an example of the usage state of the portable information terminal 1 of Embodiment 2, the angle of view of the in-camera C3, and the like. In (A) of FIG. 21, the housing of the mobile information terminal 1 is arranged flat on the horizontal plane s0. For example, on the front surface s1 of the housing, an in-camera C3 (especially a normal lens unit) is provided at a position PC3 near the position PC1 of the in-camera C1. The direction J4 of the optical axis of the in-camera C3 is vertically upward as in the case of the in-camera C1. View angle AV4 (angle range from first angle ANG3 to second angle ANG4) of in-camera C3 is shown. The angle of view AV4 is narrower than the angle of view AV1 of the in-camera C1. For example, the first angle ANG3 is about 60 degrees and the second angle ANG3 is about 135 degrees.

状態211は、図2の状態と同様であり、インカメラC1の画角AV1内の画角AV2でユーザAの顔が撮影できる場合を示す。状態212は、インカメラC3の画角AV4によってユーザAの顔が撮影できる位置関係にある場合を示す。例えば、インカメラC3の光軸の方向J4の先にユーザAの顔の代表的な点P4がある。 A state 211 is the same as the state of FIG. 2, and shows a case where the face of the user A can be photographed at an angle of view AV2 within the angle of view AV1 of the in-camera C1. A state 212 indicates a positional relationship in which the face of the user A can be photographed by the angle of view AV4 of the in-camera C3. For example, there is a representative point P4 on the face of user A beyond the direction J4 of the optical axis of the in-camera C3.

状態212のようにインカメラC3で顔を撮影できる位置関係の場合、携帯情報端末1は、複数のカメラのうち、インカメラC3を用いるカメラモードに切り替える。また、状態211のように、インカメラC1の画角AV1のうち画角AV4以外の画角によって顔を撮影できる位置関係の場合、携帯情報端末1は、インカメラC1を用いるカメラモードに切り替える。 In the case of a positional relationship in which the face can be photographed with the in-camera C3 as in the state 212, the portable information terminal 1 switches to the camera mode using the in-camera C3 among the plurality of cameras. In addition, as in the state 211, in the positional relationship in which the face can be photographed with an angle of view other than the angle of view AV4 of the angle of view AV1 of the in-camera C1, the portable information terminal 1 switches to the camera mode using the in-camera C1.

図21の(B)は、実施の形態2での非ハンズフリー状態の例を示し、図19の非ハンズフリー状態に近い状態である。例えば、ユーザAの顔の位置が、状態211から図21の(B)の状態213に移行した場合、携帯情報端末1は、カメラモードを、インカメラC1からインカメラC3へ切り替えて、非ハンズフリーモード(通常モード)のテレビ電話を行うように制御する。同様に、ユーザAの顔の位置が、状態213から状態211に移行した場合、携帯情報端末1は、カメラモードを、インカメラC3からインカメラC1へ切り替えて、ハンズフリーモードのテレビ電話を行うように制御する。モードの切り替えに応じて、インカメラC1による広角画像と、インカメラC3による通常画像とが、入力画像として切り替えられる。 FIG. 21B shows an example of the non-hands-free state in the second embodiment, which is close to the non-hands-free state of FIG. For example, when the position of user A's face shifts from state 211 to state 213 in FIG. Control to make a videophone call in free mode (normal mode). Similarly, when the position of user A's face shifts from state 213 to state 211, portable information terminal 1 switches the camera mode from in-camera C3 to in-camera C1 to make a video call in hands-free mode. to control. In accordance with the mode switching, the input image is switched between the wide-angle image captured by the in-camera C1 and the normal image captured by the in-camera C3.

携帯情報端末1は、上記2種類のカメラのモードの選択および切り替えを、状態把握に基づいて自動的に行うようにしてもよいし、ユーザによる指示操作や設定に基づいて行うようにしてもよい。インカメラC3の通常画像を用いるモードでは、歪補正処理等が不要であるため、処理を効率化できる。 The portable information terminal 1 may automatically select and switch between the two types of camera modes based on the grasp of the state, or may perform the selection and switching based on the instruction operation or setting by the user. . In the mode using the normal image of the in-camera C3, since distortion correction processing or the like is unnecessary, the processing can be made more efficient.

携帯情報端末1は、インカメラC1やインカメラC3の動作時に、顔検出機能201を用いて、画像内のユーザAの顔領域を検出し、その顔領域の位置や方向や画角に基づいて、いずれのカメラを使用するかを選択し、モードを切り替えるようにしてもよい。例えば、携帯情報端末1は、インカメラC1の画角AV1のうち、インカメラC3の画角AV4に対応する所定の画角内に顔が収まっているか否かによって、インカメラC3を使用するかインカメラC1を使用するかを選択してもよい。 The mobile information terminal 1 uses the face detection function 201 to detect the face area of the user A in the image when the in-camera C1 or the in-camera C3 is in operation, and detects the face area based on the position, direction, and angle of view of the face area. , the camera to be used may be selected and the mode may be switched. For example, the mobile information terminal 1 uses the in-camera C3 depending on whether or not the face is within a predetermined angle of view corresponding to the angle of view AV4 of the in-camera C3, among the angle of view AV1 of the in-camera C1. You may select whether to use the in-camera C1.

上記のように、実施の形態2の携帯情報端末1によれば、実施の形態1と同様の効果に加え、通常画角のインカメラC3を併用することで、処理を効率化できる。なお、携帯情報端末1の筐体の前面s1におけるインカメラC1やインカメラC3の位置については、前述の構成に限らず可能であり、例えば、前面s1の表示画面DPの矩形内に入り込んでいる部分の位置としてもよい。 As described above, according to the portable information terminal 1 of Embodiment 2, in addition to the same effects as those of Embodiment 1, processing can be made more efficient by using the in-camera C3 with the normal angle of view. Note that the positions of the in-camera C1 and the in-camera C3 on the front surface s1 of the housing of the mobile information terminal 1 are not limited to the configurations described above. It may be the position of the part.

(他の実施の形態)
実施の形態1,2に関する他の実施の形態(変形例)として以下も可能である。
(Other embodiments)
Other embodiments (modifications) of the first and second embodiments are possible as follows.

[変形例(1)-撮影処理]
実施の形態1における撮影処理部12では、図5等のように、広角画像から顔領域を検出してトリミングしてから、そのトリミング画像領域に対し歪補正処理を行っている。撮影処理の方式は、これに限らず可能である。
[Modification (1) - Shooting process]
As shown in FIG. 5 and the like, the photographing processing unit 12 according to the first embodiment detects a face area from a wide-angle image, trims the face area, and then performs distortion correction processing on the trimmed image area. The method of photographing processing is not limited to this and is possible.

図22は、変形例の携帯情報端末1での撮影処理の画像例を示す。携帯情報端末1の撮影処理部12は、まず、広角画像G1の全体に対して歪補正処理を行い、その後、歪補正後画像から顔領域等を検出し、トリミングする。携帯情報端末1は、広角画像G1における、水平画角で360度の領域(範囲221)、または水平画角で180度の領域(x軸の下側の半円の範囲222)に対し、歪補正処理を行って、対応する平面化画像GP3を得る。図22の例では、平面化画像GP3である歪補正後画像として、水平画角で180度の範囲222とした場合のパノラマ画像を模式的に示す。携帯情報端末1は、平面化画像GP3から、ユーザAの顔を含む領域(例えば領域224)を検出する。そして、携帯情報端末1は、領域224に対し、トリミング領域225をとってトリミングし、トリミング画像226を得て、トリミング画像226から送信画像D12等を作成する。 FIG. 22 shows an image example of the photographing process in the portable information terminal 1 of the modified example. The photographing processing unit 12 of the mobile information terminal 1 first performs distortion correction processing on the entire wide-angle image G1, and then detects and trims the face area and the like from the image after distortion correction. The portable information terminal 1 applies distortion to a region (range 221) with a horizontal angle of view of 360 degrees or a region with a horizontal angle of view of 180 degrees (range 222 of the lower half of the x-axis) in the wide-angle image G1. Correction processing is performed to obtain a corresponding planarized image GP3. The example of FIG. 22 schematically shows a panorama image in the case of a range 222 with a horizontal angle of view of 180 degrees as the image after distortion correction, which is the flattened image GP3. The mobile information terminal 1 detects an area (eg, area 224) including the face of the user A from the planarized image GP3. Then, the mobile information terminal 1 obtains a trimmed image 226 by trimming the trimming region 225 from the region 224, and creates the transmission image D12 and the like from the trimmed image 226. FIG.

この変形例では、前述の実施の形態1に対し、歪補正処理の対象となる画像領域の面積がより大きい。前述の実施の形態1の撮影処理では、歪補正処理の対象となる画像領域の面積がより小さいので、処理効率等の点で有利である。計算性能が高い端末の場合、変形例を採用してもよい。変形例では、顔検出の対象画像が平面化画像であるため、顔検出の画像処理の容易さの点では有利である。 In this modified example, the area of the image region to be subjected to the distortion correction process is larger than that of the first embodiment described above. In the imaging process of Embodiment 1 described above, since the area of the image region to be subjected to the distortion correction process is smaller, it is advantageous in terms of processing efficiency and the like. In the case of terminals with high computational performance, modifications may be adopted. In the modified example, since the target image for face detection is a planarized image, it is advantageous in terms of ease of image processing for face detection.

また、他の変形例で、撮影処理部12は、歪を持つ広角画像からの顔領域の検出の際、ユーザAの登録画像D10の顔画像を用いて比較照合する。その際の登録画像D10の顔画像は、予めインカメラC1で撮影した、歪を持つ顔画像としてもよい。 Further, in another modified example, the photographing processing unit 12 compares and verifies the face image of the registered image D10 of the user A when detecting the face area from the distorted wide-angle image. The facial image of the registered image D10 at that time may be a distorted facial image captured in advance by the in-camera C1.

また、他の変形例で、携帯情報端末1は、広角画像の画角のうち、顔検出等の処理の際に、一部の範囲、例えば図22のx軸から下側の半円の範囲222(図2では0度から90度までの仰角の範囲)の画像領域を参照し、処理対象画像領域をその範囲に絞るようにし、上半分の画像領域については無視するようにしてもよい。さらには、領域223の例のように、水平画角でより狭い範囲に絞ってもよい。また、例えば、携帯情報端末1は、図2のような状態を把握した場合に、上記のように処理対象画像範囲を絞るようにしてもよい。図2の第1状態では、広角画像のうち、ユーザAの顔は下側の半円の範囲222内に写り、上側の半円の範囲内に写る可能性は殆ど無い。そのため、上記のような処理が有効である。 Further, in another modified example, the mobile information terminal 1 detects a part of the angle of view of the wide-angle image, for example, the range of a semicircle below the x-axis in FIG. 222 (range of elevation angles from 0 degrees to 90 degrees in FIG. 2) may be referenced, the image area to be processed may be narrowed down to that range, and the upper half of the image area may be ignored. Furthermore, as in the example of the area 223, the horizontal angle of view may be narrowed down to a narrower range. Further, for example, when the portable information terminal 1 grasps the state as shown in FIG. 2, the processing target image range may be narrowed down as described above. In the first state of FIG. 2, in the wide-angle image, the face of user A appears in the lower semicircular range 222, and there is almost no possibility of it appearing in the upper semicircular range. Therefore, the above processing is effective.

他の撮影処理の方式として、携帯情報端末1は、歪補正機能203によって、最初に広角画像に対し簡易的な第1の歪補正処理を施し、その後に顔検出やトリミングを行い、最後にトリミング画像に対しより精度の高い第2の歪補正処理を施すようにしてもよい。 As another photographing processing method, the portable information terminal 1 uses the distortion correction function 203 to first perform a simple first distortion correction process on the wide-angle image, then perform face detection and trimming, and finally perform trimming. The image may be subjected to a second distortion correction process with higher accuracy.

変形例として、歪補正後の画像が、送信画像D12として許容されるかどうかについて、ユーザAの確認や操作によるものではなく、携帯情報端末1が自動的に判断してもよい。例えば、携帯情報端末1は、歪補正後画像の顔領域を、登録画像D10の顔領域と比較して、顔の再現度合いを評価し、評価値を算出する。携帯情報端末1は、その評価値が、設定されている閾値以上である場合には、送信許可と判断する。 As a modification, whether or not the image after distortion correction is acceptable as the transmission image D12 may be determined automatically by the mobile information terminal 1 instead of by the user A's confirmation or operation. For example, the portable information terminal 1 compares the face area of the image after distortion correction with the face area of the registered image D10, evaluates the degree of reproduction of the face, and calculates an evaluation value. The mobile information terminal 1 determines that transmission is permitted when the evaluation value is equal to or greater than the set threshold.

[変形例(2)-物体認識機能]
変形例の携帯情報端末1において、撮影処理部12(特に顔検出機能201)は、物体認識機能を備えてもよい。この物体認識機能は、画像処理に基づいて、広角画像から、顔以外の所定の物体を認識してその物体領域を検出する機能である。ユーザAは、図2のハンズフリー状態でのテレビ電話の際に、自由に手を動かすことができるので、手に持った物体をインカメラC1に写すことができる。これにより、送信画像D12内には、ユーザAの顔だけでなく、その周辺に、手に持った任意の物体を写すことができ、相手(ユーザB)に示すことができる。
[Modification (2) - Object Recognition Function]
In the portable information terminal 1 of the modified example, the photographing processing section 12 (especially the face detection function 201) may have an object recognition function. This object recognition function is a function of recognizing a predetermined object other than a face from a wide-angle image and detecting its object area based on image processing. User A can freely move his or her hand during videophone calls in the hands-free state of FIG. As a result, in the transmission image D12, not only the face of the user A but also any object held in the hand can be shown in the surroundings thereof and can be shown to the other party (user B).

所定の物体とは、予め情報処理上で定義された物体である。撮影処理部12は、その物体に対応した検出アルゴリズムを持つ。所定の物体は、例えば、ユーザの資料や写真やノートやノートPC画面、あるいはユーザの物品や動物等が挙げられる。所定の物体は、例えば矩形や円等の所定の形状や、所定の色等を持つ領域として定義される。撮影処理部12(物体認識機能)では、検出された顔領域に基づいて、例えばその顔領域の周囲の所定の距離範囲内を探索して、所定の物体の領域を検出してもよい。 A predetermined object is an object defined on information processing in advance. The imaging processing unit 12 has a detection algorithm corresponding to the object. Predetermined objects include, for example, user's materials, photographs, notebooks, notebook PC screens, user's goods, animals, and the like. A predetermined object is defined as an area having a predetermined shape, such as a rectangle or a circle, and a predetermined color. Based on the detected face area, the photographing processing unit 12 (object recognition function) may search within a predetermined distance range around the face area, for example, to detect the area of the predetermined object.

図23の(A)は、物体認識機能を用いる場合の画像例を示す。この画像は、歪が無い平面化画像の状態を示す。ユーザAは、ハンズフリー状態のテレビ電話の際に、相手(ユーザB)に対し、物体230を見せながら通話を行っている。物体230は、例えばA4サイズの資料等であり、歪補正後の画像内において概略的に矩形状である。携帯情報端末1は、物体認識機能を用いて、画像から、顔領域231だけでなく、特定の物体230の領域232を検出する。携帯情報端末1は、その物体230の領域232についても歪補正処理等を施す。携帯情報端末1は、例えば、顔領域231の点P1からその周囲に所定の距離233までの範囲で、特定の物体を探索してもよい。携帯情報端末1は、例えば、顔領域231と物体230の領域232とを包含する矩形の領域234をとって、送信画像D12を作成してもよい。また、顔領域231(点P1)を中心とした画像に限らず、領域235のように、顔と物体が包含される最小矩形の画像としてもよい。 FIG. 23A shows an image example when using the object recognition function. This image shows the state of a flattened image without distortion. User A talks to the other party (user B) while showing the object 230 during a hands-free videophone call. The object 230 is, for example, an A4-sized document, and has a roughly rectangular shape in the image after distortion correction. The mobile information terminal 1 uses the object recognition function to detect not only the face area 231 but also the area 232 of the specific object 230 from the image. The portable information terminal 1 also performs distortion correction processing and the like on the region 232 of the object 230 . For example, the mobile information terminal 1 may search for a specific object within a range from the point P1 of the face area 231 to a predetermined distance 233 around it. The mobile information terminal 1 may, for example, take a rectangular area 234 that includes the face area 231 and the area 232 of the object 230 to create the transmission image D12. Further, the image is not limited to the image centered on the face region 231 (point P1), and may be a minimum rectangular image that includes the face and the object, such as the region 235 .

あるいは、携帯情報端末1は、顔領域231と物体230の領域232とを分けて、それぞれの送信画像D12を作成し、モニタ画像D13(画像236,237)として表示して、送信確認してもよい。また、携帯情報端末1は、検出した物体230にフォーカスする画像(物体230を中心として拡大された画像)を、モニタ画像D13として作成してもよい。また、前述の領域A3や領域B3を用いて、顔の周辺を大きい距離で確保する領域をとれば、物体認識処理を省略しても、その領域内に自動的に物体を捉えることができる。 Alternatively, the mobile information terminal 1 may divide the face area 231 and the area 232 of the object 230, create respective transmission images D12, display them as monitor images D13 (images 236 and 237), and confirm the transmission. good. Moreover, the mobile information terminal 1 may create an image focused on the detected object 230 (an image enlarged centering on the object 230) as the monitor image D13. Also, by using the aforementioned area A3 or area B3 to secure an area around the face with a large distance, even if the object recognition processing is omitted, the object can be automatically captured within that area.

本物体認識機能では、広角画像を用いているので、顔と物体との距離がある程度離れていたとしても、それらの両方の画像を得ることができる。例えば、図23の(B)には、広角画像に基づいた平面化されたパノラマ画像GP4を示す。このパノラマ画像GP4のうち、図2の方向Y2、方向J3や、図10のy軸の下側に対応する位置(水平画角で0度とする)には、ユーザAの顔が写っている領域r1がある。そして、その位置から、水平方向である程度離れた位置、例えば水平画角で90度、x軸の右側に対応する位置には、所定の物体が写っている領域r2がある。1つの広角画像内で、これらの両方を捉えることができ、送信画像D12とすることができる。 Since this object recognition function uses a wide-angle image, even if the distance between the face and the object is to some extent, both images can be obtained. For example, FIG. 23B shows a flattened panorama image GP4 based on the wide-angle image. In this panorama image GP4, the face of user A is shown at a position corresponding to directions Y2 and J3 in FIG. 2 and the lower side of the y-axis in FIG. There is a region r1. Then, there is a region r2 in which a predetermined object is captured at a position some distance in the horizontal direction from that position, for example, at a position corresponding to the right side of the x-axis at a horizontal angle of view of 90 degrees. Both of these can be captured in one wide-angle image, and can be the transmission image D12.

他の変形例として、撮影処理部12(物体認識機能)は、広角画像から、ユーザAの手を検出し、ユーザAの顔と手とを含む領域をとり、送信画像D12を作成してもよい。また、広角画像内に両手が写っている場合、ユーザが筐体を手持ちしていないと判断できる。そのため、携帯情報端末1は、広角画像からユーザAの両手を検出した場合に、ハンズフリーモードに切り替えるようにしてもよい。 As another modification, the photographing processing unit 12 (object recognition function) may detect user A's hands from a wide-angle image, select an area including user A's face and hands, and create transmission image D12. good. Also, when both hands are shown in the wide-angle image, it can be determined that the user is not holding the housing. Therefore, the mobile information terminal 1 may switch to the hands-free mode when both hands of the user A are detected from the wide-angle image.

[変形例(3)-複数のユーザの顔画像]
変形例として、例えば机上に1つの携帯情報端末1が置かれた状態で、複数のユーザが、その同じ携帯情報端末1を用いて、一方の送信側の通話者として相手(ユーザB)とのテレビ電話を行う利用方法も可能である。その場合、変形例の携帯情報端末1は、広角画像内に収まっている複数のユーザの複数の顔について、同時並行的に、顔検出や歪補正等の処理を行う。また、その際、携帯情報端末1は、広角画像に写っている各ユーザの顔毎に、分離して、複数の送信画像D12を作成してもよいし、複数の顔を含む1つの送信画像D12を作成してもよい。
[Modification (3)-face images of multiple users]
As a modification, for example, one mobile information terminal 1 is placed on a desk, and a plurality of users use the same mobile information terminal 1 to communicate with the other party (user B) as a caller on one transmission side. A method of use for making videophone calls is also possible. In that case, the portable information terminal 1 of the modified example simultaneously performs processing such as face detection and distortion correction on a plurality of faces of a plurality of users within the wide-angle image. Further, at that time, the portable information terminal 1 may separate each user's face in the wide-angle image to create a plurality of transmission images D12, or may create a plurality of transmission images D12 including a plurality of faces. D12 may be created.

図24の(A)は、この変形例で、複数のユーザの顔を含む画像例を示す。テレビ電話を行う一方の通話者として、主なユーザAに加え、別のユーザCがいる場合を示す。携帯情報端末1は、インカメラC1の広角画像内から、ユーザAの顔の領域RU1と、ユーザCの顔の領域RU2とを検出する。携帯情報端末1は、例えば、それらの2つの顔領域を包含する領域241(例えば横長の矩形)をとり、送信画像D12として作成する。あるいは、携帯情報端末1は、それらの2つの顔領域をそれぞれのトリミング画像242,243としてとり、それぞれの送信画像D12として作成し、並列に表示してもよい。ユーザが3人以上の場合でも基本的に同様に実現可能であるが、多人数になりすぎないように、所定の人数(例えば4人)の顔までに制限する。携帯情報端末1は、表示画面DP内に、複数のユーザの各顔のモニタ画像D13を表示してもよい。 (A) of FIG. 24 shows an example of an image including faces of a plurality of users in this modified example. In addition to the main user A, another user C is present as one of the parties making a videophone call. The mobile information terminal 1 detects the user A's face region RU1 and the user C's face region RU2 from within the wide-angle image of the in-camera C1. The mobile information terminal 1, for example, selects an area 241 (for example, a horizontally long rectangle) that includes those two face areas, and creates a transmission image D12. Alternatively, the portable information terminal 1 may take the two face regions as trimming images 242 and 243, create transmission images D12, and display them side by side. Basically the same realization is possible even when there are three or more users, but the number of faces is limited to a predetermined number (for example, four) so that the number of users does not become too large. The mobile information terminal 1 may display the monitor image D13 of each face of a plurality of users in the display screen DP.

また、携帯情報端末1は、広角画像の画像処理、特に口の状態の検出によって、広角画像内の複数の顔のうちどの顔のユーザが現在喋っているかを把握し、その現在喋っているユーザの顔についての送信画像D12等を作成するようにしてもよい。さらに、携帯情報端末1は、画像処理とマイク17の音声処理とを連動させることで、広角画像内の複数の顔のうちどの顔のユーザが現在喋っているかを把握してもよい。携帯情報端末1は、複数のユーザのモニタ画像D13について、表示画面DP内に並列で表示してもよいし、時間軸で切り替えて表示してもよい。 In addition, the mobile information terminal 1 performs image processing of the wide-angle image, particularly detection of the state of the mouth, to determine which face of the user is currently speaking among a plurality of faces in the wide-angle image, and determines whether the currently speaking user is speaking. A transmission image D12 or the like of the face of the person may be created. Furthermore, the mobile information terminal 1 may link image processing and voice processing of the microphone 17 to grasp which face of the user is currently speaking among a plurality of faces in the wide-angle image. The portable information terminal 1 may display the monitor images D13 of a plurality of users in parallel on the display screen DP, or may switch and display them on the time axis.

また、上記複数のユーザの顔を扱う場合、携帯情報端末1に予め登録画像D10として顔画像が登録されている複数のユーザのみを対象として上記処理を行うようにしてもよい。携帯情報端末1は、予め登録されていない人(通行人等)の顔については扱わない。また、携帯情報端末1は、一部のユーザの顔について処理が間に合わない場合等には、登録画像D10を用いて代替としてもよいし、別のアイコンや風景等の画像を用いて代替としてもよい。 Further, when the faces of the plurality of users are handled, the above processing may be performed only for the plurality of users whose face images are registered in advance as the registered images D10 in the portable information terminal 1. FIG. The portable information terminal 1 does not handle the faces of people (passers-by, etc.) who are not registered in advance. In addition, the portable information terminal 1 may use the registered image D10 as a substitute when the face processing of some users cannot be completed in time, or may use another icon, landscape image, or the like as a substitute. good.

上記(A)の画像例では、インカメラC1からみてある方向の画角内の領域(例えば(B)のy軸の下側の領域L1)に、複数の人(ユーザA、ユーザC)の顔が写っている。これに限らず、インカメラC1の広角の画角を用いることで、水平面s0上の携帯情報端末1の位置に対し、その周りの水平画角が異なる各位置に各人がいる場合でも、対応可能である。例えば、図24の(B)の広角画像G1における外周付近の領域のうち、y軸の上下、x軸の左右のいずれの領域L1~L4に顔があっても、対応可能である。すなわち、1つの広角画像内において、その複数の人の複数の顔を捉えることができ、送信画像D12とすることができる。 In the image example of (A) above, a plurality of people (user A, user C) are displayed in an area within the angle of view in a certain direction when viewed from the in-camera C1 (for example, the area L1 below the y-axis in (B)). A face is shown. Not limited to this, by using the wide angle of view of the in-camera C1, even if each person is at each position with a different horizontal angle of view around the position of the mobile information terminal 1 on the horizontal plane s0, it can be handled. It is possible. For example, it is possible to deal with any of the areas L1 to L4 above and below the y-axis and on the left and right of the x-axis in the area near the periphery of the wide-angle image G1 in FIG. 24B. That is, a plurality of faces of the plurality of people can be captured in one wide-angle image, and can be used as a transmission image D12.

[変形例(4)-相手画像補正機能]
図25は、変形例の携帯情報端末1に備える相手画像補正機能について示す。変形例の携帯情報端末1は、図7のように表示画面DP内(領域R1)に相手の画像を表示する際に、この相手画像補正機能を用いて逆台形補正した画像を表示する。
[Modification (4) - Opponent image correction function]
FIG. 25 shows the partner image correction function provided in the portable information terminal 1 of the modification. When the mobile information terminal 1 of the modified example displays the other party's image in the display screen DP (region R1) as shown in FIG.

図25の(A)は、相手(ユーザB)の携帯情報端末2から受信した、通常の相手画像の例を示す。携帯情報端末1の表示画面DP内の領域R1に、相手の直角四角形の画像g1が表示されている。 FIG. 25A shows an example of a normal partner image received from the mobile information terminal 2 of the partner (user B). In a region R1 within the display screen DP of the mobile information terminal 1, an image g1 of a rectangular rectangle of the other party is displayed.

図25の(B)は、図2のような状態でユーザAの目(点P1)から斜め下方にある(A)の画像g1を見た場合の見え方を模式的に示している。(B)の状態では、画像g1は、上辺が下辺よりも小さい台形形状として見える。すなわち、ユーザAから見て、ユーザBの頭側の方が相対的にやや小さく見える。 (B) of FIG. 25 schematically shows how the image g1 of (A), which is diagonally below the user A's eye (point P1), is viewed in the state shown in FIG. In the state of (B), the image g1 appears as a trapezoid whose upper side is smaller than its lower side. That is, when viewed from user A, the side of user B's head appears relatively smaller.

携帯情報端末1は、インカメラC1の広角画像の解析やセンサ類30の検出情報に基づいて、ユーザAと端末との位置関係、端末の配置状態を把握する。例えば、携帯情報端末1は、画像内のユーザAの目の位置や目線の向き、顔の大きさ等から、ユーザAの顔の位置や、端末との距離等の状態を推測する。携帯情報端末1は、把握した状態に応じて、逆台形補正の際の比率(上辺と下辺との比率)等を設定する。携帯情報端末1は、相手の携帯情報端末2から受信した直角四角形の画像を、その比率等に合わせて逆台形補正処理して、逆台形形状の画像を得る。上記比率は予め設定された値としてもよい。 Based on the analysis of the wide-angle image of the in-camera C1 and the information detected by the sensors 30, the mobile information terminal 1 grasps the positional relationship between the user A and the terminal and the arrangement state of the terminal. For example, the portable information terminal 1 estimates the position of the user A's face, the distance from the terminal, and other conditions from the position of the eyes of the user A in the image, the direction of the line of sight, the size of the face, and the like. The mobile information terminal 1 sets the ratio (the ratio between the upper side and the lower side) and the like for inverse keystone correction according to the grasped state. Portable information terminal 1 performs reverse trapezoidal correction processing on the rectangular image received from portable information terminal 2 of the other party in accordance with the ratio and the like to obtain a reverse trapezoidal image. The above ratio may be a preset value.

図25の(C)は、(A)の画像g1を、逆台形補正した後の画像g1bを示す。この画像g1bは、逆台形形状であり、上辺が大きく下辺が小さい台形である。携帯情報端末1は、その逆台形形状の画像g1bを、表示画面DP内の領域R1内に表示する。ユーザAは、図2の状態で、目(点P1)から斜め下方の表示画面DP内の領域R1内の相手の画像g1bを見る。すると、この状態では、ユーザAから見て相手画像が(A)のような直角四角形に近い形状で見えることになる。これにより、ユーザAは、相手画像をより視認しやすく、より使い勝手が良い。 (C) of FIG. 25 shows an image g1b after inverse keystone correction of the image g1 of (A). This image g1b has an inverted trapezoidal shape, and is a trapezoid with a large upper side and a small lower side. The portable information terminal 1 displays the inverted trapezoidal image g1b in the area R1 of the display screen DP. User A, in the state shown in FIG. 2, sees the other party's image g1b in area R1 in display screen DP obliquely below the eye (point P1). Then, in this state, the other party's image will be seen by the user A in a shape close to a right-angled square as shown in (A). This makes it easier for the user A to visually recognize the other party's image, and is more convenient to use.

[変形例(5)-3次元画像処理機能]
変形例として、携帯情報端末1は、2次元画像に限らず、3次元画像を処理する機能(3次元画像処理機能)を用いてもよい。例えば、カメラ部11(例えば通常カメラC2)に、公知の赤外線カメラ機能および3次元センサモジュールを備えてもよい。これを用いて、撮影処理部12は、インカメラC1の広角画像を、3次元画像として処理する。例えば、携帯情報端末1は、この赤外線カメラ機能および3次元センサジュールにより、例えば数万個以上の赤外線ドットを、ユーザの顔に照射する。携帯情報端末1は、その赤外線ドットを、赤外線カメラで撮像して、その画像から、顔表面の微妙な凹凸を読み取って、顔3次元マップ(対応する3次元画像)を作成する。携帯情報端末1は、その3次元画像に対し、歪補正処理等を行ってもよい。また、携帯情報端末1は、その3次元画像を、登録画像D10のうちの3次元顔画像情報との照合により、3次元的な顔補正処理を行ってもよい。その場合、より鮮明、微細な補正ができる。
[Modification (5)-Three-dimensional image processing function]
As a modification, the mobile information terminal 1 may use a function (three-dimensional image processing function) for processing not only two-dimensional images but also three-dimensional images. For example, the camera section 11 (for example, the normal camera C2) may be equipped with a known infrared camera function and a three-dimensional sensor module. Using this, the imaging processing unit 12 processes the wide-angle image of the in-camera C1 as a three-dimensional image. For example, the portable information terminal 1 irradiates the user's face with, for example, tens of thousands of infrared dots or more by using the infrared camera function and the three-dimensional sensor modules. The portable information terminal 1 takes an image of the infrared dot with an infrared camera, reads subtle irregularities on the face surface from the image, and creates a three-dimensional face map (corresponding three-dimensional image). The mobile information terminal 1 may perform distortion correction processing and the like on the three-dimensional image. Moreover, the mobile information terminal 1 may perform a three-dimensional face correction process by matching the three-dimensional image with the three-dimensional face image information in the registered image D10. In that case, clearer and finer correction can be performed.

また、携帯情報端末1は、このような3次元的な高度な補正を行う際、単に画像を照合するのではなく、深層学習等の機械学習を用いて解析を加えてもよい。例えば、携帯情報端末1は、深層学習機能を持つAIエンジン(畳み込みニューラルネットワークを用いた深層学習を行うソフトウェアおよびハードウェア)を内蔵してもよい。携帯情報端末1は、そのAIエンジンを用いてカメラ画像からユーザの顔について学習することで、顔検出や顔補正の性能を高める。これにより、例えば具体的には、人の髪型やメークアップによる変化、メガネやサングラスの有無、ヒゲの伸び具合等の差異や影響を考慮して、ユーザAの顔の検出や認識や補正を行うことができる。 Moreover, when performing such three-dimensional advanced correction, the portable information terminal 1 may add analysis using machine learning such as deep learning instead of simply comparing images. For example, the mobile information terminal 1 may incorporate an AI engine (software and hardware that performs deep learning using a convolutional neural network) with a deep learning function. The mobile information terminal 1 uses the AI engine to learn about the user's face from the camera image, thereby improving the performance of face detection and face correction. As a result, specifically, for example, the face of user A is detected, recognized, and corrected in consideration of differences and effects such as changes due to hairstyle and make-up, the presence or absence of glasses and sunglasses, and the degree of growth of the beard. be able to.

また、携帯情報端末1は、個人認識機能201Bでは、登録画像D10の3次元顔画像と、インカメラC1で撮影し歪補正された3次元顔画像とを比較照合してもよい。これにより、ユーザA本人かどうかの個人認識を、より高精度に実現できる。 Further, the personal identification function 201B of the mobile information terminal 1 may compare and verify the three-dimensional face image of the registered image D10 with the three-dimensional face image photographed by the in-camera C1 and corrected for distortion. As a result, individual recognition as to whether or not user A is the real person can be realized with higher accuracy.

[変形例(6)-指向性マイク、指向性スピーカ]
変形例として、図3の携帯情報端末1のマイク17は、指向性マイクとしてもよい。指向性マイクは、ノイズキャンセル機能等の音声処理機能を含む。コントローラ10は、マイク17を用いて、ユーザAの顔がある方向からの音声を優先的に集音する。コントローラ10は、入力音声に対し、ノイズキャンセル機能によってノイズをキャンセルし、鮮明なユーザAの音声を得る。コントローラ10は、その音声データを、送信画像D12と共に、相手の携帯情報端末2に送信する。携帯情報端末1からみてユーザAの顔がある方向については、携帯情報端末1の状態把握や画像内の顔検出を用いて把握可能である。
[Modification (6) - directional microphone, directional speaker]
As a modification, the microphone 17 of the mobile information terminal 1 of FIG. 3 may be a directional microphone. Directional microphones include audio processing features such as noise cancellation features. The controller 10 uses the microphone 17 to preferentially collect sound from the direction in which the user A's face is located. The controller 10 cancels noise in the input voice using a noise canceling function to obtain clear voice of the user A. FIG. The controller 10 transmits the voice data to the mobile information terminal 2 of the other party together with the transmission image D12. The direction in which the user A's face is located when viewed from the portable information terminal 1 can be grasped by grasping the state of the portable information terminal 1 or by detecting the face in the image.

マイク17に関しては、公知のMEMSマイクロフォン等を適用して、公知のビームフォーミング技術によって、指向性およびノイズキャンセル機能を実現してもよい。例えば、ノイズキャンセル機能を実現する場合、基本的には複数のマイクが必要である。しかし、携帯情報端末1が小型である場合、複数のマイクが搭載できない場合もある。その場合、携帯情報端末1では、MEMSマイクロフォンを搭載することで、ビームフォーミング技術によって、複数の音源から特定の音源を分離し強調することができる。これにより、ユーザAの音声のみを強調して得ることが可能である。 As for the microphone 17, a known MEMS microphone or the like may be applied to achieve directivity and noise canceling functions by a known beam forming technique. For example, to achieve a noise canceling function, basically multiple microphones are required. However, if the portable information terminal 1 is small, it may not be possible to mount a plurality of microphones. In that case, the mobile information terminal 1 can separate and emphasize a specific sound source from a plurality of sound sources by using a beam forming technique by installing a MEMS microphone. As a result, it is possible to obtain only user A's voice in an emphasized manner.

また、携帯情報端末1は、インカメラC1を用いることで、ユーザAの位置および方向を、ある程度の精度で認識できる。そこで、携帯情報端末1は、インカメラC1を用いてユーザAの位置および方向をおおよそ特定する。携帯情報端末1は、その特定した位置および方向について、上記マイク17およびビームフォーミング技術を用いて、その方向からの音声を優先的に強調して取得してもよい。 Moreover, the mobile information terminal 1 can recognize the position and direction of the user A with a certain degree of accuracy by using the in-camera C1. Therefore, the portable information terminal 1 roughly identifies the position and direction of the user A using the in-camera C1. The mobile information terminal 1 may preferentially emphasize and acquire the voice from the specified position and direction using the microphone 17 and beamforming technology.

また、変形例として、携帯情報端末1は、マイク17の音声の解析に基づいて、ユーザAの顔の位置や方向をおおよそ推測してもよい。携帯情報端末1は、その顔の位置や方向に合わせて、広角画像に対する顔検出等の処理を行ってもよい。 Moreover, as a modification, the mobile information terminal 1 may roughly estimate the position and direction of the user A's face based on the analysis of the voice of the microphone 17 . The mobile information terminal 1 may perform processing such as face detection on the wide-angle image according to the position and direction of the face.

同様に、スピーカ18として、指向性スピーカを用いてもよい。端末に対するユーザAの顔の位置に合わせて、スピーカ18の音声出力の指向性や音量等を制御してもよい。 Similarly, the speaker 18 may be a directional speaker. The directivity, volume, etc. of the audio output of the speaker 18 may be controlled according to the position of the user A's face relative to the terminal.

以上、本発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。 Although the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention.

1…携帯情報端末、2…携帯情報端末、s0…水平面、s1…前面、s2…背面、DP…表示画面、C1…インカメラ、J1,J2,J3…方向、AV1,AV2…画角、θ1,θ2…角度、P1,PC1,PD…点、ANG1,ANG2…角度、AD1…角度差。 1... portable information terminal, 2... portable information terminal, s0... horizontal plane, s1... front surface, s2... rear surface, DP... display screen, C1... front camera, J1, J2, J3... direction, AV1, AV2... angle of view, θ1 , θ2... Angle, P1, PC1, PD... Point, ANG1, ANG2... Angle, AD1... Angle difference.

Claims (15)

テレビ電話機能を持つ携帯情報端末であって、
平板形状の筐体における表示画面を持つ前面の所定の位置に第1カメラを備え、
前記テレビ電話機能を用いて第1ユーザが相手の第2ユーザとの間でテレビ電話を行う際に、前記筐体が物体の第1面上に平らに配置され、前記第1カメラの第1画角の範囲内に前記第1ユーザの顔が含まれる状態を第1状態とし、
前記第1状態で、前記第1カメラによって撮影された第1状態画像から、前記第1ユーザの顔を含む第1領域を検出し、前記第1領域に対応する第1画像をトリミングし、前記第1画像に基づいて、前記第2ユーザの携帯情報端末である相手端末に送信するための送信画像を作成し、前記送信画像を前記相手端末に送信し、
前記第1ユーザの顔を含む画像または前記第1ユーザを表す任意の画像を予め登録画像として登録し、
前記第1状態画像から前記第1ユーザの顔を含む前記第1領域が検出できない場合、前記登録画像を用いて前記送信画像の代替の画像を送信する、
携帯情報端末。
A mobile information terminal having a videophone function,
Equipped with a first camera at a predetermined position on the front surface of the flat plate housing having a display screen,
When the first user uses the videophone function to make a videophone call with a second user, the housing is placed flat on a first surface of an object and the first camera of the first camera is placed flat on the first surface of the object. A state in which the first user's face is included within the range of the angle of view is defined as a first state,
detecting a first region including the first user's face from the first state image captured by the first camera in the first state, trimming the first image corresponding to the first region, and creating a transmission image to be transmitted to a partner terminal, which is a portable information terminal of the second user, based on the first image, and transmitting the transmission image to the partner terminal;
registering in advance an image containing the face of the first user or an arbitrary image representing the first user as a registered image;
If the first region including the face of the first user cannot be detected from the first state image, the registered image is used to transmit an image that is a substitute for the transmission image.
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記第1状態画像のうち少なくとも前記第1画像を、前記第1カメラのレンズによる歪が解消または低減されるように歪補正処理し、補正後画像に基づいて前記送信画像を作成する、
携帯情報端末。
In the portable information terminal according to claim 1,
performing distortion correction processing on at least the first image of the first state image so as to eliminate or reduce distortion due to the lens of the first camera, and creating the transmission image based on the corrected image;
Personal digital assistant.
請求項2記載の携帯情報端末において、
前記第1状態画像から、前記第1ユーザの顔を含む前記第1領域を検出し、前記第1領域に対応する前記第1画像をトリミングし、前記第1画像に対し前記歪補正処理を行う、
携帯情報端末。
In the portable information terminal according to claim 2,
detecting the first region including the face of the first user from the first state image, trimming the first image corresponding to the first region, and performing the distortion correction processing on the first image. ,
Personal digital assistant.
請求項2記載の携帯情報端末において、
前記第1状態画像に対し前記歪補正処理を行い、歪補正後画像から、前記第1ユーザの顔を含む前記第1領域を検出し、前記第1領域に対応する前記第1画像をトリミングする、
携帯情報端末。
In the portable information terminal according to claim 2,
performing the distortion correction processing on the first state image, detecting the first area including the face of the first user from the image after distortion correction, and trimming the first image corresponding to the first area. ,
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記第1カメラの前記第1画角は、前記第1面を基準として、30度以下の第1角度から150度以上の第2角度までの角度範囲を有し、
前記第1状態では、前記第1画角のうち、前記第1角度から90度までの角度範囲内に、前記第1ユーザの顔が含まれる第2画角を有する、
携帯情報端末。
In the portable information terminal according to claim 1,
The first angle of view of the first camera has an angle range from a first angle of 30 degrees or less to a second angle of 150 degrees or more with respect to the first surface,
In the first state, the first angle of view includes a second angle of view that includes the first user's face within an angle range from the first angle to 90 degrees.
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記送信画像に対応する画像内容を持つモニタ画像を作成し、
前記モニタ画像を前記表示画面内の領域に表示し、
前記第1ユーザによる前記モニタ画像の確認および所定の操作に基づいて、前記送信画像の送信を許可するか拒否するかを決定する、
携帯情報端末。
In the portable information terminal according to claim 1,
creating a monitor image having image content corresponding to the transmitted image;
displaying the monitor image in an area within the display screen;
determining whether to permit or reject transmission of the transmission image based on confirmation of the monitor image and a predetermined operation by the first user;
Personal digital assistant.
請求項6記載の携帯情報端末において、
前記第1ユーザの顔を含む画像または前記第1ユーザを表す任意の画像を予め登録画像として登録し、
前記送信画像の送信の拒否の場合に、前記登録画像を用いて前記送信画像の代替の画像を送信する、
携帯情報端末。
In the portable information terminal according to claim 6,
registering in advance an image containing the face of the first user or an arbitrary image representing the first user as a registered image;
In the case of refusal of transmission of the transmission image, transmitting an image as a substitute for the transmission image using the registered image.
Personal digital assistant.
請求項2記載の携帯情報端末において、
前記歪補正処理の後の画像に対し、前記第1状態の位置関係に起因する台形状の画像内容を補正するための台形補正処理を行う、
携帯情報端末。
In the portable information terminal according to claim 2,
performing trapezoidal correction processing for correcting trapezoidal image content resulting from the positional relationship in the first state on the image after the distortion correction processing;
Personal digital assistant.
請求項1記載の携帯情報端末において、
加速度センサおよびジャイロセンサを含むセンサを用いて前記筐体の状態を把握し、前記第1状態であることを把握した場合、または前記第1ユーザによる所定の操作を受けた場合、非ハンズフリーの第1モードから、ハンズフリーの第2モードに切り替えて、前記送信画像の作成を行う、
携帯情報端末。
In the portable information terminal according to claim 1,
When the state of the housing is grasped using a sensor including an acceleration sensor and a gyro sensor, and when it is grasped that it is in the first state, or when a predetermined operation by the first user is received, a non-hands-free operation is performed. Switching from the first mode to a hands-free second mode to create the transmission image;
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記第1状態画像内における前記第1ユーザの顔を含む前記第1領域の位置に応じて、非ハンズフリーの第1モードから、ハンズフリーの第2モードに切り替えて、前記送信画像の作成を行う、
携帯情報端末。
In the portable information terminal according to claim 1,
creating the transmission image by switching from a non-hands-free first mode to a hands-free second mode according to the position of the first region including the face of the first user in the first state image; conduct,
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記第1ユーザの顔を含む画像を予め登録画像として登録し、
前記第1状態画像から検出した前記第1領域と前記登録画像との比較に基づいて、前記第1ユーザが特定の個人であることを認識した場合には、前記送信画像の作成を行い、前記第1ユーザが特定の個人であることを認識できない場合には、前記送信画像の作成を行わない、
携帯情報端末。
In the portable information terminal according to claim 1,
Registering in advance an image including the first user's face as a registered image,
When it is recognized that the first user is a specific individual based on the comparison between the first region detected from the first state image and the registered image, the transmission image is created, and the If the first user cannot be recognized as a specific individual, the transmission image is not created;
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記第1状態画像から、前記第1ユーザが把持する物体を含む第2領域を検出し、前記第2領域に対応する第2画像をトリミングし、前記第2画像に基づいて、前記送信画像を作成する、
携帯情報端末。
In the portable information terminal according to claim 1,
detecting a second region including an object held by the first user from the first state image, trimming the second image corresponding to the second region, and generating the transmission image based on the second image; create,
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記第1状態画像から、前記第1ユーザとして複数の人の複数の顔を検出し、前記複数の顔を包含する前記送信画像を作成する、または、前記複数の顔の各々の顔毎の前記送信画像を作成する、
携帯情報端末。
In the portable information terminal according to claim 1,
detecting a plurality of faces of a plurality of persons as the first user from the first state image, and creating the transmission image including the plurality of faces; create a send image,
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記相手端末から受信した相手画像を前記表示画面内の領域に表示する際に、前記相手画像を逆台形補正してから表示する、
携帯情報端末。
In the portable information terminal according to claim 1,
When displaying the other party's image received from the other party's terminal in the area within the display screen, displaying the other party's image after inverse keystone correction is performed.
Personal digital assistant.
請求項1記載の携帯情報端末において、
前記第1状態画像またはセンサに基づいて、前記筐体に対する前記第1ユーザの顔の方向を含む位置関係を推測し、前記推測した方向に応じて、マイクの音声入力の方向、またはスピーカの音声出力の方向を制御する、
携帯情報端末。
In the portable information terminal according to claim 1,
Based on the first state image or sensor, a positional relationship including the direction of the face of the first user with respect to the housing is estimated, and depending on the estimated direction, the direction of voice input from a microphone or the voice of a speaker. to control the direction of the output,
Personal digital assistant.
JP2023085363A 2022-05-16 2023-05-24 Mobile information terminal Pending JP2023099729A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023085363A JP2023099729A (en) 2022-05-16 2023-05-24 Mobile information terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022080184A JP7286838B2 (en) 2018-06-07 2022-05-16 Personal digital assistant
JP2023085363A JP2023099729A (en) 2022-05-16 2023-05-24 Mobile information terminal

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022080184A Division JP7286838B2 (en) 2018-06-07 2022-05-16 Personal digital assistant

Publications (1)

Publication Number Publication Date
JP2023099729A true JP2023099729A (en) 2023-07-13

Family

ID=82362517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023085363A Pending JP2023099729A (en) 2022-05-16 2023-05-24 Mobile information terminal

Country Status (1)

Country Link
JP (1) JP2023099729A (en)

Similar Documents

Publication Publication Date Title
JP7075995B2 (en) Mobile information terminal
US10270972B2 (en) Portable video communication system
JP4575443B2 (en) Face image correction
US5438357A (en) Image manipulating teleconferencing system
US7697024B2 (en) Method and system of tracking and stabilizing an image transmitted using video telephony
KR20160133414A (en) Information processing device, control method, and program
KR20190008610A (en) Mobile terminal and Control Method for the Same
CN106664361B (en) Information processing apparatus, information processing method, and computer-readable storage medium
KR20050084263A (en) Method and apparatus for correcting a head pose in a video phone image
US20150022627A1 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
CN109688253A (en) A kind of image pickup method and terminal
JP6157077B2 (en) Display device with camera
JP2010161655A (en) Imaging apparatus, and imaging method
JP7286838B2 (en) Personal digital assistant
CN110869878A (en) User signal processing method and device for executing same
CN108234888B (en) Image processing method and mobile terminal
JP2023099729A (en) Mobile information terminal
JP2008278433A (en) Information processing apparatus, program
JP2015162822A (en) Electronic apparatus, imaging apparatus, and communication apparatus
JP2005117106A (en) Mobile telephone with imaging function and control method thereof, and control program
US11909544B1 (en) Electronic devices and corresponding methods for redirecting user interface controls during a videoconference
US20240097927A1 (en) Electronic Devices and Corresponding Methods for Redirecting User Interface Controls During a Videoconference
JP7146944B2 (en) Display device
KR20160149945A (en) Mobile terminal
JP6700770B2 (en) Display device, control method thereof, and control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230615