JP2014010227A - Portable electronic apparatus, control method therefor and program - Google Patents

Portable electronic apparatus, control method therefor and program Download PDF

Info

Publication number
JP2014010227A
JP2014010227A JP2012145468A JP2012145468A JP2014010227A JP 2014010227 A JP2014010227 A JP 2014010227A JP 2012145468 A JP2012145468 A JP 2012145468A JP 2012145468 A JP2012145468 A JP 2012145468A JP 2014010227 A JP2014010227 A JP 2014010227A
Authority
JP
Japan
Prior art keywords
face area
unit
display
electronic device
portable electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012145468A
Other languages
Japanese (ja)
Other versions
JP6201282B2 (en
Inventor
Tadashi Eguchi
忠志 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Saitama Ltd
Original Assignee
NEC Saitama Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Saitama Ltd filed Critical NEC Saitama Ltd
Priority to JP2012145468A priority Critical patent/JP6201282B2/en
Publication of JP2014010227A publication Critical patent/JP2014010227A/en
Application granted granted Critical
Publication of JP6201282B2 publication Critical patent/JP6201282B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent visibility of a display screen from being lowered due to shaking during movement.SOLUTION: A portable electronic apparatus includes: a display unit; an imaging unit which is arranged so as to be directed in the same direction as the display unit; a face area detection unit which detects a face area of a user from an image imaged by the imaging unit; a storage unit which stores the face area used as a reference, as a reference face area; a face area analysis unit which analyzes relative relation of the face area with the reference face area; and a display mode change unit which changes a display mode of information to be displayed in the display unit on the basis of the relative relation.

Description

本発明は、携帯電子機器、その制御方法及びプログラムに関する。特に、表示部を備える携帯電子機器、その制御方法及びプログラムに関する。   The present invention relates to a portable electronic device, a control method thereof, and a program. In particular, the present invention relates to a portable electronic device including a display unit, a control method thereof, and a program.

近年、スマートフォン等の携帯電子機器が広く普及し、ユーザは、様々な状況で携帯電子機器を使用している。従って、ユーザが携帯電子機器の表示画面を見る距離、角度等は様々である。   In recent years, portable electronic devices such as smartphones have been widely used, and users are using portable electronic devices in various situations. Accordingly, there are various distances, angles, and the like at which the user views the display screen of the portable electronic device.

特許文献1において、撮影されたユーザの顔の向きと、傾きセンサの検出結果に基づいて、画面表示の向きを切り替える携帯情報表示端末が開示されている。また、特許文献2において、携帯端末装置の移動量に基づいて、ソフトウェアキーボード画面の表示倍率を変更する技術が開示されている。   Patent Document 1 discloses a portable information display terminal that switches a screen display direction based on the orientation of a photographed user's face and the detection result of an inclination sensor. Patent Document 2 discloses a technique for changing the display magnification of the software keyboard screen based on the movement amount of the mobile terminal device.

特開2011−221094号公報JP 2011-221094 A 特開2010−282459号公報JP 2010-282458 A

なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。   The disclosure of the above prior art document is incorporated herein by reference. The following analysis has been made from the viewpoint of the present invention.

上述のとおり、ユーザが携帯電子機器を使用する状況は様々である。例えば、ユーザは、歩きながら、携帯電子機器を使用する場合がある。又は、ユーザは、電車等の中で、携帯電子機器を使用する場合がある。その場合、移動中の揺れ(手ブレ)によって、携帯電子機器の表示画面が揺れて、表示画面の視認性が低下する場合がある。そのため、ユーザは、表示画面の揺れに追従するように、視線(顔の位置、方向)を追従させる場合がある。あるいは、ユーザは、携帯電子機器を、ユーザ自身の腕等に固定して、表示画面が揺れないようにする場合がある。そのため、移動中に携帯電子機器を使用することは、ユーザの疲労の要因となりやすい。   As described above, there are various situations in which a user uses a portable electronic device. For example, the user may use a portable electronic device while walking. Alternatively, the user may use a portable electronic device on a train or the like. In that case, the display screen of the mobile electronic device may shake due to shaking (hand shake) during movement, and the visibility of the display screen may be reduced. For this reason, the user may follow the line of sight (face position and direction) so as to follow the shaking of the display screen. Or a user may fix a portable electronic device to a user's own arm etc., and may prevent a display screen from shaking. For this reason, using a portable electronic device while moving is likely to cause user fatigue.

ここで、特許文献1、2に開示された技術では、移動中の揺れに追従して、表示画面に表示する画像の向き、大きさを変更することはできない。そのため、特許文献1、2に開示された技術では、移動中の揺れに起因して、表示画面の視認性が低下することを防止できない。   Here, with the techniques disclosed in Patent Documents 1 and 2, the orientation and size of the image displayed on the display screen cannot be changed following the shaking during movement. For this reason, the techniques disclosed in Patent Documents 1 and 2 cannot prevent the visibility of the display screen from being lowered due to shaking during movement.

従って、移動中の揺れに起因して、表示画面の視認性が低下することを防止する携帯電子機器、その制御方法及びプログラムが、望まれる。   Accordingly, there is a demand for a portable electronic device, a control method thereof, and a program that prevent the visibility of the display screen from being reduced due to shaking during movement.

本発明の第1の視点によれば、表示部と、前記表示部と同一方向を向くように配置された撮像部と、前記撮像部が撮影した画像から、ユーザの顔領域を検出する顔領域検出部と、基準とする前記顔領域を、基準顔領域として記憶する記憶部と、前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析部と、前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更部と、を備える携帯電子機器が、提供される。   According to the first aspect of the present invention, a face area for detecting a user's face area from a display section, an imaging section arranged to face the same direction as the display section, and an image taken by the imaging section. Based on the relative relationship, a detection unit, a storage unit that stores the reference face region as a reference face region, a face region analysis unit that analyzes a relative relationship of the face region with respect to the reference face region, A portable electronic device is provided that includes a display mode changing unit that changes a display mode of information displayed on the display unit.

本発明の第2の視点によれば、表示部と、前記表示部と同一方向を向くように配置された撮像部と、を備える携帯電子機器の制御方法であって、撮影画像から、ユーザの顔領域を検出する顔領域検出工程と、基準とする前記顔領域を、基準顔領域として記憶する記憶工程と、前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析工程と、前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更工程と、を含む携帯電子機器の制御方法が、提供される。   According to a second aspect of the present invention, there is provided a method for controlling a portable electronic device including a display unit and an imaging unit arranged to face the same direction as the display unit. A face area detection step for detecting a face area; a storage step for storing the reference face area as a reference face area; a face area analysis step for analyzing a relative relationship of the face area with respect to the reference face area; There is provided a method for controlling a portable electronic device, including a display mode changing step of changing a display mode of information to be displayed on the display unit based on a relative relationship.

本発明の第3の視点によれば、表示部と、前記表示部と同一方向を向くように配置された撮像部と、を備える携帯電子機器を制御するコンピュータに実行させるプログラムであって、撮影画像から、ユーザの顔領域を検出する顔領域検出処理と、基準とする前記顔領域を、基準顔領域として記憶する記憶処理と、前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析処理と、前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更処理と、を実行するプログラムが、提供される。なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non−transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。   According to a third aspect of the present invention, there is provided a program that is executed by a computer that controls a portable electronic device that includes a display unit and an imaging unit arranged to face the same direction as the display unit. A face area detection process for detecting a user's face area from an image, a storage process for storing the reference face area as a reference face area, and a face area for analyzing a relative relationship of the face area with respect to the reference face area There is provided a program for executing an analysis process and a display mode changing process for changing a display mode of information to be displayed on the display unit based on the relative relationship. This program can be recorded on a computer-readable storage medium. The storage medium can be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like. The present invention can also be embodied as a computer program product.

本発明の各視点によれば、移動中の揺れに起因して、表示画面の視認性が低下することを防止する携帯電子機器、その制御方法及びプログラムが、提供される。   According to each aspect of the present invention, a portable electronic device, a control method thereof, and a program for preventing the visibility of a display screen from being lowered due to shaking during movement are provided.

一実施形態を説明するための図である。It is a figure for demonstrating one Embodiment. 携帯電子機器1の全体構成の一例を示す平面図である。1 is a plan view illustrating an example of the overall configuration of a mobile electronic device 1. 携帯電子機器1の内部構成の一例を示す図である。1 is a diagram illustrating an example of an internal configuration of a mobile electronic device 1. 携帯電子機器1の使用態様の一例を示す図である。FIG. 3 is a diagram illustrating an example of a usage mode of the mobile electronic device 1. 顔領域の一例を示す図である。It is a figure which shows an example of a face area | region. 特徴点と顔領域の一例を示す図である。It is a figure which shows an example of a feature point and a face area | region. 角度変化量と表示画像の角度の関係の一例を示す図である。It is a figure which shows an example of the relationship between an angle variation | change_quantity and the angle of a display image. 顔領域と表示画像の一例を示す図である。It is a figure which shows an example of a face area | region and a display image. 顔領域と表示画像の一例を示す図である。It is a figure which shows an example of a face area | region and a display image. 携帯電子機器1の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of the operation of the mobile electronic device 1. 携帯電子機器1の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of the operation of the mobile electronic device 1. 顔領域と表示画像の一例を示す図である。It is a figure which shows an example of a face area | region and a display image. 表示部20に対するユーザの顔の角度と、表示態様の対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the angle of a user's face with respect to the display part, and a display mode. 角度対応情報の一例を示す図である。It is a figure which shows an example of angle corresponding | compatible information.

初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。   First, an outline of an embodiment will be described with reference to FIG. Note that the reference numerals of the drawings attached to the outline are attached to the respective elements for convenience as an example for facilitating understanding, and the description of the outline is not intended to be any limitation.

上述のとおり、ユーザが携帯電子機器を使用する状況は様々であり、移動中に携帯電子機器を使用する場合もある。しかし、移動中に携帯電子機器を使用すると、手ブレ等によって、ユーザと表示画面の距離、角度等は、頻繁に変化する。その結果、移動中に携帯電子機器を使用すると、表示画面の視認性が低下する場合がある。そのため、移動中の揺れに起因して、表示画面の視認性が低下することを防止する携帯電子機器が望まれる。   As described above, there are various situations in which a user uses a portable electronic device, and the portable electronic device may be used while moving. However, when a portable electronic device is used during movement, the distance and angle between the user and the display screen frequently change due to camera shake or the like. As a result, when the mobile electronic device is used during movement, the visibility of the display screen may be reduced. Therefore, there is a demand for a portable electronic device that prevents the visibility of the display screen from being lowered due to shaking during movement.

そこで、一例として、図1に示す携帯電子機器100を提供する。   Therefore, as an example, the portable electronic device 100 shown in FIG. 1 is provided.

携帯電子機器100は、表示部101と、表示部101と同一方向を向くように配置された撮像部102と、撮像部102が撮影した画像から、ユーザの顔領域を検出する顔領域検出部103と、基準とする顔領域を、基準顔領域として記憶する記憶部104と、基準顔領域に対する顔領域の相対関係を解析する顔領域解析部105と、相対関係に基づいて、表示部101に表示する情報の表示態様を変更する表示態様変更部106と、を備える。   The mobile electronic device 100 includes a display unit 101, an imaging unit 102 arranged to face the same direction as the display unit 101, and a face region detection unit 103 that detects a user's facial region from an image captured by the imaging unit 102. And a storage unit 104 that stores the reference face region as a reference face region, a face region analysis unit 105 that analyzes the relative relationship of the face region with respect to the reference face region, and a display on the display unit 101 based on the relative relationship A display mode changing unit 106 that changes a display mode of information to be displayed.

携帯電子機器100は、撮影されたユーザの顔領域を解析し、解析結果に基づいて、表示部101に表示する情報の表示態様を変更する。具体的には、まず、顔領域検出部103は、撮像部102が撮影した画像から、ユーザの顔領域を検出する。ここで、携帯電子機器100、又はユーザの顔の移動に応じて、検出される顔領域の大きさ、角度等は変化する。そこで、顔領域解析部105は、予め記憶部104に記憶している基準顔領域と、検出された顔領域の相対関係を解析する。そして、携帯電子機器100は、顔領域解析部105の解析結果に基づいて、視認性が高くなるように、表示部101に表示する情報の表示態様を変更する。従って、携帯電子機器100は、移動中の揺れに起因して、表示部101の視認性が低下することを防止できる。   The mobile electronic device 100 analyzes the photographed user's face area, and changes the display mode of information displayed on the display unit 101 based on the analysis result. Specifically, first, the face area detection unit 103 detects the user's face area from the image captured by the imaging unit 102. Here, the size, angle, and the like of the detected face area change according to the movement of the portable electronic device 100 or the user's face. Therefore, the face area analysis unit 105 analyzes the relative relationship between the reference face area stored in advance in the storage unit 104 and the detected face area. And the portable electronic device 100 changes the display mode of the information displayed on the display part 101 based on the analysis result of the face area | region analysis part 105 so that visibility may become high. Therefore, the portable electronic device 100 can prevent the visibility of the display unit 101 from being reduced due to shaking during movement.

以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。   Hereinafter, specific embodiments will be described in more detail with reference to the drawings.

[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
[First Embodiment]
The first embodiment will be described in more detail with reference to the drawings.

図2は、本実施形態に係る携帯電子機器1の全体構成の一例を示す平面図である。   FIG. 2 is a plan view showing an example of the overall configuration of the portable electronic device 1 according to the present embodiment.

携帯電子機器1は、撮像部10と、表示部20と、操作部30と、を含んでいる。なお本実施形態に係る携帯電子機器1を、図2で示す形態に限定する趣旨ではない。携帯電子機器1には、例えば、スマートフォン、携帯電話、ゲーム機、タブレットPC(Personal Computer)、ノートPC等が相当する。   The portable electronic device 1 includes an imaging unit 10, a display unit 20, and an operation unit 30. The portable electronic device 1 according to the present embodiment is not intended to be limited to the form shown in FIG. Examples of the mobile electronic device 1 include a smartphone, a mobile phone, a game machine, a tablet PC (Personal Computer), and a notebook PC.

撮像部10は、表示部20と同一方向を向くように配置され、表示部20と相対するユーザの顔を撮影できる。以下、撮像部10が撮影する画像を、撮影画像と呼ぶ。なお、撮像部10は、表示部20と同一面に配置されることが好ましい。   The imaging unit 10 is arranged so as to face the same direction as the display unit 20, and can capture the face of the user facing the display unit 20. Hereinafter, an image captured by the imaging unit 10 is referred to as a captured image. The imaging unit 10 is preferably arranged on the same plane as the display unit 20.

ユーザは、表示部20により携帯電子機器1が表示する情報(文字や写真等)を視認する。表示部20には、液晶パネル、有機EL(Electro Luminescence)パネル等を使用することができる。   The user visually recognizes information (such as characters and photographs) displayed on the mobile electronic device 1 through the display unit 20. As the display unit 20, a liquid crystal panel, an organic EL (Electro Luminescence) panel, or the like can be used.

操作部30は、携帯電子機器1に対するユーザの操作を受け付ける。図2では、操作部30としてハードウェアキーを図示しているが、タッチパネル等の操作手段を採用することもできる。   The operation unit 30 receives a user operation on the mobile electronic device 1. In FIG. 2, hardware keys are illustrated as the operation unit 30, but operation means such as a touch panel may be employed.

図3は、携帯電子機器1の内部構成の一例を示す図である。携帯電子機器1は、撮像部10と、表示部20と、操作部30と、制御部40と、記憶部50と、を含んで構成される。図3には、簡単のため、本実施形態に係る携帯電子機器1に関係するモジュールを主に記載する。なお、表示部20と、操作部30は、上述のとおりであるため、更なる説明を省略する。   FIG. 3 is a diagram illustrating an example of the internal configuration of the mobile electronic device 1. The portable electronic device 1 includes an imaging unit 10, a display unit 20, an operation unit 30, a control unit 40, and a storage unit 50. In FIG. 3, for the sake of simplicity, modules related to the portable electronic device 1 according to the present embodiment are mainly described. In addition, since the display part 20 and the operation part 30 are as above-mentioned, further description is abbreviate | omitted.

撮像部10は、上述のとおり、ユーザの顔を撮影する。そして、撮影画像は記憶部50に記憶される。記憶部50に記憶された撮影画像は、制御部40からアクセス可能である。なお、撮像部10は、ユーザの操作に基づいて起動するようにしてもよい。   The imaging unit 10 captures the user's face as described above. The captured image is stored in the storage unit 50. The captured image stored in the storage unit 50 can be accessed from the control unit 40. Note that the imaging unit 10 may be activated based on a user operation.

図4は、ユーザによる携帯電子機器1の使用態様の一例を示す図である。図4(a)は、ユーザが携帯電子機器1を把持した場合を側面から示す図である。また、図4(b)は、図4(a)の場合の撮影画像201の一例を示す図である。また、図4(c)は、図4(a)の状態で、表示部20に表示する画像の一例を示す図である。以下の説明では、表示部20に表示する画像を表示画像と呼ぶ。   FIG. 4 is a diagram illustrating an example of how the mobile electronic device 1 is used by the user. FIG. 4A is a diagram illustrating a case where the user holds the portable electronic device 1 from the side. FIG. 4B is a diagram illustrating an example of the captured image 201 in the case of FIG. FIG. 4C is a diagram illustrating an example of an image displayed on the display unit 20 in the state of FIG. In the following description, an image displayed on the display unit 20 is referred to as a display image.

また、以下の説明では、図4(b)に示すように、撮影画像201の左上の頂点を原点(X,Y)=(0,0)とする。そして、原点から、水平方向をX軸、垂直方向をY軸とする。さらに、図4(c)に示すように、表示部20の左上の頂点を原点(x,y)=(0,0)とする。そして、原点から水平方向をx軸、垂直方向をy軸とする。なお、図4(b)に示すように、X軸は、表示部20の右方向を正とする。Y軸は、表示部20の下方向を正とする。さらに、図4(c)に示すように、x軸は、表示部20の右方向を正とする。y軸は、表示部20の下方向を正とする。   In the following description, as shown in FIG. 4B, the upper left vertex of the photographed image 201 is set to the origin (X, Y) = (0, 0). From the origin, the horizontal direction is the X axis and the vertical direction is the Y axis. Further, as shown in FIG. 4C, the upper left vertex of the display unit 20 is set to the origin (x, y) = (0, 0). The horizontal direction from the origin is the x axis, and the vertical direction is the y axis. Note that, as shown in FIG. 4B, the right direction of the display unit 20 is positive in the X axis. In the Y axis, the downward direction of the display unit 20 is positive. Further, as shown in FIG. 4C, the x axis is positive in the right direction of the display unit 20. In the y-axis, the downward direction of the display unit 20 is positive.

制御部40は、図2に示す撮像部10等の機能モジュールだけではなく、携帯電子機器1の全体を制御する。制御部40は、特徴点検出部41と、顔領域検出部42と、顔領域解析部43と、表示態様変更部44と、画像信号生成部45と、を含んで構成される。   The control unit 40 controls not only the functional module such as the imaging unit 10 illustrated in FIG. 2 but also the entire portable electronic device 1. The control unit 40 includes a feature point detection unit 41, a face region detection unit 42, a face region analysis unit 43, a display mode change unit 44, and an image signal generation unit 45.

特徴点検出部41は、撮影画像から、予め定めた特徴を持つ複数の特徴点を抽出する。具体的には、特徴点検出部41は、撮影画像から、眼等を特徴点として抽出する。   The feature point detection unit 41 extracts a plurality of feature points having predetermined features from the captured image. Specifically, the feature point detection unit 41 extracts an eye or the like as a feature point from the captured image.

顔領域検出部42は、撮影画像から、ユーザの顔領域を検出する。具体的には、顔領域検出部42は、特徴点検出部41が検出した特徴点を含む領域を、顔領域として検出する。例えば、顔領域には、眼、口の特徴点を含む領域が好ましい。   The face area detection unit 42 detects the user's face area from the captured image. Specifically, the face area detection unit 42 detects an area including the feature point detected by the feature point detection unit 41 as a face area. For example, the face region is preferably a region including eye and mouth feature points.

図5は、顔領域検出部42が検出する顔領域の一例を示す図である。図5(a)では、顔領域301は、撮影画像201において、眼及び口を含む領域である。一方、図5(b)では、顔領域302は、撮影画像201において、眼を含む領域である。   FIG. 5 is a diagram illustrating an example of a face area detected by the face area detection unit 42. In FIG. 5A, the face area 301 is an area including the eyes and mouth in the captured image 201. On the other hand, in FIG. 5B, the face area 302 is an area including the eyes in the captured image 201.

顔領域解析部43は、顔領域を解析する。具体的には、顔領域解析部43は、顔領域の大きさ、角度を含む情報を取得する。以下、顔領域解析部43の解析対象の顔領域を、対象顔領域と呼ぶ。なお、顔領域解析部43の詳細については、後述する。   The face area analysis unit 43 analyzes the face area. Specifically, the face area analysis unit 43 acquires information including the size and angle of the face area. Hereinafter, the face area to be analyzed by the face area analysis unit 43 is referred to as a target face area. Details of the face area analysis unit 43 will be described later.

表示態様変更部44は、顔領域解析部43の解析結果に基づいて、ユーザに提供する情報(表示画像)の表示態様を決定する。具体的には、表示態様変更部44は、表示画像の角度及び大きさを変更する。   The display mode changing unit 44 determines the display mode of information (display image) provided to the user based on the analysis result of the face area analyzing unit 43. Specifically, the display mode changing unit 44 changes the angle and size of the display image.

画像信号生成部45は、決定された表示態様に基づいて、表示画像の画像信号を生成する。   The image signal generation unit 45 generates an image signal of a display image based on the determined display mode.

記憶部50は、予め所定の位置、及び角度で撮影された撮影画像を、基準撮影画像として、記憶する。具体的には、まず、ユーザは、表示部20の視認性が高い位置、角度で携帯電子機器1を把持する。そして、撮像部10は、ユーザの操作キー(操作部30)を押下する等の操作に基づいて、ユーザの顔を撮影する。以下、基準撮影画像から検出される顔領域を、基準顔領域と呼ぶ。さらに、以下では、基準顔領域を決定する操作を、基準顔領域の決定操作と呼ぶ。基準撮影画像は、図4(a)に示すように、ユーザが携帯電子機器1に正対し、撮影された画像が好ましい。   The storage unit 50 stores a captured image captured in advance at a predetermined position and angle as a reference captured image. Specifically, first, the user holds the portable electronic device 1 at a position and an angle at which the display unit 20 has high visibility. Then, the imaging unit 10 captures the user's face based on an operation such as pressing the user's operation key (operation unit 30). Hereinafter, the face area detected from the reference photographed image is referred to as a reference face area. Further, hereinafter, the operation for determining the reference face area is referred to as a reference face area determining operation. As shown in FIG. 4A, the reference photographed image is preferably an image photographed by the user facing the portable electronic device 1.

なお、基準撮影画像を撮影する際、ユーザ毎に、ユーザの顔と表示部20の距離等は異なる。例えば、近視のユーザは、表示部20とユーザの顔の距離が近くなるように、携帯電子機器1を把持する場合が多い。一方、遠視のユーザは、表示部20とユーザの顔の距離が遠くなるように、携帯電子機器1を把持する場合が多い。   Note that when the reference captured image is captured, the distance between the user's face and the display unit 20 is different for each user. For example, a myopic user often holds the portable electronic device 1 so that the distance between the display unit 20 and the user's face is short. On the other hand, a hyperopic user often holds the portable electronic device 1 so that the distance between the display unit 20 and the user's face is increased.

ここで、携帯電子機器1は、例えば、基準画像撮影モードを備えていてもよい。具体的には、基準画像撮影モードでは、制御部10は、サンプルの文字や画像等を表示部20に表示する。そして、ユーザは、表示部20に表示される文字や画像等を視認しやすい位置及び角度で、携帯電子機器1を把持する。そして、撮像部10は、ユーザの操作に基づいて、ユーザの顔を撮影する。   Here, the mobile electronic device 1 may include a reference image shooting mode, for example. Specifically, in the reference image shooting mode, the control unit 10 displays sample characters, images, and the like on the display unit 20. Then, the user holds the portable electronic device 1 at a position and an angle at which it is easy to visually recognize characters and images displayed on the display unit 20. And the imaging part 10 image | photographs a user's face based on a user's operation.

次に、表示画像の表示態様の変更について、詳細に説明する。   Next, the change in the display mode of the display image will be described in detail.

上述のとおり、表示態様変更部44は、顔領域解析部43の解析結果に基づいて、表示画像の表示態様を決定する。ここで、顔領域解析部43は、基準顔領域に対する対象顔領域の相対関係を解析する。   As described above, the display mode changing unit 44 determines the display mode of the display image based on the analysis result of the face area analyzing unit 43. Here, the face area analysis unit 43 analyzes the relative relationship of the target face area with respect to the reference face area.

まず、表示画像の角度について説明する。   First, the angle of the display image will be described.

顔領域解析部43は、基準顔領域に対する対象顔領域の角度(傾き)を算出する。以下、基準顔領域に対する対象顔領域の角度を角度変化量と呼ぶ。そして、表示態様変更部44は、対象顔領域の角度に応じて、表示画像を回転する。   The face area analysis unit 43 calculates the angle (inclination) of the target face area with respect to the reference face area. Hereinafter, the angle of the target face area with respect to the reference face area is referred to as an angle change amount. Then, the display mode changing unit 44 rotates the display image according to the angle of the target face area.

具体的には、顔領域解析部43は、基準顔領域内から一つの軸(以下、第1の基準軸と呼ぶ)を抽出する。第1の基準軸は、例えば、基準顔領域内の2つの特徴点を端点とする線分であっても良い。または、第1の基準軸は、左右の眼の端点を結ぶ線分であっても良い。あるいは、第1の基準軸は、鼻、口等の特徴点を結ぶ線分であってもよい。   Specifically, the face area analysis unit 43 extracts one axis (hereinafter referred to as a first reference axis) from the reference face area. The first reference axis may be, for example, a line segment having two feature points in the reference face area as end points. Alternatively, the first reference axis may be a line segment that connects the end points of the left and right eyes. Alternatively, the first reference axis may be a line segment connecting feature points such as the nose and mouth.

さらに、顔領域解析部43は、対象顔領域内から、一つの軸(以下、第2の基準軸と呼ぶ)を抽出する。ここで、顔領域解析部43は、第2の基準軸は、第1の基準軸と同一の条件で抽出する必要がある。例えば、第1の基準軸が、左右の眼の端点を結ぶ線分である場合、第2の基準軸も左右の眼の端点を結ぶ線分である必要がある。   Further, the face area analysis unit 43 extracts one axis (hereinafter referred to as a second reference axis) from the target face area. Here, the face area analysis unit 43 needs to extract the second reference axis under the same conditions as the first reference axis. For example, when the first reference axis is a line segment connecting the left and right eye end points, the second reference axis needs to be a line segment connecting the left and right eye end points.

そして、顔領域解析部43は、第1の基準軸に対して、第2の基準軸がなす角度を、角度変化量として算出する。   Then, the face area analysis unit 43 calculates an angle formed by the second reference axis with respect to the first reference axis as an angle change amount.

図6は、特徴点検出部41が検出する特徴点と、顔領域の一例を示す図である。図6(a)は、基準顔領域311の一例を示す図である。図6(a)に示す点P401及び点P402は、鼻と口を表す特徴点である。一方、図6(b)は、対象顔領域312の一例を示す図である。図6(b)では、基準顔領域311の向きに対して、回転した対象顔領域312が表されている。そして、図6(b)に示す点P411及び点P412は、点P401及び点P402に対応する特徴点である。   FIG. 6 is a diagram illustrating an example of feature points detected by the feature point detection unit 41 and a face area. FIG. 6A is a diagram illustrating an example of the reference face area 311. Point P401 and point P402 shown in FIG. 6A are feature points representing the nose and mouth. On the other hand, FIG. 6B is a diagram illustrating an example of the target face area 312. In FIG. 6B, the target face area 312 rotated with respect to the orientation of the reference face area 311 is shown. A point P411 and a point P412 shown in FIG. 6B are feature points corresponding to the point P401 and the point P402.

次に、図7を用いて、角度変化量と表示画像の角度の関係について説明する。図7(a)は、図6で示す特徴点をXY平面に射影した一例を示す図である。ここで、点P401及び点P402を端点とする線分を、線分L1とする。さらに、点P411及び点P412を端点とする線分を、線分L11とする。そして、線分L1と線分L11のなす角度を角度θとする。つまり、角度θは、角度変化量に相当する。   Next, the relationship between the angle change amount and the angle of the display image will be described with reference to FIG. FIG. 7A is a diagram showing an example in which the feature points shown in FIG. 6 are projected onto the XY plane. Here, a line segment with the points P401 and P402 as end points is defined as a line segment L1. Furthermore, a line segment having the end points of the points P411 and P412 is defined as a line segment L11. The angle formed between the line segment L1 and the line segment L11 is defined as an angle θ. That is, the angle θ corresponds to the amount of change in angle.

そして、表示態様変更部44は、回転角θで、基準顔領域の表示画像を回転する。つまり、表示態様変更部44は、ユーザの顔の角度に応じて、表示画像を回転する。例えば、図7(b)に示すように、対象顔領域での表示画像502は、回転角θで、基準顔領域での表示画像501を回転した画像である。   Then, the display mode changing unit 44 rotates the display image of the reference face area at the rotation angle θ. That is, the display mode changing unit 44 rotates the display image according to the angle of the user's face. For example, as shown in FIG. 7B, the display image 502 in the target face area is an image obtained by rotating the display image 501 in the reference face area at the rotation angle θ.

図8は、傾きの異なる顔領域と、対応する表示画像の一例を示す図である。図8(a)は、基準顔領域321の一例を示す図である。図8(b)は、図8(a)の場合の表示画像の一例を示す図である。また、図8(c)は、対象顔領域322の一例を示す図である。図8(d)は、図8(c)の場合の表示画像の一例を示す図である。図8(d)に示すように、ユーザが顔を傾けた場合であっても、携帯電子機器1は、ユーザの顔と、表示画像が平行になるように、表示画像を傾けて表示する。従って、携帯電子機器1では、ユーザが顔を傾けた場合の視認性の低下を防止できる。   FIG. 8 is a diagram illustrating an example of face areas with different inclinations and corresponding display images. FIG. 8A shows an example of the reference face area 321. FIG. 8B is a diagram illustrating an example of a display image in the case of FIG. FIG. 8C is a diagram illustrating an example of the target face area 322. FIG. 8D is a diagram illustrating an example of a display image in the case of FIG. As shown in FIG. 8D, even when the user tilts his / her face, the portable electronic device 1 displays the display image so that the user's face and the display image are parallel to each other. Therefore, the portable electronic device 1 can prevent a decrease in visibility when the user tilts his / her face.

次に、表示画像の大きさについて説明する。   Next, the size of the display image will be described.

顔領域解析部43は、基準顔領域に対する対象顔領域の面積の比を算出する。そして、表示態様変更部44は、顔領域解析部43が算出する面積の比に応じて、表示画像の大きさを変更する。例えば、対象顔領域の面積が、基準顔領域に対して小さい場合、ユーザが表示部20から相対的に遠いと考えられる。そのため、表示画像は、基準顔領域に対して、大きく表示されることが好ましい。一方、対象顔領域の面積が、基準顔領域に対して大きい場合、ユーザが表示部20に相対的に近いと考えられる。そのため、表示画像は、基準顔領域に対して、小さく表示されることが好ましい。   The face area analysis unit 43 calculates the ratio of the area of the target face area to the reference face area. Then, the display mode changing unit 44 changes the size of the display image in accordance with the area ratio calculated by the face area analyzing unit 43. For example, when the area of the target face area is smaller than the reference face area, the user is considered to be relatively far from the display unit 20. Therefore, it is preferable that the display image is displayed larger than the reference face area. On the other hand, when the area of the target face area is larger than the reference face area, it is considered that the user is relatively close to the display unit 20. Therefore, the display image is preferably displayed smaller than the reference face area.

ここで、表示態様変更部44は、顔領域の面積の比に対する表示画像の大きさを、所定の対応関係に基づいて、決定することが好ましい。具体的には、表示態様変更部44は、顔領域の面積の比と、表示画像の大きさの対応関係を示す、所定の一次関数に基づいて、表示画像の大きさを決定してもよい。または、予め、記憶部50が、顔領域の面積の比と、表示画像の大きさの対応関係を記憶してもよい。   Here, the display mode changing unit 44 preferably determines the size of the display image with respect to the ratio of the area of the face area based on a predetermined correspondence relationship. Specifically, the display mode changing unit 44 may determine the size of the display image based on a predetermined linear function indicating the correspondence between the area ratio of the face area and the size of the display image. . Or the memory | storage part 50 may memorize | store the correspondence of the area ratio of a face area | region, and the magnitude | size of a display image previously.

図9は、面積の異なる顔領域と、対応する表示画像の一例を示す図である。図9(a)は、基準顔領域331の一例を示す図である。図9(b)は、図9(a)の場合の表示画像の一例を示す図である。また、図9(c)は、対象顔領域332の一例を示す図である。図9(d)は、図9(c)の場合の表示画像の一例を示す図である。ここで、基準顔領域331の面積に対して、対象顔領域332の面積は小さい。ここで、対象顔領域332は、基準顔領域331をr%縮小した画像である。そのため、図9(d)に示すように、表示態様変更部44は、図9(c)の表示画像を拡大して表示する。具体的には、図9の場合、表示態様変更部44は、図9(c)の表示画像を、R%拡大して表示する。従って、携帯電子機器1では、ユーザの顔と表示部20の間の距離の変化によって、視認性が低下することを防止できる。   FIG. 9 is a diagram illustrating an example of face areas having different areas and corresponding display images. FIG. 9A is a diagram illustrating an example of the reference face area 331. FIG. 9B is a diagram illustrating an example of a display image in the case of FIG. FIG. 9C is a diagram illustrating an example of the target face area 332. FIG. 9D is a diagram illustrating an example of a display image in the case of FIG. Here, the area of the target face area 332 is smaller than the area of the reference face area 331. Here, the target face area 332 is an image obtained by reducing the reference face area 331 by r%. Therefore, as shown in FIG. 9D, the display mode changing unit 44 enlarges and displays the display image of FIG. 9C. Specifically, in the case of FIG. 9, the display mode changing unit 44 displays the display image of FIG. Therefore, in the portable electronic device 1, it is possible to prevent the visibility from being lowered due to a change in the distance between the user's face and the display unit 20.

次に、携帯電子機器1の動作について説明する。   Next, the operation of the mobile electronic device 1 will be described.

図10は、表示態様の変更に関する動作の一例を示すフローチャートである。   FIG. 10 is a flowchart illustrating an example of an operation related to a change in display mode.

ステップS01において、撮像部10は、ユーザの顔を撮影する。   In step S01, the imaging unit 10 captures the user's face.

ステップS02において、顔領域検出部42は、対象顔領域を検出するか否かを判断する。つまり、特徴点検出部41が所定の特徴点を検出するか否かを、顔領域検出部42は判断する。対象顔領域が検出された場合(ステップS02のYes分岐)には、ステップS03に遷移する。対象顔領域が検出されない場合(ステップS02のNo分岐)には、ステップS05に遷移する。   In step S02, the face area detection unit 42 determines whether or not to detect the target face area. That is, the face area detection unit 42 determines whether or not the feature point detection unit 41 detects a predetermined feature point. If the target face area is detected (Yes branch in step S02), the process proceeds to step S03. If the target face area is not detected (No branch in step S02), the process proceeds to step S05.

ステップS03において、顔領域解析部43は、対象顔領域を解析する。   In step S03, the face area analysis unit 43 analyzes the target face area.

ステップS04において、顔領域解析部43の解析結果に基づいて、表示態様変更部44は、表示画像の表示態様を変更する。   In step S04, the display mode changing unit 44 changes the display mode of the display image based on the analysis result of the face area analyzing unit 43.

ステップS05において、画像信号生成部45は、決定された表示態様に基づいて、表示画像の画像信号を生成する。   In step S05, the image signal generation unit 45 generates an image signal of the display image based on the determined display mode.

ステップS06において、操作部30が終了操作を検出したか否かを、制御部40は判断する。例えば、終了操作とは、ユーザが、表示態様の変更処理を停止する際に、終了ボタン等を押下する操作であってもよい。または、所定のアプリケーション(電子メールアプリケーション、Webアプリケーション等)を実行中には、制御部40は表示態様を変更するとしてもよい。その場合、終了操作とは、アプリケーションを終了する操作であってもよい。終了操作が検出された場合(ステップS06のYes分岐)には、制御部40は、表示態様の変更処理を終了する。終了操作が検出されない場合(ステップS06のNo分岐)には、ステップS01に遷移し、処理を継続する。   In step S06, the control unit 40 determines whether or not the operation unit 30 has detected an end operation. For example, the end operation may be an operation in which the user presses an end button or the like when the display mode changing process is stopped. Alternatively, the control unit 40 may change the display mode while a predetermined application (e-mail application, Web application, etc.) is being executed. In this case, the end operation may be an operation that ends the application. When the end operation is detected (Yes branch in step S06), the control unit 40 ends the display mode changing process. When the end operation is not detected (No branch in step S06), the process proceeds to step S01 and the process is continued.

例えば、携帯電子機器1は、表示態様変更モードを備えていてもよい。具体的には、携帯電子機器1は、表示態様変更モードに設定されている場合には、ステップS01〜ステップS06の処理に基づいて、表示画像の表示態様を変更してもよい。   For example, the mobile electronic device 1 may include a display mode change mode. Specifically, when the mobile electronic device 1 is set in the display mode change mode, the display mode of the display image may be changed based on the processing in steps S01 to S06.

次に、図11は、ユーザの操作に基づいて、基準顔領域を決定する動作の一例を示すフローチャートである。   Next, FIG. 11 is a flowchart illustrating an example of an operation for determining a reference face area based on a user operation.

ステップS101において、撮像部10は、ユーザの顔を撮影する。   In step S101, the imaging unit 10 captures the user's face.

ステップS102において、顔領域検出部42は、顔領域を検出したか否かを判断する。顔領域が検出された場合(ステップS102のYes分岐)には、ステップS103に遷移する。顔領域が検出されない場合(ステップS102のNo分岐)には、ステップS101に遷移し、処理を継続する。   In step S102, the face area detection unit 42 determines whether or not a face area has been detected. If a face area is detected (Yes branch in step S102), the process proceeds to step S103. When the face area is not detected (No branch in step S102), the process proceeds to step S101 and the process is continued.

ステップS103において、操作部30が基準顔領域の決定操作を検出したか否かを、制御部40は判断する。決定操作が検出された場合(ステップS103のYes分岐)には、ステップS104に遷移する。決定操作が検出されない場合(ステップS103のNo分岐)には、ステップS101に遷移し、処理を継続する。   In step S <b> 103, the control unit 40 determines whether or not the operation unit 30 has detected a reference face region determination operation. When the determination operation is detected (Yes branch in step S103), the process proceeds to step S104. When the determination operation is not detected (No branch in step S103), the process proceeds to step S101 and the process is continued.

ステップS104において、制御部40は、顔領域検出部42が検出した顔領域を、基準顔領域として、記憶部50に記憶する。   In step S104, the control unit 40 stores the face area detected by the face area detection unit 42 in the storage unit 50 as a reference face area.

[変形例1]
第1の実施形態に係る携帯電子機器1の変形例1として、撮像部10から得られる画像を逐次解析し、画像の中にユーザの顔を認識した場合に撮影を開始してもよい。さらには、撮像部10と同一方向を向くように配置された人感センサ(赤外線センサ等)が存在する場合には、このような赤外線センサの出力から所定の範囲内に、何かしらの対象物が検出されたと判断した際に、撮影を開始してもよい。
[Modification 1]
As a first modification of the portable electronic device 1 according to the first embodiment, an image obtained from the imaging unit 10 may be sequentially analyzed, and shooting may be started when a user's face is recognized in the image. Furthermore, when there is a human sensor (infrared sensor or the like) arranged so as to face the same direction as the imaging unit 10, some object is within a predetermined range from the output of such an infrared sensor. Shooting may be started when it is determined that the detection has been made.

以上のように、本実施形態に係る携帯電子機器1では、ユーザの顔の角度、及び表示部20との距離に応じて、表示画像の表示態様を変更する。例えば、移動中の揺れによって、表示部20と、ユーザの顔との相対的な距離や角度が変化する。その結果、携帯電子機器の表示画面の視認性が低下する場合がある。ここで、本実施形態に係る携帯電子機器1では、表示部20と、ユーザの顔との相対的な距離や角度の変化に応じて、表示画像の大きさ、及び角度を変更する。従って、本実施形態に係る携帯電子機器1では、移動中の揺れに起因して、表示画面の視認性が低下することを防止できる。   As described above, in the mobile electronic device 1 according to the present embodiment, the display mode of the display image is changed according to the angle of the user's face and the distance from the display unit 20. For example, the relative distance and angle between the display unit 20 and the user's face change due to shaking during movement. As a result, the visibility of the display screen of the portable electronic device may be reduced. Here, in the portable electronic device 1 according to the present embodiment, the size and angle of the display image are changed according to changes in the relative distance and angle between the display unit 20 and the user's face. Therefore, in the portable electronic device 1 according to the present embodiment, it is possible to prevent the visibility of the display screen from being lowered due to shaking during movement.

[第2の実施形態] [Second Embodiment]

続いて、第2の実施形態について、図面を用いて詳細に説明する。   Next, the second embodiment will be described in detail with reference to the drawings.

第2の実施形態は、顔領域の位置に応じて、表示画像の位置を変更する形態である。なお、本実施形態における説明では、第1の実施形態と重複する部分の説明は省略する。さらに、本実施形態における説明では、第1の実施形態と同一の構成要素には、同一の符号を付し、その説明を省略する。   In the second embodiment, the position of the display image is changed according to the position of the face area. In the description of the present embodiment, the description of the same parts as those in the first embodiment is omitted. Further, in the description of the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

ユーザが携帯電子機器1を使用する際、ユーザの正面に、表示画像が表示されることが好ましい。そのため、ユーザの顔の位置が上下左右に移動した場合には、ユーザの顔の位置に応じて、表示画像の位置が変更されることが好ましい。そのため、本実施形態に係る携帯電子機器1では、表示態様変更部44は、対象顔領域の位置に応じて、表示画像の位置を変更する。   When the user uses the portable electronic device 1, it is preferable that a display image is displayed in front of the user. Therefore, when the position of the user's face moves up, down, left, and right, the position of the display image is preferably changed according to the position of the user's face. Therefore, in the portable electronic device 1 according to the present embodiment, the display mode changing unit 44 changes the position of the display image according to the position of the target face area.

顔領域解析部43は、基準顔領域に対して、対象顔領域のXY平面上での変位量を算出する。表示態様変更部44は、算出された変位量に基づいて、表示画像の位置を変更する。ここで、顔領域解析部43は、変位量を算出する前に、対象顔領域を正規化することが必要である。つまり、顔領域解析部43は、対象顔領域の回転角、及び面積を正規化する。   The face area analysis unit 43 calculates the amount of displacement of the target face area on the XY plane with respect to the reference face area. The display mode changing unit 44 changes the position of the display image based on the calculated displacement amount. Here, the face area analysis unit 43 needs to normalize the target face area before calculating the displacement amount. That is, the face area analysis unit 43 normalizes the rotation angle and area of the target face area.

具体的には、まず、顔領域解析部43は、角度変化量に基づいて、対象顔領域の回転角が、基準顔領域の回転角に一致するように、対象顔領域を回転する。さらに、顔領域解析部43は、基準顔領域に対する対象顔領域の面積が一致するように、対象顔領域を拡大、又は縮小処理を行う。   Specifically, first, the face area analysis unit 43 rotates the target face area so that the rotation angle of the target face area matches the rotation angle of the reference face area based on the angle change amount. Furthermore, the face area analysis unit 43 performs an enlargement or reduction process on the target face area so that the areas of the target face area with respect to the reference face area match.

次に、変位量の算出について説明する。   Next, the calculation of the displacement amount will be described.

まず、顔領域解析部43は、基準顔領域内に含まれる一点(以下、第1の基準点と呼ぶ)を抽出する。第1の基準点は、例えば、基準顔領域の重心点であってもよい。あるいは、顔領域検出部42が検出する特徴点であってもよい。   First, the face area analysis unit 43 extracts one point (hereinafter referred to as a first reference point) included in the reference face area. The first reference point may be a centroid point of the reference face area, for example. Alternatively, it may be a feature point detected by the face area detection unit 42.

さらに、顔領域解析部43は、対象顔領域内に含まれる一点(以下、第2の基準点と呼ぶ)を抽出する。第2の基準点は、第1の基準点と同一の条件で抽出する必要がある。例えば、第1の基準点が、基準顔領域の重心点である場合、第2の基準点は、対象顔領域の重心点である必要がある。   Further, the face area analysis unit 43 extracts one point (hereinafter referred to as a second reference point) included in the target face area. The second reference point needs to be extracted under the same conditions as the first reference point. For example, when the first reference point is the centroid point of the reference face area, the second reference point needs to be the centroid point of the target face area.

そして、顔領域解析部43は、第1の基準点に対する第2の基準点の変位量を算出する。表示態様変更部44は、算出された変位量に基づいて、表示画像の位置を変更する。   Then, the face area analysis unit 43 calculates a displacement amount of the second reference point with respect to the first reference point. The display mode changing unit 44 changes the position of the display image based on the calculated displacement amount.

表示態様変更部44は、画像の平行移動、スクロール、文字列のシフトの少なくともいずれかの処理に基づいて、表示画像の位置を変更することが好ましい。   The display mode changing unit 44 preferably changes the position of the display image based on at least one of the parallel movement of the image, the scroll, and the shift of the character string.

図12は、顔領域と、表示画像の位置の対応関係の一例を示す図である。図12(a)は、基準顔領域341の一例を示す図である。図12(b)は、図12(a)の場合の表示画像の一例を示す図である。図12(c)は、対象顔領域342の一例を示す図である。図12(d)は、図12(c)の場合の表示画像の一例を示す図である。図12(b)に示すように、対象顔領域342は、基準顔領域341に対して、右上の位置に存在する。従って、図12(d)に示すように、対象顔領域342の位置の場合には、表示画像が表示部20の右上に表示される。   FIG. 12 is a diagram illustrating an example of a correspondence relationship between the face area and the position of the display image. FIG. 12A is a diagram illustrating an example of the reference face area 341. FIG. 12B is a diagram illustrating an example of a display image in the case of FIG. FIG. 12C is a diagram illustrating an example of the target face area 342. FIG. 12D is a diagram illustrating an example of a display image in the case of FIG. As shown in FIG. 12B, the target face area 342 exists at the upper right position with respect to the reference face area 341. Accordingly, as shown in FIG. 12D, in the case of the position of the target face area 342, the display image is displayed on the upper right of the display unit 20.

以上のように、本実施形態に係る携帯電子機器1では、ユーザの顔の位置に応じて、表示画像の位置を変更する。従って、本実施形態に係る携帯電子機器1では、より一層、移動中の揺れに起因して、表示画面の視認性が低下することを防止できる。   As described above, in the portable electronic device 1 according to the present embodiment, the position of the display image is changed according to the position of the user's face. Therefore, in the portable electronic device 1 according to the present embodiment, it is possible to further prevent the visibility of the display screen from being lowered due to shaking during movement.

[第3の実施形態] [Third Embodiment]

続いて、第3の実施形態について、図面を用いて詳細に説明する。   Subsequently, the third embodiment will be described in detail with reference to the drawings.

第3の実施形態は、ユーザが携帯電子機器1を傾けて把持した場合に、表示態様を変更する形態である。なお、本実施形態における説明では、第1の実施形態と重複する部分の説明は省略する。さらに、本実施形態における説明では、第1の実施形態と同一の構成要素には、同一の符号を付し、その説明を省略する。   In the third embodiment, the display mode is changed when the user tilts and holds the portable electronic device 1. In the description of the present embodiment, the description of the same parts as those in the first embodiment is omitted. Further, in the description of the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図13は、ユーザが携帯電子機器1を把持する姿勢と、表示態様の対応関係の一例を示す図である。図13(a)は、携帯電子機器1に正対するユーザを、側面から示す図である。図13(b)は、基準顔領域351の一例を示す図である。図13(c)は、図13(b)の場合の表示画像の一例を示す図である。   FIG. 13 is a diagram illustrating an example of a correspondence relationship between a posture in which the user holds the portable electronic device 1 and a display mode. FIG. 13A is a diagram showing a user who faces the mobile electronic device 1 from the side. FIG. 13B is a diagram illustrating an example of the reference face area 351. FIG. 13C is a diagram illustrating an example of a display image in the case of FIG.

さらに、図13(d)は、携帯電子機器1を傾けて、把持するユーザを、側面から示す図である。図13(d)では、ユーザは、表示部20を見下ろして、携帯電子機器1を把持している。また、図13(e)は、図13(d)の場合の対象顔領域352を示す図である。図13(d)の場合には、撮像部10は、撮影画像201として、下から見たユーザの顔を撮影する。図13(f)は、図13(e)の場合の表示画像の一例を示す図である。例えば、図13(f)では、図13(c)の場合と比較し、表示部20の上部に表示画像を表示している。このように、本実施形態に係る携帯電子機器1では、表示部20に対するユーザの顔の角度に応じて、表示態様を変更する。   Furthermore, FIG.13 (d) is a figure which shows the user who inclines and holds the portable electronic device 1 from a side surface. In FIG. 13D, the user holds down the mobile electronic device 1 while looking down at the display unit 20. FIG. 13E is a diagram showing the target face area 352 in the case of FIG. In the case of FIG. 13D, the imaging unit 10 captures the face of the user viewed from below as the captured image 201. FIG. 13F is a diagram illustrating an example of a display image in the case of FIG. For example, in FIG. 13F, a display image is displayed on the upper portion of the display unit 20 as compared with the case of FIG. Thus, in the portable electronic device 1 according to the present embodiment, the display mode is changed according to the angle of the user's face with respect to the display unit 20.

具体的には、予め、本実施形態に係る携帯電子機器1では、所定の顔領域と、表示態様の対応関係(以下、角度対応情報と呼ぶ)を、記憶部50に記憶する。ここで、記憶部50は、角度対応情報として、向きの異なるユーザの顔領域と、表示態様の対応関係を記憶することが好ましい。なお、角度対応情報は、表示態様として、表示画像の回転角、大きさ、位置のいずれかの情報を含むことが好ましい。   Specifically, in the portable electronic device 1 according to the present embodiment, a correspondence relationship between a predetermined face area and a display mode (hereinafter referred to as angle correspondence information) is stored in the storage unit 50 in advance. Here, the storage unit 50 preferably stores, as angle correspondence information, a correspondence relationship between a face area of a user having a different orientation and a display mode. In addition, it is preferable that the angle correspondence information includes any information on the rotation angle, size, and position of the display image as a display mode.

そして、顔領域解析部43は、角度対応情報として記憶されている顔領域と、顔領域検出部42が検出した対象顔領域を照合する。そして、表示態様変更部44は、照合結果に基づいて、角度対応情報から対応する表示態様を選択する。顔領域の照合は、例えば、記憶されている顔領域をテンプレートとして、テンプレートマッチングをしてもよい。または、眼、口等の特徴点の位置関係に基づいて、顔領域を照合しても良い。なお、顔領域の照合方法は、各種あるが、その方式は問わない。   Then, the face area analysis unit 43 collates the face area stored as the angle correspondence information with the target face area detected by the face area detection unit 42. Then, the display mode changing unit 44 selects a corresponding display mode from the angle correspondence information based on the collation result. For face area matching, for example, template matching may be performed using a stored face area as a template. Or you may collate a face area | region based on the positional relationship of feature points, such as eyes and a mouth. There are various face area collation methods, but any method can be used.

図14は、角度対応情報の一例を示す図である。図14において、角度対応情報として、顔領域の画像と、表示態様の対応関係を示す。また、図14において、「位置」は、xy平面上での表示画像の位置を示す。「角度」は、角度変化量を示す。「拡大率」は、表示画像の拡大率を示す。また、上述のとおり、x軸は、表示部20の右方向を正とする。さらに、y軸は、表示部20の下方向を正とする。   FIG. 14 is a diagram illustrating an example of angle correspondence information. In FIG. 14, the correspondence between the face area image and the display mode is shown as the angle correspondence information. Further, in FIG. 14, “position” indicates the position of the display image on the xy plane. “Angle” indicates an angle change amount. “Enlargement factor” indicates the enlargement factor of the display image. Further, as described above, the x axis is positive in the right direction of the display unit 20. Further, the y-axis is positive in the downward direction of the display unit 20.

さらに、図14(a1)は、基準顔領域と、表示態様の対応関係を示す。一方、図14(a2)〜(a5)は、上下左右から撮影したユーザの顔領域と、表示態様の対応関係を示す。図14(a2)〜(a5)の場合、角度変化量は0度であり、拡大率は120%で、表示画像を表示する。   Furthermore, FIG. 14A1 shows the correspondence between the reference face area and the display mode. On the other hand, FIGS. 14 (a2) to (a5) show the correspondence between the user's face area taken from the top, bottom, left and right and the display mode. In the case of FIGS. 14A2 to 14A5, the angle change amount is 0 degree, the enlargement ratio is 120%, and the display image is displayed.

例えば、図14(a2)の場合、下からユーザの顔を撮影して検出された顔領域である。この場合、表示画像の位置は(x,y)=(50,20)である。一方、図14(a1)の場合には、表示画像の位置は(x,y)=(50,50)である。従って、図14(a2)の場合には、図14(a1)の場合に対して、表示画像を上側に表示することを意味する。   For example, in the case of FIG. 14A2, it is a face area detected by photographing the user's face from below. In this case, the position of the display image is (x, y) = (50, 20). On the other hand, in the case of FIG. 14A1, the position of the display image is (x, y) = (50, 50). Therefore, in the case of FIG. 14 (a2), it means that the display image is displayed on the upper side as compared with the case of FIG. 14 (a1).

そして、図14(a3)の場合には、図14(a1)の場合に対して、表示画像を上側に表示することを意味する。また、図14(a4)の場合には、図14(a1)の場合に対して、表示画像を左側に表示することを意味する。さらに、図14(a5)の場合には、図14(a1)の場合に対して、表示画像を右側に表示することを意味する。   In the case of FIG. 14 (a3), it means that the display image is displayed on the upper side as compared with the case of FIG. 14 (a1). Further, in the case of FIG. 14 (a4), it means that the display image is displayed on the left side as compared with the case of FIG. 14 (a1). Further, in the case of FIG. 14 (a5), it means that the display image is displayed on the right side as compared with the case of FIG. 14 (a1).

以上のように、本実施形態に係る携帯電子機器1では、ユーザが携帯電子機器1を傾けて把持した場合であっても、ユーザの顔の角度に応じて、表示態様を調整する。そのため、本実施形態に係る携帯電子機器1では、より一層、ユーザの姿勢の多様な変更に対応して、表示画面の視認性低下を防止できる。   As described above, in the portable electronic device 1 according to the present embodiment, the display mode is adjusted according to the angle of the user's face even when the user tilts and holds the portable electronic device 1. Therefore, in the portable electronic device 1 according to the present embodiment, it is possible to further prevent a reduction in the visibility of the display screen in response to various changes in the user's posture.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。   A part or all of the above embodiments can be described as in the following supplementary notes, but is not limited thereto.

(付記1)表示部と、前記表示部と同一方向を向くように配置された撮像部と、前記撮像部が撮影した画像から、ユーザの顔領域を検出する顔領域検出部と、基準とする前記顔領域を、基準顔領域として記憶する記憶部と、前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析部と、前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更部と、を備える携帯電子機器。   (Supplementary Note 1) A display unit, an imaging unit arranged to face the same direction as the display unit, a face region detection unit that detects a user's facial region from an image captured by the imaging unit, and a reference A storage unit that stores the face region as a reference face region, a face region analysis unit that analyzes a relative relationship of the face region with respect to the reference face region, and information to be displayed on the display unit based on the relative relationship A portable electronic device comprising: a display mode changing unit that changes a display mode.

(付記2)前記撮像部が撮影した画像から複数の特徴点を検出する特徴点検出部を備え、前記顔領域検出部は、前記特徴点を含む領域を、前記顔領域として検出する携帯電子機器。   (Supplementary Note 2) A portable electronic device including a feature point detection unit that detects a plurality of feature points from an image captured by the imaging unit, wherein the face region detection unit detects a region including the feature points as the face region. .

(付記3)前記顔領域解析部は、前記基準顔領域内の第1の基準軸に対して、前記顔領域内の第2の基準軸がなす角度を、角度変化量として算出し、前記表示態様変更部は、前記角度変化量に基づいて、前記表示部に表示する画像を回転する携帯電子機器。   (Additional remark 3) The said face area analysis part calculates the angle which the 2nd reference axis in the said face area | region makes with respect to the 1st reference axis in the said reference face area as an angle variation | change_quantity, The said display The aspect changing unit is a portable electronic device that rotates an image to be displayed on the display unit based on the angle change amount.

(付記4)前記顔領域解析部は、前記基準顔領域に対する前記顔領域の面積の比を算出し、前記表示態様変更部は、前記面積の比に基づいて、前記表示部に表示する画像の大きさを変更する携帯電子機器。   (Additional remark 4) The said face area analysis part calculates the ratio of the area of the said face area with respect to the said reference | standard face area, and the said display mode change part is based on the ratio of the area of the image displayed on the said display part. A portable electronic device that changes size.

(付記5)前記顔領域解析部は、前記基準顔領域内に含まれる第1の基準点に対する、前記顔領域内に含まれる第2の基準点の変位量を算出し、前記表示態様変更部は、前記変位量に基づいて、前記表示部に表示する画像の位置を変更する携帯電子機器。   (Additional remark 5) The said face area analysis part calculates the displacement amount of the 2nd reference point contained in the said face area with respect to the 1st reference point contained in the said reference face area, The said display mode change part Is a portable electronic device that changes the position of an image to be displayed on the display unit based on the amount of displacement.

(付記6)前記基準顔領域は、所定の位置、及び角度で撮影された画像から、前記顔領域検出部が検出した前記顔領域である携帯電子機器。   (Additional remark 6) The said reference face area is a portable electronic device which is the said face area which the said face area detection part detected from the image image | photographed with the predetermined | prescribed position and angle.

(付記7)前記記憶部は、所定の前記顔領域と、前記表示態様と、の対応関係を角度対応情報として記憶し、前記表示態様変更部は、前記角度対応情報から、前記顔領域に対応する前記表示態様を選択する携帯電子機器。   (Additional remark 7) The said memory | storage part memorize | stores the correspondence of the said predetermined face area | region and the said display mode as angle corresponding | compatible information, and the said display mode change part respond | corresponds to the said face area | region from the said angle corresponding | compatible information. A portable electronic device that selects the display mode.

(付記8)前記角度対応情報は、前記表示態様として、画像の回転角、大きさ、位置の少なくともいずれかの情報を含む携帯電子機器。   (Additional remark 8) The said angle corresponding | compatible information is a portable electronic device containing the information of at least any one of the rotation angle of an image, a magnitude | size, and a position as the said display mode.

(付記9)表示部と、前記表示部と同一方向を向くように配置された撮像部と、を備える携帯電子機器の制御方法であって、撮影画像から、ユーザの顔領域を検出する顔領域検出工程と、基準とする前記顔領域を、基準顔領域として記憶する記憶工程と、前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析工程と、前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更工程と、を含む携帯電子機器の制御方法。   (Additional remark 9) It is a control method of a portable electronic device provided with a display part and the imaging part arrange | positioned so that it may face the same direction as the said display part, Comprising: The face area which detects a user's face area from a picked-up image Based on the detection step, the storage step of storing the reference face region as a reference face region, the face region analysis step of analyzing the relative relationship of the face region with respect to the reference face region, A display mode changing step of changing a display mode of information to be displayed on the display unit.

(付記10)撮影画像から複数の特徴点を検出する特徴点検出工程を含み、前記顔領域検出工程は、前記特徴点を含む領域を、前記顔領域として検出する携帯電子機器の制御方法。   (Supplementary note 10) A method for controlling a portable electronic device, including a feature point detection step of detecting a plurality of feature points from a photographed image, wherein the face region detection step detects a region including the feature points as the face region.

(付記11)前記顔領域解析工程は、前記基準顔領域内の第1の基準軸に対して、前記顔領域内の第2の基準軸がなす角度を、角度変化量として算出し、前記表示態様変更工程は、前記角度変化量に基づいて、前記表示部に表示する画像を回転する携帯電子機器の制御方法。   (Additional remark 11) The said face area analysis process calculates the angle which the 2nd reference axis in the said face area | region makes with respect to the 1st reference axis in the said reference face area as an angle variation | change_quantity, The said display The aspect changing step is a method of controlling a portable electronic device that rotates an image to be displayed on the display unit based on the angle change amount.

(付記12)前記顔領域解析工程は、前記基準顔領域に対する前記顔領域の面積の比を算出し、前記表示態様変更工程は、前記面積の比に基づいて、前記表示部に表示する画像の大きさを変更する携帯電子機器の制御方法。   (Additional remark 12) The said face area analysis process calculates ratio of the area of the said face area with respect to the said reference | standard face area, and the said display mode change process is based on the ratio of said area, and displays the image displayed on the said display part. A method for controlling a portable electronic device whose size is changed.

(付記13)前記顔領域解析工程は、前記基準顔領域内に含まれる第1の基準点に対する、前記顔領域内に含まれる第2の基準点の変位量を算出し、前記表示態様変更工程は、前記変位量に基づいて、前記表示部に表示する画像の位置を変更する携帯電子機器の制御方法。   (Additional remark 13) The said face area analysis process calculates the displacement amount of the 2nd reference point contained in the said face area with respect to the 1st reference point contained in the said reference face area, The said display mode change process The control method of the portable electronic device which changes the position of the image displayed on the said display part based on the said displacement amount.

(付記14)前記記憶工程は、所定の前記顔領域と、前記表示態様と、の対応関係を角度対応情報として記憶し、前記表示態様変更工程は、前記角度対応情報から、前記顔領域に対応する前記表示態様を選択する携帯電子機器の制御方法。   (Additional remark 14) The said memory | storage process memorize | stores the correspondence of the said predetermined face area | region and the said display mode as angle corresponding | compatible information, and the said display mode change process respond | corresponds to the said face area | region from the said angle corresponding | compatible information. A method for controlling a portable electronic device that selects the display mode.

(付記15)表示部と、前記表示部と同一方向を向くように配置された撮像部と、を備える携帯電子機器を制御するコンピュータに実行させるプログラムであって、撮影画像から、ユーザの顔領域を検出する顔領域検出処理と、基準とする前記顔領域を、基準顔領域として記憶する記憶処理と、前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析処理と、前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更処理と、を実行するプログラム。   (Supplementary Note 15) A program that is executed by a computer that controls a portable electronic device that includes a display unit and an imaging unit that is arranged so as to face the same direction as the display unit. A face area detection process for detecting a reference area, a storage process for storing the reference face area as a reference face area, a face area analysis process for analyzing a relative relationship of the face area with respect to the reference face area, and the relative relationship And a display mode changing process for changing a display mode of information to be displayed on the display unit.

(付記16)撮影画像から複数の特徴点を検出する特徴点検出処理を実行し、前記顔領域検出処理は、前記特徴点を含む領域を、前記顔領域として検出するプログラム。   (Additional remark 16) The program which performs the feature point detection process which detects a some feature point from a picked-up image, and the said face area detection process detects the area | region containing the said feature point as said face area.

(付記17)前記顔領域解析処理は、前記基準顔領域内の第1の基準軸に対して、前記顔領域内の第2の基準軸がなす角度を、角度変化量として算出し、前記表示態様変更処理は、前記角度変化量に基づいて、前記表示部に表示する画像を回転するプログラム。   (Additional remark 17) The said face area analysis process calculates the angle which the 2nd reference axis in the said face area | region makes with respect to the 1st reference axis in the said reference face area as an angle variation | change_quantity, The said display The aspect change process is a program for rotating an image to be displayed on the display unit based on the angle change amount.

(付記18)前記顔領域解析処理は、前記基準顔領域に対する前記顔領域の面積の比を算出し、前記表示態様変更処理は、前記面積の比に基づいて、前記表示部に表示する画像の大きさを変更するプログラム。   (Additional remark 18) The said face area analysis process calculates ratio of the area of the said face area with respect to the said reference | standard face area, and the said display mode change process is based on the ratio of the area, and displays the image displayed on the said display part. A program that changes the size.

(付記19)前記顔領域解析処理は、前記基準顔領域内に含まれる第1の基準点に対する、前記顔領域内に含まれる第2の基準点の変位量を算出し、前記表示態様変更処理は、前記変位量に基づいて、前記表示部に表示する画像の位置を変更するプログラム。   (Additional remark 19) The said face area analysis process calculates the displacement amount of the 2nd reference point contained in the said face area with respect to the 1st reference point contained in the said reference face area, The said display mode change process The program which changes the position of the image displayed on the said display part based on the said displacement amount.

(付記20)前記記憶処理は、所定の前記顔領域と、前記表示態様と、の対応関係を角度対応情報として記憶し、前記表示態様変更処理は、前記角度対応情報から、前記顔領域に対応する前記表示態様を選択するプログラム。   (Additional remark 20) The said memory | storage process memorize | stores the correspondence of the said predetermined face area | region and the said display mode as angle corresponding | compatible information, and the said display mode change process respond | corresponds to the said face area | region from the said angle corresponding | compatible information. A program for selecting the display mode to be performed.

なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。   Each disclosure of the cited patent documents and the like cited above is incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiments and examples can be changed and adjusted based on the basic technical concept. Various disclosed elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) within the scope of the claims of the present invention, Selection is possible. That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea.

1、100 携帯電子機器
10、102 撮像部
20、101 表示部
30 操作部
40 制御部
41 特徴点検出部
42、103 顔領域検出部
43、105 顔領域解析部
44、106 表示態様変更部
45 画像信号生成部
50、104 記憶部
201 撮影画像
301、302 顔領域
301、311、321、331、341、351 基準顔領域
302、312、322、332、342、352 対象顔領域
501 基準顔領域での表示画像
502 対象顔領域での表示画像
DESCRIPTION OF SYMBOLS 1,100 Portable electronic device 10,102 Image pick-up part 20,101 Display part 30 Operation part 40 Control part 41 Feature point detection part 42,103 Face area detection part 43,105 Face area analysis part 44,106 Display mode change part 45 Image Signal generation unit 50, 104 Storage unit 201 Captured image 301, 302 Face area 301, 311, 321, 331, 341, 351 Reference face area 302, 312, 322, 332, 342, 352 Target face area 501 Reference face area Display image 502 Display image in the target face area

Claims (10)

表示部と、
前記表示部と同一方向を向くように配置された撮像部と、
前記撮像部が撮影した画像から、ユーザの顔領域を検出する顔領域検出部と、
基準とする前記顔領域を、基準顔領域として記憶する記憶部と、
前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析部と、
前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更部と、
を備えることを特徴とする携帯電子機器。
A display unit;
An imaging unit arranged to face the same direction as the display unit;
A face area detection unit that detects a user's face area from an image captured by the imaging unit;
A storage unit for storing the reference face area as a reference face area;
A face area analysis unit for analyzing a relative relationship of the face area with respect to the reference face area;
A display mode changing unit that changes a display mode of information to be displayed on the display unit based on the relative relationship;
A portable electronic device comprising:
前記撮像部が撮影した画像から複数の特徴点を検出する特徴点検出部を備え、
前記顔領域検出部は、前記特徴点を含む領域を、前記顔領域として検出する請求項1に記載の携帯電子機器。
A feature point detection unit that detects a plurality of feature points from an image captured by the imaging unit;
The portable electronic device according to claim 1, wherein the face area detection unit detects an area including the feature point as the face area.
前記顔領域解析部は、前記基準顔領域内の第1の基準軸に対して、前記顔領域内の第2の基準軸がなす角度を、角度変化量として算出し、
前記表示態様変更部は、前記角度変化量に基づいて、前記表示部に表示する画像を回転する請求項1又は2に記載の携帯電子機器。
The face area analysis unit calculates an angle formed by a second reference axis in the face area with respect to a first reference axis in the reference face area as an angle change amount;
The portable electronic device according to claim 1, wherein the display mode changing unit rotates an image displayed on the display unit based on the angle change amount.
前記顔領域解析部は、前記基準顔領域に対する前記顔領域の面積の比を算出し、
前記表示態様変更部は、前記面積の比に基づいて、前記表示部に表示する画像の大きさを変更する請求項1乃至3のいずれか一に記載の携帯電子機器。
The face area analysis unit calculates a ratio of the area of the face area to the reference face area;
The portable electronic device according to any one of claims 1 to 3, wherein the display mode changing unit changes a size of an image displayed on the display unit based on the ratio of the areas.
前記顔領域解析部は、前記基準顔領域内に含まれる第1の基準点に対する、前記顔領域内に含まれる第2の基準点の変位量を算出し、
前記表示態様変更部は、前記変位量に基づいて、前記表示部に表示する画像の位置を変更する請求項1乃至4のいずれか一に記載の携帯電子機器。
The face area analyzing unit calculates a displacement amount of a second reference point included in the face area with respect to a first reference point included in the reference face area;
The portable electronic device according to any one of claims 1 to 4, wherein the display mode changing unit changes a position of an image displayed on the display unit based on the displacement amount.
前記基準顔領域は、所定の位置、及び角度で撮影された画像から、前記顔領域検出部が検出した前記顔領域である請求項1乃至5のいずれか一に記載の携帯電子機器。   The portable electronic device according to claim 1, wherein the reference face area is the face area detected by the face area detection unit from an image photographed at a predetermined position and angle. 前記記憶部は、所定の前記顔領域と、前記表示態様と、の対応関係を角度対応情報として記憶し、
前記表示態様変更部は、前記角度対応情報から、前記顔領域に対応する前記表示態様を選択する請求項1乃至6のいずれか一に記載の携帯電子機器。
The storage unit stores a correspondence relationship between the predetermined face area and the display mode as angle correspondence information,
The portable electronic device according to any one of claims 1 to 6, wherein the display mode changing unit selects the display mode corresponding to the face area from the angle correspondence information.
前記角度対応情報は、前記表示態様として、画像の回転角、大きさ、位置の少なくともいずれかの情報を含む請求項7に記載の携帯電子機器。   The portable electronic device according to claim 7, wherein the angle correspondence information includes at least one of a rotation angle, a size, and a position of an image as the display mode. 表示部と、前記表示部と同一方向を向くように配置された撮像部と、を備える携帯電子機器の制御方法であって、
撮影画像から、ユーザの顔領域を検出する顔領域検出工程と、
基準とする前記顔領域を、基準顔領域として記憶する記憶工程と、
前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析工程と、
前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更工程と、
を含むことを特徴とする携帯電子機器の制御方法。
A control method for a portable electronic device comprising: a display unit; and an imaging unit arranged to face the same direction as the display unit,
A face area detection step of detecting a user's face area from the captured image;
Storing the face area as a reference as a reference face area;
A face area analysis step of analyzing a relative relationship of the face area with respect to the reference face area;
A display mode changing step for changing a display mode of information to be displayed on the display unit based on the relative relationship;
A method for controlling a portable electronic device, comprising:
表示部と、前記表示部と同一方向を向くように配置された撮像部と、を備える携帯電子機器を制御するコンピュータに実行させるプログラムであって、
撮影画像から、ユーザの顔領域を検出する顔領域検出処理と、
基準とする前記顔領域を、基準顔領域として記憶する記憶処理と、
前記基準顔領域に対する前記顔領域の相対関係を解析する顔領域解析処理と、
前記相対関係に基づいて、前記表示部に表示する情報の表示態様を変更する表示態様変更処理と、
を実行するプログラム。
A program to be executed by a computer that controls a portable electronic device comprising: a display unit; and an imaging unit arranged to face the same direction as the display unit,
A face area detection process for detecting a user's face area from a captured image;
A storage process for storing the reference face area as a reference face area;
A face area analysis process for analyzing a relative relationship of the face area with respect to the reference face area;
A display mode changing process for changing a display mode of information to be displayed on the display unit based on the relative relationship;
A program that executes.
JP2012145468A 2012-06-28 2012-06-28 Portable electronic device, its control method and program Expired - Fee Related JP6201282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012145468A JP6201282B2 (en) 2012-06-28 2012-06-28 Portable electronic device, its control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012145468A JP6201282B2 (en) 2012-06-28 2012-06-28 Portable electronic device, its control method and program

Publications (2)

Publication Number Publication Date
JP2014010227A true JP2014010227A (en) 2014-01-20
JP6201282B2 JP6201282B2 (en) 2017-09-27

Family

ID=50107010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012145468A Expired - Fee Related JP6201282B2 (en) 2012-06-28 2012-06-28 Portable electronic device, its control method and program

Country Status (1)

Country Link
JP (1) JP6201282B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103102A (en) * 2014-11-27 2016-06-02 京セラ株式会社 Portable terminal and control method therefor
JP2017044822A (en) * 2015-08-25 2017-03-02 シャープ株式会社 Display controller, display device, control method for display controller and control program
WO2019239852A1 (en) * 2018-06-13 2019-12-19 ソニー株式会社 Information processing device, information processing method, program and head-mounted display
JP2020202499A (en) * 2019-06-11 2020-12-17 国立大学法人静岡大学 Image observation system

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004128712A (en) * 2002-09-30 2004-04-22 Fuji Photo Film Co Ltd Portable terminal device
JP2007274333A (en) * 2006-03-31 2007-10-18 Nec Corp Image display position correction method and portable terminal with image display position correction function
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP2008139600A (en) * 2006-12-01 2008-06-19 Toshiba Corp Display device
JP2008177819A (en) * 2007-01-18 2008-07-31 Mitsubishi Electric Corp Portable terminal device
JP2008292753A (en) * 2007-05-24 2008-12-04 Denso Corp Information display device
JP2008294815A (en) * 2007-05-25 2008-12-04 Oki Electric Ind Co Ltd Information terminal
JP2009130816A (en) * 2007-11-27 2009-06-11 Nec Saitama Ltd Portable terminal device, screen display switching method, program, and computer readable recording medium
US20090164896A1 (en) * 2007-12-20 2009-06-25 Karl Ola Thorn System and method for dynamically changing a display
JP2010141839A (en) * 2008-12-15 2010-06-24 Toshiba Corp Mobile terminal unit
JP2011041067A (en) * 2009-08-12 2011-02-24 Fujitsu Toshiba Mobile Communications Ltd Mobile terminal
JP2011166409A (en) * 2010-02-09 2011-08-25 Panasonic Corp Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method
JP2011203860A (en) * 2010-03-24 2011-10-13 Ntt Docomo Inc Information terminal and display switching method

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004128712A (en) * 2002-09-30 2004-04-22 Fuji Photo Film Co Ltd Portable terminal device
JP2007274333A (en) * 2006-03-31 2007-10-18 Nec Corp Image display position correction method and portable terminal with image display position correction function
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP2008139600A (en) * 2006-12-01 2008-06-19 Toshiba Corp Display device
JP2008177819A (en) * 2007-01-18 2008-07-31 Mitsubishi Electric Corp Portable terminal device
JP2008292753A (en) * 2007-05-24 2008-12-04 Denso Corp Information display device
JP2008294815A (en) * 2007-05-25 2008-12-04 Oki Electric Ind Co Ltd Information terminal
JP2009130816A (en) * 2007-11-27 2009-06-11 Nec Saitama Ltd Portable terminal device, screen display switching method, program, and computer readable recording medium
US20090164896A1 (en) * 2007-12-20 2009-06-25 Karl Ola Thorn System and method for dynamically changing a display
JP2011510364A (en) * 2007-12-20 2011-03-31 ソニー エリクソン モバイル コミュニケーションズ, エービー System and method for dynamically changing display
JP2010141839A (en) * 2008-12-15 2010-06-24 Toshiba Corp Mobile terminal unit
JP2011041067A (en) * 2009-08-12 2011-02-24 Fujitsu Toshiba Mobile Communications Ltd Mobile terminal
JP2011166409A (en) * 2010-02-09 2011-08-25 Panasonic Corp Motion-recognizing remote-control receiving device, and motion-recognizing remote-control control method
JP2011203860A (en) * 2010-03-24 2011-10-13 Ntt Docomo Inc Information terminal and display switching method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103102A (en) * 2014-11-27 2016-06-02 京セラ株式会社 Portable terminal and control method therefor
JP2017044822A (en) * 2015-08-25 2017-03-02 シャープ株式会社 Display controller, display device, control method for display controller and control program
WO2019239852A1 (en) * 2018-06-13 2019-12-19 ソニー株式会社 Information processing device, information processing method, program and head-mounted display
JP2020202499A (en) * 2019-06-11 2020-12-17 国立大学法人静岡大学 Image observation system
JP7356697B2 (en) 2019-06-11 2023-10-05 国立大学法人静岡大学 Image observation system

Also Published As

Publication number Publication date
JP6201282B2 (en) 2017-09-27

Similar Documents

Publication Publication Date Title
JP5857257B2 (en) Display device and display direction switching method
JP6657593B2 (en) Biological imaging apparatus, biological imaging method, and biological imaging program
US9063563B1 (en) Gesture actions for interface elements
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
JP5434997B2 (en) Image display device
JP2016194799A (en) Image analyzer and image analysis method
JP3864776B2 (en) Image forming apparatus
JP5865597B2 (en) Portable electronic devices
US20140118256A1 (en) Display directional sensing
EP2189835A1 (en) Terminal apparatus, display control method, and display control program
US20130342459A1 (en) Fingertip location for gesture input
US9582169B2 (en) Display device, display method, and program
US9411412B1 (en) Controlling a computing device based on user movement about various angular ranges
JP6201282B2 (en) Portable electronic device, its control method and program
JP2012238293A (en) Input device
US9400575B1 (en) Finger detection for element selection
US11356607B2 (en) Electing camera modes for electronic devices having multiple display panels
TW201403454A (en) Screen rotating method and system
US20140009385A1 (en) Method and system for rotating display image
JP2017191426A (en) Input device, input control method, computer program, and storage medium
JP2016091383A (en) Portable terminal apparatus, screen control method and screen control program
US9898183B1 (en) Motions for object rendering and selection
JP6817527B1 (en) Information processing equipment, programs and information processing systems
JP5791557B2 (en) Contact operation support system, contact operation support device, and contact operation method
Schmieder et al. Thumbs up: 3D gesture input on mobile phones using the front facing camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150511

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20151007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170814

R150 Certificate of patent or registration of utility model

Ref document number: 6201282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees