WO2012108273A1 - 画像表示装置、画像表示方法およびプログラム - Google Patents

画像表示装置、画像表示方法およびプログラム Download PDF

Info

Publication number
WO2012108273A1
WO2012108273A1 PCT/JP2012/051678 JP2012051678W WO2012108273A1 WO 2012108273 A1 WO2012108273 A1 WO 2012108273A1 JP 2012051678 W JP2012051678 W JP 2012051678W WO 2012108273 A1 WO2012108273 A1 WO 2012108273A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
image display
display device
display unit
Prior art date
Application number
PCT/JP2012/051678
Other languages
English (en)
French (fr)
Inventor
奥山 俊幸
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US13/978,017 priority Critical patent/US9229527B2/en
Priority to CN2012800083573A priority patent/CN103403789A/zh
Priority to EP12744396.8A priority patent/EP2674937A4/en
Priority to JP2012556825A priority patent/JPWO2012108273A1/ja
Publication of WO2012108273A1 publication Critical patent/WO2012108273A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory

Definitions

  • the present invention relates to an image display device that displays an image, an image display method, and a program.
  • an acceleration sensor is provided in the image display device, the acceleration sensor detects the gravitational acceleration, estimates the direction in which the image display device is supported, and based on the estimation result, Change the orientation.
  • Patent Document 1 discloses a technique for switching the display direction of the screen according to the posture of the casing of the mobile terminal device.
  • a user of a mobile terminal device estimates a viewing direction for browsing the screen of the mobile terminal device based on posture information indicating the posture of the casing of the mobile terminal device. Then, screen display according to the estimated viewing direction and posture information is performed.
  • an image display device of the present invention provides: A display for displaying an image; A photographing unit for photographing a subject facing the display unit; A detection unit that detects an operation of the user of the image display device with respect to the image display device; An estimation unit that estimates an inclination of a human face with respect to the display unit from an image captured by the imaging unit when a predetermined operation is detected by the detection unit; A display direction changing unit that changes the orientation of the image displayed on the display unit according to the estimated inclination.
  • an image display method of the present invention is an image display method in an image display device including a display unit for displaying an image, A process of photographing a subject facing the display unit; A detection process for detecting an operation of the user of the image display device with respect to the image display device; When a predetermined operation is detected in the detection process, an estimation process for estimating an inclination of a human face with respect to the display unit from the captured image; And a process of changing the orientation of the image displayed on the display unit according to the estimated inclination.
  • the program of the present invention provides an image display device including a display unit for displaying an image.
  • the present invention is configured as described above, it is possible to prevent the displayed image from becoming difficult to view without deteriorating convenience.
  • FIG. 6 It is a block diagram which shows one Embodiment of the portable terminal to which the image display apparatus of this invention is applied. It is an external view of the portable terminal shown in FIG. It is a figure which shows an example of the variation
  • FIG. 1 is a block diagram showing an embodiment of a portable terminal to which an image display device of the present invention is applied.
  • FIG. 2 is an external view of the mobile terminal 100 shown in FIG.
  • a portable terminal is a tablet terminal, a smart phone, a digital camera, a mobile phone, a portable game machine, a portable music player, etc., for example.
  • the portable terminal 100 includes a display unit 110, a photographing unit 120, a control unit 130, and an acceleration sensor 140.
  • the display unit 110 displays an image based on data stored in the mobile terminal 100, an image showing an input screen for receiving various inputs from a user of the mobile terminal 100, and the like.
  • the photographing unit 120 When the photographing unit 120 receives the photographing instruction output from the control unit 130, the photographing unit 120 photographs the subject facing the display unit 110. Therefore, when there is a viewer who is viewing the display unit 110, the photographing unit 120 photographs the face of the viewer. Then, the imaging unit 120 outputs image data indicating the captured image to the control unit 130.
  • the acceleration sensor 140 detects the magnitude of acceleration for each of a plurality of axial directions such as the vertical, horizontal, and depth axes of the mobile terminal 100, for example.
  • the control unit 130 includes an estimation unit 131, an operation detection unit 132, a display direction determination unit 133, and a display direction change unit 134.
  • the operation detection unit 132 detects the operation of the user of the mobile terminal 100 with respect to the mobile terminal 100. Specifically, the motion detection unit 132 calculates the sum of the amount of change in the acceleration in each of the plurality of axial directions detected by the acceleration sensor 140 according to the motion of the user of the mobile terminal 100 with respect to the mobile terminal 100. This is calculated as the amount of change in acceleration applied to the mobile terminal 100. When the calculated amount of change in acceleration exceeds a predetermined threshold, the motion detection unit 132 outputs change detection information indicating that to the display direction determination unit 133.
  • FIG. 3 is a diagram illustrating an example of an acceleration change amount calculated by the motion detection unit 132 illustrated in FIG.
  • the motion detection unit 132 outputs the change detection information to the display direction determination unit 133 after time t1.
  • the estimation unit 131 receives the image data output from the imaging unit 120, and recognizes a human face from the image indicated by the received image data. Next, the estimation unit 131 identifies the position of each recognized part of the recognized face. Here, the position of each component to be identified is a position with respect to the imaging unit 120. Next, the estimation unit 131 identifies the position of each constituent part of the recognized face with respect to the display unit 110 based on the positional relationship between the display unit 110 and the imaging unit 120. Note that the estimation unit 131 detects the positional relationship between the display unit 110 and the imaging unit 120 using, for example, a sensor (not shown).
  • the estimation part 131 discriminate
  • FIG. 4 is a schematic diagram of a face for explaining an example of an operation in which the estimation unit 131 shown in FIG. 1 determines the vertical direction of the recognized face.
  • the components of the face 50 recognized by the estimation unit 131 are the eyes 51 and 52, the nose 53, and the mouth 54.
  • the estimation unit 131 identifies the position of the eyes 51 and 52 and the position of at least one of the nose 53 and the mouth 54 from the contour of the recognized face 50. Then, the estimating unit 131 determines that the direction from the midpoint between the eyes 51 and 52 to the nose 53 or the mouth 54 is a downward direction in the recognized face. Further, the estimating unit 131 determines the opposite direction as the upward direction in the recognized face.
  • the display direction determination unit 133 when receiving the change detection information output from the motion detection unit 132, the display direction determination unit 133 outputs a shooting instruction to the shooting unit 120. Thereafter, the display direction determination unit 133 receives the first direction information output from the estimation unit 131. Then, the display direction determination unit 133 determines an upper side of the four sides of the display unit 110 from the direction indicated by the received first direction information. Then, the display direction determination unit 133 outputs second direction information indicating the determined side to the display direction change unit 134.
  • FIG. 5 is a diagram for explaining an example of the operation in which the display direction determination unit 133 illustrated in FIG. 1 determines the upper side of the four sides of the display unit 110.
  • the display direction determination unit 133 recognizes each of the region a, the region b, the region c, and the region d obtained by dividing the display unit 110 using the oblique line p and the oblique line q with the center of the display unit 110 as an intersection. In addition, the display direction determination unit 133 recognizes each of the four sides, the side A, the side B, the side C, and the side D of the display unit 110. The display direction determination unit 133 stores the area a and the side A, the area b and the side B, the area c and the side C, and the area d and the side D in association with each other.
  • the display direction determining unit 133 selects the side corresponding to the region a including the direction of the arrow r among the four sides of the display unit 110. A is determined as the upper side. Similarly, for example, if the direction indicated by the received first direction information is included in the region b, the side B corresponding to the region b is determined as the side in the upward direction.
  • the display direction changing unit 134 receives the second direction information output from the display direction determining unit 133. Then, the display direction changing unit 134 changes the orientation of the image displayed on the display unit 110 with the side indicated by the received second direction information as the upward direction.
  • FIG. 6 is a flowchart for explaining the operation of the mobile terminal 100 shown in FIGS.
  • the acceleration sensor 140 detects the magnitude of acceleration in a plurality of axial directions (step S1).
  • the motion detection unit 132 calculates the sum of the change amounts of the accelerations in the plurality of axial directions detected by the acceleration sensor 140 as the change amount of the acceleration applied to the mobile terminal 100 (step S2). .
  • the motion detection unit 132 determines whether or not the calculated change amount of acceleration exceeds a threshold value (step S3).
  • step S3 when the calculated amount of change in acceleration does not exceed the threshold value, the process proceeds to step S1, and detection of the magnitude of acceleration in a plurality of axial directions is continued.
  • step S3 when the calculated change amount of acceleration exceeds the threshold value, the motion detection unit 132 outputs the change detection information to the display direction determination unit 133.
  • the display direction determination unit 133 that has received the change detection information output from the operation detection unit 132 outputs a shooting instruction to the shooting unit 120.
  • the image capturing unit 120 that has received the image capturing instruction output from the display direction determining unit 133 images the subject facing the display unit 110 (step S4).
  • the imaging unit 120 outputs image data indicating the captured image to the estimation unit 131.
  • the estimation unit 131 that has received the image data output from the photographing unit 120 recognizes a human face from the image indicated by the received image data (step S5).
  • the estimation unit 131 identifies the position of each recognized component of the face relative to the imaging unit 120.
  • the estimation unit 131 identifies the position of each recognized component of the face relative to the display unit 110 based on the positional relationship between the display unit 110 and the imaging unit 120.
  • the estimation unit 131 determines the vertical direction of the face recognized in step S5 based on the position of each identified component with respect to the display unit 110 (step S6).
  • the estimation part 131 outputs the 1st direction information which shows the upper direction among the determined up-down directions to the display direction determination part 133.
  • FIG. 1st direction information which shows the upper direction among the determined up-down directions to the display direction determination part 133.
  • the display direction determination unit 133 that has received the first direction information output from the estimation unit 131 determines an upper side of the four sides of the display unit 110 from the direction indicated by the received first direction information. (Step S7).
  • the display direction determination unit 133 outputs second direction information indicating the determined side to the display direction change unit 134.
  • the display direction changing unit 134 that has received the second direction information output from the display direction determining unit 133 sets the direction of the image displayed on the display unit 110 with the side indicated by the received second direction information as an upward direction. Change (step S8).
  • Step S1 the process proceeds to the operation of Step S1, and the detection of the magnitude of acceleration in a plurality of axial directions is continued.
  • the mobile terminal 100 detects the operation of the user of the mobile terminal 100 with respect to the mobile terminal 100, and when a predetermined operation is detected, the mobile terminal 100 detects the human image from the image captured by the imaging unit 120. The inclination of the face with respect to the display unit 110 is estimated.
  • the mobile terminal 100 changes the orientation of the image displayed on the display unit 110 according to the estimated inclination.
  • the timing at which the estimation unit 131 estimates the inclination of the human face with respect to the display unit 110 is a case where the calculated amount of change in acceleration exceeds a threshold value. Therefore, the orientation of the image displayed on the display unit 110 is not changed due to a temporary looking away or a change in facial expression of the viewer of the display unit 110.
  • each of the motion detection unit 132, the display direction determination unit 133, and the display direction change unit 134 calculates the amount of change in acceleration calculated after the amount of change in acceleration applied to the mobile terminal 100 exceeds the threshold.
  • the predetermined operation described above may be executed after the value becomes equal to or less than the threshold value.
  • the change amount of acceleration calculated by the motion detection unit 132 is a transition as shown in FIG. 3, for example, after the time t2 when the calculated change amount of acceleration is equal to or less than the threshold value,
  • Each of the display direction determination unit 133 and the display direction change unit 134 performs the predetermined operation described above. Specifically, for example, the operation detection unit 132 outputs change detection information after time t2. That is, the change detection information is output after the rapid change in the acceleration applied to the mobile terminal 100 disappears.
  • the photographing unit 120 photographs one person's face.
  • a plurality of people may be viewing the display unit 110, and in this case, the photographing unit 120 may photograph a plurality of faces.
  • the photographing unit 120 photographs a plurality of faces
  • the largest face among the plurality of faces included in the photographed image and the overlapping state of the plurality of faces are identified, and the closest position to the mobile terminal 100 is identified.
  • a certain face may be a face to be discriminated in the vertical direction.
  • an image of the face of the user of the mobile terminal 100 may be stored in the mobile terminal 100 in advance, and the face closest to the stored image among the plurality of faces may be set as the target face for determining the vertical direction.
  • the estimation unit 131 estimates the inclination of the human face with respect to the display unit 110 based on the amount of change in acceleration applied to the mobile terminal 100 .
  • the timing for estimating the inclination of the display unit 110 may be, for example, when the user of the mobile terminal 100 touches the display unit 110.
  • the portable terminal 100 is a folding type
  • the user of the portable terminal 100 may open the portable terminal 100.
  • the mobile terminal 100 is a slide type
  • the user may slide the mobile terminal 100.
  • the mobile terminal 100 has a call function, the call may be terminated.
  • the estimation unit 131 estimates the inclination of the human face with respect to the display unit 110 when the calculated amount of change in acceleration exceeds a threshold value.
  • the estimation unit 131 may estimate the inclination of the human face with respect to the display unit 110 when the amount of change exceeds the threshold value for a predetermined time. Further, when the calculated amount of change in acceleration exceeds a threshold value a predetermined number of times within a predetermined time, the estimation unit 131 may estimate the inclination of the human face with respect to the display unit 110. Thereby, it is possible to avoid changing the orientation of the image displayed on the display unit 110 when the magnitude of the acceleration is erroneously detected.
  • the acceleration sensor 140 is used to detect the movement of the user of the mobile terminal 100, but in addition to this, the non-contact for detecting the presence or absence of a nearby object in a non-contact manner.
  • a sensor, an angle sensor, or the like can also be used.
  • the processing in the image display device is recorded on a recording medium readable by the image display device, in addition to the processing realized by the dedicated hardware described above.
  • the program recorded on the recording medium may be read by the image display device and executed.
  • the recording medium readable by the image display device refers to a transfer medium such as a flexible disk, a magneto-optical disk, a DVD, and a CD, as well as an HDD built in the image display device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephone Function (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 画像表示装置であって、画像を表示する表示部と、表示部に対向する被写体を撮影する撮影部と、当該画像表示装置の使用者の当該画像表示装置に対する動作を検出する検出部と、検出部にて所定の動作が検出された場合に、撮影部にて撮影された画像から人の顔の表示部に対する傾きを推定する推定部と、表示部に表示された画像の向きを推定された傾きに応じて変更する表示方向変更部とを有する。

Description

画像表示装置、画像表示方法およびプログラム
 本発明は、画像を表示する画像表示装置、画像表示方法およびプログラムに関する。
 近年、携帯端末等、画像を表示する画像表示装置では、表示された画像を視認しやすい向きに自動的に変更する機能を有するものが増えてきている。
 この機能は例えば、画像表示装置に加速度センサーを設けておき、その加速度センサーで重力加速度を検出してその画像表示装置が支持されている方向を推定し、推定結果に基づき、表示された画像の向きを変更する。
 また、携帯端末装置の筺体の姿勢に応じて画面の表示方向を切り替える技術が例えば、特許文献1に開示されている。
 特許文献1に開示されている技術では、携帯端末装置の筐体の姿勢を示す姿勢情報に基づいて携帯端末装置の使用者が携帯端末装置の画面を閲覧する閲覧方向を推測する。そして、推測された閲覧方向と姿勢情報と応じた画面表示が行われる。
特開2009-49512号公報
 しかしながら、上述した加速度センサーを用いた方法や、特許文献1に開示されている技術を利用しても、画像表示装置の使用者がその画像表示装置を支持する力の加減や、表示された画像を視認する視認者の姿勢に応じ、画像が視認しづらい向きになってしまうという問題点がある。
 ここで、表示された画像の向きが自動的に変更される機能を一時的に無効にすることも可能ではある。しかし、この場合、画像の向きを自動的に変更させることができるという機能を有効に活用できなくなってしまうとともに、画像を表示する向きを予め決めておかなくてはならない。つまり、利便性が低下してしまうという問題点がある。
 本発明は、利便性を低下させることなく、表示された画像が視認しづらい向きになってしまうのを回避することができる画像表示装置、画像表示方法およびプログラムを提供することを目的とする。
 上記目的を達成するために本発明の画像表示装置は、
 画像を表示する表示部と、
 前記表示部に対向する被写体を撮影する撮影部と、
 当該画像表示装置の使用者の当該画像表示装置に対する動作を検出する検出部と、
 前記検出部にて所定の動作が検出された場合に、前記撮影部にて撮影された画像から人の顔の前記表示部に対する傾きを推定する推定部と、
 前記表示部に表示された画像の向きを前記推定された傾きに応じて変更する表示方向変更部と、を有する。
 また、上記目的を達成するために本発明の画像表示方法は、画像を表示する表示部を備えた画像表示装置における画像表示方法であって、
 前記表示部に対向する被写体を撮影する処理と、
 当該画像表示装置の使用者の当該画像表示装置に対する動作を検出する検出処理と、
 前記検出処理において所定の動作が検出された場合に、前記撮影された画像から人の顔の前記表示部に対する傾きを推定する推定処理と、
 前記表示部に表示された画像の向きを前記推定された傾きに応じて変更する処理と、を有する。
 また、上記目的を達成するために本発明のプログラムは、画像を表示する表示部を備えた画像表示装置に、
 前記表示部に対向する被写体を撮影する機能と、
 当該画像表示装置の使用者の当該画像表示装置に対する動作を検出する検出機能と、
 前記検出機能によって所定の動作が検出された場合に、前記撮影された画像から人の顔の前記表示部に対する傾きを推定する推定機能と、
 前記表示部に表示された画像の向きを前記推定された傾きに応じて変更する機能と、を実現させる。
 本発明は以上説明したように構成されているので、利便性を低下させることなく、表示された画像が視認しづらい向きになってしまうのを回避することができる。
本発明の画像表示装置を適用した携帯端末の実施の一形態を示すブロック図である。 図1に示した携帯端末の外観図である。 図1に示した動作検出部が算出した加速度の変化量の一例を示す図である。 図1に示した推定部が、認識した顔の上下方向を判別する動作の一例を説明するための顔の模式図である。 図1に示した表示方向決定部が、表示部の4辺のうち上となる辺を決定する動作の一例を説明するための図である。 図1~図5に示した携帯端末の動作を説明するためのフローチャートである。
 以下に、本発明の実施の形態について図面を参照して説明する。
 図1は、本発明の画像表示装置を適用した携帯端末の実施の一形態を示すブロック図である。また、図2は、図1に示した携帯端末100の外観図である。なお、携帯端末とは例えば、タブレット端末、スマートフォン、デジタルカメラ、携帯電話機、携帯ゲーム機、携帯音楽プレーヤー等である。
 本実施形態の携帯端末100は図1に示すように、表示部110と、撮影部120と、制御部130と、加速度センサー140とを備えている。
 表示部110は、携帯端末100に記憶されたデータに基づく画像や、携帯端末100の使用者等からの各種入力を受け付けるための入力画面等を示す画像等を表示する。
 撮影部120は、制御部130から出力された撮影指示を受け付けると、表示部110に対向する被写体を撮影する。従って、表示部110を視認している視認者がいる場合、撮影部120は、その視認者の顔を撮影することになる。そして、撮影部120は、撮影した画像を示す画像データを制御部130へ出力する。
 加速度センサー140は、例えば携帯端末100の縦、横、奥行きの3軸のように複数の軸方向のそれぞれについて加速度の大きさを検出する。
 制御部130は、推定部131と、動作検出部132と、表示方向決定部133と、表示方向変更部134とを備えている。
 動作検出部132は、携帯端末100の使用者の携帯端末100に対する動作を検出する。具体的には動作検出部132は、加速度センサー140にて検出された複数の軸方向それぞれの加速度の大きさの変化量の和を、携帯端末100の使用者の携帯端末100に対する動作に応じて携帯端末100に加えられた加速度の変化量として算出する。そして、動作検出部132は、算出した加速度の変化量が予め決められた閾値を超えている場合、その旨を示す変化検出情報を表示方向決定部133へ出力する。
 図3は、図1に示した動作検出部132が算出した加速度の変化量の一例を示す図である。
 図3に示す例では時刻t1において、算出された加速度の変化量が閾値を超えている。この場合、動作検出部132は、時刻t1の後に変化検出情報を表示方向決定部133へ出力することになる。
 再度、図1を参照すると、推定部131は、撮影部120から出力された画像データを受け付け、受け付けた画像データが示す画像から人の顔を認識する。次に、推定部131は、認識した顔の各構成部位の位置を識別する。ここで、識別される各構成部位の位置は、撮影部120に対する位置である。次に、推定部131は、表示部110と撮影部120との位置関係に基づき、認識した顔の各構成部位の表示部110に対する位置を識別する。なお、推定部131は、表示部110と撮影部120との位置関係を例えばセンサ(不図示)等を用いて検出する。次に、推定部131は、識別した各構成部位の表示部110に対する位置に基づき、認識した顔の上下方向を判別する。これにより、認識した顔の表示部110に対する傾きが推定されることになる。そして、推定部131は、判別した上下方向のうち上となる方向を示す第1の方向情報を表示方向決定部133へ出力する。
 図4は、図1に示した推定部131が、認識した顔の上下方向を判別する動作の一例を説明するための顔の模式図である。
 図4において、推定部131が認識した顔50の各構成部位は、目51,52、鼻53、口54である。推定部131は、認識した顔50の輪郭から、目51,52の位置と、鼻53および口54の少なくとも一方の位置とを識別する。そして、推定部131は、目51と目52との中点から鼻53または口54への方向を、認識した顔において下となる方向と判別する。また、推定部131は、その反対方向を、認識した顔において上となる方向と判別する。
 再度、図1を参照すると、表示方向決定部133は、動作検出部132から出力された変化検出情報を受け付けると、撮影指示を撮影部120へ出力する。その後、表示方向決定部133は、推定部131から出力された第1の方向情報を受け付ける。そして、表示方向決定部133は、受け付けた第1の方向情報が示す方向から、表示部110の4辺のうち上方向となる辺を決定する。そして、表示方向決定部133は、決定した辺を示す第2の方向情報を表示方向変更部134へ出力する。
 図5は、図1に示した表示方向決定部133が、表示部110の4辺のうち上となる辺を決定する動作の一例を説明するための図である。
 表示方向決定部133は、表示部110の中心を交点とする斜線pと斜線qとを用いて表示部110を分割した領域a、領域b、領域c、領域dのそれぞれを認識している。また、表示方向決定部133は、表示部110の4辺、辺A、辺B、辺C、辺Dのそれぞれを認識している。そして、表示方向決定部133は、領域aと辺A、領域bと辺B、領域cと辺C、領域dと辺D、のそれぞれを対応付けて記憶している。
 受け付けた第1の方向情報にて示される方向が例えば矢印rの方向である場合、表示方向決定部133は、表示部110の4辺のうち、矢印rの方向を含む領域aに対応する辺Aを上方向となる辺として決定する。同様に、例えば受け付けた第1の方向情報にて示される方向が領域bに含まれる場合には、領域bに対応する辺Bが上方向となる辺として決定される。
 再度、図1を参照すると、表示方向変更部134は、表示方向決定部133から出力された第2の方向情報を受け付ける。そして、表示方向変更部134は、受け付けた第2の方向情報が示す辺を上方向として、表示部110に表示された画像の向きを変更する。
 以下に、上記のように構成された携帯端末100の動作について説明する。
 図6は、図1~図5に示した携帯端末100の動作を説明するためのフローチャートである。
 加速度センサー140は、複数の軸方向について加速度の大きさを検出する(ステップS1)。
 動作検出部132は、加速度センサー140にて検出された複数の軸方向のそれぞれの加速度の大きさの変化量の和を、携帯端末100に加えられた加速度の変化量として算出する(ステップS2)。
 次に、動作検出部132は、算出した加速度の変化量が閾値を超えているかどうかを判定する(ステップS3)。
 ステップS3における判定の結果、算出した加速度の変化量が閾値を超えていない場合、ステップS1の動作へ遷移し、複数の軸方向についての加速度の大きさの検出が継続される。
 一方、ステップS3における判定の結果、算出した加速度の変化量が閾値を超えている場合には、動作検出部132は、変化検出情報を表示方向決定部133へ出力する。
 動作検出部132から出力された変化検出情報を受け付けた表示方向決定部133は、撮影指示を撮影部120へ出力する。
 表示方向決定部133から出力された撮影指示を受け付けた撮影部120は、表示部110に対向する被写体を撮影する(ステップS4)。
 そして、撮影部120は、撮影した画像を示す画像データを推定部131へ出力する。
 撮影部120から出力された画像データを受け付けた推定部131は、受け付けた画像データが示す画像から人の顔を認識する(ステップS5)。
 次に、推定部131は、認識した顔の各構成部位の撮影部120に対する位置を識別する。
 次に、推定部131は、表示部110と撮影部120との位置関係に基づき、認識した顔の各構成部位の表示部110に対する位置を識別する。
 次に、推定部131は、識別した各構成部位の表示部110に対する位置に基づき、ステップS5にて認識した顔の上下方向を判別する(ステップS6)。
 そして、推定部131は、判別した上下方向のうち上となる方向を示す第1の方向情報を表示方向決定部133へ出力する。
 推定部131から出力された第1の方向情報を受け付けた表示方向決定部133は、受け付けた第1の方向情報が示す方向から、表示部110の4辺のうち上方向となる辺を決定する(ステップS7)。
 そして、表示方向決定部133は、決定した辺を示す第2の方向情報を表示方向変更部134へ出力する。
 表示方向決定部133から出力された第2の方向情報を受け付けた表示方向変更部134は、受け付けた第2の方向情報が示す辺を上方向として、表示部110に表示された画像の向きを変更する(ステップS8)。
 この後、ステップS1の動作へ遷移し、複数の軸方向についての加速度の大きさの検出が継続される。
 このように本実施形態において携帯端末100は、携帯端末100の使用者の携帯端末100に対する動作を検出し、所定の動作が検出された場合に、撮影部120にて撮影された画像から人の顔の表示部110に対する傾きを推定する。
 そして、携帯端末100は、表示部110に表示された画像の向きを、推定された傾きに応じて変更する。
 これにより、利便性を低下させることなく、表示された画像が視認しづらい向きになってしまうのを回避することができる。
 また、本実施形態においては、推定部131が人の顔の表示部110に対する傾きを推定するタイミングを、算出された加速度の変化量が閾値を超えた場合としている。そのため、表示部110の視認者の一時的なよそ見や表情の変化などで、表示部110に表示された画像の向きが変更されてしまうことがない。また、携帯端末100の使用者が意図的に携帯端末100を振るなどして携帯端末100に加えられる加速度を変化させて、推定部131が人の顔の表示部110に対する傾きを推定するタイミングを任意に決定することもできる。
 また、本実施形態において、動作検出部132、表示方向決定部133および表示方向変更部134のそれぞれは、携帯端末100に加えられる加速度の変化量が閾値を超えてから、算出した加速度の変化量が閾値以下になった後に、上述した所定の動作を実行するようにしてもよい。
 この場合、動作検出部132が算出した加速度の変化量が例えば図3に示したような推移であるとすると、算出した加速度の変化量が閾値以下となる時刻t2の後に、動作検出部132、表示方向決定部133および表示方向変更部134のそれぞれは、上述した所定の動作を実行する。具体的には例えば動作検出部132は、時刻t2の後に変化検出情報を出力する。つまり、携帯端末100に加えられた加速度の急激な変化がなくなってから変化検出情報が出力されることになる。
 これにより、表示部110に表示された画像の向きが、使用者の意図に反して変更されてしまうのを回避することができる。
 なお、本実施形態においては、撮影部120が1人の顔を撮影する場合を想定していた。しかし、複数の人が表示部110を視認していることもあり、この場合、撮影部120が複数の顔を撮影する可能性がある。
 撮影部120が複数の顔を撮影した場合には、撮影された画像に含まれる複数の顔のうちの最も大きな顔や、複数の顔の重なり具合を識別して携帯端末100に最も近い位置にある顔を、上下方向を判別する対象の顔とすればよい。また、携帯端末100の使用者の顔の画像を予め携帯端末100に記憶させておき、複数の顔のうち記憶された画像に最も近い顔を、上下方向を判別する対象の顔としてもよい。
 また、本実施形態においては、携帯端末100に加えられる加速度の変化量に基づいて推定部131が人の顔の表示部110に対する傾きを推定する場合について説明したが、推定部131が人の顔の表示部110に対する傾きを推定するタイミングとしては例えば、携帯端末100の使用者が表示部110に触れたときとしてもよい。また、例えば携帯端末100が折りたたみ式である場合には、携帯端末100の使用者が携帯端末100を開いたときとしてもよい。また、例えば携帯端末100がスライド式である場合には、使用者が携帯端末100をスライドさせたときとしてもよい。また、例えば携帯端末100が通話機能を有している場合には、通話を終了したときとしてもよい。
 また、本実施形態においては、算出された加速度の変化量が閾値を超えた場合に、推定部131が人の顔の表示部110に対する傾きを推定する場合について説明したが、算出された加速度の変化量が所定の時間連続して閾値を超えた場合に、推定部131が人の顔の表示部110に対する傾きを推定するようにしてもよい。また、算出された加速度の変化量が所定の時間内に所定の回数だけ閾値を超えた場合に、推定部131が人の顔の表示部110に対する傾きを推定するようにしてもよい。これにより、加速度の大きさが誤って検出された場合等に、表示部110に表示された画像の向きが変更されてしまうのを回避することができる。
 また、本実施形態においては、携帯端末100の使用者の動作を検出するために、加速度センサー140を用いたが、これ以外にも、近傍の物体の有無を非接触で検知するための非接触センサーや、角度センサー等も用いることが可能である。
 また、本発明においては、画像表示装置内の処理は上述の専用のハードウェアで実現されるもの以外に、その機能を実現するためのプログラムを画像表示装置にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを画像表示装置に読み込ませ、実行するものであっても良い。画像表示装置にて読取可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、画像表示装置に内蔵されたHDDなどを指す。
 以上、実施例を参照して本願発明を説明したが、本願発明は上記実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2011年2月9日に出願された日本出願特願2011-026101を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 

Claims (9)

  1.  画像表示装置であって、
     画像を表示する表示部と、
     前記表示部に対向する被写体を撮影する撮影部と、
     当該画像表示装置の使用者の当該画像表示装置に対する動作を検出する検出部と、
     前記検出部にて所定の動作が検出された場合に、前記撮影部にて撮影された画像から人の顔の前記表示部に対する傾きを推定する推定部と、
     前記表示部に表示された画像の向きを前記推定された傾きに応じて変更する表示方向変更部と、を有する画像表示装置。
  2.  請求項1に記載の画像表示装置において、
     前記検出部は、当該画像表示装置に加えられる加速度を検出し、
     前記推定部は、前記検出された加速度の変化量が予め決められた閾値を超えた場合に、前記撮影部にて撮影された画像から人の顔の前記表示部に対する傾きを推定する画像表示装置。
  3.  請求項1または請求項2に記載の画像表示装置において、
     前記推定部は、前記顔の各構成部位の位置を識別し、該識別した各構成部位の位置に基づいて当該顔の上下方向を判別することにより、当該顔の前記表示部に対する傾きを推定する画像表示装置。
  4.  画像を表示する表示部を備えた画像表示装置における画像表示方法であって、
     前記表示部に対向する被写体を撮影する処理と、
     当該画像表示装置の使用者の当該画像表示装置に対する動作を検出する検出処理と、
     前記検出処理において所定の動作が検出された場合に、前記撮影された画像から人の顔の前記表示部に対する傾きを推定する推定処理と、
     前記表示部に表示された画像の向きを前記推定された傾きに応じて変更する処理と、を有する画像表示方法。
  5.  請求項4に記載の画像表示方法において、
     前記検出処理は、当該画像表示装置に加えられる加速度を検出する処理であり、
     前記推定処理は、前記検出された加速度の変化量が予め決められた閾値を超えた場合に、前記撮影された画像から人の顔の前記表示部に対する傾きを推定する処理である画像表示方法。
  6.  請求項4または請求項5に記載の画像表示方法において、
     前記推定処理では、前記顔の各構成部位の位置を識別し、該識別した各構成部位の位置に基づいて当該顔の上下方向を判別することにより、当該顔の前記表示部に対する傾きを推定する画像表示方法。
  7.  画像を表示する表示部を備えた画像表示装置に、
     前記表示部に対向する被写体を撮影する機能と、
     当該画像表示装置の使用者の当該画像表示装置に対する動作を検出する検出機能と、
     前記検出機能によって所定の動作が検出された場合に、前記撮影された画像から人の顔の前記表示部に対する傾きを推定する推定機能と、
     前記表示部に表示された画像の向きを前記推定された傾きに応じて変更する機能と、を実現させるためのプログラム。
  8.  請求項7に記載のプログラムにおいて、
     前記検出機能は、当該画像表示装置に加えられる加速度を検出する機能であり、
     前記推定機能は、前記検出された加速度の変化量が予め決められた閾値を超えた場合に、前記撮影された画像から人の顔の前記表示部に対する傾きを推定する機能であるプログラム。
  9.  請求項7または請求項8に記載のプログラムにおいて、
     前記推定機能では、前記顔の各構成部位の位置を識別し、該識別した各構成部位の位置に基づいて当該顔の上下方向を判別することにより、当該顔の前記表示部に対する傾きを推定するプログラム。
     
PCT/JP2012/051678 2011-02-09 2012-01-26 画像表示装置、画像表示方法およびプログラム WO2012108273A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/978,017 US9229527B2 (en) 2011-02-09 2012-01-26 Image display device, image display method, and program
CN2012800083573A CN103403789A (zh) 2011-02-09 2012-01-26 图像显示设备、图像显示方法和程序
EP12744396.8A EP2674937A4 (en) 2011-02-09 2012-01-26 IMAGE DISPLAY DEVICE, IMAGE DISPLAY METHOD, AND PROGRAM
JP2012556825A JPWO2012108273A1 (ja) 2011-02-09 2012-01-26 画像表示装置、画像表示方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011026101 2011-02-09
JP2011-026101 2011-02-09

Publications (1)

Publication Number Publication Date
WO2012108273A1 true WO2012108273A1 (ja) 2012-08-16

Family

ID=46638490

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/051678 WO2012108273A1 (ja) 2011-02-09 2012-01-26 画像表示装置、画像表示方法およびプログラム

Country Status (5)

Country Link
US (1) US9229527B2 (ja)
EP (1) EP2674937A4 (ja)
JP (1) JPWO2012108273A1 (ja)
CN (1) CN103403789A (ja)
WO (1) WO2012108273A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049403A (ja) * 2013-09-02 2015-03-16 富士通株式会社 携帯電子機器及び表示制御プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635462B (zh) * 2015-12-29 2019-02-05 Oppo广东移动通信有限公司 自动接通电话的方法和系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981305A (ja) * 1995-09-08 1997-03-28 Canon Inc 電子機器及びその制御方法
JP2005100084A (ja) * 2003-09-25 2005-04-14 Toshiba Corp 画像処理装置及び方法
JP2009049512A (ja) 2007-08-14 2009-03-05 Toshiba Corp 画面表示処理装置および方法
JP2011034029A (ja) * 2009-08-06 2011-02-17 Nec Casio Mobile Communications Ltd 電子機器
JP2011138449A (ja) * 2010-01-04 2011-07-14 Nec Corp 表示制御装置、表示装置、電子装置および表示制御方法
JP2011203860A (ja) * 2010-03-24 2011-10-13 Ntt Docomo Inc 情報端末及び表示切替方法
JP2011221094A (ja) * 2010-04-05 2011-11-04 Funai Electric Co Ltd 携帯情報表示端末

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100556856B1 (ko) 2003-06-14 2006-03-10 엘지전자 주식회사 이동통신 단말기에서 화면 제어 방법 및 장치
JP2008109485A (ja) * 2006-10-26 2008-05-08 Fujifilm Corp 撮像装置及び撮像制御方法
US8244068B2 (en) * 2007-03-28 2012-08-14 Sony Ericsson Mobile Communications Ab Device and method for adjusting orientation of a data representation displayed on a display
JP2009294728A (ja) 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置
WO2010030985A1 (en) * 2008-09-12 2010-03-18 Gesturetek, Inc. Orienting displayed elements relative to a user
CN101458920A (zh) * 2009-01-05 2009-06-17 北京中星微电子有限公司 一种显示方法及设备
JP2010171892A (ja) 2009-01-26 2010-08-05 Olympus Imaging Corp カメラ
US8913004B1 (en) * 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
JP5002672B2 (ja) 2010-04-02 2012-08-15 株式会社東芝 画面表示処理装置
US8878773B1 (en) * 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US8643703B1 (en) * 2011-03-30 2014-02-04 Amazon Technologies, Inc. Viewer tracking image display

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981305A (ja) * 1995-09-08 1997-03-28 Canon Inc 電子機器及びその制御方法
JP2005100084A (ja) * 2003-09-25 2005-04-14 Toshiba Corp 画像処理装置及び方法
JP2009049512A (ja) 2007-08-14 2009-03-05 Toshiba Corp 画面表示処理装置および方法
JP2011034029A (ja) * 2009-08-06 2011-02-17 Nec Casio Mobile Communications Ltd 電子機器
JP2011138449A (ja) * 2010-01-04 2011-07-14 Nec Corp 表示制御装置、表示装置、電子装置および表示制御方法
JP2011203860A (ja) * 2010-03-24 2011-10-13 Ntt Docomo Inc 情報端末及び表示切替方法
JP2011221094A (ja) * 2010-04-05 2011-11-04 Funai Electric Co Ltd 携帯情報表示端末

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2674937A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049403A (ja) * 2013-09-02 2015-03-16 富士通株式会社 携帯電子機器及び表示制御プログラム

Also Published As

Publication number Publication date
EP2674937A1 (en) 2013-12-18
US9229527B2 (en) 2016-01-05
JPWO2012108273A1 (ja) 2014-07-03
CN103403789A (zh) 2013-11-20
US20130271366A1 (en) 2013-10-17
EP2674937A4 (en) 2016-08-17

Similar Documents

Publication Publication Date Title
JP6362831B2 (ja) ユーザの顔分析結果によって移動端末を制御する装置及び方法
AU2020202562B2 (en) Enhanced image capture
KR101545883B1 (ko) 단말의 카메라 제어 방법 및 그 단말
EP2713242B1 (en) Smart screen rotation based on user orientation
CN106464803B (zh) 增强的图像捕获
EP2634727A2 (en) Method and portable terminal for correcting gaze direction of user in image
CN106165391B (zh) 增强的图像捕获
KR101660576B1 (ko) 시각 장애 사용자들에 의한 이미지 캡처 및 이미지 검토의 촉진
US8922705B2 (en) Method and apparatus for focusing on subject in digital image processing device
US20110241991A1 (en) Tracking object selection apparatus, method, program and circuit
US7643070B2 (en) Moving image generating apparatus, moving image generating method, and program
US8400532B2 (en) Digital image capturing device providing photographing composition and method thereof
US20120054690A1 (en) Apparatus and method for displaying three-dimensional (3d) object
US10158798B2 (en) Imaging apparatus and method of controlling the same
US20130286049A1 (en) Automatic adjustment of display image using face detection
US10962738B2 (en) Information processing apparatus and information processing method to calibrate line-of-sight of a user
US20140003653A1 (en) System and Method for Detemining the Position of an Object Displaying Media Content
US9148537B1 (en) Facial cues as commands
WO2015136952A1 (ja) ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
WO2012108273A1 (ja) 画像表示装置、画像表示方法およびプログラム
JP6229720B2 (ja) 端末装置、撮影部起動方法及び撮影部起動プログラム
US20190158731A1 (en) Method and device for capturing a video with a front camera according to an image of the user captured by a rear camera
US11600241B2 (en) Display control device, imaging device, display control method, and display control program
JP6932907B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US20120038750A1 (en) Apparatus and method for displaying three-dimensional (3d) object

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12744396

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13978017

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012744396

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2012556825

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE