JP2013197625A - 端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体 - Google Patents

端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP2013197625A
JP2013197625A JP2012059390A JP2012059390A JP2013197625A JP 2013197625 A JP2013197625 A JP 2013197625A JP 2012059390 A JP2012059390 A JP 2012059390A JP 2012059390 A JP2012059390 A JP 2012059390A JP 2013197625 A JP2013197625 A JP 2013197625A
Authority
JP
Japan
Prior art keywords
terminal
user
display screen
orientation
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012059390A
Other languages
English (en)
Other versions
JP2013197625A5 (ja
Inventor
Takashi Ota
昂志 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2012059390A priority Critical patent/JP2013197625A/ja
Priority to EP12198232.6A priority patent/EP2639671A3/en
Priority to US13/722,122 priority patent/US20130241818A1/en
Priority to KR1020120155054A priority patent/KR20130105286A/ko
Priority to CN2012105858946A priority patent/CN103309586A/zh
Publication of JP2013197625A publication Critical patent/JP2013197625A/ja
Publication of JP2013197625A5 publication Critical patent/JP2013197625A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Abstract

【課題】使用者の体の向きに応じた方向に表示画面を描画する。
【解決手段】端末1は、端末1の向きを検出するジャイロセンサ3aと、表示画面を見る使用者を撮像するために設けられたカメラ4と、カメラ4により撮像された使用者の向きを検出する顔検出処理部10と、ジャイロセンサ3aにより検出された端末1の向きと、顔検出処理部10により検出された使用者の向きとに基づいて、表示画面の表示方向を決定する画面描画部12とを備える。
【選択図】図2

Description

本発明は、使用者の体の向きに応じた方向に表示画面を描画することができる端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体に関する。
近年、タッチパネル方式によるスマートフォンの需要の拡大に伴い、ジャイロセンサを搭載したモバイル端末が増加している。
このジャイロセンサを搭載したモバイル端末は、ジャイロセンサにより検出された重力方向に基づいてモバイル端末の姿勢を検出し、このジャイロセンサにより検出された端末の姿勢に基づいて、モバイル端末に設けられた表示画面の描画方向を自動的に設定している。
しかしながら、この構成では下記の不都合が生じる。即ち、モバイル端末はジャイロセンサにより検出された端末の姿勢に基づき、重力の作用方向に対応する上下方向に表示画面を描画する。しかしながら、この上下方向の描画方向は、モバイル端末の表示画面を寝転んで視聴する使用者の顔または体の向きと整合せず、寝転んで視聴する使用者の顔の方向と同じ描画方向にならないという問題がある。
そして、ジャイロセンサを搭載した端末を机の上に置いたときは、重力の向きは、表示画面に垂直な真下の方向になるので、ジャイロセンサの検出結果に基づく描画方向が一定せず不安定になるという問題がある。
これらの問題を解決するために、使用者の顔の向きに応じた方向に表示画面を描画する端末の構成として、下記の構成が知られている。即ち、携帯端末装置は、インカメラで撮影した顔画像から、画像処理部により顔要素の位置情報を検出し、顔要素の位置情報に基づいて、CPUが自端末に対するユーザの顔情報の上下方向を判断し、顔情報の上下方向に応じて表示画面の表示方向を制御し、画像を表示部へ表示する構成が知られている(特許文献1)。
特開2008−177819号公報(2008年7月31日公開)
しかしながら、特許文献1の上記構成では、使用者の体の向きに応じた方向に表示画面を描画するために、常にインカメラを作動させて使用者を撮影する必要がある。このため、インカメラが消費する消費電力が膨大になる。従って、特許文献1の構成は、インカメラが消費する膨大な消費電力の観点から、直ぐに電池切れが発生する現象が懸念され、実現性に乏しいという問題がある。
本発明の目的は、使用者の体の向きに応じた方向に表示画面を描画することができる端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体を提供することにある。
上記の課題を解決するために、本発明に係る端末は、表示画面を有する端末であって、
前記端末の向きを検出する端末方向検出手段と、前記表示画面を見る使用者を撮像するために設けられた撮像手段と、前記撮像手段により撮像された使用者の向きを検出する使用者方向検出手段と、前記端末方向検出手段により検出された端末の向きと、前記使用者方向検出手段により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する画面表示方向決定手段とを備えたことを特徴とする。
この特徴により、前記端末方向検出手段により検出された端末の向きと、前記使用者方向検出手段により検出された使用者の向きとに基づいて、前記表示画面の表示方向が決定される。このため、端末の向きと使用者の向きとに応じて表示画面の表示方向を決定することができ、寝転がった状態等の使用者の体の向きに応じた方向に表示画面を表示することができる。
本発明に係る端末では、前記画面表示方向決定手段は、前記端末方向検出手段により検出された端末の向きと、前記使用者方向検出手段により検出された使用者の向きとの間の差異に基づいて、前記表示画面の表示方向を決定することが好ましい。
上記構成によれば、端末の向きと使用者の向きとが異なった場合に、使用者の向きに表示画面を表示することができる。
本発明に係る端末では、前記画面表示方向決定手段は、前記端末の向きと前記使用者の向きとが異なったときに、前記表示画面の表示方向を前記使用者の向きに設定することが好ましい。
上記構成によれば、端末の向きと使用者の向きとが所定の閾値を超えて異なった場合に、使用者の向きに表示画面を表示することができる。
本発明に係る端末では、前記撮像手段は、前記端末方向検出手段により検出された端末の向きの変化に応じて前記使用者を撮像することが好ましい。
上記構成によれば、端末の向きの変化があった時に撮像するので、より少ない消費電力により、使用者の体の向きに応じた方向に表示画面を表示することができる。
本発明に係る端末では、前記撮像手段は、前記端末の向きの変化が所定の閾値を超えたときに前記使用者を撮像することが好ましい。
上記構成によれば、端末の向きの変化が所定の閾値を超えた時に撮像するので、より少ない消費電力により、使用者の体の向きに応じた方向に表示画面を表示することができる。
本発明に係る端末では、前記撮像手段は、前記端末方向検出手段により検出された端末の向きにより前記表示画面が水平方向を向いていると判定されたときに前記使用者を撮像することが好ましい。
上記構成によれば、表示画面が水平方向を向いて不安定な表示方向を使用者の向きに応じた方向に安定化することができる。
本発明に係る端末では、前記使用者方向検出手段は、前記撮像手段により撮像された使
用者の人体の向きに基づいて前記使用者の向きを検出することが好ましい。
上記構成によれば、使用者の人体の向きに基づいて表示画面を表示することができる。
本発明に係る端末では、前記使用者方向検出手段は、前記撮像手段により撮像された使用者の顔の向きに基づいて前記使用者の向きを検出することが好ましい。
上記構成によれば、使用者の顔の向きに基づいて表示画面を表示することができる。
本発明に係る端末では、前記端末方向検出手段は、重力方向に基づいて前記端末の向きを検出するジャイロセンサを含むことが好ましい。
上記構成によれば、簡単な構成により端末の向きを検出することができる。
本発明に係る端末では、前記端末方向検出手段は、GPS衛星の方向と方向センサの方向とに基づいて前記端末の向きを検出するGPS方向センサを含むことが好ましい。
上記構成によれば、グローバル・ポジショニング・システムに基づいて端末の向きを検出することができる。
本発明に係る端末では、前記端末方向検出手段は、発信機の方向に基づいて前記端末の向きを検出するワイヤレスセンサを含むことが好ましい。
上記構成によれば、WiFi(ワイファイ、wireless fidelity)等に使用するワイヤ
レスセンサとその発信機との角度から端末の向きを検出することができる。
本発明に係る表示画面描画方向補正方法は、表示画面を有する端末の向きを検出する端末方向検出工程と、前記表示画面を見る使用者を撮像する撮像工程と、前記撮像工程により撮像された使用者の向きを検出する使用者方向検出工程と、前記端末方向検出工程により検出された端末の向きと、前記使用者方向検出工程により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する画面表示方向決定工程とを包含することを特徴とする。
本発明に係るプログラムは、コンピュータに、表示画面を有する端末の向きを検出する端末方向検出手順と、前記表示画面を見る使用者を撮像する撮像手順と、前記撮像手順により撮像された使用者の向きを検出する使用者方向検出手順と、前記端末方向検出手順により検出された端末の向きと、前記使用者方向検出手順により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する画面表示方向決定手順とを実行させることを特徴とする。
本発明に係るコンピュータ読み取り可能な記録媒体は、コンピュータに、表示画面を有する端末の向きを検出する端末方向検出手順と、前記表示画面を見る使用者を撮像する撮像手順と、前記撮像手順により撮像された使用者の向きを検出する使用者方向検出手順と、前記端末方向検出手順により検出された端末の向きと、前記使用者方向検出手順により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する画面表示方向決定手順とを実行させるプログラムを記録したことを特徴とする。
本発明に係る端末は、端末方向検出手段により検出された端末の向きと、使用者方向検出手段により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する
。このため、端末の向きと使用者の向きとに応じて表示画面の表示方向を決定することができ、寝転がった状態等の使用者の体の向きに応じた方向に表示画面を表示することができる。
実施の形態1に係る端末の外観を示す斜視図である。 上記端末の構成を示すブロック図である。 上記端末に設けられたジャイロセンサにより端末の方向を検出する方法を説明するための図である。 (a)(b)は、上記ジャイロセンサにより端末の方向の変化を検出する方法を説明するための図である。 (a)は上記ジャイロセンサにより検出された端末の方向を説明するための図であり、(b)は上記端末に設けられたカメラにより撮像された使用者の顔の向きを示す図である。 上記端末の動作を示すフローチャートである。 上記端末の変形例の構成を示すブロック図である。 上記変形例の動作を示すフローチャートである。 実施の形態2に係る端末に設けられたGPS方向センサにより端末の方向を検出する方法を説明するための図である。 上記端末の構成を示すブロック図である。 上記端末の動作を示すフローチャートである。 上記端末の変形例の構成を示すブロック図である。 上記変形例の動作を示すフローチャートである。 実施の形態3に係る端末に設けられたワイヤレスセンサにより端末の方向を検出する方法を説明するための図である。 上記端末の構成を示すブロック図である。 上記端末の動作を示すフローチャートである。 上記端末の変形例の構成を示すブロック図である。 上記変形例の動作を示すフローチャートである。 実施の形態4に係る端末の構成を示すブロック図である。 上記端末の動作を示すフローチャートである。
(概要)
以下、本発明の実施の形態に係る端末の概要を説明する。実施の形態1に係る端末は、ジャイロセンサにより検出された端末の向きの変化が所定の閾値を超えたときに使用者を撮像し、端末の向きの変化に応じて撮像された使用者の体の向きに基づいて、表示画面の表示方向を決定する。
実施の形態2に係る端末は、端末の向きの変化をGPS方向センサにより検出する点が実施の形態1の端末と異なる。実施の形態3に係る端末は、端末の向きの変化をワイヤレスセンサにより検出する点が異なる。
実施の形態4に係る端末は、ジャイロセンサにより検出された端末の向きに基づいて表示画面の描画方向を設定し、ジャイロセンサにより検出された端末方向の向きにより表示画面が水平方向を向いていると判定されたときに使用者を撮像し、表示画面が水平方向に向いていると判定されたときにカメラにより撮像された使用者の体の向きに基づいて、表示画面の表示方向を決定する。
(実施の形態1)
(端末1の構成)
図1は、実施の形態1に係る端末1の外観を示す斜視図である。端末1は、例えばタッチパネル方式によるスマートフォンであり、板状の筐体を備えている。端末1は、この筐体の表面に表示画面2を有している。表示画面2には、端末1を操作するための複数のアイコン7が表示されている。表示画面2の傍には、端末1の使用者を撮像することができるカメラ4が設けられている。
図2は、端末1の構成を示すブロック図である。端末1は、重力方向に基づいて端末1の向きを検出するためのジャイロセンサ3aを有している。端末1には、重力方向判定部8が設けられている。重力方向判定部8は、ジャイロセンサ3aにより検出された重力方向に基づいて端末1の表示画面2の向きを判定する。
図1を参照すると、本明細書において、端末1の向きは、ピッチ角θ、ヨー角φ、及びロール角δにより定義される。図1に示すように、互いに直交するx軸、y軸、及びz軸を定義すると、ピッチ角θは、方向D1のy軸の周りの回転角であり、ヨー角φは、方向D1のx軸の周りの回転角であり、ロール角δは、方向D1のz軸の周りの回転角であるものと定義する。
図2を参照すると、端末1は、カメラ映像入力部9を有している。カメラ映像入力部9は、カメラ4により撮像された使用者の画像データをカメラ4から入力して、顔検出処理部10に供給する。
顔検出処理部10は、カメラ映像入力部9から供給された使用者の画像データと、顔検出データベース11に蓄積された顔検出データとに基づいて、端末1の表示画面2に対する使用者の顔の向きを検出する。
端末1には、画面描画部12が設けられている。画面描画部12は、重力方向判定部8により判定された端末1の表示画面2の向きに相当する描画方向に表示画面2を描画する。そして、画面描画部12は、重力方向判定部8により判定された端末1の表示画面2の向きと、顔検出処理部10により検出された表示画面2に対する使用者の顔の向きとを比較し、両者が一致していなければ、表示画面2の描画方向を使用者の顔の向きの方向に補正する。両者が一致しているときは、重力方向判定部8により判定された表示画面2の向きに対応する描画方向への描画を継続する。
(ジャイロセンサの動作)
図3は、端末1に設けられたジャイロセンサ3a(図2)により端末1の向きD2を検出する方法を説明するための図である。重力方向判定部8(図2)は、ジャイロセンサ3a(図2)により検出された重力方向D3に基づいて端末1の表示画面2の向きD2を、ピッチ角θ、ヨー角φ、及びロール角δにより判定する。
(端末方向の変化の検出)
図4(a)(b)は、ジャイロセンサ3aにより端末1の方向の変化を検出する方法を説明するための図である。まず、時刻T=Tにおいて、ジャイロセンサ3aにより検出した重力方向D3に基づいて、端末の向きD2を、ピッチ角θ、ヨー角φ、及びロール角δにより検出する。次に、時刻T=T(T<T)において、重力方向D3に基づいて、端末の向きD2を、ピッチ角θ=θ+α、ヨー角φ=φ+β、及びロール角δ=δ+γにより検出する。
そして、αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3
.cよりも大きいときに、端末の向きの変化が所定の閾値を超えたと判断し、カメラ4を起動して使用者を撮像する。
(描画方向の補正方法)
図5(a)はジャイロセンサ3aにより検出された端末1の方向を説明するための図であり、図5(b)は端末1に設けられたカメラ4により撮像された使用者の顔の向きを示す図である。
まず、ジャイロセンサ3aにより検出された端末1の方向D2が、ピッチ角θ1、ヨー角φ1、及びロール角δ1により表されるものとする。そして、端末1の表示画面2を視聴する使用者の使用者画像13における顔の向きD4がピッチ角θ2、ヨー角φ2、及びロール角δ2により表されるものとする。使用者の顔の向きD4を判定する方法は、特に限定されないが、例えば、端末1に設けられたカメラ4により撮像された、表示画面2を視聴する使用者の画像により判定することができる。
そして、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいときに、画面描画部12は、使用者の顔の向きD4に基づいて、表示画面2の描画方向を補正する。
上記以外の場合は、ジャイロセンサ3aにより検出された端末1の方向に基づく描画方向による描画を継続する。
(端末1の動作)
図6は、端末1の動作を示すフローチャートである。まず、ジャイロセンサ3aにより重力方向D3を検出し、検出した重力方向D3に基づいて端末1の表示画面2の向きD2(図4(b))をピッチ角θ+α、ヨー角φ+β、及びロール角δ+γにより検出する(ステップS1)。そして、前回の検出値であるピッチ角θ、ヨー角φ、及びロール角δに対して、αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいかを判断する(ステップS2)。αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいという条件を満たさないときは(ステップS2でNO)、ステップS1に戻る。
αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいときは(ステップS2でYES)、カメラ4が起動され(ステップS3)、端末1の表示画面2を視聴する使用者を撮像する(ステップS4)。次に、カメラ4により撮像された画像に、端末1の表示画面2を視聴する使用者の顔が写っているか否かが顔検出処理部10により判断される(ステップS5)。
カメラ4により撮像された画像に、端末1の表示画面2を視聴する使用者の顔が写っていると判断された時は(ステップS5でYES)、顔検出処理部10は、カメラ4により撮像された画像に写る使用者の顔の方向を判定する。そして、画面描画部12は、顔検出処理部10により判定された使用者の顔の表示画面2に対する方向D4と、ジャイロセンサ3aにより検出された端末1の表示画面2の方向D2とを比較する(ステップS6)。
例えば、ジャイロセンサ3aにより検出された端末1の表示画面2の方向D2が、ピッチ角θ1、ヨー角φ1、及びロール角δ1により表されるものとする。そして、端末1の
表示画面2を視聴する使用者の向きD4がピッチ角θ2、ヨー角φ2、及びロール角δ2により表されるものとすると、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいと判断したときに(ステップS6でYES)、画面描画部12は、使用者の顔の表示画面2に対する向きD4に基づいて、表示画面2の描画方向を補正するように設定する(ステップS7)。
カメラ4により撮像された画像に、端末1の表示画面2を視聴する使用者の顔が写っていないと判定されたとき(ステップS5でNO)、または、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいという条件が満たされないと判定されたときは(ステップS6でNO)、画面描画部12は、ジャイロセンサ3aにより検出された端末1の方向D2に描画方向を設定する(ステップS8)。
使用者の顔の向きD4に基づいて、表示画面2の描画方向を補正するように設定した場合(ステップS7)、または、ジャイロセンサ3aにより検出された端末1の方向D2に描画方向を設定した場合(ステップS8)は、端末1の表示画面2の描画方向を、上記設定結果に応じて変更する(ステップS9)。その後、処理を終了する。
(変形例の構成)
図7は、上記端末の変形例の構成を示すブロック図である。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
端末1aは、人体検出処理部14と人体検出データベース15と画面描画部12aとを有する点で、前述した端末1と異なる。人体検出処理部14は、カメラ映像入力部9から供給された使用者の画像データと、人体検出データベース15に蓄積された人体検出データとに基づいて、端末1の表示画面2に対する使用者の体の向きを検出する。
また、カメラ4の代わりに人体検知センサを設けてもよいし、表示画面2を視聴する視聴者のからの向き、体の上下方向を検出することができる手段であれば、どのような手段を設けてもよい。
(変形例の動作)
図8は、上記変形例の動作を示すフローチャートである。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
まず、ジャイロセンサ3aにより重力方向D3を検出し、検出した重力方向D3に基づいて端末1aの表示画面2の向きD2(図4(b))をピッチ角θ+α、ヨー角φ+β、及びロール角δ+γにより検出する(ステップS1)。そして、前回の検出値であるピッチ角θ、ヨー角φ、及びロール角δに対して、αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいかを判断する(ステップS2)。αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいという条件を満たさないときは(ステップS2でNO)、ステップS1に戻る。
αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角
の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいときは(ステップS2でYES)、カメラ4が起動され(ステップS3)、端末1の表示画面2を視聴する使用者の人体を撮像する(ステップS10)。次に、カメラ4により撮像された画像に、端末1の表示画面2を視聴する使用者の人体が写っているか否かが人体検出処理部14により判断される(ステップS11)。
カメラ4により撮像された画像に、端末1aの表示画面2を視聴する使用者の人体が写っていると判断された時は(ステップS11でYES)、人体検出処理部14は、カメラ4により撮像された画像に写る使用者の人体の方向を判定する。そして、画面描画部12aは、人体検出処理部14により判定された使用者の人体の表示画面2に対する方向と、ジャイロセンサ3aにより検出された端末1の表示画面2の方向とを比較する(ステップS12)。
使用者の人体の表示画面2に対する方向と端末1aの表示画面2の方向との間の差異が所定の閾値よりも大きいと判断したときに(ステップS12でYES)、画面描画部12aは、使用者の人体の表示画面2に対する向きに基づいて、表示画面2の描画方向を補正するように設定する(ステップS13)。
カメラ4により撮像された画像に、端末1aの表示画面2を視聴する使用者の人体が写っていないと判定されたとき(ステップS11でNO)、または、使用者の人体の表示画面2に対する方向と端末1aの表示画面2の方向との間の差異が所定の閾値よりも大きくないと判定されたときは(ステップS12でNO)、画面描画部12aは、ジャイロセンサ3aにより検出された端末1aの方向に描画方向を設定する(ステップS14)。
使用者の人体の向きに基づいて、表示画面2の描画方向を補正するように設定した場合(ステップS13)、または、ジャイロセンサ3aにより検出された端末1aの方向に描画方向を設定した場合(ステップS14)は、端末1aの表示画面2の描画方向を、上記設定結果に応じて変更する(ステップS15)。その後、処理を終了する。
(閾値による他の判断方法)
前述した閾値については、前回の検出値であるピッチ角θ、ヨー角φ、及びロール角δに対して、αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいかという条件により判断する例を示したが、本発明はこれに限定されない。ピッチ角θとヨー角φのみにより判断してもよいし、ロール角δのみにより判断してもよい。後述する実施の形態においても同様である。
(本発明の適用範囲)
また、スマートフォンに本発明を適用した例を示したが、本発明はこれに限定されない。携帯電話を含む携帯型端末、タブレット型端末にも本発明を適用することができる。後述する実施の形態においても同様である。
(実施の形態1の効果)
以上のように実施の形態1によれば、ジャイロセンサにより検出された端末の向きに応じて、必要なときだけカメラが使用者を撮像する。このため、より少ない消費電力により、使用者の体の向きに応じた方向に表示画面を描画することができる。従って、使用者が寝転がって、机上に携帯端末を置いても、携帯端末の画面を横に倒しても、より少ない消費電力で、意のままの描画方向に表示画面を描画することができる。
(実施の形態2)
(端末1b、1cの構成)
図9は、実施の形態2に係る端末1b、1cに設けられたGPS方向センサ3b(図10)により端末1b、1cの方向D2を検出する方法を説明するための図である。図10は、端末1bの構成を示すブロック図である。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
端末1bは、GPS方向センサ3bと端末方向判定部17とを備える点で、図2を参照して前述した端末1と異なる。GPS方向センサ3bは、GPS衛星16の方向D5と、南北を示す方向センサの方向D6とを検出して端末方向判定部17に供給する。端末方向判定部17は、GPS方向センサ3bから供給されたGPS衛星16の方向D5と、南北を示す方向センサの方向D6とに基づいて端末1b、1cの向きD2を判定する。
(端末1bの動作)
図11は、端末1bの動作を示すフローチャートである。まず、南北を示す方向センサにより南北方向D6を検出する(ステップS16)。そして、GPS方向センサ3b(図10)により、GPS衛星16の方向D5を検出する(ステップS17)。次に、検出した南北方向D6及びGPS衛星16の方向D5に基づいて端末1bの表示画面2の向きD2をピッチ角θ+α、ヨー角φ+β、及びロール角δ+γにより検出する。
そして、前回の検出値であるピッチ角θ、ヨー角φ、及びロール角δに対して、αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいかを判断する(ステップS18)。αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいという条件を満たさないときは(ステップS18でNO)、ステップS16に戻る。
αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいときは(ステップS18でYES)、カメラ4が起動され(ステップS3)、端末1bの表示画面2を視聴する使用者を撮像する(ステップS4)。次に、カメラ4により撮像された画像に、端末1bの表示画面2を視聴する使用者の顔が写っているか否かが顔検出処理部10により判断される(ステップS5)。
カメラ4により撮像された画像に、端末1bの表示画面2を視聴する使用者の顔が写っていると判断された時は(ステップS5でYES)、顔検出処理部10は、カメラ4により撮像された画像に写る使用者の顔の方向を判定する。そして、画面描画部12bは、顔検出処理部10により判定された使用者の顔の表示画面2に対する方向D4(図5)と、GPS方向センサ3bにより検出された端末1bの表示画面2の方向D2とを比較する(ステップS19)。
例えば、GPS方向センサ3bにより検出された端末1bの表示画面2の方向D2が、ピッチ角θ1、ヨー角φ1、及びロール角δ1により表されるものとする。そして、端末1bの表示画面2を視聴する使用者の向きD4がピッチ角θ2、ヨー角φ2、及びロール角δ2により表されるものとすると、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいと判断したときに(ステップS19でYES)、画面描画部12bは、使用者の顔の表示画面2に対する向きD4に基づいて、表示画面2の描画方向を補正するように設定する(ステップS20)。
カメラ4により撮像された画像に、端末1の表示画面2を視聴する使用者の顔が写っていないと判定されたとき(ステップS5でNO)、または、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいという条件が満たされないと判定されたときは(ステップS19でNO)、画面描画部12bは、GPS方向センサ3bにより検出された端末1bの方向D2に描画方向を設定する(ステップS21)。
使用者の顔の向きD4に基づいて、表示画面2の描画方向を補正するように設定した場合(ステップS20)、または、GPS方向センサ3bにより検出された端末1bの方向D2に描画方向を設定した場合(ステップS21)は、端末1bの表示画面2の描画方向を、上記設定結果に応じて変更する(ステップS22)。その後、処理を終了する。
(変形例の構成)
図12は、端末の変形例の構成を示すブロック図である。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
端末1cは、人体検出処理部14と人体検出データベース15と画面描画部12cとを有する点で、図10の端末1bと異なる。人体検出処理部14は、カメラ映像入力部9から供給された使用者の画像データと、人体検出データベース15に蓄積された人体検出データとに基づいて、端末1cの表示画面2に対する使用者の体の向きを検出する。
(変形例の動作)
図13は、上記変形例の動作を示すフローチャートである。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
まず、南北を示す方向センサにより南北方向D6(図9)を検出する(ステップS16)。そして、GPS方向センサ3b(図10)により、GPS衛星16の方向D5(図9)を検出する(ステップS17)。次に、検出した南北方向D6及びGPS衛星16の方向D5に基づいて端末1cの表示画面2の向きD2をピッチ角θ+α、ヨー角φ+β、及びロール角δ+γにより検出する。
そして、前回の検出値であるピッチ角θ、ヨー角φ、及びロール角δに対して、αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいかを判断する(ステップS18)。αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいという条件を満たさないときは(ステップS18でNO)、ステップS16に戻る。
αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいときは(ステップS18でYES)、カメラ4が起動され(ステップS3)、端末1cの表示画面2を視聴する使用者の人体を撮像する(ステップS10)。次に、カメラ4により撮像された画像に、端末1cの表示画面2を視聴する使用者の人体が写っているか否かが人体検出処理部14により判断される(ステップS11)。
カメラ4により撮像された画像に、端末1cの表示画面2を視聴する使用者の人体が写
っていると判断された時は(ステップS11でYES)、人体検出処理部14は、カメラ4により撮像された画像に写る使用者の人体の方向を判定する。そして、画面描画部12cは、人体検出処理部14により判定された使用者の人体の表示画面2に対する方向と、GPS方向センサ3bにより検出された端末1cの表示画面2の方向とを比較する(ステップS23)。
例えば、GPS方向センサ3bにより検出された端末1cの表示画面2の方向D2が、ピッチ角θ1、ヨー角φ1、及びロール角δ1により表されるものとする。そして、端末1cの表示画面2を視聴する使用者の人体の向きがピッチ角θ2、ヨー角φ2、及びロール角δ2により表されるものとすると、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいと判断したときに(ステップS23でYES)、画面描画部12cは、使用者の人体の表示画面2に対する向きに基づいて、表示画面2の描画方向を補正するように設定する(ステップS24)。
カメラ4により撮像された画像に、端末1cの表示画面2を視聴する使用者の顔が写っていないと判定されたとき(ステップS11でNO)、または、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいという条件が満たされないと判定されたときは(ステップS23でNO)、画面描画部12cは、GPS方向センサ3bにより検出された端末1cの方向D2に描画方向を設定する(ステップS25)。
使用者の人体の向きに基づいて、表示画面2の描画方向を補正するように設定した場合(ステップS24)、または、GPS方向センサ3bにより検出された端末1cの方向D2に描画方向を設定した場合(ステップS25)は、端末1cの表示画面2の描画方向を、上記設定結果に応じて変更する(ステップS26)。その後、処理を終了する。
(実施の形態2の効果)
以上のように実施の形態2によれば、GPS方向センサにより検出された端末の向きに応じて、必要なときだけカメラが使用者を撮像する。このため、より少ない消費電力により、使用者の体の向きに応じた方向に表示画面を描画することができる。
(実施の形態3)
(端末1e、1fの構成)
図14は、実施の形態3に係る端末1e、1fに設けられたワイヤレスセンサ3c(図15)により端末1e、1fの方向D2を検出する方法を説明するための図である。図15は、端末1eの構成を示すブロック図である。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
端末1eは、ワイヤレスセンサ3cと端末方向判定部19とを備える点で、図2を参照して前述した端末1と異なる。ワイヤレスセンサ3cは、発信機18の方向D7を検出して端末方向判定部19に供給する。端末方向判定部19は、ワイヤレスセンサ3cから供給された発信機18の方向D7に基づいて端末1eの向きD2を判定する。
(端末1eの動作)
図16は、端末1eの動作を示すフローチャートである。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
まず、ワイヤレスセンサ3cにより発信機18の方向D7を検出し(ステップS27)、検出した方向D7に基づいて端末1eの表示画面2の向きD2をピッチ角θ+α、ヨー角φ+β、及びロール角δ+γにより検出する(ステップS28)。そして、前回の検出値であるピッチ角θ、ヨー角φ、及びロール角δに対して、αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいかを判断する(ステップS29)。αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいという条件を満たさないときは(ステップS29でNO)、ステップS27に戻る。
αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいときは(ステップS29でYES)、カメラ4が起動され(ステップS3)、端末1eの表示画面2を視聴する使用者の顔を撮像する(ステップS4)。次に、カメラ4により撮像された画像に、端末1eの表示画面2を視聴する使用者の顔が写っているか否かが顔検出処理部10により判断される(ステップS5)。
カメラ4により撮像された画像に、端末1の表示画面2を視聴する使用者の顔が写っていると判断された時は(ステップS5でYES)、顔検出処理部10は、カメラ4により撮像された画像に写る使用者の顔の方向を判定する。そして、画面描画部12eは、顔検出処理部10により判定された使用者の顔の表示画面2に対する方向と、ワイヤレスセンサ3cにより検出された端末1eの表示画面2の方向とを比較する(ステップS19)。
例えば、ワイヤレスセンサ3cにより検出された端末1eの表示画面2の方向D2が、ピッチ角θ1、ヨー角φ1、及びロール角δ1により表されるものとする。そして、端末1eの表示画面2を視聴する使用者の向きがピッチ角θ2、ヨー角φ2、及びロール角δ2により表されるものとすると、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいと判断したときに(ステップS19でYES)、画面描画部12eは、使用者の顔の表示画面2に対する向きに基づいて、表示画面2の描画方向を補正するように設定する(ステップS20)。
カメラ4により撮像された画像に、端末1eの表示画面2を視聴する使用者の顔が写っていないと判定されたとき(ステップS5でNO)、または、(θ1−θ2)がピッチ角閾値Th1.aaよりも大きいか、または、(φ1−φ2)がヨー角閾値Th2.bbよりも大きいか、または、(δ1−δ2)がロール角閾値Th3.ccよりも大きいという条件が満たされないと判定されたときは(ステップS19でNO)、画面描画部12eは、ワイヤレスセンサ3cにより検出された端末1eの方向に描画方向を設定する(ステップS21)。
使用者の顔の向きに基づいて、表示画面2の描画方向を補正するように設定した場合(ステップS20)、または、ワイヤレスセンサ3cにより検出された端末1eの方向に描画方向を設定した場合(ステップS21)は、端末1eの表示画面2の描画方向を、上記設定結果に応じて変更する(ステップS22)。その後、処理を終了する。
(変形例の構成)
図17は、端末の変形例の構成を示すブロック図である。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
端末1fは、ワイヤレスセンサ3cと端末方向判定部19と画面描画部12fとを有する点で、図7を参照して前述した端末1aと異なる。
(変形例の動作)
図18は、上記変形例の端末1fの動作を示すフローチャートである。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
まず、ワイヤレスセンサ3cにより発信機18の方向D7を検出し(ステップS27)、検出した方向D7に基づいて端末1fの表示画面2の向きD2をピッチ角θ+α、ヨー角φ+β、及びロール角δ+γにより検出する(ステップS28)。そして、前回の検出値であるピッチ角θ、ヨー角φ、及びロール角δに対して、αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいかを判断する(ステップS29)。αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいという条件を満たさないときは(ステップS29でNO)、ステップS27に戻る。
αの絶対値がピッチ角の閾値Th1.aよりも大きいか、または、βの絶対値がヨー角の閾値Th2.bよりも大きいか、または、γの絶対値がロール角の閾値Th3.cよりも大きいときは(ステップS29でYES)、カメラ4が起動され(ステップS3)、端末1fの表示画面を視聴する使用者の人体を撮像する(ステップS10)。次に、カメラ4により撮像された画像に、端末1fの表示画面2を視聴する使用者の人体が写っているか否かが人体検出処理部14により判断される(ステップS11)。
カメラ4により撮像された画像に、端末1fの表示画面2を視聴する使用者の人体が写っていると判断された時は(ステップS11でYES)、人体検出処理部14は、カメラ4により撮像された画像に写る使用者の人体の方向を判定する。そして、画面描画部12fは、人体検出処理部14により判定された使用者の人体の表示画面2に対する方向と、ワイヤレスセンサ3cにより検出された端末1fの表示画面2の方向とを比較する(ステップS23)。
使用者の人体の表示画面2に対する方向と端末1fの表示画面2の方向との間の差異が所定の閾値よりも大きいと判断したときに(ステップS23でYES)、画面描画部12fは、使用者の人体の表示画面2に対する向きに基づいて、表示画面2の描画方向を補正するように設定する(ステップS24)。
カメラ4により撮像された画像に、端末1の表示画面2を視聴する使用者の人体が写っていないと判定されたとき(ステップS11でNO)、または、使用者の人体の表示画面2に対する方向と端末1fの表示画面2の方向との間の差異が所定の閾値よりも大きくないと判定されたときは(ステップS23でNO)、画面描画部12fは、ワイヤレスセンサ3cにより検出された端末1fの方向に描画方向を設定する(ステップS25)。
使用者の人体の向きに基づいて、表示画面2の描画方向を補正するように設定した場合(ステップS24)、または、ワイヤレスセンサ3cにより検出された端末1fの方向に描画方向を設定した場合(ステップS25)は、端末1fの表示画面2の描画方向を、上記設定結果に応じて変更する(ステップS26)。その後、処理を終了する。
(実施の形態3の効果)
以上のように実施の形態3によれば、ワイヤレスセンサにより検出された端末の向きに応じて、必要なときだけカメラが使用者を撮像する。このため、より少ない消費電力により、使用者の体の向きに応じた方向に表示画面を描画することができる。
(実施の形態4)
実施の形態4に係る端末は、ジャイロセンサにより検出された端末方向の向きにより表示画面が水平方向を向いていると判定されたときに使用者を撮像し、表示画面が水平方向に向いていると判定されたときにカメラにより撮像された使用者の体の向きに基づいて、設定された描画方向を補正する。
(端末1gの構成)
図19は、実施の形態4に係る端末1gの構成を示すブロック図である。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
端末1gは、水平方向判定部20、画面描画部12gを備えている点で、図2を参照して前述した端末1と異なっている。水平方向判定部20は、ジャイロセンサにより検出された重力方向に基づいて判定した端末1gの表示画面2の向きが水平方向であるか否かを判定する。
(端末1gの動作)
図20は、端末1gの動作を示すフローチャートである。前述した構成要素と同一の構成要素には同一の参照符号を付している。これらの構成要素の詳細な説明は繰り返さない。
まず、ジャイロセンサ3aにより重力方向を検出し、検出した重力方向に基づいて端末1gの表示画面の向きを取得する(ステップS1)。そして、水平方向判定部20は、その端末1gの向きが水平方向であるか否かを判定する(ステップS31)。
端末1gの向きが水平方向でないと判定したときは(ステップS31でNO)、取得した端末1gの表示画面2の向きに基づいて表示画面2を描画し(ステップS32)、ステップS1に戻る。
端末1gの向きが水平方向であると判定したときは(ステップS31でYES)、カメラ4が起動され(ステップS3)、水平な姿勢になっている端末1の表示画面を視聴する使用者を撮像する(ステップS4)。次に、カメラ4により撮像された画像に、水平な姿勢になっている端末1gの表示画面を視聴する使用者の顔が写っているか否かが顔検出処理部10により判断される(ステップS5)。
カメラ4により撮像された画像に、端末1の表示画面2を視聴する使用者の顔が写っていると判断された時は(ステップS5でYES)、顔検出処理部10は、カメラ4により撮像された画像に写る使用者の顔の方向を判定する。そして、画面描画部12gは、顔検出処理部10により判定された使用者の顔の表示画面に対する方向と、ジャイロセンサ3aにより検出された端末1の表示画面2の向きに基づく描画方向とを比較する(ステップS6)。
顔検出処理部10により判定された使用者の顔の表示画面に対する方向と、ジャイロセンサ3aにより検出された端末1の表示画面2の向きに基づく描画方向との間の差異が、所定の閾値よりも大きいと判断したときに(ステップS6でYES)、画面描画部12g
は、使用者の顔の表示画面2に対する向きに基づいて、表示画面の描画方向を補正するように設定する(ステップS7)。
カメラ4により撮像された画像に、端末1gの表示画面を視聴する使用者の顔が写っていないと判定されたとき(ステップS5でNO)、または、顔検出処理部10により判定された使用者の顔の表示画面に対する方向と、ジャイロセンサ3aにより検出された端末1の向きに基づく描画方向との間の差異が、所定の閾値以下であると判定されたときは(ステップS6でNO)、画面描画部12gは、ジャイロセンサ3aにより検出された端末1gの方向に描画方向を設定する(ステップS8)。
使用者の顔の向きに基づいて、表示画面の描画方向を補正するように設定した場合(ステップS7)、または、ジャイロセンサ3aにより検出された端末1gの方向に描画方向を設定した場合(ステップS8)は、端末1gの表示画面2の描画方向を、上記設定結果に応じて変更する(ステップS9)。その後、処理を終了する。
(実施の形態4の効果)
以上のように実施の形態4によれば、端末の表示画面が水平方向を向いていると判定された時に、表示画面を視聴する使用者を撮像する。このため、より少ない消費電力により、使用者の向きに応じた方向に表示画面を描画することができる。
(プログラム及び記録媒体)
最後に、実施の形態に係る端末に含まれている各部(顔処理検出部、画面描画部、重力方向判定部等)は、ハードウェアロジックによって構成すればよい。または、次のように、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
すなわち顔処理検出部等は、各機能を実現するプログラムの命令を実行するCPU、このプログラムを格納したROM(Read Only Memory)、上記プログラムを実行可能な形式に展開するRAM(Random Access Memory)、及び、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)を備えている。この構成により、本発明の目的は、所定の記録媒体によっても、達成できる。
この記録媒体は、上述した機能を実現するソフトウェアである顔処理検出部等のプログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録していればよい。顔処理検出部等に、この記録媒体を供給する。これにより、コンピュータとしての顔処理検出部等(またはCPUやMPU)が、供給された記録媒体に記録されているプログラムコードを読み出し、実行すればよい。
プログラムコードを顔処理検出部等に供給する記録媒体は、特定の構造または種類のものに限定されない。すなわちこの記録媒体は、たとえば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などとすることができる。
また、顔処理検出部等を通信ネットワークと接続可能に構成しても、本発明の目的を達成できる。この場合、上記のプログラムコードを、通信ネットワークを介して顔処理検出部等に供給する。この通信ネットワークは顔処理検出部等にプログラムコードを供給できるものであればよく、特定の種類または形態に限定されない。たとえばインターネット、
イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等であればよい。
この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の媒体であればよく、特定の構成または種類のものに限定されない。たとえばIEEE1394、USB(Universal Serial Bus)、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明は、使用者の体の向きに応じた方向に表示画面を描画することができる端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体に利用することができる。
1 端末
2 表示画面
3a ジャイロセンサ(端末方向検出手段)
3b GPS方向センサ(端末方向検出手段)
3c ワイヤレスセンサ(端末方向検出手段)
4 カメラ(撮像手段)
7 アイコン
8 重力方向判定部(端末方向検出手段)
9 カメラ映像入力部
10 顔検出処理部(使用者方向検出手段)
11 顔検出データベース
12 画面描画部(画面表示方向決定手段)
13 使用者画像
14 人体検出処理部(使用者方向検出手段)
15 人体検出データベース
16 GPS衛星
17 端末方向判定部(端末方向検出手段)
18 発信機
19 端末方向判定部(端末方向検出手段)
20 水平方向判定部(端末方向検出手段)
D1 方向
D2 向き
D3 重力方向
D4 向き
D5 方向
D6 南北方向
D7 方向

Claims (14)

  1. 表示画面を有する端末であって、
    前記端末の向きを検出する端末方向検出手段と、
    前記表示画面を見る使用者を撮像するために設けられた撮像手段と、
    前記撮像手段により撮像された使用者の向きを検出する使用者方向検出手段と、
    前記端末方向検出手段により検出された端末の向きと、前記使用者方向検出手段により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する画面表示方向決定手段とを備えたことを特徴とする端末。
  2. 前記画面表示方向決定手段は、前記端末方向検出手段により検出された端末の向きと、前記使用者方向検出手段により検出された使用者の向きとの間の差異に基づいて、前記表示画面の表示方向を決定する請求項1に記載の端末。
  3. 前記画面表示方向決定手段は、前記端末の向きと前記使用者の向きとが異なったときに、前記表示画面の表示方向を前記使用者の向きに設定する請求項2に記載の端末。
  4. 前記撮像手段は、前記端末方向検出手段により検出された端末の向きの変化に応じて前記使用者を撮像する請求項1に記載の端末。
  5. 前記撮像手段は、前記端末の向きの変化が所定の閾値を超えたときに前記使用者を撮像する請求項4に記載の端末。
  6. 前記撮像手段は、前記端末方向検出手段により検出された端末の向きにより前記表示画面が水平方向を向いていると判定されたときに前記使用者を撮像する請求項1に記載の端末。
  7. 前記使用者方向検出手段は、前記撮像手段により撮像された使用者の人体の向きに基づいて前記使用者の向きを検出する請求項1に記載の端末。
  8. 前記使用者方向検出手段は、前記撮像手段により撮像された使用者の顔の向きに基づいて前記使用者の向きを検出する請求項1に記載の端末。
  9. 前記端末方向検出手段は、重力方向に基づいて前記端末の向きを検出するジャイロセンサを含む請求項1に記載の端末。
  10. 前記端末方向検出手段は、GPS衛星の方向と方向センサの方向とに基づいて前記端末の向きを検出するGPS方向センサを含む請求項1に記載の端末。
  11. 前記端末方向検出手段は、発信機の方向に基づいて前記端末の向きを検出するワイヤレスセンサを含む請求項1に記載の端末。
  12. 表示画面を有する端末の向きを検出する端末方向検出工程と、
    前記表示画面を見る使用者を撮像する撮像工程と、
    前記撮像工程により撮像された使用者の向きを検出する使用者方向検出工程と、
    前記端末方向検出工程により検出された端末の向きと、前記使用者方向検出工程により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する画面表示方向決定工程とを包含することを特徴とする表示画面描画方向補正方法。
  13. コンピュータに、
    表示画面を有する端末の向きを検出する端末方向検出手順と、
    前記表示画面を見る使用者を撮像する撮像手順と、
    前記撮像手順により撮像された使用者の向きを検出する使用者方向検出手順と、
    前記端末方向検出手順により検出された端末の向きと、前記使用者方向検出手順により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する画面表示方向決定手順とを実行させることを特徴とするプログラム。
  14. コンピュータに、
    表示画面を有する端末の向きを検出する端末方向検出手順と、
    前記表示画面を見る使用者を撮像する撮像手順と、
    前記撮像手順により撮像された使用者の向きを検出する使用者方向検出手順と、
    前記端末方向検出手順により検出された端末の向きと、前記使用者方向検出手順により検出された使用者の向きとに基づいて、前記表示画面の表示方向を決定する画面表示方向決定手順とを実行させるプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2012059390A 2012-03-15 2012-03-15 端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体 Pending JP2013197625A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012059390A JP2013197625A (ja) 2012-03-15 2012-03-15 端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体
EP12198232.6A EP2639671A3 (en) 2012-03-15 2012-12-19 Terminal, display direction correcting method for a display screen, program, and computer-readable recording medium
US13/722,122 US20130241818A1 (en) 2012-03-15 2012-12-20 Terminal, display direction correcting method for a display screen, and computer-readable recording medium
KR1020120155054A KR20130105286A (ko) 2012-03-15 2012-12-27 단말, 표시 화면 묘화 방향 보정 방법, 및 컴퓨터 판독 가능한 기록 매체
CN2012105858946A CN103309586A (zh) 2012-03-15 2012-12-28 终端以及显示屏幕的显示方向的校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012059390A JP2013197625A (ja) 2012-03-15 2012-03-15 端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2013197625A true JP2013197625A (ja) 2013-09-30
JP2013197625A5 JP2013197625A5 (ja) 2015-01-29

Family

ID=47738955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012059390A Pending JP2013197625A (ja) 2012-03-15 2012-03-15 端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体

Country Status (5)

Country Link
US (1) US20130241818A1 (ja)
EP (1) EP2639671A3 (ja)
JP (1) JP2013197625A (ja)
KR (1) KR20130105286A (ja)
CN (1) CN103309586A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212174A (ja) * 2015-05-01 2016-12-15 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
KR102181208B1 (ko) * 2014-05-16 2020-11-20 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
CN104596510A (zh) * 2014-12-23 2015-05-06 深圳市金立通信设备有限公司 一种终端
CN104567845B (zh) * 2015-01-30 2017-09-29 广东欧珀移动通信有限公司 一种方向指引方法和移动终端
CN106155279A (zh) * 2015-03-27 2016-11-23 中兴通讯股份有限公司 一种动态调整终端屏幕显示的方法及终端
CN106201271A (zh) * 2016-07-15 2016-12-07 乐视控股(北京)有限公司 横竖屏切换控制方法及装置
CN109275338A (zh) * 2017-05-23 2019-01-25 华为技术有限公司 一种多媒体文件的处理方法和装置
CN108898000A (zh) * 2018-05-31 2018-11-27 维沃移动通信有限公司 一种解锁屏幕的方法及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100069115A1 (en) * 2008-09-16 2010-03-18 Palm, Inc. Orientation based control of mobile device
EP2280331A1 (en) * 2009-07-22 2011-02-02 Research In Motion Limited Display orientation change for wireless devices
JP2011203860A (ja) * 2010-03-24 2011-10-13 Ntt Docomo Inc 情報端末及び表示切替方法
JP2013115459A (ja) * 2011-11-25 2013-06-10 Kyocera Corp 携帯端末、表示方向制御プログラムおよび表示方向制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110298829A1 (en) * 2010-06-04 2011-12-08 Sony Computer Entertainment Inc. Selecting View Orientation in Portable Device via Image Analysis
JP2008177819A (ja) 2007-01-18 2008-07-31 Mitsubishi Electric Corp 携帯端末装置
KR20090101733A (ko) * 2008-03-24 2009-09-29 삼성전자주식회사 휴대 단말기 및 그의 얼굴 인식을 이용한 표시정보의 표시방법
JP5397081B2 (ja) * 2009-08-12 2014-01-22 富士通モバイルコミュニケーションズ株式会社 携帯端末
CN101794193A (zh) * 2010-02-23 2010-08-04 华为终端有限公司 画面控制方法及电子设备
US20110298887A1 (en) * 2010-06-02 2011-12-08 Maglaque Chad L Apparatus Using an Accelerometer to Capture Photographic Images
KR101699922B1 (ko) * 2010-08-12 2017-01-25 삼성전자주식회사 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법
US8593558B2 (en) * 2010-09-08 2013-11-26 Apple Inc. Camera-based orientation fix from portrait to landscape
US20130057571A1 (en) * 2011-09-02 2013-03-07 Nokia Siemens Networks Oy Display Orientation Control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100069115A1 (en) * 2008-09-16 2010-03-18 Palm, Inc. Orientation based control of mobile device
EP2280331A1 (en) * 2009-07-22 2011-02-02 Research In Motion Limited Display orientation change for wireless devices
JP2011203860A (ja) * 2010-03-24 2011-10-13 Ntt Docomo Inc 情報端末及び表示切替方法
JP2013115459A (ja) * 2011-11-25 2013-06-10 Kyocera Corp 携帯端末、表示方向制御プログラムおよび表示方向制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212174A (ja) * 2015-05-01 2016-12-15 パラマウントベッド株式会社 画像表示制御装置、画像表示システム及びプログラム

Also Published As

Publication number Publication date
EP2639671A3 (en) 2014-10-29
CN103309586A (zh) 2013-09-18
EP2639671A2 (en) 2013-09-18
KR20130105286A (ko) 2013-09-25
US20130241818A1 (en) 2013-09-19

Similar Documents

Publication Publication Date Title
JP2013197625A (ja) 端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体
US20200304702A1 (en) Distributing processing for imaging processing
US11016531B2 (en) Foldable device and method for controlling image capturing by using plurality of cameras
KR102537922B1 (ko) 디스플레이 사이의 각도를 측정하는 방법 및 이를 사용하는 전자 장치
EP3105919B1 (en) Photographing method of an electronic device and the electronic device thereof
JP6109413B2 (ja) 画像表示方法、画像表示装置、端末、プログラム及び記録媒体
US20140361986A1 (en) Electronic device and method for controlling the electronic device based on image data detected through a plurality of cameras
US9883108B2 (en) Imaging apparatus and image blur correction method
US9924099B2 (en) Imaging apparatus and imaging method with a distance detector
CN109558837B (zh) 人脸关键点检测方法、装置及存储介质
JP5719480B2 (ja) 画像変形装置およびその動作制御方法
CN110839128B (zh) 拍照行为检测方法、装置及存储介质
CN110933452A (zh) 萌脸礼物显示方法、装置及存储介质
US20160344925A1 (en) Electronic device and method of operating camera of the same
EP4040332A1 (en) Method and apparatus for upgrading an intelligent model and non-transitory computer readable storage medium
US9584728B2 (en) Apparatus and method for displaying an image in an electronic device
US9891446B2 (en) Imaging apparatus and image blur correction method
KR20150027876A (ko) 모션을 이용한 스마트 워치 단말의 제어 방법 및 장치
US20150130984A1 (en) Electronic device including an image sensor
CN108196701B (zh) 确定姿态的方法、装置及vr设备
CN108881739B (zh) 图像生成方法、装置、终端及存储介质
CN112308104A (zh) 异常识别方法、装置及计算机存储介质
CN116871982A (zh) 一种数控机床主轴检测装置、方法及终端设备
CN116360650A (zh) 悬浮窗管理的方法及相关装置
CN113450799A (zh) 一种车载日程管理方法、系统、终端机及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160202