KR20130105286A - 단말, 표시 화면 묘화 방향 보정 방법, 및 컴퓨터 판독 가능한 기록 매체 - Google Patents

단말, 표시 화면 묘화 방향 보정 방법, 및 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR20130105286A
KR20130105286A KR1020120155054A KR20120155054A KR20130105286A KR 20130105286 A KR20130105286 A KR 20130105286A KR 1020120155054 A KR1020120155054 A KR 1020120155054A KR 20120155054 A KR20120155054 A KR 20120155054A KR 20130105286 A KR20130105286 A KR 20130105286A
Authority
KR
South Korea
Prior art keywords
terminal
user
display screen
detected
display
Prior art date
Application number
KR1020120155054A
Other languages
English (en)
Inventor
타카시 오타
Original Assignee
오므론 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오므론 가부시키가이샤 filed Critical 오므론 가부시키가이샤
Publication of KR20130105286A publication Critical patent/KR20130105286A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Abstract

본 발명은, 사용자 몸의 향함에 응한 방향으로 표시 화면을 묘화하는 것으로서, 이를 위한 수단으로서, 단말(1)은, 단말(1)의 향함을 검출하는 자이로 센서(3a)와, 표시 화면을 보는 사용자를 촬상하기 위해 마련된 카메라(4)와, 카메라(4)에 의해 촬상된 사용자의 향함을 검출하는 얼굴 검출 처리부(10)와, 자이로 센서(3a)에 의해 검출된 단말(1)의 향함과, 얼굴 검출 처리부(10)에 의해 검출된 사용자의 향함에 의거하여, 표시 화면의 표시 방향을 결정하는 화면 묘화부(12)를 구비한다.

Description

단말, 표시 화면 묘화 방향 보정 방법, 및 컴퓨터 판독 가능한 기록 매체{TERMINAL, DISPLAY SCREEN DRAWING DIRECTION CORRECTING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM}
본 발명은, 사용자 몸의 향함에 응한 방향으로 표시 화면을 묘화할 수 있는 단말, 표시 화면 묘화 방향 보정 방법, 프로그램, 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
근래, 터치 패널 방식에 의한 스마트 폰의 수요의 확대에 수반하여, 자이로 센서를 탑재한 모바일 단말이 증가하고 있다.
이 자이로 센서를 탑재한 모바일 단말은, 자이로 센서에 의해 검출된 중력 방향에 의거하여 모바일 단말의 자세를 검출하고, 이 자이로 센서에 의해 검출된 단말의 자세에 의거하여, 모바일 단말에 마련된 표시 화면의 묘화 방향을 자동적으로 설정하고 있다.
그러나, 이 구성에서는 하기한 부적합함이 생긴다. 즉, 모바일 단말은 자이로 센서에 의해 검출된 단말의 자세에 의거하여, 중력의 작용 방향에 대응하는 상하 방향으로 표시 화면을 묘화한다. 그러나, 이 상하 방향의 묘화 방향은, 모바일 단말의 표시 화면을 옆으로 누워서 시청하는 사용자 얼굴 또는 몸의 향함과 정합되지 않고, 옆으로 누워서 시청하는 사용자 얼굴의 방향과 같은 묘화 방향이 되지 않는다는 문제가 있다.
그리고, 자이로 센서를 탑재한 단말을 책상의 위에 놓은 때는, 중력의 방향은, 표시 화면에 수직한 바로 아래쪽의 방향이 되기 때문에, 자이로 센서의 검출 결과에 의거한 묘화 방향이 일정하지가 않고 불안정하게 된다는 문제가 있다.
이들의 문제를 해결하기 위해, 사용자 얼굴의 향함에 응한 방향으로 표시 화면을 묘화한 단말의 구성으로서, 하기한 구성이 알려져 있다. 즉, 휴대 단말 장치는, 인-카메라로 촬영한 얼굴화상으로부터, 화상 처리부에 의해 얼굴 요소의 위치 정보를 검출하고, 얼굴 요소의 위치 정보에 의거하여, CPU가 자체 단말에 대한 유저의 얼굴 정보의 상하 방향을 판단하고, 얼굴 정보의 상하 방향에 응하여 표시 화면의 표시 방향을 제어하고, 화상을 표시부에 표시하는 구성이 알려져 있다(특허 문헌 1).
특허 문헌 1 : 일본 특개2008-177819호 공보(2008년 7월 31일 공개)
그러나, 특허 문헌 1의 상기 구성에서는, 사용자 몸의 향함에 응한 방향으로 표시 화면을 묘화하기 위해, 항상 인-카메라를 작동시켜서 사용자를 촬영할 필요가 있다. 이 때문에, 인-카메라가 소비하는 소비 전력이 방대하게 된다. 따라서, 특허 문헌 1의 구성은, 인-카메라가 소비하는 방대한 소비 전력의 관점에서, 곧바로 전지 끊어짐이 발생하는 현상이 우려되고, 실현성이 부족하다는 문제가 있다.
본 발명의 목적은, 사용자의 몸의 향함에 응한 방향으로 표시 화면을 묘화할 수 있는 단말, 표시 화면 묘화 방향 보정 방법, 프로그램, 및 컴퓨터 판독 가능한 기록 매체를 제공하는 것에 있다.
상기한 과제를 해결하기 위해, 본 발명에 관한 단말은, 표시 화면을 갖는 단말로서, 상기 단말의 향함을 검출하는 단말 방향 검출 수단과, 상기 표시 화면을 보는 사용자를 촬상하기 위해 마련된 촬상 수단과, 상기 촬상 수단에 의해 촬상된 사용자의 향함을 검출하는 사용자 방향 검출 수단과, 상기 단말 방향 검출 수단에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 수단에 의해 검출된 사용자 향함에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 화면 표시 방향 결정 수단을 구비한 것을 특징으로 한다.
이 특징에 의해, 상기 단말 방향 검출 수단에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 수단에 의해 검출된 사용자 향함에 의거하여, 상기 표시 화면의 표시 방향이 결정된다. 이 때문에, 단말의 향함과 사용자 향함에 응하여 표시 화면의 표시 방향을 결정할 수 있고, 옆으로 누운 상태 등의 사용자 몸의 향함에 응한 방향으로 표시 화면을 표시할 수 있다.
본 발명에 관한 단말에서는, 상기 화면 표시 방향 결정 수단은, 상기 단말 방향 검출 수단에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 수단에 의해 검출된 사용자 향함과의 사이의 차이에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 것이 바람직하다.
상기 구성에 의하면, 단말의 향함과 사용자 향함이 달라진 경우에, 사용자 향함으로 표시 화면을 표시할 수 있다.
본 발명에 관한 단말에서는, 상기 화면 표시 방향 결정 수단은, 상기 단말의 향함과 상기 사용자 향함이 달라진 때에, 상기 표시 화면의 표시 방향을 상기 사용자 향함으로 설정하는 것이 바람직하다.
상기 구성에 의하면, 단말의 향함과 사용자 향함이 소정의 임계치를 초과하여 달라진 경우에, 사용자 향함으로 표시 화면을 표시할 수 있다.
본 발명에 관한 단말에서는, 상기 촬상 수단은, 상기 단말 방향 검출 수단에 의해 검출된 단말의 향함의 변화에 응하여 상기 사용자를 촬상하는 것이 바람직하다.
상기 구성에 의하면, 단말의 향함의 변화가 있는 때에 촬상하기 때문에, 보다 적은 소비 전력에 의해, 사용자 몸의 향함에 응한 방향으로 표시 화면을 표시할 수 있다.
본 발명에 관한 단말에서는, 상기 촬상 수단은, 상기 단말의 향함의 변화가 소정의 임계치를 초과한 때에 상기 사용자를 촬상하는 것이 바람직하다.
상기 구성에 의하면, 단말의 향함의 변화가 소정의 임계치를 초과한 때에 촬상하기 때문에, 보다 적은 소비 전력에 의해, 사용자 몸의 향함에 응한 방향으로 표시 화면을 표시할 수 있다.
본 발명에 관한 단말에서는, 상기 촬상 수단은, 상기 단말 방향 검출 수단에 의해 검출된 단말의 향함에 의해 상기 표시 화면이 수평 방향을 향하고 있다고 판정된 때에 상기 사용자를 촬상하는 것이 바람직하다.
상기 구성에 의하면, 표시 화면이 수평 방향을 향하여서 불안정한 표시 방향을 사용자 향함에 응한 방향으로 안정화할 수 있다.
본 발명에 관한 단말에서는, 상기 사용자 방향 검출 수단은, 상기 촬상 수단에 의해 촬상된 사용자 인체의 향함에 의거하여 상기 사용자 향함을 검출하는 것이 바람직하다.
상기 구성에 의하면, 사용자 인체의 향함에 의거하여 표시 화면을 표시할 수 있다.
본 발명에 관한 단말에서는, 상기 사용자 방향 검출 수단은, 상기 촬상 수단에 의해 촬상된 사용자 얼굴의 향함에 의거하여 상기 사용자 향함을 검출하는 것이 바람직하다.
상기 구성에 의하면, 사용자 얼굴의 향함에 의거하여 표시 화면을 표시할 수 있다.
본 발명에 관한 단말에서는, 상기 단말 방향 검출 수단은, 중력 방향에 의거하여 상기 단말의 향함을 검출하는 자이로 센서를 포함하는 것이 바람직하다.
상기 구성에 의하면, 간단한 구성에 의해 단말의 향함을 검출할 수 있다.
본 발명에 관한 단말에서는, 상기 단말 방향 검출 수단은, GPS 위성의 방향과 방향 센서의 방향에 의거하여 상기 단말의 향함을 검출하는 GPS 방향 센서를 포함하는 것이 바람직하다.
상기 구성에 의하면, 글로벌·포지셔닝·시스템에 의거하여 단말의 향함을 검출할 수 있다.
본 발명에 관한 단말에서는, 상기 단말 방향 검출 수단은, 발신기의 방향에 의거하여 상기 단말의 향함을 검출하는 와이어리스 센서를 포함하는 것이 바람직하다.
상기 구성에 의하면, WiFi(와이파이, wireless fidelity) 등에 사용하는 와이어리스 센서와 그 발신기와의 각도로부터 단말의 향함을 검출할 수 있다.
본 발명에 관한 표시 화면 묘화 방향 보정 방법은, 표시 화면을 갖는 단말의 향함을 검출하는 단말 방향 검출 공정과, 상기 표시 화면을 보는 사용자를 촬상하는 촬상 공정과, 상기 촬상 공정에 의해 촬상된 사용자 향함을 검출하는 사용자 방향 검출 공정과, 상기 단말 방향 검출 공정에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 공정에 의해 검출된 사용자 향함에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 화면 표시 방향 결정 공정을 포함하는 것을 특징으로 한다.
본 발명에 관한 프로그램은, 컴퓨터에, 표시 화면을 갖는 단말의 향함을 검출하는 단말 방향 검출 순서와, 상기 표시 화면을 보는 사용자를 촬상하는 촬상 순서와, 상기 촬상 순서에 의해 촬상된 사용자 향함을 검출하는 사용자 방향 검출 순서와, 상기 단말 방향 검출 순서에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 순서에 의해 검출된 사용자 향함에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 화면 표시 방향 결정 순서를 실행시키는 것을 특징으로 한다.
본 발명에 관한 컴퓨터 판독 가능한 기록 매체는, 컴퓨터에, 표시 화면을 갖는 단말의 향함을 검출하는 단말 방향 검출 순서와, 상기 표시 화면을 보는 사용자를 촬상하는 촬상 순서와, 상기 촬상 순서에 의해 촬상된 사용자 향함을 검출하는 사용자 방향 검출 순서와, 상기 단말 방향 검출 순서에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 순서에 의해 검출된 사용자 향함에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 화면 표시 방향 결정 순서를 실행시키는 프로그램을 기록한 것을 특징으로 한다.
본 발명에 관한 단말은, 단말 방향 검출 수단에 의해 검출된 단말의 향함과, 사용자 방향 검출 수단에 의해 검출된 사용자 향함에 의거하여, 상기 표시 화면의 표시 방향을 결정한다. 이 때문에, 단말의 향함과 사용자 향함에 응하여 표시 화면의 표시 방향을 결정할 수 있고, 옆으로 누운 상태 등의 사용자 몸의 향함에 응한 방향으로 표시 화면을 표시할 수 있다.
도 1은 실시의 형태 1에 관한 단말의 외관을 도시하는 사시도.
도 2는 상기 단말의 구성을 도시하는 블록도.
도 3은 상기 단말에 마련된 자이로 센서에 의해 단말의 방향을 검출하는 방법을 설명하기 위한 도면.
도 4(a), (b)는, 상기 자이로 센서에 의해 단말의 방향의 변화를 검출하는 방법을 설명하기 위한 도면.
도 5(a)는 상기 자이로 센서에 의해 검출된 단말의 방향을 설명하기 위한 도면, (b)는 상기 단말에 마련된 카메라에 의해 촬상된 사용자 얼굴의 향함을 도시하는 도면.
도 6은 상기 단말의 동작을 도시하는 플로우 차트.
도 7은 상기 단말의 변형예의 구성을 도시하는 블록도.
도 8은 상기 변형예의 동작을 도시하는 플로우 차트.
도 9는 실시의 형태 2에 관한 단말에 마련된 GPS 방향 센서에 의해 단말의 방향을 검출하는 방법을 설명하기 위한 도면.
도 10은 상기 단말의 구성을 도시하는 블록도.
도 11은 상기 단말의 동작을 도시하는 플로우 차트.
도 12는 상기 단말의 변형예의 구성을 도시하는 블록도.
도 13은 상기 변형예의 동작을 도시하는 플로우 차트.
도 14는 실시의 형태 3에 관한 단말에 마련된 와이어리스 센서에 의해 단말의 방향을 검출하는 방법을 설명하기 위한 도면.
도 15는 상기 단말의 구성을 도시하는 블록도.
도 16은 상기 단말의 동작을 도시하는 플로우 차트.
도 17은 상기 단말의 변형예의 구성을 도시하는 블록도.
도 18은 상기 변형예의 동작을 도시하는 플로우 차트.
도 19는 실시의 형태 4에 관한 단말의 구성을 도시하는 블록도.
도 20은 상기 단말의 동작을 도시하는 플로우 차트.
(개요)
이하, 본 발명의 실시의 형태에 관한 단말의 개요를 설명한다. 실시의 형태 1에 관한 단말은, 자이로 센서에 의해 검출된 단말의 향함의 변화가 소정의 임계치를 초과한 때에 사용자를 촬상하고, 단말의 향함의 변화에 응하여 촬상된 사용자 몸의 향함에 의거하여, 표시 화면의 표시 방향을 결정한다.
실시의 형태 2에 관한 단말은, 단말의 향함의 변화를 GPS 방향 센서에 의해 검출하는 점이 실시의 형태 1의 단말과 다르다. 실시의 형태 3에 관한 단말은, 단말의 향함의 변화를 와이어리스 센서에 의해 검출하는 점이 다르다.
실시의 형태 4에 관한 단말은, 자이로 센서에 의해 검출된 단말의 향함에 의거하여 표시 화면의 묘화 방향을 설정하고, 자이로 센서에 의해
검출된 단말 방향의 향함에 의해 표시 화면이 수평 방향을 향하고 있다고 판정된 때에 사용자를 촬상하고, 표시 화면이 수평 방향에 향하고 있다고 판정된 때에 카메라에 의해 촬상된 사용자 몸의 향함에 의거하여, 표시 화면의 표시 방향을 결정한다.
(실시의 형태 1)
(단말(1)의 구성)
도 1은, 실시의 형태 1에 관한 단말(1)의 외관을 도시하는 사시도이다. 단말(1)은, 예를 들면 터치 패널 방식에 의한 스마트 폰이고, 판형상의 몸체를 구비하고 있다. 단말(1)은, 이 몸체의 표면에 표시 화면(2)을 갖고 있다. 표시 화면(2)에는, 단말(1)을 조작하기 위한 복수의 아이콘(7)이 표시되어 있다. 표시 화면(2)의 옆에는, 단말(1)의 사용자를 촬상할 수 있는 카메라(4)가 마련되어 있다.
도 2는, 단말(1)의 구성을 도시하는 블록도이다. 단말(1)은, 중력 방향에 의거하여 단말(1)의 향함을 검출하기 위한 자이로 센서(3a)를 갖고 있다. 단말(1)에는, 중력 방향 판정부(8)가 마련되어 있다. 중력 방향 판정부(8)는, 자이로 센서(3a)에 의해 검출된 중력 방향에 의거하여 단말(1)의 표시 화면(2)의 향함을 판정한다.
도 1을 참조하면, 본 명세서에서, 단말(1)의 향함은, 피치각(θ), 요각(φ), 및 롤각(δ)에 의해 정의된다. 도 1에 도시하는 바와 같이, 서로 직교하는 x축, y축, 및 z축을 정의하면, 피치각(θ)은, 방향(D1)의 y축 둘레의 회전각이고, 요각(φ)은, 방향(D1)의 x축 둘레의 회전각이고, 롤각(δ)은, 방향(D1)의 z축 둘레의 회전각인 것인 것으로 정의한다.
도 2를 참조하면, 단말(1)은, 카메라 영상 입력부(9)를 갖고 있다. 카메라 영상 입력부(9)는, 카메라(4)에 의해 촬상된 사용자 화상 데이터를 카메라(4)로부터 입력하여, 얼굴 검출 처리부(10)에 공급한다.
얼굴 검출 처리부(10)는, 카메라 영상 입력부(9)로부터 공급된 사용자 화상 데이터와, 얼굴 검출 데이터베이스(11)에 축적된 얼굴 검출 데이터에 의거하여, 단말(1)의 표시 화면(2)에 대한 사용자 얼굴의 향함을 검출한다.
단말(1)에는, 화면 묘화부(12)가 마련되어 있다. 화면 묘화부(12)는, 중력 방향 판정부(8)에 의해 판정된 단말(1)의 표시 화면(2)의 향함에 상당하는 묘화 방향으로 표시 화면(2)을 묘화한다. 그리고, 화면 묘화부(12)는, 중력 방향 판정부(8)에 의해 판정된 단말(1)의 표시 화면(2)의 향함과, 얼굴 검출 처리부(10)에 의해 검출된 표시 화면(2)에 대한 사용자 얼굴의 향함을 비교하고, 양자가 일치하지 않으면, 표시 화면(2)의 묘화 방향을 사용자 얼굴의 향하는 방향으로 보정한다. 양자가 일치하고 있을 때는, 중력 방향 판정부(8)에 의해 판정된 표시 화면(2)의 향함에 대응하는 묘화 방향으로의 묘화를 계속한다.
(자이로 센서의 동작)
도 3은, 단말(1)에 마련된 자이로 센서(3a)(도 2)에 의해 단말(1)의 향함(D2)을 검출하는 방법을 설명하기 위한 도면이다. 중력 방향 판정부(8)(도 2)는, 자이로 센서(3a)(도 2)에 의해 검출된 중력 방향(D3)에 의거하여 단말(1)의 표시 화면(2)의 향함(D2)을, 피치각(θ), 요각(φ), 및 롤각(δ)에 의해 판정한다.
(단의 향함의 변화의 검출)
도 4(a) (b)는, 자이로 센서(3a)에 의해 단말(1)의 방향의 변화를 검출하는 방법을 설명하기 위한 도면이다. 우선, 시각(T)=T0에서, 자이로 센서(3a)에 의해 검출한 중력 방향(D3)에 의거하여, 단말 향함(D20)을, 피치각(θ), 요각(φ) 및 롤각(δ)에 의해 검출한다. 다음에, 시각(T)=T1(T0<T1)에서, 중력 방향(D3)에 의거하여, 단말 향함(D21)을, 피치각(θ1)=θ+α, 요각(φ1)=φ+β, 및 롤각(δ1)=δ+γ에 의해 검출한다.
그리고, α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰 때에, 단말의 향함의 변화가 소정의 임계치를 초과하였다고 판단하고, 카메라(4)를 기동하여 사용자를 촬상한다.
(묘화 방향의 보정 방법)
도 5(a)는 자이로 센서(3a)에 의해 검출된 단말(1)의 방향을 설명하기 위한 도면이고, 도 5(b)는 단말(1)에 마련된 카메라(4)에 의해 촬상된 사용자 얼굴의 향함을 도시하는 도면이다.
우선, 자이로 센서(3a)에 의해 검출된 단말(1)의 방향(D2)이, 피치각(θ1), 요각(φ1), 및 롤각(δ1)에 의해 나타나는 것으로 한다. 그리고, 단말(1)의 표시 화면(2)을 시청하는 사용자의 사용자 화상(13)에서의 얼굴의 향함(D4)이 피치각(θ2), 요각(φ2), 및 롤각(δ2)에 의해 나타나는 것으로 한다. 사용자 얼굴의 향함(D4)을 판정하는 방법은, 특히 한정되지 않지만, 예를 들면, 단말(1)에 마련된 카메라(4)에 의해 촬상된, 표시 화면(2)을 시청하는 사용자 화상에 의해 판정할 수 있다.
그리고, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크든지, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크든지, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 큰 때에, 화면 묘화부(12)는, 사용자 얼굴의 향함(D4)에 의거하여, 표시 화면(2)의 묘화 방향을 보정한다.
상기 이외의 경우는, 자이로 센서(3a)에 의해 검출된 단말(1)의 방향에 의거한 묘화 방향에 의한 묘화를 계속한다.
(단말(1)의 동작)
도 6은, 단말(1)의 동작을 도시하는 플로우 차트이다. 우선, 자이로 센서(3a)에 의해 중력 방향(D3)을 검출하고, 검출한 중력 방향(D3)에 의거하여 단말(1)의 표시 화면(2)의 향함(D21)(도 4(b))을 피치각(θ+α), 요각(φ+β), 및 롤각(δ+γ)에 의해 검출한다(스텝 S1). 그리고, 전회의 검출치인 피치각(θ), 요각(φ), 및 롤각(δ)에 대해, α의 절대치가 피치각의 임계치(Th1. a)보다도 큰지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 큰지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰지를 판단한다(스텝 S2). α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 크다는 조건을 충족시키지 않는 때는(스텝 S2에서 NO), 스텝 S1로 되돌아온다.
α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰 때는(스텝 S2에서 YES), 카메라(4)가 기동되어(스텝 S3), 단말(1)의 표시 화면(2)을 시청하는 사용자를 촬상한다(스텝 S4). 다음에, 카메라(4)에 의해 촬상된 화상에, 단말(1)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있는지의 여부가 얼굴 검출 처리부(10)에 의해 판단된다(스텝 S5).
카메라(4)에 의해 촬상된 화상에, 단말(1)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있다고 판단된 때는(스텝 S5에서 YES), 얼굴 검출 처리부(10)는, 카메라(4)에 의해 촬상된 화상에 찍히는 사용자 얼굴의 방향을 판정한다. 그리고, 화면 묘화부(12)는, 얼굴 검출 처리부(10)에 의해 판정된 사용자 얼굴의 표시 화면(2)에 대한 방향(D4)과, 자이로 센서(3a)에 의해 검출된 단말(1)의 표시 화면(2)의 방향(D2)을 비교한다(스텝 S6).
예를 들면, 자이로 센서(3a)에 의해 검출된 단말(1)의 표시 화면(2)의 방향(D2)이, 피치각(θ1), 요각(φ1), 및 롤각(δ1)에 의해 나타나는 것으로 한다. 그리고, 단말(1)의 표시 화면(2)을 시청하는 사용자 향함(D4)이 피치각(θ2), 요각(φ2), 및 롤각(δ2)에 의해 나타나는 것으로 하면, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크든지, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크든지, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 크다고 판단한 때에(스텝 S6에서 YES), 화면 묘화부(12)는, 사용자 얼굴의 표시 화면(2)에 대한 향함(D4)에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한다(스텝 S7).
카메라(4)에 의해 촬상된 화상에, 단말(1)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있지 않다고 판정된 때(스텝 S5에서 NO), 또는, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크든지, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크든지, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 크다는 조건이 충족되지 않는다고 판정된 때는(스텝 S6에서 NO), 화면 묘화부(12)는, 자이로 센서(3a)에 의해 검출된 단말(1)의 방향(D2)으로 묘화 방향을 설정한다(스텝 S8).
사용자 얼굴의 향함(D4)에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한 경우(스텝 S7), 또는, 자이로 센서(3a)에 의해 검출된 단말(1)의 방향(D2)으로 묘화 방향을 설정한 경우(스텝 S8)는, 단말(1)의 표시 화면(2)의 묘화 방향을, 상기 설정 결과에 응하여 변경한다(스텝 S9). 그 후, 처리를 종료한다.
(변형예의 구성)
도 7은, 상기 단말의 변형예의 구성을 도시하는 블록도이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
단말(1a)은, 인체 검출 처리부(14)와 인체 검출 데이터베이스(15)와 화면 묘화부(12a)를 갖는 점에서, 전술한 단말(1)과 다르다. 인체 검출 처리부(14)는, 카메라 영상 입력부(9)로부터 공급된 사용자 화상 데이터와, 인체 검출 데이터베이스(15)에 축적된 인체 검출 데이터에 의거하여, 단말(1)의 표시 화면(2)에 대한 사용자 몸의 향함을 검출한다.
또한, 카메라(4) 대신에 인체 검지 센서를 마련하여도 좋고, 표시 화면(2)을 시청하는 시청자 몸의 향함, 몸의 상하 방향을 검출할 수 있는 수단이라면, 어떤 수단을 마련하여도 좋다.
(변형예의 동작)
도 8은, 상기 변형예의 동작을 도시하는 플로우 차트이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
우선, 자이로 센서(3a)에 의해 중력 방향(D3)을 검출하고, 검출한 중력 방향(D3)에 의거하여 단말(1a)의 표시 화면(2)의 향함(D21)(도 4(b))을 피치각(θ+α), 요각(φ+β), 및 롤각(δ+γ)에 의해 검출한다(스텝 S1). 그리고, 전회의 검출치인 피치각(θ), 요각(φ), 및 롤각(δ)에 대해, α의 절대치가 피치각의 임계치(Th1. a)보다도 큰지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 큰지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰지를 판단한다(스텝 S2). α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 크다는 조건을 충족시키지 않는 때는(스텝 S2에서 NO), 스텝 S1로 되돌아온다.
α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰 때는(스텝 S2에서 YES), 카메라(4)가 기동되어(스텝 S3), 단말(1)의 표시 화면(2)을 시청하는 사용자 인체를 촬상한다(스텝 S10). 다음에, 카메라(4)에 의해 촬상된 화상에, 단말(1)의 표시 화면(2)을 시청하는 사용자의 인체가 찍혀 있는지의 여부가 인체 검출 처리부(14)에 의해 판단된다(스텝 S11).
카메라(4)에 의해 촬상된 화상에, 단말(1a)의 표시 화면(2)을 시청하는 사용자의 인체가 찍혀 있다고 판단된 때는(스텝 S11에서 YES), 인체 검출 처리부(14)는, 카메라(4)에 의해 촬상된 화상에 찍히는 사용자 인체의 방향을 판정한다. 그리고, 화면 묘화부(12a)는, 인체 검출 처리부(14)에 의해 판정된 사용자 인체의 표시 화면(2)에 대한 방향과, 자이로 센서(3a)에 의해 검출된 단말(1)의 표시 화면(2)의 방향을 비교한다(스텝 S12).
사용자 인체의 표시 화면(2)에 대한 방향과 단말(1a)의 표시 화면(2)의 방향 사이의 차이가 소정의 임계치보다도 크다고 판단한 때에(스텝 S12에서 YES), 화면 묘화부(12a)는, 사용자 인체의 표시 화면(2)에 대한 향함에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한다(스텝 S13).
카메라(4)에 의해 촬상된 화상에, 단말(1a)의 표시 화면(2)을 시청하는 사용자 인체가 찍혀 있지 않다고 판정된 때(스텝 S11에서 NO), 또는, 사용자 인체의 표시 화면(2)에 대한 방향과 단말(1a)의 표시 화면(2)의 방향 사이의 차이가 소정의 임계치보다도 크지 않다고 판정된 때는(스텝 S12에서 NO), 화면 묘화부(12a)는, 자이로 센서(3a)에 의해 검출된 단말(1a)의 방향으로 묘화 방향을 설정한다(스텝 S14).
사용자 인체의 향함에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한 경우(스텝 S13), 또는, 자이로 센서(3a)에 의해 검출된 단말(1a)의 방향으로 묘화 방향을 설정한 경우(스텝 S14)는, 단말(1a)의 표시 화면(2)의 묘화 방향을, 상기 설정 결과에 응하여 변경한다(스텝 S15). 그 후, 처리를 종료한다.
(임계치에 의한 다른 판단 방법)
전술한 임계치에 관해서는, 전회의 검출치인 피치각(θ), 요각(φ), 및 롤각(δ)에 대해, α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 크다는 조건에 의해 판단하는 예를 나타냈지만, 본 발명은 이것으로 한정되지 않는다. 피치각(θ)과 요각(φ)만에 의해 판단하여도 좋고, 롤각(δ)만에 의해 판단하여도 좋다. 후술하는 실시의 형태에서도 마찬가지이다.
(본 발명의 적용 범위)
또한, 스마트 폰에 본 발명을 적용한 예를 나타냈지만, 본 발명은 이것으로 한정되지 않는다. 휴대 전화를 포함하는 휴대형 단말, 태블릿형 단말에도 본 발명을 적용할 수 있다. 후술하는 실시의 형태에서도 마찬가지이다.
(실시의 형태 1의 효과)
이상과 같이 실시의 형태 1에 의하면, 자이로 센서에 의해 검출된 단말의 향함에 응하여, 필요한 때만 카메라가 사용자를 촬상한다. 이 때문에, 보다 적은 소비 전력에 의해, 사용자 몸의 향함에 응한 방향으로 표시 화면을 묘화할 수 있다. 따라서, 사용자가 옆으로 누워서, 탁상에 휴대 단말을 놓아도, 휴대 단말의 화면을 옆으로 쓰러뜨려도, 보다 적은 소비 전력으로, 마음대로 묘화 방향으로 표시 화면을 묘화할 수 있다.
(실시의 형태 2)
(단말(1b, 1c)의 구성)
도 9는, 실시의 형태 2에 관한 단말(1b, 1c)에 마련된 GPS 방향 센서(3b)(도 10)에 의해 단말(1b, 1c)의 방향(D2)을 검출하는 방법을 설명하기 위한 도면이다. 도 10은, 단말(1b)의 구성을 도시하는 블록도이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
단말(1b)은, GPS 방향 센서(3b)와 단말 방향 판정부(17)를 구비하는 점에서, 도 2를 참조하여 전술한 단말(1)과 다르다. GPS 방향 센서(3b)는, GPS 위성(16)의 방향(D5)과, 남북을 나타내는 방향 센서의 방향(D6)을 검출하여 단말 방향 판정부(17)에 공급한다. 단말 방향 판정부(17)는, GPS 방향 센서(3b)로부터 공급된 GPS 위성(16)의 방향(D5)과, 남북을 나타내는 방향 센서의 방향(D6)에 의거하여 단말(1b, 1c)의 방향(D2)을 판정한다.
(단말(1b)의 동작)
도 11은, 단말(1b)의 동작을 도시하는 플로우 차트이다. 우선, 남북을 나타내는 방향 센서에 의해 남북 방향(D6)을 검출한다(스텝 S16). 그리고, GPS 방향 센서(3b)(도 10)에 의해, GPS 위성(16)의 방향(D5)을 검출한다(스텝 S17). 다음에, 검출한 남북 방향(D6) 및 GPS 위성(16)의 방향(D5)에 의거하여 단말(1b)의 표시 화면(2)의 향함(D2)을 피치각(θ+α), 요각(φ+β), 및 롤각(δ+γ)에 의해 검출한다.
그리고, 전회의 검출치인 피치각(θ), 요각(φ), 및 롤각(δ)에 대해, α의 절대치가 피치각의 임계치(Th1. a)보다도 큰지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 큰지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰지를 판단한다(스텝 S18). α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 크다는 조건을 충족시키지 않는 때는(스텝 S18에서 NO), 스텝 S16으로 되돌아온다.
α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰 때는(스텝 S18에서 YES), 카메라(4)가 기동되어(스텝 S3), 단말(1b)의 표시 화면(2)을 시청하는 사용자를 촬상한다(스텝 S4). 다음에, 카메라(4)에 의해 촬상된 화상에, 단말(1b)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있는지의 여부가 얼굴 검출 처리부(10)에 의해 판단된다(스텝 S5).
카메라(4)에 의해 촬상된 화상에, 단말(1b)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있다고 판단된 때는(스텝 S5에서 YES), 얼굴 검출 처리부(10)는, 카메라(4)에 의해 촬상된 화상에 찍히는 사용자 얼굴의 방향을 판정한다. 그리고, 화면 묘화부(12b)는, 얼굴 검출 처리부(10)에 의해 판정된 사용자 얼굴의 표시 화면(2)에 대한 방향(D4)(도 5)과, GPS 방향 센서(3b)에 의해 검출된 단말(1b)의 표시 화면(2)의 방향(D2)을 비교한다(스텝 S19).
예를 들면, GPS 방향 센서(3b)에 의해 검출된 단말(1b)의 표시 화면(2)의 방향(D2)이, 피치각(θ1), 요각(φ1), 및 롤각(δ1)에 의해 나타나는 것으로 한다. 그리고, 단말(1b)의 표시 화면(2)을 시청하는 사용자의 향함(D4)이 피치각(θ2), 요각(φ2), 및 롤각(δ2)에 의해 나타나는 것으로 하면, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크든지, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크든지, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 크다고 판단한 때에(스텝 S19에서 YES), 화면 묘화부(12b)는, 사용자 얼굴의 표시 화면(2)에 대한 향함(D4)에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한다(스텝 S20).
카메라(4)에 의해 촬상된 화상에, 단말(1)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있지 않다고 판정된 때(스텝 S5에서 NO), 또는, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크든지, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크든지, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 크다는 조건이 충족되지 않는다고 판정된 때는(스텝 S19에서 NO), 화면 묘화부(12b)는, GPS 방향 센서(3b)에 의해 검출된 단말(1b)의 방향(D2)으로 묘화 방향을 설정한다(스텝 S21).
사용자 얼굴의 향함(D4)에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한 경우(스텝 S20), 또는, GPS 방향 센서(3b)에 의해 검출된 단말(1b)의 방향(D2)으로 묘화 방향을 설정한 경우(스텝 S21)는, 단말(1b)의 표시 화면(2)의 묘화 방향을, 상기 설정 결과에 응하여 변경한다(스텝 S22). 그 후, 처리를 종료한다.
(변형예의 구성)
도 12는, 단말의 변형예의 구성을 도시하는 블록도이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
단말(1c)은, 인체 검출 처리부(14)와 인체 검출 데이터베이스(15)와 화면 묘화부(12c)를 갖는 점에서, 도 10의 단말(1b)과 다르다. 인체 검출 처리부(14)는, 카메라 영상 입력부(9)로부터 공급된 사용자의 화상 데이터와, 인체 검출 데이터베이스(15)에 축적된 인체 검출 데이터에 의거하여, 단말(1c)의 표시 화면(2)에 대한 사용자 몸의 향함을 검출한다.
(변형예의 동작)
도 13은, 상기 변형예의 동작을 도시하는 플로우 차트이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
우선, 남북을 나타내는 방향 센서에 의해 남북 방향(D6)(도 9)을 검출한다(스텝 S16). 그리고, GPS 방향 센서(3b)(도 10)에 의해, GPS 위성(16)의 방향(D5)(도 9)을 검출한다(스텝 S17). 다음에, 검출한 남북 방향(D6) 및 GPS 위성(16)의 방향(D5)에 의거하여 단말(1c)의 표시 화면(2)의 향함(D2)을 피치각(θ+α), 요각(φ+β), 및 롤각(δ+γ)에 의해 검출한다.
그리고, 전회의 검출치인 피치각(θ), 요각(φ), 및 롤각(δ)에 대해, α의 절대치가 피치각의 임계치(Th1. a)보다도 큰지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 큰지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰지를 판단한다(스텝 S18). α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 크다는 조건을 충족시키지 않는 때는(스텝 S18에서 NO), 스텝 S16으로 되돌아온다.
α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰 때는(스텝 S18에서 YES), 카메라(4)가 기동되어(스텝 S3), 단말(1c)의 표시 화면(2)을 시청하는 사용자의 인체를 촬상한다(스텝 S10). 다음에, 카메라(4)에 의해 촬상된 화상에, 단말(1c)의 표시 화면(2)을 시청하는 사용자의 인체가 찍혀 있는지의 여부가 인체 검출 처리부(14)에 의해 판단된다(스텝 S11).
카메라(4)에 의해 촬상된 화상에, 단말(1c)의 표시 화면(2)을 시청하는 사용자의 인체가 찍혀 있다고 판단된 때는(스텝 S11에서 YES), 인체 검출 처리부(14)는, 카메라(4)에 의해 촬상된 화상에 찍히는 사용자 인체의 방향을 판정한다. 그리고, 화면 묘화부(12c)는, 인체 검출 처리부(14)에 의해 판정된 사용자 인체의 표시 화면(2)에 대한 방향과, GPS 방향 센서(3b)에 의해 검출된 단말(1c)의 표시 화면(2)의 방향을 비교한다(스텝 S23).
예를 들면, GPS 방향 센서(3b)에 의해 검출된 단말(1c)의 표시 화면(2)의 방향(D2)이, 피치각(θ1), 요각(φ1), 및 롤각(δ1)에 의해 나타나는 것으로 한다. 그리고, 단말(1c)의 표시 화면(2)을 시청하는 사용자 인체의 향함이 피치각(θ2), 요각(φ2), 및 롤각(δ2)에 의해 나타나는 것으로 하면, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크든지, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크든지, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 크다고 판단한 때에(스텝 S23에서 YES), 화면 묘화부(12c)는, 사용자 인체의 표시 화면(2)에 대한 향함에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한다(스텝 S24).
카메라(4)에 의해 촬상된 화상에, 단말(1c)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있지 않다고 판정된 때(스텝 S11에서 NO), 또는, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크거나, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크거나, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 크다는 조건이 충족되지 않는다고 판정된 때는(스텝 S23에서 NO), 화면 묘화부(12c)는, GPS 방향 센서(3b)에 의해 검출된 단말(1c)의 빙향(D2) 묘화 방향을 설정한다(스텝 S25).
사용자 인체의 향함에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한 경우(스텝 S24), 또는, GPS 방향 센서(3b)에 의해 검출된 단말(1c)의 방향(D2)으로 묘화 방향을 설정한 경우(스텝 S25)는, 단말(1c)의 표시 화면(2)의 묘화 방향을, 상기 설정 결과에 응하여 변경한다(스텝 S26). 그 후, 처리를 종료한다.
(실시의 형태 2의 효과)
이상과 같이 실시의 형태 2에 의하면, GPS 방향 센서에 의해 검출된 단말의 향함에 응하여, 필요한 때만 카메라가 사용자를 촬상한다. 이 때문에, 보다 적은 소비 전력에 의해, 사용자 몸의 향함에 응한 방향으로 표시 화면을 묘화할 수 있다.
(실시의 형태 3)
(단말(1e, 1f)의 구성)
도 14는, 실시의 형태 3에 관한 단말(1e, 1f)에 마련된 와이어리스 센서(3c)(도 15)에 의해 단말(1e, 1f)의 방향(D2)을 검출하는 방법을 설명하기 위한 도면이다. 도 15는, 단말(1e)의 구성을 도시하는 블록도이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
단말(1e)은, 와이어리스 센서(3c)와 단말 방향 판정부(19)를 구비하는 점에서, 도 2를 참조하여 전술한 단말(1)과 다르다. 와이어리스 센서(3c)는, 발신기(18)의 방향(D7)을 검출하여 단말 방향 판정부(19)에 공급한다. 단말 방향 판정부(19)는, 와이어리스 센서(3c)로부터 공급된 발신기(18)의 방향(D7)에 의거하여 단말(1e)의 향함(D2)을 판정한다.
(단말(1e)의 동작)
도 16은, 단말(1e)의 동작을 도시하는 플로우 차트이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
우선, 와이어리스 센서(3c)에 의해 발신기(18)의 방향(D7)을 검출하고(스텝 S27), 검출한 방향(D7)에 의거하여 단말(1e)의 표시 화면(2)의 향함(D2)을 피치각(θ+α), 요각(φ+β), 및 롤각(δ+γ)에 의해 검출한다(스텝 S28). 그리고, 전회의 검출치인 피치각(θ), 요각(φ), 및 롤각(δ)에 대해, α의 절대치가 피치각의 임계치(Th1. a)보다도 큰지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 큰지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰지를 판단한다(스텝 S29). α의 절대치가 피치각의 임계치(Th1. a)보다도 크거나, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크거나, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 크다는 조건을 충족시키지 않는 때는(스텝 S29에서 NO), 스텝 S27로 되돌아온다.
α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰 때는(스텝 S29에서 YES), 카메라(4)가 기동되어(스텝 S3), 단말(1e)의 표시 화면(2)을 시청하는 사용자 얼굴을 촬상한다(스텝 S4). 다음에, 카메라(4)에 의해 촬상된 화상에, 단말(1e)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있는지의 여부가 얼굴 검출 처리부(10)에 의해 판단된다(스텝 S5).
카메라(4)에 의해 촬상된 화상에, 단말(1)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있다고 판단된 때는(스텝 S5에서 YES), 얼굴 검출 처리부(10)는, 카메라(4)에 의해 촬상된 화상에 찍히는 사용자 얼굴의 방향을 판정한다. 그리고, 화면 묘화부(12e)는, 얼굴 검출 처리부(10)에 의해 판정된 사용자 얼굴의 표시 화면(2)에 대한 방향과, 와이어리스 센서(3c)에 의해 검출된 단말(1e)의 표시 화면(2)의 방향을 비교한다(스텝 S19).
예를 들면, 와이어리스 센서(3c)에 의해 검출된 단말(1e)의 표시 화면(2)의 방향(D2)이, 피치각(θ1), 요각(φ1), 및 롤각(δ1)에 의해 나타나는 것으로 한다. 그리고, 단말(1e)의 표시 화면(2)을 시청하는 사용자 향함이 피치각(θ2), 요각(φ2), 및 롤각(δ2)에 의해 나타나는 것으로 하면, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크거나, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크거나, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 크다고 판단한 때에(스텝 S19에서 YES), 화면 묘화부(12e)는, 사용자 얼굴의 표시 화면(2)에 대한 향함에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한다(스텝 S20).
카메라(4)에 의해 촬상된 화상에, 단말(1e)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있지 않다고 판정된 때(스텝 S5에서 NO), 또는, (θ1-θ2)가 피치각 임계치(Th1. aa)보다도 크든지, 또는 (φ1-φ2)가 요각 임계치(Th2. bb)보다도 크든지, 또는 (δ1-δ2)가 롤각 임계치(Th3. cc)보다도 크다는 조건이 충족되지 않는다고 판정된 때는(스텝 S19에서 NO), 화면 묘화부(12e)는, 와이어리스 센서(3c)에 의해 검출된 단말(1e)의 방향으로 묘화 방향을 설정한다(스텝 S21).
사용자 얼굴의 향함에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한 경우(스텝 S20), 또는, 와이어리스 센서(3c)에 의해 검출된 단말(1e)의 방향으로 묘화 방향을 설정한 경우(스텝 S21)는, 단말(1e)의 표시 화면(2)의 묘화 방향을, 상기 설정 결과에 응하여 변경한다(스텝 S22). 그 후, 처리를 종료한다.
(변형예의 구성)
도 17은, 단말의 변형예의 구성을 도시하는 블록도이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
단말(1f)은, 와이어리스 센서(3c)와 단말 방향 판정부(19)와 화면 묘화부(12f)를 갖는 점에서, 도 7을 참조하여 전술한 단말(1a)과 다르다.
(변형예의 동작)
도 18은, 상기 변형예의 단말(1f)의 동작을 도시하는 플로우 차트이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
우선, 와이어리스 센서(3c)에 의해 발신기(18)의 방향(D7)을 검출하고(스텝 S27), 검출한 방향(D7)에 의거하여 단말(1f)의 표시 화면(2)의 향함(D2)을 피치각(θ+α), 요각(φ+β), 및 롤각(δ+γ)에 의해 검출한다(스텝 S28). 그리고, 전회의 검출치인 피치각(θ), 요각(φ), 및 롤각(δ)에 대해, α의 절대치가 피치각의 임계치(Th1. a)보다도 큰지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 큰지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰지를 판단한다(스텝 S29). α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 크다는 조건을 충족시키지 않는 때는(스텝 S29에서 NO), 스텝 S27로 되돌아온다.
α의 절대치가 피치각의 임계치(Th1. a)보다도 크든지, 또는 β의 절대치가 요각의 임계치(Th2. b)보다도 크든지, 또는 γ의 절대치가 롤각의 임계치(Th3. c)보다도 큰 때는(스텝 S29에서 YES), 카메라(4)가 기동되어(스텝 S3), 단말(1f)의 표시 화면을 시청하는 사용자의 인체를 촬상한다(스텝 S10). 다음에, 카메라(4)에 의해 촬상된 화상에, 단말(1f)의 표시 화면(2)을 시청하는 사용자의 인체가 찍혀 있는지의 여부가 인체 검출 처리부(14)에 의해 판단된다(스텝 S11).
카메라(4)에 의해 촬상된 화상에, 단말(1f)의 표시 화면(2)을 시청하는 사용자의 인체가 찍혀 있다고 판단된 때는(스텝 S11에서 YES), 인체 검출 처리부(14)는, 카메라(4)에 의해 촬상된 화상에 찍히는 사용자 인체의 방향을 판정한다. 그리고, 화면 묘화부(12f)는, 인체 검출 처리부(14)에 의해 판정된 사용자 인체의 표시 화면(2)에 대한 방향과, 와이어리스 센서(3c)에 의해 검출된 단말(1f)의 표시 화면(2)의 방향을 비교한다(스텝 S23).
사용자 인체의 표시 화면(2)에 대한 방향과 단말(1f)의 표시 화면(2)의 방향 사이의 차이가 소정의 임계치보다도 크다고 판단한 때에(스텝 S23에서 YES), 화면 묘화부(12f)는, 사용자 인체의 표시 화면(2)에 대한 향함에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한다(스텝 S24).
카메라(4)에 의해 촬상된 화상에, 단말(1)의 표시 화면(2)을 시청하는 사용자 인체가 찍혀 있지 않다고 판정된 때(스텝 S11에서 NO), 또는, 사용자 인체의 표시 화면(2)에 대한 방향과 단말(1f)의 표시 화면(2)의 방향 사이의 차이가 소정의 임계치보다도 크지 않다고 판정된 때는(스텝 S23에서 NO), 화면 묘화부(12f)는, 와이어리스 센서(3c)에 의해 검출된 단말(1f)의 방향으로 묘화 방향을 설정한다(스텝 S25).
사용자 인체의 향함에 의거하여, 표시 화면(2)의 묘화 방향을 보정하도록 설정한 경우(스텝 S24), 또는, 와이어리스 센서(3c)에 의해 검출된 단말(1f)의 방향으로 묘화 방향을 설정한 경우(스텝 S25)는, 단말(1f)의 표시 화면(2)의 묘화 방향을, 상기 설정 결과에 응하여 변경한다(스텝 S26). 그 후, 처리를 종료한다.
(실시의 형태 3의 효과)
이상과 같이 실시의 형태 3에 의하면, 와이어리스 센서에 의해 검출된 단말의 향함에 응하여, 필요한 때만 카메라가 사용자를 촬상한다. 이 때문에, 보다 적은 소비 전력에 의해, 사용자 몸의 향함에 응한 방향으로 표시 화면을 묘화할 수 있다.
(실시의 형태 4)
실시의 형태 4에 관한 단말은, 자이로 센서에 의해 검출된 단말 방향의 향함에 의해 표시 화면이 수평 방향을 향하고 있다고 판정된 때에 사용자를 촬상하고, 표시 화면이 수평 방향을 향하고 있다고 판정된 때에 카메라에 의해 촬상된 사용자 몸의 향함에 의거하여, 설정된 묘화 방향을 보정한다.
(단말(1g)의 구성)
도 19는, 실시의 형태 4에 관한 단말(1g)의 구성을 도시하는 블록도이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
단말(1g)은, 수평 방향 판정부(20), 화면 묘화부(12g)를 구비하고 있는 점에서, 도 2를 참조하여 전술한 단말(1)과 다르다. 수평 방향 판정부(20)는, 자이로 센서에 의해 검출된 중력 방향에 의거하여 판정한 단말(1g)의 표시 화면(2)의 향함이 수평 방향인지의 여부를 판정한다.
(단말(1g)의 동작)
도 20은, 단말(1g)의 동작을 도시하는 플로우 차트이다. 전술한 구성 요소와 동일한 구성 요소에는 동일한 참조 부호를 붙이고 있다. 이들 구성 요소의 상세한 설명은 반복하지 않는다.
우선, 자이로 센서(3a)에 의해 중력 방향을 검출하고, 검출한 중력 방향에 의거하여 단말(1g)의 표시 화면 방향을 취득한다(스텝 S1). 그리고, 수평 방향 판정부(20)는, 그 단말(1g)의 향함이 수평 방향인지의 여부를 판정한다(스텝 S31).
단말(1g)의 향함이 수평 방향이 아니라고 판정한 때는(스텝 S31에서 NO), 취득한 단말(1g)의 표시 화면(2)의 향함에 의거하여 표시 화면(2)을 묘화하고(스텝 S32), 스텝 S1로 되돌아온다.
단말(1g)의 향함이 수평 방향이라고 판정한 때는(스텝 S31에서 YES), 카메라(4)가 기동되어(스텝 S3), 수평한 자세가 되어 있는 단말(1)의 표시 화면을 시청하는 사용자를 촬상한다(스텝 S4). 다음에, 카메라(4)에 의해 촬상된 화상에, 수평한 자세가 되어 있는 단말(1g)의 표시 화면을 시청하는 사용자 얼굴이 찍혀 있는지의 여부가 얼굴 검출 처리부(10)에 의해 판단된다(스텝 S5).
카메라(4)에 의해 촬상된 화상에, 단말(1)의 표시 화면(2)을 시청하는 사용자 얼굴이 찍혀 있다고 판단된 때는(스텝 S5에서 YES), 얼굴 검출 처리부(10)는, 카메라(4)에 의해 촬상된 화상에 찍히는 사용자 얼굴의 방향을 판정한다. 그리고, 화면 묘화부(12g)는, 얼굴 검출 처리부(10)에 의해 판정된 사용자 얼굴의 표시 화면에 대한 방향과, 자이로 센서(3a)에 의해 검출된 단말(1)의 표시 화면(2)의 향함에 의거한 묘화 방향을 비교한다(스텝 S6).
얼굴 검출 처리부(10)에 의해 판정된 사용자 얼굴의 표시 화면에 대한 방향과, 자이로 센서(3a)에 의해 검출된 단말(1)의 표시 화면(2)의 향함에 의거한 묘화 방향 사이의 차이가, 소정의 임계치보다도 크다고 판단한 때에(스텝 S6에서 YES), 화면 묘화부(12g)는, 사용자 얼굴의 표시 화면(2)에 대한 향함에 의거하여, 표시 화면의 묘화 방향을 보정하도록 설정한다(스텝 S7).
카메라(4)에 의해 촬상된 화상에, 단말(1g)의 표시 화면을 시청하는 사용자 얼굴이 찍혀 있지 않다고 판정된 때(스텝 S5에서 NO), 또는, 얼굴 검출 처리부(10)에 의해 판정된 사용자 얼굴의 표시 화면에 대한 방향과, 자이로 센서(3a)에 의해 검출된 단말(1)의 향함에 의거한 묘화 방향 사이의 차이가, 소정의 임계치 이하이라고 판정된 때는(스텝 S6에서 NO), 화면 묘화부(12g)는, 자이로 센서(3a)에 의해 검출된 단말(1g)의 방향으로 묘화 방향을 설정한다(스텝 S8).
사용자 얼굴의 향함에 의거하여, 표시 화면의 묘화 방향을 보정하도록 설정한 경우(스텝 S7), 또는, 자이로 센서(3a)에 의해 검출된 단말(1g)의 방향으로 묘화 방향을 설정한 경우(스텝 S8)는, 단말(1g)의 표시 화면(2)의 묘화 방향을, 상기 설정 결과에 응하여 변경한다(스텝 S9). 그 후, 처리를 종료한다.
(실시의 형태 4의 효과)
이상과 같이 실시의 형태 4에 의하면, 단말의 표시 화면이 수평 방향을 향하고 있다고 판정된 때에, 표시 화면을 시청하는 사용자를 촬상한다. 이 때문에, 보다 적은 소비 전력에 의해, 사용자 향함에 응한 방향으로 표시 화면을 묘화할 수 있다.
(프로그램 및 기록 매체)
최후로, 실시의 형태에 관한 단말에 포함되어 있는 각 부분(얼굴 처리 검출부, 화면 묘화부, 중력 방향 판정부 등)은, 하드웨어 로직에 의해 구성하면 좋다. 또는, 다음과 같이, CPU(Central Processing Unit)를 이용하여 소프트웨어에 의해 실현하여도 좋다.
즉얼굴 처리 검출부 등은, 각 기능을 실현하는 프로그램의 명령을 실행하는 CPU, 이 프로그램을 격납한 ROM(Read Only Memory), 상기 프로그램을 실행 가능한 형식으로 전개하는 RAM(Random Access Memory), 및, 상기 프로그램 및 각종 데이터를 격납하는 메모리 등의 기억 장치(기록 매체)를 구비하고 있다. 이 구성에 의해, 본 발명의 목적은, 소정의 기록 매체에 의해서도, 달성할 수 있다.
이 기록 매체는, 상술한 기능을 실현하는 소프트웨어인 얼굴 처리 검출부 등의 프로그램의 프로그램 코드(실행 형식 프로그램, 중간 코드 프로그램, 소스 프로그램)를 컴퓨터로 판독 가능하게 기록하고 있으면 된다. 얼굴 처리 검출부 등에, 이 기록 매체를 공급한다. 이에 의해, 컴퓨터로서의 얼굴 처리 검출부 등(또는 CPU나 MPU)이, 공급된 기록 매체에 기록되어 있는 프로그램 코드를 판독하고, 실행하면 좋다.
프로그램 코드를 얼굴 처리 검출부 등에 공급하는 기록 매체는, 특정한 구조 또는 종류의 것으로 한정되지 않는다. 즉 이 기록 매체는, 예를 들면, 자기 테이프나 카세트 테이프 등의 테이프계, 플로우피(등록상표) 디스크/하드 디스크 등의 자기 디스크나 CD-ROM/MO/MD/DVD/CD-R 등의 광디스크를 포함하는 디스크계, IC 카드(메모리 카드를 포함한다)/광카드 등의 카드계, 또는 마스크 ROM/EPROM/EEPROM/플래시 ROM 등의 반도체 메모리계 등으로 할 수가 있다.
또한, 얼굴 처리 검출부 등을 통신 네트워크와 접속 가능하게 구성하여도, 본 발명의 목적을 달성할 수 있다. 이 경우, 상기한 프로그램 코드를, 통신 네트워크를 통하여 얼굴 처리 검출부 등에 공급한다. 이 통신 네트워크는 얼굴 처리 검출부 등에 프로그램 코드를 공급할 수 있는 것이면 좋고, 특정한 종류 또는 형태로 한정되지 않는다. 예를 들면 인터넷, 인트라넷, 엑스트라넷, LAN, ISDN, VAN, CATV 통신망, 가상 전용망(Virtual Private Network), 전화 회선망, 이동체 통신망, 위성 통신망 등이면 좋다.
이 통신 네트워크를 구성하는 전송 매체도, 프로그램 코드를 전송 가능한 임의의 매체라면 좋고, 특정한 구성 또는 종류의 것으로 한정되지 않는다. 예를 들면 IEEE1394, USB(Universal Serial Bus), 전력선 반송, 케이블TV 회선, 전화선, ADSL(Asymmetric Digital Subscriber Line) 회선 등의 유선이라도, IrDA나 리모트 콘트롤과 같은 적외선, Bluetooth( 등록상표), 802.11 무선, HDR, 휴대 전화망, 위성 회선, 지상파 디지털망 등의 무선이라도 이용 가능하다. 또한 본 발명은, 상기 프로그램 코드가 전자적인 전송으로 구현화된, 반송파에 매입된 컴퓨터 데이터 신호의 형태라도 실현될 수 있다.
본 발명은 상술한 각 실시 형태로 한정되는 것이 아니고, 청구항에 나타낸 범위에서 여러가지의 변경이 가능하고, 다른 실시 형태에 각각 개시된 기술적 수단을 적절히 조합시켜서 얻어지는 실시 형태에 대해서도 본 발명의 기술적 범위에 포함된다.
(산업상의 이용 가능성)
본 발명은, 사용자 몸의 향함에 응한 방향으로 표시 화면을 묘화할 수 있는 단말, 표시 화면 묘화 방향 보정 방법, 프로그램, 및 컴퓨터 판독 가능한 기록 매체에 이용할 수 있다.
1 : 단말
2 : 표시 화면
3a : 자이로 센서(단말 방향 검출 수단)
3b : GPS 방향 센서(단말 방향 검출 수단)
3c : 와이어리스 센서(단말 방향 검출 수단)
4 : 카메라(촬상 수단)
7 : 아이콘
8 : 중력 방향 판정부(단말 방향 검출 수단)
9 : 카메라 영상 입력부
10 : 얼굴 검출 처리부(사용자 방향 검출 수단)
11 : 얼굴 검출 데이터베이스
12 : 화면 묘화부(화면 표시 방향 결정 수단)
13 : 사용자 화상
14 : 인체 검출 처리부(사용자 방향 검출 수단)
15 : 인체 검출 데이터베이스
16 : GPS 위성
17 : 단말의 향함 판정부(단말 방향 검출 수단)
18 : 발신기
19 : 단말의 향함 판정부(단말 방향 검출 수단)
20 : 수평 방향 판정부(단말 방향 검출 수단)
D1 : 방향
D2 : 향함
D3 : 중력 방향
D4 : 향함
D5 : 방향
D6 : 남북 방향
D7 : 방향

Claims (13)

  1. 표시 화면을 갖는 단말에 있어서,
    상기 단말의 향함을 검출하는 단말 방향 검출 수단과,
    상기 표시 화면을 보는 사용자를 촬상하기 위해 마련된 촬상 수단과,
    상기 촬상 수단에 의해 촬상된 사용자의 향함을 검출하는 사용자 방향 검출 수단과,
    상기 단말 방향 검출 수단에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 수단에 의해 검출된 사용자의 향함에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 화면 표시 방향 결정 수단을 구비한 것을 특징으로 하는 단말.
  2. 제 1항에 있어서,
    상기 화면 표시 방향 결정 수단은, 상기 단말 방향 검출 수단에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 수단에 의해 검출된 사용자의 향함 사이의 차이에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 것을 특징으로 하는 단말.
  3. 제 2항에 있어서,
    상기 화면 표시 방향 결정 수단은, 상기 단말의 향함과 상기 사용자의 향함이 달라진 때에, 상기 표시 화면의 표시 방향을 상기 사용자의 향함으로 설정하는 것을 특징으로 하는 단말.
  4. 제 1항에 있어서,
    상기 촬상 수단은, 상기 단말 방향 검출 수단에 의해 검출된 단말의 향함의 변화에 응하여 상기 사용자를 촬상하는 것을 특징으로 하는 단말.
  5. 제 4항에 있어서,
    상기 촬상 수단은, 상기 단말의 향함의 변화가 소정의 임계치를 초과한 때에 상기 사용자를 촬상하는 것을 특징으로 하는 단말.
  6. 제 1항에 있어서,
    상기 촬상 수단은, 상기 단말 방향 검출 수단에 의해 검출된 단말의 향함에 의해 상기 표시 화면이 수평 방향을 향하고 있다고 판정된 때에 상기 사용자를 촬상하는 것을 특징으로 하는 단말.
  7. 제 1항에 있어서,
    상기 사용자 방향 검출 수단은, 상기 촬상 수단에 의해 촬상된 사용자 인체의 향함에 의거하여 상기 사용자의 향함을 검출하는 것을 특징으로 하는 단말.
  8. 제 1항에 있어서,
    상기 사용자 방향 검출 수단은, 상기 촬상 수단에 의해 촬상된 사용자 얼굴의 향함에 의거하여 상기 사용자의 향함을 검출하는 것을 특징으로 하는 단말.
  9. 제 1항에 있어서,
    상기 단말 방향 검출 수단은, 중력 방향에 의거하여 상기 단말의 향함을 검출하는 자이로 센서를 포함하는 것을 특징으로 하는 단말.
  10. 제 1항에 있어서,
    상기 단말 방향 검출 수단은, GPS 위성의 방향과 방향 센서의 방향에 의거하여 상기 단말의 향함을 검출하는 GPS 방향 센서를 포함하는 것을 특징으로 하는 단말.
  11. 제 1항에 있어서,
    상기 단말 방향 검출 수단은, 발신기의 방향에 의거하여 상기 단말의 향함을 검출하는 와이어리스 센서를 포함하는 것을 특징으로 하는 단말.
  12. 표시 화면을 갖는 단말의 향함을 검출하는 단말 방향 검출 공정과,
    상기 표시 화면을 보는 사용자를 촬상하는 촬상 공정과,
    상기 촬상 공정에 의해 촬상된 사용자의 향함을 검출하는 사용자 방향 검출 공정과,
    상기 단말 방향 검출 공정에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 공정에 의해 검출된 사용자의 향함에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 화면 표시 방향 결정 공정을 포함하는 것을 특징으로 하는 표시 화면 묘화 방향 보정 방법.
  13. 컴퓨터에, 표시 화면을 갖는 단말의 향함을 검출하는 단말 방향 검출 순서와,
    상기 표시 화면을 보는 사용자를 촬상하는 촬상 순서와,
    상기 촬상 순서에 의해 촬상된 사용자의 향함을 검출하는 사용자 방향 검출 순서와,
    상기 단말 방향 검출 순서에 의해 검출된 단말의 향함과, 상기 사용자 방향 검출 순서에 의해 검출된 사용자의 향함에 의거하여, 상기 표시 화면의 표시 방향을 결정하는 화면 표시 방향 결정 순서를 실행시키는 프로그램을 기록한 것을 특징으로 하는 컴퓨터 판독 가능한 기록 매체.
KR1020120155054A 2012-03-15 2012-12-27 단말, 표시 화면 묘화 방향 보정 방법, 및 컴퓨터 판독 가능한 기록 매체 KR20130105286A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012059390A JP2013197625A (ja) 2012-03-15 2012-03-15 端末、表示画面描画方向補正方法、プログラム、及びコンピュータ読み取り可能な記録媒体
JPJP-P-2012-059390 2012-03-15

Publications (1)

Publication Number Publication Date
KR20130105286A true KR20130105286A (ko) 2013-09-25

Family

ID=47738955

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120155054A KR20130105286A (ko) 2012-03-15 2012-12-27 단말, 표시 화면 묘화 방향 보정 방법, 및 컴퓨터 판독 가능한 기록 매체

Country Status (5)

Country Link
US (1) US20130241818A1 (ko)
EP (1) EP2639671A3 (ko)
JP (1) JP2013197625A (ko)
KR (1) KR20130105286A (ko)
CN (1) CN103309586A (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
KR102181208B1 (ko) * 2014-05-16 2020-11-20 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
CN104596510A (zh) * 2014-12-23 2015-05-06 深圳市金立通信设备有限公司 一种终端
CN104567845B (zh) * 2015-01-30 2017-09-29 广东欧珀移动通信有限公司 一种方向指引方法和移动终端
CN106155279A (zh) * 2015-03-27 2016-11-23 中兴通讯股份有限公司 一种动态调整终端屏幕显示的方法及终端
JP6661282B2 (ja) * 2015-05-01 2020-03-11 パラマウントベッド株式会社 制御装置、画像表示システム及びプログラム
CN106201271A (zh) * 2016-07-15 2016-12-07 乐视控股(北京)有限公司 横竖屏切换控制方法及装置
CN109275338A (zh) * 2017-05-23 2019-01-25 华为技术有限公司 一种多媒体文件的处理方法和装置
CN108898000A (zh) * 2018-05-31 2018-11-27 维沃移动通信有限公司 一种解锁屏幕的方法及终端

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110298829A1 (en) * 2010-06-04 2011-12-08 Sony Computer Entertainment Inc. Selecting View Orientation in Portable Device via Image Analysis
JP2008177819A (ja) 2007-01-18 2008-07-31 Mitsubishi Electric Corp 携帯端末装置
KR20090101733A (ko) * 2008-03-24 2009-09-29 삼성전자주식회사 휴대 단말기 및 그의 얼굴 인식을 이용한 표시정보의 표시방법
US8433244B2 (en) * 2008-09-16 2013-04-30 Hewlett-Packard Development Company, L.P. Orientation based control of mobile device
EP2280331B1 (en) * 2009-07-22 2018-10-31 BlackBerry Limited Display orientation change for wireless devices
JP5397081B2 (ja) * 2009-08-12 2014-01-22 富士通モバイルコミュニケーションズ株式会社 携帯端末
CN101794193A (zh) * 2010-02-23 2010-08-04 华为终端有限公司 画面控制方法及电子设备
JP5184570B2 (ja) * 2010-03-24 2013-04-17 株式会社エヌ・ティ・ティ・ドコモ 情報端末及び表示切替方法
US20110298887A1 (en) * 2010-06-02 2011-12-08 Maglaque Chad L Apparatus Using an Accelerometer to Capture Photographic Images
KR101699922B1 (ko) * 2010-08-12 2017-01-25 삼성전자주식회사 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법
US8593558B2 (en) * 2010-09-08 2013-11-26 Apple Inc. Camera-based orientation fix from portrait to landscape
US20130057571A1 (en) * 2011-09-02 2013-03-07 Nokia Siemens Networks Oy Display Orientation Control
JP5805503B2 (ja) * 2011-11-25 2015-11-04 京セラ株式会社 携帯端末、表示方向制御プログラムおよび表示方向制御方法

Also Published As

Publication number Publication date
EP2639671A3 (en) 2014-10-29
CN103309586A (zh) 2013-09-18
JP2013197625A (ja) 2013-09-30
EP2639671A2 (en) 2013-09-18
US20130241818A1 (en) 2013-09-19

Similar Documents

Publication Publication Date Title
US11102398B2 (en) Distributing processing for imaging processing
KR20130105286A (ko) 단말, 표시 화면 묘화 방향 보정 방법, 및 컴퓨터 판독 가능한 기록 매체
US20170034433A1 (en) Camera Augmented Reality Based Activity History Tracking
EP3105919B1 (en) Photographing method of an electronic device and the electronic device thereof
US20150103193A1 (en) Method and apparatus for long term image exposure with image stabilization on a mobile device
EP3337156A1 (en) Method for obtaining panning shot image and electronic device supporting the same
JP6360204B2 (ja) カメラ装置、撮像システム、制御方法及びプログラム
US20170244900A1 (en) Imaging apparatus and imaging method
EP3661189A1 (en) Electronic device capable of controlling image display effect, and method for displaying image
US11062426B2 (en) Electronic device and image processing method
US9584728B2 (en) Apparatus and method for displaying an image in an electronic device
WO2017005070A1 (zh) 显示控制方法及装置
KR20200094500A (ko) 이미지 프레임 데이터에 포함된 라인 데이터를 복수의 구간들로 처리하는 전자 장치 및 방법
EP3753237B1 (en) Electronic device and control method thereof
WO2022089341A1 (zh) 一种图像处理方法及相关装置
CN114390186B (zh) 视频拍摄方法及电子设备
US11140330B2 (en) Apparatus for stabilizing digital image, operating method thereof, and electronic device having the same
EP3573329B1 (en) Electronic device and method of automatically switching to panorama capture mode
EP3520071B1 (en) Consistent spherical photo and video orientation correction
CN113301249B (zh) 全景视频处理方法、装置、计算机设备和存储介质
CN111757146B (zh) 视频拼接的方法、系统及存储介质
CN108881739B (zh) 图像生成方法、装置、终端及存储介质
CN115150542A (zh) 一种视频防抖方法及相关设备
US9781292B2 (en) Lifelog camera and method of obtaining a digital image tagged with corrected image direction information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application