KR20120082406A - 표시 장치 및 제어 방법 - Google Patents

표시 장치 및 제어 방법 Download PDF

Info

Publication number
KR20120082406A
KR20120082406A KR1020127006151A KR20127006151A KR20120082406A KR 20120082406 A KR20120082406 A KR 20120082406A KR 1020127006151 A KR1020127006151 A KR 1020127006151A KR 20127006151 A KR20127006151 A KR 20127006151A KR 20120082406 A KR20120082406 A KR 20120082406A
Authority
KR
South Korea
Prior art keywords
image
user
unit
calculated
optimizing
Prior art date
Application number
KR1020127006151A
Other languages
English (en)
Other versions
KR101784754B1 (ko
Inventor
유이찌 이이다
신이찌 하야시
유스께 사까이
준지 오오이
다이지로 사꾸마
신고 쯔루미
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20120082406A publication Critical patent/KR20120082406A/ko
Application granted granted Critical
Publication of KR101784754B1 publication Critical patent/KR101784754B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Abstract

본 발명은, 임의 위치에 있는 유저에 대하여, 화상 표시 장치의 상태를 최적화하는 것이 가능한, 신규이면서도 개량된 표시 장치 및 제어 방법을 제공한다.
화상 표시 방향에 대한 소정 범위의 동화상을 촬상하는 촬상부와, 상기 촬상부가 촬상한 동화상을 해석하여, 유저의 위치를 산출하는 화상 해석부와, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 시스템을 최적화하기 위한 시스템 제어 정보를 산출하는 시스템 최적화 처리부와, 상기 시스템 최적화 처리부가 산출한 상기 시스템 제어 정보에 기초하여, 시스템을 최적화하는 시스템 제어부를 구비하는 표시 장치가 제공된다.

Description

표시 장치 및 제어 방법{DISPLAY DEVICE AND CONTROL METHOD}
본 발명은 표시 장치 및 제어 방법에 관한 것이다.
최근 들어, 박형 텔레비전의 시장 확대에 수반하여, 예를 들어 리빙룸에 설치하기 위한 대형 화면 텔레비전 등의 화상 표시 장치의 수요가 높아지고 있다. 이러한 가운데, 여러 가지 기능을 구비한 화상 표시 장치가 제안되고 있다.
그런데, 화상 표시 장치가 표시하고 있는 화상을 유저는 임의 위치에서 시청할 수 있으므로, 유저의 시청 위치에 따라서는, 화상 표시 장치의 상태, 즉, 음성 출력부로부터 출력되는 음성의 음량 밸런스 등의 음성 특성, 화상 표시 장치의 화상 표시부의 화상 특성이나 표시 내용, 화상 표시 장치의 표시 방향 등이 임의 위치에 있는 유저에 대하여 최적하지 않은 경우가 있다.
따라서, 본 발명은 상기 문제를 감안하여 이루어진 것이며, 본 발명의 목적으로 하는 점은, 임의 위치에 있는 유저에 대하여, 화상 표시 장치의 상태를 최적화할 수 있는, 신규이면서도 개량된 표시 장치 및 제어 방법을 제공하는 것에 있다.
상기 과제를 해결하기 위해서, 본 발명의 어느 한 관점에 의하면, 화상 표시 방향에 대한 소정 범위의 동화상을 촬상하는 촬상부와, 상기 촬상부가 촬상한 동화상을 해석하여, 유저의 위치를 산출하는 화상 해석부와, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 시스템을 최적화하기 위한 시스템 제어 정보를 산출하는 시스템 최적화 처리부와, 상기 시스템 최적화 처리부가 산출한 상기 시스템 제어 정보에 기초하여, 시스템을 최적화하는 시스템 제어부를 구비하는 표시 장치가 제공된다.
상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 음성 출력부로부터 출력되는 음성의 음량 밸런스를 최적화하기 위한 시스템 제어 정보를 산출해도 좋다.
상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 화상 표시부의 화상 특성을 최적화하기 위한 시스템 제어 정보를 산출해도 좋다.
상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 화상 표시부의 표시 내용을 최적화하기 위한 시스템 제어 정보를 산출해도 좋다.
상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 자장치의 장치 방향을 최적화하기 위한 시스템 제어 정보를 산출해도 좋다.
상기 화상 해석부는, 상기 촬상부가 촬상한 동화상을 해석하여, 유저의 3차원 위치를 산출해도 좋다.
상기 화상 해석부는, 상기 촬상부가 촬상한 동화상을 해석하여, 복수의 유저의 위치를 각각 산출하고, 상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 복수의 유저의 위치에 기초하여, 복수의 유저의 무게 중심 위치를 산출하고, 산출한 복수의 유저의 무게 중심 위치에 기초하여, 시스템을 최적화하기 위한 시스템 제어 정보를 산출해도 좋다.
또한, 상기 과제를 해결하기 위해서, 본 발명의 다른 관점에 의하면, 화상 표시 방향에 대한 소정 범위의 동화상을 촬상하는 촬상 스텝과, 상기 촬상된 동화상을 해석하여, 유저의 위치를 산출하는 화상 해석 스텝과, 상기 산출된 상기 유저의 위치에 기초하여, 시스템을 최적화하기 위한 시스템 제어 정보를 산출하는 시스템 최적화 처리 스텝과, 상기 산출된 상기 시스템 제어 정보에 기초하여, 시스템을 최적화하는 시스템 제어 스텝을 구비하는 제어 방법이 제공된다.
이상 설명한 바와 같이 본 발명에 따르면, 임의 위치에 있는 유저에 대하여, 화상 표시 장치의 상태를 최적화할 수 있는, 신규이면서도 개량된 표시 장치 및 제어 방법을 제공할 수 있다.
도 1은 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 외관에 대해서 설명하는 설명도이다.
도 2는 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 구성에 대해서 설명하는 설명도이다.
도 3은 제어부(110)의 구성에 대해서 설명하는 설명도이다.
도 4는 제어부(110)의 구성에 대해서 설명하는 설명도이다.
도 5의 (a)는, 촬상부(104)의 촬상 범위 내에 유저(1) 및 유저(2)가 존재하는 경우를 설명하기 위한 설명도이며, 도 5의 (b)는, 촬상부(104)에서 촬상된 화상 중에 포함되는 유저(1)의 얼굴 검출 위치([a1, b1]), 얼굴 크기([w1, h1])와 유저(2)의 얼굴 검출 위치([a2, b2]), 얼굴 크기([w2, h2])를 설명하기 위한 설명도이다.
도 6의 (a)는, 촬상부(104)의 촬상 범위 내에 있어서의 기준 거리(d0)와 거리(d1)에 유저가 존재하는 경우를 설명하기 위한 설명도이며, 도 6의 (b)는, 촬상부(104)에서 촬상된 화상에 있어서의 거리(d1)의 유저의 얼굴 크기([w1, h1])를 설명하기 위한 설명도이며, 도 6의 (c)는, 촬상부(104)에서 촬상된 화상에 있어서 기준 거리(d0)의 유저의 기준 얼굴 크기([w0, h0])를 설명하기 위한 설명도이다.
도 7의 (a)는, 화상 표시 장치(100)의 장치 중심([0, 0, 0])과 촬상부(104)의 카메라 위치([Δx, Δy, Δz])를 설명하기 위한 설명도이며, 도 7의 (b)는, 화상 표시 장치(100)의 장치 중심([0, 0, 0]), 정면 방향축([0, 0])과 촬상부(104)의 카메라 위치([Δx, Δy, Δz]), 설치 각도([Δφ, Δθ])를 설명하기 위한 설명도이다.
도 8은 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 유저의 위치에 따른 최적화 처리의 일례에 대해서 나타내는 흐름도이다.
도 9는 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 1명 또는 복수의 유저의 위치에 따른 최적화 처리의 일례에 대해서 나타내는 흐름도이다.
도 10은 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 1명 또는 복수의 유저의 연령에 따른 최적화 처리의 일례에 대해서 나타내는 흐름도이다.
도 11은 음량 밸런스의 최적화 처리를 설명하기 위한 설명도이다.
도 12는 유저 군의 무게 중심 위치의 산출 방법을 설명하기 위한 설명도이다.
도 13의 (a)는, 수평 방향에 있어서의 유저(A)의 위치([D0, Ah0]), 유저(B)의 위치([D1, Ah1])를 설명하기 위한 설명도이며, 도 13의 (b)는, 수직 방향에 있어서의 유저(A)의 위치([D0, Av0]), 유저(B)의 위치([D, Av1])를 설명하기 위한 설명도이다.
도 14의 (a) 및 도 14의 (b)는, GUI의 문자 크기의 최적화 처리를 설명하기 위한 설명도이다.
도 15의 (a) 내지 도 15의 (c)는, 유저 거리의 산출에 있어서, 기준 거리(d0)에 있어서의 기준 얼굴 크기([w0, h0])의 보정 방법을 설명하기 위한 설명도이다.
이하에 첨부 도면을 참조하면서, 본 발명의 적합한 실시 형태에 대해서 상세하게 설명한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 대해서는, 동일한 번호를 부여함으로써 중복 설명을 생략한다.
또한, 설명은 이하의 순서로 행하기로 한다.
<1. 본 발명의 일 실시 형태>
[1-1. 화상 표시 장치의 구성]
[1-2. 제어부의 구성]
[1-3. 유저의 위치에 따른 최적화 처리]
[1-4. 1명 또는 복수명의 유저의 위치에 따른 최적화 처리]
[1-5. 1명 또는 복수명의 유저의 연령에 따른 최적화 처리]
<1.본 발명의 일 실시 형태>
[1-1. 화상 표시 장치의 구성]
우선, 본 발명의 일 실시 형태에 따른 화상 표시 장치의 구성에 대해서 설명한다. 도 1은, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 외관에 대해서 설명하는 설명도이다. 도 1은, 화상 표시 장치(100)를 정면에서 본 경우의 정면도이다. 이하, 도 1을 사용해서 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 외관에 대해서 설명한다.
도 1에 도시한 바와 같이, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)는, 정지 화상 또는 동화상을 표시하는 표시 패널부(102)의 상방 중앙부 및 좌우 중앙부에, 동화상을 촬상하는 촬상부(104)가 구비되어 있다. 촬상부(104)는, 화상 표시 장치(100)가 표시 패널부(102)에서 정지 화상 또는 동화상을 표시하는 방향에 대하여, 동화상의 촬상을 행하는 것이다. 본 실시 형태에 따른 화상 표시 장치(100)는, 촬상부(104)에서 촬상된 화상을 해석하여, 화상에 비치고 있는 유저의 얼굴을 검출한다. 화상 표시 장치(100)는, 검출된 유저의 얼굴 화상을 해석하여, 얼굴 검출 위치나 얼굴 크기를 검출한다. 화상 표시 장치(100)는, 유저의 얼굴 검출 위치나 얼굴 크기의 검출 결과에 기초하여, 촬상부(104)의 카메라의 광축에 대한 유저의 상대 위치를 산출한다. 그리고, 화상 표시 장치(100)는, 촬상부(104)의 카메라의 광축에 대한 유저의 상대 위치의 산출 결과와 촬상부(104)의 카메라의 위치나 각도 정보 등의 설치 정보에 기초하여, 화상 표시 장치(100)의 장치 중심 및 정면 방향축에 대한 유저의 위치를 산출한다. 본 실시 형태에 따른 화상 표시 장치(100)는, 유저의 위치에 따라, 화상 표시 장치(100)의 상태, 즉, 음성의 음량 밸런스 등의 음성 특성, 화상 특성, 표시 내용, 장치 방향 등을 그 위치의 유저에 대하여 최적화하는 것을 특징으로 하고 있다.
또한, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)는, 표시 패널부(102)의 하방 중앙부에 센서부(106)를 구비하고 있다. 센서부(106)는, 화상 표시 장치(100) 전방의 사람의 유무를 검지하는 것이다.
또한, 도 1에서 화상 표시 장치(100)는, 표시 패널부(102) 주위의 3군데에 동화상을 촬상하는 촬상부(104)를 구비하고 있는데, 본 발명에 있어서는 동화상을 촬영하는 촬상부(104) 장소는 이러한 예에 한정되지 않는 것은 당연하며, 예를 들어 화상 표시 장치(100)와는 별도의 장치를 설치해서, 화상 표시 장치(100)에 당해 장치를 접속하여, 당해 장치에 있어서 동화상을 촬영해도 좋다. 또한, 촬상부(104)의 개수도 3개에 한정되지 않는 것은 당연하며, 2개 이하 또는 4개 이상의 촬상부(104)를 설치해서 촬상해도 좋다. 또한, 센서부(106)의 개수도 1개로 한정되지 않는 것은 당연하며, 2개 이상의 센서부를 설치해도 좋다.
또한, 도 1에는 도시하지 않으나, 화상 표시 장치(100)는, 리모트 컨트롤러(도시하지 않음)로부터의 적외선이나 무선 등에 의한 제어 신호를 수신할 수 있는 신호 수신부를 더 구비하고 있어도 좋다.
이상, 도 1을 사용해서 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 외관에 대해서 설명하였다. 이어서, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 구성에 대해서 설명한다.
도 2는, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 구성에 대해서 설명하는 설명도이다. 이하, 도 2를 사용해서 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 구성에 대해서 설명한다.
도 2에 도시한 바와 같이, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)는, 표시 패널부(102)와, 촬상부(104)와, 센서부(106)와, 스피커부(108)와, 기구부(109)와, 제어부(110)를 포함하여 구성된다.
그리고 제어부(110)는, 화상 입력부(112)와, 화상 처리부(114)와, 시청 상태 해석부(116)와, 유저 위치 정보 기억부(117)와, 시청 상태 기록부(118)와, 시스템 최적화 처리부(120)와, 시스템 제어부(122)를 포함하여 구성된다.
표시 패널부(102)는, 패널 구동 신호에 기초하여 정지 화상 또는 동화상을 표시하는 것이다. 본 실시 형태에 있어서는, 표시 패널부(102)는 액정에 의해 정지 화상 또는 동화상을 표시한다. 물론 본 발명에 있어서, 표시 패널부(102)는 이러한 예에 한정되지 않는 것은 물론이다. 표시 패널부(102)는, 유기 EL(일렉트로루미네센스)과 같은 자발광형 표시 디바이스에 의해 정지 화상 또는 동화상을 표시하는 것이어도 좋다.
촬상부(104)는, 상술한 바와 같이, 정지 화상 또는 동화상을 표시하는 표시 패널부(102)의 상방 중앙부 및 좌우 중앙부에 구비되는 것이며, 표시 패널부(102)에 패널 구동 신호가 공급되어, 표시 패널부(102)에 있어서 동화상을 표시하고 있을 때, 화상 표시 장치(100)가 표시 패널부(102)에서 동화상을 표시하는 방향에 대하여 동화상의 촬상을 행하는 것이다. 촬상부(104)는, CCD(Charge Coupled Device) 이미지 센서에 의해 동화상의 촬상을 행하는 것이어도 좋고, CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서에 의해 동화상의 촬상을 행하는 것이어도 좋다. 촬상부(104)에서 촬상된 동화상은 제어부(110)로 보내진다.
센서부(106)는, 상술한 바와 같이, 정지 화상 또는 동화상을 표시하는 표시 패널부(102)의 하방 중앙부에 구비되는 것이며, 예를 들어 화상 표시 장치(100) 전방의 사람의 유무를 검지하는 것이다. 또한, 센서부(106)는, 화상 표시 장치(100)의 전방에 사람이 존재하고 있을 경우에는, 화상 표시 장치(100)와 그 사람과의 사이의 거리를 검출할 수 있다. 센서부(106)에 의한 검지 결과 및 거리 정보는 제어부(110)로 보내진다. 스피커부(108)는, 음성 출력 신호에 기초하여 음성을 출력하는 것이다. 기구부(109)는, 예를 들어 구동 신호에 기초하여 화상 표시 장치(100)의 표시 패널(102)의 표시 방향을 제어하는 것이다.
제어부(110)는, 화상 표시 장치(100)의 동작을 제어하는 것이다. 이하에서 제어부(110)의 각 부에 대해서 설명한다.
화상 입력부(112)는, 촬상부(104)에서 촬상된 동화상을 수취하는 것이다. 화상 입력부(112)가 수취한 동화상은 화상 처리부(114)로 보내지고, 화상 처리부(114)에서의 화상 처리에 사용된다.
화상 처리부(114)는, 본 발명의 화상 해석부의 일례이며, 화상 입력부(112)로부터 보내진, 촬상부(104)에서 촬상된 동화상에 대한 각종 화상 처리를 실행하는 것이다. 화상 처리부(114)가 실행하는 화상 처리에는, 촬상부(104)에서 촬상된 동화상에 포함되어 있는 동체의 검출 처리, 동화상에 포함되어 있는 사람의 인원수의 검출 처리, 동화상에 포함되어 있는 얼굴 및 얼굴 표정의 검출 처리가 포함된다. 화상 처리부(114)에 의한 각종 화상 처리의 결과는, 시청 상태 해석부(116)로 보내져, 화상 표시 장치(100)를 시청하고 있는 인물의 유무나 시청하고 있는 인물의 시청 상태나 시청 위치의 해석에 사용된다.
화상 처리부(114)에 있어서의, 화상 중에 포함되는 얼굴을 검출하는 얼굴 검출 처리에 대해서는, 예를 들어 일본 특허 공개 제2007-65766호 공보나, 일본 특허 공개 제2005-44330호 공보에 게재되어 있는 기술을 사용할 수 있다. 이하, 얼굴 검출 처리에 대해서 간단하게 설명한다.
화상으로부터 유저의 얼굴을 검출하기 위해서는, 우선 공급된 화상에 있어서의 얼굴의 위치, 얼굴의 크기, 얼굴의 방향을 각각 검출한다. 얼굴의 위치와 크기가 검출됨으로써, 얼굴 화상의 부분을 화상으로부터 잘라낼 수 있다. 그리고 잘라낸 얼굴 화상과, 얼굴의 방향의 정보로부터, 얼굴의 특징적인 부분(얼굴 특징 위치), 예를 들어 눈썹, 눈, 코, 입과 같은 특징적인 부분을 검출한다. 얼굴 특징 위치의 검출에는, 예를 들어 AAM(Active Appearance Models)이라고 불리는 방법을 적용하여, 특징 위치를 검출하도록 할 수 있다.
얼굴 특징 위치를 검출하면, 검출한 얼굴 특징 위치 각각에 대하여 국소 특징량을 산출한다. 국소 특징량을 산출하여, 산출한 국소 특징량을 얼굴 화상과 함께 기억해 둠으로써, 촬상부(104)에서 촬영된 화상으로부터 얼굴의 식별이 가능하게 된다. 얼굴의 식별 방법에 대해서는, 예를 들어 일본 특허 공개 제2007-65766호 공보나, 일본 특허 공개 제2005-44330호 공보에 게재되어 있는 기술을 사용할 수 있으므로, 여기에서는 상세한 설명은 생략한다. 또한, 얼굴 화상이나 얼굴 특징 위치에 따라, 공급된 화상에 찍혀 있는 얼굴이 남성인지 여성인지, 또한 인물이 몇 살 정도인지를 판별할 수도 있다. 또한, 미리 얼굴의 정보를 기록해 둠으로써, 공급된 화상에 찍혀 있는 인물을 기록된 얼굴 중에서 찾아내고, 개인을 특정할 수 있다.
시청 상태 해석부(116)는, 본 발명의 화상 해석부의 일례이며, 화상 처리부(114)에 의한 각종 화상 처리의 결과, 및 센서부(106)의 검지에 의한 검지 결과 및 거리 정보를 수취하고, 화상 처리부(114)에 의한 각종 화상 처리의 결과 및 센서부(106)의 검지에 의한 검지 결과 및 거리 정보를 사용하여, 화상 표시 장치(100)가 표시하고 있는 화상을 시청하고 있는 인물의 시청 상태나 시청 위치의 해석을 실행하는 것이다. 시청 상태 해석부(116)가 시청하고 있는 인물의 시청 상태나 시청 위치를 해석함으로써, 화상 표시 장치(100)는, 화상 표시 장치(100)를 시청하고 있는 인물의 시청 위치에 의해, 예를 들어 스피커부(108)로부터 출력된 음성 밸런스 등의 음성 특성을 제어하거나, 표시 패널부(102)의 화상 특성을 제어하거나, 표시 패널부(102)의 표시 내용을 제어하거나, 기구부(109)에 의해 표시 패널부(102)의 표시 방향을 제어할 수 있다. 시청 상태 해석부(116)에서의 해석 처리에 의한 해석 결과는, 시청 상태 기록부(118), 유저 위치 정보 기억부(117) 및 시스템 최적화 처리부(120)로 보내진다.
또한, 시청 상태 해석부(116)는, 센서부(106)의 검지에 의한 검지 결과 및 거리 정보로부터 동체는 검지할 수 있지만, 센서부(106)와 그 동체와의 거리가 소정의 거리 이상 이격되어 있는 경우에는, 그 동체는 검출 대상 외로 해도 좋다.
시청 상태 기록부(118)는, 시청 상태 해석부(116)의 해석 처리에 의해 얻어지는 해석 결과를 기록하는 것이다. 시청 상태 기록부(118)가 기록한 시청 상태 해석부(116)에서의 해석 결과는, 시스템 최적화 처리부(120)에 있어서의 시스템 최적화 처리에 사용된다. 또한, 시청 상태 기록부(118)가 기록한 시청 상태 해석부(116)에서의 해석 결과는, 외부의 정보 수집 서버(200)로 보내지도록 해도 좋다.
유저 위치 정보 기억부(117)는, 시청 상태 해석부(116)에서의 해석 처리에 의한 해석 결과를 저장하는 것이다.
시스템 최적화 처리부(120)는, 시청 상태 해석부(116)의 해석 처리에 의해 얻어지는 해석 결과를 사용하여, 화상 표시 장치(100)의 각 부에 대한 시스템 최적화 처리를 실행하기 위한 시스템 제어 정보를 산출하는 것이다. 화상 표시 장치(100)의 각 부에 대한 시스템 최적화 처리에는, 스피커부(108)로부터 출력된 음성 밸런스 등의 음성 특성 제어, 표시 패널부(102)의 화상 특성 제어, 표시 패널부(102)의 표시 내용 제어, 기구부(109)에 의한 화상 표시 장치(100)의 표시 패널부(102)의 표시 방향 제어 등이 있다.
화상 표시 장치(100)는, 시스템 최적화 처리부(120)가 산출한 시스템 제어 정보에 기초하여, 유저의 위치에 따른 최적화 처리를 실행할 수 있다. 시스템 최적화 처리부(120)가 산출한 시스템 제어 정보는 시스템 제어부(122)로 보내진다.
시스템 제어부(122)는, 시스템 최적화 처리부(120)가 산출한 시스템 제어 정보에 기초하여, 화상 표시 장치(100)의 각 부에 대한 시스템 최적화 처리를 실행하는 것이다. 예를 들어, 시스템 제어부(122)는, 시스템 최적화 처리부(120)가 산출한 시스템 제어 정보에 기초하여, 스피커부(108)로부터 출력된 음성의 음량 밸런스 제어, 표시 패널부(102)의 화상 특성 제어, 표시 패널부(102)의 표시 내용 제어, 기구부(109)에 의한 화상 표시 장치(100)의 표시 패널부(102)의 표시 방향 제어 등을 실행한다.
이상, 도 2를 사용해서 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)의 구성에 대해서 설명하였다. 이어서, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 포함되는 제어부(110)의 구성에 대해서, 보다 상세하게 설명한다.
[1-2. 제어부의 구성]
도 3은, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 포함되는 제어부(110)의 구성에 대해서 설명하는 설명도이다. 도 3은, 제어부(110) 중에서도, 제어부(110)에 포함되는 시청 상태 해석부(116)의 구성에 대해서 설명하는 것이다. 이하, 도 3을 사용하여, 시청 상태 해석부(116)의 구성에 대해서 설명한다.
도 3에 도시한 바와 같이, 시청 상태 해석부(116)는, 유저 방향/거리 산출부(132)와, 유저 위치 정보 산출부(134)를 포함하여 구성된다.
유저 방향/거리 산출부(132)는, 화상 처리부(114)에 의한 각종 화상 처리의 결과 및 촬상부(104) 카메라의 화각(畵角)이나 해상도 정보 등의 광학 정보를 수취하고, 화상 처리부(114)에 의한 각종 화상 처리의 결과 및 촬상부(104)의 광학 정보를 사용하여, 촬상부(104)의 카메라의 광축에 대한 유저의 상대 위치(방향 [φ1, θ1], 거리(d1))를 산출한다. 여기서, 화상 처리부(114)로부터는, 촬상 화상과, 촬상 화상 내에서 화상 표시 장치(100)를 이용하고 있는 유저마다의 얼굴 검출 정보(예를 들어, 얼굴 검출 위치([a1, b1]), 얼굴 크기([w1, h1]), 연령이나 성별 등의 기타 속성 정보 등의 정보)가, 시청 상태 해석부(116)의 유저 방향/거리 산출부(132)로 보내진다. 도 5의 (a)는, 촬상부(104)의 촬상 범위 내에 유저(1) 및 유저(2)가 존재하는 경우를 설명하기 위한 설명도이며, 도 5의 (b)는, 촬상부(104)에서 촬상된 화상 중에 포함되는 유저(1)의 얼굴 검출 위치([a1, b1]), 얼굴 크기([w1, h1])와 유저(2)의 얼굴 검출 위치([a2, b2]), 얼굴 크기([w2, h2])를 설명하기 위한 설명도이다. 또한, 도 6의 (a)는, 촬상부(104)의 촬상 범위 내에 있어서의 기준 거리(d0)와 거리(d1)에 유저가 존재하는 경우를 설명하기 위한 설명도이며, 도 6의 (b)는, 촬상부(104)에서 촬상된 화상에 있어서의 거리(d1)의 유저의 얼굴 크기([w1, h1])를 설명하기 위한 설명도이며, 도 6의 (c)는, 촬상부(104)에서 촬상된 화상에 있어서의 기준 거리(d0)의 유저의 기준 얼굴 크기([w0, h0])를 설명하기 위한 설명도이다.
방향([φ1, θ1])은 촬상 화상 크기([xmax, ymax])로 정규화된 얼굴 검출 위치([a1, b1])와 촬상부(104)의 카메라의 화각([φ0, θ0])으로부터,
수평 방향: φ1=φ0*a1
수직 방향: θ1=θ0*b1
으로 산출된다.
또한, 거리(d1)는 기준 거리(d0)에 있어서의 기준 얼굴 크기([w0, h0])로부터,
거리: d1=d0*(w0/w1)
으로 산출된다.
유저 위치 정보 산출부(134)는, 유저 방향/거리 산출부(132)에 의한 촬상부(104)의 카메라의 광축에 대한 유저의 상대 위치의 산출 결과 및 촬상부(104)의 카메라 위치나 각도 정보 등의 설치 정보를 수취하고, 유저 방향/거리 산출부(132)에 의한 유저의 상대 위치의 산출 결과 및 촬상부(104)의 설치 정보를 사용하여, 화상 표시 장치(100)의 장치 중심 및 정면 방향축에 대한 유저의 3차원 위치를 산출한다. 유저 위치 정보 산출부(134)가 산출한 유저 위치 정보는 유저 위치 정보 기억부(117)로 보내진다. 도 7의 (a)는, 화상 표시 장치(100)의 장치 중심([0, 0, 0])과 촬상부(104)의 카메라 위치([Δx, Δy, Δz])를 설명하기 위한 설명도이며, 도 7의 (b)는, 화상 표시 장치(100)의 장치 중심([0, 0, 0]), 정면 방향축([0, 0])과 촬상부(104)의 카메라 위치([Δx, Δy, Δz]), 설치 각도([Δφ, Δθ])를 설명하기 위한 설명도이다.
촬상부(104)의 카메라의 광축에 대한 유저의 상대 위치를 방향([φ1, θ1]), 거리(d1)로 하고, 화상 표시 장치(100)의 장치 중심([0, 0, 0]), 정면 방향축([0, 0])으로부터 촬상부(104)의 카메라 위치로서의 위치 차분([Δx, Δy, Δz]), 설치 각도로서의 각도 차분([Δφ, Δθ])으로 하면, 화상 표시 장치(100)의 장치 중심([0, 0, 0])으로부터의 유저의 위치([x1, y1, z1])는,
x1=d1*cos(θ1-Δθ)*tan(φ1-Δφ)-Δx
y1=d1*tan(θ1-Δθ)-Δy
z1=d1*cos(θ1-Δθ)*cos(φ1-Δφ)-Δz
로 산출된다.
도 4는, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 포함되는 제어부(110)의 구성에 대해서 설명하는 설명도이다. 도 4는, 제어부(110) 중에서도, 제어부(110)에 포함되는 유저 위치 정보 기억부(117), 시스템 최적화 처리부(120) 및 시스템 제어부(122)의 구성에 대해서 설명하는 것이다. 이하, 도 3을 사용하여, 유저 위치 정보 기억부(117), 시스템 최적화 처리부(120) 및 시스템 제어부(122)의 구성에 대해서 설명한다.
도 4에 도시한 바와 같이, 시스템 최적화 처리부(120)는, 음성 특성 최적화 처리부(142)와, 화상 특성 최적화 처리부(144)와, 장치 방향 최적화 처리부(146)를 포함하여 구성된다. 또한, 시스템 제어부(122)는, 음성 특성 제어부(152)와, 화상 특성 제어부(154)와, 장치 방향 제어부(156)를 포함하여 구성된다.
유저 위치 정보 기억부(117)는, 시청 상태 해석부(116)의 유저 위치 정보 산출부(134)에 의한 화상 표시 장치(100)의 장치 중심 및 정면 방향축에 대한 유저의 위치 산출 결과로서의 유저 위치 정보를 기억한다. 유저 위치 정보 기억부(117)가 기억한 유저 위치 정보는 시스템 최적화 처리부(120)로 보내진다.
시스템 최적화 처리부(120)의 음성 특성 최적화 처리부(142)는, 유저 위치 정보 기억부(117)로부터 보내진 유저 위치 정보에 기초하여, 임의 위치에 있는 유저에 대하여, 화상 표시 장치(100)의 음성 특성을 최적화하기 위한, 화상 표시 장치(100)의 스피커부(108)에 대한 음성 특성 최적화 처리를 실행하기 위한 음성 특성 제어 정보를 산출한다. 음성 특성 최적화 처리부(142)가 산출한 음성 특성 제어 정보는 시스템 제어부(122)의 음성 특성 제어부(152)로 보내진다.
음성 특성 최적화 처리로서는, 스피커부(108)로부터 출력되는 음성의 좌우 음량 밸런스를 최적화하기 위한 처리, 스피커부(108)로부터 출력되는 음성의 서라운드 효과에 의한 최적화 처리가 있다. 스피커부(108)로부터 출력되는 음성의 좌우 음량 밸런스는, 유저의 위치에 따라서 음량 레벨에 차이가 발생하기 때문에, 최적화 처리에서는, 좌우 각각의 게인을 최적화한다. 예를 들어, 도 11에 도시한 바와 같이, 스피커부(108)로부터 출력되는 음성의 음량은 거리의 제곱에 반비례해서 감쇠하는 원리로, 기준점으로부터의 차분을 이하에 기재한 바와 같이 계산하고, 좌우 스피커부(108)의 음량의 차분(gain_dif)을 계산하여, 좌우 음량 밸런스를 최적화할 수 있다.
gain_Lch
=20*log(d_Lch / d_org_LRch)
gain_Rch
=20*log(d_Rch / d_org_LRch)
gain_dif
=gain_Rch - gain_Lch
=
20*log(d_Rch) - 20*log(d_Lch)
=
20*log(d_Lch / d_Rch)
단, gain_Lch
: Lch의 Gain 차분
gain_Rch
: Rch의 Gain 차분
d_org_LRch
: 좌우 스피커부부터 기준점까지의 거리
d_Lch
: Lch 스피커부부터 유저까지의 거리
d_Rch
: Rch 스피커부부터 유저까지의 거리
gain_dif
: L/R의 전압 Gain 차분
또한, 유저가 복수일 경우에는 유저군의 무게 중심에 대하여 좌우의 스피커부(108)로부터 출력되는 음성의 음량 밸런스를 최적화해도 좋고, 특정한 유저를 우선해서 좌우의 스피커부(108)로부터 출력되는 음성의 음량 밸런스를 최적화해도 좋다. 유저 군의 무게 중심의 산출 방법으로서는, 도 12에 도시한 바와 같이, 유저 A, B, C, D의 복수 유저가 존재하는 경우에는, 이하에 기재한 바와 같이 산출할 수 있다.
d_cent_dif
=0;
temp_CAM_DIS
=0;
if(CAM_AUDIENCE
!=0) {
for(int i=0;i <
CAM_AUDIENCE;i++) {
d_cent_dif +=
CAM_DIS[i]*tan(CAM_HOR_ANGLE[i]* PI / 180);
temp_CAM_DIS +=
CAM_DIS [i];
}
}
d_cent_dif
=d_cent_dif / CAM_AUDIENCE;
//return (use) value 무게 중심 처리 완료 각도
CAM_DIS
=temp_CAM_DIS / CAM_AUDIENCE;
//return (use) value 무게 중심 처리 완료 거리
단, CAM_AUDIENCE
: 촬상부(104)의 촬상 범위 내의 유저
CAM_HOR_ANGLE[0]
: 유저(A)의 각도
CAM_HOR_ANGLE [1]
: 유저(B)의 각도
CAM_HOR_ANGLE [2]
: 유저(C)의 각도
CAM_HOR_ANGLE [3]
: 유저(D)의 각도
CAM_DIS[0]
: 유저(A)의 거리
CAM_DIS [1]
: 유저(B)의 거리
CAM_DIS [2]
: 유저(C)의 거리
CAM_DIS [3]
: 유저(D)의 거리
시스템 최적화 처리부(120)의 화상 특성 최적화 처리부(144)는, 유저 위치 정보 기억부(117)로부터 보내진 유저 위치 정보에 기초하여, 임의 위치에 있는 유저에 대하여, 화상 표시 장치(100)의 화상 특성을 최적화하기 위한, 화상 표시 장치(100)의 표시 패널부(102)에 대한 화상 특성 최적화 처리를 실행하기 위한 화상 특성 제어 정보를 산출한다. 화상 특성 최적화 처리부(144)가 산출한 화상 특성 제어 정보는 시스템 제어부(122)의 화상 특성 제어부(154)로 보내진다.
화상 특성 최적화 처리로서는, 흑색의 보여짐을 최적화하기 위한 감마 보정이나, 색 변화에 대한 추종을 행하기 위한 컬러 게인의 보정 등의 처리가 있다.
예를 들어, 이하에 기재한 바와 같이 감마 보정을 행한다.
γ=2.2+화질 보정-0.1×유저 방향
또한, 예를 들어 이하에 기재한 바와 같이 컬러 게인의 보정을 행한다.
ColorGain=UserColor+화질 보정±α×유저의 방향
R (G, B)Gain=R (G, B)×화질 보정±α×유저의 방향
또한, 유저가 복수 있는 경우에는 유저 군의 무게 중심에 대하여 감마 보정이나 컬러 게인의 보정 등을 행해도 좋고, 특정한 유저를 우선해서 감마 보정이나 컬러 게인의 보정 등을 행해도 좋다. 도 13의 (a)에 도시한 바와 같이, 수평 방향에 있어서의 유저(A)의 위치([D0, Ah0]), 유저(B)의 위치([D1, Ah1])로 하고, 도 13의 (b)에 도시한 바와 같이, 수직 방향에 있어서의 유저(A)의 위치([D0,Av0]), 유저(B)의 위치([D, Av1])로 하면, 시스템 최적화 처리를 위한 평균 시청 각도 보정 계수 및 설정 데이터는 이하의 식에 의해 산출된다.
평균 시청 각도 보정 계수={(1/ D0*(Ah0+Av0)+1 / D1*(Ah1+Av1)+1 / Dn * (Ahn + Avn))/n} * 보정값
설정 데이터=
(기본 데이터) * {1 + (최대 시청 각도에 있어서의 보정값) * (평균 시청 각도 보정 계수)}
평균 시청 각도는 거리가 가까운 유저에 중심을 두고, 인원수만큼의 수평 각도와 수직 각도의 평균을 구한다. 평균 시청 각도에 보정값을 곱하여 보정 계수를 구하고, 최대 보정값에 보정 계수를 곱하여 전체의 보정량을 산출한다. 기본 데이터(보정 없음의 데이터: γ=2.2+화질 보정)에 보정량을 가산 또는 감산함으로써 설정 데이터를 산출한다.
또한, 화상 특성의 최적화에 있어서는, 유저의 연령이나 성별마다 최적치가 변동하기 때문에, 유저 위치 정보과 함께 화상 처리부로부터 취득한 연령이나 성별 등의 속성 정보를 사용해서 최적화 처리를 행해도 좋다. 예를 들어, 이하에 기재한 바와 같이 표시 패널부(102)의 휘도 보정을 행한다.
BackLight
= 기본 설정값 * 보정값
보정값 =
10^(A*log 화면 조도 + B*log 시야각 + C*log 영상 평균 레벨 + D*연령)/화면 조도
또한, 실험에 있어서, 최적 휘도는 화면 조도, 시야각, 영상 평균 휘도 레벨, 연령 사이에, 이하에 도시한 바와 같은 관계가 있는 것이 알려져 있다.
log 최적 휘도 = A*log 화면 조도 + B*log 시야각 + C*log 영상 평균 레벨 + D*연령
시스템 최적화 처리부(120)의 장치 방향 최적화 처리부(146)는, 유저 위치 정보 기억부(117)로부터 보내진 유저 위치 정보에 기초하여, 임의 위치에 있는 유저에 대하여, 화상 표시 장치(100)의 장치 방향을 최적화하기 위한, 화상 표시 장치(100)의 기구부(109)에 대한 장치 방향 최적화 처리를 실행하기 위한 장치 방향 제어 정보를 산출한다. 장치 방향 최적화 처리부(146)가 산출한 장치 방향 제어 정보는 시스템 제어부(122)의 장치 방향 제어부(156)로 보내진다.
장치 방향 최적화 처리로서는, 기구부(109)가 상하 좌우 방향의 스위블 기구를 구비하고 있는 경우에는, 화상 표시 장치(100)의 정면 방향축([0, 0])이 유저의 방향([φ1, θ1]이 되도록 화상 표시 장치(100)를 회전시킨다. 이에 의해, 유저가 볼 때, 화상 표시 장치(100)의 표시 패널부(102)가 정면으로 대향하는 방향으로 최적화할 수 있다.
시스템 제어부(122)의 음성 특성 제어부(152)는, 음성 특성 최적화 처리부(142)로부터 보내진 음성 특성 제어 정보에 기초하여, 음성 특성 최적화 처리를 실행한다. 예를 들어, 음성 특성 제어부(152)는, 음성 특성 최적화 처리부(142)로부터 보내진 음성 특성 제어 정보에 기초하여, 스피커부(108)로부터의 출력 음성의 음량 밸런스의 제어 등을 실행한다.
시스템 제어부(122)의 화상 특성 제어부(154)는, 화상 특성 최적화 처리부(144)로부터 보내진 화상 특성 제어 정보에 기초하여, 화상 특성 최적화 처리를 실행한다. 예를 들어, 화상 특성 제어부(154)는, 화상 특성 최적화 처리부(144)로부터 보내진 화상 특성 제어 정보에 기초하여, 표시 패널부(102)의 화상 특성 제어 등을 실행한다.
시스템 제어부(122)의 장치 방향 제어부(156)는, 장치 방향 최적화 처리부(146)로부터 보내진 장치 방향 제어 정보에 기초하여, 장치 방향 최적화 처리를 실행한다. 예를 들어, 장치 방향 제어부(156)는, 장치 방향 최적화 처리부(146)로부터 보내진 장치 방향 제어 정보에 기초하여, 화상 표시 장치(100)의 기구부(109) 제어 등을 실행한다.
이상, 도 3 및 도 4를 사용해서 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 포함되는 제어부(110)의 구성에 대해서 설명하였다. 이어서, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 유저의 위치에 따른 최적화 처리에 대해서 설명한다.
[1-3. 유저의 위치에 따른 최적화 처리]
도 8은, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 유저 위치에 따른 최적화 처리의 일례에 대해서 나타내는 흐름도이다. 이하, 도 8을 사용해서 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 유저의 위치에 따른 최적화 처리에 대해서 설명한다.
도 8에 있어서, 우선, 화상 표시 장치(100)의 촬상부(104)가 촬상을 개시하면, 제어부(110)의 화상 입력부(112)는, 촬상부(104)에서 촬상된 화상을 수취한다(스텝 S802).
계속해서, 제어부(110)의 화상 처리부(114)는, 화상 입력부(112)가 수취한 화상에 포함되는 얼굴의 검출 처리 등을 실행한다(스텝 S804).
계속해서, 제어부(110)의 시청 상태 해석부(116)는, 유저 방향/거리 산출부에 있어서 촬상부(104)의 카메라 광축에 대한 유저의 상대 위치를 산출하고, 유저 위치 정보 산출부(134)에 있어서 화상 표시 장치(100)의 장치 중심 및 정면 방향축에 대한 유저의 위치를 산출한다(스텝 S806).
계속해서, 제어부(110)의 시스템 최적화 처리부(120)는, 스텝 S806에서 산출된 유저 위치 정보에 기초하여, 임의 위치에 있는 유저에 대하여, 화상 표시 장치(100)의 상태를 최적화하기 위한 시스템 최적화 처리를 실행하기 위한 시스템 제어 정보를 산출한다(스텝 S808). 예를 들어, 스텝 S808에서는, 스피커부(108)로부터 출력되는 음성의 좌우 음량 밸런스를 최적화하기 위한 처리를 실행하기 위한 시스템 제어 정보를 산출한다. 또한, 스텝 S808에서는, 흑색의 보여짐을 최적화하기 위한 감마 보정이나, 색 변화에 대한 추종을 행하기 위한 컬러 게인의 보정 등의 처리를 실행하기 위한 시스템 제어 정보를 산출한다. 또한, 스텝 S808에서는, 화상 표시 장치(100)의 장치 방향을 최적화하기 위한 처리를 실행하기 위한 시스템 제어 정보를 산출한다.
계속해서, 제어부(110)의 시스템 제어부(122)는, 스텝 S808에서 산출된 시스템 제어 정보에 기초하여, 시스템 최적화 처리를 실행하여(스텝 S810), 본 처리를 종료한다.
도 8의 유저의 위치에 따른 최적화 처리에 의하면, 임의 위치에 있는 유저에 대하여, 화상 표시 장치(100)의 상태를 최적화할 수 있다. 예를 들어, 스피커부(108)로부터 출력되는 음성의 좌우 음량 밸런스가 최적화되어서, 유저는 위화감을 느끼지 않고서 화상 표시 장치(100)를 시청할 수 있다. 또한, 흑색의 보여짐이나 색 변화 등이 최적화되어, 유저는 화상 표시 장치(100)에 표시된 화상을 양호하게 시청할 수 있다. 또한, 유저가 볼 때, 화상 표시 장치(100)가 정면으로 대향하는 방향으로 최적화되어서, 유저는 화상 표시 장치(100)에 표시된 화상을 양호하게 시청할 수 있다.
[1-4. 1명 또는 복수의 유저의 위치에 따른 최적화 처리]
이어서, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 1명 또는 복수의 유저의 위치에 따른 최적화 처리에 대해서 설명한다. 도 9는, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 1명 또는 복수의 유저의 위치에 따른 최적화 처리의 일례에 대해서 나타내는 흐름도이다.
도 9에 있어서, 우선, 화상 표시 장치(100)의 촬상부(104)가 촬상을 개시하면, 제어부(110)의 화상 입력부(112)는, 촬상부(104)에서 촬상된 화상을 수취하고, 제어부(110)의 화상 처리부(114)는, 화상 입력부(112)가 수취한 화상에 포함되는 얼굴의 검출 처리 등을 실행한다(스텝 S902).
계속해서, 제어부(110)의 시청 상태 해석부(116)는, 화상 처리부(114)에 의한 얼굴의 검출 처리 결과를 수취하고, 화상 처리부(114)에 의한 얼굴의 검출 결과를 사용하여, 유저의 검출 인원수가 1명 또는 복수명인지를 판별한다(스텝 S904).
스텝 S904의 판별 결과, 유저의 검출 인원수가 1명일 때는, 제어부(110)의 시청 상태 해석부(116)는, 유저의 수평 각도 및 수직 각도를 구한다(스텝 S906).
계속해서, 제어부(110)의 시스템 최적화 처리부(120)는, 스텝 S906에서 구해진 유저의 수평 각도 및 수직 각도에 기초하여, 시스템 최적화 처리를 위한 시스템 제어 정보의 보정 계수를 산출한다(스텝 S908).
스텝 S904의 판별 결과, 유저의 검출 인원수가 복수명일 때는, 제어부(110)의 시청 상태 해석부(116)는, 복수명의 유저가 화상의 중심에 있는지 여부를 판별한다(스텝 S910).
스텝 S910의 판별 결과, 복수명의 유저가 화상의 중심에 없을 때는(스텝 S910에서 "아니오"), 제어부(110)의 시청 상태 해석부(116)는, 복수명 유저의 인원수만큼의 수평 각도 및 수직 각도와 거리를 구하고, 각각을 평균화한다(스텝 S912). 또한, 스텝 S912에서는, 복수명 유저 각각의 수평 각도 및 수직 각도와 거리를 구하고, 복수명 유저의 무게 중심 위치를 구해도 좋다.
계속해서, 제어부(110)의 시스템 최적화 처리부(120)는, 시스템 최적화 처리를 위한 시스템 제어 정보의 보정 계수를 산출한다(스텝 S914).
스텝 S910의 판별 결과, 복수명의 유저가 화상의 중심에 있을 때는(스텝 S910에서 "예"), 제어부(110)의 시스템 최적화 처리부(120)는, 시스템 최적화 처리를 위한 시스템 제어 정보의 보정 계수 없음, 혹은 가중치 부여를 바꾸어서 보정 계수를 산출한다(스텝 S916).
스텝 S908, S914, S916에서 보정 계수를 산출한 후, 제어부(110)의 시스템 최적화 처리부(120)는, 시스템 최적화 처리를 위한 시스템 제어 정보의 기본 데이터에 보정 계수를 가산해서 시스템 제어 정보를 산출하여(스텝 S918), 본 처리를 종료한다.
도 9의 1명 또는 복수의 유저의 위치에 따른 최적화 처리에 의하면, 임의 위치에 있는 복수의 유저에 대하여, 화상 표시 장치(100)의 상태를 최적화할 수 있다.
[1-5. 1명 또는 복수의 유저의 연령에 따른 최적화 처리]
이어서, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 1명 또는 복수의 유저의 연령에 따른 최적화 처리에 대해서 설명한다. 도 10은, 본 발명의 일 실시 형태에 따른 화상 표시 장치(100)에 의한 1명 또는 복수 유저의 연령에 따른 최적화 처리의 일례에 대해서 나타내는 흐름도이다.
도 10에 있어서, 우선, 화상 표시 장치(100)의 촬상부(104)가 촬상을 개시하면, 제어부(110)의 화상 입력부(112)는, 촬상부(104)에서 촬상된 화상을 수취하고, 제어부(110)의 화상 처리부(114)는, 화상 입력부(112)가 수취한 화상에 포함되는 얼굴의 검출 처리 등을 실행한다(스텝 S1002).
계속해서, 제어부(110)의 시청 상태 해석부(116)는, 화상 처리부(114)에 의한 얼굴의 검출 처리 결과를 수취하고, 화상 처리부(114)에 의한 얼굴의 검출 결과를 사용하여, 유저의 검출 인원수가 1명 또는 복수명인지를 판별한다(스텝 S1004).
스텝 S1004의 판별 결과, 유저의 검출 인원수가 1명일 때는, 제어부(110)의 시청 상태 해석부(116)는, 유저의 연령을 해석한다(스텝 S1006).
계속해서, 제어부(110)의 시스템 최적화 처리부(120)는, 스텝 S1006의 연령의 해석 결과에 기초하여, 시스템 최적화 처리를 위한 시스템 제어 정보의 보정 계수를 산출한다(스텝 S1008).
스텝 S1004의 판별 결과, 유저의 검출 인원수가 복수명일 때는, 제어부(110)의 시청 상태 해석부(116)는, 복수명의 유저의 인원수만큼의 연령을 해석한다(스텝 S1010).
계속해서, 제어부(110)의 시청 상태 해석부(116)는, 시스템 최적화 처리를 위한 시스템 제어 정보의 보정 없음, 혹은 개별로 보정 계수를 산출해서 평균화한다(스텝 S1012).
스텝 S1008, S1012 후, 제어부(110)의 시스템 최적화 처리부(120)는, 시스템 최적화 처리를 위한 시스템 제어 정보의 기본 데이터에 보정 계수를 가산해서 시스템 제어 정보를 산출하여(스텝 S1014), 본 처리를 종료한다.
도 10의 1명 또는 복수의 유저의 연령에 따른 최적화 처리에 의하면, 여러 가지 연령의 복수의 유저에 대하여, 화상 표시 장치(100)의 상태를 최적화할 수 있다.
또한, 본 실시 형태에서는, 시스템 최적화 처리부(120)는, 유저 위치 정보에 기초하여, 표시 패널부(102)에 표시되는 GUI의 문자 크기를 최적화하기 위한 시스템 제어 정보를 산출해도 좋다. 시스템 최적화 처리부(120)가 산출한 시스템 제어 정보는 시스템 제어부(122)로 보내지고, 시스템 제어부(122)에 의해 표시 패널부(102)에 표시되는 GUI의 문자 크기를 최적화하기 위한 최적화 처리가 실행된다.
GUI의 문자 크기의 최적화 처리로서는, 도 14의 (a)에 도시한 바와 같이, 유저가 화상 표시 장치(100)에 접근했을 경우에, 표시 패널부(102)에 표시되는 GUI의 문자 크기를 확대하는 처리가 있다. 이 경우, 유저가 화상 표시 장치(100)로 다가오면 GUI의 문자 크기를 크게 하고, 유저가 화상 표시 장치(100)로부터 이격되면 GUI의 문자 크기를 작게 한다. 예를 들어, GUI의 문자 크기가 작아서 읽기 어려울 때, 유저가 접근함으로써 GUI의 문자 크기가 커지게 되어, 유저는 GUI를 용이하게 인식할 수 있다.
또한, GUI의 문자 크기 최적화 처리로서는, 도 14의 (b)에 도시한 바와 같이, 유저가 화상 표시 장치(100)에 접근했을 경우에, 표시 패널부(102)에 표시되는 GUI의 문자 크기를 축소하고, 표시되는 정보를 상세화, 즉 정보량을 증가시키는 처리가 있다. 이 경우, 유저가 화상 표시 장치(100)로 다가오면 GUI의 문자 크기를 작게 해서 표시되는 정보를 많게 하고, 유저가 화상 표시 장치(100)로부터 이격되면 GUI의 문자 크기를 크게 해서 표시되는 정보를 적게 한다. 예를 들어, 표시 패널부(102)에 의해 프로그램표가 표시되고 있는 경우에, 유저가 이격되고 있을 때는, 문자 크기를 크게 해서 정보량을 적게 해 두고, 유저가 접근해 오면, 문자 크기를 작게 해서 정보량을 많게 한다.
또한, 본 실시 형태에서는, 도 15의 (a) 내지 도 15의 (c)에 도시한 바와 같이, 유저의 시청 위치의 산출에 있어서, 기준 거리(d0)에서의 기준 얼굴 크기([w0, h0])를, 이하와 같은 보정 테이블을 사용함으로써 얼굴 크기의 불균일성을 보정해도 좋다. 예를 들어, 유저의 연령 등의 속성 정보로부터, 그 연령에 있어서의 평균적인 얼굴 크기의 데이터 테이블을 미리 기억해 두고, 예를 들어 유저가 어린이이면 기준 얼굴 크기([w0, h0])를 도 15의 (c)에 도시된 기준 얼굴 크기보다도 작은 얼굴 크기([w0C, h0C])로 하고, 유저가 어른이면 기준 얼굴 크기([w0, h0])를 도 15의 (b)에 나타내는 기준 얼굴 크기보다도 큰 얼굴 크기([w0A, h0A])로 해도 좋다.
또한, 본 실시 형태에서는, 유저의 시청 위치의 산출에 있어서, 화상 표시 장치(100)를 이용하는 유저, 예를 들어 화상 표시 장치(100) 설치 장소의 가족 등을 미리 화상 표시 장치(100)에 등록할 때, 유저마다의 얼굴 크기를 데이터 테이블로서 등록해도 좋다. 이에 의해, 유저마다 기준 얼굴 크기를 변경할 수 있다. 유저 마다 얼굴 크기를 등록하는 방법으로서는, 별도의 거리 센서(도시하지 않음)와 연동해서 거리 정보와 함께 촬영하는 것이나, 유저를 일정 거리로 유도하고나서 촬영하는 것이나, 기준이 되는 척도와 같은 거리로 촬영하는 것 등으로 실현 가능하다.
또한, 본 실시 형태에서는, 촬상부(104)의 촬상 범위 외로 유저가 벗어났다고 하더라도, 유저의 시계열적인 천이 정보로부터, 촬상 범위 외의 유저 위치를 추정함으로써, 상술한 시스템 최적화 처리를 계속할 수 있다.
또한, 본 실시 형태에서는, 시스템 최적화 처리에 있어서, 유저의 시청 환경에 따라, 적당한 시상수를 설정할 수도 있다. 이에 의해, 유저가 급준한 위치 이동을 해도, 시스템 최적화 처리를 계속할 수 있다.
또한, 상술한 일련의 처리는, 하드웨어에 의해 실행시킬 수도 있고, 소프트웨어에 의해 실행시킬 수도 있다. 일련의 처리를 소프트웨어에 의해 실행시키는 경우에는, 그 소프트웨어를 구성하는 프로그램이 전용 하드웨어에 내장되어 있는 컴퓨터 또는, 각종 프로그램을 인스톨함으로써, 각종 기능을 실행할 수 있는, 예를 들어 범용의 퍼스널 컴퓨터 등에 프로그램 기록 매체로부터 인스톨된다.
이상, 첨부 도면을 참조하여 본 발명의 적합한 실시 형태에 대해서 상세하게 설명했지만, 본 발명은 이러한 예에 한정되지 않는다. 본 발명이 속하는 기술 분야에 있어서의 통상의 지식을 갖는 자이면, 특허 청구 범위에 기재된 기술적 사상의 범주 내에서, 각종 변경예 또는 수정예를 상도할 수 있는 것은 명확하며, 이것들에 대해서도, 당연히 본 발명의 기술적 범위에 속하는 것이라고 이해된다.
100 화상 표시 장치
102 표시 패널부
104 촬상부
106 센서부
108 스피커부
109 기구부
110 제어부
112 화상 입력부
114 화상 처리부
116 시청 상태 해석부
117 유저 위치 정보 기억부
118 시청 상태 기록부
120 시스템 최적화 처리부
122 시스템 제어부
132 유저 방향/거리 산출부
134 유저 위치 정보 산출부
142 음성 특성 최적화 처리부
144 화상 특성 최적화 처리부
146 장치 방향 최적화 처리부
152 음성 특성 제어부
154 화상 특성 제어부
156 장치 방향 제어부
200 정보 수집 서버

Claims (7)

  1. 표시 장치로서,
    화상 표시 방향에 대한 소정 범위의 동화상을 촬상하는 촬상부와,
    상기 촬상부가 촬상한 동화상을 해석하여, 유저의 위치를 산출하는 화상 해석부와,
    상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 시스템을 최적화하기 위한 시스템 제어 정보를 산출하는 시스템 최적화 처리부와,
    상기 시스템 최적화 처리부가 산출한 상기 시스템 제어 정보에 기초하여, 시스템을 최적화하는 시스템 제어부
    를 구비하고,
    상기 화상 해석부는, 상기 촬상부가 촬상한 동화상을 해석하여, 특정한 유저의 위치를 산출하고,
    상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 특정한 유저의 위치에 기초하여, 시스템을 최적화하기 위한 시스템 제어 정보를 산출하는, 표시 장치.
  2. 제1항에 있어서, 상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 음성 출력부로부터 출력되는 음성의 음량 밸런스를 최적화하기 위한 시스템 제어 정보를 산출하는, 표시 장치.
  3. 제1항에 있어서, 상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 화상 표시부의 화상 특성을 최적화하기 위한 시스템 제어 정보를 산출하는, 표시 장치.
  4. 제1항에 있어서, 상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 화상 표시부의 표시 내용을 최적화하기 위한 시스템 제어 정보를 산출하는, 표시 장치.
  5. 제1항에 있어서, 상기 시스템 최적화 처리부는, 상기 화상 해석부가 산출한 상기 유저의 위치에 기초하여, 자장치의 장치 방향을 최적화하기 위한 시스템 제어 정보를 산출하는, 표시 장치.
  6. 제1항에 있어서, 상기 화상 해석부는, 상기 촬상부가 촬상한 동화상을 해석하여, 유저의 3차원 위치를 산출하는, 표시 장치.
  7. 제어 방법으로서,
    화상 표시 방향에 대한 소정 범위의 동화상을 촬상하는 촬상 스텝과,
    상기 촬상된 동화상을 해석하여, 유저의 위치를 산출하는 화상 해석 스텝과,
    상기 산출된 상기 유저의 위치에 기초하여, 시스템을 최적화하기 위한 시스템 제어 정보를 산출하는 시스템 최적화 처리 스텝과,
    상기 산출된 상기 시스템 제어 정보에 기초하여, 시스템을 최적화하는 시스템 제어 스텝을 포함하고,
    상기 화상 해석 스텝에서는, 상기 촬상 스텝에서 촬상한 동화상을 해석하여, 특정한 유저의 위치를 산출하고,
    상기 시스템 최적화 처리 스텝에서는, 상기 화상 해석 스텝에서 산출한 특정한 유저의 위치에 기초하여, 시스템을 최적화하기 위한 시스템 제어 정보를 산출하는, 제어 방법.
KR1020127006151A 2009-09-15 2010-07-22 표시 장치 및 제어 방법 KR101784754B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009213377A JP5568929B2 (ja) 2009-09-15 2009-09-15 表示装置および制御方法
JPJP-P-2009-213377 2009-09-15
PCT/JP2010/062311 WO2011033855A1 (ja) 2009-09-15 2010-07-22 表示装置および制御方法

Publications (2)

Publication Number Publication Date
KR20120082406A true KR20120082406A (ko) 2012-07-23
KR101784754B1 KR101784754B1 (ko) 2017-10-16

Family

ID=43758468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127006151A KR101784754B1 (ko) 2009-09-15 2010-07-22 표시 장치 및 제어 방법

Country Status (8)

Country Link
US (2) US8952890B2 (ko)
EP (1) EP2472863A4 (ko)
JP (1) JP5568929B2 (ko)
KR (1) KR101784754B1 (ko)
CN (1) CN102687522B (ko)
BR (1) BR112012005231A2 (ko)
RU (1) RU2553061C2 (ko)
WO (1) WO2011033855A1 (ko)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9330589B2 (en) 2011-11-16 2016-05-03 Nanolumens Acquisition, Inc. Systems for facilitating virtual presence
JP5263092B2 (ja) 2009-09-07 2013-08-14 ソニー株式会社 表示装置および制御方法
JP5418093B2 (ja) * 2009-09-11 2014-02-19 ソニー株式会社 表示装置および制御方法
JP2013031013A (ja) * 2011-07-28 2013-02-07 Toshiba Corp 電子機器、電子機器の制御方法、電子機器の制御プログラム
CN102314848A (zh) * 2011-09-09 2012-01-11 深圳Tcl新技术有限公司 液晶显示装置背光控制方法和系统
JP5892797B2 (ja) * 2012-01-20 2016-03-23 日本放送協会 送受信システム及び送受信方法、受信装置及び受信方法
KR20130117525A (ko) * 2012-04-18 2013-10-28 삼성디스플레이 주식회사 영상 표시 시스템 및 이의 구동방법
WO2014006757A1 (ja) * 2012-07-06 2014-01-09 Necディスプレイソリューションズ株式会社 表示装置、表示装置の制御方法
US9412375B2 (en) 2012-11-14 2016-08-09 Qualcomm Incorporated Methods and apparatuses for representing a sound field in a physical space
JP6058978B2 (ja) * 2012-11-19 2017-01-11 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
EP2927902A4 (en) * 2012-11-27 2016-07-06 Sony Corp DISPLAY DEVICE, DISPLAY PROCESS AND COMPUTER PROGRAM
US20140153753A1 (en) * 2012-12-04 2014-06-05 Dolby Laboratories Licensing Corporation Object Based Audio Rendering Using Visual Tracking of at Least One Listener
WO2014122723A1 (ja) * 2013-02-05 2014-08-14 Toa株式会社 拡声システム
WO2014126991A1 (en) * 2013-02-13 2014-08-21 Vid Scale, Inc. User adaptive audio processing and applications
US10139925B2 (en) * 2013-03-04 2018-11-27 Microsoft Technology Licensing, Llc Causing specific location of an object provided to a device
DE102013206569B4 (de) * 2013-04-12 2020-08-06 Siemens Healthcare Gmbh Gestensteuerung mit automatisierter Kalibrierung
WO2015100205A1 (en) * 2013-12-26 2015-07-02 Interphase Corporation Remote sensitivity adjustment in an interactive display system
CN104298347A (zh) * 2014-08-22 2015-01-21 联发科技(新加坡)私人有限公司 电子显示设备屏幕的控制方法、控制装置及显示系统
US10462517B2 (en) * 2014-11-04 2019-10-29 Sony Corporation Information processing apparatus, communication system, and information processing method
JP2016092765A (ja) * 2014-11-11 2016-05-23 株式会社リコー 情報処理装置、ユーザー検知方法、プログラム
CN106713793A (zh) * 2015-11-18 2017-05-24 天津三星电子有限公司 一种声音播放控制方法及其装置
US10397438B2 (en) * 2016-10-26 2019-08-27 Orcam Technologies Ltd. Systems and methods for causing execution of an action based on physical presence of a detected person
WO2018155354A1 (ja) * 2017-02-21 2018-08-30 パナソニックIpマネジメント株式会社 電子機器の制御方法、電子機器の制御システム、電子機器、及び、プログラム
EP3396226B1 (en) * 2017-04-27 2023-08-23 Advanced Digital Broadcast S.A. A method and a device for adjusting a position of a display screen
CN107632708B (zh) * 2017-09-22 2021-08-17 京东方科技集团股份有限公司 一种屏幕可视角度的控制方法、控制装置及柔性显示装置
US11011095B2 (en) * 2018-08-31 2021-05-18 Chongqing Hkc Optoelectronics Technology Co., Ltd. Display panel, and image control device and method thereof
KR20200027394A (ko) * 2018-09-04 2020-03-12 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US11032508B2 (en) * 2018-09-04 2021-06-08 Samsung Electronics Co., Ltd. Display apparatus and method for controlling audio and visual reproduction based on user's position
CN110503891A (zh) * 2019-07-05 2019-11-26 太仓秦风广告传媒有限公司 一种基于距离变化的电子广告牌变换方法及其系统
JP2021015203A (ja) * 2019-07-12 2021-02-12 富士ゼロックス株式会社 画像表示装置、画像形成装置及びプログラム
CN112073804B (zh) * 2020-09-10 2022-05-20 深圳创维-Rgb电子有限公司 电视声音调整方法、电视及存储介质
TW202333491A (zh) * 2021-12-28 2023-08-16 日商索尼集團公司 資訊處理裝置、資訊處理方法、以及程式
CN114999335B (zh) * 2022-06-10 2023-08-15 长春希达电子技术有限公司 基于超宽带、一维包络峰值的led拼接屏修缝方法

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4973149A (en) * 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
JPH07106839B2 (ja) * 1989-03-20 1995-11-15 株式会社日立製作所 エレベーター制御システム
JPH05137200A (ja) * 1991-11-14 1993-06-01 Sony Corp ステレオ音量バランス自動調整装置
JPH09247564A (ja) * 1996-03-12 1997-09-19 Hitachi Ltd テレビジョン受像機
DE19613178A1 (de) * 1996-04-02 1997-10-09 Heinrich Landert Verfahren zum Betrieb einer Türanlage und eine nach dem Verfahren arbeitende Türanlage
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6611297B1 (en) * 1998-04-13 2003-08-26 Matsushita Electric Industrial Co., Ltd. Illumination control method and illumination device
US6215471B1 (en) * 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus
US6076928A (en) * 1998-06-15 2000-06-20 Fateh; Sina Ideal visual ergonomic system for computer users
US6243076B1 (en) * 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
JP3561463B2 (ja) * 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
EP1426919A1 (en) 2002-12-02 2004-06-09 Sony International (Europe) GmbH Method for operating a display device
WO2004055776A1 (en) * 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
US8123616B2 (en) * 2003-03-25 2012-02-28 Igt Methods and apparatus for limiting access to games using biometric data
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
US7117380B2 (en) * 2003-09-30 2006-10-03 International Business Machines Corporation Apparatus, system, and method for autonomic power adjustment in an electronic device
EP1551178A1 (en) * 2003-12-18 2005-07-06 Koninklijke Philips Electronics N.V. Supplementary visual display system
EP1566788A3 (en) 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
EP1596271A1 (en) * 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Method for displaying information and information display system
JP4734855B2 (ja) * 2004-06-23 2011-07-27 株式会社日立製作所 情報処理装置
RU2370817C2 (ru) * 2004-07-29 2009-10-20 Самсунг Электроникс Ко., Лтд. Система и способ отслеживания объекта
JP4107288B2 (ja) * 2004-12-10 2008-06-25 セイコーエプソン株式会社 制御システム及びこのシステムに適合する被制御装置並びに遠隔制御装置
JP4899334B2 (ja) * 2005-03-11 2012-03-21 ブラザー工業株式会社 情報出力装置
KR101112735B1 (ko) * 2005-04-08 2012-03-13 삼성전자주식회사 하이브리드 위치 추적 시스템을 이용한 입체 디스플레이장치
WO2006122004A1 (en) * 2005-05-06 2006-11-16 Omnilink Systems, Inc. System and method of tracking the movement of individuals and assets
JP4595750B2 (ja) 2005-08-29 2010-12-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4225307B2 (ja) * 2005-09-13 2009-02-18 船井電機株式会社 テレビジョン受信装置
US8218080B2 (en) 2005-12-05 2012-07-10 Samsung Electronics Co., Ltd. Personal settings, parental control, and energy saving control of television with digital video camera
EP1983402A4 (en) * 2006-02-03 2013-06-26 Panasonic Corp INPUT DEVICE AND ITS METHOD
JP4876687B2 (ja) * 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム
US8340365B2 (en) * 2006-11-20 2012-12-25 Sony Mobile Communications Ab Using image recognition for controlling display lighting
JP2008301167A (ja) * 2007-05-31 2008-12-11 Sharp Corp 液晶テレビジョン受像機
CN101952818B (zh) * 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
WO2009038149A1 (ja) * 2007-09-20 2009-03-26 Nec Corporation 映像提供システム、および映像提供方法
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
JP2009094723A (ja) * 2007-10-05 2009-04-30 Mitsubishi Electric Corp テレビ受像機
US9986293B2 (en) * 2007-11-21 2018-05-29 Qualcomm Incorporated Device access control
CN101925916B (zh) * 2007-11-21 2013-06-19 高通股份有限公司 基于媒体偏好控制电子设备的方法和系统
JP4702377B2 (ja) * 2008-02-18 2011-06-15 セイコーエプソン株式会社 制御システムおよび被制御装置
JP5169403B2 (ja) * 2008-04-07 2013-03-27 ソニー株式会社 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
CN102119530B (zh) * 2008-08-22 2013-08-21 索尼公司 图像显示设备、控制方法
US8400322B2 (en) * 2009-03-17 2013-03-19 International Business Machines Corporation Apparatus, system, and method for scalable media output
JP5263092B2 (ja) 2009-09-07 2013-08-14 ソニー株式会社 表示装置および制御方法
JP5556098B2 (ja) * 2009-09-11 2014-07-23 ソニー株式会社 表示方法及び表示装置
JP2011107899A (ja) * 2009-11-16 2011-06-02 Sony Corp 情報処理装置、設定変更方法及び設定変更プログラム
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
JP2012104871A (ja) * 2010-11-05 2012-05-31 Sony Corp 音響制御装置及び音響制御方法
US9288387B1 (en) * 2012-09-11 2016-03-15 Amazon Technologies, Inc. Content display controls based on environmental factors

Also Published As

Publication number Publication date
JP5568929B2 (ja) 2014-08-13
US20120293405A1 (en) 2012-11-22
EP2472863A1 (en) 2012-07-04
US9489043B2 (en) 2016-11-08
EP2472863A4 (en) 2013-02-06
CN102687522A (zh) 2012-09-19
US8952890B2 (en) 2015-02-10
KR101784754B1 (ko) 2017-10-16
JP2011066516A (ja) 2011-03-31
CN102687522B (zh) 2015-08-19
US20150185830A1 (en) 2015-07-02
RU2553061C2 (ru) 2015-06-10
WO2011033855A1 (ja) 2011-03-24
BR112012005231A2 (pt) 2020-08-04
RU2012108872A (ru) 2013-09-20

Similar Documents

Publication Publication Date Title
KR20120082406A (ko) 표시 장치 및 제어 방법
CN102577425B (zh) 显示装置和控制方法
US8675136B2 (en) Image display apparatus and detection method
US11036966B2 (en) Subject area detection apparatus that extracts subject area from image, control method therefor, and storage medium, as well as image pickup apparatus and display apparatus
JP5556098B2 (ja) 表示方法及び表示装置
US8830374B2 (en) Image capture device with first and second detecting sections for detecting features
KR101537948B1 (ko) 얼굴 포즈 추정을 이용한 촬영 방법 및 장치
KR20120048530A (ko) 표시 장치 및 제어 방법
US9779290B2 (en) Detecting apparatus, detecting method and computer readable recording medium recording program for detecting state in predetermined area within images
JP2007265125A (ja) コンテンツ表示装置
US9143684B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP5941764B2 (ja) コンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラム
EP1944700A1 (en) Method and system for real time interactive video
JP5720758B2 (ja) 表示装置および制御方法
US20240112608A1 (en) Display system and display method
US20150297986A1 (en) Systems and methods for interactive video games with motion dependent gesture inputs
JP2024047670A (ja) 表示システムおよび表示方法
JP2024047671A (ja) 表示システムおよび表示方法
KR101386840B1 (ko) 아이알 광원 및 영상 이미지 인식을 동시 처리하는 듀얼 인터랙티브 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)