KR20020094011A - 시청자의 위치에 의존하는 디스플레이의 자동 포지션닝 - Google Patents

시청자의 위치에 의존하는 디스플레이의 자동 포지션닝 Download PDF

Info

Publication number
KR20020094011A
KR20020094011A KR1020027014834A KR20027014834A KR20020094011A KR 20020094011 A KR20020094011 A KR 20020094011A KR 1020027014834 A KR1020027014834 A KR 1020027014834A KR 20027014834 A KR20027014834 A KR 20027014834A KR 20020094011 A KR20020094011 A KR 20020094011A
Authority
KR
South Korea
Prior art keywords
user
display screen
control unit
image
display
Prior art date
Application number
KR1020027014834A
Other languages
English (en)
Inventor
스리니바스 구타
카우샬 쿠라파티
안토니오 콜멘나레즈
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20020094011A publication Critical patent/KR20020094011A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F11/00Indicating arrangements for variable information in which the complete information is permanently attached to a movable support which brings it to the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

비디오를 사용자에게 제공하는 비디오 디스플레이 스크린을 갖는 시스템에 있어서, 상기 디스플레이 스크린의 포지션은 상기 디스플레이 스크린에 대한 사용자의 위치에 기초하여 조정가능하다. 상기 시스템은 상기 디스플레이 스크린의 시청 영역을 조준가능하고 이미지 인식 소프트웨어를 갖는 제어 유닛에 연결된 적어도 하나의 이미지 캡처링 디바이스를 포함한다. 상기 이미지 인식 소프트웨어는 상기 이미지 캡처링 디바이스에 의해 발생된 이미지에 있는 사용자를 식별한다. 상기 제어 유닛의 소프트웨어는 또한 상기 이미지에 있는 사용자의 검출에 기초하여 상기 사용자의 포지션의 적어도 하나의 측정을 발생시킨다.

Description

시청자의 위치에 의존하는 디스플레이의 자동 포지션닝{Automatic positioning of display depending upon the viewer's location}
시청자의 포지션에 기초하여 비디오 디스플레이가 향해지는 방향을 조정하기 위한 구체적인 시스템들이 알려져 있다. 예를 들어, the Abstract of Japanese Patent Application 04290019(공개 번호 06141309)는, 각각이 말하는 사람의 목소리를 샘플링하는 2개의 마이크들을 사용하는 시스템을 설명한다. 상기 시스템은 어느 것이 더 큰지를 결정하기 위해 각각의 마이크로부터의 샘플들을 비교한다. 상기 시스템은 알려진 바와 같이 사람 방향으로 디스플레이를 방향짓기 위해 상기 비교를 사용한다. 어떤 단점들 중에서도, 상기 시스템은 오직 더 큰 말하기 음량을 어느 마이크가 검출하느냐에 기초해서는 사용자의 방향으로 디스플레이를 정확히 방향 지울 수 없다는 것이다. 더욱이, 상기 시스템은, 예를 들어, 그것이 디스플레이의 실제의 시청자이냐, 또는 상기 사람이 디스플레이를 다시 방향짓기를 희망하느냐에 상관없이, 그 자체를 어떤 말하는 사람의 큰 노이즈로 또는 근처의 다른 노이즈로 방향 지울 것이다.
시청자의 방향으로 디스플레이를 방향 지우기 위한 또 다른 시스템이 U.S. Application No. 5,250,888 to Yu에 설명된다. 상기 Yu 특허는 디스플레이에 대해 상대적인 시청자의 포지션을 검출하기 위해 광 검출기들의 배열(an array of photo detectors)을 사용하도록 지원한다. 어느 광 검출기가 시청자에 의해 통제되는 리모트(remote)로부터의 최대 광 신호를 수신하는지를 검출함으로써, 상기 시청자의 상대적인 포지션이 계산되고 상기 디스플레이를 지지하는 테이블은 상기 디스플레이가 사용자의 방향으로 향하도록 조정된다. 다시, 광 검출기들의 배열은 단지 사용자의 위치의 대략을 부여할 뿐이고, 더욱이, 상기 시스템은 복수의 시청자들에 대해 조정될 수 없다.
상기 선행 기술 시스템들의 하나의 명백한 어려움은, 디스플레이의 포지션을 조정하기 위해, 그들이 사용자가 리모트를 사용하기를 요구한다는 것(Yu patent)이다. 더욱이, Yu 시스템은 광 검출기들의 제한된 배열에 기초하여 대략적인 포지션닝을 제공할 뿐이라는 것이다. the Abstract of Japanese Patent Application 04290019의 마이크에 기초한 조정 시스템은 훨씬 더 세련되지 못하고 훨씬 덜 식별력 있는 조정을 제공한다.
본 발명은 컴퓨터 모니터들, 텔레비전들 및 홈 시어터 시스템들에 관한 것이다. 구체적으로는, 본 발명은 하나 또는 그 이상의 시청자들에 대해 상기 디스플레이들의 스크린의 포지션(position)을 조정하기 위한 시스템들 및 방법들에 관한 것이다.
도1은 본 발명의 실시예에 따른 디스플레이 스크린의 방향성의 자동 조정을 위한 디스플레이 시스템의 투시도.
도1a는 레퍼런스 좌표계 및 자동적 조정에서 사용되는 두드러진 기하학적 특징들을 설명하는 도1의 디스플레이 시스템의 해석(rendition).
도2는 도1의 카메라에 의해 캡처링된 이미지의 표현.
도2a는 본 발명의 수정된 실시예에서의 자동적 조정에 의해 사용되는 파라미터들의 표현을 포함하는 도2에서와 같은 제2 표현.
그래서 무엇보다도, 디스플레이의 스크린의 방향을 자동으로 조정하기 위한 매우 정확한 시스템을 제공하여 그것이 시청자를 향하게 하는 것이 본 발명의 목적이다. 시청자가 디스플레이를 시청하기 위해 방향지워지는 것으로 인식되었을 때 시스템이 자동적으로 특정 시청자에게 조정되도록 하는 것이 본 발명의 또 다른 목적이다. 또한, 상기 시스템은 시청자들로 인식된 둘 또는 그이상의 사람들의 포지션들에 기초하여 중앙 또는 평균 시청 포지션으로 자동적으로 조정할 수 있을 것이다.
따라서, 본 발명은 사용자의 포지션에 있어서의 변화를 포함하여 시스템의 시청자 또는 사용자의 포지션에 따라 자동적으로 조정될 수 있는 디스플레이 시스템을 제공한다. 일반적으로, 본 발명은 편평한 또는 적당하게 곡면인 표면을 통해 비디오를 디스플레이하는 디스플레이를 포함한다. 상기 표면은 전형적으로 텔레비전과 같은 디스플레이의 일부인 스크린이다. 그러나, 그것은 또한 예를 들어, 홈 시어터 프로젝션 스크린을 포함한다. 디스플레이 스크린의 방향성(orientation)은 조정가능하다. 여기에서 상기 디스플레이 및 스크린은 하나의 유닛이고, 예를 들어, 상기 디스플레이는 스크린의 방향성의 대응 조정과 함께 방향성이 하나 또는 그 이상의 자유도들(degrees of freedom)로 조정될 수 있는 테이블에 의해 장착되거나 지지될 수 있다. 여기에서 상기 디스플레이는 프로젝션 디스플레이이고, 상기 스크린 및 프로젝터는 방향성이 하나 또는 그 이상의 자유도들로 조정될 수 있는 단일 구조 상에 장착될 수 있다. 대안적으로, 상기 스크린 및 프로젝터는 조정가능한 방향성을 갖는 별개의 지지대들 또는 받침대들을 가질 수 있다. 디스플레이(또는 디스플레이 시스템의 부속들)의 받침대들 또는 지지대들의 드라이버들은 전형적으로 모터들(스텝퍼 모터들(stepper motors)과 같은) 또는 전자기계적 디바이스와같은 것(피에조 전기 드라이버(piezo electric driver)와 같은)을 포함한다.
상기 시스템은 시청 영역을 조준할 수 있고 이미지 인식 소프트웨어를 갖는 처리 섹션(processing section)에 연결된 적어도 하나의 이미지-캡처링 디바이스(image-capturing device)를 포함한다. 상기 처리 섹션은 상기 이미지-캡처링 디바이스에 의해 발생된 이미지에 있는 사용자를 식별하기 위해 이미지 인식 소프트웨어를 사용한다. 상기 소프트웨어는 PC 또는 텔레비전의 주된 사용자들과 같은 특정 시청자를 검출하도록 프로그램될 수 있다. 상기 이미지 처리 소프트웨어로부터 수신된 데이터를 사용하여, 상기 처리 섹션은 디스플레이 스크린의 방향성의 측정(measurement)을 결정한다. 그리고 그것은 상기 시청자를 향하게 된다. 상기 처리 섹션의 소프트웨어는 상기 디스플레이 스크린과 인터페이싱하고 상기 스크린을 방향지우는 드라이버들로 대응 출력을 제공한다. 그래서 그것은 시청자를 향하게 된다.
한가지 구체적인 경우에, 상기 이미지에서 시청자를 검출한 후, 상기 이미지 처리 소프트웨어는 상기 이미지에 있는 상기 시청자의 포즈(pose)를 결정한다. 상기 포즈는 상기 시청자에 대해 상기 디스플레이 스크린이 어떻게 방향지워질 것인가를 결정하기 위해 사용된다. 그리고 상기 처리 섹션은 상기 드라이버들에 의해 적당한 조정을 유발하는 출력을 발생시킨다. 그래서 상기 스크린은 시청자를 향하게 된다.
언급되었다시피, 상기 처리 섹션의 상기 이미지 인식 소프트웨어는 특정 시청자(상기 시청자의 이미지는 상기 소프트웨어에서 미리 프로그램될 수 있다.)의이미지를 검출하고 적당한 조정을 제공할 수 있다. 대안적으로, 상기 소프트웨어는 상기 이미지 안의 어떤 사람을 검출하고 상기 사람에 따라 상기 디스플레이 스크린을 조정할 수 있다. 만일 하나 이상의 사람이 있다면, 시청자들의 집합에 대한 디스플레이 스크린의 평균 또는 가장 좋은 시청 포지션이 결정되고 상기 디스플레이 스크린은 그렇게 방향지워질 것이다.
시청자의 얼굴을 식별하기 위한 대안으로서, 상기 이미지 인식 소프트웨어는 상기 사용자에게 알려진 특정 핸드 제스처들(hand gestures)을 인식하고 상기 제스처들에 따라 상기 디스플레이 스크린의 방향성을 조정할 수 있다. 또 다른 대안으로서, 상기 시스템은 오디오 캡처링 디바이스(마이크와 같은)를 가질 수 있고 상기 처리 섹션은 스피치(speech) 또는 음성 인식 소프트웨어를 사용할 수 있다. 특정 명령들이 캡쳐링되고 인식될 때("up", "down", "left" 및 "right"와 같은), 상기 처리 섹션은 상기 명령된 지시에 예정된 양으로 상기 디스플레이 스크린을 이동시키도록 적당한 드라이버에 대응 명령을 제공할 수 있다.
도1을 참조하면, 사용자 10은 본 발명의 실시예를 포함하는 시스템 20의 시청 영역에 위치된 것으로 도시된다. 상기 시스템 20은 사용자 10에 의해 시청될 수 있는 디스플레이 스크린 24a를 갖는 디스플레이 24로 이루어진다(그래서 상기 사용자는 위에서 언급되었다시피 시스템 20의 "시청 영역"에 있다.). 상기 디스플레이 24는 받침 28에 의해 지지되고, 상기 받침은 하부 및 상부 수직 지지대들 32, 40을 포함하고 상기 지지대들은 그들 사이에 위치된 스텝퍼 모터(stepper motor) 36을 갖는다. 받침 28, 하부 수직 지지대 32 및 스탭퍼 모터 36은 서로에 대해 상대적으로 고정된 상호관계에 있다. 상부 수직 지지대 40은 스탭퍼 모터 36의 드라이브 샤프트(drive shaft)에 의해 그것의 축을 따라 회전될 수 있다(상기 상부 수직 지지대 40 주위에 도1에 도시된 화살표에 의해 표시된 바와 같이). 그래서, 이하에서 더 설명되는 바와 같이, 상기 디스플레이는 상기 디스플레이 스크린 24a를 방향 지우기 위해 축 Y(수직 지지대 40에 의해 정의된)를 기준으로 상기 스탭퍼 모터 36에 의해 회전될 수 있다. 그래서 그것은 상기 사용자 10을 향하게 된다.
상기 시스템 20은 또한 디스플레이 24의 위에 위치된 것으로 도1에 도시된 제어 유닛 52를 포함한다. 물론, 상기 제어 유닛 52는 다른 곳에 위치될 수 있고 또는 상기 디스플레이 24 자체 내에 통합될 수 있다. 상기 시스템 20은 또한 별개의 수직 지지대 44를 통해 받침 28로 고정된 상호관계로 장착된 카메라 48을 포함한다. 상기 수직 지지대 44는 카메라 48이 디스플레이 24의 움직임을 방해하지 않도록 위치된다. 상기 제어 유닛 52, 스탭퍼 모터 36 및 카메라 48은 모두 예를 들어 디스플레이 24의 뒤 및 받침 28 및 수직 지지대 32, 40, 44의 근방(또는 내부)을 따라 이어진 전기적 장치를 통해 전기적 와이어들 및 코넥터들(도1에 도시되지 않음.)로 전기적으로 연결되어 있다.
도1의 시스템 20의 디스플레이 24는 디스플레이 스크린 24a로부터의 시각적 출력 및 관련된 스피커들(도시되지 않음.)로부터의 대응 오디오 출력을 생성하는 전기적 부속들을 포함한다. 상기 디스플레이 24에 대한 오디오 및 비디오 처리는 제어 유닛 52 또는 디스플레이 내의(또는 다른곳) 별개의 제어 유닛에서 발생될 수 있다. 상기 오디오 및 비디오에 대한 처리 부속들은 여러 가지 상업적 포맷들로 알려져 있고 이용가능하다. 그들은 본 발명의 동작에 중심 맞춰지지 않았으므로, 상세한 것들은 본 발명을 설명하기 위해 필요한 정도를 제외하고는 논의로부터 생략될 것이다.
도1a는 시스템 20에 의해 디스플레이 24의 포지션닝 및 움직임을 설명하기 위해 점선으로 도1의 디스플레이 24 및 사용자 10을 도시한다. 도1a에서 보여지다시피, 레퍼런스 좌표계 0은 받침 28의 중심점에 놓여있고, 축 Y는 상기 디스플레이가 스탭퍼 모터 36에 의해 회전되는 수직 포지션에 놓여 있고(도1에 대해 위에서 설명된 바와 같이) 축 X 및 Z는 바닥의 평면을 규정한다. 상기 디스플레이 24의 초기 포지션은 축 X와 같은 레퍼런스 방향에 따른다. 그래서, 상기 디스플레이가 초기 포지션에 있을 때, 상기 디스플레이 스크린 24a에 대한 수직 벡터(도1a에서 벡터N x 로 도시됨.)는 축 X와 평행이다. 사용자 10은 바닥의 평면(XZ 평면)에 있는 X축에 대해 각 θ에 위치된 것으로 도시된다. 그래서, 바닥의 평면에 있는 사용자 10의 포지션은 벡터R에 의해 도1a에서 규정된다.
도1a에 덧붙여서 도1을 참조하면, 여기에서 축 Y를 기준으로 한 디스플레이의 회전의 특정 각은 제어 유닛 52에 의해 알려지거나 결정된다. 상기 제어 유닛 52는 대응 제어 신호들을 스탭퍼 모터 36으로 출력하도록 프로그램된다. 상기 제어 신호들은 상기 스탭퍼 모터 36이(그리고, 결론적으로, 수직 지지대 40에의 부착에 의해 상기 디스플레이 24가) 상기 특정 각을 통해 그것의 드라이브 샤프트를 회전시키도록 유발한다. 상기 스탭퍼 모터의 드라이브 샤프트(또한 축 Y에 평행인)는 디스플레이 스크린의 수직 벡터N x 가 위에서 설명된 바와 같이 축 X와 평행인 레퍼런스 포지션을 갖는다. 제어 유닛 52는 예를 들어 제어 유닛 52에 의해 보내진 제어 신호들에 의한 스탭퍼 모터 36의 드라이브 샤프트의 회전을 추적함으로써, 또는 회전 포지션의 제어 유닛 52로의 피드백 신호에 의해, 축 X에 대해 드라이브 샤프트 및 디스플레이의 회전을 추적한다.
상기 드라이브 샤프트 및 디스플레이가 축 Y에 대해 회전될 때, 상기 디스플레이 스크린에 대한 수직 벡터는 똑같은 방향으로 축 Y에 대해 동일한 각으로 회전한다. 그래서, 도1a를 참조하면, 제어 유닛 52가 사용자 10의 각 포지션 θ를 수신 또는 결정할 때, 그것은 적당한 제어 신호들을 상기 스탭퍼 모터 36으로 보내고 그래서 상기 모터는 X 축에 대해 각 θ에 위치되도록 그것의 레퍼런스 포지션으로부터 그것의 드라이브 샤프트를 회전시킨다. 이것은 결론적으로 도1a의 수직 벡터N R 에 의해 도시되듯이, X 축에 대해 각 θ 만큼 디스플레이 및 디스플레이 스크린에 대한 수직 벡터를 회전시킨다. 그래서, 디스플레이 스크린의 수직 벡터N R 은 벡터R에 평행하게 회전된다. 그리고 디스플레이 스크린 24a는 사용자 10으로 직접 가리켜진다. (즉, 디스플레이 스크린 24a의 평면은 회전되어 시청자 10이 스크린을 시청하는, 벡터R에 평행인 벡터V에 수직이 된다.) 만일 디스플레이 스크린 24a가 처음에 방향지워지지 않아서 그것의 수직 벡터가 X 축에 따라 있지 않는다면, 제어 유닛 52(이것은 디스플레이의 방향성을 추적한다.)는 그것의 다른 처음 포지션으로부터 디스플레이 24를 회전시키고 상기 디스플레이 스크린의 수직 벡터는 X 축에 대해 각 θ에 놓여진다.
바로 위의 설명에서, 사용자 10의 각 포지션 θ는 제어 유닛 52에 의해 알려지거나 결정된 것으로 예측되었고, 상기 디스플레이 24는 상기 디스플레이 스크린 24a가 사용자 10을 향하도록 회전되었다. 단순한 실시예에서, 상기 제어 유닛 52는 도1a에 대해 설명된 통상의 레퍼런스 시스템에서 사용자 10의 포지션을 손으로 수신 및 저장할 수 있다. 상기 제어 유닛 52는 사용자 10의 X 및 Z 좌표들을 수신 및 저장할 수 있고 각 θ를 계산할 수 있다. 그렇지 않으면 제어 유닛 52는 상기 각 θ를 수신 및 저장할 수 있다. (물론, 일반적으로 레퍼런스 좌표계는 도1a에 도시된 것과 다른 포지션에 위치될 수 있다. 그러한 경우에, 상기 제어 유닛 52는 얼마나 많이 디스플레이를 회전시킬 것인가를 결정하기 위해 사용자의 좌표들을 먼저해석할 수 있다(도1a에 도시된 것과 같이).)
도1의 시스템 20은 또한 자동적으로 상기 레퍼런스 좌표계 내에서 사용자 및 사용자의 각 포지션을 식별할 수 있다. 일단 사용자의 포지션이 시스템에 의해 자동적으로 결정된다면, 이하에서 더 자세히 설명되다시피, 상기 제어 유닛 52는 이전에 설명되었다시피 사용자를 향하게 하기 위해 상기 디스플레이를 회전시킨다.
자동적으로 존재 및 만일 존재한다면 도1의 사용자 10의 위치를 검출하기 위해, 시스템 20은 카메라 48에 의해 캡처링되고 제어 유닛 52에 의해 처리된 이미지들에 의존한다. 위에서 언급되었다시피, 카메라 48은 디스플레이 24 위에 위치되고 디스플레이 스크린 24a의 수직 시청 영역 쪽으로 방향지워 진다. 예를 들어, 그래서 상기 카메라 렌즈의 중심 축은 축 X와 평행하다. 도2의 이미지들은 제어 유닛 52로 전송된다. 여기에서 그것은 예를 들어 그것에 로딩된 알려진 이미지 인식 소프트웨어를 사용하여 처리된다. 이미지 인식 알고리즘은 사용자 10과 같은 인체의 윤곽선들을 인식하기 위해 사용될 수 있다. 대안적으로, 얼굴들을 인식하는 이미지 인식 소프트웨어가 사용될 수 있거나 사용자 10의 얼굴과 같은 특정 얼굴 또는 얼굴들을 인식하도록 프로그램될 수 있다. 특히, 기존의 이미지 인식 기술들이 상대적으로 정적인 포지션에 있는(도2의 의자에 위치된 것과 같은) 사용자의 얼굴을 식별하기 위해 프로그램될 수 있다. 검출된 이미지에 기초하여, 상기 제어 유닛은 또한 상기 디스플레이가 상기 사용자를 향하기 위해 회전되어야 하는 축 Y를 기준으로 한 각을 결정할 수 있다. 예를 들어, 상기 이미지 인식 소프트웨어는 또한 사용자의 얼굴의 포즈 또는 각 기울기를 검출함으로써 상기 각을 또한 식별할 수 있다.대안적으로, 상기 제어 유닛의 소프트웨어는 기하학적 고려점들을 사용하는 각을 결정하기 위해 이미지에 있는 사용자의 얼굴의 포지션을 사용할 수 있다. 일단 Y를 기준으로 한 회전의 각이 결정되면(예를 들어, 도1에서 각 θ), 상기 디스플레이는 위에서 설명되었다시피 스탭퍼 모터 36으로 제어 신호들을 보내는 제어 유닛 52에 의해 회전된다.
이미지 인식 소프트웨어는 제어 유닛 52에 로딩되고 카메라 48로부터 수신된 이미지들을 처리하기 위해 그곳에 있는 프로세서에 의해 사용된다. 카메라에 의존하여, 상기 이미지들은 일련의 불연속적 이미지들 또는 비디오 프레임들이 될 수 있다. 상기 제어 유닛 52에 의해 처리되는 이미지들은 예를 들어, 디지털 카메라 또는 디지털 비디오 카메라의 CCD 배열에 있는 픽셀들의 배열에 의해 캡처링되고 제어 유닛 52로 전달되는 강도 데이터(intensity data)가 될 수 있다. 이미지 인식을 위해 사용되는 제어 유닛 52의 메모리를 포함하는 부속들은 별개일 수 있거나 상기 디스플레이 24의 다른 기능들과 공유될 수 있다.
도2에 있는 사용자 10의 실선 표현(solid representation)은 도1에 도시된 포지션에 있을 때 카메라 48에 의해 캡처링된 사용자 10의 이미지를 묘사한다. 언급되었다시피, 일련의 이미지들은 카메라 48에 의해 캡처링되고 제어 유닛 52로 전달 및 처리될 수 있다. 더 전형적으로는, 상기 디스플레이 스크린을 시청하는 사용자 10은 도2의 실선 표현에 의해 도시된 바와 같이 예를 들어, 리클라이너(recliner) 또는 카우치(couch)에 앉아 있는 것과 같이 상대적으로 정적일 것이다. 그러한 경우에, 캡처링되고 처리되는 대응 일련의 이미지들은 대략적으로 모두 도2에 도시된 사용자 10의 실선 렌디션(solid rendition)처럼 보일 것이다.
그러나, 사용자가 먼저 카메라 48의 시야 필드로 이동할 때, 상기 사용자는 동작 중에 있을 것이다. 예를 들어, 도2에서 점선으로 나타난 바와 같이, 연속된 이미지들은 처음에 카메라 48의 시야 필드로 걸어와서(이 경우 오른쪽으로부터) 의자에 앉는 사용자 10을 보여줄 것이다. 사용자 10이 그리고 나서 연장된 시간 기간 동안 정적으로 머물 수 있다고 할지라도(캡처링 및 처리된 연속된 이미지들 사이에 움직임이 거의 없거나 전혀 없는), 상기 사용자는 예를 들어 리클라이너로부터 카우치로와 같이 정기적으로 이동할 수 있다.
한가지 실시예에서, 제어 유닛 52의 이미지 처리 소프트웨어는 카메라 48의 시야의 필드에 있는 사용자 10의 존재를 먼저 검출하기 위해 수신된 일련의 이미지들을 사용한다. 언급했다시피, 사용자 10이 먼저 시야 필드에 나타났을 때, 예를 들어 도2에 점선으로 나타난 바와 같이 의자 쪽으로 움직이는 것과 같이 그는 전형적으로 움직임 중에 있을 것이다. 그래서 상기 이미지 처리 소프트웨어는 처음에 움직이는 물체를 검출 및 추적하기 위해 연속된 이미지들을 비교한다. 상기 검출 및 추적의 알려진 기술에서, 예를 들어, 함수 S(x,y,t)의 값들은 이미지에 대한 이미지 배열에 있는 각각의 픽셀 (x,y)에 대해 계산되고 각각의 연속된 이미지는 시간 t에 의해 다음과 같이 나타내어 진다.:
여기에서 G(t)는 가우스 함수이고 I(x,y,t)는 이미지 t에 있는 각 픽셀의 강도(명암도, intensity)이다. 이미지에 있는 모서리의 움직임은 S(x,y,t)에서의 시간적 영-교차(temporal zero-crossing)에 의해 식별된다. 그러한 영 교차들은 이미지에서 묶여질 것이고 그러한 움직이는 모서리들의 묶음은 움직이는 신체의 윤곽을 제공할 것이다.
상기 묶음들은 그들의 포지션, 움직임 및 형태에 기초하여 연속된 이미지들에서 추적된다. 묶음이 작은 수의 연속된 프레임들에 대해 추적된 후, 그것은 예를 들어 일정한 높이 및 폭을 갖는 것("바운딩 박스", "bounding box")으로서 모델링될 것이고 연속된 이미지들에 있는 바운딩된 박스의 반복된 모습은 모니터링되고 양이 재어질 수 있다(예를 들어 퍼시스턴스 파라미터(persistence parameter)를 통해). 만일 이미지에서의 이동 중인 신체가 사람인 것으로 예측된다면, 머리의 위치가 소프트웨어에 의해 움직이는 신체에 대한 바운딩된 박스의 꼭대기에 있는 것으로 추정될 것이다.
이러한 방법으로, 제어 유닛 52는 카메라 48의 시야 필드로 움직이는 사용자를 검출 및 추적할 수 있고, 구체적으로 상기 사용자의 머리의 대략적 위치를 검출 및 추적할 수 있다. 위에 설명된 검출 및 추적 기술은 "Tracking Faces" by McKenna and Gong, Proceedings of the Second International Conference on Automatic Face and Gesture Recognition, Killington, Vt., October 14-16, 1996, pp.271-276에서 더 자세히 설명될 것이다. 상기 내용은 여기에서 레퍼런스로서 통합되어 있다.(상기 언급된 페이퍼의 섹션2는 복수 움직임들의 추적을 설명한다.)
일단 사용자가 정적으로 되면, 예를 들어, 사용자 10이 도1 및 2에서 도시된 바와 같이 의자에 앉을 때, 신체(및 머리)의 움직임은 위에서 언급된 바와 같이 상대적으로 정적일 것이다. 그래서, 퍼시스턴스 파라미터는 감소할 것이다. 그러나, 상기 퍼시스턴스 파라미터가 특정 임계치 밑으로 감소할 때(검출된 신체가 정적인 것으로 된다는 것을 가리키는), 사용자의 머리의 대략적인 위치는 검출 및 추적 루틴(detection and tracking routine)으로부터 제어 유닛 52로 결정된다. 그래서, 제어 유닛 52는 카메라 48로부터 수신된 후속하는 이미지들의 부분에 초점을 맞추는 얼굴 인식의 별개 또는 부가적인 기술을 시작할 수 있다.
그래서, 제어 유닛 52는 이미지에 있는 윤곽에 정합하도록(to conform) 단순한 형태 정보(예를 들어, 타원 맞춤(ellipse fitting) 또는 고유 실루엣들)를 적용하는 알려진 기술들을 사용하여 이미지에 있는 정적인 얼굴을 식별할 수 있다. 얼굴의 다른 구조가 식별에 사용될 수 있다(코, 눈, 등등). 얼굴의 대칭 및 전형적인 피부 톤들도 또한 사용될 수 있다. 더 복잡한 모델링 기술은 얼굴들을 큰 다차원 초공간들에 있는 점들로서 모델링하는 광도 표현들을 사용한다. 여기에서 얼굴 특징들의 공간적 배열은 얼굴의 내부 구조의 전체적 표현 내에 인코딩된다. 얼굴 검출은 "얼굴" 또는 "비얼굴" 로서 상기 이미지 내의 패치들을 분류함으로써 달성된다. 예를 들어, 상기 패치들을 상기 이미지 초공간의 특정 서브-공간에 대한 얼굴들의 모델들과 비교함으로써 확률 밀도 추정을 결정함으로써 달성된다.
얼굴 검출은 대안적으로 정면의 또는 정면 가까이의 광경들을 검출하기 위해 제어 유닛 52 내에서 지원되는 신경망(neural network)을 트레이닝함으로써(bytraining) 달성될 수 있다. 상기 망은 많은 얼굴 이미지들을 사용함으로써 트레이닝될 수 있다. 상기 트레이닝 이미지들(training images)은 예를 들어 상기 얼굴 이미지들 상에 중심지워진 표준 타원형 부분 상에 초점 맞추도록 스케일링(scaling)되고 마스킹(masking)된다. 트레이닝 이미지들의 광 강도(light intensity)를 등화시키기 위한 많은 알려진 기술들이 적용될 수 있다. 상기 트레이닝은 트레이닝 얼굴 이미지들의 스케일 및 상기 얼굴 이미지들의 회전을 조정함으로써 확장될 수 있다(그래서 상기 이미지의 포즈를 수용시키기 위해 상기 망을 트레이닝한다.). 상기 트레이닝은 또한 폴스-포지티브 비-얼굴 패턴들(false-positive non-face patterns)의 역-진행(back-propagation)을 포함한다.
상기 제어 유닛 52는 (이전에) 움직이는 이미지들로부터 제어 유닛 52에 있는 그러한 트레이닝된 신경망 루틴으로 상기 머리(위에서 설명된 움직임 검출 및 추적 기술에 식별된 것과 같이)에 대응하도록 추정된 부분을 제공할 수 있다. 상기 신경망은 상기 이미지 부분을 처리하고 그것이 그것의 이미지 트레이닝에 기초한 얼굴 이미지인가를 결정한다.
위에서 설명되었다시피, 얼굴 검출 루틴(신경망 또는 다른)은 상대적으로 정적인 이미지 상에서 사용될 수 있다. 신경망(또는 다른 얼굴 검출 기술)에 의한 포지티브 얼굴 검출은 또한 움직이는 신체의 추적을 지원하기 위해 제어 유닛 52의 검출 및 추적 루틴과 연관되어 사용될 수 있다. 다양한 얼굴 검출 기술들이 알려져 있고 상기 신경망 기술이 앞서 언급된 "Tracking Faces" 페이퍼에 더 자세히 설명되어 있다. 신경망을 사용하는 얼굴 검출의 부가적인 상세한 것들(성, 민족, 및 포즈와 같은 다른 얼굴의 하위 분류들의 검출도 역시)은 "Mixture of Experts for Classification of Gender, Ethnic Origin and Pose of Human Faces" by Gutta, Huang, Jonathon and Wechsler, IEEE Transactions on Newral Networks, vol. 11, no.4, pp.948-960(July 2000)에 설명되어 있다. 상기의 내용은 여기에서 레퍼런스로서 통합되어 있고 이하에서 "Mixture of Experts" 페이퍼로서 언급된다.
언급되었다시피, 신경망 루틴(또는 다른 얼굴 검출 기술)은 대표적인 포즈들의 집합을 사용하여 검출된 얼굴의 포즈를 추정하는 포즈 분류를 포함하도록 확장될 수 있다. 상기 Mixture of Experts 페이퍼는 포즈 분류를 통합하는 신경망 루틴의 상세한 설명을 제공한다. 도1에 도시된 것과 같이 디스플레이를 보고 있는 사용자에 대해, 카메라 48의 이미지에서 검출된 얼굴은 카메라의 광학 축에 대해 사용자의 각 변위(angular displacement) 때문에 그것과 관련된 포즈를 가질 것이다. 그래서, 제어 유닛 52에 저장된 각각의 대표적인 포즈에 대해, 제어 유닛 52는 또한 사용자 10의 각 변위를 반영하는 관련된 각을 저장할 것이다. 도1a를 다시 참조하면, 카메라 48의 광학 축은 레퍼런스 축 X와 나란히 배열된다. 그래서, 사용자 10의 검출된 포즈에 대응하는 각은 각 θ와 같을 것이다. 따라서, 상기 제어 유닛 52가 이미지들로부터 사용자 10의 포즈를 검출한 후, 상기 포즈에 대응하는 각이 또한 제어 유닛 52에 있는 메모리로부터 검색된다(이것은 도1에서 각 θ와 같을 것이다.). 그리고 위에서 설명되었다시피, 상기 제어 유닛 52는 상기 디스플레이 24를 각 θ로 회전시키기 위해 적합한 신호들을 스탭퍼 모터 36으로 보낸다. 그래서 상기 디스플레이 스크린 24a는 상기 검출된 얼굴 및 포즈에 기초하여 상기 사용자10을 향하도록 자동적으로 회전된다.
제어 유닛 52에 의한 자동적 이미지(얼굴) 검출의 상기 설명된 예시적 실시예는 움직이는 신체를 추정하는 것을 포함하는 이미지 검출 및 포즈 검출을 포함하는 얼굴 검출에 의존한다. 전형적인 시나리오에서, 사용자 10은 방에 들어와서 TV와 같은 디스플레이 스크린을 보기 위해 상대적으로 더 긴 기간 동안 앉아 있을 것이다. 일반적으로, 사용자가 방을 걸어 돌아 다니는 동안 디스플레이를 움직이게 하는 것을 방지하기 위해 상기 디스플레이는 사용자가 임계치 시간 기간 동안 정적인 것으로 검출될 때까지 움직이지 않을 것이다. 그래서, 상기 제어 유닛 52는 움직이는 신체(또한 상기 신체의 얼굴에 대응하는 이미지의 추정된 영역을 식별하도록)를 검출 및 추적하도록 프로그램될 것이다. 일단 상기 신체가 임계치 기간 동안 상대적으로 정적인 포지션에 머물고 있는 것으로 결정되면, 상기 얼굴 및 포즈 검출 루틴이 그것이 얼굴인지, 만약 그렇다면 대응하는 포즈인지를 확인하기 위해 상기 추정된 영역에 적용될 것이다. 그리고 나서 상기 포즈에 대응하는 각이 상기 디스플레이 24를 회전시키기 위해 제어 유닛 52에 의해 사용된다. 그래서 그것은 (지금은 정적인) 사용자 10을 향하게 된다. 만일 사용자 10이 다시 움직인다면, 상기 움직임은 추정된다. 그리고 만일 상기 사용자가 임계치 시간 기간 동안 다시 정적으로 된다면, 상기 디스플레이는 새롭게 결정된 포즈 및 대응하는 각에 기초하여 다시 조정될 것이다.
위에서 언급되었다시피, 얼굴 검출 루틴은 예를 들어 신체가 여전히 움직이고 있는 동안 신체의 추정된 영역이 실제로 얼굴인지를 보도록 체크함으로써 움직이는 신체의 검출 및 추적을 보충하기 위해 사용될 수 있다. 그러나 언급되었다시피, 몇몇 애플리케이션들에서는 상기 디스플레이가 사용자의 움직임을 추적하기 위해 회전될 수 있다고 할 지라도 상기 디스플레이는 일반적으로 사용자 10이 상대적으로 정적으로 되기 전까지는 움직여지지 않을 것이다. 위에서 또한 언급되었다시피, 제어 유닛 52는 레퍼런스 포지션으로부터의 디스플레이 24의 회전의 양을 추적한다(예를 들어, 여기에서N x 는 X축에 따라 놓인다.). 여기에서 상기 디스플레이는 이전에 이 시작 포지션으로부터 회전되었고, 제어 유닛 52는 검출된 포즈에 대응하는 다른 각으로 회전할 때 이전 회전을 고려한다. 덧붙여서, 위에서 설명된 얼굴 및 포즈 검출 루틴은 검출 및 추적 루틴 없이 일련의 이미지들에 직접 적용될 수 있다. 이것은 적어도 처음에, 신경망에 의한 전체 이미지의 처리(또는 다른 이미지 검출 처리 기술들)를 요구한다. 일단 얼굴 이미지가 검출되면, 연속된 이미지들의 부분은 상기 처리에 의해 초점 맞추어질 수 있다.
게다가, 이미지 인식 소프트웨어는 특정 얼굴들을 인식하도록 프로그램될 수 있고, 그래서 오직 인식될 때 디스플레이를 그러한 얼굴들로 조정한다. 상기 특정 얼굴들은 가족 구성원들 또는 특정 컴퓨터 디스플레이를 사용하는 사람들일 수 있다. 얼굴 인식의 신경망 기술에서, 상기 망은 상기 특정 사용자들의 이미지들을 사용하여 트레이닝될 수 있다. 다른 사람들의 얼굴들은 네거티브 매치들(예를 들어, 폴스-포지티브 지시들(false-positive indications))로서 트레이닝에 사용될 수 있다. 상기 이미지 검출 소프트웨어는 또한 카메라 48로부터 수신된 이미지들에 있는복수의 사용자들(시청자들)을 검출할 수 있다. 그러한 경우에, 상기 검출 소프트웨어는 이미지에서의 중앙 시청 포지션(예를 들어, 시청자들의 포지션들의 공간적 평균에 기초하여, 또는 특정 인식된 시청자들을 고려하는 가중된 평균에 기초하여)을 결정할 수 있고 상기 디스플레이를 그 포지션을 향하도록 조정할 수 있다. 상기 제어 유닛 52는 가장 가까운 시청자의 포즈와 관련된 각으로부터 보외함으로써(by extrapolating) 또는 예를 들어 이하에 설명된 기하학적 결정을 사용함으로써 평균 포지션 자체의 각 포지션을 결정함으로써 평균 포지션의 각 방향을 결정할 수 있다.
또한, 제어 유닛 52의 소프트웨어는 시간에 따른 사용자 또는 사용자들의 검출된 정적인 포지션들(각 포지션들과 같은)을 저장할 수 있다. 여기에서 사용자의 포지션(또는 포지션들)이 제어 유닛 52에 의해 시간에 따라 반복되는 것으로 발견된다면, 상기 제어 유닛은 상기 포지션이 디폴트 포지션인 것으로 결정할 수 있다. 예를 들어, 제어 유닛 52는 특정 수의 검출들에 걸쳐서 임계치 수의 횟수들 만큼 그 각(또는 그 각 주위에 중심 맞추어진 각들의 작은 범위)에 사용자가 검출되는 각이 디폴트 포지션인 것으로 결정한다. 상기 디폴트 포지션 또는 포지션들은 이미지에 있는 사용자를 식별하도록 돕기 위해 수신된 이미지의 대응하는 부분들 상에 이미지 인식 처리를 초점 맞추기 위해 제어 유닛 52에 의해 사용될 수 있다. 그래서, 디폴트 포지션(들)은 위에서 설명되었다시피 이미지 검출 및 추적 루틴을 보충하기 위해 제어 유닛 52에 의해 사용될 수 있다. 만일 상기 검출 및 추적 루틴이 사용되지 않는다면, 상기 디폴트 포지션(들)은 위에서 설명된 얼굴 검출 루틴을 적용하기 위해 수신된 이미지들에서 소프트웨어에 시작점을 준다.
또한, 빈번하게 검출되는 디폴트 포지션에 대해, 상기 제어 유닛 52는 스탭퍼 모터 26의 드라이브 샤프트의 레퍼런스 포지션을 조정할 수 있다. 그래서 디스플레이 스크린 24a의 수직 벡터는 상기 각에 놓이게 된다. 그래서, 도1a를 참조하면, 만일 사용자 10의 포지션이 빈번하게 각 θ에 놓이도록 결정된다면, 제어 유닛 52는 레퍼런스 포지션이 수직 벡터(N R )이R을 따라 놓이도록 다시 조정될 수 있다. 그러한 경우에, 시스템은 카메라 48을 회전시켜 그것의 광학축이R에 평행하도록 제어 유닛 52에 의해 제어되는 제2 스탭퍼 모터를 또한 가질 수 있다. 만일 카메라 48이 그렇게 회전된다면, 카메라에 의해 수신된 이미지들로부터 제어 유닛 52에 의해 검출된 사용자의 각 포지션은 디스플레이 24의 재조정된 레퍼런스 포지션에 대응할 것이다. 그러나, 만일 카메라 48의 광학축이 X축에 대해 움직여질 수 없다면, 제어 유닛 52는 디스플레이 24를 사용자의 검출된 포지션으로 회전시키기 전에 사용자의 검출된 각 포지션(X축에 대해)을 디스플레이 24의 새로운 레퍼런스 포지션(R을 따라)으로 변환해야 할 것이다.
대안적인 실시예에서, 검출된 사용자의 포즈의 검출은 카메라 48에 의해 캡처링된 사용자 10의 이미지들로부터의 사용자의 각 θ의 기하학적 결정으로 대체된다. 카메라 48에 의해 캡처링된 이미지는 상기 실시예에서 설명된 바와 같이 인간 신체, 특정 얼굴 등등의 윤곽을 검출하는 이미지 인식 소프트웨어를 포함하는 처리 유닛 52로 전달된다. 그래서, 상기 소프트웨어는 움직임 검출 및 처리 루틴 및 위에서 설명된 신경망 얼굴 인식 루틴, 또는 대안적인 알려진 얼굴 인식 처리를 포함할 수 있다. 이미지에서 검출된 신체 또는 얼굴의 위치는 도1의 레퍼런스 좌표계에서 사용자 10의 포지션에 대응하는 각 θ를 결정하기 위해 제어 유닛에 의해 사용된다. 예를 들어, 도2a를 참조하면, 각 θ의 제1 차 결정은 다음과 같다.: θ=(x/W)(P) 여기에서 x는 이미지의 중심 C로부터 제어 유닛 52에 의해 측정된 수평 이미지 거리이고, W는 제어 유닛 52에 의해(또는 제어 유닛 52 안에 이미 프로그램된) 결정된 이미지의 총 수평 폭이고, P는 시각의 필드(field of view), 또는, 동등하게는, 씬(scene)의 각 폭이고, 카메라에 의해 고정되다시피, 그것은 제어 유닛 52 안으로 프로그램된다. 언급되었다시피, 일단 각 θ가 결정되면, 제어 유닛 52는 제어 신호들을 스탭퍼 모터 36으로 보내고 그래서 상기 디스플레이 24는 각 θ 만큼 회전되고 그래서 사용자 10을 향하게 된다.
도1의 시스템은 3개의 차원들로 디스플레이의 얼굴의 움직임에 적응될 수 있다. 즉, 그래서 상기 디스플레이는 또한 도1a에 있는 축 H 주위를 회전한다. 디스플레이의 지지대는 예를 들어 짐벌 지지대(gimbaled support)를 사용하여 Y 및 H 축 둘 모두를 따라 회전하도록 허용하고 회전에 대해 별개의 스탭퍼 모터들을 갖도록 쉽게 적응될 수 있다. 위에서 설명된 것과 같은 이미지 검출 및 처리 소프트웨어는 또한 축 H 주위의 요구된 회전의 각을 검출하도록 적응될 수 있다. 그래서, 도1에 도시된 것과 같은 디스플레이를 보는 사용자에 대해, 사용자의 얼굴은 카메라의 바로 앞에 위치된 얼굴에 대해 위 또는 아래로 이동되어질 것이기 때문에, 카메라 48의 이미지에서 검출된 얼굴은 또한 그것과 관련된 포즈를 가질 것이다. 그래서, 제어 유닛 52에 저장된 각각의 대표적 포즈는 카메라 48의 광학축 위 또는 밑으로의 각 이동을 반영하는 제2 대응 각을 가질 수 있다. 대표적 포즈가 결정될 때, 대응하는 제2 각이 제2 스탭퍼 모터가 축 H를 기준으로 디스플레이를 제2 각과 같은 각으로 회전시키도록 제어하기 위해 제어 유닛 52에 의해 사용된다. 대표적 포즈와 관련된 제1 각은 위에서 설명되었다시피 Y(즉, θ)를 기준으로 디스플레이의 회전에 영향을 미치도록 제어 유닛에 의해 사용된다.
상기 실시예들이 디스플레이 및 디스플레이 스크린이 집적된 유닛인 시스템에 초점 맞추어져 있을지라도, 본 발명은 디스플레이 스크린이 홈 시어터 시스템과 같은 디스플레이 시스템의 다른 요소들로부터 별개인 디스플레이 시스템들에 쉽게 적용된다. 그러한 경우들에 , 디스플레이의 프로젝션 부속들은 디스플레이 스크린의 운동에 상호관계된다. 프로젝션 부속들 및 디스플레이 스크린은 사용자에게 조정하기 위해 단일 유닛으로서 그들을 이동시키는 공통의 지지대 구조 및 스탭퍼 모터(또는 다른 드라이버)를 가질 수 있다. 대안적으로, 프로젝션 부속들 및 디스플레이 스크린은 제어 유닛 52에 의해 각각의 모터로 보내진 제어 신호들에 기초하여 사용자로 조정하기 위해 앞뒤로 나란히 움직이는 별개의 지지대 구조 및 별개의 스탭퍼 모터들(또는 다른 드라이버들)을 가질 수 있다.
또 다른 대안적 실시예에서, 제어 유닛 52는 핸드 제스처들을 인식하는 이미지 검출 소프트웨어를 갖도록 프로그램될 수 있다. 핸드 제스처 인식의 기술들은 예를 들어 "Hand Gesture Recognition Using Ensembles Of Radial Basis Function(RBF) Networks And Decision Trees" by Gutta, Imam and Wechsler,International Journal of Pattern Recognition and Artificial Intelligence, vol.11, no.6, pp.845-872(1997)에서 알려지고 설명된다. 상기의 내용들은 여기에서 레퍼런스로서 통합된다. 도1의 제어 유닛 52는 핸드 제스처들에 대한 이미지 인식 소프트웨어를 포함할 수 있다. 여기에서 특정 핸드 제스처들은 다양한 방향들로 디스플레이를 회전시키도록 하는 명령들이다. 사용자 10의 이미지들은 다시 카메라 48에 의해 캡처링되고 이미지 인식 분석을 위해 제어 유닛 52로 보내진다. 만일 제어 유닛 52가 디스플레이 24의 움직임에 대해 예정된 명령에 대응하는 사용자 10의 핸드 제스처를 검출한다면, 제어 유닛 52는 그에 따라 디스플레이 24를 움직이기 위해 적당한 제어 신호들을 스탭퍼 모터 36에 전송한다. 예를 들어, 카메라 48에 의해 캡처링되고 제어 유닛 52에 인식된 수평 방향으로 가리키고 있는 편평한 손의 검출된 이미지는 상기 손이 가리키고 있는 방향으로 디스플레이를 회전시키라고 지시할 수 있다. 제어 유닛 52는 일련의 제어 신호들을 스탭퍼 모터 36으로 보낼 수 있고, 각각의 신호는 디스플레이가 적합한 방향으로 2%만큼 이동하도록 유발한다. 제어 유닛 52가 상기 이미지들의 핸드 제스처가 사용자 10에 의해 거두어 들여졌다고 결정된 때, 상기 회전은 중지된다. 사용자는 핸드 신호들을 알고 그래서 바람직한 양으로 디스플레이의 움직임을 제어할 수 있다.
또한, 특정 핸드 제스처는 디스플레이 스크린의 특정 각 포지션에 대응하도록 세팅될 수 있다. 상기 제스처는 예를 들어 디스플레이 24가 바람직한 포지션에 있을 때, 사용자에 의해 디스플레이 스크린 상의 메뉴로부터 선택될 수 있다. 제어 유닛 52는 선택된 핸드 제스처를 각 포지션에 상호관계시키고, 상기 제스처가 나중에 검출되었을 때, 상기 디스플레이를 상기 포지션으로 회전시킨다. 다른 제스처들은 다른 시청 포지션들에 대응할 수 있다. 제어 유닛에서 특정 핸드 제스처에 대한 각을 세팅하는 다른 방법들이 사용될 수 있다.
또 다른 대안적 실시예에서, 도1의 카메라 48은 마이크와 같은 오디오 픽업으로 대체된다. 제어 유닛 52는 "왼쪽으로 회전" 및 "오른쪽으로 회전"과 같은 마이크로부터 전송된 특정 명령 단어들을 인식하는 스피치 인식 소프트웨어를 포함한다. 그러한 명령이 인식되었을 때, 제어 유닛 52는 디스플레이가 특정 방향으로 Y 축을 기준으로 예정된 양(2%와 같은)으로 회전하도록 유발한다. 사용자 10은 동일한 방향으로 움직임을 계속하도록 명령을 반복할 수 있다. 또 다른 명령은 회전의 역 방향에 대응하고, 각이 그의 바램에 맞게 조정되었을 때 움직임을 정지시킨다. 대안적으로, "왼쪽으로 회전" 과 같은 움직임 시작 명령을 수신하면, 제어 유닛은 끝내기 명령("정지"와 같은)이 수신될 때까지, 또는 디스플레이의 최대 각 이동 범위에 이르기까지 명령된 방향으로 디스플레이를 회전시키기를 계속할 수 있다.
일단 디스플레이 24가 사용자의 빈번한 시청 포지션을 향하도록 위치되면, 사용자는 스피치 인식 소프트웨어가 인식하는 디폴트 세팅 명령("세팅 디폴트 포지션 A"와 같은)을 또한 줄 수 있다. 제어 유닛 52는 사용자 음성 명령을 디스플레이의 각 포지션과 관계시키기 위해 디폴트 세팅 명령을 사용한다. 스피치 인식 루틴이 후속적으로 상기 관련된 사용자 명령("포지션 A로 이동"과 같은)을 인식할 때, 제어 유닛은 디스플레이를 상기 각으로 회전시킨다. 디폴트 포지션(또는 포지션 B, C 등등과 같은 복수 디폴트 포지션들)은 예를 들어 온-스크린 메뉴를 사용하는 것과 같은 다른 방법들로 특정 음성 명령들에 대해 제어 유닛 52에서 세팅될 수 있다.
또한, 핸드 제스처 및 스피치 인식 경우들에서, 상기에서 이미지 검출 경우에 대해 설명된 바와 같이, 제어 유닛 52는 빈번하게 검출되는 사용자 포지션에 기초하여 디스플레이 24의 레퍼런스 포지션을 조정할 수 있다.
인간 신체와 같은 동적인 윤곽들을 검출 및 추적하는 다양한 다른 방법들이 개발되었고, 이는 위에서 설명된 것과 유사한 방법들로 본 발명에 적응될 수 있다. 예를 들어, 비디오 이미지에 있는 사람들의 신체들(또는 예를 들어 머리 또는 손들)을 발견 및 뒤따르는 "person finder"는 "Pfinder: Real-Time Tracking Of the Human Body" by Wren et al., M.I.T. Media Laboratory Perceptual Computing Section Technical Report No.353, published in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.19, no.7, pp780-85(July 1997)에 설명되어 있다. 그 내용은 여기에서 레퍼런스로서 통합되어 있다. 템플레이트 매칭 접근 방법을 사용하는 이미지 내에 있는 사람(보행자)의 검출은 "Pedestrian Detection From A Moving Vehicle" by D.M.Gavrila(Image Understanding Systems, DaimlerChrysler Research), Proceedings of the European Conference on Computer Vision, 2000(www.gravila.net에서 이용가능한)에 설명되어 있다. 그 내용은 여기에서 레퍼런스로서 통합되어 있다. 이미지에 있는 정적 물체의 검출을 위한 확률적 샘플링 알고리즘의 사용 및 물체 움직임의 검출을 위한 확률론적 모델은 "Condensation-Conditional Density Propagation For Visual Tracking" Isard andBlack(옥스포드대 공학과), Int. J. Computer Vision, vol.29, 1998("Condensation" 소스 코드와 함께 www.dai.ed.ac.uk/CVonline/LOCAL COPIES/ISARD1/condensation.html)에 설명되어 있다. 이미지들(디지털 이미지들을 포함하는)에 있는 얼굴들을 인식할 수 있는 소프트웨어는 상업적으로 이용가능하다. "FaceIt"과 같은 소프트웨어는 Visionics에 의해 팔리고 www.faceit.com에 설명되어 있다.
본 발명의 예시적 실시예들이 여기에서 첨부된 도면들을 참조하여 설명되었다고 할지라도, 본 발명이 그러한 세밀한 실시예들에 한정되지 않고, 오히려 본 발명의 범위는 첨부된 청구범위의 범위에 의해 규정된다는 것이 의도되어진다.

Claims (17)

  1. 비디오를 사용자(10)에게 제공하는 비디오 디스플레이 스크린(24a)을 갖는 시스템(20)에 있어서, 상기 디스플레이 스크린(24a)의 포지션은 상기 디스플레이 스크린(24a)에 대한 사용자(10)의 위치에 기초하여 조정가능하고, 상기 시스템(20)은 상기 디스플레이 스크린(24a)의 시청 영역을 조준가능하고 이미지 캡처링 디바이스(image capturing device)(48)에 의해 발생된 이미지에서 상기 사용자(10)를 식별하는 이미지 인식 소프트웨어를 갖는 제어 유닛(52)에 연결된 적어도 하나의 이미지 캡처링 디바이스(48)를 포함하고, 상기 제어 유닛(52)의 소프트웨어는 또한 상기 이미지에 있는 사용자(10)의 검출에 기초하여 상기 사용자(10)의 포지션의 적어도 하나의 측정을 발생시키는, 비디오 디스플레이 스크린을 갖는 시스템.
  2. 제1 항에 있어서,
    상기 디스플레이 스크린(24a)은 디스플레이 프로젝션 부속들을 또한 통합시킨 집적된 디스플레이 유닛(24)의 일부인, 비디오 디스플레이 스크린을 갖는 시스템.
  3. 제1 항에 있어서,
    상기 디스플레이 스크린은 홈 시어터 시스템에 있는 스크린인, 비디오 디스플레이 스크린을 갖는 시스템.
  4. 제1 항에 있어서,
    상기 제어 유닛(52)은 상기 디스플레이 스크린(24a)에 대한 수직 벡터가 상기 사용자(10)를 향하게 하기 위해 상기 디스플레이 스크린(24a)의 포지션을 조정하고, 상기 제어 유닛(52)은 상기 디스플레이(24a)의 포지션을 조정하기 위해 상기 사용자(10)의 포지션의 적어도 하나의 측정을 사용하는, 비디오 디스플레이 스크린을 갖는 시스템.
  5. 제4 항에 있어서,
    상기 사용자(10)의 포지션의 적어도 하나의 측정은 상기 이미지 인식 소프트웨어에 의해 이미지에서 검출된 사용자의 얼굴의 포즈에 의해 결정되는, 비디오 디스플레이 스크린을 갖는 시스템.
  6. 제5 항에 있어서,
    상기 사용자(10)의 포지션의 적어도 하나의 측정은 레퍼런스 축 X에 대한 상기 사용자(10)의 각 변위(angular displacement) ħ이고, 상기 검출된 포즈는 상기 축 X로부터의 사용자의 각 변위 ħ에 상호관계되는, 비디오 디스플레이 스크린을 갖는 시스템.
  7. 제6 항에 있어서,
    상기 제어 유닛(52)은 상기 디스플레이 스크린(24a)에 대한 수직 벡터 N이 상기 레퍼런스 축 X에 대해 상기 사용자(10)의 각 변위 ħ를 갖도록 상기 디스플레이 스크린(24a)을 회전시키는, 비디오 디스플레이 스크린을 갖는 시스템.
  8. 제4 항에 있어서,
    상기 사용자(10)의 포지션의 적어도 하나의 측정은 상기 이미지 인식 소프트웨어에 의해 상기 이미지에 있는 사용자(10)의 포지션에 의해 결정되는, 비디오 디스플레이 스크린을 갖는 시스템.
  9. 제8 항에 있어서,
    상기 사용자(10)의 포지션의 적어도 하나의 측정은 레퍼런스 축 X에 대한 사용자(10)의 각 변위 ħ이고, 상기 제어 유닛은 상기 각 변위를 결정하기 위해 상기 이미지에 있는 검출된 사용자의 포지션을 사용하는, 비디오 디스플레이 스크린을 갖는 시스템.
  10. 제9 항에 있어서,
    상기 제어 유닛(52)은 상기 디스플레이 스크린(24a)에 대한 수직 벡터 N이 상기 레퍼런스 축 X에 대해 사용자(10)의 각 변위 ħ를 갖도록 상기 디스플레이 스크린(24a)을 회전시키는, 비디오 디스플레이 스크린을 갖는 시스템.
  11. 제1 항에 있어서,
    상기 제어 유닛(52)은 상기 이미지 캡처링 디바이스(48)에 의해 발생된 이미지에 있는 둘 또는 그 이상의 사용자들의 이미지들을 식별하고, 상기 제어 유닛(52)은 상기 이미지에 있는 사용자들의 검출들에 기초하여 상기 사용자들의 평균 포지션을 발생시키는, 비디오 디스플레이 스크린을 갖는 시스템.
  12. 제11 항에 있어서,
    상기 제어 유닛(52)은 상기 사용자들의 평균 포지션에 기초하여 상기 디스플레이 스크린(24a)의 포지션을 조정하는, 비디오 디스플레이 스크린을 갖는 시스템.
  13. 비디오를 사용자(10)에게 제공하는 비디오 디스플레이 스크린(24a)을 갖는 시스템(20)에 있어서, 상기 시스템(20)은 상기 디스플레이 스크린(24a)의 시청 영역을 조준가능하고 이미지 캡처링 디바이스(image capturing device)(48)에 의해 발생된 이미지에서 상기 사용자(10)의 하나 또는 그 이상의 제스처들을 식별하는 이미지 인식 소프트웨어를 갖는 제어 유닛(52)에 연결된 적어도 하나의 이미지 캡처링 디바이스(48)를 포함하고, 상기 제어 유닛(52)은 상기 이미지에 있는 사용자(10)의 식별된 제스처에 기초하여 상기 디스플레이 스크린(24a)의 방향성(orientation)의 조정을 야기시키는, 비디오 디스플레이 스크린을 갖는 시스템.
  14. 제13 항에 있어서,
    상기 사용자(10)의 검출된 하나 또는 그 이상의 제스처들은 핸드 제스처들(hand gestures)인, 비디오 디스플레이 스크린을 갖는 시스템.
  15. 제14 항에 있어서,
    상기 하나 또는 그 이상의 핸드 제스처들의 각각은 예정된 방향으로의 상기 디스플레이 스크린(24a)의 움직임에 상호관계되는, 비디오 디스플레이 스크린을 갖는 시스템.
  16. 비디오를 사용자에게 제공하는 비디오 디스플레이 스크린을 갖는 시스템에 있어서, 상기 시스템은 상기 디스플레이 스크린의 시청 영역으로부터 오디오 입력을 캡처링하고 상기 시청 영역에 있는 사용자에 의해 말해진 하나 또는 그 이상의 오디오 명령들을 식별하는 스피치 인식 소프트웨어를 갖는 제어 유닛에 연결된 적어도 하나의 오디오 캡처링 디바이스를 포함하고, 상기 제어 유닛은 상기 사용자로부터 수신된 식별된 오디오 명령들에 기초하여 상기 디스플레이 스크린의 방향성의 조정을 야기하는, 비디오 디스플레이 스크린을 갖는 시스템.
  17. 제16 항에 있어서,
    상기 하나 또는 그 이상의 오디오 명령들의 각각은 예정된 방향으로의 디스플레이 스크린의 움직임에 상호관계되는, 비디오 디스플레이 스크린을 갖는 시스템.
KR1020027014834A 2001-03-05 2002-02-21 시청자의 위치에 의존하는 디스플레이의 자동 포지션닝 KR20020094011A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/800,219 2001-03-05
US09/800,219 US6931596B2 (en) 2001-03-05 2001-03-05 Automatic positioning of display depending upon the viewer's location
PCT/IB2002/000553 WO2002071315A2 (en) 2001-03-05 2002-02-21 Automatic positioning of display depending upon the viewer's location or gesture

Publications (1)

Publication Number Publication Date
KR20020094011A true KR20020094011A (ko) 2002-12-16

Family

ID=25177797

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027014834A KR20020094011A (ko) 2001-03-05 2002-02-21 시청자의 위치에 의존하는 디스플레이의 자동 포지션닝

Country Status (6)

Country Link
US (1) US6931596B2 (ko)
EP (1) EP1368781A2 (ko)
JP (1) JP2004519721A (ko)
KR (1) KR20020094011A (ko)
CN (1) CN1457468A (ko)
WO (1) WO2002071315A2 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101504186B1 (ko) * 2009-11-18 2015-03-19 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 이동 감응 제어기를 통한 휴대용 장치의 상호작용
KR20170023651A (ko) * 2015-08-24 2017-03-06 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20210121772A (ko) * 2020-03-31 2021-10-08 엘지전자 주식회사 디스플레이 장치

Families Citing this family (195)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030064784A1 (en) 2001-09-28 2003-04-03 William Wells Wide screen gaming apparatus
JP2003317455A (ja) * 2002-04-26 2003-11-07 Mitsubishi Electric Corp 情報再生装置および情報再生方法
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US7134080B2 (en) * 2002-08-23 2006-11-07 International Business Machines Corporation Method and system for a user-following interface
JP3910898B2 (ja) * 2002-09-17 2007-04-25 株式会社東芝 指向性設定装置、指向性設定方法及び指向性設定プログラム
JP2006509256A (ja) * 2002-12-06 2006-03-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 装置の自動位置決めに関する機器及び方法
US7426329B2 (en) * 2003-03-06 2008-09-16 Microsoft Corporation Systems and methods for receiving, storing, and rendering digital video, music, and pictures on a personal media player
DE10313023B4 (de) * 2003-03-24 2006-02-23 GTG Gesellschaft für elektronische Geräte mbH Vorrichtung zur audiovisuellen Präsentation von Ton und Bild
US20040201595A1 (en) * 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7391888B2 (en) * 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
KR100528348B1 (ko) * 2003-11-26 2005-11-15 삼성전자주식회사 멀티 레이어 온 스크린 디스플레이의 입력 장치 및 이를위한 입력 신호 생성 방법
JP4425642B2 (ja) * 2004-01-08 2010-03-03 富士重工業株式会社 歩行者抽出装置
WO2005071656A1 (en) * 2004-01-20 2005-08-04 Koninklijke Philips Electronics, N.V. Message board with dynamic message relocation
JP4266878B2 (ja) * 2004-04-22 2009-05-20 Necディスプレイソリューションズ株式会社 映像表示装置
US20060007191A1 (en) * 2004-06-03 2006-01-12 International Business Machines Corporation System and method for adjusting a screen
JP2006017863A (ja) * 2004-06-30 2006-01-19 Nec Viewtechnology Ltd 映像表示システム、スクリーンユニット及びプロジェクタ
EP1769830A4 (en) * 2004-07-12 2009-12-30 Konami Digital Entertainment GAME MACHINE
US7454039B2 (en) * 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
KR200374579Y1 (ko) * 2004-11-19 2005-02-02 툴디자인 (주) 영상-음향 기기의 회전식 벽체 내장 시스템
GB0427548D0 (en) * 2004-12-15 2005-01-19 Ibm Data processing system
US20080030300A1 (en) * 2005-02-10 2008-02-07 Fujitsu Limited Information providing apparatus and information providing system
US7946921B2 (en) * 2005-05-23 2011-05-24 Microsoft Corproation Camera based orientation for mobile devices
JP4951881B2 (ja) * 2005-06-20 2012-06-13 株式会社日立製作所 画像表示装置および画像表示装置用スタンド
KR100708178B1 (ko) * 2005-09-01 2007-04-16 삼성전자주식회사 영상 처리 방법, 장치 및 영상 정보를 기록한 정보저장매체
US7843449B2 (en) * 2006-09-20 2010-11-30 Apple Inc. Three-dimensional display system
WO2007051118A2 (en) * 2005-10-25 2007-05-03 Nxstage Medical, Inc Safety features for medical devices requiring assistance and supervision
JP2007128288A (ja) * 2005-11-04 2007-05-24 Fuji Xerox Co Ltd 情報表示システム
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US8209620B2 (en) 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US9092834B2 (en) * 2005-12-09 2015-07-28 General Electric Company System and method for automatically adjusting medical displays
EP1966758B1 (en) * 2005-12-21 2009-09-02 Koninklijke Philips Electronics N.V. Computer-based facial paralysis assessment
US20070250868A1 (en) * 2006-04-20 2007-10-25 Matsushita Electric Industrial Co., Ltd. Display apparatus and display method
JP2007292809A (ja) * 2006-04-20 2007-11-08 Matsushita Electric Ind Co Ltd 表示装置及び表示方法
JP4965894B2 (ja) * 2006-05-02 2012-07-04 株式会社日立製作所 映像表示システム
JP2007304448A (ja) * 2006-05-13 2007-11-22 Sharp Corp 表示装置、方法およびプログラム
US20080049020A1 (en) * 2006-08-22 2008-02-28 Carl Phillip Gusler Display Optimization For Viewer Position
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US20080130958A1 (en) * 2006-11-30 2008-06-05 Motorola, Inc. Method and system for vision-based parameter adjustment
US20080181502A1 (en) * 2007-01-31 2008-07-31 Hsin-Ming Yang Pattern recognition for during orientation of a display device
US20080194918A1 (en) * 2007-02-09 2008-08-14 Kulik Robert S Vital signs monitor with patient entertainment console
US7835999B2 (en) 2007-06-27 2010-11-16 Microsoft Corporation Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights
TR200704549A2 (tr) * 2007-06-29 2009-01-21 Vestel Elektroni̇k San. Ve Ti̇c. A.Ş. Kullanıcı dostu bir TV sehpası döndürme mekanizması ve yöntemi
US8031272B2 (en) * 2007-07-19 2011-10-04 International Business Machines Corporation System and method of adjusting viewing angle for display
JP2009092950A (ja) * 2007-10-09 2009-04-30 Panasonic Electric Works Co Ltd 表示システム
DE102007050060B4 (de) * 2007-10-19 2017-07-27 Drägerwerk AG & Co. KGaA Vorrichtung und Verfahren zur Ausgabe medizinischer Daten
CN101458531A (zh) * 2007-12-12 2009-06-17 深圳富泰宏精密工业有限公司 显示屏自动调整系统及方法
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
CN101470446B (zh) * 2007-12-27 2011-06-08 佛山普立华科技有限公司 显示方向自动调整的显示装置及其方法
US8115877B2 (en) * 2008-01-04 2012-02-14 International Business Machines Corporation System and method of adjusting viewing angle for display based on viewer positions and lighting conditions
US9241143B2 (en) * 2008-01-29 2016-01-19 At&T Intellectual Property I, L.P. Output correction for visual projection devices
TWI378329B (en) * 2008-02-12 2012-12-01 Shenzhen China Star Optoelect Method for controlling angle of display and self-adjusting display device
KR101335346B1 (ko) 2008-02-27 2013-12-05 소니 컴퓨터 엔터테인먼트 유럽 리미티드 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
JP5178298B2 (ja) * 2008-04-17 2013-04-10 三菱電機株式会社 表示装置用回動台およびその制御方法
JP2009296521A (ja) * 2008-06-09 2009-12-17 Hitachi Ltd テレビジョン受像機
CN101639610B (zh) * 2008-08-01 2011-03-23 鸿富锦精密工业(深圳)有限公司 数码摄影装置及其自拍引导方法
JP2012501592A (ja) * 2008-09-01 2012-01-19 ミツビシ エレクトリック ビジュアル ソリューションズ アメリカ, インコーポレイテッド テレビジョンのビューイングを向上させるシステムおよび方法
US20100061586A1 (en) * 2008-09-10 2010-03-11 Sony Corporation Tv with viewer-adapted height and angle adjustment
JP2010086336A (ja) * 2008-09-30 2010-04-15 Fujitsu Ltd 画像制御装置、画像制御プログラムおよび画像制御方法
CN101714313A (zh) * 2008-10-08 2010-05-26 鸿富锦精密工业(深圳)有限公司 显示器
CN101729808B (zh) * 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
CN101465116B (zh) * 2009-01-07 2013-12-11 北京中星微电子有限公司 一种显示设备控制方法及一种显示设备
CN101488030A (zh) * 2009-02-10 2009-07-22 深圳Tcl新技术有限公司 显示屏调整装置以及方法
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
CN101859176A (zh) * 2009-04-08 2010-10-13 群康科技(深圳)有限公司 屏幕控制装置及其方法
US20100259610A1 (en) * 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
TWI397316B (zh) * 2009-04-17 2013-05-21 Innolux Corp 螢幕控制裝置及其方法
KR20100119342A (ko) * 2009-04-30 2010-11-09 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
EP2265006A1 (en) * 2009-06-17 2010-12-22 Koninklijke Philips Electronics N.V. Display apparatus for displaying information to a person
WO2011003437A1 (de) * 2009-07-06 2011-01-13 Siemens Aktiengesellschaft Visualisierungssystem zur korrekten ausrichtung einer ausgabeeinheit zu einem benutzer sowie verfahren hierzu
US9277021B2 (en) * 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address
CN102024384B (zh) * 2009-09-23 2014-01-22 鸿富锦精密工业(深圳)有限公司 显示屏角度调整系统及方法
JP5385752B2 (ja) * 2009-10-20 2014-01-08 キヤノン株式会社 画像認識装置、その処理方法及びプログラム
CA2684192C (en) * 2009-10-30 2017-09-19 Crosswing Inc. Apparatus and method for robotic display choreography
TW201123032A (en) * 2009-12-30 2011-07-01 Hon Hai Prec Ind Co Ltd Monitor adjusting system and the method use the same
CN102117074B (zh) * 2009-12-31 2013-07-31 鸿富锦精密工业(深圳)有限公司 显示器角度调整系统及其使用方法
CN102237013A (zh) * 2010-04-29 2011-11-09 鸿富锦精密工业(深圳)有限公司 显示屏调整系统、方法及具有该调整系统的广告板
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
CN102314820A (zh) * 2010-07-06 2012-01-11 鸿富锦精密工业(深圳)有限公司 影像处理系统、显示装置及影像显示方法
TW201205469A (en) * 2010-07-23 2012-02-01 Hon Hai Prec Ind Co Ltd Display device and method for adjusting display orientation thereof
CN102346986B (zh) * 2010-08-05 2014-03-26 鸿富锦精密工业(深圳)有限公司 显示屏调整系统、方法及具有该调整系统的广告板
JP2012060332A (ja) * 2010-09-07 2012-03-22 Iix Inc 表示装置
US20120075166A1 (en) * 2010-09-29 2012-03-29 Samsung Electronics Co. Ltd. Actuated adaptive display systems
US20120098931A1 (en) * 2010-10-26 2012-04-26 Sony Corporation 3d motion picture adaption system
KR20120046937A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 영상 장치에서 쓰리디 효과를 제공하기 위한 장치 및 방법
TWI432347B (zh) * 2011-03-11 2014-04-01 Wistron Corp 可自動調整方位的支架裝置,及該支架裝置與電子裝置的組合
FR2973627A1 (fr) * 2011-03-29 2012-10-05 France Telecom Commande d'affichage d'une pluralite d'ecrans d'un dispositif de restitution multimedia.
JP5143291B2 (ja) * 2011-04-20 2013-02-13 株式会社東芝 画像処理装置、方法、および立体画像表示装置
TWI422227B (zh) * 2011-04-26 2014-01-01 Inventec Corp 多媒體會議系統與其服務方法
US8358321B1 (en) * 2011-04-29 2013-01-22 Google Inc. Change screen orientation
CN102778892A (zh) * 2011-05-12 2012-11-14 鸿富锦精密工业(深圳)有限公司 显示装置及该显示装置的转动方法
JP6147464B2 (ja) * 2011-06-27 2017-06-14 東芝メディカルシステムズ株式会社 画像処理システム、端末装置及び方法
WO2013004011A1 (en) * 2011-07-06 2013-01-10 Mediatek Singapore Pte. Ltd. Position adjusting apparatus for automatically adjusting position of multimedia playback apparatus and related position adjusting method thereof
US9465226B2 (en) 2011-08-09 2016-10-11 Sony Computer Entertainment Inc. Automatic shutdown of 3D based on glasses orientation
JP5134714B1 (ja) * 2011-08-31 2013-01-30 株式会社東芝 映像処理装置
EP2584546B1 (en) 2011-10-21 2016-08-10 Wincor Nixdorf International GmbH Device for handling banknotes
EP2584425A1 (en) * 2011-10-21 2013-04-24 Wincor Nixdorf International GmbH Device for handling banknotes
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US9704220B1 (en) 2012-02-29 2017-07-11 Google Inc. Systems, methods, and media for adjusting one or more images displayed to a viewer
CN103309433B (zh) * 2012-03-06 2016-07-06 联想(北京)有限公司 一种自动调整电子设备摆放状态的方法、电子设备
US9798325B2 (en) 2012-07-17 2017-10-24 Elwha Llc Unmanned device interaction methods and systems
US9125987B2 (en) 2012-07-17 2015-09-08 Elwha Llc Unmanned device utilization methods and systems
CN103594046A (zh) * 2012-08-13 2014-02-19 鸿富锦精密工业(深圳)有限公司 展示板调整系统、方法及具有该调整系统的广告板
TWI483193B (zh) * 2012-12-13 2015-05-01 Hongfujin Prec Ind Wuhan 顯示螢幕移動系統及方法
CN103902026A (zh) * 2012-12-25 2014-07-02 鸿富锦精密工业(武汉)有限公司 显示屏幕自动调节系统及方法
TW201441918A (zh) * 2013-04-29 2014-11-01 Hon Hai Prec Ind Co Ltd 螢幕影像畫面調整系統及方法
TWI511053B (zh) * 2013-05-28 2015-12-01 Univ Nat Taiwan Science Tech 顯示系統及其方法
WO2015034542A1 (en) * 2013-09-09 2015-03-12 Intel Corporation Orientation of display rendering on a display based on position of user
US9367898B2 (en) 2013-09-09 2016-06-14 Intel Corporation Orientation of display rendering on a display based on position of user
KR20150041482A (ko) * 2013-10-08 2015-04-16 삼성전자주식회사 디스플레이 장치 및 이를 이용한 디스플레이 방법
CN103677446A (zh) * 2013-11-14 2014-03-26 乐视致新电子科技(天津)有限公司 显示设备、摄像式触控方法及装置
US9442688B2 (en) * 2013-11-18 2016-09-13 Atieva, Inc. Synchronized display system
CN104679397A (zh) * 2013-11-29 2015-06-03 英业达科技有限公司 显示器及其控制方法
CN104715753B (zh) * 2013-12-12 2018-08-31 联想(北京)有限公司 一种数据处理的方法及电子设备
US20150210233A1 (en) * 2014-01-27 2015-07-30 Lenovo (Singapore) Pte. Ltd. Automated viewing angle adjustment of viewable components
JP5899251B2 (ja) * 2014-01-29 2016-04-06 本田技研工業株式会社 車両用入力装置
US9922667B2 (en) 2014-04-17 2018-03-20 Microsoft Technology Licensing, Llc Conversation, presence and context detection for hologram suppression
US10529359B2 (en) 2014-04-17 2020-01-07 Microsoft Technology Licensing, Llc Conversation detection
KR101658629B1 (ko) * 2014-05-02 2016-09-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN104090378B (zh) * 2014-07-11 2016-06-08 京东方科技集团股份有限公司 一种防窥装置及防窥方法
US9734743B2 (en) * 2014-09-17 2017-08-15 Steven Mark Levinsohn Microphone accessory, a method of using a microphone, and a microphone
US9535495B2 (en) * 2014-09-26 2017-01-03 International Business Machines Corporation Interacting with a display positioning system
CN104244049A (zh) * 2014-10-21 2014-12-24 三星电子(中国)研发中心 一种动态调节曲率和方向的曲面电视和方法
EP3848782B1 (en) * 2015-01-30 2023-05-10 Hewlett-Packard Development Company, L.P. Electronic display illumination
TW201630413A (zh) * 2015-02-03 2016-08-16 鴻海精密工業股份有限公司 電視機高度自動調節系統及方法
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
CN106339070B (zh) * 2015-07-09 2021-03-16 腾讯科技(深圳)有限公司 一种显示控制方法,及移动终端
WO2017036563A1 (en) * 2015-09-04 2017-03-09 Arcelik Anonim Sirketi Image display device with user position adaptable display unit
CN105117024A (zh) * 2015-09-25 2015-12-02 联想(北京)有限公司 一种控制方法、电子设备及电子装置
CN105589522A (zh) * 2015-12-10 2016-05-18 刘阳 自动持续多姿态调整显示屏装置
US10809771B2 (en) 2016-03-18 2020-10-20 Hewlett-Packard Development Company, L.P. Display viewing position settings based on user recognitions
KR102537543B1 (ko) 2016-03-24 2023-05-26 삼성전자주식회사 지능형 전자 장치 및 그 동작 방법
WO2018013495A1 (en) * 2016-07-11 2018-01-18 Gravity Jack, Inc. Augmented reality methods and devices
CN106254802A (zh) * 2016-08-08 2016-12-21 Tcl海外电子(惠州)有限公司 电视屏幕观看位置的调节方法及装置
US20180080598A1 (en) * 2016-09-20 2018-03-22 Apple Inc. Counterbalanced display stand
KR102594792B1 (ko) * 2016-09-30 2023-10-30 엘지디스플레이 주식회사 유기발광표시장치 및 그 제어방법
US10055818B2 (en) * 2016-09-30 2018-08-21 Intel Corporation Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display
CN106775387A (zh) * 2016-11-30 2017-05-31 上海联影医疗科技有限公司 人机交互系统及医疗设备
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
EP3652729A4 (en) * 2017-07-12 2021-02-24 INTEL Corporation ADAPTIVE SCREEN SYSTEM
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US10475454B2 (en) * 2017-09-18 2019-11-12 Motorola Mobility Llc Directional display and audio broadcast
KR20230152180A (ko) 2017-12-10 2023-11-02 매직 립, 인코포레이티드 광학 도파관들 상의 반사―방지 코팅들
CA3086206A1 (en) 2017-12-20 2019-06-27 Magic Leap, Inc. Insert for augmented reality viewing device
CN108154828A (zh) * 2018-02-07 2018-06-12 李大旭 互动式健康教育显示系统
EP3766039A4 (en) 2018-03-15 2021-04-07 Magic Leap, Inc. IMAGE CORRECTION BY DEFORMING COMPONENTS OF A VIEWING DEVICE
US10839523B2 (en) * 2018-05-16 2020-11-17 Otis Elevator Company Position-based adjustment to display content
CN112236713B (zh) 2018-05-30 2023-01-24 奇跃公司 紧凑的可变聚焦配置
WO2019231850A1 (en) 2018-05-31 2019-12-05 Magic Leap, Inc. Radar head pose localization
US10825424B2 (en) 2018-06-05 2020-11-03 Magic Leap, Inc. Homography transformation matrices based temperature calibration of a viewing system
US11092812B2 (en) 2018-06-08 2021-08-17 Magic Leap, Inc. Augmented reality viewer with automated surface selection placement and content orientation placement
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
WO2020023545A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
WO2020028834A1 (en) 2018-08-02 2020-02-06 Magic Leap, Inc. A viewing system with interpupillary distance compensation based on head motion
CN112789544B (zh) 2018-08-03 2023-06-30 奇跃公司 图腾在用户交互系统中的融合姿势的基于未融合姿势的漂移校正
KR20200035567A (ko) 2018-09-27 2020-04-06 삼성전자주식회사 디스플레이장치, 그 제어방법 및 기록매체
CN117111304A (zh) 2018-11-16 2023-11-24 奇跃公司 用于保持图像清晰度的图像尺寸触发的澄清
JP2022519292A (ja) 2019-02-06 2022-03-22 マジック リープ, インコーポレイテッド 複数のプロセッサによって発生される総熱を限定するための標的意図ベースのクロック速度の決定および調節
JP2022523852A (ja) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド 第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ
US11445232B2 (en) 2019-05-01 2022-09-13 Magic Leap, Inc. Content provisioning system and method
CN110398988A (zh) * 2019-06-28 2019-11-01 联想(北京)有限公司 一种控制方法和电子设备
WO2021021670A1 (en) 2019-07-26 2021-02-04 Magic Leap, Inc. Systems and methods for augmented reality
WO2021019540A1 (en) * 2019-07-29 2021-02-04 Carmel Haifa University Economic Corporation Ltd. Automated dynamic display adjustment based on user pose
WO2021097323A1 (en) 2019-11-15 2021-05-20 Magic Leap, Inc. A viewing system for use in a surgical environment
CN112995551A (zh) * 2021-02-05 2021-06-18 海信视像科技股份有限公司 一种声音控制方法及显示设备
CN114445455A (zh) * 2021-12-22 2022-05-06 北京中广上洋科技股份有限公司 一种黑板跟踪方法和系统
US20240053815A1 (en) * 2022-08-09 2024-02-15 Lenovo (Singapore) Pte. Ltd. Adjustment of display orientation based on context and location of user in multi-user environment

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5206721A (en) * 1990-03-08 1993-04-27 Fujitsu Limited Television conference system
KR940007012Y1 (ko) * 1991-01-31 1994-10-07 삼성전자 주식회사 영상표시기 회전장치
JPH06141309A (ja) * 1992-10-28 1994-05-20 Canon Inc 画像・音声通信端末装置
US5394202A (en) 1993-01-14 1995-02-28 Sun Microsystems, Inc. Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
JP3177340B2 (ja) 1993-04-23 2001-06-18 シャープ株式会社 画像視認装置
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
EP0702494B1 (en) 1994-09-19 2001-12-05 Matsushita Electric Industrial Co., Ltd. Three-dimensional image display apparatus
JP4272711B2 (ja) * 1995-05-15 2009-06-03 キヤノン株式会社 画像生成方法及び装置
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
JPH1051755A (ja) * 1996-05-30 1998-02-20 Fujitsu Ltd テレビ会議端末の画面表示制御装置
US6009210A (en) * 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
DE19737449A1 (de) 1997-08-22 1999-02-25 Hertz Inst Heinrich Vorrichtung zum Nachführen eines autostereoskopischen Flachbildschirms
US6215471B1 (en) * 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus
KR100312486B1 (ko) * 1998-11-13 2002-02-28 구자홍 영상표시기기의자동회전장치와그회전방법
US6567101B1 (en) * 1999-10-13 2003-05-20 Gateway, Inc. System and method utilizing motion input for manipulating a display of data

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101504186B1 (ko) * 2009-11-18 2015-03-19 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 이동 감응 제어기를 통한 휴대용 장치의 상호작용
KR20170023651A (ko) * 2015-08-24 2017-03-06 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20210121772A (ko) * 2020-03-31 2021-10-08 엘지전자 주식회사 디스플레이 장치

Also Published As

Publication number Publication date
US20020149613A1 (en) 2002-10-17
CN1457468A (zh) 2003-11-19
JP2004519721A (ja) 2004-07-02
WO2002071315A3 (en) 2003-02-20
WO2002071315A2 (en) 2002-09-12
US6931596B2 (en) 2005-08-16
EP1368781A2 (en) 2003-12-10

Similar Documents

Publication Publication Date Title
US6931596B2 (en) Automatic positioning of display depending upon the viewer's location
EP3855731B1 (en) Context based target framing in a teleconferencing environment
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
WO2017215295A1 (zh) 一种摄像机参数调整方法、导播摄像机及系统
US9401144B1 (en) Voice gestures
US11074430B2 (en) Directional assistance for centering a face in a camera field of view
US20160343389A1 (en) Voice Control System, Voice Control Method, Computer Program Product, and Computer Readable Medium
US9374554B1 (en) Display selection for video conferencing
US9268520B1 (en) Altering content projection
US11477393B2 (en) Detecting and tracking a subject of interest in a teleconference
US7023454B1 (en) Method and apparatus for creating a virtual video of an object
US9329679B1 (en) Projection system with multi-surface projection screen
JP3272584B2 (ja) 領域抽出装置及びそれを用いた方向検出装置
EP3647907A1 (en) User signal processing method and device for performing method
EP4075794A1 (en) Region of interest based adjustment of camera parameters in a teleconferencing environment
Pingali et al. Audio-visual tracking for natural interactivity
KR20220144889A (ko) 디바이스의 손 제스처 기반 제어를 위한 방법 및 시스템
Huang et al. Networked omnivision arrays for intelligent environment
KR100711950B1 (ko) 하이브리드 광학 및 가상 주밍 장치를 사용한 관심있는물체의 실시간 트래킹
JP3980464B2 (ja) 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置
Zhang et al. Semantic saliency driven camera control for personal remote collaboration
WO2022051920A1 (en) Tracking with multiple cameras
JP2001008191A (ja) 人物検出機能搭載装置
Vervoort Automatische regie
CN117714843A (zh) 多摄像头视场切换方法及其系统

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid