KR101311972B1 - 모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치 - Google Patents

모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치 Download PDF

Info

Publication number
KR101311972B1
KR101311972B1 KR1020120040995A KR20120040995A KR101311972B1 KR 101311972 B1 KR101311972 B1 KR 101311972B1 KR 1020120040995 A KR1020120040995 A KR 1020120040995A KR 20120040995 A KR20120040995 A KR 20120040995A KR 101311972 B1 KR101311972 B1 KR 101311972B1
Authority
KR
South Korea
Prior art keywords
motion
user
controller
image
response
Prior art date
Application number
KR1020120040995A
Other languages
English (en)
Other versions
KR20130016040A (ko
Inventor
김정근
김유태
유승동
한상진
류희섭
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to RU2013139295/08A priority Critical patent/RU2013139295A/ru
Priority to AU2012293064A priority patent/AU2012293064B2/en
Priority to BR112013019983A priority patent/BR112013019983A2/pt
Priority to MX2013008888A priority patent/MX2013008888A/es
Priority to PCT/KR2012/006169 priority patent/WO2013022222A2/en
Priority to CA2825831A priority patent/CA2825831A1/en
Priority to JP2012173305A priority patent/JP5746111B2/ja
Priority to EP14199230.5A priority patent/EP2858372A3/en
Priority to EP12179306A priority patent/EP2555535A1/en
Priority to US13/567,342 priority patent/US20130033649A1/en
Priority to CN2012102769866A priority patent/CN102917271A/zh
Priority to CN201410806882.0A priority patent/CN104486679A/zh
Priority to US13/683,172 priority patent/US20130076990A1/en
Publication of KR20130016040A publication Critical patent/KR20130016040A/ko
Application granted granted Critical
Publication of KR101311972B1 publication Critical patent/KR101311972B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Details Of Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치 및 이의 제어 방법이 제공된다. 본 전자 장치의 제공 방법은 인식된 사용자의 모션에 응답하여, 방송 신호를 제공 중이면 제공된 방송 신호의 볼륨의 크기를 조절하거나 또는 다른 방송 신호를 제공하고, 컨텐츠를 제공 중이면 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경한다. 이에 의해, 사용자는 모션 인식을 통해 전자 장치를 보다 효율적이고 직관적으로 제어할 수 있다.

Description

모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치{Method for controlling electronic apparatus based on motion recognition, and Electronic device thereof}
본 발명은 전자 장치의 제어 방법 및 이를 적용한 전자 장치에 관한 것으로, 사용자의 모션을 인식하는 모션 감지 모듈을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 종류의 전자 장치가 개발되어 보급되고 있다. 특히, 최근에는 TV를 비롯한 다양한 유형의 전자 장치들이 일반 가정에서 사용되고 있다.
이들 전자 장치들은 사용자의 요구에 따라 점차 다양한 기능을 구비하게 되었다. 이에 따라, 전자 장치의 다양한 기능들을 효율적으로 사용하기 위한 다양한 입력 방법이 요구되고 있다. 예를 들어, 리모컨을 이용한 입력 방법, 마우스를 이용한 입력 방법 및 터치 패드를 이용한 입력 방법 등이 전자 장치에 적용되고 있다.
하지만, 이러한 단순한 입력 방법만으로는, 전자 장치의 다양한 기능을 효과적으로 사용하기에는 어려움이 있었다. 가령, 전자 장치의 모든 기능들을 리모컨만으로 제어하도록 구현하게 되면, 리모컨의 버튼 수를 늘리는 것이 불가피하였다.
또한, 다양한 메뉴들을 화면 상에 표시하여 사용자가 해당 메뉴를 찾아서 선택하도록 하는 방법의 경우, 사용자가 복잡한 메뉴 트리를 일일이 확인하여, 자신이 원하는 메뉴를 선택하여야 한다는 번거로움이 있었다.
따라서, 전자 장치를 좀 더 편리하고 효과적으로 제어하기 위한 기술에 대한 필요성이 대두되었다.
따라서, 본 발명의 목적은, 사용자의 모션을 인식하여 효과적으로 전자 장치의 태스크를 수행하기 위한 전자 장치의 제어 방법 및 이를 적용한 전자 장치를 제공함에 있다.
본 발명의 일 면에 따른 전자 장치의 제어 방법은, 인식된 사용자의 모션에 응답하여, 복수 개의 방송 신호들 중 하나의 방송 신호를 선택하는 단계; 상기 선택된 방송 신호를 제공하는 단계; 상기 선택된 방송 신호의 제공을 중지하고, 저장된 컨텐츠를 제공하는 단계; 상기 인식된 사용자의 모션과 실질적으로 동일한 형태의 사용자의 모션을 재 인식하는 단계; 및 상기 재 인식된 사용자의 모션에 응답하여, 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 단계를 포함한다.
본 발명의 다른 일 면에 따른 전자 장치의 제어 방법은, 복수 개의 방송 신호들 중 하나의 방송 신호 및 저장된 컨텐츠 중 하나를 제공하는 단계; 모션 인식 모듈을 통해 사용자의 모션을 인식하는 단계; 및 상기 인식된 사용자의 모션에 응답하여, 상기 방송 신호를 제공하면 상기 제공된 방송 신호의 볼륨의 크기를 조절하거나 또는 상기 복수 개의 방송 신호들 중 다른 하나의 방송 신호를 제공하고, 상기 컨텐츠를 제공하면 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 단계를 포함한다.
상기 방송 신호는, 방송 수신부로부터 수신한 방송 신호일 수 있고, 상기 컨텐츠는, 상기 저장부에 저장된 컨텐츠이거나 또는 외부단자 입력부 또는 네트워크 인터페이스로부터 수신된 컨텐츠일 수 있다.
상기 컨텐츠는 복수 개의 페이지를 포함하고, 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 단계는, 상기 복수 개의 페이지 중 하나의 페이지가 표시되는 화면을 상기 복수 개의 페이지 중 다른 하나의 페이지가 표시되는 화면으로 변경할 수 있다.
상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 단계는, 상기 인식된 사용자의 모션의 방향에 대응하여, 상기 복수 개의 페이지 중 하나의 페이지가 표시되는 화면을 상기 복수 개의 페이지 중 상기 하나의 페이지의 상, 하, 좌 또는 우 측에 위치한 페이지 중 하나의 페이지가 표시되는 화면으로 변경하는 단계일 수 있다.
상기 컨텐츠는 하나의 페이지를 포함하고, 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 단계는, 상기 하나의 페이지의 일부가 표시되는 화면을 상기 하나의 페이지의 다른 일부가 표시되는 화면으로 변경하는 단계일 수 있다.
상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 단계는, 상기 제공된 컨텐츠가 표시되는 화면을 상기 컨텐츠와 다른 컨텐츠가 표시되는 화면으로 변경하는 단계일 수 있다.
상기 전자 장치의 제어 방법은, 음성 인식 모듈을 통해 사용자의 음성을 인식하는 단계; 및 상기 인식된 사용자의 음성에 따라 상기 복수 개의 방송 신호들 중 또 다른 하나의 방송 신호를 제공하는 단계를 더 포함할 수 있다.
본 발명의 또 다른 일 면에 따른 전자 장치의 제어 방법은, 제1 영상 데이터 및 상기 제1 영상 데이터를 위한 오디오 데이터를 함께 제공하는 단계; 인식된 사용자의 모션에 응답하여, 상기 오디오 데이터의 볼륨의 크기를 조절하는 단계; 상기 제1 영상 데이터 및 상기 오디오 데이터의 제공을 중지하고, 제2 영상 데이터를 제공하는 단계; 상기 인식된 사용자의 모션과 실질적으로 동일한 형태의 사용자의 모션을 재 인식하는 단계; 및 상기 재 인식한 사용자의 모션에 응답하여, 상기 제2 영상 데이터가 표시되는 화면의 적어도 일부를 변경하는 단계를 포함한다.
본 발명의 또 다른 일 면에 따른 전자 장치의 제어 방법은, 복수 개의 소스에서 각각 제공되는 영상 데이터들 중 제1 영상 데이터 및 하나의 소스에서 제공되는 복수 개의 영상 데이터들 중 제2 영상 데이터 중 하나를 제공하는 단계; 모션 인식 모듈을 통해 사용자의 모션을 인식하는 단계; 및 상기 인식된 사용자의 모션에 응답하여, 상기 제1 영상 데이터를 제공하면 상기 제1 영상 데이터를 제공하는 소스와 다른 소스에서 제공되는 영상 데이터를 제공하고, 상기 제2 영상 데이터를 제공하면 상기 하나의 소스에서 제공되는 복수 개의 영상 데이터들 중 상기 제2 영상 데이터와 다른 영상 데이터를 제공하는 단계를 포함한다.
본 발명의 또 다른 일 면에 따른 전자 장치의 제어 방법은, 상기 전자 장치의 전원 인가 시에 바로 재생되는 제1 영상 데이터 및 상기 전자 장치의 전원 인가 후 사용자에 의한 모드 진입 후에 재생되는 제2 영상 데이터 중 하나를 제공하는 단계;
모션 인식 모듈을 통해 사용자의 모션을 인식하는 단계; 및 상기 인식된 사용자의 모션에 응답하여, 상기 제1 영상 데이터를 제공하면 상기 전자 장치의 전원 인가 시에 바로 재생되는 상기 제1 영상 데이터와 다른 영상 데이터를 제공하고, 상기 제2 영상 데이터를 제공하면 상기 사용자에 의한 모드 진입 후에 재생하는 상기 제2 영상 데이터와 다른 영상 데이터를 제공하는 단계를 포함한다.
본 발명의 또 다른 일 면에 따른 전자 장치의 제어 방법은, 복수 개의 동영상 중 하나의 동영상 또는 복수 개의 이미지 중 하나의 이미지 중 하나를 제공하는 단계; 모션 인식 모듈을 통해 사용자의 모션을 인식하는 단계; 및 상기 인식한 사용자의 모션에 응답하여, 상기 동영상을 제공하면 상기 복수 개의 동영상 중 상기 제공된 동영상과 다른 동영상을 제공하고, 상기 이미지를 제공하면 상기 복수 개의 이미지 중 상기 제공된 이미지와 다른 이미지를 제공하는 단계를 포함한다.
본 발명의 일 면에 따른 전자 장치는, 복수 개의 방송 신호들 중 하나의 방송 신호 및 저장된 컨텐츠 중 하나를 디스플레이하는 디스플레이부; 사용자의 모션을 입력 받는 모션 입력부; 및 상기 사용자의 모션에 응답하여, 상기 방송 신호를 제공하면 상기 제공된 방송 신호의 볼륨의 크기를 조절하거나 또는 상기 복수 개의 방송 신호들 중 다른 하나의 방송 신호를 제공하고, 상기 컨텐츠를 제공하면 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 제어부를 포함한다.
상기 컨텐츠는 복수 개의 페이지를 포함하고, 상기 제어부는 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 경우, 상기 복수 개의 페이지 중 하나의 페이지가 표시되는 화면을 상기 복수 개의 페이지 중 다른 하나의 페이지가 표시되는 화면으로 변경할 수 있다.
상기 제어부는, 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 경우, 상기 모션 입력부를 통해 인식된 사용자의 모션의 방향에 대응하여, 상기 복수 개의 페이지 중 하나의 페이지가 표시되는 화면을 상기 복수 개의 페이지 중 상기 하나의 페이지의 상, 하, 좌 또는 우 측에 위치한 페이지 중 하나의 페이지가 표시되는 화면으로 변경하는 것을 특징으로 할 수 있다.
상기 컨텐츠는 하나의 페이지를 포함하고, 상기 제어부는, 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 경우, 상기 하나의 페이지의 일부가 표시되는 화면을 상기 하나의 페이지의 다른 일부가 표시되는 화면으로 변경하는 것을 특징으로 할 수 있다.
상기 전자 장치는 사용자의 음성을 입력 받는 음성 입력부를 더 포함하고, 상기 제어부는, 상기 사용자의 음성에 따라 상기 복수 개의 방송 신호들 중 다른 방송 신호를 제공하는 것을 특징으로 할 수 있다.
본 발명의 다른 일 면에 따른 전자 장치는, 제1 영상 데이터 또는 제2 영상 데이터를 디스플레이하는 디스플레이부; 상기 제1 영상 데이터를 위한 오디오 데이터를 제공하는 오디오 출력부; 사용자의 모션을 입력 받는 모션 입력부; 및 상기 사용자의 모션에 응답하여, 상기 제1 영상 데이터를 제공하면 상기 제1 영상 데이터를 위한 오디오 데이터의 볼륨의 크기를 조절하고, 상기 제2 영상 데이터를 제공하면 상기 제2 영상 데이터가 표시되는 화면의 적어도 일부를 변경하는 제어부를 포함한다.
본 발명의 또 다른 일 면에 따른 전자 장치는, 복수 개의 동영상 중 하나의 동영상 또는 복수 개의 이미지 중 하나의 이미지 중 하나를 디스플레이하는 디스플레이부; 사용자의 모션을 입력 받는 모션 입력부; 및 상기 사용자의 모션에 응답하여, 상기 동영상을 제공하면 상기 복수 개의 동영상 중 상기 제공된 동영상과 다른 동영상을 제공하고, 상기 이미지를 제공하면 상기 복수 개의 이미지 중 상기 제공된 이미지와 다른 이미지를 제공하는 제어부를 포함한다.
본 발명의 또 다른 일 면에 따른 전자 장치는, 복수 개의 소스에서 각각 제공되는 영상 데이터들 중 제1 영상 데이터 및 하나의 소스에서 제공되는 복수 개의 영상 데이터들 중 제2 영상 데이터 중 하나를 디스플레이하는 디스플레이부; 사용자의 모션을 입력 받는 모션 입력부; 및 상기 사용자의 모션에 응답하여, 상기 제1 영상 데이터를 제공하면 상기 제1 영상 데이터를 제공하는 소스와 다른 소스에서 제공되는 영상 데이터를 제공하고, 상기 제2 영상 데이터를 제공하면 상기 하나의 소스에서 제공되는 복수 개의 영상 데이터들 중 상기 제2 영상 데이터와 다른 영상 데이터를 제공하는 제어부를 포함한다.
상술한 바와 같이, 본 발명의 다양한 실시 예에 의하면, 사용자는 모션 인식을 통해 전자 장치를 보다 효율적이고 직관적으로 제어할 수 있게 된다.
사용자의 모션을 인식하여 효과적으로 태스크를 수행하기 때문에, 본 발명은 사용상의 편리함을 제공하는 효과를 갖는다.
또한, 하나의 사용자의 모션을 인식하여 여러 개의 태스크를 수행하기 때문에, 본 발명은 사용상의 효율성을 증진하는 효과를 갖는다.
도1 내지 도3은 본 발명의 다양한 실시 예에 따른, 전자 장치의 구성을 설명하기 위한 블럭도;
도4 및 도5는 본 발명의 다양한 일 실시 예에 따른 상 측 방향으로의 사용자의 모션에 응답하여 변경되는 화면을 나타내는 도면;
도6 및 도7은 본 발명의 다양한 일 실시 예에 따른 하 측 방향으로의 사용자의 모션에 응답하여 변경되는 화면을 나타내는 도면;
도8 내지 도11은 본 발명의 다양한 일 실시 예에 따른 좌 측 방향으로의 사용자의 모션에 응답하여 변경되는 화면을 나타내는 도면;
도12 내지 도15는 본 발명의 다양한 일 실시 예에 따른 우 측 방향으로의 사용자의 모션에 응답하여 변경되는 화면을 나타내는 도면;
도16 내지 도17은 본 발명의 다양한 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여, 본 발명을 더욱 상세하게 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른, 전자 장치(100)의 블럭도를 간략히 도시한 도면이다. 도 1에 도시된 바와 같이, 전자 장치(100)는 모션 입력부(120), 저장부(130) 및 제어부(140)를 포함한다. 이때, 전자 장치(100)는 TV, 셋탑박스, 핸드폰, PC와 같은 전자 장치로 구현될 수 있으나, 이에 한정되는 것은 아니다.
모션 입력부(120)는 사용자를 촬상한 영상 신호를 입력받아 제어부(140)로 제공한다.
저장부(130)는 전자 장치(100)를 구동하고 제어하기 위한 다양한 데이터 및 프로그램을 저장한다. 또한, 저장부(130)는 전원 제어 모듈, 채널 제어 모듈, 볼륨 제어 모듈 등과 같은 다양한 소프트웨어 모듈들을 저장할 수 있다.
특히, 저장부(130)는 모션 입력부(120)를 통해 입력된 모션을 인식하기 위한 모션 인식 모듈을 저장한다. 또한, 저장부(130)는 모션 데이터베이스를 포함할 수 있다. 모션 데이터베이스란 모션 및 각 모션에 매칭되는 모션 태스크가 기록된 데이터베이스를 의미한다.
모션 입력부(120)를 통해 영상 신호가 입력되면, 제어부(140)는 모션 감지 모듈을 이용하여 사용자의 모션을 인식한다.
구체적으로, 영상 신호가 입력된 경우, 제어부(140)는 저장부(130)에 저장된 모션 인식 모듈을 이용하여 사용자가 어떠한 모션을 취하였는지를 인식한다.
구체적으로, 제어부(140)는 입력된 영상 신호를 프레임 단위로 저장한다. 그리고 나서, 제어부(140)는 저장된 복수의 프레임을 비교하여 모션이 있는 부분을 감지한다. 즉, 제어부(140)는 각 프레임을 복수의 블록으로 구분한 후, 해당 블록의 대표값(픽셀 평균값, 최대 픽셀 값, 최소 픽셀값 등)을 검출한다. 이에 따라, 일정 범위 내의 대표값을 가지는 블록들이 서로 연속해서 위치한 경우, 제어부(140)는 해당 블록들이 하나의 오브젝트를 이루는 것으로 인식할 수 있다. 또한, 제어부(140)는 각 블록들의 연결 상태를 파악하여 해당 오브젝트의 형상도 인식할 수 있고, 그 블록들의 픽셀 값을 확인하여 해당 오브젝트의 컬러도 인식할 수 있다. 예를 들어, 사용자의 손이나, 얼굴, 특정 물건 등이 하나의 오브젝트로 인식될 수 있다.
또한, 제어부(140)는 이전 프레임과 현재 프레임에서 오브젝트의 이동 여부를 확인하여 오브젝트를 인식할 수 있다. 예를 들어, 사용자가 손이나 특정 물건을 잡고 흔드는 모션을 취한 경우, 제어부(140)는 사용자의 손 또는 해당 물건, 즉 오브젝트의 움직임을 확인하여, 오브젝트를 인식할 수 있다.
제어부(140)는 오브젝트로 감지된 부분의 움직임을 추적할 수 있다. 이때, 제어부(140)는 오브젝트의 움직임을 예측하여, 오브젝트의 움직임 예상 영역 이외의 영역에 존재하는 노이즈를 제거할 수도 있다.
제어부(140)는 추적된 오브젝트의 형체 및 위치에 따라 사용자 모션을 판단한다. 구체적으로, 제어부(140)는 오브젝트의 형태의 변화, 속도, 위치, 방향 등을 판단하여, 사용자의 모션이 그랩(grab), 포인팅 이동(pointing move), 슬랩(slap), 쉐이크(shake), 회전인지 여부를 판단한다.
여기서, 그랩은 손을 쥐는 모션을 말하며, 포인팅 이동은 손을 이동하는 모션을 말하며, 슬랩은 손을 일정 속도 이상으로 또는 가속시키면서 한쪽 방향으로 움직이는 모션을 말하며, 쉐이크는 손을 일정 속도 이상으로 흔드는 모션을 말하며, 회전은 손을 회전시키는 모션을 말한다. 그러나, 이는 일 실시 예에 불과할 뿐 상술한 실시 예에 이외의 다른 모션에도 본 발명의 기술적 사상이 적용될 수 있다. 예를 들어, 쥐어진 손을 펴는 스프레드(spread) 모션 등이 더 포함될 수 있다.
제어부(140)는 사용자의 모션이 포인팅 이동인지, 슬랩인지 여부를 판단하기 위해, 오브젝트가 기 설정된 시간(예를 들어, 800ms) 내에 기 설정된 영역(예를 들어, 40cm x 40cm의 사각형)을 벗어났는지를 판단한다. 오브젝트가 기 설정된 시간 내에 기 설정된 영역을 벗어나지 않는 경우, 제어부(140)는 사용자의 모션을 포인팅 이동으로 판단할 수 있다. 오브젝트가 기 설정된 시간 내에 기 설정된 영역을 벗어난 경우, 제어부(140)는 사용자의 모션을 슬랩으로 판단한다.
또한, 오브젝트의 속도가 기설정된 속도(예를 들어, 30 cm/s) 이하인 것으로 판단된 경우, 제어부(140)는 사용자의 모션을 포인팅 이동으로 판단한다. 오브젝트의 속도가 기설정된 속도 초과인 것으로 판단되는 경우, 제어부(140)는 사용자의 모션을 슬랩으로 판단한다.
도 2는 본 발명의 다른 일 실시예에 따른, 전자 장치(100)의 구성을 나타내는 블럭도이다. 도 2에 도시된 바와 같이, 전자 장치(100)는 음성 입력부(110), 모션 입력부(120), 저장부(130), 제어부(140), 방송 수신부(150), 외부단자 입력부(160), 리모컨 신호 수신부(170), 네트워크 인터페이스부(180), 및 영상 출력부(190)를 포함한다. 여기서, 전자 장치(100)는 디스플레이부가 구비되지 않은 셋탑박스(set-top box)일 수 있으나 이에 한정되는 것은 아니다.
도 2에서 모션 입력부(120), 저장부(130) 및 제어부(140)에 대한 설명 중 도 1에서 설명된 내용과 중복된 내용은 기재를 생략한다.
음성 입력부(110)는 사용자 발화한 음성을 입력 받는다. 그리고, 음성 입력부(110)는 입력된 음성 신호를 전기 신호로 변환하여 제어부(140)로 출력한다.
저장부(130)는 음성 입력부(110)를 통해 입력된 음성을 인식하기 위한 음성 인식 모듈을 더 저장할 수 있다. 또한 저장부(130)는 음성 데이터베이스를 더 포함할 수 있다. 음성 데이터베이스란 음성 및 각 음성에 매칭되는 음성 태스크가 기록된 데이터베이스를 의미한다.
음성 입력부(110)를 통해 음성 신호가 입력되면, 제어부(140)는 음성 인식 모듈을 이용하여 사용자의 음성을 인식한다.
구체적으로, 음성 신호가 입력된 경우, 제어부(140)는 입력된 음성 신호 내에서 사용자가 발화한 음성의 시작과 끝을 검출하여 음성 구간을 판단한다. 제어부(140)는 입력된 음성 신호의 에너지를 계산하고, 계산된 에너지에 따라 음성 신호의 에너지 레벨을 분류하여, 동적 프로그래밍을 통해 음성 구간을 검출할 수 있다.
방송 수신부(150)는 유, 무선으로 외부의 방송 신호를 수신한다. 이때, 방송 수신부(150)는 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 입력되는 방송 신호를 수신할 수 있다. 여기서, 방송 신호는 영상 데이터, 음성 데이터 및 부가 데이터(예를 들어, 채널 번호, 채널 명 및 프로그램 명과 같은 채널 정보)를 포함한다. 외부 단자 입력부(160)는 HDMI(High-Definition Multimedia Interface) 입력 단자, 컴포넌트 입력 단자, PC 입력 단자, USB 입력 단자 중 적어도 하나를 포함한다. 이때, 외부 단자 입력부(160)는 외부기기로부터 컨텐츠(예를 들어, 동영상, 사진, 음악 등) 및 제어 데이터(예를 들어, 재생 명령 등) 등을 입력 받을 수 있다.
리모컨 신호 수신부(170)는 리모컨 장치로부터 전자 장치(100)를 제어하기 위한 신호를 입력받는다.
네트워크 인터페이스부(180)는 제어부(140)의 제어에 의해 외부의 장치(예를 들어, 서버)와 연결될 수 있다. 이때, 네트워크 인터페이스부(180)는 이더넷(Ethernet), 무선랜 및 블루투스(bluetooth)로 구현될 수 있으나, 이에 한정되는 것은 아니다.
영상 출력부(190)는 방송 수신부(150)를 통해 외부의 방송 신호 또는 외부단자 입력부(160)에서 입력되거나 또는 저장부(130)에 저장된 컨텐츠를 외부의 디스플레이 장치(예를 들어, 모니터, TV)로 출력한다.
도 3은 본 발명의 일 실시 예에 따른, 전자 장치(100)의 블럭도를 도시한 도면이다. 도 3에 도시된 바와 같이, 전자 장치(100)는 음성 입력부(110), 모션 입력부(120), 저장부(130), 제어부(140), 방송 수신부(150), 외부단자 입력부(160), 리모컨 신호 수신부(170), 네트워크 인터페이스부(180), 디스플레이부(193) 및 오디오 출력부(196)를 포함한다. 이때, 전자 장치(100)는 외부의 네트워크와 연결될 수 있는 TV일 수 있으나, 이에 한정되는 것은 아니다.
도 3에서 음성 입력부(110), 모션 입력부(120), 저장부(130), 제어부(140), 방송 수신부(150), 외부단자 입력부(160), 리모컨신호 수신부(170) 및 네트워크 인터페이스부(180)에 대한 설명 중 도1 및 도2와 중복되는 내용은 기재를 생략한다.
디스플레이부(193)는 신호 처리된 영상 데이터를 디스플레이한다.
오디오 출력부(196)는 제어부(140)의 제어에 의해 오디오 데이터를 출력한다. 이때, 오디오 출력부(196)는 스피커 출력 단자(196a), 헤드폰 출력 단자(196b), S/PDIF 출력 단자(196c)로 구현될 수 있다.
한편, 저장부(130)는 도 3에 도시된 바와 같이, 전원 제어 모듈(130a), 채널 제어 모듈(130b), 볼륨 제어 모듈(130c), 외부입력 제어 모듈(130d), 화면 제어 모듈(130e), 오디오 제어 모듈(130f), 인터넷 제어 모듈(130g), 어플리케이션 모듈(130h), 검색 제어 모듈(130i), UI 처리 모듈(130j), 음성 인식 모듈(130k), 모션 인식 모듈(130l), 음성 데이터베이스(130m) 및 모션 데이터베이스(130n)를 포함한다. 이들 모듈들(130a 내지 130n)은 각각 전원 제어 기능, 채널 제어 기능, 볼륨 제어 기능, 외부 입력 제어 기능, 화면 제어 기능, 오디오 제어 기능, 인터넷 제어 기능, 어플리케이션 실행 기능, 검색 제어 기능, UI 처리 기능을 수행하기 위하여 저장부(130)에 저장된 소프트웨어로 구현될 수 있다. 제어부(140)는 저장부(130)에 저장된 이들 소프트웨어를 실행시켜 해당 기능을 수행할 수 있다.
제어부(140)는 음성 인식 모듈(130k)을 이용하여 인식한 사용자의 음성 및 모션 인식 모듈(130l)을 이용하여 인식한 사용자의 모션에 따라, 전자 장치(100)의 태스크를 수행할 수 있다.
전자 장치(100)의 태스크는 채널 변경, 볼륨 조절, 컨텐츠(예를 들어, 동영상, 음악, 사진, 텍스트, 웹 데이터 등)의 제공 또는 컨텐츠 검색 등과 같이, 전자 장치(100)에 의해 수행될 수 있는 기능을 의미한다. 이러한 태스크들은 작업(operation), 기능(function), 동작(work), 설정(setting), 제어(control) 등과 같이 다양한 명칭으로 불릴 수도 있으나, 설명의 편의를 위하여 본 명세서에서는 태스크라 명명한다.
전자 장치(100)에서 수행 가능한 전체 태스크는 음성 태스크 및 모션 태스크로 구분될 수 있다.
여기서, 음성 태스크란 음성 인식 모듈을 통해 인식된 음성에 따라 제어 가능한 태스크를 의미한다. 일 예로, 음성 태스크로 전자 장치(100)의 전원 제어, 채널 바로 가기, 소리끄기, 외부단자 변경, 볼륨 레벨 지정, 문자 입력 및 컨텐츠 재생/정지 기능 중 적어도 하나가 포함될 수 있다. 즉, 사용자가 음성으로 발화할 수 있는 명칭 또는 식별자를 가진 각종 태스크 또는 문자 입력이 요구되는 태스크가 음성 태스크로 설정될 수 있다.
또한, 모션 태스크란 모션 인식 모듈을 통해 인식된 모션에 따라 제어 가능한 태스크를 의미한다. 일 예로, 모션 태스크로 채널 재핑, 볼륨 레벨 조절, 화면 네비게이션, 슬라이드 바 컨트롤 및 커서 포인팅 등이 포함될 수 있다. 즉, 사용자 모션의 종류 및 방향 등에 따라 단계적으로 제어 가능한 각종 태스크 및 커서가 사용되는 태스크가 모션 태스크로 설정될 수 있다.
이하에서는, 제어부(140)가 저장된 각종 모듈 및 데이터베이스(130a 내지 130n)를 이용하여, 전자 장치(100)를 제어하는 방법에 대해 설명한다.
사용자의 전원 명령을 기다리는 대기 모드인 경우, 제어부(140)는 음성 입력부(110)를 통해 “전원”과 같은 사용자 음성이 입력되면, 전원 제어 모듈(130a)을 이용하여 인식된 사용자의 음성에 대응되도록 전자 장치(100)의 전원이 온(on) 한다.
전자 장치(100)의 전원이 온인 경우, 제어부(140)는 음성 인식 모듈(130k)을 이용하여 사용자의 음성을 인식한다. 이 경우, 전원 끄기와 같은 사용자 음성이 인식되면, 제어부(140)는 전원 제어 모듈(130a)을 이용하여 전자 장치(100)의 전원을 오프(off) 한다.
음성 인식 모듈(130k)을 통해 채널 식별자(예를 들어, 채널 번호, 채널 명 및 프로그램 명 등)가 인식된 경우, 제어부(140)는 채널 제어 모듈(130b)을 이용하여, 인식된 채널 식별자에 대응되는 채널로 전환한다. 예를 들어, 음성 인식 모듈(130k)을 통해 "11"이라는 사용자의 음성이 인식된 경우, 제어부(140)는 채널 제어 모듈(130b)을 이용하여 11번 채널로 전환되도록 한다.
모션 인식 모듈(130l)을 통해 사용자 모션이 인식된 경우, 제어부(140)는 채널 제어 모듈(130b)을 이용하여, 사용자 모션에 대응되는 방향으로 채널을 재핑한다. 예를 들어, 모션 인식 모듈(130l)을 통해 오른쪽 방향의 "슬랩” 모션이 인식된 경우, 제어부(140)는 채널 제어 모듈(130b)을 이용하여 채널 번호가 증가하는 방향으로 채널이 재핑 되도록 한다.
모션 인식 모듈(130l)을 통해 사용자 모션이 인식된 경우, 제어부(140)는 볼륨 제어 모듈(130c)을 이용하여, 사용자 모션에 대응되는 방향으로 볼륨을 단계적으로 조절한다. 예를 들어, 모션 인식 모듈(130l)을 통해 오른쪽 방향의 "슬랩" 모션이 인식된 경우, 제어부(140)는 볼륨 제어 모듈(130c)을 이용하여 볼륨 레벨이 증가되도록 한다.
음성 인식 모듈(130k)을 통해 소리끄기 명령이 인식된 경우, 제어부(140)는 볼륨 제어 모듈(130c)을 이용하여, 음성 데이터가 출력되지 않도록 한다.
음성 인식 모듈(130k)을 통해 외부 입력(HDMI 입력, 컴포넌트 입력, PC 입력, USB 입력) 식별자 중 하나가 인식되는 경우, 제어부(140)는 외부입력 제어 모듈(130d)을 이용하여, 인식된 외부입력 식별자에 대응되는 외부입력 단자에 연결된 외부기기와 연결한다. 예를 들어, 음성 인식 모듈(130k)을 통해 "HDMI 입력"이라는 사용자의 음성이 인식된 경우, 제어부(140)는 외부입력 제어 모듈(130d)을 이용하여 "HDMI 입력 단자"에 연결된 외부기기와 연결한다.
화면 설정 메뉴가 디스플레이되고, 모션 인식 모듈(130l)을 통해 사용자 모션이 인식되는 경우, 제어부(140)는 화면 제어 모듈(130e)을 이용하여, 사용자 모션에 대응되는 방향으로 화면 설정을 조절한다. 예를 들어, 화면 밝기 메뉴가 디스플레이되고 모션 인식 모듈(130l)을 통해 "오른쪽" 방향의 "슬랩" 사용자의 모션이 인식되는 경우, 제어부(140)는 화면 제어 모듈(130e)을 이용하여 화면의 밝기 값이 증가되도록 한다.
오디오 설정 메뉴가 디스플레이되고, 음성 인식 모듈(130k)을 통해 오디오 설정 식별자가 인식되는 경우, 제어부(140)는 오디오 제어 모듈(130f)을 이용하여, 오디오 설정 식별자에 대응되도록 오디오 설정을 변경한다.
상술한 실시 예 이외에도, 태스크에 특정 식별자가 부여된 경우, 사용자의 음성에 의해 제어될 수 있으며, 태스크가 특정 방향에 따라 설정 값이 변경하는 경우, 사용자의 모션에 의해 제어될 수 있다.
또한, 제어부(140)는 인터넷 제어 모듈(130g)을 이용하여 웹 검색을 수행한다. 특히, 제어부(140)는 음성 인식 모듈(130k)을 통해 인식된 사용자의 음성을 이용하여 웹 검색을 수행할 수 있다. 예를 들어, 제어부(140)는 인식된 사용자의 음성을 통해 웹 검색을 수행할 수 있다. 또한, 제어부(140)는 모션 인식 모듈(130l)을 통해 인식된 사용자의 모션을 이용하여 웹 검색을 수행할 수 있다. 예를 들어, 제어부(140)는 인식된 사용자의 모션을 통해 웹 페이지의 커서 포인팅 또는 웹 페이지의 이동을 수행할 수 있다.
또한, 제어부(140)는 어플리케이션 모듈(130h)을 통해 각종 어플리케이션을 실행한다. 제어부(140)는 어플리케이션에 대응되는 단축 아이콘을 디스플레이부(193)에 표시한다. 특히, 음성 인식이 가능한 어플리케이션에 대응되는 단축 아이콘 및 단축 아이콘의 이름은 음성 인식이 불가능한 어플리케이션에 대응되는 단축 아이콘 및 단축 아이콘의 이름과 구별되도록 디스플레이될 수 있다. 또한, 모션 인식이 가능한 어플리케이션에 대응되는 단축 아이콘 및 단축 아이콘의 이름은 모션 인식이 불가능한 어플리케이션에 대응되는 단축 아이콘 및 단축 아이콘의 이름과 구별되도록 디스플레이될 수 있다.
또한, 제어부(140)는 검색 제어 모듈(130i)을 이용하여 컨텐츠 검색, 어플리케이션 검색, 기능(예를 들어, 영상 통화 기능) 검색 등을 할 수 있다. 구체적으로, 검색창이 디스플레이되고, 음성 인식 모듈(130k)을 통해 특정 식별자와 대응되는 사용자의 음성 인식되는 경우, 제어부(140)는 검색 제어 모듈(130i)을 이용하여 특정 식별자가 포함된 기능을 검색한다. 예를 들어, 검색창이 디스플레이되고, 음성 인식 모듈(130k)을 통해 "영상 통화"라는 사용자의 음성이 인식되는 경우, 제어부(140)는 검색 제어 모듈(130i)을 이용하여 영상 통화 기능을 검색한다.
또한, 일 실시 예에서, 제어부(140)는 방송 수신부(150)를 통해 입력된 복수 개의 방송 신호들 중 하나의 방송 신호 및 저장된 컨텐츠 중 하나를 영상 출력부(190) 또는 디스플레이부(193)로 제공할 수 있다. 디스플레이부(193)는 제공받은 하나의 방송 신호 또는 저장된 컨텐츠를 디스플레이할 수 있다. 이 때, 저장된 컨텐츠는 전자 장치(100)에 영구적, 일시적 또는 임시적으로 저장되는 컨텐츠를 모두 포함한다. 예를 들어, 저장된 컨텐츠는 전자 장치(100)의 저장부(130)에 사용자의 삭제 요청이 있을 때까지 영구적으로 저장될 수 있다. 또한, 저장된 컨텐츠는 전자 장치(100)의 저장부(130)의 일부가 버퍼로 동작할 경우, 일시적 또는 임시적으로 상기 저장부(130)에 저장될 수 있다. 구체적으로, 외부단자 입력부(160) 또는 네트워크 인터페이스부(180)로부터 입력되는 컨텐츠가 실시간으로 영상 출력부(190) 또는 디스플레이부(193)로 제공되는 경우, 제어부(140)는 컨텐츠의 입력되는 속도와 제공되는 속도가 거의 동일해지도록 저장부(130)의 일부에 컨텐츠를 일시적 또는 임시적으로 저장할 수 있다.
제어부(140)는 모션 인식 모듈(130l)을 이용하여 사용자의 모션을 인식하고, 인식된 사용자의 모션에 응답하여, 제공된 방송 신호 또는 컨텐츠의 제공 상태를 변경할 수 있다. 만약, 제어부(140)가 방송 신호를 제공한다면, 제어부(140)는 인식된 사용자의 모션에 응답하여 방송 신호의 볼륨의 크기를 조절하거나 또는 복수 개의 방송 신호들 중 다른 하나의 방송 신호를 제공할 수 있다. 또는, 제어부(140)가 컨텐츠를 제공한다면, 제어부(140)는 인식된 사용자의 모션에 응답하여 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경할 수 있다.
일 예로, 컨텐츠(예로, 복수 개의 페이지로 구성된 이미지 또는 복수 개의 페이지로 구성된 문서)가 복수 개의 페이지를 포함하고, 복수 개의 페이지 중 하나가 화면에 표시된 경우, 제어부(140)는 복수 개의 페이지 중 하나의 페이지가 표시되는 화면을 복수 개의 페이지 중 다른 하나의 페이지가 표시되는 화면으로 변경할 수 있다. 특히, 제어부(140)는 인식된 사용자의 모션의 방향에 대응하여, 복수 개의 페이지 중 하나의 페이지가 표시되는 화면을 복수 개의 페이지 중 하나의 페이지의 상, 하, 좌 또는 우 측에 위치한 페이지 중 하나의 페이지가 표시되는 화면으로 변경할 수 있다.
다른 일 예로, 컨텐츠(예로, 웹 페이지)가 하나의 페이지를 포함하는 경우, 제어부(140)는 하나의 페이지의 일부가 표시되는 화면을 상기 하나의 페이지의 다른 일부가 표시되는 화면으로 변경할 수 있다.
또 다른 일 예로, 제어부(140)는 제공되는 컨텐츠(예로, 이미지 또는 동영상)가 표시되는 화면을 상기 컨텐츠와 다른 컨텐츠가 표시되는 화면으로 변경할 수 있다.
한편, 제어부(140)는 음성 인식 모듈(130k)을 이용하여 사용자의 음성을 인식하고, 인식된 사용자의 음성에 따라 복수 개의 방송 신호들 중 하나의 방송 신호를 제공할 수 있다. 예를 들어, 음성 인식 모듈(130k)을 이용하여 채널 식별자가 인식된 경우, 제어부(140)는 채널 제어 모듈(130b)을 이용하여, 상기 복수 개의 방송 신호들 중 인식된 채널 식별자를 갖는 방송 신호를 제공할 수 있다.
다른 일 실시 예에서, 제어부(140)는 모션 인식 모듈(130l)을 이용하여 인식된 사용자의 모션에 응답하여, 복수 개의 방송 신호들 중 하나의 방송 신호를 선택할 수 있다. 제어부(140)는 선택된 방송 신호를 영상 출력부(190) 또는 디스플레이부(193)로 제공할 수 있다. 디스플레이부(193)는 제공받은 하나의 방송 신호를 디스플레이할 수 있다. 다음으로, 제어부(140)는 영상 출력부(190) 또는 디스플레이부(193)로 제공 중인 방송 신호의 제공을 중지할 수 있다. 예를 들어, 제어부(140)는 모션 인식 모듈(130l), 음성 인식 모듈(130k) 또는 리모컨을 통한 사용자의 입력에 응답하여, 방송 신호의 제공을 중지할 수 있다. 그리고, 제어부(140)는 전자 장치(100)에 저장된 컨텐츠를 제공할 수 있다
제어부(140)는 저장된 컨텐츠를 디스플레이부(193)로 제공하는 경우, 복수 개의 방송 신호들 중 하나의 방송 신호를 선택하는 사용자의 모션과 동일한 형태의 사용자의 모션을 재 인식할 수 있다. 여기에서, 동일한 형태의 사용자의 모션은 실질적으로 동일한 형태의 사용자의 모션을 포함한다. 예를 들어, 복수 개의 사용자의 모션들 각각의 오브젝트의 형태 및 상기 각각의 오브젝트의 형태가 움직이는 방향이 동일하고, 상기 각각의 오브젝트의 형태가 움직이는 속도가 모두 기 설정된 속도 이상일 경우, 제어부(140)는 상기 복수 개의 사용자의 모션들을 서로 동일한 형태의 사용자 모션으로 인식할 수 있다. 일 예로, 하나의 방송 신호를 선택하는 사용자의 모션과 재 인식된 사용자의 모션이 모두 슬랩 모션들이고, 슬랩 모션들 모두가 이동하는 방향이 동일한 경우, 제어부(140)는 하나의 방송 신호를 선택하는 사용자의 모션과 재 인식된 사용자의 모션을 동일한 형태의 사용자의 모션으로 인식할 수 있다. 다른 일 예로, 하나의 방송 신호를 선택하는 사용자의 모션이 상 측 방향으로의 슬랩 모션이고, 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경하는 사용자의 모션 또한 상 측 방향으로의 슬랩 모션일 경우, 제어부(140)는 상기 두 개의 모션을 동일한 형태의 사용자의 모션으로 인식할 수 있다.
다음으로, 제어부(140)는 재 인식된 사용자의 모션에 응답하여, 상기 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경할 수 있다.
또 다른 일 실시 예에서, 제어부(140)는 제1 영상 데이터를 영상 출력부(190) 또는 디스플레이부(193)로 제공할 수 있다. 그리고, 제1 영상 데이터를 위한 오디오 데이터를 오디오 출력부(196)로 제공할 수 있다. 이 때, 예를 들어, 제1 영상 데이터는 방송 신호의 영상 데이터이고, 제1 영상 데이터를 위한 오디오 데이터는 상기 방송 신호의 오디오 데이터일 수 있다. 그리고, 제어부(140)는 인식된 사용자의 모션에 응답하여, 오디오 데이터의 볼륨의 크기를 조절할 수 있다. 예를 들어, 제어부(140)는 제1 영상 데이터를 위한 오디오 데이터의 볼륨의 크기를 조절할 수 있다. 다음으로, 제어부(140)는 제1 영상 데이터 및 제1 영상 데이터를 위한 오디오 데이터의 제공을 중지하고, 제2 영상 데이터를 제공할 수 있다. 이 때, 예를 들어, 제2 영상 데이터는 전자 장치(100)에 저장된 컨텐츠의 영상 데이터일 수 있다. 다음으로, 제어부(140)는 오디오 데이터의 볼륨의 크기를 조절하기 위하여 인식된 사용자의 모션과 실질적으로 동일한 형태의 사용자의 모션을 재 인식할 수 있다. 그리고, 제어부(140)는 재 인식된 사용자의 모션에 응답하여, 제2 영상 데이터가 표시되는 화면의 적어도 일부를 변경할 수 있다.
또 다른 일 실시 예에서, 제어부(140)는 복수 개의 소스에서 각각 제공되는 영상 데이터들 중 제1 영상 데이터 및 하나의 소스에서 제공되는 복수 개의 영상 데이터들 중 제2 영상 데이터 중 하나를 영상 출력부(190) 또는 디스플레이부(193)로 제공할 수 있다. 디스플레이부(193)는 제공 받은 제1 영상 데이터 또는 제2 영상 데이터를 디스플레이할 수 있다. 예를 들어, 복수 개의 소스에서 각각 제공되는 영상 데이터들 중 제1 영상 데이터는 복수 개의 채널로 수신되는 복수 개의 방송 신호 각각의 영상 데이터들 중 방송 수신부(210)에 포함된 튜너에 의하여 선택된 채널로 수신되는 방송 신호의 영상 데이터일 수 있다. 또한, 예를 들어, 하나의 소스에서 제공되는 복수 개의 영상 데이터들 중 제2 영상 데이터는 전자 장치(100)에 저장부(130), 외부 단자 입력부(200)와 연결된 외부 기기 또는 네트워크 인터페이스부(180)와 연결된 서버에서 제공되는 복수 개의 컨텐츠 각각의 영상 데이터들 중 하나의 컨텐츠의 영상 데이터일 수 있다. 다음으로, 제어부(140)는 모션 인식 모듈(130l)을 통해 사용자의 모션을 인식할 수 있다. 그리고, 인식된 사용자 모션에 응답하여, 제어부(140)가 제1 영상 데이터를 제공하면 상기 제1 영상 데이터의 소스와 다른 소스에서 제공되는 영상 데이터를 제공할 수 있다. 또한, 제어부(140)가 제2 영상 데이터를 제공하면 상기 하나의 소스에서 제공되는 복수 개의 영상 데이터들 중 제2 영상 데이터와 다른 영상 데이터를 제공할 수 있다.
또 다른 일 실시 예에서, 제어부(140)는 전자 장치(100)의 전원 인가 시에 바로 재생되는 제1 영상 데이터 및 전자 장치(100)의 전원 인가 후 사용자에 의한 모드 진입 후에 재생되는 제2 영상 데이터 중 하나를 영상 출력부(190) 또는 디스플레이부(193)로 제공할 수 있다. 디스플레이부(193)는 제공 받은 제1 영상 데이터 또는 제2 영상 데이터를 디스플레이할 수 있다. 이 때, 전원 인가 시에 바로 재생되는 제1 영상 데이터는 예를 들어, 전자 장치(100)가 TV인 경우, TV의 전원을 인가 하는 경우 바로 재생되는 방송 신호가 될 수 있다. 또한, 전자 장치(100)의 전원 인가 후 사용자에 의한 모드 진입 후에 재생되는 제2 영상 데이터는 예를 들어, 전자 장치(100)가 TV인 경우, TV의 전원을 인가 후에 음성 입력부(110), 모션 입력부(120) 또는 리모컨을 통한 사용자의 입력에 따른 별도의 모드 진입 후에 재생 가능한 컨텐츠가 될 수 있다. 다음으로, 제어부(140)는 모션 인식 모듈(130l)을 통해 인식된 사용자의 모션에 응답하여, 제1 영상 데이터를 제공하면 전원 인가 시에 바로 재생되는 다른 영상 데이터(예로, 다른 채널의 방송 신호의 영상 데이터)를 제공할 수 있다. 또한, 제어부(140)는 모션 인식 모듈(130l)을 통해 인식된 사용자의 모션에 응답하여, 제2 영상 데이터를 제공하면 사용자 모드 진입 후에 재생하는 다른 영상 데이터(예로, 저장부(130)에 저장된 컨텐츠의 영상 데이터, 외부단자 입력부(160) 또는 네트워크 인터페이스부(180)로부터 수신된 컨텐츠의 영상 데이터)를 제공할 수 있다.
또 다른 일 실시 예에서, 제어부(140)는 복수 개의 동영상 중 하나의 동영상 또는 복수 개의 이미지 중 하나의 이미지를 영상 출력부(190) 또는 디스플레이부(193)로 제공할 수 있다. 디스플레이부(193)는 제공 받은 동영상 또는 이미지를 디스플레이할 수 있다. 예를 들어, 복수 개의 동영상 중 하나의 동영상은 복수 개의 방송 신호 중 하나의 방송 신호로써 시간의 진행에 따라 변화하는 영상을 나타낼 수 있다. 또한, 복수 개의 이미지 중 하나의 이미지는 복수 개의 저장된 이미지 중 하나의 이미지가 될 수 있다. 다음으로, 제어부(140)는 모션 인식 모듈(130l)을 통해 인식된 사용자의 모션에 응답하여, 동영상을 제공하면 상기 복수 개의 동영상 중 상기 제공된 동영상과 다른 동영상(예로, 다른 채널의 방송 신호)를 제공할 수 있다. 또한, 제어부(140)는 모션 인식 모듈(130l)을 통해 인식된 사용자의 모션에 응답하여, 이미지를 제공하면 상기 복수 개의 이미지 중 상기 이미지와 다른 이미지를 제공할 수 있다.
도4 및 도5는 본 발명의 다양한 일 실시 예에 따른 상 측 방향으로의 사용자의 모션에 응답하여 변경되는 화면을 나타내는 도면이다.
도4에서 제어부(140)는 사용자의 모션으로 상 측 방향으로의 슬랩 모션을 인식할 수 있다. 도4의 410 내지 420를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 상측 방향으로의 슬랩 모션에 응답하여, 화면 상에 방송 신호의 제공을 중지하고, 중지된 방송 신호의 채널 번호보다 증가된 채널 번호를 가진 방송 신호를 제공할 수 있다. 예를 들어, 채널의 번호가 ‘7’인 방송 신호는 채널의 번호가 ‘8’인 방송 신호로 변경될 수 있다. 도4의 430 내지 440을 참조하면, 제어부(140)가 복수 개의 페이지를 포함하는 컨텐츠를 제공하는 경우, 제어부(140)는 상 측 방향으로의 슬랩 모션에 응답하여, 화면 상에 복수 개의 페이지 중 하나의 페이지가 표시된 화면을 상기 복수 개의 페이지 중 상기 하나의 페이지의 하 측에 위치한 페이지가 표시되는 화면으로 변경할 수 있다. 예를 들어, 도4의 430에 제2 페이지가 표시된 화면은 도4의 440에 제3 페이지가 표시된 화면으로 변경될 수 있다.
도5에서 제어부(140)는 사용자의 모션으로 상 측 방향으로의 슬랩 모션을 인식할 수 있다. 도5의 510 내지 520를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 상 측 방향으로의 슬랩 모션에 응답하여, 화면 상에 방송 신호의 제공을 중지하고, 중지된 방송 신호의 채널 번호보다 증가된 채널 번호를 가진 방송 신호를 제공할 수 있다. 도5의 530 내지 540을 참조하면, 제어부(140)가 하나의 페이지를 포함하는 컨텐츠를 제공하는 경우, 제어부(140)는 상 측 방향으로의 슬랩 모션에 응답하여, 화면 상에 하나의 페이지의 일부를 상기 하나의 페이지에서 상기 일부의 하 측에 위치한 다른 일부로 변경할 수 있다.
도6 및 도7은 본 발명의 다양한 일 실시 예에 따른 하 측 방향으로의 사용자의 모션에 응답하여 변경되는 화면을 나타내는 도면이다
도6에서 제어부(140)는 사용자의 모션으로 하 측 방향으로의 슬랩 모션을 인식할 수 있다. 도6의 610 내지 620를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 하 측 방향으로의 슬랩 모션에 응답하여, 화면 상에 방송 신호의 제공을 중지하고, 중지된 방송 신호의 채널 번호보다 감소된 채널 번호를 가진 방송 신호를 제공할 수 있다. 예를 들어, 채널의 번호가 ‘8’인 방송 신호는 채널의 번호가 ‘7’인 방송 신호로 변경될 수 있다. 도6의 630 내지 640을 참조하면, 제어부(140)가 복수 개의 페이지를 포함하는 컨텐츠를 제공하는 경우, 제어부(140)는 하 측 방향으로의 슬랩 모션에 응답하여, 화면 상에 복수 개의 페이지 중 하나의 페이지가 표시된 화면을 상기 복수 개의 페이지 중 상기 하나의 페이지의 상 측에 위치한 페이지가 표시되는 화면으로 변경할 수 있다. 예를 들어, 도6의 630에 제2 페이지가 표시된 화면은 도6의 640에 제1 페이지가 표시된 화면으로 변경될 수 있다.
도7에서 제어부(140)는 사용자의 모션으로 하 측 방향으로의 슬랩 모션을 인식할 수 있다. 도7의 710 내지 720를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 하 측 방향으로의 슬랩 모션에 응답하여, 화면 상에 방송 신호의 제공을 중지하고, 중지된 방송 신호의 채널 번호보다 감소된 채널 번호를 가진 방송 신호를 제공할 수 있다. 도7의 730 내지 740을 참조하면, 제어부(140)가 하나의 페이지를 포함하는 컨텐츠를 제공하는 경우, 제어부(140)는 하 측 방향으로의 슬랩 모션에 응답하여, 화면 상에 하나의 페이지의 일부를 상기 하나의 페이지에서 상기 일부의 상 측에 위치한 다른 일부로 변경할 수 있다.
도8 내지 도11은 본 발명의 다양한 일 실시 예에 따른 좌 측 방향으로의 사용자의 모션에 응답하여 변경되는 화면을 나타내는 도면이다.
도8에서 제어부(140)는 사용자의 모션으로 좌 측 방향으로의 슬랩 모션을 인식할 수 있다. 도8의 810 내지 820를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 좌 측 방향으로의 슬랩 모션에 응답하여, 제공 중인 방송 신호의 볼륨의 크기를 감소시킬 수 있다. 예로, 방송 신호의 볼륨의 크기는 ‘14’에서 ‘13’으로 감소할 수 있다. 도8의 830 내지 840을 참조하면, 제어부(140)가 복수 개의 페이지를 포함하는 컨텐츠를 제공하는 경우, 제어부(140)는 좌 측 방향으로의 슬랩 모션에 응답하여, 복수 개의 페이지 중 하나의 페이지가 표시되는 화면을 상기 복수 개의 페이지 중 상기 하나의 페이지의 우 측에 위치한 페이지가 표시되는 화면으로 변경할 수 있다. 예를 들어, 도8의 830에 제2 페이지가 표시된 화면은 도8의 840에 제3 페이지가 표시된 화면으로 변경될 수 있다.
도9에서 제어부(140)는 사용자의 모션으로 좌 측 방향으로의 슬랩 모션을 인식할 수 있다. 도9의 910 내지 920를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 좌 측 방향으로의 슬랩 모션에 응답하여, 제공 중인 방송 신호의 볼륨의 크기를 줄일 수 있다. 도9의 930 내지 940을 참조하면, 제어부(140)가 하나의 페이지를 포함하는 컨텐츠를 제공하는 경우, 제어부(140)는 좌 측 방향으로의 슬랩 모션에 응답하여, 하나의 페이지의 일부가 표시되는 화면을 상기 일부의 우 측에 위치한 다른 일부가 표시되는 화면으로 변경할 수 있다.
도10에서 제어부(140)는 사용자의 모션으로 좌 측 방향으로의 슬랩 모션을 인식할 수 있다. 도10의 1010 내지 1020를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 좌 측 방향으로의 슬랩 모션에 응답하여, 제공 중인 방송 신호의 볼륨의 크기를 줄일 수 있다. 도10의 1030 내지 1040을 참조하면, 제어부(140)는 좌 측 방향으로의 슬랩 모션에 응답하여, 제2 컨텐츠가 표시되는 화면을 상기 제2 컨텐츠의 이후 순서의 컨텐츠인 제3 컨텐츠가 표시되는 화면으로 변경할 수 있다.
도11에서 제어부(140)는 사용자의 모션으로 좌 측 방향으로의 슬랩 모션을 인식할 수 있다. 도11의 1110 내지 1120를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 좌 측 방향으로의 슬랩 모션에 응답하여, 제공 중인 방송 신호의 볼륨의 크기를 줄일 수 있다. 도11의 1130 내지 1140을 참조하면, 제어부(140)가 화면 상에 제1 영역(1131) 및 제2 영역(1135) 각각에 적어도 하나 이상의 컨텐츠를 제공하는 경우, 제어부(140)는 좌 측 방향으로의 슬랩 모션에 응답하여, 제2 영역(1135) 상에 컨텐츠(1151)를 제거하고, 제2 영역(1135) 상에 상기 제거된 컨텐츠(1151)와 다른 컨텐츠(1152)를 표시할 수 있다.
도12에서 제어부(140)는 사용자의 모션으로 우 측 방향으로의 슬랩 모션을 인식할 수 있다. 도12의 1210 내지 1220를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 우 측 방향으로의 슬랩 모션에 응답하여, 제공 중인 방송 신호의 볼륨의 크기를 증가시킬 수 있다. 예로, 방송 신호의 볼륨의 크기는 ‘14’에서 ‘15’로 증가할 수 있다. 도12의 1230 내지 1240을 참조하면, 제어부(140)가 복수 개의 페이지를 포함하는 컨텐츠를 제공하는 경우, 제어부(140)는 우 측 방향으로의 슬랩 모션에 응답하여, 복수 개의 페이지 중 하나의 페이지가 표시되는 화면을 상기 복수 개의 페이지 중 상기 하나의 페이지의 좌 측에 위치한 페이지가 표시되는 화면으로 변경할 수 있다. 예를 들어, 도12의 1230에 제2 페이지가 표시된 화면은 도12의 1240에 제1 페이지 화면으로 변경될 수 있다.
도13에서 제어부(140)는 사용자의 모션으로 우 측 방향으로의 슬랩 모션을 인식할 수 있다. 도13의 1310 내지 1320를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 우 측 방향으로의 슬랩 모션에 응답하여, 제공 중인 방송 신호의 볼륨의 크기를 증가시킬 수 있다. 도13의 1330 내지 1340을 참조하면, 제어부(140)가 하나의 페이지를 포함하는 컨텐츠를 제공하는 경우, 제어부(140)는 우 측 방향으로의 슬랩 모션에 응답하여, 하나의 페이지의 일부가 표시되는 화면을 상기 일부의 좌 측에 위치한 다른 일부가 표시되는 화면으로 변경할 수 있다.
도14에서 제어부(140)는 사용자의 모션으로 우 측 방향으로의 슬랩 모션을 인식할 수 있다. 도14의 1410 내지 1420를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 우 측 방향으로의 슬랩 모션에 응답하여, 제공 중인 방송 신호의 볼륨의 크기를 증가시킬 수 있다. 도14의 1430 내지 1440을 참조하면, 제어부(140)가 제2 컨텐츠를 제공하는 경우, 제어부(140)는 우 측 방향으로의 슬랩 모션에 응답하여, 제2 컨텐츠가 표시되는 화면을 상기 제2 컨텐츠의 이전 순서의 컨텐츠인 제3 컨텐츠가 표시되는 화면으로 변경할 수 있다.
도15에서 제어부(140)는 사용자의 모션으로 우 측 방향으로의 슬랩 모션을 인식할 수 있다. 도15의 1510 내지 1520를 참조하면, 제어부(140)가 방송 신호를 제공하는 경우, 제어부(140)는 우 측 방향으로의 슬랩 모션에 응답하여, 제공 중인 방송 신호의 볼륨의 크기를 증가시킬 수 있다. 도15의 1530 내지 1540을 참조하면, 제어부(140)가 화면 상에 제1 영역(1531) 및 제2 영역(1535) 각각에 적어도 하나 이상의 컨텐츠를 제공하는 경우, 제어부(140)는 우 측 방향으로의 슬랩 모션에 응답하여, 제2 영역(1535) 상에 컨텐츠(1551)를 제거하고, 제2 영역(1535) 상에 상기 제거된 컨텐츠와 다른 컨텐츠(1552)를 표시할 수 있다.
도16 내지 도17은 본 발명의 다양한 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도16에서, 전자 장치(100)는 인식된 사용자의 모션에 응답하여, 복수 개의 방송 신호들 중 하나의 방송 신호를 선택한다(1612). 이 때, 인식된 사용자의 모션은 모션 입력부(120)를 통해 입력되어 모션 인식 모듈(130l)에 의해 인식될 수 있다. 전자 장치(100)는 선택된 방송 신호를 제공한다(1614). 이 때, 방송 신호는 영상 출력부(190) 또는 디스플레이부(193)로 제공될 수 있다. 다시, 전자 장치(100)는 선택된 방송 신호의 제공을 중지하고, 저장된 컨텐츠를 제공한다(1616). 이 때, 저장된 컨텐츠는 저장부(130)에 저장되거나, 외부단자 입력부(160) 또는 네트워크 인터페이스부(180)로부터 수신될 수 있다. 전자 장치(100)는 인식된 사용자의 모션과 실질적으로 동일한 형태의 사용자의 모션을 재 인식할 수 있다(1618). 이 때, 재 인식된 사용자의 모션은 모션 입력부(120)를 통해 입력되어 모션 인식 모듈(130l)에 의해 인식될 수 있다. 전자 장치(100)는 재 인식된 사용자의 모션에 응답하여, 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경할 수 있다(1620).
도17에서, 전자 장치(100)는 복수 개의 방송 신호들 중 하나의 방송 신호 및 저장된 컨텐츠 중 하나를 제공한다(1712). 다시, 전자 장치(100)는 모션 인식 모듈(130l)을 통해 사용자의 모션을 인식한다(1714). 전자 장치(100)는 사용자의 모션에 응답하여, 전자 장치(100)가 제공하는 신호가 방송 신호인지 또는 컨텐츠인지 판단할 수 있다(1716). 방송 신호가 제공되는 경우, 전자 장치(100)는 방송 신호의 볼륨의 크기를 조절하거나 또는 복수 개의 방송 신호들 중 다른 하나의 방송 신호를 제공한다(1718). 또는, 컨텐츠가 제공되는 경우, 전자 장치(100)는 제공된 컨텐츠가 표시되는 화면의 적어도 일부를 변경한다(1720).
상술한 바와 같은 전자 장치(100)를 통해, 사용자는 사용자의 음성 또는 사용자의 모션 중 하나를 통해 전자 장치를 보다 효율적이고 직관적으로 제어할 수 있게 된다.
한편, 상술한 여러 실시 예들에서 음성 입력부(110)는 직접 사용자의 음성을 입력받는 마이크로 구현될 수도 있고, 또는, 마이크에서 입력된 음성 신호를 전달 받는 인터페이스로 구현될 수도 있다. 마찬가지로 모션 입력부(120)는 사용자를 직접 촬상하는 카메라로 구현될 수도 있고, 카메라에서 촬상한 데이터를 전달받는 인터페이스로 구현될 수도 있다.
한편, 상술한 전자 장치(100)는 TV로 구현될 수 있지만, 이에 한정되지 않고, 셋탑 박스, PC, 랩탑 컴퓨터, 태블릿 PC, 전자 액자, 전자 책, PDA, 휴대폰 등과 같은 다양한 장치로 구현될 수 있다.
한편, 상술한 도 3에서는 저장부(130) 내에 각종 소프트웨어 모듈들이 저장된 상태를 설명하였으나, 이들 소프트웨어 모듈들은 반드시 하나의 저장부(130)에 저장되어야 하는 것은 아니다.
즉, 실시 예에 따라, 음성 인식 모듈 및 모션 인식 모듈은 각각 별도의 저장유닛에 저장될 수 있다. 이에 따라, 음성 인식 모듈은 마이크에서 입력된 음성 신호로부터 사용자 음성을 인식하여, 인식 결과를 제어부(140)로 제공하여 줄 수 있다. 또한, 모션 인식 모듈은 카메라에서 촬상한 영상 신호를 이용하여 사용자의 모션을 인식한 후 인식 결과를 제어부(140)로 제공하여 줄 수도 있다.
또는, 이러한 음성 인식 모듈 및 모션 인식 모듈은 각각 별개의 외부 장치에 저장되어 있을 수 있다. 예를 들어, 마이크를 구비한 음성 인식 장치에서 음성 인식 모듈을 이용하여 사용자의 음성을 인식한 후, 그 인식 결과를 전자 장치(100)로 전송하여 줄 수 있다. 마찬가지로 카메라를 구비한 모션 인식 장치에서 모션 인식 모듈을 이용하여 사용자의 모션을 인식하고, 그 인식 결과를 전자 장치(100)로 전송하여 줄 수도 있다.
또한, 이상과 같은 다양한 실시 예에 따른 제어 방법을 수행하기 위한 프로그램 코드는 다양한 유형의 기록 매체에 저장될 수 있다. 구체적으로는, RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110: 음성 입력부 120: 모션 입력
130: 저장부 140: 제어부
150: 방송 수신부 160: 외부단자 입력부
170: 리모컨 신호 수신부 180: 네트워크 인터페이스부
190: 영상 출력부 193: 디스플레이부
196: 오디오 출력부

Claims (20)

  1. 전자 장치에 있어서,
    영상을 제공하는 디스플레이부;
    사용자 모션을 입력받는 모션 입력부;
    영상의 종류에 따라 기설정된 사용자 모션에 대응되는 모션 기능이 상이하게 매핑된 모션 데이터베이스를 저장하는 저장부; 및
    상기 모션 입력부를 통해 입력된 사용자 모션을 인식하고, 상기 디스플레이부에 현재 제공되는 영상의 종류에 따라 상기 인식된 사용자 모션에 대응되는 모션 기능을 수행하는 제어부;를 포함하며,
    상기 제어부는,
    상기 영상의 종류가 방송 영상이면, 상기 인식된 사용자 모션에 대응하여 채널 변경 기능 또는 볼륨 조절 기능을 수행하고,
    상기 영상의 종류가 웹 페이지 영상이면, 상기 인식된 사용자 모션에 대응하여 화면 이동 기능을 수행하는 것을 특징으로 하는 전자 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 사용자 모션은 슬랩 모션인 것을 특징으로 하는 전자 장치.
  4. 제3항에 있어서,
    상기 사용자의 모션이 상하 방향의 슬랩 모션인 경우,
    상기 제어부는,
    상기 영상의 종류가 방송 영상이면, 상기 인식된 사용자 모션에 대응하여 채널 변경 기능을 수행하고,
    상기 영상의 종류가 웹 페이지 영상이면, 상기 인식된 사용자 모션에 대응하여 상하 방향의 화면 이동 기능을 수행하는 것을 특징으로 하는 전자 장치.
  5. 제3항에 있어서,
    상기 사용자의 모션이 좌우 방향의 슬랩 모션인 경우,
    상기 제어부는,
    상기 영상의 종류가 방송 영상이면, 상기 인식된 사용자 모션에 대응하여 불륨 조절 기능을 수행하고,
    상기 영상의 종류가 웹 페이지 영상이면, 상기 인식된 사용자에 대응하여 좌우 방향의 화면 이동 기능을 수행하는 것을 특징으로 하는 전자 장치.
  6. 전자 장치의 제어 방법에 있어서,
    모션 인식 모듈을 통해 사용자 모션을 인식하는 단계; 및
    상기 전자 장치에 현재 제공되는 영상의 종류에 따라 상기 사용자 모션에 대응되는 모션 기능을 수행하는 단계;를 포함하며,
    상기 수행하는 단계는,
    상기 영상의 종류가 방송 영상이면, 상기 사용자 모션에 대응하여 채널 변경 기능 또는 볼륨 조절 기능을 수행하고,
    상기 영상의 종류가 웹 페이지 영상이면, 상기 사용자 모션에 대응하여 화면 이동 기능을 수행하는 것을 특징으로 하는 제어 방법.
  7. 삭제
  8. 제6항에 있어서,
    상기 사용자 모션은 슬랩 모션인 것을 특징으로 하는 제어 방법.
  9. 제8항에 있어서,
    상기 사용자의 모션이 상하 방향의 슬랩 모션인 경우,
    상기 수행하는 단계는,
    상기 영상의 종류가 방송 영상이면, 상기 사용자 모션에 대응하여 채널 변경 기능을 수행하고,
    상기 영상의 종류가 웹 페이지 영상이면, 상기 사용자 모션에 대응하여 상하 방향의 화면 이동 기능을 수행하는 것을 특징으로 하는 제어 방법.
  10. 제8항에 있어서,
    상기 사용자의 모션이 좌우 방향의 슬랩 모션인 경우,
    상기 수행하는 단계는,
    상기 영상의 종류가 방송 영상이면, 상기 사용자 모션에 대응하여 불륨 조절 기능을 수행하고,
    상기 영상의 종류가 웹 페이지 영상이면, 상기 사용자에 대응하여 좌우 방향의 화면 이동 기능을 수행하는 것을 특징으로 하는 제어 방법.
  11. 제6항에 있어서,
    상기 전자 장치는,
    영상의 종류에 따라 기설정된 사용자 모션에 대응되는 모션 기능이 상이하게 매핑된 모션 데이터베이스를 저장하며,
    상기 수행하는 단계는,
    상기 모션 데이터베이스를 이용하여 상기 사용자 모션에 대응되는 모션 기능을 수행하는 것을 특징으로 하는 제어 방법.
  12. 전자 장치의 제어 방법에 있어서,
    제1 방송 신호를 제공하는 단계;
    사용자 모션이 인식되면, 상기 사용자 모션에 응답하여, 제1 방송 신호와 상이한 제2 방송 신호를 제공하는 단계;
    웹 페이지 실행 명령이 입력되면, 상기 제2 방송 신호의 제공을 중지하고, 웹 페이지를 제공하는 단계;
    상기 웹 페이지가 제공되는 동안 상기 사용자 모션이 인식되면, 상기 사용자 모션에 응답하여, 상기 제공된 웹 페이지가 표시되는 화면을 이동하는 단계;
    를 포함하는 제어 방법.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020120040995A 2011-08-05 2012-04-19 모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치 KR101311972B1 (ko)

Priority Applications (13)

Application Number Priority Date Filing Date Title
AU2012293064A AU2012293064B2 (en) 2011-08-05 2012-08-02 Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
BR112013019983A BR112013019983A2 (pt) 2011-08-05 2012-08-02 método para controlar um aparelho eletrônico, e aparelho eletrônico
MX2013008888A MX2013008888A (es) 2011-08-05 2012-08-02 Metodo para controlar aparato electronico basandose en el reconocimiento de movimiento, y el aparato electronico aplicando el mismo.
PCT/KR2012/006169 WO2013022222A2 (en) 2011-08-05 2012-08-02 Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
CA2825831A CA2825831A1 (en) 2011-08-05 2012-08-02 Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
RU2013139295/08A RU2013139295A (ru) 2011-08-05 2012-08-02 Способ управления электронным устройством, основанный на распознавании движения, и электронное устройство, его применяющее
JP2012173305A JP5746111B2 (ja) 2011-08-05 2012-08-03 電子装置及びその制御方法
EP14199230.5A EP2858372A3 (en) 2011-08-05 2012-08-03 Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
EP12179306A EP2555535A1 (en) 2011-08-05 2012-08-03 Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
US13/567,342 US20130033649A1 (en) 2011-08-05 2012-08-06 Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
CN2012102769866A CN102917271A (zh) 2011-08-05 2012-08-06 控制电子设备的方法和应用该方法的电子设备
CN201410806882.0A CN104486679A (zh) 2011-08-05 2012-08-06 控制电子设备的方法和应用该方法的电子设备
US13/683,172 US20130076990A1 (en) 2011-08-05 2012-11-21 Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161515459P 2011-08-05 2011-08-05
US61/515,459 2011-08-05
KR20110106103 2011-10-17
KR1020110106103 2011-10-17

Publications (2)

Publication Number Publication Date
KR20130016040A KR20130016040A (ko) 2013-02-14
KR101311972B1 true KR101311972B1 (ko) 2013-09-30

Family

ID=47895705

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120040995A KR101311972B1 (ko) 2011-08-05 2012-04-19 모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치

Country Status (1)

Country Link
KR (1) KR101311972B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200075149A (ko) * 2018-12-13 2020-06-26 한동대학교 산학협력단 인공지능 기반의 사용자 동작 인식을 통한 브라우저 제어 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102166777B1 (ko) * 2013-09-30 2020-11-04 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR101556521B1 (ko) 2014-10-06 2015-10-13 현대자동차주식회사 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법
JPWO2019087495A1 (ja) * 2017-10-30 2020-12-10 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032699A (ko) * 2008-09-18 2010-03-26 동명대학교산학협력단 사용자의 제스춰 정보 인식을 기반으로 하여 디스플레이장치의 동작을 제어하는 시스템
KR20100062012A (ko) * 2008-12-01 2010-06-10 엘지전자 주식회사 디지털 방송 수신 장치 및 그 동작 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100032699A (ko) * 2008-09-18 2010-03-26 동명대학교산학협력단 사용자의 제스춰 정보 인식을 기반으로 하여 디스플레이장치의 동작을 제어하는 시스템
KR20100062012A (ko) * 2008-12-01 2010-06-10 엘지전자 주식회사 디지털 방송 수신 장치 및 그 동작 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200075149A (ko) * 2018-12-13 2020-06-26 한동대학교 산학협력단 인공지능 기반의 사용자 동작 인식을 통한 브라우저 제어 방법
KR102192582B1 (ko) * 2018-12-13 2020-12-17 한동대학교 산학협력단 인공지능 기반의 사용자 동작 인식을 통한 브라우저 제어 방법

Also Published As

Publication number Publication date
KR20130016040A (ko) 2013-02-14

Similar Documents

Publication Publication Date Title
KR101262700B1 (ko) 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치
EP2610863B1 (en) Electronic apparatus and method for controlling the same by voice input
EP3754997B1 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP6184098B2 (ja) 電子装置及びその制御方法
EP2555538A1 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
EP2590424A2 (en) Electronic apparatus and method for controlling thereof
EP2555535A1 (en) Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
KR101311972B1 (ko) 모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치
AU2012216583B2 (en) Electronic apparatus and method for controlling thereof
JP2014132442A (ja) 電子装置およびその制御方法
EP2750014A2 (en) Electronic apparatus, and method of controlling an electronic apparatus through motion input
KR20130078483A (ko) 전자 장치 및 그의 제어 방법
KR20130080380A (ko) 전자 장치 및 그의 제어 방법
EP2611196A2 (en) Electronic apparatus and method of controlling the same
KR20130078489A (ko) 전자 장치 및 이의 화각 설정 방법

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160830

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170830

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180830

Year of fee payment: 6