KR20190093258A - 사용자의 제스처를 인식하는 전자 장치 - Google Patents

사용자의 제스처를 인식하는 전자 장치 Download PDF

Info

Publication number
KR20190093258A
KR20190093258A KR1020180012654A KR20180012654A KR20190093258A KR 20190093258 A KR20190093258 A KR 20190093258A KR 1020180012654 A KR1020180012654 A KR 1020180012654A KR 20180012654 A KR20180012654 A KR 20180012654A KR 20190093258 A KR20190093258 A KR 20190093258A
Authority
KR
South Korea
Prior art keywords
information
gesture
user
electronic device
camera module
Prior art date
Application number
KR1020180012654A
Other languages
English (en)
Other versions
KR102429764B1 (ko
Inventor
최승환
김현진
이재영
장세이
황상웅
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180012654A priority Critical patent/KR102429764B1/ko
Priority to US16/962,272 priority patent/US11042223B2/en
Priority to PCT/KR2019/001380 priority patent/WO2019151805A1/ko
Publication of KR20190093258A publication Critical patent/KR20190093258A/ko
Application granted granted Critical
Publication of KR102429764B1 publication Critical patent/KR102429764B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 다양한 실시 예에 따르면, 적어도 하나의 센서, 지정된 범위의 FoV(field of view)를 가지는 카메라 모듈, 상기 카메라 모듈의 촬영 방향을 변경시키는 액츄에이터, 상기 적어도 하나의 센서, 및 상기 카메라 모듈, 및 상기 액츄에이터와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는 상기 적어도 하나의 센서를 이용하여 상기 사용자로부터 명령을 획득하고, 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FoV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하고, 상기 카메라 모듈을 통해 상기 사용자의 움직이는 제스처에 대한 제스처 정보를 입력으로 획득하고, 상기 제스처 정보를 획득하는 동안, 제1 시점 내지 제2 시점에서 상기 제스처 정보 중 제1 제스처 정보를 상기 카메라 모듈로부터 획득하고 상기 제2 시점에서, 상기 획득된 상기 제1 제스처 정보에 의해 판단되는 방향에 기초하여 상기 FoV가 변경되도록 상기 액츄에이터를 제어하고 상기 카메라 모듈을 통해 상기 변경된 FOV에 대응하는 공간 정보를 획득하고 상기 제2 시점 이후 제3 시점에서, 상기 사용자가 상기 카메라 모듈의 FoV에 포함되도록 상기 액츄에이터를 제어하고 상기 제2 시점과 상기 제3 시점 사이의 경과 시간 및 상기 획득된 상기 제1 제스처 정보에 기초하여 상기 제스처 정보 중 상기 제2 시점 내지 상기 제3 시점에 대응하는 제2 제스처 정보를 추정하고 상기 제3 시점 이후 상기 제스처 정보 중 제3 제스처 정보를 상기 카메라 모듈로부터 획득하도록 설정되고, 상기 제스처 정보의 전부가 입력으로 획득되면 상기 획득된 공간 정보 및 상기 획득된 제스처 정보에 의해 판단된 지정된 영역에 기초하여 상기 명령을 수행하는 것을 특징으로 하는 전자 장치가 개시된다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

사용자의 제스처를 인식하는 전자 장치 {AN ELECTRONIC DEVICE RECOGNIZING A GESTURE OF A USER}
본 문서에서 개시되는 실시 예들은, 사용자의 제스처를 인식하는 전자 장치에 관한 것이다.
기술의 발달에 따라 다양한 형태의 전자 장치가 개발되고 있다. 특히 다양한 기능을 수행할 수 있는 로봇과 같은 전자 장치가 광범위한 분야에서 등장하고 있다. 상기 로봇은 종래에는 주로 산업상 로봇에 한정되었으나 최근에는 공공장소, 가정 등 로봇의 용도 및 적용 분야가 점차 확대되고 있다.
최근 음성 인식 또는 인공지능 등의 기술 수준이 높아지면서 사용자와 소통하고, 사용자의 다양한 명령에 따라 동작을 수행할 수 있는 로봇이 개발되고 있다. 예를 들면, 로봇은 사용자의 음성 또는 동작을 인식할 수 있고, 인식된 음성 또는 동작에 기초하여 사용자에게 지정된 정보 또는 필요한 기능을 제공할 수 있다.
로봇과 같은 전자 장치는 사용자의 동작 또는 제스처를 인식할 수 있는 카메라 모듈을 포함할 수 있다. 그러나 로봇에 탑재되는 카메라 모듈의 시야(field of view, FoV)는 제한적일 수 있고, 이에 따라 상기 전자 장치가 정지된 상태에서 인식할 수 있는 시야도 제한적일 수 있다.
사용자가 전자 장치에 대해 지정된 영역을 지시하는 경우 전자 장치는 제한된 시야 때문에 사용자의 동작에 바로 응답하여 상기 지시된 영역을 인식하는 것이 곤란할 수 있다.
또한, 상기 전자 장치가 인식한 영역이 상기 사용자가 의도한 영역과 상이하다면 전자 장치는 사용자에게 다시 새로운 입력을 요구할 수 있다. 사용자는 지시 동작을 뒤늦게 반복해야 하므로 상기 사용자의 사용편의성은 저하될 수 있다.
본 문서에서 개시되는 실시 예들은, 전술한 문제 및 본 문서에서 제기되는 과제들을 해결하기 위한 전자 장치를 제공하고자 한다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 적어도 하나의 센서, 지정된 범위의 FoV(field of view)를 가지는 카메라 모듈, 상기 카메라 모듈의 촬영 방향을 변경시키는 액츄에이터, 상기 적어도 하나의 센서, 및 상기 카메라 모듈, 및 상기 액츄에이터와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는 상기 적어도 하나의 센서를 이용하여 상기 사용자로부터 명령을 획득하고, 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FoV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하고, 상기 카메라 모듈을 통해 상기 사용자의 움직이는 제스처에 대한 제스처 정보를 입력으로 획득하고, 상기 제스처 정보를 획득하는 동안, 제1 시점 내지 제2 시점에서 상기 제스처 정보 중 제1 제스처 정보를 상기 카메라 모듈로부터 획득하고 상기 제2 시점에서, 상기 획득된 상기 제1 제스처 정보에 의해 판단되는 방향에 기초하여 상기 FoV가 변경되도록 상기 액츄에이터를 제어하고 상기 카메라 모듈을 통해 상기 변경된 FOV에 대응하는 공간 정보를 획득하고 상기 제2 시점 이후 제3 시점에서, 상기 사용자가 상기 카메라 모듈의 FoV에 포함되도록 상기 액츄에이터를 제어하고 상기 제2 시점과 상기 제3 시점 사이의 경과 시간 및 상기 획득된 상기 제1 제스처 정보에 기초하여 상기 제스처 정보 중 상기 제2 시점 내지 상기 제3 시점에 대응하는 제2 제스처 정보를 추정하고 상기 제3 시점 이후 상기 제스처 정보 중 제3 제스처 정보를 상기 카메라 모듈로부터 획득하도록 설정되고, 상기 제스처 정보의 전부가 입력으로 획득되면 상기 획득된 공간 정보 및 상기 획득된 제스처 정보에 의해 판단된 지정된 영역에 기초하여 상기 명령을 수행하는 것을 특징으로 할 수 있다.
본 문서에 개시되는 다른 실시 예에 따른 전자 장치는, 적어도 하나의 센서, 지정된 범위의 FoV(field of view)를 가지는 카메라 모듈, 상기 카메라 모듈의 촬영 방향을 변경시키는 액츄에이터, 및 상기 적어도 하나의 센서, 및 상기 카메라 모듈, 및 상기 액츄에이터와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 센서를 이용하여 사용자로부터 명령을 획득하고, 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FOV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하고, 상기 카메라 모듈을 통해 상기 사용자의 움직이는 제스처에 대한 제스처 정보를 입력으로 획득하고, 상기 제스처 정보를 획득하는 동안, 제1 시점 내지 제2 시점에서 상기 제스처 정보 중 제1 제스처 정보를 상기 카메라 모듈로부터 획득하고 상기 제2 시점에서, 상기 획득된 상기 제1 제스처 정보에 의해 판단되는 방향에 기초하여 상기 FoV가 변경되도록 상기 액츄에이터를 제어하고 상기 카메라 모듈을 통해 상기 변경된 FOV에 대응하는 공간 정보를 획득하고 상기 제2 시점 이후 제3 시점에서, 상기 사용자가 상기 카메라 모듈의 FoV에 포함되도록 상기 액츄에이터를 제어하고 상기 제3 시점 이후, 상기 제스처 정보 중 제2 제스처 정보를 상기 카메라 모듈로부터 획득하도록 설정되고, 상기 제스처 정보의 전부가 입력으로 획득되면 상기 획득된 공간 정보 및 상기 획득된 제스처 정보에 의해 판단된 지정된 영역에 기초하여 상기 명령을 수행하는 것을 특징으로 할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 사용자가 상기 전자 장치의 시야에서 벗어난 영역을 지시하는 경우에도 사용자가 지시한 동작에 바로 응답하여 지시된 영역을 인식할 수 있다. 또한 사용자의 제스처에 대응하는 지정된 영역에 대한 정보를 사용자에게 실시간으로 제공함으로써 전자 장치로 하여금 사용자의 명령에 대한 인식의 정확도를 높일 수 있다. 이를 통해 사용자의 사용 편의성은 증대될 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른, 사용자의 제스처를 인식하는 전자 장치를 나타낸다.
도 2는 일 실시 예에 따른, 사용자의 제스처를 인식하는 전자 장치의 블록도를 나타낸다.
도 3은 일 실시 예에 따른, 전자 장치가 사용자의 제스처를 인식하고 미리 정의된 명령을 수행하는 흐름도를 나타낸다.
도 4는 일 실시 예에 따른, 전자 장치가 사용자의 제스처를 인식하고 미리 정의된 명령을 수행하는 흐름도를 나타낸다.
도 5는 일 실시 예에 따른, 전자 장치가 사용자의 제스처를 추정하는 방법을 도시한다.
도 6은 일 실시 예에 따른, 전자 장치가 지정된 영역을 확장시키는 실시 예를 나타낸다.
도 7a는 일 실시 예에 따른, 전자 장치가 인식한 사물에 기초하여 지정된 음성 피드백을 제공하는 방법을 도시한다.
도 7b는 일 실시 예에 따른, 전자 장치가 인식한 사물의 경계에 대하여 지정된 음성 피드백을 제공하는 방법을 도시한다.
도 7c는 일 실시 예에 따른, 전자 장치가 복수의 사물을 인식하고 지정된 음성 피드백을 제공하는 방법을 도시한다.
도 8은 일 실시 예에 따른, 전자 장치가 사용자의 제스처를 인식하고 미리 정의된 명령을 수행하는 흐름도를 나타낸다.
도 9는 다양한 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은 일 실시 예에 따른, 사용자의 제스처를 인식하는 전자 장치를 나타낸다.
도 1을 참조하면, 전자 장치(100)는 카메라 모듈을 포함할 수 있고, 상기 카메라 모듈은 제한된 범위의 FoV(101)를 가질 수 있다. 본 문서에서, 상기 카메라 모듈의 FoV(101)는 전자 장치(100)의 FoV(101)와 동일하게 이해될 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자(1)의 음성 명령 또는 제스처(10a)에 의한 명령을 수신할 수 있다. 일 실시 예에 따르면, 상기 음성 명령은 지정된 음성을 포함할 수 있다. 예를 들면, 상기 음성 명령은 “빅스비”, “하이 빅스비”, 또는 “안녕 빅스비” 등의 지정된 음성을 포함할 수 있다. 일 실시 예에서, 상기 지정된 음성은 전자 장치(100)의 음성 인식 기능을 실행시킬 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 상기 지정된 음성의 입력에 응답하여 사용자(1)를 바라보도록 설정될 수 있다. 예를 들면, 전자 장치(100)의 시야(field of view, FoV)(101)를 상기 음성이 입력된 방향으로 변경시킬 수 있다. 다른 실시 예에 따르면, 전자 장치(100)는 상기 지정된 음성이 입력되면 사용자에게 지정된 응답을 제공하도록 설정될 수 있다. 예를 들면, 전자 장치(100)는 상기 지정된 음성의 입력에 응답하여 사용자(1)에게 추가적인 입력을 요구하는 음성이 제공될 수 있다.
일 실시 예에 따르면, 상기 카메라 모듈의 FoV(101)는 제한된 범위를 가지므로 상기 카메라 모듈의 FoV(101)는 사용자(1)의 음성 명령을 수신하는 시점에서 사용자(1)를 포함하지 않을 수 있다. 이 경우, 전자 장치(100)는 상기 음성 명령의 획득에 응답하여 사용자(1)가 상기 카메라 모듈의 FoV(101)에 포함되도록 카메라 모듈의 촬영 방향을 변경할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자(1)의 제스처(10a)를 인식하고 사용자(1)의 지정된 신체 일부, 예컨대, 사용자(1)의 손이 가리키는 방향을 지정된 명령에 대한 입력으로 수신할 수 있다. 일 실시 예에 따르면, 상기 사용자(1)의 손이 가리키는 방향은 다양한 알고리즘에 의해 추정될 수 있다. 예를 들면, 전자 장치(100)는 사용자(1)의 머리, 어깨, 손, 또는 손 끝 등 사용자(1)의 신체 중 적어도 두 개의 위치를 연결하고 연장한 방향으로 상기 방향을 추정할 수 있다.
일 실시 예에 따르면, 사용자(1)의 제스처(10a)는 움직이는 제스처일 수 있다. 예를 들면, 사용자(1)는 지정된 방향으로 지정된 영역(10b)을 설정하려는 경우 손으로 실질적인 원 또는 다각형을 그리는 제스처(10a)를 반복할 수 있다.
일 실시 예에서, 전자 장치(100)는 지정된 시간 간격으로 제스처 정보를 획득할 수 있다. 일 실시 예에서, 상기 지정된 시간 간격이 짧을수록 사용자의 제스처에 대한 제스처 정보를 더 세밀하게 획득할 수 있다.
상기 제스처 정보는 예를 들면, 사용자(1)의 지정된 신체 일부, 예컨대, 손에 대한 좌표를 포함할 수 있다. 다른 예를 들면, 상기 제스처 정보는 상기 제스처(10a)의 방향 벡터를 포함할 수 있다. 상기 방향 벡터는 상기 언급된 바와 같이 다양한 알고리즘에 의해 추정될 수 있다.
일 실시 예에 따르면, 상기 카메라 모듈의 FoV(101)는 제한된 범위를 가지므로 전자 장치(100)가 사용자(1)의 제스처(10a)를 인식하는 시점에 상기 카메라 모듈의 FoV(101)는 사용자(1)가 지시하는 영역(10b)을 포함하지 않을 수 있다. 이 경우, 전자 장치(100)는 상기 사용자(1)가 지시하는 영역(10b)에 대한 공간 정보를 획득하기 위해 사용자(1)의 제스처(10a)에 의해 판단되는 방향에 기초하여 FoV(101)를 변경시킬 수 있다. 예를 들면, 전자 장치(100)는 지정된 시간 동안 상기 제스처 정보의 일부를 획득할 수 있다. 상기 획득된 제스처 정보의 일부는 상기 제스처(10a)의 "?? 벡터를 포함할 수 있고, 전자 장치(100)는 상기 방향 벡터에 대응하는 방향으로 FoV(101)를 변경시킬 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 상기 변경된 FoV(101)에 대응하는 공간 정보를 획득할 수 있다. 예를 들면, 전자 장치(100)는 카메라 모듈을 통해 상기 변경된 FoV(101)에 대응하는 영상 정보를 획득할 수 있다. 상기 영상 정보는 사용자(1)가 지시하는 영역에 대한 예컨대, 구조, 형태, 거리, 또는 배치되는 사물의 종류 또는 크기 등을 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 상기 획득한 공간 정보 및 이전에 획득된 제스처 정보의 일부에 기초하여, 사용자(1)가 지시하고자 하는 지정된 영역(10b)에 대한 정보를 얻을 수 있다. 예를 들면, 전자 장치(100)는 상기 공간 정보 및 제스처 정보의 상기 일부에 기초하여 사용자(1)가 지시하고자 하는 대상의 정보 또는 지시하고자 하는 지점에 대한 공간 좌표를 획득할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제스처 정보 중 상기 일부를 제외한 나머지를 획득하기 위해 FoV(101)를 다시 변경할 수 있다. 전자 장치(100)가 FoV(101)를 다시 변경하여 제스처 정보의 나머지를 전부 획득하면 이전에 획득된 공간 정보 및 제스처 정보에 기초하여 사용자(1)가 지시하는 지정된 영역(10b)에 대한 정보를 획득할 수 있다.
일 실시 예에 따르면, 전자 장치(100)가 지정된 영역(10b)에 대한 정보를 획득하면 지정된 영역(10b)에 기초한 다양한 동작을 수행할 수 있다. 예를 들면, 사용자(1)의 음성 명령에 기초하여 지정된 영역(10b) 내부에 있는 사물을 정리하는 동작을 수행할 수 있다. 이 경우, 전자 장치(100)는 지정된 영역(10b) 내부에 있는 사물에 대한 정보를 획득할 수 있고, 상기 획득된 정보에 기초하여 지정된 조건에 만족하는 사물에 대해서 상기 동작을 수행할 수 있다. 예컨대, 전자 장치(100)는 지정된 크기보다 작은 사물에 대해서만 상기 동작을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치(100)가 공간 정보를 획득하기 위해 FoV(101)를 변경하는 동안 획득하지 못한 제스처 정보는 다양한 방식으로 추정될 수 있다. 예를 들면, 전자 장치(100)는 상기 공간 정보를 획득하기 전에 획득된 제스처 정보의 일부와 상기 공간 정보를 획득한 후에 획득된 제스처 정보의 다른 일부에 기초로 하여 상기 제스처 정보를 추정할 수 있다. 또 다른 예를 들면, 전자 장치(100)는 상기 공간 정보를 획득하기 전에 획득된 제스처 정보의 일부로부터 상기 제스처 정보를 추정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 상기 획득된 공간 정보 및 상기 획득되거나 추정된 제스처 정보를 기초로 하여 사용자(1)가 지시한 지정된 영역(10b)에 대한 정보를 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 상기 획득된 공간 정보 및 상기 획득되거나 추정된 제스처 정보에 기초하여 피드백 음원을 재생할 수 있다. 예를 들면, 전자 장치(100)는 획득된 공간 정보 및 현재 획득되고 있는 제스처 정보에 기초하여 현재 사용자(1)가 지시하는 지점에 대한 정보를 지정된 음원으로 구별하여 실시간으로 사용자(1)에게 제공할 수 있다. 이를 통해, 사용자(1)는 전자 장치(100)가 인식하고 있는 지점과 사용자(1)가 의도한 지점과의 동일성을 판단할 수 있다.
도 2는 일 실시 예에 따른, 사용자의 제스처를 인식하는 전자 장치의 블록도를 나타낸다.
도 2를 참조하면, 전자 장치(100)는 음성 인식 센서(110), 카메라 모듈(120), 엑츄에이터(130), 및 프로세서(140)를 포함할 수 있다. 다양한 실시 예에 따르면, 전자 장치(100)는 도 2에 도시되지 않은 구성을 추가로 더 포함하거나 도 2에 도시된 구성 중 일부를 생략할 수도 있다. 예를 들면, 전자 장치(100)는 카메라 모듈(120)을 통해 획득하는 공간 정보 또는 제스처 정보를 저장하기 위해 메모리를 더 포함할 수도 있다. 또 다른 예를 들면, 전자 장치(100)는 피드백 음원의 재생을 위한 스피커를 더 포함할 수도 있다.
음성 인식 센서(110)는 사용자(예: 도 1의 사용자(1))의 음성 명령을 입력으로 수신하기 위한 센서일 수 있다. 예를 들면, 음성 인식 센서(110)는 마이크를 포함할 수 있다. 일 실시 예에 따르면, 음성 인식 센서(110)는 사용자의 음성을 구별하기 위해 복수의 필터를 포함할 수도 있다. 상기 복수의 필터를 통해 음성 인식 센서(110)는 사용자의 유의미한 음성 명령만을 감지하고 이를 프로세서(140)에 전달할 수 있다.
카메라 모듈(120)은 전자 장치(100)의 FoV에 대응하는 이미지 데이터를 획득할 수 있다. 일 실시 예에 따르면 카메라 모듈(120)은 제한된 범위의 FoV(예: 도 1의 FoV(101))를 가질 수 있다. 상기 FoV의 범위가 제한됨에 따라, 지정된 시점에 카메라 모듈(120)이 획득할 수 있는 이미지 데이터는 지정된 범위로 제한될 수 있다. 예를 들어, 상기 지정된 시점에 카메라 모듈(120)이 획득하는 이미지 데이터는 사용자 및 사용자가 지시하는 대상 중 적어도 하나를 포함하지 않을 수 있다.
일 실시 예에 따르면, 카메라 모듈(120)은 복수 개일 수 있다. 일 실시 예에서, 상기 복수의 카메라 모듈(120)은 각각 서로 다른 FoV를 가질 수 있다. 예를 들면, 제1 카메라 모듈의 FoV는 사용자를 포함하고 사용자가 지시하는 대상은 포함하지 않을 수 있고, 제2 카메라 모듈의 FoV는 사용자가 지시하는 대상을 포함하고 사용자는 포함하지 않을 수 있다. 이 경우, 전자 장치(100)는 상기 복수의 카메라 모듈(120)을 선택적으로 활성화함으로써 사용자의 제스처 정보와 사용자가 지시하는 영역의 공간 정보를 교차적으로 획득할 수 있다.
일 실시 예에 따르면, 상기 카메라는 3D 카메라일 수도 있다. 상기 3D 카메라는 심도 정보(depth information)를 포함하는 이미지 데이터를 획득하는 카메라 모듈(120)일 수 있다.
엑츄에이터(130)는 상기 카메라 모듈(120)과 전기적으로 연결될 수 있고, 상기 카메라 모듈(120)의 촬영 방향을 변경시킬 수 있다. 예를 들면, 엑츄에이터(130)는 카메라 모듈(120)의 FoV에 사용자가 포함되도록 카메라 모듈(120)의 촬영 방향을 변경시킬 수 있다. 또 다른 예를 들면, 엑츄에이터(130)는 카메라 모듈(120)의 FoV에 사용자가 지시하는 영역이 포함되도록 카메라 모듈(120)의 촬영 방향을 변경시킬 수 있다.
프로세서(140)는 음성 인식 센서(110), 카메라 모듈(120), 및 엑츄에이터(130)와 전기적으로 연결되고 상기 구성들의 동작을 제어하도록 설정될 수 있다. 예를 들면, 프로세서(140)는 상기 카메라 모듈(120)의 촬영 방향을 변경시키도록 엑츄에이터(130)의 동작을 제어할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 전자 장치(100)가 획득한 정보에 대한 처리를 할 수 있다. 예를 들면, 프로세서(140)는 음성 인식 센서(110)가 획득한 음성 신호로부터 지정된 명령의 수행을 위한 지정된 음성이 포함되는지 여부를 판단할 수 있다. 또 다른 예를 들면, 프로세서(140)는 카메라 모듈(120)이 획득한 이미지 데이터로부터 사용자의 제스처 정보 및 사용자가 지시하는 영역의 공간 정보를 획득할 수 있다. 프로세서(140)는 상기 획득한 제스처 정보 및 공간 정보에 기초하여 사용자가 지시하는 지정된 영역을 추정할 수 있다. 또 다른 예를 들면, 프로세서(140)는 카메라 모듈(120)을 통해 획득한 제스처 정보의 일부를 통해 다른 일부의 제스처 정보를 추정할 수도 있다.
다양한 실시 예에 따르면, 상기 언급된 전자 장치의 각 구성에 대한 설명은 실시 예에 불과하고 이에 한정되지 않는다. 또한 본 명세서에 있어서, 도 2에 도시된 전자 장치(100)과 동일한 참조 부호를 갖는 구성 요소들은 도 2에서 설명한 내용이 동일하게 적용될 수 있다.
도 3은 일 실시 예에 따른, 전자 장치가 사용자의 제스처를 인식하고 미리 정의된 명령을 수행하는 흐름도를 나타낸다.
도 3을 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))가 사용자(예: 도 1의 사용자(1))의 제스처(예: 도 1의 제스처(10a))를 인식하고 미리 정의된 명령을 수행하는 동작은 동작 301 내지 동작 317을 포함할 수 있다.
동작 301에서 전자 장치는 사용자로부터 음성 명령을 획득할 수 있다. 일 실시 예에 따르면, 상기 음성 명령은 지정된 음성을 포함할 수도 있다. 일 실시 예에서, 상기 음성 명령이 상기 지정된 음성을 포함하면 전자 장치는 상기 음성 명령을 유의미한 입력으로 판단할 수 있고, 상기 음성 명령이 상기 지정된 음성을 포함하지 않으면 전자 장치는 상기 음성 명령을 무시할 수 있다.
동작 303에서 전자 장치는 상기 음성 명령의 획득에 응답하여 사용자가 카메라 모듈의 FoV에 포함되도록 카메라 모듈의 촬영 방향을 변경할 수 있다. 일 실시 예에서 상기 촬영 방향은 엑츄에이터에 의해 제어될 수 있다.
일 실시 예에 따르면, 상기 동작 303을 수행하기 전에 전자 장치는 카메라 모듈의 FoV에 사용자가 포함되는지 여부를 판단하는 동작을 수행할 수도 있다. 이 경우 카메라 모듈의 FoV에 사용자가 포함되면 동작 303은 생략될 수도 있다.
동작 305에서, 전자 장치는 제1 시점 내지 제2 시점 동안 사용자의 제스처 정보 중 제1 부분을 획득할 수 있다. 상기 제스처 정보 중 제1 부분은 제1 제스처 정보로 참조될 수 있다. 일 실시 예에서 상기 제스처 정보는 사용자의 신체 일부에 대한 좌표 및 제스처의 방향 벡터를 포함할 수 있다. 전자 장치는 상기 제1 제스처 정보를 통해 사용자가 지시하는 방향을 판단할 수 있다.
동작 307에서, 전자 장치는 상기 제1 제스처 정보를 통해 판단된 방향에 기초하여 카메라 모듈의 촬영 방향을 변경할 수 있다. 예를 들면, 전자 장치는 제2 시점에서 카메라 모듈의 FoV가 변경되도록 엑츄에이터를 제어할 수 있다.
동작 309에서, 전자 장치는 상기 변경된 FoV에 대응하는 공간 정보를 획득할 수 있다. 상기 공간 정보는 상기 제1 제스처 정보에 대응하는 지정된 위치를 포함할 수 있다.
동작 311에서, 전자 장치는 상기 제2 시점 이후 제3 시점에서 카메라 모듈의 FoV에 사용자가 포함되도록 카메라 모듈의 촬영 방향을 다시 변경할 수 있다. 예를 들면, 전자 장치는 카메라 모듈의 FoV가 변경되도록 엑츄에이터를 제어할 수 있다.
동작 313에서, 전자 장치는 카메라 모듈을 통해 상기 제3 시점 이후의 제스처 정보 예컨대, 상기 제스처 정보의 제2 부분을 획득할 수 있다. 상기 제2 부분은 제2 제스처 정보로 참조될 수 있다.
예컨대, 상기 제1 제스처 정보에 포함되는 제2 시점에서 신체 일부의 좌표와 상기 제2 제스처 정보에 포함되는 상기 제3 시점에서 신체 일부의 좌표에 기초하여 상기 제2 시점 내지 상기 제3 시점 사이에서 신체 일부의 좌표들을 추정할 수 있다.
동작 315에서, 전자 장치는 공간 정보 및 상기 획득된 제스처 정보에 기초하여 사용자가 지시한 지정된 영역(예: 도 1의 지정된 영역(10b))을 판단할 수 있다. 일 실시 예에서, 상기 지정된 영역을 판단하는 경우 전자 장치는 상기 제2 시점 내지 제3 시점 사이의 제스처 정보를 추정할 수 있다. 예를 들면, 전자 장치는 상기 제1 제스처 정보에 포함되는 제2 시점에서의 신체 일부의 좌표와 상기 제2 제스처 정보에 포함되는 상기 제3 시점에서의 신체 일부의 좌표에 기초하여 상기 제2 시점 내지 상기 제3 시점 사이에서 신체 일부의 좌표들을 추정할 수 있다.
일 실시 예에 따르면, 상기 지정된 영역을 판단하는 동작은 상기 동작 309에서 공간 정보를 획득한 이후부터 상기 동작 313에서 제2 제스처 정보를 획득하는 시점까지 이루어질 수 있다. 일 실시 예에 따르면, 상기 동작 315는 상기 동작 309 내지 상기 동작 313과 동시에 이루어질 수 있다.
동작 317에서, 전자 장치는 상기 동작 315에서 판단된 지정된 영역에 기초하여 미리 정의된 명령을 수행할 수 있다. 일 실시 예에서, 상기 미리 정의된 명령은 다양하게 설정될 수 있다. 예를 들면, 상기 미리 정의된 명령은 상기 지정된 영역 내의 사물을 정리하는 명령일 수 있다. 다른 예를 들면, 상기 미리 정의된 명령은 전자 장치에 대하여 상기 지정된 영역의 접근을 금지하는 명령일 수 있다. 또 다른 예를 들면, 상기 미리 정의된 명령은 상기 지정된 영역 내에 위치하는 사물의 정보를 제공하도록 하는 명령일 수도 있다.
상기 동작 301 내지 동작 317을 통해 전자 장치는 사용자가 지시하는 제스처에 대응하는 지정된 영역을 판단할 수 있고, 상기 판단된 지정된 영역에 대해 미리 정의된 명령을 수행할 수 있다.
도 4는 일 실시 예에 따른, 전자 장치가 사용자의 제스처를 인식하고 미리 정의된 명령을 수행하는 흐름도를 나타낸다.
도 4를 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))가 사용자(예: 도 1의 사용자(1))의 제스처(예: 도 1의 제스처(10a))를 인식하고 미리 정의된 명령을 수행하는 동작은 동작 401 내지 동작 419을 포함할 수 있다. 도 4의 설명에서 도 3의 설명과 중복되는 내용은 생략될 수 있다.
동작 401 내지 동작 411에서 전자 장치는 도 3에 도시된 동작 301 내지 동작 311과 동일한 동작을 수행할 수 있다. 예를 들면, 전자 장치는 사용자의 음성 명령을 획득하고 촬영 방향을 변경하여 제1 시점 내지 제2 시점에서의 제스처 정보, 예컨대 제1 제스처 정보를 획득할 수 있다. 전자 장치는 다시 촬영 방향을 변경하여 공간 정보를 획득할 수 있고 이후 다시 촬영 방향을 사용자의 방향으로 변경할 수 있다.
동작 413에서 전자 장치는 제스처 정보 중 제2 부분을 추정할 수 있다. 상기 제2 부분은 제2 제스처 정보로 참조될 수 있다. 일 실시 예에서, 상기 제2 제스처 정보는 전자 장치가 사용자의 제스처를 직접 획득하지 못하는 부분, 예컨대, 상기 제2 시점 내지 상기 제3 시점 사이의 시간 동안 사용자의 제스처에 대한 제스처 정보로 이해될 수 있다.
일 실시 예에 따르면, 전자 장치는 동작 405에서 획득한 제1 제스처 정보 및 상기 제2 시점과 상기 제3 시점 사이의 경과 시간에 기초하여 상기 제2 제스처 정보를 추정할 수 있다.
동작 415에서, 전자 장치는 제스처 정보 중 제3 부분을 획득할 수 있다. 상기 제3 부분은 제3 제스처 정보로 참조될 수 있다. 일 실시 예에서, 상기 제3 제스처 정보는 상기 제3 시점 이후의 사용자의 제스처에 대한 제스처 정보일 수 있다. 상기 제3 제스처 정보를 획득하면 전자 장치는 상기 제1 제스처 정보, 상기 제2 제스처 정보를 포함하여 제스처 정보의 전부를 입력으로 획득할 수 있다.
동작 417에서, 전자 장치는 도 3에 도시된 동작 313과 동일 또는 유사한 동작을 수행할 수 있다. 예를 들면, 전자 장치는 동작 409에서 공간 정보를 획득한 제2 시점에서, 제1 제스처 정보를 획득하고 제2 제스처 정보 중 일부를 추정할 수 있다. 전자 장치는 상기 제2 시점에서 상기 공간 정보 및 상기 획득되거나 추정된 제스처 정보에 기초하여 지정된 영역(예: 도 1의 지정된 영역(10b))을 판단할 수 있다. 다른 예를 들면, 전자 장치는 상기 제2 시점 이후에, 제2 제스처 정보 중 나머지 일부를 추정하고 제3 제스처 정보를 획득할 수 있다. 전자 장치는 상기 제2 시점 이후에 상기 공간 정보 및 상기 획득되거나 추정된 제스처 정보에 기초하여 지정된 영역을 판단할 수 있다.
동작 419에서, 전자 장치는 도 3에 도시된 동작 317과 동일한 동작을 수행할 수 있다. 예를 들면, 전자 장치는 동작 417에서 판단된 지정된 영역을 기초로 미리 정의된 명령을 수행할 수 있다.
상기 동작 401 내지 동작 419를 통해 전자 장치는 사용자가 지시하는 제스처에 대응하는 지정된 영역을 판단할 수 있고, 상기 판단된 지정된 영역에 대해 미리 정의된 명령을 수행할 수 있다.
도 5는 일 실시 예에 따른, 전자 장치가 사용자의 제스처를 추정하는 방법을 도시한다.
도 5를 참조하면, 시간의 흐름에 따라 변화하는 사용자(예: 도 1의 사용자(1))의 제스처(예: 도 1의 제스처(10a))에 대한 제스처 정보를 확인할 수 있다. 일 실시 예에 따르면, 전자 장치(예: 도 1 및 도 2의 전자 장치(100))는 제1 시점 내지 제2 시점에서 지정된 시간 간격으로 제스처 정보를 획득할 수 있다. 예를 들면, 전자 장치는 제1 지점(511) 내지 제k 지점(514)의 제스처 정보를 획득할 수 있다. 일 실시 예에서, 상기 제스처 정보는 사용자의 신체 일부에 대한 좌표(예: 제1 지점의 좌표
Figure pat00001
(511)) 및 방향 벡터(예: 제1 벡터
Figure pat00002
(521))를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치는 제1 시점 내지 제2 시점에서 획득한 상기 제스처 정보에 기초하여 제2 시점 이후의 제스처 정보를 추정할 수 있다. 예를 들면 전자 장치는 제k-2 지점(512) 내지 제k 지점(514)의 제스처 정보에 기초하여 제k+1 지점(515) 내지 제k+n 지점(517)의 제스처 정보를 추정할 수 있다.
일 실시 예에 따르면, t 지점에서의 손의 위치 좌표는
Figure pat00003
로 나타낼 수 있고, 상기 좌표의 변화량은
Figure pat00004
로 나타낼 수 있다. 일 실시 예에 따르면, 상기 t 지점에서 방향 벡터는
Figure pat00005
로 나타낼 수 있고, 상기 방향 벡터의 변화량은
Figure pat00006
로 나타낼 수 있다.
일 실시 예에 따르면, 제스처 정보는 추정되는 시점보다 이전에 획득되거나 추정된 제스처 정보에 기초하여 추정될 수 있다. 예를 들면, 제k+1 지점(515)의 좌표는
Figure pat00007
로 추정될 수 있다. 제k+1 지점(515)의 방향 벡터(525)는
Figure pat00008
로 추정될 수 있다.
또 다른 예를 들면, 제k+n 지점(517)의 좌표는
Figure pat00009
로 추정될 수 있다. 제k+n 지점(517)의 방향 벡터(527)는
Figure pat00010
로 추정될 수 있다.
상기 과정을 통해 전자 장치는 상기 제2 시점 이후의 제스처 정보를 순차적으로 추정할 수 있다.
도 6은 일 실시 예에 따른, 전자 장치가 지정된 영역을 확장시키는 실시 예를 나타낸다.
도 6을 참조하면, 전자 장치(100)는 사용자(예: 도 1의 사용자(1))의 음성 명령을 획득하고, 상기 음성 명령의 획득에 응답하여 지정된 영역을 판단할 수 있다. 예를 들면, 전자 장치(100)는 도 6에 도시된 바와 같이, 제1 영역(610)을 상기 지정된 영역으로 판단할 수 있다. 상기 지정된 영역의 판단은 예를 들면, 도 3 또는 도 4에 도시된 흐름도에 따라 이루어질 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 지정된 영역에 포함되는 사물에 대한 정보를 획득할 수 있다. 상기 사물에 대한 정보는 예컨대, 사물의 크기, 사물과의 거리, 사물의 색상 등을 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 상기 지정된 영역에 상기 사물이 일부만 포함되는지 여부를 확인할 수 있다. 예를 들면, 도 6에 도시된 바와 같이 제1 사물(60)의 전부가 제1 영역(610)의 내부에 포함되는지 또는 제1 사물(60)의 일부만이 제1 영역(610)의 내부에 포함되는지 여부를 판단할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 영역(610)에 일부만 포함되는 제1 사물(60)을 인식하면 상기 판단된 지정된 영역을 제1 영역(610)에서 제1 사물(60)의 전부를 포함하는 제2 영역(620)으로 확대할 수 있다. 전자 장치(100)는 사용자가 실제 지정한 영역이 제1 영역(610)이더라도 상기 지정된 영역을 제2 영역(620)으로 인식하고 미리 정의된 명령을 수행할 수 있다.
예를 들면, 사용자는 전자 장치(100)가 도 6에 도시된 제1 사물(60)에 대한 접근을 금지하도록 명령하면서 제1 영역(610)을 지시할 수 있다. 이 경우, 사용자가 실제 지시한 제1 영역(610)에는 제1 사물(60)의 일부만이 포함되지만 전자 장치(100)는 사용자가 지시한 지정된 영역을 제2 영역(620)으로 판단하고, 제1 사물(60) 전부에 대한 접근 금지 명령을 수행할 수 있다.
도 7a는 일 실시 예에 따른, 전자 장치가 인식한 사물에 기초하여 지정된 음성 피드백을 제공하는 방법을 도시한다.
도 7a를 참조하면, 전자 장치(100)는 사용자의 지시하는 위치에 배치되는 사물에 따라 서로 다른 피드백 음원을 제공할 수 있다. 예를 들면 전자 장치(100)는 제1 대상(71a) 및 제2 대상(72a)에 따라 서로 상이한 음원을 제공할 수 있다. 도 7a에 도시된 제1 그래프(710a)는 제1 대상(71a)에 대한 피드백 음원을 나타낼 수 있고, 제2 그래프(720a)는 제2 대상(72a)에 대한 피드백 음원을 나타낼 수 있다. 상기 피드백 음원의 제공을 위해 전자 장치(100)는 스피커를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자의 제스처 동작에 따라 실시간으로 사용자가 지시하는 대상에 대한 정보를 획득할 수 있다. 일 실시 예에서, 전자 장치(100)는 제스처 정보의 일부, 예컨대, 제1 제스처 정보를 획득한 후에 공간 정보를 획득하면 상기 획득된 제스처 정보 및 상기 획득된 공간 정보에 기초하여 사용자가 지시하는 대상에 대한 정보를 획득할 수 있다. 다른 실시 예에서, 전자 장치(100)는 상기 공간 정보를 획득한 후에 제스처 정보의 일부, 예컨대, 제1 제스처 정보로부터 추정된 제2 제스처 정보를 추정하면 상기 공간 정보 및 추정된 제스처 정보의 적어도 일부에 기초하여 사용자가 지시하는 대상에 대한 정보를 획득할 수도 있다.
일 실시 예에 따르면, 전자 장치(100)는 상기 획득된 정보에 기초하여 사용자에게 지정된 음원을 제공할 수 있다. 예를 들면, 전자 장치(100)는 상기 획득된 정보에 기초하여 지정된 음원의 음 높이(pitch) 또는 주기를 상이하게 조절할 수 있다. 전자 장치(100)는 상기 조절된 음원을 재생함으로서 전자 장치(100)가 인식하는 대상에 대한 정보를 사용자에게 실시간으로 제공할 수 있다. 일 실시 예에 따르면, 상기 대상에 대한 정보는 대상의 거리, 대상의 크기, 대상의 경계 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자가 지시하는 대상의 크기에 기초하여 음원의 음 높이를 조절할 수 있다. 예를 들면, 전자 장치(100)는 상기 대상의 크기가 상대적으로 크면 상대적으로 높은 음을 가지는 음원을 재생할 수 있다. 다른 예를 들면, 전자 장치(100)는 상기 대상의 크기가 상대적으로 작으면 상대적으로 낮음 음을 가지는 음원을 재생할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자가 지시하는 대상의 거리에 기초하여 음원의 주기를 조절할 수 있다. 예를 들면, 전자 장치(100)는 상기 대상의 거리가 상대적으로 멀면 상대적으로 주기가 긴 음원을 재생할 수 있다. 다른 예를 들면, 전자 장치(100)는 상기 대상의 거리가 상대적으로 가까우면 상대적으로 주기가 짧은 음원을 재생할 수 있다.
일 실시 예에 따르면, 제1 대상(71a)의 크기는 상대적으로 작고 전자 장치(100)로부터 거리는 상대적으로 가까우므로 제1 그래프(710a)에 도시된 바와 같이, 높은 음을 가지는 음원이 짧은 주기로 재생될 수 있다.
일 실시 예에 따르면, 제2 대상(72a)의 크기는 상대적으로 크고 전자 장치(100)로부터 거리는 상대적으로 멀므로 제2 그래프(720a)에 도시된 바와 같이, 낮은 음을 가지는 음원이 긴 주기로 재생될 수 있다.
이를 통해, 전자 장치(100)는 전자 장치(100)가 인식하는 대상에 대한 정보를 사용자에게 제공할 수 있고, 사용자는 전자 장치(100)가 인식하는 대상이 사용자가 의도한 대상과 동일한지 여부를 판단할 수 있다.
도 7b는 일 실시 예에 따른, 전자 장치가 인식한 사물의 경계에 대하여 지정된 음성 피드백을 제공하는 방법을 도시한다.
도 7b를 참조하면, 전자 장치(100)는 사용자가 지시하는 지점이 이동함에 따라 피드백 음원을 제공할 수 있다. 사용자가 지시하는 지점은 예컨대, 제1 대상(71b)에 대하여 제1 방향(7b)에 따라 제1 지점(721b)으로부터 제2 지점(722b)으로 이동될 수 있다. 제1 그래프(710b)는 사용자가 지시하는 지점이 상기와 같이 이동함에 따라 재생되는 피드백 음원을 나타낼 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자가 지시하는 제1 대상(71b)의 경계에 도달하면 사용자가 인지할 수 있도록 지정된 방식으로 지정된 음원을 재생할 수 있다. 예를 들면, 전자 장치(100)는 제1 그래프(710b)에 도시된 바와 같이, 사용자가 지시하는 대상의 경계에 도달하는 순간 음 높이를 변동시킬 수 있다.
제1 그래프(710b)를 참조하면, 사용자의 지시하는 지점이 제1 지점(721b)에서 제1 방향(7b)으로 이동함에 따라 전자 장치(100)는 일정한 피드백 음원을 제공할 수 있고, 사용자의 지시하는 지점이 제2 지점(722b)에 도달하면 전자 장치(100)는 음 높이가 변동된 피드백 음원을 제공할 수 있다.
이를 통해, 전자 장치(100)는 전자 장치(100)가 인식하는 대상에 대한 정보를 사용자에게 제공할 수 있고, 사용자는 전자 장치(100)가 인식하는 대상이 사용자가 의도한 대상과 동일한지 여부를 판단할 수 있다.
도 7c는 일 실시 예에 따른, 전자 장치가 복수의 사물을 인식하고 지정된 음성 피드백을 제공하는 방법을 도시한다.
도 7c를 참조하면, 사용자가 지시하는 지점이 제1 방향(7c)으로 제1 지점(721c)으로부터 제2 지점(722c)으로 이동하는 경우, 전자 장치(100)는 지정된 피드백 음원을 사용자에게 제공할 수 있다. 일 실시 예에 따르면, 사용자가 지시하는 지점은 제1 지점(721c)으로부터 제1 방향(7c)으로 제2 지점(722c)까지 이동할 수 있다. 제1 그래프(710c)는 상기와 같이 사용자가 지시하는 지점이 이동하는 경우 전자 장치(100)가 재생하는 피드백 음원을 나타낼 수 있다.
일 실시 예에 따르면, 사용자가 지시하는 지점은 제1 대상(71c), 후면 배경(74c), 제2 대상(72c), 후면 배경(74c), 및 제3 대상(73c)의 순서로 이동할 수 있다. 제1 그래프(710c)를 참조하면, 각각의 대상의 크기 또는 거리에 따라 재생되는 음 높이 또는 주기가 상이한 것을 확인할 수 있고, 각각의 대상의 경계에서 음높이가 변경되는 것을 확인할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 도 7c에 도시된 바와 같이, 사용자의 지시하는 지점이 변화함에 따라 서로 다른 특징을 가지는 피드백 음원을 재생할 수 있다. 이를 통해 전자 장치(100)는 사용자에게 현재 인식되고 있는 지점에 대한 정보를 실시간으로 제공할 수 있고 사용자는 상기 제공되는 정보를 통해 전자 장치(100)가 실제 사용자가 의도한대로 인식하고 있는지 여부를 실시간으로 확인할 수 있다.
도 8은 일 실시 예에 따른, 전자 장치가 사용자의 제스처를 인식하고 미리 정의된 명령을 수행하는 흐름도를 나타낸다.
도 8을 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1 및 도 2의 전자 장치(100))가 사용자(예: 도 1의 사용자(1))의 제스처(예: 도 1의 제스처(10a))를 인식하고 미리 정의된 명령을 수행하는 동작은 동작 801 내지 동작 825를 포함할 수 있다. 도 8의 설명에서 도 4의 설명과 중복되는 내용은 생략될 수 있다.
일 실시 예에 따르면, 도 8에 도시된 동작 801 내지 동작 813에서 전자 장치는 도 4에 도시된 동작 401 내지 동작 413과 동일한 동작을 수행할 수 있다. 예를 들면, 전자 장치는 사용자의 음성 명령을 획득하고 촬영 방향을 변경하여 제1 시점 내지 제2 시점에서의 제스처 정보, 예컨대 제1 제스처 정보를 획득할 수 있다. 전자 장치는 다시 촬영 방향을 변경하여 공간 정보를 획득할 수 있고 이후 다시 촬영 방향을 사용자의 방향으로 변경할 수 있다. 전자 장치가 사용자를 향하지 않는 제2 시점 내지 제3 시점에서의 제스처 정보, 예컨대 제2 제스처 정보는 제1 제스처 정보 및 제2 시점 내지 제3 시점 사이의 경과 시간을 기초로 추정할 수 있다.
동작 815에서, 전자 장치는 상기 동작 813에서 추정된 제2 제스처 정보에 대한 정확도 평가를 할 수 있다. 예를 들면, 전자 장치는 상기 동작 813에서 상기 제2 시점 내지 상기 제3 시점 사이의 시간 동안의 제스처 정보를 추정할 수 있다. 상기 제3 시점에서, 전자 장치는 사용자를 향하고 있으므로 카메라 모듈로부터 상기 제3 시점에서의 제스처 정보를 획득할 수 있다. 전자 장치는 상기 획득된 제3 시점에서의 제스처 정보와 상기 추정된 제3 시점에서의 제스처 정보를 비교할 수 있고 이를 통해 상기 제2 제스처 정보에 대한 정확도를 산출할 수 있다.
일 실시 예에서, 상기 산출된 정확도가 지정된 수준보다 높다면 전자 장치는 동작 817을 수행할 수 있고, 상기 산출된 정확도가 지정된 수준보다 낮다면 전자 장치는 동작 819를 수행할 수 있다.
동작 817에서, 전자 장치는 동작 813에서 추정된 제2 제스처 정보를 신뢰할 수 있으므로 제3 제스처 정보를 획득할 수 있다. 이를 통해 전자 장치는 제1 제스처 정보, 제2 제스처 정보, 및 제3 제스처 정보를 포함하는 사용자의 제스처에 대한 제스처 정보 전부를 획득 또는 추정할 수 있다.
동작 819에서, 전자 장치는 동작 813에서 추정된 제2 제스처 정보를 신뢰할 수 없으므로 사용자로부터 새로운 제스처 정보를 획득할 수 있다. 예를 들면, 전자 장치는 상기 제3 시점 이전에 입력된 제스처 정보를 삭제하고 상기 제3 시점 이후의 제스처 정보를 새로 획득할 수 있다. 다른 예를 들면, 전자 장치는 상기 제3 시점에서 사용자에게 새로운 제스처를 요구하도록 지정된 음원을 재생할 수 있다. 이를 통해 전자 장치는 사용자의 제스처에 대한 제스처 정보 전부를 획득할 수 있다.
동작 821에서 전자 장치는 공간 정보 및 제스처 정보에 기초하여 사용자가 지시하는 지정된 영역(예: 도 1의 지정된 영역(10b))을 판단하고 지정된 피드백 음원을 재생할 수 있다. 일 실시 예에서, 상기 제스처 정보는 획득되거나 추정되고 있는 제스처 정보일 수 있다. 예를 들면, 상기 제스처 정보는 동작 813에서 추정되고 있는 제2 제스처 정보를 포함할 수 있고, 동작 819에서 새로 획득되는 제스처 정보를 포함할 수도 있다. 일 실시 예에서, 상기 지정된 영역을 판단하고 지정된 피드백 음원을 재생하는 동작은 사용자의 지시하는 시점이 이동함에 따라 실시간으로 이루어질 수 있다.
동작 823에서, 전자 장치는 지정된 영역의 내부에 배치되는 사물에 대한 정보를 판단할 수 있다. 예를 들면, 전자 장치는 상기 지정된 영역에 사물의 전부가 포함되는지 또는 사물의 일부만 포함되는지 여부를 판단할 수 있다. 또 다른 예를 들면, 전자 장치는 상기 지정된 영역에 포함되는 사물의 크기, 종류 등을 판단할 수 있다.
동작 825에서, 전자 장치는 동작 823에서 판단된 사물에 대한 정보에 기초하여 미리 정의된 명령을 수행할 수 있다. 예를 들면, 전자 장치는 상기 지정된 영역에 포함되는 사물에 대해 접근을 금지하는 명령을 수행할 수 있다. 또 다른 예를 들면, 전자 장치는 상기 지정된 영역에 포함되는 사물을 정리하는 명령을 수행할 수 있다. 이 경우 전자 장치는 상기 동작 823에서 판단된 사물에 대한 정보에 기초하여 지정된 크기보다 작은 사물에 대해서 상기 동작을 수행할 수도 있다.
상기 동작 801 내지 동작 825를 통해 전자 장치는 사용자가 지시하는 제스처에 대응하는 지정된 영역을 실시간으로 판단할 수 있고 상기 지정된 영역에 대한 피드백을 사용자에게 실시간으로 제공할 수 있다. 전자 장치는 상기 판단된 지정된 영역에 대해 미리 정의된 명령을 수행할 수 있다.
도 9는 다양한 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 9를 참조하면, 네트워크 환경(900)에서 전자 장치(901)는 제 1 네트워크(998)(예: 근거리 무선 통신)를 통하여 전자 장치(902)와 통신하거나, 또는 제 2 네트워크(999)(예: 원거리 무선 통신)를 통하여 전자 장치(904) 또는 서버(908)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(901)는 서버(908)를 통하여 전자 장치(904)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(901)는 프로세서(920), 메모리(930), 입력 장치(950), 음향 출력 장치(955), 표시 장치(960), 오디오 모듈(970), 센서 모듈(976), 인터페이스(977), 햅틱 모듈(979), 카메라 모듈(980), 전력 관리 모듈(988), 배터리(989), 통신 모듈(990), 가입자 식별 모듈(996), 및 안테나 모듈(997)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(901)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(960) 또는 카메라 모듈(980))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 예를 들면, 표시 장치(960)(예: 디스플레이)에 임베디드된 센서 모듈(976)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(920)는, 예를 들면, 소프트웨어(예: 프로그램(940))를 구동하여 프로세서(920)에 연결된 전자 장치(901)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(920)는 다른 구성요소(예: 센서 모듈(976) 또는 통신 모듈(990))로부터 수신된 명령 또는 데이터를 휘발성 메모리(932)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(934)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(920)는 메인 프로세서(921)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(921)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(923)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(923)는 메인 프로세서(921)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(923)는, 예를 들면, 메인 프로세서(921)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(921)를 대신하여, 또는 메인 프로세서(921)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(921)와 함께, 전자 장치(901)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(960), 센서 모듈(976), 또는 통신 모듈(990))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(923)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(980) 또는 통신 모듈(990))의 일부 구성 요소로서 구현될 수 있다. 메모리(930)는, 전자 장치(901)의 적어도 하나의 구성요소(예: 프로세서(920) 또는 센서모듈(976))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(940)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(930)는, 휘발성 메모리(932) 또는 비휘발성 메모리(934)를 포함할 수 있다.
프로그램(940)은 메모리(930)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(942), 미들 웨어(944) 또는 어플리케이션(946)을 포함할 수 있다.
입력 장치(950)는, 전자 장치(901)의 구성요소(예: 프로세서(920))에 사용될 명령 또는 데이터를 전자 장치(901)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(955)는 음향 신호를 전자 장치(901)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(960)는 전자 장치(901)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(960)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(970)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(970)은, 입력 장치(950)를 통해 소리를 획득하거나, 음향 출력 장치(955), 또는 전자 장치(901)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(902)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(976)은 전자 장치(901)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(976)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(977)는 외부 전자 장치(예: 전자 장치(902))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(977)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(978)는 전자 장치(901)와 외부 전자 장치(예: 전자 장치(902))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(979)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(979)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(980)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(980)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(988)은 전자 장치(901)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(989)는 전자 장치(901)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(990)은 전자 장치(901)와 외부 전자 장치(예: 전자 장치(902), 전자 장치(904), 또는 서버(908))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(990)은 프로세서(920)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(990)은 무선 통신 모듈(992)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(994)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(998)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(999)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(990)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일 실시 예에 따르면, 무선 통신 모듈(992)은 가입자 식별 모듈(996)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(901)를 구별 및 인증할 수 있다.
안테나 모듈(997)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(990)(예: 무선 통신 모듈(992))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(999)에 연결된 서버(908)를 통해서 전자 장치(901)와 외부의 전자 장치(904)간에 송신 또는 수신될 수 있다. 전자 장치(902, 904) 각각은 전자 장치(901)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(901)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일 실시 예에 따르면, 전자 장치(901)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(901)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(901)로 전달할 수 있다. 전자 장치(901)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 사용자가 상기 전자 장치의 시야에서 벗어난 영역을 지시하는 경우에도 사용자가 지시한 동작에 바로 응답하여 지시된 영역을 인식할 수 있다. 또한 사용자의 제스처에 대응하는 지정된 영역에 대한 정보를 사용자에게 실시간으로 제공함으로써 전자 장치로 하여금 사용자의 명령에 대한 인식의 정확도를 높일 수 있다. 이를 통해 사용자의 사용 편의성은 증대될 수 있다.
일 실시 예에 따른 전자 장치는, 적어도 하나의 센서, 지정된 범위의 FoV(field of view)를 가지는 카메라 모듈, 상기 카메라 모듈의 촬영 방향을 변경시키는 액츄에이터, 상기 적어도 하나의 센서, 및 상기 카메라 모듈, 및 상기 액츄에이터와 전기적으로 연결된 프로세서를 포함할 수 있다. 일 실시 예에서, 상기 프로세서는 상기 적어도 하나의 센서를 이용하여 상기 사용자로부터 명령을 획득하고, 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FoV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하고, 상기 카메라 모듈을 통해 상기 사용자의 움직이는 제스처에 대한 제스처 정보를 입력으로 획득할 수 있다. 일 실시 예에서 상기 프로세서는 상기 제스처 정보를 획득하는 동안, 제1 시점 내지 제2 시점에서 상기 제스처 정보 중 제1 제스처 정보를 상기 카메라 모듈로부터 획득하고, 상기 제2 시점에서, 상기 획득된 상기 제1 제스처 정보에 의해 판단되는 방향에 기초하여 상기 FoV가 변경되도록 상기 액츄에이터를 제어하고, 상기 카메라 모듈을 통해 상기 변경된 FOV에 대응하는 공간 정보를 획득하고, 상기 제2 시점 이후 제3 시점에서, 상기 사용자가 상기 카메라 모듈의 FoV에 포함되도록 상기 액츄에이터를 제어하고, 상기 제2 시점과 상기 제3 시점 사이의 경과 시간 및 상기 획득된 상기 제1 제스처 정보에 기초하여 상기 제스처 정보 중 상기 제2 시점 내지 상기 제3 시점에 대응하는 제2 제스처 정보를 추정하고, 상기 제3 시점 이후 상기 제스처 정보 중 제3 제스처 정보를 상기 카메라 모듈로부터 획득하도록 설정될 수 있다. 일 실시 예에서, 상기 프로세서는 상기 제스처 정보의 전부가 입력으로 획득되면 상기 획득된 공간 정보 및 상기 획득된 제스처 정보에 의해 판단된 지정된 영역에 기초하여 상기 명령을 수행할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 제3 시점에서 카메라 모듈로부터 획득된 제스처 정보에 기초하여 상기 제3 시점에서 추정된 제스처 정보의 정확성을 측정할 수 있다.
일 실시 예에서, 상기 프로세서는 상기 측정된 정확성이 지정된 수준보다 작으면 상기 사용자로부터 새로운 제스처 정보를 입력으로 획득하고, 상기 획득된 공간 정보 및 상기 획득된 새로운 제스처 정보에 기초하여 상기 명령을 수행할 수 있다.
일 실시 예에 따르면, 상기 제스처 정보는 상기 사용자의 지정된 신체 일부에 대한 좌표 및 상기 제스처의 방향 벡터를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 지정된 시간 간격으로 상기 제스처 정보를 획득할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 판단된 지정된 영역에 일부만 포함되는 사물을 인식하면 상기 판단된 지정된 영역을 상기 사물의 전부를 포함하는 영역으로 확대하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 공간 정보를 획득하면, 상기 획득된 공간 정보 및 상기 획득되거나 추정되는 제스처 정보의 적어도 일부에 기초하여 상기 사용자가 상기 제스처를 통해 지시하는 대상에 대한 정보를 획득할 수 있다.
일 실시 예에서, 전자 장치는 스피커를 더 포함할 수 있고, 상기 프로세서는 상기 지시하는 대상의 정보를 획득하면 상기 지시하는 대상의 정보에 기초하여 지정된 음원이 재생되도록 상기 스피커를 제어할 수 있다.
일 실시 예에서, 상기 지시하는 대상의 정보는 대상의 거리, 대상의 크기, 대상의 경계 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 지정된 영역에 포함되는 적어도 하나의 사물에 대한 정보를 획득하고, 상기 획득된 정보에 기초하여 상기 명령을 수행할 수 있다.
일 실시 예에서, 상기 적어도 하나의 사물에 대한 정보는 사물의 크기를 포함할 수 있고, 상기 프로세서는 상기 획득된 정보에 기초하여 상기 적어도 하나의 사물 중 지정된 크기보다 작은 사물에 대하여 상기 명령을 수행할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 명령에 지정된 음성이 포함되면 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FoV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경할 수 있다.
일 실시 예에 따른 전자 장치는 적어도 하나의 센서, 지정된 범위의 FoV(field of view)를 가지는 카메라 모듈, 상기 카메라 모듈의 촬영 방향을 변경시키는 액츄에이터, 및 상기 적어도 하나의 센서, 및 상기 카메라 모듈, 및 상기 액츄에이터와 전기적으로 연결된 프로세서를 포함할 수 있다. 일 실시 예에서, 상기 프로세서는, 상기 적어도 하나의 센서를 이용하여 사용자로부터 명령을 획득하고, 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FOV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하고, 상기 카메라 모듈을 통해 상기 사용자의 움직이는 제스처에 대한 제스처 정보를 입력으로 획득할 수 있다. 일 실시 예에서 상기 프로세서는, 상기 제스처 정보를 획득하는 동안, 제1 시점 내지 제2 시점에서 상기 제스처 정보 중 제1 제스처 정보를 상기 카메라 모듈로부터 획득하고, 상기 제2 시점에서, 상기 획득된 상기 제1 제스처 정보에 의해 판단되는 방향에 기초하여 상기 FoV가 변경되도록 상기 액츄에이터를 제어하고, 상기 카메라 모듈을 통해 상기 변경된 FOV에 대응하는 공간 정보를 획득하고, 상기 제2 시점 이후 제3 시점에서, 상기 사용자가 상기 카메라 모듈의 FoV에 포함되도록 상기 액츄에이터를 제어하고, 상기 제3 시점 이후, 상기 제스처 정보 중 제2 제스처 정보를 상기 카메라 모듈로부터 획득하도록 설정될 수 있다. 일 실시 예에서, 상기 프로세서는 상기 제스처 정보의 전부가 입력으로 획득되면 상기 획득된 공간 정보 및 상기 획득된 제스처 정보에 의해 판단된 지정된 영역에 기초하여 상기 명령을 수행할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 제1 제스처 정보 및 상기 제2 제스처 정보에 기초하여 상기 제2 시점 내지 상기 제3 시점에 대응하는 상기 제스처 정보 중 제3 제스처 정보를 추정할 수 있다.
일 실시 예에 따르면, 상기 제스처 정보는 상기 사용자의 지정된 신체 일부에 대한 좌표 및 상기 제스처의 방향 벡터를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 지정된 시간 간격으로 상기 제스처 정보를 획득할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 판단된 지정된 영역에 일부만 포함되는 사물을 인식하면 상기 판단된 지정된 영역을 상기 사물의 전부를 포함하는 영역으로 확대하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 공간 정보를 획득하면, 상기 획득된 공간 정보 및 상기 획득되거나 추정되는 제스처 정보의 적어도 일부에 기초하여 상기 사용자가 상기 제스처를 통해 지시하는 대상에 대한 정보를 획득할 수 있다.
일 실시 예에 따른 전자 장치는 스피커를 더 포함할 수 있고, 상기 프로세서는 상기 지시하는 대상의 정보를 획득하면 상기 지시하는 대상의 정보에 기초하여 지정된 음원이 재생되도록 상기 스피커를 제어할 수 있다.
일 실시 예에 따르면, 상기 지시하는 대상의 정보는 대상의 거리, 대상의 크기, 대상의 경계 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 지정된 영역에 포함되는 적어도 하나의 사물에 대한 정보를 획득하고, 상기 획득된 정보에 기초하여 상기 명령을 수행할 수 있다.
일 실시 예에서, 상기 적어도 하나의 사물에 대한 정보는 사물의 크기를 포함하고, 상기 프로세서는 상기 획득된 정보에 기초하여 상기 적어도 하나의 사물 중 지정된 크기보다 작은 사물에 대하여 상기 명령을 수행할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 명령에 지정된 음성이 포함되면 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FoV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경할 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(936) 또는 외장 메모리(938))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(940))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(901))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(920))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (23)

  1. 전자 장치에 있어서,
    적어도 하나의 센서;
    지정된 범위의 FoV(field of view)를 가지는 카메라 모듈;
    상기 카메라 모듈의 촬영 방향을 변경시키는 액츄에이터; 및
    상기 적어도 하나의 센서, 상기 카메라 모듈, 및 상기 액츄에이터와 전기적으로 연결된 프로세서;를 포함하고,
    상기 프로세서는,
    상기 적어도 하나의 센서를 이용하여 상기 사용자로부터 명령을 획득하고,
    상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FoV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하고,
    상기 카메라 모듈을 통해 상기 사용자의 움직이는 제스처에 대한 제스처 정보를 입력으로 획득하고, 상기 제스처 정보를 획득하는 동안:
    제1 시점 내지 제2 시점에서 상기 제스처 정보 중 제1 제스처 정보를 상기 카메라 모듈로부터 획득하고,
    상기 제2 시점에서, 상기 획득된 상기 제1 제스처 정보에 의해 판단되는 방향에 기초하여 상기 FoV가 변경되도록 상기 액츄에이터를 제어하고,
    상기 카메라 모듈을 통해 상기 변경된 FOV에 대응하는 공간 정보를 획득하고,
    상기 제2 시점 이후 제3 시점에서, 상기 사용자가 상기 카메라 모듈의 FoV에 포함되도록 상기 액츄에이터를 제어하고
    상기 제2 시점과 상기 제3 시점 사이의 경과 시간 및 상기 획득된 상기 제1 제스처 정보에 기초하여 상기 제스처 정보 중 상기 제2 시점 내지 상기 제3 시점에 대응하는 제2 제스처 정보를 추정하고,
    상기 제3 시점 이후 상기 제스처 정보 중 제3 제스처 정보를 상기 카메라 모듈로부터 획득하도록 설정되고,
    상기 제스처 정보의 전부가 입력으로 획득되면 상기 획득된 공간 정보 및 상기 획득된 제스처 정보에 의해 판단된 지정된 영역에 기초하여 상기 명령을 수행하는, 전자 장치.
  2. 청구항 1에 있어서,
    상기 프로세서는 제3 시점에서 카메라 모듈로부터 획득된 제스처 정보에 기초하여 상기 제3 시점에서 추정된 제스처 정보의 정확성을 측정하는, 전자 장치.
  3. 청구항 2에 있어서,
    상기 프로세서는 상기 측정된 정확성이 지정된 수준보다 작으면 상기 사용자로부터 새로운 제스처 정보를 입력으로 획득하고,
    상기 획득된 공간 정보 및 상기 획득된 새로운 제스처 정보에 기초하여 상기 명령을 수행하는, 전자 장치.
  4. 청구항 1에 있어서,
    상기 제스처 정보는 상기 사용자의 지정된 신체 일부에 대한 좌표 및 상기 제스처의 방향 벡터를 포함하는, 전자 장치.
  5. 청구항 1에 있어서,
    상기 프로세서는 지정된 시간 간격으로 상기 제스처 정보를 획득하는, 전자 장치.
  6. 청구항 1에 있어서,
    상기 프로세서는 상기 판단된 지정된 영역에 일부만 포함되는 사물을 인식하면 상기 판단된 지정된 영역을 상기 사물의 전부를 포함하는 영역으로 확대하도록 설정되는, 전자 장치.
  7. 청구항 1에 있어서,
    상기 프로세서는 상기 공간 정보를 획득하면, 상기 획득된 공간 정보 및 상기 획득되거나 추정되는 제스처 정보의 적어도 일부에 기초하여 상기 사용자가 상기 제스처를 통해 지시하는 대상에 대한 정보를 획득하는, 전자 장치.
  8. 청구항 7에 있어서,
    스피커를 더 포함하고,
    상기 프로세서는 상기 지시하는 대상의 정보를 획득하면 상기 지시하는 대상의 정보에 기초하여 지정된 음원이 재생되도록 상기 스피커를 제어하는, 전자 장치.
  9. 청구항 7에 있어서,
    상기 지시하는 대상의 정보는 대상의 거리, 대상의 크기, 대상의 경계 중 적어도 하나를 포함하는, 전자 장치.
  10. 청구항 1에 있어서,
    상기 프로세서는
    상기 지정된 영역에 포함되는 적어도 하나의 사물에 대한 정보를 획득하고,
    상기 획득된 정보에 기초하여 상기 명령을 수행하는, 전자 장치.
  11. 청구항 10에 있어서,
    상기 적어도 하나의 사물에 대한 정보는 사물의 크기를 포함하고,
    상기 프로세서는 상기 획득된 정보에 기초하여 상기 적어도 하나의 사물 중 지정된 크기보다 작은 사물에 대하여 상기 명령을 수행하는, 전자 장치.
  12. 청구항 1에 있어서,
    상기 프로세서는 상기 명령에 지정된 음성이 포함되면 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FoV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하는, 전자 장치.
  13. 전자 장치에 있어서,
    적어도 하나의 센서;
    지정된 범위의 FoV(field of view)를 가지는 카메라 모듈;
    상기 카메라 모듈의 촬영 방향을 변경시키는 액츄에이터; 및
    상기 적어도 하나의 센서, 상기 카메라 모듈, 및 상기 액츄에이터와 전기적으로 연결된 프로세서;를 포함하고,
    상기 프로세서는,
    상기 적어도 하나의 센서를 이용하여 사용자로부터 명령을 획득하고,
    상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FOV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하고,
    상기 카메라 모듈을 통해 상기 사용자의 움직이는 제스처에 대한 제스처 정보를 입력으로 획득하고, 상기 제스처 정보를 획득하는 동안:
    제1 시점 내지 제2 시점에서 상기 제스처 정보 중 제1 제스처 정보를 상기 카메라 모듈로부터 획득하고,
    상기 제2 시점에서, 상기 획득된 상기 제1 제스처 정보에 의해 판단되는 방향에 기초하여 상기 FoV가 변경되도록 상기 액츄에이터를 제어하고,
    상기 카메라 모듈을 통해 상기 변경된 FOV에 대응하는 공간 정보를 획득하고,
    상기 제2 시점 이후 제3 시점에서, 상기 사용자가 상기 카메라 모듈의 FoV에 포함되도록 상기 액츄에이터를 제어하고,
    상기 제3 시점 이후, 상기 제스처 정보 중 제2 제스처 정보를 상기 카메라 모듈로부터 획득하도록 설정되고,
    상기 제스처 정보의 전부가 입력으로 획득되면 상기 획득된 공간 정보 및 상기 획득된 제스처 정보에 의해 판단된 지정된 영역에 기초하여 상기 명령을 수행하는, 전자 장치.
  14. 청구항 13에 있어서,
    상기 프로세서는 상기 제1 제스처 정보 및 상기 제2 제스처 정보에 기초하여 상기 제2 시점 내지 상기 제3 시점에 대응하는 상기 제스처 정보 중 제3 제스처 정보를 추정하는, 전자 장치.
  15. 청구항 13에 있어서,
    상기 제스처 정보는 상기 사용자의 지정된 신체 일부에 대한 좌표 및 상기 제스처의 방향 벡터를 포함하는, 전자 장치.
  16. 청구항 13에 있어서,
    상기 프로세서는 지정된 시간 간격으로 상기 제스처 정보를 획득하는, 전자 장치.
  17. 청구항 13에 있어서,
    상기 프로세서는 상기 판단된 지정된 영역에 일부만 포함되는 사물을 인식하면 상기 판단된 지정된 영역을 상기 사물의 전부를 포함하는 영역으로 확대하도록 설정되는, 전자 장치.
  18. 청구항 13에 있어서,
    상기 프로세서는 상기 공간 정보를 획득하면, 상기 획득된 공간 정보 및 상기 획득되거나 추정되는 제스처 정보의 적어도 일부에 기초하여 상기 사용자가 상기 제스처를 통해 지시하는 대상에 대한 정보를 획득하는, 전자 장치.
  19. 청구항 13에 있어서,
    스피커를 더 포함하고,
    상기 프로세서는 상기 지시하는 대상의 정보를 획득하면 상기 지시하는 대상의 정보에 기초하여 지정된 음원이 재생되도록 상기 스피커를 제어하는, 전자 장치.
  20. 청구항 13에 있어서,
    상기 지시하는 대상의 정보는 대상의 거리, 대상의 크기, 대상의 경계 중 적어도 하나를 포함하는, 전자 장치.
  21. 청구항 13에 있어서,
    상기 프로세서는
    상기 지정된 영역에 포함되는 적어도 하나의 사물에 대한 정보를 획득하고,
    상기 획득된 정보에 기초하여 상기 명령을 수행하는, 전자 장치.
  22. 청구항 21에 있어서,
    상기 적어도 하나의 사물에 대한 정보는 사물의 크기를 포함하고,
    상기 프로세서는 상기 획득된 정보에 기초하여 상기 적어도 하나의 사물 중 지정된 크기보다 작은 사물에 대하여 상기 명령을 수행하는, 전자 장치.
  23. 청구항 13에 있어서,
    상기 프로세서는 상기 명령에 지정된 음성이 포함되면 상기 명령의 획득에 응답하여 상기 사용자가 상기 카메라 모듈의 상기 FoV에 포함되도록 상기 액츄에이터를 제어하여 상기 카메라 모듈의 상기 촬영 방향을 변경하는, 전자 장치.
KR1020180012654A 2018-02-01 2018-02-01 사용자의 제스처를 인식하는 전자 장치 KR102429764B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180012654A KR102429764B1 (ko) 2018-02-01 2018-02-01 사용자의 제스처를 인식하는 전자 장치
US16/962,272 US11042223B2 (en) 2018-02-01 2019-01-31 Electronic device for recognizing user's gesture
PCT/KR2019/001380 WO2019151805A1 (ko) 2018-02-01 2019-01-31 사용자의 제스처를 인식하는 전자 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180012654A KR102429764B1 (ko) 2018-02-01 2018-02-01 사용자의 제스처를 인식하는 전자 장치

Publications (2)

Publication Number Publication Date
KR20190093258A true KR20190093258A (ko) 2019-08-09
KR102429764B1 KR102429764B1 (ko) 2022-08-08

Family

ID=67478842

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180012654A KR102429764B1 (ko) 2018-02-01 2018-02-01 사용자의 제스처를 인식하는 전자 장치

Country Status (3)

Country Link
US (1) US11042223B2 (ko)
KR (1) KR102429764B1 (ko)
WO (1) WO2019151805A1 (ko)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130051319A (ko) * 2011-11-09 2013-05-20 포항공과대학교 산학협력단 신호 입력 장치 및 신호 입력 방법
KR101526425B1 (ko) * 2014-02-21 2015-06-05 현대자동차 주식회사 제스처 인식 장치 및 제스처 인식 방법
US20150262428A1 (en) * 2014-03-17 2015-09-17 Qualcomm Incorporated Hierarchical clustering for view management augmented reality
KR20150107597A (ko) * 2014-03-13 2015-09-23 오므론 가부시키가이샤 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
KR101558031B1 (ko) * 2012-10-30 2015-10-06 삼성에스디에스 주식회사 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법
KR20170008064A (ko) * 2015-07-13 2017-01-23 연세대학교 산학협력단 객체 인식을 이용하는 객체 촬영 방법 및 시스템
US20170104924A1 (en) * 2013-02-22 2017-04-13 Leap Motion, Inc. Adjusting motion capture based on the distance between tracked objects

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4149213B2 (ja) 2002-07-12 2008-09-10 本田技研工業株式会社 指示位置検出装置及び自律ロボット
KR102094347B1 (ko) 2013-07-29 2020-03-30 삼성전자주식회사 자동 청소 시스템, 청소 로봇 및 그 제어 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130051319A (ko) * 2011-11-09 2013-05-20 포항공과대학교 산학협력단 신호 입력 장치 및 신호 입력 방법
KR101558031B1 (ko) * 2012-10-30 2015-10-06 삼성에스디에스 주식회사 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법
US20170104924A1 (en) * 2013-02-22 2017-04-13 Leap Motion, Inc. Adjusting motion capture based on the distance between tracked objects
KR101526425B1 (ko) * 2014-02-21 2015-06-05 현대자동차 주식회사 제스처 인식 장치 및 제스처 인식 방법
KR20150107597A (ko) * 2014-03-13 2015-09-23 오므론 가부시키가이샤 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US20150262428A1 (en) * 2014-03-17 2015-09-17 Qualcomm Incorporated Hierarchical clustering for view management augmented reality
KR20170008064A (ko) * 2015-07-13 2017-01-23 연세대학교 산학협력단 객체 인식을 이용하는 객체 촬영 방법 및 시스템

Also Published As

Publication number Publication date
WO2019151805A1 (ko) 2019-08-08
US20210064148A1 (en) 2021-03-04
KR102429764B1 (ko) 2022-08-08
US11042223B2 (en) 2021-06-22

Similar Documents

Publication Publication Date Title
KR20200101206A (ko) 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법
KR20200097046A (ko) 아바타 애니메이션을 제공하기 위한 전자 장치 및 그에 관한 방법
KR20200101741A (ko) 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
US11533189B2 (en) Electronic device and method for controlling external electronic device
KR20200057814A (ko) 뉴럴 네트워크를 이용한 데이터 처리 방법 및 이를 지원하는 전자 장치
KR102512614B1 (ko) 오디오 개선을 지원하는 전자 장치 및 이를 위한 방법
KR20200094396A (ko) 전자 장치 및 복수의 액션들을 포함하는 태스크를 결정하는 방법
KR20200076449A (ko) 증강 장치를 제어하는 방법 및 이를 수행하는 전자 장치
KR20200101630A (ko) 아바타 표시를 제어하기 위한 방법 및 그 전자 장치
KR102580837B1 (ko) 사용자에 대응하는 사용 패턴 정보에 기반하여 외부 전자 장치를 제어 하기 위한 전자 장치 및 방법
KR102498597B1 (ko) 전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법
KR20200076438A (ko) 사용자의 액티비티를 추적하는 전자 장치 및 전자 장치의 동작 방법
KR20190098594A (ko) 전자 장치 및 전자 장치의 제어 방법
KR102607787B1 (ko) 전자 장치 및 전자 장치의 제어 방법
KR20200086570A (ko) 이미지의 촬영 장소를 추천하는 전자 장치 및 방법
KR102429764B1 (ko) 사용자의 제스처를 인식하는 전자 장치
KR20200074780A (ko) 이미지 처리 방법 및 그 전자 장치
KR20190142192A (ko) 전자 장치 및 전자 장치의 제어 방법
US20200244750A1 (en) System for processing user data and controlling method thereof
KR20220016695A (ko) 딥러닝에 기반한 이미지 분할 장치 및 방법
KR20210061593A (ko) 전자 장치 및 전자 장치의 지문 인식 방법
KR20200063673A (ko) 복수의 태스크들을 스케줄링하는 전자 장치 및 그의 동작 방법
US11431900B2 (en) Image data processing method and device therefor
US11443135B2 (en) Method for monitoring object and electronic device for supporting the same
US11144791B2 (en) Electronic apparatus for recognizing user and controlling method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant