KR102546714B1 - 전자장치 및 그 거치대 - Google Patents

전자장치 및 그 거치대 Download PDF

Info

Publication number
KR102546714B1
KR102546714B1 KR1020150179300A KR20150179300A KR102546714B1 KR 102546714 B1 KR102546714 B1 KR 102546714B1 KR 1020150179300 A KR1020150179300 A KR 1020150179300A KR 20150179300 A KR20150179300 A KR 20150179300A KR 102546714 B1 KR102546714 B1 KR 102546714B1
Authority
KR
South Korea
Prior art keywords
electronic device
cradle
information
posture
user
Prior art date
Application number
KR1020150179300A
Other languages
English (en)
Other versions
KR20170071225A (ko
Inventor
이소희
신원호
노경식
박순용
박중경
윤석준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150179300A priority Critical patent/KR102546714B1/ko
Priority to US15/248,256 priority patent/US10363663B2/en
Priority to EP16875878.7A priority patent/EP3329347B1/en
Priority to PCT/KR2016/009694 priority patent/WO2017104936A1/en
Priority to CN201680062836.1A priority patent/CN108351681B/zh
Publication of KR20170071225A publication Critical patent/KR20170071225A/ko
Application granted granted Critical
Publication of KR102546714B1 publication Critical patent/KR102546714B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Toys (AREA)

Abstract

거치대에 거치될 수 있는 전자장치는 영상을 획득하는 카메라 모듈; 상기 전자장치의 자세 정보를 센싱하는 센서 모듈; 상기 획득된 영상에 기초하여 상기 전자장치의 목표 자세를 결정하는 프로세서; 및 상기 전자장치의 자세 정보 및 상기 전자장치의 목표 자세에 대한 정보를 상기 거치대로 전송하는 통신 모듈;을 포함할 수 있다.
전자장치는 전자장치가 움직이는 속도 및 가속도 정보를 거치대로 전송할 수 있다.

Description

전자장치 및 그 거치대{Electronic Device and Cradle}
본 발명의 실시 예는 전자장치 및 그 거치대에 관한 것으로, 전자장치가 거치대에 거치되었을 때 서로 무선으로 연결되어 전자장치의 자세를 제어할 수 있는 전자장치 및 거치대에 관한 발명이다.
통신 및 컴퓨터 기술의 발전으로 전자장치는 환경을 인식하고 사용자와 상호작용을 하여 사용자에게 필요한 정보를 제공하며, 별도의 구동부를 포함하여 원하는 위치로 이동할 수 있는 지능형 전자장치가 개발되었다. 또한, 이러한 지능형 전자장치는 구동부를 통해 사용자에게 친밀감을 주는 동작 또는 반응을 나타내는 동작을 할 수 있으며, 사용자의 얼굴이나 목소리를 인식하여 사용자의 움직임, 음성 등에 반응할 수 있게 되었다.
이러한 지능형 전자장치는 이동형 로봇 형태를 가질 수 있지만 이 형태 또한 장소의 제약성을 가질 수 있을 뿐만 아니라 휴대성이 떨어져 사용자가 휴대하기가 어려웠다.
(특허문헌 1) US 20150288857 A1
게시된 발명의 일 측면은 사용자가 휴대하기 편한 외관을 가지며 거치대에 거치시 거치대에 포함된 구동부에 의해 전자장치의 움직임이 제어될 수 있는 전자장치 및 그의 거치대를 제공하고자 한다.
본 발명의 일 실시예에 따른 거치대에 거치될 수 있는 전자장치는 영상을 획득하는 카메라 모듈; 상기 전자장치의 자세 정보를 센싱하는 센서 모듈; 상기 획득된 영상에 기초하여 상기 전자장치의 목표 자세를 결정하는 프로세서; 및 상기 전자장치의 자세 정보 및 상기 전자장치의 목표 자세에 대한 정보를 상기 거치대로 전송하는 통신 모듈;을 포함할 수 있다.
전자장치는 음성을 입력 받는 마이크를 더 포함하며, 상기 프로세서는, 상기 마이크로 입력된 음성의 발화 방향에 기초하여 상기 전자장치의 목표 자세를 결정할 수 있다. 상기 통신 모듈은 전자장치의 움직임에 대한 속도 또는 가속도 정보 중 적어도 하나를 상기 거치대로 전송할 수 있다. 상기 프로세서는 상기 획득된 영상에서 사용자가 인식되면, 상기 사용자가 상기 카메라 모듈에 의하여 획득된 영상의 중앙에 위치하도록 상기 전자장치의 목표 자세를 결정할 수 있다. 상기 프로세서는 상기 센서 모듈을 통해 상기 전자장치가 거치대에 거치된 것으로 결정할 수 있다.
본 발명의 다른 실시예에 따른 전자장치가 거치되는 거치대는, 통신부; 회전 가능하게 마련되는 적어도 하나의 구동 레그; 상기 적어도 하나의 구동 레그가 장착되는 스탠드; 상기 구동 레그의 회전 방향 및 회전 속도를 제어하는 구동부; 및 상기 통신부를 통해 상기 전자장치로부터 수신된 데이터에 기초하여 상기 구동부를 제어하는 제어부;를 포함할 수 있다.
상기 수신된 데이터는 상기 전자장치의 현재 자세 정보, 목표 자세 정보를 포함하고, 상기 제어부는 상기 전자장치의 현재 자세 정보 및 목표 자세 정보 사이의 차이를 기초로 상기 상기 구동 레그의 회전 방향, 회전 속도 및 회전 토크중 적어도 하나를 변경하도록 상기 구동부를 제어할 수 있다.
상기 구동 레그는 전자장치의 외관과 물리적으로 접촉하며, 회전에 의해 상기 전자장치의 자세를 변경시킬 수 있다.
상기 거치대는, 상기 통신부를 통해 상기 전자장치의 자세 정보가 수신되지 않는 경우, 사전에 수신되었던 전자장치의 자세 정보에 기초하여 상기 구동부를 제어할 수 있다.
본 발명의 또 다른 실시예에 따른 거치대에 거치될 수 있는 전자장치는 디스플레이; 상기 디스플레이가 향하는 방향의 영상을 획득하는 카메라 모듈; 상기 획득된 영상에 기초하여 상기 전자장치의 목표 자세를 결정하고 상기 목표 자세로 상기 전자장치의 자세를 변경하는 제어 데이터를 생성하는 프로세서; 및 상기 제어 데이터를 전송하는 통신 모듈;을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 거치대에 거치될 수 있는 전자장치의 제어 방법은 영상을 획득하는 과정; 센서모듈을 통해 상기 전자장치의 자세 정보를 센싱하는 과정; 상기 영상에서 사용자가 인식되면, 상기 사용자 영상이 화면의 중앙에 위치하도록 상기 전자 장치의 목표 자세를 결정하는 과정; 및 상기 전자장치의 자세 정보 및 상기 전자장치의 목표 자세에 대한 정보를 상기 거치대로 전송하는 과정;을 포함할 수 있다.
상기 방법은, 마이크를 통해 입력되는 음성의 발화 방향에 기초하여 상기 전자장치의 목표 자세를 결정하는 과정:을 더 포함할 수 있다. 상기 방법은, 상기 전자장치의 움직임에 대한 속도 및 가속도 정보중 적어도 하나를 강기 거치대로 전송하는 과정;을 더 포함할 수 있다. 상기 방법은 상기 센서 모듈에서 출력된 데이터에 기초하여 상기 전자장치가 거치대에 거치된 것으로 결정하는 과정;을 더 포함할 수 있다. 상기 방법은, 상기 거치대로부터 수신된 신호에 기초하여 상기 전자 장치가 상기 거치대에 거치된 것으로 결정하는 과정;을 더 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자장치가 거치되는 거치대의 제어 방법은 상기 전자장치로부터 제어 데이터를 수신하는 과정; 상기 수신된 제어 데이터를 기초로 적어도 하나의 구동 레그의 회전 방향 및 회전 속도를 제어하는 과정을 포함할 수 있다. 상기 제어 데이터는 상기 전자장치의 자세 정보 및 상기 전자장치의 목표 자세 정보를 포함할 수 있다.
상기 방법은 상기 전자장치로부터 상기 전자장치의 자세 정보가 수신되지 않는 경우, 기 수신되었던 전자장치의 자세 정보에 기초하여 상기 구동부를 제어하는 과정;을 더 포함할 수 있다. 상기 방법은 상기 적어도 하나의 구동 레그의 회전에 의해 상기 전자장치의 자세가 변경될 수 있다.
본 발명의 또 다른 실시예에 따른 전자장치는 디스플레이, 상기 디스플레이가 향하는 방향의 영상을 획득하는 카메라 모듈, 상기 획득된 영상에서 사용자가 인식되면 상기 사용자가 상기 카메라 모듈에 의하여 획득된 영상의 중앙에 위치하도록 상기 전자장치의 자세를 변경하는 제어 데이터를 생성하는 프로세서 및 상기 제어 데이터를 상기 거치대로 전송하는 통신 모듈을 포함할 수 있다.
게시된 발명의 일 측면에 따르면, 사용자가 휴대하기 편한 외관을 가지며 거치대에 거치시 거치대에 포함된 구동부에 의해 전자장치의 움직임이 제어될 수 있는 전자장치 및 그의 거치대를 제공할 수 있다.
또한 본 발명의 일 실시예에 따른 전자장치의 하우징은 반구 형상을 가지고 있어 거치대에 장착시 전자장치와 거치대를 결합하기 위한 별도의 기구 구조가 필요하지 않으며 사용자가 위치를 신경쓰지 않고 전자장치를 거치대에 올려 놓을 수 있다.
도 1은 일 실시예에 따른 전자장치가 거치대에 거치된 상태를 도시한다.
도 2는 일 실시예에 따른 전자장치가 거치대에 거치된 상태의 측면도이다.
도 3은 일 실시예에 따른 전자장치가 거치대에 거치된 상태의 사시도이다.
도 4는 일 실시예에 따른 전자장치의 측면도이다.
도 5는 일 실시예에 따른 전자장치의 사시도이다.
도 6은 일 실시예에 따른 전자장치의 평면도이다.
도 7은 일 실시예에 따른 거치대를 도시한다.
도 8은 일 실시예에 따른 전자장치에 대한 블록도이다.
도 9는 일 실시예에 따른 거치대에 대한 블록도이다.
도 10a 및 도 10b는 일 실시예에 따른 전자장치의 구동 예를 도시한다.
도 11은 일 실시예에 따른 전자장치가 구동되는 과정에 대한 흐름도이다.
도 12a 내지 도 12b는 일 실시예에 따른 전자장치가 획득한 사용자를 포함하는 영상의 일 예를 도시한다.
도 13은 일 실시예에 따른 전자장치가 거치대에 거치되어 무선 충전되는 방법에 대한 흐름도이다.
도 14는 전자장치를 제어하는 방법에 대한 흐름도이다.
도 15는 거치대가 전자장치로부터 전송된 데이터에 기초하여 구동부를 구동하는 방법에 대한 흐름도이다.
이하, 본 문서의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.
이하, 첨부 도면을 참조하여, 다양한 실시예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 일 실시예에 따른 전자장치 및 거치대를 도시한다.
도 1을 참조하면 전자장치(501) 및 거치대(601)가 도시되어 있다.
전자장치(501)는 헤드(head)부(502) 및 바디(body)부(503)를 포함할 수 있다.
헤드부(502)는 바디부(503)의 상측에 배치될 수 있다. 헤드부(502) 및 바디부(503)는, 하나의 실시예에서 사람의 헤드와 바디에 각각 대응되는 형상으로 구현될 수 있다. 예를 들어, 헤드부(502)는 사람 얼굴의 형상에 대응되도록 하는 전면 커버(505)를 포함할 수 있다.
또한, 전자장치(501)의 전면 커버(505)에는 임의의 영상이 표시될 수 있으며, 이를 위하여 전자장치(501)는 전면 커버(505)에 대응되는 위치에 배치되는 디스플레이를 포함할 수 있다.
예를 들어, 디스플레이는 전면 커버(505)의 내측에 배치될 수 있으며, 디스플레이의 영상이 투과되도록 전면 커버(505)는 투명 재질 또는 반투명 재질로 구성될 수 있다.
또한, 전면 커버(505)는 임의의 영상을 디스플레이할 수 있는 소자일 수도 있다. 즉, 전면 커버(505)가 임의의 영상을 디스플레이할 수 있다. 이 경우에 전면 커버(505) 및 디스플레이는 하나의 하드웨어로 구현될 수도 있다.
헤드부(502)에는 사용자와 인터랙션 할 때 사용자 방향으로 향하는 적어도 하나 이상의 H/W 또는 기구 구조가 마련될 수 있다.
구체적으로, 헤드부(502)에는 사용자 방향으로부터 정보를 획득하는 적어도 하나의 센서와 사용자 방향으로 정보를 출력하는 적어도 하나의 출력 유닛이 마련될 수 있다.
예를 들어, 헤드부(502)에는 사용자와 인터랙션하는 방향으로부터 영상을 획득하는 적어도 하나의 카메라 모듈, 오디오를 획득하는 적어도 하나의 마이크가 마련될 수 있다.
또한, 헤드부(502)에는 사용자의 인터랙션하는 방향을 향하여 오디오를 출력하는 적어도 하나의 스피커, 기구적인 눈 구조, 영상을 표시하는 디스플레이가 마련될 수 있다.
또한, 불빛 또는 일시적인 기구 변경을 통하여 사용자와 인터랙션하는 방향이 표시될 수도 있다.
헤드부(502)는 통신 모듈, 센서 모듈 및 카메라 모듈을 더 포함할 수도 있다. 통신 모듈은 외부 전자 장치로부터 메시지를 수신할 수 있으며, 외부 전자 장치로 메시지를 송신할 수도 있다.
센서 모듈은 외부 환경에 대한 정보를 획득할 수 있다.
예를 들어, 센서 모듈은 전자장치(501)에 사용자의 접근을 센싱할 수 있다. 구체적으로, 센서 모듈은 사용자의 신체 일부를 센싱함으로써 사용자의 접근을 센싱할 수도 있다. 또한, 센서 모듈을 사용자가 이용하는 다른 전자 장치(예를 들어, 웨어러블 장치 또는 스마트폰)로부터의 신호에 기초하여 사용자의 접근을 센싱할 수도 있다.
또한, 센서 모듈은 사용자의 모션, 위치 등을 센싱할 수도 있다.
카메라 모듈은 외부 환경을 촬영할 수 있다. 이 경우, 전자장치(501)는 카메라 모듈의 촬영 결과에 따라 사용자를 식별할 수도 있다.
바디부(503)는 반구 형상의 외관을 가지며 무선 전력 수신부 및 배터리를 포함할 수 있다. 전자장치(501)는 무선 전력 수신부를 통해 거치대(601)로부터 무선으로 전력을 공급 받아 배터리를 충전할 수 있다.
또한, 바디부(503)는 거치대(601)와 물리적으로 접촉할 수 있으나 거치대(601)와 전기적으로 접촉하기 위한 단자는 포함하지 않을 수 있다.
바디부(503)의 외관이 반구 형상을 가짐으로 인하여, 전자장치(501)가 거치대(601)에 거치되는 경우 전자장치(501)는 인체의 관절처럼 상하좌우로 움직이거나 또는 전(全)방향으로 움직일 수 있다. 즉, 전자장치(501)는 거치대(601)에 거치되는 경우 3차원 공간에서 헤드부(502)가 다양한 방향을 향하도록 움직일 수 있다.
거치대(601)는 스탠드(601) 및 복수의 구동 레그(603, 604, 605)를 포함할 수 있다.
스탠드(602)의 형상은 원형일 수 있으나 이에 한정되지는 않으며, 삼각형 또는 사각형 또는 그 이상의 다각형일 수 있다.
거치대(601)는 스탠드(602)의 상면에 마련된 적어도 3개의 구동 레그(603, 604, 605)를 포함할 수 있다.
3개의 구동 레그(603), 604, 605)는 스탠드(602)의 중심으로부터 방사형으로 배치될 수 있으며, 각각의 구동 레그(603, 604, 605)간의 거리는 동일할 수 있다. 예를 들면 제1 구동 레그(603), 제2 구동 레그(604) 및 제3 구동 레그(605)의 배치 간격은 동일 할 수 있다.
전자장치(501)가 거치대(601)에 거치되는 경우 전자장치(501)의 바디부(503)는 복수의 구동 레그(603, 604, 605)와 접촉할 수 있다. 각각의 구동 레그(603, 604, 605)는 모터에 의해 회전할 수 있으며, 복수의 휠을 포함할 수 있다.
복수의 휠은 전자장치(501)의 바디부(503)와 접촉하여, 전자장치가 원활하게 움직일 수 있도록 할 수 있다. 다시 말해, 복수의 구동 레그(603, 604, 605)에 회전에 의하여 전자장치가 움직일 때, 복수의 휠은 전자장치의 움직임을 원활하게 하는 베어링의 역할을 수행할 수 있다.
휠은 고무 또는 실리콘 재질로 구성될 수 있으나 이에 한정되지 않으며 마찰력을 유지할 수 있는 물질이 휠의 재료로 사용될 수 있다.
이처럼, 전자장치(501)의 바디부(503)가 반구 형상을 가지며, 전자장치(501)의 바디부(503)와 접촉하는 구동 레그(603, 604, 605)가 동일한 간격으로 배치됨으로 인하여 전자장치(501)의 헤드부(502)는 3차원 공간상에서 안정되고 신속히 원하는 방향으로 향할 수 있다.
또한, 전자장치(501)의 바디부(503)가 반구 형상을 가지며, 전자장치(501)의 바디부(503)와 접촉하는 구동 레그(603, 604, 605)가 동일한 간격으로 배치됨에 따라 전자장치(501)를 거치대(601)에 거치할 때 별도의 방향 또는 위치를 고려할 필요 없이 전자장치(501)를 거치대(601)에 올려 놓는 것만으로도 전자장치(501) 및 거치대(601)가 기능적으로 결합될 수 있다. 여기서 기능적으로 결합되는 것의 의미는 물리적으로 분리되는 2개의 객체가 결합되어 하나의 제품처럼 동작할 수 있음을 의미한다.
또한, 거치대(601)는 무선 전력 송신부를 포함할 수 있으며, 전자장치(501)가 거치대(601)에 거치되는 경우 무선 전력 송신부는 전자장치(501)로 무선으로 전력을 송신하여 전자장치(501)에 포함된 배터리를 충전할 수 있다.
도 2는 일 실시예에 따른 전자장치가 거치대에 거치된 상태의 측면도이다.
도 2를 참조하면 전자장치(501) 및 거치대(601)가 도시되어 있다. 전자장치(501)는 도 2에 도시된 바와 같이, 거치대(601)에 전면커버가 상측을 향하도록 거치될 수 있다.
전자장치(501)의 바디부(503)는 거치대(601)의 구동 레그(603, 604, 605)와 접촉하며, 구동 레그에 포함된 복수의 횔로부터 회전력을 전달 받아 원하는 방향으로 움직일 수 있다.
구동 레그(603, 604, 605)는 스탠드(602)의 상면과 일정 각도를 유지한 상태로 배치될 수 있다. 바디부(503)를 안정되게 지지하기 위해서 구동 레그(603, 604, 605)와 스탠드(602)의 상면이 이루는 각도(도3의 621)는 90도 보다 작을 수 있다.
또한, 전자장치(501)를 거치대(601)에 수직으로 거치하는 경우 전자장치(501)의 바디부(503)와 구동 레그(603, 604, 605)가 접촉하는 위치는 바디부(503)를 형성하는 반구면의 중간 지점(AB, 504)에 위치하거나 또는 이보다 아래에 위치할 수 있다.
전자장치(501)의 바디부(503)에 포함되는 무선 전력 수신부의 안테나가 바디부(503)의 반구면 하단에 배치되는 경우, 전자장치(501)가 거치대(601)에 수직으로 거치됨으로 인해 충전 효율이 높을 수 있다. 또한, 무선 전력 수신부의 안테나가 바디부(503)의 반구면 임의의 위치에 배치되는 경우, 전자장치(501)는 충전 효율을 높이기 위해 거치대(601)의 구동부를 제어하여 전자장치(501) 자신의 위치를 조정할 수 있다.
도 3은 일 실시예에 따른 전자장치가 거치대에 거치된 상태의 사시도이다.
도 3을 참조하면 전자장치(501) 및 거치대(601)가 도시되어 있다.
전자장치(501)의 헤드부(502)는 전면 커버(505)를 포함할 수 있다. 전자장치(501)의 바디부(503)는 반구면을 포함할 수 있다.
또한, 전자장치(501)는 거치대(601)와 분리될 수 있으며, 사용자는 전자장치(501)만을 휴대할 수 있다.
거치대(601)에는 전자장치(501)를 움직이는 복수의 구동 레그(603, 604, 605)가 배치될 수 있다.
복수의 구동 레그(603, 604, 605)는 전자장치의 반구면을 지지할 수 있도록 스탠드(602)의 중심부로부터 방사형으로 배치될 수 있으며, 바닥으로부터 소정각도 기울어져 스탠드(602)에 장착될 수 있다. 본 실시 예에서는 구동 레그가 3개인 경우를 예로 들지만 이에 한정되지 않으며 3개 이상의 구동 레그가 장착될 수도 있다.
구동 레그(603, 604, 605)는 전자장치(501)의 반구면을 안정되게 지지하기 위하여 동일한 이격 거리를 가질 수 있다. 즉, 제1 구동 레그(603)와 제2 구동 레그(604) 사이의 거리는 제2 구동 레그(604)와 제3 구동 레그(605) 사이의 거리 및 제3 구동 레그(605)와 제1 구동 레그(603) 사이의 거리와 동일 할 수 있다.
또한, 제2 구동 레그(604)와 스탠드(602)의 바닥면이 이루는 각도(622), 제3 구동 레그(605)와 스탠드(602)의 바닥면이 이루는 각도(621) 및 제1 구동 레그(603)과 스탠드(602)의 바닥면이 이루는 각도(미도시)는 동일 할 수 있다.
각각의 구동 레그(603, 604, 605)는 복수의 휠을 포함 할 수 있다.
예를 들면, 제1 구동 레그(603)는 복수의 휠(611, 612, 613)을 가질 수 있다. 본 실시 예에서는 하나의 구동 레그(603)가 3개의 휠(611, 612, 613)을 갖는 것을 예로 들었지만 이에 한정되지 않으며 그 이상 또는 그 이하의 휠을 갖는 것도 가능하다.
또한, 제1 구동 레그(603)가 3개의 휠(611, 612, 613)을 갖는 경우 각각의 휠(611, 612, 613)은 120도 각도로 배치될 수 있다.
구동 레그(603, 604, 605)는 회전이 가능하다. 예를 들면, 제3 구동 레그(605)는 제3 회전축(625)를 중심으로 시계 방향 또는 반시계 방향으로 회전할 수 있다. 또한, 제2 구동 레그(604)는 제2 회전축(626)을 중심으로 시계 방향 또는 반시계 방향으로 회전할 수 있다. 마찬가지로 제1 구동 레그(603)도 제1 회전축(미도시)을 중심으로 시계 방향 또는 반시계 방향으로 회전할 수 있다.
도 4는 일 실시예에 따른 전자장치의 측면도이다.
도 4를 참조하면 전자장치(501)는 헤드부(502) 및 바디부(503)를 포함할 수 있다. 바디부(503)는 반구 형상일 수 있으며 반구면을 포함할 수 있다. 또한, 바디부(503)는 반구면의 일부를 포함할 수 있다. 헤드부(502)의 둘레는 바디부(501)의 둘레보다 작거나 같을 수 있다.
도 5는 일 실시예에 따른 전자장치의 사시도이다.
도 5를 참조하면 전자장치(501)의 바디부(503)는 반구 형상이지만 헤드부(502)는 둥근 사각형 형상을 가질 수 있다. 본 실시 예에서는 헤드부(502)의 형상이 둥근 사각형 인 것으로 예를 들지만 이에 한정되지 않으며 헤드부(502)의 형상은 원형 이나 다른 다각형 형상을 가질 수도 있다.
헤드부(502)는 전면 커버(505)을 포함할 수 있으며 전면 커버(505)는 사람의 얼굴에 대응하는 동작을 수행할 수 있다.
전면 커버(505)의 내측에는 디스플레이 등 다양한 장치가 배치될 수 있다.
예를 들어, 전면커버(505)의 내측에는 디스플레이(512), 카메라(513), 마이크(514) 및 스피커(515)가 장착된 회로보드(Printed Circuit Board: PCB, 511)가 마련될 수 있다. 즉, 디스플레이(512), 카메라(513), 마이크(514) 및 스피커(515)는 동일한 PCB(511)상에 배치될 수 있다.
회로보드(511)는 전면커버(505)와 평행하게 배치될 수 있다. 따라서 디스플레이(512)도 전면커버(505)와 평행하게 배치될 수 있으며, 디스플레이(512)는 다양한 영상을 표시할 수 있다. 또한, 디스플레이(512)의 영상은 전면커버(505)를 투과할 수 있으며, 사용자는 전면커버(505)를 투과한 영상을 볼 수 있다.
카메라(513)는 디스플레이(512)에 인접하여 PCB(511)상에 배치될 수 있으며, 카메라(513)가 촬상하는 방향은 디스플레이(512)와 동일한 방향일 수 있다.
또한, 마이크(514)는 디스플레이(512)에 인접하여 PCB(511)상에 배치될 수 있으며, 마이크(514)의 방향은 카메라(513) 방향 및 디스플레이(512) 방향과 동일한 방향일 수 있다.
또한, 스피커(515)는 디스플레이(512)에 인접하여 PCB(511)상에 배치될 수 있으며, 스피커(515)의 소리 출력 방향은 디스플레이(512) 방향과 동일한 방향일 수 있다.
도 6은 일 실시예에 따른 전자장치를 위에서 도시한 도면이다.
도 6을 참조하면 헤드부(502)의 전면 커버(505)는 둥근 사각형 형상이며 전자장치(501)의 바디(503)는 원형일 수 있다. 일 실시 예에 따르면 전면 커버(505)의 크기는 바디(503)의 크기보다 작을 수 있으나 이에 한정되지 않는다.
실시 형태에 따라 전자장치(501)는 전면 커버(505)의 내측에 디스플레이가 배치될 수 있으며, 전자장치(501)는 디스플레이를 통해 사용자와 다양한 인터랙션을 수행할 수 있다. 또한, 다른 실시 형태에서는 전면 커버(505) 자체가 디스플레이로서 기능할 수도 있다.
도 7은 일 실시예에 따른 거치대를 도시한다.
도 7을 참조하면 거치대(601)의 스탠드(602)에는 구동 레그(603, 604, 605)가 배치될 수 있다.
구동 레그(603, 604, 605)는 스탠드(602)의 중심으로부터 방사형으로 배치되며, 스탠드(602)에 120도 간격으로 이격되어 배치될 수 있다.
또한, 구동 레그(603, 604, 605)는 회전축을 중심으로 회전할 수 있다. 예를 들면 제1 구동 레그(603)는 제2 회전축(631)을 중심으로 시계 방향 또는 반시계 방향으로 회전할 수 있다.
각각의 구동 레그(603, 604, 605)는 복수 개의 휠을 포함할 수 있다. 예를 들면 제1 구동 레그(603)는 복수의 휠(611, 612, 613, 614, 615, 616)을 포함할 수 있다.
제1 구동 레그(603)의 복수의 휠(611, 612, 613, 614, 615, 616)은 중간 프레임(617)을 중심으로 3개의 상측 휠(611, 612, 613) 및 3개의 하측 휠(614, 615, 616)로 구분될 수 있다.
중간 프레임(617)은 제1 구동 레그(603)와 함께 메인 회전축(631)을 중심으로 회전하며, 상측 휠(611, 612, 613) 및 하측 휠(614, 615, 616)은 각각 서로 다른 보조 회전축을 중심으로 회전할 수 있다.
예를 들면 제1 구동 레그(603)의 제1 상측 휠(611)은 제1 보조 회전축(632)를 중심으로 회전할 수 있다.
이때, 제1 구동 레그(603)의 메인 회전축(631)과 복수의 휠(611, 612, 613, 614, 615, 616)의 보조 회전축은 서로 직교한다. 다시 말해, 각각의 구동 레그(603, 604, 605)는 회전축을 중심으로 회전할 수 있을 뿐만 아니라, 구동 레그(603, 604, 605)의 회전축과 수직한 회전축을 중심으로 회전 할 수 있는 복수의 휠(611, 612, 613, 614, 615, 616)을 포함할 수 있다.
그 결과, 구동 레그(603, 604, 605)에 의하여 지지되는 전자장치(501)는 3차원 공간에서 자유롭게 어느 방향으로든지 회전이 가능하다.
구동 레그(603, 604, 605)은 모터로부터 회전력을 제공받을 수 있다. 즉, 구동 레그(603, 604, 605)은 모터로부터 제공받은 회전력에 의하여 전자장치(501)의 위치 또는 자세를 변경할 수 있다.
이때, 구동 레그(603, 604, 605) 각각에 포함된 복수의 휠(611, 612, 613, 614, 615, 616)은 전자장치(501)의 움직임(위치 또는 자세의 변경)에 의하여 회전할 수 있다. 즉, 복수의 휠(611, 612, 613, 614, 615, 616)은 전자장치(501)가 구동 레그(603, 604, 605)에 의하여 원활하게 움직일 수 있도록 하는 베어링의 역할을 수행할 수 있다.
실시 형태에 따라 거치대는 구동 레그(603, 604, 605) 각각에 포함된 복수의 휠(611, 612, 613, 614, 615, 616)을 회전 시키기 위한 모터를 포함할 수도 있다.
도 8은 일 실시예에 따른 전자장치의 블록도이다.
전자장치(201)는, 하나 이상의 프로세서(예: AP(application processor))(210), 통신 모듈(220), 가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다.
프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 메모리(230)에 저장된 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다.
이러한, 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다.
실시 형태에 따라 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 또한, 실시 형태에 따라 프로세서(210)는 도 8에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다.
프로세서(210)는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 처리된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
프로세서(210)는 전자장치가 사용자를 향하도록 전자 장치의 목표 자세를 결정할 수 있으며, 전자장치의 현재 자세에 관한 정보 및 목표 자세에 관한 정보를 외부로 송신할 수 있다.
프로세서(210)는 카메라 모듈을 통해 획득된 영상에서 사용자가 인식되면, 상기 사용자가 카메라 모듈에 의하여 획득된 영상의 중앙에 위치하도록 전자장치의 목표 자세를 결정할 수 있다. 프로세서(210)는 전자장치의 현재 자세에 대한 정보 및 전자장치의 목표 자세에 대한 정보를 통신 모듈을 통해 외부로 전송할 수 있다.
프로세서(210)는 카메라 모듈을 통해 획득된 영상에서 사용자가 인식되면, 상기 사용자가 카메라 모듈에 의하여 획득된 영상의 중앙에 위치하도록 전자장치의 자세를 변경하는 제어 데이터를 생성할 수 있다. 구체적으로 프로세서(210)는 자이로 센서를 통해 현재의 전자장치의 자세 정보를 획득하고, 카메라 모듈을 통해 획득된 영상으로부터 전자장치의 목표 자세를 결정하고, 목표 자세와 현재의 자세 정보와의 차를 계산하여 전자장치의 자세를 변경할 수 있다.
프로세서(210)는 카메라 모듈을 통해 획득된 영상에서 사용자가 인식되지 않으면, 전자장치의 자세를 미리 설정된 범위로 변경할 수 있다. 예를 들면 프로세서는 현재의 전자장치의 자세를 기준으로 상하좌우 +30도 내지 -30도 범위로 전자장치의 자세가 변경되도록 통신부를 통해 거치대로 전자장치의 자세를 변경할 수 있는 데이터를 전송하고, 카메라를 통해 영상을 획득하고 획득된 영상에서 사용자가 존재하는지 여부를 판단할 수 있다.
프로세서(210)는 마이크로 입력된 음성의 발화 방향에 기초하여 전자장치의 목표 자세를 결정할 수 있다. 여기서 음성의 발화 방향은 사용자의 위치일 수 있다. 예를 들면 프로세서(210)는 마이크를 통해 입력된 음성을 분석하여 사용자가 어느 위치에 있는지 식별할 수 있다. 구체적으로 프로세서(210)는 마이크를 통해 입력된 음성 신호에서 사용자에 대응하는 음성신호를 식별하고 사용자에 대응하는 음성신호의 크기가 최대가 될 수 있도록 전자장치의 목표 자세를 결정할 수 있다. 또한, 프로세스(210)는 복수의 마이크(예를 들어, 마이크 어레이)가 수신하는 음성 신호의 크기를 기초로 음성의 발화 방향을 산출하고, 전자장치가 발화 방향을 향하도록 목표 자세를 결정할 수 있다.
프로세서(210)는 센서 모듈(240)을 통해 센싱된 정보에 기초하여 전자장치가 거치대에 거치된 것으로 결정할 수 있다. 예를 들면 프로세서(210)는 근접센서에서 출력된 데이터를 기초로 전자장치가 거치대에 장착되었는지 여부를 결정할 수 있다.
통신 모듈(220)은, 예를 들면, 외부 장치로부터 데이터를 전송하고, 외부 장치로부터 데이터를 수신할 수 있다. 통신 모듈(220)은 전자장치의 자세 정보 및 전자장치의 목표 자세에 대한 정보를 외부로 전송할 수 있다. 또한 통신모듈(220)은 전자장치의 움직임에 대한 속도 및/또는 가속도 정보를 외부로 전송할 수 있다.
또는 통신 모듈(220)은 프로세서에서 생성된 전자장치의 자세를 변경할 수 있는 제어 데이터를 외부로 전송할 수 있다.
이러한 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(228) 및 RF(radio frequency) 모듈(229)를 포함할 수 있다.
셀룰러 모듈(221)은, 예를 들면 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다.
실시 형태에 따라 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 또한, 실시 형태에 따라 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 또한, 실시 형태에 따라 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 실시 형태에 따라 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. 실시 형태에 따라 RF 모듈(229)은, 예를 들면 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 및 NFC 모듈(228)의 통신 신호를 송수신할 수 있다.
또한, RF 모듈(229)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다.
또한, 실시 형태에 따라 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다.
내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태 또는 전자장치의 자세 정보를 감지하고, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 또한 센서 모듈(240)은 전자장치의 움직임에 대한 속도 및/또는 가속도 정보를 감지할 수 있다.
센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다.
자이로 센서(240B)는 전자장치의 회전 운동(예를 들어, 각속도)에 관한 정보를 감지하고, 가속도 센서(240E)는 전자장치의 자세(예를 들어, 기울기 등) 및 선형 운동(예를 들어, 선형 가속도)에 관한 정보를 감지할 수 있다. 또한, 자이로 센서(240B)의 출력과 가속도 센서(240E)의 출력을 기초로 전자장치의 현재 자세가 결정될 수 있다.
프로세서(210)는 센서 모듈(240)로부터 수신된 전자장치의 자세에 관한 정보를 통신 모듈(220)을 통하여 외부로 전송할 수 있다.
추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈(240)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다.
또한, 센서 모듈(240)은 적어도 하나의 센서들과 이를 제어하기 위한 제어 회로를 포함할 수 있다. 실시 형태에 따라 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함할 수 있으며, 이러한 프로세서는 프로세서(210)가 슬립(sleep) 상태에 있는 동안 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(touch panel)(252), (디지털) 펜 센서(pen sensor)(254), 키(key)(256), 또는 초음파(ultrasonic) 입력 장치(258)를 포함할 수 있다.
터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 실시 형태에 따라 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수도 있다.
(디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)을 표시할 수 있으며, 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 포함할 수 있다.
패널(262)는, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다.
패널(262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다.
실시 형태에 따라 패널(262)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다. 또한, 실시 형태에 따라 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다.
홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다.
실시 형태에 따라 디스플레이(260)는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스(270)는, 예를 들면, HDMI(high-definition multimedia interface)(272), USB(universal serial bus)(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다.
추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
마이크(288)는 사용자로부터 음성을 입력받아서 전기신호를 생성할 수 있다. 실시 형태에 따라 마이크(288)는 지향성 마이크 및 마이크 어레이 중에 적어도 하나를 포함할 수 있다.
카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있다. 실시 형태에 따라 카메라 모듈(291)은 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
또한, 카메라 모듈(291)는 사용자를 비롯한 피사체를 촬상하여 이미지 데이터를 생성할 수 있다. 실시 형태에 따라 카메라 모듈(291)은 디스플레이가 향하는 방향의 영상을 획득할 수 있다.
전력 관리 모듈(295)은, 예를 들면, 전자장치(201)의 전력을 관리할 수 있다.
전력 관리 모듈(295)은 거치대에서 전송한 전력을 수신할 수 있는 안테나를 포함할 수 있으며, 무선 충전 방식에 의해 무선으로 배터리를 충전할 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함할 수 있으며, 전력 관리 모듈(295)는 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다.
전력 관리 모듈(295)은 거치대의 무선 전력 송신부로부터 무선으로 전력을 공급받아 전자장치의 배터리를 충전하는 무선 전력 수신부(295a)를 포함할 수 있다.
무선 전력 수신부(295a)는 하나 이상의 무선 전력 전달 방법을 이용하여 무선으로 전력을 수신할 수 있다.
예를 들어, 무선 전력 수신부(295a)는 자기 유도 현상에 기초한 유도 결합 방식으로 전력을 수신할 수 있다. 여기서, 유도 결합 방식은 자기 유도 현상에 의하여 하나의 코일에서 변화하는 자기장을 통해 다른 코일 쪽에 전류가 유도됨으로써 전력을 수신하는 것을 말한다.
또한, 무선 전력 수신부(295a)는 특정한 주파수의 무선 전력 신호에 의한 전자기적 공진 현상에 기초한 공진 결합 방식으로 전력을 수신할 수도 있다. 여기서, 공진 결합 방식은 상기 무선 전력 전송장치에서 전송한 무선 전력 신호에 의하여 무선 전력 수신장치에서 공진이 발생하고, 공진 현상에 의하여 무선 전력 전송장치로부터 상기 무선 전력 수신장치로 전력이 전달되는 것을 말한다.
전자장치(201)가 거치대에 거치되는 경우, 무선 전력 수신부(295a)는 거치대로부터 전송된 펄스 신호를 수신할 수 있다. 구체적으로 무선 전력 수신부(295a)의 안테나는 거치대에서 일정 주기로 전송하는 펄스 신호를 수신하고 거치대로 무선 전력 송신을 요청할 수 있다. 무선 전력 송신 요청에 따라 거치대는 무선으로 전력을 송신하고, 전자장치(201)는 무선으로 전력을 수신할 수 있다.
배터리(296)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 동작 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다.
모터(298)는 전기적 신호를 기계적 진동으로 변환하고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다.
또한, 도시되지는 않았으나, 전자 장치(201)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
도 9는 일 실시예에 따른 전자장치의 거치대에 대한 블록도이다.
거치대(300)는 제어부(301), 무선 전력 송신부(303), 구동부(305), 통신부(307) 및 센서부(309)를 포함할 수 있다.
통신부(307)는 무선 통신을 통해 전자장치와 적어도 하나의 데이터를 송수신할 수 있다. 구체적으로, 통신부(307)는 적어도 하나 이상의 통신표준(WIFI, Zigbee, Bluetooth, LTE, 3G, IR 등의 프로토콜)을 통하여 전자장치와 통신할 수 있다. 통신부(307)는 전자장치로부터 전송된 전자장치의 자세 정보 및 목표 자세에 대한 정보를 수신할 수 있다.
무선 통신은, 예를 들면, 셀룰러 통신을 포함할 수 있다. 셀룰러 통신은, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등의 중 적어도 하나를 포함할 수 있다.
또한, 무선 통신은, 예를 들면, 근거리 통신을 포함할 수 있다. 근거리 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), 또는 NFC(near field communication) 등 적어도 하나를 포함할 수 있다.
또한, 무선 통신은 GNSS(global navigation satellite system)를 포함할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(Galileo, the European global satellite-based navigation system 중 적어도 하나를 포함할 수 있다.
무선 전력 송신부(303)는 안테나를 포함할 수 있으며 전자장치에 무선으로 전력을 송신할 수 있다. 또한 무선 전력 송신부(303)는 일정 주기로 펄스 신호를 송출하며 전자장치로부터 펄스 신호에 대한 응답 신호를 수신할 수 있다.
구동부(305)는 구동 레그를 회전시키는 모터에 구동 전류를 공급하는 구동 회로를 포함할 수 있다. 구동 레그는 스탠드에 회전 가능하게 마련될 수 있다.
하나의 구동 레그에 대응하여 적어도 하나의 모터가 마련될 수 있다. 예를 들면 구동부(305)는 3개의 모터(305a, 305b, 305c)를 포함할 수 있으며 각각의 모터는 각각의 구동 레그를 구동할 수 있다. 각각의 구동 레그는 전자장치(501)의 외관과 물리적으로 접촉하며 전자장치의 자세를 변경시킬 수 있다.
예를 들면, 구동부(305)는 구동 레그를 회전시키는 모터를 포함할 수도 있다. 구동 레그가 3개인 경우, 구동부(305)는 총 3개의 모터를 포함할 수 있다.
구동 회로는 제어부(301)의 제어 신호(예를 들어, 모터의 회전 방향 및 회전 속도에 관한 신호)에 따라 복수의 모터에 구동 전류를 제공할 수 있다.
이러한 구동 회로는 복수의 모터에 공급되는 구동 전류를 제어하기 위한 스위치 소자, 인버터 회로 등을 포함할 수 있다. 또한, 하나의 구동 회로가 복수의 모터 모두에 구동 전류를 공급하거나, 복수의 구동 회로가 복수의 모터 각각에 구동 전류를 공급할 수 있다.
구동부(305)는 제어부(301)로부터 전송된 데이터에 기초하여 각각의 모터의 회전 방향 및 회전 속도를 제어할 수 있다.
제어부(301)는 거치대(300)의 전반적인 동작을 제어할 수 있다.
제어부(301)는 통신부(307)를 통해 전자장치로부터 수신된 데이터에 기초하여 구동부(305)에 포함된 모터의 회전 방향 및 회전 속도를 제어할 수 있다. 구체적으로 제어부(301)는 통신부(307)를 통하여 전자장치의 자세 정보 및 목표 자세 정보를 수신하고 전자장치의 자세를 목표 자세까지 변경하기 위한 제어 데이터를 생성할 수 있다. 제어부(301)는 상기 제어 데이터를 기초로 구동부를 제어하여 전자장치의 자세를 변경시킬 수 있다. 제어부(301)는 전자장치의 자세가 목표 자세에 도달할 때까지 전자장치의 자세를 변경할 수 있다.
제어부(301)는 전자장치로부터 전자장치의 자세 정보가 수신되지 않는 경우, 사전에 수신되었던 전자장치의 자세 정보에 기초하여 구동부(305)를 제어할 수 있다. 제어부(301)는 전자장치의 자세를 변경하고 변경된 자세에 대한 정보를 전자장치로부터 피드백(feedback)받으면서 최종 목표 자세까지 전자장치의 자세를 변경할 수 있다. 전자장치로부터 전자장치의 자세에 대한 정보가 무선으로 전송되므로 노이즈에 의해 전자장치로부터 전자장치의 자세 정보가 수신되지 않는 상황이 발생될 수 있다. 이 경우 거치대의 제어부(301)는 기존에 수신했던 전자장치의 자세 정보를 이용하여 전자장치의 다음 자세를 예측하고 예측한 자세 정보를 이용하여 모터를 구동하여 전자장치의 자세를 변경할 수 있다.
실시 형태에 따라 전자장치가 거치대(300)의 구동부(305)를 제어할 수 있는 제어 데이터를 생성하여 거치대(300)로 전송할 수도 있다. 이 경우 거치대(300)의 제어부(301)는 전자장치로부터 수신된 제어 데이터를 이용하여 구동부(305)를 제어하고, 전자장치의 자세를 변경할 수 있다.
또한, 제어부(301)는 전자장치가 거치대에 거치되는 경우 무선 전력 송신부(303)를 통해 전자장치로 전력을 전송 할 수 있다. 제어부(301)는 무선 전력 송신부(303)를 통해 전자장치로부터 수신된 펄스 신호에 대한 응답 신호에 기초하여 무선 전력 송신부(303)가 전자장치로 전력을 전송하도록 제어할 수 있다.
이러한 제어부(301)는 프로세서 및 메모리 등을 포함할 수 있다. 프로세서는 데이터를 처리하기 위한 연산을 수행하는 연산 회로(Arithmetic and Logic Unit, ALU), 연산될 데이터 또는 연상된 데이터를 기억하는 기억 회로(memorial circuit)를 포함할 수 있다. 또한, 메모리는 S램(S-RAM), D랩(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory), 이피롬(Erasable Programmable Read Only Memory: EPROM), 이이피롬(Electrically Erasable Programmable Read Only Memory: EEPROM) 등의 비휘발성 메모리를 포함할 수 있다.
프로세서와 메모리는 각각 별도의 칩으로 구현되거나, SoC(system on chip) 등의 단일 칩으로 구현될 수 있다.
센서부(309)는 예를 들면, 근접센서 또는 접촉센서를 포함할 수 있다. 전자장치가 거치대(300)에 거치되는 경우 센서부(309)가 이를 감지하여 신호를 출력하고 제어부(301)는 이를 수신하여 전자장치가 거치대(300)에 거치되었음을 알 수 있다.
센서부(309)는 다양한 방법으로 전자장치가 거치대(300)에 거치된 것을 감지할 수 있다.
예를 들어, 센서부(309)는 전자장치에 의한 정전 용량의 변화를 감지하는 정전 용량 센서를 포함할 수 있다. 전자장치가 거치대에 거치되는 경우, 정전 용량 센서는 전자장치에 의한 정전 용량의 변화를 감지하여 신호를 출력하고, 제어부(301)는 이를 수신하여 전자장치가 거치대에 거치되었음을 알 수 있다.
또는, 센서부(309)는 전자장치의 자석에 의한 자기장을 감지하는 홀 센서를 포함할 수 있다. 전자장치가 거치대에 거치되는 경우, 홀센서는 전자장치의 자석에서 나오는 자기장을 감지하여 신호를 출력하고 제어부(309)는 이를 수신하여 전자장치가 거치대에 거치되었음을 알 수 있다.
또한, 제어부(301)는 센서부(309)에서 출력된 신호에 기초하여 무선 전력 송신부(303)를 통해 전자장치로 전력을 전송할 수 있다.
도 10a 및 도 10b는 일 실시예에 따른 전자장치의 구동 예를 도시한다.
도 10a를 참조하면 전자장치(1001), 거치대(1003) 및 사용자(1004)가 도시되어 있다.
사용자(1004)는 전자장치(1001)의 좌측에 위치하며 전자장치(1001)의 전면 커버(1002)는 사용자(1004)의 위치를 향하고 있다. 또는, 전면 커버(1002)는 사용자의 얼굴 방향을 향하고 있다.
즉, 전자장치(1001)는 사용자(1004)를 식별하고 전면 커버(1002) 내측의 디스플레이가 사용자의 위치를 향하도록 거치대(1003)의 구동부를 제어하여 전자장치(1001)의 자세를 변경할 수 있다. 또는, 전자장치(1001)는 전면 커버(1002) 내측의 디스플레이가 사용자의 얼굴 방향을 향하도록 거치대(1003)의 구동부를 제어하여 전자장치(1001)의 자세를 변경할 수 있다.
사용자(1004)가 이동하면, 전자장치(1001)는 사용자를 추적하여 자세를 변경할 수 있다. 즉, 전자장치(1001)는 디스플레이가 사용자의 얼굴을 향하도록 거치대(1003)의 구동부를 제어하여 자세를 변경할 수 있다.
도 10b를 참조하면 전자장치(1011), 거치대(1013) 및 사용자(1014)가 도시되어 있다.
사용자(1014)가 전자장치(1011)의 좌측에서 우측으로 이동함에 따라 전자장치(1011)는 사용자(1014)를 추적하여 전면 커버(1012)가 좌측에서 우측을 향하도록 자세가 변경될 수 있다.
구체적으로, 전면 커버(1012)의 내측에는 디스플레이 및 카메라 모듈이 배치될 수 있다. 카메라를 통해 촬상된 이미지는 프로세서로 전달되며, 프로세서는 촬상된 이미지를 분석하여 사용자의 위치를 인식하고, 거치대(1013)의 구동부를 제어하여 디스플레이가 사용자를 향하도록 자세를 변경할 수 있다.
도 11은 일 실시예에 따른 전자장치가 구동되는 과정에 대한 흐름도이다.
도 12a 내지 도 12b는 일 실시예에 따른 전자장치가 획득한 사용자를 포함하는 영상의 일 예를 도시한다.
도 11을 참조하면, 동작 1101에서 전자장치의 카메라는 주변 공간을 촬상한다. 카메라는 촬상한 이미지를 프로세서로 전송할 수 있다. 프로세서는 카메라에서 전송한 이미지를 영상 인식 처리하여 사용자를 식별할 수 있다.
동작 1103에서 프로세서는 촬상한 이미지에 사용자가 있는지 판단할 수 있다. 프로세서는 촬상한 이미지를 처리하고, 이미지에 사용자가 있는지 식별할 수 있다.
촬상한 이미지에 사용자가 없는 경우에는 동작 1104에서 프로세서는 전자장치의 자세가 변경되도록 거치대로 제어 데이터를 전송할 수 있다.
구체적으로 프로세서는 미리 설정된 범위로 전자장치의 자세가 변경되도록 거치대의 구동부를 제어하는 제어 데이터를 거치대로 전송할 수 있다. 프로세서는 통신 모듈의 프로토콜에 맞는 형식으로 제어 데이터를 처리하여 통신 모듈로 전송하고 통신 모듈에서는 미리 설정된 프로토콜로 제어 데이터를 거치대로 전송할 수 있다.
예를 들면 프로세서는 블루투쓰 프로토콜에 맞게 제어 데이터를 처리하고, 통신부를 통해 블루투쓰 통신방식에 따라 제어 데이터를 전송할 수 있다. 또는 프로세서는 와아파이 프로토콜에 맞게 제어 데이터를 처리하고, 통신부를 통해 와이파이 통신방식에 따라 제어 데이터를 전송할 수 있다.
촬상한 이미지에 사용자가 있는 경우 동작 1105에서 프로세서는 촬상한 이미지에서 사용자의 위치를 식별할 수 있다.
구체적으로 프로세서는 촬상한 이미지에서 사용자가 어느 위치에 있는지 결정할 수 있다.
예를 들어, 프로세서는 이미지의 중앙을 좌표의 기준점으로 설정하고 좌표의 기준점을 중심으로 사용자의 위치를 결정할 수 있다.
도 12a를 참조하여 예를 들면 프로세서는 이미지의 중앙을 좌표 (0,0)으로 설정하고 이미지의 좌측상단의 좌표를 (-320, 240), 이미지의 우측상단의 좌표를 (320, 240), 이미지의 좌측하단의 좌표를(-320, -240), 이미지의 우측하단의 좌표를 (320, -240)으로 설정할 수 있다. 프로세서는 이미지를 처리하여 사용자의 위치에 대한 좌표를 결정할 수 있다. 이미지에서 사용자의 위치 좌표는 (-290, 180) 이다.
동작 1107에서 프로세서는 사용자의 얼굴이 이미지 중앙에 위치하도록 거치대로 제어 데이터를 전송할 수 있다.
구체적으로, 프로세서는 이미지 중앙의 좌표 값을 기준으로 사용자의 위치 좌표를 결정하고 사용자의 위치가 이미지의 중앙으로부터 이격된 거리에 기초하여 거치대의 구동부를 제어하는 데이터를 산출하고, 산출된 제어 데이터를 거치대로 전송할 수 있다.
실시 형태에 따라 프로세서는 현재의 자세 정보 및 목표 자세 정보를 통신부를 통해 거치대로 전송할 수 있다. 이 경우, 거치대의 구동부를 제어하는 제어 데이터를 거치대의 제어부가 생성하게 된다.
도 12를 참조하여 예를 들면 사용자의 위치는 촬상된 이미지의 중앙에서 (-290, 180) 거리만큼 떨어져 있다. 프로세서는 상기 거리에 해당하는 제어 데이터를 생성하여 통신 모듈을 통해 거치대로 무선으로 전송할 수 있다. 거치대는 전자장치로부터 전송된 제어 데이터에 기초하여 전자장치의 자세를 변경시켜 사용자의 얼굴이 촬상된 이미지 중앙에 위치하도록 구동부의 모터를 제어하여 전자장치의 자세를 변경시킬 수 있다.
동작 1109에서 프로세서는 사용자의 얼굴이 촬상된 이미지 중앙에 위치하는지 여부를 판단할 수 있다. 사용자의 얼굴이 촬상된 이미지 중앙에 위치하는 경우 프로세서는 거치대의 구동부 모터를 정지시킬 수 있다. 사용자의 얼굴이 촬상된 이미지 중앙에 위치하지 않는 경우 프로세서는 동작 1107 및 1109를 반복해서 수행할 수 있다.
도 13은 전자장치가 거치대에 거치되어 무선 충전을 시작하는 방법에 대한 흐름도이다.
전자장치는 무선으로 배터리를 충전하기 위해 무선 전력 수신부를 포함할 수 있다.
무선 전력 수신부는 자기 유도 현상에 기초한 유도 결합 방식으로 전력을 수신할 수 있다. 유도 결합 방식은 자기 유도 현상에 의하여 하나의 코일에서 변화하는 자기장을 통해 다른 코일 쪽에 전류가 유도됨으로써 전력을 수신하는 것을 말한다.
또는, 무선 전력 수신부는 공진 결합 방식으로 전력을 수신할 수 있다. 공진 결합 방식은 무선 전력 전송장치에서 전송한 무선 전력 신호에 의하여 무선 전력 수신장치에서 공진이 발생하고, 공진 현상에 의하여 무선 전력 전송장치로부터 상기 무선 전력 수신장치로 전력이 전달되는 것을 말한다.
무선 충전 효율을 높이기 위해서는 전력을 전송하는 거치대의 송신 코일의 위치와 와 전력을 수신하는 전자장치 수신 코일 위치가 중요하며 송신 코일과 수신 코일이 최적의 위치에 있어야 무선 충전 효율이 높아질 수 있다.
전자장치는 무선 충전 효율이 높아지도록 전자장치의 자세를 변경하기 위한 제어 데이터를 거치대로 전송할 수 있다. 즉 전자장치는 무선 충전 효율에 기초하여 전자장치의 자세를 제어하는 데이터를 거치대로 전송할 수 있다.
동작 1301에서 프로세서는 전자장치가 거치대에 거치된 것을 감지할 수 있다.
전자장치가 거치대에 거치되는 경우 센서 모듈의 근접 센서에서 신호가 출력될 수 있다. 프로세서는 센서 모듈에서 출력된 신호에 기초하여 전자장치가 거치대에 거치되었음을 감지할 수 있다.
또는, 거치대에 포함된 근접센서가 전자장치가 거치되는 경우 이를 감지하여 신호를 출력하고 거치대의 제어부는 상기 신호를 수신하여 전자장치가 거치되었음을 감지하고 전자장치로 데이터를 전송할 수 있다. 전자장치는 거치대로부터 상기 데이터를 수신하여 전자장치가 거치대에 거치된 것으로 결정할 수 있다.
또는, 거치대에 포함된 홀센서가 전자장치가 거치되는 경우 이를 감지하여 신호를 출력하고 거치대의 제어부는 상기 신호를 수신하여 전자장치가 거치되었음을 감지하고 전자장치로 데이터를 전송할 수 있다. 전자장치는 거치대로부터 상기 데이터를 수신하여 전자장치가 거치대에 거치된 것으로 결정할 수 있다. 홀센서는 전자장치에 포함된 자석에서 발생되는 자기장을 감지하여 전자장치가 거치대에 거치된 것으로 결정할 수 있다.
또는, 거치대에 포함된 무선 전력 전송부는 전력 송신전에 펄스 신호를 출력할 수 있다. 전자장치가 거치대에 거치되는 경우 전자장치는 상기 펄스 신호를 수신하고, 상기 펄스 신호 수신에 응답하는 응답 신호를 거치대로 출력할 수 있다. 전자장치는 상기 펄스 신호를 수신하면 전자장치가 거치대에 장착된 것으로 결정할 수 있다.
동작 1303에서 전자장치는 거치대의 최적 위치에 거치되었는지를 판단할 수 있다. 여기서 최적 위치는 전자장치의 무선 충전 효율이 가장 높은 위치일 수 있다.
프로세서는 무선 충전 효율이 높아지도록 전자장치의 자세를 변경할 수 있다. 즉 프로세서는 무선 충전 효율에 기초하여 전자장치의 자세를 변경할 수 있다.
동작 1303에서 전자장치가 최적 위치에 위치하지 않는 경우, 동작 1305에서 프로세서는 무선 충전 효율이 높아지도록 전자장치의 자세를 변경하는 제어 데이터를 거치대로 전송하고 거치대는 상기 제어 데이터에 기초하여 구동부의 모터를 제어하고 전자장치의 자세를 변경시킬 수 있다.
동작 1303에서 전자장치가 최적 위치에 위치하는 것으로 판단되면, 프로세서는 동작 1307에서 무선 충전을 시작할 수 있다.
도 14는 전자장치를 제어하는 방법에 대한 흐름도이다.
도 14를 참조하면 전자장치는 동작 1401에서 전자장치의 디스플레이가 향하는 방향으로부터 영상을 획득할 수 있다. 카메라는 사용자와 인터랙션하는 방향으로부터 영상을 획득할 수 있으며, 디스플레이와 인접하여 배치될 수 있다. 따라서, 카메라가 향하는 방향은 디스플레이가 향하는 방향과 동일 할 수 있고, 디스플레이가 향하는 방향의 영상이 카메라를 통하여 획득될 수 있다.
전자장치는 동작 1402에서 전자장치의 자세 정보를 센싱할 수 있다. 전자장치의 자세 정보는 센서 모듈을 통해 획득될 수 있다. 구체적으로, 프로세서는 센서 모듈에 포함되는 자이로 센서 및 가속도 센서로부터 전자장치의 자세에 관한 데이터를 획득할 수 있으며, 획득된 데이터를 기초로 전자장치의 현재 자세를 결정할 수 있다.
전자장치는 동작 1403에서 전자장치가 사용자를 향하도록 전자장치의 목표 자세를 결정한다.
예를 들어, 전자 장치는 카메라 모듈을 통해 획득된 영상을 분석하고 상기 영상에서 사용자가 인식되면 사용자 영상이 화면의 중앙에 위치하도록 전자장치의 목표 자세를 결정할 수 있다. 예를 들면 전자장치는 카메라 모듈을 통해 획득된 영상에서 사용자가 화면의 중앙을 기준으로 왼쪽 상단에 위치하는 경우 사용자가 화면의 중앙에 위치하기 위해 전자장치의 자세를 어느 정도 변경해야 하는지를 결정하고, 이를 목표 자세로 설정할 수 있다.
상기 영상에서 사용자가 인식되지 않으면 전자장치는 전자장치의 자세를 미리 설정된 범위로 변경하고 전자장치의 자세가 변경된 상태에서 카메라로 디스플레이 방향의 공간을 촬상하여 새로운 영상을 획득할 수 있다. 전자장치는 새롭게 획득된 영상에서 사용자가 인식되는지 판단하고 사용자가 인식되는 경우, 사용자가 중앙에 위치하도록 전자장치의 목표 자세를 결정할 수 있다. 전자장치는 새롭게 획득된 영상에서 사용자가 인식되지 않는다면 다시 기 절성된 범위로 전자장치의 자세를 변경하고 또 다시 새로운 영상을 획득하는 과정을 반복할 수 있다.
다른 예로, 전자장치는 마이크를 통해 입력되는 음성의 발화 방향에 기초하여 전자장치의 목표 자세를 결정 할 수 있다. 실시 형태에 따라 전자장치는 마이크를 통해 입력되는 다양한 신호 중에서 사용자를 식별할 수 있다. 전자장치는 사용자의 소리가 식별되면 사용자의 소리가 최대가 되는 방향으로 전자장치의 자세를 변경하도록 제어 데이터를 통신부를 통해 거치대로 전송할 수 있다.
전자장치는 동작 1404에서 전자장치의 자세 정보 및 전자장치의 목표 자세에 대한 정보를 거치대로 전송할 수 있다.
여기서 전자장치가 정보를 거치대로 전송한 다는 것의 의미는 전자장치와 거치대가 페어링 된 상태에서 전자장치가 거치대로 정보를 전송하는 것을 의미할 수 있다.
전자장치는 센서 모듈에서 출력된 데이터에 기초하여 전자장치가 전자장치와 기능적으로 연결되는 거치대에 거치된 것으로 결정할 수 있다. 예를 들면 전저장치는 센서 모듈에 포함되는 근접 센서에서 출력된 신호에 기초하여 전자장치가 거치대에 거치된 것으로 결정할 수 있다.
또는 전자장치는 무선 전력 수신부에서 신호가 감지되면 전자장치가 거치대에 거치된 것으로 결정할 수 있다.
도 15는 거치대가 전자장치로부터 전송된 데이터에 기초하여 구동부를 구동하는 방법에 대한 흐름도이다.
도 15를 참조하면 거치대는 동작 1501에서 전자장치로부터 제어 데이터를 수신할 수 있다.
이때, 제어 데이터는 전자장치의 현재의 자세 정보 및 목표 자세 정보를 포함할 수 있다.
거치대는 전자장치로부터 전자장치의 현재 자세 정보 및 목표 자세 정보를 수신하면, 전자장치의 현재 자세 정보 및 목표 자세 정보로부터 전자장치의 자세를 변경하기 위한 구동부 구동 데이터를 생성할 수 있다. 거치대는 구동부에 연결된 적어도 하나의 모터를 구동하여 전자장치의 자세를 변경시킬 수 있다.
전자장치의 자세가 변경되면 전자장치는 센서 모듈을 통해 센싱된 전자장치의 변경된 자세 정보를 통신부를 통해 거치대로 전송할 수 있다. 변경된 자세 정보를 수신한 거치대는 새롭게 수신한 전자장치의 자세 정보 및 목표 자세 정보에 기초하여 구동부를 다시 구동하여 전자장치가 목표 자세 도달할 때까지 계속해서 전자장치의 자세를 변경할 수 있다.
거치대는 구동부에 포함된 모터의 회전력을 이용하여 구동 레그를 회전시켜 전자장치의 자세를 변경할 수 있다. 구동 레그의 횔과 전자장치는 물리적으로 접촉될 수 있다.
또한, 현재의 자세 정보를 무선으로 거치대로 전송하기 때문에 노이즈의 영향으로 거치대가 전자장치로부터 자세 정보를 수신하지 못하면, 거치대는 기존에 수신했던 전자장치의 자세 정보를 이용하여 전자장치의 새로운 자세 정보를 유추할 수 있다. 예를 들면 전자장치가 시간 n에서 수신한 전자장치의 자세 정보가 a, 시간 n+1에서 수신한 전자장치의 자세 정보가 a+1, 시간 n+2에서 수신한 전자장치의 자세 정보가 a+2 라고 가정하고, 전자장치가 시간 n+3 에서 전자장치로부터 위치 정보를 수신하지 못하는 경우, 전자장치는 n+3에서 전자장치의 위치 정보를 시간 n, n+1, n+2에서 수신했던 전자장치의 자세 정보 a, a+1, a+2 로부터 a+3으로 유추할 수 있다.
실시 형태에 따라 제어 데이터는 전자장치의 자세를 원하는 자세로 변경시킬 수 있도록 거치대의 구동부를 구동할 수 있는 구동 데이터를 포함할 수 있다. 거치대는 동작 1502에서 전자장치로부터 수신된 데이터를 기초로 적어도 하나의 모터의 회전 방향 및 회전 속도를 변경시킬 수 있다.
예를 들어, 거치대는 전자장치로부터 수신된 현재 자세 정보와 목표 자세 정보 사이의 차이를 기초로 전자장치의 목표 움직임을 산출할 수 있다. 여기서, 목표 움직임은 전자장치가 목표 자세에 도달하기 위한 전자장치의 자세 변경 방향 과 자세 변경 량 등을 포함할 수 있다. 또한, 거치대는 전자장치의 목표 움직임을 기초로 적어도 하나의 모터의 회전 방향, 회전 속도 및 회전 토크(torque)를 변경할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면,"모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 프로세서(예: 프로세서(120))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리(130)가 될 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 개시의 범위를 한정하는 것은 아니다. 따라서, 본 개시의 범위는, 본 개시의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.

Claims (19)

  1. 거치대; 및
    상기 거치대에 거치될 수 있는 전자장치;를 포함하는 전자기기에 있어서,
    상기 전자 장치는,
    반구 형상의 하우징;
    영상을 획득하는 카메라 모듈;
    상기 전자장치의 자세 정보를 센싱하는 센서 모듈;
    상기 획득된 영상에 기초하여 상기 전자장치의 목표 자세를 결정하는 프로세서; 및
    상기 전자장치의 자세 정보 및 상기 전자장치의 목표 자세에 대한 정보를 상기 거치대로 전송하는 통신 모듈;을 포함하고,
    상기 거치대는,
    상기 전자 장치로부터 상기 전자 장치의 감지된 자세에 관한 정보 및 상기 전자 장치의 목표 자세에 관한 정보를 수신하는 통신부;
    각각이 상기 전자 장치의 반구 표면과 접촉하도록 마련되는 복수의 구동 레그들;
    상기 복수의 구동 레그들을 회전사키는 구동부; 및
    상기 전자 장치의 감지된 자세에 관한 정보 및 상기 전자 장치의 목표 자세에 관한 정보에 기초하여 상기 복수의 구동 레그들 중 적어도 하나의 구동 레그가 상기 전자 장치를 목표 자세로 변경시키도록 상기 구동부를 제어하는 제어부;를 포함하는 전자기기.
  2. 제 1 항에 있어서,
    상기 전자 장치는,
    음성을 입력 받는 마이크를 더 포함하며,
    상기 프로세서는,
    상기 마이크로 입력된 음성의 발화 방향에 기초하여 상기 전자장치의 목표 자세를 결정하는 것을 특징으로 하는 전자기기.
  3. 제 1 항에 있어서,
    상기 통신 모듈은 전자장치의 움직임에 대한 속도 또는 가속도 정보 중 적어도 하나를 상기 거치대로 전송하는 것을 특징으로 하는 전자기기.
  4. 제 1 항에 있어서,
    상기 프로세서는 상기 획득된 영상에서 사용자가 인식되면, 상기 사용자가 상기 카메라 모듈에 의하여 획득된 영상의 중앙에 위치하도록 상기 전자장치의 목표 자세를 결정하는 것을 특징으로 하는 전자기기.
  5. 제 1 항에 있어서,
    상기 프로세서는 상기 센서 모듈을 통해 상기 전자장치가 상기 거치대에 거치된 것으로 결정하는 것을 특징으로 전자기기.
  6. 삭제
  7. 제 1 항에 있어서,
    상기 제어부는 상기 전자장치의 현재 자세 정보 및 목표 자세 정보 사이의 차이를 기초로 상기 적어도 하나의 구동 레그의 회전 방향, 회전 속도 및 회전 토크중 적어도 하나를 변경하도록 상기 구동부를 제어하는 것을 특징으로 하는 전자기기.
  8. 제 1 항에 있어서,
    상기 적어도 하나의 구동 레그는 전자장치의 외관과 물리적으로 접촉하며, 회전에 의해 상기 전자장치의 자세를 변경시키는 것을 특징으로 하는 전자기기.
  9. 제 1 항에 있어서,
    상기 거치대는,
    상기 통신부를 통해 상기 전자장치의 자세 정보가 수신되지 않는 경우, 사전에 수신되었던 전자장치의 자세 정보에 기초하여 상기 구동부를 제어하는 전자기기.
  10. 삭제
  11. 거치대 및 상기 거치대에 거치될 수 있는 전자장치를 포함하는 전자기기의 제어 방법에 있어서,
    영상을 획득하는 과정;
    센서모듈을 통해 상기 전자장치의 자세 정보를 센싱하는 과정;
    상기 영상에서 사용자가 인식되면, 상기 사용자 영상이 화면의 중앙에 위치하도록 상기 전자 장치의 목표 자세를 결정하는 과정;
    상기 전자장치의 자세 정보 및 상기 전자장치의 목표 자세에 대한 정보를 상기 거치대로 전송하는 과정; 및
    상기 전자 장치의 감지된 자세에 관한 정보 및 상기 전자 장치의 목표 자세에 관한 정보에 기초하여 각각이 상기 전자 장치의 반구 표면과 접촉하도록 마련되는 복수의 구동 레그들 중 적어도 하나의 구동 레그의 회전 방향 및 회전 속도를 제어하여 상기 전자 장치를 상기 목표 자세로 변경시키는 과정;을 포함하는 전자기기의 제어 방법.
  12. 제 11 항에 있어서,
    상기 방법은,
    마이크를 통해 입력되는 음성의 발화 방향에 기초하여 상기 전자장치의 목표 자세를 결정하는 과정:을 더 포함하는 전자기기의 제어 방법.
  13. 제 11 항에 있어서,
    상기 방법은,
    상기 전자장치의 움직임에 대한 속도 및 가속도 정보중 적어도 하나를 상기 거치대로 전송하는 과정;을 더 포함하는 전자기기의 제어 방법.
  14. 제 11 항에 있어서,
    상기 센서 모듈에서 출력된 데이터에 기초하여 상기 전자장치가 거치대에 거치된 것으로 결정하는 과정;을 더 포함하는 전자기기의 제어 방법.
  15. 제11항에 있어서,
    상기 방법은,
    상기 거치대로부터 수신된 신호에 기초하여 상기 전자 장치가 상기 거치대에 거치된 것으로 결정하는 과정;을 더 포함하는 전자기기의 제어 방법.
  16. 삭제
  17. 삭제
  18. 제 11 항에 있어서,
    상기 전자장치로부터 상기 전자장치의 자세 정보가 수신되지 않는 경우, 기 수신되었던 전자장치의 자세 정보에 기초하여 상기 적어도 하나의 구동 레그를 제어하는 과정;을 더 포함하는 전자기기의 제어 방법.
  19. 제11항에 있어서,
    상기 적어도 하나의 구동 레그의 회전에 의해 상기 전자장치의 자세가 변경되는 전자기기의 제어 방법.
KR1020150179300A 2015-12-15 2015-12-15 전자장치 및 그 거치대 KR102546714B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020150179300A KR102546714B1 (ko) 2015-12-15 2015-12-15 전자장치 및 그 거치대
US15/248,256 US10363663B2 (en) 2015-12-15 2016-08-26 Electronic device and cradle thereof
EP16875878.7A EP3329347B1 (en) 2015-12-15 2016-08-31 Electronic device and cradle thereof
PCT/KR2016/009694 WO2017104936A1 (en) 2015-12-15 2016-08-31 Electronic device and cradle thereof
CN201680062836.1A CN108351681B (zh) 2015-12-15 2016-08-31 电子设备及其托架

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150179300A KR102546714B1 (ko) 2015-12-15 2015-12-15 전자장치 및 그 거치대

Publications (2)

Publication Number Publication Date
KR20170071225A KR20170071225A (ko) 2017-06-23
KR102546714B1 true KR102546714B1 (ko) 2023-06-23

Family

ID=59018878

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150179300A KR102546714B1 (ko) 2015-12-15 2015-12-15 전자장치 및 그 거치대

Country Status (5)

Country Link
US (1) US10363663B2 (ko)
EP (1) EP3329347B1 (ko)
KR (1) KR102546714B1 (ko)
CN (1) CN108351681B (ko)
WO (1) WO2017104936A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD833498S1 (en) * 2017-01-10 2018-11-13 Intuition Robotics Ltd. Social robot
JP6916130B2 (ja) * 2018-03-02 2021-08-11 株式会社日立製作所 話者推定方法および話者推定装置
CN110996197B (zh) * 2019-11-15 2021-05-28 歌尔股份有限公司 音频设备的控制方法、音频设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120229300A1 (en) * 2011-03-11 2012-09-13 Wistron Corporation Holder Device Capable of Automatically Adjusting Orientation of an Electronic Device Placed Thereon, and Assembly of Holder Device and Electronic Device
US20140267775A1 (en) 2013-03-15 2014-09-18 Peter Lablans Camera in a Headframe for Object Tracking
KR101444829B1 (ko) 2014-03-28 2014-11-04 포커스테크 주식회사 원격제어를 통한 인체감지 스마트 모니터링 블랙박스 장치
US20150288857A1 (en) * 2014-04-07 2015-10-08 Microsoft Corporation Mount that facilitates positioning and orienting a mobile computing device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9811836B2 (en) * 2002-10-23 2017-11-07 Modiv Media, Inc System and method of a media delivery services platform for targeting consumers in real time
JP4561209B2 (ja) 2004-07-13 2010-10-13 日本ビクター株式会社 ロボット
US7473040B2 (en) 2004-10-15 2009-01-06 Lifesize Communications, Inc. High definition camera pan tilt mechanism
US7623274B1 (en) 2004-12-22 2009-11-24 Google Inc. Three-dimensional calibration using orientation and position sensitive calibration pattern
US8537273B2 (en) * 2005-10-27 2013-09-17 Hewlett-Packard Development Company, L.P. Demo dock for digital cameras
KR100883467B1 (ko) * 2007-07-11 2009-02-16 (주)케이티에프테크놀로지스 통화자 얼굴 추적 이동통신단말기 거치대 및이동통신단말기
KR20110059099A (ko) * 2009-11-27 2011-06-02 삼성전자주식회사 휴대 단말기용 거치대 및 그 제어 방법
WO2011127201A1 (en) 2010-04-06 2011-10-13 Youbiq Llc Camera control
US8694051B2 (en) 2010-05-07 2014-04-08 Qualcomm Incorporated Orientation sensor calibration
JP5905031B2 (ja) 2011-01-28 2016-04-20 インタッチ テクノロジーズ インコーポレイテッド モバイルテレプレゼンスロボットとのインタフェーシング
KR101320169B1 (ko) 2012-03-05 2013-10-23 김억 스마트기기 도킹형 로봇
DE112013003541B4 (de) * 2012-08-15 2018-10-25 International Business Machines Corporation Verfahren, Programm und System zur Merkmalextraktion
KR20160034243A (ko) 2013-03-15 2016-03-29 지보, 인코포레이티드 지속적인 동반 디바이스를 제공하기 위한 장치 및 방법들
CN104281199B (zh) * 2013-07-01 2020-07-24 联想(北京)有限公司 控制支架的方法、支架及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120229300A1 (en) * 2011-03-11 2012-09-13 Wistron Corporation Holder Device Capable of Automatically Adjusting Orientation of an Electronic Device Placed Thereon, and Assembly of Holder Device and Electronic Device
US20140267775A1 (en) 2013-03-15 2014-09-18 Peter Lablans Camera in a Headframe for Object Tracking
KR101444829B1 (ko) 2014-03-28 2014-11-04 포커스테크 주식회사 원격제어를 통한 인체감지 스마트 모니터링 블랙박스 장치
US20150288857A1 (en) * 2014-04-07 2015-10-08 Microsoft Corporation Mount that facilitates positioning and orienting a mobile computing device

Also Published As

Publication number Publication date
US20170165840A1 (en) 2017-06-15
KR20170071225A (ko) 2017-06-23
CN108351681A (zh) 2018-07-31
WO2017104936A1 (en) 2017-06-22
EP3329347A1 (en) 2018-06-06
EP3329347A4 (en) 2018-10-24
EP3329347B1 (en) 2021-07-14
US10363663B2 (en) 2019-07-30
CN108351681B (zh) 2021-08-31

Similar Documents

Publication Publication Date Title
KR102573769B1 (ko) 전자장치 및 그 거치대
US10362438B2 (en) Portable apparatus and method of controlling location information of portable apparatus
US11095472B2 (en) Vision-based object recognition device and method for controlling the same
EP3032379B1 (en) Device and method for controlling a plurality of input/output devices based on situation context
US10110787B2 (en) Wearable video device and video system including the same
US11472038B2 (en) Multi-device robot control
KR20170097519A (ko) 음성 처리 방법 및 장치
KR102519578B1 (ko) 전자 장치의 화면 표시 방법 및 그 장치
US11301061B2 (en) Electronic device identifying gesture with stylus pen and method for operating the same
EP3101528A1 (en) Method for controlling a display of an electronic device and the electronic device thereof
KR102527901B1 (ko) 전자 장치에 있어서 입력 장치 및 그 제어 방법
KR102546714B1 (ko) 전자장치 및 그 거치대
KR20170100332A (ko) 화상 통화 방법 및 장치
US20140194147A1 (en) Apparatus and method for reducing battery consumption of mobile terminal
US11363189B2 (en) Apparatus and method for recognizing voice and face on basis of change in camera driving method
JP2018037819A (ja) 電子機器、制御方法及びプログラム
US11095932B2 (en) Remote control device and control method thereof
WO2023082768A1 (zh) 功能模式切换方法、电子设备及系统
KR20190088352A (ko) 제한 영역을 포함하는 디스플레이를 이용하여 동작을 제어하기 위한 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant