KR102236203B1 - 서비스를 제공하는 방법 및 그 전자 장치 - Google Patents

서비스를 제공하는 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR102236203B1
KR102236203B1 KR1020140063830A KR20140063830A KR102236203B1 KR 102236203 B1 KR102236203 B1 KR 102236203B1 KR 1020140063830 A KR1020140063830 A KR 1020140063830A KR 20140063830 A KR20140063830 A KR 20140063830A KR 102236203 B1 KR102236203 B1 KR 102236203B1
Authority
KR
South Korea
Prior art keywords
electronic device
image
information
location
designated
Prior art date
Application number
KR1020140063830A
Other languages
English (en)
Other versions
KR20150136391A (ko
Inventor
황민경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140063830A priority Critical patent/KR102236203B1/ko
Priority to US14/720,256 priority patent/US10205882B2/en
Publication of KR20150136391A publication Critical patent/KR20150136391A/ko
Application granted granted Critical
Publication of KR102236203B1 publication Critical patent/KR102236203B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 한 실시 예는, 전자 장치의 동작 방법에 있어서, 적어도 하나의 촬영 이미지를 획득하는 동작과, 상기 촬영 이미지를 지정된 적어도 하나의 저장 이미지와 비교하여 상기 촬영 이미지에 대응하는 장소를 결정하는 동작과, 결정한 상기 장소에 대응하여 지정된 적어도 하나의 기능을 수행하는 동작을 포함할 수 있다. 전자 장치의 동작 방법에 있어서 상술한 방법에 한정하지 않고 본 발명의 동일 또는 유사한 범위에서 다른 실시 예가 가능하다.

Description

서비스를 제공하는 방법 및 그 전자 장치{METHOD FOR PROVIDING SERVICE AND AN ELECTRONIC DEVICE THEREOF}
본 발명의 다양한 실시 예는 전자 장치에서 서비스를 제공하는 방법 및 그 전자 장치에 있다.
전자장치는 특정 장소에서 사용자가 원하는 동작을 수행하도록 구성할 수 있다. 다양한 실시 예에 따르면, 전자 장치는 GPS, 와이파이, 블루투스와 같은 적어도 하나의 장치를 통해서 전자 장치의 위치를 결정할 수 있고, 전자 장치의 위치를 기반으로 설정된 위치에 대응하여 전자 장치가 위치한 장소에서 수행할 수 있는 지정된 기능을 제공할 수 있다. 전자 장치는 지정된 기능을 수행함에 있어서, 실행중인 어플리케이션의 기능 또는 어플리케이션과 연관되어 수행할 수 있는 설정된 기능을 제공할 수 있다.
전자 장치에서 GPS를 이용한 위치 정보를 확인하는 방법은 실외에서 전자장치를 찾기 위해 이용되고 있으나, 실내에서는 신호 간섭이 심하여 오차가 크게 발생하는 문제점이 있다. 더하여, 와이파이, 블루투스를 이용하는 방법은 다수의 와이파이 장치 또는, 블루투스 장치와 위치를 측정하기 위한 별도의 시스템을 구축해야 하는 문제점이 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는 촬영된 이미지 및 이미지와 관련된 정보를 기반으로 전자 장치가 위치한 장소를 결정하도록 제공할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 적어도 하나의 촬영 이미지를 획득하는 동작과, 상기 촬영 이미지를 지정된 적어도 하나의 저장 이미지와 비교하여 상기 촬영 이미지에 대응하는 장소를 결정하는 동작과, 결정한 상기 장소에 대응하여 지정된 적어도 하나의 기능을 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는 카메라로 획득한 이미지 및 그 이미지와 관련된 정보를 활용하여 전자 장치가 위치한 장소를 용이하게 파악할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자장치가 지정된 장소에 대응하여 설정된 기능을 수행하여 사용자 환경을 설정하는 동작에 편의를 제공할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른, 전자 장치의 블록 도면이다.
도 2는 본 발명의 다양한 실시 예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 3은 본 발명의 다양한 실시 예에 따른, 전자 장치에서 이미지 처리 모듈의 블록도를 도시한다.
도 4는 본 발명의 다양한 실시 예에 따른, 전자 장치에서 촬영 이미지를 기반으로 지정된 장소를 결정 및 지정된 기능을 수행하는 동작을 도시한다.
도 5a 및 도 5b는 본 발명의 다양한 실시 예에 따른, 전자 장치에서 이미지를 통해서 전자 장치의 위치를 결정하는 동작을 도시한다.
도 6a 및 도 6b는 본 발명의 다양한 실시 예에 따른, 전자 장치의 이동 방향에 따라서 전자 장치가 위치한 장소를 결정하는 동작을 도시한다.
도 7은 본 발명의 다양한 실시 예에 따른, 전자 장치에서 촬영 이미지로 전자 장치 101이 위치한 장소를 결정하는 동작을 도시한다.
도 8은 본 발명의 다양한 실시 예에 따른, 전자 장치에서 촬영 이미지로 결정하는 장소에 대응하여 기능을 수행하는 동작을 도시한다.
도 9는 본 발명의 다양한 실시 예에 따른, 전자 장치의 설정 정보에서 전자 장치의 장소를 결정하는 수단을 결정하는 다양한 실시 예를 도시한다.
도 10은 본 발명의 다양한 실시 예에 따른, 전자 장치의 설정 정보에서 전자 장치의 장소에 대응하여 수행할 전자 장치의 적어도 하나의 기능을 설정하는 다양한 실시 예를 도시한다.
도 11a 및 도 11b는 본 발명의 다양한 실시 예에 따른, 전자 장치 101에서 획득한 이미지로 결정한 장소에 대응하여 지정된 기능을 수행하는 흐름을 도시한다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 설명한다.
본 발명의 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예가 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호를 사용할 수 있다.
본 발명의 다양한 실시 예 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 ‘또는’ 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, ‘A 또는 B’는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시 예에서 ‘제 1’, ’제 2’, ’첫째’ 또는 ’둘째’등의 표현들이 본 발명의 다양한 구성 요소들을 수식할 수 있지만, 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 또한, 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다.
본 발명의 다양한 실시 예에서 어떤 구성요소가 다른 구성요소에 ‘연결되어’ 있다거나 ‘접속되어’ 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 ‘직접 연결되어’ 있다거나 ‘직접 접속되어’ 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다른 것으로 명시하지 않는 한 복수의 표현을 포함할 수 있다. 또한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 통신 기능을 포함한 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smartwatch)), 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 또는 산업용 또는 가정용 로봇, 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector) 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. 이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 장치의 블록 도면이다.
도 1를 참조하면, 전자 장치 100은 하나 이상의 프로세서 110, 통신 모듈 120, SIM(subscriber identification module) 카드 124, 메모리 130, 센서 모듈 140, 입력 장치 150, 디스플레이 160, 인터페이스 170, 오디오 모듈 180, 카메라 모듈 191, 전력관리 모듈 195, 배터리 196, 인디케이터 197 및 모터 198 를 포함할 수 있다.
프로세서 110은 전자 장치 101에 적어도 하나 이상 포함되어 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 프로세서 110은 하나 이상의 어플리케이션 프로세서(AP: application processor) 및 하나 이상의 마이크로 컨트롤러(MCU: micro controller unit))을 포함할 수 있다. 다른 실시 예에 따르면, 프로세서 110은 어플리케이션으로서 하나 이상의 마이크로 컨트롤러를 포함하거나, 하나 이상의 마이크로 컨트롤러와 기능적으로 연결될 수 있다. 도 1에서는 AP와 MCU는 하나의 IC 패키지에 포함될 수 있고, 별도로 구성되어 서로 다른 IC 패키지 내에 각각 포함될 수 있다. 한 실시 예에 따르면, MCU는 AP의 IC 패키지에 포함되어 하나의 IC 패키지로 구성될 수도 있다. 프로세서 110의 구성 요소로 AP 또는 MCU를 포함하는 것으로 도시하고 있지만 이는 명확한 이해를 위한 실시 예로서, 프로세서 110이 AP 및/또는 MCU 동작을 수행할 수도 있음은 자명하다.
AP은 운영체제 또는 응용 프로그램을 구동하여 AP에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP 는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
MCU는 지정된 동작을 수행하도록 설정된 프로세서일 수 있다. 한 실시 예에 따르면, MCU는 하나 이상의 지정된 모션 센서(예: 자이로 센서 140b, 가속도 센서 140e 또는 지자기 센서 140p)를 통해서 센싱 정보를 획득할 수 있고, 획득한 센싱 정보를 비교할 수 있고, 전자 장치 101의 데이터베이스를 참고하여 지정된 센서(예: 지자기 센서 140p)의 동작 상태를 결정할 수 있다. 더하여, 도 1에서는, MCU와 센서 모듈 140의 구성요소들이 MCU와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, MCU가 전술한 센서 모듈 140의 구성요소들의 적어도 일부(예: 자이로 센서 140b, 가속도 센서 140e 및 지자기 센서 140p 중에서 적어도 하나)를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, AP 또는 MCU는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 또는 MCU는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈 120은 전자 장치 100(예: 전자 장치 101)와 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 104 또는 서버 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 통신 모듈 120은 셀룰러 모듈 121, Wifi 모듈 123, BT 모듈 125, GPS 모듈 127, NFC 모듈 128 및 RF(radio frequency) 모듈 129를 포함할 수 있다.
셀룰러 모듈 121은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 셀룰러 모듈 121은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 124)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 121은 AP 110가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 셀룰러 모듈 121은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
본 발명의 한 실시 예에 따르면, 셀룰러 모듈 121은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 셀룰러 모듈 121은, 예를 들면, SoC로 구현될 수 있다. 도 1에서는 셀룰러 모듈 121(예: 커뮤니케이션 프로세서), 메모리 130 또는 전력관리 모듈 195 등의 구성요소들이 AP 110와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, AP 110가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 121)를 포함하도록 구현될 수 있다.
본 발명의 한 실시 예에 따르면, AP 110 또는 셀룰러 모듈 121(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 110 또는 셀룰러 모듈 121은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
Wifi 모듈 123, BT 모듈 125, GPS 모듈 127 또는 NFC 모듈 128 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 1에서는 셀룰러 모듈 121, Wifi 모듈 123, BT 모듈 125, GPS 모듈 127 또는 NFC 모듈 128이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈 121, Wifi 모듈 123, BT 모듈 125, GPS 모듈 127 또는 NFC 모듈 128 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 121, Wifi 모듈 123, BT 모듈 125, GPS 모듈 127 또는 NFC 모듈 128 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 121에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 123에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
RF 모듈 129는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. RF 모듈 129는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈 129는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 1에서는 셀룰러 모듈 121, Wifi 모듈 123, BT 모듈 125, GPS 모듈 127 및 NFC 모듈 128이 하나의 RF 모듈 129을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈 121, Wifi 모듈 123, BT 모듈 125, GPS 모듈 127 또는 NFC 모듈 128 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
SIM 카드 124는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드 124는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리 130는 내장 메모리 132 또는 외장 메모리 134를 포함할 수 있다. 내장 메모리 132는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 내장 메모리 132는 Solid State Drive (SSD)일 수 있다. 외장 메모리 134는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 외장 메모리 134는 다양한 인터페이스를 통하여 전자 장치 100과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 전자 장치 100는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
센서 모듈 140은 물리량을 계측하거나 전자 장치 100의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 140은, 예를 들면, 제스처 센서 140A, 자이로 센서 140B, 기압 센서 140C, 마그네틱 센서 140D, 가속도 센서 140E, 그립 센서 140F, 근접 센서 140G, color 센서 140H(예: RGB(red, green, blue) 센서), 생체 센서 140I, 온/습도 센서 140J, 조도 센서 140K 또는 UV(ultra violet) 센서 140M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈 140은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 센서 모듈 140은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
입력 장치 150은 터치 패널(touch panel) 153, (디지털) 펜 센서(pen sensor) 154, 키(key) 156 또는 초음파(ultrasonic) 입력 장치 158를 포함할 수 있다. 터치 패널 153은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 검출할 수 있다. 또한, 터치 패널 153은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 검출이 가능하다. 터치 패널 153은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널 153은 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서 154는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 검출용 쉬트(sheet)를 이용하여 구현될 수 있다. 키 156는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 초음파(ultrasonic) 입력 장치 158는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 100에서 마이크(예: 마이크 188)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 검출이 가능하다. 한 실시 예에 따르면, 전자 장치 100는 통신 모듈 120를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이 160은 패널 162, 홀로그램 장치 164 또는 프로젝터 166을 포함할 수 있다. 패널 162은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널 162은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 162은 터치 패널 153과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 164은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 166는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치 100의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 160은 패널 162, 홀로그램 장치 164, 또는 프로젝터 166를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스 170는, 예를 들면, HDMI(high-definition multimedia interface) 173, USB(universal serial bus) 174, 광 인터페이스(optical interface) 176 또는 D-sub(D-subminiature) 178를 포함할 수 있다. 인터페이스 170는, 예를 들면, 통신 인터페이스에 포함되어 구성될 수 있다. 추가적으로 또는 대체적으로, 인터페이스 170는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈 180은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 180의 적어도 일부 구성요소는, 예를 들면, 입출력 인터페이스에 포함될 수 있다. 오디오 모듈 180은, 예를 들면, 스피커 183, 리시버 184, 이어폰 186 또는 마이크 188 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 카메라 모듈 191은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
전력 관리 모듈 195은 전자 장치 100의 전력을 관리할 수 있다. 도시하지는 않았으나, 전력 관리 모듈 195은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리 196의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리 196는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 전자 장치 100에 전원을 공급할 수 있다. 배터리 196는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터 197는 전자 장치 100 혹은 그 일부(예: AP 110)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터 198는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 전자 장치 100는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어 플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 전술한 구성 요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
도 2는 본 발명의 다양한 실시 예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다.
전자 장치 101는, 예를 들면, 도 1에 도시된 전자 장치 100의 전체 또는 일부를 구성할 수 있다. 도 2을 참조하면, 전자 장치 101는 버스 210, 프로세서 220, 메모리 230, 입출력 인터페이스 240, 디스플레이 250, 통신 인터페이스 260 및 모션 처리 모듈 270을 포함할 수 있다.
버스 210는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신 신호(예: 제어 메시지)를 전달하는 회로일 수 있다.
프로세서 220는, 예를 들면, 버스 210를 통해 전술한 다른 구성요소들(예: 메모리 230, 입출력 인터페이스 240, 디스플레이 250, 통신 인터페이스 260, 또는 모션 처리 모듈 270)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
메모리 230(예: 메모리 130)는, 프로세서 220 또는 다른 구성요소들(예: 입출력 인터페이스 240, 디스플레이 250, 통신 인터페이스 260, 또는 모션 처리 모듈 270 등)로부터 수신되거나 프로세서 220 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리 230는, 예를 들면, 커널 231, 미들웨어 232, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 233 또는 어플리케이션 234 등의 프로그래밍 모듈들을 포함할 수 있다. 상술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
커널 231은 나머지 다른 프로그래밍 모듈들, 예를 들면, 미들웨어 232, API 233 또는 어플리케이션 234에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 210, 프로세서 220 또는 메모리 230 등)을 제어 또는 관리할 수 있다. 또한, 커널 231은 미들웨어 232, API 233 또는 어플리케이션 234이 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어 232는 API 233 또는 어플리케이션 234이 커널 231과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어 232는 어플리케이션 234로부터 수신된 작업 요청들과 관련하여, 예를 들면, 어플리케이션 234 중 적어도 하나의 어플리케이션에 전자 장치 101의 시스템 리소스(예: 버스 210, 프로세서 220 또는 메모리 230 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
API 233는 어플리케이션 234이 커널 231 또는 미들웨어 232에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
어플리케이션 234은 전자 장치 101와 외부 전자 장치(예: 전자 장치 102 또는 전자 장치 104) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 정보 교환과 관련된 어플리케이션은, 예를 들어, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다. 다양한 실시 예에 따르면, 어플리케이션 234은 외부 전자 장치(예: 전자 장치 102 또는 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 추가적으로 지정된 어플리케이션을 포함할 수 있다.
입출력 인터페이스 240은, 센서(예: 가속도 센서, 자이로 센서) 또는 입력 장치(예: 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 버스 210를 통해 프로세서 220, 메모리 230, 통신 인터페이스 260, 또는 모션 처리 모듈 270에 전달할 수 있다. 예를 들면, 입출력 인터페이스 240은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 프로세서 220로 제공할 수 있다. 또한, 입출력 인터페이스 240은, 예를 들면, 버스 210을 통해 프로세서 220, 메모리 230, 통신 인터페이스 260, 또는 모션 처리 모듈 270로부터 수신된 명령 또는 데이터를 출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 입출력 인터페이스 240은 프로세서 220를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
디스플레이 250은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다. 또한 디스플레이 250은 입력 수단을 디스플레이에 터치 또는 근접 터치하여 명령을 입력하는 터치 스크린으로 구성될 수도 있다.
통신 인터페이스 260(예: 통신 모듈 120)은 전자 장치 101와 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 통신 인터페이스 260은 무선 통신 또는 유선 통신을 통해서 네트워크 262에 연결되어 외부 장치와 통신할 수 있다. 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
본 발명의 한 실시 예에 따르면, 네트워크 262는 통신 네트워크(telecommunications network)일 수 있다. 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 101와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션 234, 어플리케이션 프로그래밍 인터페이스 233, 미들웨어 232, 커널 231 또는 통신 인터페이스 260 중 적어도 하나에서 지원될 수 있다.
이미지 처리 모듈 270은, 카메라 280을 통해서 적어도 하나의 촬영 이미지를 획득하고, 촬영 이미지를 지정된 적어도 하나의 저장 이미지와 비교하여 촬영 이미지에 대응하는 장소를 결정하고, 결정한 장소에 대응하여 지정된 적어도 하나의 기능을 수행할 수 있다.
본 발명의 다양한 실시 예에 따르면, 이미지 처리 모듈 270은, 특정 객체를 검출하는 시점에 촬영하여 촬영 이미지를 획득할 수 있다. 한 실시 예에 따르면, 특정 객체는 카메라 280의 촬영 영역 내에서 지정된 부피, 모양, 색 등과 동일 또는 유사한 객체일 수 있다. 이미지 처리 모듈 270은 카메라 280의 촬영 영역에서 특정 객체를 검출하는 경우, 촬영 영역에 대응하는 촬영 이미지를 획득할 수 있다. 이미지 처리 모듈 270은, 지정된 시간 간격으로 둘 이상의 이미지를 촬영하여 촬영 이미지를 획득할 수 있다. 이미지 처리 모듈 270은 지정된 객체와의 거리, 또는 상기 전자 장치의 이동 거리를 기반으로 둘 이상의 이미지를 촬영하여 촬영 이미지를 획득할 수 있다. 이미지 처리 모듈 270은, 실시간으로 촬영 중인 이미지에서 적어도 하나를 촬영 이미지로 획득할 수 있다. 이미지 처리 모듈 270은, 촬영 이미지에서 검출한 적어도 하나의 객체를 저장 이미지와 비교할 수 있다. 이미지 처리 모듈 270은, 객체의 모양, 객체의 특징점, 적어도 하나의 객체가 배치된 형태, 객체의 색 중에서 적어도 하나를 비교할 수 있다. 이미지 처리 모듈 270은, 둘 이상의 촬영 이미지 각각에서 검출된 지정된 객체와 전자 장치와의 거리 변화를 기반으로 결정한 전자 장치의 이동 경로를 기반으로 장소를 결정할 수 있다. 이미지 처리 모듈 270은, 와이파이, 블루투스, GPS, 프로그램, 입력된 명령에 해당하는 기능 중 결정한 장소에 대응하여 지정된 적어도 하나를 제어할 수 있다. 이미지 처리 모듈 270은, 지정된 다른 전자 장치와 지정된 네트워크 통신으로 연결할 수 있다. 이미지 처리 모듈 270은, 지정된 명령을 입력하고, 입력된 명령을 다른 전자 장치에서 수행하도록 요청하는 데이터를 다른 전자 장치에 송신할 수 있다. 상술한 바에 따르면, 전자 장치 101은 이미지 처리 모듈 270을 통해서 본 발명의 다양한 실시 예를 수행하는 것으로 나타낼 수 있지만, 이미지 처리 모듈 270이 수행하는 다양한 실시 예는 프로세서 110의 제어에 의해서 수행하는 동작일 수 있다. 더하여, 전자 장치 101은 이미지 처리 모듈을 별도로 포함하지 않고 프로세서 110을 통해서 이미지 처리 모듈 270이 수행하는 것으로 설명된 다양한 실시 예를 수행할 수도 있다. 이하 도 3에서 설명하는 이미지 처리 모듈 270의 동작 또한 마찬가지로 적용할 수 있음은 자명하다. 후술하는 도 2 내지 도 11b를 통해서 이미지 처리 모듈 270에 대한 추가적인 정보를 제공할 수 있다.
카메라 280은 전자 장치 101과 기능적으로 연결되거나 또는 전자 장치 101의 지정된 위치에 장착되어, 지정된 화각에 해당하는 이미지를 촬영할 수 있다.
도 3은 본 발명의 다양한 실시 예에 따른, 전자 장치에서 이미지 처리 모듈의 블록도를 도시한다. 도 3을 참조하면, 이미지 처리 모듈 270은 획득 모듈 310, 결정 모듈 320, 제어 모듈 330을 포함할 수 있다
본 발명의 다양한 실시 예에 따르면, 획득 모듈 310은 전자 장치 101에 포함된 또는 기능적으로 연결된 카메라 280을 통해서 적어도 하나의 이미지(예: 촬영 이미지)를 획득할 수 있다. 획득 모듈 310은 촬영 이미지를 획득함에 있어서, 전자 장치 101에 지정된 명령(예: 촬영 명령)이 입력되는 것을 감지한 시점에 획득할 수 있고, 지정된 시점으로부터 지정된 시간 간격으로 지정된 횟수의 촬영을 통해서 둘 이상의 이미지(예: 동영상 촬영, 프리뷰 영상 등)를 획득할 수 있다. 획득 모듈 310은 지정된 객체와의 거리, 또는 상기 전자 장치의 이동 거리를 기반으로 둘 이상의 이미지를 촬영하여 촬영 이미지를 획득할 수 있다. 획득 모듈 310은 실시간으로 촬영 중인 카메라 270의 동작 중(예: 동영상 촬영 중)에 적어도 하나의 이미지를 획득할 수 있다. 한 실시 예에 따르면, 실시간 촬영 중인 카메라 270의 동작 중에 지정된 명령(예: 장소 결정 명령)을 감지하는 경우, 촬영 된 이미지 중에서 지정된 장 수의 이미지를 획득할 수 있고, 또는 실시간으로 촬영 중인 카메라 280으로부터 지정된 장 수의 이미지를 획득할 수 있다. 획득 모듈은 310은 카메라 280의 촬영 영역 내에서 설정 정보에 지정된 적어도 하나의 특징점을 검출하는 경우에 촬영 영역에 대응하는 촬영 이미지를 획득할 수도 있다. 여기에서 특징점은, 카메라 280의 촬영 영역 내에서 촬영 영역의 구도, 촬영 영역에 포함된 객체의 형태(모양) 및/또는 윤곽, 객체의 색, 둘 이상의 객체가 배치된 구도(패턴), 전자 장치 101과 지정된 객체 사이의 거리와 같은 객체의 다양한 특징일 수 있다.
본 발명의 다양한 실시 예에 따르면, 결정 모듈 320은 카메라 280을 통해서 획득한 촬영 이미지를 기반으로 전자 장치 101이 위치한 장소를 결정할 수 있다. 결정 모듈 320은 촬영 이미지를 전자 장치 101의 설정 정보에 지정된 적어도 하나의 이미지와 비교하여 매칭되는 이미지를 결정할 수 있고, 매칭되는 이미지에 지정된 장소를 전자 장치 101이 위치한 장소로 결정할 수 있다. 결정 모듈 320은 촬영 이미지에 포함된 적어도 하나의 객체를 검출할 수 있다. 결정 모듈 320은 촬영 이미지를 전자 장치 101의 설정 정보에 지정된 이미지와 비교함에 있어서 이미지의 구도, 이미지에 포함된 객체의 형태(모양) 및/또는 윤곽, 객체의 색, 둘 이상의 객체가 배치된 구도(패턴), 전자 장치 101과 지정된 객체 사이의 거리와 같은 객체의 다양한 특징점을 결정 및 비교하여 동일 또는 유사한 이미지를 결정할 수 있다. 전자 장치 101은 촬영 이미지 및/또는 메모리 230에 포함된 적어도 하나의 이미지에 포함된 적어도 하나의 객체에 대한 다양한 특징 점들을 포함하는 이미지 디스크립터를 메모리 230(예: 메모리 230의 데이터베이스)에 포함할 수 있다. 결정 모듈 320은 촬영 이미지를 기반으로 전자 장치 101이 위치한 장소를 결정함에 있어서, 전자 장치 101에 포함된 적어도 하나의 위치 결정이 가능한 센서(예: GPS, 와이파이, 또는 블루투스)와 연동하여 결정할 수 있다.
결정 모듈 320은 촬영 이미지 또는 촬영 이미지에 포함된 적어도 하나의 객체와 동일 또는 유사한 이미지를 결정함에 있어서, 전자 장치 101에 저장된 적어도 하나의 이미지 또는 전자 장치 101과 연결된 적어도 하나의 다른 전자 장치(예: 서버 106)에서 획득한 이미지와 비교할 수 있다. 결정 모듈 320은 기 설정된 메뉴에서 특정 위치에 대응하는 이미지를 지정하여 저장할 수 있고, 전자 장치 101에서 획득한 촬영 이미지 또는 촬영 이미지에 포함된 객체가 설정된 이미지와 동일 또는 유사한 것으로 결정하는 경우, 전자 장치 101의 위치를 설정된 이미지에 대응하는 위치로 결정할 수 있다.본 발명의 다양한 실시 예에 따르면, 결정 모듈 320은 설정 정보를 기반으로 촬영 이미지를 비교하여 결정한 장소에 대응하여 수행하도록 지정된 전자 장치 101의 기능을 결정할 수 있다. 설정 정보는 결정한 장소에 대응하여 전자 장치 101의 적어도 하나의 기능을 수행하도록 설정된 정보를 포함할 수 있고 결정 모듈 320은 설정 정보를 기반으로 결정한 장소에 대응하여 전자 장치 101에서 수행할 적어도 하나의 기능을 결정할 수 있다. 결정 모듈 320은 외부로부터 입력되는 명령을 입력할 수 있고, 결정된 장소에 대응하여 입력된 명령을 수행하도록 결정할 수 있다.
결정 모듈 320은 지정된 전자 장치 101의 기능을 수행함에 있어서, 촬영 이미지를 기반으로 결정한 전자 장치 101의 위치에 대응하여 기 설정된 기능을 수행할 수 있다. 예컨대, 전자 장치 101은 설정 정보에 촬영 이미지 또는 촬영 이미지에 포함된 객체와 동일 또는 유사한 이미지를 결정할 수 있다. 결정 모듈 320은 동일 또는 유사한 이미지에 대응하여 설정된 전자 장치 101의 위치를 디스플레이 250 또는 스피커와 같은 장치를 통해서 사용자에게 고지하도록 결정할 수 있다. 더하여, 결정 모듈 320은 설정 정보를 기반으로 동일 또는 유사한 이미지에 대응하여 설정된 전자 장치 101의 기능을 수행할 수 있다. 여기에서 설정된 전자 장치 101의 기능은, 전자 장치에서 직접 수행하는 기능일 수 있고, 또는 전자 장치 101로 하여금 적어도 하나의 다른 전자 장치(예: 통신으로 연결된 다른 전자 장치)를 제어하는 기능일 수 있다.
본 발명의 다양한 실시 예에 따르면, 제어 모듈 330은 결정한 장소에 대응하여 설정 정보에 저장된 적어도 하나의 기능을 수행할 수 있다. 한 실시 예에 따르면, 제어 모듈 330은 전자 장치 101과 지정된 다른 전자 장치(예: 전자 장치 102)와 지정된 네트워크 통신으로 연결하도록 제어할 수 있다. 제어 모듈 330은 전자 장치 101에 포함된 또는 기능적으로 연결된 적어도 하나의 장치들을 온/오프하도록 제어할 수 있다. 제어 모듈 330은 전자 장치 101에 포함된 적어도 하나의 프로그램을 제어할 수 있다. 제어 모듈 330은 전자 장치 101를 통해서 적어도 하나의 다른 전자 장치(예: 통신으로 연결된 다른 전자 장치)를 제어하는 기능을 수행할 수 있다. 제어 모듈 330은 전자 장치 101에 입력되는 명령을 결정한 장소를 기반으로 수행할 수 있다.상술한 바에 따르면, 본 발명의 다양한 실시 예를 수행하는 전자 장치는, 이미지를 촬영하는 카메라, 상기 촬영 이미지를 저장하는 메모리, 및 적어도 하나의 상기 촬영 이미지를 획득하고, 상기 촬영 이미지를 지정된 적어도 하나의 저장 이미지와 비교하여 상기 촬영 이미지에 대응하는 장소를 결정하고, 결정한 상기 장소에 대응하여 지정된 적어도 하나의 기능을 수행하는 적어도 하나의 프로세서를 포함할 수 있다. 상기 프로세서 110은, 특정 객체를 검출하는 시점에 촬영하여 상기 촬영 이미지를 획득하는 장치일 수 있다. 상기 프로세서 110은, 지정된 시간 간격으로 둘 이상의 이미지를 촬영하여 상기 촬영 이미지를 획득하는 장치일 수 있다. 상기 프로세서 110은, 지정된 객체와의 거리, 또는 상기 전자 장치의 이동 거리를 기반으로 둘 이상의 이미지를 촬영하여 촬영 이미지를 획득할 수 있다. 상기 프로세서 110은, 실시간으로 촬영 중인 이미지에서 적어도 하나를 상기 촬영 이미지로 획득하는 장치일 수 있다. 상기 프로세서 110은, 상기 촬영 이미지에서 검출한 적어도 하나의 객체를 상기 저장 이미지와 비교하는 장치일 수 있다. 상기 프로세서 110은, 상기 객체의 모양, 객체의 특징점, 상기 적어도 하나의 객체가 배치된 형태, 객체의 색 중에서 적어도 하나를 비교하는 장치일 수 있다. 상기 프로세서 110은, 둘 이상의 촬영 이미지 각각에서 검출된 지정된 객체와 상기 전자 장치와의 거리 변화를 기반으로 결정한 상기 전자 장치의 이동 경로를 기반으로 상기 장소를 결정하는 장치일 수 있다. 상기 프로세서 110은, 와이파이, 블루투스, GPS, 프로그램, 입력된 명령에 대응하는 기능 중 적어도 하나를 제어하는 장치일 수 있다. 상기 프로세서 110은, 지정된 다른 전자 장치와 지정된 네트워크 통신으로 연결하는 장치일 수 있다. 상기 프로세서 110은, 지정된 명령을 입력하고, 상기 입력된 명령을 상기 다른 전자 장치에서 수행하도록 요청하는 데이터를 상기 다른 전자 장치에 송신하는 장치일 수 있다.
도 4는 본 발명의 다양한 실시 예에 따른, 전자 장치에서 촬영 이미지를 기반으로 지정된 장소를 결정 및 지정된 기능을 수행하는 동작을 도시한다.
전자 장치 101이 착용 가능한 전자 장치 101(예: 손목 시계 형태의 전자 장치 또는 안경 형태의 전자 장치)경우 사용자의 신체 중 지정된 부위에 착용될 수 있고, 전자 장치 101의 카메라 280을 통해서 전자 장치 101의 주위 환경의 지정된 영역(예: 카메라 280의 화각에 대응하는 영역)을 촬영할 수 있다 한 실시 예에 따르면, 전자 장치 101은 사용자가 전자 장치 101(예: 안경 형태의 전자 장치 101)을 착용한 상태에서 사용자의 집 문(door) 앞에 위치한 경우 전자 장치 101은 문, 문 주변의 지정된 영역에 대응하는 다양한 객체를 포함하는 이미지를 획득할 수 있다. 전자 장치 101은 카메라 280으로 이미지를 획득함에 있어서, 지정된 입력(예: 촬영 명령)을 검출하거나 또는 특정 객체를 검출하는 경우 입력을 검출한 시점에 이미지를 획득할 수 있고, 또는 카메라 280을 통해서 실시간으로 이미지(또는 영상)를 획득할 수 있다. 전자 장치 101은 획득한 이미지에 포함된 다양한 객체들 중에서 전자 장치 101의 설정 정보에 지정된 객체와 매칭되는 적어도 하나의 객체를 결정할 수 있다. 전자 장치 101은 지정된 객체에 대응하는 설정 정보를 기반으로 전자 장치 101이 위치한 장소를 결정할 수 있고, 결정한 장소에 대응하여 설정 정보에 저장된 전자 장치 101의 지정된 기능을 수행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 이미지에 포함된 적어도 하나의 객체를 전자 장치 101의 설정 정보에 지정된 객체와 비교함에 있어서, 상술한 객체는 사물 또는 인물, 둘 이상의 사물이 배치된 형태, 카메라 280의 화각(angle)에 포함된 사물 또는 환경의 구성 패턴, 사물의 색과 같이 이미지에 포함된 구성 요소의 적어도 일부로 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 카메라 280을 통해서 획득한 이미지(또는 이미지의 화각) 401에 포함된 문 407의 형태, 문의 지정된 위치에 표시된 숫자 403(예: 호수), 초인종 405 중에서 적어도 하나의 객체를 검출할 수 있고, 검출한 객체를 전자 장치 101의 설정 정보에 지정된 이미지와 비교할 수 있다. 전자 장치 101은 설정 정보에 지정된 이미지 중에서, 검출한 객체 및 객체가 배치된 형태를 기반으로 매칭되는 이미지를 결정할 수 있고, 결정한 이미지에 대응하여 지정된 장소를 결정할 수 있다. 전자 장치 101은 설정 정보에 저장된 이미지를 전자 장치 101의 카메라로 획득한 이미지의 검출한 객체 및 객체가 배치된 형태를 비교함에 있어서, 검출한 객체의 색(color)과 전자 장치 101의 설정 정보에 지정된 이미지에 포함된 객체의 색을 비교하는 조건을 더 포함할 수도 있다.
다양한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 이미지를 기반으로 전자 장치 101이 위치한 장소를 결정한 경우 설정 정보를 참조하여, 결정한 장소에 대응하여 지정된 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 이미지 및 설정 정보의 지정된 이미지를 기반으로 결정한 전자 장치 101의 위치를 '우리집'으로 결정할 수 있다. 전자 장치 101은 설정 정보의 '우리집'의 카테고리에 저장된 정보가 전자 장치 101의 모드를 제 1 모드(예: 일반 모드)로 전환하도록 설정된 것을 확인할 수 있다. 한 실시 예에 따르면, 일반 모드는 전자 장치 101의 벨 소리(ringtone)의 음량을 최대 음량으로 설정, GPS를 온(on) 상태로 설정, 와이파이(wifi)를 온 상태로 설정, 블루투스(bluetooth)를 온 상태로 설정하는 모드일 수 있다. 전자 장치 101은 카메라 280j으로 촬영된 이미지 401을 기반으로 전자 장치 101이 위치한 장소를 '우리집 도착'으로 결정한 경우, 설정 정보의 '우리집 도착'에 지정된 제 1 모드의 설정에 따라서 전자 장치 101의 벨 소리(ringtone)의 음량을 최대 음량으로 설정, GPS를 온(on) 상태로 설정, 와이파이(wifi)를 온 상태로 설정 및 블루투스(bluetooth)를 온 상태로 설정할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 이미지를 기반으로 전자 장치 101이 위치한 장소를 결정할 수 있다. 전자 장치 101은 전자 장치 101이 위치한 장소를 결정함에 있어서, 전자 장치 101에 포함된 또는 전자 장치 101과 기능적으로 연결된 적어도 하나의 센서를 통해서 획득한 위치 정보와 연동하여 결정할 수도 있다. 전자 장치 101은 결정된 전자 장치 101가 위치하는 장소에 대응하여 설정 정보에 지정된 기능(및/또는 입력된 사용자의 명령)을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 GPS(미도시)를 통해서 획득한 위치 정보를 통해서 전자 장치 101이 위치한 장소를 '우리집'으로 결정할 수 있다. 전자 장치 101은 카메라 280으로 획득한 이미지에 포함된 적어도 하나의 객체를 기반으로 전자 장치 101이 '우리집'에 도착했는지 또는 '우리집'을 출발하는지 여부를 결정할 수 있다. 예컨대, 전자 장치 101은 카메라 280으로 획득한 전자 장치 101의 이미지 401을 참조하면, 이미지 401에 포함된 적어도 일부의 객체(예: 703호 403 및 초인종 405)와 매칭되는 설정 정보의 지정된 이미지에 따라서 전자 장치 101이 '우리집'에 '도착'한 것으로 결정할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 GPS로 획득한 위치 정보를 통해서 전자 장치 101이 '우리집'에 위치한 것으로 결정할 수 있다. 전자 장치 101은 전자 장치 101을 착용한 사용자에 의해서 진행 방향 401로 이동 중에 카메라 280으로 이미지를 획득할 수 있다. 전자 장치 101은 도 4에 표시된 이미지 401과 같이 전자 장치 101의 진행 방향에 대응하여 문 407의 반대 편에 대한 이미지를 획득할 수 있다. 전자 장치 101은 획득한 문 407의 반대 편에 대한 이미지의 적어도 일부와 매칭되는 전자 장치 101의 설정 정보에 지정된 이미지에 대응하여 전자 장치 101가 '우리집'을 출발(또는 떠나는 상태, leave)하는 것(외출)으로 결정할 수 있다. 전자 장치 101은 획득한 이미지로 결정한 '우리집' 및 '외출'에 대응하는 설정 정보에 대응하는 지정된 모드(또는 전자 장치 101의 지정된 기능)를 할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 '우리집'에 대응하는 설정 정보에 전자 장치 101이 와이파이 또는 블루투스와 같은 무선 통신이 온 상태인 경우 지정된 전자 장치(예: 전자 장치 102)연결하도록 제어하는 정보를 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 '외출'에 대응하는 설정 정보에 전자 장치 101과 무선 통신으로 연결된 다른 전자 장치를 오프(off)하도록 제어하는 정보를 포함할 수 있다. 전자 장치 101은 GPS로 획득한 정보 및 카메라 280으로 획득한 이미지를 기반으로 결정한 전자 장치 101의 상태가 '우리집' 및 '외출'인 경우 전자 장치 101은 연결된 전자 장치 102를 오프하도록 제어하는 명령어를 전자 장치 102에 송신할 수 있다.
도 5a 및 도 5b는 본 발명의 다양한 실시 예에 따른, 전자 장치에서 이미지를 통해서 전자 장치의 위치를 결정하는 동작을 도시한다.
이하에서 본 발명의 다양한 실시 예를 도 5a를 참조하여 설명한다.
다양한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 적어도 하나의 이미지를 기반으로 전자 장치 101이 위치한 장소를 결정할 수 있다. 전자 장치 101은 이미지를 획득함에 있어서, 지정된 입력을 검출한 시점 또는 특정 객체를 검출한 시점으로부터 적어도 하나의 이미지를 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 첫 이미지를 획득하고 지정된 시간 간격(예: 1초)마다 지정된 횟수(예: 3회)의 촬영을 통해서 이미지 501를 획득할 수 있다. 다양한 실시 예에 따르면, 전자 장치 101은 지정된 객체와의 거리, 또는 상기 전자 장치의 이동 거리를 기반으로 둘 이상의 이미지를 촬영하여 촬영 이미지를 획득할 수 있다. 예컨대, 전자 장치 101은 이미지를 촬영하고, 객체와의 거리가 지정된 거리만큼 변하는 시점에 이미지를 촬영하여 둘 이상의 촬영 이미지를 획득할 수 있다. 더하여, 전자 장치 101은 GPS와 같이 전자 장치 101의 위치를 결정할 수 있는 장치를 통해서 전자 장치 101의 위치가 설정 정보에 지정된 거리만큼 변하는 경우 이미지를 촬영할 수도 있다. 전자 장치 101에서 둘 이상의 촬영 이미지를 획득함에 있어서, 첫 이미지를 촬영하는 방법은 사용자의 선택으로 촬영하거나, 또는 카메라 280의 촬영 영역에서 설정 정보에 지정된 특징점을 가지는 객체를 검출하는 경우 촬영하는 방법을 사용할 수 있다. 또 다른 실시 예에 따르면, 전자장치 101은 연속된 이미지의 촬영(예: 동영상 촬영)을 할 수 있다. 전자 장치 101은 촬영된 동영상 이미지에서 둘 이상의 이미지를 스틸 컷의 형태(또는 타입)로 획득할 수 있다. 다양한 실시 예에 따르면, 전자장치 101은 이미지 변화(또는 이미지에 포함된 객체의 변화 정보)를 감지하여 지정된 정도의 변화를 감지하는 경우 촬영을 하여 다수의 이미지를 획득할 수 있다. 더하여, 전자 장치 101은 이미지를 획득함에 있어서, 촬영을 통해서 이미지를 획득하는 방법에 한정하지 많고, 촬영한 이미지를 기반으로 관련된 이미지를 다른 전자 장치(예: 서버 106)로부터 획득할 수 있다. 전자 장치 101은 관련된 이미지를 결정함에 있어서, 이미지의 구도 또는 이미지에 포함된 객체를 기반으로 결정할 수 있다.
전자 장치 101은 획득한 이미지를 기반으로 이미지에 포함된 적어도 하나의 객체(예: 버스 정류장의 게시판 503)를 검출할 수 있다. 전자 장치 101은 획득한 둘 이상의 이미지 각각에서 검출한 버스 정류장의 게시판 503과 전자 장치 101과의 거리 505를 결정할 수 있다. 전자 장치 101은 결정한 거리를 기반으로 전자 장치 101이 버스 정류장과 가까워지고 있는 것으로 결정할 수 있다. 전자 장치 101은 버스 정류장과 가까워 지는 것으로 결정하면, 전자 장치 101이 위치한 장소를 버스 정류장으로 결정할 수 있다. 전자 장치 101은 버스 정류장의 설정 정보에 대응하여 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 설정 정보를 기반을 지정된 버스 정류장에 대응하는 노선 정보를 출력할 수 있다. 예컨대, 전자 장치 101은 이미지를 통해서 결정한 버스 정류장에 대응하는 적어도 하나의 버스에 대한 노선 정보를 전자 장치 101과 네트워크 통신으로 연결된 다른 전자 장치(예: 버스 노선 정보를 제공하는 서버 장치)로부터 수신할 수 있고, 수신한 노선 정보를 출력할 수 있다. 또는 전자 장치 101은 전자 장치 101이 위치한 버스 정류장에 대응하는 설정 정보에 지정된 버스(예: 버스 번호, 버스 노선)가 설정되어 있는 경우, 해당하는 버스의 노선 정보를 출력할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 5b를 참고하여 설명한다.
다양한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 이미지에 포함된 객체를 전자 장치 101의 설정 정보에 포함된 적어도 하나의 이미지와 비교하여 매칭하는 객체를 결정할 수 있다. 전자 장치 101은 설정 정보에 지정된 객체에 대응하는 이미지를 촬영함에 있어서, 하나의 객체를 둘 이상의 방향에서 촬영한 이미지를 이용할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지정된 버스 정류장의 게시판에 대응하는 이미지를 장소를 결정하는 객체로 설정할 수 있고, 도 5b와 같이 둘 이상의 화각에서 촬영한 이미지를 기반으로 지정된 객체(예: 버스 정류장의 게시판)을 3D 랜더링(3D rendering)한 3차원 이미지로 저장할 수 있다. 전자 장치 101은 버스 정류장의 게시판을 촬영한 이미지로 장소를 결정함에 있어서, 촬영한 이미지의 화각에 대응하는 버스 정류장의 게시판을 다양한 각도에서 촬영한 이미지로 설정된 설정 정보의 버스 정류장의 게시판과 매칭하여 전자 장치 101이 위치한 장소를 버스 정류장으로 결정할 수 있다.
도 6a 및 도 6b는 다양한 실시 예에 따른 전자 장치의 이동 방향에 따라서 제공하는 서비스를 결정하는 동작을 도시한다.
다양한 실시 예에 따르면, 전자 장치 101은 사용자의 신체의 지정된 위치에 착용되어 장소 A와 장소 B사이에서 이동하는 경로에서 둘 이상의 이미지를 획득할 수 있다. 전자 장치 101은 카메라 280으로 촬영하는 이미지에 포함된 적어도 하나의 객체(또는 이미지의 화각)를 기반으로 지정된 영역에서 전자 장치 101이 움직이는 방향을 결정할 수 있고, 전자 장치 101이 위치한 장소 및/또는 이동하는 방향에 대응하여 설정된 목적지의 위치를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 장소 A와 장소 B가 연결된 경로에서 이동 중에 촬영한 둘 이상의 이미지를 기반으로 전자 장치 101의 위치 및/또는 전자 장치 101이 움직이는 방향을 기반으로 설정된 전자 장치 101의 목적지를 결정할 수 있고, 설정 정보를 기반으로 목적지에 대응하여 설정된 전자 장치 101의 기능을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 6a를 기반으로 설명한다.
다양한 실시 예에 따르면, 전자 장치 101은 제 1 위치 603에서 제 1 이미지를 획득할 수 있고, 제 2 위치 605에서 제 2 이미지를 획득할 수 있다. 전자 장치 101은 제 1 이미지 및 전자 장치 101의 설정 정보에 지정된 적어도 하나의 이미지에서 매칭되는 제 1 이미지에 포함된 적어도 하나의 제 1 객체를 결정할 수 있다. 전자 장치 101은 제 2 이미지 및 전자 장치 101의 설정 정보에 지정된 적어도 하나의 이미지에 매칭되는 제 2 이미지에 포함된 적어도 하나의 제 2 객체를 결정할 수 있다. 여기에서 제 1 객체 및 제 2 객체는 제 1 위치 603 및 제 2 위치 605에서 촬영한 제 1 이미지 및 제 2 이미지에 포함된 동일한 객체일 수 있다. 전자 장치 101은 결정한 제 1 객체 및 제 2 객체를 기반으로 전자 장치 101이 움직이는 진행 방향 601을 결정할 수 있고, 전자 장치 101이 위치한 장소를 장소 B로 결정할 수 있다. 또는 전자 장치 101의 상태를 '장소 B'에 '도착'한 것으로(또는 전자 장치 101의 목적지가 ‘장소 B’인 것으로) 결정할 수 있다. 전자 장치 101은 제 1 객체 및 제 2 객체를 기반으로 전자 장치 101이 이동하는 경로를 결정함에 있어서, 전자 장치 101의 설정 정보에 지정된 제 1 객체 및 제 2 객체의 순서, 전자 장치 101과 제 1 객체와의 거리, 전자 장치 101과 제 2 객체와의 거리, 제 1 이미지에서 제 1 객체의 구도 및 제 2 이미지에서 제 2 객체의 구도 중에서 적어도 하나를 기반으로 결정할 수 있다. 전자 장치 101은 전자 장치 101이 위치한 장소에 대응하여 설정 정보에 지정된 전자 장치 101의 적어도 하나의 기능을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 적어도 하나의 이미지를 기반으로 목적지를 ‘장소 B’로 결정한 경우(또는 전자 장치 101이 ‘장소 B’에 도착한 것으로 결정하는 경우), ‘장소 B’의 조명을 제어할 수 있고, 또는 ‘장소 B’의 온도를 제어할 수 있는 메뉴를 출력할 수 있다. 또는 전자 장치 101은 적어도 하나의 이미지를 기반으로 목적지를 ‘장소 B’로 결정한 경우(또는 전자 장치 101이 ‘장소 B’에 도착한 것으로 결정하는 경우), 설정 정보에 따라서 자동으로 ‘장소 B’의 조명을 제어할 수 있고, 또는 ‘장소 B’의 온도를 제어할 수 있는 메뉴를 출력할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 6b를 참조하여 설명한다.
다양한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 둘 이상의 이미지를 기반으로 전자 장치 101의 진행 방향 611을 결정할 수 있다. 전자 장치 101은 이동 중에 제 1 위치 613에서 제 1 이미지를 획득할 수 있고, 제 2 위치 615에서 제 2 이미지를 획득할 수 있다. 전자 장치 101은 제 1 이미지와 제 2 이미지, 또는 제 1 이미지에 포함된 적어도 하나의 객체와 제 2 이미지에 포함된 적어도 하나의 객체를 기반으로 전자 장치 101이 이동하는 경로를 결정할 수 있다. 전자 장치 101은 카메라 280으로 획득한 둘 이상의 이미지를 기반으로 전자 장치 101의 위치(예: 장소 A와 장소 B 사이의 이동 경로)를 결정할 수 있고, 획득한 둘 이상의 이미지, 이미지의 구도 및 이미지에 포함된 객체를 기반으로 전자 장치 101이 이동하는 경로(예: 진행 방향 611)를 결정할 수 있고, 전자 장치 101의 목적지, 또는 전자 장치 101이 위치한 장소를 ‘장소 A’로 결정할 수 있다. 전자 장치 101은 결정한 ‘장소 A’를 기반으로 전자 장치 101의 설정 정보에 지정된 적어도 하나의 기능을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 목적지를 ‘장소 A(예: 문, door)’로 결정하는 경우, 설정 정보를 기반으로 문의 잠금 기능을 제어할 수 있는 메뉴를 출력할 수 있고, 또는 설정 정보를 기반으로 문의 잠금 기능을 제어할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 적어도 하나의 이미지를 기반으로 ‘장소 B’에서 ‘장소 A’로 이동중인 것을 결정하는 경우, ‘장소 A’의 문을 잠금 해제할 수 있다.
상술한 바와 같이 도 6a 및 도 6b를 참조하면, 전자 장치 101은 동일한 장소에서 전자 장치 101의 진행 방향에 따라서 획득하는 이미지를 참조하여, 전자 장치 101의 진행 방향 또는 목적지를 결정할 수 있고, 결정한 정보(예: 진행 방향 또는 목적지)를 기반으로 다른 기능을 제공할 수 있다.
도 7은 본 발명의 다양한 실시 예에 따른, 전자 장치에서 촬영 이미지로 전자 장치 101이 위치한 장소를 결정하는 동작을 도시한다.
다양한 실시 예에 따르면, 전자 장치 101은 전자 장치 101이 위치한 장소를 결정함에 있어서, 지정된 장소를 의미하는 객체를 촬영한 이미지를 기반으로 장소를 결정할 수 한 실시 예에 따르면, 전자 장치 101은 전자 장치 101의 카메라 280으로 지정된 객체(예: 자동차 키)를 촬영할 수 있고, 전자 장치 101은 촬영으로 획득한 이미지에 포함된 자동차 키와 매칭되는 전자 장치 101의 설정 정보에 지정된 적어도 하나의 이미지를 결정할 수 있다. 전자 장치 101은 획득한 이미지의 자동차 키와 매칭되는 이미지에 대응하여 설정된 전자 장치 101이 위치한 장소를 '내 차'로 결정할 수 있다. 전자 장치 101은 '내 차'의 설정 정보를 기반으로 지정된 전자 장치 101의 적어도 하나의 기능을 수행할 수 있다. 한 실시 예에 따르면, '내 차'의 설정 정보는 전자 장치 101을 적어도 하나의 네트워크 통신으로 다른 전자 장치(예: 내비게이션, 전자 장치 102)에 연결하도록 설정될 수 있다. 전자 장치 101은 '내 차'의 설정 정보를 기반으로 내비게이션에 연결할 수 있고, 전자 장치 101은 위치한 장소 '내 차'에 대응하는 설정 정보를 기반으로 내비게이션에 연결되었음을 출력할 수 있고, 외부로부터 입력되는 명령을 검출할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 마이크(예: 도 1의 마이크 188)를 통해서 내비게이션의 목적지를 입력하는 명령을 검출할 수 있고, 전자 장치 101은 연결된 내비게이션에 입력된 정보를 기반으로 목적지를 설정할 수 있다.
도 8은 본 발명의 다양한 실시 예에 따른, 전자 장치에서 촬영 이미지로 결정하는 장소에 대응하여 기능을 수행하는 동작을 도시한다.
다양한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 적어도 하나의 이미지를 기반으로 전자 장치 101이 위치한 장소를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 카메라로 획득한 이미지에 포함된 책상 조명(desk lamp) 801을 검출할 수 있고, 전자 장치 101의 설정 정보에 지정된 이미지 중에서 책상 조명에 매칭되는 적어도 하나의 이미지를 결정할 수 있다. 전자 장치 101은 설정 정보에 지정된 적어도 하나의 이미지를 결정함에 있어서, 전자 장치 101의 카메라 280으로 촬영한 이미지에서 검출한 책상 조명 801뿐만 아니라 책상 조명 801의 주위에 배치된 객체, 및 책상 조명 801과 주위 객체들이 배치된 구조들에 대응하는 적어도 하나의 이미지를 비교하여 결정할 수 있다. 전자 장치 101은 매칭되는 이미지를 기반으로 전자 장치 101이 위치한 장소를 '내 방'으로 결정할 수 있다. 전자 장치 101은 전자 장치 101이 위치한 장소를 '내 방'으로 결정한 경우 촬영으로 획득한 이미지에서 검출한 책상 조명 801과의 거리 803을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101의 설정 정보는 전자 장치 101이 위치한 장소가 '내 방'으로 결정된 경우, 전자 장치 101의 카메라 280으로 촬영한 이미지에 포함된 객체인 책상 조명 801과 전자 장치 101의 사이의 거리 803을 확인하여 결정한 거리가 지정된 거리(예: 1미터)이내인 경우 책상 조명 801을 온하도록 설정될 수 있다. 전자 장치 101은 책상 조명 801과의 거리가 1미러 이내인 것으로 결정한 경우 책상 조명 801으로 책상 조명 801을 온 하는 명령을 송신하도록 제어할 수 있다.
도 9는 본 발명의 다양한 실시 예에 따른, 전자 장치의 설정 정보에서 전자 장치의 장소를 결정하는 수단을 결정하는 다양한 실시 예를 도시한다.
다양한 실시 예에 따르면, 전자 장치 101은 전자 장치 101이 위치한 장소를 결정함에 있어서, 전자 장치 101의 설정 정보에 따라서 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 전자 장치 l01이 위치한 장소를 결정함에 있어서, 전자 장치 101에 포함된 GPS를 통해서 획득한 전자 장치 101의 위치 정보(예 지도에 표시된 위치 정보), 전자 장치 101가 와이파이 또는 블루투스를 통해서 연결된 적어도 하나의 다른 장치로부터 수신한 정보를 기반으로 결정한 위치 정보, 또는 전자 장치 101의 카메라 280으로 촬영하여 획득한 이미지 및/또는 이미지에 포함된 적어도 하나의 지정된 객체를 기반으로 결정한 위치 정보 중 적어도 하나를 통해서 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 250을 통해서 전자 장치 101이 위치한 장소를 결정하는 수단을 선택하는 설정 정보 901을 제공할 수 있다. 전자 장지 101은 설정 정보 901에 전자 장치 101이 위치한 장소를 결정하는 방법 903으로 다양한 수단을 제공할 수 있고, 전자 장치 101은 이미지 907이 선택된 경우, 전자 장치 101은 카메라 280으로 촬영하여 획득한 이미지를 기반으로 전자 장치 101이 위치한 장소를 결정할 수 있다.
도 10은 본 발명의 다양한 실시 예에 따른, 전자 장치의 설정 정보에서 전자 장치의 장소에 대응하여 수행할 전자 장치의 적어도 하나의 기능을 설정하는 다양한 실시 예를 도시한다.
다양한 실시 예에 따르면, 전자 장치 101은 설정 정보1001의 위치 결정 방법 선택 1003을 통해서 전자 장치 101이 위치한 장소를 결정하는 방법으로 전자 장치 101의 카메라 280으로 획득한 이미지를 결정할 수 있다. 전자 장치 101은 설정 정보 1001을 통해서 적어도 하나의 장소를 지정할 수 있고, 전자 장치 101이 지정된 장소에 위치한 경우 제어할 전자 장치 101의 적어도 하나의 동작을 설정하도록 제공 1005할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 전자 장치 101의 위치를 결정할 수 있는 메뉴 1007을 제공할 수 있다. 전자 장치 101은 장소를 추가할 수 있는 메뉴(예: 아이콘, 1009)를 제공할 수 있다. 전자 장치 101은 전자 장치 101의 위치 1007을 '내 방'으로 결정한 경우, 이미지를 통해서 전자 장치 101이 위치한 장소를 '내 방'으로 결정하는 기준 이미지를 설정할 수 있는 메뉴 1011을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 '내 방'을 전자 장치 101이 위치한 장소로 결정하는 경우, 와이파이를 온/오프하도록 설정하는 메뉴 1013을 제공할 수 있고, 블루투스를 온/오프 하도록 설정하는 메뉴 1015를 제공할 수 있고, 또는 GPS를 온/오프 하도록 설정하는 메뉴 1017을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 설정 정보 1001을 통해서 전자 장치 101이 위치한 장소를 '내 방'으로 결정한 경우, 제어하는 프로그램으로 예를 들면, 메신저 프로그램을 실행할지 결정하는 메뉴 1019, 음악 프로그램을 실행할지 결정하는 메뉴 1021, 또는 사용자의 선택에 따라서 적어도 하나의 프로그램을 지정하여 지정된 명령을 수행하도록 설정하는 메뉴 1023을 제공할 수 있다. 도 10을 기반으로 전자 장치 101은 카메라 280으로 촬영하여 획득한 적어도 하나의 이미지를 기반으로 전자 장치 101이 위치한 장소를 '내 방'으로 결정한 경우, 와이파이 및 블루투스를 온할 수 있고, 메신저 프로그램 및 음악 프로그램을 실행할 수 있다.
도 11a 및 도 11b는 본 발명의 다양한 실시 예에 따른, 전자 장치 101에서 획득한 이미지로 결정한 장소에 대응하여 지정된 기능을 수행하는 흐름을 도시한다.
다양한 실시 예에 따르면, 동작 1101에서 전자 장치 101은 전자 장치 101에 포함된 또는 전자 장치 101과 기능적으로 연결된 카메라 280으로 적어도 하나의 이미지를 획득할 수 있다. 전자 장치 101은 카메라 280으로 이미지를 획득함에 있어서, 지정된 입력을 검출한 시점 또는 특정 객체를 검출한 시점에 적어도 하나의 이미지를 촬영하여 획득할 수 있다. 전자 장치 101은 이미지를 촬영함에 있어서, 첫 이미지를 획득하고 지정된 시간 간격마다 및/또는 지정된 횟수의 이미지를 촬영할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 실시간으로 촬영 중인 카메라 280에서 획득한 이미지 중에서 적어도 하나의 이미지를 획득할 수 있다.
다양한 실시 예에 따르면, 동작 1103에서 전자 장치 101은 카메라 280으로 획득한 적어도 하나의 이미지와 전자 장치 101의 설정 정보에 지정된 이미지를 비교하여 전자 장치 101이 위치한 장소를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 이미지에 포함된 적어도 하나의 객체를 검출할 수 있고, 전자 장치 101의 설정 정보에 지정된 이미지 중에서 검출한 객체와 매칭되는 이미지를 결정할 수 있다. 전자 장치 101은 매칭되는 이미지에 대응하여 설정 정보에 지정된 장소를 전자 장치 101이 위치한 장소로 결정할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 이미지에 포함된 적어도 하나의 객체 및 이미지에 객체가 배치된 구도를 전자 장치 101의 설정 정보에 포함된 지정된 이미지와 비교하여 매칭되는 적어도 하나의 이미지에 대응하는 장소를 전자 장치 101이 위치하는 장소로 결정할 수 있다.
다양한 실시 예에 따르면, 동작 1105에서 전자 장치 101은 설정 정보를 기반으로 전자 장치 101이 위치하는 장소에 대응하여 지정된 전자 장치 101의 기능을 수행할 수 있다. 전자 장치 101은 결정된 장소에 대응하는 설정 정보에 따라서 전자 장치 101에 포함된 또는 기능적으로 연결된 적어도 하나의 장치를 온 또는 오프할 수 있고, 또는 지정된 프로그램을 실행할 수 있다. 전자 장치 101은 획득한 이미지를 기반으로 결정된 장소에 대응하여 지정된 다른 전자 장치와 지정된 네트워크 통신으로 연결할 수 있다. 더하여 전자 장치 101은 지정된 명령이 입력된 것을 감지하는 경우, 결정한 장소에 대응하여 입력된 명령을 수행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 이미지를 기반으로 전자 장치 101이 위치한 장소를 결정할 수 있고, 이미지에서 검출한 적어도 하나의 객체와 전자 장치 101과의 거리를 결정할 수 있다. 전자 장치 101은 지정된 객체와의 거리가 전자 장치 101의 설정 정보에 지정된 거리 이내인 것으로 결정한 경우, 설정 정보에 지정된 기능을 수행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 동작 1105를 수행하면 도 11a의 실시 예를 종료할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 11b를 기반으로 설명한다.
다양한 실시 예에 따르면, 동작 1111은 도 11a의 동작 1101을 수행한 이후에 수행할 수 있다. 한 실시 예에 따르면, 동작 1111에서 전자 장치 101은 카메라 280으로 획득한 둘 이상의 이미지를 참조하여, 전자 장치 101이 이동하는 방향 또는 경로를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 획득한 둘 이상의 이미지에 포함된 동일한 객체를 기반으로 전자 장치 101과 지정된 객체 사이의 거리를 결정할 수 있고, 결정한 거리를 기반으로 전자 장치 101이 이동하는 방향을 결정할 수 있다.
다른 실시 예에 따르면, 전자 장치 101은 카메라 280으로 획득한 적어도 하나의 이미지를 기반으로 제 1 이미지에 포함된 제 1 객체 및 제 1 이미지를 획득한 이후에 획득한 제 2 이미지에 포함된 제 2 객체가 전자 장치 101의 설정 정보에 지정된 순서에 대응하여 전자 장치 101이 이동하는 방향을 결정할 수 있다.
전자 장치 101은 동작 1111을 수행하면 도 11a의 동작 1103을 수행할 수 있다. 도시되지는 않았지만, 동작 1103에서 전자 장치 101은 획득한 둘 이상의 이미지로 결정한 전자 장치 101이 이동하는 방향을 참조하여 전자 장치 101이 위치한 장소를 결정할 수 있다.
전자 장치 101은 동작 1111을 수행하면 도 11b의 실시 예를 종료할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서,
적어도 하나의 촬영 이미지를 획득하는 동작과, 상기 촬영 이미지를 지정된 적어도 하나의 저장 이미지와 비교하여 상기 촬영 이미지에 대응하는 장소를 결정하는 동작과, 결정한 상기 장소에 대응하여 지정된 적어도 하나의 기능을 수행하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 촬영 이미지를 획득하는 동작은, 특정 객체를 검출하는 시점에 촬영하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 촬영 이미지를 획득하는 동작은, 지정된 시간 간격으로 둘 이상의 이미지를 촬영하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 촬영 이미지를 획득하는 동작은, 실시간으로 촬영 중인 이미지에서 적어도 하나를 획득하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 비교는, 상기 촬영 이미지에서 검출한 적어도 하나의 객체를 상기 저장 이미지와 비교할 수 있다. 다양한 실시 예에 따르면, 상기 비교는, 상기 객체의 모양, 객체의 특징점, 상기 적어도 하나의 객체가 배치된 형태, 객체의 색 중에서 적어도 하나를 비교할 수 있다. 다양한 실시 예에 따르면, 상기 매칭되는 장소를 결정하는 동작은, 둘 이상의 촬영 이미지 각각에서 검출된 지정된 객체와 상기 전자 장치와의 거리 변화를 기반으로 상기 전자 장치의 이동 경로를 결정하는 동작을 더 포함할 수 있다. 다양한 실시 예에 따르면, 상기 적어도 하나의 기능을 수행하는 동작은,
와이파이, 블루투스, GPS, 프로그램, 입력된 명령에 해당하는 기능 중 상기 장소에 대응하여 지정된 적어도 하나를 제어하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 적어도 하나의 기능을 수행하는 동작은, 지정된 다른 전자 장치와 지정된 네트워크 통신으로 연결하는 동작을 더 포함할 수 있다. 다양한 실시 예에 따르면, 지정된 명령을 입력하는 동작, 및 상기 입력된 명령을 상기 다른 전자 장치에서 수행하도록 요청하는 데이터를 상기 다른 전자 장치에 송신하는 동작을 더 포함할 수 있다.
상술한 설명에서 전자 장치 101에서 둘 이상의 이미지를 획득하는 방법으로 지정된 시간 간격으로 둘 이상의 이미지를 촬영하는 예를 설명하였지만 이에 한정하지 않고, 다양한 방법으로 촬영된 둘 이상의 이미지를 사용할 수 있을 것이다. 한 실시 예에 따르면, 전자 장치 101은 장치의 위치 정보를 기반으로 지정된 거리만큼 움직이는 경우마다 이미지를 촬영할 수 있고 또는 카메라 모듈 280의 촬영 영역을 기반으로 전자 장치 101이 지정된 거리만큼 움직인 것으로 결정하는 경우마다 이미지를 촬영하여 지정된 거리 간격으로 둘 이상의 촬영 이미지를 획득할 수 있다.
본 발명의 청구항 및/또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금, 본 발명의 청구항 및/또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM, Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM, Compact Disc-ROM), 디지털 다목적 디스크(DVDs, Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 전자 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 휴대용 전자 장치에 접속할 수도 있다.
본 발명의 다양한 실시 예에 사용된 용어“모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시 예에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 애플리케이션 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 1111)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 0가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서 1111에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 애플리케이션, 루틴, 명령어 세트 (sets of instructions) 및/또는 프로세스 등을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 애플리케이션 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 애플리케이션 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
그리고 본 명세서와 도면에 발명된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 발명된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
101: 전자 장치 250: 디스플레이
270: 이미지 처리 모듈 280: 카메라

Claims (20)

  1. 전자 장치의 동작 방법에 있어서,
    지정된 시간 간격으로 서로 다른 위치에서 객체에 대한 제1 이미지와 제2 이미지를 포함하는 복수의 이미지를 획득하는 동작;
    상기 제1 이미지와 상기 제2 이미지에서 상기 객체에 대한 제1 정보와 제2 정보를 각각 식별하는 동작;
    상기 제1 정보와 상기 제2 정보를 비교하여, 상기 전자 장치의 이동 경로와 방향을 결정하는 동작;
    상기 이동 경로와 방향에 기초하여 상기 전자 장치의 목적 위치를 결정하는 동작; 및
    상기 목적 위치에 기초하여 상기 전자 장치의 복수의 모드 중 상기 목적 위치에 매핑된 모드로 상기 전자 장치의 모드를 변경하는 동작을 포함하는 방법.
  2. 제 1 항에 있어서, 지정된 객체에 대한 정보는 미리 저장되며,
    상기 이미지를 획득하는 동작은,
    상기 지정된 객체를 검출함에 대응하여 상기 복수의 이미지를 촬영하는 동작을 포함하는 방법.
  3. 제 1 항에 있어서, 상기 이미지를 획득하는 동작은,
    GPS(global positioning system) 수신 값에 기초하여, 상기 지정된 시간 간격, 상기 객체와 상기 전자 장치의 거리, 또는 상기 전자 장치의 이동 거리를 기반으로 상기 복수의 이미지를 촬영하는 동작을 포함하는 방법.
  4. 제 1 항에 있어서,
    상기 제1 이미지는 상기 객체의 제1 방향과 연관되고, 상기 제2 이미지는 상기 객체의 제2 방향과 연관되는 방법.
  5. 제 1 항에 있어서,
    상기 제1 정보와 상기 제2 정보의 식별에 기초하여 상기 전자 장치와 상기 객체 간의 거리를 식별하는 동작; 및
    상기 거리가 기준 거리보다 작음을 식별함에 대응하여, 상기 객체의 위치를 상기 전자 장치의 상기 목적 위치로 결정하는 동작을 더 포함하는 방법.
  6. 제 5 항에 있어서, 상기 제1 정보와 상기 제2 정보의 비교는,
    상기 객체의 모양, 객체의 특징점, 객체가 배치된 형태, 객체의 색 중에서 적어도 하나를 적어도 하나의 지정된 객체와 비교하는 동작; 및
    상기 비교에 기초하여 상기 객체를 식별하는 동작을 포함하는 방법.
  7. 제 1 항에 있어서, 상기 이동 경로와 방향을 결정하는 동작은,
    상기 제1 정보와 상기 제2 정보를 기초로 결정된 상기 객체와 상기 전자 장치와의 거리 변화를 기반으로 상기 전자 장치의 상기 이동 경로를 결정하는 동작을 포함하는 방법.
  8. 제 1 항에 있어서, 상기 전자 장치의 모드를 변경하는 동작은,
    와이파이 설정, 블루투스 설정, GPS 설정 중 적어도 하나를 상기 목적 위치에 대응하여 변경하는 동작을 포함하는 방법.
  9. 제 1 항에 있어서,
    상기 목적 위치에 포함된 적어도 하나의 장치를 제어하기 위한 지정된 어플리케이션을 디스플레이하는 동작을 더 포함하는 방법.
  10. 제 1 항에 있어서, 상기 제1 정보와 상기 제2 정보를 각각 식별하는 동작은,
    상기 제1 이미지의 상기 객체로부터 상기 제2 이미지에서 상기 객체로의 변화를 식별하는 동작을 포함하는 방법.
  11. 전자 장치에 있어서,
    이미지를 촬영하는 카메라;
    상기 이미지를 저장하는 메모리; 및
    상기 카메라 및 상기 메모리와 연결되는 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는:
    지정된 시간 간격으로 서로 다른 위치에서 객체에 대한 제1 이미지와 제2 이미지를 포함하는 복수의 이미지를 획득하고,
    상기 제1 이미지와 상기 제2 이미지에서 상기 객체에 대한 제1 정보와 제2 정보를 각각 식별하고,
    상기 제1 정보와 상기 제2 정보를 비교하여, 상기 전자 장치의 이동 경로와 방향을 결정하고,
    상기 이동 경로와 방향에 기초하여 상기 전자 장치의 목적 위치를 결정하고,
    상기 목적 위치에 기초하여 상기 전자 장치의 복수의 모드 중 상기 목적 위치에 매핑된 모드로 상기 전자 장치의 모드를 변경하는 전자 장치.
  12. 제 11 항에 있어서,
    상기 메모리는, 지정된 객체에 대한 정보를 저장하며,
    상기 프로세서는,
    상기 지정된 객체를 검출함에 대응하여 상기 복수의 이미지를 촬영하는 전자 장치.
  13. 제 11 항에 있어서, 상기 프로세서는,
    GPS(global positioning system) 수신 값에 기초하여, 상기 지정된 시간 간격, 상기 객체와 상기 전자 장치의 거리, 또는 상기 전자 장치의 이동 거리를 기반으로 상기 복수의 이미지를 촬영하여 상기 이미지를 획득하는 전자 장치.
  14. 제 11 항에 있어서,
    상기 제1 이미지는 상기 객체의 제1 방향과 연관되고, 상기 제2 이미지는 상기 객체의 제2 방향과 연관되는 전자 장치.
  15. 제 11 항에 있어서, 상기 프로세서는,
    상기 제1 정보와 상기 제2 정보의 식별에 기초하여 상기 전자 장치와 상기 객체 간의 거리를 식별하고,
    상기 거리가 기준 거리보다 작음을 식별함에 대응하여, 상기 객체의 위치를 상기 전자 장치의 상기 목적 위치로 결정하는 전자 장치.
  16. 제 15 항에 있어서, 상기 프로세서는,
    상기 객체의 모양, 객체의 특징점, 객체가 배치된 형태, 객체의 색 중에서 적어도 하나를 적어도 하나의 지정된 객체와 비교하고 상기 비교에 기초하여 상기 객체를 식별하는 전자 장치.
  17. 제 11 항에 있어서, 상기 프로세서는,
    상기 제1 정보와 상기 제2 정보를 기초로 결정된 상기 객체와 상기 전자 장치와의 거리 변화를 기반으로 결정한 상기 전자 장치의 상기 이동 경로를 기반으로 상기 목적 위치를 결정하는 전자 장치.
  18. 제 11 항에 있어서, 상기 프로세서는,
    와이파이 설정, 블루투스 설정, GPS 설정 중 적어도 하나를 상기 목적 위치에 대응하여 변경하는 전자 장치.
  19. 제 11 항에 있어서, 상기 프로세서는,
    상기 목적 위치에 포함된 적어도 하나의 장치를 제어하기 위한 지정된 어플리케이션을 디스플레이하는 전자 장치.
  20. 제 19 항에 있어서, 상기 프로세서는,
    상기 제1 정보와 상기 제2 정보를 각각 식별하는 동작은,
    상기 제1 이미지의 상기 객체로부터 상기 제2 이미지에서 상기 객체로의 변화를 식별하는 전자 장치.
KR1020140063830A 2014-05-27 2014-05-27 서비스를 제공하는 방법 및 그 전자 장치 KR102236203B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140063830A KR102236203B1 (ko) 2014-05-27 2014-05-27 서비스를 제공하는 방법 및 그 전자 장치
US14/720,256 US10205882B2 (en) 2014-05-27 2015-05-22 Method for providing service and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140063830A KR102236203B1 (ko) 2014-05-27 2014-05-27 서비스를 제공하는 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20150136391A KR20150136391A (ko) 2015-12-07
KR102236203B1 true KR102236203B1 (ko) 2021-04-05

Family

ID=54702165

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140063830A KR102236203B1 (ko) 2014-05-27 2014-05-27 서비스를 제공하는 방법 및 그 전자 장치

Country Status (2)

Country Link
US (1) US10205882B2 (ko)
KR (1) KR102236203B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9967467B2 (en) * 2015-05-29 2018-05-08 Oath Inc. Image capture with display context
US11119722B2 (en) * 2016-11-08 2021-09-14 Sharp Kabushiki Kaisha Movable body control apparatus and recording medium
JP6555230B2 (ja) * 2016-11-18 2019-08-07 京セラドキュメントソリューションズ株式会社 携帯機器及び画像形成システム
WO2019088295A1 (ja) * 2017-11-06 2019-05-09 株式会社ニコン プログラムおよび電子機器
US10713487B2 (en) 2018-06-29 2020-07-14 Pixart Imaging Inc. Object determining system and electronic apparatus applying the object determining system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140002444A1 (en) * 2012-06-29 2014-01-02 Darren Bennett Configuring an interaction zone within an augmented reality environment
US20140139686A1 (en) 2012-11-20 2014-05-22 Benq Corporation Digital Camera and Image Capturing Method Thereof

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6152854A (en) * 1996-08-27 2000-11-28 Carmein; David E. E. Omni-directional treadmill
US7096030B2 (en) * 2002-06-28 2006-08-22 Nokia Corporation System and method for initiating location-dependent applications on mobile devices
KR100971809B1 (ko) * 2003-09-30 2010-07-22 엘지전자 주식회사 단말기 내장 카메라의 촬영 제한 방법
KR20070060617A (ko) 2005-12-09 2007-06-13 주식회사 팬택 카메라가 장착된 휴대 단말기에서의 기능 실행 방법 및 그장치
EP2499550A1 (en) * 2009-11-10 2012-09-19 Selex Sistemi Integrati S.p.A. Avatar-based virtual collaborative assistance
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9183676B2 (en) * 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
US9645395B2 (en) * 2013-03-15 2017-05-09 Mark Bolas Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
KR102039427B1 (ko) * 2013-07-01 2019-11-27 엘지전자 주식회사 스마트 글라스
US9632572B2 (en) * 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9746984B2 (en) * 2014-08-19 2017-08-29 Sony Interactive Entertainment Inc. Systems and methods for providing feedback to a user while interacting with content
US20160371983A1 (en) * 2015-06-22 2016-12-22 Garmin Switzerland Gmbh Parking assist system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140002444A1 (en) * 2012-06-29 2014-01-02 Darren Bennett Configuring an interaction zone within an augmented reality environment
US20140139686A1 (en) 2012-11-20 2014-05-22 Benq Corporation Digital Camera and Image Capturing Method Thereof

Also Published As

Publication number Publication date
US10205882B2 (en) 2019-02-12
KR20150136391A (ko) 2015-12-07
US20150347853A1 (en) 2015-12-03

Similar Documents

Publication Publication Date Title
KR102171082B1 (ko) 지문 처리 방법 및 그 전자 장치
KR102248474B1 (ko) 음성 명령 제공 방법 및 장치
KR102264808B1 (ko) 지문 처리 방법 및 그 전자 장치
KR102180528B1 (ko) 색맹 교정을 위한 전자 장치 및 운영 방법
KR102302437B1 (ko) 모션 센싱 방법 및 그 사용자 기기
US9753827B2 (en) Method and apparatus for identifying external device
US9762575B2 (en) Method for performing communication via fingerprint authentication and electronic device thereof
KR102189771B1 (ko) 전자 장치 및 그 동작 방법
KR102230691B1 (ko) 생체정보를 인식하는 방법 및 장치
KR102031874B1 (ko) 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
KR102275033B1 (ko) 데이터 처리 방법 및 그 전자 장치
KR102218242B1 (ko) 입출력 인터페이스 제어 방법 및 이를 수행하는 전자 장치
KR102154802B1 (ko) 전자 장치의 촬영 방법 및 그 전자 장치
KR102326275B1 (ko) 이미지 표시 방법 및 장치
KR102255351B1 (ko) 홍채 인식 방법 및 장치
KR20150104302A (ko) 전자 장치의 사용자 입력 검출 방법 및 그 전자 장치
KR20150111632A (ko) 지문 인식 방법 및 그 전자 장치
KR102250772B1 (ko) 이어 잭 오작동을 방지하는 전자 장치 및 방법
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
KR20160111211A (ko) 데이터 통신 방법 및 그 전자 장치
KR20150123493A (ko) 입력 처리 방법 및 그 전자 장치
KR102238905B1 (ko) 전자 장치의 비콘 전달 방법 및 그 전자 장치
KR102190436B1 (ko) 데이터를 송수신하는 전자 장치 및 방법
KR102236203B1 (ko) 서비스를 제공하는 방법 및 그 전자 장치
KR20150122476A (ko) 제스처 센서 제어 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant