KR20180047483A - Electronic apparatus for sharing picture and operating method thereof, and system having the same - Google Patents
Electronic apparatus for sharing picture and operating method thereof, and system having the same Download PDFInfo
- Publication number
- KR20180047483A KR20180047483A KR1020160143595A KR20160143595A KR20180047483A KR 20180047483 A KR20180047483 A KR 20180047483A KR 1020160143595 A KR1020160143595 A KR 1020160143595A KR 20160143595 A KR20160143595 A KR 20160143595A KR 20180047483 A KR20180047483 A KR 20180047483A
- Authority
- KR
- South Korea
- Prior art keywords
- external device
- image
- face
- processor
- external
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
Description
본 발명의 다양한 실시예들은 영상 공유를 위한 전자 장치와 그의 동작 방법 및 그를 갖는 시스템에 관한 것이다. Various embodiments of the present invention are directed to an electronic device for video sharing, a method of operating the same, and a system having the same.
일반적으로 클라우드 컴퓨팅(cloud computing)은 개별적으로 존재하는 다수개의 컴퓨팅 자원(resource)들을 하나의 영역, 즉 클라우드 영역에서 관리하는 컴퓨팅 환경의 일종이다. 이 때 클라우드 영역은 클라우드 서버와 같은 전자 장치에서 제공되고 있다. 즉 전자 장치는 네트워크를 통해 다수개의 외부 장치들을 위한 데이터를 저장하고, 이를 관리한다. 이를 통해, 클라우딩 컴퓨팅은 외부 장치들의 자원 한계를 극복할 수 있다. Generally, cloud computing is a type of computing environment in which a plurality of individual computing resources are managed in one area, i.e., a cloud area. At this time, the cloud area is provided in an electronic device such as a cloud server. That is, the electronic device stores and manages data for a plurality of external devices via a network. Through this, cloud computing can overcome the resource limitations of external devices.
그런데, 상기와 같은 전자 장치는 외부 장치들의 데이터를 저장할 뿐이다. 즉 상기와 같은 전자 장치가 효율적으로 활용되고 있지 않다. 따라서, 상기와 같은 전자 장치의 효율적인 활용 방안이 요구된다. However, such an electronic device only stores data of external devices. That is, the above electronic device is not utilized effectively. Therefore, there is a need for an efficient utilization of the electronic device.
다양한 실시예들에 따른 전자 장치의 동작 방법은, 제 1 외부 장치와 제 2 외부 장치를 등록하는 동작, 상기 제 1 외부 장치로부터 영상을 수신하는 동작, 상기 영상에서 적어도 하나의 얼굴을 인식하는 동작 및 상기 인식된 얼굴에 기반하여, 상기 제 2 외부 장치에 상기 영상을 전송하는 동작을 포함할 수 있다. The method of operation of an electronic device according to various embodiments may include registering a first external device and a second external device, receiving an image from the first external device, recognizing at least one face in the image And transmitting the image to the second external device based on the recognized face.
다양한 실시예들에 따른 전자 장치는, 메모리, 다수개의 외부 장치들과 통신하도록 구성된 통신부 및 상기 메모리에 상기 외부 장치들을 등록하도록 구성된 프로세서를 포함하며, 상기 프로세서는, 제 1 외부 장치로부터 영상을 수신하고, 상기 영상에서 적어도 하나의 얼굴을 인식하고, 상기 인식된 얼굴에 기반하여, 제 2 외부 장치에 상기 영상을 전송하도록 더 구성될 수 있다. An electronic device according to various embodiments includes a memory, a communication unit configured to communicate with a plurality of external devices, and a processor configured to register the external devices in the memory, wherein the processor receives the image from the first external device Recognize at least one face in the image, and transmit the image to a second external device based on the recognized face.
다양한 실시예들에 따른 시스템은, 다수개의 외부 장치들 및 상기 외부 장치들을 등록하고, 상기 외부 장치들 사이에서 영상을 공유시키는 전자 장치를 포함하며, 상기 전자 장치는, 제 1 외부 장치로부터 영상을 수신하고, 상기 영상에서 적어도 하나의 얼굴을 인식하고, 상기 인식된 얼굴에 기반하여, 제 2 외부 장치에 상기 영상을 전송하도록 구성될 수 있다. A system according to various embodiments includes an electronic device for registering a plurality of external devices and the external devices and for sharing images among the external devices, Recognize at least one face in the image, and transmit the image to a second external device based on the recognized face.
다양한 실시예들에 따르면, 전자 장치는 외부 장치들 사이에서 영상을 공유시킬 수 있다. 즉 전자 장치는 영상에서 얼굴을 인식함으로써, 외부 장치들 중 적어도 어느 하나를 결정하고, 영상을 전송할 수 있다. 이로 인하여, 전자 장치의 이용 효율성이 향상될 수 있다. According to various embodiments, an electronic device may share images among external devices. That is, the electronic device recognizes a face in an image, thereby determining at least one of external devices and transmitting the image. Thus, the utilization efficiency of the electronic device can be improved.
도 1은 다양한 실시예들에 따른 시스템의 블록도를 도시한다.
도 2는 다양한 실시예들에 따른 시스템에서 신호의 흐름도를 도시한다.
도 3은 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
도 4는 다양한 실시예들에 따른 전자 장치의 동작 방법의 순서도를 도시한다.
도 5는 도 4에서 외부 장치 등록 동작의 순서도를 도시한다.
도 6은 도 4에서 영상 저장 동작의 순서도를 도시한다.
도 7은 도 4에서 영상 공유 동작의 순서도를 도시한다. Figure 1 shows a block diagram of a system according to various embodiments.
Figure 2 shows a flow diagram of signals in a system according to various embodiments.
3 shows a block diagram of an electronic device according to various embodiments.
Figure 4 shows a flow diagram of a method of operation of an electronic device according to various embodiments.
Fig. 5 shows a flowchart of the external device registering operation in Fig.
FIG. 6 shows a flowchart of the image storing operation in FIG.
FIG. 7 shows a flowchart of the image sharing operation in FIG.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째," 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings. It is to be understood that the embodiments and terminologies used herein are not intended to limit the invention to the particular embodiments described, but to include various modifications, equivalents, and / or alternatives of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar components. The singular expressions may include plural expressions unless the context clearly dictates otherwise. In this document, the expressions "A or B" or "at least one of A and / or B" and the like may include all possible combinations of the items listed together. Expressions such as " first, "" second," " first, "or" second, " But is not limited to those components. When it is mentioned that some (e.g., first) component is "(functionally or communicatively) connected" or "connected" to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다. In this document, the term " configured to (or configured) to "as used herein is intended to encompass all types of hardware, software, , "" Made to "," can do ", or" designed to ". In some situations, the expression "a device configured to" may mean that the device can "do " with other devices or components. For example, a processor configured (or configured) to perform the phrases "A, B, and C" may be implemented by executing one or more software programs stored in a memory device or a dedicated processor (e.g., an embedded processor) , And a general purpose processor (e.g., a CPU or an application processor) capable of performing the corresponding operations.
도 1은 다양한 실시예들에 따른 시스템(100)의 블록도를 도시한다. FIG. 1 illustrates a block diagram of a
도 1을 참조하면, 다양한 실시예들에 따른 시스템(100)은 전자 장치(110)와 다수개의 외부 장치(120)들을 포함할 수 있다. Referring to FIG. 1, a
전자 장치(110)는 외부 장치(120)들과 접속하여, 각각의 외부 장치(120)의 데이터를 관리할 수 있다. 한 실시예에 따르면, 전자 장치(110)는 서버(server)를 포함할 수 있다. 예를 들면, 서버는 클라우드 서비스(cloud service)를 제공하는 클라우드 서버를 포함할 수 있다. 이를 위해, 전자 장치(110)는 외부 장치(120)들을 등록하고, 각각의 외부 장치(120)에 대응하여 데이터를 저장할 수 있다. 예를 들면, 데이터는 각각의 외부 장치(120)의 사용자 얼굴, 접속 정보, 영상, 오디오 또는 문서 중 적어도 어느 하나를 포함할 수 있다. 접속 정보는 각각의 외부 장치(120)에 미리 저장된 것으로, 예컨대 컨택 리스트(contact list)와 같이 다른 외부 장치(120)의 식별 정보를 포함할 수 있다. The
다양한 실시예들에 따르면, 전자 장치(110)는 각각의 외부 장치(120)에 대응하여, 사용자 얼굴과 접속 정보를 저장할 수 있다. 이를 통해, 전자 장치(110)는 외부 장치(120)들 사이에서 영상을 공유시킬 수 있다. 이 때 전자 장치(110)는 외부 장치(120)들 중 어느 하나로부터 영상을 수신하고, 영상에서 적어도 하나의 얼굴을 인식할 수 있다. 그리고 전자 장치(110)는 영상 내 얼굴에 기반하여, 외부 장치(120)들 중 적어도 다른 하나에 영상을 전송할 수 있다. 즉 전자 장치(110)는 각각의 외부 장치(120)의 사용자 얼굴과 영상 내 얼굴의 일치 여부에 따라, 외부 장치(120)들 중 적어도 다른 하나를 결정할 수 있다. 또한 전자 장치(110)는 접속 정보를 이용하여, 외부 장치(120)들 중 적어도 다른 하나에 영상을 전송할 수 있다.According to various embodiments, the
외부 장치(120)들은 상호에 접속하여, 상호 무선 통신을 수행할 수 있다. 그리고 외부 장치(120)들은 전자 장치(110)에 개별적으로 접속하여, 전자 장치(110)와 무선 통신을 수행할 수 있다. 이 때 외부 장치(120)들은 전자 장치(110)에 등록하고, 전자 장치(110)에 데이터를 저장할 수 있다. The
다양한 실시예들에 따르면, 외부 장치(120)들은 전자 장치(110)에 등록 정보를 전송할 수 있다. 예를 들면, 등록 정보는 각각의 외부 장치(120)의 식별 정보, 사용자 얼굴을 식별하기 위한 식별 영상 또는 접속 정보 중 적어도 어느 하나를 포함할 수 있다. 그리고 외부 장치(120)들은 전자 장치(110)에 영상을 전송함으로써, 전자 장치(110)를 통해 영상을 공유할 수 있다. According to various embodiments, the
예를 들면, 외부 장치(120)들은 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라 또는 웨어러블 장치 중 적어도 어느 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 어느 하나를 포함할 수 있다. 한편, 외부 장치(120)들은, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM,애플TVTM,또는 구글 TVTM),게임 콘솔(예: XboxTM,PlayStationTM),전자 사전, 전자 키, 캠코더 또는 전자 액자 중 적어도 어느 하나를 포함할 수 있다. 한편, 외부 장치(120)들은 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales) 또는 사물 인터넷 장치(예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 어느 하나를 포함할 수 있다. 한편, 외부 장치(120)들은, 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 어느 하나를 포함할 수 있다. 다양한 실시예들에서, 외부 장치(120)들은 플렉서블하거나, 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. For example, the
도 2는 다양한 실시예들에 따른 시스템(100)에서 신호의 흐름도를 도시한다. Figure 2 shows a flow diagram of signals in
도 2를 참조하면, 다양한 실시예들에 따른 시스템(100)은 전자 장치(110)를 통해 외부 장치(120)들 사이에서 영상을 공유시킬 수 있다. 이를 위해, 전자 장치(110)는 외부 장치(120)들을 등록할 수 있다. 이 때 외부 장치(120)들은 제 1 외부 장치(121)와 제 2 외부 장치(123)를 포함할 수 있다. Referring to FIG. 2, the
다양한 실시예들에 따르면, 제 1 외부 장치(121)는 211 동작에서 전자 장치(110)에 등록을 요청할 수 있다. 이를 위해, 제 1 외부 장치(121)는 전자 장치(110)에 등록 정보를 전송할 수 있다. 이 때 제 1 외부 장치(121)의 등록 정보는 제 1 외부 장치(121)의 식별 정보, 제 1 외부 장치(121)의 사용자 식별을 위한 식별 영상 또는 제 1 외부 장치(121)에 저장된 접속 정보 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 제 1 외부 장치(121)의 식별 영상 또는 접속 정보 중 적어도 어느 하나는 제 1 외부 장치(121)의 사용자에 의해 결정될 수 있다. 한편, 제 1 외부 장치(121)의 접속 정보는 제 2 외부 장치(123)의 식별 정보를 포함할 수 있다. 한 실시예에 따르면, 제 1 외부 장치(121)의 접속 정보는 제 2 외부 장치(123)를 분류하기 위한 적어도 하나의 카테고리를 더 포함할 수 있다. According to various embodiments, the first
다양한 실시예들에 따르면, 전자 장치(110)는 213 동작에서 제 1 외부 장치(121)를 등록할 수 있다. 이 때 전자 장치(110)는 제 1 외부 장치(121)의 등록 정보에 기반하여, 제 1 외부 장치(121)를 등록할 수 있다. 이를 위해, 전자 장치(110)는 제 1 외부 장치(121)의 식별 영상에서 사용자 얼굴을 검출할 수 있다. 그리고 전자 장치(110)는 제 1 외부 장치(121)의 식별 정보에 대응하여, 제 1 외부 장치(121)의 사용자 얼굴과 접속 정보를 저장할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 제 2 외부 장치(123)는 215 동작에서 전자 장치(110)에 등록을 요청할 수 있다. 이를 위해, 제 2 외부 장치(123)는 전자 장치(110)에 등록 정보를 전송할 수 있다. 이 때 제 2 외부 장치(123)의 등록 정보는 제 2 외부 장치(123)의 식별 정보, 제 2 외부 장치(123)의 사용자 식별을 위한 식별 영상 또는 제 2 외부 장치(123)에 저장된 접속 정보 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 제 2 외부 장치(123)의 식별 영상 또는 접속 정보 중 적어도 어느 하나는 제 2 외부 장치(123)의 사용자에 의해 결정될 수 있다. 한편, 제 2 외부 장치(123)의 접속 정보는 제 1 외부 장치(121)의 식별 정보를 포함할 수 있다. 한 실시예에 따르면, 제 2 외부 장치(123)의 접속 정보는 제 1 외부 장치(121)를 분류하기 위한 적어도 하나의 카테고리를 더 포함할 수 있다. According to various embodiments, the second
다양한 실시예들에 따르면, 전자 장치(110)는 217 동작에서 제 2 외부 장치(123)를 등록할 수 있다. 이 때 전자 장치(110)는 제 2 외부 장치(123)의 등록 정보에 기반하여, 제 2 외부 장치(123)를 등록할 수 있다. 이를 위해, 전자 장치(110)는 제 2 외부 장치(123)의 식별 영상에서 사용자 얼굴을 검출할 수 있다. 그리고 전자 장치(110)는 제 2 외부 장치(123)의 식별 정보에 대응하여, 제 2 외부 장치(123)의 사용자 얼굴과 접속 정보를 저장할 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(110)는 219 동작에서 제 1 외부 장치(121)와 제 2 외부 장치(123)를 상호에 매핑할 수 있다. 이 때 제 1 외부 장치(121)의 접속 정보가 제 2 외부 장치(123)의 식별 정보를 포함하고, 제 2 외부 장치(123)의 접속 정보가 제 1 외부 장치(121)의 식별 정보를 포함하면, 전자 장치(110)가 제 1 외부 장치(121)와 제 2 외부 장치(123)를 상호에 매핑할 수 있다. 이를 통해, 제 1 외부 장치(121)의 접속 정보에서, 제 2 외부 장치(123)의 식별 정보에 대응하여, 제 2 외부 장치(123)의 사용자 얼굴이 매핑될 수 있다. 이와 마찬가지로, 제 2 외부 장치(123)의 접속 정보에서, 제 1 외부 장치(121)의 식별 정보에 대응하여, 제 1 외부 장치(121)의 사용자 얼굴이 매핑될 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 제 1 외부 장치(121)가 221 동작에서 전자 장치(110)에 적어도 하나의 영상을 전송할 수 있다. 이 때 제 1 외부 장치(121)는 제 1 외부 장치(121)의 식별 정보와 함께, 영상을 전송할 수 있다. 예를 들면, 영상은 정지영상 또는 동영상 중 적어도 어느 하나를 포함할 수 있다. 그리고 제 1 외부 장치(121)는 미리 저장된 영상을 전송할 수 있으며, 실시간으로 촬영되는 영상을 전송할 수도 있다. According to various embodiments, the first
다양한 실시예들에 따르면, 전자 장치(110)는 223 동작에서 제 1 외부 장치(121)에 대응하여, 영상을 저장할 수 있다. 이 때 전자 장치(110)는 제 1 외부 장치(121)의 식별 정보에 대응하여, 영상을 저장할 수 있다. 이를 위해, 전자 장치(110)는 영상에서 적어도 하나의 얼굴을 인식할 수 있다. 여기서, 영상 내 얼굴이 제 1 외부 장치(121)의 사용자 얼굴을 포함하면, 전자 장치(110)는 제 1 외부 장치(121)의 식별 정보에 대응하여, 영상을 저장할 수 있다. 한편, 영상 내 얼굴이 제 2 외부 장치(123)의 사용자 얼굴을 포함하면, 전자 장치(110)는 제 2 외부 장치(123)의 카테고리로 영상을 분류할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(110)는 225 동작에서 제 2 외부 장치(123)에 제 1 외부 장치(121)의 영상을 공유시킬 수 있다. 이 때 전자 장치(110)는 제 2 외부 장치(123)의 식별 정보를 검출할 수 있다. 여기서, 영상 내 얼굴이 제 2 외부 장치(123)의 사용자 얼굴을 포함하면, 전자 장치(110)는 제 1 외부 장치(121)의 접속 정보에 기반하여, 제 2 외부 장치(123)의 식별 정보를 검출할 수 있다. 그리고 전자 장치(110)는 제 2 외부 장치(123)의 식별 정보를 이용하여, 제 1 외부 장치(121)의 영상을 전송할 수 있다. According to various embodiments, the
도 3은 다양한 실시예들에 따른 전자 장치(110)의 블록도를 도시한다.FIG. 3 shows a block diagram of an
도 3을 참조하면, 다양한 실시예들에 따른 전자 장치(110)는 통신부(310), 메모리(320) 및 프로세서(330)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(110)는, 구성 요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.Referring to FIG. 3, an
통신부(310)는 전자 장치(110)에서 통신을 수행할 수 있다. 이 때 통신부(310)는 다양한 통신 방식으로, 외부 장치(120: 121, 123)들과 통신할 수 있다. 예를 들면, 통신부(310)는 유선 또는 무선으로 통신을 수행할 수 있다. 이를 위해, 통신부(310)는 적어도 하나의 안테나(antenna)를 포함할 수 있다. 그리고 통신부(310)는 이동 통신망 또는 데이터 통신망 중 적어도 어느 하나에 접속할 수 있다. 또는 통신부(310)는 근거리 통신을 수행할 수 있다. 또한 통신 방식은 LTE(long term evolution), WCDMA(wideband code division multiple access), GSM(global system for mobile communications), WiFi(wireless fidelity), 무선랜(wireless LNA; wireless Local area network), 블루투스(bluetooth) 및 NFC(near field communications)를 포함할 수 있다.The
메모리(320)는 전자 장치(110)의 동작 프로그램들을 저장할 수 있다. 그리고 메모리(320)는 프로그램들을 수행하는 중에 발생되는 데이터를 저장할 수 있다. 예를 들면, 메모리(320)는 내장 메모리 또는 외장 메모리 중 적어도 어느 하나를 포함할 수 있다. 내장 메모리는 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 어느 하나를 포함할 수 있다. 외장 메모리는 플래시 드라이브(flash drive), CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 중 적어도 어느 하나를 포함할 수 있다. The
프로세서(330)는 전자 장치(110)에서 전반적인 동작을 제어할 수 있다. 즉 프로세서(330)는 다양한 기능들을 수행할 수 있다. 이를 위해, 프로세서(330)는 전자 장치(110)의 구성 요소들을 제어할 수 있다. 그리고 프로세서(330)는 전자 장치(110)의 구성 요소들로부터 명령 또는 데이터를 수신하여, 처리할 수 있다. 한 실시예에 따르면, 프로세서(330)는 얼굴 인식 기능을 포함할 수 있다. 이 때 프로세서(330)는 각각의 외부 장치(120: 121, 123)에 대응하여 데이터를 저장할 수 있다. 예를 들면, 데이터는 각각의 외부 장치(120: 121, 123)의 사용자 얼굴, 접속 정보, 영상, 오디오 또는 문서 중 적어도 어느 하나를 포함할 수 있다. 접속 정보는 각각의 외부 장치(120: 121, 123)에 미리 저장된 것으로, 예컨대 컨택 리스트와 같이 다른 외부 장치(120: 121, 123)의 식별 정보를 포함할 수 있다. The
다양한 실시예들에 따르면, 프로세서(330)는 외부 장치(120: 121, 123)들을 등록할 수 있다. 이를 위해, 프로세서(330)는 각각의 외부 장치(120: 121, 123)로부터 수신되는 등록 정보를 수신할 수 있다. 이 때 등록 정보는 각각의 외부 장치(120: 121, 123)의 식별 정보, 사용자 식별을 위한 식별 영상 또는 접속 정보 중 적어도 어느 하나를 포함할 수 있다. 그리고 프로세서(330)는 등록 정보에 기반하여, 각각의 외부 장치(120: 121, 123)를 등록할 수 있다. 이 때 프로세서(330)는 식별 영상에서 각각의 외부 장치(120: 121, 123)의 사용자 얼굴을 검출할 수 있다. 또한 프로세서(330)는 각각의 외부 장치(120: 121, 123)의 식별 정보에 대응하여, 사용자 얼굴과 접속 정보를 저장할 수 있다. 게다가, 프로세서(330)는 외부 장치(120: 121, 123)들을 상호에 매핑할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 프로세서(330)는 외부 장치(120: 121, 123)들 사이에서 영상을 공유시킬 수 있다. 이 때 프로세서(330)는 외부 장치(120: 121, 123)들 중 어느 하나로부터 영상을 수신할 수 있다. 그리고 프로세서(330)는 외부 장치(120: 121, 123)들 중 적어도 어느 하나에 대응하여, 영상을 저장할 수 있다. 또한 프로세서(330)는 영상에서 적어도 하나의 얼굴을 인식할 수 있다. 게다가, 프로세서(330)는 영상 내 얼굴에 기반하여, 외부 장치(120: 121, 123)들 중 적어도 다른 하나에 영상을 전송할 수 있다. 즉 프로세서(330)는 각각의 외부 장치(120: 121, 123)의 사용자 얼굴과 영상 내 얼굴의 일치 여부에 따라, 외부 장치(120: 121, 123)들 중 적어도 다른 하나를 결정할 수 있다. 더욱이, 프로세서(330)는 접속 정보를 이용하여, 외부 장치(120: 121, 123)들 중 적어도 다른 하나에 영상을 전송할 수 있다. 여기서, 프로세서(330)는 외부 장치(120: 121, 123)들 중 적어도 다른 하나에 대응하여, 영상을 저장할 수 있다. According to various embodiments, the
도 4는 다양한 실시예들에 따른 전자 장치(110)의 동작 방법의 순서도를 도시한다. FIG. 4 shows a flowchart of a method of operating an
도 4를 참조하면, 다양한 실시예들에 따른 전자 장치(110)의 동작 방법은, 프로세서(330)가 411 동작에서 외부 장치(120: 121, 123)들 중 어느 하나로부터 등록 요청을 수신하는 것으로부터 출발할 수 있다. 이 때 프로세서(330)는 통신부(310)를 통해 외부 장치(120: 121, 123)들 중 어느 하나로부터 등록 정보를 수신할 수 있다. 한 실시예에 따르면, 제 1 외부 장치(121) 또는 제 2 외부 장치(123) 중 어느 하나가 전자 장치(110)에 미리 등록된 상태에서, 프로세서(330)는 제 1 외부 장치(121) 또는 제 2 외부 장치(123) 중 다른 하나로부터 등록 정보를 수신할 수 있다. 4, a method of operating an
예를 들면, 프로세서(330)는 제 1 외부 장치(121)의 등록 정보를 수신할 수 있다. 이 때 제 1 외부 장치(121)의 등록 정보는 제 1 외부 장치(121)의 식별 정보, 제 1 외부 장치(121)의 사용자 식별을 위한 식별 영상 또는 제 1 외부 장치(121)에 저장된 접속 정보 중 적어도 어느 하나를 포함할 수 있다. 여기서, 제 1 외부 장치(121)의 식별 영상 또는 접속 정보 중 적어도 어느 하나는 제 1 외부 장치(121)의 사용자에 의해 결정될 수 있다. 한편, 제 1 외부 장치(121)의 접속 정보는 제 2 외부 장치(123)의 식별 정보를 포함할 수 있다. 아울러, 제 1 외부 장치(121)의 접속 정보는 제 2 외부 장치(123)를 분류하기 위한 적어도 하나의 카테고리를 더 포함할 수 있다.For example, the
또는 프로세서(330)는 제 2 외부 장치(123)의 등록 정보를 수신할 수 있다. 이 때 제 2 외부 장치(123)의 등록 정보는 제 2 외부 장치(123)의 식별 정보, 제 2 외부 장치(123)의 사용자 식별을 위한 식별 영상 또는 제 2 외부 장치(123)에 저장된 접속 정보 중 적어도 어느 하나를 포함할 수 있다. 여기서, 제 2 외부 장치(123)의 식별 영상 또는 접속 정보 중 적어도 어느 하나는 제 2 외부 장치(123)의 사용자에 의해 결정될 수 있다. 한편, 제 2 외부 장치(123)의 접속 정보는 제 1 외부 장치(121)의 식별 정보를 포함할 수 있다. 아울러, 제 2 외부 장치(123)의 접속 정보는 제 1 외부 장치(121)를 분류하기 위한 적어도 하나의 카테고리를 더 포함할 수 있다.Or the
다음으로, 프로세서(330)는 413 동작에서 외부 장치(120: 121, 123)들 중 어느 하나를 등록할 수 있다. 이 때 프로세서(330)는 등록 정보에 기반하여, 메모리(320)에 외부 장치(120: 121, 123)들 중 어느 하나를 등록할 수 있다. 한 실시예에 따르면, 제 1 외부 장치(121) 또는 제 2 외부 장치(123) 중 어느 하나가 전자 장치(110)에 미리 등록된 상태에서, 프로세서(330)는 제 1 외부 장치(121) 또는 제 2 외부 장치(123) 중 다른 하나를 등록할 수 있다. Next, the
도 5는 도 4에서 외부 장치(120: 121, 123) 등록 동작의 순서도를 도시한다. FIG. 5 shows a flowchart of the external device 120 (121, 123) registration operation in FIG.
도 5를 참조하면, 프로세서(330)는 511 동작에서 식별 영상에서 얼굴 영역을 결정할 수 있다. 여기서, 프로세서(330)는 식별 영상을 얼굴에 대응하는 얼굴 영역과 배경 영역으로 구분할 수 있다. 예를 들면, 프로세서(330)는 Eigenface 방식과 Fisherface 방식을 결합한 전체론적인 방법으로 얼굴 영역을 결정할 수 있다. 그리고 프로세서(330)는 Adaboost를 이용하여, 영상에서 얼굴 영역의 위치와 크기를 결정할 수 있다.Referring to FIG. 5, the
다음으로, 프로세서(330)는 513 동작에서 얼굴 영역으로부터 적어도 하나의 특징점을 도출할 수 있다. 이 때 프로세서(330)는 얼굴 영역에 전처리를 수행하여, 얼굴 영역으로부터 특징점을 도출할 수 있다. 이를 통해, 프로세서(330)는 얼굴 영역에서 눈, 코, 입, 눈썹과 같은 특징점을 도출할 수 있다. 그리고 프로세서(330)는 식별 영상에서 얼굴의 방향, 예컨대 정면과 측면을 식별할 수 있다. 예를 들면, 프로세서(330)는 얼굴 영역에서 각각의 특징점의 상대적인 위치 및 크기와 같은 기하 정보를 도출하고, 각각의 특징점에 대해 이차원 패턴 매칭을 수행할 수 있다. 여기서, 프로세서(330)는 OpenCV(open source computer vision library)와 같은 소프트웨어 라이브러리를 이용하여, 얼굴 영역에 히스토그램 균등화(histogram equalization)를 적용할 수 있다. 즉 프로세서(330)는 얼굴 영역에 대하여, 기하학적 변형 및 다듬기 과정, 왼쪽과 오른쪽의 히스토그램 균등화 과정, 스무딩 과정 또는 타원형의 마스크 과정 중 적어도 어느 하나를 적용할 수 있다.Next, the
다음으로, 프로세서(330)는 515 동작에서 특징점에 기반하여 사용자 얼굴을 검출할 수 있다. 즉 프로세서(330)는 각각의 특징점 또는 그 조합을 사용자 얼굴로 검출할 수 있다. Next, the
다음으로, 프로세서(330)는 517 동작에서 식별 정보에 대응하여, 사용자 얼굴과 접속 정보를 저장할 수 있다. 예를 들면, 프로세서(330)는 메모리(320)에서 제 1 외부 장치(121)의 식별 정보에 대응하여, 제 1 외부 장치(121)의 사용자 얼굴과 접속 정보를 저장할 수 있다. 한편, 프로세서(330)는 메모리(320)에서 제 2 외부 장치(123)의 식별 정보에 대응하여, 제 2 외부 장치(123)의 사용자 얼굴과 접속 정보를 저장할 수 있다. 이 후 프로세서(330)는 도 4로 리턴할 수 있다. Next, the
다음으로, 프로세서(440)는 415 동작에서 외부 장치(120: 121, 123)들을 상호에 매핑할 수 있다. 이 때 프로세서(440)는 외부 장치(120: 121, 123)들 중 어느 하나를 외부 장치(120: 121, 123)들 중 다른 하나와 매핑할 수 있다. 여기서, 프로세서(330)는 메모리(320)에서 제 1 외부 장치(121)와 제 2 외부 장치(123)를 상호에 매핑할 수 있다. 한 실시예에 따르면, 프로세서(330)는 제 1 외부 장치(121)의 접속 정보와 제 2 외부 장치(123)의 식별 정보에 기반하여, 제 2 외부 장치(123)를 제 1 외부 장치(121)에 매핑할 수 있다. 이와 마찬가지로, 프로세서(330)는 제 1 외부 장치(121)의 식별 정보와 제 2 외부 장치(123)의 접속 정보에 기반하여, 제 1 외부 장치(121)를 제 2 외부 장치(123)에 매핑할 수 있다. Next, the processor 440 may map the external devices 120 (121, 123) to each other in the 415 operation. At this time, the processor 440 may map any one of the external devices 120 (121, 123) to another one of the external devices 120 (121, 123). Here, the
예를 들면, 제 1 외부 장치(121)의 접속 정보가 제 2 외부 장치(123)의 식별 정보를 포함하고, 제 2 외부 장치(123)의 접속 정보가 제 1 외부 장치(121)의 식별 정보를 포함하면, 프로세서(330)가 제 1 외부 장치(121)와 제 2 외부 장치(123)를 상호에 매핑할 수 있다. 이를 통해, 제 1 외부 장치(121)의 접속 정보에서, 제 2 외부 장치(123)의 식별 정보에 대응하여, 제 2 외부 장치(123)의 사용자 얼굴이 매핑될 수 있다. 이와 마찬가지로, 제 2 외부 장치(123)의 접속 정보에서, 제 1 외부 장치(121)의 식별 정보에 대응하여, 제 1 외부 장치(121)의 사용자 얼굴이 매핑될 수 있다.For example, when the connection information of the first
이어서, 프로세서(330)는 417 동작에서 외부 장치(120: 121, 123)들 중 어느 하나로부터 영상을 수신할 수 있다. 이 때 프로세서(330)는 통신부(310)를 통해 외부 장치(120: 121, 123)들 중 어느 하나로부터 영상을 수신할 수 있다. 예를 들면, 영상은 정지영상 또는 동영상 중 적어도 어느 하나를 포함할 수 있다. 한 실시예에 따르면, 프로세서(330)는 제 1 외부 장치(121)로부터 영상을 수신할 수 있다. 여기서, 프로세서(330)는 제 1 외부 장치(121)의 식별 정보와 함께, 영상을 수신할 수 있다. 한편, 프로세서(330)는 제 2 외부 장치(123)로부터 영상을 수신할 수 있다. 여기서, 프로세서(330)는 제 2 외부 장치(123)의 식별 정보와 함께, 영상을 수신할 수 있다. The
계속해서, 프로세서(330)는 419 동작에서 영상을 저장할 수 있다. 이 때 프로세서(330)는 메모리(320)에서 외부 장치(120: 121, 123)들 중 어느 하나에 대응하여, 영상을 저장할 수 있다. 아울러, 프로세서(330)는 메모리(320)에서 외부 장치(120: 121, 123)들 중 어느 하나 뿐만 아니라, 외부 장치(120: 121, 123)들 중 적어도 다른 하나에 대응하여, 영상을 더 저장할 수 있다. 한 실시예에 따르면, 제 1 외부 장치(121)로부터 영상이 수신되더라도, 프로세서(330)는 제 1 외부 장치(121)의 식별 정보에 대응하여, 영상을 저장할 뿐만 아니라, 제 2 외부 장치(123)의 식별 정보에 대응하여, 영상을 저장할 수 있다. 한편, 제 2 외부 장치(123)로부터 영상이 수신되더라도, 프로세서(330)는 제 2 외부 장치(123)의 식별 정보에 대응하여, 영상을 저장할 뿐만 아니라, 제 1 외부 장치(121)의 식별 정보에 대응하여, 영상을 저장할 수 있다. Subsequently, the
도 6은 도 4에서 영상 저장 동작의 순서도를 도시한다. FIG. 6 shows a flowchart of the image storing operation in FIG.
도 6을 참조하면, 프로세서(330)는 611 동작에서 영상에서 적어도 하나의 얼굴 영역을 결정할 수 있다. 여기서, 프로세서(330)는 영상을 적어도 하나의 얼굴에 대응하는 얼굴 영역과 배경 영역으로 구분할 수 있다. 예를 들면, 프로세서(330)는 Eigenface 방식과 Fisherface 방식을 결합한 전체론적인 방법으로 얼굴 영역을 결정할 수 있다. 그리고 프로세서(330)는 Adaboost를 이용하여, 영상에서 얼굴 영역의 위치와 크기를 결정할 수 있다.Referring to FIG. 6,
다음으로, 프로세서(330)는 613 동작에서 각각의 얼굴 영역으로부터 적어도 하나의 특징점을 도출할 수 있다. 이 때 프로세서(330)는 얼굴 영역에 전처리를 수행하여, 얼굴 영역으로부터 특징점을 도출할 수 있다. 이를 통해, 프로세서(330)는 얼굴 영역에서 눈, 코, 입, 눈썹과 같은 특징점을 도출할 수 있다. 그리고 프로세서(330)는 영상에서 얼굴의 방향, 예컨대 정면과 측면을 식별할 수 있다. 예를 들면, 프로세서(330)는 얼굴 영역에서 각각의 특징점의 상대적인 위치 및 크기와 같은 기하 정보를 도출하고, 각각의 특징점에 대해 이차원 패턴 매칭을 수행할 수 있다. 여기서, 프로세서(330)는 OpenCV(open source computer vision library)와 같은 소프트웨어 라이브러리를 이용하여, 얼굴 영역에 히스토그램 균등화(histogram equalization)를 적용할 수 있다. 즉 프로세서(330)는 얼굴 영역에 대하여, 기하학적 변형 및 다듬기 과정, 왼쪽과 오른쪽의 히스토그램 균등화 과정, 스무딩 과정 또는 타원형의 마스크 과정 중 적어도 어느 하나를 적용할 수 있다. Next, the
다음으로, 프로세서(330)는 615 동작에서 특징점에 기반하여 각각의 얼굴을 검출할 수 있다. 즉 프로세서(330)는 각각의 특징점 또는 그 조합을 각각의 얼굴로 검출할 수 있다. Next, the
다음으로, 프로세서(330)는 617 동작에서 각각의 얼굴에 기반하여, 영상을 저장할 수 있다. 이를 위해, 프로세서(330)는 외부 장치(120: 121, 123)들의 사용자 얼굴과 영상 내 얼굴을 비교할 수 있다. 예를 들면, 프로세서(330)는 선형 판별 분석 기법(LDA; linear discriminant analysis) 또는 주성분 분석 기법(PCA; principal component analysis)과 같은 알고리즘에 기반하여, 외부 장치(120: 121, 123)들의 사용자 얼굴과 영상 내 얼굴을 비교할 수 있다. 외부 장치(120: 121, 123)들 중 어느 하나의 사용자 얼굴과 영상 내 얼굴이 일치하면, 프로세서(330)는 외부 장치(120: 121, 123)들 중 어느 하나에 대응하여, 영상을 저장할 수 있다. 그리고 외부 장치(120: 121, 123)들 중 적어도 다른 하나의 사용자 얼굴과 영상 내 얼굴이 일치하면, 프로세서(330)는 외부 장치(120: 121, 123)들 중 적어도 다른 하나에 대응하여, 영상을 더 저장할 수 있다. 이 후 프로세서(330)는 도 4로 리턴할 수 있다.Next, the
예를 들면, 제 1 외부 장치(121)로부터 영상이 수신된 경우, 프로세서(330)는 제 1 외부 장치(121)의 식별 정보에 대응하여, 영상을 저장할 수 있다. 여기서, 영상 내 얼굴이 제 2 외부 장치(123)의 사용자 얼굴과 일치하면, 프로세서(330)는 제 1 외부 장치(121)의 식별 정보에 대응하여, 제 2 외부 장치(123)의 카테고리로 영상을 분류할 수 있다. 한편, 영상 내 얼굴이 제 2 외부 장치(123)의 사용자 얼굴과 일치하면, 프로세서(330)는 제 2 외부 장치(123)의 식별 정보에 대응하여, 영상을 더 저장할 수 있다. 이와 마찬가지로, 제 2 외부 장치(123)로부터 영상이 수신된 경우, 프로세서(330)는 제 2 외부 장치(123)의 식별 정보에 대응하여, 영상을 저장할 수 있다. 여기서, 영상 내 얼굴이 제 1 외부 장치(121)의 사용자 얼굴과 일치하면, 프로세서(330)는 제 2 외부 장치(123)의 식별 정보에 대응하여, 제 1 외부 장치(121)의 카테고리로 영상을 분류할 수 있다. 한편, 영상 내 얼굴이 제 1 외부 장치(121)의 사용자 얼굴과 일치하면, 프로세서(330)는 제 1 외부 장치(121)의 식별 정보에 대응하여, 영상을 더 저장할 수 있다.For example, when an image is received from the first
마지막으로, 프로세서(330)는 421 동작에서 외부 장치(120: 121, 123)들 사이에서 영상을 공유시킬 수 있다. 이 때 프로세서(330)는 통신부(310)를 통해 외부 장치(120: 121, 123)들 중 적어도 다른 하나로 영상을 전송할 수 있다. 한 실시예에 따르면, 제 1 외부 장치(121)로부터 영상이 수신된 경우, 프로세서(330)는 제 2 외부 장치(123)로 영상을 전송할 수 있다. 한편, 제 2 외부 장치(123)로부터 영상이 수신된 경우, 프로세서(330)는 제 1 외부 장치(121)로 영상을 전송할 수 있다. Finally, the
도 7은 도 4에서 영상 공유 동작의 순서도를 도시한다. FIG. 7 shows a flowchart of the image sharing operation in FIG.
도 7을 참조하면, 프로세서(330)는 711 동작에서 영상 내 얼굴에 기반하여, 외부 장치(120: 121, 123)들 중 어느 하나의 접속 정보로부터 외부 장치(120: 121, 123)들 중 적어도 다른 하나의 식별 정보를 검출할 수 있다. 예를 들면, 외부 장치(120: 121, 123)들 중 적어도 다른 하나의 사용자 얼굴과 영상 내 얼굴이 일치하면, 프로세서(330)는 외부 장치(120: 121, 123)들 중 어느 하나의 접속 정보에서, 외부 장치(120: 121, 123)들 중 적어도 다른 하나의 식별 정보를 검출할 수 있다. 그리고 프로세서(330)는 713 동작에서 외부 장치(120: 121, 123)들 중 적어도 다른 하나의 식별 정보를 이용하여, 영상을 전송할 수 있다. 이 후 프로세서(330)는 도 4로 리턴할 수 있다.Referring to FIG. 7, the
예를 들면, 제 1 외부 장치(121)로부터 영상이 수신된 경우, 프로세서(330)는 영상 내 얼굴에 기반하여, 제 1 외부 장치(121)의 접속 정보로부터 제 2 외부 장치(123)의 식별 정보를 검출할 수 있다. 즉 영상 내 얼굴이 제 2 외부 장치(123)의 사용자 얼굴과 일치하면, 프로세서(330)는 제 1 외부 장치(121)의 접속 정보로부터 제 2 외부 장치(123)의 식별 정보를 검출할 수 있다. 그리고 프로세서(330)는 제 2 외부 장치(123)의 식별 정보를 이용하여, 영상을 전송할 수 있다. 이와 마찬가지로, 제 2 외부 장치(123)로부터 영상이 수신된 경우, 프로세서(330)는 영상 내 얼굴에 기반하여, 제 2 외부 장치(123)의 접속 정보로부터 제 1 외부 장치(121)의 식별 정보를 검출할 수 있다. 즉 영상 내 얼굴이 제 1 외부 장치(121)의 사용자 얼굴과 일치하면, 프로세서(330)는 제 2 외부 장치(123)의 접속 정보로부터 제 1 외부 장치(121)의 식별 정보를 검출할 수 있다. 또한 프로세서(330)는 제 1 외부 장치(121)의 식별 정보를 이용하여, 영상을 전송할 수 있다. For example, when an image is received from the first
이를 통해, 다양한 실시예들에 따른 전자 장치(110)의 동작 방법이 종료될 수 있다. Thereby, the method of operation of the
다양한 실시예들에 따르면, 전자 장치(110)는 외부 장치(120: 121, 123)들 사이에서 영상을 공유시킬 수 있다. 즉 전자 장치(110)는 영상에서 얼굴을 인식함으로써, 외부 장치(120: 121, 123)들 중 적어도 어느 하나를 결정하고, 영상을 전송할 수 있다. 이로 인하여, 전자 장치(110)의 이용 효율성이 향상될 수 있다. According to various embodiments, the
한편, 앞서 설명된 본 발명의 다양한 실시예에 따른 방법들은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, the methods according to various embodiments of the present invention described above can be implemented in a form of a program readable by various computer means and recorded in a computer-readable recording medium. Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. For example, the recording medium may be a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical medium such as a CD-ROM or a DVD, a magneto-optical medium such as a floppy disk magneto-optical media, and hardware devices that are specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions may include machine language such as those produced by a compiler, as well as high-level languages that may be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. While the present invention has been described with reference to several preferred embodiments, these embodiments are illustrative and not restrictive. It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit of the invention and the scope of the appended claims.
Claims (7)
제 1 외부 장치와 제 2 외부 장치를 등록하는 동작;
상기 제 1 외부 장치로부터 영상을 수신하는 동작;
상기 영상에서 적어도 하나의 얼굴을 인식하는 동작; 및
상기 인식된 얼굴에 기반하여, 상기 제 2 외부 장치에 상기 영상을 전송하는 동작을 포함하는 방법. A method of operating an electronic device,
Registering the first external device and the second external device;
Receiving an image from the first external device;
Recognizing at least one face in the image; And
And transmitting the image to the second external device based on the recognized face.
상기 제 1 외부 장치에 대응하여, 상기 제 1 외부 장치의 사용자 얼굴과 상기 제 2 외부 장치를 등록하는 동작;
상기 제 2 외부 장치에 대응하여, 상기 제 2 외부 장치의 사용자 얼굴과 상기 제 1 외부 장치를 등록하는 동작; 및
상기 제 1 외부 장치와 제 2 외부 장치를 상호에 매핑하는 동작을 포함하는 방법. 2. The method according to claim 1,
Registering the user's face of the first external device and the second external device corresponding to the first external device;
Registering the user's face of the second external device and the first external device corresponding to the second external device; And
And mapping the first external device and the second external device to each other.
상기 인식된 얼굴이 상기 제 2 외부 장치의 사용자 얼굴과 일치하면, 상기 제 2 외부 장치에 상기 영상을 전송하는 동작을 포함하는 방법. 3. The method of claim 2,
And transmitting the image to the second external device if the recognized face matches the user's face of the second external device.
메모리;
다수개의 외부 장치들과 통신하도록 구성된 통신부; 및
상기 메모리에 상기 외부 장치들을 등록하도록 구성된 프로세서를 포함하며,
상기 프로세서는,
제 1 외부 장치로부터 영상을 수신하고,
상기 영상에서 적어도 하나의 얼굴을 인식하고,
상기 인식된 얼굴에 기반하여, 제 2 외부 장치에 상기 영상을 전송하도록 더 구성된 전자 장치. In an electronic device,
Memory;
A communication unit configured to communicate with a plurality of external devices; And
And a processor configured to register the external devices in the memory,
The processor comprising:
Receiving an image from the first external device,
Recognizing at least one face in the image,
And to transmit the image to a second external device based on the recognized face.
상기 제 1 외부 장치에 대응하여, 상기 제 1 외부 장치의 사용자 얼굴과 상기 제 2 외부 장치를 등록하고,
상기 제 2 외부 장치에 대응하여, 상기 제 2 외부 장치의 사용자 얼굴과 상기 제 1 외부 장치를 등록하고,
상기 제 1 외부 장치와 제 2 외부 장치를 상호에 매핑하도록 더 구성된 전자 장치.5. The apparatus of claim 4,
Registering the user's face of the first external device and the second external device corresponding to the first external device,
Registering the user's face of the second external device and the first external device corresponding to the second external device,
And to map the first external device and the second external device to each other.
상기 인식된 얼굴이 상기 제 2 외부 장치의 사용자 얼굴과 일치하면, 상기 제 2 외부 장치에 상기 영상을 전송하도록 더 구성된 전자 장치. 6. The apparatus of claim 5,
And to transmit the image to the second external device if the recognized face matches the user's face of the second external device.
상기 외부 장치들을 등록하고, 상기 외부 장치들 사이에서 영상을 공유시키는 전자 장치를 포함하며,
상기 전자 장치는,
제 1 외부 장치로부터 영상을 수신하고,
상기 영상에서 적어도 하나의 얼굴을 인식하고,
상기 인식된 얼굴에 기반하여, 제 2 외부 장치에 상기 영상을 전송하도록 구성된 시스템. A plurality of external devices; And
An electronic device for registering the external devices and sharing an image among the external devices,
The electronic device includes:
Receiving an image from the first external device,
Recognizing at least one face in the image,
And transmit the image to a second external device based on the recognized face.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160143595A KR101858359B1 (en) | 2016-10-31 | 2016-10-31 | Electronic apparatus for sharing picture and operating method thereof, and system having the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160143595A KR101858359B1 (en) | 2016-10-31 | 2016-10-31 | Electronic apparatus for sharing picture and operating method thereof, and system having the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180047483A true KR20180047483A (en) | 2018-05-10 |
KR101858359B1 KR101858359B1 (en) | 2018-06-28 |
Family
ID=62184473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160143595A KR101858359B1 (en) | 2016-10-31 | 2016-10-31 | Electronic apparatus for sharing picture and operating method thereof, and system having the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101858359B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008186330A (en) * | 2007-01-31 | 2008-08-14 | Nec Corp | Use authorization managing device, content sharing system, content sharing method and content sharing program |
JP2014219762A (en) * | 2013-05-02 | 2014-11-20 | 株式会社リコー | Data sharing system, data sharing method, and information processing device |
KR20150132266A (en) * | 2013-03-15 | 2015-11-25 | 퀄컴 인코포레이티드 | Method and apparatus for requesting and providing access to information associated with an image |
-
2016
- 2016-10-31 KR KR1020160143595A patent/KR101858359B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008186330A (en) * | 2007-01-31 | 2008-08-14 | Nec Corp | Use authorization managing device, content sharing system, content sharing method and content sharing program |
KR20150132266A (en) * | 2013-03-15 | 2015-11-25 | 퀄컴 인코포레이티드 | Method and apparatus for requesting and providing access to information associated with an image |
JP2014219762A (en) * | 2013-05-02 | 2014-11-20 | 株式会社リコー | Data sharing system, data sharing method, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
KR101858359B1 (en) | 2018-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10520329B2 (en) | Method for providing parking location information of vehicle and electronic device thereof | |
US10726264B2 (en) | Object-based localization | |
CN108875833B (en) | Neural network training method, face recognition method and device | |
KR102606785B1 (en) | Systems and methods for simultaneous localization and mapping | |
KR102063037B1 (en) | Identity authentication method, terminal equipment and computer readable storage medium | |
US10068373B2 (en) | Electronic device for providing map information | |
CN108665373B (en) | Interactive processing method and device for vehicle loss assessment, processing equipment and client | |
US8442307B1 (en) | Appearance augmented 3-D point clouds for trajectory and camera localization | |
US10482346B2 (en) | Electronic device for processing image and method for controlling the same | |
US11238272B2 (en) | Method and apparatus for detecting face image | |
US11622098B2 (en) | Electronic device, and method for displaying three-dimensional image thereof | |
Xu et al. | Sensor-assisted multi-view face recognition system on smart glass | |
CN109145680A (en) | A kind of method, apparatus, equipment and computer storage medium obtaining obstacle information | |
KR102636243B1 (en) | Method for processing image and electronic device thereof | |
KR20160062294A (en) | Map service providing apparatus and method | |
JP2020518051A (en) | Face posture detection method, device and storage medium | |
US11126827B2 (en) | Method and system for image identification | |
KR20180013277A (en) | Electronic apparatus for displaying graphic object and computer readable recording medium | |
US10660062B1 (en) | Indoor positioning | |
US11423168B2 (en) | Electronic apparatus and method of transforming content thereof | |
WO2021051547A1 (en) | Violent behavior detection method and system | |
KR102223308B1 (en) | Method for image processing and electronic device implementing the same | |
US20140232748A1 (en) | Device, method and computer readable recording medium for operating the same | |
JP2015511343A (en) | User recognition method and system | |
US20180032793A1 (en) | Apparatus and method for recognizing objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |