KR20140106226A - 이미지를 관리하는 방법 및 그 전자 장치 - Google Patents

이미지를 관리하는 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20140106226A
KR20140106226A KR1020130020499A KR20130020499A KR20140106226A KR 20140106226 A KR20140106226 A KR 20140106226A KR 1020130020499 A KR1020130020499 A KR 1020130020499A KR 20130020499 A KR20130020499 A KR 20130020499A KR 20140106226 A KR20140106226 A KR 20140106226A
Authority
KR
South Korea
Prior art keywords
image
electronic device
user
face
image sensor
Prior art date
Application number
KR1020130020499A
Other languages
English (en)
Other versions
KR102031283B1 (ko
Inventor
김문수
최홍석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130020499A priority Critical patent/KR102031283B1/ko
Publication of KR20140106226A publication Critical patent/KR20140106226A/ko
Application granted granted Critical
Publication of KR102031283B1 publication Critical patent/KR102031283B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 이미지를 관리하기 위한 방법 및 그 전자 장치에 관한 것으로서, 전자 장치의 이미지 관리 방법은, 제 1 이미지 센서 및 제 2 이미지 센서를 통해 제 1 이미지 및 제 2 이미지를 획득하는 동작과, 상기 제 2 이미지로부터 사용자 얼굴을 인식하는 동작과, 상기 인식된 얼굴을 기준으로 상기 제 1 이미지를 저장하는 동작을 포함하여, 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 획득된 이미지를 간단하게 저장하고 정렬할 수 있다.

Description

이미지를 관리하는 방법 및 그 전자 장치{METHOD FOR MANAGING FOR IMAGE AN ELECTRONIC DEVICE THEREOF}
본 발명은 전자 장치에 관한 것으로서, 특히 적어도 두 개의 이미지 센서가 구비된 전자 장치에서 이미지를 관리하기 위한 방법 및 장치에 관한 것이다.
최근 출시되는 스마트폰 및 태블릿 PC(Personal Computer) 등과 같은 대부분의 전자 장치에는 사진 촬영을 위한 카메라가 구비되어 있다. 특히, 점차 카메라의 기능이 중요해짐에 따라, 전자 장치의 전/후면 각각에 카메라가 구비된 전자 장치가 제공되고 있다.
일반적으로, 전자 장치의 전면에 구비된 카메라와 후면에 구비된 카메라는 서로 다른 용도로 사용된다. 예를 들어, 전자 장치의 전면에 구비된 카메라는 사용자 스스로를 촬영하기 위한 용도로 사용되고, 전자 장치의 후면에 구비된 카메라는 사용자를 제외한 주면 사물, 풍경 혹은 인물을 촬영하는 용도로 사용된다. 특히, 최근에는 전/후면 카메라를 동시에 구동시킴으로써, 전/후면 카메라를 동시에 활용할 수 있는 기술이 제공되고 있다. 예를 들어, 전자 장치의 사용자는 전자 장치에 구비된 전/후면 카메라를 모두 구동시킬 수 있고, 구동된 전/후면 카메라를 이용하여 동시에 서로 다른 이미지를 촬영할 수도 있다.
하지만, 전자 장치의 전/후면에 구비된 카메라를 이용하여 동시에 두 개의 이미지를 촬영하는 경우, 전자 장치는 동시에 촬영된 이미지를 어떤 기준에 따라 저장하고 정렬할 것인지에 대한 구체적인 방안이 마련되어있지 않은 실정이다. 예를 들어, 전/후면 카메라를 통해 획득된 이미지를 저장하는 경우, 전자 장치는 획득된 두 개의 이미지를 저장한 후, 저장된 이미지를 사용자 제어에 따라 다시 한번 정렬해야 하는 불편함이 존재한다.
이에 따라, 사용자 편의를 위해 전자 장치에서 전/후면 카메라를 획득된 이미지를 간단하게 저장하고 관리하는 방법이 제공될 필요가 있다.
따라서, 본 발명의 실시 예는 전자 장치에서 이미지를 관리하기 위한 방법 및 장치를 제공함에 있다.
본 발명의 다른 실시 예는 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 이미지를 사용자별로 저장 및 관리하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 실시 예는 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 두 개의 이미지가 합성된 경우, 합성된 이미지를 제 2 이미지에 포함된 얼굴 정보를 기준으로 저장 및 관리하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 실시 예는 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 두 개의 이미지 중에서 제 2 이미지를 제 1 이미지의 메타 데이터에 저장하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 실시 예는 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 두 개의 이미지 중에서 제 2 이미지의 얼굴 정보를 기준으로 제 1 이미지를 저장 및 관리하는 방법 및 장치를 제공함에 있다.
본 발명의 실시 예에 따르면, 전자 장치에서 이미지를 관리하기 위한 방법은 제 1 이미지 센서 및 제 2 이미지 센서를 통해 제 1 이미지 및 제 2 이미지를 획득하는 동작과, 상기 제 2 이미지로부터 사용자 얼굴을 인식하는 동작과, 상기 인식된 얼굴을 기준으로 상기 제 1 이미지를 저장하는 동작을 포함한다.
본 발명의 실시 예에 따르면, 전자 장치에서 이미지를 관리하기 위한 장치는 하나 이상의 프로세서; 터치 감지 디스플레이; 적어도 두 개의 이미지 센서; 메모리; 및 상기 메모리에 저장되어 있으며, 상기 하나 이상의 프로세서에 의하여 실행되도록 구성되는 하나 이상의 프로그램을 포함하는 것으로서, 상기 프로그램은 제 1 이미지 센서 및 제 2 이미지 센서를 통해 제 1 이미지 및 제 2 이미지를 획득하고, 상기 제 2 이미지로부터 사용자 얼굴을 인식한 후, 상기 인식된 얼굴을 기준으로 상기 제 1 이미지를 저장하는 명령어를 포함한다.
본 발명에서는 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 제 1 이미지 및 제 2 이미지를 획득하고, 제 2 이미지 센서를 통해 획득된 제 2 이미지에서 사용자의 얼굴을 인식하여, 인식된 사용자의 얼굴을 기준으로 제 1 이미지 혹은 합성된 이미지를 정렬 및 저장함으로써, 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 획득된 이미지를 간단하게 저장하고 정렬할 수 있다.
도 1a는 본 발명의 실시 예에 따라 이미지를 관리하는 전자 장치의 블록 구성을 도시하는 도면,
도 1b는 본 발명의 실시 예에 따라 이미지를 관리하는 프로세서의 블록 구성을 도시하는 도면,
도 2a는 본 발명의 실시 예에 따른 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 이미지를 저장하는 절차를 도시하는 도면,
도 2b는 본 발명의 실시 예에 따른 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 이미지를 저장하는 수단을 도시하는 도면,
도 3은 본 발명의 실시 예에 따른 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 이미지를 사용자별로 저장하는 절차를 도시하는 도면,
도 4는 본 발명의 실시 예에 따른 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 두 개의 이미지를 합성하는 예를 도시하는 도면,
도 5는 본 발명의 일 실시 예에 따른 전자 장치에서 PIP 모드인 경우, 이미지를 저장하는 예를 도시하는 도면 및
도 6는 본 발명의 다른 실시 예에 따른 전자 장치에서 PIP 모드가 아닌 경우, 이미지를 저장하는 예를 도시하는 도면.
이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하 설명에서 전자 장치는 두 개 이상의 이미지 센서가 구비된 이동통신 단말기, 스마트폰(Smart Phone), 태블릿 PC(Tablet Personal Computer), 디지털 카메라, MP3, 네비게이션, 랩탑(Laptop), 넷북(Netbook), 컴퓨터(Computer) 혹은 텔레비전(Television) 등을 포함한다.
도 1a는 본 발명의 실시 예에 따라 이미지를 관리하는 전자 장치의 블록 구성을 도시하고 있다.
도 1a를 참조하면, 전자 장치(100)는 메모리(110), 프로세서(120), 터치 스크린(Touch Screen)(130), 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 포함한다. 메모리(110) 혹은 프로세서(120) 각각은 다수 개의 메모리(110) 혹은 다수 개의 프로세서(120)로 구성될 수 있다.
메모리(110)는 데이터 저장부(111), 운영 체제 프로그램(112), 애플리케이션 프로그램(113), 그래픽 사용자 인터페이스 프로그램(114), 이미지 센서 프로그램(115) 혹은 이미지 정렬 프로그램(116) 등을 포함하여 구성할 수 있다. 또한, 소프트웨어 구성요소인 프로그램은 명령어들의 집합으로 표현할 수 있으므로, 프로그램은 명령어 세트(instruction set)라고 표현하기도 한다. 프로그램은 또한 모듈로 표현하기도 한다.
메모리(110)는 본 발명의 실시 예를 수행하는 명령어들을 포함하는 하나 이상의 프로그램들을 저장할 수 있다.
데이터 저장부(111)는 메모리(110)에 저장된 프로그램에 대응하는 기능을 수행하는 중에 발생되는 데이터를 저장할 수 있다. 본 발명의 실시 예에 따른 데이터 저장부(111)는 전자 장치(100)의 제 1 이미지 센서(140)로부터 획득된 제 1 이미지 및 제 2 이미지 센서(150)로부터 획득된 제 2 이미지를 각각 저장하거나, 제 1 이미지와 제 2 이미지를 합성시킨 합성 이미지를 저장할 수 있다. 예를 들어, 데이터 저장부(111)는 PIP(Picture In Picture) 모드인 경우, 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 두 개의 이미지가 합성된 이미지를 저장할 수 있다. 이때, 합성된 이미지는 제 2 이미지가 제 1 이미지 내에 포함된 형태로 합성된 이미지일 수 있다. 이하 본 발명의 실시 예에서는 설명의 편의를 위해, 제 1 이미지 센서(140)로부터 획득된 이미지를 제 1 이미지라 칭하고, 제 2 이미지 센서(150)로부터 획득된 이미지를 제 2 이미지라 칭한다.
더하여, 데이터 저장부(111)는 제 1 이미지 및 제 2 이미지가 합성된 경우, 제 1 이미지에 제 2 이미지가 합성된 위치 정보를 합성된 이미지의 메타 데이터에 저장할 수 있다.
더하여, 데이터 저장부(111)는 PIP 모드가 아닌 경우, 제 2 이미지를 제 1 이미지의 메타 데이터에 저장할 수 있다. 이때, 데이터 저장부(111)는 제 2 이미지를 이미지 형태로 제 1 이미지의 메타 데이터에 저장할 수 있다. 다른 실시 예로 데이터 저장부(111)는 제 2 이미지 내에 포함된 사용자 얼굴 인식 결과를 나타내는 얼굴 인식 정보를 제 1 이미지의 메타 데이터에 저장할 수도 있다.
더하여, 데이터 저장부(111)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 제 1 이미지 혹은 합성된 이미지를 제 2 이미지의 사용자 얼굴 정보를 기준으로 분류하여 저장할 수 있다. 즉, 데이터 저장부(111)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 제 1 이미지 및 제 2 이미지가 획득된 경우, 제 2 이미지의 사용자 얼굴 정보를 기준으로 제 1 이미지를 저장할 수 있다. 예를 들어, 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 첫 번째로 자연 풍경이 포함된 제 1 이미지와 사용자 A가 포함된 제 2 이미지가 함께 획득되고, 두 번째로 건물이 포함된 제 1 이미지와 사용자 B가 포함된 제 2 이미지가 함께 획득되고, 세 번째로 차량이 포함된 제 1 이미지와 사용자 A가 포함된 제 2 이미지가 함께 획득된 경우를 가정한다. 이때, 데이터 저장부(111)는 사용자 A의 이미지와 함께 획득된 자연 풍경 이미지 및 차량 이미지를 사용자 A와 연관된 이미지로 분류하여 저장하고, 사용자 B의 이미지와 함께 획득된 건물 이미지를 사용자 B와 연관된 이미지로 분류하여 저장할 수 있다. 또한, 데이터 저장부(111)는 사용자 A의 이미지와 함께 획득된 자연 풍경 이미지 및 차량 이미지를 제 1 폴더에 저장하고, 사용자 B의 이미지와 함께 획득된 차량 이미지를 제 2 폴더에 저장할 수 있다.
또한, 데이터 저장부(111)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 제 1 이미지 및 제 2 이미지가 합성된 경우, 합성된 이미지를 제 2 이미지의 사용자 얼굴 정보를 기준으로 저장할 수 있다.
더하여, 데이터 저장부(111)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 제 1 이미지 및 제 2 이미지가 합성된 경우, 합성된 이미지를 합성된 이미지의 메타 데이터에 기록된 사용자 얼굴 정보를 기준으로 분류하여 저장할 수 있다. 또 다른 실시 예로, 데이터 저장부(111)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 제 1 이미지를 제 1 이미지의 메타 데이터에 기록된 제 2 이미지 혹은 제 2 이미지의 사용자 얼굴 정보를 기준으로 분류하여 저장할 수 있다.
운영 체제 프로그램(112)(예를 들어, WINDOWS, LINUX, 다윈(Darwin), RTXC, UNIX, OS X, 또는 VxWorks와 같은 내장 운영 체제)은 일반적인 시스템 작동(system operation)을 제어하는 여러 가지의 소프트웨어 구성요소를 포함하여 구성할 수 있다. 예를 들어, 일반적인 시스템 작동의 제어는, 메모리 관리 혹은 제어, 저장 하드웨어(장치) 제어 혹은 관리, 전력 제어 혹은 관리 등을 의미할 수 있다. 운영 체제 프로그램(112)은 여러 가지의 하드웨어(장치)와 소프트웨어 구성요소(프로그램) 사이의 통신을 원활하게 하는 기능을 수행할 수 있다.
애플리케이션 프로그램(113)은 브라우저(browser), 이메일(email), 메시지(message), 워드 프로세싱(word processing), 어드레스 북(address book), 위젯(widget), 디지털 저작권 관리(DRM, Digital Right Management), 음성 인식(voice recognition), 음성 복제, 위치 결정 기능(position determining function), 위치기반 서비스(location based service) 혹은 전화 애플리케이션을 포함하여 구성될 수 있다.
그래픽 사용자 인터페이스 프로그램(114)은 사용자와 전자 장치(100) 사이의 그래픽을 이용한 사용자 인터페이스를 제공하는 적어도 하나의 소프트웨어 구성요소를 포함하여 구성될 수 있다. 즉, 그래픽 사용자 인터페이스 프로그램(114)은 터치 스크린(130)에 사용자 인터페이스 정보를 표시하기 위한 적어도 하나의 소프트웨어 구성요소를 포함하여 구성될 수 있다. 본 발명에 따라 그래픽 사용자 인터페이스 프로그램(114)은 PIP 모드인 경우, 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 두 개의 이미지를 합성하여, 합성된 이미지를 디스플레이하기 위한 명령어를 포함할 수 있다. 예를 들어, PIP 모드에서 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 동시에 이미지를 촬영하는 경우, 그래픽 사용자 인터페이스 프로그램(114)은 제 1 이미지 센서(140)를 통해 획득된 제 1 이미지와 제 2 이미지 센서(150)를 통해 획득된 제 2 이미지를 합성하여, 합성된 이미지를 디스플레이할 수 있다. 이때, 제 1 이미지와 제 2 이미지는 PIP 모드에 대해 미리 설정된 방식으로 합성될 수 있다. 예를 들어, PIP 모드에 대해 미리 설정된 방식에 따라 제 1 이미지 내의 미리 설정된 영역에 제 2 이미지가 합성될 수 있다.
더하여, 그래픽 사용자 인터페이스 프로그램(114)은 PIP 모드가 아닌 경우, 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 두 개의 이미지들 중에서, 제 1 이미지 센서(140)를 통해 획득된 이미지만을 디스플레이하기 위한 명령어를 포함할 수 있다. 예를 들어, PIP 모드가 아닌 상태에서 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 동시에 이미지를 촬영하는 경우, 그래픽 사용자 인터페이스 프로그램(114)은 제 2 이미지 센서(150)를 통해 획득된 제 2 이미지는 디스플레이하지 않고, 제 1 이미지 센서(140)를 통해 획득된 제 1 이미지만을 디스플레이할 수 있다.
더하여, 그래픽 사용자 인터페이스 프로그램(114)은 이미지 정렬 이벤트 발생 시, 저장된 이미지를 사용자별로 디스플레이하기 위한 명령어를 포함할 수 있다. 자세히 말해, 그래픽 사용자 인터페이스 프로그램(114)은 이미지 정렬 이벤트 발생 시, 저장된 이미지들 중에서, 동일한 사용자에 의해 획득된 이미지들을 사용자별로 정렬하기 위한 명령어를 포함할 수 있다. 예를 들어, 그래픽 사용자 인터페이스 프로그램(114)은 갤러리 애플리케이션 실행 시, 저장된 이미지들 중에서, 제 1 사용자에 의해 획득된 이미지들을 연관시켜 디스플레이하고, 제 2 사용자에 의해 획득된 이미지들을 연관시켜 디스플레이할 수 있다. 다른 예를 들어, 그래픽 사용자 인터페이스 프로그램(114)은 갤러리 애플리케이션 실행 시, 제 1 사용자에 의해 획득된 이미지들은 제 1 폴더에 디스플레이하고, 제 2 사용자에 의해 획득된 이미지들은 제 2 폴더에 디스플레이할 수 있다.
이미지 센서 프로그램(115)은 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 다시 말해, 이미지 센서 프로그램(115)은 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 촬영 이벤트 감지 시, 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 이때, 제 1 이미지 센서(140)는 전자 장치(100)의 제 1 면에 구비된 이미지 센서일 수 있으며, 제 2 이미지 센서(150)는 전자 장치(100)의 제 2 면에 구비된 이미지 센서일 수 있다. 본 발명의 실시 예에 따른 이미지 센서 프로그램(115)은 제 2 이미지를 분석하여 제 1 이미지 및 제 2 이미지를 촬영한 사용자를 식별하고, 식별된 사용자에 따라 제 1 이미지 혹은 제 1 이미지 및 제 2 이미지의 합성 이미지를 저장 혹은 정렬하기 위한 명령어를 포함할 수 있다.
이미지 센서 프로그램(115)은 PIP(Picture In Picture) 모드인 경우, 제 1 이미지와 제 2 이미지를 합성할 수 있다. 다시 말해, PIP 모드인 경우, 이미지 센서 프로그램(115)은 제 2 이미지 센서(150)를 통해 획득된 제 2 이미지를, 제 1 이미지 센서(140)를 통해 획득된 제 1 이미지에 합성할 수 있다. 예를 들어, 이미지 센서 프로그램(115)은 PIP 모드인 경우, 제 2 이미지 센서(150)를 통해 획득된 인물 이미지를, 제 1 이미지 센서(140)를 통해 획득된 배경 이미지에 합성할 수 있다.
더하여, 제 1 이미지 및 제 2 이미지가 합성된 경우, 이미지 센서 프로그램(115)은 합성된 이미지에서 제 2 이미지가 합성된 위치를 확인한 후, 확인된 위치에 대한 정보를 합성된 이미지의 메타 데이터에 저장할 수 있다. 여기서, 제 2 이미지가 합성된 위치에 대한 정보는 제 2 이미지가 합성된 위치를 나타내는 정보일 수 있다. 본 발명의 실시 예에서는 제 1 이미지 및 제 2 이미지가 합성된 후에, 제 2 이미지의 위치에 대한 정보를 메타 데이터에 저장하는 방법에 대해 설명하였으나, 본 발명은 이에 제한되지 않고, 제 1 이미지 및 제 2 이미지가 합성되기 이전에 제 2 이미지의 위치에 대한 정보를 메타 데이터에 저장할 수도 있다.
더하여, 이미지 센서 프로그램(115)은 합성된 이미지에서 제 2 이미지가 합성된 위치를 확인하여, 확인된 위치에 사용자 얼굴이 존재하는지 여부를 확인할 수 있다. 만약, 확인된 위치에 사용자 얼굴이 존재하는 경우, 이미지 센서 프로그램(115)은 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 자세히 말해, 이미지 센서 프로그램(115)은 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 제 1 이미지 및 제 2 이미지가 합성된 경우, 합성된 이미지에서 제 2 이미지가 합성된 위치를 확인하여, 제 2 이미지에 존재하는 사용자의 얼굴을 인식할 수 있다. 이때, 이미지 센서 프로그램(115)은 공지된 영상 인식 알고리즘 혹은 이미지 인식 알고리즘들을 이용하여 이미지에서 사용자 얼굴을 인식할 수 있다.
더하여, 이미지 센서 프로그램(115)은 합성된 이미지를 인식된 얼굴 정보를 기준으로 사용자별로 분류하여 저장할 수 있다. 예를 들어, 이미지 센서 프로그램(115)은 합성된 이미지들을 인식된 얼굴 정보를 기준으로 제 1 사용자의 얼굴 정보가 포함된 이미지들과 제 2 사용자의 얼굴 정보가 포함된 이미지들로 분류하여 제 1 사용자의 얼굴 정보가 포함된 이미지들을 연관시켜 저장하고, 제 2 사용자의 얼굴 정보가 포함된 이미지들을 연관시켜 저장할 수 있다. 다른 예를 들어, 이미지 센서 프로그램(115)은 합성된 이미지들을 인식된 얼굴 정보를 기준으로, 제 1 사용자의 얼굴 정보가 포함된 이미지들과 제 2 사용자의 얼굴 정보가 포함된 이미지들로 분류하여, 제 1 사용자의 얼굴 정보가 포함된 이미지들을 제 1 폴더에 저장하고, 제 2 사용자의 얼굴 정보가 포함된 이미지들을 제 2 폴더에 저장할 수 있다.
이미지 센서 프로그램(115)은 PIP(Picture In Picture) 모드가 아닌 경우, 제 2 이미지에 사용자 얼굴이 존재하는지 여부를 확인할 수 있다. 만약, 제 2 이미지에 사용자 얼굴이 존재하는 경우, 이미지 센서 프로그램(115)은 제 2 이미지를 제 1 이미지의 메타 데이터에 저장할 수 있다. 이때, 이미지 센서 프로그램(115)은 제 2 이미지를 이미지 형태로 제 1 이미지의 메타 데이터에 저장할 수 있다.
더하여, 이미지 센서 프로그램(115)은 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 다시 말해, 이미지 센서 프로그램(115)은 제 1 이미지의 메타 데이터에 저장된 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 이때, 이미지 센서 프로그램(115)은 공지된 영상 인식 알고리즘 및 이미지 인식 알고리즘들을 이용하여 이미지에서 사용자 얼굴을 인식할 수 있다.
더하여, 이미지 센서 프로그램(115)은 인식된 얼굴 정보를 기준으로 제 1 이미지를 사용자별로 저장할 수 있다. 예를 들어, 이미지 센서 프로그램(115)은 제 2 이미지 내에 포함된 사용자 얼굴 정보를 바탕으로 제 1 이미지 및 제 2 이미지를 촬영한 사용자를 식별하고, 제 1 이미지를 식별된 사용자가 촬영한 이미지로 분류하여 저장할 수 있다. 다른 예를 들어, 이미지 센서 프로그램(115)은 제 1 이미지의 메타 데이터에 제 1 사용자의 얼굴이 포함된 제 2 이미지가 저장된 경우, 제 1 이미지를 제 1 사용자가 촬영한 이미지로 분류하여 저장하고, 제 1 이미지의 메타 데이터에 제 2 사용자의 얼굴이 포함된 제 2 이미지가 저장된 경우, 제 1 이미지를 제 2 사용자가 촬영한 이미지로 분류하여 저장할 수 있다. 또 다른 예를 들어, 이미지 센서 프로그램(115)은 제 1 이미지의 메타 데이터에 제 1 사용자의 얼굴이 포함된 제 2 이미지가 저장된 경우, 제 1 이미지를 제 1 사용자가 촬영한 이미지로 분류하여 제 1 폴더에 저장하고, 제 1 이미지의 메타 데이터에 제 2 사용자의 얼굴이 포함된 제 2 이미지가 저장된 경우, 제 1 이미지를 제 2 사용자가 촬영한 이미지로 분류하여 제 2 폴더에 저장할 수 있다.
이미지 정렬 프로그램(116)은 이미지 디스플레이 이벤트 발생 시, 이미지를 사용자별로 정렬하여 디스플레이할 수 있다. 자세히 말해, 이미지 정렬 프로그램(116)은 이미지 디스플레이 이벤트 발생 시, 제 1 이미지의 메타 데이터에 기록된 제 2 이미지의 사용자 얼굴 정보를 인식하여, 인식된 얼굴 정보를 기준으로 이미지를 정렬할 수 있다. 예를 들어, 이미지 정렬 프로그램(116)은 갤러리 애플리케이션 실행 시, 각 이미지의 메타 데이터에 제 2 이미지가 합성된 위치 정보 혹은 사용자 얼굴이 합성된 위치 정보가 기록된 경우, 위치 정보가 나타내는 이미지의 영역을 분석하여 사용자 얼굴을 인식하고, 인식된 결과를 바탕으로 해당 이미지를 촬영한 사용자를 식별한 후, 촬영 사용자별로 이미지를 정렬할 수 있다. 다른 예로 이미지 정렬 프로그램(116)은 갤러리 애플리케이션 실행 시, 각 이미지의 메타 데이터에 사용자 얼굴이 포함된 제 2 이미지가 기록된 경우, 제 2 이미지를 분석하여 사용자 얼굴을 인식하고, 인식된 결과를 바탕으로 해당 이미지를 촬영한 사용자를 식별한 후, 촬영 사용자별로 이미지를 정렬할 수 있다.
프로세서(120)는 도시되지는 않았지만 적어도 하나의 프로세서 혹은 주변 인터페이스로 구성될 수 있다. 또한, 프로세서(120)는 메모리(110)에 저장되어 있는 특정한 프로그램(명령어 세트)을 실행하여 그 프로그램에 대응하는 특정한 다수의 기능을 수행할 수 있다.
터치 스크린(130)은 터치 감지 디스플레이(touch-sensitive display)로서, 전자 장치(100)와 사용자 사이에 터치 입력/출력을 위한 인터페이스를 제공할 수 있다. 터치 스크린(130)은 터치 센서(미도시)를 통해 터치(혹은 접촉)를 감지하고, 감지되는 터치 입력을 전자 장치(100)로 전달하고, 전자 장치(100)로부터의 출력을 사용자에게 시각적으로 제공하는 매개체일 수 있다. 즉, 터치 스크린(130)은 터치 입력에 반응하여, 사용자에게 텍스트, 그래픽 혹은 비디오를 바탕으로 하는 시각적 출력을 제공할 수 있다.
터치 스크린(130)은 사용자의 터치 입력을 감지하는 터치 감지면을 포함하여, 햅틱(haptic) 접촉, 택타일(tactile) 접촉 또는 이들의 조합 방식에 의한 사용자 터치를 입력을 감지할 수 있다. 예를 들면, 터치 스크린(130)의 터치 감지 지점은 터치 감지면에 대한 접촉에 사용된 손가락의 폭(digit)에 대응한다. 또한, 터치 스크린(130)은 터치 감지면을 통해 스타일러스(stylus) 펜(pen) 등과 같은 외부 기기에 의한 접촉을 감지할 수 있다. 검출된 접촉은, 터치스크린 상에 표시되는 사용자 인터페이스 대상(예를 들어, 소프트 키)에 대응하는 상호 작용(interaction)으로 변환할 수 있다.
터치 스크린(130)은 LCD(liquid crystal display), LED(Light Emitting Diode), LPD(light emitting polymer display), OLED(Organic Light Emitting Diode), AMOLED(Active Matrix Organic Light Emitting Diode) 또는 FLED(Flexible LED)등과 같은 다양한 디스플레이 기술을 사용할 수 있으며. 본 발명의 터치 스크린(130)은 이러한 디스플레이 기술을 이용하는 터치 스크린으로 한정되는 것은 아니다. 또한, 터치 스크린(130)은 용량형(capacitive) 검출, 저항형(resistive) 검출, 적외선형 (infrared) 검출 또는 표면 음파 검출 기술과 같은 여러 가지 터치 검출(혹은 감지(sensing)) 기술을 이용하여 터치 감지면에 대한 접촉의 시작, 접촉의 이동 또는 접촉의 중단이나 종료를 감지할 수 있다. 본 발명에 따른 터치 스크린(130)은 서버로부터 다운로드되어 자동 설치된 UI/UX를 디스플레이할 수 있다. 예를 들어, 터치 스크린(130)은 서버로부터 다운로드 되어 자동 설치된 삼성전자 테마를 디스플레이할 수 있다. 더하여, 터치 스크린(130)은 현재 결합된 악세사리가 결합된 이력이 존재하는 경우, 해당 정보를 나타내는 메시지를 디스플레이할 수 있다.
이미지 센서(140 및 150)는 사용자 제어에 따라 특정 객체의 이미지를 촬영할 수 있다. 본 발명의 실시 예에 따라 제 1 이미지 센서(140)는 전자 장치(100)의 제 1 면에 구비된 이미지 센서일 수 있으며, 제 2 이미지 센서(140)는 전자 장치(100)의 제 2 면에 구비된 이미지 센서일 수 있다. 또한, 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)는 사용자 제어에 따라 동시에 구동될 수 있으며, 동시에 촬영 기능을 수행할 수도 있다. 예를 들어, 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)는 촬영 이벤트를 감지하여, 동시에 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 이때, 제 2 이미지 센서(150)가 전자 장치(100)의 제 2 면에 구비된 이미지 센서인 경우, 제 2 이미지는 사용자를 촬영한 이미지일 수 있다. 본 발명의 실시 예에서는 전자 장치(100)에 두 개의 이미지 센서(140 및 150)가 구비된 경우를 예로 들어, 설명하였으나, 설계 방식에 따라 전자 장치(100)의 서로 다른 위치에 세 개 이상의 이미지 센서가 구비될 수도 있다.
도 1b는 본 발명의 실시 예에 따라 이미지를 관리하는 프로세서의 블록 구성을 도시하고 있다.
도 1b를 참조하면, 프로세서(120)는 이미지 센서 프로세서(122) 혹은 이미지 정렬 프로세서(124)를 포함하여 구성될 수 있다.
이미지 센서 프로세서(122)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 다시 말해, 이미지 센서 프로세서(122)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 촬영 이벤트 감지 시, 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 이때, 제 1 이미지 센서(140)는 전자 장치(100)의 제 1 면에 구비된 이미지 센서일 수 있으며, 제 2 이미지 센서(150)는 전자 장치(100)의 제 2 면에 구비된 이미지 센서일 수 있다. 본 발명의 실시 예에 따른 이미지 센서 프로세서(122)는 제 2 이미지를 분석하여 제 1 이미지 및 제 2 이미지를 촬영한 사용자를 식별하고, 식별된 사용자에 따라 제 1 이미지 혹은 제 1 이미지 및 제 2 이미지의 합성 이미지를 저장 혹은 정렬하기 위한 명령어를 포함할 수 있다.
이미지 센서 프로세서(122)는 PIP(Picture In Picture) 모드인 경우, 제 1 이미지와 제 2 이미지를 합성할 수 있다. 다시 말해, PIP 모드인 경우, 이미지 센서 프로세서(122)는 제 2 이미지 센서(150)를 통해 획득된 제 2 이미지를, 제 1 이미지 센서(140)를 통해 획득된 제 1 이미지에 합성할 수 있다. 예를 들어, 이미지 센서 프로세서(122)는 PIP 모드인 경우, 제 2 이미지 센서(150)를 통해 획득된 인물 이미지를, 제 1 이미지 센서(140)를 통해 획득된 배경 이미지에 합성할 수 있다.
더하여, 제 1 이미지 및 제 2 이미지가 합성된 경우, 이미지 센서 프로세서(122)는 합성된 이미지에서 제 2 이미지가 합성된 위치를 확인한 후, 확인된 위치에 대한 정보를 합성된 이미지의 메타 데이터에 저장할 수 있다. 여기서, 제 2 이미지가 합성된 위치에 대한 정보는 제 2 이미지가 합성된 위치를 나타내는 정보일 수 있다. 본 발명의 실시 예에서는 제 1 이미지 및 제 2 이미지가 합성된 후에, 제 2 이미지의 위치에 대한 정보를 메타 데이터에 저장하는 방법에 대해 설명하였으나, 본 발명은 이에 제한되지 않고, 제 1 이미지 및 제 2 이미지가 합성되기 이전에 제 2 이미지의 위치에 대한 정보를 메타 데이터에 저장할 수도 있다.
더하여, 이미지 센서 프로세서(122)는 합성된 이미지에서 제 2 이미지가 합성된 위치를 확인하여, 확인된 위치에 사용자 얼굴이 존재하는지 여부를 확인할 수 있다. 만약, 확인된 위치에 사용자 얼굴이 존재하는 경우, 이미지 센서 프로세서(122)는 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 자세히 말해, 이미지 센서 프로세서(122)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 제 1 이미지 및 제 2 이미지가 합성된 경우, 합성된 이미지에서 제 2 이미지가 합성된 위치를 확인하여, 제 2 이미지에 존재하는 사용자의 얼굴을 인식할 수 있다. 이때, 이미지 센서 프로세서(122)는 공지된 영상 인식 알고리즘 혹은 이미지 인식 알고리즘들을 이용하여 이미지에서 사용자 얼굴을 인식할 수 있다.
더하여, 이미지 센서 프로세서(122)는 합성된 이미지를 인식된 얼굴 정보를 기준으로 사용자별로 분류하여 저장할 수 있다. 예를 들어, 이미지 센서 프로세서(122)는 합성된 이미지들을 인식된 얼굴 정보를 기준으로 제 1 사용자의 얼굴 정보가 포함된 이미지들과 제 2 사용자의 얼굴 정보가 포함된 이미지들로 분류하여 제 1 사용자의 얼굴 정보가 포함된 이미지들을 연관시켜 저장하고, 제 2 사용자의 얼굴 정보가 포함된 이미지들을 연관시켜 저장할 수 있다. 다른 예를 들어, 이미지 센서 프로세서(122)는 합성된 이미지들을 인식된 얼굴 정보를 기준으로, 제 1 사용자의 얼굴 정보가 포함된 이미지들과 제 2 사용자의 얼굴 정보가 포함된 이미지들로 분류하여, 제 1 사용자의 얼굴 정보가 포함된 이미지들을 제 1 폴더에 저장하고, 제 2 사용자의 얼굴 정보가 포함된 이미지들을 제 2 폴더에 저장할 수 있다.
이미지 센서 프로세서(122)는 PIP(Picture In Picture) 모드가 아닌 경우, 제 2 이미지에 사용자 얼굴이 존재하는지 여부를 확인할 수 있다. 만약, 제 2 이미지에 사용자 얼굴이 존재하는 경우, 이미지 센서 프로세서(122)는 제 2 이미지를 제 1 이미지의 메타 데이터에 저장한다. 이때, 이미지 센서 프로세서(122)는 제 2 이미지를 이미지 형태로 제 1 이미지의 메타 데이터에 저장할 수 있다.
더하여, 이미지 센서 프로세서(122)는 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 다시 말해, 이미지 센서 프로세서(122)는 제 1 이미지의 메타 데이터에 저장된 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 이때, 이미지 센서 프로세서(122)는 공지된 영상 인식 알고리즘 혹은 이미지 인식 알고리즘들을 이용하여 이미지에서 사용자 얼굴을 인식할 수 있다.
더하여, 이미지 센서 프로세서(122)는 인식된 얼굴 정보를 기준으로 제 1 이미지를 사용자별로 저장할 수 있다. 예를 들어, 이미지 센서 프로세서(122)는 제 2 이미지 내에 포함된 사용자 얼굴 정보를 바탕으로 제 1 이미지 및 제 2 이미지를 촬영한 사용자를 식별하고, 제 1 이미지를 식별된 사용자가 촬영한 이미지로 분류하여 저장할 수 있다. 다른 예를 들어, 이미지 센서 프로세서(122)는 제 1 이미지의 메타 데이터에 제 1 사용자의 얼굴이 포함된 제 2 이미지가 저장된 경우, 제 1 이미지를 제 1 사용자가 촬영한 이미지로 분류하여 저장하고, 제 1 이미지의 메타 데이터에 제 2 사용자의 얼굴이 포함된 제 2 이미지가 저장된 경우, 제 1 이미지를 제 2 사용자가 촬영한 이미지로 분류하여 저장할 수 있다. 또 다른 예를 들어, 이미지 센서 프로세서(122)는 제 1 이미지의 메타 데이터에 제 1 사용자의 얼굴이 포함된 제 2 이미지가 저장된 경우, 제 1 이미지를 제 1 사용자가 촬영한 이미지로 분류하여 제 1 폴더에 저장하고, 제 1 이미지의 메타 데이터에 제 2 사용자의 얼굴이 포함된 제 2 이미지가 저장된 경우, 제 1 이미지를 제 2 사용자가 촬영한 이미지로 분류하여 제 2 폴더에 저장할 수 있다.
이미지 정렬 프로세서(124)는 이미지 디스플레이 이벤트 발생 시, 이미지를 사용자별로 정렬하여 디스플레이할 수 있다. 자세히 말해, 이미지 정렬 프로세서(124)는 이미지 디스플레이 이벤트 발생 시, 제 1 이미지의 메타 데이터에 기록된 제 2 이미지의 사용자 얼굴 정보를 인식하여, 인식된 얼굴 정보를 기준으로 이미지를 정렬할 수 있다. 예를 들어, 이미지 정렬 프로세서(124)는 갤러리 애플리케이션 실행 시, 각 이미지의 메타 데이터에 제 2 이미지가 합성된 위치 정보 혹은 사용자 얼굴이 합성된 위치 정보가 기록된 경우, 위치 정보가 나타내는 이미지의 영역을 분석하여 사용자 얼굴을 인식하고, 인식된 결과를 바탕으로 해당 이미지를 촬영한 사용자를 식별한 후, 촬영 사용자별로 이미지를 정렬할 수 있다. 다른 예로 이미지 정렬 프로세서(124)는 갤러리 애플리케이션 실행 시, 각 이미지의 메타 데이터에 사용자 얼굴이 포함된 제 2 이미지가 기록된 경우, 제 2 이미지를 분석하여 사용자 얼굴을 인식하고, 인식된 결과를 바탕으로 해당 이미지를 촬영한 사용자를 식별한 후, 촬영 사용자별로 이미지를 정렬할 수 있다.
도 2a는 본 발명의 실시 예에 따른 전자 장치(100)에서 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 이미지를 저장하는 절차를 도시하고 있다.
도 2a를 참조하면, 전자 장치(100)는 201동작에서 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 자세히 말해, 전자 장치(100)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 구동한 후, 촬영 이벤트 감지 시, 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 이때, 제 1 이미지는 제 1 이미지 센서(140)를 통해 획득된 이미지를 의미하고, 제 2 이미지는 제 2 이미지 센서(150)를 통해 획득된 이미지를 의미한다.
이후, 전자 장치(100)는 203동작에서 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 만약, PIP(Picture In Picture) 모드인 경우, 전자 장치(100)는 합성된 이미지에서 제 2 이미지가 합성된 위치 정보 혹은 사용자 얼굴이 합성된 위치 정보를 확인하고, 확인된 위치에서 사용자 얼굴을 인식할 수 있다. 반면, PIP 모드가 아닌 경우, 전자 장치(100)는 제 2 이미지를 제 1 이미지의 메타 데이터에 저장하거나 혹은 사용자의 얼굴 영역을 제 1 이미지의 메타 데이터에 저장한 후, 저장된 메타 데이터에서 사용자 얼굴을 인식할 수 있다.
이후, 전자 장치(100)는 205동작에서 인식된 얼굴을 기준으로 제 1 이미지를 저장할 수 있다. 다시 말해, 전자 장치(100)는 제 1 이미지를 인식된 얼굴을 기준으로 사용자별로 분류하여 저장할 수 있다. 예를 들어, 전자 장치(100)는 제 1 이미지들을 제 1 사용자의 얼굴 정보가 포함된 이미지들과 제 2 사용자의 얼굴 정보가 포함된 이미지들로 분류하여 제 1 사용자의 얼굴 정보가 포함된 이미지들을 제 1 폴더에 저장하고, 제 2 사용자의 얼굴 정보가 포함된 이미지들을 제 2 폴더에 저장할 수 있다. 이때, PIP 모드인 경우, 인식된 얼굴을 기준으로 저장되는 제 1 이미지는 제 2 이미지가 합성된 이미지일 수 있다.
도 2b는 본 발명의 실시 예에 따른 전자 장치(100)에서 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 획득된 이미지를 저장하는 수단을 도시하고 있다.
도 2b를 참조하면, 전자 장치(100)는 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 제 1 이미지 및 제 2 이미지를 획득하는 수단(211)을 포함하여 구성될 수 있다. 이때, 제 1 이미지 센서(140)는 전자 장치(100)의 제 1 면에 구비된 이미지 센서일 수 있으며, 제 2 이미지 센서(150)는 전자 장치(100)의 제 2 면에 구비된 이미지 센서일 수 있다.
더하여, 전자 장치(100)는 제 2 이미지로부터 사용자 얼굴을 인식하는 수단(213)을 포함하여 구성될 수 있다. 이때, 전자 장치(100)는 제 2 이미지에서 사용자의 얼굴 영역을 확인하는 수단 혹은 확인된 사용자의 얼굴 영역에서 사용자의 얼굴에 대한 정보를 추출하는 수단을 포함할 수 있다.
더하여, 전자 장치(100)는 인식된 얼굴을 기준으로 제 1 이미지를 저장하는 수단(215)을 포함하여 구성될 수 있다. 만약, PIP 모드인 경우, 전자 장치(100)는 제 2 이미지가 합성된 위치 정보 혹은 사용자의 얼굴이 합성된 위치 정보를 합성된 이미지의 메타 데이터에 저장하는 수단을 포함할 수 있다. 이때, 합성된 이미지는 제 1 이미지에 제 2 이미지가 합성된 이미지를 의미한다. 반면, PIP 모드가 아닌 경우, 전자 장치(100)는 제 2 이미지를 제 1 이미지의 메타 데이터에 저장하는 수단을 포함할 수 있다.
도 3은 본 발명의 실시 예에 따른 전자 장치에서 제 1 이미지 센서 및 제 2 이미지 센서를 통해 획득된 이미지를 사용자별로 저장하는 절차를 도시하고 있다.
도 3을 참조하면, 전자 장치(100)는 301동작에서 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통한 촬영 이벤트를 감지할 수 있다. 이때, 제 1 이미지 센서(140)는 전자 장치(100)의 제 1 면에 구비된 이미지 센서일 수 있으며, 제 2 이미지 센서(150)는 전자 장치(100)의 제 2 면에 구비된 이미지 센서일 수 있다.
이후, 전자 장치(100)는 303동작에서 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 이때, 제 1 이미지는 제 1 이미지 센서(140)를 통해 획득된 이미지를 의미하고, 제 2 이미지는 제 2 이미지 센서(150)를 통해 획득된 이미지를 의미한다. 예를 들어, 전자 장치(100)는 도 4에 도시된 바와 같이, 제 1 이미지 센서(140) 및 제 2 이미지 센서(150)를 통해 자연 풍경이 포함된 제 1 이미지와 제 1 사용자가 포함된 제 2 이미지를 함께 획득할 수 있다.
이후, 전자 장치(100)는 305동작에서 현재 모드가 PIP(Picture In Picture) 모드인지 여부를 확인할 수 있다.
만약, 현재 모드가 PIP 모드인 경우, 전자 장치(100)는 307동작으로 진행하여 합성된 이미지에서 제 2 이미지가 합성된 위치를 확인한 후, 309동작에서 확인된 위치에 대한 정보를 합성된 이미지의 메타 데이터에 저장할 수 있다. 이때, 전자 장치(100)는 합성된 이미지에서 제 2 이미지가 합성된 위치 정보를 합성된 이미지의 메타 데이터에 저장하거나 혹은 사용자 얼굴이 합성된 위치 정보를 합성된 이미지의 메타 데이터에 저장할 수 있다.
이후, 전자 장치(100)는 311동작에서 제 2 이미지에 사용자 얼굴이 존재하는지 여부를 확인할 수 있다. 다시 말해, 전자 장치(100)는 합성된 이미지의 메타 데이터에서 제 2 이미지가 합성된 위치 혹은 사용자 얼굴이 합성된 위치 정보를 확인하여, 해당 위치에 사용자 얼굴이 존재하는지 여부를 확인할 수 있다.
만약, 제 2 이미지에 사용자 얼굴이 존재하는 경우, 전자 장치(100)는 313동작에서 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 예를 들어, 전자 장치(100)는 도 5에 도시된 바와 같이, 합성된 이미지에서 제 2 이미지가 합성된 위치(501)를 확인하고, 확인된 위치(501)에서 사용자의 얼굴을 인식(503)할 수 있다. 다른 예를 들어, 전자 장치(100)는 합성된 이미지에서 사용자의 얼굴이 합성된 위치를 확인하고, 확인된 위치에서 사용자의 얼굴을 인식할 수 있다.
이후, 전자 장치(100)는 315동작으로 진행하여 인식된 얼굴 정보를 기준으로 이미지를 저장할 수 있다. 다시 말해, 전자 장치(100)는 합성된 이미지에서 제 2 이미지가 합성된 위치 정보 혹은 사용자의 얼굴이 합성된 위치 정보를 확인하고, 해당 위치에서 사용자의 얼굴을 인식한 후, 인식된 사용자의 얼굴 정보를 기준으로 이미지를 저장할 수 있다. 예를 들어, 전자 장치(100)는 합성된 이미지들 중에서 제 2 이미지가 합성된 위치 정보를 확인하고, 해당 위치에서 각각의 사용자 얼굴을 인식한 후, 제 1 사용자의 얼굴 정보가 포함된 이미지의 파일 이름을 제 2 사용자의 얼굴 정보가 포함된 이미지의 파일 이름과 구분되도록 분류하여 저장할 수 있다. 다른 예를 들어, 전자 장치(111)는 합성된 이미지들 중에서 사용자 얼굴이 합성된 위치 정보를 확인하고, 해당 위치에서 각각의 사용자 얼굴을 인식한 후, 제 1 사용자의 얼굴 정보가 포함된 이미지를 제 1 폴더에 저장하고, 제 2 사용자의 얼굴 정보가 포함된 이미지를 제 2 폴더에 저장할 수 있다. 이후, 전자 장치(100)는 본 발명의 실시 예에 따른 절차를 종료한다.
반면, 311동작에서 제 2 이미지에 사용자 얼굴이 존재하지 않는 경우, 전자 장치(100)는 본 발명의 실시 예에 따른 절차를 종료한다.
305동작에서 현재 모드가 PIP 모드가 아닌 경우, 전자 장치(100)는 317동작으로 진행하여 제 2 이미지에 사용자 얼굴이 존재하는지 여부를 확인할 수 있다. 다시 말해, 전자 장치(100)는 제 2 이미지 센서(150)를 통해 획득된 제 2 이미지에서, 사용자 얼굴이 존재하는지 여부를 확인할 수 있다.
만약, 제 2 이미지에 사용자 얼굴이 존재하는 경우, 전자 장치(100)는 319동작에서 제 2 이미지를 제 1 이미지의 메타 데이터에 저장할 수 있다. 이때, 전자 장치(100)는 제 2 이미지를 이미지 형태로 제 1 이미지의 메타 데이터에 저장할 수 있다.
이후, 전자 장치(100)는 321동작에서 저장된 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 다시 말해, 전자 장치(100)는 제 1 이미지의 메타 데이터에 저장된 제 2 이미지로부터 사용자 얼굴을 인식할 수 있다. 예를 들어, 전자 장치(100)는 도 6에 도시된 바와 같이, 제 2 이미지 센서(150)를 통해 획득된 제 2 이미지(603)를 제 1 이미지 센서(140)를 통해 획득된 제 1 이미지(601)의 메타 데이터에 저장한 후, 메타 데이터에 저장된 제 2 이미지(603)에서 사용자의 얼굴을 인식(605)할 수 있다.
이후, 전자 장치(100)는 323동작에서 인식된 얼굴 정보를 기준으로 이미지를 저장할 수 있다. 다시 말해, 전자 장치(100)는 제 2 이미지 센서(150)를 통해 획득된 제 2 이미지에서 사용자의 얼굴을 인식하고, 인식된 사용자의 얼굴 정보를 기준으로 제 1 이미지를 저장할 수 있다. 예를 들어, 전자 장치(100)는 제 1 이미지의 메타 데이터에서 제 2 이미지를 확인하고, 제 2 이미지에서 사용자 얼굴을 인식한 후, 제 1 사용자의 얼굴 정보가 포함된 이미지의 파일 이름을 제 2 사용자의 얼굴 정보가 포함된 이미지의 파일 이름과 구분되도록 저장할 수 있다. 다른 예를 들어, 전자 장치(111)는 제 1 이미지의 메타 데이터에서 제 2 이미지를 확인하고, 제 2 이미지에서 사용자 얼굴을 인식한 후, 제 1 사용자의 얼굴 정보가 포함된 이미지를 제 1 폴더에 저장하고, 제 2 사용자의 얼굴 정보가 포함된 이미지를 제 2 폴더에 저장할 수 있다. 이후, 전자 장치(100)는 본 발명의 실시 예에 따른 절차를 종료한다.
반면, 317동작에서 제 2 이미지에 사용자 얼굴이 존재하지 않는 경우, 전자 장치(100)는 본 발명의 실시 예에 따른 절차를 종료한다.
상술한 설명에서는 이미지 센서를 통해 이미지 획득 시, 제 2 이미지에 포함된 사용자의 얼굴을 인식하여, 인식된 얼굴 정보를 기준으로 이미지를 저장하는 방법에 대해 설명하였으나, 본 발명은 이에 제한되지 않고, 이미지 센서를 통해 이미지 획득 시에는 임의의 방법으로 이미지를 저장한 후, 이미지 디스플레이 이벤트 감지 시, 제 1 이미지의 메타 데이터를 통해 제 2 이미지에 포함된 사용자의 얼굴을 인식하여, 인식된 얼굴 정보를 기준으로 이미지를 정렬할 수도 있다.
본 명세서에 설명된 발명의 실시 예 혹은 모든 기능 동작들은 본 명세서에서 개시된 구조 혹은 이들의 균등 구조들을 포함하는 컴퓨터 소프트웨어, 펌웨어(firmware), 또는 하드웨어로, 또는 이들의 하나 이상의 조합으로 실시될 수 있다. 또한, 본 명세서에서 설명된 발 명의 실시 예들은 하나 이상의 컴퓨터 프로그램 제품, 즉 데이터 프로세싱 장치에 의해 실행되거나 이 장치의 동작을 제어하기 위한 컴퓨터 판독가능 매체 상에 인코딩된 컴퓨터프로그램 명령어들의 하나 이상의 모듈로 실시될 수 있다.
컴퓨터 판독가능 매체는 머신 판독가능 저장 매체, 머신 판독가능 저장 기판, 메모리 장치, 머신 판독가능 전파 스트림에 영향을 주는 물질의 구성, 또는 이들의 하나 이상의 조합이 될 수 있다. 데이터 프로세싱 장치라는 용어는 예로 프로그램 가능한 프로세서, 컴퓨터, 또는 다중 프로세서 또는 컴퓨터를 포함하는 데이터를 프로세싱하기 위한 모든 기기, 장치 혹은 머신을 포함한다. 기기는 하드웨어에 부가하여 해당 컴퓨터 프로그램에 대한 실행 환경을 생성하는 코드, 예컨대 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 시스템 또는 하나 이상의 이들의 조합을 구성하는 코드를 포함할 수 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야한다.

Claims (21)

  1. 제 1 이미지 센서 및 제 2 이미지 센서를 통해 제 1 이미지 및 제 2 이미지를 획득하는 동작과,
    상기 제 2 이미지로부터 사용자 얼굴을 인식하는 동작과,
    상기 인식된 얼굴을 기준으로 상기 제 1 이미지를 저장하는 동작을 포함하는
    전자 장치의 제어 방법.
  2. 제 1 항에 있어서,
    상기 전자 장치가 현재 PIP(Picture In Picture) 모드인지 여부를 확인하는 동작과,
    상기 전자 장치가 현재 PIP 모드인 경우, 상기 제 1 이미지에 상기 제 2 이미지의 적어도 일부분을 합성하는 동작과,
    상기 합성된 이미지에서 상기 제 2 이미지가 합성된 위치에 대한 정보를 상기 합성된 이미지의 메타 데이터에 저장하는 동작을 포함하는 동작을 더 포함하는
    전자 장치의 제어 방법.
  3. 제 2 항에 있어서,
    상기 제 2 이미지로부터 사용자 얼굴을 인식하는 동작은,
    상기 메타 데이터에 저장된 상기 합성된 위치에 대한 정보를 바탕으로 상기 합성된 이미지 내에서 상기 사용자 얼굴이 존재하는 영역을 결정하는 동작과,
    상기 결정된 영역을 분석하여 상기 사용자 얼굴을 인식하는 동작을 포함하는
    전자 장치의 제어 방법.
  4. 제 3 항에 있어서,
    상기 인식된 얼굴을 기준으로 상기 제 1 이미지를 저장하는 동작은,
    상기 인식된 사용자 얼굴을 기준으로 상기 합성된 이미지를 분류하여 저장하는 동작을 포함하는
    전자 장치의 제어 방법.
  5. 제 2 항에 있어서,
    상기 전자 장치가 현재 PIP 모드가 아닌 경우, 상기 제 2 이미지를 상기 제 1 이미지의 메타 데이터에 저장하는 동작을 포함하는
    전자 장치의 제어 방법.
  6. 제 5 항에 있어서,
    상기 전자 장치가 현재 PIP 모드가 아닌 경우, 상기 제 1 이미지를 디스플레이하고, 제 2 이미지를 디스플레이하지 않는 동작을 더 포함하는
    전자 장치의 제어 방법.
  7. 제 5 항에 있어서,
    상기 제 2 이미지로부터 사용자 얼굴을 인식하는 동작은,
    상기 메타 데이터에 저장된 제 2 이미지로부터 사용자 얼굴을 인식하는 동작을 포함하는
    전자 장치의 제어 방법.
  8. 제 7 항에 있어서,
    상기 인식된 얼굴을 기준으로 상기 제 1 이미지를 저장하는 동작은,
    상기 인식된 사용자 얼굴을 기준으로 상기 제 1 이미지를 분류하여 저장하는 동작을 포함하는
    전자 장치의 제어 방법.
  9. 제 1 항에 있어서,
    상기 인식된 얼굴을 기준으로 상기 제 1 이미지를 저장하는 동작은,
    상기 인식된 얼굴을 기준으로 상기 제 1 이미지 및 제 2 이미지를 촬영한 사용자를 구분하는 동작과,
    상기 구분된 사용자별로 폴더를 생성하는 동작과,
    상기 제 1 이미지를 상기 촬영한 사용자에 대응하는 폴더에 저장하는 동작을 포함하는
    전자 장치의 제어 방법.
  10. 제 1 항에 있어서,
    상기 제 1 이미지 센서는 상기 전자 장치의 제 1 면에 구비된 이미지 센서이고, 상기 제 2 이미지 센서는 상기 전자 장치의 제 2 면에 구비된 이미지 센서인
    전자 장치의 제어 방법.
  11. 하나 이상의 프로세서;
    터치 감지 디스플레이;
    적어도 두 개의 이미지 센서;
    메모리; 및
    상기 메모리에 저장되어 있으며, 상기 하나 이상의 프로세서에 의하여 실행되도록 구성되는 하나 이상의 프로그램을 포함하는 것으로서,
    상기 프로그램은 제 1 이미지 센서 및 제 2 이미지 센서를 통해 제 1 이미지 및 제 2 이미지를 획득하고, 상기 제 2 이미지로부터 사용자 얼굴을 인식한 후, 상기 인식된 얼굴을 기준으로 상기 제 1 이미지를 저장하는 명령어를 포함하는
    전자 장치.
  12. 제 11 항에 있어서,
    상기 프로그램은 상기 전자 장치가 현재 PIP(Picture In Picture) 모드인지 여부를 확인하고, 상기 전자 장치가 현재 PIP 모드인 경우, 상기 제 1 이미지에 상기 제 2 이미지를 합성한 후, 상기 합성된 이미지에서 상기 제 2 이미지가 합성된 위치에 대한 정보를 상기 합성된 이미지의 메타 데이터에 저장하는 명령어를 포함하는
    전자 장치.
  13. 제 12 항에 있어서,
    상기 프로그램은 상기 메타 데이터에 저장된 상기 합성된 위치에 대한 정보를 바탕으로 상기 합성된 이미지 내에서 상기 사용자 얼굴이 존재하는 영역을 결정한 후, 상기 결정된 영역을 분석하여 상기 사용자 얼굴을 인식하는 명령어를 포함하는
    전자 장치.
  14. 제 13 항에 있어서,
    상기 프로그램은 상기 인식된 사용자 얼굴을 기준으로 상기 합성된 이미지를 분류하여 저장하는 명령어를 포함하는
    전자 장치.
  15. 제 12 항에 있어서,
    상기 프로그램은 상기 전자 장치가 현재 PIP 모드가 아닌 경우, 상기 제 2 이미지를 상기 제 1 이미지의 메타 데이터에 저장하는 명령어를 포함하는
    전자 장치.
  16. 제 15 항에 있어서,
    상기 프로그램은 상기 전자 장치가 현재 PIP 모드가 아닌 경우, 상기 제 1 이미지를 디스플레이하고, 제 2 이미지를 디스플레이하지 않는 명령어를 더 포함하는
    전자 장치.
  17. 제 15 항에 있어서,
    상기 프로그램은 상기 메타 데이터에 저장된 제 2 이미지로부터 사용자 얼굴을 인식하는 명령어를 포함하는
    전자 장치.
  18. 제 17 항에 있어서,
    상기 프로그램은 상기 인식된 사용자 얼굴을 기준으로 상기 제 1 이미지를 분류하여 저장하는 명령어를 포함하는
    전자 장치.
  19. 제 11 항에 있어서,
    상기 프로그램은 상기 인식된 얼굴을 기준으로 상기 제 1 이미지 및 제 2 이미지를 촬영한 사용자를 구분하고, 상기 구분된 사용자별로 폴더를 생성한 후, 상기 제 1 이미지를 상기 촬영한 사용자에 대응하는 폴더에 저장하는 명령어를 포함하는
    전자 장치.
  20. 제 11 항에 있어서,
    상기 제 1 이미지 센서는 상기 전자 장치의 제 1 면에 구비된 이미지 센서이고, 상기 제 2 이미지 센서는 상기 전자 장치의 제 2 면에 구비된 이미지 센서인
    전자 장치.
  21. 전자 장치에 의해 실행될 경우, 상기 장치로 하여금 제 1항의 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램을 저장한 컴퓨터 판독 가능 저장 매체.
KR1020130020499A 2013-02-26 2013-02-26 이미지를 관리하는 방법 및 그 전자 장치 KR102031283B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130020499A KR102031283B1 (ko) 2013-02-26 2013-02-26 이미지를 관리하는 방법 및 그 전자 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130020499A KR102031283B1 (ko) 2013-02-26 2013-02-26 이미지를 관리하는 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20140106226A true KR20140106226A (ko) 2014-09-03
KR102031283B1 KR102031283B1 (ko) 2019-10-11

Family

ID=51754751

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130020499A KR102031283B1 (ko) 2013-02-26 2013-02-26 이미지를 관리하는 방법 및 그 전자 장치

Country Status (1)

Country Link
KR (1) KR102031283B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016209509A1 (en) * 2015-06-25 2016-12-29 Intel Corporation Automatic metatagging in images
WO2023095952A1 (ko) * 2021-11-24 2023-06-01 주식회사 앱포스터 스크린 자동 생성 방법 및 이를 위한 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002101325A (ja) * 2000-09-25 2002-04-05 Canon Inc 撮像装置、その撮像データ記憶方法、及び記憶媒体
JP2007067782A (ja) * 2005-08-31 2007-03-15 Softbank Mobile Corp 電子機器
KR20130010590A (ko) * 2011-07-19 2013-01-29 엘지전자 주식회사 전자기기 및 전자기기의 동작 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002101325A (ja) * 2000-09-25 2002-04-05 Canon Inc 撮像装置、その撮像データ記憶方法、及び記憶媒体
JP2007067782A (ja) * 2005-08-31 2007-03-15 Softbank Mobile Corp 電子機器
KR20130010590A (ko) * 2011-07-19 2013-01-29 엘지전자 주식회사 전자기기 및 전자기기의 동작 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016209509A1 (en) * 2015-06-25 2016-12-29 Intel Corporation Automatic metatagging in images
US9563643B2 (en) 2015-06-25 2017-02-07 Intel Corporation Automatic metatagging in images
WO2023095952A1 (ko) * 2021-11-24 2023-06-01 주식회사 앱포스터 스크린 자동 생성 방법 및 이를 위한 장치

Also Published As

Publication number Publication date
KR102031283B1 (ko) 2019-10-11

Similar Documents

Publication Publication Date Title
US11669985B2 (en) Displaying and editing images with depth information
US11294560B2 (en) Method and apparatus for changing the ratio between interfaces
KR102109111B1 (ko) 애플리케이션을 관리하는 방법 및 그 전자 장치
JP5865936B2 (ja) 発信者電話番号を用いた付加情報提供装置及び方法
US8854303B1 (en) Display device and control method thereof
US11262895B2 (en) Screen capturing method and apparatus
US9172879B2 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
US9916514B2 (en) Text recognition driven functionality
KR101992306B1 (ko) 카메라를 실행하기 위한 방법 및 그 전자 장치
US9535595B2 (en) Accessed location of user interface
EP3335410B1 (en) Electronic apparatus and notification displaying method for electronic apparatus
KR20140080146A (ko) 컨텐츠 사용 이력을 디스플레이하는 방법 및 그 전자 장치
US11671696B2 (en) User interfaces for managing visual content in media
KR101465859B1 (ko) 촬상 장치, 촬상 방법, 및 기억 매체
US10013623B2 (en) System and method for determining the position of an object displaying media content
JP2018097580A (ja) 情報処理装置およびプログラム
JP2020053065A (ja) アプリケーションインターフェースを表示する方法、装置および電子デバイス
KR102031283B1 (ko) 이미지를 관리하는 방법 및 그 전자 장치
US8970483B2 (en) Method and apparatus for determining input
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
KR20150026382A (ko) 전자 장치 및 전자 장치에서 연락처 관리 방법
US12001642B2 (en) User interfaces for managing visual content in media
KR20140123321A (ko) 이미지를 관리하는 방법 및 그 전자 장치
CN106485165B (zh) 一种图像数据展现的方法和装置
WO2024109220A1 (zh) 显示卡片的方法、电子设备及可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right