KR20150026396A - 이미지를 합성하기 위한 방법 및 그 전자 장치 - Google Patents

이미지를 합성하기 위한 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20150026396A
KR20150026396A KR20130105161A KR20130105161A KR20150026396A KR 20150026396 A KR20150026396 A KR 20150026396A KR 20130105161 A KR20130105161 A KR 20130105161A KR 20130105161 A KR20130105161 A KR 20130105161A KR 20150026396 A KR20150026396 A KR 20150026396A
Authority
KR
South Korea
Prior art keywords
image
electronic device
controlling
determining
touch
Prior art date
Application number
KR20130105161A
Other languages
English (en)
Other versions
KR102089624B1 (ko
Inventor
이우용
최민석
강혜진
나진희
윤영권
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130105161A priority Critical patent/KR102089624B1/ko
Priority to US14/307,983 priority patent/US9760264B2/en
Publication of KR20150026396A publication Critical patent/KR20150026396A/ko
Application granted granted Critical
Publication of KR102089624B1 publication Critical patent/KR102089624B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen

Abstract

본 발명은 이미지를 합성하기 위한 방법 및 그 전자 장치에 관한 것으로서, 전자 장치의 이미지 합성 방법은, 제 1 이미지 및 제 2 이미지를 획득하는 동작과, 상기 제 1 이미지 내에서 적어도 하나의 오브젝트를 결정하는 동작과, 상기 결정된 적어도 하나의 오브젝트에 상기 제 2 이미지를 합성하는 동작을 포함하여, 전자 장치에서 획득된 제 1 이미지 및 제 2 이미지를 이질감 없이 합성하여 원하는 영역에 합성할 수 있다.

Description

이미지를 합성하기 위한 방법 및 그 전자 장치{METHOD FOR OBJECT COMPOSING A IMAGE AND AN ELECTRONIC DEVICE THEREOF}
본 개시는 전자 장치에서 획득된 이미지들을 하나의 화면에 합성하기 위한 방법 및 그 전자 장치에 관한 것이다.
최근 출시되는 스마트폰 및 태블릿 PC(Personal Computer) 등과 같은 대부분의 전자 장치에는 사진 촬영을 위한 카메라가 구비되어 있다. 카메라의 기능이 점차 중요해짐에 따라, 전자 장치의 전/후면 각각에 카메라가 구비된 전자 장치가 제공되고 있다.
일반적으로, 전자 장치의 전면에 구비된 카메라와 후면에 구비된 카메라는 서로 다른 용도로 사용된다. 예를 들어, 전자 장치의 전면에 구비된 카메라는 사용자 스스로를 촬영하기 위한 용도로 사용되고, 전자 장치의 후면에 구비된 카메라는 사용자를 제외한 주면 사물, 풍경 혹은 인물을 촬영하는 용도로 사용된다. 최근에는 전/후면 카메라를 동시에 구동시켜, 전/후면 카메라로부터 획득된 이미지들을 동시에 활용할 수 있는 기술이 제공되고 있다. 예를 들어, 전자 장치의 사용자는 전자 장치에 구비된 전/후면 카메라를 모두 구동시킬 수 있고, 전자 장치는 구동된 전/후면 카메라를 이용하여 획득된 두 개의 이미지를 한 화면에 디스플레이할 수 있다.
종래에는 전자 장치에서 전/후면 카메라를 이용하여 획득한 두 개의 이미지를 미리 설정된 고정된 영역에 디스플레이하고 있다. 따라서, 전자 장치에서 전/후면 카메라를 통해 획득된 두 개의 이미지를 보다 효율적으로 디스플레이하기 위한 방안이 제공될 필요가 있다.
본 발명의 실시예는 전자 장치에서 전자 장치의 서로 다른 위치에 구비된 제 1 카메라 및 제 2 카메라를 통해 획득된 제 1 이미지 내에 제 2 이미지를 합성하기 위한 방법 및 장치를 제공함에 있다.
본 발명의 다른 실시예는 전자 장치에서 제 1 카메라를 통해 획득된 제 1 이미지 내에서 제 2 이미지를 합성할 오브젝트를 결정하기 위한 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 실시예는 전자 장치에서 제 1 이미지 내에 제 2 이미지가 합성되어 핸들러 마스크가 디스플레이되지 않은 상태에서 핸들러 마스크를 다시 디스플레이하기 위한 방법 및 장치를 제공함에 있다.
본 발명의 실시예에 따르면, 전자 장치에서 이미지를 합성하기 위한 방법은 제 1 이미지 및 제 2 이미지를 획득하는 동작과, 상기 제 1 이미지 내에서 적어도 하나의 오브젝트를 결정하는 동작과, 상기 결정된 적어도 하나의 오브젝트에 상기 제 2 이미지를 합성하는 동작을 포함할 수 있다.
본 발명의 실시예에 따르면, 전자 장치에서 이미지를 합성하기 위한 장치는 터치 감지 디스플레이; 및 하나 이상의 프로세서를 포함하며, 상기 프로세서는, 제 1 이미지 및 제 2 이미지를 획득하고, 상기 제 1 이미지 내에서 적어도 하나의 오브젝트를 결정한 후, 상기 결정된 적어도 하나의 오브젝트에 상기 제 2 이미지를 합성하도록 제어할 수 있다.
본 발명의 다양한 실시예에 따라 전자 장치에서 제 1 이미지 및 제 2 이미지를 획득하고, 사용자 제어에 따라 제 1 이미지 내에서 제 2 이미지를 합성할 오브젝트를 결정하고, 제 1 이미지 내에 결정된 오브젝트에 제 2 이미지를 합성함으로써, 전자 장치에서 획득된 제 1 이미지 및 제 2 이미지를 이질감 없이 합성하여 원하는 영역에 디스플레이할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자 장치의 블록 구성을 도시하는 도면,
도 2는 본 발명의 다양한 실시예에 따른 전자 장치에서 카메라를 통해 획득된 제 1 이미지의 특정 오브젝트에 제 2 이미지를 합성하는 수단을 도시하는 도면,
도 3은 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 이미지 내에서 결정된 오브젝트에 제 2 이미지를 합성하는 절차를 도시하는 도면,
도 4a 내지 4c는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 2 이미지의 핸들러 마스크를 제어하여 제 1 이미지 내에 제 2 이미지를 합성하는 예를 도시하는 도면,
도 5a 내지 5b는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 이미지 내에 다수의 오브젝트가 존재하는 경우, 제 2 이미지와 오브젝트가 겹쳐진 면적에 따라 제 2 이미지를 합성하는 예를 도시하는 도면,
도 6a 내지 6c는 본 발명의 다양한 실시예에 따른 전자 장치에서 사용자에 의해 제 1 이미지 내 특정 오브젝트가 선택된 경우, 제 2 이미지를 합성하는 예를 도시하는 도면,
도 7a 내지 7c는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 이미지 내에 합성 가능한 오브젝트를 제공하여, 사용자 선택에 따라 제 2 이미지를 합성하는 예를 도시하는 도면,
도 8a 내지 8d는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 2 이미지의 핸들러 마스크의 4 개의 점을 사용자 제어에 따라 제 1 이미지에 매칭하여, 제 2 이미지를 합성하는 예를 도시하는 도면,
도 9a 내지 9e는 본 발명의 다양한 실시예에 따른 전자 장치에서 사용자에 의해 제 1 이미지 내에 제 2 이미지를 합성하기 위한 버튼이 선택된 경우, 제 2 이미지를 합성하는 예를 도시하는 도면,
도 10a 내지 10b는 본 발명의 다양한 실시예에 따른 전자 장치에서 합성되었던 오브젝트를 포함하는 이미지가 더 이상 획득되지 않는 경우, 제 2 이미지의 핸들러 마스크를 디스플레이하는 예를 도시하는 도면 및
도 11은 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 이미지 내에 합성할 오브젝트가 존재하지 않는 경우, 제 2 이미지가 최초 디스플레이되었던 위치에 제 2 이미지를 디스플레이하는 예를 도시하는 도면.
이하 본 발명의 실시예를 첨부된 도면을 참조하여 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하 설명에서 전자 장치는 하나 이상의 카메라가 구비된 장치일 수 있다. 예를 들어, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 웨어러블 장치(wearable device), 전자 시계(electronic clock), 손목 시계, 냉장고, 에어컨, 청소기, 인공 지능 로봇, TV, DVD(digital video disk) 플레이어, 오디오, 오븐, 전자레인지, 세탁기, 공기 청정기, 의료기기(예를 들면, MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM), 전자 사전, 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(electronic equipment for ship, 예를 들면, 선박용 항법 장치, 자이로콤파스), 항공 전자기기(avionics), 보안 기기, 캠코더(camcorder), 게임 콘솔(game consoles), 전자장치를 포함한 가구(furniture) 혹은 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device) 및 프로젝터(projector) 중 하나 이상을 포함할 수 있다. 이하 설명에서 전자 장치는 상술한 장치들에 한정되지 않음은 당업자에게 자명하다.
이하 설명에서, 이미지는 정지 이미지, 동적 이미지 및 프리뷰 이미지 중 적어도 하나를 포함할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자 장치의 블록 구성을 도시하고 있다.
도 1을 참조하면, 전자 장치(100)는 버스(110), 프로세서(120), 메모리(130), 사용자 입력 모듈(140), 디스플레이 모듈(150) 및 카메라 모듈(160)을 포함한다. 여기서, 프로세서(120) 및 메모리(130) 중 하나 이상은 다수 개 존재할 수 있다.
버스(110)는 전자장치(100)에 포함되는 구성요소들을 서로 연결하고, 전자장치(100)에 포함되는 구성요소들 간의 통신을 제어한다.
프로세서(120)는 전자장치(100)가 다양한 서비스를 제공하도록 제어한다. 예를 들어, 프로세서(120)는 버스(110)를 통해 전자장치(100)에 포함되는 하나 이상의 다른 구성요소(예: 메모리(130), 사용자 입력 모듈(140), 디스플레이 모듈(150) 및 카메라 모듈(160))로부터 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
프로세서(120)는 메모리(130)에 저장된 하나 이상의 프로그램을 실행하여 전자 장치(100)가 다양한 서비스를 제공하도록 제어한다. 본 발명의 실시예에 따른 프로세서(120)는 오브젝트 트래킹(tracking) 프로그램(131)을 제어하여 제 1 이미지 내에서 적어도 하나의 오브젝트를 트래킹하고, 트래킹된 적어도 하나의 오브젝트들 중에서 제 2 이미지를 합성할 오브젝트를 결정할 수 있다. 프로세서(120)는 이미지 합성 프로그램(132)을 제어하여, 제 1 이미지 내에서 결정된 오브젝트에 제 2 이미지를 합성할 수 있다. 합성이라 함은 제 1 이미지 내에 포함된 오브젝트의 크기, 모양 및 뒤틀림 중 적어도 하나를 기반하여, 제 1 이미지의 오브젝트가 존재하는 영역에 조절된 제 2 이미지를 렌더링(rendering)하여 디스플레이하는 것을 포함할 수 있다.
메모리(130)는 전자장치(100)에 포함되는 하나 이상의 구성 요소(프로세서(120), 사용자 입력 모듈(140), 디스플레이 모듈(150), 카메라 모듈(160))로부터 수신되거나 하나 이상의 구성 요소에 의해 생성된 명령 또는 데이터를 저장한다. 예를 들어, 메모리(130)는 전자 장치(100)에 연결 가능한 주변 기기의 출력 특성 및 가상 디바이스로 인식된 응용 프로그램 정보를 저장할 수 있다.
메모리(130)는 전자 장치(100)의 서비스를 위한 하나 이상의 프로그램을 저장한다. 예를 들어, 메모리(130)는 오브젝트 트래킹 프로그램(131) 및 이미지 합성 프로그램(132) 중 하나 이상을 포함할 수 있다.
오브젝트 트래킹 프로그램(131)은 제 1 카메라(161)를 통해 획득된 제 1 이미지 내에서 적어도 하나의 오브젝트 영역을 트래킹(Tracking)하고, 트래킹된 적어도 하나의 오브젝트 중에서 제 2 이미지를 합성하기 위한 오브젝트를 결정하기 위한 적어도 하나의 소프트웨어 구성요소를 포함할 수 있다.
오브젝트 트래킹 프로그램(131)은 전자 장치(100)에 구비된 제 1 카메라(161)를 통해 획득되는 제 1 이미지를 분석하여, 제 1 이미지 내에서 적어도 하나의 오브젝트를 트래킹할 수 있다. 예를 들어, 오브젝트 트래킹 프로그램(131)은 제 1 카메라(161)를 통해 획득된 제 1 이미지를 분석하여, 제 1 이미지 내에서 모든 오브젝트를 트래킹할 수 있다.
더하여, 오브젝트 트래킹 프로그램(131)은 트래킹된 적어도 하나의 오브젝트 중에서 제 2 이미지를 합성하기 위한 오브젝트를 결정할 수 있다. 예를 들어, 사용자 제어에 의해 제 2 이미지 혹은 제 2 이미지의 핸들러 마스크(handler mask)가 트래킹된 오브젝트의 임계 거리 이내로 접근하는 경우, 오브젝트 트래킹 프로그램(131)은 해당 오브젝트를 제 2 이미지를 합성하기 위한 오브젝트로 결정할 수 있다. 여기서, 핸들러 마스크는 제 2 이미지를 이동시켜 디스플레이하거나 제 2 이미지의 디스플레이 크기를 조절하기 위한 인터페이스로써, 제 2 이미지의 테두리 혹은 주변에 디스플레이될 수 있다. 다른 예를 들어, 제 2 이미지 혹은 제 2 이미지의 핸들러 마스크가 트래킹된 두 개 이상의 오브젝트와 겹쳐진 경우, 오브젝트 트래킹 프로그램(131)은 제 2 이미지 혹은 제 2 이미지의 핸들러 마스크와 트래킹된 오브젝트가 겹쳐진 면적을 확인하여, 겹쳐진 면적이 가장 넓은 오브젝트를 제 2 이미지를 합성하기 위한 오브젝트로 결정할 수 있다. 또 다른 예를 들어, 적어도 하나의 트래킹된 오브젝트 중에서, 사용자 제어에 의해 특정 오브젝트가 선택된 경우, 오브젝트 트래킹 프로그램(131)은 해당 오브젝트를 제 2 이미지를 합성하기 위한 오브젝트로 결정할 수 있다. 또 다른 예를 들어, 오브젝트 트래킹 프로그램(131)은 트래킹된 모든 오브젝트들 중에서, 미리 설정된 조건을 만족하는 일부 오브젝트들을 강조하는 그래픽 효과를 제 1 이미지에 디스플레이하고, 강조 표시된 오브젝트 중에서 사용자 제어에 의해 선택된 오브젝트를 제 2 이미지를 합성하기 위한 오브젝트로 결정할 수 있다. 또 다른 예를 들어, 사용자 제어에 의해 제 2 이미지의 핸들러 마스크에 존재하는 4개의 점이 특정 오브젝트의 4개의 점과 매칭된 경우, 오브젝트 트래킹 프로그램(131)은 해당 오브젝트를 제 2 이미지를 합성하기 위한 오브젝트로 결정할 수 있다. 만약, 제 2 이미지에 대한 핸들러 마스크가 제공되지 않는 경우, 오브젝트 트래킹 프로그램(131)은 제 2 이미지의 임의의 4개의 점과 오브젝트의 4개의 점을 매칭하여 제 2 이미지를 합성하기 위한 오브젝트를 결정할 수 있다.
이미지 합성 프로그램(132)은 오브젝트 트래킹 프로그램(131)에 의해 결정된 오브젝트의 영역에 대한 정보를 바탕으로 제 2 이미지를 제 1 이미지의 결정된 오브젝트 영역에 합성하기 위한 적어도 하나의 소프트웨어 구성요소를 포함할 수 있다. 자세히 말해, 이미지 합성 프로그램(132)은 오브젝트 트래킹 프로그램(131)에 의해 제 2 이미지를 합성하기 위한 오브젝트가 결정된 경우, 해당 오브젝트 영역에 대한 정보를 바탕으로 제 2 이미지의 크기 및 각도를 조절하여 해당 오브젝트의 영역에 제 2 이미지를 합성할 수 있다.
이미지 합성 프로그램(132)은 제 1 이미지의 오브젝트에 제 2 이미지 합성 시, 이질감 없는 합성을 위해 제 2 이미지의 핸들러 마스크를 디스플레이하지 않을 수 있다.
이미지 합성 프로그램(132)은 제 2 이미지가 제 1 이미지의 오브젝트에 합성된 경우, 제 2 이미지의 핸들러 마스크를 디스플레이하지 않을 수 있다.
더하여, 이미지 합성 프로그램(132)은 제 2 이미지의 핸들러 마스크가 디스플레이되지 않은 상태에서, 입력된 정보에 따라 핸들러 마스크를 다시 디스플레이할 수 있다. 예를 들어, 제 2 이미지가 합성된 오브젝트 영역이 사용자에 의해 선택 혹은 터치된 경우, 이미지 ㅎ 프로그램(132)은 선택 혹은 터치된 제 2 이미지의 핸들러 마스크를 제 2 이미지의 테두리 혹은 주변에 다시 디스플레이할 수 있다. 다른 예를 들어, 제 2 이미지가 합성된 오브젝트의 영역을 제외한 다른 영역(예를 들어, 배경 영역)이 사용자에 의해 선택 혹은 터치된 경우, 이미지 합성 프로그램(132)은 합성된 제 2 이미지의 핸들러 마스크를 제 2 이미지의 테두리 혹은 주변에 다시 디스플레이할 수 있다. 또 다른 예를 들어, 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 오브젝트 트래킹 프로그램(131)에 의해 더 이상 획득되지 않는 경우, 이미지 합성 프로그램(132)은 제 2 이미지의 최초 디스플레이 위치 혹은 합성 이미지의 마지막 디스플레이 위치에 제 2 이미지를 디스플레이하고, 제 2 이미지의 테두리 혹은 주변에 핸들러 마스크를 디스플레이할 수 있다. 또 다른 예를 들어, 제 1 이미지 내 임의의 영역에 디스플레이된 핸들러 마스크를 디스플레이하기 위한 사용자 요청이 감지된 경우 예컨대, 사용자 제스처, 터치 동작, 키 버튼, 아이콘, 메뉴 중 적어도 하나를 기반으로 사용자 요청이 감지되는 경우, 이미지 합성 프로그램(132)은 합성된 제 2 이미지의 핸들러 마스크를 제 2 이미지의 테두리 혹은 주변에 다시 디스플레이할 수 있다.
사용자 입력 모듈(140)은 사용자의 선택에 의해 발생하는 명령 또는 데이터를 버스(110)를 통해 프로세서(120)로 전송한다. 예를 들어, 사용자 입력 모듈(140)은 적어도 하나의 하드웨어 버튼을 포함하는 키패드, 터치 정보를 감지할 수 있는 터치 패널 중 하나 이상을 포함할 수 있다.
디스플레이 모듈(150)은 사용자에게 화상, 영상 또는 데이터를 표시한다. 디스플레이 모듈(150)은 제 1 이미지 내에 제 2 이미지가 합성된 이미지를 디스플레이할 수 있다.
카메라 모듈(160)은 제 1 카메라(161) 및 제 2 카메라(162) 각각으로부터 입력되는 데이터를 통해 이미지를 획득하여 프로세서(120)로 전달한다.
제 1 카메라(161) 및 제 2 카메라(162)는 사용자 제어에 따라 특정 객체의 이미지를 촬영할 수 있다. 제 1 카메라(161) 및 제 2 카메라(162)는 서로 다른 위치에 구비된 카메라일 수 있으며, 사용자 제어에 따라 동시에 구동되거나 서로 다른 시점에 구동될 수 있다. 예를 들어, 제 1 카메라(161)는 전자 장치(100)의 후면에 위치한 카메라일 수 있으며, 제 2 카메라(162)는 전자 장치(100)의 전면에 위치한 카메라일 수 있다.
상술한 설명에서는 설명의 편의를 위해 전자 장치(100)에 두 개의 카메라가 구비된 경우를 가정하여 설명하였으나, 본 발명은 이에 제한되지 않고, 전자 장치(100)에 하나의 카메라가 구비된 경우에도 적용될 수 있다. 예를 들어, 전자 장치(100)에 하나의 카메라가 구비된 경우, 전자 장치(100)는 구비된 카메라를 통해 획득된 이미지와 전자 장치(100)에 저장된 이미지 혹은 외부 장치로부터 획득된 이미지를 이용하여 합성을 수행할 수도 있다. 외부 장치로부터 이미지를 획득하기 위해서는 전자 장치에 외부 장치와 통신을 수행할 수 있는 별도의 통신부가 구비됨을 가정으로 한다.
도 2는 본 발명의 다양한 실시예에 따른 전자 장치에서 카메라를 통해 획득된 제 1 이미지의 특정 오브젝트에 제 2 이미지를 합성하는 수단을 도시하고 있다.
도 2를 참조하면, 전자 장치(100)는 제 1 이미지 및 제 2 이미지를 획득하는 수단(201)을 포함할 수 있다. 전자 장치(100)는 제 1 이미지 및 제 2 이미지를 획득하는 수단으로 적어도 하나의 카메라를 포함할 수 있다. 만약, 전자 장치(100)에 두 개의 카메라가 구비된 경우, 전자 장치(100)는 제 1 카메라(161) 및 제 2 카메라(162)를 동시에 구동하는 수단 및 제 1 카메라(161) 및 제 2 카메라(162)를 통해 획득된 제 1 이미지 및 제 2 이미지를 하나의 화면에 디스플레이할 수 있는 수단을 포함할 수 있다.
또한, 전자 장치(100)는 제 1 이미지 내에서 적어도 하나의 오브젝트를 결정하는 수단(203)을 포함할 수 있다. 전자 장치(100)는 이미지 획득 시, 획득된 이미지를 분석하여 해당 이미지 내에서 오브젝트를 트래킹하는 수단을 포함할 수 있다.
또한, 전자 장치(100)는 결정된 적어도 하나의 오브젝트에 제 2 이미지를 합성하는 수단(205)을 포함할 수 있다. 더하여, 전자 장치(100)는 전자 장치(100) 혹은 전자 장치(100)의 제 1 카메라(161)가 이동함에 따라, 결정된 오브젝트의 형태 혹은 크기에 대한 정보가 갱신되는 경우, 갱신되는 정보에 따라 제 2 이미지의 형태 혹은 크기도 변경하여, 변경된 제 2 이미지를 실시간으로 결정된 오브젝트에 합성하는 수단을 포함할 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 이미지 내에서 트래킹된 오브젝트에 제 2 이미지를 합성하는 방법을 도시하고 있다.
도 3을 참조하면, 전자 장치(100)는 301동작에서 제 1 카메라(161) 및 제 2 카메라(162)를 구동할 수 있다. 여기서, 제 1 카메라(161) 및 제 2 카메라(162)는 전자 장치(100)의 서로 다른 위치에 구비된 카메라일 수 있다. 예를 들어, 제 1 카메라(161)는 전자 장치(100)의 후면에 구비된 카메라일 수 있고, 제 2 카메라(162)는 전자 장치(100)의 전면에 구비된 카메라일 수 있다.
전자 장치(100)는 303동작에서 제 1 카메라(161) 및 제 2 카메라(162)를 이용하여 제 1 이미지 및 제 2 이미지를 획득할 수 있다. 여기서, 제 1 이미지는 제 1 카메라(161)를 통해 획득된 이미지를 의미하고, 제 2 이미지는 제 2 카메라(162)를 통해 획득된 이미지를 의미한다.
전자 장치(100)는 305동작에서 제 1 이미지 내에서 제 2 이미지를 합성할 오브젝트를 결정할 수 있다. 자세히 말해, 전자 장치(100)는 획득된 제 1 이미지 내에서 적어도 하나의 오브젝트를 트래킹한 후, 트래킹된 적어도 하나의 오브젝트 중에서 사용자 제어에 따라 선택된 오브젝트를 제 2 이미지를 합성할 오브젝트로 결정할 수 있다. 제 2 이미지를 합성할 오브젝트를 결정하는 방법은 아래에서 다양한 실시예를 바탕으로 설명하도록 한다.
전자 장치(100)는 307동작으로 진행하여 결정된 오브젝트 영역 크기에 따라 제 2 이미지의 크기를 조절할 수 있다. 예를 들어, 전자 장치(100)는 제 2 이미지를 합성할 오브젝트로 결정된 오브젝트에 대한 크기 정보를 확인하여, 확인된 크기 정보에 따라 제 2 이미지의 크기를 조절할 수 있다. 추가적으로, 전자 장치(100)는 제 2 이미지를 합성할 오브젝트로 결정된 오브젝트의 영역에 대한 각도 혹은 형태 정보를 확인하고, 확인된 정보에 따라 제 2 이미지의 각도 혹은 형태를 조절할 수 있다.
전자 장치(100)는 309동작으로 진행하여 크기가 조절된 제 2 이미지를 결정된 오브젝트에 합성할 수 있다. 전자 장치(100)는 하나 이상의 트래킹된 오브젝트 중에서 제 2 이미지를 합성할 오브젝트로 결정된 오브젝트에 크기 및 각도를 조절한 제 2 이미지를 합성할 수 있다.
전자 장치(100)는 311동작에서 제 2 이미지가 합성된 오브젝트를 포함하는 이미지가 계속하여 획득되는지 여부를 확인한다. 예컨대, 제 2 이미지가 제 1 이미지의 특정 오브젝트에 합성된 경우, 전자 장치(100)는 제 1 카메라(161)를 통해 실시간으로 계속하여 획득되는 제 1 이미지 내에 제 2 이미지가 합성된 오브젝트가 포함되어 있는지 여부를 확인할 수 있다.
만약, 합성된 오브젝트가 포함된 이미지가 계속하여 획득되는 경우, 전자 장치(100)는 313동작으로 진행하여 합성된 오브젝트에 제 2 이미지를 계속하여 합성할 수 있다. 이후, 전자 장치(100)는 311동작으로 되돌아가 이하 동작을 재수행할 수 있다.
반면, 합성된 오브젝트가 포함된 이미지가 계속하여 획득되지 않는 경우, 전자 장치(100)는 315동작으로 진행하여, 임계 시간이 경과되는지 여부를 확인할 수 있다. 임계 시간은 설계동작에서 미리 설정되거나 사용자 제어에 따라 변경될 수 있다.
만약, 임계 시간이 경과된 경우, 전자 장치(100)는 317동작으로 진행하여 제 1 이미지의 임의의 영역에 제 2 이미지를 디스플레이할 수 있다. 예컨대, 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 더 이상 획득되지 않을 시, 전자 장치(100)는 합성을 해제하고, 합성되었던 오브젝트를 포함하는 제 1 이미지가 임계 시간 이상 동안 획득되지 않는 경우, 전자 장치(100)는 획득된 제 1 이미지의 임의의 영역 혹은 사용자에 의해 미리 지정된 영역에 제2 이미지를 디스플레이할 수 있다. 예컨대, 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 더 이상 획득되지 않을 시, 전자 장치(100)는 제 1 이미지와 제 2 이미지의 합성을 해제하고, 제 2 이미지가 합성되었던 오브젝트를 포함하는 제 1 이미지가 임계 시간 이상 동안 획득되지 않는 경우, 전자 장치(100)는 획득된 제 1 이미지의 임의의 영역에 제2 이미지를 디스플레이할 수 있다. 다른 예를 들어, 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 더 이상 획득되지 않을 시, 전자 장치(100)는 제 1 이미지와 제 2 이미지의 합성을 해제하고, 합성이 해제된 상태에서 제 1 이미지에 대한 사용자 터치가 감지되거나, 미리 설정된 제스처가 감지되는 경우, 전자 장치(100)는 획득된 제 1 이미지의 임의의 영역에 제2 이미지를 디스플레이할 수 있다. 또 다른 실시 예에 따라, 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 더 이상 획득되지 않을 시, 전자 장치(100)는 제 1 이미지와 제 2 이미지의 합성을 해제하고, 제 2 이미지가 합성되었던 오브젝트를 포함하는 제 1 이미지가 임계 시간 이상 동안 획득되지 않는 경우, 전자 장치(100)는 사용자로 하여금 제 1 이미지 내에서 제 2 이미지의 디스플레이 영역을 결정하도록 하기 위한 사용자 인터페이스를 추가 디스플레이하고, 사용자에 의해 선택된 영역에 제2 이미지를 디스플레이할 수 있다. 사용자로 하여금 제 1 이미지 내에서 제 2 이미지의 디스플레이 영역을 결정하도록 하기 위한 사용자 인터페이스는 제 1 이미지 내에 포함된 오브젝트 영역들 중 어느 하나의 오브젝트를 선택 가능하도록 할 수 있다. 또 다른 실시 예에 따라, 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 더 이상 획득되지 않을 시, 전자 장치(100)는 합성을 해제하고, 합성되었던 오브젝트를 포함하는 제 1 이미지가 임계 시간 이상 동안 획득되지 않는 경우, 전자 장치(100)는 제 2 이미지를 디스플레이하지 않을 수 있다. 이후, 전자 장치(100)는 본 발명의 실시 예에 따른 절차를 종료할 수 있다.
반면, 임계 시간이 경과되지 않은 경우, 전자 장치(100)는 311동작으로 되돌아가 이하 동작을 재수행한다. 다시 말해, 임계 시간이 경과 되기 전에 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 다시 획득된 경우, 전자 장치(100)는 311동작으로 되돌아가 이하 동작을 재수행한다.
이하 설명에서는 본 발명의 다양한 실시 예를 나타내는 도면을 바탕으로 제 1 이미지 내에서 제 2 이미지를 합성할 오브젝트를 결정하고, 결정된 오브젝트에 제 2 이미지를 합성하는 다양한 방법들을 설명하도록 한다.
도 4a 내지 4c는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 2 이미지의 핸들러 마스크를 제어하여 제 1 이미지 내에 제 2 이미지를 합성하는 예를 도시하고 있다. 전자 장치(100)는 4a에 도시된 바와 같이, 제 1 이미지 내에 디스플레이된 제 2 이미지(401)에 대한 터치를 감지하고, 특정 방향으로 진행되는 드래그(402)를 감지할 수 있다. 전자 장치(100)는 감지된 드래그(402)에 따라 제 2 이미지를 이동시킬 수 있다.
전자 장치(100)는 도 4b에 도시된 바와 같이, 특정 방향으로 진행되던 드래그가 특정 위치에서 정지되고, 제 2 이미지에 감지되었던 터치가 해제되는 것을 감지할 수 있다. 전자 장치(100)는 제 1 이미지 내에 존재하는 적어도 하나의 오브젝트들을 트래킹하고, 트래킹된 오브젝트들 중에서 제 2 이미지가 이동된 위치(403)로부터 가장 가까운 거리에 위치한 오브젝트(404)를 제 2 이미지를 합성할 오브젝트로 결정할 수 있다.
제 2 이미지를 합성할 오브젝트가 결정된 경우, 전자 장치(100)는 도 4c에 도시된 바와 같이, 결정된 오브젝트(404)의 크기 및 각도에 따라 제 2 이미지를 조절하여 해당 오브젝트(404)에 제 2 이미지를 합성한 합성 이미지(405)를 디스플레이할 수 있다.
도 5a 내지 5b는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 이미지 내에 다수의 오브젝트가 존재하는 경우, 제 2 이미지와 오브젝트가 겹쳐진 면적에 따라 제 2 이미지를 합성하는 예를 도시하고 있다.
전자 장치(100)는 도 5a에 도시된 바와 같이, 제 2 이미지(501)가 제 1 이미지에 포함된 두 개 이상의 오브젝트(503, 505, 507 및 509)와 겹쳐진 경우, 제 2 이미지(501)가 각각의 오브젝트(503, 505, 507 및 509)와 겹쳐진 면적을 확인하고, 겹쳐진 면적이 가장 넓은 오브젝트(503)를 제 2 이미지를 합성할 오브젝트로 결정할 수 있다. 제 2 이미지를 합성할 오브젝트가 결정된 경우, 전자 장치(100)는 도 5b에 도시된 바와 같이, 겹쳐진 면적이 가장 넓은 오브젝트(503)의 크기, 각도 혹은 형태에 따라 제 2 이미지를 조절하여 해당 오브젝트에 제 2 이미지를 합성한 합성 이미지(511)를 디스플레이할 수 있다.
도 6a 내지 6c는 본 발명의 다양한 실시예에 따른 전자 장치에서 사용자에 의해 제 1 이미지 내 특정 오브젝트가 선택된 경우, 제 2 이미지를 합성하는 예를 도시하고 있다.
전자 장치(100)는 도 6a에 도시된 바와 같이, 제 1 이미지 내 임의의 영역 혹은 미리 설정된 영역에 제 2 이미지(601)를 디스플레이할 수 있다.
전자 장치(100)는 도 6b에 도시된 바와 같이, 제 1 이미지 내에 포함된 적어도 하나의 오브젝트들 중에서 특정 오브젝트(603)에 대한 터치를 감지할 수 있다. 전자 장치(100)는 터치가 감지된 오브젝트(603)를 제 2 이미지를 합성할 오브젝트로 결정할 수 있다. 예를 들어, 특정 오브젝트(603)에 대한 더블 탭이 감지되는 경우, 전자 장치(100)는 더블 탭이 감지된 오브젝트(603)를 제 2 이미지를 합성할 오브젝트로 결정할 수 있다.
제 2 이미지를 합성할 오브젝트가 결정된 경우, 전자 장치(100)는 도 6c에 도시된 바와 같이, 결정된 오브젝트의 크기, 각도 혹은 형태에 따라 제 2 이미지를 조절하여 해당 오브젝트에 제 2 이미지를 합성한 합성 이미지(605)를 디스플레이할 수 있다.
추가적으로, 합성 이미지(605)에 대한 터치(예: 탭, 더블 탭 혹은 일정 시간 이상의 탭)가 감지된 경우, 합성을 해제하고, 제 2 이미지에 대한 핸들러 마스크를 디스플레이할 수 있다.
도 7a 내지 7c는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 이미지 내에 합성 가능한 오브젝트를 제공하여, 사용자 선택에 따라 제 2 이미지를 합성하는 예를 도시하고 있다.
전자 장치(100)는 도 7a에 도시된 바와 같이, 제 1 이미지 내 임의의 영역 혹은 미리 설정된 영역에 제 2 이미지(701)가 디스플레이된 상태에서, 제 1 이미지 내에 포함된 다수의 오브젝트들 중에서 미리 설정된 조건을 만족하는 오브젝트들(703 내지 715)을 강조하는 그래픽 효과를 디스플레이할 수 있다. 예를 들어, 전자 장치(100)는 제 1 이미지 내에 포함된 다수의 오브젝트들 중에서, 오브젝트 영역이 가장 넓은 3개의 오브젝트들을 강조 표시(예: 오브젝트의 윤곽선 굵기 변경, 오브젝트의 윤곽선 색상 변경, 오브젝트를 포함하는 원 혹은 다각형 테두리 표시, 오브젝트에 대한 추천 표시 등)하여 디스플레이할 수 있다.
도 7b에 도시된 바와 같이, 전자 장치(100)는 강조 표시된 오브젝트들(703 내지 715) 중에서 특정 오브젝트에 대한 터치(717)를 감지할 수 있다. 전자 장치(100)는 터치가 감지된 오브젝트(717)를 제 2 이미지를 합성할 오브젝트로 결정할 수 있다. 제 2 이미지를 합성할 오브젝트가 결정된 경우, 전자 장치(100)는 도 7c에 도시된 바와 같이, 해당 오브젝트의 크기, 각도 혹은 형태에 따라 제 2 이미지를 조절하여 해당 오브젝트에 제 2 이미지를 합성한 합성 이미지(719)를 디스플레이할 수 있다.
도 8a 내지 8d는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 2 이미지의 핸들러 마스크의 4 개의 점을 사용자 제어에 따라 제 1 이미지에 매칭하여, 제 2 이미지를 합성하는 예를 도시하고 있다.
전자 장치(100)는 도 8a에 도시된 바와 같이, 제 1 이미지 내 임의의 영역 혹은 미리 설정된 영역에 제 2 이미지(801)를 디스플레이할 수 있다. 전자 장치(100)는 디스플레이된 제 2 이미지(801)를 도 8b에 도시된 바와 같이, 사용자 제어에 따라 제 1 이미지 내의 다른 위치(803)로 이동시킬 수 있다. 전자 장치(100)는 도 8c에 도시된 바와 같이, 제 2 이미지가 특정 위치로 이동된 후, 제 2 이미지의 핸들러 마스크에 포함된 4개의 점(805-1 내지 805-4)과 특정 오브젝트의 4개의 점이 사용자 제어에 따라 서로 매칭되는지 검사할 수 있다. 예를 들어, 사각형 형태의 핸들러 마스크를 가정하면, 핸들러 마스크의 4개의 꼭지점이 특정 오브젝트를 구성하는 다수 개의 점들 중 임의의 4개의 점과 매칭되는지 검사할 수 있다.
제 2 이미지의 핸들러 마스크에 포함된 4개의 점(805-1 내지 805-4)과 특정 오브젝트의 4개의 점이 사용자 제어에 따라 서로 매칭된 경우, 전자 장치(100)는 해당 오브젝트를 제 2 이미지를 합성하기 위한 오브젝트로 결정할 수 있다. 제 2 이미지를 합성할 오브젝트가 결정된 경우, 전자 장치(100)는 도 8d에 도시된 바와 같이, 해당 오브젝트의 크기, 각도 혹은 형태에 따라 제 2 이미지를 조절하여 해당 오브젝트에 제 2 이미지를 합성한 합성 이미지(807)를 디스플레이할 수 있다. 만약, 제 2 이미지의 핸들러 마스크가 존재하지 않거나 디스플레이되지 않은 경우, 전자 장치(100)는 제 2 이미지의 임의의 4개의 점을 오브젝트의 4개의 점과 매칭하여 합성을 수행할 수 있다.
도 9a 내지 9e는 본 발명의 다양한 실시예에 따른 전자 장치에서 사용자에 의해 제 1 이미지 내에 제 2 이미지를 합성하기 위한 버튼이 선택된 경우, 제 2 이미지를 합성하는 예를 도시하고 있다.
전자 장치(100)는 도 9a에 도시된 바와 같이, 제 2 이미지(901) 및 제 2 이미지를 제 1 이미지 내 오브젝트에 합성하기 위한 버튼(903)을 디스플레이할 수 있다.
도 9b에 도시된 바와 같이, 제 2 이미지를 제 1 이미지 내 오브젝트에 합성하기 위한 버튼(903)에 대한 터치(905)가 감지된 경우, 전자 장치(100)는 제 2 이미지(901)의 위치로부터 가장 가까운 위치에 존재하는 오브젝트(907)를 제 2 이미지를 합성하기 위한 오브젝트로 결정할 수 있다.
제 2 이미지를 합성할 오브젝트가 결정된 경우, 전자 장치(100)는 도 9c에 도시된 바와 같이, 결정된 오브젝트의 크기, 각도 혹은 형태에 따라 제 2 이미지를 조절하여 해당 오브젝트에 제 2 이미지를 합성한 합성 이미지(909)를 디스플레이할 수 있다. 더하여, 전자 장치(100)는 제 2 이미지가 합성된 경우, 제 2 이미지를 합성하기 위한 버튼(903)을 이미지의 합성을 해제하기 위한 버튼(911)으로 변경하여 디스플레이할 수 있다.
도 9d에 도시된 바와 같이, 이미지의 합성을 해제하기 위한 버튼(911)에 대한 터치(913)가 감지된 경우, 전자 장치(100)는 합성 이미지(909)의 합성을 해제하고, 도 9e에 도시된 바와 같이, 제 2 이미지(915)를 합성 전 위치에 디스플레이할 수 있다. 더하여, 전자 장치(100)는 합성 이미지(909)의 합성이 해제된 경우, 합성 이미지의 합성을 해제하기 위한 버튼(911)을 제 2 이미지를 합성하기 위한 버튼(917)으로 변경할 수 있다. 상술한 실시예에서, 이미지를 합성하기 위한 버튼(903)과 이미지의 합성을 해제하기 위한 버튼(911)은 이미지가 합성된 상태인지 혹은 합성되지 않은 상태인지에 따라 교대로 디스플레이될 수 있다.
추가로, 전자 장치(100)는 이미지를 합성하기 위한 버튼 및 이미지의 합성을 해제하기 위한 버튼을 서로 다른 별도의 버튼으로 디스플레이할 수 있다.
도 10a 내지 10b는 본 발명의 다양한 실시예에 따른 전자 장치에서 합성되었던 오브젝트를 포함하는 이미지가 더 이상 획득되지 않는 경우, 제 2 이미지의 핸들러 마스크를 디스플레이하는 예를 도시하고 있다.
합성 이미지가 디스플레이된 후, 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 획득되지 않는 경우, 전자 장치(100)는 제 2 이미지를 디스플레이하지 않고, 임계 시간 이상 제 2 이미지가 합성된 오브젝트를 포함하는 제 1 이미지가 획득되지 않는 경우, 전자 장치(100)는 제 2 이미지 및 제 2 이미지의 핸들러 마스크를 제 1 이미지의 임의의 영역에 다시 디스플레이할 수 있다. 다시 디스플레이되는 제 2 이미지는 합성이 아닌 단순 이미지 디스플레이를 의미한다. 예를 들어, 전자 장치(100)는 도 10a에 도시된 바와 같이, 합성 이미지가 디스플레이된 후, 도 10b에 도시된 바와 같이, 임계 시간 이상 제 2 이미지가 합성된 특정 오브젝트를 포함하는 제 1 이미지가 획득되지 않으면, 전자 장치(100)는 제 2 이미지 및 제 2 이미지의 핸들러 마스크를 제 1 이미지의 임의의 영역(1003)에 다시 디스플레이할 수 있다.
상술한 도 1 내지 도 10의 설명에서는 전자 장치(100)에서 제 1 카메라(161)를 통해 제 1 이미지가 획득된 경우, 제 1 이미지 내에서 적어도 하나의 오브젝트들을 트래킹하고, 제 1 이미지 내에 트래킹된 적어도 하나의 오브젝트들 중에서 제 2 이미지를 합성하기 위한 오브젝트를 결정하여, 제 2 이미지를 합성하는 방법에 대해 설명하였다. 그러나, 제 1 이미지에서 트래킹 가능한 오브젝트가 존재하지 않는 상황(예를 들어, 적어도 3개의 꼭지점을 포함하는 오브젝트가 존재하지 않는 경우)이 발생될 수도 있다.
도 11은 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 이미지 내에 합성할 오브젝트가 존재하지 않는 경우, 제 2 이미지가 최초 디스플레이되었던 위치에 제 2 이미지를 디스플레이하는 예를 도시하고 있다.
도 11에 도시된 바와 같이, 제 1 이미지 내에 트래킹 가능한 오브젝트가 존재하지 않는 경우, 전자 장치(100)는 제 1 이미지 내에 임의의 영역 혹은 미리 설정된 영역에 2 이미지(1101)를 단순 디스플레이할 수 있다.
추가로, 상술한 설명에서는 제 1 카메라(161) 및 제 2 카메라(162)를 통해 획득된 제 1 이미지 및 제 2 이미지를 이용하여 합성을 수행하는 방법에 대해 설명하였으나, 본 발명은 이에 제한되지 않고, 다른 전자 장치로부터 수신된 이미지 혹은 전자 장치(100) 내 저장된 이미지를 이용하여 합성을 수행할 수도 있다.
본 명세서에 설명된 발명의 실시예 및 모든 기능 동작들은 본 명세서에서 개시된 구조 및 이들의 균등 구조들을 포함하는 컴퓨터 소프트웨어, 펌웨어(firmware), 또는 하드웨어로, 또는 이들의 하나 이상의 조합으로 실시될 수 있다. 또한, 본 명세서에서 설명된 발 명의 실시예들은 하나 이상의 컴퓨터 프로그램 제품, 즉 데이터 프로세싱 장치에 의해 실행되거나 이 장치의 동작을 제어하기 위한 컴퓨터 판독가능 매체 상에 인코딩된 컴퓨터프로그램 명령어들의 하나 이상의 모듈로 실시될 수 있다.
컴퓨터 판독가능 매체는 머신 판독가능 저장 매체, 머신 판독가능 저장 기판, 메모리 장치, 머신 판독가능 전파 스트림에 영향을 주는 물질의 구성, 또는 이들의 하나 이상의 조합이 될 수 있다. 데이터 프로세싱 장치라는 용어는 예로 프로그램 가능한 프로세서, 컴퓨터, 또는 다중 프로세서 또는 컴퓨터를 포함하는 데이터를 프로세싱하기 위한 모든 기기, 장치 및 머신을 포함한다. 기기는 하드웨어에 부가하여 해당 컴퓨터 프로그램에 대한 실행 환경을 생성하는 코드, 예컨대 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 시스템 또는 하나 이상의 이들의 조합을 구성하는 코드를 포함할 수 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야한다.

Claims (20)

  1. 제 1 이미지 및 제 2 이미지를 획득하는 동작과,
    상기 제 1 이미지 내에서 적어도 하나의 오브젝트를 결정하는 동작과,

    상기 결정된 적어도 하나의 오브젝트에 상기 제 2 이미지를 합성하는 동작을 포함하는
    전자 장치의 제어 방법.
  2. 제 1 항에 있어서,
    상기 오브젝트를 결정하는 동작은,
    상기 제 1 이미지 내에 상기 제 2 이미지를 디스플레이하는 동작과,
    사용자 입력에 의한 상기 제 2 이미지의 이동을 감지하는 동작과,
    상기 제 2 이미지가 이동된 위치로부터 가장 가까운 거리에 위치한 오브젝트를 상기 제 2 이미지를 합성하기 위한 오브젝트로 결정하는 동작을 포함하는
    전자 장치의 제어 방법.
  3. 제 1 항에 있어서,
    상기 오브젝트를 결정하는 동작은,
    상기 제 1 이미지 내에 상기 제 2 이미지를 디스플레이하는 동작과,
    상기 제 2 이미지가 두 개 이상의 오브젝트와 겹쳐져 있는 경우, 상기 제 2 이미지와 상기 두 개 이상의 오브젝트 각각이 겹쳐진 면적을 확인하는 동작과,
    상기 두 개 이상의 오브젝트 중에서 상기 제 2 이미지와 겹쳐진 면적이 가장 넓은 오브젝트를 상기 제 2 이미지를 합성하기 위한 오브젝트로 결정하는 동작을 포함하는
    전자 장치의 제어 방법.
  4. 제 1 항에 있어서,
    상기 오브젝트를 결정하는 동작은,
    특정 오브젝트에 대한 터치를 감지하는 동작과,
    상기 터치가 감지된 오브젝트를 상기 제 2 이미지를 합성하기 위한 오브젝트로 결정하는 동작을 포함하는
    전자 장치의 제어 방법.
  5. 제 4 항에 있어서,
    상기 터치는 탭, 더블 탭 혹은 임계 시간 이상의 탭 중 적어도 하나인
    전자 장치의 제어 방법.
  6. 제 1 항에 있어서,
    상기 오브젝트를 결정하는 동작은,
    미리 설정된 조건을 만족하는 적어도 하나의 오브젝트들을 강조하여 디스플레이하는 동작과,
    상기 강조 디스플레이된 적어도 하나의 오브젝트들 중에서 특정 오브젝트에 대한 터치를 감지하는 동작과,
    상기 터치가 감지된 오브젝트를 상기 제 2 이미지를 합성하기 위한 오브젝트로 결정하는 동작을 포함하는
    전자 장치의 제어 방법.
  7. 제 1 항에 있어서,
    상기 오브젝트를 결정하는 동작은,
    상기 제 2 이미지의 임의의 4개의 점을 특정 오브젝트의 임의의 4개의 점과 매칭하는 동작과,
    상기 4개의 점이 매칭된 오브젝트를 상기 제 2 이미지를 합성하기 위한 오브젝트로 결정하는 동작을 포함하는
    전자 장치의 제어 방법.
  8. 제 1 항에 있어서,
    상기 오브젝트를 결정하는 동작은,
    상기 제 2 이미지를 합성하기 위한 사용자 요청을 감지하는 동작과,
    상기 제 2 이미지의 위치로부터 가장 가까운 거리에 위치한 오브젝트를 상기 제 2 이미지를 합성하기 위한 오브젝트로 결정하는 동작을 포함하는
    전자 장치의 제어 방법.
  9. 제 8 항에 있어서,
    상기 사용자 요청은, 사용자 제스처, 터치 동작, 키 버튼, 아이콘, 메뉴 중 적어도 하나를 기반으로 감지되는
    전자 장치의 제어 방법.
  10. 제 1 항에 있어서,
    상기 제 1 이미지 내에 제 2 이미지를 디스플레이하는 동작과,
    상기 제 2 이미지의 이동 및 크기를 제어하기 위한 핸들러 마스크를 상기 제 2 이미지의 테두리 혹은 주변 중 적어도 하나에 디스플레이하는 동작을 더 포함하는
    전자 장치의 제어 방법.
  11. 제 10 항에 있어서,
    상기 결정된 적어도 하나의 오브젝트에 상기 제 2 이미지를 합성하는 동작은,
    상기 제 2 이미지에 대한 핸들러 마스크의 디스플레이를 제거하는 동작을 포함하는
    전자 장치의 제어 방법.
  12. 제 11 항에 있어서,
    상기 핸들러 마스크의 디스플레이가 제거된 상태에서 상기 합성 이미지에 대한 터치를 감지하는 동작과,
    상기 터치에 대한 응답으로 상기 합성 이미지에 대한 핸들러 마스크를 디스플레이하는 동작을 더 포함하는
    전자 장치의 제어 방법.
  13. 제 11 항에 있어서,
    상기 핸들러 마스크의 디스플레이가 제거된 상태에서 상기 합성 이미지의 영역을 제외한 다른 영역에 대한 터치를 감지하는 동작과,
    상기 터치에 대한 응답으로 상기 합성 이미지에 대한 핸들러 마스크를 디스플레이하는 동작을 더 포함하는
    전자 장치의 제어 방법.
  14. 제 11 항에 있어서,
    상기 핸들러 마스크의 디스플레이가 제거된 상태에서 상기 핸들러 마스크를 디스플레이하기 위한 사용자 요청을 감지하는 동작과,
    상기 사용자 요청에 대한 응답으로 상기 합성 이미지에 대한 핸들러 마스크를 디스플레이하는 동작을 더 포함하는
    전자 장치의 제어 방법.
  15. 제 14 항에 있어서,
    상기 사용자 요청은, 사용자 제스처, 터치 동작, 키 버튼, 아이콘, 메뉴 중 적어도 하나를 기반으로 감지되는
    전자 장치의 제어 방법.
  16. 터치 감지 디스플레이; 및
    하나 이상의 프로세서를 포함하며,
    상기 프로세서는, 제 1 이미지 및 제 2 이미지를 획득하고, 상기 제 1 이미지 내에서 적어도 하나의 오브젝트를 결정한 후, 상기 결정된 적어도 하나의 오브젝트에 상기 제 2 이미지를 합성하도록 제어하는
    전자 장치.
  17. 제 16 항에 있어서,
    상기 제 1 이미지를 획득하는 제 1 카메라와,
    상기 제 2 이미지를 획득하는 제 2 카메라를 더 포함하는
    전자 장치.
  18. 제 16 항에 있어서,
    상기 제 1 이미지와 상기 제 2 이미지 중에서 적어도 하나를 저장하는 메모리를 더 포함하며,
    상기 프로세서는 상기 메모리부터 상기 제 1 이미지와 상기 제 2 이미지 중에서 적어도 하나를 획득하는
    전자 장치.
  19. 제 16 항에 있어서,
    다른 외부 장치와 데이터 통신을 수행하는 통신부를 더 포함하며,
    상기 프로세서는 상기 통신부를 통해 상기 다른 외부 장치로부터 상기 제 1 이미지와 상기 제 2 이미지 중에서 적어도 하나를 획득하는
    전자 장치.
  20. 전자 장치에 의해 실행될 경우, 상기 장치로 하여금 제 1항의 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램을 저장한 컴퓨터 판독 가능 저장 매체.




KR1020130105161A 2013-09-02 2013-09-02 이미지를 합성하기 위한 방법 및 그 전자 장치 KR102089624B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130105161A KR102089624B1 (ko) 2013-09-02 2013-09-02 이미지를 합성하기 위한 방법 및 그 전자 장치
US14/307,983 US9760264B2 (en) 2013-09-02 2014-06-18 Method and electronic device for synthesizing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130105161A KR102089624B1 (ko) 2013-09-02 2013-09-02 이미지를 합성하기 위한 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20150026396A true KR20150026396A (ko) 2015-03-11
KR102089624B1 KR102089624B1 (ko) 2020-03-16

Family

ID=52585087

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130105161A KR102089624B1 (ko) 2013-09-02 2013-09-02 이미지를 합성하기 위한 방법 및 그 전자 장치

Country Status (2)

Country Link
US (1) US9760264B2 (ko)
KR (1) KR102089624B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019190250A1 (ko) * 2018-03-29 2019-10-03 삼성전자 주식회사 이미지에 포함된 반사 객체의 속성에 기반하여, 반사 객체에 다른 이미지를 합성하는 방법 및 전자 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157341B (zh) * 2015-03-30 2019-05-14 阿里巴巴集团控股有限公司 生成合成图片的方法及装置
JP2017050830A (ja) * 2015-09-04 2017-03-09 パナソニックIpマネジメント株式会社 照明装置、照明システム、及びプログラム
US10281200B2 (en) 2016-03-14 2019-05-07 Amazon Technologies, Inc. Image-based spoilage sensing refrigerator
US10373472B2 (en) 2016-03-14 2019-08-06 Amazon Technologies, Inc. Scent-based spoilage sensing refrigerator
CN111833247A (zh) * 2020-06-11 2020-10-27 维沃移动通信有限公司 图片处理方法、装置及电子设备
CN114205512B (zh) * 2020-09-17 2023-03-31 华为技术有限公司 拍摄方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060048069A1 (en) * 2004-09-02 2006-03-02 Canon Kabushiki Kaisha Display apparatus and method for displaying screen where dragging and dropping of object can be executed and program stored in computer-readable storage medium
US20110181528A1 (en) * 2010-01-26 2011-07-28 Jay Christopher Capela Device, Method, and Graphical User Interface for Resizing Objects
US20130038759A1 (en) * 2011-08-10 2013-02-14 Yoonjung Jo Mobile terminal and control method of mobile terminal

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
US7070106B2 (en) 1998-03-24 2006-07-04 Metrologic Instruments, Inc. Internet-based remote monitoring, configuration and service (RMCS) system capable of monitoring, configuring and servicing a planar laser illumination and imaging (PLIIM) based network
JP2000172826A (ja) * 1998-12-02 2000-06-23 Minolta Co Ltd 画像合成装置
US8351713B2 (en) * 2007-02-20 2013-01-08 Microsoft Corporation Drag-and-drop pasting for seamless image composition
WO2009126785A2 (en) * 2008-04-10 2009-10-15 The Trustees Of Columbia University In The City Of New York Systems and methods for image archaeology
US9171221B2 (en) * 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
KR100969790B1 (ko) * 2008-09-02 2010-07-15 엘지전자 주식회사 이동단말기 및 그 컨텐츠 합성방법
JP4900361B2 (ja) * 2008-10-21 2012-03-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP5202283B2 (ja) * 2008-12-20 2013-06-05 三洋電機株式会社 撮像装置及び電子機器
JP5604921B2 (ja) * 2010-03-19 2014-10-15 セイコーエプソン株式会社 画像表示システム、画像表示方法、画像表示装置
KR101572892B1 (ko) * 2010-05-06 2015-11-30 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
US8588548B2 (en) * 2010-07-29 2013-11-19 Kodak Alaris Inc. Method for forming a composite image
KR101688153B1 (ko) * 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
US9207859B2 (en) * 2010-09-14 2015-12-08 Lg Electronics Inc. Method and mobile terminal for displaying fixed objects independent of shifting background images on a touchscreen
US9619104B2 (en) * 2010-10-01 2017-04-11 Smart Technologies Ulc Interactive input system having a 3D input space
US8666191B2 (en) * 2011-03-02 2014-03-04 Canon Kabushiki Kaisha Systems and methods for image capturing
KR101764372B1 (ko) * 2011-04-19 2017-08-03 삼성전자주식회사 휴대용 단말기에서 영상 합성 방법 및 장치
US8988558B2 (en) * 2011-04-26 2015-03-24 Omnivision Technologies, Inc. Image overlay in a mobile device
KR101839473B1 (ko) * 2011-08-03 2018-03-19 삼성전자주식회사 비교 영상 제공 방법 및 이를 적용한 영상 촬영 장치
KR101843450B1 (ko) * 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9280545B2 (en) * 2011-11-09 2016-03-08 Microsoft Technology Licensing, Llc Generating and updating event-based playback experiences
US8891907B2 (en) * 2011-12-06 2014-11-18 Google Inc. System and method of identifying visual objects
KR20130071794A (ko) * 2011-12-21 2013-07-01 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
KR101817657B1 (ko) * 2011-12-21 2018-01-11 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US9888171B2 (en) * 2012-02-13 2018-02-06 Htc Corporation Mobile camera device capable of improving facial patterns of a captured image
US20130235223A1 (en) * 2012-03-09 2013-09-12 Minwoo Park Composite video sequence with inserted facial region
US9575641B2 (en) * 2012-03-20 2017-02-21 Adobe Systems Incorporated Content aware image editing
KR101927150B1 (ko) * 2012-10-30 2018-12-10 삼성전자주식회사 3차원 디스플레이 장치 및 그의 사용자 인터페이스 방법
KR101978219B1 (ko) * 2013-03-15 2019-05-14 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US20140325439A1 (en) * 2013-04-24 2014-10-30 Samsung Electronics Co., Ltd. Method for outputting image and electronic device thereof
KR102064973B1 (ko) * 2013-06-04 2020-01-10 삼성전자주식회사 듀얼 이미지를 편집하는 전자 장치 및 방법
US20140355974A1 (en) * 2013-06-04 2014-12-04 Delphi Technologies, Inc. Multi-view image system with a single camera and a transreflective device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060048069A1 (en) * 2004-09-02 2006-03-02 Canon Kabushiki Kaisha Display apparatus and method for displaying screen where dragging and dropping of object can be executed and program stored in computer-readable storage medium
US20110181528A1 (en) * 2010-01-26 2011-07-28 Jay Christopher Capela Device, Method, and Graphical User Interface for Resizing Objects
US20130038759A1 (en) * 2011-08-10 2013-02-14 Yoonjung Jo Mobile terminal and control method of mobile terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019190250A1 (ko) * 2018-03-29 2019-10-03 삼성전자 주식회사 이미지에 포함된 반사 객체의 속성에 기반하여, 반사 객체에 다른 이미지를 합성하는 방법 및 전자 장치
KR20190114242A (ko) * 2018-03-29 2019-10-10 삼성전자주식회사 이미지에 포함된 반사 객체의 속성에 기반하여, 반사 객체에 다른 이미지를 합성하는 방법 및 전자 장치
US11494885B2 (en) 2018-03-29 2022-11-08 Samsung Electronics Co., Ltd Method for synthesizing image on reflective object on basis of attribute of reflective object included in different image, and electronic device

Also Published As

Publication number Publication date
US20150067554A1 (en) 2015-03-05
US9760264B2 (en) 2017-09-12
KR102089624B1 (ko) 2020-03-16

Similar Documents

Publication Publication Date Title
KR102649254B1 (ko) 디스플레이 제어 방법, 저장 매체 및 전자 장치
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
KR102089624B1 (ko) 이미지를 합성하기 위한 방법 및 그 전자 장치
US11118928B2 (en) Method for providing map information and electronic device for supporting the same
KR102348947B1 (ko) 전자장치의 화면 표시 제어 방법 및 장치
US20140333667A1 (en) Method and apparatus for providing contents including augmented reality information
EP2843625B1 (en) Method for synthesizing images and electronic device thereof
US20140248950A1 (en) System and method of interaction for mobile devices
US9570038B2 (en) Mobile device and control method thereof
JP6877149B2 (ja) 撮影位置推薦方法、コンピュータプログラムおよび撮影位置推薦システム
CN109876439B (zh) 游戏画面显示方法与装置、存储介质、电子设备
JP6476657B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US11558562B2 (en) Apparatus and method for providing 360-degree panoramic background during video call
CN109448050B (zh) 一种目标点的位置的确定方法及终端
US20150042584A1 (en) Electronic device and method for editing object using touch input
KR20150007875A (ko) 전자 장치의 촬영 이미지 생성 방법 및 장치
KR102192159B1 (ko) 디스플레이 방법 및 그 방법을 처리하는 전자 장치
CN109033100B (zh) 提供页面内容的方法及装置
JP6980802B2 (ja) 拡張現実を提供するための方法、装置及びコンピュータプログラム
KR20170004816A (ko) 디스플레이 장치 및 그 제어 방법
US20150095824A1 (en) Method and apparatus for providing user interface according to size of template edit frame
US10055395B2 (en) Method for editing object with motion input and electronic device thereof
US20170315629A1 (en) Laser pointer emulation via a mobile device
JP2016139199A (ja) 画像処理装置、画像処理方法、およびプログラム
US20190286304A1 (en) System and Method for Controlling the Graphic User Interface Elements

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant