KR101611308B1 - Method of image taking - Google Patents

Method of image taking Download PDF

Info

Publication number
KR101611308B1
KR101611308B1 KR1020140158667A KR20140158667A KR101611308B1 KR 101611308 B1 KR101611308 B1 KR 101611308B1 KR 1020140158667 A KR1020140158667 A KR 1020140158667A KR 20140158667 A KR20140158667 A KR 20140158667A KR 101611308 B1 KR101611308 B1 KR 101611308B1
Authority
KR
South Korea
Prior art keywords
image
distance information
area
distance
outputting
Prior art date
Application number
KR1020140158667A
Other languages
Korean (ko)
Inventor
채덕현
봉준형
장기훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140158667A priority Critical patent/KR101611308B1/en
Application granted granted Critical
Publication of KR101611308B1 publication Critical patent/KR101611308B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

An image photographing method comprises: a step of outputting an image recognized by a camera to a display unit; a step of obtaining multiple pieces of distance information on the image; a step of selecting a first area based on the multiple pieces of distance information; a step of applying a specified effect to the selected first area or a non-selected second area; and a step of storing the image, to which the specified image effect is applied. A plurality of objects can be distinguished based on the distance information by photographing the image including the distance information using an infrared sensor such that a specific object on the image can be extracted, thereby allowing easy editing of the image.

Description

이미지 촬영방법{METHOD OF IMAGE TAKING}{METHOD OF IMAGE TAKING}

본 발명은 거리정보를 포함하고 특정 영역에 효과를 준 이미지를 촬영하는 방법에 관한 것이다. The present invention relates to a method of photographing an image containing distance information and having an effect on a specific area.

단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. A terminal can be divided into a mobile terminal (mobile / portable terminal) and a stationary terminal according to whether the terminal can be moved. The mobile terminal can be divided into a handheld terminal and a vehicle mounted terminal according to whether the user can directly carry the mobile terminal.

이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversified. For example, there are data and voice communication, photographing and video shooting through a camera, voice recording, music file playback through a speaker system, and outputting an image or video on a display unit. Some terminals are equipped with an electronic game play function or a multimedia player function. In particular, modern mobile terminals can receive multicast signals that provide visual content such as broadcast and video or television programs.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

멀티미디어 기기의 주요 기능으로서 이미지 촬영 및 편집 기능을 탑재한 이동 단말기가 증가하는 추세이다. 특히 이미지 촬영을 위한 카메라는 필수 탑재 부품으로 자리잡았고, 카메라의 기능이 점점 확대되어 고화질의 이미지를 얻거나, 연사, 파노라마 촬영, 밝기를 조절하여 촬영하는 등 다양한 방식으로 촬영할 수 있다. As a main function of a multimedia device, a mobile terminal equipped with an image shooting and editing function is increasing. In particular, the camera for image shooting has become a necessary component, and the functions of the camera have been enlarged to obtain a high-quality image, and it can be shot in various ways such as shooting with continuous shooting, panoramic shooting, and adjusting brightness.

촬영한 이미지를 그대로 이용하기보다 편집하여 소셜네트워크 사이트 등에 올리는 사용자가 많아 이동 단말기 자체에서 편집기능에 대한 요구가 있다. 그러나 현재까지는 촬영시에 미리 사용자가 원하는 효과를 고려하여 촬영하지 못하여 촬영 후 사후적으로 편집에 한계가 있는 문제가 있다.There is a demand for editing functions in the mobile terminal itself because there are many users who edit and upload the photographed images to social network sites or the like. However, until now, there is a problem that the photographing can not be performed in consideration of the effect desired by the user at the time of photographing, and the editing is limited after the photographing.

특히 특정 오브젝트에만 효과를 적용하기 위해서는 사용자가 수동으로 편집 가능한 부분을 추출해야하고 추출하더라도 정확히 추출이 어려워 부자연스러운 사진이 되는 문제가 있다. Particularly, in order to apply an effect only to a specific object, there is a problem that a user must manually extract an editable portion, and extraction is difficult even if extracted, resulting in an unnatural picture.

본 발명은 상기 문제를 해결하기 위해 거리정보를 포함하고 거리정보를 이용하여 일부는 이미지를 촬영하거나, 거리정보를 포함한 이미지를 편집하는 방법을 제공하는 것을 목적으로 한다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a method of editing an image including distance information and photographing an image using distance information and including distance information.

본 발명은 카메라를 통해 인식된 이미지를 디스플레이부에 출력하는 단계; 상기 이미지 내의 복수개의 거리정보를 획득하는 단계; 상기 복수개의 거리정보를 기초로 제1 영역을 선택하는 단계; 상기 선택된 제1 영역 또는 상기 선택되지 않은 제2 영역에 지정효과를 적용하는 단계; 및 상기 지정효과가 적용된 이미지를 저장하는 단계를 포함하는 이미지 촬영방법을 제공한다. According to another aspect of the present invention, there is provided an image processing method comprising: outputting an image recognized through a camera to a display unit; Obtaining a plurality of distance information in the image; Selecting a first area based on the plurality of distance information; Applying a designation effect to the selected first region or the non-selected second region; And storing the image to which the designation effect is applied.

상기 제1 영역을 선택하는 단계는, 이미지 중 사용자의 터치입력이 인식된 지점의 거리정보를 지정거리로 설정하는 단계;The step of selecting the first area may include: setting distance information of a point at which a user's touch input is recognized in the image as a designated distance;

지정거리와 유사한 거리정보를 갖거나 상기 지정거리보다 가까운 거리정보를 갖는 지점을 제1 영역으로 선택할 수 있다. A point having distance information similar to the designated distance or having distance information closer to the specified distance may be selected as the first area.

상기 제1 영역을 선택하는 단계는, 이웃하는 지점간의 거리정보가 연속적인 값을 갖는 경우 하나의 영역으로 그루핑하는 단계; 상기 그루핑된 영역의 일 지점을 사용자가 선택하는 경우, 상기 그루핑된 영역을 제1 영역으로 선택하는 단계를 포함할 수 있다. The step of selecting the first area may include grouping into one area when the distance information between neighboring points has a continuous value; And when the user selects one point of the grouped area, selecting the grouped area as the first area.

상기 제1 영역을 선택하는 단계는, 거리를 나타내는 상태바가 디스플레이부에 출력되는 단계; 상기 상태바를 조정하여 지정거리를 선택하는 단계; 및 상기 지정거리와 유사한 거리정보를 갖는 지점 또는 상기 지정거리 이내에 위치하는 가 선택되는 단계를 포함할 수 있다. Wherein the step of selecting the first region includes the steps of: outputting a state bar indicating a distance to a display unit; Selecting the designated distance by adjusting the status bar; And selecting a position having a distance information similar to the specified distance or located within the specified distance.

상기 상태바의 조정은 상태바 상에서 터치앤드래그 입력을 통해 수행되고, 상기 지정효과를 적용하는 단계는, 상기 상태바에서 터치입력의 종료를 감지하는 단계; 상기 디스플레이부에 복수개의 효과를 포함하는 메뉴를 출력하는 단계; 상기 메뉴 중 하나의 효과를 지정효과로 지정하는 단계; 및 상기 선택된 제1 영역 또는 상기 선택되지 않은 제2 영역에 상기 지정효과를 적용하는 단계를 포함할 수 있다. The adjustment of the status bar is performed through a touch-and-drag input on the status bar, and the step of applying the specifying effect comprises: detecting an end of the touch input in the status bar; Outputting a menu including a plurality of effects on the display unit; Designating an effect of one of the menus as a designation effect; And applying the designation effect to the selected first region or the non-selected second region.

상기 메뉴를 출력하는 단계는, 상기 상태바 이외의 지점에서 터치입력 또는 드래그 입력이 감지되는 경우, 터치입력이 감지되는 지점에 상기 메뉴를 출력할 수 있다. The step of outputting the menu may output the menu at a point where a touch input is detected when a touch input or a drag input is detected at a point other than the status bar.

상기 지정효과를 적용하는 단계는, 상기 메뉴에서 하나의 효과를 터치하여 상기 제1 영역 또는 상기 제2 영역에 드래그하는 단계; 및 상기 드래그가 종료된 지점에 초점을 맞추어 이미지를 저장하는 단계를 포함할 수 있다. Wherein the applying the designating effect comprises: dragging one effect from the menu to the first area or the second area; And storing the image by focusing on a point where the drag is terminated.

상기 거리정보를 획득하는 단계는, 적외선을 출력하는 단계; 상기 출력된 적외선이 반사되어 돌아온 적외선의 시간차를 구하는 단계; 및 상기 시간차를 기초로 각 지점의 적외선 센서로부터의 거리를 산출하는 단계를 포함할 수 있다.The step of obtaining the distance information may include: outputting an infrared ray; Obtaining a time difference of the infrared ray reflected by the output infrared ray; And calculating a distance from the infrared sensor at each point on the basis of the time difference.

또한, 적외선을 출력하는 단계; 상기 출력된 적외선을 상기 오브젝트에 반사시켜 돌아온 적외선의 시간차를 구하는 단계; 상기 시간차를 기초로 각 오브젝트의 거리를 산출하여 거리정보를 생성하는 단계; 상기 거리정보를 포함하는 이미지를 시간차를 두어 연속으로 복수개 저장하는 단계; 상기 복수개의 이미지 중 하나의 이미지에서 특정 오브젝트를 선택하는 단계; 상기 선택된 오브젝트의 거리정보를 기초로 다른 이미지에서 특정 오브젝트를 추출하는 단계; 및 상기 각 이미지에서 특정 오브젝트를 제외한 나머지를 합성한 이미지를 생성하는 단계를 포함하는 이미지 촬영방법을 제공한다. Outputting an infrared ray; Calculating a time difference of infrared rays reflected by reflecting the output infrared ray on the object; Calculating distance information of each object based on the time difference to generate distance information; Storing a plurality of images including the distance information successively in a time lag; Selecting a specific object from one of the plurality of images; Extracting a specific object from another image based on the distance information of the selected object; And generating an image obtained by synthesizing the rest of the images except for the specific object.

본 발명의 적어도 일 실시예에 따르면, 적외선 센서를 이용하여 거리정보를 포함하는 이미지를 촬영하여 거리정보를 기초로 복수개의 오브젝트를 구분할 수 있어 이미지 내의 특정 오브젝트를 추출할 수 있어, 이미지의 편집이 용이한 장점이 있다. According to at least one embodiment of the present invention, a plurality of objects can be distinguished based on distance information by photographing an image including distance information using an infrared sensor, so that specific objects in an image can be extracted, There is an easy advantage.

특히 배경을 제거하거나, 특정 오브젝트를 제외할 수 있어 사용자가 원하는 대상만 추출한 이미지를 얻을 수 있다. In particular, the background can be removed or a specific object can be excluded, so that an image extracted by a user can be obtained.

본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다. Further scope of applicability of the present invention will become apparent from the following detailed description. It should be understood, however, that the detailed description and specific examples, such as the preferred embodiments of the invention, are given by way of illustration only, since various changes and modifications within the spirit and scope of the invention will become apparent to those skilled in the art.

도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2는 본 발명의 일 측면에 따른 이미지 촬영방법의 일 실시예를 도시한 순서도이다.
도 3 내지 도 9는 도 2에 따른 이미지 촬영방법의 각 단계를 설명하기 위한 도면이다.
도 10은 본 발명의 일 측면에 따른 이미지 촬영방법의 또 다른 실시예를 도시한 순서도이다.
도 11 및 도 12는 도 10에 따른 이미지 촬영방법의 각 단계를 설명하기 위한 도면이다.
1A is a block diagram illustrating a mobile terminal according to the present invention.
1B and 1C are conceptual diagrams illustrating an example of a mobile terminal according to the present invention in different directions.
2 is a flowchart showing an embodiment of an image capturing method according to an aspect of the present invention.
FIGS. 3 to 9 are views for explaining respective steps of the image capturing method according to FIG.
10 is a flowchart showing another embodiment of the image capturing method according to an aspect of the present invention.
FIGS. 11 and 12 are views for explaining respective steps of the image capturing method according to FIG.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC A tablet PC, an ultrabook, a wearable device such as a smartwatch, a smart glass, and a head mounted display (HMD). have.

그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be appreciated by those skilled in the art that the configuration according to the embodiments described herein may be applied to fixed terminals such as a digital TV, a desktop computer, a digital signage, and the like, will be.

도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C are block diagrams for explaining a mobile terminal according to the present invention, and FIGS. 1B and 1C are conceptual diagrams showing an example of a mobile terminal according to the present invention in different directions.

상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190 ), And the like. The components shown in FIG. 1A are not essential for implementing a mobile terminal, so that the mobile terminal described herein may have more or fewer components than the components listed above.

보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The wireless communication unit 110 may be connected between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and another mobile terminal 100 or between the mobile terminal 100 and the external server 100. [ Lt; RTI ID = 0.0 > wireless < / RTI > In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.

이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short distance communication module 114, and a location information module 115 .

입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting a video signal, a microphone 122 for inputting an audio signal, an audio input unit, a user input unit 123 for receiving information from a user A touch key, a mechanical key, and the like). The voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.

센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(145, IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include at least one sensor for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information. For example, the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, A G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor 145, an infrared sensor, a finger scan sensor, an ultrasonic sensor sensor, an optical sensor (e.g., see camera 121), a microphone (see microphone 122), a battery gauge, an environmental sensor (e.g., barometer, hygrometer, thermometer, A sensor, a thermal sensor, a gas sensor, etc.), a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification can combine and utilize information sensed by at least two of the sensors.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 includes at least one of a display unit 151, an acoustic output unit 152, a haptic tip module 153, and a light output unit 154 to generate an output related to visual, auditory, can do. The display unit 151 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. The touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user and may provide an output interface between the mobile terminal 100 and a user.

인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a path to various types of external devices connected to the mobile terminal 100. The interface unit 160 is connected to a device having a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, And may include at least one of a port, an audio I / O port, a video I / O port, and an earphone port. In the mobile terminal 100, corresponding to the connection of the external device to the interface unit 160, it is possible to perform appropriate control related to the connected external device.

또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a plurality of application programs or applications running on the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Also, at least a part of these application programs may exist on the mobile terminal 100 from the time of shipment for the basic functions (e.g., telephone call receiving function, message receiving function, and calling function) of the mobile terminal 100. Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and may be operated by the control unit 180 to perform the operation (or function) of the mobile terminal.

제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operations related to the application program, the control unit 180 typically controls the overall operation of the mobile terminal 100. The control unit 180 may process or process signals, data, information, and the like input or output through the above-mentioned components, or may drive an application program stored in the memory 170 to provide or process appropriate information or functions to the user.

또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components illustrated in FIG. 1A in order to drive an application program stored in the memory 170. FIG. In addition, the controller 180 may operate at least two of the components included in the mobile terminal 100 in combination with each other for driving the application program.

전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to the components included in the mobile terminal 100. The power supply unit 190 includes a battery, which may be an internal battery or a replaceable battery.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the components may operate in cooperation with one another to implement a method of operation, control, or control of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170. [

도 2는 본 발명의 일 측면에 따른 이미지 촬영방법의 일 실시예를 도시한 순서도이고, 도 3 내지 도 9는 도 2에 따른 이미지 촬영방법의 각 단계를 설명하기 위한 도면이다. FIG. 2 is a flowchart showing an embodiment of an image capturing method according to an aspect of the present invention, and FIGS. 3 to 9 are views for explaining each step of the image capturing method according to FIG.

이미지 촬영 시 각 지점의 이동 단말기(100)로부터의 거리를 감지하기 위해 적외선 센서(145, IR sensor, Infrared sensor)를 이용한다. 적외선 센서는 적외선을 스스로 복사하여 반사되는 빛을 검출하여 변화를 검지하는 장치로서 종래의 온도센서 자외선 센서보다 감도 및 정확도가 향상된다. 적외선 센서는 적외선을 사출하는 적외선 엘이디와 반사된 적외선을 검출하는 적외선 수신부를 포함한다. An infrared sensor 145 (IR sensor) is used to detect the distance from the mobile terminal 100 at each point in image shooting. The infrared sensor is a device that detects the change by detecting the reflected light by self-copying the infrared rays, and the sensitivity and accuracy are improved as compared with the conventional temperature sensor ultraviolet sensor. The infrared sensor includes an infrared ray emitting infrared ray and an infrared ray receiving unit for detecting the reflected infrared ray.

적외선 센서(145)는 이미지를 취득하는 카메라(121b)와 같은 방향을 향하고 있으며, 카메라(121b)에서 취득된 이미지의 각 지점에 거리정보를 취득할 수 있다. 보다 구체적으로 카메라(121b)에 입력된 이미지의 프리뷰를 디스플레이부(151)에 출력한다(S11). 상기 이미지에는 복수개의 오브젝트(10-1, 10-2, 10-3, 10-4)가 포함되며, 각 오브젝트(10-1, 10-2, 10-3, 10-4)는 이동 단말기(100)로 부터 거리가 상이하게 배치될 수 있다. The infrared sensor 145 is oriented in the same direction as the camera 121b for acquiring an image, and can obtain distance information at each point of the image acquired by the camera 121b. More specifically, a preview of the image input to the camera 121b is output to the display unit 151 (S11). Each of the objects 10-1, 10-2, 10-3, and 10-4 includes a plurality of objects 10-1, 10-2, 10-3, and 10-4, 100, as shown in FIG.

이미지를 디스플레이하는 동시에 또는 순차적으로 적외선 센서(145)의 적외선 엘이디를 이용하여 적외선을 사출하고(S12) 사출한 적외선이 반사되어 다시 이동 단말기(100)로 되돌아 오는 적외선을 감지한다(S13). 사출한 적외선과 반사된 적외선의 시간차를 기초로하여 이동 단말기(100)로 부터 각 지점까지의 거리정보를 획득할 수 있다(S14).At the same time or sequentially displaying the image, the infrared ray is emitted by using the infrared ray LED of the infrared ray sensor 145 (S12), and the infrared ray reflected by the emitted infrared ray is detected again to detect the infrared ray returning to the mobile terminal 100 (S13). The distance information from the mobile terminal 100 to each point can be obtained based on the time difference between the emitted infrared ray and the reflected infrared ray (S14).

도 3에 도시된 바와 같이 적외선 센서(145)에서 출력된 적외선은 카메라(121b)가 촬영하는 범위 내에 있는 오브젝트(10-1, 10-2, 10-3, 10-4)에 빛을 사출한다. 도 4의 (a)와 같이 사출된 적외선은 화면에 위치하는 오브젝트(10-1, 10-2, 10-3, 10-4) 전체에 고르게 사출되고, 오브젝트(10-1, 10-2, 10-3, 10-4)와 이동 단말기(100) 사이의 거리에 따라, 사출된 시간과 반사되어 되돌아 오는 적외선의 수신시간의 시간차가 상이하다. 상기 시간차에 따라 각 적외선이 사출된 지점의 거리정보를 획득할 수 있다. 3, the infrared ray output from the infrared ray sensor 145 emits light to the objects 10-1, 10-2, 10-3, and 10-4 within the range captured by the camera 121b . 4 (a), the infrared rays are uniformly projected on all the objects 10-1, 10-2, 10-3, and 10-4 located on the screen, and the objects 10-1, 10-2, 10-3, and 10-4 and the mobile terminal 100, the time difference between the projected time and the reflected infrared ray reception time differs. The distance information of the point where each infrared ray is emitted according to the time difference can be obtained.

이미지에 포함되는 거리정보는 이미지는 이미지 내의 각 포인트의 거리에 대한 정보뿐만 아니라 비슷한 거리정보를 갖는 포인트를 그루핑하여 오브젝트를 구분한 정보를 포함할 수 있다. The distance information included in the image may include not only information on the distance of each point in the image, but also information on which the object is divided by grouping points having similar distance information.

하나의 오브젝트는 유사한 거리 내에 있으므로, 화면 내에서 거리정보가 유사한 영역을 도 4의 (b)와 같이 그루핑(①~⑤)할 수 있다. 또는 비스듬하게 배치된 오브젝트의 경우, 예를 들면 벽과 같은 오브젝트는 거리정보가 상이하나 인접한 지점간에 연속되는 거리정보를 가지고 있다. 즉, 이웃하는 지점의 거리정보가 유사하거나, 이웃하는 지점끼리 거리값이 연속적인 값을 갖는 경우 하나의 오브젝트로 판단하여 그루핑할 수 있다. Since one object is within a similar distance, an area similar in distance information in the screen can be grouped as shown in (b) of FIG. 4 (1) to (5). In the case of an obliquely arranged object, for example, an object such as a wall has distance information that is different but continuous distance information between adjacent points. That is, when the distance information of neighboring points is similar or the distance values of neighboring points have continuous values, it can be determined as one object and grouped.

도 5의 (a)를 참조하면, 도 4의 (b)에서와 같이 그루핑 된 복수개의 영역 중 하나를 제1 영역으로 선택할 수 있다. 복수개의 그루핑 된 영역은 디스플레이부(151)의 프리뷰에 함께 표시될 수 있으며, 사용자가 그루핑 된 영역 중 하나를 선택하여 제1 영역(201)을 선택할 수 있다(S15, 도 2 참조). 제1 영역(201)이 선택된 것을 표시하기 위해 (a)에 표시된 바와 같이 제1 영역(201)의 둘레에 굵은 선(200)이나 다른색의 선을 이용하여 표시할 수 있다. Referring to FIG. 5A, one of a plurality of grouped regions may be selected as a first region as shown in FIG. 4B. The plurality of grouped regions may be displayed together with the preview of the display unit 151, and the user may select one of the grouped regions to select the first region 201 (S15, see FIG. 2). In order to indicate that the first area 201 is selected, a thick line 200 or a line of another color may be displayed around the first area 201 as shown in (a).

또는, 사용자가 프리뷰 화면의 터치입력을 통해 선택한 지점이 속하는 영역을 제1 영역(201)으로 선택하거나, 선택한 지점이 속하는 영역과 그보다 가까이에 있는 영역을 제1 영역(201)으로 선택할 수 있다. Alternatively, the user may select an area to which the point selected through the touch input of the preview screen belongs, as the first area 201, or an area to which the selected point belongs and an area that is closer to the selected area, as the first area 201.

사용자가 수동으로 오브젝트의 경계선을 따라 직접 잘라내고자 한다면 정확한 경계를 구분하는 것이 어려우나, 거리정보를 이용하면 자동으로 원하는 오브젝트를 정확하게 추출가능하다. It is difficult to distinguish accurate boundaries if the user wants to manually cut along the object boundary, but using the distance information, it is possible to automatically extract the desired object automatically.

오브젝트를 추출한 후에 오브젝트만 별도로 편집하거나, 도 4의 (b)에 도시된 바와 같이 오브젝트만 남기고, 배경(202)을 다른 배경(202')을 변경할 수 있다. It is possible to edit the object separately after extracting the object, or to leave the object only as shown in FIG. 4B, and to change the background 202 to another background 202 '.

도 6은 프리뷰 화면에서 제1 영역(203, 204)을 선택하는 다른 방법을 도시한 도면이다. 화면의 일측에 상태바(210)가 표시되며 상기 상태바(210)에 사용자가 터치하면 터치된 위치에 대응되는 영역이 제1 영역(203)으로 선택되고, 길이 방향을 따라 드래그하거나 상태바(210) 위의 다른 위치를 터치하면 제1 영역(204)이 변화된다. 상태바(210)의 일측이 근거리이고, 타측쪽이 원거리인 경우 상태바(210)를 따라 일측 방향으로 드래그하면 제1 영역(204)이 도 6의 (b)와 같이 줄어들 수 있다. 6 is a diagram showing another method of selecting the first areas 203 and 204 on the preview screen. A state bar 210 is displayed on one side of the screen and an area corresponding to the touched position is selected as the first area 203 when the user touches the status bar 210, 210, the first region 204 is changed. If one side of the status bar 210 is close to the other and the other side is far away, the first area 204 may be reduced as shown in FIG. 6B by dragging along the status bar 210 in one direction.

또는 도 7과 같이 사용자가 프리뷰 화면을 터치하면 터치한 지점이 속하는 그루핑된 영역이 제1 영역(204)으로 선택되고, 터치된 지점에서 바로 조정 가능한 상태바(210)가 출력될 수 있다. 사용자가 상태바를 따라 드래그하여 거리가 가까운 오브젝트를 선택하거나 거리가 먼 오브젝트를 제1 영역(203, 204)으로 선택할 수 있다. 상태바(210)를 조정하여 제1 영역(203, 204)을 선택한 후에 상태바(210)에서 터치입력이 종료되면 제1 영역의 선택이 종료된다. 7, when the user touches the preview screen, the grouped area to which the touched point belongs is selected as the first area 204, and the state bar 210 that can be adjusted immediately is displayed at the touched point. The user can drag an object along the status bar to select an object with a short distance or an object with a long distance to the first area 203 or 204. [ After selecting the first area 203 or 204 by adjusting the status bar 210, the selection of the first area is terminated when the touch input is completed in the status bar 210.

제1 영역(204)의 선택이 종료되면 이미지의 일부분에 적용할 지정효과를 선택한다(S16). 제1 영역(204) 선택의 종료는 전술한 바와 같이 상태바(210)에서 사용자가 손을 떼거나 도 8의 (a)와 같이 상태바(210) 이외의 영역으로 드래그하여 드래그 움직임이 종료되는 경우 디스플레이부(151)에 적용할 수 있는 복수개의 효과를 포함하는 메뉴(240)가 출력된다. 메뉴(240)는 각각 이름만 나타날 수도 있고 해당 효과가 적용된 예시 이미지를 포함할 수도 있다. When the selection of the first area 204 is completed, a designation effect to be applied to a part of the image is selected (S16). The end of selection of the first area 204 is accomplished by releasing the user in the status bar 210 or dragging the area to an area other than the status bar 210 as shown in FIG. A menu 240 including a plurality of effects that can be applied to the display unit 151 is output. The menu 240 may include only an individual name or an example image to which the effect is applied.

상기 메뉴(240)는 드래그하는 경우 드래그의 움직임이 종료되는 지점에서 복수개의 효과(220a-220d)를 포함하는 효과메뉴(240)가 나타날 수 있다. 상기 메뉴(240)를 따라 드래그 이동 후 손을 떼거나 터치입력을 통해 하나의 효과를 선택하면 선택된 효과(220b)가 지정효과로 설정되며, 복수개의 메뉴(240) 중 사용자의 손이 위치하는 효과가 적용되 화면이 프리뷰로 보여질 수 있다. The menu 240 may include an effect menu 240 including a plurality of effects 220a-220d at the point where dragging ends when dragging. When the user moves his / her hand along the menu 240 and then selects one of the effects through touch input, the selected effect 220b is set as a designation effect, , But the screen can be viewed as a preview.

또는 도 9의 (a)와 같이 하나의 효과(220b)에서 선택된 제1 영역(204)에까지 드래그 입력을 수행하면 제1 영역(204b)에 해당 효과가 적용되면서 드래그 입력이 종료된 위치(230)를 초점으로 하여 촬영된 이미지가 저장된다. If a drag input is performed to the first region 204 selected in one effect 220b as shown in FIG. 9A, the effect is applied to the first region 204b, and the position 230 at which the drag input ends, And the photographed image is stored.

또는 도 9의 (b)와 같이 하나의 효과를 제1 영역을 제외한 영역(제2 영역이라 한다)에 드래그하는 경우 제2 영역(205)에 선택된 효과가 적용되어 이미지가 저장된다. 이 경우에도 역시 드래그 입력이 종료된 위치를 초점으로 하여 효과가 적용된 이미지가 저장된다. 9B, when an effect is dragged to a region other than the first region (referred to as a second region), the selected effect is applied to the second region 205 to store the image. Also in this case, the image to which the effect is applied is stored with the position where the drag input ends as the focus.

도 10은 본 발명의 일 측면에 따른 이미지 촬영방법의 또 다른 실시예를 도시한 순서도이고, 도 11 및 도 12는 도 10에 따른 이미지 촬영방법의 각 단계를 설명하기 위한 도면이다. FIG. 10 is a flowchart showing another embodiment of the image capturing method according to an aspect of the present invention, and FIGS. 11 and 12 are views for explaining each step of the image capturing method according to FIG.

적외선 센서(145)를 이용하여 이미지 내에 위치하는 각 지점의 거리정보를 취득하는 단계(S21 내지 S23)는 전술한 도 2의 실시예의 S11 내지 S13과 동일하다. Steps S21 to S23 for obtaining distance information of each point located in the image using the infrared sensor 145 are the same as S11 to S13 of the embodiment of Fig. 2 described above.

상기 각 지점의 거리정보는 전술한 바와 같이 유사한 거리정보를 가지고 연속적인 값을 갖는 경우 그루핑하여 오브젝트를 구분한 정보를 포함할 수 있다. As described above, the distance information of each point may include information obtained by dividing an object by grouping if the distance information has a continuous value.

도 11과 같이, 소정의 시간을 두어 거리정보가 포함된 복수개의 이미지((a), (b),(c))를 저장한다(S24). 사용자는 저장된 복수개의 이미지지((a), (b), (c)) 중 하나에서 특정 오브젝트(250)를 선택할 수 있으며(S25), 오브젝트(250) 선택 방법은 전술한 실시예에서와 같이 거리정보를 기초로 그루핑한 영역이 될 수 있다.As shown in FIG. 11, a plurality of images ((a), (b), and (c)) including distance information are stored for a predetermined time (S24). The user can select the specific object 250 in one of the stored image files (a, b, c) (S25), and the method of selecting the object 250 is the same as in the above- And may be a grouped area based on distance information.

상기 선택된 오브젝트(250)를 각 이미지지((a), (b), (c))에서 추출한다(S26). 각 이미지지((a), (b), (c))마다 유사한 거리정보를 갖거나, 선택된 오브젝트(250)와 유사한 형상을 유지하는 그루핑된 영역이 나머지 이미지에 존재하는 경우 동일한 오브젝트(250)로 판단한다. The selected object 250 is extracted from each image ((a), (b), (c)) (S26). If the same object 250 has similar distance information for each image ((a), (b), (c)), or if a grouped area exists in the remaining image that maintains a similar shape to the selected object 250, .

도 12와 같이 동일한 오브젝트(250)로 판단한 영역의 이미지를 제외하고 나머지 영역(251)을 포함하는 각 이미지((a)~(c))를 합성하여 선택된 오브젝트(205')가 제거된 이미지를 추출할 수 있다(c). 도 10의 방법에 의하면, 방해되는 장애물을 제거하여 원하는 이미지를 얻을 수 있다. (A) to (c)) including the remaining area 251 except for the image of the area determined by the same object 250 as shown in FIG. 12 to synthesize the image in which the selected object 205 ' Can be extracted (c). According to the method of FIG. 10, a desired image can be obtained by removing the obstacles to be obstructed.

이상에서 살펴본 바와 같이, 본 발명의 적어도 일 실시예에 따르면, 적외선 센서(145)를 이용하여 거리정보를 포함하는 이미지를 촬영하여 거리정보를 기초로 복수개의 오브젝트를 구분할 수 있어 이미지 내의 특정 오브젝트를 추출할 수 있어, 이미지의 편집이 용이한 장점이 있다. 배경을 제거하거나, 특정 오브젝트를 제외할 수 있어 사용자가 원하는 대상만 추출한 이미지를 얻을 수 있다. As described above, according to at least one embodiment of the present invention, an infrared sensor 145 can be used to photograph an image including distance information and to distinguish a plurality of objects based on distance information, So that the image can be easily edited. The background can be removed or a specific object can be excluded.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The foregoing detailed description should not be construed in all aspects as limiting and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

100: 이동단말기 110: 무선통신부
120: 입력부
140: 센싱부 150: 출력부
160: 인터페이스부 170: 메모리
180: 제어부 190: 전원공급부
145: 적외선 센서 210: 상태바
220: 메뉴
100: mobile terminal 110: wireless communication unit
120: Input unit
140: sensing unit 150: output unit
160: interface unit 170: memory
180: control unit 190: power supply unit
145: Infrared sensor 210: Status bar
220: Menu

Claims (9)

카메라를 통해 인식된 이미지를 디스플레이부에 출력하는 단계;
상기 이미지 내의 복수개의 거리정보를 획득하는 단계;
상기 복수개의 거리정보를 기초로 제1 영역을 선택하는 단계;
상기 선택된 제1 영역 또는 선택되지 않은 제2 영역에 지정효과를 적용하는 단계; 및
상기 지정효과가 적용된 이미지를 저장하는 단계를 포함하고,
상기 제1 영역을 선택하는 단계는,
이웃하는 지점간의 거리정보가 연속적인 값을 갖는 경우 하나의 영역으로 그루핑하는 단계;
거리를 나타내는 상태바가 디스플레이부에 출력되는 단계;
상기 상태바에서 터치 위치에 상응하는 지정거리가 포함되는 그루핑 영역을 상기 디스플레이부에 출력하는 단계; 및
상기 상태바 상에서 터치입력이 종료되는 지점에 상응하는 지정거리를 포함하는 그루핑 영역을 제1 영역으로 선택하는 단계를 포함하고,
상기 지정효과를 적용하는 단계는,
상기 상태바에서 터치입력의 종료되면, 상기 디스플레이부에 복수개의 효과를 포함하는 메뉴를 출력하는 단계; 및
상기 메뉴 중 하나의 효과를 터치하여 상기 제1 영역 또는 상기 제2 영역에 드래그하여 상기 터치된 효과를 드래그가 종료된 지점에 적용하는 단계를 포함하는 이미지 촬영방법.
Outputting a recognized image through a camera to a display unit;
Obtaining a plurality of distance information in the image;
Selecting a first area based on the plurality of distance information;
Applying a designation effect to the selected first region or the non-selected second region; And
Storing the image to which the specifying effect is applied,
Wherein the selecting of the first region comprises:
Grouping into one area when the distance information between neighboring points has a continuous value;
A state bar indicating a distance is output to a display unit;
Outputting to the display unit a grouping area including a designated distance corresponding to the touch position in the status bar; And
And selecting a grouping area including a designated distance corresponding to a point at which the touch input ends on the status bar as a first area,
Wherein applying the designation effect comprises:
Outputting a menu including a plurality of effects to the display unit when the touch input is terminated in the status bar; And
And dragging the first area or the second area by touching an effect of one of the menus to apply the touched effect to a point at which dragging is completed.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 메뉴를 출력하는 단계는,
상기 상태바 이외의 지점에서 터치입력이 감지되는 경우, 상기 터치입력이 감지되는 지점에 상기 메뉴를 출력하는 것을 특징으로 하는 이미지 촬영방법.
The method according to claim 1,
The step of outputting the menu may include:
Wherein when the touch input is detected at a point other than the status bar, the menu is output at a point where the touch input is sensed.
제1항에 있어서,
상기 이미지를 저장하는 단계는,
상기 드래그가 종료된 지점에 초점을 맞추어 이미지를 저장하는 단계를 포함하는 이미지 촬영방법.
The method according to claim 1,
Wherein the storing the image comprises:
And storing the image by focusing on the point where the drag ends.
제1항에 있어서,
상기 거리정보를 획득하는 단계는,
적외선을 출력하는 단계;
상기 출력된 적외선이 반사되어 돌아온 적외선의 시간차를 구하는 단계; 및
상기 시간차를 기초로 각 지점의 적외선 센서로부터의 거리를 산출하는 단계를 포함하는 것을 특징으로 하는 이미지 촬영방법.
The method according to claim 1,
The step of acquiring the distance information includes:
Outputting an infrared ray;
Obtaining a time difference of the infrared ray reflected by the output infrared ray; And
And calculating a distance from the infrared sensor at each point based on the time difference.
적외선을 출력하는 단계;
상기 출력된 적외선을 오브젝트에 반사시켜 돌아온 적외선의 시간차를 구하는 단계;
상기 시간차를 기초로 각 오브젝트의 거리를 산출하여 거리정보를 생성하는 단계;
상기 거리정보를 포함하는 이미지를 시간차를 두어 연속으로 복수개 저장하는 단계;
상기 복수개의 이미지 중 하나의 이미지에서 특정 오브젝트를 선택하는 단계;
다른 이미지에서 상기 선택된 특정 오브젝트와 유사한 거리정보를 갖거나 유사한 형상을 유지하는 영역을 특정 오브젝트로 추출하는 단계; 및
상기 각 이미지에서 특정 오브젝트를 제외한 나머지를 합성한 이미지를 생성하는 단계를 포함하며,
상기 특정 오브젝트를 선택하는 단계는,
이웃하는 지점간의 거리정보가 연속적인 값을 갖는 경우 하나의 영역으로 그루핑하는 단계;
거리를 나타내는 상태바가 디스플레이부에 출력되는 단계;
상기 상태바에서 터치 위치에 상응하는 지정거리가 포함되는 그루핑 영역을 상기 디스플레이부에 출력하는 단계;
상기 상태바 상에서 터치입력이 종료되는 지점에 상응하는 지정거리를 포함하는 그루핑 영역을 특정 오브젝트로 선택하는 단계를 포함하는 이미지 촬영방법.
Outputting an infrared ray;
Obtaining a time difference of infrared rays returned by reflecting the output infrared ray on an object;
Calculating distance information of each object based on the time difference to generate distance information;
Storing a plurality of images including the distance information successively in a time lag;
Selecting a specific object from one of the plurality of images;
Extracting, as a specific object, an area having similar distance information or similar shape as the selected specific object in another image; And
And generating an image obtained by synthesizing the remainder excluding the specific object in each of the images,
Wherein the step of selecting the specific object comprises:
Grouping into one area when the distance information between neighboring points has a continuous value;
A state bar indicating a distance is output to a display unit;
Outputting to the display unit a grouping area including a designated distance corresponding to the touch position in the status bar;
Selecting a grouping area including a specified distance corresponding to a point at which the touch input ends on the status bar as a specific object.
KR1020140158667A 2014-11-14 2014-11-14 Method of image taking KR101611308B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140158667A KR101611308B1 (en) 2014-11-14 2014-11-14 Method of image taking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140158667A KR101611308B1 (en) 2014-11-14 2014-11-14 Method of image taking

Publications (1)

Publication Number Publication Date
KR101611308B1 true KR101611308B1 (en) 2016-04-26

Family

ID=55919337

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140158667A KR101611308B1 (en) 2014-11-14 2014-11-14 Method of image taking

Country Status (1)

Country Link
KR (1) KR101611308B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352440A (en) 2000-06-07 2001-12-21 Olympus Optical Co Ltd Image processing unit
JP2003209727A (en) 2002-01-11 2003-07-25 Fuji Photo Film Co Ltd Digital camera
JP2004239965A (en) 2003-02-03 2004-08-26 Sharp Corp Focusing device, camera and focusing program, and recording medium with the program recorded thereto
JP2005269604A (en) 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd Imaging device, imaging method, and imaging program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352440A (en) 2000-06-07 2001-12-21 Olympus Optical Co Ltd Image processing unit
JP2003209727A (en) 2002-01-11 2003-07-25 Fuji Photo Film Co Ltd Digital camera
JP2004239965A (en) 2003-02-03 2004-08-26 Sharp Corp Focusing device, camera and focusing program, and recording medium with the program recorded thereto
JP2005269604A (en) 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd Imaging device, imaging method, and imaging program

Similar Documents

Publication Publication Date Title
EP3246802B1 (en) Mobile terminal and method for controlling the same
CN108600605B (en) Mobile terminal and control method thereof
CN106341522B (en) Mobile terminal and control method thereof
KR102022444B1 (en) Method for synthesizing valid images in mobile terminal having multi camera and the mobile terminal therefor
CN106575361B (en) Method for providing visual sound image and electronic equipment for implementing the method
KR101832966B1 (en) Mobile terminal and method of controlling the same
KR20180048142A (en) Mobile terminal and method for controlling the same
KR20180019392A (en) Mobile terminal and method for controlling the same
KR102657519B1 (en) Electronic device for providing graphic data based on voice and operating method thereof
US11500533B2 (en) Mobile terminal for displaying a preview image to be captured by a camera and control method therefor
KR20180133743A (en) Mobile terminal and method for controlling the same
KR101598710B1 (en) Mobile terminal and method for controlling the same
KR102614048B1 (en) Electronic device and method for displaying object for augmented reality
CN112445395A (en) Music fragment selection method, device, equipment and storage medium
US10979627B2 (en) Mobile terminal
CN113936699B (en) Audio processing method, device, equipment and storage medium
US11032467B2 (en) Mobile terminal and control method thereof for obtaining image in response to the signal
KR102138835B1 (en) Apparatus and method for providing information exposure protecting image
KR101611308B1 (en) Method of image taking
JP2022155135A (en) Electronic device and control method thereof, program, and recording medium
KR101915587B1 (en) Music composing device
CN112101297A (en) Training data set determination method, behavior analysis method, device, system and medium
KR20170056833A (en) Mobile terminal
KR20160015592A (en) Mobile terminal and method for controlling the same
KR20190041815A (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
GRNT Written decision to grant