KR101611308B1 - Method of image taking - Google Patents
Method of image taking Download PDFInfo
- Publication number
- KR101611308B1 KR101611308B1 KR1020140158667A KR20140158667A KR101611308B1 KR 101611308 B1 KR101611308 B1 KR 101611308B1 KR 1020140158667 A KR1020140158667 A KR 1020140158667A KR 20140158667 A KR20140158667 A KR 20140158667A KR 101611308 B1 KR101611308 B1 KR 101611308B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- distance information
- area
- distance
- outputting
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 거리정보를 포함하고 특정 영역에 효과를 준 이미지를 촬영하는 방법에 관한 것이다. The present invention relates to a method of photographing an image containing distance information and having an effect on a specific area.
단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. A terminal can be divided into a mobile terminal (mobile / portable terminal) and a stationary terminal according to whether the terminal can be moved. The mobile terminal can be divided into a handheld terminal and a vehicle mounted terminal according to whether the user can directly carry the mobile terminal.
이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversified. For example, there are data and voice communication, photographing and video shooting through a camera, voice recording, music file playback through a speaker system, and outputting an image or video on a display unit. Some terminals are equipped with an electronic game play function or a multimedia player function. In particular, modern mobile terminals can receive multicast signals that provide visual content such as broadcast and video or television programs.
이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .
멀티미디어 기기의 주요 기능으로서 이미지 촬영 및 편집 기능을 탑재한 이동 단말기가 증가하는 추세이다. 특히 이미지 촬영을 위한 카메라는 필수 탑재 부품으로 자리잡았고, 카메라의 기능이 점점 확대되어 고화질의 이미지를 얻거나, 연사, 파노라마 촬영, 밝기를 조절하여 촬영하는 등 다양한 방식으로 촬영할 수 있다. As a main function of a multimedia device, a mobile terminal equipped with an image shooting and editing function is increasing. In particular, the camera for image shooting has become a necessary component, and the functions of the camera have been enlarged to obtain a high-quality image, and it can be shot in various ways such as shooting with continuous shooting, panoramic shooting, and adjusting brightness.
촬영한 이미지를 그대로 이용하기보다 편집하여 소셜네트워크 사이트 등에 올리는 사용자가 많아 이동 단말기 자체에서 편집기능에 대한 요구가 있다. 그러나 현재까지는 촬영시에 미리 사용자가 원하는 효과를 고려하여 촬영하지 못하여 촬영 후 사후적으로 편집에 한계가 있는 문제가 있다.There is a demand for editing functions in the mobile terminal itself because there are many users who edit and upload the photographed images to social network sites or the like. However, until now, there is a problem that the photographing can not be performed in consideration of the effect desired by the user at the time of photographing, and the editing is limited after the photographing.
특히 특정 오브젝트에만 효과를 적용하기 위해서는 사용자가 수동으로 편집 가능한 부분을 추출해야하고 추출하더라도 정확히 추출이 어려워 부자연스러운 사진이 되는 문제가 있다. Particularly, in order to apply an effect only to a specific object, there is a problem that a user must manually extract an editable portion, and extraction is difficult even if extracted, resulting in an unnatural picture.
본 발명은 상기 문제를 해결하기 위해 거리정보를 포함하고 거리정보를 이용하여 일부는 이미지를 촬영하거나, 거리정보를 포함한 이미지를 편집하는 방법을 제공하는 것을 목적으로 한다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a method of editing an image including distance information and photographing an image using distance information and including distance information.
본 발명은 카메라를 통해 인식된 이미지를 디스플레이부에 출력하는 단계; 상기 이미지 내의 복수개의 거리정보를 획득하는 단계; 상기 복수개의 거리정보를 기초로 제1 영역을 선택하는 단계; 상기 선택된 제1 영역 또는 상기 선택되지 않은 제2 영역에 지정효과를 적용하는 단계; 및 상기 지정효과가 적용된 이미지를 저장하는 단계를 포함하는 이미지 촬영방법을 제공한다. According to another aspect of the present invention, there is provided an image processing method comprising: outputting an image recognized through a camera to a display unit; Obtaining a plurality of distance information in the image; Selecting a first area based on the plurality of distance information; Applying a designation effect to the selected first region or the non-selected second region; And storing the image to which the designation effect is applied.
상기 제1 영역을 선택하는 단계는, 이미지 중 사용자의 터치입력이 인식된 지점의 거리정보를 지정거리로 설정하는 단계;The step of selecting the first area may include: setting distance information of a point at which a user's touch input is recognized in the image as a designated distance;
지정거리와 유사한 거리정보를 갖거나 상기 지정거리보다 가까운 거리정보를 갖는 지점을 제1 영역으로 선택할 수 있다. A point having distance information similar to the designated distance or having distance information closer to the specified distance may be selected as the first area.
상기 제1 영역을 선택하는 단계는, 이웃하는 지점간의 거리정보가 연속적인 값을 갖는 경우 하나의 영역으로 그루핑하는 단계; 상기 그루핑된 영역의 일 지점을 사용자가 선택하는 경우, 상기 그루핑된 영역을 제1 영역으로 선택하는 단계를 포함할 수 있다. The step of selecting the first area may include grouping into one area when the distance information between neighboring points has a continuous value; And when the user selects one point of the grouped area, selecting the grouped area as the first area.
상기 제1 영역을 선택하는 단계는, 거리를 나타내는 상태바가 디스플레이부에 출력되는 단계; 상기 상태바를 조정하여 지정거리를 선택하는 단계; 및 상기 지정거리와 유사한 거리정보를 갖는 지점 또는 상기 지정거리 이내에 위치하는 가 선택되는 단계를 포함할 수 있다. Wherein the step of selecting the first region includes the steps of: outputting a state bar indicating a distance to a display unit; Selecting the designated distance by adjusting the status bar; And selecting a position having a distance information similar to the specified distance or located within the specified distance.
상기 상태바의 조정은 상태바 상에서 터치앤드래그 입력을 통해 수행되고, 상기 지정효과를 적용하는 단계는, 상기 상태바에서 터치입력의 종료를 감지하는 단계; 상기 디스플레이부에 복수개의 효과를 포함하는 메뉴를 출력하는 단계; 상기 메뉴 중 하나의 효과를 지정효과로 지정하는 단계; 및 상기 선택된 제1 영역 또는 상기 선택되지 않은 제2 영역에 상기 지정효과를 적용하는 단계를 포함할 수 있다. The adjustment of the status bar is performed through a touch-and-drag input on the status bar, and the step of applying the specifying effect comprises: detecting an end of the touch input in the status bar; Outputting a menu including a plurality of effects on the display unit; Designating an effect of one of the menus as a designation effect; And applying the designation effect to the selected first region or the non-selected second region.
상기 메뉴를 출력하는 단계는, 상기 상태바 이외의 지점에서 터치입력 또는 드래그 입력이 감지되는 경우, 터치입력이 감지되는 지점에 상기 메뉴를 출력할 수 있다. The step of outputting the menu may output the menu at a point where a touch input is detected when a touch input or a drag input is detected at a point other than the status bar.
상기 지정효과를 적용하는 단계는, 상기 메뉴에서 하나의 효과를 터치하여 상기 제1 영역 또는 상기 제2 영역에 드래그하는 단계; 및 상기 드래그가 종료된 지점에 초점을 맞추어 이미지를 저장하는 단계를 포함할 수 있다. Wherein the applying the designating effect comprises: dragging one effect from the menu to the first area or the second area; And storing the image by focusing on a point where the drag is terminated.
상기 거리정보를 획득하는 단계는, 적외선을 출력하는 단계; 상기 출력된 적외선이 반사되어 돌아온 적외선의 시간차를 구하는 단계; 및 상기 시간차를 기초로 각 지점의 적외선 센서로부터의 거리를 산출하는 단계를 포함할 수 있다.The step of obtaining the distance information may include: outputting an infrared ray; Obtaining a time difference of the infrared ray reflected by the output infrared ray; And calculating a distance from the infrared sensor at each point on the basis of the time difference.
또한, 적외선을 출력하는 단계; 상기 출력된 적외선을 상기 오브젝트에 반사시켜 돌아온 적외선의 시간차를 구하는 단계; 상기 시간차를 기초로 각 오브젝트의 거리를 산출하여 거리정보를 생성하는 단계; 상기 거리정보를 포함하는 이미지를 시간차를 두어 연속으로 복수개 저장하는 단계; 상기 복수개의 이미지 중 하나의 이미지에서 특정 오브젝트를 선택하는 단계; 상기 선택된 오브젝트의 거리정보를 기초로 다른 이미지에서 특정 오브젝트를 추출하는 단계; 및 상기 각 이미지에서 특정 오브젝트를 제외한 나머지를 합성한 이미지를 생성하는 단계를 포함하는 이미지 촬영방법을 제공한다. Outputting an infrared ray; Calculating a time difference of infrared rays reflected by reflecting the output infrared ray on the object; Calculating distance information of each object based on the time difference to generate distance information; Storing a plurality of images including the distance information successively in a time lag; Selecting a specific object from one of the plurality of images; Extracting a specific object from another image based on the distance information of the selected object; And generating an image obtained by synthesizing the rest of the images except for the specific object.
본 발명의 적어도 일 실시예에 따르면, 적외선 센서를 이용하여 거리정보를 포함하는 이미지를 촬영하여 거리정보를 기초로 복수개의 오브젝트를 구분할 수 있어 이미지 내의 특정 오브젝트를 추출할 수 있어, 이미지의 편집이 용이한 장점이 있다. According to at least one embodiment of the present invention, a plurality of objects can be distinguished based on distance information by photographing an image including distance information using an infrared sensor, so that specific objects in an image can be extracted, There is an easy advantage.
특히 배경을 제거하거나, 특정 오브젝트를 제외할 수 있어 사용자가 원하는 대상만 추출한 이미지를 얻을 수 있다. In particular, the background can be removed or a specific object can be excluded, so that an image extracted by a user can be obtained.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다. Further scope of applicability of the present invention will become apparent from the following detailed description. It should be understood, however, that the detailed description and specific examples, such as the preferred embodiments of the invention, are given by way of illustration only, since various changes and modifications within the spirit and scope of the invention will become apparent to those skilled in the art.
도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2는 본 발명의 일 측면에 따른 이미지 촬영방법의 일 실시예를 도시한 순서도이다.
도 3 내지 도 9는 도 2에 따른 이미지 촬영방법의 각 단계를 설명하기 위한 도면이다.
도 10은 본 발명의 일 측면에 따른 이미지 촬영방법의 또 다른 실시예를 도시한 순서도이다.
도 11 및 도 12는 도 10에 따른 이미지 촬영방법의 각 단계를 설명하기 위한 도면이다. 1A is a block diagram illustrating a mobile terminal according to the present invention.
1B and 1C are conceptual diagrams illustrating an example of a mobile terminal according to the present invention in different directions.
2 is a flowchart showing an embodiment of an image capturing method according to an aspect of the present invention.
FIGS. 3 to 9 are views for explaining respective steps of the image capturing method according to FIG.
10 is a flowchart showing another embodiment of the image capturing method according to an aspect of the present invention.
FIGS. 11 and 12 are views for explaining respective steps of the image capturing method according to FIG.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC A tablet PC, an ultrabook, a wearable device such as a smartwatch, a smart glass, and a head mounted display (HMD). have.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be appreciated by those skilled in the art that the configuration according to the embodiments described herein may be applied to fixed terminals such as a digital TV, a desktop computer, a digital signage, and the like, will be.
도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C are block diagrams for explaining a mobile terminal according to the present invention, and FIGS. 1B and 1C are conceptual diagrams showing an example of a mobile terminal according to the present invention in different directions.
상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(145, IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operations related to the application program, the
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the components may operate in cooperation with one another to implement a method of operation, control, or control of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the
도 2는 본 발명의 일 측면에 따른 이미지 촬영방법의 일 실시예를 도시한 순서도이고, 도 3 내지 도 9는 도 2에 따른 이미지 촬영방법의 각 단계를 설명하기 위한 도면이다. FIG. 2 is a flowchart showing an embodiment of an image capturing method according to an aspect of the present invention, and FIGS. 3 to 9 are views for explaining each step of the image capturing method according to FIG.
이미지 촬영 시 각 지점의 이동 단말기(100)로부터의 거리를 감지하기 위해 적외선 센서(145, IR sensor, Infrared sensor)를 이용한다. 적외선 센서는 적외선을 스스로 복사하여 반사되는 빛을 검출하여 변화를 검지하는 장치로서 종래의 온도센서 자외선 센서보다 감도 및 정확도가 향상된다. 적외선 센서는 적외선을 사출하는 적외선 엘이디와 반사된 적외선을 검출하는 적외선 수신부를 포함한다. An infrared sensor 145 (IR sensor) is used to detect the distance from the
적외선 센서(145)는 이미지를 취득하는 카메라(121b)와 같은 방향을 향하고 있으며, 카메라(121b)에서 취득된 이미지의 각 지점에 거리정보를 취득할 수 있다. 보다 구체적으로 카메라(121b)에 입력된 이미지의 프리뷰를 디스플레이부(151)에 출력한다(S11). 상기 이미지에는 복수개의 오브젝트(10-1, 10-2, 10-3, 10-4)가 포함되며, 각 오브젝트(10-1, 10-2, 10-3, 10-4)는 이동 단말기(100)로 부터 거리가 상이하게 배치될 수 있다. The
이미지를 디스플레이하는 동시에 또는 순차적으로 적외선 센서(145)의 적외선 엘이디를 이용하여 적외선을 사출하고(S12) 사출한 적외선이 반사되어 다시 이동 단말기(100)로 되돌아 오는 적외선을 감지한다(S13). 사출한 적외선과 반사된 적외선의 시간차를 기초로하여 이동 단말기(100)로 부터 각 지점까지의 거리정보를 획득할 수 있다(S14).At the same time or sequentially displaying the image, the infrared ray is emitted by using the infrared ray LED of the infrared ray sensor 145 (S12), and the infrared ray reflected by the emitted infrared ray is detected again to detect the infrared ray returning to the mobile terminal 100 (S13). The distance information from the
도 3에 도시된 바와 같이 적외선 센서(145)에서 출력된 적외선은 카메라(121b)가 촬영하는 범위 내에 있는 오브젝트(10-1, 10-2, 10-3, 10-4)에 빛을 사출한다. 도 4의 (a)와 같이 사출된 적외선은 화면에 위치하는 오브젝트(10-1, 10-2, 10-3, 10-4) 전체에 고르게 사출되고, 오브젝트(10-1, 10-2, 10-3, 10-4)와 이동 단말기(100) 사이의 거리에 따라, 사출된 시간과 반사되어 되돌아 오는 적외선의 수신시간의 시간차가 상이하다. 상기 시간차에 따라 각 적외선이 사출된 지점의 거리정보를 획득할 수 있다. 3, the infrared ray output from the
이미지에 포함되는 거리정보는 이미지는 이미지 내의 각 포인트의 거리에 대한 정보뿐만 아니라 비슷한 거리정보를 갖는 포인트를 그루핑하여 오브젝트를 구분한 정보를 포함할 수 있다. The distance information included in the image may include not only information on the distance of each point in the image, but also information on which the object is divided by grouping points having similar distance information.
하나의 오브젝트는 유사한 거리 내에 있으므로, 화면 내에서 거리정보가 유사한 영역을 도 4의 (b)와 같이 그루핑(①~⑤)할 수 있다. 또는 비스듬하게 배치된 오브젝트의 경우, 예를 들면 벽과 같은 오브젝트는 거리정보가 상이하나 인접한 지점간에 연속되는 거리정보를 가지고 있다. 즉, 이웃하는 지점의 거리정보가 유사하거나, 이웃하는 지점끼리 거리값이 연속적인 값을 갖는 경우 하나의 오브젝트로 판단하여 그루핑할 수 있다. Since one object is within a similar distance, an area similar in distance information in the screen can be grouped as shown in (b) of FIG. 4 (1) to (5). In the case of an obliquely arranged object, for example, an object such as a wall has distance information that is different but continuous distance information between adjacent points. That is, when the distance information of neighboring points is similar or the distance values of neighboring points have continuous values, it can be determined as one object and grouped.
도 5의 (a)를 참조하면, 도 4의 (b)에서와 같이 그루핑 된 복수개의 영역 중 하나를 제1 영역으로 선택할 수 있다. 복수개의 그루핑 된 영역은 디스플레이부(151)의 프리뷰에 함께 표시될 수 있으며, 사용자가 그루핑 된 영역 중 하나를 선택하여 제1 영역(201)을 선택할 수 있다(S15, 도 2 참조). 제1 영역(201)이 선택된 것을 표시하기 위해 (a)에 표시된 바와 같이 제1 영역(201)의 둘레에 굵은 선(200)이나 다른색의 선을 이용하여 표시할 수 있다. Referring to FIG. 5A, one of a plurality of grouped regions may be selected as a first region as shown in FIG. 4B. The plurality of grouped regions may be displayed together with the preview of the
또는, 사용자가 프리뷰 화면의 터치입력을 통해 선택한 지점이 속하는 영역을 제1 영역(201)으로 선택하거나, 선택한 지점이 속하는 영역과 그보다 가까이에 있는 영역을 제1 영역(201)으로 선택할 수 있다. Alternatively, the user may select an area to which the point selected through the touch input of the preview screen belongs, as the
사용자가 수동으로 오브젝트의 경계선을 따라 직접 잘라내고자 한다면 정확한 경계를 구분하는 것이 어려우나, 거리정보를 이용하면 자동으로 원하는 오브젝트를 정확하게 추출가능하다. It is difficult to distinguish accurate boundaries if the user wants to manually cut along the object boundary, but using the distance information, it is possible to automatically extract the desired object automatically.
오브젝트를 추출한 후에 오브젝트만 별도로 편집하거나, 도 4의 (b)에 도시된 바와 같이 오브젝트만 남기고, 배경(202)을 다른 배경(202')을 변경할 수 있다. It is possible to edit the object separately after extracting the object, or to leave the object only as shown in FIG. 4B, and to change the
도 6은 프리뷰 화면에서 제1 영역(203, 204)을 선택하는 다른 방법을 도시한 도면이다. 화면의 일측에 상태바(210)가 표시되며 상기 상태바(210)에 사용자가 터치하면 터치된 위치에 대응되는 영역이 제1 영역(203)으로 선택되고, 길이 방향을 따라 드래그하거나 상태바(210) 위의 다른 위치를 터치하면 제1 영역(204)이 변화된다. 상태바(210)의 일측이 근거리이고, 타측쪽이 원거리인 경우 상태바(210)를 따라 일측 방향으로 드래그하면 제1 영역(204)이 도 6의 (b)와 같이 줄어들 수 있다. 6 is a diagram showing another method of selecting the
또는 도 7과 같이 사용자가 프리뷰 화면을 터치하면 터치한 지점이 속하는 그루핑된 영역이 제1 영역(204)으로 선택되고, 터치된 지점에서 바로 조정 가능한 상태바(210)가 출력될 수 있다. 사용자가 상태바를 따라 드래그하여 거리가 가까운 오브젝트를 선택하거나 거리가 먼 오브젝트를 제1 영역(203, 204)으로 선택할 수 있다. 상태바(210)를 조정하여 제1 영역(203, 204)을 선택한 후에 상태바(210)에서 터치입력이 종료되면 제1 영역의 선택이 종료된다. 7, when the user touches the preview screen, the grouped area to which the touched point belongs is selected as the
제1 영역(204)의 선택이 종료되면 이미지의 일부분에 적용할 지정효과를 선택한다(S16). 제1 영역(204) 선택의 종료는 전술한 바와 같이 상태바(210)에서 사용자가 손을 떼거나 도 8의 (a)와 같이 상태바(210) 이외의 영역으로 드래그하여 드래그 움직임이 종료되는 경우 디스플레이부(151)에 적용할 수 있는 복수개의 효과를 포함하는 메뉴(240)가 출력된다. 메뉴(240)는 각각 이름만 나타날 수도 있고 해당 효과가 적용된 예시 이미지를 포함할 수도 있다. When the selection of the
상기 메뉴(240)는 드래그하는 경우 드래그의 움직임이 종료되는 지점에서 복수개의 효과(220a-220d)를 포함하는 효과메뉴(240)가 나타날 수 있다. 상기 메뉴(240)를 따라 드래그 이동 후 손을 떼거나 터치입력을 통해 하나의 효과를 선택하면 선택된 효과(220b)가 지정효과로 설정되며, 복수개의 메뉴(240) 중 사용자의 손이 위치하는 효과가 적용되 화면이 프리뷰로 보여질 수 있다. The menu 240 may include an effect menu 240 including a plurality of
또는 도 9의 (a)와 같이 하나의 효과(220b)에서 선택된 제1 영역(204)에까지 드래그 입력을 수행하면 제1 영역(204b)에 해당 효과가 적용되면서 드래그 입력이 종료된 위치(230)를 초점으로 하여 촬영된 이미지가 저장된다. If a drag input is performed to the
또는 도 9의 (b)와 같이 하나의 효과를 제1 영역을 제외한 영역(제2 영역이라 한다)에 드래그하는 경우 제2 영역(205)에 선택된 효과가 적용되어 이미지가 저장된다. 이 경우에도 역시 드래그 입력이 종료된 위치를 초점으로 하여 효과가 적용된 이미지가 저장된다. 9B, when an effect is dragged to a region other than the first region (referred to as a second region), the selected effect is applied to the
도 10은 본 발명의 일 측면에 따른 이미지 촬영방법의 또 다른 실시예를 도시한 순서도이고, 도 11 및 도 12는 도 10에 따른 이미지 촬영방법의 각 단계를 설명하기 위한 도면이다. FIG. 10 is a flowchart showing another embodiment of the image capturing method according to an aspect of the present invention, and FIGS. 11 and 12 are views for explaining each step of the image capturing method according to FIG.
적외선 센서(145)를 이용하여 이미지 내에 위치하는 각 지점의 거리정보를 취득하는 단계(S21 내지 S23)는 전술한 도 2의 실시예의 S11 내지 S13과 동일하다. Steps S21 to S23 for obtaining distance information of each point located in the image using the
상기 각 지점의 거리정보는 전술한 바와 같이 유사한 거리정보를 가지고 연속적인 값을 갖는 경우 그루핑하여 오브젝트를 구분한 정보를 포함할 수 있다. As described above, the distance information of each point may include information obtained by dividing an object by grouping if the distance information has a continuous value.
도 11과 같이, 소정의 시간을 두어 거리정보가 포함된 복수개의 이미지((a), (b),(c))를 저장한다(S24). 사용자는 저장된 복수개의 이미지지((a), (b), (c)) 중 하나에서 특정 오브젝트(250)를 선택할 수 있으며(S25), 오브젝트(250) 선택 방법은 전술한 실시예에서와 같이 거리정보를 기초로 그루핑한 영역이 될 수 있다.As shown in FIG. 11, a plurality of images ((a), (b), and (c)) including distance information are stored for a predetermined time (S24). The user can select the
상기 선택된 오브젝트(250)를 각 이미지지((a), (b), (c))에서 추출한다(S26). 각 이미지지((a), (b), (c))마다 유사한 거리정보를 갖거나, 선택된 오브젝트(250)와 유사한 형상을 유지하는 그루핑된 영역이 나머지 이미지에 존재하는 경우 동일한 오브젝트(250)로 판단한다. The selected
도 12와 같이 동일한 오브젝트(250)로 판단한 영역의 이미지를 제외하고 나머지 영역(251)을 포함하는 각 이미지((a)~(c))를 합성하여 선택된 오브젝트(205')가 제거된 이미지를 추출할 수 있다(c). 도 10의 방법에 의하면, 방해되는 장애물을 제거하여 원하는 이미지를 얻을 수 있다. (A) to (c)) including the remaining
이상에서 살펴본 바와 같이, 본 발명의 적어도 일 실시예에 따르면, 적외선 센서(145)를 이용하여 거리정보를 포함하는 이미지를 촬영하여 거리정보를 기초로 복수개의 오브젝트를 구분할 수 있어 이미지 내의 특정 오브젝트를 추출할 수 있어, 이미지의 편집이 용이한 장점이 있다. 배경을 제거하거나, 특정 오브젝트를 제외할 수 있어 사용자가 원하는 대상만 추출한 이미지를 얻을 수 있다. As described above, according to at least one embodiment of the present invention, an
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The foregoing detailed description should not be construed in all aspects as limiting and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.
100: 이동단말기 110: 무선통신부
120: 입력부
140: 센싱부 150: 출력부
160: 인터페이스부 170: 메모리
180: 제어부 190: 전원공급부
145: 적외선 센서 210: 상태바
220: 메뉴100: mobile terminal 110: wireless communication unit
120: Input unit
140: sensing unit 150: output unit
160: interface unit 170: memory
180: control unit 190: power supply unit
145: Infrared sensor 210: Status bar
220: Menu
Claims (9)
상기 이미지 내의 복수개의 거리정보를 획득하는 단계;
상기 복수개의 거리정보를 기초로 제1 영역을 선택하는 단계;
상기 선택된 제1 영역 또는 선택되지 않은 제2 영역에 지정효과를 적용하는 단계; 및
상기 지정효과가 적용된 이미지를 저장하는 단계를 포함하고,
상기 제1 영역을 선택하는 단계는,
이웃하는 지점간의 거리정보가 연속적인 값을 갖는 경우 하나의 영역으로 그루핑하는 단계;
거리를 나타내는 상태바가 디스플레이부에 출력되는 단계;
상기 상태바에서 터치 위치에 상응하는 지정거리가 포함되는 그루핑 영역을 상기 디스플레이부에 출력하는 단계; 및
상기 상태바 상에서 터치입력이 종료되는 지점에 상응하는 지정거리를 포함하는 그루핑 영역을 제1 영역으로 선택하는 단계를 포함하고,
상기 지정효과를 적용하는 단계는,
상기 상태바에서 터치입력의 종료되면, 상기 디스플레이부에 복수개의 효과를 포함하는 메뉴를 출력하는 단계; 및
상기 메뉴 중 하나의 효과를 터치하여 상기 제1 영역 또는 상기 제2 영역에 드래그하여 상기 터치된 효과를 드래그가 종료된 지점에 적용하는 단계를 포함하는 이미지 촬영방법.Outputting a recognized image through a camera to a display unit;
Obtaining a plurality of distance information in the image;
Selecting a first area based on the plurality of distance information;
Applying a designation effect to the selected first region or the non-selected second region; And
Storing the image to which the specifying effect is applied,
Wherein the selecting of the first region comprises:
Grouping into one area when the distance information between neighboring points has a continuous value;
A state bar indicating a distance is output to a display unit;
Outputting to the display unit a grouping area including a designated distance corresponding to the touch position in the status bar; And
And selecting a grouping area including a designated distance corresponding to a point at which the touch input ends on the status bar as a first area,
Wherein applying the designation effect comprises:
Outputting a menu including a plurality of effects to the display unit when the touch input is terminated in the status bar; And
And dragging the first area or the second area by touching an effect of one of the menus to apply the touched effect to a point at which dragging is completed.
상기 메뉴를 출력하는 단계는,
상기 상태바 이외의 지점에서 터치입력이 감지되는 경우, 상기 터치입력이 감지되는 지점에 상기 메뉴를 출력하는 것을 특징으로 하는 이미지 촬영방법.The method according to claim 1,
The step of outputting the menu may include:
Wherein when the touch input is detected at a point other than the status bar, the menu is output at a point where the touch input is sensed.
상기 이미지를 저장하는 단계는,
상기 드래그가 종료된 지점에 초점을 맞추어 이미지를 저장하는 단계를 포함하는 이미지 촬영방법.The method according to claim 1,
Wherein the storing the image comprises:
And storing the image by focusing on the point where the drag ends.
상기 거리정보를 획득하는 단계는,
적외선을 출력하는 단계;
상기 출력된 적외선이 반사되어 돌아온 적외선의 시간차를 구하는 단계; 및
상기 시간차를 기초로 각 지점의 적외선 센서로부터의 거리를 산출하는 단계를 포함하는 것을 특징으로 하는 이미지 촬영방법.The method according to claim 1,
The step of acquiring the distance information includes:
Outputting an infrared ray;
Obtaining a time difference of the infrared ray reflected by the output infrared ray; And
And calculating a distance from the infrared sensor at each point based on the time difference.
상기 출력된 적외선을 오브젝트에 반사시켜 돌아온 적외선의 시간차를 구하는 단계;
상기 시간차를 기초로 각 오브젝트의 거리를 산출하여 거리정보를 생성하는 단계;
상기 거리정보를 포함하는 이미지를 시간차를 두어 연속으로 복수개 저장하는 단계;
상기 복수개의 이미지 중 하나의 이미지에서 특정 오브젝트를 선택하는 단계;
다른 이미지에서 상기 선택된 특정 오브젝트와 유사한 거리정보를 갖거나 유사한 형상을 유지하는 영역을 특정 오브젝트로 추출하는 단계; 및
상기 각 이미지에서 특정 오브젝트를 제외한 나머지를 합성한 이미지를 생성하는 단계를 포함하며,
상기 특정 오브젝트를 선택하는 단계는,
이웃하는 지점간의 거리정보가 연속적인 값을 갖는 경우 하나의 영역으로 그루핑하는 단계;
거리를 나타내는 상태바가 디스플레이부에 출력되는 단계;
상기 상태바에서 터치 위치에 상응하는 지정거리가 포함되는 그루핑 영역을 상기 디스플레이부에 출력하는 단계;
상기 상태바 상에서 터치입력이 종료되는 지점에 상응하는 지정거리를 포함하는 그루핑 영역을 특정 오브젝트로 선택하는 단계를 포함하는 이미지 촬영방법.Outputting an infrared ray;
Obtaining a time difference of infrared rays returned by reflecting the output infrared ray on an object;
Calculating distance information of each object based on the time difference to generate distance information;
Storing a plurality of images including the distance information successively in a time lag;
Selecting a specific object from one of the plurality of images;
Extracting, as a specific object, an area having similar distance information or similar shape as the selected specific object in another image; And
And generating an image obtained by synthesizing the remainder excluding the specific object in each of the images,
Wherein the step of selecting the specific object comprises:
Grouping into one area when the distance information between neighboring points has a continuous value;
A state bar indicating a distance is output to a display unit;
Outputting to the display unit a grouping area including a designated distance corresponding to the touch position in the status bar;
Selecting a grouping area including a specified distance corresponding to a point at which the touch input ends on the status bar as a specific object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140158667A KR101611308B1 (en) | 2014-11-14 | 2014-11-14 | Method of image taking |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140158667A KR101611308B1 (en) | 2014-11-14 | 2014-11-14 | Method of image taking |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101611308B1 true KR101611308B1 (en) | 2016-04-26 |
Family
ID=55919337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140158667A KR101611308B1 (en) | 2014-11-14 | 2014-11-14 | Method of image taking |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101611308B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001352440A (en) | 2000-06-07 | 2001-12-21 | Olympus Optical Co Ltd | Image processing unit |
JP2003209727A (en) | 2002-01-11 | 2003-07-25 | Fuji Photo Film Co Ltd | Digital camera |
JP2004239965A (en) | 2003-02-03 | 2004-08-26 | Sharp Corp | Focusing device, camera and focusing program, and recording medium with the program recorded thereto |
JP2005269604A (en) | 2004-02-20 | 2005-09-29 | Fuji Photo Film Co Ltd | Imaging device, imaging method, and imaging program |
-
2014
- 2014-11-14 KR KR1020140158667A patent/KR101611308B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001352440A (en) | 2000-06-07 | 2001-12-21 | Olympus Optical Co Ltd | Image processing unit |
JP2003209727A (en) | 2002-01-11 | 2003-07-25 | Fuji Photo Film Co Ltd | Digital camera |
JP2004239965A (en) | 2003-02-03 | 2004-08-26 | Sharp Corp | Focusing device, camera and focusing program, and recording medium with the program recorded thereto |
JP2005269604A (en) | 2004-02-20 | 2005-09-29 | Fuji Photo Film Co Ltd | Imaging device, imaging method, and imaging program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3246802B1 (en) | Mobile terminal and method for controlling the same | |
CN108600605B (en) | Mobile terminal and control method thereof | |
CN106341522B (en) | Mobile terminal and control method thereof | |
KR102022444B1 (en) | Method for synthesizing valid images in mobile terminal having multi camera and the mobile terminal therefor | |
CN106575361B (en) | Method for providing visual sound image and electronic equipment for implementing the method | |
KR101832966B1 (en) | Mobile terminal and method of controlling the same | |
KR20180048142A (en) | Mobile terminal and method for controlling the same | |
KR20180019392A (en) | Mobile terminal and method for controlling the same | |
KR102657519B1 (en) | Electronic device for providing graphic data based on voice and operating method thereof | |
US11500533B2 (en) | Mobile terminal for displaying a preview image to be captured by a camera and control method therefor | |
KR20180133743A (en) | Mobile terminal and method for controlling the same | |
KR101598710B1 (en) | Mobile terminal and method for controlling the same | |
KR102614048B1 (en) | Electronic device and method for displaying object for augmented reality | |
CN112445395A (en) | Music fragment selection method, device, equipment and storage medium | |
US10979627B2 (en) | Mobile terminal | |
CN113936699B (en) | Audio processing method, device, equipment and storage medium | |
US11032467B2 (en) | Mobile terminal and control method thereof for obtaining image in response to the signal | |
KR102138835B1 (en) | Apparatus and method for providing information exposure protecting image | |
KR101611308B1 (en) | Method of image taking | |
JP2022155135A (en) | Electronic device and control method thereof, program, and recording medium | |
KR101915587B1 (en) | Music composing device | |
CN112101297A (en) | Training data set determination method, behavior analysis method, device, system and medium | |
KR20170056833A (en) | Mobile terminal | |
KR20160015592A (en) | Mobile terminal and method for controlling the same | |
KR20190041815A (en) | Mobile terminal and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |