KR101915587B1 - Music composing device - Google Patents

Music composing device Download PDF

Info

Publication number
KR101915587B1
KR101915587B1 KR1020170073956A KR20170073956A KR101915587B1 KR 101915587 B1 KR101915587 B1 KR 101915587B1 KR 1020170073956 A KR1020170073956 A KR 1020170073956A KR 20170073956 A KR20170073956 A KR 20170073956A KR 101915587 B1 KR101915587 B1 KR 101915587B1
Authority
KR
South Korea
Prior art keywords
image
music
extracting
composition data
factors
Prior art date
Application number
KR1020170073956A
Other languages
Korean (ko)
Inventor
유용재
이혜건
박재연
최가람
Original Assignee
유용재
이혜건
박재연
최가람
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유용재, 이혜건, 박재연, 최가람 filed Critical 유용재
Priority to KR1020170073956A priority Critical patent/KR101915587B1/en
Application granted granted Critical
Publication of KR101915587B1 publication Critical patent/KR101915587B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen

Abstract

Disclosed is a music composing device capable of generating composition data corresponding to a video stored in a memory. According to the present invention, the music composing device may comprise a display unit having a touch sensor, a camera, a memory, and a control unit. The display unit displays a first icon linked to a first application. The control unit may display a video file stored in the memory or a video acquired using the camera on the display unit when receiving a first touch input from the touch sensor at a position corresponding to the first icon, acquire an image from a video displayed on the display unit, extract a plurality of input factors from the obtained image, extract a plurality of music factors from the input factors, and form composition data by combining the music factors.

Description

음악 작곡 장치{MUSIC COMPOSING DEVICE}[0001] MUSIC COMPOSING DEVICE [0002]

본 발명은, 영상으로부터 음악을 작곡하는 음악 작곡 장치에 관한 것이다.The present invention relates to a music composition apparatus for composing music from a video.

영상을 이용하여 음악을 생성하는 장치가 고려될 수 있다. 특히 영상으로부터 데이터를 추출하여 음악을 생성하는 장치가 고려될 수 있다. 영상을 이용하여 음악을 생성하는 장치로서 기존 음악 생성 장치는, 예를 들어 영상으로부터 리듬과 화성을 생성하고 생성된 리듬과 화성에 따라 데이터 베이스에서 모티프를 선택할 수 있다. An apparatus for generating music using an image may be considered. In particular, an apparatus for extracting data from a video to generate music may be considered. An apparatus for generating music using an image, for example, an existing music production apparatus can generate rhythm and harmony from an image and select a motif from a database according to the generated rhythm and harmony.

상기 기존 음악 생성 장치는 모티프를 선택하기 위하여 리듬과 화성 또는 음조를 결정할 수 있다. 상기 기존 음악 생성 장치는 새로운 모티프를 생성하고자 하는 사용자의 심리적 욕구 측면에서 한계가 있을 수 있다.The existing music production apparatus may determine a rhythm and a harmony or a tone to select a motif. The existing music generation apparatus may have a limitation in terms of psychological needs of a user who wishes to create a new motif.

특허 1: WO 2006112584 A1Patent 1: WO 2006112584 A1 특허 2: 공개특허 10-2015-0112048Patent 2: Published patent 10-2015-0112048

본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다. The present invention is directed to solving the above-mentioned problems and other problems.

본 발명은 카메라에서 실시간으로 획득한 동영상에 대응된 작곡 데이터를 생성하는 음악 작곡 장치를 다른 목적으로 한다.Another object of the present invention is to provide a music composition apparatus for generating composition data corresponding to a moving picture obtained in real time by a camera.

본 발명은 메모리에 저장된 동영상에 대응된 작곡 데이터를 생성하는 음악 작곡 장치를 다른 목적으로 한다.Another object of the present invention is to provide a music composition apparatus for generating composition data corresponding to moving pictures stored in a memory.

본 발명은 녹화된 동영상 및 연동된 작곡 데이터를 공유하는 시스템을 다른 목적으로 한다.Another object of the present invention is to provide a system for sharing recorded moving images and linked composition data.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 터치 센서를 구비는 디스플레이부; 카메라; 메모리; 그리고 제어부를 포함하고, 상기 디스플레이부는 제1 어플리케이션에 연동된 제1 아이콘을 전시하며, 상기 제어부는, 상기 터치 센서로부터 상기 제1 아이콘에 대응된 위치에서 제1 터치입력을 제공받으면, 상기 메모리에 저장된 영상 파일 또는 카메라를 이용하여 획득한 영상을상기 디스플레이부에 전시하고, 상기 디스플레이부에 전시되는 영상에서 이미지를 획득하며, 상기 획득된 이미지로부터 복수 개의 입력인자를 추출하고, 상기 복수 개의 입력인자로부터 복수 개의 음악인자를 추출하며, 상기 복수 개의 음악인자를 조합하여 작곡 데이터를 형성하는, 음악 작곡 장치를 제공할 수 있다.According to an aspect of the present invention, there is provided a display device comprising: a display unit including a touch sensor; camera; Memory; And a control unit, wherein the display unit displays a first icon associated with the first application, and when the first touch input is received from the touch sensor at a position corresponding to the first icon, A method for displaying an image, comprising: displaying a stored image file or an image obtained by using a camera on the display unit, acquiring an image from an image displayed on the display unit, extracting a plurality of input factors from the obtained image, Extracting a plurality of music parameters from the plurality of music parameters, and combining the plurality of music parameters to form composition data.

상기 또는 다른 목적을 달성하기 위해 본 발명의 다른 측면에 따르면, 일 시각에서, 카메라와 디스플레이 유닛을 구비한 음악 작곡 장치에 저장된 영상 파일 또는 상기 음악 작곡 장치의 카메라를 이용하여 획득된 영상에서 이미지를 획득하는 이미지획득단계; 상기 획득된 이미지로부터 복수 개의 입력인자를 추출하는 입력인자추출단계; 상기 복수 개의 입력인자로부터 복수 개의 음악인자를 추출하는 음악인자추출단계; 그리고 상기 추출된 복수 개의 음악인자를 조합하여 작곡 데이터 형성하는 작곡데이터형성단계를 포함하는, 음악 작곡 데이터 형성 방법을 제공할 수 있다.According to another aspect of the present invention, there is provided a method for reproducing a video file stored in a music composition apparatus having a camera and a display unit or an image obtained using a camera of the music composition apparatus, An image obtaining step of obtaining an image; Extracting a plurality of input factors from the obtained image; Extracting a plurality of music factors from the plurality of input factors; And a composition data forming step of composing composition data by combining the extracted plurality of music factors.

본 발명에 따른 음악 작곡 장치의 효과에 대해 설명하면 다음과 같다.Effects of the music composition apparatus according to the present invention will be described as follows.

본 발명의 실시예 중 적어도 하나에 의하면, 음악 작곡 장치의 카메라에서 실시간으로 동영상을 획득하고 획득된 동영상에 대응된 작곡 데이터를 생성할 수 있다. According to at least one embodiment of the present invention, it is possible to acquire a moving picture in real time from a camera of a music composition apparatus and generate composition data corresponding to the acquired moving picture.

본 발명의 실시예 중 적어도 하나에 의하면, 메모리에 저장된 동영상에 대응된 작곡 데이터를 생성할 수 있다. According to at least one embodiment of the present invention, composition data corresponding to a moving image stored in a memory can be generated.

본 발명의 실시예 중 적어도 하나에 의하면, 녹화된 동영상 및 연동된 작곡 데이터를 공유할 수 있다. According to at least one embodiment of the present invention, it is possible to share the recorded moving image and the linked composition data.

본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the following detailed description. It should be understood, however, that the detailed description and specific examples, such as the preferred embodiments of the invention, are given by way of illustration only, since various changes and modifications within the spirit and scope of the invention will become apparent to those skilled in the art.

도 1a는 본 발명과 관련된 음악 작곡 장치를 설명하기 위한 블록도이다.
도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2 내지 5는 본 발명의 일 실시예에 따른 제1 어플리케이션을 나타낸 도면이다.
도 6 내지 8은 본 발명의 일 실시예에 따른 작곡 데이터 형성 방법에 관한 플로우 차트이다.
도 9 내지 11은 본 발명의 일 실시예에 따른 제2 어플리케이션을 나타낸 도면이다.
FIG. 1A is a block diagram for explaining a music composition apparatus according to the present invention. FIG.
1B and 1C are conceptual diagrams illustrating an example of a mobile terminal according to the present invention in different directions.
2 to 5 are diagrams illustrating a first application according to an embodiment of the present invention.
6 to 8 are flowcharts of a method of forming composition data according to an embodiment of the present invention.
9-11 illustrate a second application in accordance with an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대해 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to the same or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description, well-known functions or constructions are not described in detail since they would obscure the subject matter of the embodiments disclosed in the specification. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

음악 작곡 장치는 이동 단말기의 형태로 구현될 수 있다. 본 명세서에서 이동 단말기는, 음악 작곡 장치를 의미할 수 있다. The music composition apparatus may be implemented in the form of a mobile terminal. In this specification, the mobile terminal may mean a music composition device.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC A tablet PC, an ultrabook, a wearable device such as a smartwatch, a smart glass, and a head mounted display (HMD). have.

그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be appreciated by those skilled in the art that the configuration according to the embodiments described herein may be applied to fixed terminals such as a digital TV, a desktop computer, a digital signage, and the like, will be.

도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C are block diagrams for explaining a mobile terminal according to the present invention, and FIGS. 1B and 1C are conceptual diagrams showing an example of a mobile terminal according to the present invention in different directions.

상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, ), And the like. The components shown in FIG. 1A are not essential for implementing a mobile terminal, so that the mobile terminal described herein may have more or fewer components than the components listed above.

보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The wireless communication unit 110 may be connected between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and another mobile terminal 100 or between the mobile terminal 100 and the external server 100. [ Lt; RTI ID = 0.0 > wireless < / RTI > In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.

이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short distance communication module 114, and a location information module 115 .

입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting a video signal, a microphone 122 for inputting an audio signal, an audio input unit, a user input unit 123 for receiving information from a user A touch key, a mechanical key, and the like). The voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.

센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include at least one sensor for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information. For example, the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, A G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor, a finger scan sensor, an ultrasonic sensor, A microphone 226, a battery gauge, an environmental sensor (for example, a barometer, a hygrometer, a thermometer, a radiation detection sensor, A thermal sensor, a gas sensor, etc.), a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification can combine and utilize information sensed by at least two of the sensors.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 includes at least one of a display unit 151, an acoustic output unit 152, a haptic tip module 153, and a light output unit 154 to generate an output related to visual, auditory, can do. The display unit 151 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. The touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user and may provide an output interface between the mobile terminal 100 and a user.

인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a path to various types of external devices connected to the mobile terminal 100. The interface unit 160 is connected to a device having a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, And may include at least one of a port, an audio I / O port, a video I / O port, and an earphone port. In the mobile terminal 100, corresponding to the connection of the external device to the interface unit 160, it is possible to perform appropriate control related to the connected external device.

또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 어플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a plurality of application programs or applications running on the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Also, at least a part of these application programs may exist on the mobile terminal 100 from the time of shipment for the basic functions (e.g., telephone call receiving function, message receiving function, and calling function) of the mobile terminal 100. Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and may be operated by the control unit 180 to perform the operation (or function) of the mobile terminal.

제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operations related to the application program, the control unit 180 typically controls the overall operation of the mobile terminal 100. The control unit 180 may process or process signals, data, information, and the like input or output through the above-mentioned components, or may drive an application program stored in the memory 170 to provide or process appropriate information or functions to the user.

또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components illustrated in FIG. 1A in order to drive an application program stored in the memory 170. FIG. In addition, the controller 180 may operate at least two of the components included in the mobile terminal 100 in combination with each other for driving the application program.

전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to the components included in the mobile terminal 100. The power supply unit 190 includes a battery, which may be an internal battery or a replaceable battery.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the components may operate in cooperation with one another to implement a method of operation, control, or control of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170. [

도 1 b 및 1c를 참조하면, 개시된 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고 와치 타입, 클립 타입, 글래스 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용될 수 있다. 이동 단말기의 특정 유형에 관련될 것이나, 이동 단말기의 특정유형에 관한 설명은 다른 타입의 이동 단말기에 일반적으로 적용될 수 있다. Referring to FIGS. 1B and 1C, the disclosed mobile terminal 100 includes a bar-shaped terminal body. However, the present invention is not limited thereto and can be applied to various structures such as a folder type, a flip type, a slide type, a swing type, and a swivel type in which a watch type, a clip type, a glass type or two or more bodies are relatively movably coupled . A description of a particular type of mobile terminal, although relevant to a particular type of mobile terminal, is generally applicable to other types of mobile terminals.

여기에서, 단말기 바디는 이동 단말기(100)를 적어도 하나의 집합체로 보아 이를 지칭하는 개념으로 이해될 수 있다.Here, the terminal body can be understood as a concept of referring to the mobile terminal 100 as at least one aggregate.

이동 단말기(100)는 외관을 이루는 케이스(예를 들면, 프레임, 하우징, 커버 등)를 포함한다. 도시된 바와 같이, 이동 단말기(100)는 프론트 케이스(101)와 리어 케이스(102)를 포함할 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 결합에 의해 형성되는 내부공간에는 각종 전자부품들이 배치된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 미들 케이스가 추가로 배치될 수 있다.The mobile terminal 100 includes a case (for example, a frame, a housing, a cover, and the like) that forms an appearance. As shown, the mobile terminal 100 may include a front case 101 and a rear case 102. Various electronic components are disposed in the inner space formed by the combination of the front case 101 and the rear case 102. At least one middle case may be additionally disposed between the front case 101 and the rear case 102.

단말기 바디의 전면에는 디스플레이부(151)가 배치되어 정보를 출력할 수 있다. 도시된 바와 같이, 디스플레이부(151)의 윈도우(151a)는 프론트 케이스(101)에 장착되어 프론트 케이스(101)와 함께 단말기 바디의 전면을 형성할 수 있다.A display unit 151 is disposed on a front surface of the terminal body to output information. The window 151a of the display unit 151 may be mounted on the front case 101 to form a front surface of the terminal body together with the front case 101. [

경우에 따라서, 리어 케이스(102)에도 전자부품이 장착될 수 있다. 리어 케이스(102)에 장착 가능한 전자부품은 착탈 가능한 배터리, 식별 모듈, 메모리 카드 등이 있다. 이 경우, 리어 케이스(102)에는 장착된 전자부품을 덮기 위한 후면커버(103)가 착탈 가능하게 결합될 수 있다. 따라서, 후면 커버(103)가 리어 케이스(102)로부터 분리되면, 리어 케이스(102)에 장착된 전자부품은 외부로 노출된다.In some cases, electronic components may also be mounted on the rear case 102. Electronic parts that can be mounted on the rear case 102 include detachable batteries, an identification module, a memory card, and the like. In this case, a rear cover 103 for covering the mounted electronic components can be detachably coupled to the rear case 102. Therefore, when the rear cover 103 is separated from the rear case 102, the electronic parts mounted on the rear case 102 are exposed to the outside.

도시된 바와 같이, 후면커버(103)가 리어 케이스(102)에 결합되면, 리어 케이스(102)의 측면 일부가 노출될 수 있다. 경우에 따라서, 상기 결합시 리어 케이스(102)는 후면커버(103)에 의해 완전히 가려질 수도 있다. 한편, 후면커버(103)에는 카메라(121b)나 음향 출력부(152b)를 외부로 노출시키기 위한 개구부가 구비될 수 있다.As shown, when the rear cover 103 is coupled to the rear case 102, a side portion of the rear case 102 can be exposed. In some cases, the rear case 102 may be completely covered by the rear cover 103 during the engagement. Meanwhile, the rear cover 103 may be provided with an opening for exposing the camera 121b and the sound output unit 152b to the outside.

이러한 케이스들(101, 102, 103)은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.These cases 101, 102, and 103 may be formed by injection molding of synthetic resin or may be formed of metal such as stainless steel (STS), aluminum (Al), titanium (Ti), or the like.

이동 단말기(100)는, 복수의 케이스가 각종 전자부품들을 수용하는 내부 공간을 마련하는 위의 예와 달리, 하나의 케이스가 상기 내부 공간을 마련하도록 구성될 수도 있다. 이 경우, 합성수지 또는 금속이 측면에서 후면으로 이어지는 유니 바디의 이동 단말기(100)가 구현될 수 있다.The mobile terminal 100 may be configured such that one case provides the internal space, unlike the above example in which a plurality of cases provide an internal space for accommodating various electronic components. In this case, a unibody mobile terminal 100 in which synthetic resin or metal is connected from the side to the rear side can be realized.

한편, 이동 단말기(100)는 단말기 바디 내부로 물이 스며들지 않도록 하는 방수부(미도시)를 구비할 수 있다. 예를 들어, 방수부는 윈도우(151a)와 프론트 케이스(101) 사이, 프론트 케이스(101)와 리어 케이스(102) 사이 또는 리어 케이스(102)와 후면 커버(103) 사이에 구비되어, 이들의 결합 시 내부 공간을 밀폐하는 방수부재를 포함할 수 있다.Meanwhile, the mobile terminal 100 may include a waterproof unit (not shown) for preventing water from penetrating into the terminal body. For example, the waterproof portion is provided between the window 151a and the front case 101, between the front case 101 and the rear case 102, or between the rear case 102 and the rear cover 103, And a waterproof member for sealing the inside space of the oven.

이동 단말기(100)에는 디스플레이부(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.The mobile terminal 100 is provided with a display unit 151, first and second sound output units 152a and 152b, a proximity sensor 141, an illuminance sensor 142, a light output unit 154, Cameras 121a and 121b, first and second operation units 123a and 123b, a microphone 122, an interface unit 160, and the like.

이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이부(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 이동 단말기(100)를 일 예로 들어 설명한다.1B and 1C, a display unit 151, a first sound output unit 152a, a proximity sensor 141, an illuminance sensor 142, an optical output unit (not shown) A second operation unit 123b, a microphone 122 and an interface unit 160 are disposed on a side surface of the terminal body, And a mobile terminal 100 having a second sound output unit 152b and a second camera 121b disposed on a rear surface thereof.

다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.However, these configurations are not limited to this arrangement. These configurations may be excluded or replaced as needed, or placed on different planes. For example, the first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side surface of the terminal body rather than the rear surface of the terminal body.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, the display unit 151 may display execution screen information of an application program driven by the mobile terminal 100 or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information .

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, a 3D display, and an e-ink display.

또한, 디스플레이부(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.In addition, the display unit 151 may exist in two or more depending on the embodiment of the mobile terminal 100. In this case, the mobile terminal 100 may be provided with a plurality of display portions spaced apart from each other or disposed integrally with one another, or may be disposed on different surfaces, respectively.

디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display unit 151 may include a touch sensor that senses a touch with respect to the display unit 151 so that a control command can be received by a touch method. When a touch is made to the display unit 151, the touch sensor senses the touch, and the control unit 180 generates a control command corresponding to the touch based on the touch. The content input by the touch method may be a letter or a number, an instruction in various modes, a menu item which can be designated, and the like.

한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우(151a)와 윈도우(151a)의 배면 상의 디스플레이(미도시) 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.The touch sensor may be a film having a touch pattern and disposed between the window 151a and a display (not shown) on the rear surface of the window 151a, or may be a metal wire . Alternatively, the touch sensor may be formed integrally with the display. For example, the touch sensor may be disposed on a substrate of the display or inside the display.

이처럼, 디스플레이부(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.In this way, the display unit 151 can form a touch screen together with the touch sensor. In this case, the touch screen can function as a user input unit 123 (see FIG. 1A). In some cases, the touch screen may replace at least some functions of the first operation unit 123a.

제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output unit 152a may be implemented as a receiver for transmitting a call sound to a user's ear and the second sound output unit 152b may be implemented as a loud speaker for outputting various alarm sounds or multimedia playback sounds. ). ≪ / RTI >

디스플레이부(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다.The window 151a of the display unit 151 may be provided with an acoustic hole for emitting the sound generated from the first acoustic output unit 152a. However, the present invention is not limited to this, and the sound may be configured to be emitted along an assembly gap (for example, a gap between the window 151a and the front case 101) between the structures. In this case, the appearance of the mobile terminal 100 can be made more simple because the hole formed independently for the apparent acoustic output is hidden or hidden.

광 출력부(154)는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 어플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부(154)를 제어할 수 있다.The optical output unit 154 is configured to output light for notifying the occurrence of an event. Examples of the event include a message reception, a call signal reception, a missed call, an alarm, a schedule notification, an email reception, and reception of information through an application. The control unit 180 may control the light output unit 154 to terminate the light output when the event confirmation of the user is detected.

제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.The first camera 121a processes an image frame of a still image or a moving image obtained by the image sensor in the photographing mode or the video communication mode. The processed image frame can be displayed on the display unit 151 and can be stored in the memory 170. [

제1 및 제2 조작유닛(123a, 123b)은 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.The first and second operation units 123a and 123b may be collectively referred to as a manipulating portion as an example of a user input unit 123 operated to receive a command for controlling the operation of the mobile terminal 100 have. The first and second operation units 123a and 123b can be employed in any manner as long as the user is in a tactile manner such as touch, push, scroll, or the like. In addition, the first and second operation units 123a and 123b may be employed in a manner that the user operates the apparatus without touching the user through a proximity touch, a hovering touch, or the like.

본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In this figure, the first operation unit 123a is a touch key, but the present invention is not limited thereto. For example, the first operation unit 123a may be a mechanical key, or a combination of a touch key and a touch key.

제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.The contents input by the first and second operation units 123a and 123b can be variously set. For example, the first operation unit 123a receives a command such as a menu, a home key, a cancellation, a search, and the like, and the second operation unit 123b receives a command from the first or second sound output unit 152a or 152b The size of the sound, and the change of the display unit 151 to the touch recognition mode.

한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.On the other hand, a rear input unit (not shown) may be provided on the rear surface of the terminal body as another example of the user input unit 123. The rear input unit is operated to receive a command for controlling the operation of the mobile terminal 100, and input contents may be variously set. For example, commands such as power on / off, start, end, scrolling, and the like, the size adjustment of the sound output from the first and second sound output units 152a and 152b, And the like can be inputted. The rear input unit may be implemented as a touch input, a push input, or a combination thereof.

후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이부(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.The rear input unit may be disposed so as to overlap with the front display unit 151 in the thickness direction of the terminal body. For example, the rear input unit may be disposed at the rear upper end of the terminal body such that when the user holds the terminal body with one hand, the rear input unit can be easily operated using the index finger. However, the present invention is not limited thereto, and the position of the rear input unit may be changed.

이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이부(151)가 보다 대화면(大畵面)으로 구성될 수 있다.When a rear input unit is provided on the rear surface of the terminal body, a new type of user interface using the rear input unit can be realized. When the first operation unit 123a is not disposed on the front surface of the terminal body in place of at least a part of the functions of the first operation unit 123a provided on the front surface of the terminal body, The display unit 151 may be configured as a larger screen.

한편, 이동 단말기(100)에는 사용자의 지문을 인식하는 지문인식센서가 구비될 수 있으며, 제어부(180)는 지문인식센서를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이부(151) 또는 사용자 입력부(123)에 내장될 수 있다.Meanwhile, the mobile terminal 100 may be provided with a fingerprint recognition sensor for recognizing the fingerprint of the user, and the controller 180 may use the fingerprint information sensed through the fingerprint recognition sensor as authentication means. The fingerprint recognition sensor may be embedded in the display unit 151 or the user input unit 123.

마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.The microphone 122 is configured to receive the user's voice, other sounds, and the like. The microphone 122 may be provided at a plurality of locations to receive stereophonic sound.

인터페이스부(160)는 이동 단말기(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.The interface unit 160 is a path through which the mobile terminal 100 can be connected to an external device. For example, the interface unit 160 may include a connection terminal for connection with another device (for example, an earphone or an external speaker), a port for short-range communication (for example, an infrared port (IrDA Port), a Bluetooth port A wireless LAN port, or the like), or a power supply terminal for supplying power to the mobile terminal 100. The interface unit 160 may be implemented as a socket for receiving an external card such as a SIM (Subscriber Identification Module) or a UIM (User Identity Module) or a memory card for storing information.

단말기 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.And a second camera 121b may be disposed on a rear surface of the terminal body. In this case, the second camera 121b has a photographing direction which is substantially opposite to that of the first camera 121a.

제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, 어레이(array) 카메라?로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The second camera 121b may include a plurality of lenses arranged along at least one line. The plurality of lenses may be arranged in a matrix form. Such a camera can be named an array camera ?. When the second camera 121b is configured as an array camera, images can be taken in various ways using a plurality of lenses, and a better quality image can be obtained.

플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.The flash 124 may be disposed adjacent to the second camera 121b. The flash 124 shines light toward the subject when the subject is photographed by the second camera 121b.

단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.And a second sound output unit 152b may be additionally disposed in the terminal body. The second sound output unit 152b may implement a stereo function together with the first sound output unit 152a and may be used for implementing a speakerphone mode in a call.

단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.The terminal body may be provided with at least one antenna for wireless communication. The antenna may be embedded in the terminal body or formed in the case. For example, an antenna constituting a part of the broadcast receiving module 111 (see FIG. 1A) may be configured to be able to be drawn out from the terminal body. Alternatively, the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.

단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.The terminal body is provided with a power supply unit 190 (see FIG. 1A) for supplying power to the mobile terminal 100. The power supply unit 190 may include a battery 191 built in the terminal body or detachable from the outside of the terminal body.

배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.The battery 191 may be configured to receive power through a power cable connected to the interface unit 160. In addition, the battery 191 may be configured to be wirelessly chargeable through a wireless charger. The wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).

한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.The rear cover 103 is configured to be coupled to the rear case 102 so as to cover the battery 191 to restrict the release of the battery 191 and to protect the battery 191 from external impact and foreign matter . When the battery 191 is detachably attached to the terminal body, the rear cover 103 may be detachably coupled to the rear case 102.

이동 단말기(100)에는 외관을 보호하거나, 이동 단말기(100)의 기능을 보조 또는 확장시키는 액세서리가 추가될 수 있다. 이러한 액세서리의 일 예로, 이동 단말기(100)의 적어도 일면을 덮거나 수용하는 커버 또는 파우치를 들 수 있다. 커버 또는 파우치는 디스플레이부(151)와 연동되어 이동 단말기(100)의 기능을 확장시키도록 구성될 수 있다. 액세서리의 다른 일 예로, 터치 스크린에 대한 터치입력을 보조 또는 확장하기 위한 터치펜을 들 수 있다.The mobile terminal 100 may be provided with an accessory that protects the appearance or supports or expands the function of the mobile terminal 100. [ One example of such an accessory is a cover or pouch that covers or accommodates at least one side of the mobile terminal 100. [ The cover or pouch may be configured to interlock with the display unit 151 to expand the function of the mobile terminal 100. Another example of an accessory is a touch pen for supplementing or extending a touch input to the touch screen.

도 2를 참조하면, 이동 단말기(100, 도 1b 참조)의 디스플레이부(151)에 홈화면이 표시될 수 있다. 홈화면은 이동 단말기(100, 도 1b 참조)의 초기 화면일 수 있다. 디스플레이부(151)의 홈화면에 적어도 하나의 아이콘(icon)이 표시될 수 있다. 상기 복수 개의 아이콘은 제1 아이콘(IC1)을 포함할 수 있다. Referring to FIG. 2, a home screen may be displayed on the display unit 151 of the mobile terminal 100 (see FIG. 1B). The home screen may be an initial screen of the mobile terminal 100 (see FIG. 1B). At least one icon may be displayed on the home screen of the display unit 151. The plurality of icons may include a first icon IC1.

상기 제1 아이콘(IC1)은 제1 어플리케이션에 링크될 수 있다. 즉 사용자(800)가 제1 아이콘(IC1)의 위치에 디스플레이부(151)를 터치하면, 제1 아이콘(IC1)에 링크된 제1 어플리케이션이 실행될 수 있다. The first icon IC1 may be linked to the first application. That is, when the user 800 touches the display unit 151 at the position of the first icon IC1, the first application linked to the first icon IC1 can be executed.

제1 어플리케이션은 이미지를 음악으로 변환하는 어플리케이션일 수 있다. 제1 어플리케이션이 실행되면, 디스플레이부(151)에 제1 모드 아이콘(MC1)과 제2 모드 아이콘(MC2)이 전시될 수 있다. The first application may be an application that converts an image to music. The first mode icon MC1 and the second mode icon MC2 may be displayed on the display unit 151 when the first application is executed.

제1 모드 아이콘(MC1)은, 카메라(121, 도 1a 참조)를 이용하여 실시간 영상을 제공받는 모드에 링크될 수 있다. 제2 모드 아이콘(MC2)은, 메모리(170, 도 1a 참조)에 저장된 영상 파일에서 영상을 제공받는 모드에 링크될 수 있다. 이하에서 '영상'은 '동영상'을 의미할 수 있다. The first mode icon MC1 may be linked to a mode in which a real time image is provided using the camera 121 (see FIG. 1A). The second mode icon MC2 may be linked to a mode in which an image is provided in the image file stored in the memory 170 (see Fig. 1A). In the following, 'video' may mean 'video'.

도 3을 참조하면, 사용자(800)는 제1 모드 아이콘(MC1)을 터치하거나 제2 모드 아이콘(MC2)을 터치할 수 있다. 예를 들어 사용자(800)가 제2 모드 아이콘(MC2)을 터치하면, 디스플레이부(151)는 영상 파일에 링크된 썸네일(thumbnail)을 표시할 수 있다. 상기 썸네일은 복수 개일 수 있다. 사용자(800)는 복수 개의 썸네일 중에서 제1 영상 아이콘(SI1)을 터치할 수 있다. Referring to FIG. 3, the user 800 may touch the first mode icon MC1 or the second mode icon MC2. For example, when the user 800 touches the second mode icon MC2, the display unit 151 can display a thumbnail linked to the image file. The thumbnails may be a plurality of thumbnails. The user 800 can touch the first image icon SI1 among the plurality of thumbnails.

도 4를 참조하면, 제1 어플리케이션이 실행됨에 따라 메모리(170, 도 1a 참조)에 저장된 영상이 재생되어 디스플레이부(151)에 표시되거나 카메라를 통해 실시간 영상이 디스플레이부(151)에 전시될 수 있다. 4, an image stored in the memory 170 (see FIG. 1A) is reproduced and displayed on the display unit 151 or a real-time image is displayed on the display unit 151 through the camera as the first application is executed have.

디스플레이부(151)는 관찰창(200)을 포함할 수 있다. 관찰창(200)은 디스플레이부(151)의 영역 중에서 영상이 표시되는 영역을 의미할 수 있다. 관찰창(200)은, 관찰창(200)의 중심부에 표시되는 중심점(210)을 포함할 수 있다. 중심점(210)은, 사용자로 하여금 관찰장(200)에서 표시되는 영상의 중심을 용이하게 파악하도록 할 수 있다. The display unit 151 may include an observation window 200. The observation window 200 may indicate an area where the image is displayed in the area of the display unit 151. The observation window 200 may include a center point 210 displayed at the center of the observation window 200. [ The center point 210 can allow the user to easily grasp the center of the image displayed in the observation field 200.

제어부(180, 도 1a 참조)는 관찰창(200)에 표시되는 영상에서 이미지를 획득할 수 있다. 획득된 이미지는 격자 구조로 나뉘어 분석될 수 있다. 획득된 이미지는 복수 개의 픽셀로 구분되어 분석될 수 있다. 각 픽셀의 색조, 명도, 채도가 추출될 수 있다. 중심점(210)에서의 색조, 명도, 채도가 추출될 수 있다. 추출된 색조, 명도, 채도 등은 작곡 데이터를 형성하기 위한 입력인자일 수 있다. The control unit 180 (see FIG. 1A) may acquire an image from an image displayed on the observation window 200. FIG. The acquired image can be analyzed by dividing into a grid structure. The obtained image can be analyzed by being divided into a plurality of pixels. The hue, brightness, and saturation of each pixel can be extracted. The hue, brightness, and saturation at the center point 210 can be extracted. The extracted hue, brightness, saturation, etc. may be input factors to form the composition data.

제어부(180, 도 1a 참조)는 각 픽셀의 색상정보를 분류하여 복수 개의 색조 그룹을 추출할 수 있다. 제어부(180, 도 1a 참조)는 상기 복수 개의 색조 그룹의 색조와 명도 및 채도에 관한 정보를 추출할 수 있다. 제어부(180, 도 1a 참조)는 상기 복수 개의 색조 그룹의 가중치에 관한 정보를 추출할 수 있다. 제어부(180, 도 1a 참조)는 추출된 복수 개의 색조 그룹에 관한 정보로부터 이미지의 평균 색조와 채도 및 명도에 관한 정보를 추출할 수 있다. 제어부(180, 도 1a 참조)는 이웃하는 픽셀의 색조를 비교하여 이미지의 복잡도(또는 단순도)를 추출할 수 있다. The control unit 180 (see FIG. 1A) may classify the color information of each pixel to extract a plurality of tincture groups. The control unit 180 (see FIG. 1A) can extract information about the hue, brightness, and saturation of the plurality of tones groups. The control unit 180 (see FIG. 1A) may extract information about weights of the plurality of tones groups. The control unit 180 (see FIG. 1A) can extract information on the average color tone, saturation, and brightness of the image from information on the extracted plurality of tincture groups. The control unit 180 (see FIG. 1A) can extract the complexity (or simplicity) of the image by comparing the tones of neighboring pixels.

제어부(180, 도 1a 참조)는 입력인자를 이용하여 음악인자를 추출할 수 있다. 음악인자는 음악을 구성하는 요소일 수 있다. 예를 들어 음악인자는, 박자, 템포, 조성, 음높이, 그리고 화음 중 적어도 하나일 수 있다. 제어부(180, 도 1a 참조)는 음악인자를 조합하여 작곡 데이터를 형성할 수 있다. 제어부(180, 도 1a 참조)는 작곡 데이터에 대응된 디지털 음향신호를 생성할 수 있다. 생성된 디지털 음향신호가 음향출력부(152, 도 1a 참조)에 도달하면, 이동 단말기(100, 도 1b 참조)에서 상기 디지털 음향신호에 대응된 음향이 방사될 수 있다. The controller 180 (see FIG. 1A) may extract a music factor using an input factor. A musician can be a component of music. For example, a musician may be at least one of a beat, a tempo, a composition, a pitch, and a chord. The control unit 180 (see FIG. 1A) can form composition data by combining musical factors. The control unit 180 (see FIG. 1A) can generate a digital sound signal corresponding to the composition data. When the generated digital sound signal reaches the sound output unit 152 (see Fig. 1A), sound corresponding to the digital sound signal can be emitted from the mobile terminal 100 (see Fig. 1B).

디스플레이부(151)는 옵션창(300)을 포함할 수 있다. 옵션창(300)은 디스플레이부(151)의 영역 중에서 옵션 아이콘(310, 320, 330)이 표시되는 영역을 의미할 수 있다. 옵션 아이콘(310, 320, 330)은, 제1 내지 제3 옵션 아이콘(310, 320, 330)을 포함할 수 있다. The display unit 151 may include an option window 300. The option window 300 may indicate an area where the option icons 310, 320, and 330 are displayed in the area of the display unit 151. The option icons 310, 320, and 330 may include first, second, and third option icons 310, 320, and 330.

디스플레이부(151)는 옵션창(300)에 표시된 옵션 아이콘(310, 320, 330)이 표시된 영역에서 터치입력을 획득할 수 있다. 예를 들어 제1 옵션 아이콘(310)이 표시된 영역에서 터치입력이 가해지면, 메모리(170, 도 1a 참조)에 저장된 영상 파일을 선택할 수 있도록 복수 개의 썸네일이 디스플레이부(151)에 표시될 수 있다. 예를 들어 제2 옵션 아이콘(320)이 표시된 영역에서 터치입력이 가해지면, 카메라를 통해 획득된 실시간 영상이 디스플레이부(151)에 표시되도록 할 수 있다. 예를 들어 제3 옵션 아이콘(330)이 표시된 영역에서 터치입력이 가해지면, 영상의 재생이 중단되면서 제1 어플리케이션이 중단될 수 있다. The display unit 151 can acquire a touch input in an area where the option icons 310, 320, and 330 displayed in the option window 300 are displayed. For example, when a touch input is applied in the area where the first option icon 310 is displayed, a plurality of thumbnails may be displayed on the display unit 151 so that the user can select an image file stored in the memory 170 (see FIG. 1A) . For example, when a touch input is applied in the area where the second option icon 320 is displayed, the real-time image obtained through the camera can be displayed on the display unit 151. For example, if the touch input is applied in the area where the third option icon 330 is displayed, the first application may be interrupted while the reproduction of the image is interrupted.

디스플레이부(151)는 상태창(400)을 포함할 수 있다. 상태창(400)은 디스플레이부(151)의 영역 중에서 추출된 입력인자와 음악인자를 표시할 수 있다. 예를 들어 상태창(400)은 복수 개의 색조 그룹에 관한 정보(410)를 표시할 수 있다. 복수 개의 색조 그룹에 관한 정보(410)는 예를 들어 제1 내지 제6 색조 그룹에 관한 정보(411, 412, 413, 414, 415, 416)를 포함할 수 있다. 색조 그룹에 관한 정보(400)는, 각 색조 그룹(400)의 대표 색조와 가중치를 포함할 수 있다. The display unit 151 may include a status window 400. The status window 400 may display an input parameter and a music factor extracted from the area of the display unit 151. [ For example, the status window 400 may display information 410 about a plurality of tincture groups. Information 410 regarding a plurality of tincture groups may include information 411, 412, 413, 414, 415 and 416 relating to the first to sixth tincture groups, for example. The information 400 regarding the hue group may include a representative hue and a weight of each hue group 400.

상태창(400)은 예를 들어 중심점(210)에서의 색조 정보(420)를 표시할 수 있다. 중심점(210)에서의 색조 정보(420)가 상태창(400)에 전시됨으로써, 사용자는 관찰창(200)에서 표시되는 영상의 중심부에서의 색조를 용이하게 파악할 수 있다. The status window 400 may display hue information 420 at the center point 210, for example. The color tone information 420 at the center point 210 is displayed on the status window 400 so that the user can easily grasp the color tone at the center of the image displayed on the observation window 200. [

상태창(400)은 예를 들어 이미지 처리 정보(430)를 표시할 수 있다. 영상에서 획득되는 이미지가 픽셀 별로 나뉘어 처리되는 모습이 시각화될 수 있다. 사용자는 이미지 처리 정보(430)를 육안으로 확인하면서 제1 어플리케이션이 작동됨을 확인할 수 있다. The status window 400 may display image processing information 430, for example. The image obtained by dividing the image obtained from the image into pixels can be visualized. The user can confirm that the first application is operated while checking the image processing information 430 with the naked eye.

상태창(400)은 예를 들어 부가 정보(440)를 표시할 수 있다. 부가 정보(440)는 예를 들어, 이미지 전체 밝기 정보(441), 이미지의 단순도(또는 복잡도, 442), 작곡 데이터를 구성하는 템포 정보(443), 작곡 데이터를 구성하는 박자 정보(444), 작곡 데이터를 구성하는 음조와 음높이 정보(445), 그리고 이미지와 작곡 데이터의 현재 분위기 정보(446)를 포함할 수 있다. The status window 400 may display additional information 440, for example. The additional information 440 includes, for example, image overall brightness information 441, simplicity (or complexity, 442) of the image, tempo information 443 constituting composition data, beat information 444 constituting composition data, Tone and pitch information 445 constituting composition data, and current atmosphere information 446 of the image and composition data.

도 5를 참조하면, 관찰창(200)에 표시되는 영상의 이미지가 변경될 수 있다. 관찰창(200)에 표시되는 영상의 이미지가 변환되면, 제어부(180, 도 1a 참조)가 처리하는 이미지가 변경될 수 있다. 제어부(180, 도 1a 참조)가 처리하는 이미지가 변경되면, 이미지에 관한 정보 및 음악인자에 관한 정보가 변경될 수 있다. Referring to FIG. 5, the image of the image displayed on the observation window 200 may be changed. When the image of the image displayed on the observation window 200 is transformed, the image processed by the control unit 180 (see FIG. 1A) may be changed. When the image processed by the control unit 180 (see Fig. 1A) is changed, the information about the image and the information about the music factor can be changed.

예를 들어 중심점(210)에서의 색조 정보(420)가 변경될 수 있다. 예를 들어 각 색조 그룹(410)의 대표 색조와 가중치가 달라질 수 있다. 예를 들어 이미지 처리 정보(430)가 변경될 수 있다. 예를 들어 부가 정보(440)가 변경될 수 있다. 예를 들어 분위기 정보(446)는 '아련'에서 '희망'으로 변경될 수 있다. For example, the hue information 420 at the center point 210 can be changed. For example, the representative hue and weight of each tincture group 410 may be different. For example, the image processing information 430 may be changed. For example, the side information 440 may be changed. For example, the mood information 446 may be changed from 'Zinnia' to 'Hope'.

도 6을 참조하면, 이동 단말기에서 제1 어플리케이션을 이용하여 작곡하는 음악 작곡 데이터 형성 방법(S10)은 초기 작곡 데이터 생성 단계(S100)를 포함할 수 있다. 이동 단말기는 이미지 등으로부터 초기 작곡 데이터를 생성할 수 있다. 제어부는 초기 작곡 데이터에 대응된 디지털 음향신호를 생성하여 음향을 제공할 수 있다. Referring to FIG. 6, a method of forming music composition data (S10) composing music using a first application in a mobile terminal may include an initial composition data generation step (SlOO). The mobile terminal may generate initial composition data from an image or the like. The control unit may generate a digital sound signal corresponding to the initial composition data to provide sound.

음악 작곡 데이터 형성 방법(S10)은 종료 신호 수신을 확인하는 단계(S200)를 포함할 수 있다. 이동 단말기의 제어부는 종료 신호를 수신하면 제1 어플리케이션을 종료할 수 있다. The music composition data forming method (S10) may include confirming reception of the end signal (S200). The control unit of the mobile terminal can terminate the first application upon receiving the termination signal.

음악 작곡 데이터 형성 방법(S10)은 시간이 지나감에 따라 작곡 데이터를 갱신하는 단계(S300)를 포함할 수 있다. 제어부는 갱신된 작곡 데이터에 대응된 디지털 음향신호를 생성하여 음향을 제공할 수 있다. The music composition data forming method (S10) may include a step (S300) of updating the composition data as time passes. The control unit may generate a digital sound signal corresponding to the updated composition data to provide sound.

도 7을 참조하면, 초기 작곡 데이터 생성 단계(S100)는 이미지를 획득하는 단계(S110)를 포함할 수 있다. 이미지는 디스플레이부에 전시되는 영상의 스틸컷일 수 있다. 디스플레이부에 전시되는 영상은 카메라를 통해 실시간으로 획득되는 영상이거나 메모리에 저장된 영상 파일이 재생된 영상일 수 있다. Referring to FIG. 7, the initial composition data generation step S100 may include an image acquisition step (S110). The image may be a still cut of the image displayed on the display unit. The image displayed on the display unit may be an image obtained in real time through a camera or an image file stored in a memory.

초기 작곡 데이터 생성 단계(S100)는 획득된 이미지에서 입력인자를 추출하고 또는 추출된 입력인자를 메모리에 저장하는 단계(S120)를 포함할 수 있다. 이 단계(S120)에서 추출되는 입력인자는, 예를 들어 이미지의 색조, 채도, 명도, 패턴의 단순도 등일 수 있다. 이 단계(S120)에서 추출되는 입력인자는 디스플레이부에 전시되는 영상이 기록된 날씨 정보 또는 위치 정보를 포함할 수 있다. The initial composition data generation step S100 may include extracting an input parameter from the acquired image or storing the extracted input parameter in a memory (S120). The input factors extracted in this step S120 may be, for example, the hue, saturation, brightness, simplicity of the pattern, etc. of the image. The input factor extracted in the step S120 may include weather information or position information on which the image displayed on the display unit is recorded.

초기 작곡 데이터 생성 단계(S100)는 입력인자로부터 음악인자를 추출하고 또는 추출된 음악인자를 메모리에 저장하는 단계(S130)를 포함할 수 있다. 추출된 음악인자는, 예를 들어 박자, 템포, 조성, 음높이, 화음일 수 있다. The initial composition data generation step S100 may include extracting a music factor from an input parameter or storing the extracted music factor in a memory (S130). The extracted musical person can be, for example, beat, tempo, composition, pitch, chord.

예를 들어 박자는, 이미지의 중심점에서의 색조 또는/및 이미지의 단순도(또는 복잡도)에 대응할 수 있다. 예를 들어 템포는, 이미지의 평균 채도에 대응할 수 있다. 예를 들어 조성은, 이미지의 평균 명도 또는/및 템포에 대응할 수 있다. 예를 들어 음높이는, 이전 음높이의 화음에 대응되는 적어도 하나의 예비 음높이 중에서 가장 높은 가중치를 가지는 예비 음높이에 대응될 수 있다. 다른 예를 들어 음높이는, 이미지의 중심점에서의 색조에 대응할 수 있다. 또 다른 예를 들어 음높이는, 복수 개의 입력인자, 박자, 템포, 그리고 조성 등을 이용하여 도출된 음높이 함수의 값에 대응할 수 있다. 예를 들어 화음은, 음높이에 따라 대응되어 결정될 수 있다. For example, the beat may correspond to the hue or / and the simplicity (or complexity) of the image at the center point of the image. For example, the tempo may correspond to the average saturation of the image. For example, the composition may correspond to an average brightness or / and tempo of the image. For example, the pitch may correspond to a preliminary pitch having the highest weight among at least one preliminary pitch corresponding to a chord of the previous pitch. As another example, the pitch may correspond to the hue at the center point of the image. In another example, the pitch can correspond to a value of a pitch function derived using a plurality of input factors, a beat, a tempo, and a composition. For example, a chord can be determined corresponding to the pitch.

초기 작곡 데이터 생성 단계(S100)는 추출된 음악인자를 조합하여 작곡 데이터를 생성하는 단계(S140)를 포함할 수 있다. 생성된 작곡 데이터는 시간(playing time)에 따른 음악인자의 정보를 포함할 수 있다. 제어부는 생성된 작곡 데이터에 대응된 디지털 음향신호를 생성할 수 있다. The initial composition data generation step (SlOO) may include a step (S140) of generating composition data by combining the extracted music factors. The generated composition data may include information of a music factor according to a playing time. The control unit may generate a digital sound signal corresponding to the generated composition data.

도 8을 참조하면, 작곡 데이터를 갱신하는 단계(S300)는 초기값 설정 단계(S305)를 포함할 수 있다. 이 단계(S305)에서, 경과시간(LT)과 갱신시간(UT)이 '0'으로 초기화될 수 있다. Referring to FIG. 8, the step of updating the composition data (S300) may include an initial value setting step (S305). In this step S305, the elapsed time LT and the update time UT may be initialized to " 0 ".

작곡 데이터를 갱신하는 단계(S300)는, 갱신시간(UT)과 주기(P)를 비교하는 단계(S310)를 포함할 수 있다. 제어부는, 갱신시간(UT)이 주기(P) 보다 작으면 입력인자를 추출하여 메모리에 저장하고, 갱신시간(UT)이 주기(P)와 동일하거나 크면 추출된 입력인자로부터 음악인자를 추출할 수 있다. The step of updating the composition data (S300) may include a step S310 of comparing the update time (UT) and the period (P). If the update time (UT) is smaller than the period (P), the control unit extracts and stores the input factor in the memory. If the update time (UT) is equal to or larger than the period (P) .

작곡 데이터를 갱신하는 단계(S300)는, 종료 신호 수신 여부를 확인하는 단계(S320)를 포함할 수 있다. 이 단계(S320)에서 제어부는, 종료 신호가 수신되면 제1 어플리케이션을 종료할 수 있고, 종료 신호가 수신되지 않으면 입력인자를 추출할 수 있다. 상기 종료 신호는, 사용자의 입력에 의해 발생되거나 이동 단말기의 시스템에서 발생될 수 있다. The step of updating the composition data (S300) may include a step (S320) of confirming whether or not the end signal has been received. In this step S320, the control unit can terminate the first application when the termination signal is received, and can extract the input factor if the termination signal is not received. The termination signal may be generated by the user's input or may be generated in the system of the mobile terminal.

작곡 데이터를 갱신하는 단계(S300)는, 이미지를 획득하는 단계(S330)를 포함할 수 있다. 제어부는 종료 신호가 수신되지 않으면, 영상으로부터 이미지를 획득할 수 있다. The step of updating the composition data (S300) may include a step (S330) of acquiring an image. If the end signal is not received, the control unit can acquire an image from the image.

작곡 데이터를 갱신하는 단계(S300)는, 획득된 이미지로부터 입력인자를 추출하고 메모리에 저장하는 단계(S340)를 포함할 수 있다. The step of updating the composition data (S300) may include extracting an input parameter from the obtained image and storing it in a memory (S340).

작곡 데이터를 갱신하는 단계(S300)는, 갱신시간을 갱신하는 단계(S350)를 포함할 수 있다. 이 단계(S350)에서, 이전의 갱신시간(UT)에 처리시간(Δt)을 더하여 새로운 갱신시간(UT)으로 업데이트될 수 있다. 처리시간(Δt)은 이전 단계(S310, S320, S330, S340)가 수행되는데 경과된 시간을 의미할 수 있다. The step of updating the composition data (S300) may include a step of updating the update time (S350). In this step S350, the processing time? T may be added to the previous update time UT to update the new update time UT. The processing time DELTA t may mean the time elapsed since the previous steps S310, S320, S330, and S340 are performed.

작곡 데이터를 갱신하는 단계(S300)는, 음악인자를 추출하는 단계(S360)를 포함할 수 있다. 제어부는 갱신시간(UT)이 주기(P) 보다 작지 않으면 저장된 입력인자로부터 음악인자를 추출할 수 있다. 이 단계(S360)에서 추출된 음악인자는 메모리에 저장될 수 있다. Step S300 of updating the composition data may include extracting a music factor (S360). The control unit can extract the music factor from the stored input factors if the update time (UT) is not less than the period (P). The music person extracted in this step S360 may be stored in the memory.

작곡 데이터를 갱신하는 단계(S300)는, 작곡 데이터를 갱신하는 단계(S370)를 포함할 수 있다. 이 단계(S370)에서, 추출된 음악인자들이 조합되어 작곡 데이터가 갱신될 수 있다. The step of updating the composition data (S300) may include a step (S370) of updating the composition data. In this step S370, the extracted music parameters are combined and the composition data can be updated.

작곡 데이터를 갱신하는 단계(S300)는, 경과시간(LT)을 갱신하는 단계(S380)를 포함할 수 있다. 이 단계(S380)에서, 이전의 경과시간(LT)에 갱신시간(UT)이 더해져서 새로운 경과시간(LT)으로 업데이트될 수 있다. 이 단계(S380)에서 새로운 경과시간(LT)이후로 갱신된 작곡 데이터가 메모리에 저장될 수 있다. Step S300 of updating the composition data may include updating the elapsed time LT (S380). In this step S380, the update time UT may be added to the previous elapsed time LT and updated to the new elapsed time LT. In this step S380, the composition data updated after the new elapsed time LT may be stored in the memory.

작곡 데이터를 갱신하는 단계(S300)는, 갱신시간을 초기화하는 단계(S390)를 포함할 수 있다. 이 단계(S390)에서, 갱신시간(UT)은 '0'으로 초기화될 수 있다. 제어부는 다시 갱신시간(UT)과 주기(P)를 비교하여 작곡 데이터를 갱신하는 작업을 수행할 수 있다. The step of updating the composition data (S300) may include a step (S390) of initializing the update time. In this step S390, the update time UT may be initialized to '0'. The control unit can again perform the operation of updating the composition data by comparing the update time (UT) and the period (P).

도 9를 참조하면, 디스플레이부(151)에 표시된 홈화면은 복수 개의 아이콘을 포함할 수 있다. 상기 복수 개의 아이콘은 제2 아이콘(IC2)을 포함할 수 있다. 제2 아이콘(IC2)은 제2 어플리케이션에 링크될 수 있다. Referring to FIG. 9, the home screen displayed on the display unit 151 may include a plurality of icons. The plurality of icons may include a second icon IC2. And the second icon IC2 may be linked to the second application.

사용자(800)는 제2 아이콘(IC2)을 터치할 수 있다. 제어부(180, 도 1a 참조)는 사용자(800)의 터치입력을 획득하여 제2 어플리케이션을 실행할 수 있다. 제2 어플리케이션이 실행되면, 제어부(180, 도 1a 참조)는 디스플레이부(151)에 적어도 하나의 썸네일을 표시할 수 있다. 상기 썸네일에 연동된 영상 파일(동영상 파일)은 작곡 데이터에 연동될 수 있다. 사용자(800)는 적어도 하나의 썸네일 중에서 제2 썸네일(SI2)을 터치할 수 있다. The user 800 can touch the second icon IC2. The control unit 180 (see FIG. 1A) can acquire the touch input of the user 800 and execute the second application. When the second application is executed, the control unit 180 (see FIG. 1A) may display at least one thumbnail on the display unit 151. FIG. The video file (video file) linked to the thumbnail can be linked to the composition data. The user 800 may touch the second thumbnail SI2 among at least one thumbnail.

도 10을 참조하면, 디스플레이부(151)에 제2 어플리케이션이 실행되는 화면이 표시될 수 있다. 디스플레이부(151)는 이미지창(image window, 500)과 메시지창(message window, 600)를 포함할 수 있다. Referring to FIG. 10, a screen on which the second application is executed may be displayed on the display unit 151. FIG. The display unit 151 may include an image window 500 and a message window 600.

이미지창(500)은, 실행되는 제2 어플리케이션의 타이틀(505)을 전시할 수 있다. 예를 들어 제2 어플리케이션의 타이틀(505)은 'MUSTAR'일 수 있다. 사용자는 제2 어플리케이션의 타이틀(505)로부터 제2 어플리케이션이 SNS 어플리케이션의 일종임을 어렵지 않게 짐작할 수 있다. The image window 500 may display the title 505 of the second application to be executed. For example, the title 505 of the second application may be 'MUSTAR'. From the title 505 of the second application, the user can easily guess that the second application is a kind of SNS application.

이미지창(500)은, 영상 파일의 초기 화면(510)을 전시할 수 있다. 여기서 영상 파일의 초기 화면(510)은 영상 파일의 대표적인 화면을 의미할 수 있다. 사용자는 영상 파일의 초기 화면(510)을 편집할 수 있다. The image window 500 can display an initial screen 510 of the image file. Here, the initial image 510 of the image file may represent a representative image of the image file. The user can edit the initial screen 510 of the image file.

이미지창(500)은, 영상 파일에 연동된 시간 정보(520)를 표시할 수 있다. 시간 정보(520)는 영상 파일이 녹화된 시기를 의미할 수 있다. 예를 들어 시간 정보(520)는, 연동된 영상 파일이 녹화된 시점인 2017년 5월 9일 오전 7시 30일 수 있다. The image window 500 can display the time information 520 interlocked with the image file. The time information 520 may indicate a time when the video file is recorded. For example, the time information 520 may be 7:30 am on May 9, 2017, at which the linked video file is recorded.

이미지창(500)은, 영상 파일에 연동된 날씨 정보(530)를 표시할 수 있다. 날씨 정보(530)는, 연동된 영상 파일이 녹화된 위치 및 시간에서의 날씨에 관한 정보를 의미할 수 있다. 예를 들어 연동된 영상 파일이 녹화된 시점에서 연동된 영상 파일이 녹화된 위치에서의 날씨는 맑음(SUNNY)일 수 있다. The image window 500 can display weather information 530 interlocked with the image file. The weather information 530 may mean information about weather at the position and time at which the interlocked video file is recorded. For example, the weather at the location where the image file linked with the linked image file is recorded may be sunny (SUNNY).

이미지창(500)은, 영상 파일에 연동된 지도 정보(540)를 표시할 수 있다. 지도 정보(540)는, 연동된 영상 파일이 녹화된 위치를 포함하는 지도에 관련될 수 있다. 이미지창(500)에 표시된 지도 정보(540)는, 연동된 영상 파일이 녹화된 위치가 표시될 수 있다. The image window 500 can display the map information 540 linked to the image file. The map information 540 may be related to a map including a location where the linked video file is recorded. The map information 540 displayed on the image window 500 may indicate the location where the linked image file is recorded.

이미지창(500)은, 영상 파일에 연동된 자켓 이미지(550)를 표시할 수 있다. 자켓 이미지(550)는 사용자가 직접 작성하거나 편집할 수 있다. 예를 들어 자켓 이미지(550)는 하늘을 나는 새의 형상을 포함할 수 있다. The image window 500 may display a jacket image 550 linked to an image file. The jacket image 550 can be directly created or edited by the user. For example, the jacket image 550 may include the shape of a flying bird.

이미지창(500)은, 영상 파일에 연동된 이미지 악보(560)를 표시할 수 있다. 이미지 악보(560)는, 영상 파일에 연동된 작곡 데이터를 이미지화한 것일 수 있다. 제어부(180, 도 1a 참조)는 이미지 악보(560)를 디지털 음향신호로 변환할 수 있다. 이미지 악보(560)는, 영상 파일에 연동된 작곡 데이터를 상징할 수 있다. The image window 500 may display an image score 560 linked to a video file. The image score 560 may be an image of composition data linked to a video file. The control unit 180 (see FIG. 1A) can convert the image score 560 into a digital sound signal. The image score 560 can represent composition data linked to a video file.

메시지창(600)은, 메시지표시부(610)와 메시지입력부(620)를 표시할 수 있다. 메시지입력부(620)는 복수 개의 키패드를 포함할 수 있다. 메시지표시부(610)는 메시지입력부(620)를 통해 입력된 메시지를 표시할 수 있다. The message window 600 may display a message display unit 610 and a message input unit 620. The message input unit 620 may include a plurality of keypads. The message display unit 610 can display a message input through the message input unit 620. [

메시지창(600)에서 메시지표시부에 표시된 메시지와 함께 이미지창(500)에 표시된 정보를 외부 단말기 또는 서버에 전송할 수 있다. 또는 메시지창(600)에서 이미지창(500)에 표시된 정보를 외부 단말기 또는 서버에 전송할 수 있다. The information displayed on the image window 500 together with the message displayed on the message display unit 600 in the message window 600 can be transmitted to the external terminal or the server. Or the information displayed on the image window 500 in the message window 600 to the external terminal or the server.

도 11의 (a)를 참조하면, 이동 단말기(100)는 외부 단말기(900)와 통신할 수 있다. 외부 단말기(900)는 외부 이동 단말기(900)일 수 있다. 이동 단말기(100)는 제2 어플리케이션을 이용하여 외부 단말기(900)와 영상 파일 및 작곡 데이터 등 영상 파일에 관한 정보를 주고 받을 수 있다. Referring to FIG. 11 (a), the mobile terminal 100 can communicate with the external terminal 900. The external terminal 900 may be an external mobile terminal 900. The mobile terminal 100 can exchange information on image files such as image files and composition data with the external terminal 900 using the second application.

도 11의 (b)를 참조하면, 이동 단말기(100)는 서버(950)와 통신할 수 있다. 서버(950)는, 예를 들어 제2 어플리케이션에 관련된 서버일 수 있다. 이동 단말기(100)는 제2 어플리케이션을 이용하여 서버(950)에 영상 파일 및 작곡 데이터 등 영상 파일에 관한 정보를 업로드하거나 서버(950)에서 다운로드할 수 있다. 외부 단말기(900)는, 이동 단말기(100)가 서버(950)에 업로드한 자료를 공유할 수 있다. Referring to FIG. 11 (b), the mobile terminal 100 can communicate with the server 950. The server 950 may be, for example, a server associated with the second application. The mobile terminal 100 may upload information about image files such as image files and composition data to the server 950 using the second application or download the images from the server 950. The external terminal 900 may share data uploaded by the mobile terminal 100 to the server 950.

앞에서 설명된 본 발명의 어떤 실시예 또는 다른 실시예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시예들 또는 다른 실시예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다. It is to be understood that any embodiment or other embodiments of the invention described above are not mutually exclusive or distinct from each other. Any or all of the embodiments of the invention described above may be combined or combined with each other in configuration or function.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. The foregoing detailed description should not be construed in all aspects as limiting and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

100: 이동 단말기 151: 디스플레이부
200: 관찰창 300: 옵션창
400: 상태창 500: 이미지창
600: 메시지창 900: 외부 단말기
100: mobile terminal 151:
200: Observation window 300: Options window
400: Status Window 500: Image Window
600: message window 900: external terminal

Claims (23)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 일 시각에서, 카메라와 디스플레이 유닛을 구비한 음악 작곡 장치에 저장된 영상 파일 또는 상기 음악 작곡 장치의 카메라를 이용하여 획득된 영상에서 이미지를 획득하는 이미지획득단계;
상기 획득된 이미지로부터 복수 개의 입력인자를 추출하는 입력인자추출단계;
상기 복수 개의 입력인자로부터 복수 개의 음악인자를 추출하는 음악인자추출단계; 그리고
상기 추출된 복수 개의 음악인자를 조합하여 작곡 데이터 형성하는 작곡데이터형성단계를 포함하고,
상기 입력인자추출단계는,
상기 이미지를 복수 개의 픽셀로 구분하여 각 픽셀별 색상정보를 추출하는 단계;
상기 각 픽셀별 색상정보를 분류하여 복수 개의 색조 그룹을 추출하는 단계;
상기 복수 개의 픽셀 중 이웃하는 픽셀의 색조를 비교하여 상기 이미지의 복잡도를 추출하는 단계; 그리고
상기 이미지의 중심부에서의 색조를 추출하는 단계를 포함하는,
음악 작곡 데이터 형성 방법.
An image acquiring step of acquiring an image from an image file stored in a music composition apparatus having a camera and a display unit or an image acquired using a camera of the music composition apparatus at one time;
Extracting a plurality of input factors from the obtained image;
Extracting a plurality of music factors from the plurality of input factors; And
And a composition data forming step of composing composition data by combining the extracted plurality of music factors,
The input parameter extraction step may include:
Dividing the image into a plurality of pixels and extracting color information for each pixel;
Extracting a plurality of color tone groups by classifying color information of each pixel;
Comparing the hue of neighboring pixels among the plurality of pixels to extract the complexity of the image; And
And extracting a hue at a central portion of the image.
Method of forming musical composition data.
삭제delete 제16항에 있어서,
상기 입력인자추출단계는,
상기 복수 개의 색조 그룹의 각각의 색조, 채도, 그리고 명도를 추출하여 상기 이미지의 평균 색조, 평균 채도, 그리고 평균 명도를 추출하는 단계를 포함하는,
음악 작곡 데이터 형성 방법.
17. The method of claim 16,
The input parameter extraction step may include:
And extracting an average hue, an average saturation, and an average brightness of the image by extracting each hue, saturation, and brightness of the plurality of hue groups.
Method of forming musical composition data.
제18항에 있어서,
상기 음악인자추출단계는,
상기 이미지의 중심부에서의 색조와 상기 이미지의 복잡도에 대응하여, 박자를 추출하는 단계;
상기 이미지의 평균 채도에 대응하여, 템포(tempo)를 추출하는 단계; 그리고
상기 이미지의 평균 명도와 상기 템포에 대응하여, 조성(tonality)을 추출하는 단계를 포함하는,
음악 작곡 데이터 형성 방법.
19. The method of claim 18,
Wherein the music-
Extracting a time signature corresponding to a tint at the center of the image and a complexity of the image;
Extracting a tempo corresponding to an average saturation of the image; And
And extracting a tonality corresponding to the average brightness of the image and the tempo.
Method of forming musical composition data.
제19항에 있어서,
상기 음악인자추출단계는,
상기 일 시각에서 음높이(pitch)를 추출하는 단계를 포함하고,
상기 일 시각에서 음높이를 추출하는 단계는,
상기 일 시각의 이전 시각에 추출된 음높이가 존재하면, 상기 이전 시각에 추출된 음높이의 화음에 대응되는 적어도 하나의 예비 음높이 중에서 가장 높은 가중치를 가지는 예비 음높이를 상기 일 시각에서의 음높이로 추출하고,
상기 일 시각의 이전 시각에 추출된 음높이가 존재하지 않으면, 상기 이미지의 중심부에서의 색조에 대응하여 상기 일 시각에서의 음높이를 추출하는,
음악 작곡 데이터 형성 방법.
20. The method of claim 19,
Wherein the music-
Extracting a pitch at the one time point,
The step of extracting the pitch at the one time may include:
Extracting a preliminary pitch having a highest weight from among at least one preliminary pitch corresponding to a pitch chord extracted at the previous time as a pitch at the one time,
Extracting a pitch at the one time corresponding to a color tone at a central portion of the image if the extracted pitch is not present at a previous time of the one time,
Method of forming musical composition data.
제19항에 있어서,
상기 음악인자추출단계는,
상기 추출된 복수 개의 입력인자와 상기 추출된 박자와 템포와 조성에 대응한 음높이 함수를 결정하는 단계를 포함하는 단계를 포함하는,
음악 작곡 데이터 형성 방법.
20. The method of claim 19,
Wherein the music-
And determining a pitch function corresponding to the extracted plurality of input factors and the extracted beat, tempo, and composition.
Method of forming musical composition data.
제20항 또는 제21항에 있어서,
상기 입력인자추출단계는,
상기 일 시각에서 제1 주기 동안 획득된 복수 개의 이미지에서 추출된 복수 개의 입력인자의 대푯값을 결정하는 입력인자 갱신단계를 포함하고,
상기 복수 개의 음악인자를 추출하는 단계는,
상기 복수 개의 입력인자의 대푯값에 대응되는 복수 개의 음악인자를 추출하는 음악인자 갱신단계를 포함하며,
상기 작곡 데이터를 형성하는 단계는,
상기 일 시각에서 추출된 복수 개의 음악인자와 상기 음악인자 갱신단계에서 추출된 복수 개의 음악인자를 조합하여 작곡 데이터를 형성하는 작곡 데이터 갱신단계를 포함하는,
음악 작곡 데이터 형성 방법.
22. The method according to claim 20 or 21,
The input parameter extraction step may include:
And an input factor updating step of determining a representative value of a plurality of input factors extracted from the plurality of images acquired during the first period at the one time,
Wherein the extracting of the plurality of music factors comprises:
And a music factor updating step of extracting a plurality of music factors corresponding to a representative value of the plurality of input factors,
Wherein the step of forming the composition data comprises:
And generating composition data by combining a plurality of music factors extracted at the one time and a plurality of music factors extracted at the music factor updating step.
Method of forming musical composition data.
제16항에 있어서,
상기 입력인자추출단계는,
상기 음악 작곡 장치가 위치하는 지역의 날씨정보를 획득하고 상기 날씨정보로부터 입력인자를 추출하는 단계를 더 포함하며,
상기 음악인자추출단계는,
상기 이미지로부터 추출된 복수 개의 입력인자와 상기 날씨정보로부터 추출된 입력인자로부터 복수 개의 음악인자를 추출하는,
음악 작곡 데이터 형성 방법.
17. The method of claim 16,
The input parameter extraction step may include:
Further comprising obtaining weather information of an area where the music composition apparatus is located and extracting an input factor from the weather information,
Wherein the music-
Extracting a plurality of music factors from a plurality of input factors extracted from the image and input factors extracted from the weather information,
Method of forming musical composition data.
KR1020170073956A 2017-06-13 2017-06-13 Music composing device KR101915587B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170073956A KR101915587B1 (en) 2017-06-13 2017-06-13 Music composing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170073956A KR101915587B1 (en) 2017-06-13 2017-06-13 Music composing device

Publications (1)

Publication Number Publication Date
KR101915587B1 true KR101915587B1 (en) 2018-11-07

Family

ID=64363219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170073956A KR101915587B1 (en) 2017-06-13 2017-06-13 Music composing device

Country Status (1)

Country Link
KR (1) KR101915587B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153193A1 (en) * 2019-01-23 2020-07-30 ソニー株式会社 Information processing system, information processing method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101579229B1 (en) * 2014-07-31 2015-12-21 경북대학교 산학협력단 Video display apparatus and control method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101579229B1 (en) * 2014-07-31 2015-12-21 경북대학교 산학협력단 Video display apparatus and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153193A1 (en) * 2019-01-23 2020-07-30 ソニー株式会社 Information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
CN105278745B (en) Mobile terminal and its control method
CN111065001B (en) Video production method, device, equipment and storage medium
KR20150124710A (en) Mobile terminal case and mobile terminal
KR20160016415A (en) Mobile terminal and method for controlling the same
CN110109608B (en) Text display method, text display device, text display terminal and storage medium
CN105430154A (en) Mobile terminal and controlling method thereof
KR20160127606A (en) Mobile terminal and the control method thereof
KR20200034528A (en) Mobile terminal
KR20160005199A (en) Mobile terminal and method for controlling the same
KR20160016412A (en) Mobile terminal case, mobile terminal and mobile terminal case's method for controlling the mobile terminal
KR101915587B1 (en) Music composing device
KR102611056B1 (en) Mobile terminal and Method for controlling the same
KR20210066546A (en) Mobile terminal and method for controlling thereof
KR20180082179A (en) Metal texture film and metal texture case
KR20220047293A (en) A mobile terminal for setting a home screen and a method for controlling the same
KR20160015592A (en) Mobile terminal and method for controlling the same
CN111694535A (en) Alarm clock information display method and device
KR20170056833A (en) Mobile terminal
KR20160047180A (en) Mobile terminal
KR102628105B1 (en) mobile terminal
KR101643639B1 (en) Mobile terminal and method for controlling the same
KR101611308B1 (en) Method of image taking
KR102135366B1 (en) Mobile device and control method thereof
KR20170006957A (en) Mobile terminal
KR101578013B1 (en) Earphone plug accessory and teminal

Legal Events

Date Code Title Description
GRNT Written decision to grant