KR101352880B1 - Electronic glasses, control method of electronic glasses, and computer readable recording medium - Google Patents

Electronic glasses, control method of electronic glasses, and computer readable recording medium Download PDF

Info

Publication number
KR101352880B1
KR101352880B1 KR1020130124844A KR20130124844A KR101352880B1 KR 101352880 B1 KR101352880 B1 KR 101352880B1 KR 1020130124844 A KR1020130124844 A KR 1020130124844A KR 20130124844 A KR20130124844 A KR 20130124844A KR 101352880 B1 KR101352880 B1 KR 101352880B1
Authority
KR
South Korea
Prior art keywords
image
transparency
display
electronic glasses
generating
Prior art date
Application number
KR1020130124844A
Other languages
Korean (ko)
Inventor
박성진
Original Assignee
박성진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박성진 filed Critical 박성진
Priority to KR1020130124844A priority Critical patent/KR101352880B1/en
Application granted granted Critical
Publication of KR101352880B1 publication Critical patent/KR101352880B1/en
Priority to EP14804152.8A priority patent/EP3007135A4/en
Priority to CN201480030761.XA priority patent/CN105247574B/en
Priority to JP2016512849A priority patent/JP6246334B2/en
Priority to PCT/KR2014/004702 priority patent/WO2014193136A1/en
Priority to US14/888,910 priority patent/US9998671B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Disclosed is a control method of electronic glasses. The control method includes a step of receiving a user input selecting images desired to be drawn; a step of generating a first image of which transparency is controlled and includes an outline on the selected image; and a step of displaying the generated first image by overlapping the same with a panoramic view recognized according to an optic angle of a user wearing the electronic glasses.

Description

전자 안경, 전자 안경의 제어 방법, 및 컴퓨터 판독 가능한 기록 매체{ELECTRONIC GLASSES, CONTROL METHOD OF ELECTRONIC GLASSES, AND COMPUTER READABLE RECORDING MEDIUM}ELECTRONIC GLASSES, CONTROL METHOD OF ELECTRONIC GLASSES, AND COMPUTER READABLE RECORDING MEDIUM

전자 안경, 전자 안경의 제어 방법, 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 상세하게는 이미지 처리를 수행하는 전자 안경, 전자 안경의 제어 방법, 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to electronic glasses, a control method of electronic glasses, and a computer readable recording medium, and more particularly, to an electronic glasses for performing image processing, a control method of electronic glasses, and a computer readable recording medium.

전자 기술의 발달에 힘입어 다양한 종류의 전자 장치가 개발 및 보급되고 있다. 특히, 우수한 IT 기술을 바탕으로 한 최첨단 스마트폰, 스마트 글래스와 같은 전자 장치도 보급되고 있다.Various types of electronic devices are being developed and distributed due to the development of electronic technologies. In particular, electronic devices such as high-tech smartphones and smart glasses based on excellent IT technology are spreading.

최근에는 최첨단 전자 장치의 가격 인하 및 성능 향상 등으로 인하여, 최첨단 전자 장치에 대한 수요가 증가하고 있다. 이에 따라, 최첨단 전자 장치에 부합하는 다양하고 편리한 사용 방법의 개발에 대한 노력도 가속화되고 있다. Recently, due to the price reduction and the performance improvement of the high-tech electronic devices, the demand for the high-tech electronic devices is increasing. Accordingly, efforts to develop various and convenient methods of use that are compatible with the state-of-the-art electronic devices are also accelerating.

그 결과, 전자 장치에 대한 사용자의 사용 편의를 위하여 다양한 어플리케이션에 대한 개발이 요청되고 있는 실정이다. As a result, development of various applications is requested for the user's convenience of the electronic device.

본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 특정 이미지에 대한 윤곽선을 갖고 투명도가 조절된 이미지를 생성하고, 생성된 이미지를 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하는 전자 안경, 전자 안경의 제어 방법, 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다. The present invention has been made in accordance with the above-described necessity, an object of the present invention is to create an image having an outline and control of transparency for a specific image, and to generate a generated image in the foreground perceived by the wearer's view of the electronic glasses. An electronic glasses, a control method of the electronic glasses, and a computer-readable recording medium which are overlaid.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 안경의 제어 방법은, 따라 그리길 원하는 이미지를 선택하는 사용자 입력을 수신하는 단계, 상기 선택받은 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하는 단계 및 상기 생성된 제1 이미지를 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of controlling an electronic glasses, the method comprising: receiving a user input of selecting an image to be drawn, having an outline of the selected image and adjusting transparency; Generating a first image and displaying the generated first image overlaid on the foreground perceived by the wearer's view of the electronic glasses.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 안경은, 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 디스플레이 효과를 제공하는 디스플레이부, 따라 그리길 원하는 이미지를 선택하는 사용자 입력을 수신하는 입력부, 상기 선택받은 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하고, 상기 생성된 제1 이미지를 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하도록 상기 디스플레이부를 제어하는 제어부를 포함한다.On the other hand, the electronic glasses according to an embodiment of the present invention for achieving the above object, the display unit for providing a display effect in the foreground perceived by the wearer's vision with respect to the electronic glasses, select the image to be drawn An input unit configured to receive a user input, generating a first image having an outline of the selected image and adjusting transparency, and superimposing the generated first image on a foreground recognized by a wearer's vision of the electronic glasses; It includes a control unit for controlling the display unit to display.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 안경의 제어 방법을 수행하기 위한 프로그램 코드가 기록된 컴퓨터 판독 가능한 기록 매체에 있어서, 상기 제어 방법은, 따라 그리길 원하는 이미지를 선택하는 사용자 입력을 수신하는 단계; 상기 선택받은 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하는 단계 및 상기 생성된 제1 이미지를 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하는 단계를 포함한다.On the other hand, in a computer-readable recording medium having a program code for performing the method of controlling the electronic glasses according to an embodiment of the present invention for achieving the above object, the control method, the image to be drawn Receiving a user input for selecting; Generating a first image having an outline of the selected image and adjusting the transparency, and displaying the generated first image overlaid on the foreground perceived by the wearer's vision of the electronic glasses.

상술한 본 발명의 다양한 실시 예에 따르면, 사용자는 표시된 화면을 보면서 종이와 같은 매체에 표시된 그림을 쉽게 따라 그릴 수 있다. 즉, 사용자는 투명 필름이나 기름 종이를 사용해 그림을 따라 그리는 것과 같은 효과를 전자 안경을 통하여 획득할 수 있다. According to various embodiments of the present disclosure, the user may easily draw a picture displayed on a medium such as paper while looking at the displayed screen. In other words, the user can obtain an effect through electronic glasses, such as drawing a picture using transparent film or oil paper.

또한, 본 발명의 다양한 실시 예에 따르면, 누구나 그리고 싶은 그림을 쉽게 따라 그릴 수 있다. 일 예로, 좋아하는 스타, 갖고 싶은 차, 직접 그리고 싶은 가족사진, 풍경, 브로마이드, 화보 등과 같은 시각적 자료(이미지)만 있다면 어떤 것이라도 쉽게 따라 그릴 수 있다. 이 경우, 윤곽선을 따라 스케치할 수 있을 뿐만 아니라, 원본 이미지에 대한 제3 이미지의 투명도 조절을 통해 명암표현과 색칠까지 할 수 있다.In addition, according to various embodiments of the present disclosure, anyone can easily draw a picture to be drawn. For example, if you have visual materials such as a favorite star, a car you want, a family picture you want to draw, a landscape, a bromide, a pictorial, you can easily follow anything. In this case, not only can sketch along the outline, but also contrast and coloring can be achieved by adjusting the transparency of the third image with respect to the original image.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다.
도 2는 도 1에 따른 전자 장치를 구체적으로 나타내는 블록도 이다.
도 3 내지 8은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 UI(User Interface)화면의 일 예를 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 전자 장치를 이용하여 그림을 따라 그리는 방법의 일 예를 나타내는 도면이다.
도 10은 본 발명의 일 실시 예에 따른 전자 장치가 스마트 글래스로 구현된 일 예를 나타내는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하는 흐름도 이다.
도 12는 본 발명의 일 실시 예에 따른 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하는 방법을 설명하는 흐름도 이다.
도 13은 본 발명의 일 실시 예에 따른 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하는 방법을 설명하는 흐름도 이다.
도 14는 본 발명의 일 실시 예에 따른 착용형 전자 장치를 이용하여 그림을 따라 그리는 방법의 일 예를 나타내는 도면이다.
1 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.
FIG. 2 is a block diagram illustrating in detail the electronic device of FIG. 1.
3 to 8 are diagrams illustrating an example of a user interface (UI) screen for explaining a control method of an electronic device according to an embodiment of the present disclosure.
9 is a diagram illustrating an example of a method of drawing along a picture using an electronic device according to an embodiment of the present disclosure.
10 is a diagram illustrating an example in which an electronic device is implemented as smart glasses according to an embodiment of the present disclosure.
11 is a flowchart illustrating a control method of an electronic device according to an embodiment of the present disclosure.
12 is a flowchart illustrating a method of generating a first image having an outline and adjusting transparency according to an embodiment of the present invention.
FIG. 13 is a flowchart illustrating a method of generating a first image having an outline and adjusted transparency according to an exemplary embodiment.
14 is a diagram illustrating an example of a method of drawing along a drawing using a wearable electronic device according to an embodiment of the present disclosure.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다. 도 1을 참조하면, 전자 장치(100)는 디스플레이부(110), 입력부(120), 제어부(130), 저장부(140), 통신부(150), 촬영부(160)의 전부 또는 일부를 포함한다.1 is a block diagram illustrating an electronic device according to an embodiment of the present invention. Referring to FIG. 1, the electronic device 100 includes all or part of the display 110, the inputter 120, the controller 130, the storage 140, the communicator 150, and the photographing unit 160. do.

여기서 전자 장치(100)는 카메라 기능을 구비한 디지털 카메라, 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 디지털 TV, 스마트 글래스, 프로젝트 글래스 등과 같은 다양한 장치로 구현될 수 있다. The electronic device 100 may include various devices such as a digital camera having a camera function, a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a digital TV, a smart glass, a project glass, and the like. It can be implemented as.

디스플레이부(110)는 화면을 표시하는 기능을 한다. 특히 본 발명의 다양한 실시 예를 구현하기 위한 어플리케이션(일 예로, 그림 따라 그리기 어플리케이션)이 실행되면, 디스플레이부(110)는 도 3 내지 9와 같은 화면을 표시할 수 있다. The display 110 functions to display a screen. In particular, when an application for implementing various embodiments of the present invention (for example, a drawing application according to a drawing) is executed, the display 110 may display a screen as illustrated in FIGS. 3 to 9.

여기서, 디스플레이부(110)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 투명 디스플레이, HUD(Head Up Display), HMD(Head Mounted Display), Prism Project Display 중에서 적어도 하나로 구현될 수 있다. The display unit 110 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. The display may be implemented as at least one of a 3D display, a transparent display, a head up display (HUD), a head mounted display (HMD), and a prism project display.

입력부(120)는 전자 장치(100)를 조작하는 사용자 입력을 수신한다.The input unit 120 receives a user input for operating the electronic device 100.

여기서 입력부(120)는 다양한 버튼의 형태, 디스플레이부(110)에 대한 터치 입력을 수신하는 터치 센서, 디스플레이부(110) 표면에 직접 접속되지 않고 접근하는 모션을 수신하는 근접 센서, 사용자의 음성 입력을 수신하는 마이크로폰 중 적어도 하나를 이용하여 구현될 수 있다. 다만, 이에 한정되는 것은 아니고, 사용자 입력을 수신할 수 있는 어떠한 형태로 구현되어도 무방하다.Here, the input unit 120 may include various types of buttons, a touch sensor that receives a touch input to the display unit 110, a proximity sensor that receives motion that is not directly connected to the surface of the display unit 110, And a microphone for receiving the microphone. However, the present invention is not limited thereto and may be implemented in any form capable of receiving user input.

저장부(140)는 전자 장치(100)의 동작이 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히 저장부(140)는 본 발명의 다양한 실시 예를 구현하기 위한 '그림 따라 그리기 어플리케이션'을 저장할 수 있다. The storage 140 functions to store various data and applications requiring the operation of the electronic device 100. In particular, the storage unit 140 may store a 'drawing along application' for implementing various embodiments of the present disclosure.

여기서 저장부(140)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드 등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈가능한 형태의 저장소자로 구현될 수도 있다.The storage unit 140 may include random access memory (RAM), flash memory, read only memory (ROM), erasable programmable ROM (EPROM), electronically erasable and programmable ROM (EPROM), register, hard disk, removable disk, and memory. The built-in storage of a card or the like, as well as the removable storage of a USB memory or the like can be implemented.

통신부(150)는 전자 장치(100)와 외부 장치간의 통신을 수행할 수 있게 한다. 여기서, 통신부(150)는 근거리 통신망(LAN : Local Area Network) 및 인터넷망을 통해 무선 또는 유선방식으로 접속되는 형태, USB(Universal Serial Bus)포트를 통하여 접속되는 형태, 3G, 4G와 같은 이동 통신망을 통해 접속되는 형태, NFC(Near Field Communication, RFID(Radio Frequency Identification), Wi-Fi등과 같은 근거리 무선 통신방식을 통해 접속되는 형태가 가능하다. The communication unit 150 enables communication between the electronic device 100 and an external device. Here, the communication unit 150 may be connected in a wireless or wired manner via a local area network (LAN) and an Internet network, a form connected through a USB (Universal Serial Bus) port, a mobile communication network Or a short-range wireless communication method such as NFC (Near Field Communication), Radio Frequency Identification (RFID), Wi-Fi, or the like.

촬영부(160)는 피사체의 촬영에 따라 이미지를 생성할 수 있다. 특히 촬영부(160)는 피사체의 라이브 뷰 촬영에 따라 이미지를 생성할 수 있다. 여기서 라이브 뷰 촬영은, 전자 장치(100)에서 촬영된 이미지를 실시간으로 표시하는 디스플레이부(110)를 사용자가 확인하면서 촬영을 수행하는 것을 의미한다. 한편, 촬영부(160)는 생성된 촬영 이미지를 제어부(130)에 제공할 수 있다. The photographing unit 160 may generate an image according to the photographing of the subject. In particular, the photographing unit 160 may generate an image according to live view photographing of a subject. Here, the live view photographing refers to photographing while the user confirms the display 110 displaying the image photographed by the electronic device 100 in real time. On the other hand, the photographing unit 160 may provide the generated photographed image to the controller 130.

제어부(130)는 전자 장치(100)의 전반적인 동작을 제어한다. 특히 제어부(130)는 실행된 '그림 따라 그리기 어플리케이'션과 연계하여 디스플레이부(110), 입력부(120), 제어부(130), 저장부(140), 통신부(150), 촬영부(160)의 전부 또는 일부를 제어할 수 있다.The control unit 130 controls the overall operation of the electronic device 100. In particular, the controller 130 is connected to the 'drawing according to the application' is executed display unit 110, input unit 120, control unit 130, storage unit 140, communication unit 150, photographing unit 160 Control all or part of).

구체적으로 복수의 그리기 모드 중 하나의 그리기 모드가 선택되면, 제어부(130)는 선택된 그리기 모드에 대응되는 동작을 수행하도록 전자 장치(100)의 구성들의 전반적인 동작을 제어할 수 있다. 여기서 그리기 모드는, '캐릭터 그리기 모드', '사진 찍고 따라 그리기 모드', '갤러리 사진 그리기 모드', '동물/식물 그리기 모드', '교통수단 그리기 모드', '인물화 그리기 모드', '정밀 묘사 모드' 중 적어도 하나를 포함할 수 있다. 여기서 '사진 찍고 따라 그리기 모드'가 선택되면, 촬영부(160)가 구동되고, 촬영부(160)에서 촬영에 따라 생성된 촬영 이미지에 대한 이미지 처리가 수행될 수 있다. 또한, 이외의 그리기 모드는, 기 저장된 이미지 중 특정 이미지 선택 후에 이미지 처리가 수행될 수 있다. 또한, '정밀 묘사 모드'는 촬영 후 또는 특정 이미지 선택 후에 이미지 처리가 수행될 수 있다. In detail, when one drawing mode is selected from among the plurality of drawing modes, the controller 130 may control overall operations of the components of the electronic device 100 to perform an operation corresponding to the selected drawing mode. Here, the drawing modes are 'character drawing mode', 'picture taking and drawing mode', 'gallery picture drawing mode', 'animal / plant drawing mode', 'transportation drawing mode', 'figure drawing mode', 'detailed description' At least one of the modes'. When the 'take picture according to the drawing mode' is selected, the photographing unit 160 is driven, and the photographing unit 160 may perform image processing on the photographed image generated according to the photographing. In addition, in other drawing modes, image processing may be performed after selecting a specific image among pre-stored images. Also, in the 'detailed description mode', image processing may be performed after photographing or after selecting a specific image.

상술한 그리기 모드 선택 후에, 사용자가 따라 그리기를 원하는 이미지가 특정될 수 있다. After selecting the drawing mode described above, an image that the user wants to draw along may be specified.

한편, 상술한 동작에 의하여, 전자 장치(100)의 사용자가 따라 그리기를 원하는 이미지가 선택되면, 제어부(130)는 선택된 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성할 수 있다. 여기서, 따라 그리기를 원하는 이미지는, 저장부(140)에 기 저장된 이미지일 수 있고, 또는 촬영부(160)에서 촬영에 따라 생성된 이미지일 수 있고, 또는 통신부(150)를 통하여 외부 장치로부터 수신된 이미지일 수 있다. On the other hand, when the image that the user of the electronic device 100 wants to draw along is selected by the above-described operation, the controller 130 may generate a first image having an outline of the selected image and adjusting the transparency. Here, the image to be drawn along may be an image previously stored in the storage 140, or may be an image generated by capturing by the photographing unit 160, or received from an external device through the communicator 150. It may be an image.

한편, 여기서 제1 이미지는, 일 예로, 선택받은 이미지에서 윤곽선을 추출하여 생성된 제2 이미지, 선택받은 이미지에서 투명도를 조절하여 생성된 제3 이미지를 결합하여 생성될 수 있다. 즉 사용자에 의해 투명도가 조절될 때마다 제3 이미지는 지정된 투명도로 즉각 조절되어 제 2 이미지와 완벽히 겹쳐보이는 것이 제1 이미지일 수 있다.Meanwhile, the first image may be generated by, for example, combining a second image generated by extracting an outline from the selected image and a third image generated by adjusting transparency of the selected image. That is, each time the transparency is adjusted by the user, the third image may be immediately adjusted to the designated transparency to completely overlap with the second image.

이 경우, 제어부(130)는 선택받은 이미지에서 윤곽선을 추출한 제2 이미지를 생성할 수 있다. 일 예로, 제어부(130)는 선택받은 이미지 내에서 픽셀 값이 기 설정된 크기 이상으로 변하는 영역을 추출하여 윤곽선을 추출할 수 있다. 다만, 이는 일 실시 예일 뿐, 기 공지된 다양한 윤곽선 추출 알고리즘을 이용하여 선택받은 이미지에 포함된 다양한 객체에 대한 윤곽선을 추출하고, 추출된 윤곽선만으로 구성된 제2 이미지를 생성할 수 있다. In this case, the controller 130 may generate a second image from which the outline is extracted from the selected image. As an example, the controller 130 may extract an outline by extracting an area in which the pixel value changes to a predetermined size or more in the selected image. However, this is only an example, and may extract contours for various objects included in the selected image by using various known contour extraction algorithms and generate a second image including only the extracted contours.

그리고, 제어부(130)는 선택받은 이미지에서 투명도를 조절한 제3 이미지를 생성할 수 있다. 일 예로, 이미지 처리의 첫 단계와 같이 투명도 레벨을 조작하는 별도의 사용자 입력이 수신되지 않은 경우, 제어부(130)는 선택받은 이미지의 RGBA 값에서 디폴트 투명도 레벨에 대응하는 A(ALPHA) 값을 적용함으로써 제3 이미지를 생성할 수 있다. 여기서 디폴트 투명도 레벨은, 복수의 그리기 모드에 따라 서로 다른 레벨로 디폴트 설정될 수 있다. The controller 130 may generate a third image in which transparency is adjusted from the selected image. For example, when a separate user input for manipulating the transparency level is not received as in the first step of image processing, the controller 130 applies an A (ALPHA) value corresponding to the default transparency level in the RGBA value of the selected image. By doing so, a third image may be generated. Here, the default transparency level may be set to different levels according to the plurality of drawing modes.

또는, 투명도 레벨을 조작하는 사용자 입력이 수신된 경우, 제어부(130)는 선택받은 이미지의 RGBA 값에서 선택받은 투명도 레벨에 대응하는 A(ALPHA) 값을 적용함으로써 제3 이미지를 생성할 수 있다. Alternatively, when a user input for manipulating the transparency level is received, the controller 130 may generate a third image by applying an A (ALPHA) value corresponding to the selected transparency level from the RGBA value of the selected image.

여기서 생성된 제2 이미지 및 제3 이미지의 사이즈는 동일할 수 있다. 다만, 이에 한정되는 것은 아니다.The size of the second image and the third image generated here may be the same. However, the present invention is not limited thereto.

그리고, 제어부(130)는 생성된 제2, 제3 이미지를 결합하여 제1 이미지를 생성할 수 있다. 여기서 생성된 제1 이미지는, 선택받은 이미지에 대한 윤곽만을 포함하는 제2 이미지와 선택받은 이미지 원본의 색 및 명암의 조절에 따라 투명도가 조절된 제3 이미지를 결합한 형태의 이미지일 수 있다. The controller 130 may generate the first image by combining the generated second and third images. The first image may be a combination of a second image including only the outline of the selected image and a third image whose transparency is adjusted according to the color and contrast of the selected original image.

한편, 상술한 바에 따르면, 제1 이미지가 생성된 제2 및 제3 이미지의 결합에 의하여 생성되는 경우를 예로 설명하였으나, 이에 한정되는 것은 아니다. 다른 예에 따르면, 제1 이미지는, 제2, 제3 이미지의 생성하는 단계 없이 선택받은 이미지에 대한 이미지 처리만으로 생성될 수 있다. Meanwhile, as described above, the case in which the first image is generated by combining the generated second and third images has been described as an example, but is not limited thereto. According to another example, the first image may be generated by only image processing on the selected image without generating the second and third images.

한편, 제어부(130)는 생성된 제1 이미지를 촬영부(160)의 라이브 뷰 촬영에 따라 생성된 촬영 이미지와 겹쳐서 표시하도록 디스플레이부(110)를 제어할 수 있다. 구체적으로 제어부(130)는 촬영부(160)의 라이브 뷰 촬영에 따라 생성된 촬영 이미지를 하단 레이어에 배치하고, 생성된 제1 이미지를 상단 레이어에 배치하여 함께 표시하도록 디스플레이부(110)를 제어할 수 있다. 여기서 디스플레이부(110)의 표면이 향하는 방향이 Z축의 (+) 방향을 기준으로, 더 위에 배치된 레이어를 상단 레이어, 상단 레이어 보다 밑에 배치된 레이어를 하단 레이어로 정의하기로 한다. The controller 130 may control the display 110 to display the first image generated by overlapping the photographed image generated according to the live view photographing of the photographing unit 160. In detail, the controller 130 controls the display 110 to arrange the captured image generated according to the live view shooting of the photographing unit 160 on the lower layer and to display the generated first image on the upper layer together. can do. Here, the direction of the surface of the display unit 110 is defined as a lower layer, a layer disposed above the upper layer and a layer disposed below the upper layer based on the (+) direction of the Z axis.

이에 따라, '촬영 이미지'와 '윤곽선을 갖고 투명도가 조절된 제1 이미지'가 서로 오버랩되는 그리기 화면이 디스플레이부(110)에 표시될 수 있다. Accordingly, a drawing screen on which the photographed image and the first image having an outline and whose transparency is overlapped with each other may be displayed on the display 110.

한편, 상기 그리기 화면은, 투명도 레벨을 선택받기 위한 제1 영역, 촬영에 대한 자동 초점 ON/OFF 제어를 선택받기 위한 제2 영역을 포함할 수 있다. 만약, 제1 영역을 통하여 투명도 레벨을 조절하기 위한 사용자 입력이 수신되면, 제어부(130)는 선택받은 투명도 레벨을 기초로 제3 이미지를 생성하고, 이에 따라, 디스플레이부(110)는 '촬영 이미지'와 '선택받은 투명도 레벨에 대응하는 투명도를 갖는 제1 이미지'를 함께 표시할 수 있다. 즉, 제3 이미지만 선택받은 투명도 레벨에 영향을 받고, 제2 이미지는 선택받은 투명도 레벨에 영향을 받지 않고 선명하게 유지될 수 있다.The drawing screen may include a first area for selecting a transparency level and a second area for selecting an auto focus ON / OFF control for photographing. If a user input for adjusting the transparency level is received through the first region, the controller 130 generates a third image based on the selected transparency level, and accordingly, the display 110 displays the photographed image. And 'a first image having transparency corresponding to the selected transparency level' may be displayed together. That is, only the third image may be affected by the selected transparency level, and the second image may be kept clear without being affected by the selected transparency level.

여기서 촬영 이미지 및 제1 이미지의 사이즈는 동일할 수 있다. 다만, 이에 한정되는 것은 아니다. 또한, 제1 이미지 및 촬영 이미지는 디스플레이부(110)의 전체 화면에 겹쳐서 표시될 수 있다. The sizes of the captured image and the first image may be the same. However, the present invention is not limited thereto. In addition, the first image and the captured image may be displayed overlapping the entire screen of the display 110.

한편, 상술한 '정밀 묘사 모드'가 선택되면, 제어부(130)는 생성된 제1 이미지를 복수의 영역으로 구분하여 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지와 함께 표시하도록 디스플레이부(110)를 제어할 수 있다. 이 경우, 복수의 영역 중 일 영역이 선택되면, 제어부(130)는 선택된 일 영역을 확대하여 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지와 함께 표시하도록 디스플레이부(110)를 제어할 수 있다. Meanwhile, when the above-described 'precision description mode' is selected, the controller 130 divides the generated first image into a plurality of areas and displays the captured first image together with the captured image corresponding to the live view shooting of the electronic device. Can be controlled. In this case, when one region is selected from among the plurality of regions, the controller 130 may control the display 110 to enlarge the selected region and display it together with the captured image corresponding to the live view photographing of the electronic device.

또한, 제어부(130)는 생성된 제1 이미지를 저장하도록 저장부(140)를 제어할 수 있다. 여기서 제어부(130)는 이미지 처리 대상인 원래 이미지가 저장된 폴더와는 별도의 폴더에 생성된 제1 이미지를 저장하도록 저장부(140)를 제어할 수 있다. In addition, the controller 130 may control the storage 140 to store the generated first image. Herein, the controller 130 may control the storage 140 to store the first image generated in a folder separate from the folder in which the original image, which is an image processing target, is stored.

또한, 생성된 제1 이미지에 대한 사용자의 교환/거래 명령이 입력부(120)를 통하여 수신되면, 제어부(130)는 생성된 제1 이미지를 이미지 교환/거래 서버에 전송하도록 통신부(150)를 제어할 수 있다. In addition, when a user's exchange / transaction command for the generated first image is received through the input unit 120, the controller 130 controls the communication unit 150 to transmit the generated first image to the image exchange / transaction server. can do.

일 예로, 이미지 교환/거래 서버는, 이미지 교환/거래를 위한 웹 또는 모바일 웹 또는 스마트폰 용 웹등을 제공할 수 있다. 이러한 이미지 교환/거래를 위한 웹 또는 모바일 웹 또는 어플리케이션 등을 통해, 공급자는 이미지 원본을 무료/유료로 제공하여 게시할 수 있으며, 사용자들은 본 발명을 이용한 어플리케이션이 설치된 기기로 자신이 따라 그리고 싶은 이미지를 직접 다운받음으로서 제1이미지를 생성하여 따라 그릴 수 있다. 이러한, 웹 또는 모바일 웹에서는 공급자와 수요자가 상호작용을 통해 자유롭게 따라 그리기 위한 이미지를 교환/거래 할 수 있다. 예를 들어 그림을 잘 그리는 사람이 자신의 그림을 웹 또는 모바일웹에 올리면, 그 그림이 마음에 들어서 따라 그리고 싶은 사람은 웹 또는 모바일웹에서 다운로드 할 수 있습니다. For example, the image exchange / transaction server may provide a web or mobile web or a web for a smartphone for image exchange / transaction. Through such web or mobile web or application for image exchange / transaction, the supplier can provide the original image for free / paid and post it, and the users want to follow their own image on the device where the application using the present invention is installed. By directly downloading, a first image can be generated and drawn. In such a web or mobile web, suppliers and consumers can exchange / transact images for free-tracking through interaction. For example, a person who draws a good picture puts his or her picture on the web or mobile web. If you like the picture and want to follow it, you can download it from the web or mobile web.

이러한 동작을 위하여, 본 발명의 다양한 실시 예를 구현하기 위한 어플리케이션이 설치되있어야 가능할 수 있다. For this operation, it may be possible to install an application for implementing various embodiments of the present invention.

사용자는 이 모든 액션을 수행하기 위하여 기본적으로 사이트 회원가입과 본 발명의 다양한 실시 예를 구현하기 위한 어플리케이션이 설치된 전자 장치를 구비해야할 수 있다. In order to perform all of these actions, the user may basically have an electronic device installed with a site subscription and an application for implementing various embodiments of the present disclosure.

또한, 그림 공급자는 본 본 발명의 다양한 실시 예를 구현하기 위한 어플리케이션이 설치된 전자 장치를 갖고 있지 않아도 상관없으며, 유료 판매 등록시엔 사이트에 본인 인증절차(본인 통장확인 등)를 거쳐야 하고, 무료 판매 등록시엔 이 절차가 불필요할 수 있다. 유료 판매 등록시엔 공급자가 상업적 권리를 갖게 되므로 보호하기 위한 장치로서 웹/모바일웹상에서 반 투명 인각 마크, 홈페이지내의 그림 복사 방지 기능으로서 마우스 우클릭 및 컨트롤 쉬프트키 방지 기능을 갖출 수 있다. 또한, 유료 판매 등록하여 결재시, 신용카드 또는 핸드폰인증을 통한 소액결재가 가능하며, 웹/모바일 웹을 제공하는 이미지 교환/거래 서버의 주체는 일정부분 수수료를 자동 징수 후 판매 대금을 공급자의 계좌로 송금할 수 있다. 이러한 포괄적인 제반사항에 대해 약관과 수수료안내에 공지가 포함될 수 있다. 별도의 관리자 페이지에서 웹/모바일웹의 카테고리 조정 및 댓글, 공지 기능 등 위의 모든 기능을 컨트롤 할 수 있다.In addition, the picture provider does not need to have an electronic device installed with an application for implementing various embodiments of the present invention, and when registering for a paid sale, the site must go through a personal authentication procedure (such as verifying the bank account) and register for free sale. This procedure may not be necessary. In the paid sales registration, the supplier has a commercial right, so as a device for protection, it can be equipped with a semi-transparent engraving mark on the web / mobile web and a right-click and control shift key prevention function as a copy protection function on the home page. In addition, it is possible to make a small payment through a credit card or mobile phone authentication when paying by registering a paid sale, and the subject of an image exchange / transaction server that provides web / mobile web automatically collects a part of the fee and pays the sales price to the supplier's account. You can send money to Such comprehensive matters may include notice in the Terms and Fees. In the separate admin page, you can control all the above functions such as category adjustment, comment, and notice function of web / mobile web.

한편, 사용자는, 일 예로, 따라 그리기 위한 이미지를 다운 받을 스마트 폰의 번호를 입력한 후 상기 이미지를 다운로드할 수 있다.On the other hand, the user, for example, after inputting the number of the smart phone to download the image to follow the image may be downloaded.

이러한, 본 발명의 다양한 실시 예에 따르면, 사용자는 표시된 화면을 보면서 종이와 같은 매체에 표시된 그림을 쉽게 따라 그릴 수 있다. 즉, 사용자는 투명 필름이나 기름 종이를 사용해 그림을 따라 그리는 것과 같은 효과를 전자 장치를 통하여 획득할 수 있다. According to various embodiments of the present disclosure, the user may easily draw a picture displayed on a medium such as paper while looking at the displayed screen. In other words, the user may acquire an effect such as drawing along a picture using transparent film or oil paper through the electronic device.

도 2는 도 1에 따른 전자 장치를 구체적으로 나타내는 블록도 이다. 도 2를 참조하면, 전자 장치(100)는 디스플레이부(110), 입력부(120), 제어부(130), 저장부(140), 통신부(150), 촬영부(160), 인식부(170), 스피커(180), 외부 입력 포트(190-1 ~ 190-n), 전원부(195)의 전부 또는 일부를 포함한다. 이하에서는, 도 1에서 기 설명된 구성에 대한 중복 설명은 생략하고, 도 2를 참조하여 본 발명의 일 실시 예에 따른 전자 장치를 보다 구체적으로 설명하기로 한다.Fig. 2 is a block diagram specifically showing an electronic device according to Fig. 1. Fig. Referring to FIG. 2, the electronic device 100 may include a display 110, an inputter 120, a controller 130, a storage 140, a communication unit 150, a photographing unit 160, and a recognition unit 170. , All or part of the speaker 180, the external input ports 190-1 to 190-n, and the power supply unit 195. Hereinafter, redundant description of the previously described configuration in FIG. 1 will be omitted, and an electronic device according to an embodiment of the present disclosure will be described in detail with reference to FIG. 2.

입력부(120)는 전자 장치(100)에 대한 사용자 조작을 수신한다. 여기서, 입력부(120)는 터치 센서(121), 지자기 센서(122), 가속도 센서(123), 벤드 센서(124), 압력 센서(125), 근접 센서(126), 그립 센서(127) 등과 같은 다양한 유형의 센서의 전부 또는 일부를 포함할 수 있다. The input unit 120 receives a user operation on the electronic device 100. Here, the input unit 120 may be a touch sensor 121, a geomagnetic sensor 122, an acceleration sensor 123, a bend sensor 124, a pressure sensor 125, a proximity sensor 126, a grip sensor 127, or the like. It may include all or part of various types of sensors.

터치 센서(121)는 정전식 또는 감압식으로 구현될 수 있다. 정전식은 디스플레이부(110) 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 디스플레이부(110) 표면에 터치되었을 때 사용자의 인체로 여기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 이상과 같이 터치 센서(121)는 다양한 형태로 구현될 수 있다.The touch sensor 121 may be implemented as capacitive or pressure sensitive. The electrostatic type is a method of calculating the touch coordinates by sensing the minute electricity that is excited by the user's body when a part of the user's body is touched to the surface of the display unit 110 by using a dielectric coated on the surface of the display unit 110. [ The depressurization type includes two electrode plates, and when the user touches the screen, the top and bottom plates of the touched point contact with each other to sense current flow, and the touch coordinates are calculated. As described above, the touch sensor 121 may be implemented in various forms.

지자기 센서(122)는 전자 장치(100)의 회전 상태 및 이동 방향 등을 감지하기 위한 센서이고, 가속도 센서(123)는 전자 장치(100)의 기울어진 정도를 감지하기 위한 센서이다. 이러한 지자기 센서(122), 가속도 센서(123)는 전자 장치(100)의 회전 상태 또는 기울기 상태 등을 검출하기 위한 용도로 사용될 수도 있다. The geomagnetic sensor 122 is a sensor for detecting a rotation state and a moving direction of the electronic device 100, and the acceleration sensor 123 is a sensor for detecting an inclination degree of the electronic device 100. The geomagnetic sensor 122 and the acceleration sensor 123 may be used for detecting a rotation state or an inclination state of the electronic device 100.

벤드 센서(124)는 전자 장치(100)가 플렉서블 디스플레이 장치로 구현되는 경우에 필요한 센서로, 전자 장치(100)의 벤딩 상태를 감지할 수 있다. The bend sensor 124 is a sensor required when the electronic device 100 is implemented as a flexible display device and may detect a bending state of the electronic device 100.

압력 센서(125)는 사용자가 터치 또는 벤딩 조작을 할 때 전자 장치(100)에 가해지는 압력의 크기를 감지하여 제어부(130)로 제공한다. 압력 센서(125)는 디스플레이부(810)에 내장되어 압력의 크기에 대응되는 전기 신호를 출력하는 압전 필름(piezo film)을 포함할 수 있다. 도 2에서는 압력 센서(125)가 터치 센서(121)와 별개인 것으로 도시하였으나, 터치 센서(121)가 감압식 터치 센서로 구현된 경우, 그 감압식 터치 센서가 압력 센서(150)의 역할도 함께 할 수도 있다.The pressure sensor 125 detects the magnitude of the pressure applied to the electronic device 100 when the user performs a touch or bending operation and provides the pressure to the controller 130. The pressure sensor 125 may include a piezo film embedded in the display unit 810 to output an electric signal corresponding to the magnitude of the pressure. In FIG. 2, the pressure sensor 125 is illustrated as being separate from the touch sensor 121, but when the touch sensor 121 is implemented as a pressure sensitive touch sensor, the pressure sensitive sensor may also serve as the pressure sensor 150. It may be.

근접 센서(126)는 디스플레이 표면에 직접 접촉되지 않고 접근하는 모션을 감지하기 위한 센서이다. 근접 센서(126)는 고주파 자계를 형성하여, 물체 접근 시에 변화되는 자계특성에 의해 유도되는 전류를 감지하는 고주파 발진 형, 자석을 이용하는 자기 형, 대상체의 접근으로 인해 변화되는 정전 용량을 감지하는 정전 용량 형과 같은 다양한 형태의 센서로 구현될 수 있다.Proximity sensor 126 is a sensor for sensing motion approaching without directly contacting the display surface. The proximity sensor 126 forms a high frequency magnetic field, and detects a high frequency oscillation type that senses a current induced by a magnetic field characteristic that changes when an object is approached, a magnetic type that uses a magnet, and a capacitance changed due to an object's approach. It can be implemented with various types of sensors such as capacitive type.

그립 센서(127)는 압력 센서(125)와 별개로 전자 장치(100)의 테두리나 손잡이 부분에서 배치되어, 사용자의 그립(grip)을 감지하는 센서이다. 그립 센서(127)는 압력 센서나 터치 센서로 구현될 수 있다.The grip sensor 127 is disposed at an edge or a handle of the electronic device 100 separately from the pressure sensor 125 to detect a user's grip. The grip sensor 127 may be implemented as a pressure sensor or a touch sensor.

제어부(130)는 입력부(120)에서 감지된 각종 감지 신호를 분석하여, 사용자의 의도를 파악하고, 그 의도에 부합되는 동작을 수행한다. 제어부(130)에서 수행되는 동작의 일 예로는 외부 기기와의 통신을 통해 획득한 데이터 또는, 저장부(140)에 저장된 데이터를 처리하여 디스플레이부(110) 및 스피커(180) 등을 통해 출력하는 동작을 수행할 수 있다. 이 경우, 제어부(8130)는 통신부(150)를 이용하여 외부 기기와 통신을 수행할 수 있다. The controller 130 analyzes various sensing signals detected by the input unit 120 to determine the intention of the user and performs an operation corresponding to the intention. As an example of an operation performed by the controller 130, data obtained through communication with an external device or data stored in the storage 140 may be processed and output through the display 110 and the speaker 180. You can perform the operation. In this case, the controller 8130 may communicate with an external device using the communicator 150.

통신부(150)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(150)는 방송 수신 모듈(151), 근거리 무선 통신 모듈(152), GPS 모듈(153), 무선 통신 모듈(154) 등과 같은 다양한 통신 모듈 전부 또는 일부를 포함할 수 있다. 여기서, 방송 수신 모듈(151)이란 지상파 방송 신호를 수신하기 위한 안테나, 복조기, 등화기 등을 포함하는 지상파 방송 수신 모듈(미도시), DMB 방송 신호를 수신하여 처리하기 위한 DMB 모듈 등을 포함할 수 있다. 근거리 무선 통신 모듈(152)이란 NFC(Near Field Communication)나 블루투스, 지그비 방식 등과 같은 근거리 무선 통신 방식에 따라, 근거리에 위치한 외부 기기와 통신을 수행하기 위한 모듈이다. GPS 모듈(153)이란 GPS 위성으로부터 GPS 신호를 수신하여, 전자 장치(100)의 현재 위치를 검출하기 위한 모듈이다. 무선 통신 모듈(154)이란 WiFi, IEEE 등과 같은 무선 통신 프로토콜에 따라 외부 네트워크에 연결되어 통신을 수행하는 모듈이다. 이 밖에 통신 모듈(152)은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신을 수행하는 이동 통신 모듈을 더 포함할 수도 있다.The communication unit 150 is configured to perform communication with various types of external devices according to various types of communication methods. The communicator 150 may include all or part of various communication modules such as the broadcast receiving module 151, the short range wireless communication module 152, the GPS module 153, and the wireless communication module 154. Here, the broadcast receiving module 151 may include a terrestrial broadcast receiving module (not shown) including an antenna, a demodulator, an equalizer, etc. for receiving a terrestrial broadcast signal, a DMB module for receiving and processing a DMB broadcast signal, and the like. Can be. The short range wireless communication module 152 is a module for performing communication with an external device located in a short range according to a short range wireless communication scheme such as Near Field Communication (NFC), Bluetooth, Zigbee, or the like. The GPS module 153 is a module for receiving a GPS signal from a GPS satellite and detecting a current position of the electronic device 100. The wireless communication module 154 is a module connected to an external network and performing communication according to a wireless communication protocol such as WiFi or IEEE. In addition, the communication module 152 is a mobile communication module that performs communication by accessing a mobile communication network according to various mobile communication standards such as 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), and Long Term Evoloution (LTE). It may further include.

제어부(130)는 상술한 통신부(150)의 각 구성 요소 중 사용자가 의도한 동작 수행에 필요한 구성 요소들을 선택적으로 활성화시켜, 동작을 수행할 수 있다.The controller 130 may perform an operation by selectively activating components necessary for performing an operation intended by a user among the above components of the communication unit 150.

한편, 제어부(130)는 벤딩 조작이나 터치 조작 이외에 음성 입력이나 모션 입력을 인식하여, 그 입력에 대응되는 동작을 수행할 수도 있다. 이 경우, 인식부(170)를 활성화시킬 수 있다.Meanwhile, the controller 130 may recognize a voice input or a motion input in addition to the bending manipulation or the touch manipulation, and may perform an operation corresponding to the input. In this case, the recognition unit 170 may be activated.

음성 인식부(170)는 마이크(미도시)와 같은 음성 취득 수단을 이용하여 사용자의 음성이나 외부 음향을 수집한 후, 제어부(130)로 전달한다. 제어부(130)는 음성 제어 모드로 동작하는 경우, 사용자의 음성이 기 설정된 음성 코맨드와 일치하면, 사용자의 음성에 대응되는 태스크(task)를 수행할 수 있다. 음성을 이용하여 제어 가능한 태스크로는, 볼륨 조절, 채널 선택, 채널 재핑, 표시 속성 조절, 재생, 일시 정지, 되감기, 빨리 감기, 어플리케이션 실행, 메뉴 선택, 장치 턴온, 턴오프 등과 같이 다양한 태스크가 있을 수 있다. The voice recognition unit 170 collects a user's voice or external sound by using a voice acquisition means such as a microphone (not shown), and transmits the voice or external sound to the controller 130. When operating in the voice control mode, the controller 130 may perform a task corresponding to the voice of the user if the voice of the user matches the preset voice command. Tasks that can be controlled using voice include various tasks such as volume control, channel selection, channel zapping, display attribute control, playback, pause, rewind, fast forward, application launch, menu selection, device turn on, turn off, and so on. Can be.

한편, 모션 인식부(170)는 카메라와 같은 이미지 촬상 수단(미도시)을 이용하여 사용자의 이미지를 획득한 후, 제어부(130)로 제공한다. 모션 제어 모드로 동작하는 경우, 제어부(130)는 사용자의 이미지를 분석하여 사용자가 기 설정된 모션 코맨드에 대응되는 모션 제스쳐를 취한 것으로 판단되면, 그 모션 제스쳐에 대응되는 동작을 수행한다. 일 예로, 채널 재핑, 장치 턴온, 턴오프, 일시 정지, 재생, 정지, 되감기, 빨리 감기, 음소거 등과 같은 다양한 태스크가 모션에 의해 제어될 수 있다. 음성으로 제어 가능한 태스크, 모션으로 제어 가능한 태스크 등에 대한 상술한 예들은 예에 불과하므로, 이에 한정되지는 않는다.Meanwhile, the motion recognition unit 170 acquires an image of a user by using an image capturing means (not shown) such as a camera, and provides the image to the controller 130. When operating in the motion control mode, the controller 130 analyzes the user's image and determines that the user has taken a motion gesture corresponding to the preset motion command, and performs an operation corresponding to the motion gesture. For example, various tasks such as channel zapping, device turn on, turn off, pause, play, stop, rewind, fast forward, mute, and the like may be controlled by motion. The above-described examples of the voice controllable task, the motion controllable task, and the like are merely examples, but are not limited thereto.

그 밖에, 외부 입력 포트 1, 2 ~ n(10-1 ~ 190-n)들은 각각 다양한 유형의 외부 기기와 연결되어 각종 데이터나 프로그램, 제어 명령 등을 수신할 수 있다. 구체적으로는 USB 포트, 헤드셋 포트, 마우스 포트, LAN 포트 등을 포함할 수 있다.In addition, the external input ports 1, 2 to n (10-1 to 190-n) may be connected to various types of external devices, respectively, to receive various data, programs, and control commands. Specifically, it may include a USB port, a headset port, a mouse port, a LAN port, and the like.

전원부(195)는 전자 장치(100)의 각 구성요소들로 전원을 공급하는 구성요소이다. The power supply unit 195 is a component that supplies power to each component of the electronic device 100.

이하에서는, 도 3 내지 9를 참조하여, 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법의 시나리오를 UI(User Interface)화면을 기초로 설명하기로 한다. Hereinafter, referring to FIGS. 3 to 9, a scenario of a control method of an electronic device according to an embodiment of the present disclosure will be described based on a UI screen.

어플리케이션이 실행되면, 먼저 디스플레이부(110)는 도 3과 같은 초기 구동 화면(301)을 표시할 수 있다. 이에 따라, 사용자는 실행된 어플리케이션이 그림을 따라 그릴 수 있는 어플리케이션이라는 것을 직관적으로 인지할 수 있다. When the application is executed, first, the display 110 may display the initial driving screen 301 as shown in FIG. 3. Accordingly, the user can intuitively recognize that the executed application is an application that can draw a picture.

그리고, 디스플레이부(110)는 도 4(a)와 같은 사용 목적을 나타내는 도움말 화면(401)을 표시할 수 있다. 그리고, 다음 화면으로 이동하기 위한 화살표가 선택되면, 디스플레이부(110)는 도 4(b)와 같은 사용 방법을 나타내는 도움말 화면(402)을 표시할 수 있다. 여기서 사용 방법을 나타내는 도움말 화면(402)은, 글과 시각적인 자료(동영상)를 이용하여 프로그램을 보다 편리하고 유용하게 쓸 수 있는 방법을 표시할 수 있다. 일 예로, '사용 방법 동영상 메뉴(403)'가 선택되면, 사용 방법을 설명하기 위한 동영상이 바로 재생될 수 있다.(백 버튼시 어플리케이션으로 자동회귀) In addition, the display 110 may display a help screen 401 indicating the purpose of use as illustrated in FIG. 4A. When an arrow for moving to the next screen is selected, the display 110 may display a help screen 402 indicating a usage method as shown in FIG. 4B. Here, the help screen 402 indicating how to use may display a method for using the program more conveniently and usefully by using text and visual data (video). As an example, when the 'how to use video menu 403' is selected, a video for explaining how to use may be immediately played. (Automatic return to the application at the time of the back button)

한편, '그림 그리러 가기 메뉴(404)'가 선택되면, 복수의 그리기 모드를 선택 받을 수 있는 화면으로 진행될 수 있다. On the other hand, if the 'picture draw menu 404' is selected, it may proceed to the screen to receive a plurality of drawing modes.

이러한, 도 4(a),(b)와 같은 도움말 화면은, '이 창을 다시는 열지 않기' 클릭시, 이 후 어플리케이션을 실행할 때에는 표시되지 않고, 곧바도 복수의 그리기 모드를 선택 받을 수 있는 화면으로 진행될 수 있다. Such a help screen as shown in FIGS. 4A and 4B is not displayed when a user clicks 'Do not open this window again' and then runs the application thereafter, and a plurality of drawing modes can be selected immediately. You may proceed to the screen.

이 후, 디스플레이부(110)는 도 5와 같은 복수의 그리기 모드를 선택 받을 수 있는 화면(501)을 표시할 수 있다. 여기서 복수의 그리기 모드를 선택 받을 수 있는 화면은 사용자 선택 가능한 복수의 그리기 모드를 포함할 수 있다. 그리기 모드는 '캐릭터 그리기 모드(502)', '사진 찍고 따라 그리기 모드(505)', '갤러리 사진 그리기 모드(503)', '동물/식물 그리기 모드(506)', '교통수단 그리기 모드(504)', '인물화 그리기 모드(507)', '정밀 묘사 모드' 중 적어도 하나를 포함할 수 있다. Thereafter, the display 110 may display a screen 501 for selecting a plurality of drawing modes as shown in FIG. 5. The screen for selecting a plurality of drawing modes may include a plurality of user selectable drawing modes. The drawing modes are 'character drawing mode 502', 'picture taking and drawing mode 505', 'gallery picture drawing mode 503', 'animal / plant drawing mode 506', 'transport drawing mode ( 504), 'a personification drawing mode 507', and a 'precise description mode'.

'캐릭터 그리기 모드(502)'가 선택되면, 저작권을 가진 각종 캐릭터 이미지를 선택 하는 화면, 선택된 캐릭터 이미지를 그리기 위한 화면으로 진행할 수 있다. 일 예로, 도 6과 같이, 좌우 슬라이드 쇼로 그리고 싶은 캐릭터(602,603,604)를 선택할 수 있는 화면(601)을 표시할 수 있다. When the 'character drawing mode 502' is selected, it is possible to proceed to the screen for selecting various character images with copyright, the screen for drawing the selected character image. For example, as shown in FIG. 6, a screen 601 for selecting the characters 602, 603, 604 to be drawn in the left and right slide shows may be displayed.

'사진 찍고 따라 그리기 모드(505)'가 선택되면, 촬영부(160)를 구동시켜 사진을 촬영한 다음, 그 촬영 이미지를 그리기 위한 화면으로 진행할 수 있다.When the 'take picture according to the drawing mode 505' is selected, the photographing unit 160 may be driven to take a picture, and then the screen may be taken to draw the captured image.

'갤러리 사진 그리기 모드(503)'가 선택되면, 갤러리 내의 이미지를 선택하는 화면, 선택된 이미지를 그리기 위한 화면으로 진행할 수 있다. When the 'gallery picture drawing mode 503' is selected, a screen for selecting an image in the gallery and a screen for drawing the selected image may be performed.

'동물/식물 그리기 모드(506)'가 선택되면, 동물/식물 이미지를 선택하는 화면, 선택된 이미지를 그리기 위한 화면으로 진행할 수 있다.When the animal / plant drawing mode 506 is selected, the screen for selecting an animal / plant image and a screen for drawing the selected image may be performed.

'교통수단 그리기 모드(504)'가 선택되면, 교통수단 이미지를 선택하는 화면, 선택된 이미지를 그리기 위한 화면으로 진행할 수 있다.When the transportation drawing mode 504 is selected, a screen for selecting a transportation image and a screen for drawing the selected image may be performed.

'인물화 그리기 모드(507)'가 선택되면, 인물화 이미지를 선택하는 화면, 선택된 이미지를 그리기 위한 화면으로 진행할 수 있다.When the personification drawing mode 507 is selected, the screen for selecting a personification image and the screen for drawing the selected image may be progressed.

'정밀 묘사 모드'가 선택되면, 정밀 묘사할 이미지를 선택하는 화면, 선택된 이미지를 그리기 위한 화면으로 진행할 수 있다.When the 'detailed description mode' is selected, the screen for selecting an image to be described in detail and the screen for drawing the selected image can be proceeded.

여기서 그리기 위한 화면은, '라이브 뷰 촬영에 대응되는 촬영 이미지'와 '선택된 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지'가 서로 오버랩되서 디스플레이부(110)에 표시되는 화면일 수 있다. 이러한 그리기 화면에 대해서는 도 7을 참조하여 구체적으로 설명하기로 한다.Here, the screen for drawing may be a screen displayed on the display unit 110 by overlapping each other with the photographed image corresponding to the live view photographing and the first image having the outline of the selected image and the transparency adjusted. Such a drawing screen will be described in detail with reference to FIG. 7.

촬영부(160)가 흰색 종이를 라이브 뷰 촬영하고 있다고 가정할 때, 디스플레이부(110)는, 도 7(a),(b)와 같은 그리기 화면(703)을 표시할 수 있다. 즉, 그리기 화면은 '흰색 종이의 촬영에 대응되는 촬영 이미지(704)'와 '선택된 이미지에 대한 윤곽선을 갖고 투명가 조절된 제1 이미지(705,706)'를 함께 표시할 수 있다. Assuming that the photographing unit 160 is capturing live view of the white paper, the display unit 110 may display a drawing screen 703 as shown in FIGS. 7A and 7B. That is, the drawing screen may display both the “photographed image 704 corresponding to photographing white paper” and the “first image 705 and 706 having the outline and the transparency adjusted for the selected image” together.

한편, 그리기 화면은, 투명도 레벨을 선택받기 위한 제1 영역(702), 촬영에 대한 자동 초점 ON/OFF 제어를 선택받기 위한 제2 영역(701)을 포함할 수 있다. 만약, 제1 영역을 통하여 투명도 레벨을 조절하기 위한 사용자 입력이 수신되면, 제어부(130)는 선택받은 투명도 레벨을 기초로 제3 이미지를 생성하고, 이에 따라, 도 7(a)(b)와 같이, 디스플레이부(110)는 '촬영 이미지(704)'와 '윤곽선을 갖고 선택받은 투명도 레벨에 대응하는 투명도를 갖는 제3 이미지(705,706)'를 함께 표시할 수 있다. The drawing screen may include a first region 702 for selecting the transparency level and a second region 701 for selecting the auto focus ON / OFF control for photographing. If a user input for adjusting the transparency level is received through the first area, the controller 130 generates a third image based on the selected transparency level, and accordingly, FIGS. 7A and 7B. Likewise, the display unit 110 may display the captured image 704 and the third images 705 and 706 having the transparency corresponding to the selected transparency level with the outline.

일 예로, 도 7(b)와 같이, 투명도 레벨이 0%이면, 윤곽선만 선명하게 남은 제1 이미지(706)를 촬영 이미지(704)와 함께 디스플레이부(110)에 표시할 수 있다.For example, as illustrated in FIG. 7B, when the transparency level is 0%, the first image 706 remaining only in the outline may be displayed on the display 110 together with the captured image 704.

만약, 도 7(a)와 같이, 투명도 레벨이 100%이면, '윤곽선'과 '투명도 조절되지 않은 원래 이미지의 색 및 명암'을 갖는 제1 이미지(705)를 촬영 이미지(704)와 함께 디스플레이부(110)에 표시할 수 있다. If the transparency level is 100% as shown in FIG. 7A, the first image 705 having the outline and the color and contrast of the original image without transparency is displayed together with the captured image 704. It may be displayed on the unit 110.

한편, 도 7에는 도시되지는 않았지만, 만약 투명도 레벨이 50%이면, 윤곽선은 선명한 상태에서 원본 이미지만 50%의 투명도를 갖는 제1 이미지를 촬영 이미지와 함께 디스플레이부(110)에 표시할 수 있다. Although not shown in FIG. 7, if the transparency level is 50%, the contour may be displayed on the display 110 together with the photographed image of the first image having only 50% transparency of the original image. .

한편, 상황에 따라 촬영부(160)의 자동 초점 기능이 걸림돌이 될 수 있다. 즉 사용자는 자동 초점 기능이 활성화 된 상태에서 화면을 보게되지만, 자동 초점 기능 때문에 초점이 종이와 같은 매체에 그림을 그리는 손이나 펜등에 맞춰지게 되는 경우가 간혹 발생할 수 있다. 이 경우, 사용자가 종이와 같은 매체에 그림을 그리는 것을 방해하게 될 요인이 될 수 있으므로, 자동 초점 ON/OFF 제어를 선택받아 그 요인을 사용자의 선택에 의해 방지 할 수 있다.Meanwhile, depending on the situation, the auto focus function of the photographing unit 160 may become an obstacle. In other words, the user sees the screen while the auto focus function is activated. However, the auto focus function may sometimes cause the focus to be focused on a hand or pen drawing on a medium such as paper. In this case, since it may be a factor that will prevent the user from drawing on a medium such as paper, the auto focus ON / OFF control can be selected and the factor can be prevented by the user's selection.

한편, 상술한 '정밀 묘사 모드'가 선택되면, 도 8(a)(b)와 같이, 디스플레이부(110)는 제1 이미지(801)를 복수의 영역으로 구분하여 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지(804)와 함께 표시할 수 있다. 만약, 도 8(b)와 같이, 복수의 영역 중 일 영역(805)이 선택되면,디스플레이부(110)는, 도 8(c)와 같이, 선택된 일 영역(805)을 확대(806)하여 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지(804)와 겹쳐서 표시할 수 있다. 이에 따라, 사용자는 따라 그리기 위한 이미지의 일 영역을 종이와 같은 매체에 보다 상세하게 따라 그릴 수 있다.Meanwhile, when the above-described 'detailed description mode' is selected, as shown in FIG. 8A and FIG. 8B, the display 110 divides the first image 801 into a plurality of areas to perform live view capturing of the electronic device. It may be displayed together with the corresponding captured image 804. If one region 805 is selected from among the plurality of regions as illustrated in FIG. 8B, the display unit 110 enlarges 806 the selected region 805 as illustrated in FIG. 8C. The display may overlap the captured image 804 corresponding to the live view photographing of the electronic device. Accordingly, the user may draw a region of the image to be traced in more detail on a medium such as paper.

한편, 도 8에서는 상술한 '정밀 묘사 모드' 가 선택되는 경우, 선택된 영역을 확대하여 표시한다고 설명하였으나, 이에 한정되는 것은 아니다. 다른 예로, 촬영부의 라이브 뷰 촬영에 따른 촬영 이미지와 제1이미지가 함께 표시되는 상태에서, 사용자는 두 개의 손가락을 사용하여 표시된 화면에 핀치 인(Pinch-in) 또는 핀치 아웃(Pinch-out)입력을 수행할 수 있다. 이 경우, 제1 이미지가 확대 또는 축소될 수 있다. 또는 제1 이미지 및 촬영 이미지가 함께 확대 또는 축소될 수 있다.Meanwhile, in FIG. 8, when the 'detailed description mode' is selected, the selected area is enlarged and displayed, but the present invention is not limited thereto. As another example, in a state in which the captured image according to the Live View shooting of the photographing unit and the first image are displayed together, the user inputs a pinch-in or pinch-out to a screen displayed by using two fingers. Can be performed. In this case, the first image may be enlarged or reduced. Alternatively, the first image and the captured image may be enlarged or reduced together.

도 9는 본 발명의 일 실시 예에 따른 전자 장치를 이용하여 그림을 따라 그리는 방법의 일 예를 나타내는 도면이다. 도 9를 참조하면, 전자 장치(100)의 디스플레이부(110)는 '그림을 그리는 손(902)'과 '사용자가 디스플레이부(110)의 화면을 보면서 따라 그린 그림이 그려진 종이(903)'의 라이브 뷰 촬영에 따라 촬영된 '촬영 이미지'와 '윤곽선을 갖고 투명도가 조절된 제1 이미지'가 서로 오버랩되는 그리기 화면을 표시할 수 있다. 이 경우, 사용자의 따라 그리는 모습을 정밀하게 촬영하기 위하여 전자 장치(100)를 손(901)으로 고정시켜 그릴 수 있다. 9 is a diagram illustrating an example of a method of drawing along a picture using an electronic device according to an embodiment of the present disclosure. Referring to FIG. 9, the display 110 of the electronic device 100 is a 'hand for drawing 902' and 'paper 903 on which a user draws a picture while viewing the screen of the display 110'. According to the Live View shooting of the 'photographed image' and the 'first image having an outline and the transparency adjusted' may display a drawing screen overlapping each other. In this case, the electronic device 100 may be fixed by the hand 901 and drawn in order to accurately capture the user's drawing.

이에 따라, 사용자는 디스플레이부(110)에 표시된 화면을 보면서 종이(903)와 같은 매체에 그림을 쉽게 따라 그릴 수 있다. 즉, 사용자는 투명 필름이나 기름 종이를 사용해 그림을 따라 그리는 것과 같은 효과를 전자 장치를 통하여 획득할 수 있다. Accordingly, the user can easily draw a picture on a medium such as paper 903 while viewing the screen displayed on the display 110. In other words, the user may acquire an effect such as drawing along a picture using transparent film or oil paper through the electronic device.

도 10은 본 발명의 일 실시 예에 따른 전자 장치가 착용형 전자 장치로 구현된 일 예를 나타내는 도면이다. 도시된 착용형 전자 장치(200)는 사용자의 눈에 근접하게 위치되도록 안경 형태로 제작될 수 있고, 도 1 내지 2에서 상술한 기능을 수행하는 기능 블록 구성의 전부 또는 일부를 포함할 수 있다. 이하에서는, 도 1 내지 2에서 설명한 내용에 대한 구체적인 설명은 생략하고, 사용자 눈에 근접하게 착용된다는 착용형 전자 장치의 형태에 따른 특징을 본 발명의 다양한 실시 예에 적용하여 구체적으로 설명하기로 한다. 여기서 착용형 전자 장치(200)는 사용자 눈에 근접하게 착용되는 스마트 글래스, 프로젝트 글래스 등의 다양한 장치로 구현될 수 있다. 10 is a diagram illustrating an example in which an electronic device according to an embodiment of the present disclosure is implemented as a wearable electronic device. The illustrated wearable electronic device 200 may be manufactured in the form of glasses so as to be located close to the eyes of a user, and may include all or part of a functional block configuration that performs the functions described above with reference to FIGS. 1 and 2. Hereinafter, the detailed description of the contents described with reference to FIGS. 1 and 2 will be omitted, and features according to the shape of the wearable electronic device that is worn in close proximity to the user's eyes will be described in detail with reference to various embodiments of the present disclosure. . The wearable electronic device 200 may be implemented as various devices such as smart glasses and project glasses that are worn in close proximity to the user's eyes.

착용형 전자 장치(200)를 전면에서 바라본 형상을 도시한 도 10을 참조하면, 본 발명의 일 실시예에 따른 착용형 전자 장치(200)는 좌우 렌즈 프레임들(10, 11), 프레임 연결부(20), 좌우 걸이부들(30, 31) 및 좌우 렌즈들(50, 51)을 포함하여 구성될 수 있다.Referring to FIG. 10, which shows a shape of a wearable electronic device 200 viewed from the front, the wearable electronic device 200 according to an embodiment of the present invention may include left and right lens frames 10 and 11 and a frame connecting portion ( 20), the left and right hook parts 30 and 31 and the left and right lenses 50 and 51 may be configured.

한편, 사진 또는 동영상의 촬영이 가능한 촬영부(260)가 착용형 전자 장치(200)의 전면에 장착될 수 있으며, 예를 들어 도 10에 도시된 바와 같이 프레임 연결부(20)의 전면에 촬영부(260)가 배치될 수 있다.The photographing unit 260 capable of capturing a picture or a video may be mounted on the front of the wearable electronic device 200. For example, as illustrated in FIG. 10, the photographing unit may be mounted on the front of the frame connecting unit 20. 260 may be disposed.

이에 따라, 사용자는, 안경 형태의 착용형 전자 장치(200)를 착용하고 이동 중에, 촬영부(260)를 이용해 사진 또는 동영상을 촬영하여 저장하거나 공유할 수 있다.Accordingly, the user may wear and wear the glasses-type wearable electronic device 200 while using the photographing unit 260 to take a picture or video and store or share it.

이 경우, 촬영부(260)에 의해 촬영되는 영상의 시점이 사용자의 시각에 의해 인지되는 장면의 시점과 매우 유사할 수 있다는 장점이 있다.In this case, the viewpoint of the image photographed by the photographing unit 260 may be very similar to the viewpoint of the scene perceived by the user's perspective.

또한, 촬영부(260)를 이용하여 사용자의 손동작 등과 같은 제스쳐(gesture)가 인식되어, 상기 인식된 제스쳐에 따라 착용형 전자 장치(200)의 동작 또는 기능이 제어되도록 할 수 있다.In addition, a gesture such as a user's hand gesture may be recognized using the photographing unit 260 to control the operation or function of the wearable electronic device 200 according to the recognized gesture.

촬영부(260)가 장착되는 위치 또는 개수는 필요에 따라 변경 가능하며, 적외선 카메라 등과 같은 특수 목적의 카메라가 이용될 수도 있다.The position or number at which the photographing unit 260 is mounted may be changed as needed, and a special purpose camera such as an infrared camera may be used.

또한, 좌우 걸이부들(30, 31) 각각에도 특정 기능을 수행하기 위한 유닛들이 배치될 수 있다.Further, units for performing a specific function may be arranged in each of the right and left fastening portions 30 and 31. [

우측 걸이부(right side-arm, 31)에는 착용형 전자 장치(200)의 기능을 제어하기 위한 사용자 입력을 수신하는 입력부(220)들이 장착될 수 있다.The right side-arm 31 may be equipped with input units 220 for receiving a user input for controlling a function of the wearable electronic device 200.

예를 들어, 화면상의 커서, 메뉴 항목 등과 같은 오브젝트를 선택하거나 이동시키기 위한 트랙 볼(track ball, 221) 또는 터치 패드(touch pad, 222)가 우측 걸이부(31)에 배치될 수 있다.For example, a track ball 221 or a touch pad 222 for selecting or moving an object such as a cursor, a menu item, or the like on the screen may be disposed on the right hook 31.

착용형 전자 장치(200)에 구비되는 입력부(220)들은 트랙 볼(221)과 터치 패드(222)에 한정되지 아니하며, 키 패드(key pad) 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등 다양한 입력 장치들이 구비될 수 있다.The input units 220 provided in the wearable electronic device 200 are not limited to the track ball 221 and the touch pad 222, and may include a key pad dome switch, a jog wheel, a jog switch, and the like. Various input devices may be provided.

한편, 좌측 걸이부(left side-arm, 30)에는 마이크(223)가 장착될 수 있으며, 마이크(223)를 통해 인식된 사용자의 음성을 이용하여 착용형 전자 장치(200)의 동작 또는 기능이 제어될 수 있다.On the other hand, the left side-arm (30) may be equipped with a microphone 223, the operation or function of the wearable electronic device 200 by using the user's voice recognized through the microphone 223 Can be controlled.

또한, 좌측 걸이부(30)에는 센싱부(224)가 배치되어, 착용형 전자 장치(200)의 위치, 사용자 접촉 유무, 방위, 가속/감속 등과 같이 현 상태나, 사용자와 관련된 정보 등을 감지하여 착용형 전자 장치(200)의 동작을 제어하기 위한 센싱 신호를 발생시킬 수 있다.In addition, the sensing unit 224 is disposed on the left hook portion 30 to detect the current state or information related to the user, such as the position of the wearable electronic device 200, presence or absence of user contact, azimuth, acceleration / deceleration, and the like. As a result, a sensing signal for controlling the operation of the wearable electronic device 200 may be generated.

예를 들어, 센싱부(224)는 자이로 센서(gyroscope)나 가속도 센서(accelerometer) 등과 같은 동작 센서(motion detector), GPS 장치와 같은 위치 센서, 자력 센서(magnetometer), 경위 측정기(theodolite)와 같은 방향 센서, 온도 센서, 습도 센서, 풍향/풍량 센서 등을 포함할 수 있으나, 본 발명은 이에 한정되지 아니하며, 상기한 센서들 이외에 다양한 정보들을 검출할 수 있는 센서들을 추가로 포함할 수 있다.For example, the sensing unit 224 may be a motion detector such as a gyroscope or an accelerometer, a position sensor such as a GPS device, a magnetometer, a theodolite, or the like. Although it may include a direction sensor, a temperature sensor, a humidity sensor, a wind direction / airflow sensor, and the like, the present invention is not limited thereto, and may further include sensors capable of detecting various types of information in addition to the above sensors.

예를 들어, 센싱부(224)는 적외선 센서를 더 구비할 수 있으며, 상기 적외선 센서는 적외선을 방출하는 발광부와 적외선을 수신하는 수광부를 포함하여 구성되어, 적외선 통신이나 근접도 측정 등에 이용될 수 있다.For example, the sensing unit 224 may further include an infrared sensor, and the infrared sensor may include a light emitting unit for emitting infrared rays and a light receiving unit for receiving infrared rays to be used for infrared communication or proximity measurement. Can be.

본 발명의 일실시예에 따른 착용형 전자 장치(200)는 외부 장치와의 통신을 위한 통신부(250)를 포함할 수 있다.The wearable electronic device 200 according to an embodiment of the present invention may include a communication unit 250 for communicating with an external device.

예를 들어, 통신부(250)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈 및 근거리 통신 모듈 등을 포함할 수 있다.For example, the communication unit 250 may include a broadcast receiving module, a mobile communication module, a wireless internet module, a short range communication module, and the like.

또한, 본 발명의 일 실시예에 따른 착용형 전자 장치(200)는 영상을 디스플레이하여 사용자에게 시각적인 정보를 전달하기 위한 디스플레이 장치를 포함할 수 있다.In addition, the wearable electronic device 200 according to an embodiment of the present invention may include a display device for displaying visual images and delivering visual information to a user.

사용자가 상기 디스플레이 장치에 의해 표시되는 정보와 함께 앞에 펼쳐진 전경(front view)를 볼 수 있도록 하기 위하여, 상기 디스플레이 장치는 투명형 또는 광투과형의 유닛을 포함하여 구성될 수 있다.The display device may be configured to include a transparent or light transmissive unit so that a user can see a front view that is displayed in front of the information displayed by the display device.

예를 들어, 도 10에 도시된 좌우 렌즈들(50, 51) 중 적어도 하나가 상기한 바와 같은 투명 디스플레이의 기능을 하도록 하여, 사용자는 렌즈에 형성된 텍스트 또는 이미지 등을 시각적으로 인지함과 동시에 전경을 볼 수 있다.For example, by allowing at least one of the left and right lenses 50 and 51 shown in FIG. 10 to function as the transparent display as described above, the user visually recognizes text or an image formed on the lens and simultaneously views the foreground. Can be seen.

그를 위해, 착용형 전자 장치(200)는 HMD(Head Mounted Display) 또는 HUD(Head Up Display) 또는 Prism Project Display 등과 같은 디스플레이 장치를 이용하여, 사용자의 눈 앞에 각종 정보가 표시되도록 할 수 있다.To this end, the wearable electronic device 200 may display various information in front of the user's eyes by using a display device such as a head mounted display (HMD), a head up display (HUD), or a prism project display.

상기 HMD는 영상을 확대하여 허상을 형성하는 렌즈와, 그 렌즈의 초점거리보다 가까운 위치에 배치된 디스플레이 패널을 포함하여 구성된다. HMD가 사용자의 머리 근처에 장착되면, 사용자가 디스플레이 패널에 표시된 영상을 렌즈를 통하여 봄으로써 그 허상을 시각적으로 인지할 수 있게 된다.The HMD includes a lens that enlarges an image to form a virtual image, and a display panel disposed at a position closer to the focal distance of the lens. When the HMD is mounted near the user's head, the user can visually recognize the virtual image by viewing the image displayed on the display panel through the lens.

한편, 상기 HUD에서는, 디스플레이 패널에 표시된 영상이 렌즈를 통하여 확대되고, 상기 확대 화상이 하프 미러에서 반사되고, 상기 반사광이 사용자에게 보여짐으로써 허상이 형성되도록 구성되어 있다. 또한, 상기 하프 미러는 외부의 광을 투과시키도록 이루어져 있으므로, 사용자는 하프미러를 투과하는 외부로부터의 광에 의해 상기 HUD에 의해 형성된 허상과 함께 전경도 볼 수 있다.In the HUD, an image displayed on a display panel is enlarged through a lens, the enlarged image is reflected by a half mirror, and the reflected light is displayed to a user, thereby forming a virtual image. In addition, since the half mirror transmits external light, the user can see the foreground as well as the virtual image formed by the HUD by the light from the outside passing through the half mirror.

그리고, 상기 디스플레이 장치는 TOLED(Transparant OLED) 등과 같은 다양한 투명 디스플레이 방식들을 이용하여 구현될 수 있다.The display device may be implemented using various transparent display methods such as TOLED (Transparent OLED).

한편, 상기 Prism Project Display 는 미니 프로젝터의 빔이 프리즘 안의 판에 반사되어 착용자의 눈속으로 들어가고, 이 빛이 눈속 망막의 황반에 맺히게 되며, 시신경은 이 시각정보를 뇌에 전달함으로써, 사용자는 전경과 함께 Prism Project Display에 의해 표시되는 영상을 함께 볼 수 있다. 이러한, Prism Project Display를 이용한 착용형 전자 장치는 프로젝트 글래스일 수 있고, 이 경우, 상술한 도 10과 달리, 별도의 렌즈부를 구비하지 않을 수 있다. On the other hand, the Prism Project Display is a beam of the mini projector is reflected by the plate in the prism into the wearer's eye, the light is formed in the macula of the retina of the eye, the optic nerve transmits this visual information to the brain, so that the user and the foreground You can view the images displayed by the Prism Project Display together. The wearable electronic device using the Prism Project Display may be a project glass. In this case, unlike the aforementioned FIG. 10, the wearable electronic device may not include a separate lens unit.

이하에서는, 착용형 전자 장치(200)가 HUD를 구비하는 것을 예로 들어 본 발명의 일실시예를 설명하나, 본 발명은 이에 한정되지 아니한다.Hereinafter, an embodiment of the present invention will be described using the wearable electronic device 200 having the HUD as an example, but the present invention is not limited thereto.

좌측 걸이부(30) 및 우측 걸이부(31) 중 적어도 하나의 후면에 프로젝터와 유사한 기능을 하는 HUD가 장착될 수 있다.On the rear of at least one of the left hook portion 30 and the right hook portion 31, a HUD having a function similar to a projector may be mounted.

HUD로부터 방출되는 광에 의한 화상이 좌우 렌즈(50, 51)에서 반사되어 사용자에게 보여짐에 따라, HUD에 의해 형성되는 오브젝트가 좌우 렌즈(50, 51) 상에 표시되는 것으로 사용자에게 인지될 수 있다.As the image by the light emitted from the HUD is reflected by the left and right lenses 50 and 51 and shown to the user, the object formed by the HUD may be recognized by the user as being displayed on the left and right lenses 50 and 51. .

한편, 도 10과는 다르게, 착용형 전자 장치(200)가 좌우 렌즈들 중 어느하나(예를 들어, 우측 렌즈(51))만을 구비하여, 한쪽 눈에만 HUD 등과 같은 착용형 전자 장치(200) 내부 디스플레이 장치에서 표시되는 영상이 보여지도록 할 수 있다.On the other hand, unlike FIG. 10, the wearable electronic device 200 includes only one of the left and right lenses (for example, the right lens 51), so that only one eye wears the electronic device 200 such as the HUD. The image displayed on the internal display device may be displayed.

또한, 사용자의 한쪽 눈(예를 들어, 좌측 눈) 부분은 렌즈에 가려지지 않은 채로 완전 개방되고, 또 다른 눈(예를 들어, 우측 눈) 부분 중 상측 일부분만이 렌즈(11)에 의해 가려지는 구조로 착용형 전자 장치(200)가 구현될 수도 있다.In addition, one part of the user's eye (eg, the left eye) is completely open without being obscured by the lens, and only an upper portion of another part of the eye (eg, the right eye) is covered by the lens 11. The wearable electronic device 200 may be implemented in a losing structure.

위와 같은 착용형 전자 장치(200)의 형상 및 구성 등은 이용 분야, 주기능, 주사용계층 등 다양한 필요에 따라 선택되거나 변경될 수 있다.The shape and configuration of the wearable electronic device 200 as described above may be selected or changed according to various needs, such as an application field, a main function, and an injection layer.

한편, 이러한, 디스플레이 장치는 도 1 내지 9에 도시된 디스플레이부(110)의 기능을 수행할 수 있다. 다만, 스마트 글래스(200)를 이용하면, 착용하여 눈앞에 펼쳐진 전경을 볼 수 있다는 스마트 글래스(200)의 특성상, 도 1 내지 2에서 상술한 촬영부(260)의 라이브 뷰 촬영 동작이 필요없을 수 있다.(즉, 촬영 이미지를 표시할 필요가 없을 수 있다) 즉, HUD와 같은 디스플레이 장치는 상술한 제2, 제3 이미지의 결합에 따라 생성된 '윤곽선을 갖는 투명한 제1 이미지'를 표시함으로써, 착용자는 디스플레이 장치에 의해 표시되는 정보와 함께 눈 앞에 펼쳐진 전경(front view)을 함께 볼 수 있다. 이 경우, 착용자는 도 9의 디스플레이부(110)에 도시된 화면과 유사한 화면을 렌즈(50, 51)상에 표시되는 것으로 인지할 수 있다.Meanwhile, the display device may perform a function of the display unit 110 shown in FIGS. 1 to 9. However, if the smart glass 200 is used, the live view photographing operation of the photographing unit 260 described above with reference to FIGS. (I.e., it may not be necessary to display the photographed image) That is, a display device such as a HUD may display a 'transparent first image having outlines' generated by the combination of the second and third images described above. The wearer may see a front view together with the information displayed by the display device. In this case, the wearer may recognize that a screen similar to the screen shown in the display unit 110 of FIG. 9 is displayed on the lenses 50 and 51.

이에 따라, 사용자는 스마트 글래스 또는 프로젝트 글래스에 표시된 화면을 보면서 종이와 같은 매체에 그림을 더욱 쉽게 따라 그릴 수 있다. 즉, 스마트폰과 같은 전자 장치에서 라이브 뷰 촬영에 따른 촬영 이미지를 보고 그리는 것은, 실제 손의 움직임과 촬영에 따라 화면에 보이는 손의 움직임간의 딜레이가 발생하지만, 스마트 글래스 또는 프로젝트 글래스는 실제 손의 움직임과 제1 이미지를 동시에 보기 때문에 이러한 단점이 완벽하게 보완될 수 있다. Accordingly, the user can more easily follow a picture on a medium such as paper while viewing the screen displayed on the smart glass or the project glass. In other words, the viewing and drawing of live images taken by Live View shooting in an electronic device such as a smartphone causes a delay between the actual hand movement and the hand movement shown on the screen according to the shooting, but the smart glass or the project glass This disadvantage can be completely compensated for by simultaneously viewing the motion and the first image.

즉, 스마트 폰과 같이 카메라를 구동시켜 라이브 뷰 화면에 제1이미지를 표시함으로써 그림을 따라 그리게 되는 기기를 사용할 경우에는, 실제 손의 움직임과 라이브뷰 화면 상의 손의 움직임간에 미세한 딜레이가 생긴다. 하지만, 스마트 글래스 또는 프로젝트 글래스 같은 경우에는 HUD(Head Up Display), HMD(Head Mounted Display), Prism Project, Prism Display 및 전자에 정의한 각종 디스플레이 장치를 사용하고 작동되며, 카메라의 라이브 뷰가 아닌 실제 장면(사용자의 눈앞에 펼쳐진 전경 영상)과 제1 이미지가 함께 보여지게 되므로 사용자는 실제 자신의 손을 직접 보면서 제1 이미지를 따라 그리게 되므로 라이브 뷰에서 생기는 딜레이가 없게 되는 큰 장점이 생긴다. That is, when using a device that follows the picture by driving the camera and displaying the first image on the live view screen, such as a smart phone, there is a minute delay between the actual hand movement and the hand movement on the live view screen. However, in the case of smart glasses or project glasses, HUD (Head Up Display), HMD (Head Mounted Display), Prism Project, Prism Display, and various display devices defined in the former are used and operated. Since the first image is displayed together with the first image displayed in front of the user's eyes, the user draws along the first image while actually looking at his or her own hand, thus having a great advantage of no delay in the live view.

또한, 본 발명의 어플리케이션이 설치된 스마트 폰, 디지털 카메라 같은 기기를 사용하기 위해서는 기기의 고정을 위해서 어딘가에 거치해야 하는 불편함이 있지만, 스마트 글래스 또는 프로젝트 글래스 같은 경우에는 기본적으로 사용자의 눈앞에 거치되어 자연스럽게 고정되어 지므로 이점에서 또한 큰 장점이 있다.In addition, in order to use the device, such as a smart phone, a digital camera, the application of the present invention is inconvenient to be mounted somewhere for fixing the device, in the case of smart glass or project glass is basically placed in front of the user naturally There is also a big advantage in this as it is fixed.

도 11은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하는 흐름도 이다. 도 11을 참조하면, 먼저 특정 이미지를 선택받을 수 있다(S1101)11 is a flowchart illustrating a control method of an electronic device according to an embodiment of the present disclosure. Referring to FIG. 11, first, a specific image may be selected (S1101).

그리고, 선택받은 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성할 수 있다(S1102).In operation S1102, a first image having an outline of the selected image and having an adjusted transparency may be generated.

그리고, 생성된 제1 이미지를 상기 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지와 겹쳐서 표시할 수 있다(S1103).In operation S1103, the generated first image may be overlapped with the photographed image corresponding to the live view photographing of the electronic device.

여기서, 제1 이미지를 생성하는 일 예에 대해서는 도 12를 참조하여 구체적으로 설명하기로 한다.Here, an example of generating the first image will be described in detail with reference to FIG. 12.

도 12는 본 발명의 일 실시 예에 따른 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하는 방법을 설명하는 흐름도 이다. 도 12를 참조하면, 먼저 선택받은 이미지에서 윤곽선을 추출한 제2 이미지를 생성할 수 있다(S1201).12 is a flowchart illustrating a method of generating a first image having an outline and adjusting transparency according to an embodiment of the present invention. Referring to FIG. 12, a second image from which an outline is extracted from a first selected image may be generated (S1201).

그리고, 선택받은 이미지에서 투명도를 조절한 제3 이미지를 생성할 수 있다(S1202).In operation S1202, a third image in which transparency is adjusted from the selected image may be generated.

그리고, 생성된 제2, 제3 이미지를 결합하여 제1 이미지를 생성할 수 있다(S1203).In operation S1203, a first image may be generated by combining the generated second and third images.

한편, 상술한 표시하는 단계(S1103)는, 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지를 하단 레이어에 배치하고, 생성된 제1 이미지를 상단 레이어에 배치하여 겹쳐서 표시할 수 있다(S1204).In operation S1103, the photographed image corresponding to the live view photographing of the electronic device may be disposed on a lower layer, and the generated first image may be disposed on the upper layer and overlapped with each other (S1204).

한편, 표시하는 단계(S1204)는, 투명도 레벨을 선택받기 위한 제1 영역, 상기 촬영에 대한 자동 초점 ON/OFF 제어를 선택받기 위한 제2 영역을 더 포함하는 화면을 표시할 수 있다. 이 경우, 제3 이미지를 생성하는 단계(S1202)는, 제1 영역에서 선택받은 투명도 레벨을 기초로 제3 이미지를 생성할 수 있다. 이에 대해서는 도 13을 참조하여 구체적으로 설명하기로 한다.In operation S1204, the display may further include a first area for selecting the transparency level and a second area for selecting the auto focus ON / OFF control for the photographing. In this case, in operation S1202 of generating the third image, the third image may be generated based on the transparency level selected in the first region. This will be described in detail with reference to FIG. 13.

도 13은 본 발명의 일 실시 예에 따른 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하는 방법을 설명하는 흐름도 이다. 도 13을 참조하면, 먼저, 라이브 뷰 촬영에 대응되는 촬영 이미지와 겹쳐서 표시되는 제1 이미지에 대한 투명도 레벨을 제1 영역을 통하여 선택받을 수 있다(S1301).FIG. 13 is a flowchart illustrating a method of generating a first image having an outline and adjusted transparency according to an exemplary embodiment. Referring to FIG. 13, first, a transparency level of a first image overlapping with a captured image corresponding to live view shooting may be selected through a first area (S1301).

이 경우, 제3 이미지의 RGBA 값에서 선택받은 투명도 레벨에 대응하는 A(ALPHA) 값을 적용하여 새로운 제3 이미지를 생성할 수 있다(S1302).In this case, a new third image may be generated by applying an A (ALPHA) value corresponding to the transparency level selected from the RGBA value of the third image (S1302).

그리고, 기 생성된 추출된 윤곽선과 관련된 제2 이미지에 S1302 단계에서 생성된 제3 이미지를 결합하여 새로운 제1 이미지를 생성할 수 있다(S1303).In operation S1303, a new first image may be generated by combining the third image generated in operation S1302 with a second image related to the previously generated extracted contour.

그리고, S1303 단계에서 생성된 제1 이미지를 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지와 겹쳐서 표시할 수 있다(S1304).In operation S1304, the first image generated in operation S1303 may be overlapped with the photographed image corresponding to the live view photographing of the electronic device.

한편, 상술한, 표시하는 단계(S1204)는, 정밀 묘사 메뉴가 선택되면, 제1 이미지를 복수의 영역으로 구분하여 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지와 함께 표시할 수 있다. 만약, 복수의 영역 중 일 영역이 선택되면, 선택된 일 영역을 확대하여 전자 장치의 라이브 뷰 촬영에 대응되는 촬영 이미지와 함께 표시하는 단계를 더 포함할 수 있다.In operation S1204, when the precision description menu is selected, the first image may be divided into a plurality of areas and displayed together with the captured image corresponding to live view photographing of the electronic device. If one region of the plurality of regions is selected, the method may further include expanding and displaying the selected region together with the captured image corresponding to the live view photographing of the electronic device.

또한, 본 발명의 일 실시 예에 따른 제어 방법은, 생성된 제1 이미지를 저장하는 단계를 더 포함할 수 있다.In addition, the control method according to an embodiment of the present disclosure may further include storing the generated first image.

또한, 본 발명의 일 실시 예에 따른 제어 방법은, 이미지 교환/거래 서버에 생성된 제1 이미지를 전송하는 단계를 더 포함할 수 있다.In addition, the control method according to an embodiment of the present invention may further include transmitting the first image generated to the image exchange / transaction server.

도 14는 본 발명의 일 실시 예에 따른 착용형 전자 장치를 이용하여 그림을 따라 그리는 방법의 일 예를 나타내는 도면이다. 도 14를 참조하면, 착용형 전자 장치(200)는, 일 예로, 프로젝트 글래스로 구현될 수 있다. 이 경우, 프로젝트 글래스를 착용한 사용자는 Prism Project, Prism Display 에 따라 '윤곽선을 갖고 투명도가 조절된 제1 이미지'를 눈(1103)으로 보면서, 이와 함께 사용자눈(1403)앞에 펼쳐진 '그림을 그리는 손(1401)'과 '사용자가 제1 이미지를 보면서 따라 그린 그림이 그려진 종이(1402)'를 전경으로 볼 수 있다. 14 is a diagram illustrating an example of a method of drawing along a drawing using a wearable electronic device according to an embodiment of the present disclosure. Referring to FIG. 14, the wearable electronic device 200 may be implemented as, for example, a project glass. In this case, the user wearing the project glass looks at the first image having an outline and the transparency adjusted according to the Prism Project, Prism Display with the eyes 1103, and draws a picture unfolded in front of the user's eyes 1403. Hand 1401 'and' paper 1402 on which the user draws a picture while viewing the first image 'can be viewed as the foreground.

이에 따라, 사용자는 착용형 전자 장치를 이용하여 눈에 보여지는 제1 이미지 및 전경 영상을 이용하여 종이와 같은 매체에 그림을 더욱 쉽게 따라 그릴 수 있다. Accordingly, the user may more easily draw a picture on a medium such as paper by using the first image and the foreground image that are visible by using the wearable electronic device.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 전자 장치의 제어 방법은 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. Meanwhile, the above-described control method of an electronic device according to various embodiments of the present disclosure may be implemented in program code and provided to each server or device in a state of being stored in various non-transitory computer readable mediums. have.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

100 : 전자 장치 110 : 디스플레이부
120 : 입력부 130 : 제어부
140 : 저장부 150 : 통신부
160 : 촬영부
100: electronic device 110: display unit
120: input unit 130:
140: storage unit 150: communication unit
160: shooting unit

Claims (12)

전자 안경의 제어 방법에 있어서,
따라 그리길 원하는 이미지를 선택하는 사용자 입력을 수신하는 단계;
상기 선택받은 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하는 단계; 및
상기 생성된 제1 이미지를 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하는 단계;를 포함하는 제어 방법.
In the control method of the electronic glasses,
Receiving a user input for selecting an image to be followed;
Generating a first image having an outline of the selected image and adjusting transparency; And
And displaying the generated first image overlaid on the foreground perceived by the wearer's vision of the electronic glasses.
제1항에 있어서,
상기 표시하는 단계는,
투명도 레벨을 선택받기 위한 제1 영역을 더 포함하는 화면을 표시하고,
상기 제1 이미지를 생성하는 단계는,
상기 제1 영역에서 투명도 레벨이 선택되면, 선택받은 투명도 레벨에 대응되는 투명도로 투명도가 조절된 제1 이미지를 생성하는 것을 특징으로 하는 제어 방법.
The method of claim 1,
Wherein the displaying comprises:
Displays a screen further including a first area for receiving a selection of transparency level;
Generating the first image,
And when the transparency level is selected in the first area, generating a first image having transparency adjusted to a transparency corresponding to the selected transparency level.
제1항에 있어서,
상기 제1 이미지를 생성하는 단계는,
상기 선택받은 이미지에서 윤곽선을 추출한 제2 이미지를 생성하는 단계;
상기 선택받은 이미지에서 투명도를 조절한 제3 이미지를 생성하는 단계; 및
상기 생성된 제2, 제3 이미지를 결합하여 상기 제1 이미지를 생성하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
The method of claim 1,
Generating the first image,
Generating a second image from which an outline is extracted from the selected image;
Generating a third image in which transparency is adjusted in the selected image; And
And combining the generated second and third images to generate the first image.
제1항에 있어서,
상기 제1 이미지를 생성하는 단계는,
상기 선택받은 이미지의 RGBA 값에서 A(ALPHA) 값을 조절함으로써 상기 투명도를 조절하여 상기 제1 이미지를 생성하는 것을 특징으로 하는 제어 방법.
The method of claim 1,
Generating the first image,
And controlling the transparency to generate the first image by adjusting an A (ALPHA) value in the RGBA value of the selected image.
제2항에 있어서,
상기 제1 이미지를 생성하는 단계는,
상기 제1 영역에서 투명도 레벨이 선택되면, 선택받은 투명도 레벨에 관계 없이 상기 윤곽선의 투명도는 일정한 상기 제1 이미지를 생성하는 것을 특징으로 하는 제어 방법.
3. The method of claim 2,
Generating the first image,
And when the transparency level is selected in the first region, generating the first image having a constant transparency of the contour regardless of the selected transparency level.
제1항에 있어서,
상기 표시하는 단계는,
정밀 묘사 메뉴가 선택되면, 상기 제1 이미지를 복수의 영역으로 구분하여 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하고,
상기 복수의 영역 중 일 영역이 선택되면, 상기 선택된 일 영역을 확대하여 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
The method of claim 1,
Wherein the displaying comprises:
When the detail description menu is selected, the first image is divided into a plurality of areas and superimposed on the foreground perceived by the wearer's view of the electronic glasses.
And when an area is selected from the plurality of areas, enlarging the selected area and displaying the selected area overlaid on the foreground recognized by the wearer's view of the electronic glasses.
제1항에 있어서,
상기 제1 이미지를 위한 별도의 폴더에 상기 생성된 제1 이미지를 저장하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
The method of claim 1,
And storing the generated first image in a separate folder for the first image.
전자 안경에 있어서,
상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 디스플레이 효과를 제공하는 디스플레이부;
따라 그리길 원하는 이미지를 선택하는 사용자 입력을 수신하는 입력부;
상기 선택받은 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하고, 상기 생성된 제1 이미지를 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 전자 안경.
In electronic glasses,
A display unit that provides a display effect to the foreground perceived by the wearer's view of the electronic glasses;
An input unit to receive a user input for selecting an image to be drawn along;
A control unit for generating a first image having an outline of the selected image and adjusting the transparency, and controlling the display unit to display the generated first image overlaid on the foreground perceived by the wearer's vision of the electronic glasses; Electronic glasses containing;
제8항에 있어서,
상기 디스플레이부는,
HUD(Head Up Display), HMD(Head Mounted Display) 또는 Prism Project Display로 구현되는 것을 특징으로 하는 전자 안경.
9. The method of claim 8,
The display unit includes:
Electronic glasses, characterized in that implemented as a Head Up Display (HUD), Head Mounted Display (HMD) or Prism Project Display.
제8항에 있어서,
상기 제어부는,
상기 선택받은 이미지의 RGBA 값에서 A(ALPHA) 값을 조절함으로써 상기 투명도를 조절하여 상기 제1 이미지를 생성하는 것을 특징으로 하는 전자 안경.
9. The method of claim 8,
The control unit,
Electronic glasses, characterized in that for generating the first image by adjusting the transparency by adjusting the value of A (ALPHA) in the RGBA value of the selected image.
제8항에 있어서,
저장부;를 더 포함하고,
상기 제어부는,
상기 제1 이미지를 위한 별도의 폴더에 상기 생성된 제1 이미지를 저장하도록 상기 저장부를 제어하는 것을 특징으로 하는 전자 안경.
9. The method of claim 8,
Further comprising;
The control unit,
Electronic glasses, characterized in that for controlling the storage unit to store the generated first image in a separate folder for the first image.
전자 안경의 제어 방법을 수행하기 위한 프로그램 코드가 기록된 컴퓨터 판독 가능한 기록 매체에 있어서,
상기 제어 방법은,
따라 그리길 원하는 이미지를 선택하는 사용자 입력을 수신하는 단계;
상기 선택받은 이미지에 대한 윤곽선을 갖고 투명도가 조절된 제1 이미지를 생성하는 단계; 및
상기 생성된 제1 이미지를 상기 전자 안경에 대한 착용자의 시각에 의해 인지되는 전경에 겹쳐서 표시하는 단계;를 포함하는 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium having recorded thereon program code for performing a method of controlling electronic glasses,
In the control method,
Receiving a user input for selecting an image to be followed;
Generating a first image having an outline of the selected image and adjusting transparency; And
And displaying the generated first image overlaid on the foreground perceived by the wearer's vision with respect to the electronic glasses.
KR1020130124844A 2013-05-29 2013-10-18 Electronic glasses, control method of electronic glasses, and computer readable recording medium KR101352880B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020130124844A KR101352880B1 (en) 2013-10-18 2013-10-18 Electronic glasses, control method of electronic glasses, and computer readable recording medium
EP14804152.8A EP3007135A4 (en) 2013-05-29 2014-05-27 Electronic device, control method of electronic device and computer readable recording medium
CN201480030761.XA CN105247574B (en) 2013-05-29 2014-05-27 Electronic device, the control method of electronic device and computer-readable recording medium
JP2016512849A JP6246334B2 (en) 2013-05-29 2014-05-27 Electronic device, electronic device control method, and program
PCT/KR2014/004702 WO2014193136A1 (en) 2013-05-29 2014-05-27 Electronic device, control method of electronic device and computer readable recording medium
US14/888,910 US9998671B2 (en) 2013-05-29 2014-05-27 Electronic apparatus, method of controlling the same, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130124844A KR101352880B1 (en) 2013-10-18 2013-10-18 Electronic glasses, control method of electronic glasses, and computer readable recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020130061304A Division KR101361560B1 (en) 2013-05-29 2013-05-29 Electronic appratus, control method of electronic appratus, and computer readable recording medium

Publications (1)

Publication Number Publication Date
KR101352880B1 true KR101352880B1 (en) 2014-01-23

Family

ID=50145903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130124844A KR101352880B1 (en) 2013-05-29 2013-10-18 Electronic glasses, control method of electronic glasses, and computer readable recording medium

Country Status (1)

Country Link
KR (1) KR101352880B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219426A (en) * 1998-01-31 1999-08-10 Kokudo Chizu Kk Method for drawing having geographical information
JP2002245476A (en) * 2001-02-21 2002-08-30 Sharp Corp Graphic processing method and computer-readable recording medium with recorded graphic processing program
US7656429B2 (en) * 2004-02-04 2010-02-02 Hewlett-Packard Development Company, L.P. Digital camera and method for in creating still panoramas and composite photographs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219426A (en) * 1998-01-31 1999-08-10 Kokudo Chizu Kk Method for drawing having geographical information
JP2002245476A (en) * 2001-02-21 2002-08-30 Sharp Corp Graphic processing method and computer-readable recording medium with recorded graphic processing program
US7656429B2 (en) * 2004-02-04 2010-02-02 Hewlett-Packard Development Company, L.P. Digital camera and method for in creating still panoramas and composite photographs

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
US20210405761A1 (en) Augmented reality experiences with object manipulation
US20220004255A1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US10591729B2 (en) Wearable device
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
KR20210058969A (en) Neural network system for gesture, wear, activity or handheld detection in wearables or mobile devices
US20160260086A1 (en) Mobile terminal and method for controlling the same
US20190392422A1 (en) Mobile terminal and control method therefor
US11854147B2 (en) Augmented reality guidance that generates guidance markers
KR102431712B1 (en) Electronic apparatus, method for controlling thereof and computer program product thereof
KR102361025B1 (en) Wearable glasses and method for displaying image therethrough
US11954268B2 (en) Augmented reality eyewear 3D painting
US20220326530A1 (en) Eyewear including virtual scene with 3d frames
JP6246334B2 (en) Electronic device, electronic device control method, and program
KR20190101827A (en) Electronic apparatus for providing second content associated with first content displayed through display according to motion of external object, and operating method thereof
CN107656794B (en) Interface display method and device
US20240045494A1 (en) Augmented reality with eyewear triggered iot
KR101352880B1 (en) Electronic glasses, control method of electronic glasses, and computer readable recording medium
KR101361560B1 (en) Electronic appratus, control method of electronic appratus, and computer readable recording medium
KR20140031680A (en) Mobile terminal and control method for mobile terminal

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161028

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180111

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190110

Year of fee payment: 6