JP6246334B2 - Electronic device, electronic device control method, and program - Google Patents

Electronic device, electronic device control method, and program Download PDF

Info

Publication number
JP6246334B2
JP6246334B2 JP2016512849A JP2016512849A JP6246334B2 JP 6246334 B2 JP6246334 B2 JP 6246334B2 JP 2016512849 A JP2016512849 A JP 2016512849A JP 2016512849 A JP2016512849 A JP 2016512849A JP 6246334 B2 JP6246334 B2 JP 6246334B2
Authority
JP
Japan
Prior art keywords
image
transparency
electronic device
generated
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016512849A
Other languages
Japanese (ja)
Other versions
JP2016531453A (en
Inventor
ジン パク、ソン
ジン パク、ソン
Original Assignee
オーシャンズ カンパニー リミテッド
オーシャンズ カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130061304A external-priority patent/KR101361560B1/en
Priority claimed from KR1020130124844A external-priority patent/KR101352880B1/en
Application filed by オーシャンズ カンパニー リミテッド, オーシャンズ カンパニー リミテッド filed Critical オーシャンズ カンパニー リミテッド
Publication of JP2016531453A publication Critical patent/JP2016531453A/en
Application granted granted Critical
Publication of JP6246334B2 publication Critical patent/JP6246334B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B43WRITING OR DRAWING IMPLEMENTS; BUREAU ACCESSORIES
    • B43LARTICLES FOR WRITING OR DRAWING UPON; WRITING OR DRAWING AIDS; ACCESSORIES FOR WRITING OR DRAWING
    • B43L13/00Drawing instruments, or writing or drawing appliances or accessories not otherwise provided for
    • B43L13/14Devices for drawing in perspective
    • B43L13/16Devices for drawing in perspective free-hand
    • B43L13/18Devices for drawing in perspective free-hand having optical or projecting equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)

Description

電子装置、電子装置の制御方法、及びプログラムに関し、より詳細には、イメージ処理を行う電子装置、電子装置の制御方法、及びプログラムに関する。   More particularly, the present invention relates to an electronic device that performs image processing, a control method for the electronic device, and a program.

電子技術の発達に伴い、種々の電子装置が開発及び普及されている。特に、優れたIT技術に基づく最先端のスマートフォン、スマートグラスなどの電子装置も普及されている。   With the development of electronic technology, various electronic devices have been developed and spread. In particular, electronic devices such as state-of-the-art smartphones and smart glasses based on excellent IT technology are also in widespread use.

近年、最先端電子装置の値下げや性能向上などにより、最先端電子装置に対する需要が増加しつつある。これに伴い、最先端電子装置に応じた便利でかつ多様な使用方法を開発するための努力も加速化している。   In recent years, demand for cutting-edge electronic devices is increasing due to price cuts and performance improvements of cutting-edge electronic devices. Along with this, efforts to develop convenient and diverse usage methods according to state-of-the-art electronic devices have been accelerated.

その結果、電子装置を使用するユーザの便宜のために、種々のアプリケーションの開発が要求されている状況である。   As a result, development of various applications is required for the convenience of users who use electronic devices.

本発明は上述の必要性によってなされたものであって、本発明は、特定イメージに対して、輪郭線を有し透明度が調節されたイメージを生成し、生成されたイメージをライブビュー撮影に対応する撮影イメージとともに表示する電子装置、電子装置の制御方法、及びプログラムを提供することを目的とする。   The present invention has been made in accordance with the above-described need, and the present invention generates an image having a contour and an adjusted transparency for a specific image, and the generated image is compatible with live view shooting. It is an object of the present invention to provide an electronic device that displays a photographed image to be displayed, a control method for the electronic device, and a program.

上述の目的を達成するための本発明の一実施形態による電子装置の制御方法は、特定イメージを選択してもらうステップと、前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成するステップと、前記生成された第1のイメージを、前記電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示するステップと、を含む   In order to achieve the above object, a method of controlling an electronic device according to an embodiment of the present invention includes: a step of selecting a specific image; and an image having a contour and a transparency with respect to the selected image. Generating an adjusted first image; and displaying the generated first image overlaid with a captured image corresponding to live view shooting of the electronic device.

また、上述の目的を達成するための本発明の一実施形態による電子装置は、撮影部と、画面を表示するディスプレイ部と、特定イメージを選択してもらうためにユーザの入力を受信する入力部と、前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成し、前記生成された第1のイメージを前記電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示するように前記ディスプレイ部を制御する制御部と、を含む。   An electronic device according to an embodiment of the present invention for achieving the above-described object includes an imaging unit, a display unit that displays a screen, and an input unit that receives a user input to select a specific image. Then, a first image having an outline and an adjusted transparency is generated for the selected image, and the generated first image corresponds to live view shooting of the electronic device. And a control unit that controls the display unit so as to overlap the captured image.

また、上述の目的を達成するための本発明の一実施形態による電子装置の制御方法をコンピュータに実行させるためのプログラムであって、前記制御方法が、特定イメージを選択してもらうステップと、前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成するステップと、前記生成された第1のイメージを、前記電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示するステップと、を含む。   A program for causing a computer to execute a control method for an electronic device according to an embodiment of the present invention for achieving the above-described object, wherein the control method selects a specific image; and A step of generating a first image having an outline and an adjusted transparency for the selected image, and the generated first image corresponds to live view shooting of the electronic device. And displaying the image superimposed on the captured image.

また、上述の目的を達成するための本発明の一実施形態による電子メガネの制御方法は、写し描きを所望するイメージを選択するユーザの入力を受信するステップと、前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成するステップと、前記生成された第1のイメージを、前記電子メガネの着用者の視覚により認知される前景と重ねて表示するステップと、を含む。   According to another aspect of the present invention, there is provided a method for controlling electronic glasses according to an embodiment of the present invention, comprising: a step of receiving a user input for selecting an image to be copied; On the other hand, a step of generating a first image having a contour line and an adjusted transparency, and displaying the generated first image superimposed on a foreground recognized by the eyewear of the wearer of the electronic glasses. Including the steps of:

また、上述の目的を達成するための本発明の一実施形態による電子メガネは、前記電子メガネの着用者の視覚により認知される前景にディスプレイ効果を提供するディスプレイ部と、写し描きを所望するイメージを選択するユーザの入力を受信する入力部と、前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成し、前記生成された第1のイメージを前記電子メガネの着用者の視覚により認知される前景と重ねて表示するように前記ディスプレイ部を制御する制御部と、を含む。   In addition, an electronic glasses according to an embodiment of the present invention for achieving the above-described object includes a display unit that provides a display effect on a foreground recognized by the eye of the wearer of the electronic glasses, and an image for which a copy is desired. An input unit that receives an input of a user who selects the image, and a first image having a contour and an adjusted transparency with respect to the selected image, and the generated first image And a control unit that controls the display unit so as to overlap the foreground recognized by the eye of the wearer of the electronic glasses.

また、上述の目的を達成するための本発明の一実施形態による電子メガネの制御方法をコンピュータに実行させるプログラムであって、前記制御方法が、写し描きを所望するイメージを選択するユーザの入力を受信するステップと、前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成するステップと、前記生成された第1のイメージを前記電子メガネの着用者の視覚により認知される前景と重ねて表示するステップと、を含む。   Also, a program for causing a computer to execute a control method of electronic glasses according to an embodiment of the present invention for achieving the above-described object, wherein the control method receives a user input for selecting an image desired to be copied. Receiving the selected image, generating a first image having a contour and an adjusted transparency, and wearing the generated first image on the electronic glasses. Displaying on the foreground recognized by the person's vision.

上述の本発明の様々な実施形態によれば、表示される画面に、撮影イメージとイメージ処理された(特定イメージに対する、輪郭線を有し透明度が調節された)第1のイメージとを重ねてともに表示することができる。これにより、ユーザは、表示された画面を見ながら、紙などの媒体に表示されている絵を容易に写し描くことができる。すなわち、ユーザは、透明フィルムや油紙をあてて絵を写し描くことと同様の効果を電子装置により得ることができる。   According to the various embodiments of the present invention described above, the captured image and the image-processed first image (having an outline and an adjusted transparency with respect to the specific image) are superimposed on the displayed screen. Both can be displayed. Thus, the user can easily copy a picture displayed on a medium such as paper while viewing the displayed screen. In other words, the user can obtain the same effect as that obtained by copying a picture by applying a transparent film or oil paper to the electronic device.

本発明の様々な実施形態によれば、誰でも描きたい絵を容易に写し描くことができる。例えば、好きなスター、欲しい車、自ら描きたい家族写真、風景、ブロマイド、画譜などの視覚的資料(イメージ)さえあれば、何でも容易に写し描くことができる。この際、輪郭線に沿ってスケッチできるだけでなく、原イメージに対する第3イメージの透明度を調節することで、明暗表現や彩色も可能である。   According to various embodiments of the present invention, a picture that anyone wants to draw can be easily copied. For example, you can easily copy anything as long as you have a visual source (image), such as your favorite star, the car you want, your family photo, scenery, bromide, or music. At this time, not only can the sketch be made along the contour line, but also the brightness and darkness expression and coloring can be achieved by adjusting the transparency of the third image with respect to the original image.

本発明の一実施形態による電子装置を示したブロック図である。1 is a block diagram illustrating an electronic device according to an embodiment of the present invention. 図1による電子装置を具体的に示したブロック図である。FIG. 2 is a block diagram specifically illustrating the electronic device according to FIG. 1. 本発明の一実施形態による電子装置の制御方法を説明するためのUI(User Interface)画面の一例を示した図面である。1 is a diagram illustrating an example of a UI (User Interface) screen for explaining a control method of an electronic device according to an embodiment of the present invention. 本発明の一実施形態による電子装置の制御方法を説明するためのUI(User Interface)画面の一例を示した図面である。1 is a diagram illustrating an example of a UI (User Interface) screen for explaining a control method of an electronic device according to an embodiment of the present invention. 本発明の一実施形態による電子装置の制御方法を説明するためのUI(User Interface)画面の一例を示した図面である。1 is a diagram illustrating an example of a UI (User Interface) screen for explaining a control method of an electronic device according to an embodiment of the present invention. 本発明の一実施形態による電子装置の制御方法を説明するためのUI(User Interface)画面の一例を示した図面である。1 is a diagram illustrating an example of a UI (User Interface) screen for explaining a control method of an electronic device according to an embodiment of the present invention. 本発明の一実施形態による電子装置の制御方法を説明するためのUI(User Interface)画面の一例を示した図面である。1 is a diagram illustrating an example of a UI (User Interface) screen for explaining a control method of an electronic device according to an embodiment of the present invention. 本発明の一実施形態による電子装置の制御方法を説明するためのUI(User Interface)画面の一例を示した図面である。1 is a diagram illustrating an example of a UI (User Interface) screen for explaining a control method of an electronic device according to an embodiment of the present invention. 本発明の一実施形態による電子装置を用いて絵を写し描く方法の一例を示した図面である。1 is a diagram illustrating an example of a method of drawing a picture using an electronic device according to an embodiment of the present invention. 本発明の一実施形態による電子装置がスマートグラスとして具現された一例を示した図面である。1 is a diagram illustrating an example in which an electronic device according to an embodiment of the present invention is implemented as a smart glass. 本発明の一実施形態による電子装置の制御方法を説明するためのフローチャートである。3 is a flowchart for explaining a control method of an electronic device according to an embodiment of the present invention. 本発明の一実施形態による、輪郭線を有し透明度が調節された第1のイメージを生成する方法を説明するためのフローチャートである。6 is a flowchart illustrating a method for generating a first image having a contour and an adjusted transparency according to an exemplary embodiment of the present invention. 本発明の一実施形態による、輪郭線を有し透明度が調節された第1のイメージを生成する方法を説明するためのフローチャートである。6 is a flowchart illustrating a method for generating a first image having a contour and an adjusted transparency according to an exemplary embodiment of the present invention. 本発明の一実施形態による着用型電子装置を用いて絵を写し描く方法の一例を示した図面である。1 is a diagram illustrating an example of a method of drawing a picture using a wearable electronic device according to an embodiment of the present invention.

以下の内容は、単に本発明の原理を例示する。したがって、当業者は、たとえ本明細書に明確に説明または図示されていないとしても、本発明の原理を具現し、本発明の概念及び範囲に含まれた多様な装置を発明することができる。また、本明細書に挙げられたあらゆる条件付き用語及び実施形態は、原則的に、本発明の概念の理解を助けることだけを意図したものであり、このように特に挙げられた実施形態及び状態に本発明が限定されるものではないと理解されねばならない。   The following merely illustrates the principles of the invention. Accordingly, those of ordinary skill in the art will be able to invent various devices that embody the principles of the present invention and fall within the concept and scope of the present invention, even if not explicitly described or illustrated herein. In addition, all conditional terms and embodiments listed herein are in principle intended only to assist in understanding the concepts of the present invention, and thus specifically recited embodiments and conditions. It should be understood that the invention is not limited to this.

また、本発明の原理、観点及び実施形態だけではなく、特定の実施形態を挙げるあらゆる詳細な説明は、このような事項の構造的及び機能的な均等物を含むことを意図するものと理解されねばならない。また、このような均等物は、現在公知の均等物だけではなく、今後開発される均等物、すなわち、構造と関係なく同じ機能を行うように発明されたあらゆる素子を含むと理解されねばならない。   It is also to be understood that any detailed description not only of the principles, aspects, and embodiments of the present invention, but also specific embodiments, is intended to include structural and functional equivalents of such matters. I have to. In addition, it should be understood that such equivalents include not only presently known equivalents but also equivalents to be developed in the future, that is, any element invented to perform the same function regardless of structure.

したがって、例えば、本明細書のブロック図は、本発明の原理を具体化する例示的な回路の概念的観点を示すものと理解されねばならない。これと類似して、全てのフローチャート、状態変換図、疑似コードなどは、コンピュータが読み取り可能な媒体に実質的に示すことができ、コンピュータまたはプロセッサが明確に示されているか否かを問わず、コンピュータまたはプロセッサによって行われる多様なプロセスを示すと理解されねばならない。   Thus, for example, the block diagrams herein should be understood as showing conceptual views of exemplary circuits embodying the principles of the invention. Similar to this, all flowcharts, state transformation diagrams, pseudo code, etc. can be shown substantially on a computer readable medium, whether or not the computer or processor is clearly shown, It should be understood to illustrate the various processes performed by a computer or processor.

プロセッサまたはこれと類似した概念で表示された機能ブロックを含む図面に図示された多様な要素の機能は、専用ハードウェアだけでなく適切なソフトウェアに関してソフトウェアを実行する能力を持つハードウェアの使用により提供され得る。プロセッサにより提供される際に、上記機能は、単一の専用プロセッサ、単一の共有プロセッサ、または複数の個別的プロセッサにより提供されることができ、これらのうち一部は共有され得る。   The functions of the various elements illustrated in the drawings, including functional blocks represented by a processor or similar concept, are provided through the use of hardware capable of executing software on appropriate software as well as dedicated hardware. Can be done. When provided by a processor, the above functionality can be provided by a single dedicated processor, a single shared processor, or multiple individual processors, some of which can be shared.

また、プロセッサ、制御、またはこれと類似した概念で提示される用語の明確な使用は、ソフトウェアを実行する能力を持つハードウェアを排他的に引用して解釈されてはならず、限定されずに、デジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを格納するためのROM(Read Only Memory)、RAM、及び不揮発性メモリを暗示的に含むと理解されねばならない。周知慣用の他のハードウェアも含まれ得る。   Also, the explicit use of terms presented in the processor, control, or similar concepts should not be construed exclusively by reference to hardware capable of executing software, but is not limited thereto. It should be understood to implicitly include digital signal processor (DSP) hardware, ROM (Read Only Memory) for storing software, RAM, and non-volatile memory. Other hardware known and conventional can also be included.

特許請求の範囲で、詳細な説明に記載された機能を行うための手段として表現された構成要素は、例えば前記機能を行う回路素子の組合せまたはファームウェア/マイクロコードなどを含む全ての形式のソフトウェアを含む機能を行う全ての方法を含むと意図されており、前記機能を行うように前記ソフトウェアを実行するための適切な回路と結合される。このような特許請求の範囲により定義される本発明は、多様に挙げられた手段によって提供される機能が結合され、請求項が要求する方式と結合されるため、前記機能が提供可能な如何なる手段も、本明細書から把握されるものと均等であると理解されねばならない。   In the claims, the components expressed as means for performing the functions described in the detailed description include all types of software including, for example, combinations of circuit elements that perform the functions or firmware / microcode. It is intended to include all methods of performing the function including, and is coupled with appropriate circuitry for executing the software to perform the function. The invention as defined by such claims combines any of the functions provided by the various listed means and is combined with the scheme required by the claims, so any means capable of providing said functions. However, it should be understood that it is equivalent to what is understood from this specification.

上述の目的、特徴及び利点は、添付図面に関する以下の詳細な説明によりさらに明らかになる。これにより、本発明が属する技術分野において通常の知識を有する者であれば、本発明の技術的思想を容易に実施することができる。また、本発明を説明するにあたり、かかる公知技術についての具体的な説明が本発明の要旨を不明瞭にする可能性があると判断される場合、その詳細な説明を省略する。   The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Thus, those who have ordinary knowledge in the technical field to which the present invention belongs can easily implement the technical idea of the present invention. Further, in describing the present invention, when it is determined that a specific description of the known technology may obscure the gist of the present invention, a detailed description thereof will be omitted.

以下、添付図面を参照して本発明の様々な実施形態を詳細に説明する。   Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は本発明の一実施形態による電子装置を示したブロック図である。図1を参照すれば、電子装置100は、ディスプレイ部110、入力部120、制御部130、格納部140、通信部150、撮影部160の全部または一部を含む。   FIG. 1 is a block diagram illustrating an electronic device according to an embodiment of the present invention. Referring to FIG. 1, the electronic device 100 includes a display unit 110, an input unit 120, a control unit 130, a storage unit 140, a communication unit 150, and a photographing unit 160.

ここで、電子装置100は、カメラ機能を備えたデジタルカメラ、スマートフォン、タブレット型コンピュータ、ノート型パソコン、PDA(personal digital assistant)、PMP(portable multimedia player)、デジタルTV、スマートグラス、プロジェクトグラスなどの様々な装置として具現されることができる。   Here, the electronic device 100 includes a digital camera having a camera function, a smartphone, a tablet computer, a notebook computer, a PDA (personal digital assistant), a PMP (portable multimedia player), a digital TV, a smart glass, a project glass, and the like. It can be embodied as various devices.

ディスプレイ部110は、画面を表示する機能を担う。特に、本発明の様々な実施形態を具現するためのアプリケーション(例えば、写し描きアプリケーション)が実行されると、ディスプレイ部110は、図3から図9に示す画面を表示することができる。   The display unit 110 has a function of displaying a screen. In particular, when an application (for example, a transcription application) for implementing various embodiments of the present invention is executed, the display unit 110 can display the screens shown in FIGS. 3 to 9.

ここで、ディスプレイ部110は、液晶ディスプレイ(liquid crystal display)、薄膜トランジスタ液晶ディスプレイ(thin film transistor‐liquid crystal display)、有機発光ダイオード(organic light‐emitting diode)、フレキシブルディスプレイ(flexible display)、3次元ディスプレイ(3D display)、透明ディスプレイ、HUD(Head Up Display)、HMD(Head Mounted Display)、Prism Project Displayの少なくとも一つとして具現されることができる。   Here, the display unit 110 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a flexible display. (3D display), transparent display, HUD (Head Up Display), HMD (Head Mounted Display), and Prism Project Display.

入力部120は、電子装置100を操作するユーザの入力を受信する。   The input unit 120 receives input from a user who operates the electronic device 100.

ここで、入力部120は、様々なボタンの形態、ディスプレイ部110に対するタッチ入力を受信するタッチセンサ、ディスプレイ部110の表面に直接接続せずに接近する動きを受信する近接センサ、ユーザの音声入力を受信するマイクロフォンの少なくとも一つを用いて具現されることができる。但し、これに限定されるものではなく、ユーザの入力を受信することができる如何なる形態に具現されてもよい。   Here, the input unit 120 includes various button forms, a touch sensor that receives a touch input to the display unit 110, a proximity sensor that receives a close approach without directly connecting to the surface of the display unit 110, and a user's voice input. Can be implemented using at least one of the microphones that receive the signal. However, the present invention is not limited to this, and may be embodied in any form capable of receiving user input.

格納部140は、電子装置100の動作に必要な様々なデータ及びアプリケーションを格納する機能を担う。特に、格納部140は、本発明の様々な実施形態を具現するための「写し描きアプリケーション」を格納することができる。   The storage unit 140 has a function of storing various data and applications necessary for the operation of the electronic device 100. In particular, the storage unit 140 may store a “copying application” for implementing various embodiments of the present invention.

ここで、格納部140は、RAM(Random Access Memory)、フラッシュメモリ、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electronically Erasable and Programmable ROM)、レジスタ、ハードディスク、リムーバブルディスク、メモリカードなどの内蔵形態の格納素子だけでなく、USBメモリなどの着脱可能な形態の格納素子として具現されてもよい。   Here, the storage unit 140 includes a RAM (Random Access Memory), a flash memory, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electronically Erasable and Programmable ROM, a hard disk register, a hard disk register, a hard disk). In addition to a built-in storage element such as a storage device, it may be implemented as a removable storage element such as a USB memory.

通信部150は、電子装置100と外部装置との通信を可能とする。ここで、通信部150は、ローカルエリアネットワーク(LAN;Local Area Network)及びインターネット網を介して無線または有線方式で接続される形態、USB(Universal Serial Bus)ポートを介して接続される形態、3G、4Gなどの移動通信網を介して接続される形態、NFC(Near Field Communication)、RFID(Radio Frequency Identification)、Wi‐Fiなどの近距離無線通信方式により接続される形態が可能である。   The communication unit 150 enables communication between the electronic device 100 and an external device. Here, the communication unit 150 is connected in a wireless or wired manner via a local area network (LAN) and the Internet network, connected via a USB (Universal Serial Bus) port, 3G A form connected via a mobile communication network such as 4G, a form connected via a short-range wireless communication method such as NFC (Near Field Communication), RFID (Radio Frequency Identification), and Wi-Fi are possible.

撮影部160は、被写体の撮影によりイメージを生成することができる。特に、撮影部160は、被写体のライブビュー撮影によりイメージを生成することができる。ここで、ライブビュー撮影とは、電子装置100で撮影されたイメージをリアルタイムで表示するディスプレイ部110をユーザが確認しながら撮影を行うことを意味する。一方、撮影部160は、生成された撮影イメージを制御部130に提供することができる。   The photographing unit 160 can generate an image by photographing a subject. In particular, the photographing unit 160 can generate an image by live view photographing of a subject. Here, the live view shooting means that the user performs shooting while checking the display unit 110 that displays an image shot by the electronic apparatus 100 in real time. Meanwhile, the photographing unit 160 can provide the generated photographed image to the control unit 130.

制御部130は、電子装置100の全般的な動作を制御する。特に、制御部130は、実行された「写し描きアプリケーション」と連携して、ディスプレイ部110、入力部120、 格納部140、通信部150、撮影部160の全部または一部を制御することができる。   The control unit 130 controls the overall operation of the electronic device 100. In particular, the control unit 130 can control all or part of the display unit 110, the input unit 120, the storage unit 140, the communication unit 150, and the imaging unit 160 in cooperation with the executed “copying application”. .

具体的に、複数の描画モードのうち一つの描画モードが選択されると、制御部130は、選択された描画モードに対応する動作を行うように電子装置100の構成の全般的な動作を制御することができる。ここで、描画モードは、「キャラクター描画モード」、「写真撮影後写し描きモード」、「ギャラリー写真描画モード」、「動物/植物描画モード」、「交通手段描画モード」、「人物画描画モード」、「精密描写モード」の少なくとも一つを含むことができる。ここで、「写真撮影後写し描きモード」が選択されると、撮影部160が駆動され、撮影部160で撮影により生成された撮影イメージに対するイメージ処理が行われることができる。また、それ以外の描画モードは、予め格納されているイメージのうち特定イメージが選択された後にイメージ処理が行われることができる。また、「精密描写モード」は、撮影後または特定イメージの選択後にイメージ処理が行われることができる。   Specifically, when one drawing mode is selected from among a plurality of drawing modes, the control unit 130 controls the overall operation of the configuration of the electronic apparatus 100 so as to perform an operation corresponding to the selected drawing mode. can do. Here, the drawing modes are “character drawing mode”, “photographing after-drawing drawing mode”, “gallery photo drawing mode”, “animal / plant drawing mode”, “transportation drawing mode”, “person drawing drawing mode”. , At least one of “Precise description mode” can be included. Here, when the “photographing post-shooting drawing mode” is selected, the photographing unit 160 is driven, and image processing can be performed on a photographed image generated by photographing by the photographing unit 160. In other drawing modes, image processing can be performed after a specific image is selected from images stored in advance. In the “precise description mode”, image processing can be performed after shooting or after selecting a specific image.

すなわち、上述の描画モードが選択された後、ユーザが写し描きを所望するイメージが選択されることができる。ここで、ユーザが写し描きを所望するイメージは、格納部140に予め格納されているイメージであってもよく、または撮影部160で撮影により生成されたイメージであってもよく、または通信部150により外部装置から受信されたイメージであってもよい。   That is, after the above-described drawing mode is selected, an image that the user desires to copy can be selected. Here, the image that the user desires to copy may be an image stored in advance in the storage unit 140, an image generated by shooting by the shooting unit 160, or the communication unit 150. May be an image received from an external device.

一方、上述の動作により、電子装置100のユーザが写し描きを所望するイメージが選択されると、制御部130は、選択されたイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成することができる。   On the other hand, when an image that the user of the electronic apparatus 100 desires to copy is selected by the above-described operation, the control unit 130 has a first contour that has an outline and the transparency is adjusted with respect to the selected image. Images can be generated.

例えば、第1のイメージは、選択してもらったイメージにおける輪郭線を抽出して生成された第2のイメージと、選択してもらったイメージにおける透明度を調節して生成された第3のイメージと、を結合して生成されることができる。すなわち、第1のイメージは、ユーザに選択してもらったイメージの輪郭線と透明度が調節されたイメージとが完璧に重なって見えるイメージであることができる。   For example, the first image includes a second image generated by extracting a contour line in the selected image, and a third image generated by adjusting the transparency in the selected image. , Can be generated. In other words, the first image may be an image in which the outline of the image selected by the user and the image whose transparency is adjusted appear to be perfectly overlapped.

この際、制御部130は、選択してもらったイメージにおける輪郭線を抽出した第2のイメージを生成することができる。例えば、制御部130は、選択してもらったイメージ内において、ピクセル値が予め設定された大きさ以上に変わる領域を抽出することで輪郭線を抽出することができる。但し、これは一実施形態にすぎず、公知の多様な輪郭線抽出アルゴリズムを用いて、選択してもらったイメージに含まれた多様なオブジェクトに対する輪郭線を抽出し、抽出された輪郭線のみで構成された第2のイメージを生成することができる。そして、制御部130は、選択してもらったイメージにおける透明度を調節した第3のイメージを生成することができる。例えば、透明度のレベルを操作するユーザの入力が別に受信されていない場合、制御部130は、選択してもらったイメージのRGBA値のうち、デフォルト透明度レベルに対応するA(ALPHA)値を適用することで第3のイメージを生成することができる。ここで、デフォルト透明度レベルは、複数の描画モードに応じて、互いに異なるレベルにデフォルト設定されることができる。   At this time, the control unit 130 can generate a second image obtained by extracting a contour line in the selected image. For example, the control unit 130 can extract a contour line by extracting a region in which the pixel value changes beyond a preset size in the selected image. However, this is only one embodiment, and using various known contour extraction algorithms, contour lines for various objects included in the selected image are extracted, and only the extracted contour lines are used. A constructed second image can be generated. Then, the control unit 130 can generate a third image in which the transparency in the selected image is adjusted. For example, when the input of the user who operates the transparency level is not received separately, the control unit 130 applies the A (ALPHA) value corresponding to the default transparency level among the RGBA values of the selected image. Thus, the third image can be generated. Here, the default transparency level can be set to a different level by default according to a plurality of drawing modes.

または、透明度レベルを操作するユーザの入力が受信された場合、制御部130は、選択してもらったイメージのRGBA値のうち、選択してもらった透明度レベルに対応するA(ALPHA)値を適用することで第3のイメージを生成することができる。   Alternatively, when the input of the user who operates the transparency level is received, the control unit 130 applies the A (ALPHA) value corresponding to the selected transparency level among the RGBA values of the selected image. By doing so, a third image can be generated.

ここで、透明度レベルを操作するユーザの入力は、前記第1のイメージを生成するステップの前、例えば、ユーザが絵を選択する過程で行われることができる。または、第1のイメージを生成するステップの後、例えば、第1のイメージが生成されてディスプレイ部110に表示される過程で行われてもよい。   Here, the user's input for manipulating the transparency level may be performed before the step of generating the first image, for example, in the process of selecting the picture by the user. Alternatively, after the step of generating the first image, for example, the first image may be generated and displayed on the display unit 110.

また、生成された第2のイメージ及び第3のイメージのサイズは、同一であることができるが、これに限定されるものではない。   In addition, the sizes of the generated second image and the third image may be the same, but are not limited thereto.

一方、制御部130は、生成された第2、第3のイメージを結合して第1のイメージを生成することができる。ここで、生成された第1のイメージは、選択してもらったイメージの輪郭のみを含む第2のイメージと、選択してもらった原イメージの色及び明暗を調節することで透明度が調節された第3のイメージと、を結合した形態のイメージであることができる。   Meanwhile, the controller 130 may generate the first image by combining the generated second and third images. Here, the transparency of the generated first image is adjusted by adjusting the color and brightness of the second image including only the outline of the selected image and the selected original image. The third image can be combined with the third image.

一方、上述の輪郭線の透明度も調節されることができる。例えば、透明度レベルを操作するユーザの入力が別に受信されていない場合、制御部130は、デフォルト透明度レベルに対応するように輪郭線を生成することができる。または、透明度レベルを操作するユーザの入力が受信された場合、制御部130は、選択してもらった透明度レベルに対応するように輪郭線を生成することができる。   On the other hand, the transparency of the contour line can also be adjusted. For example, when the input of the user who operates the transparency level is not received separately, the control unit 130 can generate a contour line corresponding to the default transparency level. Alternatively, when the input of the user who operates the transparency level is received, the control unit 130 can generate the contour line so as to correspond to the selected transparency level.

また、上述のように、RGBA値のうちA(ALPHA)値を調節することで透明度を調節することを説明したが、これは一実施形態にすぎず、透明度を調節するための様々な方法が用いられることができる。   In addition, as described above, it has been described that the transparency is adjusted by adjusting the A (ALPHA) value of the RGBA values. However, this is only an embodiment, and various methods for adjusting the transparency are available. Can be used.

また、上述のように、第1のイメージが、生成された第2及び第3のイメージの結合により生成される場合を例として説明したが、これに限定されるものではない。他の例によれば、第1のイメージは、第2、第3のイメージを生成するステップなしに、選択してもらったイメージに対するイメージ処理のみで生成されることができる。すなわち、他の例によれば、制御部130は、選択されたイメージに対する輪郭線の抽出/生成及び透明度の調節により、前記第1のイメージを生成することができる。一方、制御部130は、生成された第1のイメージと、撮影部160のライブビュー撮影により生成された撮影イメージと、を重ねて表示するように、ディスプレイ部110を制御することができる。具体的に、制御部130は、撮影部160のライブビュー撮影により生成された撮影イメージを下位レイヤーに配置し、生成された第1のイメージを上位レイヤーに配置してともに表示するようにディスプレイ部110を制御することができる。ここで、ディスプレイ部110の表面が向く方向であるZ軸の(+)方向を基準として、より上に配置されたレイヤーを上位レイヤー、上位レイヤーより下に配置されたレイヤーを下位レイヤーと定義する。   In addition, as described above, the case where the first image is generated by combining the generated second and third images has been described as an example, but the present invention is not limited to this. According to another example, the first image can be generated only by image processing on the selected image without the step of generating the second and third images. That is, according to another example, the controller 130 may generate the first image by extracting / generating a contour line from the selected image and adjusting the transparency. On the other hand, the control unit 130 can control the display unit 110 so that the generated first image and the captured image generated by the live view shooting of the shooting unit 160 are displayed in an overlapping manner. Specifically, the control unit 130 arranges the captured image generated by the live view shooting of the imaging unit 160 in the lower layer, and arranges the generated first image in the upper layer and displays it together. 110 can be controlled. Here, on the basis of the (+) direction of the Z axis, which is the direction in which the surface of the display unit 110 is directed, a layer disposed above is defined as an upper layer, and a layer disposed below the upper layer is defined as a lower layer. .

但し、これは本発明の一実施形態にすぎず、他の実施形態によれば、制御部130は、撮影部160のライブビュー撮影により生成された撮影イメージを上位レイヤーに配置し、生成された第1のイメージを下位レイヤーに配置してともに表示するように、ディスプレイ部110を制御することができる。   However, this is only one embodiment of the present invention, and according to another embodiment, the control unit 130 generates a shot image generated by live view shooting of the shooting unit 160 in an upper layer and is generated. The display unit 110 can be controlled so that the first image is arranged in a lower layer and displayed together.

これにより、「撮影イメージ」と「輪郭線を有し透明度が調節された第1のイメージ」とが互いに重なっている描画画面がディスプレイ部110に表示されることができる。   As a result, a drawing screen in which the “photographed image” and the “first image having the contour line and the transparency adjusted” overlap each other can be displayed on the display unit 110.

一方、本発明の一実施形態によれば、ユーザは、透明度調節対象、透明度レベル、ライブビュー撮影により生成された撮影イメージと重なって表示される第1のイメージのサイズ、自動焦点ON/OFFを設定することができる。ここで、透明度調節対象は、表示された第1のイメージに含まれた輪郭線または第1のイメージに含まれた輪郭線を除いた領域を含むことができる。   On the other hand, according to an embodiment of the present invention, the user can set the transparency adjustment target, the transparency level, the size of the first image displayed overlapping the captured image generated by the live view shooting, and the automatic focus ON / OFF. Can be set. Here, the transparency adjustment target can include a region excluding the contour line included in the displayed first image or the contour line included in the first image.

例えば、ディスプレイ部110に表示された描画画面は、透明度調節対象を選択してもらうための第1の領域、透明度レベルを選択してもらうための第2の領域、撮影に対する自動焦点ON/OFF制御を選択してもらうための第3の領域を含むことができる。   For example, the drawing screen displayed on the display unit 110 includes a first area for selecting a transparency adjustment target, a second area for selecting a transparency level, and automatic focus ON / OFF control for shooting. A third area for having the user select the item can be included.

もし、第1の領域で第1のイメージに含まれた輪郭線を除いた領域が選択され、第2の領域で透明度レベルが調節されると、制御部130は、選択してもらった透明度レベルに基づいて第3のイメージを生成する。これにより、ディスプレイ部110は、「撮影イメージ」と「選択してもらった透明度レベルに対応する透明度を有する第1のイメージ」とをともに表示することができる。すなわち、第3のイメージのみが、選択してもらった透明度レベルの影響を受け、第2のイメージは、選択してもらった透明度レベルの影響を受けないことができる。   If an area excluding the outline included in the first image is selected in the first area and the transparency level is adjusted in the second area, the control unit 130 causes the selected transparency level to be selected. To generate a third image. Thereby, the display unit 110 can display both the “photographed image” and the “first image having transparency corresponding to the selected transparency level”. That is, only the third image is affected by the selected transparency level, and the second image is not affected by the selected transparency level.

もし、第1の領域で第1のイメージに含まれた輪郭線が選択され、第2の領域で透明度レベルが調節されると、制御部130は、選択してもらった透明度レベルに基づいて第2のイメージを生成する。これにより、ディスプレイ部110は、「撮影イメージ」と「選択してもらった透明度レベルに対応する輪郭線透明度を有する第1のイメージ」とをともに表示することができる。すなわち、第2のイメージのみが、選択してもらった透明度レベルの影響を受け、第3のイメージは、選択してもらった透明度レベルの影響を受けないことができる。   If the outline included in the first image is selected in the first area and the transparency level is adjusted in the second area, the controller 130 may select the first level based on the selected transparency level. 2 images are generated. Thereby, the display unit 110 can display both the “photographed image” and the “first image having the contour transparency corresponding to the selected transparency level”. That is, only the second image is affected by the selected transparency level, and the third image is not affected by the selected transparency level.

一方、撮影部のライブビュー撮影による撮影イメージと第1のイメージとがともに表示されている状態で、表示された画面に2本の指でピンチイン(Pinch‐in)またはピンチアウト(Pinch‐out)操作を行うユーザの入力が受信されると、制御部130は第1のイメージのサイズを拡大または縮小して表示するようにディスプレイ部110を制御することができる。この際、第1のイメージのサイズのみが調節されることもでき、または第1のイメージ及び撮影イメージがともに拡大または縮小されることもできる。   On the other hand, in a state in which both the photographed image obtained by Live View photographing of the photographing unit and the first image are displayed, pinch-in or pinch-out with two fingers on the displayed screen. When the input of the user performing the operation is received, the control unit 130 may control the display unit 110 to display the first image with an enlarged or reduced size. At this time, only the size of the first image may be adjusted, or both the first image and the captured image may be enlarged or reduced.

一方、撮影イメージ及び第1のイメージのサイズは同一であることができる。但し、これに限定されるものではない。また、第1のイメージ及び撮影イメージは、ディスプレイ部110の全体画面に重なって表示されることができる。   Meanwhile, the size of the captured image and the first image may be the same. However, it is not limited to this. Further, the first image and the captured image can be displayed so as to overlap the entire screen of the display unit 110.

一方、上述の「精密描写モード」が選択されると、制御部130は、生成された第1のイメージを複数の領域に区分して、電子装置のライブビュー撮影に対応する撮影イメージとともに表示するようにディスプレイ部110を制御することができる。この際、複数の領域のうち一領域が選択されると、制御部130は、選択された一領域を拡大して、電子装置のライブビュー撮影に対応する撮影イメージとともに表示するようにディスプレイ部110を制御することができる。また、制御部130は、生成された第1のイメージを格納するように格納部140を制御することができる。ここで、制御部130は、イメージ処理対象の原イメージが格納されているフォルダとは別のフォルダに、生成された第1のイメージを格納するように格納部140を制御することができる。   On the other hand, when the above-described “precise drawing mode” is selected, the control unit 130 divides the generated first image into a plurality of regions and displays the first image together with a captured image corresponding to live view shooting of the electronic device. Thus, the display unit 110 can be controlled. In this case, when one area is selected from the plurality of areas, the control unit 130 enlarges the selected area and displays the selected area together with a captured image corresponding to live view shooting of the electronic device. Can be controlled. In addition, the control unit 130 can control the storage unit 140 to store the generated first image. Here, the control unit 130 can control the storage unit 140 to store the generated first image in a folder different from the folder in which the original image to be processed is stored.

また、生成された第1のイメージに対するユーザの交換/取り引き命令が入力部120を介して受信されると、制御部130は、生成された第1のイメージをイメージ交換/取り引きサーバに送信するように通信部150を制御することができる。   In addition, when a user exchange / transaction command for the generated first image is received through the input unit 120, the control unit 130 transmits the generated first image to the image exchange / transaction server. The communication unit 150 can be controlled.

例えば、イメージ交換/取り引きサーバは、イメージを交換/取り引きするためのウェブ、モバイルウェブ、またはスマートフォン用ウェブなどを提供することができる。このようなイメージを交換/取り引きするためのウェブ、モバイルウェブ、またはアプリケーションなどを介して、供給者は、原イメージを無料/有料で提供して掲示することができ、ユーザは、本発明を用いたアプリケーションが設けられた機器で自分が写し描きたいイメージを直接ダウンロードすることで、第1のイメージを生成して写し描くことができる。このようなウェブまたはモバイルウェブでは、供給者と需要者が相互作用して、写し描くためのイメージを自由に交換/取り引きすることができる。例えば、絵の得意な人が自分の絵をウェブまたはモバイルウェブにアップロードすると、その絵が気に入って写し描きたい人はウェブまたはモバイルウェブからダウンロードすることができる。   For example, the image exchange / transaction server may provide a web, a mobile web, a smartphone web, or the like for exchanging / trading images. Through the web, mobile web, or application for exchanging / trading such images, the supplier can provide the original image for free / paid, and the user can use the present invention. The first image can be generated and copied by directly downloading the image that the user wants to copy with the device provided with the application. In such a web or mobile web, a supplier and a consumer can interact to freely exchange / trade images for copying. For example, if a person who is good at a picture uploads his picture to the web or the mobile web, a person who likes the picture and wants to copy it can download it from the web or the mobile web.

このような動作のために、本発明の様々な実施形態を具現するためのアプリケーションが設けられていなければならない。   For such operations, an application for implementing various embodiments of the present invention must be provided.

ユーザは、このような全ての動作を行うために、基本的に、サイトに会員登録し、本発明の様々な実施形態を具現するためのアプリケーションが設けられた電子装置を備えなければならない。   In order to perform all such operations, a user must basically have an electronic device that is registered with the site and provided with applications for implementing various embodiments of the present invention.

また、絵の供給者は、本発明の様々な実施形態を具現するためのアプリケーションが設けられた電子装置を持っていなくてもよく、有料販売登録の際にはサイトに本人認証手続き(本人通帳の確認など)を行わなければならず、無料販売登録の際にはその手続きが不要である。有料販売登録の際には、供給者が商業的権利を持つことになるため、保護のための仕掛けとして、ウェブ/モバイルウェブ上における半透明印刻マーク、ホームページ内のイメージコピー防止機能としてマウス右クリック及びコントロールキー・シフトキー禁止機能を備えることができる。また、有料販売登録して決済する際に、クレジットカードまたは携帯電話認証による少額決済が可能であり、ウェブ/モバイルウェブを提供するイメージ交換/取り引きサーバ主は、所定の手数料を自動で徴収した後、販売代金を供給者の口座に送金することができる。このような包括的な諸事項について、約款と手数料案内にお知らせが含まれることができる。別の管理者ページで、ウェブ/モバイルウェブのカテゴリ調整及びコメント、知らせ機能などの上記の全ての機能を制御することができる。   In addition, the picture supplier does not have to have an electronic device provided with an application for embodying various embodiments of the present invention. Etc.), and the procedure is not required when registering for free sales. When paying sales registration, the supplier has commercial rights, so as a protection mechanism, a semi-transparent stamp mark on the web / mobile web, and a right mouse click as an image copy prevention function on the homepage And a control key / shift key prohibiting function. In addition, when paying by registering for paid sales, payment by credit card or mobile phone authentication is possible, and the image exchange / transaction server that provides the web / mobile web automatically collects a predetermined fee after , You can transfer the sales price to the supplier's account. Announcements can be included in the Terms and Fees for such comprehensive matters. A separate administrator page can control all of the above features such as web / mobile web category adjustment and commenting, notification features, etc.

一方、ユーザは、例えば、写し描くためのイメージをダウンするスマートフォンの番号を入力した後、前記イメージをダウンロードすることができる。   On the other hand, the user can download the image, for example, after inputting the number of the smartphone that takes down the image for copying.

このような本発明の様々な実施形態によれば、ユーザは、表示された画面を見ながら紙などの媒体に表示された絵を容易に写し描くことができる。すなわち、ユーザは、透明フィルムや油紙をあてて絵を写し描くことと同様の効果を、電子装置により得ることができる。   According to such various embodiments of the present invention, a user can easily copy a picture displayed on a medium such as paper while viewing the displayed screen. That is, the user can obtain an effect similar to that of drawing a picture by applying a transparent film or oil paper to the electronic device.

図2は、図1による電子装置を具体的に示したブロック図である。図2を参照すれば、電子装置100は、ディスプレイ部110、入力部120、制御部130、格納部140、通信部150、撮影部160、認識部170、スピーカ180、外部入力ポート190‐1〜190‐n、電源部195の全部または一部を含む。以下では、図1で既に説明された構成についての重複説明は省略し、図2を参照して本発明の一実施形態による電子装置をより具体的に説明する。   FIG. 2 is a block diagram specifically illustrating the electronic device according to FIG. Referring to FIG. 2, the electronic device 100 includes a display unit 110, an input unit 120, a control unit 130, a storage unit 140, a communication unit 150, a photographing unit 160, a recognition unit 170, a speaker 180, and external input ports 190-1. 190-n, including all or part of the power supply unit 195. Hereinafter, an overlapping description of the configuration already described with reference to FIG. 1 will be omitted, and the electronic apparatus according to an embodiment of the present invention will be described more specifically with reference to FIG.

入力部120は、電子装置100に対するユーザの操作を受信する。ここで、入力部120は、タッチセンサ121、地磁気センサ122、加速度センサ123、ベンドセンサ124、圧力センサ125、近接センサ126、グリップセンサ127などの様々な類型のセンサの全部または一部を含むことができる。   The input unit 120 receives a user operation on the electronic device 100. Here, the input unit 120 includes all or part of various types of sensors such as the touch sensor 121, the geomagnetic sensor 122, the acceleration sensor 123, the bend sensor 124, the pressure sensor 125, the proximity sensor 126, and the grip sensor 127. Can do.

タッチセンサ121は、静電式または感圧式で具現されることができる。静電式は、ディスプレイ部110の表面にコートされた誘電体を用いて、ユーザの身体の一部がディスプレイ部110の表面をタッチしたときにユーザの人体に励起される微細電気を検知してタッチ座標を算出する方式である。感圧式は、二つの電極板を含み、ユーザが画面をタッチすると、タッチ地点で上下電極板の接触により流れる電流を検知してタッチ座標を算出する方式である。以上のようにタッチセンサ121は様々な形態で具現されることができる。   The touch sensor 121 may be implemented as an electrostatic type or a pressure sensitive type. The electrostatic type uses a dielectric coated on the surface of the display unit 110 to detect fine electricity excited by the user's human body when a part of the user's body touches the surface of the display unit 110. This is a method for calculating touch coordinates. The pressure-sensitive type includes two electrode plates, and when the user touches the screen, the touch coordinates are calculated by detecting the current flowing through the contact of the upper and lower electrode plates at the touch point. As described above, the touch sensor 121 can be implemented in various forms.

地磁気センサ122は、電子装置100の回転状態及び移動方向などを検知するためのセンサであり、加速度センサ123は、電子装置100の傾斜程度を検知するためのセンサである。このような地磁気センサ122、加速度センサ123は、電子装置100の回転状態または傾斜状態などを検出するための用途に用いられてもよい。   The geomagnetic sensor 122 is a sensor for detecting the rotation state and moving direction of the electronic device 100, and the acceleration sensor 123 is a sensor for detecting the degree of inclination of the electronic device 100. The geomagnetic sensor 122 and the acceleration sensor 123 may be used for detecting the rotation state or the inclination state of the electronic device 100.

ベンドセンサ124は、電子装置100がフレキシブルディスプレイ装置として具現される場合に必要なセンサであって、電子装置100の曲げ状態を検知することができる。   The bend sensor 124 is a sensor necessary when the electronic device 100 is embodied as a flexible display device, and can detect the bending state of the electronic device 100.

圧力センサ125は、ユーザがタッチまたは曲げ操作を行うときに、電子装置100に加えられる圧力の大きさを検知して制御部130に提供する。圧力センサ125は、ディスプレイ部110に内蔵されて圧力の大きさに対応する電気信号を出力する圧電フィルム(piezo film)を含むことができる。図2では、圧力センサ125がタッチセンサ121と別のものであると図示したが、タッチセンサ121が感圧式タッチセンサとして具現された場合、その感圧式タッチセンサが圧力センサ125の機能をともに担うこともできる。   The pressure sensor 125 detects the magnitude of the pressure applied to the electronic device 100 when the user performs a touch or bending operation, and provides the detected pressure to the control unit 130. The pressure sensor 125 may include a piezoelectric film that is built in the display unit 110 and outputs an electrical signal corresponding to the magnitude of pressure. Although FIG. 2 illustrates that the pressure sensor 125 is different from the touch sensor 121, when the touch sensor 121 is embodied as a pressure-sensitive touch sensor, the pressure-sensitive touch sensor serves as the pressure sensor 125 together. You can also

近接センサ126は、ディスプレイの表面に直接接触されずに接近する動きを検知するためのセンサである。近接センサ126は、高周波磁界を形成し、物体が接近する時に変化する磁界特性によって誘導された電流を検知する高周波発振型、磁石を用いる磁気型、対象体の接近により変化する静電容量を検知する静電容量型などの様々な形態のセンサとして具現されることができる。   The proximity sensor 126 is a sensor for detecting a movement approaching without being in direct contact with the surface of the display. The proximity sensor 126 forms a high frequency magnetic field and detects a current induced by a magnetic field characteristic that changes when an object approaches, a high frequency oscillation type that detects a current, a magnetic type that uses a magnet, and a capacitance that changes due to the approach of an object. It can be embodied as various types of sensors such as a capacitance type.

グリップセンサ127は、圧力センサ125と別に電子装置100の枠や取っ手部分に配置され、ユーザのグリップ(grip)を検知するセンサである。グリップセンサ127は圧力センサやタッチセンサとして具現されることができる。   The grip sensor 127 is a sensor that is disposed in a frame or a handle portion of the electronic device 100 separately from the pressure sensor 125 and detects a user's grip. The grip sensor 127 can be embodied as a pressure sensor or a touch sensor.

制御部130は、入力部120で検知された各種検知信号を分析してユーザの意図を把握し、その意図に応じた動作を行う。制御部130で行われる動作の一例として、外部機器との通信により得られたデータまたは格納部140に格納されたデータを処理し、ディスプレイ部110及びスピーカ180などを介して出力する動作を行うことができる。この際、制御部130は、通信部150を用いて外部機器と通信を行うことができる。   The control unit 130 analyzes various detection signals detected by the input unit 120 to grasp the user's intention, and performs an operation according to the intention. As an example of the operation performed by the control unit 130, processing the data obtained by communication with an external device or the data stored in the storage unit 140, and outputting the data via the display unit 110, the speaker 180, and the like Can do. At this time, the control unit 130 can communicate with an external device using the communication unit 150.

通信部150は、様々な類型の通信方式によって様々な類型の外部機器との通信を行う構成である。通信部150は、放送受信モジュール151、近距離無線通信モジュール152、GPSモジュール153、無線通信モジュール154などの様々な通信モジュールの全部または一部を含むことができる。ここで、放送受信モジュール151は、地上波放送信号を受信するためのアンテナ、復調器、等化器などを含む地上波放送受信モジュール(不図示)、DMB放送信号を受信して処理するためのDMBモジュールなどを含むことができる。近距離無線通信モジュール152とは、NFC(Near Field Communication)やブルートゥース、ジグビー方式などの近距離無線通信方式により、近距離に位置する外部機器との通信を行うためのモジュールである。GPSモジュール153とは、GPS衛星からGPS信号を受信し、電子装置100の現在位置を検出するためのモジュールである。無線通信モジュール154とは、WiFi、IEEEなどの無線通信プロトコルに従って外部ネットワークに連結されて通信を行うモジュールである。この他にも、通信モジュール152は、3G(3rd Generation)、3GPP(3rd Generation Partnership Project)、LTE(Long Term Evoloution)などの様々な移動通信規格に従って移動通信網に接続して通信を行う移動通信モジュールをさらに含んでもよい。   The communication unit 150 is configured to communicate with various types of external devices using various types of communication methods. The communication unit 150 may include all or part of various communication modules such as the broadcast receiving module 151, the short-range wireless communication module 152, the GPS module 153, and the wireless communication module 154. Here, the broadcast receiving module 151 is a terrestrial broadcast receiving module (not shown) including an antenna, a demodulator, and an equalizer for receiving a terrestrial broadcast signal, and for receiving and processing a DMB broadcast signal. A DMB module can be included. The short-range wireless communication module 152 is a module for performing communication with an external device located at a short distance by a short-range wireless communication method such as NFC (Near Field Communication), Bluetooth, or ZigBee method. The GPS module 153 is a module for receiving a GPS signal from a GPS satellite and detecting the current position of the electronic device 100. The wireless communication module 154 is a module that communicates by being connected to an external network in accordance with a wireless communication protocol such as WiFi or IEEE. In addition, the communication module 152 is connected to a mobile communication network according to various mobile communication standards such as 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), and LTE (Long Term Evolution) to perform communication. A module may further be included.

制御部130は、上述の通信部150の各構成要素のうち、ユーザが意図した動作を行うに必要な構成要素を選択的に活性化させることで、動作を行うことができる。   The control unit 130 can perform the operation by selectively activating the components necessary for performing the operation intended by the user among the components of the communication unit 150 described above.

一方、制御部130は、曲げ操作やタッチ操作の他に、音声入力や動き入力を認識し、その入力に対応する動作を行うこともできる。この際、制御部130は認識部170を活性化させることができる。   On the other hand, the control unit 130 can recognize a voice input or a motion input in addition to a bending operation or a touch operation, and can perform an operation corresponding to the input. At this time, the control unit 130 can activate the recognition unit 170.

音声認識部170は、マイク(不図示)などの音声取得手段を用いてユーザの音声や外部音響を収集した後、制御部130に伝達する。制御部130は、音声制御モードで動作する場合、ユーザの音声と予め設定された音声コマンドとが一致すると、ユーザの音声に対応するタスク(task)を行うことができる。音声を用いて制御可能なタスクとしては、音量調節、チャンネル選択、チャンネルザッピング、表示属性調節、再生、一時停止、巻き戻し、早送り、アプリケーション実行、メニュー選択、装置ターンオン・ターンオフなどの様々なタスクが挙げられる。   The voice recognition unit 170 collects the user's voice and external sound using voice acquisition means such as a microphone (not shown) and transmits the collected voice to the control unit 130. When operating in the voice control mode, the control unit 130 can perform a task corresponding to the voice of the user when the voice of the user matches a preset voice command. Tasks that can be controlled using voice include various tasks such as volume adjustment, channel selection, channel zapping, display attribute adjustment, playback, pause, rewind, fast forward, application execution, menu selection, device turn on / turn off, etc. Can be mentioned.

一方、動き認識部170は、カメラなどのイメージ撮像手段(不図示)を用いてユーザのイメージを得た後、制御部130に提供する。動き制御モードで動作する場合、制御部130は、ユーザのイメージを分析し、ユーザが予め設定された動きコマンドに対応する動きジェスチャをしたと判断されると、その動きジェスチャに対応する動作を行う。例えば、チャンネルザッピング、装置ターンオン・ターンオフ、一時停止、再生、停止、巻き戻し、早送り、消音などの様々なタスクが動きにより制御されることができる。音声で制御可能なタスク、動きで制御可能なタスクなどについての上述の例は単なる例に過ぎず、これに限定されない。   On the other hand, the motion recognition unit 170 obtains a user image using image capturing means (not shown) such as a camera, and then provides the image to the control unit 130. When operating in the motion control mode, the control unit 130 analyzes the user's image and performs an operation corresponding to the motion gesture when it is determined that the user has performed a motion gesture corresponding to a preset motion command. . For example, various tasks such as channel zapping, device turn-on / turn-off, pause, play, stop, rewind, fast forward, mute can be controlled by movement. The above-described examples of tasks that can be controlled by voice, tasks that can be controlled by movement, and the like are merely examples, and the present invention is not limited thereto.

その他に、外部入力ポート1、2〜n(190‐1〜190‐n)は、それぞれ様々な類型の外部機器と連結されて、各種データやプログラム、制御命令などを受信することができる。具体的には、USBポート、ヘッドセットポート、マウスポート、LANポートなどを含むことができる。   In addition, the external input ports 1, 2 to n (190-1 to 190-n) are connected to various types of external devices, respectively, and can receive various data, programs, control commands, and the like. Specifically, a USB port, a headset port, a mouse port, a LAN port, and the like can be included.

電源部195は、電子装置100の各構成要素に電源を供給する構成要素である。   The power supply unit 195 is a component that supplies power to each component of the electronic device 100.

以下では、図3から図9を参照して、本発明の一実施形態による電子装置の制御方法のシナリオをUI(User Interface)画面に基づいて説明する。   Hereinafter, with reference to FIGS. 3 to 9, a scenario of a control method of an electronic device according to an embodiment of the present invention will be described based on a UI (User Interface) screen.

アプリケーションが実行されると、先ず、ディスプレイ部110は図3のような初期駆動画面301を表示することができる。これにより、ユーザは、実行されたアプリケーションが絵を写し描くことができるアプリケーションであることを直観的に認知することができる。   When the application is executed, first, the display unit 110 may display an initial drive screen 301 as shown in FIG. Thus, the user can intuitively recognize that the executed application is an application that can copy a picture.

そして、ディスプレイ部110は、図4(a)のように使用目的を示すヘルプ画面401を表示することができる。そして、次の画面に移動するための矢印が選択されると、ディスプレイ部110は、図4(b)のように使用方法を示すヘルプ画面402を表示することができる。ここで、使用方法を示すヘルプ画面402は、文と視覚的資料(動画)を用いて、プログラムをより便利でかつ有用に使用できる方法を表示することができる。例えば、「使い方動画メニュー403」が選択されると、使用方法を説明するための動画が直ちに再生されることができる。(「戻る」ボタンを押すとアプリケーションに自動で戻る)   And the display part 110 can display the help screen 401 which shows a use purpose like Fig.4 (a). When an arrow for moving to the next screen is selected, the display unit 110 can display a help screen 402 indicating how to use it as shown in FIG. Here, the help screen 402 showing the usage method can display a method that allows the program to be used more conveniently and usefully using sentences and visual materials (moving images). For example, when “how to use moving picture menu 403” is selected, a moving picture for explaining how to use can be immediately reproduced. (Press the "Back" button to automatically return to the application)

一方、「絵を描きに行くメニュー404」が選択されると、複数の描画モードを選択してもらうための画面に進むことができる。   On the other hand, when the “menu 404 for drawing” is selected, it is possible to proceed to a screen for selecting a plurality of drawing modes.

このような、図4(a)、(b)のようなヘルプ画面は、「今後このウィンドウを表示しない」をクリックすると、今後アプリケーションを実行したときには表示されず、直ちに複数の描画モードを選択してもらう画面に進むことができる。   Such a help screen as shown in FIGS. 4A and 4B is not displayed when the application is executed in the future when “Don't display this window in the future” is clicked, and a plurality of drawing modes are immediately selected. You can proceed to the screen you want to receive.

その後、ディスプレイ部110は、図5のような複数の描画モードを選択してもらう画面501を表示することができる。ここで、複数の描画モードを選択してもらう画面は、ユーザが選択可能な複数の描画モードを含むことができる。描画モードは、「キャラクター描画モード502」、「写真撮影後写し描きモード505」、「ギャラリー写真描画モード503」、「動物/植物描画モード506」、「交通手段描画モード504」、「人物画描画モード507」、「精密描写モード」の少なくとも一つを含むことができる。   Thereafter, the display unit 110 can display a screen 501 for selecting a plurality of drawing modes as shown in FIG. Here, the screen for selecting a plurality of drawing modes can include a plurality of drawing modes that can be selected by the user. The drawing modes are “character drawing mode 502”, “photographing post-drawing drawing mode 505”, “gallery photo drawing mode 503”, “animal / plant drawing mode 506”, “transportation drawing mode 504”, “portrait drawing” At least one of “mode 507” and “fine description mode” can be included.

「キャラクター描画モード502」が選択されると、著作権のある各種キャラクターイメージを選択する画面、選択されたキャラクターイメージを描くための画面に進むことができる。例えば、図6のように、描きたいキャラクター602、603、604が選択できる画面601を左右スライドショー形態で表示することができる。   When the “character drawing mode 502” is selected, it is possible to proceed to a screen for selecting various copyrighted character images and a screen for drawing the selected character image. For example, as shown in FIG. 6, a screen 601 on which characters 602, 603, and 604 to be drawn can be selected can be displayed in a left and right slide show form.

「写真撮影後写し描きモード505」が選択されると、撮影部160を駆動させて写真を撮影した後、その撮影イメージを描くための画面に進むことができる。   When “post-photographing drawing mode 505” is selected, after the photographing unit 160 is driven to photograph a photograph, the screen can be advanced to a screen for drawing the photographed image.

「ギャラリー写真描画モード503」が選択されると、ギャラリー内のイメージを選択する画面、選択されたイメージを描くための画面に進むことができる。   When the “gallery photo drawing mode 503” is selected, it is possible to proceed to a screen for selecting an image in the gallery and a screen for drawing the selected image.

「動物/植物描画モード506」が選択されると、動物/植物イメージを選択する画面、選択されたイメージを描くための画面に進むことができる。   When the “animal / plant drawing mode 506” is selected, it is possible to proceed to a screen for selecting an animal / plant image and a screen for drawing the selected image.

「交通手段描画モード504」が選択されると、交通手段イメージを選択する画面、選択されたイメージを描くための画面に進むことができる。   When the “transportation mode drawing mode 504” is selected, it is possible to proceed to a screen for selecting a transportation mode image and a screen for drawing the selected image.

「人物画描画モード507」が選択されると、人物画イメージを選択する画面、選択されたイメージを描くための画面に進むことができる。   When the “portrait drawing mode 507” is selected, it is possible to proceed to a screen for selecting a portrait image and a screen for drawing the selected image.

「精密描写モード」が選択されると、精密描写するイメージを選択する画面、選択されたイメージを描くための画面に進むことができる。   When the “precise drawing mode” is selected, it is possible to proceed to a screen for selecting an image to be precisely drawn and a screen for drawing the selected image.

ここで、描くための画面は、「ライブビュー撮影に対応する撮影イメージ」と「選択されたイメージに対する、輪郭線を有し透明度が調節された第1のイメージ」とが互いに重なってディスプレイ部110に表示される画面であることができる。このような描画画面について、図7を参照して具体的に説明する。   Here, the screen for drawing is such that the “shooting image corresponding to the live view shooting” and the “first image having the outline and the transparency of the selected image” overlap each other. The screen can be displayed on the screen. Such a drawing screen will be specifically described with reference to FIG.

撮影部160が白紙をライブビュー撮影していると仮定すると、ディスプレイ部110は、図7(a)、(b)のような描画画面703を表示することができる。すなわち、描画画面は、「白紙の撮影に対応する撮影イメージ704」と「選択されたイメージに対する、輪郭線を有し透明度が調節された第1のイメージ705、706」とをともに表示することができる。   Assuming that the photographing unit 160 is shooting live view of a blank sheet, the display unit 110 can display a drawing screen 703 as shown in FIGS. In other words, the drawing screen may display both “the photographed image 704 corresponding to the photographing of the blank sheet” and “the first images 705 and 706 having the outline and the transparency of the selected image”. it can.

一方、描画画面は、透明度調節対象を選択してもらうための第1の領域707、透明度レベルを選択してもらうための第2の領域702、撮影に対する自動焦点ON/OFF制御を選択してもらうための第3の領域701を含むことができる。ここで、第1の領域707は、透明度調節対象として輪郭線を選択してもらうための領域707‐1、透明度調節対象として輪郭線を除いた領域を選択してもらうための領域707‐2を含むことができる。   On the other hand, on the drawing screen, a first area 707 for selecting a transparency adjustment target, a second area 702 for selecting a transparency level, and automatic focus ON / OFF control for photographing are selected. A third region 701 may be included. Here, the first area 707 includes an area 707-1 for selecting an outline as a transparency adjustment target, and an area 707-2 for selecting an area excluding the outline as a transparency adjustment target. Can be included.

もし、第1の領域707で第1のイメージに含まれた輪郭線を除いた領域が選択され、第2の領域702で透明度レベルが選択されると、制御部130は、選択してもらった透明度レベルに基づいて第3のイメージを生成する。これにより、図7(a)、(b)のように、ディスプレイ部110は、「撮影イメージ704」と「輪郭線を有し、選択してもらった透明度レベルに対応する透明度を有する第1のイメージ705、706」とをともに表示することができる。   If a region excluding the outline included in the first image is selected in the first region 707 and a transparency level is selected in the second region 702, the control unit 130 has the selection. A third image is generated based on the transparency level. As a result, as shown in FIGS. 7A and 7B, the display unit 110 includes the “photographed image 704” and the “contour line, and has the transparency corresponding to the selected transparency level. Images 705, 706 "can be displayed together.

例えば、図7(b)のように、透明度レベルが0%であると、輪郭線のみが鮮明に残っている第1のイメージ706を、撮影イメージ704とともにディスプレイ部110に表示することができる。   For example, as shown in FIG. 7B, when the transparency level is 0%, the first image 706 in which only the outline is clearly left can be displayed on the display unit 110 together with the captured image 704.

もし、図7(a)のように、透明度レベルが100%であると、「輪郭線」と「透明度が調節されていない原イメージの色及び明暗」を有する第1のイメージ705を、撮影イメージ704とともにディスプレイ部110に表示することができる。   If the transparency level is 100% as shown in FIG. 7A, the first image 705 having “the contour line” and “the color and brightness of the original image whose transparency is not adjusted” is taken. It can be displayed on the display unit 110 together with 704.

一方、図7には図示されていないが、もし透明度レベルが50%であると、輪郭線が鮮明な状態で、原イメージのみが50%の透明度を有する第1のイメージを撮影イメージとともにディスプレイ部110に表示することができる。   On the other hand, although not shown in FIG. 7, if the transparency level is 50%, the display unit displays the first image together with the photographed image with only the original image having a transparency of 50% with a clear outline. 110 can be displayed.

一方、状況に応じては、撮影部160の自動焦点機能が障害物となり得る。すなわち、ユーザは自動焦点機能が活性化している状態で画面を見ることになるが、自動焦点機能により、焦点が紙などの媒体に絵を描いている手やペン等に合わせられることになる場合が発生し得る。この場合、自動焦点機能が、ユーザが紙などの媒体に絵を描くことを邪魔する要因となり得るため、自動焦点ON/OFF制御をユーザに選択してもらうことで、その要因を防止することができる。   On the other hand, depending on the situation, the autofocus function of the photographing unit 160 can be an obstacle. That is, the user sees the screen with the autofocus function activated, but the autofocus function allows the user to focus on a hand or pen drawing a picture on a medium such as paper. Can occur. In this case, since the autofocus function can be a factor that hinders the user from drawing a picture on a medium such as paper, the user can select the autofocus ON / OFF control to prevent the factor. it can.

一方、上述の「精密描写モード」が選択されると、図8(a)、(b)のように、ディスプレイ部110は、第1のイメージ801を複数の領域に区画して、電子装置のライブビュー撮影に対応する撮影イメージ804とともに表示することができる。もし、図8(b)のように、複数の領域のうち一領域805が選択されると、ディスプレイ部110は、図8(c)のように、選択された一領域805を拡大し、拡大された領域806を、電子装置のライブビュー撮影に対応する撮影イメージ804と重ねて表示することができる。これにより、ユーザは、写し描くためのイメージの一領域を紙などの媒体にさらに詳細に写し描くことができる。   On the other hand, when the above-described “precise drawing mode” is selected, the display unit 110 divides the first image 801 into a plurality of regions as shown in FIGS. It can be displayed together with a captured image 804 corresponding to live view shooting. If one area 805 is selected from a plurality of areas as shown in FIG. 8B, the display unit 110 enlarges the selected one area 805 as shown in FIG. The region 806 thus displayed can be displayed so as to overlap with a captured image 804 corresponding to live view shooting of the electronic device. Accordingly, the user can copy an area of the image to be copied on a medium such as paper in more detail.

一方、図8では、上述の「精密描写モード」が選択されると、選択された領域を拡大して表示すると説明したが、これに限定されるものではない。他の例として、撮影部のライブビュー撮影による撮影イメージと第1のイメージとがともに表示されている状態で、ユーザは、表示された画面に2本の指を使ってピンチイン(Pinch‐in)またはピンチアウト(Pinch‐out)入力を行うことができる。この場合、第1のイメージが拡大または縮小されることができる。または、第1のイメージ及び撮影イメージがともに拡大または縮小されることができる。   On the other hand, in FIG. 8, it has been described that when the “precise drawing mode” described above is selected, the selected region is displayed in an enlarged manner, but the present invention is not limited to this. As another example, the user can pinch-in with two fingers on the displayed screen in a state where the captured image obtained by Live View shooting and the first image are both displayed. Alternatively, pinch-out input can be performed. In this case, the first image can be enlarged or reduced. Alternatively, both the first image and the captured image can be enlarged or reduced.

図9は本発明の一実施形態による電子装置を用いて絵を写し描く方法の一例を示した図面である。図9を参照すれば、電子装置100のディスプレイ部110は、「絵を描いている手902」及び「ユーザがディスプレイ部110の画面を見ながら写し描いた絵が描かれた紙903」のライブビュー撮影により撮影された「撮影イメージ」と「輪郭線を有し透明度が調節された第1のイメージ」とが互いに重なっている描画画面を表示することができる。この際、ユーザの写し描く姿を高精度に撮影するために、電子装置100を固定装置901で固定して描くことができる。   FIG. 9 is a diagram illustrating an example of a method of drawing a picture using an electronic device according to an embodiment of the present invention. Referring to FIG. 9, the display unit 110 of the electronic apparatus 100 performs live performances of “a hand 902 drawing a picture” and “paper 903 on which a picture copied by the user while viewing the screen of the display unit 110”. It is possible to display a drawing screen in which the “photographed image” photographed by the view photographing and the “first image having a contour line and adjusted in transparency” overlap each other. At this time, the electronic device 100 can be fixed and drawn by the fixing device 901 in order to photograph the user's drawing and drawing with high accuracy.

これにより、ユーザは、ディスプレイ部110に表示された画面を見ながら紙903のような媒体に絵を容易に写し描くことができる。すなわち、ユーザは、透明フィルムや油紙をあてて絵を写し描くことと同様の効果を電子装置により得ることができる。   As a result, the user can easily copy a picture on a medium such as paper 903 while viewing the screen displayed on the display unit 110. In other words, the user can obtain the same effect as that obtained by copying a picture by applying a transparent film or oil paper to the electronic device.

図10は本発明の一実施形態による電子装置が着用型電子装置として具現された一例を示した図面である。図示された着用型電子装置200は、ユーザの目に近接して位置するようにメガネの形態に製作されることができ、図1及び図2で説明した機能を担う機能ブロック構成の全部または一部を含むことができる。以下では、図1及び図2で説明した内容についての具体的な説明は省略し、ユーザの目に近接して着用されるという、着用型電子装置の形態による特徴を本発明の様々な実施形態に適用して具体的に説明する。ここで、着用型電子装置200は、ユーザの目に近接して着用されるスマートグラス、プロジェクトグラスなどの様々な装置として具現されることができる。   FIG. 10 is a view illustrating an example in which an electronic device according to an embodiment of the present invention is embodied as a wearable electronic device. The illustrated wearable electronic device 200 can be manufactured in the form of glasses so as to be positioned close to the eyes of the user, and all or one of the functional block configurations responsible for the functions described in FIGS. 1 and 2. Parts can be included. In the following, a detailed description of the contents described in FIG. 1 and FIG. 2 will be omitted, and various embodiments of the present invention will be characterized by the form of the wearable electronic device that is worn close to the eyes of the user. This will be described in detail with reference to FIG. Here, the wearable electronic device 200 may be embodied as various devices such as smart glasses and project glasses that are worn close to the eyes of the user.

着用型電子装置200の前面視における形状を図示した図10を参照すれば、本発明の一実施形態による着用型電子装置200は、左右のレンズ枠10、11、枠連結部20、左右のツル30、31、及び左右のレンズ50、51を含んで構成されることができる。   Referring to FIG. 10 illustrating the shape of the wearable electronic device 200 in front view, the wearable electronic device 200 according to the embodiment of the present invention includes left and right lens frames 10 and 11, a frame connecting portion 20, and left and right cranes. 30 and 31, and left and right lenses 50 and 51.

一方、写真または動画の撮影が可能な撮影部260が着用型電子装置200の前面に取り付けられることができ、例えば、図10に図示されたように、枠連結部20の前面に撮影部260が配置されることができる。   On the other hand, a photographing unit 260 capable of taking a photograph or a moving image can be attached to the front surface of the wearable electronic device 200. For example, as illustrated in FIG. Can be arranged.

これにより、ユーザは、メガネ形態の着用型電子装置200を着用して移動中に、撮影部260を用いて写真または動画を撮影して格納または共有することができる。   Accordingly, the user can take a picture or a moving image by using the photographing unit 260 and store or share it while wearing the wearable electronic device 200 in the form of glasses and moving.

この場合、撮影部260により撮影される映像の視点が、ユーザの視覚により認知される場面の視点と非常に類似するという利点がある。   In this case, there is an advantage that the viewpoint of the video captured by the imaging unit 260 is very similar to the viewpoint of the scene recognized by the user's vision.

また、ユーザの手動作などのジェスチャ(gesture)が撮影部260により認識され、前記認識されたジェスチャによって着用型電子装置200の動作または機能が制御されるようにすることができる。   In addition, a gesture such as a user's hand movement can be recognized by the photographing unit 260, and the operation or function of the wearable electronic device 200 can be controlled by the recognized gesture.

撮影部260が取り付けられる位置または個数は必要に応じて変更可能であり、赤外線カメラなどの特殊目的のカメラが用いられてもよい。   The position or number at which the photographing unit 260 is attached can be changed as necessary, and a special purpose camera such as an infrared camera may be used.

また、左右のツル30、31のそれぞれにも、特定機能を担うためのユニットが配置されることができる。   In addition, units for performing a specific function can be arranged in each of the left and right cranes 30 and 31.

右側のツル(right side‐arm)31には、着用型電子装置200の機能を制御するためのユーザの入力を受信する入力部220が取り付けられることができる。   An input unit 220 that receives user input for controlling the function of the wearable electronic device 200 may be attached to the right side-arm 31.

例えば、画面上のカーソル、メニュー項目などのオブジェクトを選択または移動させるためのトラックボール(track ball)221やタッチパッド(touch pad)222が右側のツル31に配置されることができる。   For example, a track ball 221 or a touch pad 222 for selecting or moving an object such as a cursor or menu item on the screen may be disposed on the right temple 31.

着用型電子装置200に備えられる入力部220は、トラックボール221とタッチパッド222に限定されず、キーパッド(key pad)、ドームスイッチ(dome switch)、ジョグホイール、ジョグスイッチなどの様々な入力装置が備えられることができる。   The input unit 220 provided in the wearable electronic device 200 is not limited to the trackball 221 and the touch pad 222, and various input devices such as a key pad, a dome switch, a jog wheel, and a jog switch. Can be provided.

一方、左側のツル(left side‐arm)30には、マイク223が取り付けられることができ、マイク223により認識されたユーザの音声を用いて、着用型電子装置200の動作または機能が制御されることができる。   On the other hand, a microphone 223 can be attached to a left side-arm 30, and the operation or function of the wearable electronic device 200 is controlled using the user's voice recognized by the microphone 223. be able to.

また、左側のツル30にはセンシング部224が配置され、着用型電子装置200の位置、ユーザ接触有無、方位、加速/減速などのような現在状態や、ユーザに係る情報などを検知して、着用型電子装置200の動作を制御するためのセンシング信号を発生させることができる。   In addition, a sensing unit 224 is arranged on the left temple 30 to detect the current state such as the position of the wearable electronic device 200, the presence / absence of user contact, the direction, acceleration / deceleration, information on the user, etc. A sensing signal for controlling the operation of the wearable electronic device 200 can be generated.

例えば、センシング部224は、ジャイロセンサ(gyroscope)や加速度センサ(accelerometer)などのような動作センサ(motion detector)、GPS装置のような位置センサ、磁力センサ(magnetometer)、経緯儀(theodolite)のような方向センサ、温度センサ、湿度センサ、風向/風量センサなどを含むことができるが、本発明はこれに限定されず、上述のセンサ以外にも、様々な情報を検出することができるセンサをさらに含むことができる。   For example, the sensing unit 224 may be a motion sensor such as a gyroscope or an accelerometer, a position sensor such as a GPS device, a magnetic sensor, or a theodolite. Directional sensors, temperature sensors, humidity sensors, wind direction / air volume sensors, and the like, but the present invention is not limited to this, and in addition to the sensors described above, sensors that can detect various information are further included. Can be included.

例えば、センシング部224は、赤外線センサをさらに備えることができる。前記赤外線センサは、赤外線を放出する発光部と赤外線を受信する受光部とを含んで構成され、赤外線通信や近接度測定などに用いられることができる。   For example, the sensing unit 224 may further include an infrared sensor. The infrared sensor includes a light emitting unit that emits infrared rays and a light receiving unit that receives infrared rays, and can be used for infrared communication, proximity measurement, and the like.

本発明の一実施形態による着用型電子装置200は、外部装置との通信のための通信部250を含むことができる。   The wearable electronic device 200 according to an embodiment of the present invention may include a communication unit 250 for communication with an external device.

例えば、通信部250は、放送受信モジュール、移動通信モジュール、無線インターネットモジュール、及び近距離通信モジュールなどを含むことができる。   For example, the communication unit 250 may include a broadcast receiving module, a mobile communication module, a wireless internet module, a short-range communication module, and the like.

また、本発明の一実施形態による着用型電子装置200は、映像を表示してユーザに視覚的情報を伝達するためのディスプレイ装置を含むことができる。   In addition, the wearable electronic device 200 according to an embodiment of the present invention may include a display device for displaying an image and transmitting visual information to a user.

ユーザが、前記ディスプレイ装置により表示される情報とともに、目の前に広がる前景(front view)を見ることができるように、前記ディスプレイ装置は透明型または光透過型のユニットを含んで構成されることができる。   The display device may include a transparent type or a light transmissive type unit so that a user can see a front view that spreads in front of the eyes along with information displayed by the display device. Can do.

例えば、図10に図示された左右のレンズ50、51の少なくとも一つが上記のような透明ディスプレイの機能を担うようにすることで、ユーザは、レンズに形成されたテキストまたはイメージなどを視覚的に認知するとともに前景を見ることができる。   For example, by making at least one of the left and right lenses 50 and 51 shown in FIG. 10 perform the function of the transparent display as described above, the user visually recognizes the text or image formed on the lens. You can recognize and see the foreground.

そのために、着用型電子装置200は、HMD(Head Mounted Display)、HUD(Head Up Display)、またはPrism Project Displayなどのディスプレイ装置を用いて、ユーザの目の前に各種情報が表示されるようにすることができる。   For this purpose, the wearable electronic device 200 uses a display device such as HMD (Head Mounted Display), HUD (Head Up Display), or Prism Project Display so that various types of information are displayed in front of the user's eyes. can do.

前記HMDは、映像を拡大して虚像を形成するレンズと、そのレンズの焦点距離より近い位置に配置されたディスプレイパネルと、を含んで構成される。HMDがユーザの頭付近に装着されると、ユーザは、ディスプレイパネルに表示された映像をレンズを介して見ることにより、その虚像を視覚的に認知できることになる。   The HMD includes a lens that enlarges an image to form a virtual image, and a display panel that is disposed at a position closer to the focal length of the lens. When the HMD is worn near the user's head, the user can visually recognize the virtual image by viewing the video displayed on the display panel through the lens.

一方、前記HUDは、ディスプレイパネルに表示された映像がレンズにより拡大され、前記拡大された画像がハーフミラで反射されて、前記反射光がユーザに見えることで虚像が形成されるように構成されている。また、前記ハーフミラは、外部の光を透過させるようになっているため、ユーザは、ハーフミラを透過する外部からの光により前記HUDによって形成された虚像とともに前景も見ることができる。   Meanwhile, the HUD is configured such that an image displayed on a display panel is magnified by a lens, the magnified image is reflected by a half mirror, and a virtual image is formed when the reflected light is visible to a user. Yes. Further, since the half mirror transmits external light, the user can see the foreground together with the virtual image formed by the HUD by the external light transmitting through the half mirror.

そして、前記ディスプレイ装置は、TOLED(Transparant OLED)などの様々な透明ディスプレイ方式を用いて具現されることができる。   The display device may be implemented using various transparent display methods such as TOLED (Transparent OLED).

一方、前記Prism Project Displayは、ミニプロジエクタのビームがプリズム内の板で反射されて着用者の目に入り、この光が目の網膜の黄斑に結ばれ、視神経がこの視覚情報を脳に伝達することで、ユーザは、前景とともにPrism Project Displayにより表示される映像を見ることができる。このようなPrism Project Displayを用いた着用型電子装置はプロジェクトグラスであることができ、この場合、上述の図10と異なって、別のレンズ部を備えなくてもよい。   On the other hand, in the Prism Project Display, the beam of the mini projector is reflected by the plate in the prism and enters the wearer's eyes, and this light is tied to the macular of the retina of the eye, and the optic nerve transmits this visual information to the brain. As a result, the user can view the video displayed by the Prism Project Display together with the foreground. The wearable electronic device using the Prism Project Display can be a project glass. In this case, unlike the above-described FIG. 10, it is not necessary to include another lens unit.

以下では、着用型電子装置200がHUDを備える場合を例として本発明の一実施形態を説明するが、本発明はこれに限定されない。   Below, although one embodiment of the present invention is described taking the case where wearable electronic device 200 is provided with HUD as an example, the present invention is not limited to this.

左側のツル30及び右側のツル31の少なくとも一つの後面に、プロジエクタと類似した機能をするHUDが取り付けられることができる。   A HUD having a function similar to that of a projector can be attached to the rear surface of at least one of the left temple 30 and the right temple 31.

HUDから放出される光による画像が、左右のレンズ50、51で反射されてユーザに見えることで、ユーザには、HUDにより形成されるオブジェクトが左右のレンズ50、51上に表示されると認知されることができる。   The image of the light emitted from the HUD is reflected by the left and right lenses 50 and 51 and is visible to the user, so that the user recognizes that the object formed by the HUD is displayed on the left and right lenses 50 and 51. Can be done.

一方、図10とは異なって、着用型電子装置200が左右のレンズの何れか一つ(例えば、右側のレンズ51)のみを備えて、一方の目にのみHUDなどの着用型電子装置200内のディスプレイ装置で表示される映像が見えるようにすることができる。   On the other hand, unlike FIG. 10, the wearable electronic device 200 includes only one of the left and right lenses (for example, the right lens 51), and the wearable electronic device 200 such as a HUD is provided only in one eye. The video displayed on the display device can be seen.

また、ユーザの一方の目(例えば、左側の目)部分は、レンズにより覆われずに完全に開放され、他方の目(例えば、右側の目)部分のうち上側一部のみがレンズ11により覆われる構造で、着用型電子装置200が具現されることもできる。   Further, one eye (for example, the left eye) of the user is completely covered without being covered with the lens, and only the upper part of the other eye (for example, the right eye) is covered with the lens 11. In other words, the wearable electronic device 200 may be implemented with the structure described above.

上記のような着用型電子装置200の形状及び構成などは、利用分野、主機能、主使用階層などの様々な必要に応じて選択または変更されることができる。   The shape and configuration of the wearable electronic device 200 as described above can be selected or changed according to various needs such as a field of use, a main function, and a main use hierarchy.

一方、このようなディスプレイ装置は、図1から図9に図示されたディスプレイ部110の機能を担うことができる。但し、スマートグラス200を用いる場合、ユーザが着用して自分の目の前に広がる前景を見ることができるようにするというスマートグラス200の特性上、図1および図2で説明した撮影部260のライブビュー撮影動作が不要であり得る(すなわち、撮影イメージを表示する必要がない)。すなわち、HUDのようなディスプレイ装置は、上述の第2、第3のイメージの結合により生成された「輪郭線を有する透明な第1のイメージ」を表示することで、着用者が、ディスプレイ装置により表示される情報と目の前に広がる前景をともに見ることができる。この場合、着用者は、図9のディスプレイ部110に図示された画面と類似した画面がレンズ50、51上に表示されると認知することができる。   On the other hand, such a display device may have the function of the display unit 110 illustrated in FIGS. However, when the smart glass 200 is used, the photographing unit 260 described with reference to FIGS. 1 and 2 may be used due to the characteristic of the smart glass 200 that the user can wear and see the foreground spreading in front of his / her eyes. Live view shooting operations may be unnecessary (ie, there is no need to display a captured image). That is, a display device such as HUD displays a “transparent first image having a contour line” generated by combining the second and third images described above, so that the wearer can You can see both the displayed information and the foreground spreading in front of you. In this case, the wearer can recognize that a screen similar to the screen illustrated in the display unit 110 of FIG. 9 is displayed on the lenses 50 and 51.

これにより、ユーザは、スマートグラスまたはプロジェクトグラスに表示された画面を見ながら、紙などの媒体に絵をさらに容易に写し描くことができる。すなわち、スマートフォンなどの電子装置でライブビュー撮影による撮影イメージを見ながら描くことは、実際の手の動きと、撮影によって画面に表示される手の動きと、の間にディレイが発生するが、スマートグラスまたはプロジェクトグラスは、実際の手の動きと第1のイメージとを同時に見るため、このような欠点を完璧に補完することができる。   Thus, the user can more easily copy a picture on a medium such as paper while looking at the screen displayed on the smart glass or the project glass. In other words, drawing while watching a live-view shooting image with an electronic device such as a smartphone causes a delay between the actual hand movement and the hand movement displayed on the screen by shooting. Since the glass or project glass sees the actual hand movement and the first image at the same time, it can perfectly compensate for this drawback.

すなわち、スマートフォンのように、カメラを駆動してライブビュー画面に第1のイメージを表示することで絵を写し描く機器を用いる場合には、実際の手の動きとライブビュー画面上の手の動きとの間に、微細なディレイが発生する。しかし、スマートグラスまたはプロジェクトグラスの場合には、HUD(Head Up Display)、HMD(Head Mounted Display)、prism project、prism display、及び上記で定義した各種ディスプレイ装置を用いて作動され、カメラのライブビューでなく実際の場面(ユーザの目の前に広がる前景映像)と第1のイメージとがともに見えるため、ユーザが実際の自分の手を直接見ながら第1のイメージを写し描くことになる。そのため、ライブビューで発生するディレイがないという大きい利点がある。   That is, when using a device that draws a picture by driving the camera and displaying the first image on the live view screen, such as a smartphone, the actual hand movement and the hand movement on the live view screen. A minute delay occurs between the two. However, in the case of smart glasses or project glasses, it is operated using HUD (Head Up Display), HMD (Head Mounted Display), prism project, prism display, and various display devices defined above, and a live view of the camera. Instead, the actual scene (the foreground video spreading in front of the user's eyes) and the first image can be seen together, so that the user copies the first image while directly looking at his / her own hands. Therefore, there is a great advantage that there is no delay occurring in the live view.

また、本発明のアプリケーションが設けられたスマートフォン、デジタルカメラなどの機器を使用するためには、機器を固定するためにどこかに載置しなければならない不便さがあるが、スマートグラスまたはプロジェクトグラスは、基本的にユーザの目の前に載置されて自然に固定されるため、この点でも大きい利点がある。   In addition, in order to use a device such as a smartphone or a digital camera provided with the application of the present invention, there is an inconvenience that it must be placed somewhere in order to fix the device. Is basically placed in front of the user's eyes and is naturally fixed, which is also a great advantage in this respect.

一方、本発明の一実施形態によれば、ユーザの操作によって電子装置100が動く場合、ディスプレイ部110に表示された第1のイメージは固定された状態で、撮影イメージのみがライブビュー撮影に対応する撮影イメージに変更して表示されることができる。すなわち、「輪郭線を有し透明度が調節された第1のイメージ」は、ユーザが写し描きを所望するイメージであるため、電子装置100のディスプレイ部110の画面に固定されている。しかし、撮影イメージはライブビュー撮影によるイメージであり、電子装置100の動きに伴って撮影部でリアルタイムで撮影される映像が変わるため、ライブビュー撮影に対応する撮影イメージに変更して表示されることができる。   Meanwhile, according to an embodiment of the present invention, when the electronic apparatus 100 is moved by a user operation, the first image displayed on the display unit 110 is fixed, and only the captured image is compatible with live view shooting. The image can be changed to a captured image and displayed. In other words, the “first image having an outline and adjusted in transparency” is an image that the user desires to copy, and is thus fixed to the screen of the display unit 110 of the electronic device 100. However, the shot image is an image obtained by live view shooting, and since the video shot in real time by the shooting unit changes according to the movement of the electronic device 100, the shot image is changed to a shot image corresponding to live view shooting and displayed. Can do.

但し、これは本発明の一実施形態にすぎず、具現例に応じて、ユーザの操作によって電子装置100が動く場合、第1のイメージが電子装置100の動きに対応するように移動して表示されることができる。   However, this is merely an embodiment of the present invention, and when the electronic device 100 is moved by a user operation according to an embodiment, the first image is moved and displayed so as to correspond to the movement of the electronic device 100. Can be done.

図11は本発明の一実施形態による電子装置の制御方法を説明するためのフローチャートである。図11を参照すれば、先ず、特定イメージを選択してもらうことができる(S1101)。   FIG. 11 is a flowchart illustrating a method for controlling an electronic device according to an embodiment of the present invention. Referring to FIG. 11, first, a specific image can be selected (S1101).

そして、選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成することができる(S1102)。   Then, it is possible to generate a first image having an outline and an adjusted transparency with respect to the selected image (S1102).

そして、生成された第1のイメージを前記電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示することができる(S1103)。   Then, the generated first image can be displayed in a superimposed manner with a captured image corresponding to live view shooting of the electronic device (S1103).

ここで、第1のイメージを生成する一例については、図12を参照して具体的に説明する。   Here, an example of generating the first image will be specifically described with reference to FIG.

図12は本発明の一実施形態による、輪郭線を有し透明度が調節された第1のイメージを生成する方法を説明するためのフローチャートである。図12を参照すれば、先ず、選択してもらったイメージにおける輪郭線を抽出した第2のイメージを生成することができる(S1201)。   FIG. 12 is a flowchart for explaining a method of generating a first image having a contour line and adjusted in transparency according to an embodiment of the present invention. Referring to FIG. 12, first, it is possible to generate a second image in which a contour line in the selected image is extracted (S1201).

そして、選択してもらったイメージにおける透明度を調節した第3のイメージを生成することができる(S1202)。   Then, a third image in which the transparency of the selected image is adjusted can be generated (S1202).

そして、生成された第2、第3のイメージを結合して第1のイメージを生成することができる(S1203)。   The generated second and third images can be combined to generate the first image (S1203).

一方、上述の表示するステップ(S1103)では、電子装置のライブビュー撮影に対応する撮影イメージを下位レイヤーに配置し、生成された第1のイメージを上位レイヤーに配置して、撮影イメージと生成された第1のイメージとを重ねて表示することができる(S1204)。   On the other hand, in the display step (S1103) described above, the captured image corresponding to the live view shooting of the electronic device is arranged in the lower layer, and the generated first image is arranged in the upper layer to generate the captured image. The first image can be overlaid and displayed (S1204).

一方、表示するステップ(S1204)では、透明度調節対象を選択してもらうための第1の領域、透明度レベルを選択してもらうための第2の領域、前記撮影に対する自動焦点ON/OFF制御を選択してもらうための第3の領域をさらに含む画面を表示することができる。この際、第3のイメージを生成するステップ(S1202)では、第1の領域で選択してもらった透明度調節対象、第2の領域で選択してもらった透明度レベルに基づいて第1のイメージを生成することができる。以下では、透明度調節対象として輪郭線を除いた領域が選択される場合について図13を参照して具体的に説明する。   On the other hand, in the displaying step (S1204), a first area for selecting a transparency adjustment target, a second area for selecting a transparency level, and automatic focus ON / OFF control for the photographing are selected. A screen further including a third area for receiving the request can be displayed. At this time, in the step of generating the third image (S1202), the first image is selected based on the transparency adjustment target selected in the first area and the transparency level selected in the second area. Can be generated. Below, the case where the area | region except the outline is selected as transparency adjustment object is demonstrated concretely with reference to FIG.

図13は本発明の一実施形態による、輪郭線を有し透明度が調節された第1のイメージを生成する方法を説明するためのフローチャートである。図13を参照すれば、先ず、ライブビュー撮影に対応する撮影イメージと重なって表示される第1のイメージの透明度レベルを、第2の領域で選択してもらうことができる(S1301)。   FIG. 13 is a flowchart illustrating a method for generating a first image having a contour line and an adjusted transparency according to an exemplary embodiment of the present invention. Referring to FIG. 13, first, the transparency level of the first image displayed to overlap the captured image corresponding to the live view shooting can be selected in the second area (S1301).

この場合、第3のイメージのRGBA値のうち、選択してもらった透明度レベルに対応するA(ALPHA)値を適用して新しい第3のイメージを生成することができる(S1302)。   In this case, among the RGBA values of the third image, an A (ALPHA) value corresponding to the selected transparency level can be applied to generate a new third image (S1302).

そして、予め生成された、抽出された輪郭線に関連する第2のイメージに、S1302ステップで生成された第3のイメージを結合することで、新しい第1のイメージを生成することができる(S1303)。   Then, a new first image can be generated by combining the third image generated in step S1302 with the second image related to the extracted contour line generated in advance (S1303). ).

そして、S1303ステップで生成された第1のイメージを、電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示することができる(S1304)。   Then, the first image generated in step S1303 can be displayed so as to overlap with a captured image corresponding to live view shooting of the electronic device (S1304).

一方、上述の表示するステップ(S1204)では、精密描写メニューが選択されると、第1のイメージを複数の領域に区画して電子装置のライブビュー撮影に対応する撮影イメージとともに表示することができる。複数の領域のうち一領域が選択されると、選択された一領域を拡大して電子装置のライブビュー撮影に対応する撮影イメージとともに表示することができる。   On the other hand, in the displaying step (S1204) described above, when the precise depiction menu is selected, the first image can be divided into a plurality of areas and displayed together with the captured image corresponding to the live view shooting of the electronic device. . When one area is selected from the plurality of areas, the selected area can be enlarged and displayed together with a captured image corresponding to live view shooting of the electronic device.

また、本発明の一実施形態による制御方法は、生成された第1のイメージを格納するステップをさらに含むことができる。   In addition, the control method according to an embodiment of the present invention may further include a step of storing the generated first image.

また、本発明の一実施形態による制御方法は、生成された第1のイメージをイメージ交換/取り引きサーバに送信するステップをさらに含むことができる。   In addition, the control method according to an embodiment of the present invention may further include transmitting the generated first image to the image exchange / transaction server.

図14は本発明の一実施形態による着用型電子装置を用いて絵を写し描く方法の一例を示した図面である。図14を参照すれば、着用型電子装置200は、例えば、プロジェクトグラスとして具現されることができる。この場合、プロジェクトグラスを着用したユーザは、prism project、prism displayによって「輪郭線を有し透明度が調節された第1のイメージ」を目1403で見ながら、これとともにユーザの目1403の前に広がる「絵を描いている手1401」と「ユーザが第1のイメージを見ながら写し描いた絵が描かれた紙1402」を前景として見ることができる。   FIG. 14 is a view illustrating an example of a method of drawing a picture using a wearable electronic device according to an embodiment of the present invention. Referring to FIG. 14, the wearable electronic device 200 may be implemented as a project glass, for example. In this case, the user wearing the project glass spreads in front of the user's eyes 1403 while viewing the “first image with the contour line and the adjusted transparency” with the eyes 1403 by the prism project and the prism display. It is possible to see “the hand 1401 drawing a picture” and “paper 1402 on which a picture copied by the user while viewing the first image” as the foreground.

これにより、ユーザは、着用型電子装置を用いて、目に見える第1のイメージ及び前景映像を用いて紙などの媒体に絵をさらに容易に写し描くことができる。   Accordingly, the user can more easily copy the picture on a medium such as paper using the first electronic image and the foreground image that are visible using the wearable electronic device.

一方、上述の本発明の様々な実施形態による電子装置の制御方法は、プログラムコードで具現されて様々な非一時的読み取り可能な媒体(non‐transitory computer readable medium)に格納された状態で各サーバまたは機器に提供されることができる。   Meanwhile, the above-described method for controlling an electronic device according to various embodiments of the present invention may be implemented by each server in a state where it is stored in various non-transitory computer readable media embodied in program code. Or it can be provided to the equipment.

非一時的読み取り可能な媒体とは、レジスタ、キャッシュ、メモリなどの短い瞬間にデータを格納する媒体でなく、半永久的にデータを格納し、機器により読み取り(reading)可能な媒体を意味する。具体的には、上述の様々なアプリケーションまたはプログラムは、CD、DVD、ハードディスク、ブルーレイディスク、USB、メモリカード、ROMなどの非一時的読み取り可能な媒体に格納されて提供されることができる。   The non-transitory readable medium means a medium that stores data semipermanently and can be read by a device, not a medium that stores data at a short moment such as a register, a cache, or a memory. Specifically, the various applications or programs described above can be provided by being stored in a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disc, a USB, a memory card, and a ROM.

また、以上では本発明の好ましい実施形態について図示及び説明したが、本発明は上述の特定実施形態に限定されず、特許請求の範囲で請求する本発明の要旨を逸脱することなく、当該発明が属する技術分野において通常の知識を有する者により様々な変形実施が可能であることは勿論、このような変形実施は、本発明の技術的思想や展望から個別的に理解されてはならない。   Although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the present invention is not deviated from the gist of the present invention claimed in the scope of claims. It goes without saying that various modifications can be made by those having ordinary knowledge in the technical field to which the invention belongs, and such modifications should not be understood individually from the technical idea and perspective of the present invention.

Claims (11)

電子装置の制御方法であって、
特定イメージを選択してもらうステップと、
前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成するステップと、
前記生成された第1のイメージを、前記電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示するステップと、
を含み、
前記生成するステップは、
前記選択してもらったイメージにおける輪郭線を抽出した第2のイメージを生成するステップと、
前記選択してもらったイメージにおける透明度を調節した第3のイメージを生成するステップと、
前記生成された第2、第3のイメージを結合して前記第1のイメージを生成するステップと、
を含み、
前記表示するステップでは、
透明度調節対象を選択してもらうための第1の領域、透明度レベルを選択してもらうための第2の領域、前記撮影に対する自動焦点ON/OFF制御を選択してもらうための第3の領域をさらに含む画面を表示する、制御方法。
An electronic device control method comprising:
Having a specific image selected,
Generating a first image having a contour and an adjusted transparency for the selected image;
Displaying the generated first image superimposed on a captured image corresponding to live view shooting of the electronic device;
Only including,
The generating step includes
Generating a second image obtained by extracting a contour line in the selected image;
Generating a third image with adjusted transparency in the selected image;
Combining the generated second and third images to generate the first image;
Including
In the displaying step,
A first area for selecting a transparency adjustment target, a second area for selecting a transparency level, and a third area for selecting automatic focus ON / OFF control for the photographing. Furthermore, the control method which displays the screen which contains .
前記透明度調節対象は、
前記第1のイメージに含まれた輪郭線及び前記第1のイメージで前記輪郭線を除いた領域の少なくとも一つを含み、
前記第1のイメージを生成するステップでは、
前記第1の領域で選択してもらった透明度調節対象、前記第2の領域で選択してもらった透明度レベルに基づいて前記第1のイメージを生成する、請求項に記載の制御方法。
The transparency adjustment target is
Including at least one of a contour line included in the first image and a region excluding the contour line in the first image;
In the step of generating the first image,
The first region in the selected ask transparency controlled system, to generate the first image based on said second transparency levels were asked to select the region, control method according to claim 1.
前記第1のイメージを生成するステップでは、
前記選択してもらったイメージのRGBA値のうち、前記選択してもらった透明度レベルに対応するA(ALPHA)値を適用することで前記第1のイメージを生成する、請求項に記載の制御方法。
In the step of generating the first image,
Of RGBA values of the image I was asked to the selection, to generate the first image by applying the A (ALPHA) values corresponding to the transparency levels were asked to the selection, control of claim 1 Method.
前記表示するステップでは、
前記撮影イメージを下位レイヤーに配置し、前記生成された第1のイメージを上位レイヤーに配置して、前記撮影イメージと前記生成された第1のイメージとを重ねて表示する、請求項1からのいずれか一項に記載の制御方法。
In the displaying step,
The captured images are arranged in the lower layer, the first image the generated by arranging the upper layer, displays superimposed a first image and the captured image is the product, claims 1 to 3 The control method according to any one of the above.
前記表示するステップは、
精密描写メニューが選択されると、前記第1のイメージを複数の領域に区画して、前記電子装置のライブビュー撮影に対応する撮影イメージとともに表示し、
前記複数の領域のうち一領域が選択されると、前記選択された一領域を拡大して、前記電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示するステップをさらに含む、請求項1からのいずれか一項に記載の制御方法。
The displaying step includes
When the precise depiction menu is selected, the first image is divided into a plurality of areas and displayed together with a captured image corresponding to live view shooting of the electronic device,
2. The method according to claim 1, further comprising a step of enlarging the selected area when the area is selected from the plurality of areas and displaying the enlarged area on a captured image corresponding to live view shooting of the electronic apparatus. 5. The control method according to any one of items 1 to 4 .
前記生成された第1のイメージをイメージ交換/取り引きサーバに送信するステップをさらに含む、請求項1からのいずれか一項に記載の制御方法。 Further comprising control method according to any one of claims 1 to 5 the step of transmitting a first image the generated the image replacement / transaction server. 電子装置であって、
撮影部と、
画面を表示するディスプレイ部と、
特定イメージを選択してもらうためのユーザの入力を受信する入力部と、
前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成し、前記生成された第1のイメージを、前記電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示するように前記ディスプレイ部を制御する制御部と、を含み、
前記制御部は、
前記選択してもらったイメージにおける輪郭線を抽出した第2のイメージを生成し、前記選択してもらったイメージにおける透明度を調節した第3のイメージを生成して、前記生成された第2、第3のイメージを結合して前記第1のイメージを生成し、
前記制御部は、
透明度調節対象を選択してもらうための第1の領域、透明度レベルを選択してもらうための第2の領域、前記撮影に対する自動焦点ON/OFF制御を選択してもらうための第3の領域をさらに含む画面を表示するように、前記ディスプレイ部を制御する、電子装置。
An electronic device,
A shooting section;
A display unit for displaying a screen;
An input unit for receiving user input for selecting a specific image;
A first image having an outline and an adjusted transparency is generated for the selected image, and the generated first image is captured corresponding to live view shooting of the electronic device. look including a control unit for controlling the display to display overlaid with the image,
The controller is
A second image obtained by extracting a contour line in the selected image is generated, a third image in which transparency is adjusted in the selected image is generated, and the generated second and second images are generated. 3 images are combined to generate the first image;
The controller is
A first area for selecting a transparency adjustment target, a second area for selecting a transparency level, and a third area for selecting automatic focus ON / OFF control for the photographing. Furthermore, the electronic apparatus which controls the said display part so that the screen containing it may be displayed .
前記透明度調節対象は、
前記第1のイメージに含まれた輪郭線及び前記第1のイメージで前記輪郭線を除いた領域の少なくとも一つを含み、
前記制御部は、
前記第1の領域で選択してもらった透明度調節対象、前記第2の領域で選択してもらった透明度レベルに基づいて前記第1のイメージを生成する、請求項に記載の電子装置。
The transparency adjustment target is
Including at least one of a contour line included in the first image and a region excluding the contour line in the first image;
The controller is
The electronic device according to claim 7 , wherein the first image is generated based on a transparency adjustment target selected in the first region and a transparency level selected in the second region.
前記制御部は、
前記選択してもらったイメージのRGBA値のうち、前記選択してもらった透明度レベルに対応するA(ALPHA)値を適用することで前記第1のイメージを生成する、請求項に記載の電子装置。
The controller is
The electronic device according to claim 8 , wherein the first image is generated by applying an A (ALPHA) value corresponding to the selected transparency level among the RGBA values of the selected image. apparatus.
格納部をさらに含み、
前記制御部が、前記第1のイメージのための別のフォルダに前記生成された第3のイメージを格納するように、前記格納部を制御する、請求項8または9に記載の電子装置。
A storage unit,
10. The electronic device according to claim 8 , wherein the control unit controls the storage unit to store the generated third image in another folder for the first image.
電子装置の制御方法をコンピュータに実行させるプログラムであって、
前記制御方法が、
特定イメージを選択してもらうステップと、
前記選択してもらったイメージに対して、輪郭線を有し透明度が調節された第1のイメージを生成するステップと、
前記生成された第1のイメージを、前記電子装置のライブビュー撮影に対応する撮影イメージと重ねて表示するステップと、を含
前記生成するステップは、
前記選択してもらったイメージにおける輪郭線を抽出した第2のイメージを生成するステップと、
前記選択してもらったイメージにおける透明度を調節した第3のイメージを生成するステップと、
前記生成された第2、第3のイメージを結合して前記第1のイメージを生成するステップと、
を含み、
前記表示するステップでは、
透明度調節対象を選択してもらうための第1の領域、透明度レベルを選択してもらうための第2の領域、前記撮影に対する自動焦点ON/OFF制御を選択してもらうための第3の領域をさらに含む画面を表示する、プログラム。
A program for causing a computer to execute an electronic device control method,
The control method is
Having a specific image selected,
Generating a first image having a contour and an adjusted transparency for the selected image;
A first image said generated viewing including the steps of: displaying overlapping the photographing image corresponding to the live view photographing of the electronic device,
The generating step includes
Generating a second image obtained by extracting a contour line in the selected image;
Generating a third image with adjusted transparency in the selected image;
Combining the generated second and third images to generate the first image;
Including
In the displaying step,
A first area for selecting a transparency adjustment target, a second area for selecting a transparency level, and a third area for selecting automatic focus ON / OFF control for the photographing. A program that displays a screen that further includes it .
JP2016512849A 2013-05-29 2014-05-27 Electronic device, electronic device control method, and program Expired - Fee Related JP6246334B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2013-0061304 2013-05-29
KR1020130061304A KR101361560B1 (en) 2013-05-29 2013-05-29 Electronic appratus, control method of electronic appratus, and computer readable recording medium
KR1020130124844A KR101352880B1 (en) 2013-10-18 2013-10-18 Electronic glasses, control method of electronic glasses, and computer readable recording medium
KR10-2013-0124844 2013-10-18
PCT/KR2014/004702 WO2014193136A1 (en) 2013-05-29 2014-05-27 Electronic device, control method of electronic device and computer readable recording medium

Publications (2)

Publication Number Publication Date
JP2016531453A JP2016531453A (en) 2016-10-06
JP6246334B2 true JP6246334B2 (en) 2017-12-13

Family

ID=51989097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016512849A Expired - Fee Related JP6246334B2 (en) 2013-05-29 2014-05-27 Electronic device, electronic device control method, and program

Country Status (5)

Country Link
US (1) US9998671B2 (en)
EP (1) EP3007135A4 (en)
JP (1) JP6246334B2 (en)
CN (1) CN105247574B (en)
WO (1) WO2014193136A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7439985B1 (en) 2023-07-24 2024-02-28 いすゞ自動車株式会社 Oil level gauge tube fixed structure

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105430264B (en) * 2015-11-26 2019-03-05 努比亚技术有限公司 Mobile terminal and its shooting processing method
US10665004B2 (en) * 2016-04-14 2020-05-26 C. J. Wereski System and method for editing and monetizing personalized images at a venue
KR102587865B1 (en) * 2016-11-30 2023-10-10 엘지디스플레이 주식회사 Display device and image processing method thereof
CN112351221B (en) * 2019-08-09 2024-02-13 北京字节跳动网络技术有限公司 Image special effect processing method, device, electronic equipment and computer readable storage medium

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0935878B1 (en) * 1997-09-03 2011-09-28 Casio Computer Co., Ltd. Electronic still camera having photographed image reproducing function
JP4620271B2 (en) * 2000-03-14 2011-01-26 富士フイルム株式会社 Image processing method
JP2004128588A (en) * 2002-09-30 2004-04-22 Seiko Epson Corp Imaging unit
US7656429B2 (en) * 2004-02-04 2010-02-02 Hewlett-Packard Development Company, L.P. Digital camera and method for in creating still panoramas and composite photographs
JP4548144B2 (en) * 2005-02-23 2010-09-22 カシオ計算機株式会社 Digital camera device and through image display method
KR101351091B1 (en) * 2006-12-22 2014-01-14 삼성전자주식회사 Image forming apparatus and control method of consecutive photographing image
JP3151886U (en) * 2009-04-28 2009-07-09 大日本印刷株式会社 Information processing system
CN101763649B (en) * 2009-12-30 2012-07-25 北京航空航天大学 Method for drawing enhanced model contour surface point
KR20120041049A (en) * 2010-10-20 2012-04-30 엘지전자 주식회사 Display apparatus and display control method
KR101769542B1 (en) * 2011-04-18 2017-08-18 엘지전자 주식회사 Mobile terminal and control method therof
JP5779959B2 (en) * 2011-04-21 2015-09-16 株式会社リコー Imaging device
JP2013182211A (en) * 2012-03-02 2013-09-12 Nec Casio Mobile Communications Ltd Portable terminal, handwriting support method, and program
CN102800129B (en) * 2012-06-20 2015-09-30 浙江大学 A kind of scalp electroacupuncture based on single image and portrait edit methods
US20140211031A1 (en) * 2013-01-30 2014-07-31 Microsoft Corporation Auto picture alignment correction
CN103116898B (en) * 2013-01-30 2016-01-06 深圳深讯和科技有限公司 Generate method and the device of ink and wash style image
US9343043B2 (en) * 2013-08-01 2016-05-17 Google Inc. Methods and apparatus for generating composite images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7439985B1 (en) 2023-07-24 2024-02-28 いすゞ自動車株式会社 Oil level gauge tube fixed structure

Also Published As

Publication number Publication date
CN105247574A (en) 2016-01-13
JP2016531453A (en) 2016-10-06
CN105247574B (en) 2018-09-21
EP3007135A1 (en) 2016-04-13
US20160088229A1 (en) 2016-03-24
EP3007135A4 (en) 2016-12-07
WO2014193136A1 (en) 2014-12-04
US9998671B2 (en) 2018-06-12

Similar Documents

Publication Publication Date Title
KR102411100B1 (en) Method and appratus for processing screen using device
US20220004255A1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR102618495B1 (en) Apparatus and method for processing image
EP2956843B1 (en) Human-body-gesture-based region and volume selection for hmd
US10591729B2 (en) Wearable device
US10133407B2 (en) Display apparatus, display system, method for controlling display apparatus, and program
EP2947867B1 (en) Mobile terminal and method of controlling the same
US10757335B2 (en) Mobile terminal
JP6246334B2 (en) Electronic device, electronic device control method, and program
US20190227694A1 (en) Device for providing augmented reality service, and method of operating the same
US20200227009A1 (en) Hmd device and method for controlling same
US20150054730A1 (en) Wristband type information processing apparatus and storage medium
EP3154255B1 (en) Imaging device and video generation method
KR102404790B1 (en) Method and apparatus for changing focus of camera
KR102361025B1 (en) Wearable glasses and method for displaying image therethrough
KR102431712B1 (en) Electronic apparatus, method for controlling thereof and computer program product thereof
US11675198B2 (en) Eyewear including virtual scene with 3D frames
CN107656794B (en) Interface display method and device
CN111782053B (en) Model editing method, device, equipment and storage medium
KR101352880B1 (en) Electronic glasses, control method of electronic glasses, and computer readable recording medium
KR101361560B1 (en) Electronic appratus, control method of electronic appratus, and computer readable recording medium
US10122929B2 (en) Digital image processing device which creates and displays an augmented reality (AR) image
KR20140031680A (en) Mobile terminal and control method for mobile terminal

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R150 Certificate of patent or registration of utility model

Ref document number: 6246334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees