WO2019066281A1 - Electronic device for providing image related to inputted information, and operating method therefor - Google Patents

Electronic device for providing image related to inputted information, and operating method therefor Download PDF

Info

Publication number
WO2019066281A1
WO2019066281A1 PCT/KR2018/010301 KR2018010301W WO2019066281A1 WO 2019066281 A1 WO2019066281 A1 WO 2019066281A1 KR 2018010301 W KR2018010301 W KR 2018010301W WO 2019066281 A1 WO2019066281 A1 WO 2019066281A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
electronic device
processor
request
Prior art date
Application number
PCT/KR2018/010301
Other languages
French (fr)
Korean (ko)
Inventor
최동범
이상진
정승혜
원종훈
이해동
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/651,156 priority Critical patent/US11341595B2/en
Publication of WO2019066281A1 publication Critical patent/WO2019066281A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping

Definitions

  • Various embodiments of the present invention are directed to an electronic device capable of generating a virtual image associated with input information and a method of operation thereof.
  • Various services include basic services such as telephone calls and text transmission, and playback and editing of multimedia such as image / video.
  • Information exchanged between electronic devices includes peripheral information (e.g., time information, place information, etc.) of a user or an electronic device.
  • peripheral information e.g., time information, place information, etc.
  • the electronic device can transmit the photographed image to an external device in order to acquire an image of improved image quality than the image acquired through the image sensor.
  • the electronic device can transmit an image search condition to an external device to search for an image corresponding to the condition.
  • the method of improving the image quality of the photographed image or retrieving the image stored in the external device as described above has a limitation in providing a virtual image that the user wants to see, so that it is difficult to perfectly satisfy the user's needs.
  • Various embodiments of the present invention relate to an electronic device capable of generating a virtual image and a method of operation thereof.
  • An electronic device includes a communication module and a processor, wherein the processor receives input via an external device operatively connected through the electronic device or the communication module, Wherein the status information includes time information and object information and searches at least one image corresponding to the status information among one or more images stored in the electronic device or the external device, Providing at least one image retrieved when a corresponding one of the at least one image is retrieved and, if the at least one image corresponding to the context information is not retrieved, Using at least one other corresponding image, Generating an image corresponding to the information, and sulfur, and is set to provide the generated image.
  • the method of operation of an electronic device includes receiving an input via an external device functionally connected through the electronic device or a communication module of the electronic device and verifying contextual information associated with the input, Wherein the context information includes time information and object information and acquires at least one image corresponding to a part of the context information among the one or more images stored in the electronic device or the external device, To generate an image corresponding to the situation information, and to provide the generated image.
  • the context information includes time information and object information and acquires at least one image corresponding to a part of the context information among the one or more images stored in the electronic device or the external device, To generate an image corresponding to the situation information, and to provide the generated image.
  • an electronic device may implement a virtual image that a user would like to see by acquiring each object from a plurality of images and combining the acquired objects, using an image generation condition received from a user .
  • Figure 1 illustrates an environment for a network in accordance with various embodiments of the present invention.
  • Figure 2 shows a block diagram of an electronic device according to various embodiments of the present invention.
  • Fig. 3 shows a conceptual diagram for explaining the operation of an electronic device and an external device according to various embodiments of the present invention.
  • 4A is a block diagram of an electronic device in accordance with various embodiments of the present invention.
  • 4B is a block diagram of an external device in accordance with various embodiments of the present invention.
  • FIG. 5 is a flow chart for providing an image in which an electronic device according to various embodiments of the present invention satisfies an image generation condition.
  • Figure 6 is a detailed flow diagram of an operation in which an electronic device according to various embodiments of the present invention retrieves an image that satisfies part of an image generation condition and generates an image that satisfies the image generation condition.
  • FIG 7 and 8 are cross-sectional signaling diagrams of an electronic device and an external device for providing an image satisfying an image generation condition according to various embodiments of the present invention.
  • FIGS 9A and 9B illustrate examples of user interfaces for receiving image creation requests in accordance with various embodiments of the present invention.
  • FIG. 10 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to determine an image generation condition.
  • Figure 11 shows an example of determining an image generation condition based on an image generation request according to various embodiments of the present invention.
  • FIG. 12 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to obtain an object image to be included in a request image.
  • Figure 13 shows information of images and images stored in a first area of memory in accordance with various embodiments of the present invention.
  • Figure 14 shows information of images and images stored in a second area of memory in accordance with various embodiments of the present invention.
  • 15 is a detailed flowchart of an operation for an electronic device to generate a request image according to various embodiments of the present invention.
  • 16 is a detailed flow diagram of an operation for an electronic device to generate an object image that fails acquisition in accordance with various embodiments of the present invention.
  • FIG. 17 illustrates one example in which an electronic device according to various embodiments of the present invention generates a request image.
  • 18 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to generate a request image.
  • Figure 19 illustrates a user interface for receiving user feedback in accordance with various embodiments of the present invention.
  • 20 is a flow diagram of an operation of storing an image acquired by an external device in a memory in accordance with various embodiments of the present invention.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, in accordance with various embodiments.
  • an electronic device 101 in a network environment 100 communicates with an electronic device 102 via a first network 198 (e.g., near-field wireless communication) or a second network 199 (E. G., Remote wireless communication).
  • a first network 198 e.g., near-field wireless communication
  • a second network 199 E. G., Remote wireless communication
  • ≪ / RTI &gt the electronic device 101 is capable of communicating with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, a sensor module 176, an interface 177, a haptic module 179, a camera module 180, a power management module 188, a battery 189, a communication module 190, a subscriber identity module 196, and an antenna module 197 ).
  • at least one (e.g., display device 160 or camera module 180) of these components may be omitted or other components may be added to the electronic device 101.
  • some components such as, for example, a sensor module 176 (e.g., a fingerprint sensor, an iris sensor, or an illuminance sensor) embedded in a display device 160 Can be integrated.
  • Processor 120 may be configured to operate at least one other component (e.g., hardware or software component) of electronic device 101 connected to processor 120 by driving software, e.g., And can perform various data processing and arithmetic operations.
  • Processor 120 loads and processes commands or data received from other components (e.g., sensor module 176 or communication module 190) into volatile memory 132 and processes the resulting data into nonvolatile memory 134.
  • the processor 120 may operate in conjunction with a main processor 121 (e.g., a central processing unit or an application processor) and, independently, or additionally or alternatively, Or a co-processor 123 (e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or a communications processor) specific to the designated function.
  • a main processor 121 e.g., a central processing unit or an application processor
  • a co-processor 123 e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or a communications processor
  • the coprocessor 123 may be operated separately from or embedded in the main processor 121.
  • the coprocessor 123 may be used in place of the main processor 121, for example, while the main processor 121 is in an inactive (e.g., sleep) state, At least one component (e.g., display 160, sensor module 176, or communications module 176) of the components of electronic device 101 (e.g., 190) associated with the function or states.
  • the coprocessor 123 e.g., an image signal processor or communications processor
  • the coprocessor 123 is implemented as a component of some other functionally related component (e.g., camera module 180 or communication module 190) .
  • Memory 130 may store various data used by at least one component (e.g., processor 120 or sensor module 176) of electronic device 101, e.g., software (e.g., program 140) ), And input data or output data for the associated command.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134.
  • the program 140 may be software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144,
  • the input device 150 is an apparatus for receiving a command or data to be used for a component (e.g., processor 120) of the electronic device 101 from the outside (e.g., a user) of the electronic device 101,
  • a component e.g., processor 120
  • a microphone, a mouse, or a keyboard may be included.
  • the sound output device 155 is a device for outputting a sound signal to the outside of the electronic device 101.
  • the sound output device 155 may be a speaker for general use such as a multimedia reproduction or a sound reproduction, .
  • the receiver may be formed integrally or separately with the speaker.
  • Display device 160 may be an apparatus for visually providing information to a user of electronic device 101 and may include, for example, a display, a hologram device, or a projector and control circuitry for controlling the projector. According to one embodiment, the display device 160 may include a touch sensor or a pressure sensor capable of measuring the intensity of the pressure on the touch.
  • the audio module 170 is capable of bi-directionally converting sound and electrical signals. According to one embodiment, the audio module 170 is configured to acquire sound through the input device 150, or to acquire sound from the sound output device 155, or an external device (e.g., an electronic device) that is wired or wirelessly connected to the electronic device 101
  • the device 102 e.g., a speaker or headphone
  • the sensor module 176 may generate an electrical signal or data value corresponding to an internal operating state (e.g., power or temperature) of the electronic device 101, or an external environmental condition.
  • the sensor module 176 may be a gesture sensor, a gyro sensor, a barometric sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, Or an illuminance sensor.
  • the interface 177 may support a designated protocol that may be wired or wirelessly connected to an external device (e.g., the electronic device 102).
  • the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • audio interface an audio interface
  • connection terminal 178 may be a connector such as an HDMI connector, a USB connector, an SD card connector, or an audio connector (not shown) capable of physically connecting the electronic device 101 and an external device For example, a headphone connector).
  • the haptic module 179 may convert electrical signals into mechanical stimuli (e.g., vibrations or movements) or electrical stimuli that the user may perceive through tactile or kinesthetic sensations.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture a still image and a moving image.
  • the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
  • the power management module 188 is a module for managing the power supplied to the electronic device 101, and may be configured as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 is an apparatus for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module 190 is responsible for establishing a wired or wireless communication channel between the electronic device 101 and an external device (e.g., electronic device 102, electronic device 104, or server 108) And the like.
  • Communication module 190 may include one or more communication processors that support wired communication or wireless communication, operating independently of processor 120 (e.g., an application processor).
  • the communication module 190 may include a wireless communication module 192 (e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (E.g., a local area network (LAN) communication module, or a power line communication module), and the corresponding communication module may be used to communicate with a first network 198 (e.g., Bluetooth, WiFi direct, Communication network) or a second network 199 (e.g., a telecommunications network such as a cellular network, the Internet, or a computer network (e.g., a LAN or WAN)).
  • a wireless communication module 192 e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 E.g., a local area network (LAN) communication module, or a power line communication module
  • the wireless communication module 192 may use the user information stored in the subscriber identification module 196 to identify and authenticate the electronic device 101 within the communication network.
  • the antenna module 197 may include one or more antennas for externally transmitting or receiving signals or power.
  • the communication module 190 (for example, the wireless communication module 192) can transmit a signal to or receive a signal from an external device through an antenna suitable for the communication method.
  • Some of the components are connected to each other via a communication method (e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.
  • a communication method e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 via the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be the same or a different kind of device as the electronic device 101.
  • all or some of the operations performed in the electronic device 101 may be performed in another or a plurality of external devices.
  • the electronic device 101 in the event that the electronic device 101 has to perform some function or service automatically or upon request, the electronic device 101 may be capable of executing the function or service itself, And may request an external device to perform at least some functions associated therewith.
  • the external device that receives the request may execute the requested function or additional function, and may forward the result to the electronic device 101.
  • the electronic device 101 can directly or additionally process the received result to provide the requested function or service.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • the electronic device can be various types of devices.
  • the electronic device can include, for example, at least one of a portable communication device (e.g., a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device e.g., a smart phone
  • a computer device e.g., a laptop, a desktop, a smart phone
  • portable multimedia device e.g., a portable multimedia device
  • portable medical device e.g., a portable medical device
  • camera e.g., a camera
  • a wearable device e.g., a portable medical device
  • first component is "(functionally or communicatively) connected” or “connected” to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).
  • module includes units comprised of hardware, software, or firmware and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits.
  • a module may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions.
  • the module may be configured as an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document may include instructions stored on a machine-readable storage medium (e.g., internal memory 136 or external memory 138) readable by a machine (e.g., a computer) Software (e.g., program 140).
  • the device may include an electronic device (e.g., electronic device 101) in accordance with the disclosed embodiments as an apparatus capable of calling stored instructions from the storage medium and operating according to the called instructions.
  • a processor e.g., processor 120
  • the processor may perform the function corresponding to the instruction, either directly or using other components under the control of the processor.
  • the instructions may include code generated or executed by the compiler or interpreter.
  • a device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily on the storage medium.
  • the method according to various embodiments disclosed herein may be provided in a computer program product.
  • a computer program product can be traded between a seller and a buyer as a product.
  • a computer program product may be distributed in the form of a machine readable storage medium (eg, compact disc read only memory (CD-ROM)) or distributed online through an application store (eg PlayStore TM ).
  • an application store eg PlayStore TM
  • at least a portion of the computer program product may be temporarily stored, or temporarily created, on a storage medium such as a manufacturer's server, a server of an application store, or a memory of a relay server.
  • Each of the components may be comprised of a single entity or a plurality of entities, and some of the subcomponents described above may be omitted, or other subcomponents May be further included in various embodiments.
  • some components e.g., modules or programs
  • FIG. 2 is a block diagram 200 of a camera module 180, in accordance with various embodiments.
  • the camera module 180 includes a lens assembly 210, a flash 220, an image sensor 230, an image stabilizer 240, a memory 250 (e.g., a buffer memory), or an image signal processor (260).
  • the lens assembly 210 can collect light emitted from a subject, which is an object of image photographing.
  • the lens assembly 210 may include one or more lenses.
  • the camera module 180 may include a plurality of lens assemblies 210. In this case, the camera module 180 may be, for example, a dual camera, a 360 degree camera, or a spherical camera.
  • the plurality of lens assemblies 210 may have the same lens properties (e.g., angle of view, focal length, autofocus, f number, or optical zoom), or at least one lens assembly may have at least one Lt; / RTI > may have different lens properties.
  • the lens assembly 210 may include, for example, a wide-angle lens or a telephoto lens.
  • the flash 220 may emit a light source used to enhance the light emitted from the subject. Flash 220 may include one or more light emitting diodes (e.g., red-green-blue (RGB) LEDs, white LEDs, infrared LEDs, or ultraviolet LEDs), or xenon lamps.
  • RGB red-green-blue
  • the image sensor 230 can acquire an image corresponding to the subject by converting the light transmitted from the subject through the lens assembly 210 into an electrical signal.
  • the image sensor 230 may include a selected one of the image sensors of different properties, such as, for example, an RGB sensor, a BW (black and white) sensor, an IR sensor, A plurality of image sensors having different attributes, or a plurality of image sensors having different attributes.
  • Each of the image sensors included in the image sensor 230 may be implemented by, for example, a CCD (charged coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor.
  • the image stabilizer 240 is configured to respond to the movement of the camera module 180 or the electronic device 101 including it to at least partially compensate for the negative effects (e.g., image jitter) At least one lens or image sensor 230 included in the assembly 210 may be moved or controlled in a particular direction (e.g., adjusting the read-out timing).
  • the image stabilizer 240 may be implemented as an optical image stabilizer, for example, and may include a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 180 Can be used to detect the motion.
  • the memory 250 may at least temporarily store at least a portion of the image acquired via the image sensor 230 for subsequent image processing operations. For example, if image acquisition according to the shutter is delayed or a plurality of images are acquired at high speed, the acquired original image (e.g., a high resolution image) is stored in the memory 250, and a corresponding copy An image (e.g., a low resolution image) can be previewed via the display device 160. Thereafter, at least a portion of the original image that was stored in the memory 250 may be acquired and processed by, for example, the image signal processor 260 if the specified condition is satisfied (e.g., user input or system command). According to one embodiment, the memory 250 may be comprised of at least a portion of the memory 130, or a separate memory operated independently thereof.
  • the image signal processor 260 performs image processing (e.g., depth map generation, three-dimensional modeling, panorama generation, feature point extraction, and the like) on an image obtained through the image sensor 230 or an image stored in the memory 250, Image synthesis, or image compensation (e.g., noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening, or softening) 260 may perform control (e.g., exposure time control, or lead-out timing control, etc.) for at least one of the components (e.g., image sensor 230) included in camera module 180.
  • image processing e.g., depth map generation, three-dimensional modeling, panorama generation, feature point extraction, and the like
  • Image synthesis e.g., image compensation
  • control e.g., exposure time control, or lead-out timing control, etc.
  • the image processed by the signal processor 260 may be stored back into the memory 250 for further processing or may be stored in the external components of the camera module 180 such as the memory 130,
  • the image signal processor 260 may comprise at least a portion of the processor 120 or may be coupled to the processor 120 and /
  • the image processed by the image signal processor 260 may be processed by the processor 120 as it is or after additional image processing, and then displayed on the display device (not shown) 160 < / RTI >
  • the electronic device 101 may include two or more camera modules 180, each having a different attribute or function.
  • at least one camera module 180 may be a wide angle camera or a front camera, and at least one other camera module may be a telephoto camera or a rear camera.
  • FIG. 3 shows a conceptual diagram for explaining the operation of an electronic device and an external device according to various embodiments of the present invention.
  • the electronic device 101 may include an image sensor 321, an ISP 323 and a memory 325.
  • the external device 300 may include a recognition module 331, an ISP 333 and a storage 335.
  • the recognition module 331 may be a logical module or a processor of the external device 300.
  • the ISP 333 may also be implemented as a processor of the external device 300.
  • the processor of the external device 300 may perform both recognition and image processing.
  • the electronic device 101 may include a communication module (e.g., a communication interface 170 or a communication module 220) capable of transmitting and receiving data with the external device 300.
  • the external device 300 may include a communication module capable of transmitting and receiving data with the electronic device 101.
  • the image sensor 321 may acquire an image for an external object and generate a corresponding raw image 322 (raw image).
  • the image sensor 321 may pass the low image 322 to the ISP 323.
  • the image sensor 321 may generate a small row image 324 and transmit it to the external device 300 via the communication module.
  • a processor of the electronic device 101 other than the image sensor 321 may generate a small row image 324, and the generated small row image 324 may be transmitted to an external electronic device 300).
  • the image sensor 321 can transmit the raw image 322 in a compressed state to the ISP 323 or the external device 300.
  • the image sensor 321 may be compressed and stored in a memory within the image sensor 321 for some processing of the raw image 322.
  • the recognition module 331 of the external device 300 can obtain the small row image 324 through the communication module and segment the at least one image region from the small row image 324.
  • the recognition module 331 may recognize each of at least one image region separated by the segmentation result.
  • Correction area information 332 including at least one of information associated with a plurality of image areas generated from the recognition module 331, for example, coordinate information of the image area or recognition results, may be generated.
  • the correction area information 332 may be transmitted to the electronic device 101.
  • the ISP 323 can correct the row image 322 using the correction area information 332, and thus the corrected image can be generated.
  • the corrected image may have a format of YUV, for example.
  • the corrected image may be stored in memory 325. [ Or the corrected image may be compressed according to, for example, the JPEG method, and the compressed image may be stored in the memory 325. [
  • the raw image 322 provided from the image sensor 321 may be transmitted to the external device 300 separately from the small row image 324. Since the row image 322 is larger in capacity than the small row image 324, the small row image 324 is first transmitted to the external device 300 and then the row image 322 is transmitted to the external device 300 .
  • the row image 322 may be transmitted to the external device 300 while the ISP 323 performs the correction for the row image 322.
  • the raw image 322 may be uploaded to the external device 300 as generated by the image sensor 321 or may be uploaded with a pre-processed image for which lens distortion correction or noise removal has been performed. The above-described preprocessing may be performed in the external device 300.
  • the external device 300 may perform demosaic processing or image format modification, or preprocessing to increase the image recognition rate.
  • the ISP 333 of the external device 300 can correct the received row image 322.
  • the external device 300 may correct the row image 322 using the correction region information 332 that has been generated in the past or may correct the row image 322 using the extended correction region information.
  • the low image 322 may have a higher resolution than the small row image 324 so that the ISP 333 of the external device 300 can obtain more detailed correction region information from the high resolution image.
  • the ISP 333 may generate the extended correction region information by using the generated correction region information and the raw image 322 together.
  • the ISP 333 can acquire a high quality image 334 by correcting the row image 322 using the extended correction region information.
  • the high resolution image 334 may be stored in the storage 335 of the external device 300 and downloaded to the electronic device 101.
  • electronic device 101 is a user device that receives a user request for image generation (hereinafter referred to as an " image generation request ”) and sends information related to the image generation request to external device 300 have.
  • image generation request a user request for image generation
  • the information related to the image generation request is information (hereinafter referred to as " image generation condition ”) about a condition for an object to be included in an image to be generated (Or determined) information by the electronic device 101 based on the received information.
  • the image generation condition may be the information in which the image generation request is converted into a plurality of items and their corresponding property values.
  • the external device 300 may be an electronic device that stores a plurality of images transmitted from a plurality of electronic devices, including the electronic device 101.
  • the external device 300 may be a cloud server.
  • the plurality of images may be a low image 322 or a small low image 324.
  • the external device 300 receives an image generation condition from the electronic device 101, generates a request image based on the received image generation condition, and provides the request image to the electronic device 101 .
  • the external device 300 can generate a request image using a plurality of images stored in the storage 335 of the external device 300.
  • At least one configuration described as being performed in the electronic device 101 may be performed in the external device 300, and vice versa.
  • the electronic device 101 is capable of using a plurality of images stored in the electronic device 101 or a plurality of images stored in the external device 300 connected to the electronic device 101
  • the request image may also be generated.
  • the external device 300 other than the electronic device 101 may generate (or determine) an image generation condition based on the image generation request.
  • 4A is a block diagram of an electronic device in accordance with various embodiments of the present invention.
  • the electronic device 410 may be an apparatus that performs operations to generate a request image based on image creation conditions.
  • the electronic device 410 may be the electronic device 101 shown in FIG.
  • the electronic device 410 may include a communication module 440, a processor 420, and a memory 430.
  • the communication module 440 may be electrically / functionally coupled to the processor 420 and may be configured to exchange data with the external device 450 under the control of the processor 420.
  • the electronic device 410 may transmit an image generation request to the external device 450 through the communication module 440 and receive the request image from the external device 450.
  • the memory 430 may be electrically and / or functionally coupled to the processor 420 and may be configured to store data generated by the electronic device 410 or data received from the external device 450 under the control of the processor 420 have.
  • the memory 430 may store an image generation condition generated based on an image generation request or an image generation request. That is, the memory 430 may store a history of the image creation request or the image creation condition.
  • the memory 430 may store the request image provided from the external device 450.
  • the memory 430 may store a user profile that is used by the personal information transformation module 422 to transform personal information.
  • the memory 430 may store a plurality of images taken by a user or downloaded via a network.
  • the memory 430 may store at least one piece of information about the stored image, and at least one piece of information may include time information of the stored image, place information, weather information, object (e.g., Or the like.
  • the person information may include at least one of relationship information with the user and / or information on the accuracy of the relationship information.
  • the image stored in memory 430 may be in the form of raw data and may be encoded data (e.g., jpg).
  • the image stored in the memory 430 may include a static image and a dynamic image.
  • the processor 420 may include at least one or more of the electronic devices 410 to perform the specified functions of the electronic device 410.
  • the processor 420 may include an instruction analysis module 421, a personal information conversion module 422, and an ISP (image signal processor) 423.
  • the command analysis module 421 may determine the context information and image generation conditions based on the image creation request.
  • the image creation request is a user request for image creation, and may include at least one description or representation (or user comment) to define the image to be created.
  • an image creation request may be of various types of input (e.g., text input, sound input, etc.) including user comments such as " I want to see a picture of my mother & .
  • the context information may be information representing a variety of information that may be contained in the image creation request, the image being defined by a plurality of items and corresponding attribute values.
  • the context information may include at least one of time information, place information, weather information, object information (e.g., person information), background information, and operation information.
  • the command analysis module 421 based on the request to create an image such as " I would like to see a picture of my mom and a girl who went to Seoul Park during the summer vacation of a junior high school, " (Time, person, place) and the corresponding property values (summer vacation in junior high school, mother and me, Seoul Park) can be determined.
  • the attribute value may be one specific value or a specific range.
  • the command analysis module 421 may include a natural language analysis module (not shown).
  • the command analysis module 421 may use the natural language analysis result of the user comment included in the image generation request in determining the image generation condition based on the image generation request.
  • Natural language analysis is performed by a natural language analysis module and can include lexical analysis, syntactic analysis, and semantic analysis.
  • the command analysis module 421 may use the results of natural language analysis of user comments, such as " I want to see a picture of my mom and sister who went to Seoul Park during the summer vacation of the junior high school, " The attribute value of the object information in the context information can be determined as " Mom and I "
  • the image creation condition may be determined based on at least one part of the context information, or at least one description or representation included in the image creation request, as a condition for the object to be included in the request image.
  • the command analysis module 421 may determine an image generation condition based on context information.
  • the command analysis module 421 can process the situation information on the basis of the object to determine the image generation condition. For example, if the situation information is "Time - 1997.7.1 ⁇ 1997.8.31, Person - I, Mom, Location - Seoul Park", the command analysis module 421 reads "Seoul Park, 1997.7.1 ⁇ 1997.8.31”
  • An image creation condition may be created as a condition for an object to be included in the request image, such as " Between 1997.1.1 to 1997.31.1.3 ", and " Mom from 1997.7.1 to 1997.8.31. &Quot;
  • the image generation condition may include a condition regarding an operation on the object.
  • the conditions for image generation may include conditions relating to "I, 1997.7.1 ⁇ 1997.8.31, and the motion of mother holding hands of 1997.7.1 ⁇ 1997.8.31".
  • the image generation condition can be determined.
  • a part of the context information of the determined image generation condition includes personal information
  • an error occurs in a process to be performed later, that is, a process of determining an object to be included in the requested image or an image including an object to be included in the requested image .
  • the processor 420 of the electronic device 410 needs to transform the personal information contained in the contextual information.
  • the personal information conversion module 422 converts the attribute value including the personal information of the user or the person related to the user among the plurality of items included in the image creation condition and the attribute values corresponding thereto, Can be converted to other attribute values that do not contain.
  • the personal information about a specific person may represent information limited only to a specific person, or information whose meaning differs depending on who the user is. For example, if the request to create an image includes a comment of "I want to see a picture of my mom and I went to Seoul Park during the summer vacation in junior high school,” “Summer vacation in junior high school third grade” and "mom" The user may include personal information on the user, since the meaning may vary.
  • the personal information conversion module 422 may detect that personal information about the user is included in at least one attribute value among a plurality of items included in the context information and corresponding attribute values. For example, the personal information conversion module 422 includes personal information in "Time - Summer Vacation in Third Year of Junior High School” among "Summer Vacation in Time - Junior High School Summer Vacation, People - Mom and Mom and Location - Seoul Park” Can be detected.
  • the personal information transformation module 422 may use predetermined criteria in determining that personal information is included in the context information.
  • the personal information conversion module 422 can determine whether the attribute value of a specific item can be converted into a standard unit or a reference unit of the corresponding item from the context information (i.e., a plurality of items and attribute values corresponding thereto) have. If the property value of a specific item can not be converted into a standard unit or a reference unit of the corresponding item, the attribute value may determine that the personal information about the user or the person related to the user is included.
  • the personal information conversion module 422 may determine that the attribute value (summer vacation of the junior high school) of a specific item (time) is a standard unit or a reference unit (i.e., year, month, , Minute, second), it can be determined that the personal information about the user or the person related to the user is included.
  • the personal information transformation module 422 may transform an attribute value including personal information about the user into an attribute value that does not contain personal information, based on the user profile stored in the memory 430 .
  • the user profile may be information describing a user, and may be reference information used to convert an attribute value including personal information into an attribute value that does not include personal information.
  • the user profile may include one of a user's face photograph or personal description (e.g., date of birth, social security number, home address, education, history, etc.).
  • the personal information conversion module 422 uses the date of birth of the user included in the user profile to designate the attribute value including the personal information "junior high school third grade summer vacation" as "1997.7.1 to 1997.8.31" It can be converted to an attribute value that does not contain personal information.
  • the personal information conversion module 422 can update the status information based on the converted attribute value. For example, the personal information conversion module 422 stores status information (" Time - Summer Vacation in Third Grade Middle School, Person - I, Mother, Place - Seoul Park " - 1997.7.1 ⁇ 1997.31 ", person - me, mother, place - Seoul Park”) can be changed or renewed.
  • the ISP 423 may be the ISP 323 of FIG.
  • the ISP 423 may obtain each object image from each of the plurality of images stored in the memory 430 or may acquire a plurality of object images from the external device 450 through the communication module 440.
  • the ISP 423 can generate the request image by combining the acquired object images in one image.
  • the electronic device 410 may generate a request image by obtaining a plurality of object images from the external device 450 and synthesizing the plurality of acquired object images.
  • the electronic device 410 may obtain the respective object images from at least one of the plurality of images stored in the memory 430 of the electronic device 410, synthesize the acquired object images, Images can be generated.
  • the ISP 423 when the ISP 423 obtains an object image based on a plurality of images stored in the memory 430, the ISP 423 may include a plurality of images stored in the memory 430, (Hereinafter referred to as "original image ") including an object image.
  • the original image may be a low image 322 or a small low image 324.
  • the ISP 423 can search for at least one original image including the object image among the plurality of images stored in the memory 430 based on the image creation condition.
  • the electronic device 410 may be configured to generate an image based on an image generation condition (" Seoul Park of 1997.7.1 ⁇ 1997.31 ", " Me of 1997.7.1 ⁇ (I.e., an image representing an object representing a Seoul park or an image including a subject) including an image of a Seoul park corresponding to 1997.7.1 to 1997.8.31 in the memory 430, An original image including the image of the user corresponding to the number of the users corresponding to the number of the users,
  • the ISP 423 may obtain an object image to be included in the request image, from the obtained original images, if the ISP 423 has acquired the original images including the object image to be included in the request image.
  • the act of obtaining an object image to be included in the request image may include obtaining an image in the original image that represents the object to be included in the request image, by editing the original image.
  • the ISP 423 may acquire the correction area information 332 of the external device 300.
  • the ISP 423 may segment or crop the acquired original image to obtain an object image to be included in the request image from the acquired original images.
  • the ISP 423 may obtain at least one segmented image region from the small row image 324.
  • the ISP 423 determines a portion of the acquired image using the outline of the object to be included in the requested image, and crops or divides the determined portion of the image, Can be obtained. For example, if the ISP 423 has obtained an original image including an image of the object "Seoul Park 1997.7.20" in the memory 430, the ISP 423 may display an object or object (for example, The sign of Seoul Park can be used as a landmark, front gate, bronze statue, etc.) of the contour, "1997.7.20 Seoul Park" object image can be obtained.
  • an object or object for example, The sign of Seoul Park can be used as a landmark, front gate, bronze statue, etc.
  • the ISP 423 may obtain the entire area of the image as an object.
  • an additional search operation may be performed based on the attributes of the object to be included in the request image have.
  • the attribute of the object may be an attribute indicating the sensitivity to time. For example, it can be considered that an object or a subject representing a Seoul park is an inanimate object which does not change much with respect to time.
  • the ISP 423 may set the conditions for the time differently and perform additional search operations based on the otherwise set conditions. For example, if there is no original image including a Seoul park corresponding to 1997.7.1 ⁇ 1997.8.31, the ISP 423 may compare the time interval between 1997.7.1 ⁇ 1997.31 For example, July 1, 1998 to August 31, 1998).
  • the ISP 423 may directly generate an object corresponding to the image generation condition. For example, the ISP 423 may generate an object corresponding to an image generation condition using a vector drawing technique. In another example, the ISP 423 may create an object corresponding to an image generation condition using a machine learing technique.
  • the learning data of the machine learning may be a plurality of images stored in the memory 430. For example, the ISP 423 may generate an object corresponding to an image generation condition using a feature extracted commonly from a plurality of images stored in the memory 430.
  • the ISP 423 may create an object with which the mother grasps the hand, based on features commonly extracted from other images held in hand, stored in memory.
  • the ISP 423 may generate the request image using the object images obtained or generated. In one embodiment, the ISP 423 may generate the request image by composing the object images that it has acquired or generated. In one embodiment, the ISP 423 may generate the request image by arranging or arranging the object images obtained or generated at different positions of one image. For example, the ISP 423 stores the image of the object " I " obtained from the first original image stored in the memory 430 and the image of the object " Seoul Park " obtained from the second original image stored in the memory 430 Can be placed in different areas of an image to generate a request image. The position at which the acquired object is placed in the request image can be determined based on the position of the acquired object in the original image.
  • the ISP 423 may use the correction area information 332 to correct the raw image 322 and thereby generate a corrected image (i.e., a request image).
  • the ISP 423 may use the correction area information 332 to generate a new image that is not existing (i.e., a request image).
  • the ISP 423 may generate a request image by overlaying one of the object images obtained or generated to another object image. For example, the ISP 423 places an image of the object " Seoul Park on August 1, 1997 " in a specific area of the same image, Park " image. ≪ / RTI >
  • the ISP 423 may process the object images obtained or generated, in consideration of unity or harmony with other object images to be placed, before arranging the object images obtained or generated.
  • the ISP 423 may adjust properties (e.g., white balance, noise, color saturation, size, etc.) associated with the display of the object images obtained or generated. For example, if the object image is a monochrome image and the object image is a color image, the color image of "1997.7.20" can be processed in black and white. have.
  • the object image processing may include at least one of white balance adjustment, color adjustment, noise reduction, sharpening, and detail enhancement.
  • the ISP 423 may arrange object images obtained or generated, and then perform processing to reduce discomfort between the disposed object images. For example, the ISP 423 may perform a blurring process on a boundary surface (or a boundary line) of each object image in an image in which placement is completed, thereby suppressing a discomfort that may occur at the boundary between different object images .
  • the boundary (or boundary) at which two or more objects are touched may be subjected to a refinement process to smoothly process the boundary (or boundary).
  • a blur or a deconvolution process can be performed on the object image. This process may be performed before the arrangement of the object images and in the preprocessing process.
  • Processor 420 may provide the user with a request image generated by ISP 423.
  • the processor 420 may control the display (not shown) to output the generated request image to the screen.
  • the electronic device 410 may further include additional configurations.
  • the electronic device 410 may further include an input module (e.g., a keyboard, a mouse, a microphone, etc.) or an output module (e.g., a display).
  • an input module e.g., a keyboard, a mouse, a microphone, etc.
  • an output module e.g., a display
  • 4B is a block diagram of an external device in accordance with various embodiments of the present invention.
  • the operation of generating a request image based on an image generation condition may be performed in the electronic device 410 or the external device 450.
  • the external device 450 may include at least one module for generating a request image based on an image generation condition.
  • the external device 450 may receive an image generation request from the electronic device 410 and generate a request image based on the received image generation request.
  • the external device 450 may include at least one module for generating a request image based on the received image creation request.
  • the external device 450 may be an external device 300.
  • the external device 450 may include a communication module 440-1, a processor 420-1, a communication module 440-1, a processor 420-1, ) And the processor 420, respectively.
  • the processor 420-1 may include an ISP 423-1 and the ISP 423-1 may be an ISP 333.
  • the external device 450 may include a memory 430-1.
  • the memory 430-1 like the memory 430, can store a plurality of images.
  • the memory 430-1 may store data generated in the external device 450 or data transmitted (or uploaded) in a plurality of electronic devices, including the electronic device 410.
  • the memory 430-1 may include two regions that are distinct from each other. At this time, the two regions may be the first region 431 and the second region 432. In one embodiment, the first area 431 and the second area 432 may be physically or by access authority.
  • the first area 431 of the memory 430-1 may be a storage space designated by a particular person (e.g., a user) or dedicated to a particular person.
  • the first area 431 may contain only information (e.g., an image) transmitted by person A (or by an electronic device of person A) Can be stored.
  • the first area 431 may include personal information of the person A (e.g., a user profile of the person A) For example, an image including the face of person A).
  • the first area 431 includes a first area A (not shown), a first area B (not shown), a first area A is designated or dedicated to person A, B is designated or dedicated to person B, the first area B can store information including personal information or personal information of person A, with the consent of person A.
  • the second area 432 of the memory 430-1 may be a storage space that is not designated or dedicated to a particular person.
  • the second area 432 may be a storage area that is not included in the first area 431.
  • the second area 432 may store an image captured by a user not registered in the external device 300, or an image that can not specify the photographer.
  • the second area 432 may store information including personal information or personal information of a particular person (e.g., a user) under the consent of a particular person.
  • the ISP 423-1 may determine the search area of the memory 430-1 based on the attributes of the object to be included in the request image.
  • the attribute of the object to be included in the request image may be an attribute indicating whether the user or the person related to the user includes personal information. For example, if the object image to be included in the request image is " Seoul Park, 1997.7.1 ⁇ 1997.31 ", " Seoul Park " is independent of the personal information of the person related to the user or user, In the second area 432 of the memory, the original images.
  • the object image to be included in the request image is " I (or a user) from 1997.7.1 to 1997.8.31 "
  • the object includes the user's personal information 1 may retrieve original images containing object images to be included in the request image in the first area 431 of the memory.
  • the ISP 423-1 searches the images stored in the first area 431 or the second area 432 of the memory and acquires original images including an object image to be included in the request image according to the search result, It can be determined that the original images including the objects to be included in the memory 430-1 are not present in the memory 430-1.
  • the ISP 423-1 obtains prior consent from a specific person (e.g., a user) specified in the first area 431 before retrieving the object to be included in the request image in the first area 431 of the memory can do.
  • a specific person e.g., a user
  • the processor 420-1 may control the communication module 440-1 to send the request image to the electronic device 410.
  • FIG. 5 is a flow chart for providing an image in which an electronic device according to various embodiments of the present invention satisfies an image generation condition.
  • the processor 420 may receive an image creation request.
  • the processor 420 may receive an image creation request through an input module (not shown).
  • the image creation request is a user request for image creation, and may be various types of input such as text input, voice input, touch input to a menu included in the user interface provided in the display.
  • the image creation request may be a user input for inputting text such as " I want to see a picture of my mom and sister who went to Seoul Park during the summer vacation of junior high school " in the input window provided on the screen.
  • the processor 420 may determine image generation conditions. In one embodiment, the processor 420 may determine an image generation condition based on the image generation request received in operation 510. [ The image generation condition may be determined based on the plurality of items and the context information indicating the corresponding attribute value. For example, the processor 420 may be configured to determine whether the image is to be generated based on the image creation request or status information received in operation 510 (see " Seoul Park, 1997.7.1 ⁇ 1997.31, 1997, Quot; mother " of July 1, 1997 to March 1, 1997), the image creation condition for the object to be included in the request image can be determined. As another example, the processor 420 may determine the image generation conditions ("93 years of age", "95 years of Seoul park”) for different objects with different time conditions.
  • the processor 420 may retrieve an image that satisfies the image creation condition.
  • the processor 420 may search the memory 430 for an image that satisfies the image creation condition or send a search request for the image that satisfies the image creation condition to the external device 450.
  • the image satisfying the image generation condition may represent an image including all the objects having respective specific conditions included in the image generation condition.
  • the processor 420 may provide the retrieved image.
  • the processor 420 can check whether the original images satisfying a part of the image creation condition are retrieved. For example, if the image generation conditions are ("Seoul Park of 1997.7.1 ⁇ 1997.8.31,” “I of 1997.7.1 ⁇ 1997.8.31”, “Mom of 1997.7.1 ⁇ 1997.8.31”), (420) is an original image including an object image of "Seoul Park of 1997.7.1 ⁇ 1997.8.31, 1997", and an original image including an object image of "I of 1997.7.1 ⁇ 1997.8.31", 1997.7.1 ⁇ 1997.8 Quot ;, " mother of .31 ", respectively.
  • the processor 420 may, in operation 550, generate an image that satisfies the image creation conditions.
  • An image satisfying the image generation condition can be described as a request image below.
  • the processor 420 may obtain an object image to be included in the request image from the retrieved original image.
  • the act of obtaining an object image to be included in the request image may mean obtaining an image (object image) representing the object to be included in the request image, by dividing or cropping the original image.
  • the processor 420 may generate the request image using the acquired at least one object image. For example, if the processor 420 has acquired a first object image and a second object image to be included in the request image, the request image may be generated by combining the first object image and the second object image in one image . Specifically, the processor 420 may generate a request image by arranging or arranging the first object image and the second object image at different positions of one image.
  • the processor 420 may provide the generated request image. In one embodiment, the processor 420 may control the display to display on the screen the request image generated in operation 550.
  • the processor 420 may receive user feedback on the provided request image.
  • the processor 420 may receive user feedback via an input module or interface displayed on the screen.
  • processor 420 may provide a request image in operation 560 and then control the display to display a user interface for receiving feedback or evaluation (e.g., a rating) of the user, Lt; / RTI >
  • feedback or evaluation e.g., a rating
  • User evaluation or feedback on the requested image may be used to update attributes (e.g., accuracy, preference, etc.) for the original image of the object image (e.g., first object image or second object image) contained in the request image .
  • the processor 420 may determine, from among various attributes of the first original image, The memory 430 may be controlled to update the value of at least one attribute.
  • At least some of the operations described in Figure 5 may be performed by the processor 420-1 of the external device.
  • processor 420-1 when 510 operation is performed by processor 420-1 of an external device, processor 420-1 receives an image generation request from electronic device 410 via communication module 410-1 can do.
  • the processor 420-1 may compare the images stored in the memory 430-1 of the external device 450 , It is possible to retrieve an image satisfying at least a part of the image generation condition.
  • the processor 420-1 determines whether the 530 operation or the 540 operation is performed by the processor 420-1 of the external device 450 based on the attribute of the object to be included in the request image It is possible to determine the search area of the search area 430-1.
  • the attribute of the object may be an attribute indicating whether the user or the person associated with the user includes personal information.
  • FIG. 6 is a detailed flow diagram of operation (operation 550) of generating an image that satisfies an image generation condition (operation 540) of retrieving an image that satisfies part of an image generation condition according to various embodiments of the present invention to be.
  • the processor 420 can check whether all the retrieved images have been retrieved from the electronic device 410.
  • the processor 420 causes the external device 450 to retrieve some of the retrieved images Original image), or a request for an object image included in the retrieved partial image.
  • the processor 420 may obtain at least one object image to be included in the request image. For example, if all of the retrieved images are retrieved from the electronic device 410, the processor 420 may obtain at least one object image by segmenting or cropping each retrieved image. In another example, when a request for an object image included in some of the searched images is transmitted to the external device 450, the electronic device receives the object image requested from the external device 450 so that at least one An object image can be acquired. In another example, when receiving some images retrieved from the external device 450, the electronic device may obtain object images by dividing or cropping the received images.
  • Operation 640 is similar to operation 550, and thus a detailed description thereof will be omitted.
  • FIG. 7 is a cross-sectional signaling diagram of an electronic device and an external device for providing an image satisfying an image generation condition according to various embodiments of the present invention.
  • FIG. 7 illustrates a cross-signal flow based on an embodiment in which the operation of generating a request image based on an image generation condition is performed by an external device 450.
  • the processor 420 of the electronic device 410 may receive an image creation request through an input module. 710 operation may correspond to 510 operation.
  • the processor 420 of the electronic device 410 may control the communication module 440 to send an image creation request received from the user to the external device 450 in 710 operation.
  • the processor 420-1 of the external device 450 may determine the image creation conditions based on the image creation request received from the electronic device 410 in 720 operation.
  • the processor 420-1 of the external device 450 may obtain at least one object to be included in the request image.
  • the processor 420-1 of the external device 450 may determine the search area of the processor 420-1 of the external device 450 based on the attributes of the object to be included in the request image.
  • the attribute of the object may be an attribute indicating whether the user or the person associated with the user includes personal information. For example, if the object associated with the object image to be included in the request image includes personal information of the person associated with the user or user, the processor 420-1 may search the first area 431 of the memory.
  • the processor 420-1 of the external device 450 retrieves, in the search area of the determined memory 430, an original image containing the object to be included in the request image, and based on the retrieved original image, The object image can be obtained.
  • processor 420-1 of external device 450 may generate a request image.
  • the processor 420-1 of the external device 450 may generate the request image by compositing the acquired at least one object image into one image.
  • the processor 420-1 of the external device 450 may send the generated request image to the electronic device 410. In one embodiment, if the request image can not be generated because the original image including the object image to be included in the request image is not retrieved, the processor 420-1 of the external device 450 can not generate the request image And the cause of the failure.
  • processor 420-1 of external device 450 may store the generated request image in memory 430-1.
  • the processor 420-1 of the external device 450 may request the request image from the electronic device 410 based on the recognition of the retrieved original image And to transmit the generated processing information to the electronic device 410.
  • the electronic device 410 may be a personal computer, At this time, the electronic device 410 can generate the request image using the received process information.
  • the processor 420-1 of the external device 450 may send the processing results to the electronic device 410 after processing for a portion of the request image, instead of sending the request image to the electronic device 410.
  • the electronic device 410 may, after processing for another portion of the request image, combine with the received result to produce the final result (i.e., the request image).
  • the processor 420 of the electronic device 410 may provide the received request image to the user. In one embodiment, the processor 420 of the electronic device 410 may receive user feedback or evaluation of the provided request image.
  • the processor 420 of the electronic device 410 may send the received user feedback or evaluation to the external device 450.
  • the processor 420-1 of the external device 450 may update the attributes of the image based on the received user feedback or evaluation. For example, processor 420-1 of external device 450 may update an attribute value (e.g., preference) for the original image of the object image that was used to generate the request image based on the received user feedback have.
  • an attribute value e.g., preference
  • FIG. 8 is a cross-sectional signaling diagram of an electronic device and an external device for providing an image satisfying an image generation condition according to various embodiments of the present invention.
  • Figure 8 illustrates a cross-signal flow based on an embodiment in which the operation of generating a request image based on an image generation condition is performed by the electronic device 410.
  • the processor 420 of the electronic device 410 may receive an image creation request.
  • the processor 420 of the electronic device 410 may receive a textual input such as " I would like to see a picture of my mom and sister who went to Seoul Park during the summer vacation of junior high school. &Quot;
  • the processor 420 of the electronic device 410 may determine image generation conditions.
  • the processor 420 of the electronic device 410 may be configured to receive a request for an image based on context information extracted from an image creation request (e.g., " Seoul Park, 1997.7.1 ⁇ 1997.31, 1997 “, “Quot;, " me “, and “ mother of July 1, 1997 to March 31, 1997 ").
  • the processor 420 of the electronic device 410 may request the external device 450 for an image (object image) for the determined object.
  • the object image requested to the external device 450 may be a partial area that is divided or cut out from the image (original image) different from the request image.
  • the processor 420 of the electronic device 410 may request the object image by sending data associated with the object image request to the external device 450.
  • the data related to the object image request may include information on the object and condition information on the object.
  • the information about the object may include identification information of the object
  • the condition information for the object may include information on various conditions for defining the object, for example, time information, place information, have.
  • the electronic device 410 may request an object image for " Mother 1997.3.1 ⁇ 1997. 8.31. &Quot;
  • the processor 420 of the electronic device 410 may search the memory 430 of the electronic device 410 before requesting the external device 450 to image an object to be included in the request image. For example, if the image of the object to be included in the request image can be retrieved from the memory 430 of the electronic device 410, the processor 420 of the electronic device 410 may request the external device 450 to image the object I can not. In another embodiment, if the image of the object to be included in the request image includes a first object image and a second object image and the first object image can be retrieved from the memory 430 of the electronic device 410, 410 may request only the second object image to the external device 450.
  • the processor 420-1 of the external device 450 may obtain the image of the requested object by retrieving from the memory 430-1 of the external device 450.
  • the processor 420-1 of the external device 450 may retrieve the original image from the memory 430-1. In one embodiment, the processor 420-1 of the external device 450 may obtain an image of the requested object by dividing or cropping the image of the requested object in the retrieved original image.
  • the processor 420-1 of the external device 450 may include a first area 431 and a second area 432.
  • the processor 420-1 of the external device 450 can determine an area to be searched in the memory 430 based on information (e.g., object identification information) about the object included in the data related to the object image request. For example, when the external device 450 receives data requesting an image for "mother” of "1997.7.1 ⁇ 1997.8.31", the processor 420-1 of the external device 450 requests It is determined that the object of the image is an object related to the user's personal information and the area to be searched by the memory 430 is determined as the first area 431. [
  • the processor 420-1 of the external device 450 may send an image of the acquired object to the electronic device 410.
  • the processor 420-1 of the external device 450 may determine that the memory 430- 1) to the electronic device 410 that the requested object image could not be acquired.
  • the processor 420-1 of the external device 450 fails to acquire the object image requested in the 850 operation, the object image that satisfies the time condition of the image creation condition (first time condition) , But may send a message to the electronic device 410 that an object image satisfying the second time condition can be obtained.
  • the processor 420 of the electronic device 410 may generate a request image using the received object image and provide the generated request image to the user.
  • the processor 420 of the electronic device 410 may send user feedback to the external device 450 for a request image displayed or provided on an output module (e.g., a display) of the electronic device.
  • an output module e.g., a display
  • the processor 420-1 of the external device 450 may update at least one image attribute based on the received user feedback.
  • the processor 420-1 of the external device 450 may update the attributes for the original image. For example, when the image of the requested object is divided or cropped in the first image stored in the memory 430-1 of the external device 450, the processor 420-1 of the external device 450 determines whether the first image The memory 430-1 of the external device 450 can be controlled to change the value of the attribute (e.g., accuracy, preference)
  • FIGS 9A and 9B illustrate examples of user interfaces for receiving image creation requests in accordance with various embodiments of the present invention.
  • the electronic device 410 may display a user interface for receiving an image generation request from the user on the screen. For example, when an electronic device receives a user input (e.g., touching an application icon) to execute a " memorable image creation application ", a user interface for receiving an image creation request from the user may be displayed on the screen .
  • a user interface for receiving an image creation request from the user may be displayed on the screen .
  • the user interface for receiving the image creation request may include a text entry window 910.
  • the electronic device 410 can display a text input window 910 for inputting a user's image description together with a message saying " Please describe a desired image ".
  • the electronic device 410 can receive the image description of the user through the single text input window 910, such as " I want to see a picture that went to Seoul Park with my mom at the third grade summer vacation. &Quot;
  • the user interface for receiving an image generation request may include a plurality of menus 920 to 940, respectively, corresponding to the status information.
  • the electronic device 410 may display menus 920 to 940 corresponding to time information, place information, and person information on a screen.
  • the electronic device 410 displays an input window 950 for receiving a user description of the time information and a " Can be displayed together.
  • the electronic device 410 can receive the text " Summer Vacation of the Middle School Third Grade " from the user through the input window 950 for receiving the time information. That is, the electronic device 410 may provide a user interface for correctly receiving each condition for the request image.
  • FIG. 10 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to determine an image generation condition.
  • FIG. 10 is a detailed flowchart of operation 520 of FIG.
  • the processor 420 of the electronic device 410 may determine context information. In one embodiment, the processor 420 of the electronic device 410 may determine the context information based on the analysis result of the image creation request. In one embodiment, an image creation request may be received from the user before the 1010 operation is performed. In one embodiment, the image creation request may be received from the user via one of the various user interfaces described in FIG. 9A or FIG. 9B.
  • the context information may be information representing a variety of information that can define an image, as a plurality of items and their corresponding attribute values.
  • the situation information may include at least one of time information, place information, weather information, object information (e.g., person information), and background information.
  • the time information may be time related information among the information included in the image creation request.
  • the information related to the time may be information related to the age of the object to be included in the image, or the shooting time.
  • the electronic device 410 may receive an image creation request via the user interface described in FIG. 9A.
  • the electronic device 410 may receive a user's text input 1110 (" I want to see a picture of my mother and I went to Seoul Park during the third grade summer vacation ") through the user interface described in FIG. As an image creation request.
  • the processor 420 of the electronic device 410 may perform a natural language analysis Alternatively, separate analysis results such as machine learning can be utilized. For example, the processor 420 of the electronic device 410 may receive, from the image generation request 1110, status information including time information and two pieces of object information (e.g., 1120).
  • a user input e.g., a summer vacation in the third year of junior high school
  • the processor 420 of the electronic device 410 may determine whether personal information is included in the determined status information.
  • the personal information may refer to information limited only to a specific person, or information whose meaning varies depending on who the user is.
  • the processor 420 of the electronic device 410 may determine image creation conditions based on contextual information.
  • the image creation condition may be a collection of all determined context information.
  • the image generation condition may be information obtained by converting the determined situation information based on the object.
  • the processor 420 of the electronic device 410 converts at least some of the personal information into information (hereinafter referred to as " public information &Quot;). ≪ / RTI > The processor 420 of the electronic device 410 may convert at least some of the personal information 1140 of the personal information 1130 from the context information 1120.
  • At least some of the context information that includes the personal information may be converted to public information based on the user profile stored in the memory 430.
  • the processor 420 of the electronic device 410 may not convert it into public information, even if it is context information that includes personal information.
  • the processor 420 of the electronic device 410 may not convert person information (e.g., a face image of a person associated with a user or a user) into public information.
  • person information e.g., a face image of a person associated with a user or a user
  • the reason for this is that the person information is information that should be essentially included in the image (request image) that the user wants to create. If the person information is converted into public information (e.g., mosaic processing) This is because it is difficult.
  • the processor 420 of the electronic device 410 may update status information by converting at least some status information including personal information into public information. For example, the processor 420 of the electronic device 410 may convert the time information including the personal information (1140, third-year summer vacation) into public information (1997.7.1 to 1997.8.31).
  • the processor 420 of the electronic device 410 may determine an image generation condition based on the updated status information. For example, the processor 420 of the electronic device 410 may determine updated condition information as an image generating condition.
  • the electronic device 410 can determine the image generation conditions based on the image generation request received from the user.
  • the external device 450 may determine the image generation conditions based on the image generation request received from the electronic device 410.
  • the user profile used to convert at least some of the context information including personal information into public information may be stored in the first area 431 of the memory of the external device 450.
  • FIG. 12 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to obtain an object image to be included in a request image.
  • FIG. 12 is a detailed flowchart of operation 630 of FIG.
  • the processor 420 of the electronic device 410 may search the memory 430 of the electronic device 410 for the original image containing the object of the first condition, or may retrieve the original image including the object of the first condition To the external device 450.
  • the external device 450 transmits the search request to the external device 450.
  • the first condition may be a condition included in the image generation condition.
  • the processor 420 of the electronic device 410 may send an original image containing an object of a first condition (e.g., " Mother of 1997.7.1 ⁇ 1997.8.31 ”) included in the image creation condition to the electronic device 410 in the memory 430.
  • the processor 420 of the electronic device 410 determines whether the original image containing the object of the first condition is stored in the memory 430 of the electronic device 410 or in the memory 430-1 of the external device 450 It can be determined whether or not it exists. If the processor 420 of the electronic device 410 determines that the original image including the object of the first condition is not present in the memory 430 of the electronic device 410 or the memory 430-1 of the external device 450 If judged, in operation 1230, the original image including the object of the second condition can be retrieved from the memory 430 of the electronic device 410 or the memory 430-1 of the external device 450.
  • the processor 420 of the electronic device 410 may acquire the original image in the 1250 operation and obtain the object image of the first condition by dividing or cropping the object image from the acquired original image.
  • the second condition may include a first condition
  • the object of the first condition and the object of the second condition may represent the same entity.
  • the object of the first condition may be "mother of 1997.7.1 ⁇ 1997.8.31”
  • the object of the second condition may be "mother of 1996.7.1 ⁇ 1998.8.31”. That is, when the object image of the specific condition according to the image generation condition can not be obtained, by alleviating the specific condition, the object which is not perfectly matched with the condition presented by the user but is related to the condition (or similar condition) You can acquire an object.
  • the second condition may be determined according to an attribute of the object.
  • the attribute of the object may be an attribute that indicates sensitivity to time. For example, if the object is a " Seoul Park ", and the first condition is associated with a time period of " 1997.7.1 to 1997.8.31 ", then consider the fact that the object is inanimate,
  • the processor 420 may determine the second condition with a relatively wide time interval (1996.7.1 to 1998.8.31). For example, if the object is a "mom" and the first condition is associated with a time period of "1997.7.1 to 1997.8.31", the processor of the electronic device 410 420) can determine the second condition with a relatively narrow time interval (1997.5.1 ⁇ 1997.10.31).
  • the processor 420 of the electronic device 410 determines whether the original image including the object of the second condition exists in the memory 430 of the electronic device 410 or in the memory 430-1 of the external device Or not. If it is determined that the original image including the object of the second condition exists in the memory 430 of the electronic device 410 or the memory 430-1 of the external device 450, 420 can obtain an object image of a second condition by obtaining an original image including an object of the second condition and dividing or cropping the object image from the acquired original image in 1250 operation.
  • 410 may provide a notification to the user that the request image corresponding to the image creation request can not be generated.
  • the notification that the request image can not be generated may include a reason why the request image can not be generated.
  • the processor 420 may notify the user that the request image can not be generated because the original image including " Mother 1997.7.1 ⁇ 1997.8.31 " can not be obtained.
  • Figure 13 shows information of images and images stored in a first area of memory in accordance with various embodiments of the present invention.
  • the first area 431 of memory may store data associated with a particular person ' s personal information.
  • the first area 431 of the memory may store images of the user or a person (e.g., a user's family or friend) and image information associated with the user.
  • the information of the image is obtained through the additional information of the user such as the information that can be obtained from the image metadata such as the shooting time and the shooting location, information that can be obtained by analyzing the image such as object information, accuracy, Or information that can be received.
  • the first area 431 of the memory may be divided into a plurality of areas, each of which may be assigned to a user or a person (e.g., a mother) associated with the user, respectively.
  • the first area 431 of the memory may be a storage space designated for a particular person (e.g., a user).
  • the first area 431 of memory may not be allowed access according to an image creation request of a person different from the specific person, unless the specified person's consent is given.
  • the image 1301 stored in the first area 431 of the memory is illustrated.
  • the image 1301 may include a plurality of objects including a person 1302 associated with the user or user.
  • the information 1303 of the image 1301 is illustrated.
  • the information 1303 of the image 1301 may include a plurality of items and corresponding attribute values.
  • the plurality of items may include information such as time 1310, location 1320, accuracy 1330, object information 1340, weather 1350, time sensitivity 1360, preferences 1370, destination information 1380, 1390), and the like, and each item can correspond to each attribute value.
  • the information 1303 of the image 1301 may be provided by the user or may be determined based on the metadata of the image or the machine learning learning result in the external device 450.
  • time 1310 and location 1320, weather 1350, and destination information 1380 provide information about the time, location, weather, and shooting purpose (e.g., travel, etc.) Respectively.
  • the accuracy 1330 may correspond to information indicating how accurate the object information 1340 is.
  • the object information 1340 may correspond to information indicating who the object 1302 contained in the image 1301 is or has a relationship with the user.
  • the object information 1340 may correspond to the identifier C indicating who the object included in the image 1301 is.
  • the preferences 1370 may correspond to information indicating how satisfactory the user was when the requested image was synthesized using the image 1301.
  • the upload information 1390 may correspond to information indicating how the image 1301 is stored in the first area 431 of the memory.
  • Figure 14 shows information of images and images stored in a second area of memory in accordance with various embodiments of the present invention.
  • the second area 432 of memory may store data that is independent of a person ' s personal information.
  • the second area 432 of the memory may store images and images of facilities (e.g., commercial facilities, public facilities, etc.) together.
  • the information of the image may include at least one of the information obtained through additional information of the user such as information to be confirmed from the metadata of the image such as a photographing time and a photographing place, accuracy, preference and the like.
  • one image 1480 stored in a second area 432 of memory is illustrated.
  • the image 1480 may include a plurality of objects 1481, 1482 independent of the person associated with the user or user.
  • information 1483 of image 1480 is illustrated.
  • the information 1483 of the image 1480 may include a plurality of items and corresponding attribute values.
  • the item included in the information 1483 may be the same item as or different from the item included in the information 1303 disclosed in FIG.
  • Some of the items included in the information 1303 of the image 1301 disclosed in Fig. 13 may not be included in the information 1483 of the image 1480. [ For example, the destination information 1380 may not be included in the information 1483.
  • FIG. 15 is a detailed flowchart of an operation for an electronic device to generate a request image according to various embodiments of the present invention.
  • FIG. 15 is a detailed flowchart of operation 640 of FIG.
  • the processor 420 of the electronic device 410 may determine whether it has acquired all object images to be included in the request image. In one embodiment, the processor 420 of the electronic device 410 receives all of the object images to be included in the request image, via at least one of a search of the memory 430 of the electronic device 410 or a request to the external device 450 Is obtained.
  • the processor 420 of the electronic device 410 may determine that it has acquired all the object images to be included in the request image if the second object image is obtained from the external device 450 after requesting the second object image with the request .
  • the processor 420 of the electronic device 410 determines in 1520 operation that it has failed to acquire all object images to be included in the requested image, the object image that failed to acquire may be generated. For example, if the processor 420 of the electronic device 410 determines that the first object image has not been acquired (or fails to retrieve the original image including the first object image), the processor 420 of the electronic device 410 You can create it yourself. For example, the processor 420 of the electronic device 410 may generate a first object image using a vector drawing technique. In another example, the processor 420 of the electronic device 410 may directly generate the first object using a machine learning technique.
  • the processor 420 of the electronic device 410 may generate an object image that failed acquisition, by interpolating previously stored images in the memory 430. Details will be described later with reference to FIG.
  • the processor 420 of the electronic device 410 determines that it has acquired all of the object images to be included in the request image, or if the object image fails to acquire in the 1520 operation, the processor 420 of the electronic device 410 acquires A request image can be generated using one object images.
  • the processor 420 of the electronic device 410 may generate a request image by compositing (or combining) object images obtained (or generated).
  • the processor 420 of the electronic device 410 may synthesize object images obtained (or generated) by arranging (or creating) the object images obtained at different positions of one image . For example, the processor 420 of the electronic device 410 may compare a first object image (" me in 1997.7.20 ”) with a second object image in the image, such that the first object is seen as being ahead of the second object And a second object image (" Seoul Park, 1997.8.1 ”) can be placed in the upper part of the same image so that the first object is seen as being ahead of the second object.
  • the processor 420 of the electronic device 410 may arrange the acquired objects so that one of the object images acquired (or created) overlaps another object image.
  • FIG. 16 is a detailed flow diagram of an operation for an electronic device to generate an object image that fails acquisition in accordance with various embodiments of the present invention.
  • FIG. 16 is a detailed flowchart of operation 1520 of FIG.
  • the processor 420 of the electronic device 410 may determine whether an object image that satisfies the time condition does not exist. In other words, the processor 420 of the electronic device 410 can confirm why the acquisition failed if there is an object image that failed to acquire. For example, if the image generation condition is " a mother of 1997.7.1 to 1997.8.31, " the processor 420 of the electronic device 410 may generate an image including an object image representing " mom " Is not searched, or an image containing an object image representing " mother " is searched, but it can be checked whether or not it does not meet the time condition.
  • the process of the processor 420 of the electronic device 410 to determine whether there is no object satisfying the time condition in operation 1610 may be a second example of the two examples described above.
  • the processor 420 of the electronic device 410 searches the memory 430 of the electronic device 410, or searches the memory 430 of the external device 450 By further requesting a search, it is possible to determine whether there are images taken before and after.
  • the processor 420 of the electronic device 410 receives (at 860) an object image from the external device 450 prior to generating the request image, determining whether images taken before and after As shown in FIG.
  • the processor 420 of the electronic device 410 may generate an object image that satisfies the time condition based on the images taken before and after, in the 1630 operation .
  • the processor 420 of the electronic device 410 may interpolate previously and subsequently photographed images to produce an object image that satisfies the time condition. For example, the processor 420 of the electronic device 410 may grow within a specific time period, based on changes in the object image representing " mother of 1989.3.4 " and object image representing " mother of August 29, Or determine the image change of a person due to aging. And the processor 420 of the electronic device 410 may estimate and generate an image of a person at a particular time or time period (e.g., 1997.7.1 to 1997.8.31) included within a particular time period.
  • a particular time or time period e.g., 1997.7.1 to 1997.8.31
  • the processor 420 of the electronic device 410 may use one of the images taken before and after it to create an object image that satisfies the time condition.
  • the processor 420 of the electronic device 410 pre-stores information about changes in the general aging (or growth) pattern of a human face, and uses one of the images taken before and after An object image satisfying a time condition can be generated.
  • the processor 420 of the electronic device 410 may determine, based on the object image representing " mother of 1983.3.4 " and the general aging pattern change information of the human face, Can be estimated and generated.
  • the processor 420 of the electronic device 410 may, in a 1630 operation, generate an object image that satisfies a time condition, using at least two images photographed at times different from the time conditions. That is, the processor 420 may use at least two images previously photographed based on the temporal condition, or may generate an object image satisfying the temporal condition using at least two images photographed later based on the temporal condition . For example, the processor 420 obtains an object image representing " Mother of 1991. 6.10 " and an object image representing " Mother of 1995.1.20 ", and using the acquired object images, Can be determined. The processor 420 may then estimate and generate an image of the mother at a particular time or time period (e.g., 1997.7.1 to 1997.8.31) based on the determined image change of the person.
  • a particular time or time period e.g., 1997.7.1 to 1997.8.31
  • Figure 17 illustrates one example of generating a request image in accordance with various embodiments of the present invention. 17 may be performed in the electronic device 410 or the external device 450, but for convenience of description, the embodiment disclosed in FIG. 17 will be described as being performed in the external device 450. FIG.
  • the processor 420-1 of the external device 450 can search the memory 430-1 for the original image 1703 including the object image to be included in the request image.
  • the memory 430-1 may include a first area 1702 and a second area 1701.
  • the first area 1702 may correspond to the first area 431 and the second area 1701 may correspond to the second area 432.
  • the processor 420-1 retrieves two original images 1704, 1705 that contain objects related to personal information in a first area 1702 of the memory 430-1,
  • the original image 1703 including the object irrelevant to the personal information can be searched in the second region 1701 of the first region 170-1.
  • the processor 420-1 of the external device 450 can acquire an object image to be included in the request image, based on the retrieved original image.
  • the act of obtaining an object image to be included in the request image may include obtaining an object image to be included in the request image by dividing or cropping the original image.
  • the processor 420-1 of the external device 450 may obtain, from each of the original images 1704 and 1705 retrieved in the first area 1702 of the memory 430-1, An object image 1706 representing the "mother of July" and an object image 1706 representing "July of 1997" to be included in the request image.
  • the object image to be included in the request image may refer to the entire retrieved original image.
  • the object to be included in the request image may refer to the original image 1703 itself retrieved in the second area 1701 of the memory 430.
  • the processor 420-1 of the external device 450 may generate the request image 1709 using the acquired objects.
  • the request image can be generated by arranging or composing each of the acquired objects at different positions of one image.
  • the processor 420-1 of the external device 450 can arrange the object images 1706 and 1707 representing the person in parallel in the lower part in one image.
  • the request image can be generated by placing objects obtained to overlap one of the acquired objects with another object.
  • the processor 420-1 of the external device 450 can generate a request image by placing object images representing a person to overlap with one original image representing the background.
  • FIG. 18 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to generate a request image.
  • FIG. 18 is a detailed flowchart of operations 630 and 640 of FIG.
  • the processor 420 of the electronic device 410 may determine whether there is more than one original image that contains an object that satisfies the condition. For example, if the image generation condition includes information of an object of a first condition (e.g., mother of 1997.7.1 to 1997.8.31), the processor 420 may determine whether the image 430 is in the memory 430 of the electronic device 410, 1 < / RTI > condition, and as a result, a plurality of original images including an object satisfying the first condition can be searched.
  • a first condition e.g., mother of 1997.7.1 to 1997.8.31
  • the processor 420 of the electronic device 410 may check predetermined conditions.
  • the predetermined condition may be a setting for how to process a plurality of original images retrieved when a plurality of original images are retrieved for one object.
  • the processor 420 of the electronic device 410 may verify that it is set up to generate a plurality of request images.
  • the processor 420 of the electronic device 410 may, in 1850 operation, generate a plurality of request images using a plurality of source images. For example, if the object image to be included in the request image includes the first object image and the second object image, a plurality of original images including the first object image are searched, and the original image including the second object image is one The processor 420 of the electronic device 410 determines whether or not the first object image obtained from each of the plurality of original images including the first object image and the first object image obtained from the original image including the second object It is possible to generate multiple request images using 2 object images.
  • the processor 420 of the electronic device 410 may, in 1840 operation, determine an original image of one of the plurality of original images. In one embodiment, the processor 420 of the electronic device 410 may determine one original image based on attributes (e.g., accuracy, preference, etc.) of the plurality of original images or randomly. For example, the processor 420 of the electronic device 410 may determine the original image having the highest preference among the plurality of original images.
  • attributes e.g., accuracy, preference, etc.
  • the processor 420 of the electronic device 410 may generate one request image. For example, when the object image to be included in the request image includes the first object image and the second object image, a plurality of original images including the first object image, and a single original image including the second object , One request image may be generated using one original image determined from a plurality of original images including the first object image and one original image including the second object.
  • Figure 19 illustrates a user interface for receiving user feedback in accordance with various embodiments of the present invention.
  • the electronic device 1910 may be an electronic device 410.
  • the processor 420 of the electronic device 1910 may provide the user with a request image generated by the electronic device 1910 or a request image generated by the external device 450.
  • the processor 420 of the electronic device 1910 may control the display to display the request image 1920 on the screen.
  • the processor 420 of the electronic device 1910 may control the display to display additional messages.
  • the display of the electronic device 1910 may display a message " Please rate the satisfaction " at the bottom of the request image 1920 displayed on the screen.
  • the processor 420 of the electronic device 1910 may provide a user interface with the request image 1920 to receive user feedback (e.g., a star) for the request image.
  • the processor 420 of the electronic device 1910 may provide a user interface 2030 with a requesting image 1920 to receive information about a rating for the requesting image 1920.
  • the processor 420 may determine the satisfaction (e.g., preference 1370 of FIG. 13) of the original image used for use in generating the request image 1920. For example, the processor 420 may determine the satisfaction of the original image used to generate the request image 1920 based on the user feedback information for the request image 1920, and determine the satisfaction degree information in the memory 430 Can be saved (or updated).
  • the satisfaction e.g., preference 1370 of FIG. 13
  • the processor 420 may determine the satisfaction of the original image used to generate the request image 1920 based on the user feedback information for the request image 1920, and determine the satisfaction degree information in the memory 430 Can be saved (or updated).
  • the processor 420 may provide a user interface for receiving user feedback for each of the object images contained in the request image.
  • the processor 420 may determine the satisfaction of the original image used to generate the request image 1920 based on the user input for the provided user interface.
  • 20 is a flow diagram of an operation of storing an image acquired by an external device in a memory in accordance with various embodiments of the present invention. 20 may be a part of the process of building a database in the memory 430-1 of the external device 450.
  • the processor 420-1 of the external device 450 may acquire one or more images.
  • the external device 450 may obtain one or more images through at least one of a social network service (SNS), an Internet bulletin board, a messenger, a blog, and a media platform.
  • SNS social network service
  • the external device 450 may obtain one or more images through at least one of a social network service (SNS), an Internet bulletin board, a messenger, a blog, and a media platform.
  • SNS social network service
  • the processor 420-1 of the external device 450 may derive information of the image based on at least one of a user comment, at least one object included in the acquired image, or an upload path.
  • the information in the image may be a plurality of items for the image and corresponding attribute values.
  • the information of the image may include information about the photographed environment of the image (time, place, weather, etc.), information about the photographic context of the image (photographic purpose), information about the object And the like.
  • processor 420-1 of external device 450 may derive information of an image based on user comments.
  • the processor 420-1 of the external device 450 may derive information of an image using a natural language analysis result or a machine learning learning result.
  • User comments can have various forms depending on the acquisition path of the image. For example, if a user has uploaded a particular image via the SNS and left a hashtag such as "#travel# with mom ", the processor 420-1 of the external device 450 would " Travel, " " " image object-user, mother "
  • the processor 420-1 of the external device 450 may determine the area of the memory 430-1 in which to store the acquired image, based on the information of the derived image. In one embodiment, the processor 420-1 of the external device 450 stores one of the first area 431 and the second area 432 of the memory 430-1 in an area of memory to store the acquired image .
  • the processor 420-1 of the external device 450 may determine the area of the memory 430-1 in which to store the acquired image. For example, when an image is acquired through the SNS account of the person A, the processor 420-1 of the external device 450 can store the acquired image in the first area 431 designated or dedicated to the person A have.
  • the processor 420-1 of the external device 450 can determine the area of the memory 430-1 in which to store the acquired image. For example, if all the information derived for the acquired image does not contain personal information, the processor 420-1 of the external device 450 stores the acquired image and information of the derived image in the memory 430-1 In a second area 432 of the second area 432. [ In another embodiment, when some of the information derived for the acquired image includes personal information of the person A, the processor 420-1 of the external device 450 may convert the acquired image and the information of the derived image A in the first area 431 designated or dedicated to the user. Some information (for example, " object of image-user, mother ”) including personal information may be set to a mark indicating that personal information is included.
  • the processor 420-1 of the external device 450 may store the acquired image in the area of the memory 430-1 determined in operation 2030, together with the information of the derived image.
  • the images stored with the information of the derived image are illustrated in Figs. 13 and 14. Fig.

Abstract

Various embodiments of the present invention relate to an electronic device capable of generating a virtual image by using a user input, and an operating method therefor. The electronic device according to various embodiments of the present invention comprises a communication module and a processor, wherein the processor can be set so as to: receive an input through the electronic device or an external device functionally connected through the communication module; check situation information related to the input, wherein the situation information includes time information and object information; search for at least one image, corresponding to the situation information, among one or more images stored in the electronic device or the external device; provide the found at least one image when the at least one image corresponding to the situation information is found; generating an image corresponding to situation information by using at least one other image, corresponding to a part of the situation information, among the one or more images, when the at least one image corresponding to the situation information is not found; and provide the generated image.

Description

입력된 정보와 관련된 이미지를 제공하기 위한 전자 장치 및 그의 동작 방법An electronic device for providing an image associated with input information and a method of operating the same
본 발명의 다양한 실시예들은, 입력된 정보와 관련된 가상의 이미지를 생성할 수 있는 전자 장치 및 그의 동작 방법에 관한 것이다.Various embodiments of the present invention are directed to an electronic device capable of generating a virtual image associated with input information and a method of operation thereof.
스마트 폰과 같은 휴대용 전자 장치가 점차 고성능화됨에 따라, 전자 장치를 통해 다양한 서비스들이 제공되고 있다. 다양한 서비스들은 전화 통화, 문자 발신 등과 같은 기본적인 서비스를 비롯하여, 이미지/동영상 등과 같은 멀티미디어의 재생 및 편집 등을 포함한다.As portable electronic devices such as smart phones have become increasingly sophisticated, a variety of services are being offered through electronic devices. Various services include basic services such as telephone calls and text transmission, and playback and editing of multimedia such as image / video.
무선 인터넷 서비스의 발달에 힘입어, 전자 장치의 사용자들은 전자 장치에 저장된 콘텐트를 재생하거나 편집하는 형태뿐만 아니라, 네트워크에 연결된 다수의 전자 장치들 간 정보를 주고 받음으로써 다양한 서비스를 경험할 수 있게 되었다.With the development of wireless Internet service, users of electronic devices can experience various services by exchanging information between a plurality of electronic devices connected to a network, as well as by reproducing or editing contents stored in electronic devices.
전자 장치들 간 주고 받는 정보는 사용자 혹은 전자 장치의 주변 정보(예: 시간 정보, 장소 정보 등)등을 포함한다.Information exchanged between electronic devices includes peripheral information (e.g., time information, place information, etc.) of a user or an electronic device.
전자 장치는 이미지 센서를 통해 획득한 이미지보다 향상된 화질의 이미지를 획득하기 위하여 촬영한 이미지를 외부 장치에 전송할 수 있다. 전자 장치는 이미지 검색을 위한 조건을 외부 장치에 전송하여 조건에 대응하는 이미지를 검색할 수 있다.The electronic device can transmit the photographed image to an external device in order to acquire an image of improved image quality than the image acquired through the image sensor. The electronic device can transmit an image search condition to an external device to search for an image corresponding to the condition.
다만, 상술한 방법과 같이 촬영한 이미지의 화질을 개선하거나 외부 장치에 저장된 이미지를 검색하는 방법은, 사용자가 보고 싶어하는 가상의 이미지를 제공하는데 한계가 있으므로, 사용자의 요구를 완벽하게 충족시키기 어렵다.However, the method of improving the image quality of the photographed image or retrieving the image stored in the external device as described above has a limitation in providing a virtual image that the user wants to see, so that it is difficult to perfectly satisfy the user's needs.
본 발명의 다양한 실시예들은, 가상의 이미지를 생성할 수 있는 전자 장치 및 그의 동작 방법에 관한 것이다.Various embodiments of the present invention relate to an electronic device capable of generating a virtual image and a method of operation thereof.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present invention are not limited to the technical matters mentioned above, and other technical subjects which are not mentioned can be clearly understood by those skilled in the art from the following description. There will be.
본 발명의 다양한 실시예들에 따른 전자 장치는, 통신 모듈 및 프로세서를 포함하고, 상기 프로세서는 상기 전자 장치 또는 상기 통신 모듈을 통해 기능적으로 연결된 외부 장치를 통해 입력을 수신하고, 상기 입력과 관련된 상황 정보를 확인하고, 상기 상황 정보는 시간 정보 및 오브젝트 정보를 포함하고, 상기 전자 장치 또는 상기 외부 장치에 저장된 하나 이상의 이미지들 중 상기 상황 정보에 대응하는 적어도 하나의 이미지를 검색하고, 상기 상황 정보에 대응하는 상기 적어도 하나의 이미지가 검색된 경우, 상기 검색된 적어도 하나의 이미지를 제공하고, 상기 상황 정보에 대응하는 상기 적어도 하나의 이미지가 검색되지 않는 경우, 상기 하나 이상의 이미지들 중 상기 상황 정보의 일부에 대응하는 다른 적어도 하나의 이미지를 이용하여, 상기 상황 정보에 대응하는 이미지를 생성하고, 및 상기 생성된 이미지를 제공하도록 설정된다.An electronic device according to various embodiments of the present invention includes a communication module and a processor, wherein the processor receives input via an external device operatively connected through the electronic device or the communication module, Wherein the status information includes time information and object information and searches at least one image corresponding to the status information among one or more images stored in the electronic device or the external device, Providing at least one image retrieved when a corresponding one of the at least one image is retrieved and, if the at least one image corresponding to the context information is not retrieved, Using at least one other corresponding image, Generating an image corresponding to the information, and sulfur, and is set to provide the generated image.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 방법은, 상기 전자 장치 또는 상기 전자 장치의 통신 모듈을 통해 기능적으로 연결된 외부 장치를 통해 입력을 수신하고, 상기 입력과 관련된 상황 정보를 확인하고, 여기서 상황 정보는 시간 정보 및 오브젝트 정보를 포함하고, 상기 전자 장치 또는 상기 외부 장치에 저장된 하나 이상의 이미지들 중 상기 상황 정보의 일부에 대응하는 적어도 하나의 이미지를 획득하고, 상기 획득된 상기 적어도 하나의 이미지를 이용하여 상기 상황 정보에 대응하는 이미지를 생성하고, 상기 생성된 이미지를 제공하는 동작을 포함한다.The method of operation of an electronic device according to various embodiments of the present invention includes receiving an input via an external device functionally connected through the electronic device or a communication module of the electronic device and verifying contextual information associated with the input, Wherein the context information includes time information and object information and acquires at least one image corresponding to a part of the context information among the one or more images stored in the electronic device or the external device, To generate an image corresponding to the situation information, and to provide the generated image.
다양한 실시예에 따르면 전자 장치는, 사용자로부터 수신한 이미지 생성 조건을 이용하여, 복수의 이미지들에서 각각의 객체를 획득하고, 획득한 객체들을 합성함으로써, 사용자가 보고 싶어하는 가상의 이미지를 구현할 수 있다.According to various embodiments, an electronic device may implement a virtual image that a user would like to see by acquiring each object from a plurality of images and combining the acquired objects, using an image generation condition received from a user .
도 1은 본 발명의 다양한 실시예들에 따른 네트워크에 대한 환경을 도시한다.Figure 1 illustrates an environment for a network in accordance with various embodiments of the present invention.
도 2는 본 발명의 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.Figure 2 shows a block diagram of an electronic device according to various embodiments of the present invention.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치 및 외부 장치의 동작을 설명하기 위한 개념도를 도시한다.Fig. 3 shows a conceptual diagram for explaining the operation of an electronic device and an external device according to various embodiments of the present invention.
도 4a는 본 발명의 다양한 실시예들에 따른 전자 장치의 블록도이다.4A is a block diagram of an electronic device in accordance with various embodiments of the present invention.
도 4b는 본 발명의 다양한 실시예들에 따른 외부 장치의 블록도이다.4B is a block diagram of an external device in accordance with various embodiments of the present invention.
도 5는 본 발명의 다양한 실시예들에 따른 전자 장치가 이미지 생성 조건을 만족하는 이미지를 제공하기 위한 흐름도이다.5 is a flow chart for providing an image in which an electronic device according to various embodiments of the present invention satisfies an image generation condition.
도 6은 본 발명의 다양한 실시예들에 따른 전자 장치가 이미지 생성 조건의 일부를 만족하는 이미지를 검색하는 동작 및 이미지 생성 조건을 만족하는 이미지를 생성하는 동작의 세부 흐름도이다.Figure 6 is a detailed flow diagram of an operation in which an electronic device according to various embodiments of the present invention retrieves an image that satisfies part of an image generation condition and generates an image that satisfies the image generation condition.
도 7 및 도 8은 본 발명의 다양한 실시예들에 따른 이미지 생성 조건을 만족하는 이미지를 제공하기 위한 전자 장치와 외부 장치의 상호 신호 흐름도이다.7 and 8 are cross-sectional signaling diagrams of an electronic device and an external device for providing an image satisfying an image generation condition according to various embodiments of the present invention.
도 9a 및 도 9b는 본 발명의 다양한 실시예들에 따른 이미지 생성 요청을 수신하기 위한 사용자 인터페이스의 예를 도시한다.Figures 9A and 9B illustrate examples of user interfaces for receiving image creation requests in accordance with various embodiments of the present invention.
도 10은 본 발명의 다양한 실시예들에 따른 전자 장치가 이미지 생성 조건을 결정하기 위한 동작의 세부 흐름도이다.10 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to determine an image generation condition.
도 11은 본 발명의 다양한 실시예들에 따른 이미지 생성 요청에 기반하여 이미지 생성 조건을 결정하는 예를 도시한다.Figure 11 shows an example of determining an image generation condition based on an image generation request according to various embodiments of the present invention.
도 12는 본 발명의 다양한 실시예들에 따른 전자 장치가 요청 이미지에 포함될 객체 이미지를 획득하기 위한 동작의 세부 흐름도이다.12 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to obtain an object image to be included in a request image.
도 13은 본 발명의 다양한 실시예들에 따른 메모리의 제1 영역에 저장된 이미지 및 이미지의 정보를 도시한다.Figure 13 shows information of images and images stored in a first area of memory in accordance with various embodiments of the present invention.
도 14는 본 발명의 다양한 실시예들에 따른 메모리의 제2 영역에 저장된 이미지 및 이미지의 정보를 도시한다.Figure 14 shows information of images and images stored in a second area of memory in accordance with various embodiments of the present invention.
도 15는 본 발명의 다양한 실시예들에 따른 전자 장치가 요청 이미지를 생성하기 위한 동작의 세부 흐름도이다.15 is a detailed flowchart of an operation for an electronic device to generate a request image according to various embodiments of the present invention.
도 16는 본 발명의 다양한 실시예들에 따른 획득에 실패한 객체 이미지를 전자 장치가 생성하기 위한 동작의 세부 흐름도이다.16 is a detailed flow diagram of an operation for an electronic device to generate an object image that fails acquisition in accordance with various embodiments of the present invention.
도 17은 본 발명의 다양한 실시예에 따른 전자 장치가 요청 이미지를 생성하는 한가지 예를 도시한다.17 illustrates one example in which an electronic device according to various embodiments of the present invention generates a request image.
도 18은, 본 발명의 다양한 실시예에 따른 전자 장치가 요청 이미지를 생성하기 위한 동작의 세부 흐름도이다.18 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to generate a request image.
도 19는 본 발명의 다양한 실시예에 따른 사용자 피드백을 수신하기 위한 사용자 인터페이스를 예시한다.Figure 19 illustrates a user interface for receiving user feedback in accordance with various embodiments of the present invention.
도 20은 본 발명의 다양한 실시예들에 따른 외부 장치가 획득한 이미지를 메모리에 저장하는 동작의 흐름도이다.20 is a flow diagram of an operation of storing an image acquired by an external device in a memory in accordance with various embodiments of the present invention.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))이 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.1 is a block diagram of an electronic device 101 in a network environment 100, in accordance with various embodiments. 1, an electronic device 101 in a network environment 100 communicates with an electronic device 102 via a first network 198 (e.g., near-field wireless communication) or a second network 199 (E. G., Remote wireless communication). ≪ / RTI > According to one embodiment, the electronic device 101 is capable of communicating with the electronic device 104 through the server 108. According to one embodiment, the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, a sensor module 176, an interface 177, a haptic module 179, a camera module 180, a power management module 188, a battery 189, a communication module 190, a subscriber identity module 196, and an antenna module 197 ). In some embodiments, at least one (e.g., display device 160 or camera module 180) of these components may be omitted or other components may be added to the electronic device 101. In some embodiments, some components, such as, for example, a sensor module 176 (e.g., a fingerprint sensor, an iris sensor, or an illuminance sensor) embedded in a display device 160 Can be integrated.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.Processor 120 may be configured to operate at least one other component (e.g., hardware or software component) of electronic device 101 connected to processor 120 by driving software, e.g., And can perform various data processing and arithmetic operations. Processor 120 loads and processes commands or data received from other components (e.g., sensor module 176 or communication module 190) into volatile memory 132 and processes the resulting data into nonvolatile memory 134. [ Lt; / RTI > According to one embodiment, the processor 120 may operate in conjunction with a main processor 121 (e.g., a central processing unit or an application processor) and, independently, or additionally or alternatively, Or a co-processor 123 (e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or a communications processor) specific to the designated function. Here, the coprocessor 123 may be operated separately from or embedded in the main processor 121.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.  In such a case, the coprocessor 123 may be used in place of the main processor 121, for example, while the main processor 121 is in an inactive (e.g., sleep) state, At least one component (e.g., display 160, sensor module 176, or communications module 176) of the components of electronic device 101 (e.g., 190) associated with the function or states. According to one embodiment, the coprocessor 123 (e.g., an image signal processor or communications processor) is implemented as a component of some other functionally related component (e.g., camera module 180 or communication module 190) . Memory 130 may store various data used by at least one component (e.g., processor 120 or sensor module 176) of electronic device 101, e.g., software (e.g., program 140) ), And input data or output data for the associated command. The memory 130 may include a volatile memory 132 or a non-volatile memory 134.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144,
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다. The input device 150 is an apparatus for receiving a command or data to be used for a component (e.g., processor 120) of the electronic device 101 from the outside (e.g., a user) of the electronic device 101, For example, a microphone, a mouse, or a keyboard may be included.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일 실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.The sound output device 155 is a device for outputting a sound signal to the outside of the electronic device 101. For example, the sound output device 155 may be a speaker for general use such as a multimedia reproduction or a sound reproduction, . According to one embodiment, the receiver may be formed integrally or separately with the speaker.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다. Display device 160 may be an apparatus for visually providing information to a user of electronic device 101 and may include, for example, a display, a hologram device, or a projector and control circuitry for controlling the projector. According to one embodiment, the display device 160 may include a touch sensor or a pressure sensor capable of measuring the intensity of the pressure on the touch.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 170 is capable of bi-directionally converting sound and electrical signals. According to one embodiment, the audio module 170 is configured to acquire sound through the input device 150, or to acquire sound from the sound output device 155, or an external device (e.g., an electronic device) that is wired or wirelessly connected to the electronic device 101 The device 102 (e.g., a speaker or headphone)).
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 may generate an electrical signal or data value corresponding to an internal operating state (e.g., power or temperature) of the electronic device 101, or an external environmental condition. The sensor module 176 may be a gesture sensor, a gyro sensor, a barometric sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, Or an illuminance sensor.
인터페이스(177)는 외부 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support a designated protocol that may be wired or wirelessly connected to an external device (e.g., the electronic device 102). According to one embodiment, the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는 전자 장치(101)와 외부 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may be a connector such as an HDMI connector, a USB connector, an SD card connector, or an audio connector (not shown) capable of physically connecting the electronic device 101 and an external device For example, a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert electrical signals into mechanical stimuli (e.g., vibrations or movements) or electrical stimuli that the user may perceive through tactile or kinesthetic sensations. The haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.The camera module 180 can capture a still image and a moving image. According to one embodiment, the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.The power management module 188 is a module for managing the power supplied to the electronic device 101, and may be configured as at least a part of, for example, a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 is an apparatus for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다. The communication module 190 is responsible for establishing a wired or wireless communication channel between the electronic device 101 and an external device (e.g., electronic device 102, electronic device 104, or server 108) And the like. Communication module 190 may include one or more communication processors that support wired communication or wireless communication, operating independently of processor 120 (e.g., an application processor). According to one embodiment, the communication module 190 may include a wireless communication module 192 (e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (E.g., a local area network (LAN) communication module, or a power line communication module), and the corresponding communication module may be used to communicate with a first network 198 (e.g., Bluetooth, WiFi direct, Communication network) or a second network 199 (e.g., a telecommunications network such as a cellular network, the Internet, or a computer network (e.g., a LAN or WAN)). The various types of communication modules 190 described above may be implemented as a single chip or may be implemented as separate chips.
일 실시예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다. According to one embodiment, the wireless communication module 192 may use the user information stored in the subscriber identification module 196 to identify and authenticate the electronic device 101 within the communication network.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 장치로 송신하거나, 외부 장치로부터 수신할 수 있다. The antenna module 197 may include one or more antennas for externally transmitting or receiving signals or power. According to the temporary example, the communication module 190 (for example, the wireless communication module 192) can transmit a signal to or receive a signal from an external device through an antenna suitable for the communication method.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.Some of the components are connected to each other via a communication method (e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 장치에서 실행될 수 있다. 일 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. According to one embodiment, the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 via the server 108 connected to the second network 199. Each of the electronic devices 102 and 104 may be the same or a different kind of device as the electronic device 101. [ According to one embodiment, all or some of the operations performed in the electronic device 101 may be performed in another or a plurality of external devices. According to one embodiment, in the event that the electronic device 101 has to perform some function or service automatically or upon request, the electronic device 101 may be capable of executing the function or service itself, And may request an external device to perform at least some functions associated therewith. The external device that receives the request may execute the requested function or additional function, and may forward the result to the electronic device 101. [ The electronic device 101 can directly or additionally process the received result to provide the requested function or service. For this purpose, for example, cloud computing, distributed computing, or client-server computing technology may be used.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic device according to the various embodiments disclosed herein can be various types of devices. The electronic device can include, for example, at least one of a portable communication device (e.g., a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. The electronic device according to the embodiment of the present document is not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.It should be understood that the various embodiments of the present document and the terms used therein are not intended to limit the techniques described herein to specific embodiments, but rather to include various modifications, equivalents, and / or alternatives of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar components. The singular expressions may include plural expressions unless the context clearly dictates otherwise. In this document, the expressions "A or B," "at least one of A and / or B," "A, B or C," or "at least one of A, B, and / Possible combinations. Expressions such as "first", "second", "first" or "second" may be used to qualify the components, regardless of order or importance, and to distinguish one component from another And does not limit the constituent elements. When it is mentioned that some (e.g., first) component is "(functionally or communicatively) connected" or "connected" to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. As used herein, the term " module " includes units comprised of hardware, software, or firmware and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits. A module may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present document may include instructions stored on a machine-readable storage medium (e.g., internal memory 136 or external memory 138) readable by a machine (e.g., a computer) Software (e.g., program 140). The device may include an electronic device (e.g., electronic device 101) in accordance with the disclosed embodiments as an apparatus capable of calling stored instructions from the storage medium and operating according to the called instructions. When the instruction is executed by a processor (e.g., processor 120), the processor may perform the function corresponding to the instruction, either directly or using other components under the control of the processor. The instructions may include code generated or executed by the compiler or interpreter. A device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily on the storage medium.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to a temporal example, the method according to various embodiments disclosed herein may be provided in a computer program product. A computer program product can be traded between a seller and a buyer as a product. A computer program product may be distributed in the form of a machine readable storage medium (eg, compact disc read only memory (CD-ROM)) or distributed online through an application store (eg PlayStore ). In the case of on-line distribution, at least a portion of the computer program product may be temporarily stored, or temporarily created, on a storage medium such as a manufacturer's server, a server of an application store, or a memory of a relay server.
다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (e.g., modules or programs) according to various embodiments may be comprised of a single entity or a plurality of entities, and some of the subcomponents described above may be omitted, or other subcomponents May be further included in various embodiments. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity to perform the same or similar functions performed by each respective component prior to integration. Operations performed by a module, program, or other component, in accordance with various embodiments, may be performed sequentially, in parallel, repetitively, or heuristically, or at least some operations may be performed in a different order, .
도 2는, 다양한 실시예들에 따른, 카메라 모듈(180)의 블럭도(200)이다. 도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)일 수 있다. 복수의 렌즈 어셈블리(210)들은 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리와 적어도 하나의 다른 렌즈 속성을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. 플래쉬(220)는 피사체로부터 방출되는 빛을 강화하기 위하여 사용되는 광원을 방출할 수 있다. 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다.Figure 2 is a block diagram 200 of a camera module 180, in accordance with various embodiments. 2, the camera module 180 includes a lens assembly 210, a flash 220, an image sensor 230, an image stabilizer 240, a memory 250 (e.g., a buffer memory), or an image signal processor (260). The lens assembly 210 can collect light emitted from a subject, which is an object of image photographing. The lens assembly 210 may include one or more lenses. According to one embodiment, the camera module 180 may include a plurality of lens assemblies 210. In this case, the camera module 180 may be, for example, a dual camera, a 360 degree camera, or a spherical camera. The plurality of lens assemblies 210 may have the same lens properties (e.g., angle of view, focal length, autofocus, f number, or optical zoom), or at least one lens assembly may have at least one Lt; / RTI > may have different lens properties. The lens assembly 210 may include, for example, a wide-angle lens or a telephoto lens. The flash 220 may emit a light source used to enhance the light emitted from the subject. Flash 220 may include one or more light emitting diodes (e.g., red-green-blue (RGB) LEDs, white LEDs, infrared LEDs, or ultraviolet LEDs), or xenon lamps.
이미지 센서(230)는 피사체로부터 렌즈 어셈블리(210) 를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일 실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서로 구현될 수 있다.The image sensor 230 can acquire an image corresponding to the subject by converting the light transmitted from the subject through the lens assembly 210 into an electrical signal. According to one embodiment, the image sensor 230 may include a selected one of the image sensors of different properties, such as, for example, an RGB sensor, a BW (black and white) sensor, an IR sensor, A plurality of image sensors having different attributes, or a plurality of image sensors having different attributes. Each of the image sensors included in the image sensor 230 may be implemented by, for example, a CCD (charged coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor.
이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향(예: 이미지 흔들림)을 적어도 일부 보상하기 위하여 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 일 실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있으며, 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 상기 움직임을 감지할 수 있다.The image stabilizer 240 is configured to respond to the movement of the camera module 180 or the electronic device 101 including it to at least partially compensate for the negative effects (e.g., image jitter) At least one lens or image sensor 230 included in the assembly 210 may be moved or controlled in a particular direction (e.g., adjusting the read-out timing). According to one embodiment, the image stabilizer 240 may be implemented as an optical image stabilizer, for example, and may include a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 180 Can be used to detect the motion.
메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일 실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The memory 250 may at least temporarily store at least a portion of the image acquired via the image sensor 230 for subsequent image processing operations. For example, if image acquisition according to the shutter is delayed or a plurality of images are acquired at high speed, the acquired original image (e.g., a high resolution image) is stored in the memory 250, and a corresponding copy An image (e.g., a low resolution image) can be previewed via the display device 160. Thereafter, at least a portion of the original image that was stored in the memory 250 may be acquired and processed by, for example, the image signal processor 260 if the specified condition is satisfied (e.g., user input or system command). According to one embodiment, the memory 250 may be comprised of at least a portion of the memory 130, or a separate memory operated independently thereof.
이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 이미지 처리(예: 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening))을 수행할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 전달될 수 있다. 일 실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 이미지들은 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다. The image signal processor 260 performs image processing (e.g., depth map generation, three-dimensional modeling, panorama generation, feature point extraction, and the like) on an image obtained through the image sensor 230 or an image stored in the memory 250, Image synthesis, or image compensation (e.g., noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening, or softening) 260 may perform control (e.g., exposure time control, or lead-out timing control, etc.) for at least one of the components (e.g., image sensor 230) included in camera module 180. [ The image processed by the signal processor 260 may be stored back into the memory 250 for further processing or may be stored in the external components of the camera module 180 such as the memory 130, The image signal processor 260 may comprise at least a portion of the processor 120 or may be coupled to the processor 120 and / The image processed by the image signal processor 260 may be processed by the processor 120 as it is or after additional image processing, and then displayed on the display device (not shown) 160 < / RTI >
일 실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 둘 이상의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 적어도 하나의 카메라 모듈(180)은 광각 카메라 또는 전면 카메라이고, 적어도 하나의 다른 카메라 모듈은 망원 카메라 또는 후면 카메라일 수 있다.According to one embodiment, the electronic device 101 may include two or more camera modules 180, each having a different attribute or function. In this case, for example, at least one camera module 180 may be a wide angle camera or a front camera, and at least one other camera module may be a telephoto camera or a rear camera.
도 3는 본 발명의 다양한 실시예들에 따른 전자 장치와 외부 장치의 동작을 설명하기 위한 개념도를 도시한다. 3 shows a conceptual diagram for explaining the operation of an electronic device and an external device according to various embodiments of the present invention.
전자 장치(101)는, 이미지 센서(321), ISP(323) 및 메모리(325)를 포함할 수 있다. 외부 장치(300)는, 인식 모듈(331), ISP(333) 및 저장소(335)를 포함할 수 있다. 인식 모듈(331)은 논리 모듈일 수도 있으며, 외부 장치(300)의 프로세서로 구현될 수도 있다. ISP(333) 또한 외부 장치(300)의 프로세서로 구현될 수 있으며, 예를 들어 외부 장치(300)의 프로세서가 인식과 이미지 처리를 모두 수행할 수도 있다. 도시되지는 않았지만, 전자 장치(101)는 외부 장치(300)와 데이터를 송수신할 수 있는 통신 모듈(예: 통신 인터페이스(170) 또는 통신 모듈(220))을 포함할 수 있다. 외부 장치(300)는 전자 장치(101)와 데이터를 송수신할 수 있는 통신 모듈을 포함할 수 있다.The electronic device 101 may include an image sensor 321, an ISP 323 and a memory 325. The external device 300 may include a recognition module 331, an ISP 333 and a storage 335. The recognition module 331 may be a logical module or a processor of the external device 300. [ The ISP 333 may also be implemented as a processor of the external device 300. For example, the processor of the external device 300 may perform both recognition and image processing. Although not shown, the electronic device 101 may include a communication module (e.g., a communication interface 170 or a communication module 220) capable of transmitting and receiving data with the external device 300. The external device 300 may include a communication module capable of transmitting and receiving data with the electronic device 101.
이미지 센서(321)(예: 카메라 모듈(180))는, 외부 객체에 대한 이미지를 획득할 수 있으며, 이에 대응하는 로우 이미지(322)(원시 이미지, raw image)를 생성할 수 있다. 이미지 센서(321)는 로우 이미지(322)를 ISP(323)로 전달할 수 있다. 본 발명의 다양한 실시예에서, 이미지 센서(321)는 스몰 로우 이미지(324)를 생성하여 이를 통신 모듈을 통하여 외부 장치(300)으로 송신할 수 있다. 또 다른 실시예에서는, 이미지 센서(321)가 아닌 전자 장치(101)의 프로세서가 스몰 로우 이미지(324)를 생성할 수도 있으며, 생성된 스몰 로우 이미지(324)를 통신 모듈을 통하여 외부 전자 장치(300)로 송신할 수 있다. 이미지 센서(321)는 로우 이미지(322)를 압축된 상태로 상기 ISP(323) 또는 상기 외부 장치(300)으로 송신할 수 있다. 이미지 센서(321)는 로우 이미지(322)의 일부 처리를 위해 압축하여 상기 이미지 센서(321) 내부의 메모리에 저장할 수 있다. 외부 장치(300)의 인식 모듈(331)은 통신 모듈을 통하여 스몰 로우 이미지(324)를 획득할 수 있으며, 스몰 로우 이미지(324)로부터 적어도 하나의 이미지 영역을 세그먼테이션할 수 있다. 인식 모듈(331)은 세그먼테이션 결과로 구분된 적어도 하나의 이미지 영역 각각을 인식할 수 있다. 인식 모듈(331)로부터 생성된 복수의 이미지 영역과 연관된 정보, 예를 들어 이미지 영역의 좌표 정보 또는 인식 결과 중 적어도 하나를 포함하는 보정 영역 정보(332)가 생성될 수 있다. 보정 영역 정보(332)는 전자 장치(101)로 송신될 수 있다. ISP(323)는 보정 영역 정보(332)를 이용하여 로우 이미지(322)를 보정할 수 있으며, 이에 따라 보정된 이미지가 생성될 수 있다. 보정된 이미지는, 예를 들어 YUV의 포맷을 가질 수 있다. 보정된 이미지는 메모리(325)에 저장될 수 있다. 또는 보정된 이미지는 예를 들어 JPEG 방식에 따라 압축될 수 있으며, 압축된 이미지가 메모리(325)에 저장될 수도 있다.The image sensor 321 (e.g., camera module 180) may acquire an image for an external object and generate a corresponding raw image 322 (raw image). The image sensor 321 may pass the low image 322 to the ISP 323. In various embodiments of the present invention, the image sensor 321 may generate a small row image 324 and transmit it to the external device 300 via the communication module. In yet another embodiment, a processor of the electronic device 101 other than the image sensor 321 may generate a small row image 324, and the generated small row image 324 may be transmitted to an external electronic device 300). The image sensor 321 can transmit the raw image 322 in a compressed state to the ISP 323 or the external device 300. [ The image sensor 321 may be compressed and stored in a memory within the image sensor 321 for some processing of the raw image 322. The recognition module 331 of the external device 300 can obtain the small row image 324 through the communication module and segment the at least one image region from the small row image 324. [ The recognition module 331 may recognize each of at least one image region separated by the segmentation result. Correction area information 332 including at least one of information associated with a plurality of image areas generated from the recognition module 331, for example, coordinate information of the image area or recognition results, may be generated. The correction area information 332 may be transmitted to the electronic device 101. The ISP 323 can correct the row image 322 using the correction area information 332, and thus the corrected image can be generated. The corrected image may have a format of YUV, for example. The corrected image may be stored in memory 325. [ Or the corrected image may be compressed according to, for example, the JPEG method, and the compressed image may be stored in the memory 325. [
본 발명의 다양한 실시예에서, 이미지 센서(321)로부터 제공되는 로우 이미지(322)는 스몰 로우 이미지(324)와 별도로 외부 장치(300)로 송신될 수 있다. 로우 이미지(322)는 스몰 로우 이미지(324)에 비하여 용량이 크므로, 스몰 로우 이미지(324)가 우선 외부 장치(300)로 송신되며, 이후 로우 이미지(322)가 외부 장치(300)로 송신될 수 있다. 예를 들어, ISP(323)가 로우 이미지(322)에 대한 보정을 수행하는 동안에 로우 이미지(322)가 외부 장치(300)로 송신될 수도 있다. 로우 이미지(322)는 이미지 센서(321)에 의하여 생성된 그대로 외부 장치(300)로 업로드 될 수도 있으며, 또는 렌즈 왜곡 보상 또는 노이즈 제거가 수행된 전처리 영상이 업로드 될 수도 있다. 상술한 전처리는 외부 장치(300)에서 수행될 수도 있다. 외부 장치(300)는 Demosaic 처리 또는 이미지 포맷 변형, 또는 영상 인식률을 높이기 위한 전처리를 수행할 수도 있다. 외부 장치(300)의 ISP(333)는 수신된 로우 이미지(322)를 보정할 수 있다. 외부 장치(300)는 기존에 생성하였던 보정 영역 정보(332)를 이용하여 로우 이미지(322)를 보정할 수도 있으며, 확장된 보정 영역 정보를 이용하여 로우 이미지(322)를 보정할 수도 있다. 로우 이미지(322)는 스몰 로우 이미지(324)에 비하여 해상도가 높을 수도 있으며, 이에 따라 외부 장치(300)의 ISP(333)는 고해상도 이미지로부터 보다 상세한 확장된 보정 영역 정보를 획득할 수 있다. ISP(333)는 기존에 생성된 보정 영역 정보와 로우 이미지(322)를 함께 이용하여 확장된 보정 영역 정보를 생성할 수도 있다. ISP(333)는 확장된 보정 영역 정보를 이용하여 로우 이미지(322)를 보정함으로써, 고해상도 이미지(high quality image)(334)를 획득할 수 있다. 고해상도 이미지(334)는 외부 장치(300)의 저장소(335)에 저장될 수 있으며, 전자 장치(101)로 다운로드될 수 있다.In various embodiments of the present invention, the raw image 322 provided from the image sensor 321 may be transmitted to the external device 300 separately from the small row image 324. Since the row image 322 is larger in capacity than the small row image 324, the small row image 324 is first transmitted to the external device 300 and then the row image 322 is transmitted to the external device 300 . For example, the row image 322 may be transmitted to the external device 300 while the ISP 323 performs the correction for the row image 322. [ The raw image 322 may be uploaded to the external device 300 as generated by the image sensor 321 or may be uploaded with a pre-processed image for which lens distortion correction or noise removal has been performed. The above-described preprocessing may be performed in the external device 300. The external device 300 may perform demosaic processing or image format modification, or preprocessing to increase the image recognition rate. The ISP 333 of the external device 300 can correct the received row image 322. [ The external device 300 may correct the row image 322 using the correction region information 332 that has been generated in the past or may correct the row image 322 using the extended correction region information. The low image 322 may have a higher resolution than the small row image 324 so that the ISP 333 of the external device 300 can obtain more detailed correction region information from the high resolution image. The ISP 333 may generate the extended correction region information by using the generated correction region information and the raw image 322 together. The ISP 333 can acquire a high quality image 334 by correcting the row image 322 using the extended correction region information. The high resolution image 334 may be stored in the storage 335 of the external device 300 and downloaded to the electronic device 101. [
일 실시예에서, 전자 장치(101)는 이미지 생성에 대한 사용자 요청(이하 "이미지 생성 요청"이라고 칭함)을 수신하고, 이미지 생성 요청과 관련된 정보를 외부 장치(300)에 송신하는 사용자 장치일 수 있다.In one embodiment, electronic device 101 is a user device that receives a user request for image generation (hereinafter referred to as an " image generation request ") and sends information related to the image generation request to external device 300 have.
일 실시예에서, 이미지 생성 요청과 관련된 정보는, 생성하고자 하는 이미지(이하 "요청 이미지"라고 칭함)에 포함될 객체에 대한 조건에 대한 정보(이하 "이미지 생성 조건"이라고 칭함)로서, 이미지 생성 요청에 기반하여 전자 장치(101)에 의해 생성된(혹은 결정된) 정보일 수 있다. 일 실시예에서, 이미지 생성 조건은, 이미지 생성 요청이, 복수의 항목들 및 그에 대응하는 속성 값들로 변환된 정보일 수 있다.In one embodiment, the information related to the image generation request is information (hereinafter referred to as " image generation condition ") about a condition for an object to be included in an image to be generated (Or determined) information by the electronic device 101 based on the received information. In one embodiment, the image generation condition may be the information in which the image generation request is converted into a plurality of items and their corresponding property values.
일 실시예에서, 외부 장치(300)는 전자 장치(101)를 포함하는 복수의 전자 장치들로부터 전송된 복수의 이미지들을 저장하는 전자 장치일 수 있다. 예를 들어, 외부 장치(300)는 클라우드 서버(cloud server)일 수 있다. 복수의 이미지들은 로우 이미지(322) 혹은 스몰 로우 이미지(324)일 수 있다. In one embodiment, the external device 300 may be an electronic device that stores a plurality of images transmitted from a plurality of electronic devices, including the electronic device 101. For example, the external device 300 may be a cloud server. The plurality of images may be a low image 322 or a small low image 324. [
일 실시예에서, 외부 장치(300)는 전자 장치(101)로부터, 이미지 생성 조건을 수신하고, 수신한 이미지 생성 조건에 기반하여 요청 이미지를 생성하며, 요청 이미지를 전자 장치(101)에 제공할 수 있다. 외부 장치(300)는 외부 장치(300)의 저장소(335)에 저장된 복수의 이미지들을 이용하여 요청 이미지를 생성할 수 있다. In one embodiment, the external device 300 receives an image generation condition from the electronic device 101, generates a request image based on the received image generation condition, and provides the request image to the electronic device 101 . The external device 300 can generate a request image using a plurality of images stored in the storage 335 of the external device 300. [
다양한 실시예에 따르면, 전자 장치(101)에서 수행되는 것으로 기재된 적어도 하나의 구성은 외부 장치(300)에서 수행될 수 있으며, 그 반대도 가능하다. 예를 들면, 전자 장치(101)가, 전자 장치(101)에 저장된 복수의 이미지들 혹은 전자 장치(101)와 연결된 외부 장치(300)에 저장된 복수의 이미지들을 이용하여, 이미지 생성 조건에 기반하여 요청 이미지를 생성할 수도 있다. 다른 예를 들면, 전자 장치(101)가 아닌 외부 장치(300)가, 이미지 생성 요청에 기반하여 이미지 생성 조건을 생성(혹은 결정)할 수도 있다.According to various embodiments, at least one configuration described as being performed in the electronic device 101 may be performed in the external device 300, and vice versa. For example, if the electronic device 101 is capable of using a plurality of images stored in the electronic device 101 or a plurality of images stored in the external device 300 connected to the electronic device 101, The request image may also be generated. As another example, the external device 300 other than the electronic device 101 may generate (or determine) an image generation condition based on the image generation request.
도 4a는 본 발명의 다양한 실시예들에 따른 전자 장치의 블록도이다.4A is a block diagram of an electronic device in accordance with various embodiments of the present invention.
일 실시예에서, 전자 장치(410)는 이미지 생성 조건에 기반하여 요청 이미지를 생성하는 동작을 수행하는 장치일 수 있다. 예를 들어 전자 장치(410)는 도 1에 도시된 전자 장치(101)일 수 있다. In one embodiment, the electronic device 410 may be an apparatus that performs operations to generate a request image based on image creation conditions. For example, the electronic device 410 may be the electronic device 101 shown in FIG.
도 4a를 참조하면, 전자 장치(410)는 통신 모듈(440)과 프로세서(420), 메모리(430)를 포함할 수 있다. Referring to FIG. 4A, the electronic device 410 may include a communication module 440, a processor 420, and a memory 430.
통신 모듈(440)은 프로세서(420)와 전기적/기능적으로 연결되어, 프로세서(420)의 제어 하에, 외부 장치(450)와 데이터를 교환하도록 설정될 수 있다. 예를 들어, 전자 장치(410)는 통신 모듈(440)을 통하여 이미지 생성 요청을 외부 장치(450)에 송신하고, 요청 이미지를 외부 장치(450)로부터 수신할 수 있다. The communication module 440 may be electrically / functionally coupled to the processor 420 and may be configured to exchange data with the external device 450 under the control of the processor 420. For example, the electronic device 410 may transmit an image generation request to the external device 450 through the communication module 440 and receive the request image from the external device 450. [
메모리(430)는 프로세서(420)와 전기적/기능적으로 연결되어, 프로세서(420)의 제어 하에, 전자 장치(410)에서 생성된 데이터 혹은 외부 장치(450)로부터 수신한 데이터를 저장하도록 설정될 수 있다. 예를 들어, 메모리(430)는 이미지 생성 요청 혹은 이미지 생성 요청에 기반하여 생성된 이미지 생성 조건을 저장할 수 있다. 즉, 메모리(430)는 이미지 생성 요청 혹은 이미지 생성 조건의 히스토리(history)를 저장할 수 있다. 다른 예를 들어, 메모리(430)는 외부 장치(450)로부터 제공된 요청 이미지를 저장할 수 있다. 또 다른 예를 들어, 메모리(430)는 개인 정보 변환 모듈(422)이 개인 정보를 변환하는데 사용되는 사용자 프로필을 저장할 수 있다. 또 다른 예를 들어, 메모리(430)는 사용자에 의해 촬영되거나 네트워크를 통해 다운로드 받은 복수의 이미지들을 저장할 수 있다. 이 때, 메모리(430)는 저장된 이미지에 대한 적어도 하나의 정보를 함께 저장할 수 있으며, 적어도 하나의 정보는, 저장된 이미지의 시간 정보, 장소 정보, 날씨 정보, 객체(예: 인물) 정보, 배경 정보 중 적어도 하나를 포함할 수 있다. 인물 정보는 사용자와의 관계 정보 및/또는 관계 정보의 정확도에 대한 정보 중 적어도 하나를 포함할 수 있다. The memory 430 may be electrically and / or functionally coupled to the processor 420 and may be configured to store data generated by the electronic device 410 or data received from the external device 450 under the control of the processor 420 have. For example, the memory 430 may store an image generation condition generated based on an image generation request or an image generation request. That is, the memory 430 may store a history of the image creation request or the image creation condition. As another example, the memory 430 may store the request image provided from the external device 450. [ As another example, the memory 430 may store a user profile that is used by the personal information transformation module 422 to transform personal information. As another example, the memory 430 may store a plurality of images taken by a user or downloaded via a network. At this time, the memory 430 may store at least one piece of information about the stored image, and at least one piece of information may include time information of the stored image, place information, weather information, object (e.g., Or the like. The person information may include at least one of relationship information with the user and / or information on the accuracy of the relationship information.
일 실시예에서, 메모리(430)에 저장되는 이미지는 로우 데이터(raw data)의 형태일 수 있고, 인코딩된 데이터(예: jpg)일 수도 있다. In one embodiment, the image stored in memory 430 may be in the form of raw data and may be encoded data (e.g., jpg).
일 실시예에서, 메모리(430)에 저장되는 이미지는 정적 이미지와 동적 이미지를 포함할 수 있다.In one embodiment, the image stored in the memory 430 may include a static image and a dynamic image.
프로세서(420)는 전자 장치(410)에 적어도 하나 이상 포함되어, 전자 장치(410)의 지정된 기능을 수행할 수 있다. The processor 420 may include at least one or more of the electronic devices 410 to perform the specified functions of the electronic device 410.
도 4a를 참조할 때, 프로세서(420)는 명령어 분석 모듈(421), 개인 정보 변환 모듈(422), ISP(Image Signal Processor, 423)를 포함할 수 있다.4A, the processor 420 may include an instruction analysis module 421, a personal information conversion module 422, and an ISP (image signal processor) 423.
명령어 분석 모듈(421)은 이미지 생성 요청에 기반하여 상황 정보 및 이미지 생성 조건을 결정할 수 있다. The command analysis module 421 may determine the context information and image generation conditions based on the image creation request.
일 실시예에서, 이미지 생성 요청은 이미지 생성에 대한 사용자 요청으로서, 생성하고자 하는 이미지를 한정하기 위한, 적어도 하나의 설명 혹은 표현(혹은 사용자 코멘트)을 포함할 수 있다. 예를 들어, 이미지 생성 요청은 "중학교 3학년 여름방학 때 엄마랑 서울공원에 갔던 사진을 보고 싶어"와 같은 사용자 코멘트를 포함하는 다양한 형태의 입력(예: 텍스트 입력, 사운드 입력 등)일 수 있다.In one embodiment, the image creation request is a user request for image creation, and may include at least one description or representation (or user comment) to define the image to be created. For example, an image creation request may be of various types of input (e.g., text input, sound input, etc.) including user comments such as " I want to see a picture of my mother & .
일 실시예에서, 상황 정보는 이미지 생성 요청에 포함된, 이미지를 한정할 수 있는 다양한 정보를, 복수의 항목들 및 그에 대응하는 속성 값으로 표현한 정보일 수 있다. 상황 정보는 시간 정보, 장소 정보, 날씨 정보, 객체 정보(예: 인물 정보), 배경 정보, 동작 정보 중 적어도 하나를 포함할 수 있다. 예를 들어, 명령어 분석 모듈(421)은 "중학교 3학년 여름 방학 때 엄마랑 서울공원에 갔던 사진을 보고 싶어"와 같은 이미지 생성 요청에 기반하여, "시간 - 중학교 3학년 여름 방학, 인물 - 나, 엄마, 장소 - 서울공원"과 같이, 복수의 항목들(시간, 인물, 장소) 및 그에 대응하는 속성 값들(중학교 3학년 여름방학, 엄마와 나, 서울공원)을 결정할 수 있다.In one embodiment, the context information may be information representing a variety of information that may be contained in the image creation request, the image being defined by a plurality of items and corresponding attribute values. The context information may include at least one of time information, place information, weather information, object information (e.g., person information), background information, and operation information. For example, the command analysis module 421, based on the request to create an image such as " I would like to see a picture of my mom and a girl who went to Seoul Park during the summer vacation of a junior high school, " (Time, person, place) and the corresponding property values (summer vacation in junior high school, mother and me, Seoul Park) can be determined.
일 실시예에서 속성 값은, 하나의 특정한 값일 수도 있고, 특정한 범위일 수도 있다.In one embodiment, the attribute value may be one specific value or a specific range.
일 실시예에서, 명령어 분석 모듈(421)은 자연어 분석 모듈(미도시)을 포함할 수 있다. 명령어 분석 모듈(421)은 이미지 생성 요청에 기반하여 이미지 생성 조건을 결정함에 있어서, 이미지 생성 요청에 포함된 사용자 코멘트의 자연어 분석 결과를 이용할 수 있다. 자연어 분석은 자연어 분석 모듈에 의해 수행되며, 어휘(lexical) 분석, 구문(syntactic) 분석, 의미(semantic) 분석을 포함할 수 있다. 예를 들어, 명령어 분석 모듈(421)은 "중학교 3학년 여름 방학 때 엄마랑 서울공원에 갔던 사진을 보고 싶어"와 같은 사용자 코멘트의 자연어 분석 결과를 이용하여, 비록 코멘트에 명시적으로 개시된 인물이 "엄마"밖에 없음에도 불구하고, 상황 정보 중 객체 정보에 대한 속성 값을 "엄마와 나"로 결정할 수 있다.In one embodiment, the command analysis module 421 may include a natural language analysis module (not shown). The command analysis module 421 may use the natural language analysis result of the user comment included in the image generation request in determining the image generation condition based on the image generation request. Natural language analysis is performed by a natural language analysis module and can include lexical analysis, syntactic analysis, and semantic analysis. For example, the command analysis module 421 may use the results of natural language analysis of user comments, such as " I want to see a picture of my mom and sister who went to Seoul Park during the summer vacation of the junior high school, " The attribute value of the object information in the context information can be determined as " Mom and I "
일 실시예에서, 이미지 생성 조건은 요청 이미지에 포함될 객체에 대한 조건으로서, 이미지 생성 요청에 포함된 적어도 하나의 설명 혹은 표현, 또는 상황 정보의 적어도 일부에 기반하여 결정될 수 있다. In one embodiment, the image creation condition may be determined based on at least one part of the context information, or at least one description or representation included in the image creation request, as a condition for the object to be included in the request image.
일 실시예에서, 명령어 분석 모듈(421)은 상황 정보에 기반하여 이미지 생성 조건을 결정할 수 있다. 명령어 분석 모듈(421)은 객체를 기준으로 상황 정보를 처리하여, 이미지 생성 조건을 결정할 수 있다. 예를 들어 상황 정보가 "시간 - 1997.7.1 ~ 1997.8.31, 인물 - 나, 엄마, 장소 - 서울공원"인 경우, 명령어 분석 모듈(421)은 "1997.7.1 ~ 1997.8.31의 서울공원", "1997.7.1 ~ 1997.8.31의 나", "1997.7.1 ~ 1997.8.31의 엄마"와 같이, 요청 이미지에 포함될 객체에 대한 조건으로서 이미지 생성 조건을 생성할 수 있다.In one embodiment, the command analysis module 421 may determine an image generation condition based on context information. The command analysis module 421 can process the situation information on the basis of the object to determine the image generation condition. For example, if the situation information is "Time - 1997.7.1 ~ 1997.8.31, Person - I, Mom, Location - Seoul Park", the command analysis module 421 reads "Seoul Park, 1997.7.1 ~ 1997.8.31" An image creation condition may be created as a condition for an object to be included in the request image, such as " Between 1997.1.1 to 1997.31.1.3 ", and " Mom from 1997.7.1 to 1997.8.31. &Quot;
일 실시예에서, 이미지 생성 조건은 객체에 대한 동작에 관한 조건을 포함할 수 있다. 예를 들어, 이미지 생성 조건은 "1997.7.1 ~ 1997.8.31의 나, 와 1997.7.1 ~ 1997.8.31의 엄마가 손을 잡고 있는 동작"에 관한 조건을 포함할 수 있다.In one embodiment, the image generation condition may include a condition regarding an operation on the object. For example, the conditions for image generation may include conditions relating to "I, 1997.7.1 ~ 1997.8.31, and the motion of mother holding hands of 1997.7.1 ~ 1997.8.31".
상술한 설명에 따라, 이미지 생성 조건이 결정될 수 있다. 다만, 결정된 이미지 생성 조건의 상황 정보의 일부가 개인 정보를 포함할 경우, 이후 수행될 과정, 즉 요청 이미지에 포함될 객체의 결정 과정 혹은 요청 이미지에 포함될 객체가 포함된 이미지의 결정 과정에서 오차가 생길 수 있다. 따라서, 전자 장치(410)의 프로세서(420)는 상황 정보에 포함된 개인 정보를 변환할 필요가 있다. According to the above description, the image generation condition can be determined. However, when a part of the context information of the determined image generation condition includes personal information, an error occurs in a process to be performed later, that is, a process of determining an object to be included in the requested image or an image including an object to be included in the requested image . Thus, the processor 420 of the electronic device 410 needs to transform the personal information contained in the contextual information.
개인 정보 변환 모듈(422)은 상황 정보(즉, 이미지 생성 조건에 포함된 복수의 항목들 및 그에 대응하는 속성 값들) 중에서, 사용자 혹은 사용자와 관련된 인물의 개인 정보가 포함된 속성 값을, 개인 정보를 포함하지 않는 다른 속성 값으로 변환할 수 있다. 여기서 특정한 인물에 대한 개인 정보는, 특정한 인물에 대해서만 한정된 정보, 또는 사용자가 누구인지에 따라서 의미가 달라지는 정보를 나타낼 수 있다. 예를 들어, 이미지 생성 요청이 "중학교 3학년 여름 방학 때 엄마랑 서울공원에 갔던 사진을 보고 싶어"의 코멘트를 포함한 경우, "중학교 3학년 여름 방학" 및 "엄마"는 코멘트의 발화자(즉, 사용자)에 따라서 의미하는 정보가 달라질 수 있으므로, 사용자에 대한 개인 정보를 포함할 수 있다.The personal information conversion module 422 converts the attribute value including the personal information of the user or the person related to the user among the plurality of items included in the image creation condition and the attribute values corresponding thereto, Can be converted to other attribute values that do not contain. Here, the personal information about a specific person may represent information limited only to a specific person, or information whose meaning differs depending on who the user is. For example, if the request to create an image includes a comment of "I want to see a picture of my mom and I went to Seoul Park during the summer vacation in junior high school," "Summer vacation in junior high school third grade" and "mom" The user may include personal information on the user, since the meaning may vary.
일 실시예에서, 개인 정보 변환 모듈(422)은 상황 정보에 포함된 복수의 항목들 및 그에 대응하는 속성 값들 중에서, 적어도 하나의 속성 값에 사용자에 대한 개인 정보가 포함됨을 검출할 수 있다. 예를 들어, 개인 정보 변환 모듈(422)은 "시간 - 중학교 3학년 여름 방학, 인물 - 엄마와 나, 장소 - 서울공원"중에서, "시간 - 중학교 3학년 여름방학"에 개인 정보가 포함되어 있음을 검출할 수 있다.In one embodiment, the personal information conversion module 422 may detect that personal information about the user is included in at least one attribute value among a plurality of items included in the context information and corresponding attribute values. For example, the personal information conversion module 422 includes personal information in "Time - Summer Vacation in Third Year of Junior High School" among "Summer Vacation in Time - Junior High School Summer Vacation, People - Mom and Mom and Location - Seoul Park" Can be detected.
일 실시예에서, 개인 정보 변환 모듈(422)은 상황 정보에 개인 정보가 포함됨을 결정함에 있어서 기 설정된 기준을 이용할 수 있다. 개인 정보 변환 모듈(422)은 상황 정보(즉, 복수의 항목들 및 그에 대응하는 속성 값들) 중에서, 특정한 항목의 속성 값이 대응하는 항목의 표준 단위 혹은 기준 단위로 변환이 가능한지 여부를 판단할 수 있다. 만약 특정한 항목의 속성 값이, 대응하는 항목의 표준 단위 혹은 기준 단위로 변환이 불가능하다면, 상기 속성 값은 사용자 혹은 사용자와 관련된 인물에 대한 개인 정보가 포함되었다고 판단할 수 있다. 예를 들어, 개인 정보 변환 모듈(422)은 특정한 항목(시간)의 속성값(중학교 3학년 여름방학)은 대응하는 항목(시간)의 표준 단위 혹은 기준 단위(즉, 연, 월, 일, 시, 분, 초)로 변환이 불가능하기 때문에, 사용자 혹은 사용자와 관련된 인물에 대한 개인 정보가 포함되었다고 판단할 수 있다.In one embodiment, the personal information transformation module 422 may use predetermined criteria in determining that personal information is included in the context information. The personal information conversion module 422 can determine whether the attribute value of a specific item can be converted into a standard unit or a reference unit of the corresponding item from the context information (i.e., a plurality of items and attribute values corresponding thereto) have. If the property value of a specific item can not be converted into a standard unit or a reference unit of the corresponding item, the attribute value may determine that the personal information about the user or the person related to the user is included. For example, the personal information conversion module 422 may determine that the attribute value (summer vacation of the junior high school) of a specific item (time) is a standard unit or a reference unit (i.e., year, month, , Minute, second), it can be determined that the personal information about the user or the person related to the user is included.
일 실시예에서, 개인 정보 변환 모듈(422)은 사용자에 대한 개인 정보가 포함된 속성 값을, 메모리(430)에 저장된 사용자 프로필에 기반하여, 개인 정보가 포함되지 않는 속성 값으로 변환할 수 있다.In one embodiment, the personal information transformation module 422 may transform an attribute value including personal information about the user into an attribute value that does not contain personal information, based on the user profile stored in the memory 430 .
일 실시예에서 사용자 프로필은 사용자를 설명하는 정보로서, 개인 정보가 포함된 속성 값을 개인 정보가 포함되지 않는 속성 값으로 변환하기 위해 사용되는 기준정보일 수 있다. 예를 들어 사용자 프로필은, 사용자의 얼굴 사진 혹은 신상 명세(예: 생년월일, 주민등록번호, 집주소, 학력, 전과 등) 중 하나를 포함할 수 있다.In one embodiment, the user profile may be information describing a user, and may be reference information used to convert an attribute value including personal information into an attribute value that does not include personal information. For example, the user profile may include one of a user's face photograph or personal description (e.g., date of birth, social security number, home address, education, history, etc.).
예를 들어, 개인 정보 변환 모듈(422)은 사용자 프로필에 포함된 사용자의 생년월일을 이용하여, "중학교 3학년 여름방학"이라는 개인 정보가 포함된 속성 값을 "1997.7.1 ~ 1997.8.31"이라는 개인 정보가 포함되지 않는 속성 값으로 변환할 수 있다.For example, the personal information conversion module 422 uses the date of birth of the user included in the user profile to designate the attribute value including the personal information "junior high school third grade summer vacation" as "1997.7.1 to 1997.8.31" It can be converted to an attribute value that does not contain personal information.
개인 정보가 포함된 속성 값을 개인 정보가 포함되지 않는 속성 값으로 변환한 경우, 개인 정보 변환 모듈(422)은 변환된 속성 값에 기반하여 상황 정보를 갱신할 수 있다. 예를 들어, 개인 정보 변환 모듈(422)은 개인 정보를 변환하기 전의 상황 정보("시간 - 중학교 3학년 여름방학, 인물 - 나, 엄마, 장소 - 서울공원")를, 다른 상황 정보("시간 - 1997.7.1 ~ 1997.8.31", 인물 - 나, 엄마, 장소 - 서울공원")로 변경 혹은 갱신할 수 있다.When the attribute value including the personal information is converted into the attribute value that does not include the personal information, the personal information conversion module 422 can update the status information based on the converted attribute value. For example, the personal information conversion module 422 stores status information (" Time - Summer Vacation in Third Grade Middle School, Person - I, Mother, Place - Seoul Park " - 1997.7.1 ~ 1997.31 ", person - me, mother, place - Seoul Park") can be changed or renewed.
ISP(423)는 도 3의 ISP(323)일 수 있다. ISP(423)은 메모리(430)에 저장된 복수의 이미지들 각각으로부터 각각의 객체 이미지를 획득하거나, 통신 모듈(440)을 통하여 외부 장치(450)로부터 복수의 객체 이미지를 획득할 수 있다. ISP(423)는 획득한 객체 이미지를 하나의 이미지에서 합성함으로써, 요청 이미지를 생성할 수 있다. 예를 들어, 전자 장치(410)는 외부 장치(450)로부터 복수의 객체 이미지들을 획득하고, 획득한 복수의 객체 이미지들을 합성함으로써, 요청 이미지를 생성할 수 있다. 다른 예를 들어, 전자 장치(410)는 전자 장치(410)의 메모리(430)에 저장된 복수의 이미지들 중 적어도 하나의 이미지에서 각각의 객체 이미지를 획득하고, 획득한 객체 이미지들을 합성함으로써, 요청 이미지를 생성할 수 있다.The ISP 423 may be the ISP 323 of FIG. The ISP 423 may obtain each object image from each of the plurality of images stored in the memory 430 or may acquire a plurality of object images from the external device 450 through the communication module 440. [ The ISP 423 can generate the request image by combining the acquired object images in one image. For example, the electronic device 410 may generate a request image by obtaining a plurality of object images from the external device 450 and synthesizing the plurality of acquired object images. Alternatively, the electronic device 410 may obtain the respective object images from at least one of the plurality of images stored in the memory 430 of the electronic device 410, synthesize the acquired object images, Images can be generated.
일 실시예에서, ISP(423)가 메모리(430)에 저장된 복수의 이미지들에 기반하여 객체 이미지를 획득할 때, ISP(423)는 메모리(430)에 저장된 복수의 이미지들 중에서 요청 이미지에 포함될 객체 이미지가 포함된 적어도 하나의 이미지들(이하 "원본 이미지"로 칭함)을 검색할 수 있다. 원본 이미지는 로우 이미지(322) 또는 스몰 로우 이미지(324)일 수 있다. ISP(423)는 메모리(430)에 저장된 복수의 이미지들 중에서, 객체 이미지가 포함된 적어도 하나의 원본 이미지들을, 이미지 생성 조건에 기반하여 검색할 수 있다. 예를 들어, 전자 장치(410)는 이미지 생성 조건("1997.7.1 ~ 1997.8.31의 서울공원", "1997.7.1 ~ 1997.8.31의 나", "1997.7.1 ~ 1997.8.31의 엄마")에 기반하여, 메모리(430)에서 1997.7.1 ~ 1997.8.31에 대응하는 서울공원의 이미지를 포함하는 원본 이미지(즉, 서울공원을 나타내는 객체 혹은 피사체를 포함하는 이미지), 1997.7.1 ~ 1997.8.31에 대응하는 사용자의 이미지를 포함하는 원본 이미지, 1997.7.1 ~ 1997.8.31에 대응하는 엄마의 이미지를 포함하는 원본 이미지를 검색할 수 있다. In one embodiment, when the ISP 423 obtains an object image based on a plurality of images stored in the memory 430, the ISP 423 may include a plurality of images stored in the memory 430, (Hereinafter referred to as " original image ") including an object image. The original image may be a low image 322 or a small low image 324. [ The ISP 423 can search for at least one original image including the object image among the plurality of images stored in the memory 430 based on the image creation condition. For example, the electronic device 410 may be configured to generate an image based on an image generation condition (" Seoul Park of 1997.7.1 ~ 1997.31 ", " Me of 1997.7.1 ~ (I.e., an image representing an object representing a Seoul park or an image including a subject) including an image of a Seoul park corresponding to 1997.7.1 to 1997.8.31 in the memory 430, An original image including the image of the user corresponding to the number of the users corresponding to the number of the users,
일 실시예에서, ISP(423)는 요청 이미지에 포함될 객체 이미지가 포함된 원본 이미지들을 획득한 경우, 획득한 원본 이미지들로부터, 요청 이미지에 포함될 객체 이미지를 획득할 수 있다. 일 실시예에서, 요청 이미지에 포함될 객체 이미지를 획득하는 동작은, 원본 이미지를 편집함으로써, 요청 이미지에 포함될 객체를 나타내는, 원본 이미지 내 서브 이미지를 획득하는 동작을 포함할 수 있다. 예를 들어, ISP(423)는 외부 장치(300)의 보정 영역 정보(332)를 획득할 수 있다. In one embodiment, the ISP 423 may obtain an object image to be included in the request image, from the obtained original images, if the ISP 423 has acquired the original images including the object image to be included in the request image. In one embodiment, the act of obtaining an object image to be included in the request image may include obtaining an image in the original image that represents the object to be included in the request image, by editing the original image. For example, the ISP 423 may acquire the correction area information 332 of the external device 300. [
일 실시예에서, ISP(423)는 획득한 원본 이미지들로부터 요청 이미지에 포함될 객체 이미지를 획득하기 위하여, 획득한 원본 이미지를 분할(segmentation)하거나 크롭(crop)할 수 있다. 예를 들어, ISP(423)는 스몰 로우 이미지(324)로부터 세그먼테이션된 적어도 하나의 이미지 영역을 획득할 수 있다.In one embodiment, the ISP 423 may segment or crop the acquired original image to obtain an object image to be included in the request image from the acquired original images. For example, the ISP 423 may obtain at least one segmented image region from the small row image 324. [
일 실시예에서, ISP(423)는 획득한 원본 이미지에서, 요청 이미지에 포함될 객체의 윤곽선을 이용하여 획득한 이미지의 일부 영역(a portion)을 결정하고, 결정된 일부 영역을 잘라내거나 분할함으로써 객체 이미지를 획득할 수 있다. 예를 들어, ISP(423)가 메모리(430)에서 "1997.7.20의 서울공원"객체의 이미지를 포함하는 원본 이미지를 획득한 경우, ISP(423)는 서울공원을 나타내는 객체 혹은 피사체(예: 서울공원의 랜드마크가 될 수 있는 간판, 정문, 동상 등)의 윤곽선을 이용하여, "1997.7.20의 서울공원"의 객체 이미지를 획득할 수 있다.In one embodiment, the ISP 423 determines a portion of the acquired image using the outline of the object to be included in the requested image, and crops or divides the determined portion of the image, Can be obtained. For example, if the ISP 423 has obtained an original image including an image of the object "Seoul Park 1997.7.20" in the memory 430, the ISP 423 may display an object or object (for example, The sign of Seoul Park can be used as a landmark, front gate, bronze statue, etc.) of the contour, "1997.7.20 Seoul Park" object image can be obtained.
일 실시예에서, ISP(423)은 이미지의 전체 영역을 객체로 획득할 수도 있다.In one embodiment, the ISP 423 may obtain the entire area of the image as an object.
일 실시예에서, ISP(423)가 요청 이미지에 포함될 객체 이미지를 포함하는 원본 이미지들이 메모리(430)에 존재하지 않다고 판단한 경우, 요청 이미지에 포함될 객체의 속성에 기반하여 추가적인 검색 동작을 수행할 수 있다. 이 때, 객체의 속성은 시간에 대한 민감도를 나타내는 속성일 수 있다. 예를 들어, 서울공원을 나타내는 객체 혹은 피사체는, 시간에 대하여 변화가 크지 않는 무생물인 점이 고려될 수 있다. ISP(423)은, 시간에 대한 조건을 다르게 설정하고, 다르게 설정된 조건에 기반하여 추가적으로 검색 동작을 수행할 수 있다. 예를 들어, 1997.7.1 ~ 1997.8.31에 대응하는 서울공원을 포함하는 원본 이미지가 존재하지 않는 경우, ISP(423)은 1997.7.1 ~ 1997.8.31일의 시구간을 포함하는 다른 시구간(예: 1996.7.1 ~ 1998.8.31)에 대응하는 서울공원의 이미지를 포함하는 원본 이미지를 검색할 수 있다. In one embodiment, if the ISP 423 determines that the original images containing the object image to be included in the request image are not present in the memory 430, an additional search operation may be performed based on the attributes of the object to be included in the request image have. At this time, the attribute of the object may be an attribute indicating the sensitivity to time. For example, it can be considered that an object or a subject representing a Seoul park is an inanimate object which does not change much with respect to time. The ISP 423 may set the conditions for the time differently and perform additional search operations based on the otherwise set conditions. For example, if there is no original image including a Seoul park corresponding to 1997.7.1 ~ 1997.8.31, the ISP 423 may compare the time interval between 1997.7.1 ~ 1997.31 For example, July 1, 1998 to August 31, 1998).
일 실시예에서, 추가적인 검색을 수행하였음에도 불구하고 이미지 생성 조건에 해당하는 객체를 포함하는 원본 이미지가 검색되지 않는 경우, ISP(423)는 이미지 생성 조건에 해당하는 객체를 직접 생성할 수 있다. 예를 들어, ISP(423)는 벡터 드로잉(vector drawing) 기법을 이용하여 이미지 생성 조건에 해당하는 객체를 생성할 수 있다. 다른 예를 들어, ISP(423)는 머신 러닝(machine learing) 기법을 이용하여 이미지 생성 조건에 해당하는 객체를 생성할 수 있다. 이 때, 머신 러닝의 학습 데이터는 메모리(430)에 저장된 복수의 이미지들일 수 있다. 다른 예를 들어, ISP(423)는 메모리(430)에 저장된 복수의 이미지들로부터 공통적으로 추출된 특징(feature)을 이용하여 이미지 생성 조건에 해당하는 객체를 생성할 수 있다. 만약 이미지 생성 조건이 1997.7.1 ~ 1997.8.31의 나, 엄마, 서울공원에 대한 객체의 조건 및 엄마와 내가 손을 잡고 있는 동작에 대한 조건을 포함할 때, 엄마와 내가 손을 잡고 있는 이미지가 존재하지 않을 경우, ISP(423)은 메모리에 저장된, 손을 잡고 있는 다른 이미지들로부터 공통적으로 추출된 특징에 기반하여 나와 엄마가 손을 잡고 있는 객체를 생성할 수 있다.In an embodiment, if an original image including an object corresponding to an image generation condition is not searched even though additional search is performed, the ISP 423 may directly generate an object corresponding to the image generation condition. For example, the ISP 423 may generate an object corresponding to an image generation condition using a vector drawing technique. In another example, the ISP 423 may create an object corresponding to an image generation condition using a machine learing technique. At this time, the learning data of the machine learning may be a plurality of images stored in the memory 430. For example, the ISP 423 may generate an object corresponding to an image generation condition using a feature extracted commonly from a plurality of images stored in the memory 430. [ If the image creation conditions include the condition of the object for me, mother, Seoul Park, 1997.7.1 ~ 1997.8.31, and the condition for the action that the mother and I are holding hands, If not present, the ISP 423 may create an object with which the mother grasps the hand, based on features commonly extracted from other images held in hand, stored in memory.
일 실시예에서, ISP(423)는 획득하거나 생성한 객체 이미지들을 이용하여 요청 이미지를 생성할 수 있다. 일 실시예에서, ISP(423)은 획득하거나 생성한 객체 이미지들을 합성함으로써 요청 이미지를 생성할 수 있다. 일 실시예에서, ISP(423)는 획득하거나 생성한 객체 이미지들을 하나의 이미지의 서로 다른 위치에 배치 혹은 구성함으로써, 요청 이미지를 생성할 수 있다. 예를 들어, ISP(423)은 메모리(430)에 저장된 제1 원본 이미지로부터 획득한 객체 "나"의 이미지와, 메모리(430)에 저장된 제2 원본 이미지로부터 획득한 객체 "서울공원"의 이미지를 하나의 이미지 내 서로 다른 영역에 배치하여 요청 이미지를 생성할 수 있다. 획득한 객체가 요청 이미지 내에 배치될 위치는, 획득한 객체가 원본 이미지에서 어떤 위치에 배치되어 있었는지 여부를 기반으로 결정될 수 있다. 예를 들어, ISP(423)는 보정 영역 정보(332)를 이용하여 로우 이미지(322)를 보정할 수 있으며, 이에 따라 보정된 이미지(즉, 요청 이미지)를 생성할 수도 있다. 다른 예를 들어, ISP(423)는 보정 영역 정보(332)를 이용하여 기존에 존재하지 않은 새로운 이미지(즉, 요청 이미지)를 생성할 수도 있다.In one embodiment, the ISP 423 may generate the request image using the object images obtained or generated. In one embodiment, the ISP 423 may generate the request image by composing the object images that it has acquired or generated. In one embodiment, the ISP 423 may generate the request image by arranging or arranging the object images obtained or generated at different positions of one image. For example, the ISP 423 stores the image of the object " I " obtained from the first original image stored in the memory 430 and the image of the object " Seoul Park " obtained from the second original image stored in the memory 430 Can be placed in different areas of an image to generate a request image. The position at which the acquired object is placed in the request image can be determined based on the position of the acquired object in the original image. For example, the ISP 423 may use the correction area information 332 to correct the raw image 322 and thereby generate a corrected image (i.e., a request image). In another example, the ISP 423 may use the correction area information 332 to generate a new image that is not existing (i.e., a request image).
다른 실시예에서, ISP(423)는 획득하거나 생성한 객체 이미지들 중 하나의 객체 이미지를 다른 객체 이미지에 중첩(overlay)함으로써 요청 이미지를 생성할 수 있다. 예를 들어, ISP(423)는 객체 "1997.8.1의 서울공원" 이미지를 동일한 이미지의 특정 영역에 배치하고, 객체 "1997.7.20의 나" 이미지를, 동일한 이미지의 특정 영역에 배치된 "서울공원" 이미지에 중첩하여 배치할 수 있다.In another embodiment, the ISP 423 may generate a request image by overlaying one of the object images obtained or generated to another object image. For example, the ISP 423 places an image of the object " Seoul Park on August 1, 1997 " in a specific area of the same image, Park " image. ≪ / RTI >
일 실시예에서, ISP(423)는 획득하거나 생성한 객체 이미지들을 배치하기 전, 배치될 다른 객체 이미지와의 통일감 또는 조화를 고려하여, 획득하거나 생성한 객체 이미지들을 처리(process)할 수 있다. 일 실시예에서, ISP(423)는 획득하거나 생성한 객체 이미지들의, 화면 표시와 관련된 속성(예: 화이트 밸런스, 노이즈, 색감, 크기 등)을 조절(adjust)할 수 있다. 예를 들어, "1997.8.1의 서울공원" 객체 이미지가 흑백 이미지이고, "1997.7.20의 나"객체 이미지가 컬러 이미지인 경우, "1997.7.20의 나"의 컬러 이미지를 흑백으로 처리할 수 있다. 다른 예를 들어, 객체 이미지 처리는 화이트 밸런스 조절, 컬러 조절(color adjustment), 노이즈 감소(noise reduction), 샤픈(sharpen), 디테일 향상(detail enhancement)중 적어도 하나를 포함할 수 있다.In one embodiment, the ISP 423 may process the object images obtained or generated, in consideration of unity or harmony with other object images to be placed, before arranging the object images obtained or generated. In one embodiment, the ISP 423 may adjust properties (e.g., white balance, noise, color saturation, size, etc.) associated with the display of the object images obtained or generated. For example, if the object image is a monochrome image and the object image is a color image, the color image of "1997.7.20" can be processed in black and white. have. In another example, the object image processing may include at least one of white balance adjustment, color adjustment, noise reduction, sharpening, and detail enhancement.
다른 실시예에서, ISP(423)은 획득하거나 생성한 객체 이미지들을 배치한 후, 배치된 객체 이미지간의 위화감을 줄이기 위한 처리를 수행할 수 있다. 예를 들어, ISP(423)는 배치가 완료된 이미지에서, 각 객체 이미지의 경계면 (혹은 경계선)에 대하여 블러(blur) 처리를 수행하여 서로 다른 객체 이미지 간의 경계에서 발생할 수 있는 위화감을 억제할 수 있다. 다른 예를 들어, 두 개 이상의 객체들이 접하는 경계면 (혹은 경계선)에 대하여 정제(refinement) 처리를 수행하여 경계면 (혹은 경계선)을 부드럽게 처리할 수 있다. 또 다른 예를 들어, 배치가 완료된 이미지에서, 각 객체 이미지간 공간상 선후 관계 또는 각 객체 이미지간 깊이(depth)의 차이가 있는 경우, 초점으로부터의 거리에 따른 렌즈의 PSF 특성에 기반하여, 특정 객체 이미지에 대한 블러 또는 디컨볼루션(deconvolution) 처리를 수행할 수 있다. 이 과정은 객체 이미지들의 배치전, 전처리 과정에서 수행될 수도 있다.In another embodiment, the ISP 423 may arrange object images obtained or generated, and then perform processing to reduce discomfort between the disposed object images. For example, the ISP 423 may perform a blurring process on a boundary surface (or a boundary line) of each object image in an image in which placement is completed, thereby suppressing a discomfort that may occur at the boundary between different object images . In another example, the boundary (or boundary) at which two or more objects are touched may be subjected to a refinement process to smoothly process the boundary (or boundary). In another example, if there is a difference in depth between the object images or a space-based posterior relationship between the object images in the batch-completed image, based on the PSF characteristics of the lens according to the distance from the focus, A blur or a deconvolution process can be performed on the object image. This process may be performed before the arrangement of the object images and in the preprocessing process.
프로세서(420)는, ISP(423)에 의해 생성된 요청 이미지를 사용자에게 제공할 수 있다. 예를 들어, 프로세서(420)는 생성된 요청 이미지를 화면에 출력하도록 디스플레이(미도시)를 제어할 수 있다. Processor 420 may provide the user with a request image generated by ISP 423. For example, the processor 420 may control the display (not shown) to output the generated request image to the screen.
도 4a에 미도시되었지만, 전자 장치(410)는 추가적인 구성을 더 포함할 수 있다. 예를 들어, 전자 장치(410)는 입력 모듈(예: 키보드, 마우스, 마이크 등) 혹은 출력 모듈(예: 디스플레이)을 더 포함할 수 있다.Although not shown in FIG. 4A, the electronic device 410 may further include additional configurations. For example, the electronic device 410 may further include an input module (e.g., a keyboard, a mouse, a microphone, etc.) or an output module (e.g., a display).
도 4b는 본 발명의 다양한 실시예들에 따른 외부 장치의 블록도이다.4B is a block diagram of an external device in accordance with various embodiments of the present invention.
본 발명의 다양한 실시예에서, 이미지 생성 조건에 기반하여 요청 이미지를 생성하는 동작은 전자 장치(410) 또는 외부 장치(450)에서 수행될 수 있다. 따라서 외부 장치(450)는 이미지 생성 조건에 기반하여 요청 이미지를 생성하기 위한 적어도 하나의 모듈을 포함할 수 있다. 예를 들어 외부 장치(450)는 전자 장치(410)로부터 이미지 생성 요청을 수신하고, 수신한 이미지 생성 요청에 기반하여 요청 이미지를 생성할 수 있다. 외부 장치(450)는 수신한 이미지 생성 요청에 기반하여 요청 이미지를 생성하기 위한 적어도 하나의 모듈을 포함할 수 있다.In various embodiments of the present invention, the operation of generating a request image based on an image generation condition may be performed in the electronic device 410 or the external device 450. Thus, the external device 450 may include at least one module for generating a request image based on an image generation condition. For example, the external device 450 may receive an image generation request from the electronic device 410 and generate a request image based on the received image generation request. The external device 450 may include at least one module for generating a request image based on the received image creation request.
일 실시예에서 외부 장치(450)는 외부 장치(300)일 수 있다.In one embodiment, the external device 450 may be an external device 300.
일 실시예에서, 외부 장치(450)는 통신 모듈(440-1), 프로세서(420-1)를 포함할 수 있으며, 통신 모듈(440-1), 프로세서(420-1)는 통신 모듈(440), 프로세서(420)와 각각 동일한 기능을 수행할 수 있다. 프로세서(420-1)은 ISP(423-1)을 포함할 수 있으며, ISP(423-1)은 ISP(333)일 수 있다.In one embodiment, the external device 450 may include a communication module 440-1, a processor 420-1, a communication module 440-1, a processor 420-1, ) And the processor 420, respectively. The processor 420-1 may include an ISP 423-1 and the ISP 423-1 may be an ISP 333.
일 실시예에서, 외부 장치(450)는 메모리(430-1)를 포함할 수 있다. 메모리(430-1)는 메모리(430)와 마찬가지로, 복수의 이미지들을 저장할 수 있다. 일 실시예에서, 메모리(430-1)는 외부 장치(450)에서 생성된 데이터 혹은 전자 장치(410)를 비롯한 복수의 전자 장치에서 송신된(혹은 업로드된) 데이터를 저장할 수 있다. In one embodiment, the external device 450 may include a memory 430-1. The memory 430-1, like the memory 430, can store a plurality of images. In one embodiment, the memory 430-1 may store data generated in the external device 450 or data transmitted (or uploaded) in a plurality of electronic devices, including the electronic device 410. [
일 실시예에서, 메모리(430-1)는 서로 구분되는 두 개의 영역들을 포함할 수 있다. 이때, 서로 구분되는 두 개의 영역들은 제1 영역(431)과 제2 영역(432)일 수 있다. 일 실시예에서, 제1 영역(431)과 제2 영역(432)은 물리적으로, 혹은 접근 권한에 따라 구분될 수 있다.In one embodiment, the memory 430-1 may include two regions that are distinct from each other. At this time, the two regions may be the first region 431 and the second region 432. In one embodiment, the first area 431 and the second area 432 may be physically or by access authority.
일 실시예에서, 메모리(430-1)의 제1 영역(431)은 특정인(예: 사용자)에 지정(designated), 혹은 특정인에 전용(dedicated) 있는 저장 공간일 수 있다. 예를 들어, 제1 영역(431)이 인물 A에 지정 혹은 전용된 경우, 제1 영역(431)은 인물 A 에 의해 (혹은 인물 A의 전자 장치에 의해) 송신된 정보(예: 이미지)만을 저장할 수 있다. 다른 예를 들어, 제1 영역(431)이 인물 A에 지정 혹은 전용된 경우, 제1 영역(431)은 인물 A의 개인 정보(예: 인물 A의 사용자 프로필) 또는 개인 정보를 포함하는 정보(예: 인물 A의 얼굴을 포함하는 이미지)만을 저장할 수 있다. 또 다른 예를 들어, 제1 영역(431)은 제1 영역 A(미도시), 제1 영역 B(미도시)를 포함하고, 제1 영역 A는 인물 A에 지정 혹은 전용되며, 제2 영역 B는 인물 B에 지정 혹은 전용된 경우, 제1 영역 B는 인물 A의 동의 하에, 인물 A의 개인 정보 또는 개인 정보를 포함하는 정보를 저장할 수 있다.In one embodiment, the first area 431 of the memory 430-1 may be a storage space designated by a particular person (e.g., a user) or dedicated to a particular person. For example, if the first area 431 is assigned or dedicated to person A, the first area 431 may contain only information (e.g., an image) transmitted by person A (or by an electronic device of person A) Can be stored. For example, when the first area 431 is designated or dedicated to the person A, the first area 431 may include personal information of the person A (e.g., a user profile of the person A) For example, an image including the face of person A). In another example, the first area 431 includes a first area A (not shown), a first area B (not shown), a first area A is designated or dedicated to person A, B is designated or dedicated to person B, the first area B can store information including personal information or personal information of person A, with the consent of person A. [
일 실시예에서, 메모리(430-1)의 제2 영역(432)은 특정인에 지정 혹은 전용되지 않은 저장 공간일 수 있다. 예를 들어, 제2 영역(432)은 제1 영역(431)에 포함되지 않는 저장 공간일 수 있다. 다른 예를 들어, 제2 영역(432)은 외부 장치(300)에 등록되지 않은 사용자에 의해 촬영된 이미지, 혹은 촬영자를 특정할 수 없는 이미지를 저장할 수 있다. 또 다른 예를 들어, 제2 영역(432)은 특정인의 동의 하에, 특정인(예: 사용자)의 개인 정보 또는 개인 정보를 포함하는 정보를 저장할 수 있다.In one embodiment, the second area 432 of the memory 430-1 may be a storage space that is not designated or dedicated to a particular person. For example, the second area 432 may be a storage area that is not included in the first area 431. For example, the second area 432 may store an image captured by a user not registered in the external device 300, or an image that can not specify the photographer. As another example, the second area 432 may store information including personal information or personal information of a particular person (e.g., a user) under the consent of a particular person.
일 실시예에서, ISP(423-1)는 요청 이미지에 포함될 객체의 속성에 기반하여 메모리(430-1)의 검색 영역을 결정할 수 있다. 요청 이미지에 포함될 객체의 속성은 사용자 혹은 사용자와 관련된 인물의 개인 정보 포함 여부를 나타내는 속성일 수 있다. 예를 들어, 요청 이미지에 포함될 객체 이미지가 "1997.7.1 ~ 1997.8.31의 서울공원"인 경우, "서울공원"은 사용자 혹은 사용자와 관련된 인물의 개인 정보와 무관하므로, ISP(423-1)는 메모리의 제2 영역(432)에서, 원본 이미지들을 검색할 수 있다. 다른 예를 들어, 요청 이미지에 포함될 객체 이미지가 "1997.7.1 ~ 1997.8.31의 나(혹은 사용자)"인 경우, 객체는 사용자의 개인 정보(예: 얼굴 사진)를 포함하므로, ISP(423-1)는 메모리의 제1 영역(431)에서, 요청 이미지에 포함될 객체 이미지가 포함된 원본 이미지들을 검색할 수 있다. ISP(423-1)는 메모리의 제1 영역(431) 또는 제2 영역(432)에서 저장된 이미지들을 검색하고, 검색 결과에 따라 요청 이미지에 포함될 객체 이미지가 포함된 원본 이미지들을 획득하거나, 요청 이미지에 포함될 객체가 포함된 원본 이미지들이 메모리(430-1)에 존재하지 않다고 판단할 수 있다.In one embodiment, the ISP 423-1 may determine the search area of the memory 430-1 based on the attributes of the object to be included in the request image. The attribute of the object to be included in the request image may be an attribute indicating whether the user or the person related to the user includes personal information. For example, if the object image to be included in the request image is " Seoul Park, 1997.7.1 ~ 1997.31 ", " Seoul Park " is independent of the personal information of the person related to the user or user, In the second area 432 of the memory, the original images. In another example, if the object image to be included in the request image is " I (or a user) from 1997.7.1 to 1997.8.31 ", the object includes the user's personal information 1 may retrieve original images containing object images to be included in the request image in the first area 431 of the memory. The ISP 423-1 searches the images stored in the first area 431 or the second area 432 of the memory and acquires original images including an object image to be included in the request image according to the search result, It can be determined that the original images including the objects to be included in the memory 430-1 are not present in the memory 430-1.
일 실시예에서, ISP(423-1)는 메모리의 제1 영역(431)에서 요청 이미지에 포함될 객체를 검색하기 전, 제1 영역(431)에 지정된 특정인(예: 사용자)에게 미리 동의를 획득할 수 있다.In one embodiment, the ISP 423-1 obtains prior consent from a specific person (e.g., a user) specified in the first area 431 before retrieving the object to be included in the request image in the first area 431 of the memory can do.
일 실시예에서, 프로세서(420-1)는 요청 이미지를 전자 장치(410)에 송신하도록 통신 모듈(440-1)을 제어할 수 있다.In one embodiment, the processor 420-1 may control the communication module 440-1 to send the request image to the electronic device 410. [
도 5는 본 발명의 다양한 실시예들에 따른 전자 장치가 이미지 생성 조건을 만족하는 이미지를 제공하기 위한 흐름도이다.5 is a flow chart for providing an image in which an electronic device according to various embodiments of the present invention satisfies an image generation condition.
510동작에서, 프로세서(420)는 이미지 생성 요청을 수신할 수 있다. 일 실시예에서, 프로세서(420)는 입력 모듈(미도시)을 통하여 이미지 생성 요청을 수신할 수 있다. 이미지 생성 요청은 이미지 생성에 대한 사용자 요청으로서, 텍스트 입력, 음성 입력, 디스플레이에 제공된 사용자 인터페이스에 포함된 메뉴에 대한 터치 입력 등 다양한 형태의 입력일 수 있다. 예를 들어, 이미지 생성 요청은 "중학교 3학년 여름방학 때 엄마랑 서울공원에 갔던 사진을 보고 싶어"와 같은 텍스트를, 화면에 제공된 입력 창에 입력하는 사용자 입력일 수 있다.In operation 510, the processor 420 may receive an image creation request. In one embodiment, the processor 420 may receive an image creation request through an input module (not shown). The image creation request is a user request for image creation, and may be various types of input such as text input, voice input, touch input to a menu included in the user interface provided in the display. For example, the image creation request may be a user input for inputting text such as " I want to see a picture of my mom and sister who went to Seoul Park during the summer vacation of junior high school " in the input window provided on the screen.
520동작에서, 프로세서(420)는 이미지 생성 조건을 결정할 수 있다. 일 실시예에서, 프로세서(420)는 510동작에서 수신한 이미지 생성 요청에 기반하여 이미지 생성 조건을 결정할 수 있다. 이미지 생성 조건은 복수의 항목들 및 그에 대응하는 속성 값을 나타내는 상황 정보에 기반하여 결정될 수 있다. 예를 들어, 프로세서(420)는 510동작에서 수신한 이미지 생성 요청 또는 상황 정보에 기반하여, ("1997.7.1 ~ 1997.8.31의 서울공원", "1997.7.1 ~ 1997.8.31의 나", "1997.7.1 ~ 1997.8.31의 엄마")와 같이 요청 이미지에 포함될 객체에 대한 이미지 생성 조건을 결정할 수 있다. 다른 예를 들어, 프로세서(420)는 서로 다른 시간 조건이 부여된 서로 다른 객체에 관한 이미지 생성 조건("93년의 나", "95년의 서울공원")을 결정할 수 있다.In operation 520, the processor 420 may determine image generation conditions. In one embodiment, the processor 420 may determine an image generation condition based on the image generation request received in operation 510. [ The image generation condition may be determined based on the plurality of items and the context information indicating the corresponding attribute value. For example, the processor 420 may be configured to determine whether the image is to be generated based on the image creation request or status information received in operation 510 (see " Seoul Park, 1997.7.1 ~ 1997.31, 1997, Quot; mother " of July 1, 1997 to March 1, 1997), the image creation condition for the object to be included in the request image can be determined. As another example, the processor 420 may determine the image generation conditions ("93 years of age", "95 years of Seoul park") for different objects with different time conditions.
530동작에서, 프로세서(420)는 이미지 생성 조건을 만족하는 이미지를 검색할 수 있다. 프로세서(420)는 이미지 생성 조건을 만족하는 이미지를 메모리(430)에서 검색하거나, 혹은 이미지 생성 조건을 만족하는 이미지의 검색 요청을 외부 장치(450)로 송신할 수 있다.In operation 530, the processor 420 may retrieve an image that satisfies the image creation condition. The processor 420 may search the memory 430 for an image that satisfies the image creation condition or send a search request for the image that satisfies the image creation condition to the external device 450. [
일 실시예에서, 이미지 생성 조건을 만족하는 이미지는, 이미지 생성 조건에 포함되는, 각각 특정한 조건을 가지는 모든 객체들을 포함하는 이미지를 나타낼 수 있다.In one embodiment, the image satisfying the image generation condition may represent an image including all the objects having respective specific conditions included in the image generation condition.
이미지 생성 조건을 만족하는 이미지가 검색된 경우, 570동작에서, 프로세서(420)는 검색된 이미지를 제공할 수 있다.If an image satisfying the image creation condition is retrieved, in operation 570, the processor 420 may provide the retrieved image.
이미지 생성 조건을 만족하는 이미지가 검색되지 않는 경우, 540동작에서, 프로세서(420)는 이미지 생성 조건의 일부를 만족하는 원본 이미지들이 검색되는지 확인할 수 있다. 예를 들어, 이미지 생성 조건이 ("1997.7.1 ~ 1997.8.31의 서울공원", "1997.7.1 ~ 1997.8.31의 나", "1997.7.1 ~ 1997.8.31의 엄마")인 경우, 프로세서(420)는 "1997.7.1 ~ 1997.8.31의 서울 공원"객체 이미지를 포함하는 원본 이미지, "1997.7.1 ~ 1997.8.31의 나"의 객체 이미지를 포함하는 원본 이미지, "1997.7.1 ~ 1997.8.31의 엄마"의 객체 이미지를 포함하는 원본 이미지가 각각 검색되는지 확인할 수 있다.If an image satisfying the image creation condition is not found, the processor 420 can check whether the original images satisfying a part of the image creation condition are retrieved. For example, if the image generation conditions are ("Seoul Park of 1997.7.1 ~ 1997.8.31," "I of 1997.7.1 ~ 1997.8.31", "Mom of 1997.7.1 ~ 1997.8.31"), (420) is an original image including an object image of "Seoul Park of 1997.7.1 ~ 1997.8.31, 1997", and an original image including an object image of "I of 1997.7.1 ~ 1997.8.31", 1997.7.1 ~ 1997.8 Quot ;, " mother of .31 ", respectively.
이미지 생성 조건의 일부를 만족하는 원본 이미지들이 검색된 경우, 프로세서(420)는 550동작에서, 이미지 생성 조건을 만족하는 이미지를 생성할 수 있다. 이미지 생성 조건을 만족하는 이미지는 이하 요청 이미지로 기술될 수 있다. If original images that satisfy some of the image creation conditions are retrieved, the processor 420 may, in operation 550, generate an image that satisfies the image creation conditions. An image satisfying the image generation condition can be described as a request image below.
일 실시예에서, 프로세서(420)는 검색된 원본 이미지로부터 요청 이미지에 포함될 객체 이미지를 획득할 수 있다. 일 실시예에서, 요청 이미지에 포함될 객체 이미지를 획득하는 동작은, 원본 이미지를 분할 혹은 크롭함으로써, 요청 이미지에 포함될 객체를 나타내는 이미지(객체 이미지)를 획득하는 동작을 의미할 수 있다.In one embodiment, the processor 420 may obtain an object image to be included in the request image from the retrieved original image. In one embodiment, the act of obtaining an object image to be included in the request image may mean obtaining an image (object image) representing the object to be included in the request image, by dividing or cropping the original image.
일 실시예에서, 프로세서(420)는 획득한 적어도 하나의 객체 이미지를 이용하여 요청 이미지를 생성할 수 있다. 예를 들어, 프로세서(420)가 요청 이미지에 포함될 제1 객체 이미지와 제2 객체 이미지를 획득한 경우, 제1 객체 이미지와 제2 객체 이미지를 하나의 이미지에서 합성함으로써 요청 이미지를 생성할 수 있다. 구체적으로, 프로세서(420)는 제1 객체 이미지와 제2 객체 이미지를, 하나의 이미지의 서로 다른 위치에 배치 혹은 구성함으로써, 요청 이미지를 생성할 수 있다. In one embodiment, the processor 420 may generate the request image using the acquired at least one object image. For example, if the processor 420 has acquired a first object image and a second object image to be included in the request image, the request image may be generated by combining the first object image and the second object image in one image . Specifically, the processor 420 may generate a request image by arranging or arranging the first object image and the second object image at different positions of one image.
560동작에서, 프로세서(420)는 생성된 요청 이미지를 제공할 수 있다. 일 실시예에서, 프로세서(420)는 550동작에서 생성한 요청 이미지를 화면에 표시하도록 디스플레이를 제어할 수 있다.In operation 560, the processor 420 may provide the generated request image. In one embodiment, the processor 420 may control the display to display on the screen the request image generated in operation 550. [
미도시되었지만, 프로세서(420)는 제공된 요청 이미지에 대한 사용자의 피드백을 수신할 수 있다. 일 실시예에서, 프로세서(420)는 입력 모듈 혹은 화면에 표시된 인터페이스를 통하여 사용자의 피드백을 수신할 수 있다. 예를 들어, 프로세서(420)는 560동작에서 요청 이미지를 제공한 후, 사용자의 피드백 혹은 평가(예: 별점)를 수신하기 위한 사용자 인터페이스를 표시하도록 디스플레이를 제어하고, 표시된 사용자 인터페이스에 대한 사용자 입력을 수신할 수 있다. 요청 이미지에 대한 사용자 평가 혹은 피드백은, 요청 이미지에 포함된 객체 이미지(예: 제1 객체 이미지 또는 제2 객체 이미지)의 원본 이미지에 대한 속성(예: 정확도, 선호도 등)을 갱신하는데 사용될 수 있다. 예를 들어, 제1 객체 이미지가 전자 장치(410)의 메모리(430)에 저장된 제1 원본 이미지로부터 획득된 경우, 프로세서(420)는 제1 원본 이미지의 여러 가지 속성들 중에서, 사용자 평가 혹은 피드백에 기반하여, 적어도 하나의 속성의 값을 갱신하도록 메모리(430)를 제어할 수 있다.Although not shown, the processor 420 may receive user feedback on the provided request image. In one embodiment, the processor 420 may receive user feedback via an input module or interface displayed on the screen. For example, processor 420 may provide a request image in operation 560 and then control the display to display a user interface for receiving feedback or evaluation (e.g., a rating) of the user, Lt; / RTI > User evaluation or feedback on the requested image may be used to update attributes (e.g., accuracy, preference, etc.) for the original image of the object image (e.g., first object image or second object image) contained in the request image . For example, if a first object image is obtained from a first original image stored in the memory 430 of the electronic device 410, the processor 420 may determine, from among various attributes of the first original image, The memory 430 may be controlled to update the value of at least one attribute.
본 발명의 다양한 실시예에 의해서, 도 5에 개시된 적어도 일부 동작은 외부 장치의 프로세서(420-1)에 의해서 수행될 수 있다.According to various embodiments of the present invention, at least some of the operations described in Figure 5 may be performed by the processor 420-1 of the external device.
일 실시예에서, 510동작이 외부 장치의 프로세서(420-1)에 의해서 수행되는 경우, 프로세서(420-1)는 통신 모듈(410-1)을 통하여 전자 장치(410)로부터 이미지 생성 요청을 수신할 수 있다.In one embodiment, when 510 operation is performed by processor 420-1 of an external device, processor 420-1 receives an image generation request from electronic device 410 via communication module 410-1 can do.
일 실시예에서, 530동작 또는 540동작이 외부 장치의 프로세서(420-1)에 의해서 수행되는 경우, 프로세서(420-1)는 외부 장치(450)의 메모리(430-1)에 저장된 이미지들에서, 이미지 생성 조건의 적어도 일부를 만족하는 이미지를 검색할 수 있다.In one embodiment, when the 530 operation or the 540 operation is performed by the processor 420-1 of the external device, the processor 420-1 may compare the images stored in the memory 430-1 of the external device 450 , It is possible to retrieve an image satisfying at least a part of the image generation condition.
일 실시예에서, 530동작 또는 540동작이 외부 장치의 프로세서(420-1)에 의해서 수행되는 경우, 프로세서(420-1)는 요청 이미지에 포함될 객체의 속성에 기반하여 외부 장치(450)의 메모리(430-1)의 검색 영역을 결정할 수 있다. 객체의 속성은 사용자 혹은 사용자와 관련된 인물의 개인 정보 포함 여부를 나타내는 속성일 수 있다.In one embodiment, when the 530 operation or the 540 operation is performed by the processor 420-1 of the external device, the processor 420-1 determines whether the 530 operation or the 540 operation is performed by the processor 420-1 of the external device 450 based on the attribute of the object to be included in the request image It is possible to determine the search area of the search area 430-1. The attribute of the object may be an attribute indicating whether the user or the person associated with the user includes personal information.
도 6은 본 발명의 다양한 실시예들에 따른 전자 장치가 이미지 생성 조건의 일부를 만족하는 이미지를 검색하는 동작(540동작) 이미지 생성 조건을 만족하는 이미지를 생성하는 동작(550동작)의 세부 흐름도이다.6 is a detailed flow diagram of operation (operation 550) of generating an image that satisfies an image generation condition (operation 540) of retrieving an image that satisfies part of an image generation condition according to various embodiments of the present invention to be.
610동작에서, 이미지 생성 조건의 일부를 만족하는 이미지가 검색된 경우, 프로세서(420)는 검색된 모든 이미지가 전자 장치(410)에서 검색되었는지 여부를 확인할 수 있다. In operation 610, if an image satisfying a part of the image generation condition is retrieved, the processor 420 can check whether all the retrieved images have been retrieved from the electronic device 410. [
검색된 일부 이미지가 전자 장치(410)의 메모리(430)가 아닌 외부 장치(450)의 메모리(430-1)에서 검색되었다면, 프로세서(420)는 외부 장치(450)에, 검색된 일부 이미지(즉, 원본 이미지) 혹은 검색된 일부 이미지에 포함되는 객체 이미지의 요청을 송신할 수 있다.If some of the retrieved images have been retrieved from the memory 430-1 of the external device 450 and not from the memory 430 of the electronic device 410, the processor 420 causes the external device 450 to retrieve some of the retrieved images Original image), or a request for an object image included in the retrieved partial image.
630동작에서, 프로세서(420)는 요청 이미지에 포함될 적어도 하나의 객체 이미지를 획득할 수 있다. 예를 들어, 검색된 모든 이미지가 전자 장치(410)에서 검색된 경우, 프로세서(420)는 검색된 모든 이미지를 각각 분할하거나 크롭함으로써, 적어도 하나의 객체 이미지를 획득할 수 있다. 다른 예를 들어, 검색된 일부 이미지에 포함되는 객체 이미지의 요청을 외부 장치(450)에 송신한 경우, 전자 장치는 외부 장치(450)로부터 요청된 객체 이미지를 수신함으로써, 요청 이미지에 포함될 적어도 하나의 객체 이미지를 획득할 수 있다. 다른 예를 들어, 외부 장치(450)로부터 검색된 일부 이미지를 수신한 경우, 전자 장치는 수신한 이미지를 분할하거나 크롭함으로써, 객체 이미지를 획득할 수도 있다.In operation 630, the processor 420 may obtain at least one object image to be included in the request image. For example, if all of the retrieved images are retrieved from the electronic device 410, the processor 420 may obtain at least one object image by segmenting or cropping each retrieved image. In another example, when a request for an object image included in some of the searched images is transmitted to the external device 450, the electronic device receives the object image requested from the external device 450 so that at least one An object image can be acquired. In another example, when receiving some images retrieved from the external device 450, the electronic device may obtain object images by dividing or cropping the received images.
640동작은 550동작과 유사하므로, 자세한 설명을 생략하기로 한다. Operation 640 is similar to operation 550, and thus a detailed description thereof will be omitted.
도 7은 본 발명의 다양한 실시예들에 따른 이미지 생성 조건을 만족하는 이미지를 제공하기 위한 전자 장치와 외부 장치의 상호 신호 흐름도이다. 7 is a cross-sectional signaling diagram of an electronic device and an external device for providing an image satisfying an image generation condition according to various embodiments of the present invention.
도 7은, 이미지 생성 조건에 기반하여 요청 이미지를 생성하는 동작이 외부 장치(450)에 의해서 수행되는 실시예에 기반한 상호 신호 흐름을 도시한다.FIG. 7 illustrates a cross-signal flow based on an embodiment in which the operation of generating a request image based on an image generation condition is performed by an external device 450. FIG.
710동작에서, 전자 장치(410)의 프로세서(420)는 입력 모듈을 통하여 이미지 생성 요청을 수신할 수 있다. 710동작은 510동작과 대응할 수 있다.In operation 710, the processor 420 of the electronic device 410 may receive an image creation request through an input module. 710 operation may correspond to 510 operation.
720동작에서, 전자 장치(410)의 프로세서(420)는 710동작에서 사용자로부터 수신한 이미지 생성 요청을 외부 장치(450)에 송신하도록 통신 모듈(440)을 제어할 수 있다. In operation 720, the processor 420 of the electronic device 410 may control the communication module 440 to send an image creation request received from the user to the external device 450 in 710 operation.
730동작에서, 외부 장치(450)의 프로세서(420-1)는 720동작에서 전자 장치(410)로부터 수신한 이미지 생성 요청에 기반하여 이미지 생성 조건을 결정할 수 있다. In operation 730, the processor 420-1 of the external device 450 may determine the image creation conditions based on the image creation request received from the electronic device 410 in 720 operation.
740동작에서, 외부 장치(450)의 프로세서(420-1)는 요청 이미지에 포함될 적어도 하나의 객체들을 획득할 수 있다. In operation 740, the processor 420-1 of the external device 450 may obtain at least one object to be included in the request image.
일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 요청 이미지에 포함될 객체의 속성에 기반하여 외부 장치(450)의 프로세서(420-1)의 검색 영역을 결정할 수 있다. 객체의 속성은 사용자 혹은 사용자와 관련된 인물의 개인 정보 포함 여부를 나타내는 속성일 수 있다. 예를 들어, 요청 이미지에 포함될 객체 이미지와 연관된 객체가 사용자 혹은 사용자와 관련된 인물의 개인 정보가 포함된 경우, 프로세서(420-1)는 메모리의 제1 영역(431)을 검색할 수 있다.In one embodiment, the processor 420-1 of the external device 450 may determine the search area of the processor 420-1 of the external device 450 based on the attributes of the object to be included in the request image. The attribute of the object may be an attribute indicating whether the user or the person associated with the user includes personal information. For example, if the object associated with the object image to be included in the request image includes personal information of the person associated with the user or user, the processor 420-1 may search the first area 431 of the memory.
일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 결정된 메모리(430)의 검색 영역에서, 요청 이미지에 포함될 객체를 포함하는 원본 이미지를 검색하고, 검색된 원본 이미지에 기반하여 요청 이미지에 포함될 객체 이미지를 획득할 수 있다.In one embodiment, the processor 420-1 of the external device 450 retrieves, in the search area of the determined memory 430, an original image containing the object to be included in the request image, and based on the retrieved original image, The object image can be obtained.
750동작에서, 외부 장치(450)의 프로세서(420-1)는 요청 이미지를 생성할 수 있다. 일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 획득한 적어도 하나의 객체 이미지를 하나의 이미지에 합성함으로써, 요청 이미지를 생성할 수 있다.In operation 750, processor 420-1 of external device 450 may generate a request image. In one embodiment, the processor 420-1 of the external device 450 may generate the request image by compositing the acquired at least one object image into one image.
760동작에서, 외부 장치(450)의 프로세서(420-1)는 생성한 요청 이미지를 전자 장치(410)로 송신할 수 있다. 일 실시예에서, 요청 이미지에 포함될 객체 이미지를 포함하는 원본 이미지가 검색되지 않는 등의 이유로 요청 이미지를 생성하지 못하였을 경우, 외부 장치(450)의 프로세서(420-1)는 요청 이미지의 생성 실패 및 실패의 원인 등을 나타내는 메시지를 전송할 수 있다.In operation 760, the processor 420-1 of the external device 450 may send the generated request image to the electronic device 410. In one embodiment, if the request image can not be generated because the original image including the object image to be included in the request image is not retrieved, the processor 420-1 of the external device 450 can not generate the request image And the cause of the failure.
일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 생성한 요청 이미지를 메모리(430-1)에 저장할 수 있다.In one embodiment, processor 420-1 of external device 450 may store the generated request image in memory 430-1.
일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 요청 이미지를 전자 장치(410)로 송신하는 대신에, 검색된 원본 이미지에 대한 인식에 기반하여, 전자 장치(410)에서 요청 이미지가 생성될 수 있도록 처리 정보(recipe)를 생성하고, 생성된 처리 정보를 전자 장치(410)에 송신할 수 있다. 이 때, 전자 장치(410)는 수신한 처리 정보를 이용하여 요청 이미지를 생성할 수 있다.In one embodiment, instead of sending the request image to the electronic device 410, the processor 420-1 of the external device 450 may request the request image from the electronic device 410 based on the recognition of the retrieved original image And to transmit the generated processing information to the electronic device 410. The electronic device 410 may be a personal computer, At this time, the electronic device 410 can generate the request image using the received process information.
일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 요청 이미지를 전자 장치(410)로 송신하는 대신에, 요청 이미지의 일부에 대한 처리 후, 처리 결과를 전자 장치(410)로 송신할 수 있다. 이 때, 전자 장치(410)는 요청 이미지의 다른 일부에 대한 처리 후, 수신한 결과와 합쳐서 최종 결과물(즉, 요청 이미지)을 생성할 수 있다.The processor 420-1 of the external device 450 may send the processing results to the electronic device 410 after processing for a portion of the request image, instead of sending the request image to the electronic device 410. In one embodiment, Can be transmitted. At this time, the electronic device 410 may, after processing for another portion of the request image, combine with the received result to produce the final result (i.e., the request image).
770동작에서, 전자 장치(410)의 프로세서(420)는 수신한 요청 이미지를 사용자에게 제공할 수 있다. 일 실시예에서, 전자 장치(410)의 프로세서(420)는 제공된 요청 이미지에 대한 사용자 피드백 혹은 평가를 수신할 수 있다.In operation 770, the processor 420 of the electronic device 410 may provide the received request image to the user. In one embodiment, the processor 420 of the electronic device 410 may receive user feedback or evaluation of the provided request image.
780동작에서, 전자 장치(410)의 프로세서(420)는 수신한 사용자 피드백 혹은 평가를 외부 장치(450)에 송신할 수 있다. In operation 780, the processor 420 of the electronic device 410 may send the received user feedback or evaluation to the external device 450.
790동작에서, 외부 장치(450)의 프로세서(420-1)는 수신한 사용자 피드백 혹은 평가에 기반하여 이미지의 속성을 갱신할 수 있다. 예를 들어, 외부 장치(450)의 프로세서(420-1)는 요청 이미지의 생성에 사용되었던 객체 이미지의 원본 이미지에 대한 속성 값(예: 선호도)을, 수신한 사용자 피드백에 기반하여 갱신할 수 있다.In operation 790, the processor 420-1 of the external device 450 may update the attributes of the image based on the received user feedback or evaluation. For example, processor 420-1 of external device 450 may update an attribute value (e.g., preference) for the original image of the object image that was used to generate the request image based on the received user feedback have.
도 8은 본 발명의 다양한 실시예들에 따른 이미지 생성 조건을 만족하는 이미지를 제공하기 위한 전자 장치와 외부 장치의 상호 신호 흐름도이다.8 is a cross-sectional signaling diagram of an electronic device and an external device for providing an image satisfying an image generation condition according to various embodiments of the present invention.
도 8는, 이미지 생성 조건에 기반하여 요청 이미지를 생성하는 동작이 전자 장치(410)에 의해서 수행되는 실시예에 기반한 상호 신호 흐름을 도시한다.Figure 8 illustrates a cross-signal flow based on an embodiment in which the operation of generating a request image based on an image generation condition is performed by the electronic device 410. [
810동작에서, 전자 장치(410)의 프로세서(420)는 이미지 생성 요청을 수신할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 "중학교 3학년 여름방학 때 엄마랑 서울공원에 갔던 사진을 보고 싶어"와 같은 텍스트 입력을 수신할 수 있다.In operation 810, the processor 420 of the electronic device 410 may receive an image creation request. For example, the processor 420 of the electronic device 410 may receive a textual input such as " I would like to see a picture of my mom and sister who went to Seoul Park during the summer vacation of junior high school. &Quot;
820동작에서, 전자 장치(410)의 프로세서(420)는 이미지 생성 조건을 결정할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 이미지 생성 요청으로부터 추출된 상황 정보에 기반하여, ("1997.7.1 ~ 1997.8.31의 서울공원", "1997.7.1 ~ 1997.8.31의 나", "1997.7.1 ~ 1997.8.31의 엄마")와 같이 요청 이미지에 포함될 객체에 대한 이미지 생성 조건을 결정할 수 있다.In operation 820, the processor 420 of the electronic device 410 may determine image generation conditions. For example, the processor 420 of the electronic device 410 may be configured to receive a request for an image based on context information extracted from an image creation request (e.g., " Seoul Park, 1997.7.1 ~ 1997.31, 1997 ", "Quot;, " me ", and " mother of July 1, 1997 to March 31, 1997 ").
830동작에서, 전자 장치(410)의 프로세서(420)는 결정된 객체에 대한 이미지(객체 이미지)를 외부 장치(450)에 요청할 수 있다. 여기서, 외부 장치(450)에 요청되는 객체 이미지는, 요청 이미지와 상이한 이미지(원본 이미지)로부터 분할되거나 잘라내진 일부 영역일 수 있다.In operation 830, the processor 420 of the electronic device 410 may request the external device 450 for an image (object image) for the determined object. Here, the object image requested to the external device 450 may be a partial area that is divided or cut out from the image (original image) different from the request image.
일 실시예에서, 전자 장치(410)의 프로세서(420)는 객체 이미지 요청과 관련된 데이터를 외부 장치(450)에 전송함으로써, 객체 이미지를 요청할 수 있다. In one embodiment, the processor 420 of the electronic device 410 may request the object image by sending data associated with the object image request to the external device 450. [
상술한 바와 같이, 객체 이미지 요청과 관련된 데이터는, 객체에 대한 정보 및 객체에 대한 조건 정보를 포함할 수 있다. 일 실시예에서, 객체에 대한 정보는 객체의 식별 정보를 포함할 수 있으며, 객체에 대한 조건 정보는 객체를 한정하기 위한 다양한 조건에 대한 정보, 예를 들어 시간 정보, 장소 정보 등을 포함할 수 있다. 예를 들어, 830동작에서 전자 장치(410)는 "1997.7.1 ~ 1997. 8.31의 엄마"에 대한 객체 이미지를 요청할 수 있다.As described above, the data related to the object image request may include information on the object and condition information on the object. In one embodiment, the information about the object may include identification information of the object, and the condition information for the object may include information on various conditions for defining the object, for example, time information, place information, have. For example, in operation 830, the electronic device 410 may request an object image for " Mother 1997.3.1 ~ 1997. 8.31. &Quot;
일 실시예에서, 전자 장치(410)의 프로세서(420)는 요청 이미지에 포함될 객체의 이미지를 외부 장치(450)에 요청하기 전, 전자 장치(410)의 메모리(430)를 검색할 수 있다. 예를 들어, 요청 이미지에 포함될 객체의 이미지를 전자 장치(410)의 메모리(430)에서 검색할 수 있다면, 전자 장치(410)의 프로세서(420)는 객체의 이미지를 외부 장치(450)에 요청하지 않을 수 있다. 다른 실시예에서, 요청 이미지에 포함될 객체의 이미지가 제1 객체 이미지와 제2 객체 이미지를 포함하고, 제1 객체 이미지를 전자 장치(410)의 메모리(430)에서 검색할 수 있다면, 전자 장치(410)의 프로세서(420)는 제2 객체 이미지만을 외부 장치(450)에 요청할 수 있다.In one embodiment, the processor 420 of the electronic device 410 may search the memory 430 of the electronic device 410 before requesting the external device 450 to image an object to be included in the request image. For example, if the image of the object to be included in the request image can be retrieved from the memory 430 of the electronic device 410, the processor 420 of the electronic device 410 may request the external device 450 to image the object I can not. In another embodiment, if the image of the object to be included in the request image includes a first object image and a second object image and the first object image can be retrieved from the memory 430 of the electronic device 410, 410 may request only the second object image to the external device 450.
840동작에서, 외부 장치(450)의 프로세서(420-1)는 요청된 객체의 이미지를 외부 장치(450)의 메모리(430-1)에서 검색함으로써 획득할 수 있다.In operation 840, the processor 420-1 of the external device 450 may obtain the image of the requested object by retrieving from the memory 430-1 of the external device 450. [
일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 원본 이미지를 메모리(430-1)에서 검색할 수 있다. 일 실시예에서 외부 장치(450)의 프로세서(420-1)는 검색된 원본 이미지에서, 요청된 객체의 이미지를 분할 혹은 크롭함으로써, 요청된 객체의 이미지를 획득할 수 있다.In one embodiment, the processor 420-1 of the external device 450 may retrieve the original image from the memory 430-1. In one embodiment, the processor 420-1 of the external device 450 may obtain an image of the requested object by dividing or cropping the image of the requested object in the retrieved original image.
일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 제1 영역(431)과 제2 영역(432)을 포함할 수 있다. 외부 장치(450)의 프로세서(420-1)는 객체 이미지 요청과 관련된 데이터에 포함된 객체에 대한 정보(예: 객체의 식별 정보)에 기반하여 메모리(430)의 검색할 영역을 결정할 수 있다. 예를 들어, 외부 장치(450)가 "1997.7.1 ~ 1997.8.31"의 "엄마"에 대한 이미지를 요청하는 데이터를 수신한 경우, 외부 장치(450)의 프로세서(420-1)는 요청된 이미지의 객체가, 사용자의 개인 정보와 관련된 객체임을 판단하고, 메모리(430)의 검색할 영역을 제1 영역(431)으로 결정할 수 있다.In one embodiment, the processor 420-1 of the external device 450 may include a first area 431 and a second area 432. The processor 420-1 of the external device 450 can determine an area to be searched in the memory 430 based on information (e.g., object identification information) about the object included in the data related to the object image request. For example, when the external device 450 receives data requesting an image for "mother" of "1997.7.1 ~ 1997.8.31", the processor 420-1 of the external device 450 requests It is determined that the object of the image is an object related to the user's personal information and the area to be searched by the memory 430 is determined as the first area 431. [
850동작에서, 외부 장치(450)의 프로세서(420-1)는 획득한 객체의 이미지를 전자 장치(410)로 송신할 수 있다. In operation 850, the processor 420-1 of the external device 450 may send an image of the acquired object to the electronic device 410.
일 실시예에서, 만약 외부 장치(450)의 프로세서(420-1)가, 850동작에서 요청된 객체 이미지를 획득하지 못했다면, 프로세서(420-1)는 외부 장치(450)의 메모리(430-1)를 검색하였음에도 불구하고 요청된 객체 이미지를 획득하지 못했음을 알리는 메시지를 전자 장치(410)로 전송할 수 있다.In one embodiment, if the processor 420-1 of the external device 450 did not acquire the requested object image in the 850 operation, then the processor 420-1 may determine that the memory 430- 1) to the electronic device 410 that the requested object image could not be acquired.
일 실시예에서, 만약 외부 장치(450)의 프로세서(420-1)가, 850동작에서 요청된 객체 이미지를 획득하지 못했을 때, 이미지 생성 조건의 시간 조건(제1 시간 조건)을 만족하는 객체 이미지를 획득하지 못했지만, 제2 시간 조건을 만족하는 객체 이미지는 획득할 수 있다는 메시지를 전자 장치(410)로 전송할 수 있다.In one embodiment, when the processor 420-1 of the external device 450 fails to acquire the object image requested in the 850 operation, the object image that satisfies the time condition of the image creation condition (first time condition) , But may send a message to the electronic device 410 that an object image satisfying the second time condition can be obtained.
860동작에서, 전자 장치(410)의 프로세서(420)는 수신한 객체 이미지를 이용하여 요청 이미지를 생성하고, 생성한 요청 이미지를 사용자에게 제공할 수 있다.In operation 860, the processor 420 of the electronic device 410 may generate a request image using the received object image and provide the generated request image to the user.
870동작에서, 전자 장치(410)의 프로세서(420)는, 전자 장치의 출력 모듈(예: 디스플레이)에 표시 혹은 제공된 요청 이미지에 대한 사용자의 피드백을 외부 장치(450)로 송신할 수 있다. In operation 870, the processor 420 of the electronic device 410 may send user feedback to the external device 450 for a request image displayed or provided on an output module (e.g., a display) of the electronic device.
880동작에서, 외부 장치(450)의 프로세서(420-1)는 수신한 사용자 피드백에 기반하여 적어도 하나의 이미지 속성을 갱신할 수 있다. 일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 원본 이미지에 대한 속성을 갱신할 수 있다. 예를 들어, 요청된 객체의 이미지가 외부 장치(450)의 메모리(430-1)에 저장된 제1 이미지에서 분할 혹은 크롭된 경우, 외부 장치(450)의 프로세서(420-1)는 제1 이미지에 대한 속성(예: 정확도, 선호도)의 값을 변경하도록 외부 장치(450)의 메모리(430-1)를 제어할 수 있다.In operation 880, the processor 420-1 of the external device 450 may update at least one image attribute based on the received user feedback. In one embodiment, the processor 420-1 of the external device 450 may update the attributes for the original image. For example, when the image of the requested object is divided or cropped in the first image stored in the memory 430-1 of the external device 450, the processor 420-1 of the external device 450 determines whether the first image The memory 430-1 of the external device 450 can be controlled to change the value of the attribute (e.g., accuracy, preference)
도 9a 및 도 9b 는 본 발명의 다양한 실시예들에 따른 이미지 생성 요청을 수신하기 위한 사용자 인터페이스의 예를 도시한다.Figures 9A and 9B illustrate examples of user interfaces for receiving image creation requests in accordance with various embodiments of the present invention.
도 9a에서, 사용자로부터 특정한 기능 혹은 어플리케이션을 실행하기 위한 사용자 입력을 수신한 경우, 전자 장치(410)는 사용자로부터 이미지 생성 요청을 수신하기 위한 사용자 인터페이스를 화면에 표시할 수 있다. 예를 들어, 전자 장치가 "추억의 이미지 생성 어플리케이션"을 실행하기 위한 사용자 입력을 수신한 경우(예: 어플리케이션 아이콘 터치), 사용자로부터 이미지 생성 요청을 수신하기 위한 사용자 인터페이스를 화면에 표시할 수 있다. 9A, when receiving a user input for executing a specific function or application from the user, the electronic device 410 may display a user interface for receiving an image generation request from the user on the screen. For example, when an electronic device receives a user input (e.g., touching an application icon) to execute a " memorable image creation application ", a user interface for receiving an image creation request from the user may be displayed on the screen .
일 실시예에서, 이미지 생성 요청을 수신하기 위한 사용자 인터페이스는 하나의 텍스트 입력 창(910)을 포함할 수 있다. 예를 들어, 전자 장치(410)는 "원하는 이미지를 설명해 주세요"라는 안내 문구와 함께, 사용자의 이미지 설명을 입력 받기 위한 하나의 텍스트 입력 창(910)을 화면에 표시할 수 있다. 이 때, 전자 장치(410)는 하나의 텍스트 입력 창(910)을 통하여 "중학교 3학년 여름 방학 때 엄마랑 서울공원에 갔던 사진을 보고 싶어"와 같은 사용자의 이미지 설명을 수신할 수 있다.In one embodiment, the user interface for receiving the image creation request may include a text entry window 910. [ For example, the electronic device 410 can display a text input window 910 for inputting a user's image description together with a message saying " Please describe a desired image ". At this time, the electronic device 410 can receive the image description of the user through the single text input window 910, such as " I want to see a picture that went to Seoul Park with my mom at the third grade summer vacation. &Quot;
도 9b를 참조할 때, 이미지 생성 요청을 수신하기 위한 사용자 인터페이스는, 상황 정보에 각각 대응하는 복수의 메뉴(920 내지 940)을 포함할 수 있다. 예를 들어, 전자 장치(410)는 시간 정보, 장소 정보, 인물 정보에 각각 대응하는 메뉴들(920 내지 940)을 화면에 표시할 수 있다. 이 때, 사용자가 시간 정보에 대응하는 메뉴(920)를 터치하는 경우, 전자 장치(410)는 시간 정보에 대한 사용자 설명을 수신하기 위한 입력 창(950) 및 "원하는 시간 조건을 입력해 주세요"와 같은 안내 문구를 함께 표시할 수 있다. 이 때, 전자 장치(410)는 시간 정보를 수신하기 위한 입력 창(950)을 통하여 사용자로부터 "중학교 3학년 여름 방학"이라는 텍스트를 입력 받을 수 있다. 즉, 전자 장치(410)는 요청 이미지에 대한 각각의 조건을 정확하게 수신하기 위한 사용자 인터페이스를 제공할 수 있다.9B, the user interface for receiving an image generation request may include a plurality of menus 920 to 940, respectively, corresponding to the status information. For example, the electronic device 410 may display menus 920 to 940 corresponding to time information, place information, and person information on a screen. At this time, when the user touches the menu 920 corresponding to the time information, the electronic device 410 displays an input window 950 for receiving a user description of the time information and a " Can be displayed together. At this time, the electronic device 410 can receive the text " Summer Vacation of the Middle School Third Grade " from the user through the input window 950 for receiving the time information. That is, the electronic device 410 may provide a user interface for correctly receiving each condition for the request image.
도 10은 본 발명의 다양한 실시예들에 따른 전자 장치가 이미지 생성 조건을 결정하기 위한 동작의 세부 흐름도이다. 도 10은 도 5의 520동작의 세부 순서도일 수 있다. 10 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to determine an image generation condition. FIG. 10 is a detailed flowchart of operation 520 of FIG.
1010동작에서, 전자 장치(410)의 프로세서(420)는 상황 정보를 결정할 수 있다. 일 실시예에서, 전자 장치(410)의 프로세서(420)는 이미지 생성 요청의 분석 결과에 기반하여 상황 정보를 결정할 수 있다. 일 실시예에서 이미지 생성 요청은 1010동작이 수행되기 이전에 사용자로부터 수신될 수 있다. 일 실시예에서 이미지 생성 요청은 도 9a 또는 도 9b에 개시된 다양한 사용자 인터페이스들 중 하나를 통하여 사용자로부터 수신될 수 있다.In operation 1010, the processor 420 of the electronic device 410 may determine context information. In one embodiment, the processor 420 of the electronic device 410 may determine the context information based on the analysis result of the image creation request. In one embodiment, an image creation request may be received from the user before the 1010 operation is performed. In one embodiment, the image creation request may be received from the user via one of the various user interfaces described in FIG. 9A or FIG. 9B.
일 실시예에서, 상황 정보는, 이미지를 한정할 수 있는 다양한 정보를 복수의 항목들 및 그에 대응하는 속성 값으로 표현한 정보일 수 있다. 예를 들어 상황 정보는 시간 정보, 장소 정보, 날씨 정보, 객체 정보(예: 인물 정보), 배경 정보 중 적어도 하나를 포함할 수 있다. 일 실시예에서, 시간 정보는, 이미지 생성 요청에 포함된 정보들 중에서 시간과 관련된 정보일 수 있다. 여기서 시간과 관련된 정보는 이미지에 포함될 객체의 나이, 혹은 촬영 시간과 관련된 정보일 수 있다.In one embodiment, the context information may be information representing a variety of information that can define an image, as a plurality of items and their corresponding attribute values. For example, the situation information may include at least one of time information, place information, weather information, object information (e.g., person information), and background information. In one embodiment, the time information may be time related information among the information included in the image creation request. Here, the information related to the time may be information related to the age of the object to be included in the image, or the shooting time.
일 실시예에서, 전자 장치(410)가 이미지 생성 요청을 도 9a에 개시된 사용자 인터페이스를 통하여 수신할 수 있다. 예를 들어, 도 11을 참고할 때, 전자 장치(410)는 도 9a에 개시된 사용자 인터페이스를 통하여, 사용자의 텍스트 입력(1110, "3학년 여름방학 때 엄마랑 서울공원에 갔던 사진을 보고 싶어")을 이미지 생성 요청으로 수신할 수 있다.In one embodiment, the electronic device 410 may receive an image creation request via the user interface described in FIG. 9A. For example, referring to FIG. 11, the electronic device 410 may receive a user's text input 1110 (" I want to see a picture of my mother and I went to Seoul Park during the third grade summer vacation ") through the user interface described in FIG. As an image creation request.
일 실시예에서, 전자 장치(410)가 이미지 생성 요청을 도 9a에 개시된 사용자 인터페이스를 통하여 수신한 경우, 전자 장치(410)의 프로세서(420)는 이미지 생성 요청에서 상황 정보를 결정하기 위하여 자연어 분석 또는 머신 러닝 등 별도의 분석 결과를 활용할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 자연어 분석 또는 머신 러닝 등 별도의 분석 결과를 이용하여, 이미지 생성 요청(1110)으로부터, 시간 정보 및 2개의 객체 정보들을 포함하는 상황 정보(1120)를 결정할 수 있다.In one embodiment, when the electronic device 410 receives the image creation request via the user interface described in FIG. 9A, the processor 420 of the electronic device 410 may perform a natural language analysis Alternatively, separate analysis results such as machine learning can be utilized. For example, the processor 420 of the electronic device 410 may receive, from the image generation request 1110, status information including time information and two pieces of object information (e.g., 1120).
일 실시예에서, 전자 장치(410)가 이미지 생성 요청을 도 9b에 개시된 사용자 인터페이스를 통하여 수신한 경우, 전자 장치(410)의 프로세서(420)는 각각의 메뉴 및 대응하는 입력 창에 입력되는 사용자 입력에 기반하여 시간 정보 및 객체 정보를 포함하는 상황 정보를 결정할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는, 시간 정보에 대응하는 입력 창(950)에 입력되는 사용자 입력(예: 중학교 3학년 여름 방학)을 시간 정보의 속성 값으로 결정할 수 있다.In one embodiment, when the electronic device 410 receives an image creation request via the user interface described in FIG. 9B, the processor 420 of the electronic device 410 receives the image creation request from the user < RTI ID = Based on the input, context information including time information and object information can be determined. For example, the processor 420 of the electronic device 410 may determine a user input (e.g., a summer vacation in the third year of junior high school) input to the input window 950 corresponding to the time information as the attribute value of the time information .
1020동작에서, 전자 장치(410)의 프로세서(420)는 결정한 상황 정보에 개인 정보가 포함되는지 여부를 결정할 수 있다. 일 실시예에서, 개인 정보는 특정한 인물에 대해서만 한정된 정보, 또는 사용자가 누구인지에 따라서 의미가 달라지는 정보를 의미할 수 있다.In operation 1020, the processor 420 of the electronic device 410 may determine whether personal information is included in the determined status information. In one embodiment, the personal information may refer to information limited only to a specific person, or information whose meaning varies depending on who the user is.
결정한 상황 정보에 개인 정보가 포함되지 않는다고 결정된 경우, 1040동작에서, 전자 장치(410)의 프로세서(420)는 상황 정보에 기반하여 이미지 생성 조건을 결정할 수 있다. 일 실시예에서, 이미지 생성 조건은 결정된 모든 상황 정보의 모음일 수 있다. 다른 실시예에서, 이미지 생성 조건은 결정된 상황 정보를 객체를 기준으로 변환한 정보일 수 있다.If it is determined that personal information is not included in the determined contextual information, then in operation 1040, the processor 420 of the electronic device 410 may determine image creation conditions based on contextual information. In one embodiment, the image creation condition may be a collection of all determined context information. In another embodiment, the image generation condition may be information obtained by converting the determined situation information based on the object.
상황 정보에 개인 정보가 포함되어 있다고 결정된 경우, 1030동작에서, 전자 장치(410)의 프로세서(420)는 적어도 일부의 개인 정보를, 개인 정보가 포함되지 않는 정보(이하 "공적 정보(public information)"으로 칭함)로 변환할 수 있다. 도 11을 참고할 때, 전자 장치(410)의 프로세서(420)는 상황 정보(1120) 중에서 개인 정보(1130)의 적어도 일부 개인 정보(1140)를 변환할 수 있다. If it is determined that the personal information is included in the situation information, then in operation 1030, the processor 420 of the electronic device 410 converts at least some of the personal information into information (hereinafter referred to as " public information &Quot;). ≪ / RTI > The processor 420 of the electronic device 410 may convert at least some of the personal information 1140 of the personal information 1130 from the context information 1120. [
일 실시예에서, 개인 정보가 포함된 적어도 일부의 상황 정보는, 메모리(430)에 저장된 사용자 프로필에 기반하여 공적 정보로 변환될 수 있다.In one embodiment, at least some of the context information that includes the personal information may be converted to public information based on the user profile stored in the memory 430.
일 실시예에서, 전자 장치(410)의 프로세서(420)는 개인 정보가 포함된 상황 정보라고 하더라도, 공적 정보로 변환하지 않을 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 인물 정보(예: 사용자 혹은 사용자와 관련된 인물의 얼굴 이미지)는 공적 정보로 변환하지 않을 수 있다. 그 이유는, 인물 정보는 사용자가 생성하고자 하는 이미지(요청 이미지)에 필수적으로 포함되어야 하는 정보로서, 만약 인물 정보를 공적 정보로 변환할 경우(예: 모자이크 처리) 사용자가 원하는 이미지가 생성되었다고 볼 수 어렵기 때문이다.In one embodiment, the processor 420 of the electronic device 410 may not convert it into public information, even if it is context information that includes personal information. For example, the processor 420 of the electronic device 410 may not convert person information (e.g., a face image of a person associated with a user or a user) into public information. The reason for this is that the person information is information that should be essentially included in the image (request image) that the user wants to create. If the person information is converted into public information (e.g., mosaic processing) This is because it is difficult.
일 실시예에서, 전자 장치(410)의 프로세서(420)는 개인 정보가 포함된 적어도 일부의 상황 정보를 공적 정보로 변환함으로써, 상황 정보를 갱신할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 개인 정보가 포함된 시간 정보(1140, 3학년 여름방학)를 공적 정보(1997.7.1 ~ 1997.8.31)로 변환할 수 있다.In one embodiment, the processor 420 of the electronic device 410 may update status information by converting at least some status information including personal information into public information. For example, the processor 420 of the electronic device 410 may convert the time information including the personal information (1140, third-year summer vacation) into public information (1997.7.1 to 1997.8.31).
1050동작에서, 전자 장치(410)의 프로세서(420)는 갱신된 상황 정보에 기반하여 이미지 생성 조건을 결정할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 갱신된 상황 정보를 이미지 생성 조건으로 결정할 수 있다.In operation 1050, the processor 420 of the electronic device 410 may determine an image generation condition based on the updated status information. For example, the processor 420 of the electronic device 410 may determine updated condition information as an image generating condition.
상술한 순서에 의하여 상술한 동작들을 수행함으로써, 전자 장치(410)는 사용자로부터 수신한 이미지 생성 요청에 기반하여 이미지 생성 조건을 결정할 수 있다. 다른 실시예에서, 외부 장치(450)가 전자 장치(410)로부터 수신한 이미지 생성 요청에 기반하여 이미지 생성 조건을 결정할 수도 있다. 이 때, 개인 정보가 포함된 적어도 일부의 상황 정보를 공적 정보로 변환하는데 사용되는 사용자 프로필은 외부 장치(450)의 메모리의 제1 영역(431)에 저장되어 있을 수 있다. By performing the above-described operations in the above-described order, the electronic device 410 can determine the image generation conditions based on the image generation request received from the user. In another embodiment, the external device 450 may determine the image generation conditions based on the image generation request received from the electronic device 410. [ At this time, the user profile used to convert at least some of the context information including personal information into public information may be stored in the first area 431 of the memory of the external device 450. [
도 12는 본 발명의 다양한 실시예들에 따른 전자 장치가 요청 이미지에 포함될 객체 이미지를 획득하기 위한 동작의 세부 흐름도이다. 도 12는 도 6의 630동작의 세부 순서도일 수 있다. 12 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to obtain an object image to be included in a request image. FIG. 12 is a detailed flowchart of operation 630 of FIG.
1210동작에서, 전자 장치(410)의 프로세서(420)는 제1 조건의 객체를 포함하는 원본 이미지를 전자 장치(410)의 메모리(430)에서 검색하거나, 제1 조건의 객체를 포함하는 원본 이미지의 검색 요청을 외부 장치(450)로 송신할 수 있다. 일 실시예에서, 제1 조건은 이미지 생성 조건에 포함된 조건일 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 이미지 생성 조건에 포함된 제1 조건의 객체(예: "1997.7.1 ~ 1997.8.31의 엄마")를 포함하는 원본 이미지를 전자 장치(410)의 메모리(430)에서 검색할 수 있다.In operation 1210, the processor 420 of the electronic device 410 may search the memory 430 of the electronic device 410 for the original image containing the object of the first condition, or may retrieve the original image including the object of the first condition To the external device 450. The external device 450 transmits the search request to the external device 450. [ In one embodiment, the first condition may be a condition included in the image generation condition. For example, the processor 420 of the electronic device 410 may send an original image containing an object of a first condition (e.g., " Mother of 1997.7.1 ~ 1997.8.31 ") included in the image creation condition to the electronic device 410 in the memory 430.
1220동작에서, 전자 장치(410)의 프로세서(420)는 제1 조건의 객체를 포함하는 원본 이미지가 전자 장치(410)의 메모리(430) 혹은 외부 장치(450)의 메모리(430-1)에 존재하는지 여부를 판단할 수 있다. 만약 전자 장치(410)의 프로세서(420)가 제1 조건의 객체를 포함하는 원본 이미지가 전자 장치(410)의 메모리(430) 혹은 외부 장치(450)의 메모리(430-1)에 존재하지 않다고 판단하면, 1230동작에서, 제2 조건의 객체를 포함하는 원본 이미지를 전자 장치(410)의 메모리(430) 혹은 외부 장치(450)의 메모리(430-1)에서 검색할 수 있다. 만약 전자 장치(410)의 프로세서(420)가 제1 조건의 객체를 포함하는 원본 이미지가 전자 장치(410)의 메모리(430) 혹은 외부 장치(450)의 메모리(430-1)에 존재한다고 판단하면, 전자 장치(410)의 프로세서(420)는 1250동작에서, 원본 이미지를 획득하고, 획득한 원본 이미지로부터 객체 이미지를 분할하거나 크롭함으로써, 제1 조건의 객체 이미지를 획득할 수 있다.The processor 420 of the electronic device 410 determines whether the original image containing the object of the first condition is stored in the memory 430 of the electronic device 410 or in the memory 430-1 of the external device 450 It can be determined whether or not it exists. If the processor 420 of the electronic device 410 determines that the original image including the object of the first condition is not present in the memory 430 of the electronic device 410 or the memory 430-1 of the external device 450 If judged, in operation 1230, the original image including the object of the second condition can be retrieved from the memory 430 of the electronic device 410 or the memory 430-1 of the external device 450. If the processor 420 of the electronic device 410 judges that the original image including the object of the first condition exists in the memory 430 of the electronic device 410 or the memory 430-1 of the external device 450 The processor 420 of the electronic device 410 may acquire the original image in the 1250 operation and obtain the object image of the first condition by dividing or cropping the object image from the acquired original image.
일 실시예에서, 제2 조건은 제1 조건을 포함할 수 있으며, 제1 조건의 객체와 제2 조건의 객체는 동일한 개체(entity)를 나타낼 수 있다. 예를 들어, 제1 조건의 객체는 "1997.7.1 ~ 1997.8.31의 엄마"이고, 제2 조건의 객체는 "1996.7.1 ~ 1998.8.31의 엄마"일 수 있다. 즉, 이미지 생성 조건에 따른 특정 조건의 객체 이미지를 획득할 수 없는 경우, 특정 조건을 완화함으로써, 사용자가 제시한 조건과 완벽히 매칭되는 객체는 아니지만 사용자가 제시한 조건과 연관된(혹은 유사한 조건의) 객체를 획득할 수 있다.In one embodiment, the second condition may include a first condition, and the object of the first condition and the object of the second condition may represent the same entity. For example, the object of the first condition may be "mother of 1997.7.1 ~ 1997.8.31" and the object of the second condition may be "mother of 1996.7.1 ~ 1998.8.31". That is, when the object image of the specific condition according to the image generation condition can not be obtained, by alleviating the specific condition, the object which is not perfectly matched with the condition presented by the user but is related to the condition (or similar condition) You can acquire an object.
일 실시예에서, 제2 조건은 객체의 속성에 따라 결정될 수 있다. 일 실시예에서, 객체의 속성은, 시간에 대한 민감도를 나타내는 속성일 수 있다. 예를 들어 객체가 "서울공원"이고, 제1 조건이 "1997.7.1 ~ 1997.8.31"의 시구간과 연관된 경우, 객체가 시간에 대하여 변화가 크지 않는 무생물임을 고려하여, 전자 장치(410)의 프로세서(420)는 상대적으로 넓은 시구간(1996.7.1 ~ 1998.8.31)으로 제2 조건을 결정할 수 있다. 예를 들어 객체가 "엄마"이고, 제1 조건이 "1997.7.1 ~ 1997.8.31"의 시구간과 연관된 경우, 객체가 시간에 대하여 변화가 큰 생물임을 고려하여, 전자 장치(410)의 프로세서(420)는 상대적으로 좁은 시구간(1997.5.1 ~ 1997.10.31)으로 제2 조건을 결정할 수 있다.In one embodiment, the second condition may be determined according to an attribute of the object. In one embodiment, the attribute of the object may be an attribute that indicates sensitivity to time. For example, if the object is a " Seoul Park ", and the first condition is associated with a time period of " 1997.7.1 to 1997.8.31 ", then consider the fact that the object is inanimate, The processor 420 may determine the second condition with a relatively wide time interval (1996.7.1 to 1998.8.31). For example, if the object is a "mom" and the first condition is associated with a time period of "1997.7.1 to 1997.8.31", the processor of the electronic device 410 420) can determine the second condition with a relatively narrow time interval (1997.5.1 ~ 1997.10.31).
1240동작에서, 전자 장치(410)의 프로세서(420)는 제2 조건의 객체를 포함하는 원본 이미지가 전자 장치(410)의 메모리(430) 혹은 외부 장치()의 메모리(430-1)에 존재하는지 여부를 판단할 수 있다. 만약, 제2 조건의 객체를 포함하는 원본 이미지가 전자 장치(410)의 메모리(430) 혹은 외부 장치(450)의 메모리(430-1)에 존재한다고 판단되면, 전자 장치(410)의 프로세서(420)는 1250동작에서, 제2 조건의 객체를 포함하는 원본 이미지를 획득하고, 획득한 원본 이미지로부터 객체 이미지를 분할하거나 크롭함으로써, 제2 조건의 객체 이미지를 획득할 수 있다.In operation 1240, the processor 420 of the electronic device 410 determines whether the original image including the object of the second condition exists in the memory 430 of the electronic device 410 or in the memory 430-1 of the external device Or not. If it is determined that the original image including the object of the second condition exists in the memory 430 of the electronic device 410 or the memory 430-1 of the external device 450, 420 can obtain an object image of a second condition by obtaining an original image including an object of the second condition and dividing or cropping the object image from the acquired original image in 1250 operation.
미도시되었지만, 만약 제2 조건의 객체를 포함하는 원본 이미지가 전자 장치(410)의 메모리(430) 혹은 외부 장치(450)의 메모리(430-1)에 존재하지 않다고 판단된 경우, 전자 장치(410)의 프로세서(420)는 이미지 생성 요청에 대응하는 요청 이미지를 생성할 수 없다는 내용의 알림을 사용자에게 제공할 수 있다. 요청 이미지를 생성할 수 없다는 내용의 알림은, 요청 이미지를 생성할 수 없는 이유를 포함할 수 있다. 예를 들어, 프로세서(420)는 "1997.7.1 ~ 1997.8.31의 엄마"를 포함하는 원본 이미지를 획득할 수 없기 때문에, 요청 이미지를 생성할 수 없다는 내용의 알림을 사용자에게 제공할 수 있다.If it is determined that the original image including the object of the second condition is not present in the memory 430 of the electronic device 410 or the memory 430-1 of the external device 450, 410 may provide a notification to the user that the request image corresponding to the image creation request can not be generated. The notification that the request image can not be generated may include a reason why the request image can not be generated. For example, the processor 420 may notify the user that the request image can not be generated because the original image including " Mother 1997.7.1 ~ 1997.8.31 " can not be obtained.
도 13은 본 발명의 다양한 실시예들에 따른 메모리의 제1 영역에 저장된 이미지 및 이미지의 정보를 도시한다.Figure 13 shows information of images and images stored in a first area of memory in accordance with various embodiments of the present invention.
일 실시예에서, 메모리의 제1 영역(431)은 특정인의 개인 정보와 연관된 데이터들을 저장할 수 있다. 예를 들어, 메모리의 제1 영역(431)은 사용자 혹은 사용자와 관련된 인물(예: 사용자의 가족 또는 친구)의 이미지 및 이미지의 정보를 함께 저장할 수 있다. 이 때, 이미지의 정보는 촬영 시간, 촬영 장소 등과 같이 이미지의 메타데이터로부터 확인할 수 있는 정보, 객체 정보 등과 같이 이미지를 분석함으로써 획득할 수 있는 정보, 정확도, 선호도 등과 같이 사용자의 추가 정보를 통해 얻을 수 있는 정보 중 적어도 하나를 포함할 수 있다. In one embodiment, the first area 431 of memory may store data associated with a particular person ' s personal information. For example, the first area 431 of the memory may store images of the user or a person (e.g., a user's family or friend) and image information associated with the user. At this time, the information of the image is obtained through the additional information of the user such as the information that can be obtained from the image metadata such as the shooting time and the shooting location, information that can be obtained by analyzing the image such as object information, accuracy, Or information that can be received.
일 실시예에서, 메모리의 제1 영역(431)은 복수의 영역으로 분할될 수 있으며, 각각의 카테고리는 사용자 또는 사용자와 연관된 인물(예: 엄마)에 각각 지정될 수 있다.In one embodiment, the first area 431 of the memory may be divided into a plurality of areas, each of which may be assigned to a user or a person (e.g., a mother) associated with the user, respectively.
일 실시예에서, 메모리의 제1 영역(431)은 특정인(예: 사용자)에 지정되어 있는 저장 공간일 수 있다.In one embodiment, the first area 431 of the memory may be a storage space designated for a particular person (e.g., a user).
일 실시예에서, 메모리의 제1 영역(431)은 지정된 특정인의 동의가 있지 않는 한, 특정인과 상이한 사람의 이미지 생성 요청에 따른 접속이 허용되지 않을 수 있다.In one embodiment, the first area 431 of memory may not be allowed access according to an image creation request of a person different from the specific person, unless the specified person's consent is given.
메모리의 제1 영역(431)에 저장된 하나의 이미지(1301)가 예시된다. 이미지(1301)는 사용자 혹은 사용자와 관련된 인물(1302)을 포함하는 복수의 객체들을 포함할 수 있다.One image 1301 stored in the first area 431 of the memory is illustrated. The image 1301 may include a plurality of objects including a person 1302 associated with the user or user.
이미지(1301)의 정보(1303)가 예시된다. 이미지(1301)의 정보(1303)는 복수의 항목들 및 그에 대응하는 속성 값들을 포함할 수 있다. 복수의 항목들은 시간(1310), 장소(1320), 정확도(1330), 객체 정보(1340), 날씨(1350), 시간 민감도(1360), 선호도(1370), 목적 정보(1380), 업로드 정보(1390) 등을 포함할 수 있으며, 각각의 항목은 각각의 속성 값과 대응할 수 있다. The information 1303 of the image 1301 is illustrated. The information 1303 of the image 1301 may include a plurality of items and corresponding attribute values. The plurality of items may include information such as time 1310, location 1320, accuracy 1330, object information 1340, weather 1350, time sensitivity 1360, preferences 1370, destination information 1380, 1390), and the like, and each item can correspond to each attribute value.
일 실시예에서, 이미지(1301)의 정보(1303)는 사용자가 제공할 수도 있고, 그렇지 않을 경우 외부 장치(450)에서 이미지의 메타데이터 또는 머신 러닝 학습 결과에 기반하여 판단될 수도 있다.In one embodiment, the information 1303 of the image 1301 may be provided by the user or may be determined based on the metadata of the image or the machine learning learning result in the external device 450. [
일 실시예에서, 시간(1310) 및 장소(1320), 날씨(1350), 목적 정보(1380)는 이미지(1301)가 촬영된 시간, 장소, 날씨 및 촬영 목적(예: 여행 등)에 대한 정보와 각각 대응할 수 있다.In one embodiment, time 1310 and location 1320, weather 1350, and destination information 1380 provide information about the time, location, weather, and shooting purpose (e.g., travel, etc.) Respectively.
일 실시예에서, 정확도(1330)는 객체 정보(1340)가 얼마나 정확한지 여부를 나타내는 정보와 대응할 수 있다. In one embodiment, the accuracy 1330 may correspond to information indicating how accurate the object information 1340 is.
일 실시예에서, 객체 정보(1340)는 이미지(1301)에 포함된 객체(1302)가 누구인지, 혹은 사용자와 어떤 관계를 가지는지 나타내는 정보와 대응할 수 있다. 예를 들어, 객체 정보(1340)는 이미지(1301)에 포함된 객체가 누구인지 나타내는 식별 정보(identifier C)와 대응할 수 있다.In one embodiment, the object information 1340 may correspond to information indicating who the object 1302 contained in the image 1301 is or has a relationship with the user. For example, the object information 1340 may correspond to the identifier C indicating who the object included in the image 1301 is.
일 실시예에서, 선호도(1370)는 이미지(1301)를 이용하여 요청 이미지를 합성하였을 때 사용자가 얼마나 만족스러웠는지 여부를 나타내는 정보와 대응할 수 있다.In one embodiment, the preferences 1370 may correspond to information indicating how satisfactory the user was when the requested image was synthesized using the image 1301.
일 실시예에서, 업로드 정보(1390)는 이미지(1301)가 메모리의 제1 영역(431)에 어떻게 저장되게 되었는지를 나타내는 정보와 대응할 수 있다.In one embodiment, the upload information 1390 may correspond to information indicating how the image 1301 is stored in the first area 431 of the memory.
도 14는 본 발명의 다양한 실시예들에 따른 메모리의 제2 영역에 저장된 이미지 및 이미지의 정보를 도시한다.Figure 14 shows information of images and images stored in a second area of memory in accordance with various embodiments of the present invention.
일 실시예에서, 메모리의 제2 영역(432)은 특정인의 개인 정보와 무관한 데이터들을 저장할 수 있다. 예를 들어, 메모리의 제2 영역(432)은 시설물(예: 상업시설, 공공시설 등)의 이미지 및 이미지의 정보를 함께 저장할 수 있다. 이때, 이미지의 정보는 촬영 시간, 촬영 장소 등과 같이 이미지의 메타데이터로부터 확인할 수 있는 정보, 정확도, 선호도 등과 같이 사용자의 추가 정보를 통해 얻을 수 있는 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the second area 432 of memory may store data that is independent of a person ' s personal information. For example, the second area 432 of the memory may store images and images of facilities (e.g., commercial facilities, public facilities, etc.) together. At this time, the information of the image may include at least one of the information obtained through additional information of the user such as information to be confirmed from the metadata of the image such as a photographing time and a photographing place, accuracy, preference and the like.
일 실시예에서, 메모리의 제2 영역(432)에 저장된 하나의 이미지(1480)가 예시된다. 이미지(1480)는 사용자 혹은 사용자와 관련된 인물과 무관한 복수의 객체들(1481, 1482)을 포함할 수 있다.In one embodiment, one image 1480 stored in a second area 432 of memory is illustrated. The image 1480 may include a plurality of objects 1481, 1482 independent of the person associated with the user or user.
일 실시예에서, 이미지(1480)의 정보(1483)가 예시된다. 이미지(1480)의 정보(1483)는 복수의 항목들 및 그에 대응하는 속성 값들을 포함할 수 있다. 정보(1483)에 포함된 항목은 도 13에 개시된 정보(1303)에 포함된 항목과 동일하거나 상이한 항목일 수 있다. 예를 들어, 시간(1410), 장소(1420), 정확도(1430), 객체 정보(1440), 날씨(1450), 시간 민감도(1460), 업로드 정보(1470) 등은 정보(1303)에 포함된 항목과 동일할 수 있다.In one embodiment, information 1483 of image 1480 is illustrated. The information 1483 of the image 1480 may include a plurality of items and corresponding attribute values. The item included in the information 1483 may be the same item as or different from the item included in the information 1303 disclosed in FIG. For example, time 1410, location 1420, accuracy 1430, object information 1440, weather 1450, time sensitivity 1460, upload information 1470, Item. ≪ / RTI >
도 13에 개시된 이미지(1301)의 정보(1303)에 포함된 항목 중 일부 항목은 이미지(1480)의 정보(1483)에 포함되지 않을 수 있다. 예를 들어, 목적 정보(1380)는 정보(1483)에는 포함되지 않을 수 있다.Some of the items included in the information 1303 of the image 1301 disclosed in Fig. 13 may not be included in the information 1483 of the image 1480. [ For example, the destination information 1380 may not be included in the information 1483.
도 15는 본 발명의 다양한 실시예들에 따른 전자 장치가 요청 이미지를 생성하기 위한 동작의 세부 흐름도이다. 도 15는 도 6의 640동작의 세부 순서도일 수 있다. 15 is a detailed flowchart of an operation for an electronic device to generate a request image according to various embodiments of the present invention. FIG. 15 is a detailed flowchart of operation 640 of FIG.
1510동작에서, 전자 장치(410)의 프로세서(420)는 요청 이미지에 포함될 모든 객체 이미지를 획득하였는지 판단할 수 있다. 일 실시예에서, 전자 장치(410)의 프로세서(420)는 전자 장치(410)의 메모리(430)의 검색 혹은 외부 장치(450)로 요청 중 적어도 어느 하나를 통하여, 요청 이미지에 포함될 모든 객체 이미지를 획득하였는지 판단할 수 있다. 예를 들어, 요청 이미지에 포함될 모든 객체 이미지가 제1 객체 이미지와 제2 객체 이미지이고, 전자 장치(410)의 메모리(430)의 검색을 통하여 제1 객체 이미지를 획득하고, 외부 장치(450)로 제2 객체 이미지를 요청한 후, 외부 장치(450)로부터 요청한 제2 객체 이미지를 획득한 경우, 전자 장치(410)의 프로세서(420)는 요청 이미지에 포함될 모든 객체 이미지를 획득하였다고 판단할 수 있다. In operation 1510, the processor 420 of the electronic device 410 may determine whether it has acquired all object images to be included in the request image. In one embodiment, the processor 420 of the electronic device 410 receives all of the object images to be included in the request image, via at least one of a search of the memory 430 of the electronic device 410 or a request to the external device 450 Is obtained. For example, if all the object images to be included in the request image are the first object image and the second object image, the first object image is obtained through the search of the memory 430 of the electronic device 410, The processor 420 of the electronic device 410 may determine that it has acquired all the object images to be included in the request image if the second object image is obtained from the external device 450 after requesting the second object image with the request .
1510동작에서, 만약 요청 이미지에 포함될 모든 객체 이미지를 획득하지 못하였다고 판단한 경우, 전자 장치(410)의 프로세서(420)는 1520동작에서, 획득에 실패한 객체 이미지를 생성할 수 있다. 예를 들어, 제1 객체 이미지를 획득하지 못하였다고 판단한 경우(또는, 제1 객체 이미지를 포함하는 원본 이미지를 검색하지 못한 경우), 전자 장치(410)의 프로세서(420)는 제1 객체 이미지를 직접 생성할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 벡터 드로잉 기법을 이용하여 제1 객체 이미지를 생성할 수 있다. 다른 예를 들어, 전자 장치(410)의 프로세서(420)는 머신 러닝 기법을 이용하여 제1 객체를 직접 생성할 수 있다.In operation 1510, if the processor 420 of the electronic device 410 determines in 1520 operation that it has failed to acquire all object images to be included in the requested image, the object image that failed to acquire may be generated. For example, if the processor 420 of the electronic device 410 determines that the first object image has not been acquired (or fails to retrieve the original image including the first object image), the processor 420 of the electronic device 410 You can create it yourself. For example, the processor 420 of the electronic device 410 may generate a first object image using a vector drawing technique. In another example, the processor 420 of the electronic device 410 may directly generate the first object using a machine learning technique.
일 실시예에서, 전자 장치(410)의 프로세서(420)는 획득에 실패한 객체 이미지를, 기존에 메모리(430)에서 저장된 이미지들을 보간(interpolation)함으로써, 생성할 수도 있다. 자세한 내용은 도 16에서 후술하기로 한다.In one embodiment, the processor 420 of the electronic device 410 may generate an object image that failed acquisition, by interpolating previously stored images in the memory 430. Details will be described later with reference to FIG.
1510동작에서 만약 요청 이미지에 포함될 모든 객체 이미지를 획득하였다고 판단하였거나, 1520동작에서 획득에 실패한 객체 이미지를 생성한 경우, 전자 장치(410)의 프로세서(420)는 1530동작에서, 획득(혹은 생성)한 객체 이미지들을 이용하여 요청 이미지를 생성할 수 있다. In operation 1510, if the processor 420 of the electronic device 410 determines that it has acquired all of the object images to be included in the request image, or if the object image fails to acquire in the 1520 operation, the processor 420 of the electronic device 410 acquires A request image can be generated using one object images.
일 실시예에서, 전자 장치(410)의 프로세서(420)는 획득(혹은 생성)한 객체 이미지들을 합성(혹은 조합)함으로써 요청 이미지를 생성할 수 있다. In one embodiment, the processor 420 of the electronic device 410 may generate a request image by compositing (or combining) object images obtained (or generated).
일 실시예에서, 전자 장치(410)의 프로세서(420)는 획득(혹은 생성)한 객체 이미지들을 하나의 이미지의 서로 다른 위치에 배치 혹은 구성함으로써 획득(혹은 생성)한 객체 이미지들을 합성할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 제1 객체 이미지("1997.7.20의 나")를, 제1 객체가 제2 객체보다 앞쪽에 있는 것으로 보여지도록, 이미지 내에서 아래 부분에 배치하고, 제2 객체 이미지("1997.8.1의 서울공원")를, 제1 객체가 제2 객체보다 앞쪽에 있는 것으로 보여지도록, 동일한 이미지 내에서 위 부분에 배치할 수 있다.In one embodiment, the processor 420 of the electronic device 410 may synthesize object images obtained (or generated) by arranging (or creating) the object images obtained at different positions of one image . For example, the processor 420 of the electronic device 410 may compare a first object image (" me in 1997.7.20 ") with a second object image in the image, such that the first object is seen as being ahead of the second object And a second object image (" Seoul Park, 1997.8.1 ") can be placed in the upper part of the same image so that the first object is seen as being ahead of the second object.
다른 실시예에서, 전자 장치(410)의 프로세서(420)는 획득(혹은 생성)한 객체 이미지들 중 하나의 객체 이미지가 다른 객체 이미지를 중첩하도록, 획득한 객체들을 배치할 수도 있다.In another embodiment, the processor 420 of the electronic device 410 may arrange the acquired objects so that one of the object images acquired (or created) overlaps another object image.
도 16는 본 발명의 다양한 실시예들에 따른 획득에 실패한 객체 이미지를 전자 장치가 생성하기 위한 동작의 세부 흐름도이다. 도 16은 도 15의 1520동작의 세부 순서도일 수 있다. 16 is a detailed flow diagram of an operation for an electronic device to generate an object image that fails acquisition in accordance with various embodiments of the present invention. FIG. 16 is a detailed flowchart of operation 1520 of FIG.
1610동작에서, 전자 장치(410)의 프로세서(420)는 시간 조건을 만족하는 객체 이미지가 존재하지 않는 것인지 여부를 확인할 수 있다. 다시 말해서, 전자 장치(410)의 프로세서(420)는 획득에 실패한 객체 이미지가 있을 경우, 획득에 실패한 이유를 확인할 수 있다. 예를 들어, 이미지 생성 조건이 "1997.7.1 ~ 1997.8.31의 엄마"인 경우, 전자 장치(410)의 프로세서(420)는 시간 조건과 무관하게, "엄마"를 나타내는 객체 이미지를 포함하는 이미지가 검색되지 않는 것인지, 혹은 "엄마"를 나타내는 객체 이미지를 포함하는 이미지는 검색되지만, 시간 조건에 맞지 않는 것인지 여부를 확인할 수 있다. 전자 장치(410)의 프로세서(420)가 1610동작에서 시간 조건을 만족하는 객체가 존재하지 않는 것인지 확인하는 과정은, 상술한 두 가지 예시 중에서 두 번째 예시를 의미할 수 있다.In operation 1610, the processor 420 of the electronic device 410 may determine whether an object image that satisfies the time condition does not exist. In other words, the processor 420 of the electronic device 410 can confirm why the acquisition failed if there is an object image that failed to acquire. For example, if the image generation condition is " a mother of 1997.7.1 to 1997.8.31, " the processor 420 of the electronic device 410 may generate an image including an object image representing " mom " Is not searched, or an image containing an object image representing " mother " is searched, but it can be checked whether or not it does not meet the time condition. The process of the processor 420 of the electronic device 410 to determine whether there is no object satisfying the time condition in operation 1610 may be a second example of the two examples described above.
1610동작에서, 시간 조건을 만족하는 객체 이미지가 존재하지 않은 것으로 확인되면, 전자 장치(410)의 프로세서(420)는 1620동작에서 동일한 개체(entity)를 나타내며 시간 조건을 기준으로 이전과 이후에 촬영된 이미지들이 메모리(430) 혹은 메모리(430-1)에 존재하는지 여부를 확인할 수 있다. 예를 들어 "1997.7.1 ~ 1997.8.31의 엄마"를 나타내는 객체 이미지를 검색할 수 없는 경우, 전자 장치(410)의 프로세서(420)는 "1989.3.4의 엄마"를 나타내는 객체 이미지와 "2001.8.29의 엄마"를 나타내는 객체 이미지가 전자 장치(410)의 메모리(430)에 존재한다는 것을 확인할 수 있다.In operation 1610, if it is determined that there is no object image satisfying the time condition, the processor 420 of the electronic device 410 represents the same entity in the 1620 operation, It is possible to check whether or not the images are present in the memory 430 or the memory 430-1. For example, if it is not possible to retrieve an object image representing " mother of 1997.7.1 ~ 1997.8.31.31 ", the processor 420 of the electronic device 410 may compare the object image representing "Quot; mother of .29 " is present in the memory 430 of the electronic device 410. < RTI ID = 0.0 >
일 실시예에서, 전자 장치(410)의 프로세서(420)는 전자 장치(410)의 메모리(430)를 검색하거나, 외부 장치(450)에, 외부 장치(450)의 메모리(430-1)에서 검색을 추가로 요청함으로써, 이전과 이후에 촬영된 이미지들이 존재하는지 여부를 확인할 수 있다.In one embodiment, the processor 420 of the electronic device 410 searches the memory 430 of the electronic device 410, or searches the memory 430 of the external device 450 By further requesting a search, it is possible to determine whether there are images taken before and after.
다른 실시예에서, 전자 장치(410)의 프로세서(420)는 요청 이미지를 생성하기 전 외부 장치(450)로부터 객체 이미지를 수신하는 과정(860)에서, 이전과 이후에 촬영된 이미지들이 존재하는지 여부에 대한 정보를 수신할 수도 있다.In another embodiment, the processor 420 of the electronic device 410 receives (at 860) an object image from the external device 450 prior to generating the request image, determining whether images taken before and after As shown in FIG.
이전과 이후에 촬영된 이미지들이 존재한다고 판단되면, 전자 장치(410)의 프로세서(420)는 1630동작에서, 이전과 이후에 촬영된 이미지들을 기반으로 시간 조건을 만족하는 객체 이미지를 생성할 수 있다. If it is determined that there are images taken before and after, the processor 420 of the electronic device 410 may generate an object image that satisfies the time condition based on the images taken before and after, in the 1630 operation .
일 실시예에서, 전자 장치(410)의 프로세서(420)는 이전과 이후에 촬영된 이미지들을 보간(interpolate)하여, 시간 조건을 만족하는 객체 이미지를 생성할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 "1989.3.4의 엄마"를 나타내는 객체 이미지와 "2001.8.29의 엄마"를 나타내는 객체 이미지의 변화에 기반하여, 특정한 시구간 내에서 성장 혹은 노화에 따른 인물의 이미지 변화를 결정할 수 있다. 그리고 전자 장치(410)의 프로세서(420)는 특정 시구간 내에 포함된 특정한 시간 혹은 시구간(예: 1997.7.1 ~ 1997.8.31)에서의 인물의 이미지를 추정(estimate) 및 생성할 수 있다. In one embodiment, the processor 420 of the electronic device 410 may interpolate previously and subsequently photographed images to produce an object image that satisfies the time condition. For example, the processor 420 of the electronic device 410 may grow within a specific time period, based on changes in the object image representing " mother of 1989.3.4 " and object image representing " mother of August 29, Or determine the image change of a person due to aging. And the processor 420 of the electronic device 410 may estimate and generate an image of a person at a particular time or time period (e.g., 1997.7.1 to 1997.8.31) included within a particular time period.
미도시되었지만, 전자 장치(410)의 프로세서(420)는 이전과 이후에 촬영된 이미지들 중 하나의 이미지를 이용하여 시간 조건을 만족하는 객체 이미지를 생성할 수도 있다. 일 실시예에서, 전자 장치(410)의 프로세서(420)는 사람 얼굴의 일반적인 노화(혹은 성장) 패턴 변화에 대한 정보를 미리 저장해두고, 이전과 이후에 촬영된 이미지들 중 하나의 이미지를 이용하여 시간 조건을 만족하는 객체 이미지를 생성할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 "1983.3.4의 엄마"를 나타내는 객체 이미지 및 사람 얼굴의 일반적인 노화 패턴 변화 정보에 기반하여, "1997.7.1 ~ 1997.8.31의 엄마"를 나타내는 객체 이미지를 추정 및 생성할 수 있다.Although not shown, the processor 420 of the electronic device 410 may use one of the images taken before and after it to create an object image that satisfies the time condition. In one embodiment, the processor 420 of the electronic device 410 pre-stores information about changes in the general aging (or growth) pattern of a human face, and uses one of the images taken before and after An object image satisfying a time condition can be generated. For example, the processor 420 of the electronic device 410 may determine, based on the object image representing " mother of 1983.3.4 " and the general aging pattern change information of the human face, Can be estimated and generated.
미도시되었지만, 전자 장치(410)의 프로세서(420)는 1630동작에서, 시간 조건과 상이한 시간에 촬영된 적어도 둘 이상의 이미지들을 이용하여, 시간 조건을 만족하는 객체 이미지를 생성할 수 있다. 즉, 프로세서(420)는 시간 조건을 기준으로 이전에 촬영된 적어도 둘 이상의 이미지들을 이용하거나, 시간 조건을 기준으로 이후에 촬영된 적어도 둘 이상의 이미지들을 이용하여 시간 조건을 만족하는 객체 이미지를 생성할 수 있다. 예를 들어, 프로세서(420)는 "1991. 6.10의 엄마"를 나타내는 객체 이미지 및 "1995.1.20의 엄마"를 나타내는 객체 이미지를 획득하고, 획득한 객체 이미지들을 이용하여, 시간의 흐름에 따른 인물의 이미지 변화를 결정할 수 있다. 그리고 프로세서(420)는 결정된 인물의 이미지 변화에 기반하여 특정한 시간 혹은 시구간(예: 1997.7.1 ~ 1997.8.31)에서의 엄마의 이미지를 추정(estimate) 및 생성할 수 있다.Although not shown, the processor 420 of the electronic device 410 may, in a 1630 operation, generate an object image that satisfies a time condition, using at least two images photographed at times different from the time conditions. That is, the processor 420 may use at least two images previously photographed based on the temporal condition, or may generate an object image satisfying the temporal condition using at least two images photographed later based on the temporal condition . For example, the processor 420 obtains an object image representing " Mother of 1991. 6.10 " and an object image representing " Mother of 1995.1.20 ", and using the acquired object images, Can be determined. The processor 420 may then estimate and generate an image of the mother at a particular time or time period (e.g., 1997.7.1 to 1997.8.31) based on the determined image change of the person.
도 17은 본 발명의 다양한 실시예에 따른 요청 이미지를 생성하는 한가지 예를 도시한다. 도 17에 개시된 실시예는 전자 장치(410) 또는 외부 장치(450)에서 수행될 수 있지만, 설명의 편의를 위하여 이하 도 17에 개시된 실시예는 외부 장치(450)에서 수행되는 것으로 기재하겠다.Figure 17 illustrates one example of generating a request image in accordance with various embodiments of the present invention. 17 may be performed in the electronic device 410 or the external device 450, but for convenience of description, the embodiment disclosed in FIG. 17 will be described as being performed in the external device 450. FIG.
외부 장치(450)의 프로세서(420-1)는 요청 이미지에 포함될 객체 이미지를 포함하는 원본 이미지(1703)를 메모리(430-1)에서 검색할 수 있다. 메모리(430-1)는 제1 영역(1702) 및 제2 영역(1701)을 포함할 수 있다. 제1 영역(1702)는 제1 영역(431), 제2 영역(1701)은 제2 영역(432)에 대응할 수 있다.The processor 420-1 of the external device 450 can search the memory 430-1 for the original image 1703 including the object image to be included in the request image. The memory 430-1 may include a first area 1702 and a second area 1701. The first area 1702 may correspond to the first area 431 and the second area 1701 may correspond to the second area 432. [
일 실시예에서, 프로세서(420-1)는 메모리(430-1)의 제1 영역(1702)에서 개인 정보와 관련된 객체를 포함하는 2개의 원본 이미지들(1704, 1705)를 검색하고, 메모리(430-1)의 제2 영역(1701)에서 개인 정보와 무관한 객체를 포함하는 원본 이미지(1703)를 검색할 수 있다.In one embodiment, the processor 420-1 retrieves two original images 1704, 1705 that contain objects related to personal information in a first area 1702 of the memory 430-1, The original image 1703 including the object irrelevant to the personal information can be searched in the second region 1701 of the first region 170-1.
외부 장치(450)의 프로세서(420-1)는 검색된 원본 이미지에 기반하여, 요청 이미지에 포함될 객체 이미지를 획득할 수 있다. 일 실시예에서, 요청 이미지에 포함될 객체 이미지를 획득하는 동작은, 원본 이미지를 분할 혹은 크롭함으로써, 요청 이미지에 포함될 객체 이미지를 획득하는 동작을 포함할 수 있다. 예를 들어, 외부 장치(450)의 프로세서(420-1)는, 메모리(430-1)의 제1 영역(1702)에서 검색된 원본 이미지들(1704, 1705) 각각으로부터, 요청 이미지에 포함될 "1997년 7월의 엄마"를 나타내는 객체 이미지(1707) 및 요청 이미지에 포함될 "1997년 7월의 나"를 나타내는 객체 이미지(1706)를 획득할 수 있다.The processor 420-1 of the external device 450 can acquire an object image to be included in the request image, based on the retrieved original image. In one embodiment, the act of obtaining an object image to be included in the request image may include obtaining an object image to be included in the request image by dividing or cropping the original image. For example, the processor 420-1 of the external device 450 may obtain, from each of the original images 1704 and 1705 retrieved in the first area 1702 of the memory 430-1, An object image 1706 representing the "mother of July" and an object image 1706 representing "July of 1997" to be included in the request image.
일 실시예에서, 요청 이미지에 포함될 객체 이미지는, 검색된 원본 이미지 전체를 의미할 수도 있다. 예를 들어, 요청 이미지에 포함될 객체는, 메모리(430)의 제2 영역(1701)에서 검색된 원본 이미지(1703) 자체를 의미할 수도 있다.In one embodiment, the object image to be included in the request image may refer to the entire retrieved original image. For example, the object to be included in the request image may refer to the original image 1703 itself retrieved in the second area 1701 of the memory 430.
외부 장치(450)의 프로세서(420-1)는 획득한 객체들을 이용하여 요청 이미지(1709)를 생성할 수 있다. The processor 420-1 of the external device 450 may generate the request image 1709 using the acquired objects.
일 실시예에서, 획득한 모든 객체들 각각을 하나의 이미지의 서로 다른 위치에 배치 혹은 구성함으로써, 요청 이미지를 생성할 수 있다. 예를 들어, 외부 장치(450)의 프로세서(420-1)는 인물을 나타내는 객체 이미지들(1706, 1707)을, 하나의 이미지 내에서 하단 부분에 병렬로 배치할 수 있다. In one embodiment, the request image can be generated by arranging or composing each of the acquired objects at different positions of one image. For example, the processor 420-1 of the external device 450 can arrange the object images 1706 and 1707 representing the person in parallel in the lower part in one image.
다른 실시예에서, 획득한 객체들 중 하나의 객체를 다른 객체에 중첩하도록 획득한 객체들을 배치함으로써, 요청 이미지를 생성할 수 있다. 예를 들어, 외부 장치(450)의 프로세서(420-1)는 배경을 나타내는 하나의 원본 이미지와 중첩하도록 인물을 나타내는 객체 이미지들을 배치함으로써, 요청 이미지를 생성할 수 있다.In another embodiment, the request image can be generated by placing objects obtained to overlap one of the acquired objects with another object. For example, the processor 420-1 of the external device 450 can generate a request image by placing object images representing a person to overlap with one original image representing the background.
도 18은, 본 발명의 다양한 실시예에 따른 전자 장치가 요청 이미지를 생성하기 위한 동작의 세부 흐름도이다. 도 18은 도 6의 630동작 및 640동작의 세부 순서도일 수 있다. 18 is a detailed flowchart of an operation for an electronic device according to various embodiments of the present invention to generate a request image. FIG. 18 is a detailed flowchart of operations 630 and 640 of FIG.
1810동작에서, 전자 장치(410)의 프로세서(420)는 조건을 만족하는 객체를 포함하는 원본 이미지가 복수 개인지 여부를 판단할 수 있다. 예를 들어, 이미지 생성 조건이 제1 조건의 객체(예: 1997.7.1 ~ 1997.8.31의 엄마) 정보를 포함할 경우, 프로세서(420)는 전자 장치(410)의 메모리(430)에서, 제1 조건을 만족하는 객체를 포함하는 원본 이미지를 검색할 수 있고, 그 결과, 제1 조건을 만족하는 객체를 포함하는 복수의 원본 이미지가 검색될 수 있다.In operation 1810, the processor 420 of the electronic device 410 may determine whether there is more than one original image that contains an object that satisfies the condition. For example, if the image generation condition includes information of an object of a first condition (e.g., mother of 1997.7.1 to 1997.8.31), the processor 420 may determine whether the image 430 is in the memory 430 of the electronic device 410, 1 < / RTI > condition, and as a result, a plurality of original images including an object satisfying the first condition can be searched.
1820동작에서, 전자 장치(410)의 프로세서(420)는 기 설정된 조건을 확인할 수 있다. 일 실시예에서, 기 설정된 조건은, 하나의 객체에 대해 복수의 원본 이미지들이 검색된 경우, 검색된 복수의 원본 이미지들을 어떻게 처리할 것인지에 대한 설정일 수 있다.In operation 1820, the processor 420 of the electronic device 410 may check predetermined conditions. In one embodiment, the predetermined condition may be a setting for how to process a plurality of original images retrieved when a plurality of original images are retrieved for one object.
1830동작에서 전자 장치(410)의 프로세서(420)는 복수의 요청 이미지들을 생성하도록 설정되어 있는지 확인할 수 있다. In operation 1830, the processor 420 of the electronic device 410 may verify that it is set up to generate a plurality of request images.
복수의 요청 이미지들을 생성하도록 설정되어 있는 경우, 전자 장치(410)의 프로세서(420)는 1850동작에서, 복수의 원본 이미지들을 이용하여 복수의 요청 이미지들을 생성할 수 있다. 예를 들어, 요청 이미지에 포함될 객체 이미지가 제1 객체 이미지 및 제2 객체 이미지를 포함하고, 제1 객체 이미지가 포함된 원본 이미지가 복수 개 검색되며, 제2 객체 이미지가 포함된 원본 이미지가 한 개 검색된 경우, 전자 장치(410)의 프로세서(420)는 제1 객체 이미지가 포함된 복수의 원본 이미지들 각각으로부터 획득한 각각의 제1 객체 이미지와 제2 객체가 포함된 원본 이미지로부터 획득한 제2 객체 이미지를 이용하여 복수의 요청 이미지들을 생성할 수 있다. If set to generate a plurality of request images, the processor 420 of the electronic device 410 may, in 1850 operation, generate a plurality of request images using a plurality of source images. For example, if the object image to be included in the request image includes the first object image and the second object image, a plurality of original images including the first object image are searched, and the original image including the second object image is one The processor 420 of the electronic device 410 determines whether or not the first object image obtained from each of the plurality of original images including the first object image and the first object image obtained from the original image including the second object It is possible to generate multiple request images using 2 object images.
복수의 요청 이미지들을 생성하도록 설정되어 있지 않은 경우, 전자 장치(410)의 프로세서(420)는 1840동작에서, 복수의 원본 이미지들 중 하나의 원본 이미지를 결정할 수 있다. 일 실시예에서, 전자 장치(410)의 프로세서(420)는 복수의 원본 이미지들의 속성(예: 정확도, 선호도 등)에 기반하거나 혹은 무작위로, 하나의 원본 이미지를 결정할 수 있다. 예를 들어, 전자 장치(410)의 프로세서(420)는 복수의 원본 이미지들 중에서 가장 높은 선호도를 갖는 원본 이미지를 결정할 수 있다.If not configured to generate a plurality of request images, the processor 420 of the electronic device 410 may, in 1840 operation, determine an original image of one of the plurality of original images. In one embodiment, the processor 420 of the electronic device 410 may determine one original image based on attributes (e.g., accuracy, preference, etc.) of the plurality of original images or randomly. For example, the processor 420 of the electronic device 410 may determine the original image having the highest preference among the plurality of original images.
1860동작에서, 전자 장치(410)의 프로세서(420)는 하나의 요청 이미지를 생성할 수 있다. 예를 들어, 요청 이미지에 포함될 객체 이미지가 제1 객체 이미지 및 제2 객체 이미지를 포함하고, 제1 객체 이미지가 포함된 원본 이미지가 복수 개, 제2 객체가 포함된 원본 이미지가 한 개 검색된 경우, 제1 객체 이미지가 포함된 복수 개의 원본 이미지들 중에서 결정된 하나의 원본 이미지 및 제2 객체가 포함된 하나의 원본 이미지를 이용하여 하나의 요청 이미지를 생성할 수 있다. In 1860 operation, the processor 420 of the electronic device 410 may generate one request image. For example, when the object image to be included in the request image includes the first object image and the second object image, a plurality of original images including the first object image, and a single original image including the second object , One request image may be generated using one original image determined from a plurality of original images including the first object image and one original image including the second object.
도 19는 본 발명의 다양한 실시예에 따른 사용자 피드백을 수신하기 위한 사용자 인터페이스를 예시한다.Figure 19 illustrates a user interface for receiving user feedback in accordance with various embodiments of the present invention.
도 19를 참조할 때, 전자 장치(1910)는 전자 장치(410)일 수 있다. Referring to FIG. 19, the electronic device 1910 may be an electronic device 410.
일 실시예에서 전자 장치(1910)의 프로세서(420)는 전자 장치(1910)에 의해서 생성된 요청 이미지 또는 외부 장치(450)에 의해서 생성된 요청 이미지를 사용자에게 제공할 수 있다. 예를 들어, 전자 장치(1910)의 프로세서(420)는 요청 이미지(1920)를 화면에 표시하도록 디스플레이를 제어할 수 있다. 이 때, 전자 장치(1910)의 프로세서(420)는 추가적인 메시지를 표시하도록 디스플레이를 제어할 수도 있다. 예를 들어, 전자 장치(1910)의 디스플레이는 "만족도를 평가해주세요"라는 메시지를, 화면에 표시된 요청 이미지(1920)의 하단에 표시할 수 있다.In one embodiment, the processor 420 of the electronic device 1910 may provide the user with a request image generated by the electronic device 1910 or a request image generated by the external device 450. [ For example, the processor 420 of the electronic device 1910 may control the display to display the request image 1920 on the screen. At this time, the processor 420 of the electronic device 1910 may control the display to display additional messages. For example, the display of the electronic device 1910 may display a message " Please rate the satisfaction " at the bottom of the request image 1920 displayed on the screen.
일 실시예에서 전자 장치(1910)의 프로세서(420)는 요청 이미지에 대한 사용자의 피드백(예: 별점)을 수신하기 위한 사용자 인터페이스를, 요청 이미지(1920)와 함께 제공할 수 있다. 예를 들어, 전자 장치(1910)의 프로세서(420)는 요청 이미지(1920)에 대한 별점에 대한 정보를 수신하기 위한 사용자 인터페이스(2030)를 요청 이미지(1920)와 함께 제공할 수 있다.In one embodiment, the processor 420 of the electronic device 1910 may provide a user interface with the request image 1920 to receive user feedback (e.g., a star) for the request image. For example, the processor 420 of the electronic device 1910 may provide a user interface 2030 with a requesting image 1920 to receive information about a rating for the requesting image 1920.
일 실시예에서 프로세서(420)는 요청 이미지(1920)의 생성에 사용에 사용된 원본 이미지의 만족도(예: 도 13의 선호도(1370))를 결정할 수 있다. 예를 들어, 프로세서(420)는 요청 이미지(1920)에 대한 사용자 피드백 정보에 기반하여, 요청 이미지(1920)의 생성에 사용된 원본 이미지의 만족도를 결정하고, 메모리(430)에 결정된 만족도 정보를 저장 (혹은 갱신) 할 수 있다.In one embodiment, the processor 420 may determine the satisfaction (e.g., preference 1370 of FIG. 13) of the original image used for use in generating the request image 1920. For example, the processor 420 may determine the satisfaction of the original image used to generate the request image 1920 based on the user feedback information for the request image 1920, and determine the satisfaction degree information in the memory 430 Can be saved (or updated).
미도시되었지만, 프로세서(420)는 요청 이미지에 포함된 객체 이미지들 각각에 대한 사용자의 피드백을 수신하기 위한 사용자 인터페이스를 제공할 수 있다. 프로세서(420)는 제공된 사용자 인터페이스에 대한 사용자 입력에 기반하여 요청 이미지(1920)의 생성에 사용된 원본 이미지의 만족도를 결정할 수도 있다.Although not shown, the processor 420 may provide a user interface for receiving user feedback for each of the object images contained in the request image. The processor 420 may determine the satisfaction of the original image used to generate the request image 1920 based on the user input for the provided user interface.
도 20은 본 발명의 다양한 실시예들에 따른 외부 장치가 획득한 이미지를 메모리에 저장하는 동작의 흐름도이다. 도 20의 동작들은, 외부 장치(450)의 메모리(430-1)에 데이터베이스를 구축하는 과정의 일부를 의미할 수 있다.20 is a flow diagram of an operation of storing an image acquired by an external device in a memory in accordance with various embodiments of the present invention. 20 may be a part of the process of building a database in the memory 430-1 of the external device 450. [
2010동작에서, 외부 장치(450)의 프로세서(420-1)는 하나 이상의 이미지를 획득할 수 있다. 예를 들어, 외부 장치(450)는 소셜 네트워크 서비스(Social Network Service, SNS), 인터넷 게시판, 메신저, 블로그, 미디어 플랫폼 중 적어도 하나를 통하여 하나 이상의 이미지를 획득할 수 있다.In operation of 2010, the processor 420-1 of the external device 450 may acquire one or more images. For example, the external device 450 may obtain one or more images through at least one of a social network service (SNS), an Internet bulletin board, a messenger, a blog, and a media platform.
2020동작에서, 외부 장치(450)의 프로세서(420-1)는 사용자 코멘트, 획득한 이미지에 포함된 적어도 하나의 객체 또는 업로드 경로 중 적어도 하나에 기반하여 이미지의 정보를 도출할 수 있다. 일 실시예에서 이미지의 정보는 이미지에 대한 복수의 항목들 및 그에 대응하는 속성 값일 수 있다. 예를 들어 이미지의 정보는, 이미지의 촬영된 환경에 대한 정보(시간, 장소, 날씨 등), 이미지의 촬영 맥락에 대한 정보(촬영 목적), 촬영된 이미지 내에 포함된 객체(피사체)에 대한 정보 등을 포함할 수 있다.In operation 2020, the processor 420-1 of the external device 450 may derive information of the image based on at least one of a user comment, at least one object included in the acquired image, or an upload path. In one embodiment, the information in the image may be a plurality of items for the image and corresponding attribute values. For example, the information of the image may include information about the photographed environment of the image (time, place, weather, etc.), information about the photographic context of the image (photographic purpose), information about the object And the like.
일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 사용자 코멘트에 기반하여 이미지의 정보를 도출할 수 있다. 일 실시예에서 외부 장치(450)의 프로세서(420-1)는 자연어 분석 결과 또는 머신 러닝 학습 결과를 이용하여 이미지의 정보를 도출할 수 있다. 사용자 코멘트는 이미지의 획득 경로에 따라 다양한 형태를 가질 수 있다. 예를 들어, 사용자가 SNS를 통하여 특정한 이미지를 업로드하면서, "#여행#엄마와함께"와 같은 해시태그를 남긴 경우, 외부 장치(450)의 프로세서(420-1)는 "이미지의 촬영 목적 - 여행", "이미지의 객체 - 사용자, 엄마"을 이미지의 정보로 도출할 수 있다.In one embodiment, processor 420-1 of external device 450 may derive information of an image based on user comments. In one embodiment, the processor 420-1 of the external device 450 may derive information of an image using a natural language analysis result or a machine learning learning result. User comments can have various forms depending on the acquisition path of the image. For example, if a user has uploaded a particular image via the SNS and left a hashtag such as "#travel# with mom ", the processor 420-1 of the external device 450 would " Travel, " " image object-user, mother "
2030동작에서, 외부 장치(450)의 프로세서(420-1)는 도출한 이미지의 정보에 기반하여, 획득한 이미지를 저장할 메모리(430-1)의 영역을 결정할 수 있다. 일 실시예에서, 외부 장치(450)의 프로세서(420-1)는 메모리(430-1)의 제1 영역(431)과 제2 영역(432) 중에서 하나를, 획득한 이미지를 저장할 메모리의 영역으로 결정할 수 있다. In operation 2030, the processor 420-1 of the external device 450 may determine the area of the memory 430-1 in which to store the acquired image, based on the information of the derived image. In one embodiment, the processor 420-1 of the external device 450 stores one of the first area 431 and the second area 432 of the memory 430-1 in an area of memory to store the acquired image .
일 실시예에서, 이미지의 획득 경로에 기반하여, 외부 장치(450)의 프로세서(420-1)는 획득한 이미지를 저장할 메모리(430-1)의 영역을 결정할 수 있다. 예를 들어, 인물 A의 SNS 계정을 통하여 이미지를 획득한 경우, 외부 장치(450)의 프로세서(420-1)는 인물 A에 지정 혹은 전용된 제1 영역(431)에 획득한 이미지를 저장할 수 있다.In one embodiment, based on the acquisition path of the image, the processor 420-1 of the external device 450 may determine the area of the memory 430-1 in which to store the acquired image. For example, when an image is acquired through the SNS account of the person A, the processor 420-1 of the external device 450 can store the acquired image in the first area 431 designated or dedicated to the person A have.
일 실시예에서, 이미지의 개인 정보 포함 여부에 기반하여, 외부 장치(450)의 프로세서(420-1)는 획득한 이미지를 저장할 메모리(430-1)의 영역을 결정할 수 있다. 예를 들어, 획득한 이미지에 대하여 도출된 모든 정보가 개인 정보를 포함하지 않는 경우, 외부 장치(450)의 프로세서(420-1)는 획득한 이미지 및 도출한 이미지의 정보를 메모리(430-1)의 제2 영역(432)에 저장할 수 있다. 다른 실시예에서, 획득한 이미지에 대하여 도출된 정보 중 일부가 인물 A의 개인 정보를 포함하는 경우, 외부 장치(450)의 프로세서(420-1)는 획득한 이미지 및 도출된 이미지의 정보를 인물 A에 지정 혹은 전용된 제1 영역(431)에 저장할 수 있다. 개인 정보를 포함하는 일부 정보(예: "이미지의 객체 - 사용자, 엄마")에는 개인 정보를 포함하고 있음을 알리는 표지(mark)가 설정될 수 있다.In one embodiment, based on whether the image includes personal information, the processor 420-1 of the external device 450 can determine the area of the memory 430-1 in which to store the acquired image. For example, if all the information derived for the acquired image does not contain personal information, the processor 420-1 of the external device 450 stores the acquired image and information of the derived image in the memory 430-1 In a second area 432 of the second area 432. [ In another embodiment, when some of the information derived for the acquired image includes personal information of the person A, the processor 420-1 of the external device 450 may convert the acquired image and the information of the derived image A in the first area 431 designated or dedicated to the user. Some information (for example, " object of image-user, mother ") including personal information may be set to a mark indicating that personal information is included.
2040동작에서, 외부 장치(450)의 프로세서(420-1)는 획득한 이미지를, 도출한 이미지의 정보와 함께, 2030동작에서 결정된 메모리(430-1)의 영역에 저장할 수 있다. 도출한 이미지의 정보와 함께 저장된 이미지는 도 13 및 도 14에 예시되어있다.In operation 2040, the processor 420-1 of the external device 450 may store the acquired image in the area of the memory 430-1 determined in operation 2030, together with the information of the derived image. The images stored with the information of the derived image are illustrated in Figs. 13 and 14. Fig.

Claims (15)

  1. 전자 장치에 있어서,In an electronic device,
    통신 모듈; 및Communication module; And
    프로세서를 포함하고, 상기 프로세서는,The processor comprising:
    상기 전자 장치 또는 상기 통신 모듈을 통해 기능적으로 연결된 외부 장치를 통해 입력을 수신하고,Receiving an input via the electronic device or an external device functionally connected through the communication module,
    상기 입력과 관련된 상황 정보를 확인하고, 상기 상황 정보는 시간 정보 및 오브젝트 정보를 포함하고,Wherein the status information includes time information and object information,
    상기 전자 장치 또는 상기 외부 장치에 저장된 하나 이상의 이미지들 중 상기 상황 정보에 대응하는 적어도 하나의 이미지를 검색하고,Searching at least one image among the one or more images stored in the electronic device or the external device corresponding to the status information,
    상기 상황 정보에 대응하는 상기 적어도 하나의 이미지가 검색된 경우, 상기 검색된 적어도 하나의 이미지를 제공하고, 및Providing the retrieved at least one image if the at least one image corresponding to the context information is retrieved, and
    상기 상황 정보에 대응하는 상기 적어도 하나의 이미지가 검색되지 않는 경우, 상기 하나 이상의 이미지들 중 상기 상황 정보의 일부에 대응하는 다른 적어도 하나의 이미지를 이용하여, 상기 상황 정보에 대응하는 이미지를 생성하고, 및 상기 생성된 이미지를 제공하도록 설정된 전자 장치.And generates an image corresponding to the context information using at least one other image corresponding to a part of the context information among the one or more images when the at least one image corresponding to the context information is not retrieved And an electronic device configured to provide the generated image.
  2. 제 1항에 있어서,The method according to claim 1,
    상기 오브젝트 정보는 장소 정보를 포함하는 전자 장치.And the object information includes place information.
  3. 제 2항에 있어서,3. The method of claim 2,
    상기 상황 정보의 일부에 대응하는 다른 적어도 하나의 이미지는,At least one other image corresponding to a part of the situation information,
    상기 시간 정보 및 상기 오브젝트 정보에 대응하는 오브젝트를 포함하는 적어도 하나의 이미지를 포함하는 전자 장치.And at least one image including an object corresponding to the time information and the object information.
  4. 제 3항에 있어서, The method of claim 3,
    상기 프로세서는 상기 다른 적어도 하나의 이미지를 검색함으로써, 상기 다른 적어도 하나의 이미지를 이용하여 상기 상황 정보에 대응하는 이미지를 생성하도록 설정되며,Wherein the processor is configured to retrieve the at least one other image to generate an image corresponding to the context information using the at least one other image,
    상기 프로세서는 상기 시간 정보에 의해 지시되는 제1 시간 조건을 만족하는 이미지가 검색되지 않는 경우, 상기 제1 시간 조건을 포함하는 제2 시간 조건을 만족하는 이미지를 검색함으로써, 상기 다른 적어도 하나의 이미지를 검색하도록 설정되는 전자 장치.Wherein the processor is configured to retrieve an image that satisfies a second time condition that includes the first time condition when an image satisfying a first time condition indicated by the time information is not retrieved, Is set to search for the electronic device.
  5. 제 4항에 있어서, 5. The method of claim 4,
    상기 프로세서는, 상기 다른 적어도 하나의 이미지가 검색되지 않는 경우, 상기 시간 정보 및 상기 오브젝트 정보에 대응하는 상기 오브젝트를 포함하는 이미지를 생성함으로써, 상기 상황 정보에 대응하는 이미지를 생성하도록 설정된 전자 장치.Wherein the processor is configured to generate an image corresponding to the status information by generating an image including the time information and the object corresponding to the object information when the at least one other image is not retrieved.
  6. 제 4항에 있어서,5. The method of claim 4,
    상기 프로세서는, 상기 다른 적어도 하나의 이미지에 포함된, 상기 오브젝트에 대응하는 영역을, 분할 혹은 크롭함으로써, 상기 상황 정보에 대응하는 이미지를 생성하도록 설정된 전자 장치.Wherein the processor is configured to generate an image corresponding to the context information by dividing or cropping an area corresponding to the object included in the at least one other image.
  7. 제 6항에 있어서,The method according to claim 6,
    상기 프로세서는, 상기 분할 혹은 크롭된 영역들을 하나의 이미지에 배치함으로써, 상기 상황 정보에 대응하는 이미지를 생성하도록 설정된 전자 장치.Wherein the processor is configured to generate an image corresponding to the context information by arranging the divided or cropped regions in one image.
  8. 제 3항에 있어서,The method of claim 3,
    상기 상황 정보의 일부에 대응하는 다른 적어도 하나의 이미지는, At least one other image corresponding to a part of the situation information,
    상기 시간 정보에 대응하는 시구간(time interval)의 이전 시간에 대응하는 제1 이미지 및 상기 시구간의 이후 시간에 대응하는 제2 이미지를 포함하며,A first image corresponding to a previous time of a time interval corresponding to the time information, and a second image corresponding to a time after the time interval,
    상기 프로세서는 상기 제1 이미지 및 제2 이미지를 보간(interpolate)함으로써, 상기 상황 정보에 대응하는 이미지를 생성하도록 설정된 전자 장치.Wherein the processor is configured to generate an image corresponding to the context information by interpolating the first image and the second image.
  9. 제 1항에 있어서,The method according to claim 1,
    상기 프로세서는, 상기 상황 정보에 개인 정보(private information)가 포함된 경우, 상기 개인 정보를 공적 정보(public information)으로 변환함으로써, 상기 상황 정보를 확인하도록 설정된 전자 장치.Wherein the processor is configured to check the status information by converting the personal information into public information when the status information includes private information.
  10. 제 1항에 있어서,The method according to claim 1,
    상기 프로세서는 상기 제공된 이미지에 대한 사용자 피드백을 수신하도록 추가적으로 설정된 전자 장치.Wherein the processor is further configured to receive user feedback on the provided image.
  11. 제 7항에 있어서,8. The method of claim 7,
    상기 프로세서는 상기 분할 혹은 크롭된 영역들을 상기 하나의 이미지에 배치하기 전, 상기 분할 혹은 크롭된 영역들 중 적어도 하나의 영역의 화면 표시와 관련된 속성을, 나머지 영역들의 화면 표시와 관련된 속성에 기반하여 변경하도록 설정된 전자 장치.Wherein the processor is further configured to prioritize attributes associated with screen display of at least one of the divided or cropped regions before displaying the divided or cropped regions in the one image based on attributes associated with screen display of the remaining regions An electronic device set to change.
  12. 제 7항에 있어서, 8. The method of claim 7,
    상기 프로세서는 상기 분할 혹은 크롭된 영역들을 상기 하나의 이미지에 배치한 후, 상기 배치된 영역들 간 위화감을 억제하기 위한 처리를 수행하도록 설정된 전자 장치.Wherein the processor is configured to perform processing for disposing the divided or cropped regions in the one image, and then suppressing discomfort between the arranged regions.
  13. 전자 장치의 동작 방법에 있어서, A method of operating an electronic device,
    상기 전자 장치 또는 상기 전자 장치의 통신 모듈을 통해 기능적으로 연결된 외부 장치를 통해 입력을 수신하는 동작,Receiving an input via the electronic device or an external device functionally connected through the communication module of the electronic device,
    상기 입력과 관련된 상황 정보를 확인하는 동작, 여기서 상기 상황 정보는 시간 정보 및 오브젝트 정보를 포함하고,Checking status information associated with the input, the status information including time information and object information,
    상기 전자 장치 또는 상기 외부 장치에 저장된 하나 이상의 이미지들 중 상기 상황 정보의 일부에 대응하는 적어도 하나의 이미지를 획득하는 동작;Obtaining at least one image corresponding to a portion of the context information of the one or more images stored in the electronic device or the external device;
    상기 획득된 상기 적어도 하나의 이미지를 이용하여 상기 상황 정보에 대응하는 이미지를 생성하고, 및 상기 생성된 이미지를 제공하는 동작을 포함하는 방법.Generating an image corresponding to the context information using the acquired at least one image, and providing the generated image.
  14. 제 13항에 있어서,14. The method of claim 13,
    상기 분할 혹은 크롭된 영역들을 하나의 이미지에 배치하는 동작은, 상기 분할 혹은 크롭된 영역들을 상기 하나의 이미지에 배치하기 전, 상기 분할 혹은 크롭된 영역들 중 적어도 하나의 영역의 화면 표시와 관련된 속성을, 나머지 영역들의 화면 표시와 관련된 속성에 기반하여 변경하는 동작을 포함하는 방법. Wherein the step of arranging the divided or cropped regions into one image includes the step of arranging the divided or cropped regions in a single image before the divided or cropped regions are arranged in the one image, Based on an attribute associated with the display of the remaining regions.
  15. 제 13항에 있어서, 14. The method of claim 13,
    상기 분할 혹은 크롭된 영역들을 하나의 이미지에 배치하는 동작은, 상기 분할 혹은 크롭된 영역들을 상기 하나의 이미지에 배치한 후, 상기 배치된 영역들 간 위화감을 억제하기 위한 처리를 수행하는 동작을 포함하는 방법.The operation of arranging the divided or cropped regions in one image includes an operation of arranging the divided or cropped regions in the one image and then performing a process for suppressing an uncomfortable feeling between the arranged regions How to.
PCT/KR2018/010301 2017-09-29 2018-09-04 Electronic device for providing image related to inputted information, and operating method therefor WO2019066281A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/651,156 US11341595B2 (en) 2017-09-29 2018-09-04 Electronic device for providing image related to inputted information, and operating method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170128042A KR102457568B1 (en) 2017-09-29 2017-09-29 Electronic device for providing image associated with input information and operating method thereof
KR10-2017-0128042 2017-09-29

Publications (1)

Publication Number Publication Date
WO2019066281A1 true WO2019066281A1 (en) 2019-04-04

Family

ID=65902536

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/010301 WO2019066281A1 (en) 2017-09-29 2018-09-04 Electronic device for providing image related to inputted information, and operating method therefor

Country Status (3)

Country Link
US (1) US11341595B2 (en)
KR (1) KR102457568B1 (en)
WO (1) WO2019066281A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100720993B1 (en) * 2005-06-22 2007-05-22 김영래 A internet search method using a day-keyword
JP5473646B2 (en) * 2010-02-05 2014-04-16 キヤノン株式会社 Image search apparatus, control method, program, and storage medium
KR101552407B1 (en) * 2013-12-31 2015-09-10 홍익대학교 산학협력단 System and Method for Taking a Picture with Partner Have a Same Place but Different Time
KR101663042B1 (en) * 2015-06-10 2016-10-07 주식회사 아이오로라 Photo fusing apparatus
KR101720250B1 (en) * 2013-07-30 2017-03-27 주식회사 케이티 Apparatus for recommending image and method thereof

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001521250A (en) * 1997-10-27 2001-11-06 マサチューセッツ・インスティチュート・オブ・テクノロジー Information search and search system
TWI278782B (en) * 2001-08-24 2007-04-11 Toshiba Corp Personal recognition apparatus
AU2004213986A1 (en) * 2003-02-14 2004-09-02 Nervana, Inc. Semantic knowledge retrieval management and presentation
KR20080078217A (en) * 2007-02-22 2008-08-27 정태우 Method for indexing object in video, method for annexed service using index of object and apparatus for processing video
JP4329849B2 (en) 2007-06-18 2009-09-09 船井電機株式会社 Network system
US20090175551A1 (en) 2008-01-04 2009-07-09 Sony Ericsson Mobile Communications Ab Intelligent image enhancement
US8533204B2 (en) * 2011-09-02 2013-09-10 Xerox Corporation Text-based searching of image data
KR101363374B1 (en) * 2011-11-30 2014-02-14 이병선 Multiple level image search system using multiple element analysis
KR20140127131A (en) * 2013-04-24 2014-11-03 삼성전자주식회사 Method for displaying image and an electronic device thereof
KR20150064613A (en) 2013-12-03 2015-06-11 엘지전자 주식회사 Video display device and operating method thereof
KR102077677B1 (en) * 2014-01-21 2020-02-14 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR102362117B1 (en) * 2014-07-01 2022-02-11 삼성전자주식회사 Electroninc device for providing map information
US10318575B2 (en) * 2014-11-14 2019-06-11 Zorroa Corporation Systems and methods of building and using an image catalog
CN107079080A (en) 2015-06-10 2017-08-18 北京亿势极光国际技术有限责任公司 Perform the photo generating means of light source control and photo correction
US10042866B2 (en) * 2015-06-30 2018-08-07 Adobe Systems Incorporated Searching untagged images with text-based queries
US10353950B2 (en) * 2016-06-28 2019-07-16 Google Llc Visual recognition using user tap locations
US11042586B2 (en) * 2016-12-29 2021-06-22 Shutterstock, Inc. Clustering search results based on image composition
US11080338B2 (en) * 2017-01-13 2021-08-03 Nec Corporation Information processing apparatus, information processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100720993B1 (en) * 2005-06-22 2007-05-22 김영래 A internet search method using a day-keyword
JP5473646B2 (en) * 2010-02-05 2014-04-16 キヤノン株式会社 Image search apparatus, control method, program, and storage medium
KR101720250B1 (en) * 2013-07-30 2017-03-27 주식회사 케이티 Apparatus for recommending image and method thereof
KR101552407B1 (en) * 2013-12-31 2015-09-10 홍익대학교 산학협력단 System and Method for Taking a Picture with Partner Have a Same Place but Different Time
KR101663042B1 (en) * 2015-06-10 2016-10-07 주식회사 아이오로라 Photo fusing apparatus

Also Published As

Publication number Publication date
KR102457568B1 (en) 2022-10-21
US20200273137A1 (en) 2020-08-27
KR20190038053A (en) 2019-04-08
US11341595B2 (en) 2022-05-24

Similar Documents

Publication Publication Date Title
WO2020032555A1 (en) Electronic device and method for providing notification related to image displayed through display and image stored in memory based on image analysis
WO2020171583A1 (en) Electronic device for stabilizing image and method for operating same
WO2020032464A1 (en) Method for processing image based on scene recognition of image and electronic device therefor
EP3628121A1 (en) Electronic device for storing depth information in connection with image depending on properties of depth information obtained using image and control method thereof
WO2020159147A1 (en) Electronic device and graphic object control method of electronic device
WO2017191978A1 (en) Method, apparatus, and recording medium for processing image
WO2015126044A1 (en) Method for processing image and electronic apparatus therefor
WO2020091262A1 (en) Method for processing image by using artificial neural network, and electronic device supporting same
WO2019164185A1 (en) Electronic device and method for correcting image corrected in first image processing scheme in external electronic device in second image processing scheme
WO2019017641A1 (en) Electronic device and image compression method of electronic device
WO2020171512A1 (en) Electronic device for recommending composition and operating method thereof
WO2019143050A1 (en) Electronic device and method for controlling autofocus of camera
WO2017090833A1 (en) Photographing device and method of controlling the same
WO2020159262A1 (en) Electronic device and method for processing line data included in image frame data into multiple intervals
WO2019156428A1 (en) Electronic device and method for correcting images using external electronic device
WO2019039760A1 (en) Electronic device and character recognition method thereof
WO2021157954A1 (en) Video recording method using plurality of cameras, and device therefor
WO2016126083A1 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
WO2020032497A1 (en) Method and apparatus for incorporating noise pattern into image on which bokeh processing has been performed
WO2021025509A1 (en) Apparatus and method for displaying graphic elements according to object
WO2019208915A1 (en) Electronic device for acquiring image using plurality of cameras through position adjustment of external device, and method therefor
WO2022154387A1 (en) Electronic device and operation method therefor
WO2019103420A1 (en) Electronic device and method for sharing image with external device using image link information
WO2019059635A1 (en) Electronic device for providing function by using rgb image and ir image acquired through one image sensor
WO2019054626A1 (en) Electronic device and method for obtaining data from second image sensor by means of signal provided from first image sensor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18861317

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18861317

Country of ref document: EP

Kind code of ref document: A1