WO2024085422A1 - Electronic device, method for operating electronic device, and image editing system - Google Patents

Electronic device, method for operating electronic device, and image editing system Download PDF

Info

Publication number
WO2024085422A1
WO2024085422A1 PCT/KR2023/012793 KR2023012793W WO2024085422A1 WO 2024085422 A1 WO2024085422 A1 WO 2024085422A1 KR 2023012793 W KR2023012793 W KR 2023012793W WO 2024085422 A1 WO2024085422 A1 WO 2024085422A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
electronic device
virtual light
external device
editing
Prior art date
Application number
PCT/KR2023/012793
Other languages
French (fr)
Korean (ko)
Inventor
프라이모스트카안드리
젤레즈니아코브드미트로
자이체브빅토르
체르네하아나스타시아
라디보넨코올가
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2024085422A1 publication Critical patent/WO2024085422A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Definitions

  • the disclosed embodiments relate to an electronic device, a method of operating the electronic device, and an image editing system. More specifically, it relates to an electronic device that edits images in conjunction with an external device, a method of operating the electronic device, and an image editing system.
  • the electronic device 100 for editing an image displayed on the display 160 includes a memory 120 including one or more instructions and one or more processors 130, and the one or more processors 130 include one The above instructions can be executed.
  • the electronic device 100 may receive an editing signal associated with editing an image displayed on the display 160 from the external device 200.
  • the electronic device 100 may generate an edited image in which virtual light is synthesized into the image using the received editing signal.
  • the electronic device 100 may display the generated edited image on the display 160.
  • a method of operating the electronic device 100 for editing an image displayed on the display 160 may include receiving an editing signal associated with editing an image displayed on the display from an external device (step 410). .
  • a method of operating the electronic device 100 may include a step 440 of generating an edited image in which virtual light is synthesized into an image using a received editing signal.
  • a method of operating the electronic device 100 may include displaying the generated edited image on a display (step 450).
  • the image editing system 10 may include an external device 200 that generates a plurality of editing signals for an image and an electronic device 100 that receives a plurality of editing signals and edits the image.
  • the electronic device 100 of the image editing system may include an image generator 110 that generates an edited image by combining virtual light irradiated on the image with the image.
  • the electronic device 100 of the image editing system may include a memory 120 including one or more instructions.
  • the electronic device 100 of the image editing system includes one or more processors 130, and the one or more processors 130 may execute one or more instructions based on image editing signals.
  • the electronic device 100 of the image editing system may generate virtual light and control the image generator 110 to adjust the characteristics of the generated virtual light.
  • FIG. 1 illustrates the configuration of an image editing system 10 according to an exemplary embodiment disclosed.
  • Figure 2 is a block diagram of an electronic device 100 according to one disclosed embodiment.
  • FIG. 3 is a block diagram of the processor 130 according to the disclosed embodiment.
  • FIG. 4 is a flowchart of a method of operating the electronic device 100 according to the disclosed embodiment.
  • FIG. 5 is a flowchart illustrating a process of selecting an image in a method of operating the electronic device 100 according to an exemplary embodiment of the present disclosure.
  • FIG. 6 is a flowchart illustrating a process of changing the characteristics of light in a method of operating an electronic device 100 according to an exemplary embodiment of the present disclosure.
  • FIG. 7 is a flowchart illustrating a process of adding a parameter in a method of operating the electronic device 100 according to an embodiment of the disclosed disclosure.
  • FIG. 8 illustrates that a virtual light source 200a is controlled in conjunction with an external device 200 according to an exemplary embodiment of the present disclosure.
  • FIGS. 9A and 9B illustrate controlling a virtual light source 200a in the electronic device 100 according to an exemplary embodiment of the present disclosure.
  • FIG. 10 is a block diagram of an external device 200 according to an embodiment of the disclosed technology.
  • FIG. 10 is a block diagram of an external device 200 according to an embodiment of the disclosed technology.
  • the term “user” refers to a person who controls a system, function, or operation, and may include a developer, administrator, or installer.
  • FIG. 1 illustrates the configuration of an image editing system 10 according to an exemplary embodiment disclosed.
  • an image editing system 10 may include an electronic device 100 and an external device 200.
  • the electronic device 100 includes at least one camera or a sensor that detects the external environment, and may display the external environment.
  • the electronic device 100 includes a smart phone, laptop computer, tablet PC, digital camera, e-book terminal, digital broadcasting terminal, Personal Digital Assistants (PDA), and Portable Multimedia Player (PMP). ), navigation, MP3 player, etc., but are not limited to this.
  • the electronic device 100 may include a wearable device that can be worn by a user.
  • the external device 200 may generate an editing signal for an image displayed on the electronic device 100 and transmit the generated editing signal to the electronic device 100.
  • the external device 200 may generate editing signals for images based on the operation of the external device 200 itself.
  • the external device 200 may generate editing signals for the image based on the angle, rotational speed, acceleration, movement, or position of the external device 200 with respect to the electronic device 100.
  • the external device 200 may be a stylus pen including a plurality of sensors, but is not limited thereto, and may include a plurality of devices that can be used in conjunction with the electronic device 100. You can.
  • Figure 2 is a block diagram of an electronic device 100 according to one disclosed embodiment.
  • the electronic device 100 includes an image generator 110, a memory 120, a processor 130, a storage 140, a camera 150, or a display 160. can do.
  • the image generator 110 may generate virtual light based on image editing signals (Edit_Sig), adjust the characteristics of the generated virtual light, and synthesize the virtual light into the image to create an edited image. For example, for a photo taken in an environment where there is actually insufficient light or no light desired by the user, the image generator 110 synthesizes virtual light and edits the photo as if it were taken in an environment where a virtual light source exists. Images can be created.
  • the image generator 110 may generate light desired by the user by generating virtual light with adjusted parameters. For example, parameters that can be adjusted by the user may include, but are not limited to, light intensity, location of the light source, direction of light, radius of light, or illuminance, and may include various parameters that can represent the characteristics of light. there is.
  • the memory 120 may include at least one instruction for generating virtual light and controlling characteristics of the virtual light.
  • memory 120 may include instructions for parameters that control virtual light.
  • the processor 130 executes the instructions stored in the memory 120, receives an edit signal (Edit_Sig) associated with editing the image displayed on the display 160 from the external device 200, and uses the received edit signal to edit the image.
  • An edited image can be created by combining virtual light.
  • the processor 130 may display the generated edited image on the display 160.
  • the processor 130 may receive an image editing signal (Edit_Sig) and generate virtual light based on the image editing signal (Edit_Sig). Virtual light does not exist in the actual captured image, but refers to light generated based on the image editing signal (Edit_Sig).
  • the processor 130 when a user uses the electronic device 100 to take a photo in a state of insufficient light, the processor 130 generates virtual light and creates an edited image using the photo taken in a state of sufficient light.
  • the processor 130 generates virtual light and reduces the intensity of light when the user uses the electronic device 100 to take a picture in a state where there is excessive light. By doing this, you can create an edited image from a photo taken under appropriate lighting conditions.
  • the processor 130 may adjust the characteristics of virtual light based on the position, direction, or operation of the external device 200. For example, the processor 130 may adjust at least one of the position, direction, intensity, or area of the virtual light source.
  • the processor 130 may determine the angle between the external device 200 and the electronic device 100 as the angle of the light source for the captured image.
  • the processor 130 may determine the location of the light source based on the location of the external device 200. For example, the processor 130 may determine the location of the virtual light source in proportion to the distance between the external device 200 and the electronic device 100.
  • the processor 130 may determine the ratio of the distance between the external device 200 and the electronic device 100 and the distance between the virtual light source and the object present in the image by user definition.
  • the processor 130 When a plurality of objects exist in the captured image, the processor 130 according to one embodiment receives a selection signal for the object from the external device 200, and virtual light is emitted based on the received selection signal. You can select an object. For example, when a first object and a second object exist in a captured image, and the external device 200 approaches the first object, the processor 130 may determine the first object as the object to which light is irradiated. there is.
  • the processor 130 may receive a signal to change the object to which virtual light is irradiated from the external device 200, and change the object to which virtual light is irradiated based on the received change signal. For example, when the external device 200 moves away from the first object and approaches the second object, the processor 130 uses the change in distance to the object within the image as a change signal to irradiate the second object with light. It can be changed to an object.
  • the first object and the second object according to the disclosed embodiment are referred to for convenience when a plurality of objects exist within the captured image, and when there are three or more objects in the captured image, the third object or the nth object is also referred to. A similar operation can be performed.
  • the processor 130 may reset at least one of the position, direction, intensity, or area of the virtual light source according to the movement of the object. For example, when a user captures a video using the electronic device 100, the characteristics of virtual light may change according to the movement of the object.
  • the processor 130 may adjust the characteristics of the virtual light so that when an object moves opposite to the direction in which the light is irradiated, the intensity of the virtual light gradually becomes weaker and the area to which the light is irradiated becomes narrower.
  • the processor 130 may adjust the characteristics of the virtual light so that when the object moves in the direction in which the light is irradiated, the intensity of the virtual light becomes stronger and the area to which the light is irradiated expands. Additionally, the processor 130 according to the disclosed embodiment may adjust the characteristics of the light source to have the same effect as the light source moving from left to right when an object within the image moves from right to left.
  • the disclosed embodiments are not limited to this, and the processor 130 can adjust the characteristics of virtual light according to the movement of objects within the image and generate a natural edited image.
  • the processor 130 may adjust the characteristics of virtual light based on the operation of the external device 130.
  • Parameters may include, but are not limited to, intensity of light, location of the light source, direction of light, radius of light, or illuminance, and may include various parameters that can represent the characteristics of light. For example, when the user rotates the external device 200 clockwise about a predetermined axis, the processor 130 can adjust parameters for illuminance and increase the illuminance of virtual light. When the user rotates the external device 200 counterclockwise about a predetermined axis, the processor 130 can adjust parameters for illuminance and lower the illuminance of virtual light.
  • the processor 130 may determine the set border as the radius at which light is irradiated. For example, when a user sets a circular border on an image using the external device 200, the processor 130 may generate an edited image in which virtual light is irradiated to the set circular border.
  • the radius and form in which light is irradiated are not limited to this and may exist in various forms depending on the radius set by the user using the external device 200.
  • the processor 130 may receive an image editing signal (Edit_Sig) for an image by communicating with the external device 200.
  • the processor 130 can perform all short-distance communications.
  • the processor 130 includes a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit (NFC), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared data association (IrDA) communication unit, It may include, but is not limited to, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, and an Ant+ communication unit.
  • BLE Bluetooth Low Energy
  • NFC Near Field Communication
  • Wi-Fi Wireless Fidelity
  • Zigbee Wireless Fidelity
  • IrDA infrared data association
  • Storage 140 may store characteristics or parameters of the generated light.
  • the processor 130 may convert the characteristics of virtual light generated by the operation of the external device 200 into big data and store it in the storage 140.
  • Storage 140 may include volatile memory or non-volatile memory. By storing the characteristics of virtual light generated in various environments as big data, the electronic device 100 according to the disclosed embodiment can generate natural virtual light.
  • the camera 150 photographs the external environment, and the display 160 displays the captured image of the external environment on the electronic device 100.
  • the camera 150 may acquire at least one image. Additionally, the camera 150 is expressed as a singular number, but may include a plurality of cameras.
  • the camera 150 may include a plurality of cameras having different angles of view.
  • having different angles of view may mean that the angles of view of different cameras are different by setting the angles of view differently.
  • having different angles of view may mean that the ranges of angles of view of the two different cameras are different.
  • the camera 150 may include a standard camera (e.g., a camera with an angle of view ranging from 40 degrees to 60 degrees), a telephoto camera (e.g., a camera with an angle of view of 40 degrees or less), and a wide-angle camera (e.g.
  • a camera with an angle of view in the range of 60 to 80 degrees a camera capable of optical zoom (for example, a camera whose angle of view can be adjusted within the range of 60 to 80 degrees by physically adjusting the lens of the camera) It may include at least one of a camera capable of digital zoom (e.g., a camera capable of digitally adjusting the shooting range).
  • the standard camera may be a camera set to 1x zoom. , may be referred to as a 'general camera'.
  • telephoto cameras, optical cameras, cameras capable of optical zoom, and cameras capable of digital zoom may also exist in a wide variety depending on design and/or product specifications. Since the functions and detailed configuration of and digital zoom are self-evident in the image sensor field, detailed descriptions are omitted.
  • the camera 150 may include one camera whose angle of view can be adjusted.
  • the angle of view may correspond to the shooting range of the image acquired by the camera 150.
  • adjusting the angle of view may mean adjusting the focal distance of the camera 150.
  • the display 160 displays an image or video captured by the camera 150 under the control of the processor 130.
  • the display 160 may output an image stored in the storage 140 under the control of the processor 130.
  • the display 160 includes a motion UI (e.g., a user motion guide for motion recognition) to perform a motion recognition task corresponding to motion recognition in order to perform a task corresponding to the operation of the external device 200. ) can be displayed.
  • the display 160 may display content used when executing an image editing application.
  • FIG. 3 is a block diagram of the processor 130 according to one disclosed embodiment.
  • the processor 130 includes a motion controller 131, a motion detection unit 132, an image selection unit 133, a camera controller 134, a parameter creation unit 135, or an image editing unit 136. It can be included.
  • the motion controller 131 may receive an image editing signal (Edit_Sig) generated based on the operation of the external device 200 and control the operation of the virtual light based on the received image editing signal (Edit_Sig). For example, the motion controller 131 may reduce or enlarge the operating radius of the external device 200 by a preset ratio and convert it into an operating radius of virtual light. According to one embodiment, the motion controller 131 may adjust at least one of the position, direction, intensity, or area of the virtual light source. The motion controller 131 according to an embodiment may determine the angle between the external device 200 and the electronic device 100 as the angle of the light source for the captured image. The motion controller 131 according to one embodiment may determine the location of the light source based on the location of the external device 200.
  • the motion controller 131 may determine the position of the virtual light source in proportion to the distance between the external device 200 and the electronic device 100.
  • the motion controller 131 may determine the ratio of the distance between the external device 200 and the electronic device 100 and the distance between the virtual light source and the object present in the image by user definition.
  • the motion detection unit 132 may detect the motion of the external device 200 and generate data for generating virtual light. For example, when the external device 200 moves in the air at a certain distance from the electronic device 100, the motion detection unit 132 detects the motion of the external device 200 and generates virtual light. Create data. When the external device 200 according to one embodiment draws a circular radius in the air around the electronic device 100, the motion detection unit 132 detects the presence of a light source in the external device 200 with respect to the electronic device 100. You can decide to do this and generate virtual light with a circular radius. However, the above-described example is only one disclosed embodiment, and the motion detection unit 132 may generate image editing data corresponding to various operations of the external device 200.
  • the image selection unit 133 may select an object to be edited from among objects present in the image.
  • An image according to the disclosed embodiment may include a single object or a plurality of objects.
  • the image selection unit 133 according to the disclosed embodiment may determine the external device 200's approach to the object as a selection signal. For example, when a first object and a second object exist in a captured image, and the external device 200 approaches the first object, the image selection unit 133 selects the first object as the object to which light is irradiated. You can decide.
  • the image selection unit 133 may receive a signal for changing the object to which virtual light is irradiated from the external device 200, and change the object to which virtual light is irradiated based on the received change signal. there is. For example, when the external device 200 moves away from the first object and approaches the second object, the image selection unit 133 uses the change in distance to the object within the image as a change signal to display the second object as light. This can be changed to the object being investigated.
  • the first object and the second object according to the disclosed embodiment are referred to for convenience when a plurality of objects exist within the captured image, and when there are three or more objects in the captured image, the third object or the nth object is also referred to. A similar operation can be performed.
  • the camera controller 134 may receive image data from the camera 150 and apply parameters for image editing to the image data. For example, the camera controller 134 may receive data of an image captured by the camera 150, adjust the brightness of the image, contrast, hue, or saturation according to virtual light, and generate edited image data. .
  • the camera controller 134 according to the disclosed embodiment can adjust brightness, contrast, hue, or saturation according to virtual light for not only still images but also moving images and generate edited image data.
  • the parameter generator 135 may generate parameters for image editing and adjust the parameters based on the operation of the external device 200.
  • Parameters to be adjusted may include, but are not limited to, brightness, brightness, saturation, black and white, horizontality, or hue, and may include various effects that can be applied to the image.
  • the parameter generator 135 can change the type of parameter being generated.
  • the parameter generator 135 according to one embodiment can change the parameter to be edited from a brightness adjustment parameter to a hue adjustment parameter.
  • the types of parameters to be changed are not limited to this, and the user can select various parameters by moving the external device 200 in a sliding manner.
  • the parameter generator 135 can change the degree of the applied parameter.
  • the parameter generator 135 can apply many parameters when the user slides the external device 200 upward. Conversely, when the user slides the external device 200 downward, fewer parameters can be applied.
  • the image editing unit 136 may apply virtual light to an object selected from a captured image and generate an edited image to which various parameters are applied. For example, the image editing unit 136 may synthesize virtual light into the original image and create an edited image in which at least one parameter of brightness, brightness, saturation, black and white, horizontality, or hue is adjusted. Additionally, the image editing unit 136 may transmit data to the display 160 so that the edited image is displayed on the display 160.
  • FIG. 4 is a flowchart of a method of operating the electronic device 100 according to the disclosed embodiment.
  • the electronic device 100 may receive an edit signal (Edit_Sig) associated with editing an image displayed on the display of the electronic device 100 from the external device 200 (410).
  • the electronic device 100 may receive a plurality of image editing signals (Edit_Sig) for an image from the external device 200.
  • the electronic device 100 may receive a signal that generates a virtual light source for an image and a signal that adjusts parameters of the virtual light emitted from the generated virtual light source.
  • Parameters may be brightness, intensity, radius, saturation, luminance, brightness, or color tone for virtual light, but are not limited thereto.
  • the external device 200 may adjust parameters for virtual wind rather than parameters for virtual light.
  • the image editing signal (Edit_Sig) for the image can have the same effect as a natural wind blowing on an object inside the image.
  • the electronic device 100 may use a received editing signal to generate an edited image in which virtual light is synthesized with the image (420). For example, when virtual light is generated and the characteristics of the light are adjusted, the electronic device 100 can synthesize the virtual light into the original image. In one embodiment, the electronic device 100 may synthesize virtual light to which a plurality of parameters are applied to an original image and generate an edited image. Additionally, the processor 100 according to one embodiment may synthesize the generated virtual light into an original image and store the characteristics of the virtual light. For example, the electronic device 100 can store the characteristics of virtual light and the situation in which the virtual light was generated as big data. By turning data about virtual light into big data, the electronic device 100 can create natural edited images in various environments that may occur in the future.
  • the electronic device 100 may generate an edited image in which virtual light is synthesized using a received editing signal.
  • the electronic device 100 may generate virtual light irradiated to the image when a plurality of image editing signals (Edit_Sig) for the image are received.
  • the electronic device 100 may receive a plurality of image editing signals (Edit_Sig) generated based on the operation of the external device 200 and generate virtual light.
  • virtual light may be generated by setting the angle between the external device 200 and the electronic device 100 as the angle between the virtual light source and the object within the image.
  • the electronic device 100 may generate virtual light and then adjust the characteristics of the virtual light irradiated to the image. For example, the user can select a parameter to be applied to the image based on the left-right movement of the external device 200 and adjust the degree of the applied parameter based on the up-and-down movement of the external device 200.
  • Parameters according to one embodiment may be brightness, intensity, radius, saturation, luminance, brightness, or color tone for virtual light, but are not limited thereto.
  • the electronic device 100 may display the generated edited image on the display (430).
  • the edited image according to the disclosed embodiment may be an image in which virtual light is reflected.
  • the disclosed embodiment has the effect of naturally correcting images taken in an environment with insufficient light or an environment with excessive light based on the operation of the external device 200.
  • the external device 200 is a stylus pen
  • the external device 200 is not limited thereto and may include various external devices that can perform short-distance communication in conjunction with the electronic device 100.
  • FIG. 5 is a flowchart illustrating a process of selecting an image in a method of operating the electronic device 100 according to an exemplary embodiment of the present disclosure.
  • the electronic device 100 when a user presses a button on a pen, the electronic device 100 according to one embodiment enters the image selection mode (510).
  • the electronic device 100 may determine whether the pen is further away from the image than a preset distance (520).
  • the electronic device 100 may determine whether the image and the pen are close to each other as a selection signal for the image. For example, the electronic device 100 may determine that the image and the pen are getting closer when the electronic device 100 and the pen are closer than the preset distance, and when the electronic device 100 and the pen are farther than the preset distance, the electronic device 100 may determine that the image and the pen are closer. This can be judged by the distance between the image and the pen.
  • the preset distance according to the disclosed embodiment may be determined by user definition, and whether the pen is approaching may be determined based on a change in the speed at which the pen approaches the electronic device 100 by an acceleration sensor installed in the pen.
  • the electronic device 100 may deselect the image (530). However, if it is determined that the pen is not further away from the image than a preset distance, the electronic device 100 according to one embodiment may select the image (540). For example, if it is determined that the pen and the electronic device 100 are not further apart than a preset distance, the electronic device 100 may select a new image and maintain a previously performed image selection operation.
  • FIG. 6 is a flowchart illustrating a process of changing the characteristics of light in a method of operating an electronic device 100 according to an exemplary embodiment of the present disclosure.
  • an object to be edited may be selected from an image displayed on the electronic device 100 according to an embodiment (650).
  • the electronic device 100 may adjust the characteristics of virtual light based on the operation of the pen.
  • the electronic device 100 may determine whether the position of the pen has changed (620). For example, the electronic device 100 may determine the location of a virtual light source based on the location of the pen. If it is determined that the position of the pen has changed, the electronic device 100 according to one embodiment may determine the position of the virtual light source based on the position of the pen and perform another operation to adjust the characteristics of the light. However, if it is determined that the position of the pen does not change, the electronic device 100 according to one embodiment can maintain the characteristics of light (670).
  • the electronic device 100 may determine whether the direction of the pen has changed (630). For example, the electronic device 100 may determine the direction of virtual light based on the position of the pen. If it is determined that the direction of the pen has changed, the electronic device 100 according to one embodiment may determine the direction in which virtual light is irradiated to the object based on the direction of the pen and perform other operations to adjust the characteristics of the light. there is. However, if it is determined that the direction of the pen does not change, the electronic device 100 according to one embodiment can maintain the characteristics of light (670).
  • the electronic device 100 may determine whether the speed of the pen has changed (640). For example, the electronic device 100 may determine the intensity of virtual light based on the speed of the pen. If it is determined that the speed of the pen has changed, the electronic device 100 according to one embodiment may determine the intensity of virtual light based on the speed of the pen and perform another operation to adjust the characteristics of the light. For example, when the speed of the pen increases, the electronic device 100 may set the intensity of light to be strong, and when the speed of the pen decreases, the electronic device 100 may set the intensity of light to be weak. However, if it is determined that the position of the pen does not change, the electronic device 100 according to one embodiment can maintain the characteristics of light (670).
  • the electronic device 100 may determine whether the movement radius of the pen has changed (650). For example, the electronic device 100 may determine the radius at which the virtual light shines based on the movement radius. If it is determined that the movement radius of the pen has changed, the electronic device 100 according to one embodiment may determine the range where the virtual light shines based on the movement radius of the pen. However, if it is determined that the movement radius of the pen does not change, the electronic device 100 according to one embodiment can maintain the characteristics of light (670).
  • the electronic device 100 emits light when it is determined that the position of the pen has changed, the direction of the pen has changed, the speed of the pen has changed, or the movement radius of the pen has changed. Characteristics can be changed (660). However, the characteristics of light that change based on the operation of the pen are not limited to this and may further include other characteristics of light that may affect the image.
  • FIG. 7 is a flowchart illustrating a process of adding a parameter in a method of operating the electronic device 100 according to an embodiment of the disclosed disclosure.
  • the electronic device 100 may detect the movement of the pen (710). For example, the electronic device 100 can determine whether the pen moves up/down, left/right, or spins.
  • the electronic device 100 may determine whether the movement of the pen matches a preset parameter selection signal (720). For example, when the pen moves up and down, the electronic device 100 may judge it as a parameter selection signal, and when the pen moves left or right or rotates, the electronic device 100 may judge it as a parameter adjustment signal.
  • the electronic device 100 can add a new parameter to the image (730).
  • the parameters may be, but are not limited to, brightness, intensity, radius, saturation, luminance, brightness, or hue for virtual light.
  • the electronic device 100 may maintain the existing parameters (740). For example, the electronic device 100 may maintain an existing state if a previously applied parameter exists, and may maintain an original image state if a previously applied parameter does not exist.
  • FIG. 8 illustrates that a virtual light source 200a is controlled in conjunction with an external device 200 according to an exemplary embodiment of the present disclosure.
  • the external device 200 and the virtual light source 200a may perform linked operations on three-dimensional coordinates based on a preset ratio.
  • the preset ratio can be determined by user definition. For example, when a user draws a circular radius with an external device 200 in the form of a stylus pen, the virtual light source 200a is a circular shape with a diameter three times the radius drawn by the external device 200. You can draw a radius.
  • the virtual light source 200a is linked to the external device 200, the radius of light irradiated to the image may be linked to the radius at which the external device 200 moves.
  • the electronic device includes a first interlocking variable (q) determined based on the first formula, a second interlocking variable ( ⁇ ) determined based on the second formula, and the second formula, as described below.
  • the radius at which the virtual light source irradiates light can be determined based on the third interlocking variable ( ⁇ ) determined by .
  • the coordinates of the external device 200 according to the disclosed embodiment may be (x, y, z), and the coordinates of the virtual light source may be (x', y', z').
  • ⁇ , ⁇ , and ⁇ may be interlocking coefficients for the x-axis, y-axis, and z-axis, respectively.
  • may be a ratio of movements of the external device 200 and the virtual light source 200a as a result of applying interlocking coefficients for the x, y, and z axes.
  • the electronic device 100 may determine the first interlocking variable (q) based on the first equation and the second interlocking variable ( ⁇ ) based on the second formula.
  • the first interlocking variable (q) may be information for determining the direction of rotation based on the x-coordinate or coordinates of the external device 200.
  • the second interlocking variable ⁇ may be information for determining the rotation rate of the external device 200.
  • the electronic device 100 determines the coordinates (x ⁇ , y ⁇ ) of the virtual light source based on the fourth equation. , z ⁇ ) can be determined.
  • FIGS. 9A and 9B illustrate controlling a virtual light source 200a in the electronic device 100 according to an exemplary embodiment of the present disclosure.
  • the angle ⁇ formed by the external device 200 with the electronic device is a virtual It may be equal to the angle ⁇ formed between the virtual light generated from the light source 200a and the image.
  • the electronic device 100 may determine the position of the virtual light source 200a based on the angle with the external device 200 and determine the angle of the virtual light emitted from the virtual light source 200a. .
  • FIG. 10 is a block diagram of an external device 200 according to an embodiment of the disclosed technology.
  • the external device 200 includes a power source 210, a motion detection sensor 220, an acceleration detection sensor 230, a gyroscope 240, a magnetic sensor 250, a communication unit 260, and a button ( 270).
  • the power source 210 may supply power to the external device 200.
  • the power source 210 can be charged in conjunction with the electronic device 100.
  • the power source 210 may be charged based on a wired/wireless charging method while electrically interconnected with the electronic device 100.
  • the motion detection sensor 220 can detect the motion of the external device 200. As described above, the external device 200 can perform up and down movement, left and right movement, or rotation movement by the user's manipulation, and the operation of the external device 200 can be used to generate a signal that determines the parameter. .
  • the acceleration sensor 230 can detect an increase or decrease in the speed of the external device 200. As described above, the speed of the external device 200 can be increased or decreased by the user's manipulation, and the acceleration of the external device 200 can be used to determine the degree of application of the parameter.
  • the gyroscope 240 can detect the position or rotation radius of the external device 200. As described above, the external device 200 can rotate along a predetermined radius by the user's manipulation and can be positioned at a predetermined angle with the electronic device 100. The position or rotation of the external device 200 can be used to determine the position of the virtual light source and the radius on which the virtual light shines.
  • the magnetic sensor 250 can detect whether the external device 200 and the electronic device 100 are approaching. For example, the magnetic sensor 250 can detect whether the external device 200 is approaching the electronic device 100, and whether the external device 200 and the device 100 are approaching generates an image selection signal. It can be a criterion for judgment.
  • the communication unit 260 may exchange data about the operation of the electronic device 100 and the external device 200.
  • the communication unit 260 can perform all short-distance communications.
  • the communication unit 260 includes a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit (NFC), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared data association (IrDA) communication unit, It may include, but is not limited to, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, and an Ant+ communication unit.
  • BLE Bluetooth Low Energy
  • NFC Near Field Communication
  • Wi-Fi Wireless Fidelity
  • Zigbee Wireless Fidelity
  • IrDA infrared data association
  • Button 270 may receive user input. For example, when the user presses the button 270 of the external device 200, the external device 200 transmits the user's input to the electronic device 100, and the electronic device 100 performs the image editing mode. can do.
  • the method of receiving the user's input is not limited to this and may further include various operations of the external device 200 that can be performed by user definition.
  • the electronic device 100 for editing an image displayed on the display 160 includes a memory 120 including one or more instructions and one or more processors 130, and one The processor 130 may execute one or more instructions.
  • the electronic device 100 may receive an editing signal associated with editing an image displayed on the display 160 from the external device 200.
  • the electronic device 100 may generate an edited image in which virtual light is synthesized into the image using the received editing signal.
  • the electronic device 100 may display the generated edited image on the display 160.
  • One or more processors 130 may adjust virtual light based on the location or direction of the external device 200.
  • the electronic device 100 further includes a storage 140 that stores the characteristics of virtual light in big data, and one or more processors 130 according to an embodiment monitor the movement of the external device 200. can be detected, and the characteristics of the virtual light generated based on the movement of the external device 200 can be stored in the storage 140.
  • One or more processors 130 may receive a selection signal for one of the objects present in the image and determine an object to which virtual light is irradiated based on the received selection signal.
  • One or more processors 130 may adjust at least one of the position, direction, intensity, or area of a light source of virtual light based on the movement of the external device 200.
  • the one or more processors 130 may reset at least one of the position, direction, intensity, or area of the virtual light source based on the movement of the object.
  • one or more processors 130 When there are multiple objects present in the image, one or more processors 130 according to an embodiment receive a change signal for one of the objects and change the object to which virtual light is irradiated based on the received change signal. You can.
  • One or more processors 130 may adjust parameters that adjust the characteristics of virtual light based on the movement of the external device 200.
  • the external device 200 includes a motion detection sensor 220, an acceleration detection sensor 230, or a gyroscope 240, and includes a motion detection sensor 220, an acceleration detection sensor 230, or a gyroscope 240. It may include a communication unit 260 that transmits a plurality of editing signals for an image generated based on a detection result of at least one of the gyroscopes 240 to the electronic device 100.
  • a method of operating the electronic device 100 for editing an image displayed on the display 160 may include receiving an editing signal associated with editing an image displayed on the display from an external device (step 410). .
  • a method of operating the electronic device 100 may include a step 440 of generating an edited image in which virtual light is synthesized into an image using a received editing signal.
  • a method of operating the electronic device 100 may include displaying the generated edited image on a display (step 450).
  • Generating virtual light may include adjusting virtual light based on the location or direction of an external device.
  • the method of operating the electronic device 100 further includes the step of converting and storing the characteristics of virtual light into big data, and the step of generating virtual light according to an embodiment includes detecting the movement of an external device, , It may include storing the characteristics of virtual light generated based on the movement of an external device in storage.
  • the step of generating virtual light may include receiving a selection signal for one of the objects present in the image and determining the object to which the virtual light is irradiated based on the received selection signal. there is.
  • Generating virtual light may include adjusting at least one of the position, direction, intensity, or area of the virtual light source based on the movement of the external device.
  • the step of generating virtual light may include resetting at least one of the position, direction, intensity, or area of the virtual light source based on the movement of the object when it is determined that the object present in the image is moving. You can.
  • the step of generating virtual light includes receiving a change signal for one of the objects, and generating virtual light based on the received change signal. This may involve changing the object being examined.
  • Generating virtual light may include adjusting parameters that adjust the characteristics of virtual light based on the movement of the external device 200.
  • Receiving an editing signal may include receiving an editing signal generated based on at least one of operation information, acceleration information, and rotation information of the external device 200.
  • a method of operating the electronic device 100 may be stored in a computer-readable recording medium on which a program for execution by a computer is recorded.
  • the image editing system 10 may include an external device 200 that generates a plurality of editing signals for an image and an electronic device 100 that receives a plurality of editing signals and edits the image.
  • the electronic device 100 of the image editing system may include an image generator 110 that generates an edited image by combining virtual light irradiated on the image with the image.
  • the electronic device 100 of the image editing system may include a memory 120 including one or more instructions.
  • the electronic device 100 of the image editing system includes one or more processors 130, and the one or more processors 130 may execute one or more instructions based on image editing signals.
  • the electronic device 100 of the image editing system may generate virtual light and control the image generator 110 to adjust the characteristics of the generated virtual light.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' only means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as .
  • a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a machine-readable storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An electronic device (100) for editing an image displayed on a display (160) according to an embodiment disclosed herein comprises: memory (120) including one or more instructions; and one or more processors (130), wherein the one or more processors (130) can execute the one or more instructions. An electronic device (100) according to one embodiment can receive an editing signal associated with the editing of the image displayed on the display (160) from an external device (200). An electronic device (100) according to one embodiment can use the received editing signal to generate an edited image in which virtual light is synthesized with the image. An electronic device (100) according to one embodiment can display the generated edited image on the display (160).

Description

전자 디바이스, 전자 디바이스의 동작 방법 및 이미지 편집 시스템Electronic device, method of operating the electronic device, and image editing system
개시된 실시예는 전자 디바이스, 전자 디바이스의 동작 방법 및 이미지 편집 시스템에 관한 것으로서, 더욱 상세하게는 외부 장치와 연동되어 이미지를 편집하는 전자 디바이스, 전자 디바이스의 동작 방법 및 이미지 편집 시스템에 관한 것이다.The disclosed embodiments relate to an electronic device, a method of operating the electronic device, and an image editing system. More specifically, it relates to an electronic device that edits images in conjunction with an external device, a method of operating the electronic device, and an image editing system.
스마트폰과 같은 모바일 기기에 설치된 카메라의 성능이 좋아지면서 다양한 환경에서 피사체에 조사되는 빛을 조절하는 방법이 개발되었습니다. 예를 들면, 모바일 디바이스에 광원을 설치하고 실시간으로 피사체에 빛을 비춰주는 방식 또는 이미 촬영된 이미지에 사후적으로 빛을 보정하는 방식이 존재한다.As the performance of cameras installed in mobile devices such as smartphones improves, methods for controlling the light irradiated to subjects in various environments have been developed. For example, there is a method of installing a light source on a mobile device and shining light on the subject in real time, or a method of correcting the light after the fact in an image that has already been taken.
그러나, 상술한 종래의 방법들은 디바이스에 별도의 광원이 설치되어 디바이스의 무게와 비용이 증가하는 단점이 존재하고, 사후적으로 이미지를 보정하기 때문에 편집된 이미지는 자연스럽지 못한 문제점이 존재한다.However, the above-mentioned conventional methods have the disadvantage of increasing the weight and cost of the device because a separate light source is installed in the device, and since the image is corrected after the fact, the edited image has the problem of not being natural.
개시된 실시예에 따른 디스플레이(160)에 표시된 이미지를 편집하는 전자 디바이스(100)는 하나 이상의 인스트럭션을 포함하는 메모리(120) 및 하나 이상의 프로세서(130)를 포함하고, 하나 이상의 프로세서(130)는 하나 이상의 인스트럭션을 실행할 수 있다.The electronic device 100 for editing an image displayed on the display 160 according to the disclosed embodiment includes a memory 120 including one or more instructions and one or more processors 130, and the one or more processors 130 include one The above instructions can be executed.
일 실시예에 따른 전자 디바이스(100)는, 외부 장치(200)로부터 디스플레이(160)에 표시되는 이미지의 편집과 연관된 편집 신호를 수신할 수 있다.The electronic device 100 according to one embodiment may receive an editing signal associated with editing an image displayed on the display 160 from the external device 200.
일 실시예에 따른 전자 디바이스(100)는, 수신된 편집 신호를 이용하여 이미지에 가상의 광이 합성된 편집 이미지를 생성할 수 있다.The electronic device 100 according to one embodiment may generate an edited image in which virtual light is synthesized into the image using the received editing signal.
일 실시예에 따른 전자 디바이스(100)는, 생성된 편집 이미지를 디스플레이(160)에 표시할 수 있다.The electronic device 100 according to one embodiment may display the generated edited image on the display 160.
개시된 실시예에 따른 디스플레이(160)에 표시된 이미지를 편집하는 전자 디바이스(100)의 동작방법은 외부 장치로부터 디스플레이에 표시되는 이미지의 편집과 연관된 편집 신호를 수신하는 단계(410)를 포함할 수 있다.A method of operating the electronic device 100 for editing an image displayed on the display 160 according to the disclosed embodiment may include receiving an editing signal associated with editing an image displayed on the display from an external device (step 410). .
일 실시예에 따른 전자 디바이스(100)의 동작방법은, 수신된 편집 신호를 이용하여 이미지에 가상의 광이 합성된 편집 이미지를 생성하는 단계(440)를 포함할 수 있다.A method of operating the electronic device 100 according to an embodiment may include a step 440 of generating an edited image in which virtual light is synthesized into an image using a received editing signal.
일 실시예에 따른 전자 디바이스(100)의 동작방법은, 생성된 편집 이미지를 디스플레이에 표시하는 단계(450)를 포함할 수 있다.A method of operating the electronic device 100 according to an embodiment may include displaying the generated edited image on a display (step 450).
개시된 실시예에 따른 이미지 편집 시스템(10)은 이미지에 대한 복수의 편집 신호들을 생성하는 외부 장치(200) 및 복수의 편집 신호들을 수신하고 이미지를 편집하는 전자 디바이스(100)를 포함할 수 있다. The image editing system 10 according to the disclosed embodiment may include an external device 200 that generates a plurality of editing signals for an image and an electronic device 100 that receives a plurality of editing signals and edits the image.
일 실시예에 따른 이미지 편집 시스템의 전자 디바이스(100)는 이미지에 조사되는 가상의 광을 이미지에 합성하여 편집 이미지를 생성하는 이미지 생성부(110)를 포함할 수 있다. The electronic device 100 of the image editing system according to one embodiment may include an image generator 110 that generates an edited image by combining virtual light irradiated on the image with the image.
일 실시예에 따른 이미지 편집 시스템의 전자 디바이스(100)는 하나 이상의 인스트럭션을 포함하는 메모리(120)를 포함할 수 있다.The electronic device 100 of the image editing system according to one embodiment may include a memory 120 including one or more instructions.
일 실시예에 따른 이미지 편집 시스템의 전자 디바이스(100)는 하나 이상의 프로세서(130)를 포함하고, 하나 이상의 프로세서(130)는 이미지 편집 신호들에 기초하여 하나 이상의 인스트럭션을 실행할 수 있다. The electronic device 100 of the image editing system according to one embodiment includes one or more processors 130, and the one or more processors 130 may execute one or more instructions based on image editing signals.
일 실시예에 따른 이미지 편집 시스템의 전자 디바이스(100)는 가상의 광을 생성하고, 생성된 가상의 광의 특성을 조절하도록 이미지 생성부(110)를 제어할 수 있다.The electronic device 100 of the image editing system according to one embodiment may generate virtual light and control the image generator 110 to adjust the characteristics of the generated virtual light.
도 1은 개시된 일 실시예에 따른 이미지 편집 시스템(10)의 구성을 도시한 것이다.FIG. 1 illustrates the configuration of an image editing system 10 according to an exemplary embodiment disclosed.
도 2는 개시된 일 실시예에 따른 전자 디바이스(100)의 블록도이다.Figure 2 is a block diagram of an electronic device 100 according to one disclosed embodiment.
도 3을 개시된 일 실시예에 따른 프로세서(130)의 블록도이다.Figure 3 is a block diagram of the processor 130 according to the disclosed embodiment.
도 4는 개시된 일 실시예에 따른 전자 디바이스(100)의 동작방법의 흐름도이다.FIG. 4 is a flowchart of a method of operating the electronic device 100 according to the disclosed embodiment.
도 5는 개시된 일 실시예에 따른 전자 디바이스(100)의 동작방법에 있어서 이미지를 선택하는 과정을 도시한 흐름도이다.FIG. 5 is a flowchart illustrating a process of selecting an image in a method of operating the electronic device 100 according to an exemplary embodiment of the present disclosure.
도 6은 개시된 일 실시예에 따른 전자 디바이스(100)의 동작방법에 있어서 광의 특성을 변경하는 과정을 도시한 흐름도이다.FIG. 6 is a flowchart illustrating a process of changing the characteristics of light in a method of operating an electronic device 100 according to an exemplary embodiment of the present disclosure.
도 7은 개시된 일 실시예에 따른 전자 디바이스(100)의 동작방법에 있어서 파라미터를 추가하는 과정을 도시한 흐름도이다.FIG. 7 is a flowchart illustrating a process of adding a parameter in a method of operating the electronic device 100 according to an embodiment of the disclosed disclosure.
도 8은 개시된 일 실시예에 따른 외부 장치(200)와 연동되어 가상의 광원(200a)이 제어되는 것을 도시한 것이다.FIG. 8 illustrates that a virtual light source 200a is controlled in conjunction with an external device 200 according to an exemplary embodiment of the present disclosure.
도 9a 및 도 9b는 개시된 일 실시예에 따른 전자 디바이스(100)에서 가상의 광원(200a)을 조절하는 것을 도시한 것이다. 도 10은 개시된 일 실시예에 따른 외부 장치(200)의 블록도이다.FIGS. 9A and 9B illustrate controlling a virtual light source 200a in the electronic device 100 according to an exemplary embodiment of the present disclosure. FIG. 10 is a block diagram of an external device 200 according to an embodiment of the disclosed technology.
도 10은 개시된 일 실시예에 따른 외부 장치(200)의 블록도이다.FIG. 10 is a block diagram of an external device 200 according to an embodiment of the disclosed technology.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly explained, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention are general terms that are currently widely used as much as possible while considering the functions in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "... unit" and "module" used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
본 명세서의 실시예에서 "사용자"라는 용어는 시스템, 기능 또는 동작을 제어하는 사람을 의미하며, 개발자, 관리자 또는 설치 기사를 포함할 수 있다.In embodiments herein, the term “user” refers to a person who controls a system, function, or operation, and may include a developer, administrator, or installer.
도 1은 개시된 일 실시예에 따른 이미지 편집 시스템(10)의 구성을 도시한 것이다.FIG. 1 illustrates the configuration of an image editing system 10 according to an exemplary embodiment disclosed.
도 1을 참조하면, 일 실시예에 따른 이미지 편집 시스템(10)은 전자 디바이스(100) 및 외부 장치(200)를 포함할 수 있다. Referring to FIG. 1 , an image editing system 10 according to an embodiment may include an electronic device 100 and an external device 200.
일 실시예에 따른 전자 디바이스(100)는 적어도 하나의 카메라 또는 외부 환경을 감지하는 센서를 포함하고, 외부의 환경을 디스플레이 할 수 있다. 예를 들면, 전자 디바이스(100)는 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 디지털 카메라, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 디바이스(100)는 사용자에 의해 착용될 수 있는 웨어러블 디바이스를 포함할 수 있다. The electronic device 100 according to one embodiment includes at least one camera or a sensor that detects the external environment, and may display the external environment. For example, the electronic device 100 includes a smart phone, laptop computer, tablet PC, digital camera, e-book terminal, digital broadcasting terminal, Personal Digital Assistants (PDA), and Portable Multimedia Player (PMP). ), navigation, MP3 player, etc., but are not limited to this. For example, the electronic device 100 may include a wearable device that can be worn by a user.
외부 장치(200)는 전자 디바이스(100)에 표시되는 이미지에 대한 편집 신호를 생성하고, 생성된 편집 신호를 전자 디바이스(100)에 전송할 수 있다. 일 실시예에 따른 외부 장치(200)는 외부 장치(200) 자체의 동작에 기초하여 이미지에 대한 편집 신호들을 생성할 수 있다. 예를 들면, 외부 장치(200)는 외부 장치(200)의 전자 디바이스(100)에 대한 각도, 회전 속도, 가속도, 움직임 또는 위치에 기초하여 이미지에 대한 편집 신호들을 생성할 수 있다. 일 실시예에 따른 외부 장치(200)는 복수의 센서들을 포함하는 스타일러스 펜(Stylus pen)일 수 있으나, 이에 한정되는 것은 아니고, 전자 디바이스(100)와 연동되어 사용될 수 있는 복수의 장치들을 포함할 수 있다.The external device 200 may generate an editing signal for an image displayed on the electronic device 100 and transmit the generated editing signal to the electronic device 100. The external device 200 according to one embodiment may generate editing signals for images based on the operation of the external device 200 itself. For example, the external device 200 may generate editing signals for the image based on the angle, rotational speed, acceleration, movement, or position of the external device 200 with respect to the electronic device 100. The external device 200 according to one embodiment may be a stylus pen including a plurality of sensors, but is not limited thereto, and may include a plurality of devices that can be used in conjunction with the electronic device 100. You can.
도 2는 개시된 일 실시예에 따른 전자 디바이스(100)의 블록도이다.Figure 2 is a block diagram of an electronic device 100 according to one disclosed embodiment.
도 2를 참조하면, 개시된 실시예에 따른 전자 디바이스(100)는 이미지 생성부(110), 메모리(120), 프로세서(130), 스토리지(140), 카메라(150) 또는 디스플레이(160)를 포함할 수 있다. Referring to FIG. 2, the electronic device 100 according to the disclosed embodiment includes an image generator 110, a memory 120, a processor 130, a storage 140, a camera 150, or a display 160. can do.
이미지 생성부(110)는 이미지 편집 신호(Edit_Sig)들에 기초하여 가상의 광을 생성하고, 생성된 가상의 광의 특성을 조절하고, 가상의 광을 이미지에 합성시킴으로써 편집 이미지를 생성할 수 있다. 예를 들면, 실제로는 빛이 부족하거나 사용자가 원하는 빛이 없는 환경에서 촬영된 사진에 대하여 이미지 생성부(110)는 가상의 광을 합성하고, 가상의 광원이 존재하는 환경에서 촬영된 것과 같은 편집 이미지를 생성할 수 있다. 일 실시예에 따른 이미지 생성부(110)는 파라미터가 조절된 가상의 광을 생성함으로써 사용자가 원하는 빛을 생성할 수 있다. 예를 들면, 사용자가 조절할 수 있는 파라미터는 빛의 세기, 광원의 위치, 빛의 방향, 빛의 반경 또는 조도를 포함할 수 있으나 이에 한정되지 않고 빛의 특성을 나타낼 수 있는 다양한 파라미터를 포함할 수 있다. The image generator 110 may generate virtual light based on image editing signals (Edit_Sig), adjust the characteristics of the generated virtual light, and synthesize the virtual light into the image to create an edited image. For example, for a photo taken in an environment where there is actually insufficient light or no light desired by the user, the image generator 110 synthesizes virtual light and edits the photo as if it were taken in an environment where a virtual light source exists. Images can be created. The image generator 110 according to one embodiment may generate light desired by the user by generating virtual light with adjusted parameters. For example, parameters that can be adjusted by the user may include, but are not limited to, light intensity, location of the light source, direction of light, radius of light, or illuminance, and may include various parameters that can represent the characteristics of light. there is.
메모리(120)는 가상의 광을 생성하고, 가상의 광의 특성을 조절하기 위한 적어도 하나의 인스트럭션을 포함할 수 있다. 예를 들면, 메모리(120)는 가상의 광을 조절하는 파라미터들에 대한 인스트럭션들을 포함할 수 있다. The memory 120 may include at least one instruction for generating virtual light and controlling characteristics of the virtual light. For example, memory 120 may include instructions for parameters that control virtual light.
프로세서(130)는 메모리(120)에 저장된 인스트럭션을 실행하여 외부 장치(200)로부터 디스플레이(160)에 표시되는 이미지의 편집과 연관된 편집 신호(Edit_Sig)를 수신하고, 수신된 편집 신호를 이용하여 이미지에 가상의 광이 합성된 편집 이미지를 생성할 수 있다. 또한, 프로세서(130)는 생성된 편집 이미지를 디스플레이(160)에 표시할 수 있다. 예를 들면, 프로세서(130)는 이미지 편집 신호(Edit_Sig)를 수신하고, 이미지 편집 신호(Edit_Sig)에 기초하여 가상의 광을 생성할 수 있다. 가상의 광은 촬영된 실제 이미지에는 존재하지 않으나, 이미지 편집 신호(Edit_Sig)에 기초하여 생성된 빛을 의미한다. 예를 들면, 사용자가 전자 디바이스(100)를 활용하여 빛이 부족한 상태에서 사진을 촬영한 경우, 프로세서(130)는 가상의 광을 생성하고, 빛이 충분한 상태에서 촬영된 사진으로 편집 이미지를 생성할 수 있다. 일 실시예에 따른 프로세서(130)는 사용자가 전자 디바이스(100)를 활용하여 빛이 과도하게 많은 상태에서 사진을 촬영한 경우, 프로세서(130)는 가상의 광을 생성하고, 빛의 세기를 감소시킴으로써 조도가 적당한 상태에서 촬영된 사진으로 편집 이미지를 생성할 수 있다. The processor 130 executes the instructions stored in the memory 120, receives an edit signal (Edit_Sig) associated with editing the image displayed on the display 160 from the external device 200, and uses the received edit signal to edit the image. An edited image can be created by combining virtual light. Additionally, the processor 130 may display the generated edited image on the display 160. For example, the processor 130 may receive an image editing signal (Edit_Sig) and generate virtual light based on the image editing signal (Edit_Sig). Virtual light does not exist in the actual captured image, but refers to light generated based on the image editing signal (Edit_Sig). For example, when a user uses the electronic device 100 to take a photo in a state of insufficient light, the processor 130 generates virtual light and creates an edited image using the photo taken in a state of sufficient light. can do. According to one embodiment, the processor 130 generates virtual light and reduces the intensity of light when the user uses the electronic device 100 to take a picture in a state where there is excessive light. By doing this, you can create an edited image from a photo taken under appropriate lighting conditions.
일 실시예에 따른 프로세서(130)는 외부 장치(200)의 위치, 방향 또는 동작에 기초하여 가상의 광의 특성을 조절할 수 있다. 예를 들면, 프로세서(130)는 가상의 광의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 조절할 수 있다. 일 실시예에 따른 프로세서(130)는 외부 장치(200)와 전자 디바이스(100)의 각도를 촬영된 이미지에 대한 광원의 각도로 결정할 수 있다. 일 실시예에 따른 프로세서(130)는 외부 장치(200)의 위치에 기초하여 광원의 위치로 결정할 수 있다. 예를 들면, 프로세서(130)는 외부 장치(200)와 전자 디바이스(100)의 거리에 비례하여 가상의 광원의 위치를 결정할 수 있다. 프로세서(130)는 외부 장치(200)와 전자 디바이스(100)의 거리와 가상의 광원과 이미지에 존재하는 객체와의 거리에 대한 비율은 사용자 정의에 의하여 결정될 수 있다.The processor 130 according to one embodiment may adjust the characteristics of virtual light based on the position, direction, or operation of the external device 200. For example, the processor 130 may adjust at least one of the position, direction, intensity, or area of the virtual light source. The processor 130 according to one embodiment may determine the angle between the external device 200 and the electronic device 100 as the angle of the light source for the captured image. The processor 130 according to one embodiment may determine the location of the light source based on the location of the external device 200. For example, the processor 130 may determine the location of the virtual light source in proportion to the distance between the external device 200 and the electronic device 100. The processor 130 may determine the ratio of the distance between the external device 200 and the electronic device 100 and the distance between the virtual light source and the object present in the image by user definition.
촬영된 이미지에 복수의 객체들이 존재하는 경우, 일 실시예에 따른 프로세서(130)는 외부 장치(200)로부터 객체에 대한 선택 신호를 수신하고, 수신된 선택 신호에 기초하여 가상의 광이 조사되는 객체를 선택할 수 있다. 예를 들면, 촬영된 이미지에 제1 객체 및 제2 객체가 존재하는 경우, 외부 장치(200)가 제1 객체와 가까워지는 경우 프로세서(130)는 제1 객체를 광이 조사되는 객체로 결정할 수 있다. When a plurality of objects exist in the captured image, the processor 130 according to one embodiment receives a selection signal for the object from the external device 200, and virtual light is emitted based on the received selection signal. You can select an object. For example, when a first object and a second object exist in a captured image, and the external device 200 approaches the first object, the processor 130 may determine the first object as the object to which light is irradiated. there is.
일 실시예에 따른 프로세서(130)는 외부 장치(200)로부터 가상의 광이 조사되는 객체를 변경하는 신호를 수신하고, 수신된 변경 신호에 기초하여 가상의 광이 조사되는 객체를 변경할 수 있다. 예를 들면, 외부 장치(200)가 제1 객체로부터 멀어지고, 제2 객체에 가까워지는 경우, 프로세서(130)는 이미지 내부의 객체에 대한 거리 변화를 변화 신호로 하여 제2 객체를 광이 조사되는 객체로 변경할 수 있다. 개시된 실시예에 따른 제1 객체 및 제2 객체는 촬영된 이미지 내부에 복수의 객체들이 존재하는 경우 편의상 지칭되는 것이며, 촬영된 이미지에 객체가 3개 이상인 경우 제3 객체 또는 제n 객체에 대하여도 마찬가지의 동작이 수행될 수 있다.The processor 130 according to an embodiment may receive a signal to change the object to which virtual light is irradiated from the external device 200, and change the object to which virtual light is irradiated based on the received change signal. For example, when the external device 200 moves away from the first object and approaches the second object, the processor 130 uses the change in distance to the object within the image as a change signal to irradiate the second object with light. It can be changed to an object. The first object and the second object according to the disclosed embodiment are referred to for convenience when a plurality of objects exist within the captured image, and when there are three or more objects in the captured image, the third object or the nth object is also referred to. A similar operation can be performed.
일 실시예에 따른 프로세서(130)는 촬영된 이미지에서 객체가 움직이는 경우 객체의 움직임에 따라 가상의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 재설정 할 수 있다. 예를 들면, 사용자가 전자 디바이스(100)를 활용하여 동영상을 촬영하는 경우, 객체의 움직임에 따라서 가상의 광의 특성은 변경될 수 있다. 일 실시예에 따른 프로세서(130)는 객체가 빛이 조사되는 방향과 반대로 움직이는 경우, 가상의 광의 세기는 점점 약해지고, 빛이 조사되는 면적이 좁아지도록 가상의 광의 특성을 조절할 수 있다. 반대로, 일 실시예에 따른 프로세서(130)는 객체가 빛이 조사되는 방향으로 움직이는 경우, 가상의 광의 세기는 점점 강해지고, 빛이 조사되는 면적이 넓어지도록 가상의 광의 특성을 조절할 수 있다. 또한, 개시된 실시예에 따른 프로세서(130)는 이미지 내부의 객체가 오른쪽에서 왼쪽으로 움직이는 경우 광원이 왼쪽에서 오른쪽으로 이동하는 것과 같은 효과를 갖도록 광원의 특성을 조절할 수 있다. When an object moves in a captured image, the processor 130 according to an embodiment may reset at least one of the position, direction, intensity, or area of the virtual light source according to the movement of the object. For example, when a user captures a video using the electronic device 100, the characteristics of virtual light may change according to the movement of the object. The processor 130 according to one embodiment may adjust the characteristics of the virtual light so that when an object moves opposite to the direction in which the light is irradiated, the intensity of the virtual light gradually becomes weaker and the area to which the light is irradiated becomes narrower. Conversely, the processor 130 according to one embodiment may adjust the characteristics of the virtual light so that when the object moves in the direction in which the light is irradiated, the intensity of the virtual light becomes stronger and the area to which the light is irradiated expands. Additionally, the processor 130 according to the disclosed embodiment may adjust the characteristics of the light source to have the same effect as the light source moving from left to right when an object within the image moves from right to left.
다만, 개시된 실시예들은 이에 한정되지 않으며, 프로세서(130)는 이미지 내부의 객체들의 움직임에 따라 가상의 광의 특성을 조절하고, 자연스러운 편집 이미지를 생성하게 할 수 있다.However, the disclosed embodiments are not limited to this, and the processor 130 can adjust the characteristics of virtual light according to the movement of objects within the image and generate a natural edited image.
일 실시예에 따른 프로세서(130)는 외부 장치(130)의 동작에 기초하여 가상의 광의 특성을 조절할 수 있다. 파라미터는 빛의 세기, 광원의 위치, 빛의 방향, 빛의 반경 또는 조도를 포함할 수 있으나 이에 한정되지 않고 빛의 특성을 나타낼 수 있는 다양한 파라미터를 포함할 수 있다. 예를 들면, 사용자가 외부 장치(200)를 미리 정해진 축을 기준으로 시계 방향으로 회전시키는 경우 프로세서(130)는 조도에 대한 파라미터를 조절하고, 가상의 광의 조도를 높일 수 있다. 사용자가 외부 장치(200)를 미리 정해진 축을 기준으로 반시계 방향으로 회전시키는 경우 프로세서(130)는 조도에 대한 파라미터를 조절하고, 가상의 광의 조도를 낮게할 수 있다. The processor 130 according to one embodiment may adjust the characteristics of virtual light based on the operation of the external device 130. Parameters may include, but are not limited to, intensity of light, location of the light source, direction of light, radius of light, or illuminance, and may include various parameters that can represent the characteristics of light. For example, when the user rotates the external device 200 clockwise about a predetermined axis, the processor 130 can adjust parameters for illuminance and increase the illuminance of virtual light. When the user rotates the external device 200 counterclockwise about a predetermined axis, the processor 130 can adjust parameters for illuminance and lower the illuminance of virtual light.
일 실시예에 따른 외부 장치(200)가 사용자의 동작에 의해 테두리를 설정하는 경우 프로세서(130)는 설정된 테두리를 빛이 조사되는 반경으로 결정할 수 있다. 예를 들면, 사용자가 외부 장치(200)를 활용하여 이미지 상에 원형의 테두리를 설정하는 경우 프로세서(130)는 설정된 원형의 테두리에 가상의 광이 조사되는 편집 이미지를 생성할 수 있다. 다만, 빛이 조사되는 반경 및 형태는 이에 한정되지 않으며 사용자가 외부 장치(200)를 활용하여 설정하는 반경에 의하여 다양한 형태로 존재할 수 있다. When the external device 200 according to an embodiment sets a border by a user's action, the processor 130 may determine the set border as the radius at which light is irradiated. For example, when a user sets a circular border on an image using the external device 200, the processor 130 may generate an edited image in which virtual light is irradiated to the set circular border. However, the radius and form in which light is irradiated are not limited to this and may exist in various forms depending on the radius set by the user using the external device 200.
프로세서(130)는 외부 장치(200)와 통신하여 이미지에 대한 이미지 편집 신호(Edit_Sig)를 수신할 수 있다. 예를 들면, 프로세서(130)는 근거리 통신을 모두 수행할 수 있다. 프로세서(130)는 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(NFC, Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The processor 130 may receive an image editing signal (Edit_Sig) for an image by communicating with the external device 200. For example, the processor 130 can perform all short-distance communications. The processor 130 includes a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit (NFC), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared data association (IrDA) communication unit, It may include, but is not limited to, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, and an Ant+ communication unit.
스토리지(140)는 생성된 광의 특성 또는 파라미터들을 저장할 수 있다. 예를 들면, 프로세서(130)는 외부 장치(200)의 동작에 의하여 생성된 가상의 광의 특성을 스토리지(140)에 빅데이터화 하여 저장할 수 있다. 스토리지(140)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 다양한 환경에서 생성된 가상의 광의 특성을 빅데이터화 하여 저장함으로써, 개시된 실시예에 따른 전자 디바이스(100)는 자연스러운 가상의 광을 생성할 수 있다. Storage 140 may store characteristics or parameters of the generated light. For example, the processor 130 may convert the characteristics of virtual light generated by the operation of the external device 200 into big data and store it in the storage 140. Storage 140 may include volatile memory or non-volatile memory. By storing the characteristics of virtual light generated in various environments as big data, the electronic device 100 according to the disclosed embodiment can generate natural virtual light.
카메라(150)는 외부의 환경을 촬영하고, 디스플레이(160)는 촬영된 외부의 환경에 대한 이미지를 전자 디바이스(100)에 표시한다. 일 실시예에 따른 카메라(150)는 적어도 하나의 이미지를 획득할 수 있다. 또한, 카메라(150)는 단수로 표현되어 있으나 복수개의 카메라를 포함할 수 있다. The camera 150 photographs the external environment, and the display 160 displays the captured image of the external environment on the electronic device 100. The camera 150 according to one embodiment may acquire at least one image. Additionally, the camera 150 is expressed as a singular number, but may include a plurality of cameras.
예를 들어, 카메라(150)는 서로 다른 화각을 갖는 복수개의 카메라를 포함할 수 있다. 여기서, 서로 다른 화각을 갖는다는 것은, 화각을 다르게 설정함으로서 서로 다른 카메라의 화각이 서로 달라지는 것을 의미할 수 있다. 또는, 서로 다른 화각을 갖는다는 것은 서로 다른 두 개의 카메라 각각의 화각의 범위가 서로 다르다는 것을 의미할 수도 있다. 예를 들어, 카메라(150)는 표준 카메라(예를 들어, 화각이 40도 내지 60도 범위를 갖는 카메라), 망원 카메라(예를 들어, 화각이 40도 이하가 되는 카메라), 광각 카메라(예를 들어, 화각의 범위가 60 내지 80도의 범위를 갖는 카메라), 광학 줌(zoom)이 가능한 카메라(예를 들어, 카메라의 렌즈를 물리적으로 조절하여 화각의 범위가 60 내지 80도의 범위 내로 조절이 가능한 카메라) 및 디지털 줌((예를 들어, 촬영 범위를 디지털 적으로 조절이 가능한 카메라)이 가능한 카메라 중 적어도 하나를 포함할 수 있다. 또한, 표준 카메라는 1배 줌으로 설정된 카메라가 될 수 있으며, '일반 카메라'라 칭할 수 있다. 또한, 망원 카메라, 광학 카메라, 광학 줌이 가능한 카메라, 및 디지털 줌이 가능한 카메라는 설계 및/또는 제품 사양에 따라서 매우 다양하게 존재할 수 있다. 또한, 광학 줌 및 디지털 줌의 기능 및 상세 구성은 이미지 센서 분야에서 자명한 사항이므로, 상세 설명은 생략한다. For example, the camera 150 may include a plurality of cameras having different angles of view. Here, having different angles of view may mean that the angles of view of different cameras are different by setting the angles of view differently. Alternatively, having different angles of view may mean that the ranges of angles of view of the two different cameras are different. For example, the camera 150 may include a standard camera (e.g., a camera with an angle of view ranging from 40 degrees to 60 degrees), a telephoto camera (e.g., a camera with an angle of view of 40 degrees or less), and a wide-angle camera (e.g. For example, a camera with an angle of view in the range of 60 to 80 degrees), a camera capable of optical zoom (for example, a camera whose angle of view can be adjusted within the range of 60 to 80 degrees by physically adjusting the lens of the camera) It may include at least one of a camera capable of digital zoom (e.g., a camera capable of digitally adjusting the shooting range). Additionally, the standard camera may be a camera set to 1x zoom. , may be referred to as a 'general camera'. In addition, telephoto cameras, optical cameras, cameras capable of optical zoom, and cameras capable of digital zoom may also exist in a wide variety depending on design and/or product specifications. Since the functions and detailed configuration of and digital zoom are self-evident in the image sensor field, detailed descriptions are omitted.
또 다른 예로, 카메라(150)는 화각을 조절할 수 있는 하나의 카메라를 포함할 수 있다. 여기서, 화각은 카메라(150)에서 획득되는 이미지의 촬영 범위에 대응될 수 있다. 또한, 화각을 조절한다는 것은, 카메라(150)에서 초점 거리를 조절하는 것을 의미할 수 있다.As another example, the camera 150 may include one camera whose angle of view can be adjusted. Here, the angle of view may correspond to the shooting range of the image acquired by the camera 150. Additionally, adjusting the angle of view may mean adjusting the focal distance of the camera 150.
디스플레이(160)는 프로세서(130)의 제어에 의해 카메라(150)가 촬영한 이미지 또는 영상을 표시한다. 일 실시예에 따른 디스플레이(160)는 프로세서(130)의 제어에 의해 스토리지(140)에 저장된 이미지를 출력할 수 있다. 또한, 디스플레이(160)는 외부 장치(200)의 동작에 대응되는 태스크를 수행하기 위하여 모션 인식에 대응되는 모션 인식 태스크를 수행하기 위한 모션 UI(예를 들어, 모션 인식을 위한 사용자 모션 가이드를 포함)를 표시할 수 있다. 개시된 실시예에서, 디스플레이(160)는 이미지 편집 어플리케이션의 실행 시 사용되는 콘텐츠를 디스플레이할 수 있다.The display 160 displays an image or video captured by the camera 150 under the control of the processor 130. The display 160 according to one embodiment may output an image stored in the storage 140 under the control of the processor 130. In addition, the display 160 includes a motion UI (e.g., a user motion guide for motion recognition) to perform a motion recognition task corresponding to motion recognition in order to perform a task corresponding to the operation of the external device 200. ) can be displayed. In the disclosed embodiment, the display 160 may display content used when executing an image editing application.
도 3은 개시된 일 실시예에 따른 프로세서(130)의 블록도이다.Figure 3 is a block diagram of the processor 130 according to one disclosed embodiment.
도 3을 참조하면, 프로세서(130)는 동작 컨트롤러(131), 동작 감지부(132), 이미지 선택부(133), 카메라 컨트롤러(134), 파라미터 생성부(135) 또는 이미지 편집부(136)을 포함할 수 있다.Referring to FIG. 3, the processor 130 includes a motion controller 131, a motion detection unit 132, an image selection unit 133, a camera controller 134, a parameter creation unit 135, or an image editing unit 136. It can be included.
동작 컨트롤러(131)는 외부 장치(200)의 동작에 기초하여 생성된 이미지 이미지 편집 신호(Edit_Sig)를 수신하고, 수신된 이미지 편집 신호(Edit_Sig)에 기초하여 가상의 광의 동작을 제어할 수 있다. 예를 들면, 동작 컨트롤러(131)는 외부 장치(200)의 동작 반경을 미리 설정된 비율로 축소 또는 확대하여 가상의 광의 동작 반경으로 변환할 수 있다. 일 실시예에 따른, 동작 컨트롤러(131)는 가상의 광의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 조절할 수 있다. 일 실시예에 따른 동작 컨트롤러(131)는 외부 장치(200)와 전자 디바이스(100)의 각도를 촬영된 이미지에 대한 광원의 각도로 결정할 수 있다. 일 실시예에 따른 동작 컨트롤러(131)는 외부 장치(200)의 위치에 기초하여 광원의 위치로 결정할 수 있다. 예를 들면, 동작 컨트롤러(131)는 외부 장치(200)와 전자 디바이스(100)의 거리에 비례하여 가상의 광원의 위치를 결정할 수 있다. 동작 컨트롤러(131)는 외부 장치(200)와 전자 디바이스(100)의 거리와 가상의 광원과 이미지에 존재하는 객체와의 거리에 대한 비율은 사용자 정의에 의하여 결정될 수 있다.The motion controller 131 may receive an image editing signal (Edit_Sig) generated based on the operation of the external device 200 and control the operation of the virtual light based on the received image editing signal (Edit_Sig). For example, the motion controller 131 may reduce or enlarge the operating radius of the external device 200 by a preset ratio and convert it into an operating radius of virtual light. According to one embodiment, the motion controller 131 may adjust at least one of the position, direction, intensity, or area of the virtual light source. The motion controller 131 according to an embodiment may determine the angle between the external device 200 and the electronic device 100 as the angle of the light source for the captured image. The motion controller 131 according to one embodiment may determine the location of the light source based on the location of the external device 200. For example, the motion controller 131 may determine the position of the virtual light source in proportion to the distance between the external device 200 and the electronic device 100. The motion controller 131 may determine the ratio of the distance between the external device 200 and the electronic device 100 and the distance between the virtual light source and the object present in the image by user definition.
동작 감지부(132)는 외부 장치(200)의 동작을 감지하고, 가상의 광을 생성하기 위한 데이터를 생성할 수 있다. 예를 들면, 외부 장치(200)가 전자 디바이스(100)와 일정한 간격을 두고 공중에서 움직이는 경우, 동작 감지부(132)는 외부 장치(200)의 동작을 감지하고, 가상의 광을 생성하기 위한 데이터를 생성한다. 일 실시예에 따른 외부 장치(200)가 전자 디바이스(100) 주변의 공중에서 원형의 반경을 그리는 경우, 동작 감지부(132)는 전자 디바이스(100)에 대한 외부 장치(200)에 광원이 존재하는 것으로 결정하고, 원형의 반경을 갖는 가상의 광을 생성할 수 있다. 다만, 상술한 예는 개시된 일 실시예에 불과하며, 동작 감지부(132)는 외부 장치(200)의 다양한 동작에 대응하는 이미지 편집 데이터들을 생성할 수 있다.The motion detection unit 132 may detect the motion of the external device 200 and generate data for generating virtual light. For example, when the external device 200 moves in the air at a certain distance from the electronic device 100, the motion detection unit 132 detects the motion of the external device 200 and generates virtual light. Create data. When the external device 200 according to one embodiment draws a circular radius in the air around the electronic device 100, the motion detection unit 132 detects the presence of a light source in the external device 200 with respect to the electronic device 100. You can decide to do this and generate virtual light with a circular radius. However, the above-described example is only one disclosed embodiment, and the motion detection unit 132 may generate image editing data corresponding to various operations of the external device 200.
이미지 선택부(133)는 이미지에 존재하는 객체들 중에서 편집 대상이 되는 객체를 선택할 수 있다. 개시된 실시예에 따른 이미지는 단수의 객체 또는 복수의 객체들을 포함할 수 있다. 개시된 실시예에 따른 이미지 선택부(133)는 외부 장치(200)의 객체에 대한 접근을 선택 신호로 판단할 수 있다. 예를 들면, 촬영된 이미지에 제1 객체 및 제2 객체가 존재하는 경우, 외부 장치(200)가 제1 객체와 가까워지는 경우 이미지 선택부(133)는 제1 객체를 광이 조사되는 객체로 결정할 수 있다. The image selection unit 133 may select an object to be edited from among objects present in the image. An image according to the disclosed embodiment may include a single object or a plurality of objects. The image selection unit 133 according to the disclosed embodiment may determine the external device 200's approach to the object as a selection signal. For example, when a first object and a second object exist in a captured image, and the external device 200 approaches the first object, the image selection unit 133 selects the first object as the object to which light is irradiated. You can decide.
일 실시예에 따른 이미지 선택부(133)는 외부 장치(200)로부터 가상의 광이 조사되는 객체를 변경하는 신호를 수신하고, 수신된 변경 신호에 기초하여 가상의 광이 조사되는 객체를 변경할 수 있다. 예를 들면, 외부 장치(200)가 제1 객체로부터 멀어지고, 제2 객체에 가까워지는 경우, 이미지 선택부(133)는 이미지 내부의 객체에 대한 거리 변화를 변화 신호로 하여 제2 객체를 광이 조사되는 객체로 변경할 수 있다. 개시된 실시예에 따른 제1 객체 및 제2 객체는 촬영된 이미지 내부에 복수의 객체들이 존재하는 경우 편의상 지칭되는 것이며, 촬영된 이미지에 객체가 3개 이상인 경우 제3 객체 또는 제n 객체에 대하여도 마찬가지의 동작이 수행될 수 있다.The image selection unit 133 according to one embodiment may receive a signal for changing the object to which virtual light is irradiated from the external device 200, and change the object to which virtual light is irradiated based on the received change signal. there is. For example, when the external device 200 moves away from the first object and approaches the second object, the image selection unit 133 uses the change in distance to the object within the image as a change signal to display the second object as light. This can be changed to the object being investigated. The first object and the second object according to the disclosed embodiment are referred to for convenience when a plurality of objects exist within the captured image, and when there are three or more objects in the captured image, the third object or the nth object is also referred to. A similar operation can be performed.
카메라 컨트롤러(134)는 카메라(150)로부터 이미지 데이터를 수신하고, 이미지 편집을 위한 파라미터를 이미지 데이터에 적용시킬 수 있다. 예를 들면, 카메라 컨트롤러(134)는 카메라(150)에서 촬영된 이미지의 데이터를 수신하고, 이미지에 대한 밝기, 가상의 광에 따른 명암, 색조 또는 채도를 조절하고 편집 이미지 데이터를 생성할 수 있다. 개시된 실시예에 따른 카메라 컨트롤러(134)는 정지 화상뿐 아니라 움직이는 영상에 대하여도 밝기, 가상의 광에 따른 명암, 색조 또는 채도를 조절하고 편집 이미지 데이터를 생성할 수 있다. The camera controller 134 may receive image data from the camera 150 and apply parameters for image editing to the image data. For example, the camera controller 134 may receive data of an image captured by the camera 150, adjust the brightness of the image, contrast, hue, or saturation according to virtual light, and generate edited image data. . The camera controller 134 according to the disclosed embodiment can adjust brightness, contrast, hue, or saturation according to virtual light for not only still images but also moving images and generate edited image data.
파라미터 생성부(135)는 이미지 편집을 위한 파라미터를 생성하고, 외부 장치(200)의 동작에 기초하여 파라미터를 조절할 수 있다. 조절되는 파라미터는 밝기, 명도, 채도, 흑백, 수평 또는 색조를 포함할 수 있으나 이에 한정되지 아니하고 이미지에 적용될 수 있는 다양한 효과를 포함할 수 있다. 예를 들면, 사용자가 외부 장치(200)를 좌우로 이동시키는 동작을 하는 경우 파라미터 생성부(135)는 생성되는 파라미터의 종류를 변경할 수 있다. 일 실시예에 따른 파라미터 생성부(135)는 사용자가 외부 장치(200)를 왼쪽으로 슬라이드 하는 동작을 하는 경우, 밝기 조절 파라미터에서 색조 조절 파라미터로 편집할 파라미터를 변경할 수 있다. 다만, 변경되는 파라미터의 종류는 이에 한정되지 않으며, 사용자는 외부 장치(200)를 슬라이딩 방식으로 이동시킴으로써 다양한 파라미터들을 선택할 수 있다.The parameter generator 135 may generate parameters for image editing and adjust the parameters based on the operation of the external device 200. Parameters to be adjusted may include, but are not limited to, brightness, brightness, saturation, black and white, horizontality, or hue, and may include various effects that can be applied to the image. For example, when a user moves the external device 200 left or right, the parameter generator 135 can change the type of parameter being generated. When the user slides the external device 200 to the left, the parameter generator 135 according to one embodiment can change the parameter to be edited from a brightness adjustment parameter to a hue adjustment parameter. However, the types of parameters to be changed are not limited to this, and the user can select various parameters by moving the external device 200 in a sliding manner.
예를 들면, 사용자가 외부 장치(200)를 상하로 이동시키는 동작을 하는 경우 파라미터 생성부(135)는 적용되는 파라미터의 정도를 변경할 수 있다. 일 실시예에 따른 파라미터 생성부(135)는 사용자가 외부 장치(200)를 위쪽으로 슬라이드 하는 동작을 하는 경우, 파라미터를 많이 적용시킬 수 있다. 반대로, 사용자가 외부 장치(200)를 아래쪽으로 슬라이드 하는 동작을 하는 경우, 파라미터를 적게 적용시킬 수 있다.For example, when a user moves the external device 200 up and down, the parameter generator 135 can change the degree of the applied parameter. The parameter generator 135 according to one embodiment can apply many parameters when the user slides the external device 200 upward. Conversely, when the user slides the external device 200 downward, fewer parameters can be applied.
이미지 편집부(136)는 촬영된 이미지에서 선택된 객체에 대하여 가상의 광을 적용하고, 다양한 파라미터를 적용한 편집 이미지를 생성할 수 있다. 예를 들면, 이미지 편집부(136)는 가상의 광을 원본 이미지에 합성하고, 파라미터는 밝기, 명도, 채도, 흑백, 수평 또는 색조 중 적어도 하나의 파라미터가 조절된 편집 이미지를 생성할 수 있다. 또한, 이미지 편집부(136)은 편집 이미지가 디스플레이(160)에서 표시되도록 데이터를 디스플레이(160)로 전송할 수 있다. The image editing unit 136 may apply virtual light to an object selected from a captured image and generate an edited image to which various parameters are applied. For example, the image editing unit 136 may synthesize virtual light into the original image and create an edited image in which at least one parameter of brightness, brightness, saturation, black and white, horizontality, or hue is adjusted. Additionally, the image editing unit 136 may transmit data to the display 160 so that the edited image is displayed on the display 160.
도 4는 개시된 일 실시예에 따른 전자 디바이스(100)의 동작방법의 흐름도이다.FIG. 4 is a flowchart of a method of operating the electronic device 100 according to the disclosed embodiment.
도 4를 참조하면, 전자 디바이스 (100)는 외부 장치(200)로부터 전자 디바이스(100)의 디스플레이에 표시되는 이미지의 편집과 연관된 편집 신호(Edit_Sig)를 수신할 수 있다(410). 예를 들면, 전자 디바이스 (100)는 외부 장치(200)로부터 이미지에 대한 복수의 이미지 편집 신호(Edit_Sig)들을 수신할 수 있다. 전자 디바이스 (100)는 이미지에 대한 가상의 광원을 생성하는 신호, 생성된 가상의 광원으로부터 비추는 가상의 광에 대한 파라미터들을 조절하는 신호를 수신할 수 있다. 일 실시예에 따른 파라미터는 가상의 광에 대한 밝기, 세기, 반경, 채도, 휘도, 명도 또는 색조일 수 있으나 이에 한정되지 않는다. 예를 들면, 일 실시예에 따른 외부 장치(200)는 가상의 광에 대한 파라미터가 아닌 가상의 바람(Wind)에 대한 파라미터를 조절 할 수 있다. 가상의 바람에 대한 파라미터가 조절되는 경우, 이미지에 대한 이미지 편집 신호(Edit_Sig)는 이미지 내부의 객체에 자연 바람이 부는 것과 같은 효과를 갖게 할 수 있다.Referring to FIG. 4, the electronic device 100 may receive an edit signal (Edit_Sig) associated with editing an image displayed on the display of the electronic device 100 from the external device 200 (410). For example, the electronic device 100 may receive a plurality of image editing signals (Edit_Sig) for an image from the external device 200. The electronic device 100 may receive a signal that generates a virtual light source for an image and a signal that adjusts parameters of the virtual light emitted from the generated virtual light source. Parameters according to one embodiment may be brightness, intensity, radius, saturation, luminance, brightness, or color tone for virtual light, but are not limited thereto. For example, the external device 200 according to one embodiment may adjust parameters for virtual wind rather than parameters for virtual light. When the parameters for the virtual wind are adjusted, the image editing signal (Edit_Sig) for the image can have the same effect as a natural wind blowing on an object inside the image.
일 실시예에서, 전자 디바이스(100)는 수신된 편집 신호를 이용하여 상기 이미지에 가상의 광이 합성된 편집 이미지를 생성할 수 있다(420). 예를 들면, 가상의 광이 생성되고, 광의 특성이 조절되면 전자 디바이스(100)는 가상의 광을 원본 이미지에 합성할 수 있다. 일 실시예에서, 전자 디바이스 (100)는 복수의 파라미터들이 적용된 가상의 광을 원본 이미지에 합성하고 편집 이미지를 생성할 수 있다. 또한, 일 실시예에 따른 프로세서(100)는 생성된 가상의 광을 원본 이미지에 합성하고, 가상의 광의 특성들을 저장할 수 있다. 예를 들면, 전자 디바이스 (100)는 가상의 빛에 대한 특성 및 가상의 빛이 생성된 상황을 빅데이터화 하여 저장할 수 있다. 가상의 광에 대한 데이터가 빅데이터화 됨으로써, 전자 디바이스 (100)는 추후에 발생할 수 있는 다양한 환경에서 자연스러운 편집 이미지를 생성할 수 있다. In one embodiment, the electronic device 100 may use a received editing signal to generate an edited image in which virtual light is synthesized with the image (420). For example, when virtual light is generated and the characteristics of the light are adjusted, the electronic device 100 can synthesize the virtual light into the original image. In one embodiment, the electronic device 100 may synthesize virtual light to which a plurality of parameters are applied to an original image and generate an edited image. Additionally, the processor 100 according to one embodiment may synthesize the generated virtual light into an original image and store the characteristics of the virtual light. For example, the electronic device 100 can store the characteristics of virtual light and the situation in which the virtual light was generated as big data. By turning data about virtual light into big data, the electronic device 100 can create natural edited images in various environments that may occur in the future.
예를 들면, 전자 디바이스 (100)는 수신된 편집 신호를 이용하여 가상의 광이 합성된 편집 이미지를 생성할 수 있다. 일 실시예에서, 전자 디바이스(100)는 이미지에 대한 복수의 이미지 편집 신호(Edit_Sig)들이 수신되면 이미지에 조사되는 가상의 광을 생성할 수 있다. 예를 들면, 전자 디바이스(100)는 외부 장치(200)의 동작에 기초하여 생성된 복수의 이미지 편집 신호(Edit_Sig)들을 수신하고, 가상의 광을 생성할 수 있다. 상술한 바와 같이, 외부 장치(200)와 전자 디바이스(100)가 이루는 각도를 가상의 광원과 이미지 내부의 객체의 각도로 하여 가상의 광이 생성될 수 있다. For example, the electronic device 100 may generate an edited image in which virtual light is synthesized using a received editing signal. In one embodiment, the electronic device 100 may generate virtual light irradiated to the image when a plurality of image editing signals (Edit_Sig) for the image are received. For example, the electronic device 100 may receive a plurality of image editing signals (Edit_Sig) generated based on the operation of the external device 200 and generate virtual light. As described above, virtual light may be generated by setting the angle between the external device 200 and the electronic device 100 as the angle between the virtual light source and the object within the image.
일 실시예에서, 전자 디바이스(100)는 가상의 광을 생성한 후, 이미지에 조사되는 가상의 광의 특성을 조절할 수 있다. 예를 들면, 사용자는 외부 장치(200)의 좌우 움직임에 기초하여 이미지에 적용될 파라미터를 선택하고, 외부 장치(200)의 상하 움직임에 기초하여 적용되는 파라미터의 정도를 조절할 수 있다. 일 실시예에 따른 파라미터는 가상의 광에 대한 밝기, 세기, 반경, 채도, 휘도, 명도 또는 색조일 수 있으나 이에 한정되지 않는다.In one embodiment, the electronic device 100 may generate virtual light and then adjust the characteristics of the virtual light irradiated to the image. For example, the user can select a parameter to be applied to the image based on the left-right movement of the external device 200 and adjust the degree of the applied parameter based on the up-and-down movement of the external device 200. Parameters according to one embodiment may be brightness, intensity, radius, saturation, luminance, brightness, or color tone for virtual light, but are not limited thereto.
일 실시예에서, 전자 디바이스 (100)는 생성된 편집 이미지를 디스플레이에 표시할 수 있다(430). 개시된 실시예에 따른 편집 이미지는 가상의 광이 반영된 이미지일 수 있다. 가상의 빛이 반영되는 경우, 개시된 실시예는 외부 장치(200)의 동작에 기초하여 빛이 부족한 환경 또는 빛이 과도하게 많은 환경에서 촬영된 이미지를 자연스럽게 보정할 수 있는 효과가 존재한다.In one embodiment, the electronic device 100 may display the generated edited image on the display (430). The edited image according to the disclosed embodiment may be an image in which virtual light is reflected. When virtual light is reflected, the disclosed embodiment has the effect of naturally correcting images taken in an environment with insufficient light or an environment with excessive light based on the operation of the external device 200.
이하 도 5 내지 도 7에서는 사용자가 외부 장치(200)를 활용하여 이미지를 선택하고 가상의 광을 조절하는 과정을 설명한다. 이하는 외부 장치(200)가 스타일러스 펜인 경우로 설명하였으나, 외부 장치(200)는 이에 한정되는 것은 아니고 전자 디바이스(100)와 연동되어 근거리 통신을 수행할 수 있는 다양한 외부 장치들을 포함할 수 있다.5 to 7 below describe a process in which a user selects an image and adjusts virtual light using the external device 200. Hereinafter, the case where the external device 200 is a stylus pen is described, but the external device 200 is not limited thereto and may include various external devices that can perform short-distance communication in conjunction with the electronic device 100.
도 5는 개시된 일 실시예에 따른 전자 디바이스(100)의 동작 방법에 있어서 이미지를 선택하는 과정을 도시한 흐름도이다.FIG. 5 is a flowchart illustrating a process of selecting an image in a method of operating the electronic device 100 according to an exemplary embodiment of the present disclosure.
도 5를 참조하면, 사용자가 펜에 존재하는 버튼을 누르면 일 실시예에 따른 전자 디바이스(100)는 이미지 선택 모드로 진입한다(510).Referring to FIG. 5 , when a user presses a button on a pen, the electronic device 100 according to one embodiment enters the image selection mode (510).
이미지 선택 모드로 진입하면, 전자 디바이스(100)는 펜이 이미지로부터 미리 설정된 거리보다 멀어지는지 여부를 판단할 수 있다(520). 일 실시예에 따른 전자 디바이스(100)는 이미지와 펜이 가까워지는지 여부를 이미지에 대한 선택 신호로 판단할 수 있다. 예를 들면, 전자 디바이스(100)는 전자 디바이스(100)와 펜이 미리 설정된 거리보다 가까워지면 이미지와 펜이 가까워지는 것으로 판단할 수 있고, 전자 디바이스(100)와 펜이 미리 설정된 거리보다 멀어지면 이미지와 펜이 멀어지는 것으로 판단할 수 있다. 개시된 실시예에 따른 미리 설정된 거리는 사용자 정의에 의하여 결정될 수 있고, 펜에 설치된 가속도 센서에 의하여 펜이 전자 디바이스(100)에 접근하는 속도의 변화에 기초하여 펜의 접근 여부가 판단될 수 있다.Upon entering the image selection mode, the electronic device 100 may determine whether the pen is further away from the image than a preset distance (520). The electronic device 100 according to one embodiment may determine whether the image and the pen are close to each other as a selection signal for the image. For example, the electronic device 100 may determine that the image and the pen are getting closer when the electronic device 100 and the pen are closer than the preset distance, and when the electronic device 100 and the pen are farther than the preset distance, the electronic device 100 may determine that the image and the pen are closer. This can be judged by the distance between the image and the pen. The preset distance according to the disclosed embodiment may be determined by user definition, and whether the pen is approaching may be determined based on a change in the speed at which the pen approaches the electronic device 100 by an acceleration sensor installed in the pen.
펜이 이미지로부터 미리 설정된 거리보다 멀어지면, 일 실시예에 따른 전자 디바이스(100)는 이미지의 선택을 해제할 수 있다(530). 그러나, 펜이 이미지로부터 미리 설정된 거리보다 멀어지지 않는 것으로 판단되면, 일 실시예에 따른 전자 디바이스(100)는 이미지를 선택할 수 있다(540). 예를 들면, 전자 디바이스(100)는 펜과 전자 디바이스(100)가 미리 설정된 거리보다 멀어지지 않는 것으로 판단되면 새로운 이미지를 선택할 수 있고, 기존에 수행된 이미지 선택 동작을 유지할 수 있다.If the pen moves further away from the image than a preset distance, the electronic device 100 according to one embodiment may deselect the image (530). However, if it is determined that the pen is not further away from the image than a preset distance, the electronic device 100 according to one embodiment may select the image (540). For example, if it is determined that the pen and the electronic device 100 are not further apart than a preset distance, the electronic device 100 may select a new image and maintain a previously performed image selection operation.
도 6은 개시된 일 실시예에 따른 전자 디바이스(100)의 동작방법에 있어서 광의 특성을 변경하는 과정을 도시한 흐름도이다.FIG. 6 is a flowchart illustrating a process of changing the characteristics of light in a method of operating an electronic device 100 according to an exemplary embodiment of the present disclosure.
도 6을 참조하면, 일 실시예에 따른 전자 디바이스(100)에 표시된 이미지에서 편집 대상이 되는 객체가 선택될 수 있다(650).Referring to FIG. 6 , an object to be edited may be selected from an image displayed on the electronic device 100 according to an embodiment (650).
이미지에서 객체가 선택되면, 전자 디바이스(100)는 펜의 동작에 기초하여 가상의 빛의 특성을 조절할 수 있다. When an object is selected in an image, the electronic device 100 may adjust the characteristics of virtual light based on the operation of the pen.
개시된 실시예에 따른 전자 디바이스(100)는 펜의 위치가 변경되었는지 여부를 판단할 수 있다(620). 예를 들면, 전자 디바이스(100)는 펜의 위치에 기초하여 가상의 광원의 위치를 결정할 수 있다. 일 실시예에 따른 전자 디바이스(100)는 펜의 위치가 변경된 것으로 판단되면, 펜의 위치에 기초하여 가상의 광원의 위치를 결정하고 빛의 특성을 조절하기 위한 다른 동작을 수행할 수 있다. 그러나, 일 실시예에 따른 전자 디바이스(100)는 펜의 위치가 변경되지 않는 것으로 판단되면, 빛의 특성을 유지할 수 있다(670).The electronic device 100 according to the disclosed embodiment may determine whether the position of the pen has changed (620). For example, the electronic device 100 may determine the location of a virtual light source based on the location of the pen. If it is determined that the position of the pen has changed, the electronic device 100 according to one embodiment may determine the position of the virtual light source based on the position of the pen and perform another operation to adjust the characteristics of the light. However, if it is determined that the position of the pen does not change, the electronic device 100 according to one embodiment can maintain the characteristics of light (670).
개시된 실시예에 따른 전자 디바이스(100)는 펜의 방향이 변경되었는지 여부를 판단할 수 있다(630). 예를 들면, 전자 디바이스(100)는 펜의 위치에 기초하여 가상의 빛의 방향을 결정할 수 있다. 일 실시예에 따른 전자 디바이스(100)는 펜의 방향이 변경된 것으로 판단되면, 펜의 방향에 기초하여 가상의 빛이 객체에 조사되는 방향 결정하고 빛의 특성을 조절하기 위한 다른 동작을 수행할 수 있다. 그러나, 일 실시예에 따른 전자 디바이스(100)는 펜의 방향이 변경되지 않는 것으로 판단되면, 빛의 특성을 유지할 수 있다(670). The electronic device 100 according to the disclosed embodiment may determine whether the direction of the pen has changed (630). For example, the electronic device 100 may determine the direction of virtual light based on the position of the pen. If it is determined that the direction of the pen has changed, the electronic device 100 according to one embodiment may determine the direction in which virtual light is irradiated to the object based on the direction of the pen and perform other operations to adjust the characteristics of the light. there is. However, if it is determined that the direction of the pen does not change, the electronic device 100 according to one embodiment can maintain the characteristics of light (670).
개시된 실시예에 따른 전자 디바이스(100)는 펜의 속도가 변경되었는지 여부를 판단할 수 있다(640). 예를 들면, 전자 디바이스(100)는 펜의 속도에 기초하여 가상의 광의 세기를 결정할 수 있다. 일 실시예에 따른 전자 디바이스(100)는 펜의 속도가 변경된 것으로 판단되면, 펜의 속도에 기초하여 가상의 광의 세기를 결정하고 빛의 특성을 조절하기 위한 다른 동작을 수행할 수 있다. 예를 들면, 펜의 속도가 증가하는 경우 전자 디바이스(100)는 빛의 세기를 강하게 설정할 수 있고, 속도가 감소하는 경우, 전자 디바이스(100)는 빛의 세기를 약하게 설정할 수 있다. 그러나, 일 실시예에 따른 전자 디바이스(100)는 펜의 위치가 변경되지 않는 것으로 판단되면, 빛의 특성을 유지할 수 있다(670).The electronic device 100 according to the disclosed embodiment may determine whether the speed of the pen has changed (640). For example, the electronic device 100 may determine the intensity of virtual light based on the speed of the pen. If it is determined that the speed of the pen has changed, the electronic device 100 according to one embodiment may determine the intensity of virtual light based on the speed of the pen and perform another operation to adjust the characteristics of the light. For example, when the speed of the pen increases, the electronic device 100 may set the intensity of light to be strong, and when the speed of the pen decreases, the electronic device 100 may set the intensity of light to be weak. However, if it is determined that the position of the pen does not change, the electronic device 100 according to one embodiment can maintain the characteristics of light (670).
개시된 실시예에 따른 전자 디바이스(100)는 펜의 이동 반경 변경되었는지 여부를 판단할 수 있다(650). 예를 들면, 전자 디바이스(100)는 이동 반경에 기초하여 가상의 빛이 비추는 반경을 결정할 수 있다. 일 실시예에 따른 전자 디바이스(100)는 펜의 이동 반경이 변경된 것으로 판단되면, 펜의 이동 반경에 기초하여 가상의 빛이 비추는 범위를 결정할 수 있다. 그러나, 일 실시예에 따른 전자 디바이스(100)는 펜의 이동 반경이 변경되지 않는 것으로 판단되면, 빛의 특성을 유지할 수 있다(670).The electronic device 100 according to the disclosed embodiment may determine whether the movement radius of the pen has changed (650). For example, the electronic device 100 may determine the radius at which the virtual light shines based on the movement radius. If it is determined that the movement radius of the pen has changed, the electronic device 100 according to one embodiment may determine the range where the virtual light shines based on the movement radius of the pen. However, if it is determined that the movement radius of the pen does not change, the electronic device 100 according to one embodiment can maintain the characteristics of light (670).
상술한 바와 같이, 전자 디바이스(100)는 펜의 위치가 변경된 것으로 판단된 경우, 펜의 방향이 변경된 경우, 펜의 속도가 변경된 경우 또는 펜의 이동 반경이 변경된 경우 중 적어도 하나에 해당하면 빛의 특성을 변경할 수 있다(660). 다만, 펜의 동작에 기초하여 변경되는 빛의 특성은 이에 한정되지 않으며, 이미지에 영향을 줄 수 있는 다른 빛의 특성을 더 포함할 수 있다.As described above, the electronic device 100 emits light when it is determined that the position of the pen has changed, the direction of the pen has changed, the speed of the pen has changed, or the movement radius of the pen has changed. Characteristics can be changed (660). However, the characteristics of light that change based on the operation of the pen are not limited to this and may further include other characteristics of light that may affect the image.
도 7은 개시된 일 실시예에 따른 전자 디바이스(100)의 동작방법에 있어서 파라미터를 추가하는 과정을 도시한 흐름도이다.FIG. 7 is a flowchart illustrating a process of adding a parameter in a method of operating the electronic device 100 according to an embodiment of the disclosed disclosure.
도 7을 참조하면, 일 실시예에 따른 전자 디바이스(100)는 펜의 움직임을 감지할 수 있다(710). 예를 들면, 전자 디바이스(100)는 펜이 상하(Up/Down), 좌우(Left/Right) 또는 회전(Spin)하는지 여부를 판단할 수 있다.Referring to FIG. 7, the electronic device 100 according to one embodiment may detect the movement of the pen (710). For example, the electronic device 100 can determine whether the pen moves up/down, left/right, or spins.
펜의 움직임이 감지되면, 전자 디바이스(100)는 펜의 움직임이 미리 설정된 파라미터 선택 신호에 부합하는지 여부를 판단할 수 있다(720). 예를 들면, 펜이 상하로 움직이는 경우 전자 디바이스(100)는 파라미터 선택 신호로 판단할 수 있고, 펜이 좌우로 움직이거나 회전하는 경우 전자 디바이스(100)는 파라미터 조절 신호로 판단할 수 있다. When movement of the pen is detected, the electronic device 100 may determine whether the movement of the pen matches a preset parameter selection signal (720). For example, when the pen moves up and down, the electronic device 100 may judge it as a parameter selection signal, and when the pen moves left or right or rotates, the electronic device 100 may judge it as a parameter adjustment signal.
펜의 움직임이 미리 설정된 파라미터 선택 신호에 부합하면, 전자 디바이스(100)는 새로운 파라미터를 이미지에 추가할 수 있다(730). 파라미터는 가상의 광에 대한 밝기, 세기, 반경, 채도, 휘도, 명도 또는 색조일 수 있으나 이에 한정되지 않는다. If the movement of the pen matches the preset parameter selection signal, the electronic device 100 can add a new parameter to the image (730). The parameters may be, but are not limited to, brightness, intensity, radius, saturation, luminance, brightness, or hue for virtual light.
그러나, 펜의 움직임이 미리 설정된 파라미터 선택 신호에 부합하지 않는 것으로 판단되면, 전자 디바이스(100)는 기존의 파라미터를 유지할 수 있다(740). 예를 들면, 전자 디바이스(100)는 기존에 적용된 파라미터가 존재하는 경우 기존의 상태를 유지할 수 있고, 기존에 적용된 파라미터가 존재하지 않는 경우 원본 이미지 상태를 유지할 수 있다. However, if it is determined that the movement of the pen does not match the preset parameter selection signal, the electronic device 100 may maintain the existing parameters (740). For example, the electronic device 100 may maintain an existing state if a previously applied parameter exists, and may maintain an original image state if a previously applied parameter does not exist.
도 8은 개시된 일 실시예에 따른 외부 장치(200)와 연동되어 가상의 광원(200a)이 제어되는 것을 도시한 것이다.FIG. 8 illustrates that a virtual light source 200a is controlled in conjunction with an external device 200 according to an exemplary embodiment of the present disclosure.
도 8을 참조하면, 일 실시예에 따른 외부 장치(200)와 가상의 광원(200a)은 미리 설정된 비율에 기초하여 3차원 좌표상에서 연동된 동작을 수행할 수 있다. 여기서 미리 설정된 비율은 사용자 정의에 의하여 결정될 수 있다. 예를 들면, 사용자가 스타일러스 펜의 형태를 갖는 외부 장치(200)를 가지고 원형의 반경을 그린 경우, 가상의 광원(200a)은 외부 장치(200)가 그린 반경의 3배의 지름을 갖는 원형의 반경을 그릴 수 있다. 가상의 광원(200a)이 외부 장치(200)와 연동되면, 이미지에 조사되는 빛의 반경은 외부 장치(200)가 움직인 반경과 연동될 수 있다. Referring to FIG. 8, the external device 200 and the virtual light source 200a according to one embodiment may perform linked operations on three-dimensional coordinates based on a preset ratio. Here, the preset ratio can be determined by user definition. For example, when a user draws a circular radius with an external device 200 in the form of a stylus pen, the virtual light source 200a is a circular shape with a diameter three times the radius drawn by the external device 200. You can draw a radius. When the virtual light source 200a is linked to the external device 200, the radius of light irradiated to the image may be linked to the radius at which the external device 200 moves.
개시된 일 실시예에 따른 전자 디바이스는 하기 설명하는 바와 같이 제1 수식에 기초하여 결정되는 제1 연동 변수(q), 제2 수식에 기초하여 결정되는 제2 연동 변수(Φ) 및 제2 수식에 의하여 결정되는 제3 연동변수(θ)에 기초하여 가상의 광원이 빛을 조사하는 반경을 결정할 수 있다. 개시된 실시예에 따른 외부 장치(200)의 좌표는 (x, y, z)이고, 가상의 광원의 좌표는 (x`, y`, z`)일 수 있다. 또한, α, β, γ는 각각 x축, y축 및 z축에 대한 연동 계수일 수 있다. 또한, τ은 x, y, z 축에 대한 연동 계수가 적용된 결과, 외부 장치(200)와 가상의 광원(200a)의 움직임에 대한 비율일 수 있다.The electronic device according to the disclosed embodiment includes a first interlocking variable (q) determined based on the first formula, a second interlocking variable (Φ) determined based on the second formula, and the second formula, as described below. The radius at which the virtual light source irradiates light can be determined based on the third interlocking variable (θ) determined by . The coordinates of the external device 200 according to the disclosed embodiment may be (x, y, z), and the coordinates of the virtual light source may be (x', y', z'). Additionally, α, β, and γ may be interlocking coefficients for the x-axis, y-axis, and z-axis, respectively. Additionally, τ may be a ratio of movements of the external device 200 and the virtual light source 200a as a result of applying interlocking coefficients for the x, y, and z axes.
Figure PCTKR2023012793-appb-img-000001
Figure PCTKR2023012793-appb-img-000001
제1 수식first formula
Figure PCTKR2023012793-appb-img-000002
Figure PCTKR2023012793-appb-img-000002
제2 수식2nd formula
Figure PCTKR2023012793-appb-img-000003
Figure PCTKR2023012793-appb-img-000003
제3 수식Third formula
Figure PCTKR2023012793-appb-img-000004
Figure PCTKR2023012793-appb-img-000004
제4 수식4th formula
일 실시예에 따른 전자 디바이스(100)는 제1 수식에 기초하여 제1 연동 변수(q)를 결정하고, 제2 수식에 기초하여 제2 연동 변수(Φ)를 결정할 수 있다. 제1 연동 변수(q)는 외부 장치(200)의 x좌표 또는 좌표에 기초하여 회전 방향을 판단하는 정보일 수 있다. 제2 연동 변수(Φ)는 외부 장치(200)의 회전율을 판단하는 정보일 수 있다. 제1 연동 변수(q) 및 제2 연동 변수(Φ)가 결정되면, 전자 디바이스(100)는 제3 수식에 기초하여 제3 연동 변수(θ)를 결정할 수 있다. 제3 연동 변수(θ) 는 외부 장치(200)의 회전각에 대한 변수 일 수 있다. 제1 연동 변수(q), 제2 연동 변수(Φ) 및 제3 연동 변수(θ)가 결정되면, 전자 디바이스(100)는 제4 수식에 기초하여 가상의 광원의 좌표(x`, y`, z`)를 결정할 수 있다.The electronic device 100 according to one embodiment may determine the first interlocking variable (q) based on the first equation and the second interlocking variable (Φ) based on the second formula. The first interlocking variable (q) may be information for determining the direction of rotation based on the x-coordinate or coordinates of the external device 200. The second interlocking variable Φ may be information for determining the rotation rate of the external device 200. Once the first interlocking variable (q) and the second interlocking variable (Φ) are determined, the electronic device 100 may determine the third interlocking variable (θ) based on the third equation. The third interlocking variable θ may be a variable for the rotation angle of the external device 200. When the first interlocking variable (q), the second interlocking variable (Φ), and the third interlocking variable (θ) are determined, the electronic device 100 determines the coordinates (x`, y`) of the virtual light source based on the fourth equation. , z`) can be determined.
도 9a 및 도 9b는 개시된 일 실시예에 따른 전자 디바이스(100)에서 가상의 광원(200a)을 조절하는 것을 도시한 것이다.FIGS. 9A and 9B illustrate controlling a virtual light source 200a in the electronic device 100 according to an exemplary embodiment of the present disclosure.
도 9a 및 도 9b를 참조하면, 외부 장치(200)를 전자 디바이스(100)의 평면을 기준으로 하는 구면좌표계에 표시한 경우, 외부 장치(200)가 전자 디바이스와 이루는 각도(α)는 가상의 광원(200a)으로부터 생성된 가상의 광과 이미지가 이루는 각도(α)와 같을 수 있다. 일 실시예에 따른 전자 디바이스(100)는 외부 장치(200)와의 각도에 기반하여 가상이 광원(200a)의 위치를 결정하고, 가상의 광원(200a)로부터 조사되는 가상의 광의 각도를 결정할 수 있다.9A and 9B, when the external device 200 is displayed in a spherical coordinate system based on the plane of the electronic device 100, the angle α formed by the external device 200 with the electronic device is a virtual It may be equal to the angle α formed between the virtual light generated from the light source 200a and the image. The electronic device 100 according to one embodiment may determine the position of the virtual light source 200a based on the angle with the external device 200 and determine the angle of the virtual light emitted from the virtual light source 200a. .
도 10은 개시된 일 실시예에 따른 외부 장치(200)의 블록도이다.FIG. 10 is a block diagram of an external device 200 according to an embodiment of the disclosed technology.
도 10을 참조하면, 외부 장치(200)는 전원(210), 동작 감지 센서(220), 가속도 감지 센서(230), 자이로스코프(240), 자기 센서(250), 통신부(260) 및 버튼(270)을 포함할 수 있다.Referring to FIG. 10, the external device 200 includes a power source 210, a motion detection sensor 220, an acceleration detection sensor 230, a gyroscope 240, a magnetic sensor 250, a communication unit 260, and a button ( 270).
전원(210)은 외부 장치(200)에 전력을 공급할 수 있다. 전원(210)은 전자 디바이스(100)와 연동되어 충전될 수 있다. 예를 들면, 전원(210)은 전자 디바이스(100)와 전기적으로 연동된 상태에서 유/무선 충전방식에 기초하여 충전될 수 있다.The power source 210 may supply power to the external device 200. The power source 210 can be charged in conjunction with the electronic device 100. For example, the power source 210 may be charged based on a wired/wireless charging method while electrically interconnected with the electronic device 100.
동작 감지 센서(220)는 외부 장치(200)의 동작을 감지할 수 있다. 상술한 바와 같이, 외부 장치(200)는 사용자의 조작에 의하여 상하 동작, 좌우 동작 또는 회전 동작을 수행할 수 있으며, 외부 장치(200)의 동작은 파라미터를 결정하는 신호를 생성하는데 활용될 수 있다.The motion detection sensor 220 can detect the motion of the external device 200. As described above, the external device 200 can perform up and down movement, left and right movement, or rotation movement by the user's manipulation, and the operation of the external device 200 can be used to generate a signal that determines the parameter. .
가속도 감지 센서(230)는 외부 장치(200)의 속도의 증감을 감지할 수 있다. 상술한 바와 같이, 외부 장치(200)는 사용자의 조작에 의하여 속도가 증가하거나 감소할 수 있으며, 외부 장치(200)의 가속도는 파라미터의 적용 정도를 결정하는데 활용될 수 있다.The acceleration sensor 230 can detect an increase or decrease in the speed of the external device 200. As described above, the speed of the external device 200 can be increased or decreased by the user's manipulation, and the acceleration of the external device 200 can be used to determine the degree of application of the parameter.
자이로스코프(240)는 외부 장치(200)의 위치 또는 회전 반경를 감지할 수 있다. 상술한 바와 같이, 외부 장치(200)는 사용자의 조작에 의하여 소정의 반경을 그리며 회전할 수 있으며, 전자 디바이스(100)와 소정의 각도를 이루며 위치할 수 있다. 외부 장치(200)의 위치 또는 회전은 가상의 광원의 위치 및 가상의 광이 비추는 반경을 결정하는데 활용될 수 있다.The gyroscope 240 can detect the position or rotation radius of the external device 200. As described above, the external device 200 can rotate along a predetermined radius by the user's manipulation and can be positioned at a predetermined angle with the electronic device 100. The position or rotation of the external device 200 can be used to determine the position of the virtual light source and the radius on which the virtual light shines.
자기 센서(250)는 외부 장치(200)와 전자 디바이스(100)가 접근하는지 여부를 감지할 수 있다. 예를 들면, 자기 센서(250)는 외부 장치(200)가 전자 디바이스(100)에 접근하는지 여부를 감지할 수 있고, 외부 장치(200)와 디바이스(100)의 접근 여부는 이미지 선택 신호를 생성하는 판단 기준이 될 수 있다.The magnetic sensor 250 can detect whether the external device 200 and the electronic device 100 are approaching. For example, the magnetic sensor 250 can detect whether the external device 200 is approaching the electronic device 100, and whether the external device 200 and the device 100 are approaching generates an image selection signal. It can be a criterion for judgment.
통신부(260)는 전자 디바이스(100)와 외부 장치(200)의 동작에 대한 데이터를 주고받을 수 있다. 예를 들면, 통신부(260)는 근거리 통신을 모두 수행할 수 있다. 통신부(260)는 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(NFC, Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The communication unit 260 may exchange data about the operation of the electronic device 100 and the external device 200. For example, the communication unit 260 can perform all short-distance communications. The communication unit 260 includes a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit (NFC), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared data association (IrDA) communication unit, It may include, but is not limited to, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, and an Ant+ communication unit.
버튼(270)은 사용자의 입력을 수신할 수 있다. 예를 들면, 사용자가 외부 장치(200)의 버튼(270)을 누른 경우, 외부 장치(200)는 사용자의 입력을 전자 디바이스(100)로 전송하고, 전자 디바이스(100)는 이미지 편집 모드를 수행할 수 있다. 다만, 사용자의 입력을 수신하는 방법은 이에 한정되는 것은 아니고, 사용자 정의에 의하여 수행 가능한 다양한 외부 장치(200)의 동작을 더 포함할 수 있다. Button 270 may receive user input. For example, when the user presses the button 270 of the external device 200, the external device 200 transmits the user's input to the electronic device 100, and the electronic device 100 performs the image editing mode. can do. However, the method of receiving the user's input is not limited to this and may further include various operations of the external device 200 that can be performed by user definition.
상술한 동작을 수행하기 위하여 개시된 실시예에 따른 디스플레이(160)에 표시된 이미지를 편집하는 전자 디바이스(100)는 하나 이상의 인스트럭션을 포함하는 메모리(120) 및 하나 이상의 프로세서(130)를 포함하고, 하나 이상의 프로세서(130)는 하나 이상의 인스트럭션을 실행할 수 있다.In order to perform the above-described operation, the electronic device 100 for editing an image displayed on the display 160 according to the disclosed embodiment includes a memory 120 including one or more instructions and one or more processors 130, and one The processor 130 may execute one or more instructions.
일 실시예에 따른 전자 디바이스(100)는, 외부 장치(200)로부터 디스플레이(160)에 표시되는 이미지의 편집과 연관된 편집 신호를 수신할 수 있다.The electronic device 100 according to one embodiment may receive an editing signal associated with editing an image displayed on the display 160 from the external device 200.
일 실시예에 따른 전자 디바이스(100)는, 수신된 편집 신호를 이용하여 이미지에 가상의 광이 합성된 편집 이미지를 생성할 수 있다.The electronic device 100 according to one embodiment may generate an edited image in which virtual light is synthesized into the image using the received editing signal.
일 실시예에 따른 전자 디바이스(100)는, 생성된 편집 이미지를 디스플레이(160)에 표시할 수 있다.The electronic device 100 according to one embodiment may display the generated edited image on the display 160.
일 실시예에 따른 하나 이상의 프로세서(130)는 외부 장치(200)의 위치 또는 방향에 기초하여 가상의 광을 조절할 수 있다.One or more processors 130 according to an embodiment may adjust virtual light based on the location or direction of the external device 200.
일 실시예에 따른 전자 디바이스(100)는 가상의 광의 특성을 빅데이터화 하여 저장하는 스토리지(140)를 더 포함하고, 일 실시예에 따른 하나 이상의 프로세서(130)는, 외부 장치(200)의 움직임을 감지하고, 외부 장치(200)의 움직임에 기초하여 생성된 가상의 광의 특성을 스토리지(140)에 저장할 수 있다.The electronic device 100 according to an embodiment further includes a storage 140 that stores the characteristics of virtual light in big data, and one or more processors 130 according to an embodiment monitor the movement of the external device 200. can be detected, and the characteristics of the virtual light generated based on the movement of the external device 200 can be stored in the storage 140.
일 실시예에 따른 하나 이상의 프로세서(130)는 이미지에 존재하는 객체 중 어느 하나에 대한 선택 신호를 수신하고, 수신된 선택 신호에 기초하여 가상의 광이 조사되는 객체를 결정할 수 있다.One or more processors 130 according to an embodiment may receive a selection signal for one of the objects present in the image and determine an object to which virtual light is irradiated based on the received selection signal.
일 실시예에 따른 하나 이상의 프로세서(130)는 외부 장치(200)의 움직임에 기초하여 가상의 광의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 조절할 수 있다. One or more processors 130 according to an embodiment may adjust at least one of the position, direction, intensity, or area of a light source of virtual light based on the movement of the external device 200.
일 실시예에 따른 하나 이상의 프로세서(130)는 이미지에 존재하는 객체가 움직이는 것으로 판단되면, 객체의 움직임에 기초하여 가상의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 재설정할 수 있다.If it is determined that an object present in the image is moving, the one or more processors 130 according to one embodiment may reset at least one of the position, direction, intensity, or area of the virtual light source based on the movement of the object.
이미지에 존재하는 객체가 복수인 경우, 일 실시예에 따른 하나 이상의 프로세서(130)는 객체 중 어느 하나에 대한 변경 신호를 수신하고, 수신된 변경 신호에 기초하여 가상의 광이 조사되는 객체를 변경할 수 있다.When there are multiple objects present in the image, one or more processors 130 according to an embodiment receive a change signal for one of the objects and change the object to which virtual light is irradiated based on the received change signal. You can.
일 실시예에 따른 하나 이상의 프로세서(130)는 외부 장치(200)의 움직임에 기초하여 가상의 광의 특성을 조절하는 파라미터를 조절할 수 있다.One or more processors 130 according to an embodiment may adjust parameters that adjust the characteristics of virtual light based on the movement of the external device 200.
일 실시예에 따른 외부 장치(200)는 동작 감지 센서(220), 가속도 감지 센서(230) 또는 자이로스코프(Gyroscope, 240)를 포함하고, 동작 감지 센서(220), 가속도 감지 센서(230) 또는 자이로스코프(Gyroscope, 240) 중 적어도 하나의 감지 결과에 기초하여 생성된 이미지에 대한 복수의 편집 신호들을 전자 디바이스(100)로 전송하는 통신부(260)를 포함할 수 있다.The external device 200 according to one embodiment includes a motion detection sensor 220, an acceleration detection sensor 230, or a gyroscope 240, and includes a motion detection sensor 220, an acceleration detection sensor 230, or a gyroscope 240. It may include a communication unit 260 that transmits a plurality of editing signals for an image generated based on a detection result of at least one of the gyroscopes 240 to the electronic device 100.
개시된 실시예에 따른 디스플레이(160)에 표시된 이미지를 편집하는 전자 디바이스(100)의 동작방법은 외부 장치로부터 디스플레이에 표시되는 이미지의 편집과 연관된 편집 신호를 수신하는 단계(410)를 포함할 수 있다.A method of operating the electronic device 100 for editing an image displayed on the display 160 according to the disclosed embodiment may include receiving an editing signal associated with editing an image displayed on the display from an external device (step 410). .
일 실시예에 따른 전자 디바이스(100)의 동작방법은, 수신된 편집 신호를 이용하여 이미지에 가상의 광이 합성된 편집 이미지를 생성하는 단계(440)를 포함할 수 있다.A method of operating the electronic device 100 according to an embodiment may include a step 440 of generating an edited image in which virtual light is synthesized into an image using a received editing signal.
일 실시예에 따른 전자 디바이스(100)의 동작방법은, 생성된 편집 이미지를 디스플레이에 표시하는 단계(450)를 포함할 수 있다.A method of operating the electronic device 100 according to an embodiment may include displaying the generated edited image on a display (step 450).
일 실시예에 따른 가상의 광을 생성하는 단계는 외부 장치의 위치 또는 방향에 기초하여 가상의 광을 조절하는 것을 포함할 수 있다.Generating virtual light according to an embodiment may include adjusting virtual light based on the location or direction of an external device.
일 실시예에 따른 전자 디바이스(100)의 동작 방법은 가상의 광의 특성을 빅데이터화 하여 저장하는 단계를 더 포함하고, 일 실시예에 따른 가상의 광을 생성하는 단계는 외부 장치의 움직임을 감지하고, 외부 장치의 움직임에 기초하여 생성된 가상의 광의 특성을 스토리지에 저장하는 것을 포함할 수 있다.The method of operating the electronic device 100 according to an embodiment further includes the step of converting and storing the characteristics of virtual light into big data, and the step of generating virtual light according to an embodiment includes detecting the movement of an external device, , It may include storing the characteristics of virtual light generated based on the movement of an external device in storage.
일 실시예에 따른 가상의 광을 생성하는 단계는 이미지에 존재하는 객체 중 어느 하나에 대한 선택 신호를 수신하고, 수신된 선택 신호에 기초하여 가상의 광이 조사되는 객체를 결정하는 것을 포함할 수 있다.The step of generating virtual light according to an embodiment may include receiving a selection signal for one of the objects present in the image and determining the object to which the virtual light is irradiated based on the received selection signal. there is.
일 실시예에 따른 가상의 광을 생성하는 단계는 외부 장치의 움직임에 기초하여 가상의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 조절하는 것을 포함할 수 있다.Generating virtual light according to an embodiment may include adjusting at least one of the position, direction, intensity, or area of the virtual light source based on the movement of the external device.
일 실시예에 따른 가상의 광을 생성하는 단계는 이미지에 존재하는 객체가 움직이는 것으로 판단되면, 객체의 움직임에 기초하여 가상의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 재설정하는 것을 포함할 수 있다.The step of generating virtual light according to an embodiment may include resetting at least one of the position, direction, intensity, or area of the virtual light source based on the movement of the object when it is determined that the object present in the image is moving. You can.
개시된 실시예에 따른 이미지에 존재하는 객체가 복수인 경우, 일 실시예에 따른 가상의 광을 생성하는 단계는 객체 중 어느 하나에 대한 변경 신호를 수신하고, 수신된 변경 신호에 기초하여 가상의 광이 조사되는 객체를 변경하는 것을 포함할 수 있다.When there are a plurality of objects present in an image according to the disclosed embodiment, the step of generating virtual light according to an embodiment includes receiving a change signal for one of the objects, and generating virtual light based on the received change signal. This may involve changing the object being examined.
일 실시예에 따른 가상의 광을 생성하는 단계는 외부 장치(200)의 움직임에 기초하여 가상의 광의 특성을 조절하는 파라미터를 조절하는 것을 포함할 수 있다.Generating virtual light according to an embodiment may include adjusting parameters that adjust the characteristics of virtual light based on the movement of the external device 200.
일 실시예에 따른 편집 신호를 수신하는 단계는 외부 장치(200)의 동작 정보, 가속도 정보 및 회전 정보 중 적어도 하나에 기초하여 생성된 편집 신호를 수신하는 것을 포함할 수 있다.Receiving an editing signal according to an embodiment may include receiving an editing signal generated based on at least one of operation information, acceleration information, and rotation information of the external device 200.
일 실시예에 따른 전자 디바이스(100)의 동작 방법은 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체에 저장될 수 있다.A method of operating the electronic device 100 according to an embodiment may be stored in a computer-readable recording medium on which a program for execution by a computer is recorded.
개시된 실시예에 따른 이미지 편집 시스템(10)은 이미지에 대한 복수의 편집 신호들을 생성하는 외부 장치(200) 및 복수의 편집 신호들을 수신하고 이미지를 편집하는 전자 디바이스(100)를 포함할 수 있다. The image editing system 10 according to the disclosed embodiment may include an external device 200 that generates a plurality of editing signals for an image and an electronic device 100 that receives a plurality of editing signals and edits the image.
일 실시예에 따른 이미지 편집 시스템의 전자 디바이스(100)는 이미지에 조사되는 가상의 광을 이미지에 합성하여 편집 이미지를 생성하는 이미지 생성부(110)를 포함할 수 있다. The electronic device 100 of the image editing system according to one embodiment may include an image generator 110 that generates an edited image by combining virtual light irradiated on the image with the image.
일 실시예에 따른 이미지 편집 시스템의 전자 디바이스(100)는 하나 이상의 인스트럭션을 포함하는 메모리(120)를 포함할 수 있다.The electronic device 100 of the image editing system according to one embodiment may include a memory 120 including one or more instructions.
일 실시예에 따른 이미지 편집 시스템의 전자 디바이스(100)는 하나 이상의 프로세서(130)를 포함하고, 하나 이상의 프로세서(130)는 이미지 편집 신호들에 기초하여 하나 이상의 인스트럭션을 실행할 수 있다. The electronic device 100 of the image editing system according to one embodiment includes one or more processors 130, and the one or more processors 130 may execute one or more instructions based on image editing signals.
일 실시예에 따른 이미지 편집 시스템의 전자 디바이스(100)는 가상의 광을 생성하고, 생성된 가상의 광의 특성을 조절하도록 이미지 생성부(110)를 제어할 수 있다.The electronic device 100 of the image editing system according to one embodiment may generate virtual light and control the image generator 110 to adjust the characteristics of the generated virtual light.
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' only means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as . For example, a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. A computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.

Claims (15)

  1. 디스플레이(160)에 표시된 이미지를 편집하는 전자 디바이스(100)에 있어서,In the electronic device 100 for editing an image displayed on the display 160,
    하나 이상의 인스트럭션을 포함하는 메모리(120); 및a memory 120 containing one or more instructions; and
    하나 이상의 프로세서(130)를 포함하고, 상기 하나 이상의 프로세서(130)는 상기 하나 이상의 인스트럭션을 실행하여, Comprising one or more processors 130, wherein the one or more processors 130 execute the one or more instructions,
    외부 장치(200)로부터 상기 디스플레이(160)에 표시되는 이미지의 편집과 연관된 편집 신호를 수신하고,Receiving an editing signal associated with editing an image displayed on the display 160 from an external device 200,
    상기 수신된 편집 신호를 이용하여 상기 이미지에 가상의 광이 합성된 편집 이미지를 생성하고, Generating an edited image in which virtual light is synthesized with the image using the received editing signal,
    상기 생성된 편집 이미지를 상기 디스플레이(160)에 표시하는 전자 디바이스.An electronic device that displays the generated edited image on the display (160).
  2. 제1항에 있어서,According to paragraph 1,
    상기 하나 이상의 프로세서(130)는,The one or more processors 130,
    상기 외부 장치(200)의 위치 또는 방향 중 적어도 하나에 기초하여 상기 가상의 광을 조절하는 전자 디바이스.An electronic device that adjusts the virtual light based on at least one of the position or direction of the external device (200).
  3. 제1 항 또는 제 2항에 있어서, According to claim 1 or 2,
    상기 가상의 광의 특성을 빅데이터화 하여 저장하는 스토리지(140)를 더 포함하고,It further includes a storage 140 that converts the characteristics of the virtual light into big data and stores it,
    상기 하나 이상의 프로세서(130)는, The one or more processors 130,
    상기 외부 장치(200)의 움직임을 감지하고, 상기 외부 장치(200)의 움직임에 기초하여 생성된 가상의 광의 특성을 상기 스토리지(140)에 저장하는 전자 디바이스.An electronic device that detects the movement of the external device (200) and stores the characteristics of virtual light generated based on the movement of the external device (200) in the storage (140).
  4. 제1 항 내지 제3 항 중 적어도 한 항에 있어서, According to at least one of claims 1 to 3,
    상기 하나 이상의 프로세서(130)는,The one or more processors 130,
    상기 이미지에 존재하는 객체 중 어느 하나에 대한 선택 신호를 수신하고, 수신된 상기 선택 신호에 기초하여 상기 가상의 광이 조사되는 객체를 결정하는 전자 디바이스.An electronic device that receives a selection signal for one of the objects present in the image and determines an object to which the virtual light is irradiated based on the received selection signal.
  5. 제1 항 내지 제4 항 중 적어도 한 항에 있어서, According to at least one of claims 1 to 4,
    상기 하나 이상의 프로세서(130)는 The one or more processors 130
    상기 외부 장치(200)의 움직임에 기초하여 상기 가상의 광의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 조절하는 전자 디바이스.An electronic device that adjusts at least one of the position, direction, intensity, or area of the virtual light source based on the movement of the external device (200).
  6. 제1 항 내지 제5 항 중 적어도 한 항에 있어서, According to at least one of claims 1 to 5,
    상기 하나 이상의 프로세서(130)는 The one or more processors 130
    상기 이미지에 존재하는 객체가 움직이는 것으로 판단되면, 상기 객체의 움직임에 기초하여 상기 가상의 광원의 위치, 방향, 세기 또는 면적 중 적어도 하나를 재설정하는 전자 디바이스.An electronic device that, when it is determined that an object in the image is moving, resets at least one of the position, direction, intensity, or area of the virtual light source based on the movement of the object.
  7. 제1 항 내지 제6 항 중 적어도 한 항에 있어서, According to at least one of claims 1 to 6,
    상기 이미지에 존재하는 객체가 복수인 경우,If there are multiple objects present in the image,
    상기 하나 이상의 프로세서(130)는,The one or more processors 130,
    상기 객체 중 어느 하나에 대한 변경 신호를 수신하고, 수신된 변경 신호에 기초하여 상기 가상의 광이 조사되는 객체를 변경하는 전자 디바이스.An electronic device that receives a change signal for one of the objects and changes the object to which the virtual light is irradiated based on the received change signal.
  8. 제1 항 내지 제7 항 중 적어도 한 항에 있어서, According to at least one of claims 1 to 7,
    상기 하나 이상의 프로세서(130)는,The one or more processors 130,
    상기 외부 장치(200)의 움직임에 기초하여 상기 가상의 광의 특성을 조절하는 파라미터를 조절하는 전자 디바이스.An electronic device that adjusts parameters for controlling characteristics of the virtual light based on the movement of the external device (200).
  9. 제1 항 내지 제8 항 중 적어도 한 항에 있어서, According to at least one of claims 1 to 8,
    상기 외부 장치(200)는, The external device 200,
    동작 감지 센서(220), 가속도 감지 센서(230) 또는 자이로스코프(Gyroscope, 240)를 포함하고,Includes a motion detection sensor 220, an acceleration detection sensor 230, or a gyroscope 240,
    상기 동작 감지 센서(220), 가속도 감지 센서(230) 또는 자이로스코프(Gyroscope, 240)중 적어도 하나의 감지 결과에 기초하여 생성된 이미지에 대한 복수의 편집 신호들을 상기 전자 디바이스(100)로 전송하는 통신부(260)를 포함하는 전자 디바이스.Transmitting a plurality of editing signals for the image generated based on the detection result of at least one of the motion detection sensor 220, the acceleration detection sensor 230, or the gyroscope 240 to the electronic device 100. An electronic device including a communication unit (260).
  10. 디스플레이(160)에 표시된 이미지를 편집하는 전자 디바이스(100)의 동작방법에 있어서,In a method of operating the electronic device 100 for editing an image displayed on the display 160,
    외부 장치로부터 상기 디스플레이에 표시되는 이미지의 편집과 연관된 편집 신호를 수신하는 단계(410);Receiving an editing signal associated with editing an image displayed on the display from an external device (410);
    상기 수신된 편집 신호를 이용하여 상기 이미지에 가상의 광이 합성된 편집 이미지를 생성하는 단계(440); 및Generating an edited image in which virtual light is synthesized with the image using the received editing signal (440); and
    상기 생성된 편집 이미지를 상기 디스플레이에 표시하는 단계(450)를 포함하는 전자 디바이스(100)의 동작방법.A method of operating the electronic device 100, including displaying the generated edited image on the display (450).
  11. 제10 항에 있어서,According to claim 10,
    상기 편집 이미지를 생성하는 단계(440)는,The step 440 of generating the edited image is,
    상기 외부 장치의 위치 또는 방향 중 적어도 하나에 기초하여 상기 가상의 광을 조절하는 것을 포함하는 전자 디바이스(100)의 동작방법.A method of operating the electronic device 100, including adjusting the virtual light based on at least one of the position or direction of the external device.
  12. 제11 항에 있어서, According to claim 11,
    상기 가상의 광의 특성을 빅데이터화 하여 저장하는 단계를 더 포함하고,It further includes converting the characteristics of the virtual light into big data and storing it,
    상기 편집 이미지를 생성하는 단계(440)는,The step 440 of generating the edited image is,
    상기 외부 장치(200)의 움직임을 감지하고, 상기 외부 장치의 움직임에 기초하여 생성된 가상의 광의 특성을 상기 스토리지(140)에 저장하는 것을 포함하는 전자 디바이스(100)의 동작방법.A method of operating an electronic device (100) including detecting movement of the external device (200) and storing characteristics of virtual light generated based on the movement of the external device in the storage (140).
  13. 제10 항 내지 제12 항 중 적어도 한 항에 있어서, The method of at least one of claims 10 to 12,
    상기 편집 이미지를 생성하는 단계(440)는,The step 440 of generating the edited image is,
    상기 이미지에 존재하는 객체 중 어느 하나에 대한 선택 신호를 수신하고, 수신된 상기 선택 신호에 기초하여 상기 가상의 광이 조사되는 객체를 결정하는 것을 포함하는 전자 디바이스(100)의 동작방법.A method of operating the electronic device 100, comprising receiving a selection signal for one of the objects present in the image and determining an object to which the virtual light is irradiated based on the received selection signal.
  14. 제10 항 내지 제13 항의 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium on which a program for performing the methods of claims 10 to 13 is recorded on a computer.
  15. 이미지에 대한 복수의 편집 신호들을 생성하는 외부 장치(200); 및An external device 200 that generates a plurality of editing signals for an image; and
    상기 복수의 편집 신호들을 수신하고 디스플레이(160)에 표시된 이미지를 편집하는 전자 디바이스(100)를 포함하는 이미지 편집 시스템(10)에 있어서, In an image editing system (10) including an electronic device (100) that receives the plurality of editing signals and edits an image displayed on a display (160),
    상기 전자 디바이스(100)는,The electronic device 100,
    상기 이미지에 조사되는 가상의 광을 상기 이미지에 합성하여 편집 이미지를 생성하는 이미지 생성부(110);an image generator 110 that generates an edited image by combining virtual light irradiated on the image with the image;
    하나 이상의 인스트럭션을 포함하는 메모리(120); 및a memory 120 containing one or more instructions; and
    하나 이상의 프로세서(130)를 포함하고, 상기 하나 이상의 프로세서(130)는 상기 이미지 편집 신호들에 기초하여 상기 하나 이상의 인스트럭션을 실행하여, Comprising one or more processors 130, wherein the one or more processors 130 execute the one or more instructions based on the image editing signals,
    상기 외부 장치(200)로부터 상기 디스플레이(160)에 표시되는 이미지의 편집과 연관된 편집 신호를 수신하고,Receiving an editing signal associated with editing an image displayed on the display 160 from the external device 200,
    상기 수신된 편집 신호를 이용하여 상기 이미지에 가상의 광이 합성된 편집 이미지를 생성하고, Generating an edited image in which virtual light is synthesized with the image using the received editing signal,
    상기 생성된 편집 이미지를 상기 디스플레이(160)에 표시하는 이미지 편집 시스템. An image editing system that displays the generated edited image on the display (160).
PCT/KR2023/012793 2022-10-18 2023-08-29 Electronic device, method for operating electronic device, and image editing system WO2024085422A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0134448 2022-10-18
KR1020220134448A KR20240054111A (en) 2022-10-18 2022-10-18 Electronic device, operating method of electronic device, and image editing system

Publications (1)

Publication Number Publication Date
WO2024085422A1 true WO2024085422A1 (en) 2024-04-25

Family

ID=90737781

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/012793 WO2024085422A1 (en) 2022-10-18 2023-08-29 Electronic device, method for operating electronic device, and image editing system

Country Status (2)

Country Link
KR (1) KR20240054111A (en)
WO (1) WO2024085422A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160144851A (en) * 2015-06-09 2016-12-19 삼성전자주식회사 Electronic apparatus for processing image and mehotd for controlling thereof
KR20200096901A (en) * 2018-01-05 2020-08-14 삼성전자주식회사 Method and apparatus for navigating virtual content displayed by virtual reality (VR) device
KR20210013150A (en) * 2018-05-24 2021-02-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Lighting estimation
KR20210157284A (en) * 2020-06-18 2021-12-28 삼성전자주식회사 Method for determining ambient illumination in ar scene, apparatus and storage medium
KR20220014764A (en) * 2020-07-29 2022-02-07 삼성전자주식회사 Electronic device and method for generating training data of artificial intelligence learning model thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160144851A (en) * 2015-06-09 2016-12-19 삼성전자주식회사 Electronic apparatus for processing image and mehotd for controlling thereof
KR20200096901A (en) * 2018-01-05 2020-08-14 삼성전자주식회사 Method and apparatus for navigating virtual content displayed by virtual reality (VR) device
KR20210013150A (en) * 2018-05-24 2021-02-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Lighting estimation
KR20210157284A (en) * 2020-06-18 2021-12-28 삼성전자주식회사 Method for determining ambient illumination in ar scene, apparatus and storage medium
KR20220014764A (en) * 2020-07-29 2022-02-07 삼성전자주식회사 Electronic device and method for generating training data of artificial intelligence learning model thereof

Also Published As

Publication number Publication date
KR20240054111A (en) 2024-04-25

Similar Documents

Publication Publication Date Title
WO2020171540A1 (en) Electronic device for providing shooting mode based on virtual character and operation method thereof
WO2018012945A1 (en) Method and device for obtaining image, and recording medium thereof
WO2020171583A1 (en) Electronic device for stabilizing image and method for operating same
WO2020162673A1 (en) Electronic device for providing avatar animation and method thereof
WO2018074893A1 (en) Display apparatus, and image processing method thereof
WO2018236058A1 (en) Electronic device for providing property information of external light source for interest object
EP3785103A1 (en) Electronic device and control method thereof
WO2015122566A1 (en) Head mounted display device for displaying augmented reality image capture guide and control method for the same
WO2019164092A1 (en) Electronic device for providing second content for first content displayed on display according to movement of external object, and operating method therefor
WO2022203189A1 (en) A method and an electronic device for photographing
EP3167610A1 (en) Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof
WO2020080845A1 (en) Electronic device and method for obtaining images
WO2019035551A1 (en) Apparatus for composing objects using depth map and method for the same
WO2019017585A1 (en) Electronic device for controlling focus of lens and method for controlling the same
WO2019045517A1 (en) Method for controlling synchronization of plurality of image sensors and electronic device for implementing same
WO2019139404A1 (en) Electronic device and method for processing image of same
WO2018030795A1 (en) Camera device, display device, and method for correcting motion in device
WO2024085422A1 (en) Electronic device, method for operating electronic device, and image editing system
WO2021096219A1 (en) Electronic device comprising camera and method thereof
WO2020159115A1 (en) Electronic device having plurality of lenses, and method for controlling same
WO2020226264A1 (en) Electronic device for acquiring location information on basis of image, and method for operating same
WO2020085718A1 (en) Method and device for generating avatar on basis of corrected image
WO2019164287A1 (en) Electronic device and method for providing augmented reality object therefor
WO2019164179A1 (en) Information displaying method and electronic device therefor
WO2021118115A1 (en) Method and system for supporting object control, and non-transitory computer-readable recording medium