WO2017078350A1 - 컨텐츠 표시 방법 및 이를 구현한 전자 장치 - Google Patents

컨텐츠 표시 방법 및 이를 구현한 전자 장치 Download PDF

Info

Publication number
WO2017078350A1
WO2017078350A1 PCT/KR2016/012385 KR2016012385W WO2017078350A1 WO 2017078350 A1 WO2017078350 A1 WO 2017078350A1 KR 2016012385 W KR2016012385 W KR 2016012385W WO 2017078350 A1 WO2017078350 A1 WO 2017078350A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
roll
controller
display
sphere
Prior art date
Application number
PCT/KR2016/012385
Other languages
English (en)
French (fr)
Inventor
이용연
김윤경
곽지연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/774,148 priority Critical patent/US10972670B2/en
Priority to EP16862366.8A priority patent/EP3349103A4/en
Priority to CN201680064706.1A priority patent/CN108351743B/zh
Publication of WO2017078350A1 publication Critical patent/WO2017078350A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/904Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • Various embodiments of the present disclosure relate to a content display method and an electronic device implementing the same.
  • Such electronic devices may display contents of various types and sizes in various ways as sizes and performances are improved. For example, in case of content that is not displayed all at once, the electronic device displays a partial region of the content. Alternatively, the electronic device sets the number of contents to be displayed at one time based on the size of the contents and displays the set number of contents.
  • the generation of content having a size larger than that of the display area of the electronic device is increasing.
  • only a part of the content is displayed when the content is displayed.
  • the electronic device displays only a partial region of the panoramic image.
  • the electronic device displays the entire area of the panoramic image in the image list
  • the electronic device displays fewer panoramic images than the general image because the length of the panoramic image is longer than that of the general image. In this case, since the number of panoramic images that can be checked at a time is small, the user has to inconvenience several times in order to find a desired panoramic image.
  • Various embodiments may provide a method and apparatus for converting and displaying an image into a spherical roll image in response to a user's request.
  • Various embodiments may provide a method and apparatus capable of converting and displaying a spherical roll image based on metadata of a content.
  • an electronic device may include a display, a memory, and a controller functionally connected to the display and the memory, wherein the controller is configured to display an original image on the display, detect a roll generation event, and The object may be identified from the original image according to a generation event, and the original image may be converted into a roll image and stored in the memory using the identified object.
  • a method of displaying a content of an electronic device includes displaying an original image on a display, detecting a roll generation event, identifying an object from the original image according to the roll generation event, and identifying the identified image.
  • the method may include converting the original image into a roll image using an object.
  • a computer-readable recording medium may include displaying an original image on a display, detecting a roll generation event, identifying an object from the original image according to the roll generation event, and the identified object. It may include a program for executing the operation of converting the original image into a roll image by using.
  • a large number of images may be displayed at a time by converting a larger ratio of images than a general image into a spherical roll image.
  • Various embodiments may further diversify the information display scheme by converting and displaying a spherical roll image based on the metadata of the content.
  • Various embodiments may propose a new image processing method by generating a roll image in various ways based on the property of the content.
  • Various embodiments may facilitate identification of an image of a user by displaying the entire area of the image in a spherical form without additional input by the user.
  • FIG. 1 is a block diagram illustrating a configuration of an electronic device according to various embodiments.
  • FIG. 2 is a flowchart illustrating a method of generating a roll image of an electronic device according to various embodiments of the present disclosure.
  • FIG. 3 is a diagram illustrating an example of generating a roll image according to various embodiments.
  • FIG. 4 is a flowchart illustrating a specific method of generating a roll image according to various embodiments.
  • 5A to 5C are diagrams illustrating an example of generating a roll image based on an object according to various embodiments.
  • 6A and 6B are diagrams illustrating an example of generating a roll image based on a boundary line according to various embodiments.
  • FIGS. 7A to 7D are diagrams illustrating an example of generating a roll image based on a photographing angle according to various embodiments.
  • FIG. 8 is a flowchart illustrating a roll image editing method of an electronic device according to various embodiments of the present disclosure.
  • 9A to 9D are diagrams illustrating an example of editing a roll image according to various embodiments.
  • FIG. 10 is a flowchart illustrating a method of providing a roll image of an electronic device according to various embodiments of the present disclosure.
  • 11A and 11B illustrate an example of providing a roll image according to various embodiments.
  • FIG. 12 is a diagram illustrating an example of an electronic device according to various embodiments of the present disclosure.
  • FIG. 13 is a diagram illustrating an example of displaying content according to various embodiments of the present disclosure.
  • FIG. 14 is a flowchart illustrating a text-based roll image generation method according to various embodiments.
  • 15A and 15B are diagrams illustrating an example of generating a roll image based on text according to various embodiments.
  • an electronic device may be any information communication device, a multimedia device, a wearable device, and an application device that supports a function (eg, a role image generation function) according to various embodiments of the present disclosure.
  • a function eg, a role image generation function
  • it may include all devices using one or more of various processors such as an AP, a Communication Processor (CP), a Graphic Processing Unit (GPU), and a Central Processing Unit (CPU).
  • AP a Communication Processor
  • GPU Graphic Processing Unit
  • CPU Central Processing Unit
  • An electronic device may include, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, and a desktop.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • MP3 player mobile medical device
  • a wearable device eg, smart glasses, a head-mounted-device (HMD), or a smart watch.
  • the electronic device may be a smart home appliance.
  • Smart home appliances are, for example, televisions, digital video disk (DVD) players, refrigerators, air conditioners, vacuum cleaners, washing machines, set-top boxes, home automation control panels, TVs. It may include at least one of a box (eg, Samsung HomeSync TM , Apple TV TM , or Google TV TM ), a game console (eg, Xbox TM , PlayStation TM ), or an electronic picture frame.
  • the electronic device may include at least one of a navigation device and an internet of things.
  • the electronic device may be a combination of one or more of the aforementioned various devices.
  • An electronic device according to an embodiment may be a flexible electronic device.
  • the electronic device according to an embodiment of the present disclosure is not limited to the above-described devices, and may include a new electronic device according to technology development.
  • the term user may refer to a person who uses an electronic device or a device (for example, an artificial intelligence electronic device) that uses an electronic device.
  • the module or the program module may include at least one of the various components of the present disclosure, some may be omitted, or may further include additional other components. Operations performed by a module, program module, or other component according to various embodiments may be executed in a sequential, parallel, repetitive, or heuristic manner. In addition, some operations may be executed in a different order, omitted, or other operations may be added.
  • FIG. 1 is a block diagram illustrating a configuration of an electronic device according to various embodiments.
  • an electronic device 100 may include a wireless communication unit 110, a user input unit 120, a touch screen 130, an audio processor 140, a memory 150, an interface unit 160, a camera module 170, and a controller. 180, and a power supply 190.
  • the electronic device 100 since the components illustrated in FIG. 1 are not essential, the electronic device 100 may be embodied as having more configurations than those illustrated in FIG. 1 or having fewer configurations.
  • the wireless communication unit 110 may include one or more modules that enable wireless communication between the electronic device 100 and another external electronic device.
  • the wireless communication unit 110 may include a module (eg, a short range communication module, a telecommunication module, etc.) for performing communication with an external external electronic device.
  • the wireless communication unit 110 may include a mobile communication module 111, a wireless local area network (WLAN) module 113, a short range communication module 115, and a location calculation module 117.
  • WLAN wireless local area network
  • the mobile communication module 111 includes a base station, an external electronic device, and various servers (e.g., an integration server, a provider server, a content server, and an internet server in a mobile communication network). Or a cloud server).
  • the wireless signal may include a voice signal, a data signal, or various types of control signals.
  • the mobile communication module 111 may transmit various data required for the operation of the electronic device 100 to an external device (for example, a server or another electronic device) in response to a user request.
  • the mobile communication module 111 may transmit and receive a wireless signal based on various communication schemes.
  • the communication method is not limited thereto, but Long-Term Evolution (LTE), LTE Advance (LTE-A), Global System for Mobile communication (GSM), Enhanced Data GSM Environment (EDGE), CDMA ( It may include a communication scheme such as Code Division Multiple Access (WCDMA), Wideband CDMA (WCDMA), Universal Mobile Telecommunications System (UMTS), or Orthogonal Frequency Division Multiple Access (OFDMA).
  • LTE Long-Term Evolution
  • LTE-A LTE Advance
  • GSM Global System for Mobile communication
  • EDGE Enhanced Data GSM Environment
  • CDMA It may include a communication scheme such as Code Division Multiple Access (WCDMA), Wideband CDMA (WCDMA), Universal Mobile Telecommunications System (UMTS), or Orthogonal Frequency Division Multiple Access (OFDMA).
  • WCDMA Code Division Multiple Access
  • WCDMA Wideband CDMA
  • UMTS Universal Mobile Telecommunications System
  • OFDMA Orthogonal Frequency Division Multiple Access
  • the wireless LAN module 113 may represent a module for establishing a wireless Internet link and a wireless LAN link with another external electronic device.
  • the WLAN module 113 may be internal or external to the electronic device 100.
  • Wireless Internet technologies may include wireless fidelity (WiFi), wireless broadband (Wibro), world interoperability for microwave access (WiMax), high speed downlink packet access (HSDPA), or millimeter wave (mmWave).
  • the wireless LAN module 113 may interoperate with other external electronic devices connected to the electronic device 100 through a network (for example, a wireless Internet network) to transmit various data of the electronic device 100 to an external device (for example, an external electronic device or a server). , Or from outside.
  • the wireless LAN module 113 may be constantly turned on or may be turned on according to a setting or a user input of the electronic device 100.
  • the short range communication module 115 may represent a module for performing short range communication.
  • Near field communication technologies include Bluetooth, Bluetooth Low Energy (BLE), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), Zigbee, or NFC ( Near Field Communication) may be used.
  • the short range communication module 115 may interoperate with another external electronic device (for example, an external sound device) that is connected to the electronic device 100 through a network (for example, a short range communication network) to transmit various data of the electronic device 100 to the external electronic device. I can receive it.
  • the short range communication module 115 may maintain the always on state or may be turned on according to a setting or a user input of the electronic device 100.
  • the position calculation module 117 is a module for acquiring a position of the electronic device 100, and a representative example may include a global position system (GPS) module.
  • the location calculation module 115 may measure the location of the electronic device 100 on the basis of triangulation. For example, the location calculation module 117 calculates distance information and time information away from three or more base stations, and then applies a triangulation method to the calculated information, such as latitude, longitude, and altitude. 3D current position information can be calculated. Alternatively, the location calculation module 117 may calculate location information by continuously receiving location information of the electronic device 100 from three or more satellites in real time. The location information of the electronic device 100 may be obtained by various methods.
  • the user input unit 120 may generate input data for controlling the operation of the electronic device 100 in response to a user input.
  • the user input unit 120 may include at least one input means for detecting various inputs of a user.
  • the user input unit 120 may include a keypad, a dome switch, a physical button, a touch pad (static pressure / capacitance), a jog & shuttle, a sensor module, and the like.
  • the user input unit 120 may be partially implemented in the form of a button on the outside of the electronic device 100, or may be partially or entirely implemented as a touch panel.
  • the user input unit 120 may receive a user input for initiating an operation (eg, a function of generating a roll image) of the electronic device 100 according to various embodiments of the present disclosure, and may receive an input signal according to the user input. May occur.
  • the sensor module may measure a physical quantity or detect an operation state of the electronic device 100 to convert the measured or detected information into an electrical signal.
  • the sensor module may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor (eg, RGB (red, green, blue) sensor), a biometric sensor, on / It may include at least one of a humidity sensor, an illuminance sensor, or an ultraviolet (ultra violet) sensor.
  • the sensor module may include, for example, an e-nose sensor, an electromyography (EMG) sensor, an electrocardiogram (EEG) sensor, an electrocardiogram (ECG) sensor, an IR ( infrared) sensor, iris sensor and / or fingerprint sensor.
  • the sensor module may further include a control circuit for controlling at least one or more sensors belonging therein.
  • the electronic device 100 may further include a processor configured to control the sensor module as part of or separately from the controller 180 to control the sensor module while the controller 180 is in a sleep state. .
  • the touch screen 130 represents an input / output device capable of simultaneously performing an input function and a display function, and may include a display 131 and a touch sensing unit 133.
  • the touch screen 130 may provide an input / output interface between the electronic device 100 and the user, may transmit a user's touch input to the electronic device 100, and may include a role of a medium that shows the output from the electronic device 100 to the user.
  • the touch screen 130 may show a visual output to the user.
  • the visual output may be in the form of text, graphics, video, and combinations thereof.
  • the touch screen 130 may display various screens according to the operation of the electronic device 100 through the display 131.
  • the touch screen 130 may display an event based on at least one of a touch, hovering, or air gesture from the user through the touch sensing unit 133 while displaying a specific screen through the display 131 (eg, a touch event). , Proximity event, hovering event, and air gesture event) may be detected, and an input signal according to the event may be transmitted to the controller 180.
  • the display 131 may display (output) various pieces of information processed by the electronic device 100.
  • the display 131 may display an operation of displaying an original image, an operation of displaying a roll image, and a user interface or a graphical user interface (GUI).
  • GUI graphical user interface
  • the display 131 may support a screen display in a landscape mode, a screen display in a portrait mode, or a screen display in accordance with a change between the landscape mode and the portrait mode according to the rotation direction (or the laying direction) of the electronic device 100.
  • the display 131 may use various displays.
  • the bent display may be used as the display 131.
  • the display 131 may include a bent display that can bend, bend, or roll without damage through a paper thin and flexible substrate.
  • the bent display may be fastened to a housing (eg, a main body) to maintain a curved shape.
  • the electronic device 100 may be implemented as a display device that can be bent and detached freely, such as a flexible display, as well as in a bent display.
  • the display 131 may be a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, an active OLED (AMOLED) display, Alternatively, the glass substrate surrounding the liquid crystal in an electronic paper or the like may be replaced with a plastic film, thereby giving flexibility to fold and unfold.
  • the display 131 may extend and be fastened to at least one side (eg, at least one of a left side, a right side, an upper side, and a bottom side) of the electronic device 100.
  • the touch sensing unit 133 may be mounted on the display 131 and sense a user input of touching or approaching the surface of the touch screen 130. According to an embodiment of the present disclosure, the touch sensing unit 133 may receive a user input for starting an operation related to the use of the electronic device 100 and generate an input signal according to the user input.
  • the user input may include a touch event or a proximity event input based on at least one of single-touch, multi-touch, hovering, or air gesture.
  • the user input can be a tap, drag, sweep, swipe, flick, drag & drop, or drawing gesture. (Eg, handwriting), etc.).
  • the audio processor 140 may transmit an audio signal input from the controller 180 to the speaker 141 and transmit an audio signal such as a voice input from the microphone 143 to the controller 180. .
  • the audio processor 140 may convert the voice / sound data into an audible sound through the speaker 141 under the control of the controller 180, and may convert an audio signal such as a voice received from the microphone 143 into a digital signal and transmit the converted audio signal to the controller 180.
  • the audio processor 140 may output an audio signal in response to a user input according to audio processing information (eg, a sound effect or a music file) inserted into the data.
  • the speaker 141 may receive audio data from the wireless communication unit 110 or output audio data stored in the memory 150.
  • the speaker 141 may output sound signals related to various operations (functions) performed by the electronic device 100.
  • the speaker 141 may be attachable and detachable earphone, headphone, or headset set to the electronic device 100 through an external port. .
  • the microphone 143 may receive an external sound signal and process the same as electrical voice data.
  • the microphone 143 may implement various noise reduction algorithms for removing noise generated in the process of receiving an external sound signal.
  • the microphone 143 may be responsible for input of an audio stream, such as a voice command (eg, a voice command for starting a music application operation).
  • the microphone 143 may include an internal microphone mounted in the electronic device 100 and an external microphone connected to the electronic device.
  • the memory 150 may store one or more programs executed by the controller 180 and may perform a function for temporarily storing input / output data.
  • the input / output data may include, for example, a file such as a video, an image, a photo, or an audio.
  • the memory 150 may store the acquired data, and the data obtained in real time may be stored in a temporary storage device, and the data determined to be stored may be stored in a storage device that can be stored for a long time.
  • the memory 150 may, in various embodiments, instructions to synchronize tempo progress information for each of a plurality of components (eg, first music, second music) to execute a function that displays a visual effect with audio output. (instructions) can be saved.
  • the memory 150 may, when executed, the controller 180 (eg, one or more processors) detect a roll generation event, identify an object from the original image according to the roll generation event, Instructions for converting the original image into a roll image may be stored using the identified object.
  • the memory 150 includes an operating system (OS) of the electronic device 100, a program related to input and display control using the touch screen 130, a program related to control of various operations (functions) of the electronic device 100, and an operation of each program.
  • OS operating system
  • Various data generated by the data can be stored continuously or temporarily.
  • the memory 150 may include extended memory (eg, external memory) or internal memory.
  • the memory 150 may be a flash memory type, a hard disk type, a micro type, and a card type (eg, a Secure Digital Card or an XD Card (eXtream Digital Card)).
  • Memory such as DRAM (Dynamic Random Access Memory), SRAM (Static RAM), ROM (Read-Only Memory), PROM (Programmable ROM), EEPROM (Electrically Erasable PROM), Magnetic Memory (MRAM, Magnetic RAM), Magnetic It may include a storage medium of at least one type of a magnetic disk and an optical disk type of memory.
  • the electronic device 100 may operate in association with a web storage that performs a storage function of the memory 150 on the Internet.
  • the memory 150 may store various software.
  • software components may include operating system software modules, communication software modules, graphics software modules, user interface software modules, moving picture experts group (MPEG) modules and camera software modules, one or more application software modules, and the like. It may include.
  • MPEG moving picture experts group
  • a module which is a software component, can be expressed as a set of instructions, so a module is also referred to as an instruction set. Modules are also represented programmatically.
  • the operating system software module may include various software components that control general system operations. Controlling such general system operation may mean, for example, memory management and control, power control and management, and the like. Operating system software modules may also perform functions that facilitate communication between various hardware (devices) and software components (modules).
  • the communication software module may enable communication with another electronic device such as a computer, a server, or a portable terminal through the wireless communication unit 110.
  • the communication software module may be configured with a protocol structure corresponding to the communication method.
  • the graphics software module may include various software components for providing and displaying graphics on the touch screen 130.
  • graphics may be used to include text, web pages, icons, digital images, videos, animations, and the like. .
  • the user interface software module may include various software components related to a user interface (UI). For example, it may include information on how the state of the user interface changes or under what conditions the state of the user interface state changes.
  • UI user interface
  • the MPEG module may include a software component that enables digital content (eg, video, audio) related processes and functions (eg, generation, playback, distribution and transmission, etc.) of content.
  • digital content eg, video, audio
  • functions eg, generation, playback, distribution and transmission, etc.
  • the camera software module may include camera related software components that enable camera related processes and functions.
  • the application module includes a web browser including a rendering engine, an email, an instant message, word processing, keyboard emulation, an address book ), Widgets, digital rights management (DRM), iris scan, context recognition, voice recognition, location based services, etc. can do.
  • the application module may generate a roll image corresponding to the photographed or selected original image and process an operation (function) of displaying the generated roll image.
  • the interface unit 160 may receive data from another external electronic device or receive power and transfer the data to each of the components of the electronic device 100.
  • the interface unit 160 may transmit data inside the electronic device 100 to another external electronic device.
  • wired / wireless headphone port, external charger port, wired / wireless data port, memory card port, audio input / output port, video input / output port, earphone port Etc. may be included in the interface unit 160.
  • the camera module 170 represents a configuration supporting the capturing function of the electronic device 100.
  • the camera module 170 may photograph an arbitrary subject under the control of the controller 180, and transfer the photographed data (eg, an image) to the display 131 and the controller 180.
  • the camera module 170 may include one or more image sensors.
  • the camera module 170 may include a front sensor (eg, a front camera) provided on the front surface of the electronic device 100 (eg, the same plane as the display 131) and a rear surface provided on the back (eg, back side) of the electronic device 100. Sensor (eg, rear camera).
  • the controller 180 may control overall operations of the electronic device 100.
  • the controller 180 may perform various controls related to roll image generation, roll image editing, roll image display, and the like.
  • the controller 180 may be implemented with one or more processors, or the controller 180 may be referred to as a processor.
  • the controller 180 may include a communication processor (CP), an application processor (AP), an interface (eg, general purpose input / output), or an internal memory as separate components. Or integrated into one or more integrated circuits.
  • the application processor may execute various software programs to perform various functions for the electronic device 100, and the communication processor may perform processing and control for voice communication and data communication.
  • the controller 180 may play a role in executing a specific software module (instruction set) stored in the memory 150 to perform various specific functions corresponding to the module.
  • the controller 180 detects an event corresponding to at least one of generating, editing, or displaying a roll image of the image displayed on the display 131, and generates, edits, or generates a roll image based on the event. At least one of displaying operations may be processed. Control operations according to various embodiments of the present disclosure by the controller 180 will be described with reference to the following drawings.
  • the controller 180 may control various operations related to the normal functions of the electronic device 100 in addition to the above functions.
  • the controller 180 may control its operation and screen display when executing a specific application.
  • the controller 180 may receive input signals corresponding to various touch events or proximity event inputs supported by a touch-based or proximity-based input interface (eg, the touch screen 130) and control function operation accordingly.
  • the controller 180 may control transmission and reception of various data based on wired communication or wireless communication.
  • the power supply unit 190 may receive an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.
  • the power supply unit 190 may supply or turn off (on / off) power to the display 131, the camera module 170, and the like under the control of the controller 180.
  • the embodiments described in the present invention can be implemented in a recording medium that can be read by a computer or a similar device using software, hardware or a combination thereof.
  • the embodiments described in the present invention may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), Processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • the recording medium may further include displaying an original image on a display, detecting a roll generation event, identifying an object from the original image according to the roll generation event, and using the identified object. And a computer-readable recording medium having recorded thereon a program for executing the operation of converting the original image into a roll image.
  • embodiments described herein may be implemented by the controller 180 itself.
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.
  • an electronic device may include a display, a memory, and a controller functionally connected to the display and the memory, wherein the controller is configured to display an original image on the display, detect a roll generation event, and The object may be identified from the original image according to a generation event, and the original image may be converted into a roll image and stored in the memory using the identified object.
  • the control unit may display an area setting frame on the displayed image according to the roll generation event, determine a roll image generation area by moving the position of the area setting frame according to a user's selection, and determine the roll image generation area. It may be set to identify an included object.
  • the controller may be configured to determine a boundary line using the identified object and to convert the original image into a roll image using the object or the boundary line.
  • the controller may be configured to determine the size of the roll image based on at least one of the size of the original image, the object, or the boundary line.
  • the controller may be configured to select a representative object based on at least one of a priority of the object, a size of the object, an attribute of the object, or an attribute of the original image, and generate the roll image based on the representative object. Can be.
  • the controller may be configured to determine the boundary line based on at least one of a color difference of the original image, an attribute of the original image, or the size of the object.
  • the electronic device may further include a camera module, and the controller may be configured to determine a type of an image acquired through the camera module, and determine whether to generate a roll image based on the type of the image.
  • the controller may be configured to convert the original image into a three-dimensional sphere or a circle around the identified object to generate the roll image.
  • the object may include at least one of a subject, a person, an object, a background, or a natural environment
  • the roll image may include one or more objects included in the original image, wherein the representative object is the three-dimensional sphere or the border of the circle. Can be displayed to distinguish it from other objects.
  • the roll image may represent a lower area of the original image in the form of a three-dimensional sphere or a circle based on a boundary line, and an upper area of the original image based on the boundary line of the three-dimensional sphere. Or it may be represented by the outer portion of the circle, the identified object is disposed in the center of the three-dimensional sphere or the circle.
  • the controller may be configured to display the roll image on the display, detect a user input, and change the size of an object or sphere included in the roll image based on the user input.
  • the controller may be configured to adjust the size of the sphere when the size of the object is changed based on the user input, and adjust the size of the object when the size of the sphere is changed based on the user input.
  • the controller may be configured to search for a roll image among images stored in the memory, and to display an image list including the found roll image on the display.
  • the controller may be configured to check metadata of the content displayed on the display and determine a text and a sphere shape to be displayed based on the metadata to generate a roll image.
  • FIG. 2 is a flowchart illustrating a method of generating a roll image of an electronic device according to various embodiments of the present disclosure.
  • the controller 180 may take a picture. If the user selects a camera application, the controller 180 may execute the selected camera application. When the camera application is executed, a preview image may be displayed on the display 131. The controller 180 may capture a preview image displayed on the display 131 when a key (or a button) set to “shoot,” “confirm”, or capture by the user is selected.
  • the controller 180 may determine whether the taken photo is a roll taking.
  • the roll photographing may mean that the photographed image may be generated as a roll image.
  • the roll photographing may mean capturing a photograph having a larger photographing angle than general photographing such as surround and panorama.
  • the controller 180 may perform operation 270 in the case of the roll shooting, and may perform operation 205 in the case of non-roll shooting.
  • the controller 180 may perform a corresponding function.
  • the controller 180 may store the taken picture when the taken picture is not a roll picture. Photos may be stored in albums (eg, gallery applications).
  • the controller 180 may process the photographed picture.
  • Image processing may mean, for example, confirming the size of the photographed picture and identifying an object of the photographed picture.
  • the controller 180 may generate a roll image by using the captured photo.
  • the controller 180 may image the photographed picture to generate the roll image.
  • the controller 180 may generate the roll image based on the identified size or the identified object.
  • the roll image may be obtained by converting a photograph taken in a flat form into a three-dimensional solid form.
  • the roll image may be a rolled-up photograph of a plane and converted into a three-dimensional sphere shape or a circle.
  • the controller 180 determines whether the taken picture can be generated as a roll image and, if possible, can generate a roll image using the taken picture without a user's separate input.
  • FIG. 3 is a diagram illustrating an example of generating a roll image according to various embodiments.
  • the controller 180 may display a first user interface 310 including a roll image generation button 311 for converting an original image (eg, a plane image) and a roll image.
  • the first user interface 310 may include an original image photographing the Eiffel Tower and a roll image generation button (eg, Planet) 311 for converting the original image into a roll image.
  • the controller 180 may convert the original image into a roll image.
  • the controller 180 may display the second user interface 320 including the roll image 321 and the return button 322 to return to the original image. If the roll image generation button 311 is selected in the first user interface 310, the controller 180 may display a second user interface 320.
  • the roll image 321 converts an original image (eg, an image of the Eiffel tower) displayed on the first user interface 310 into a three-dimensional sphere.
  • the revert button 322 may be for displaying the roll image 321 as an original image. For example, when the revert button 322 is selected, the controller 180 can display the first user interface 310.
  • the second user interface 320 may further include an edit button 323 for editing the roll image 321, a save button 324 for storing the roll image 321, and a sharing button 325 for sharing the roll image 321.
  • the controller 180 can provide a user interface for editing the roll image 321.
  • the controller 180 can store the roll image 321 in the memory 150.
  • the share button 325 the controller 180 can display a list of applications associated with a message, a social networking service (SNS), and a messenger capable of sharing the role image 321.
  • the application list may be expressed in the form of an icon or text.
  • FIG. 4 is a flowchart illustrating a specific method of generating a roll image according to various embodiments.
  • the controller 180 may display an image on the display 131.
  • An image (eg, an original image) displayed on the display 131 may be an image selected by a user to change to a roll image, for example, an image in a flat form.
  • the plane image may be a concept including both a surround mode (or function) of a camera, a picture taken in a panorama mode, or a picture taken in a normal mode (eg, automatic).
  • the plane image is referred to as the "original image" to distinguish it from the roll image.
  • the description is not limited to the original image.
  • the controller 180 may detect a roll generation event.
  • the roll generation event may be a button for generating a roll image from a user or a gesture for generating a roll image is detected.
  • the role generation event may include selecting a button 311 from the first user interface 310.
  • the roll generation event may be a gesture that is preset to generate a roll image in a state where the original image is displayed.
  • the gesture may be set by the user or the electronic device 101.
  • the gesture may be a user input pinched with at least two fingers (eg, pinch, zoom-in), or a user input with two fingers away from at least two fingers in touch (eg, zoom out) zoom-out) and spread).
  • the controller 180 may check the size of the original image.
  • the size may be a concept including the width, width, and length of the image.
  • the size of the roll image generated may vary according to the width, width, and length of the original image.
  • the roll image is a rolled image of the original image and converted into a three-dimensional sphere shape.
  • the size of the roll image may be determined according to the width, width, and length of the original image.
  • the size may be set in the electronic device 101 or selected by a user.
  • the controller 180 may display a frame for setting an area on the original image.
  • the user may set a region for generating a roll image from the original image by moving the region setting frame. If there is no user selection, the controller 180 may determine the entire rolled image generation area of the original image. Alternatively, the controller 180 may determine a region where the region setting frame is located as a roll image generation region according to the user's selection.
  • the controller 180 may identify an object.
  • the controller 180 may identify an object included in the roll image generation area.
  • the object is an object (eg, a subject) to which a photograph is taken, for example, a person, an object (eg, a building, a statue), a background, or a natural environment (eg, a tree). , mountains, sea, rivers).
  • the controller 180 may select an object that is the center among the identified objects.
  • the controller 180 may select the representative object based on at least one of the priority of the object, the size of the object, the property of the object, or the property of the image. In this case, the representative object may correspond to a thumbnail of the image.
  • the controller 180 may assign a priority to an object and select an object having a high priority as a representative object.
  • the person is mainly focused on the person, and thus, the person may have a higher priority than other objects.
  • the controller 180 may select an object having a large size as the representative object.
  • the controller 180 may select the representative object in consideration of the property of the object and the property of the image.
  • the controller 180 may select an object that is sharper and clearer than other objects based on the property (eg, color, sharpness, etc.) of the object as the representative object.
  • the controller 180 determines whether the image is a portrait photo or a landscape photo based on the property of the image, selects a person as a representative object in the case of a portrait picture, and selects one of the landscapes as a representative object in the case of a landscape picture. have.
  • the controller 180 may generate a roll image.
  • the controller 180 may generate the roll image based on the identified object.
  • the controller 180 may generate the roll image by converting the original image into a 3D sphere or a circle around the identified object.
  • the roll image may be one of one or more objects included in the original image, in which a representative object is displayed to be distinguished from other objects on the border of the three-dimensional sphere or the circle.
  • the controller 180 may generate a roll image by converting an image selected by the user.
  • the selected image may be a general image, or may be an image having a longer length or a wider shooting angle than the general image.
  • the controller 180 may generate the roll image by further considering a boundary (eg, a horizon). To this end, the controller 180 may determine the boundary line based on at least one of a color difference of an image, an attribute of an image, or a size of an object (or a representative object). For example, the controller 180 may include rivers (e.g. yellow and gray) and sky (e.g. blue, white (e.g. clouds)), forests (e.g. green, brown, red (e.g. autumn leaves)) and sea (e.g. : Blue), etc., the boundary between two objects whose color difference is obvious can be determined as a boundary.
  • rivers e.g. yellow and gray
  • sky e.g. blue, white (e.g. clouds)
  • forests e.g. green, brown, red (e.g. autumn leaves)
  • sea e.g. : Blue
  • the controller 180 may determine a boundary as a boundary line by dividing the portion with and without a person based on the property of the image. Accordingly, the controller 180 may generate the roll image based on at least one of the checked size, the identified object, or the determined boundary line.
  • 5A to 5C are diagrams illustrating an example of generating a roll image based on an object according to various embodiments.
  • FIG. 5A illustrates an example of generating a roll image by using an image of an area set by a user.
  • the controller 180 may display a first user interface 510 including an original image, an area setting frame 511, and a button 512 for converting to a roll image.
  • the area setting frame 511 is used to set an area for generating a roll image as a rectangular frame.
  • the user may set an area for generating a roll image by moving the area setting frame 511. That is, the user may select a region that can be easily identified from all regions of the original image by using the region setting frame 511 to clearly identify the original image. In this way, when an area for generating a roll image is set, the size of the roll image may be determined. If the set area is large, the roll image has a large sphere. If the set area is small, the roll image has a small sphere.
  • the controller 180 may identify an object from an image included in the region setting frame 511 and generate a roll image using the identified object.
  • the controller 180 controls the roll image 521, the revert button 522 for returning to the original image, the edit button 523 for editing the roll image 521, the save button 524 for saving the roll image 521, and the share button 525 for sharing the roll image 521. It may display a second user interface 520 including a.
  • 5B illustrates an example of generating a roll image using an object.
  • the controller 180 may identify an object from an original image displayed on the first user interface 530.
  • the controller 180 may identify the sky, the Eiffel tower 532, the tree, the forest, etc. as objects in the original image.
  • the controller 180 may select the representative object based on at least one of the priority of the object, the size of the object, the property of the object, or the property of the image.
  • the controller 180 may select an object higher than the horizon as the representative object, and select the Eiffel tower 532 as the representative object from the original image of the first user interface 530.
  • the height 531 and the bottom 533 can be identified based on the Eiffel Tower 532.
  • the bottom 533 can be interpreted as a boundary line (eg a horizon).
  • the controller 180 may generate a roll image by using the Eiffel tower 532, the height 531 of the Eiffel tower, and the boundary 533.
  • the controller 180 may display a second user interface 540 including the generated roll image. When comparing the second user interface 540 and the first user interface 530, the roll image may be an image that is rolled up in a spherical shape with respect to the Eiffel Tower 532.
  • the controller 180 expresses a lower region of the original image (for example, trees, forests, and grasses) in the form of a three-dimensional sphere or a circle based on the boundary line 533, and an upper region of the original image (eg, based on the boundary line 533).
  • the sky between the Eiffel Tower 532 and the border 533) can be expressed as the outer portion of the three-dimensional sphere or circle.
  • the controller 180 may identify an object from an original image displayed on the first user interface 550. For example, the controller 180 may identify the sky, the person 551, the tree, or the grass as an object in the original image. According to various embodiments, the controller 180 may select the representative object based on at least one of the priority of the object, the size of the object, the property of the object, or the property of the image. When taking a picture, people are mainly focused on people, so people may have higher priority than other objects. The controller 180 may select a person 551 as a representative object and generate a roll image based on the person 551.
  • the controller 180 may represent a person based on a location (eg, a center, a side, etc.) where the person is located in the original image, a location between people, and a size of the person. You can select an object. For example, the controller 180 may select a person located at the center as a representative object from among a plurality of people, or select a person larger than a different size as the representative object.
  • the controller 180 may display the generated roll image as shown in the second user interface 560.
  • the roll image may be an image that is rolled up in a spherical shape based on the person 551.
  • the controller 180 arranges the person 551 in the center of the three-dimensional sphere or circle, and expresses the bottom region (for example, the tree and the grass) in the form of the three-dimensional sphere or the circle based on the person 551, and represents the person 551.
  • the controller 180 may maximize and represent a representative object when generating a roll image. For example, when the representative object is a person, the controller 180 may generate a roll image by maximizing the person. If there is no person in the original image, the controller 180 may generate a roll image by maximizing the object located at the highest point as the representative object.
  • 6A and 6B are diagrams illustrating an example of generating a roll image based on a boundary line according to various embodiments.
  • the controller 180 may identify at least one of a color, an attribute, or an object 611 of an image on the first user interface 610, and determine a boundary line 614.
  • the controller 180 may determine the boundary line 614 based on at least one of a color difference of an image, an attribute of an image, or a size of an object (or a representative object). For example, the controller 180 determines the boundary line 614 by using a portion in which the color difference between the sky 612 (eg, sky blue and blue) and the tree 613 (eg, green, brown, etc.) is clearly visible in the first user interface 610. Can be.
  • the controller 180 may generate a roll image by using the identified object 611 and the boundary line 614.
  • the controller 180 may display a second user interface 620 including the generated roll image. For example, the controller 180 places the identified object 611 at the center of the sphere, expresses the lower region 613 in the form of a sphere based on the boundary line 614, and displays the roll image representing the upper region 612 as the outer portion of the sphere, based on the boundary line 614. Can be generated.
  • the controller 180 may identify a color, a property, or an object of an image in the first user interface 630.
  • the controller 180 may identify a similar color of a predetermined thickness or more pixels extending over the entire horizontal screen in the first user interface 630.
  • similar colors may be sky 631 (eg, light blue, blue) and river (632, eg yellow, gray).
  • the controller 180 may identify a color difference between the sky 631 and the river 632.
  • the controller 180 may not identify the representative object in the first user interface 630.
  • the controller 180 may generate a roll image based on the color difference of the image.
  • the controller 180 may display a second user interface 640 including the generated roll image.
  • the controller 180 may express the river 632 in the form of a sphere, and generate a roll image representing the sky 631 as the outer portion of the sphere.
  • the controller 180 may express a tree disposed at a boundary portion between the river 632 and the sky 631 as a frame surrounding the sphere.
  • FIGS. 7A to 7D are diagrams illustrating an example of generating a roll image based on a photographing angle according to various embodiments.
  • the original image 711 may be taken, for example, in panorama or surround.
  • the controller 180 may identify the photographing angle based on the attributes of the original image 711. For example, when taking a picture in a panorama or surround, the controller 180 may measure a photographing angle using a gyro sensor and an acceleration sensor. The measured photographing angle may be stored with the image as attributes or metadata of the original image 711.
  • the controller 180 may predict the photographing angle based on the length of the original image 711. For example, the controller 180 may predict that a photographing angle is larger as an absolute length of the original image 711, for example, a difference in horizontal / vertical pixel ratio is larger.
  • the controller 180 may generate a roll image of a sphere 712 based on the original image 711.
  • the controller 180 may determine the spherical shape based on the length or angle of the original image 711 so that the user can easily identify the photographing angle only by the shape of the roll image. That is, when converting the roll image into a sphere shape, the controller 180 may generate a roll image of a complete sphere shape with respect to an image photographed at a 360 degree angle.
  • the controller 180 may generate a roll image having a perfect sphere shape.
  • the controller 180 may generate a roll image that is omitted by a predetermined angle (for example, pie slice) from the sphere with respect to the image photographed at less than 360 degrees.
  • the controller 180 may generate a roll image of a sphere shape 713 in which an area of about 90 degrees (eg, a quarter portion of the sphere) is omitted from the sphere for the original image 711 photographed at 270 degrees.
  • the controller 180 may generate a roll image omitted by a predetermined area (for example, pie slice) in the sphere.
  • the controller 180 may generate a roll image of a spherical shape 722 based on the original image 721. Alternatively, the controller 180 may determine the spherical shape based on the photographing angle or the length of the original image 721. For example, the controller 180 may generate a roll image of a sphere shape 713 in which an area of about 180 degrees (eg, a half of a sphere) is omitted from the sphere for the original image 721 having a photographing angle of 180 degrees. In this case, the user can easily identify that the photographing angle is 180 degrees only in the form of the roll image.
  • the controller 180 may generate a roll image of a spherical shape 732 based on the original image 731.
  • the controller 180 may determine a spherical shape based on the photographing angle or the length of the original image 731.
  • the controller 180 may generate a roll image of a sphere shape 734 in which an area of about 240 degrees (eg, 1/3 of a sphere) is omitted from the sphere with respect to the original image 731 having a photographing angle of 120 degrees.
  • the controller 180 may generate a roll image of a spherical shape 742 based on the original image 741.
  • the controller 180 may determine the spherical shape based on the photographing angle or the length of the original image 741.
  • the controller 180 may generate a roll image of a sphere shape 743 in which an area of about 270 degrees (for example, three quarters of a sphere) is omitted from the sphere for the original image 741 having a photographing angle of 90 degrees.
  • the controller 180 may relatively express the roll image based on the length or angle of the image. That is, the controller 180 may express data on a physical space (eg, an angle and a length) of the original image by infographic.
  • FIG. 8 is a flowchart illustrating a roll image editing method of an electronic device according to various embodiments of the present disclosure.
  • the controller 180 may display a roll image.
  • the roll image may be a rolled image of a plane and expressed in the form of a three-dimensional sphere.
  • the controller 180 may display the roll image in a user interface for editing the roll image.
  • the controller 180 may select the edit button 523 from the user interface 320 displaying a roll image, and display the roll image on the roll image edit screen.
  • the controller 180 may detect a first user input.
  • the first user input may be a touch on the roll image.
  • the controller 180 may identify a location of the first user input.
  • the roll image may be composed of an object (eg, a person, a building, etc.), a sphere, and a background (eg, an outside portion of the sphere).
  • the controller 180 may determine whether the first user input is detected in an object, a sphere, or a background in the roll image.
  • the controller 180 When the location of the first user input is an object, the controller 180 performs operation 821. When the location of the first user input is a sphere, the controller 180 performs operation 831. When the location of the first user input is a background. The controller 180 may perform operation 841.
  • the controller 180 may change the size of the object based on the first user input. For example, a user may want to have a large representation of an object to facilitate identification of a roll image. In this case, the user may select (or touch) an object whose size is to be changed and move the touch (eg, drag) while the object is selected. That is, the user may move the touch without releasing the touch while touching the object. The controller 180 may change the size of the object based on the first user input for the touch-and-move.
  • the controller 180 may adjust the size of the sphere based on the size of the changed object. Since the overall size of the roll image is determined, when the size of the object is changed in the roll image, the size of the sphere may be determined according to the size of the object to be changed.
  • the controller 180 may change the size of the object and the size of the sphere in inverse proportion. For example, when the size of the object increases, the controller 180 may adjust the size of the sphere to be smaller, and when the size of the object becomes smaller, to adjust the size of the sphere.
  • the controller 180 may temporarily store the changed part in the roll image.
  • the controller 180 may change the size of the sphere based on the first user input.
  • the user may select (or touch) the edge of the sphere and move (eg, drag) the touch in the selected state. That is, the user may move the touch without releasing the touch while touching the object. In this way, the controller 180 may change the size of the sphere based on the first user input for the movement after the touch.
  • the controller 180 may adjust the size of the object based on the size of the changed sphere.
  • the controller 180 may adjust the size of the object according to the size of the changed sphere. For example, the controller 180 may adjust the size of the object to be smaller when the size of the sphere is increased, and adjust the size of the object to be larger when the size of the sphere is smaller.
  • the controller 180 may temporarily store the changed part in the roll image.
  • the controller 180 may adjust the size of the object and the sphere based on the first user input.
  • the controller 180 may temporarily store the changed part in the roll image.
  • the controller 180 may temporarily store the edited roll image according to the first user input. For example, when the first user input is completed (eg, touch release), the controller 180 may temporarily store the edited roll image based on the first user input. Alternatively, the controller 180 may temporarily store a roll image edited based on the first user input even if the first user input is not completed.
  • the first user input is completed (eg, touch release)
  • the controller 180 may temporarily store a roll image edited based on the first user input even if the first user input is not completed.
  • the controller 180 may determine whether a second user input is detected.
  • the second user input may be distinguished from the first user input detected in operation 803.
  • the second user input may be detected after the first user input is completed.
  • the second user input may be a new input detected when the first user input is not completed.
  • the user may touch another object or sphere with the other hand (or finger) while moving the touch while touching the object or sphere with one hand (or finger).
  • the controller 180 may return to operation 805 to confirm the location of the second user input.
  • the controller 180 may perform at least one of operations 821, 823, operations 831, 833, or operations 841 described above based on the second user input.
  • the controller 180 may perform operation 811 to determine whether editing is completed.
  • the controller 180 may determine whether editing is completed. For example, the controller 180 may determine that editing is completed when the first user input is completed. Alternatively, the controller 180 may determine that the editing is completed when the edit completion button, the save button, or the share button is selected after the first user input is completed.
  • the controller 180 can perform operation 813.
  • the controller 180 may store the temporarily stored roll image as an edited roll image in operation 807. For example, if a predetermined time elapses after the first user input, the controller 180 determines that the editing is completed and may store the edited roll image in the memory 150. The controller 180 may store the edited roll image instead of the roll image displayed in operation 801.
  • the controller 180 may end. For example, when the first user input is not completed, when the end button is selected while the user input is not completed or when no input is detected after the first user input is completed, the controller 180 ends. can do. In this case, the controller 180 may not change the roll image displayed in operation 801.
  • 9A to 9D are diagrams illustrating an example of editing a roll image according to various embodiments.
  • the controller 180 may display a first user interface 910 for editing a roll image 911.
  • the role image 911 may include an object 912, a sphere 913, and a background 914.
  • the controller 180 may detect a user input for releasing the touch after moving the touch out of the screen while the user touches the object 912 in the first user interface 910.
  • the first user interface 910 may include a return button 915, a cancel button 916, edit control buttons 917 and 918, and a finish button 919 for returning to the original image.
  • the controller 180 can display a planar image (eg, the first user interface 310 of FIG. 3).
  • the cancel button 916 is selected, the controller 180 can display the generated roll image display screen (eg, the second user interface 320 of FIG. 3).
  • the first user interface 910 is a screen for editing a roll image, and edit control buttons 917 and 918 required for editing may be displayed.
  • the first edit control button 917 may be a cut button
  • the second edit control button 918 may be a color adjustment button.
  • the finish button 919 may be for reflecting and storing the user input until the finish button 919 is selected in the roll image.
  • the controller 180 may display the second user interface 920 including the edited roll image 921 based on a user input of selecting the object 922.
  • the edited roll image 921 may be a change in the size of the object 922 and the size of the sphere 923 in the roll image 911 of the first user interface 910.
  • the edited roll image 921 may change the size of the object 922 to be large based on user input that changes the size of the object 922 to a large size, and as the size of the object 922 increases, the sphere 923 may become smaller. have.
  • the controller 180 may adjust the position of the object 922 such that the object 922 is disposed at the center of the roll image 921.
  • the second user interface 920 may also include a revert button 925, a cancel button 926, edit control buttons 927 and 928, and a finish button 929.
  • the controller 180 can display a planar image (eg, the first user interface 310 of FIG. 3).
  • the cancel button 926 is selected, the controller 180 may display a screen before the roll image is edited, for example, the first user interface 910.
  • the finish button 929 is selected, the controller 180 can store the edited roll image 921 in the memory 150 (eg, a photo album, a gallery, etc.).
  • the controller 180 may display a first user interface 930 for editing the roll image 931.
  • the role image 931 may include an object 932, a sphere 933.
  • the controller 180 may detect a user input 934 for releasing the touch after moving the touch outward of the sphere while the user touches the edge of the sphere 933 in the first user interface 930.
  • the controller 180 may highlight (eg, highlight) the edge of the sphere 933 and display it.
  • the first user interface 930 may include a revert button 935, a cancel button 936, edit control buttons 937 and 938, and a finish button 939 to return to the original image.
  • the controller 180 can display a planar image (eg, the first user interface 310 of FIG. 3).
  • the cancel button 936 is selected, the controller 180 can display the generated roll image display screen (eg, the second user interface 320 of FIG. 3).
  • the first user interface 930 is a screen for editing a roll image, and edit control buttons 927 and 928 necessary for editing may be displayed.
  • the finish button 939 may be used to reflect and store a user input until the finish button 939 is selected in the roll image.
  • the controller 180 may display a second user interface 940 including an edited roll image 941 based on a user input of selecting an object 942.
  • the edited roll image 941 may be a change in the size of the object 942 and the size of the old 943 in the roll image 941 of the first user interface 940.
  • an edited roll image 941 may change the size of the sphere 943 significantly based on user input that greatly changes the size of the sphere 943.
  • the controller 180 may adjust the position of the object 942 such that the object 942 is disposed at the center of the roll image 941.
  • the second user interface 940 may also include a revert button 945, a cancel button 946, edit control buttons 947 and 948, and a finish button 949.
  • the controller 180 can display a plane image (eg, the first user interface 310 of FIG. 3).
  • the cancel button 946 is selected, the controller 180 may display a screen before the roll image is edited, for example, the first user interface 930.
  • the finish button 949 is selected, the controller 180 can store the edited roll image 941 in a memory 150 (eg, a photo album, a gallery, etc.).
  • FIG. 9C shows another example of editing a roll image as the size of a sphere changes.
  • the controller 180 may display a third user interface 950 in which the position of the object 952 is reversed.
  • the controller 180 may edit the roll image to move the position of the object 952. That is, although the edited roll image 951 has the same size as the edited roll image 941 and the old 943 of the second user interface 940, the position of the object 952 may be located below.
  • the edited roll image 951 may be larger in size than the size of the sphere 943 of the second user interface 940 and the position of the object 952 is located below.
  • the third user interface 950 may include a revert button 954, a cancel button 955, edit control buttons 956 and 957, and a finish button 958.
  • the controller 180 can display a planar image (eg, the first user interface 310 of FIG. 3).
  • the cancel button 955 is selected, the controller 180 can display a screen before the roll image is edited, for example, a first user interface 930 or a second user interface 940.
  • the finish button 958 is selected, the controller 180 can store the edited roll image 951 in a memory 150 (eg, a photo album, a gallery, etc.).
  • FIG. 9D shows another example of editing a roll image as the size of a sphere changes.
  • the controller 180 may display the third user interface 960 in which the position of the object 962 and the inner and outer regions of the sphere 963 are reversed. have.
  • the controller 180 may edit the roll image to move the position of the object 962.
  • the object 962 may be disposed inside the sphere, and the inner region (eg, sky) and the outer region (eg, grass) of the sphere 963 may be inverted. That is, if the inner area of the sphere 941 is grass in the second user interface 940 before the sphere is changed in size, and the outer area of the sphere 941 is the sky, the inner region of the sphere 963 in the third user interface 960 after the sphere is enlarged. It is sky, and the outer area of the sphere 963 can be changed to grass.
  • the inner area of the sphere 941 is grass in the second user interface 940 before the sphere is changed in size
  • the outer area of the sphere 941 is the sky
  • the inner region of the sphere 963 in the third user interface 960 after the sphere is enlarged. It is sky, and the outer area of the sphere 963 can be changed to grass.
  • the third user interface 960 may include a revert button 964, a cancel button 965, edit control buttons 966 and 967, and a finish button 968.
  • the controller 180 can display a planar image (eg, the first user interface 310 of FIG. 3).
  • the cancel button 965 is selected, the controller 180 can display a screen before the roll image is edited, for example, a first user interface 930 or a second user interface 940.
  • the finish button 968 the controller 180 can store the edited roll image 961 in a memory 150 (eg, a photo album, a gallery, etc.).
  • FIG. 10 is a flowchart illustrating a method of providing a roll image of an electronic device according to various embodiments of the present disclosure.
  • the controller 180 may display an image list including a plurality of images on the display 131.
  • the image list may include at least one of a normal image, an image longer than the normal image (eg, a panoramic image), or a roll image.
  • the controller 180 may detect a roll image display event.
  • the roll image display event may be an event for displaying only a roll image in the image list. Alternatively, this may be an event for converting and displaying all the images included in the image list into a roll image.
  • the roll image display event may vary according to a user's setting or the setting of the electronic device 100.
  • the controller 180 may search for a roll image.
  • the roll image display event is an event for displaying a roll image that has already been generated
  • the controller 180 may search for the roll image in the memory 150 (eg, a photo album or a gallery).
  • the controller 180 may display the retrieved roll image.
  • the image list displayed in operation 1001 and the image list displayed after performing operation 1007 may be different.
  • the image list displayed in operation 1001 may display only a general image.
  • the image list displayed after performing operation 1007 may display only a roll image.
  • 11A and 11B illustrate an example of providing a roll image according to various embodiments.
  • the controller 180 may provide a first user interface 1110 displaying an image list including a plurality of images.
  • the image 1 1101 included in the image list may be a general image.
  • the general image may be an image that is generally photographed or generated according to the basic setting of the electronic device 100.
  • the images included in the image list may include not only a general image but also at least one of a long image (eg, a panoramic image) or a roll image.
  • the controller 180 may determine that a roll image display event is detected.
  • the controller 180 may provide a second user interface 1120 displaying an image list including only the roll image. Thus, the user can check all roll images at a glance.
  • the controller 180 may determine that an original image display event is detected. If it is determined that the original image display event is detected, the controller 180 may display the first user interface 1110. Alternatively, when the user selects any one roll image 1121 in the second user interface 1120, the controller 180 may display a third user interface 1130 on which only the selected roll image 1121 is displayed on the display 131.
  • the controller 180 may display a third user interface 1130 including a roll image 1132 selected from the second user interface 1120.
  • the third user interface 1130 may include a revert button 1131 for returning to the original image, an edit button 1133 for editing the roll image 1132, a button 1134 for saving the roll image 1132, and a button 1135 for sharing the roll image 1132 have.
  • the controller 180 may edit the roll image based on a user input in the third user interface 1130, and provide a fourth user interface 1140 including the edited roll image 1142.
  • the fourth user interface 1140 may display a roll image 1142 obtained by editing the roll image 1132 displayed on the third user interface 1130. That is, even if the edit button 1133 is not selected by the user in the third user interface 1130, if the user input is detected on the roll image 1132, the controller 180 may edit the roll image based on the detected user input.
  • the edited roll image 1142 may have a larger size of an object (eg, the Eiffel Tower) and a smaller sphere size than the original roll image 1132.
  • the controller 180 may display a user interface (eg, 310 of FIG. 3) including the original image of the edited roll image 1142.
  • the controller 180 can provide a user interface for editing the roll image 1142.
  • the save button 1144 is selected, the controller 180 can store the roll image 1142 in the memory 150.
  • the share button 1145 is selected, the controller 180 can display a list of applications (eg, a message, a messenger, a social network service) that can share the role image 1142 in a popup form.
  • FIG. 12 is a diagram illustrating an example of an electronic device according to various embodiments of the present disclosure.
  • the electronic device 1210 may be configured as a bent display.
  • the central portion 1230 may be folded.
  • the electronic device 1220 may be configured as a bent display in which a central portion 1230 is folded, and may include two camera modules 1241 and 1242 on a rear surface (for example, a rear surface).
  • the electronic device 1220 may include the first camera module 1241 on the upper side of the rear side and the second camera module 1242 on the lower side of the rear side.
  • the electronic devices 1210 and 1220 may be implemented in a form in which a picture is easily taken at a wide angle.
  • the electronic device 1210 or 1220 folds a central portion 1230 and takes a picture using two camera modules 1241 and 1242, the electronic device 1210 or 1220 may take a panorama image (or surround image) that is easy to generate a roll image. .
  • FIG. 13 is a diagram illustrating an example of displaying content according to various embodiments of the present disclosure.
  • the controller 180 may divide one image into a plurality of regions and display a first user interface 1310 expressing weather in each of the divided regions.
  • the first user interface 1310 divides one image into eight regions (eg, 1311, 1312, 1313, 1314, 1315, and 1316) according to the passage of time (eg, right direction).
  • the region may be expressed as a color (or shape) of the weather.
  • each area is vertically divided when the electronic device 100 is placed in a landscape mode.
  • each area may be a visualization of a day's weather.
  • zones 1311 and 1312 represent the weather from 0 am to 3 am (eg, zone 1311) and from 3 am to 6 am (eg zone 1312), where the weather may be the same or similar. have. If the weather is the same or similar, the areas 1311 and 1312 may be expressed in the same or similar colors.
  • the areas 1313 and 1314 represent the weather from 6 am to 12 noon, and the weather may be the same or similar.
  • the region 1315 represents the weather from 12 noon to 6 pm during the day, and the weather may be the same or similar.
  • Region 1316 represents the weather from 6 pm to 12 pm, the weather may be the same or similar.
  • the controller 180 may display a second user interface 1320 including a roll image obtained by rolling an image displayed on the first user interface 1310 into a three-dimensional sphere.
  • the eight areas 1311, 1312, 1313, 1314, 1315, and 1316 displayed on the second user interface 1320 represent eight areas displayed on the first user interface 1310.
  • the weather representation portion of the original image of the first user interface 1310 is processed as a background
  • the weather representation portion of the roll image of the second user interface 1320 represents an outer portion of the sphere.
  • the second user interface 1320 may further include a revert button for returning to the original image, an edit button for editing the roll image, a save button for saving the roll image, and a share button for sharing the roll image. have.
  • the controller 180 may divide one image into a plurality of regions and display a third user interface 1330 expressing weather in each of the divided regions.
  • each area may include seven areas (eg, 1331, 1332, 1333, 1334, etc.) from 9 o'clock to 12 o'clock in the clockwise direction when the electronic device 100 is placed in the portrait mode. 1335, 1336, and 1337).
  • the controller 180 may express the weather of the day in each divided area as a color (or shape), text, or icon.
  • the first area 1331 represents the weather for today (for example, Tuesday), the color is gray, the text is 2 ° (for example, morning temperature) / 9 ° (for example, day temperature), and the icon looks like a cloud. It can be represented as
  • the second area 1332 represents the weather of Wednesday, and the color may be transparent (or white), the text may be 3 ° / 9 °, and the icon may be represented by a sun shape.
  • the third area 1333 represents the weather of Thursday, and the color may be opaque (or polka dot), the text may be 6 ° / 12 °, and the icon may be represented by a cloud and a hatched shape.
  • the fourth area 1334 represents the weather on Friday, the color may be gray, the text may be 2 ° / 9 °, and the icon may be displayed in a cloud shape.
  • the fifth region 1335 represents the weather of Saturday, and the color may be transparent (or white), the text may be 7 ° / 11 °, and the icon may be represented by a sun shape.
  • the sixth area 1336 represents the weather of Sunday, and the color may be gray, the text may be 3 ° / 8 °, and the icon may be cloud shaped.
  • the seventh area 1337 represents the weather of Monday, the color may be opaque (or polka dot), the text may be 5 ° / 9 °, and the icon may be represented by a cloud and a hatched shape.
  • FIG. 14 is a flowchart illustrating a text-based roll image generation method according to various embodiments.
  • the controller 180 may display content.
  • the content may include text, images, and multimedia data (eg, text and images).
  • the controller 180 may detect a roll generation event.
  • the role generation event may be for displaying the content displayed in operation 1401 as a role image.
  • the roll generation event may be a button for generating a roll image from a user or a gesture for generating a roll image may be detected.
  • the controller 180 may determine the type of content.
  • the type of the content indicates the type of the content and may indicate whether the content is text, an image, or includes text and an image.
  • the controller 180 may perform operation 1417 when the type of the content is an image and perform operation 1407 when the type of the content is a text.
  • the controller 180 may generate a roll image of the displayed content based on the image.
  • the method of generating a roll image based on the image may mean the method of generating a roll image described with reference to FIG. 4.
  • the controller 180 may perform operations 405 to 411 of FIG. 4.
  • the controller 180 may check the size of the content (eg, an image), identify an object, determine a boundary line, and generate a roll image using the size, object, or boundary line.
  • operations 1407 to 1415 illustrate a method of generating a roll image based on text.
  • the controller 180 may check metadata of the content.
  • the metadata is about an attribute (eg, tag information) of the content and may be, for example, a capacity of data, a number of data, a kind of data, and the like.
  • the controller 180 may shorten the useful statistics in a circle form based on the metadata of the content.
  • the controller 180 may identify text to be displayed when generating the roll image based on the metadata. For example, the controller 180 generates a roll image in the form of a sphere, and may display text inside the sphere or inside the sphere. The controller 180 may calculate a statistical value of the content based on the metadata or identify a text to be displayed from the content.
  • the controller 180 may determine a sphere shape when generating a roll image. Unlike image-based roll image generation, when a roll image is generated based on text, text is displayed on the edge of a sphere, and the shape of the sphere may vary depending on the number or length of identified texts. For example, a sphere may be located inside a star shape, such that a sphere outside the edge of the sphere protrudes like a protrusion. Alternatively, the sphere may be located inside the triangle, and the sphere may have a spherical shape that protrudes like a protrusion. The sphere is located inside the flame shape, so that the outside of the sphere's border may have a spherical shape. In other words, the number or shape of the outer portion of the sphere protruding like a projection may be different.
  • the controller 180 may place the identified text outside the determined sphere shape. For example, the controller 180 may arrange the identified text in a portion protruding like a protrusion from the determined sphere shape.
  • the controller 180 may generate a roll image.
  • the controller 180 may generate a roll image in which the identified text is disposed outside the sphere shape and displays text about one content inside the sphere shape.
  • 15A and 15B are diagrams illustrating an example of generating a roll image based on text according to various embodiments.
  • the first user interface 1510 may include various information related to the health of the user for one day (eg, 24 days).
  • the first user interface 1510 may include current steps (e.g. 6048 steps) and target steps (e.g. 5000 steps) 1511, current calories burned (e.g. 245 kcal) and target calories burned (679 kcal) 1512, Cycling 1513, heart rate 1514 may be included.
  • the controller 180 may detect the gesture 1515 in the first user interface 1510.
  • the gesture 1515 may be a user input pinched by two fingers (eg, pinch or zoom-in).
  • the gesture 1515 may be a user input (eg, zoom-out or spread) in which two fingers are away from each other while at least two fingers are touched.
  • the controller 180 may generate a roll image based on text included in the first user interface 1510.
  • the controller 180 may display a second user interface 1520 including a roll image 1521 generated based on text included in the first user interface 1510.
  • the second user interface 1520 displays health information about the user (e.g. Dave) inside the sphere (e.g., statistics (average 7003 steps, average 260kal)) and displays 1522 (e.g. 24 days) during the day outside the sphere.
  • the momentum 1523 can be displayed. Depending on the amount of momentum 1523, the protruding parts of the spherical shape may be different. That is, the exercise amount 1523 is a graph of the health information of the user for one day, and the user can grasp his or her health state using only the roll image 1521. That is, the controller 180 may provide the first user interface 1510 or the second user interface 1520 to the health application according to the user's selection.
  • the first user interface 1530 may include a music list. For example, information about eight music files including song 1 1531 and song 2 1532 may be displayed on the first user interface 1530.
  • the controller 180 may detect the gesture 1533 in the first user interface 1530.
  • the gesture 1533 may be a user input (eg, pinch or zoom in) that pinches with two fingers.
  • the gesture 1533 may be a user input (eg, zoom out or spread) in which two fingers are separated while at least two fingers are touched.
  • the controller 180 may generate a roll image based on text included in the first user interface 1530.
  • the controller 180 may generate a roll image based on text (eg, eight music files) included in the first user interface 1530, or may include full text (eg, a whole music file) included in a music application. You can create a roll image based on.
  • the controller 180 may display a second user interface 1540 including a roll image 1541 generated based on text included in the first user interface 1530.
  • the second user interface 1540 displays music statistics for the user (e.g. Dave) inside the phrase (e.g., average 12 songs per day, most listened to: Go Out / Blur) and texts the genre of music outside the phrase. (E.g. ROCK 1542, POP 1543, JAZZ 1544, DANCE 1545, R & B 1546).
  • the controller 180 may express the shape of the portion protruding like a protrusion to the outside of the sphere using metadata of the music list.
  • the controller 180 may express the protrusion shape of the music genre (eg, ROCK 1542) that is included the most, to protrude more than other music genres.
  • the sphere shape is a graph of the genre of the music file, and the user can grasp the statistics of the music list or his music style using only the roll image 1541. That is, the controller 180 may provide the first user interface 1530 or the second user interface 1540 for the music application according to the user's selection.
  • a method of displaying a content of an electronic device includes displaying an original image on a display, detecting a roll generation event, identifying an object from the original image according to the roll generation event, and identifying the identified image.
  • the method may include converting the original image into a roll image using an object.
  • the content display method may include displaying an area setting frame on the displayed image according to the roll generation event, determining a roll image generation area by moving a position of the area setting frame according to a user's selection, and the roll.
  • the method may further include identifying an object included in the image generation area.
  • the content display method may further include an operation of determining a boundary line using the identified object, and the converting operation may include converting the original image into a roll image using the object or the boundary line. .
  • the content display method may further include determining a size of the roll image based on at least one of the size of the original image, the object, and the boundary line.
  • the converting into the role image may include selecting a representative object based on at least one of a priority of the object, a size of the object, an attribute of the object, and an attribute of the original image; And generating the roll image based on the representative object.
  • the converting into the roll image may include determining the boundary line based on at least one of a color difference of the original image, an attribute of the original image, or the size of the object, and a lower region based on the boundary line. Expressing in the form of a dimensional sphere or a circle, expressing an upper region as the outer portion of the three-dimensional sphere or the circle based on the boundary line, and placing the identified object at the center of the three-dimensional sphere or the circle; Generating a roll image.
  • the content display method may include determining a type of an image acquired through a camera module; And determining whether to generate a roll image based on the type of the image.
  • the object may include at least one of a subject, a person, an object, a background, or a natural environment, and the roll image may be displayed in a three-dimensional sphere or a circle around the identified object.
  • the content displaying method may further include displaying the roll image on the display; Detecting user input; And changing the size of an object or sphere included in the roll image based on the user input.
  • the changing may include adjusting the size of the sphere when the size of the object is changed based on the user input, and adjusting the size of the object when the size of the sphere is changed based on the user input. It may include.
  • the content display method may further include searching for a roll image among images stored in the memory when the roll image display event is detected, and displaying an image list including the found roll image.
  • the content display method may further include checking metadata of content displayed on the display, and generating a roll image by determining text and sphere shapes to be displayed based on the metadata.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예는 디스플레이, 메모리, 및 상기 디스플레이와 상기 메모리와 기능적으로 연결된 제어부를 포함하고, 상기 제어부는, 상기 디스플레이에 원본 이미지를 표시하고, 롤 생성 이벤트를 검출하고, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하고, 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하여 상기 메모리에 저장하도록 설정된 방법 및 장치를 제공한다. 또한, 다른 실시예도 가능하다.

Description

컨텐츠 표시 방법 및 이를 구현한 전자 장치
다양한 실시예는 컨텐츠 표시 방법 및 이를 구현한 전자 장치에 관한 것이다.
디지털 기술의 발달과 함께 이동통신 단말기, PDA(Personal Digital Assistant), 전자수첩, 스마트 폰, 태블릿 PC(Personal Computer), 웨어러블 디바이스(Wearable Device) 등과 같이 이동하면서 통신 및 개인정보 처리가 가능한 전자 장치들이 다양하게 출시되고 있다. 이러한, 전자 장치는 크기가 다양해지고 성능이 향상됨에 따라 다양한 종류와 크기의 컨텐츠를 다양한 방식으로 표시할 수 있다. 예를 들면, 전자 장치는 한번에 모두 표시되지 않는 컨텐츠의 경우 컨텐츠의 일부 영역을 표시하고 있다. 또는, 전자 장치는 컨텐츠의 크기에 기반하여 한번에 표시할 컨텐츠의 개수를 설정하고, 설정된 개수의 컨텐츠를 표시하고 있다.
전자 장치의 표시 영역보다 큰 크기를 가지는 컨텐츠의 생성이 많아지고 있는데, 종래에는 상기와 같은 컨텐츠를 표시할 때 컨텐츠의 일부 영역만을 표시하고 있다. 예를 들면, 와이드 비율을 가지는 파노라마 이미지를 복수개 포함하는 이미지 리스트를 제공하는 경우, 전자 장치는 파노라마 이미지의 일부 영역만을 표시하고 있다. 이 경우, 사용자는 파노라마 이미지의 전체 영역을 보지 못하고 일부 영역만 확인함으로써, 파노라마 이미지가 무엇인지 식별하기 어려울 수 있다. 또는, 전자 장치는 이미지 리스트에서 파노라마 이미지의 전체 영역을 표시하는 경우, 파노라마 이미지의 길이가 일반 이미지의 길이보다 길기 때문에 일반 이미지를 표시하는 개수보다 적은 개수의 파노라마 이미지를 표시하고 있다. 이 경우, 사용자는 한번에 확인할 수 있는 파노라마 이미지의 개수가 적기 때문에 원하는 파노라마 이미지를 찾기 위해 여러 번 스크롤 해야 하는 불편함이 있다.
다양한 실시예들은 사용자의 요청에 응답하여 이미지를 구 형태의 롤 이미지로 변환하여 표시하기 위한 방법 및 장치를 제공할 수 있다.
다양한 실시예들은 컨텐츠의 메타데이터를 기반으로 구 형태의 롤 이미지로 변환하여 표시할 수 있는 방법 및 장치를 제공할 수 있다.
다양한 실시예들에 따른 전자 장치는 디스플레이, 메모리, 및 상기 디스플레이와 상기 메모리와 기능적으로 연결된 제어부를 포함하고, 상기 제어부는, 상기 디스플레이에 원본 이미지를 표시하고, 롤 생성 이벤트를 검출하고, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하고, 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하여 상기 메모리에 저장하도록 설정될 수 있다.
다양한 실시예들에 따른 전자 장치의 컨텐츠 표시 방법은 디스플레이에 원본 이미지를 표시하는 동작, 롤 생성 이벤트를 검출하는 동작, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하는 동작, 및 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 컴퓨터 판독 가능한 기록매체는 디스플레이에 원본 이미지를 표시하는 동작, 롤 생성 이벤트를 검출하는 동작, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하는 동작, 및 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하는 동작을 실행하기 위한 프로그램을 포함할 수 있다.
다양한 실시예들에 따르면, 일반 이미지보다 넓은 비율의 이미지를 구 형태의 롤 이미지로 변환함으로써 한번에 많은 수의 이미지를 표시할 수 있다.
다양한 실시예들은 컨텐츠의 메타데이터를 기반으로 구 형태의 롤 이미지로 변환하여 표시함으로써, 정보 표시 방식을 좀 더 다양화할 수 있다.
다양한 실시예들은 컨텐츠의 속성을 기반으로 다양하게 롤 이미지를 생성함으로써, 새로운 이미지 처리 방식을 제안할 수 있다.
다양한 실시예들은 사용자의 추가적인 입력 없이도 이미지의 전체 영역을 구 형태로 표시함으로써, 사용자의 이미지 식별이 용이할 수 있다.
도 1은 다양한 실시예들에 따른 전자 장치의 구성을 도시한 블록도이다.
도 2는 다양한 실시예들에 따른 전자 장치의 롤 이미지 생성 방법을 도시한 흐름도이다.
도 3은 다양한 실시예들에 따른 롤 이미지를 생성하는 일례를 도시한 도면이다.
도 4는 다양한 실시예들에 따른 롤 이미지를 생성하는 구체적인 방법을 도시한 흐름도이다.
도 5a 내지 도 5c는 다양한 실시예들에 따른 객체에 기반하여 롤 이미지를 생성하는 일례를 도시한 도면들이다.
도 6a 및 도 6b는 다양한 실시예들에 따른 경계선에 기반하여 롤 이미지를 생성하는 일례를 도시한 도면들이다.
도 7a 내지 도 7d는 다양한 실시예들에 따른 촬영 각도에 기반하여 롤 이미지를 생성하는 일례를 도시한 도면들이다.
도 8은 다양한 실시예들에 따른 전자 장치의 롤 이미지 편집 방법을 도시한 흐름도이다.
도 9a 내지 도 9d는 다양한 실시예들에 따른 롤 이미지를 편집하는 일례를 도시한 도면들이다.
도 10은 다양한 실시예들에 따른 전자 장치의 롤 이미지 제공 방법을 도시한 흐름도이다.
도 11a 및 도 11b는 다양한 실시예들에 따른 롤 이미지를 제공하는 일례를 도시한 도면이다.
도 12는 다양한 실시예들에 따른 전자 장치의 일례를 도시한 도면이다.
도 13은 다양한 실시예들에 따른 컨텐츠를 표시하는 일례를 도시한 도면이다.
도 14는 다양한 실시예들에 따른 텍스트 기반의 롤 이미지 생성 방법을 도시한 흐름도이다.
도 15a 및 도 15b는 다양한 실시예들에 따른 텍스트를 기반으로 롤 이미지를 생성하는 일례를 도시한 도면들이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 그리고 본 발명에 개시된 실시 예는 개시된 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 발명의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.
본 발명의 실시 예에서 전자 장치는 본 발명의 다양한 실시 예들에 따른 기능(예: 롤 이미지를 생성하는 기능)을 지원하는 모든 정보통신기기, 멀티미디어기기, 웨어러블 디바이스(Wearable Device) 및 그에 대한 응용기기와 같이 AP(Application Processor)), CP(Communication Processor), GPU(Graphic Processing Unit), 및 CPU(Central Processing Unit) 등의 다양한 프로세서 중 하나 또는 그 이상을 사용하는 모든 장치를 포함할 수 있다.
본 발명의 실시 예에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 스마트 안경, 머리 착용형 장치(HMD, head-mounted-device) 등), 또는 스마트 와치(smart watch)) 중 적어도 하나를 포함할 수 있다.
또한 본 발명의 실시 예에서 전자 장치는 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 냉장고, 에어컨, 청소기, 세탁기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 또는 전자 액자 중 적어도 하나를 포함할 수 있다. 또한 본 발명의 실시 예에서 전자 장치는 네비게이션(navigation) 장치, 또는 사물 인터넷 장치(internet of things) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예들에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 발명의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
또한 본 발명의 실시 예에서 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. 본 발명의 실시 예에서 모듈 또는 프로그램 모듈은 본 발명의 다양한 구성 요소들 중 적어도 하나를 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성 요소를 더 포함할 수 있다. 다양한 실시 예들에 따른 모듈, 프로그램 모듈 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이하에서, 첨부 도면을 참조하여 본 발명의 실시 예에 따른 컨텐츠 표시 방법 및 장치에 대하여 살펴보기로 한다. 하지만, 본 발명의 다양한 실시 예들이 하기에서 기술하는 내용에 의해 제한되거나 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다. 이하에서 설명되는 본 발명의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 발명의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 발명의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.
도 1은 다양한 실시예들에 따른 전자 장치의 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명의 다양한 실시 예들에 따른 전자 장치 100은 무선 통신부 110, 사용자 입력부 120, 터치스크린(Touch screen) 130, 오디오 처리부 140, 메모리 150, 인터페이스부 160, 카메라 모듈 170, 제어부 180, 그리고 전원 공급부 190을 포함할 수 있다. 본 발명의 다양한 실시 예들에서 전자 장치 100은 도 1에 도시된 구성들이 필수적인 것은 아니어서, 도 1에 도시된 구성들보다 많은 구성들을 가지거나, 또는 그보다 적은 구성들을 가지는 것으로 구현될 수 있다.
무선 통신부 110은 전자 장치 100과 다른 외부 전자 장치 사이의 무선 통신을 가능하게 하는 하나 또는 그 이상의 모듈들을 포함할 수 있다. 다양한 실시 예들에서, 무선 통신부 110은 주변의 외부 전자 장치와 통신을 수행하기 위한 모듈(예: 근거리 통신 모듈, 원거리 통신 모듈 등)을 포함할 수 있다. 예를 들어, 무선 통신부 110은 이동통신 모듈 111, 무선 랜(WLAN, wireless local area network) 모듈 113, 근거리 통신 모듈 115, 그리고 위치 산출 모듈 117 등을 포함하여 구성될 수 있다.
이동통신 모듈 111은 이동통신 네트워크 상에서 기지국, 외부의 전자 장치, 그리고 다양한 서버들(예: 통합 서버(Integration Server), 프로바이더 서버(Provider Server), 컨텐츠 서버(Content Server), 인터넷 서버(Internet Server), 또는 클라우드 서버(Cloud Server)) 중 적어도 하나와 무선 신호를 송수신할 수 있다. 상기 무선 신호는 음성 신호, 데이터 신호 또는 다양한 형태의 제어 신호를 포함할 수 있다. 이동통신 모듈 111은 전자 장치 100의 동작에 필요한 다양한 데이터들을 사용자 요청에 응답하여 외부 장치(예: 서버 또는 다른 전자 장치 등)로 전송할 수 있다. 다양한 실시 예들에서, 상기 이동통신 모듈 111은 다양한 통신 방식에 기반하여 무선 신호를 송수신 할 수 있다. 예를 들어, 상기 통신 방식은, 이들에 한정하지는 않지만, LTE(Long-Term Evolution), LTE-A(LTE Advance), GSM(Global System for Mobile communication), EDGE(Enhanced Data GSM Environment), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA), UMTS(Universal Mobile Telecommunications System), 또는 OFDMA(Orthogonal Frequency Division Multiple access) 등의 통신 방식을 포함할 수 있다.
무선 랜 모듈 113은 무선 인터넷 접속 및 다른 외부 전자 장치와 무선 랜 링크(link)를 형성하기 위한 모듈을 나타낼 수 있다. 무선 랜 모듈 113은 전자 장치 100에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WiFi(Wireless Fidelity), Wibro(Wireless broadband), WiMax(World interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), 또는 mmWave(millimeter Wave) 등이 이용될 수 있다. 무선 랜 모듈 113은 전자 장치 100과 네트워크(예: 무선 인터넷 네트워크)를 통해 연결되어 있는 다른 외부 전자 장치와 연동하여, 전자 장치 100의 다양한 데이터들을 외부(예: 외부 전자 장치 또는 서버)로 전송하거나, 또는 외부로부터 수신할 수 있다. 무선 랜 모듈 113은 상시 온(on) 상태를 유지하거나, 전자 장치 100의 설정 또는 사용자 입력에 따라 턴-온(turn-on)될 수 있다.
근거리 통신 모듈 115은 근거리 통신(Short Range Communication)을 수행하기 위한 모듈을 나타낼 수 있다. 근거리 통신 기술로 블루투스(Bluetooth), 저전력 블루투스(BLE, Bluetooth Low Energy), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra Wideband), 지그비(Zigbee), 또는 NFC(Near Field Communication) 등이 이용될 수 있다. 근거리 통신 모듈 115은 전자 장치 100과 네트워크(예: 근거리 통신 네트워크)를 통해 연결되어 있는 다른 외부 전자 장치(예: 외부 음향 장치)와 연동하여, 전자 장치 100의 다양한 데이터들을 외부 전자 장치로 전송하거나 수신 받을 수 있다. 근거리 통신 모듈 115은 상시 온 상태를 유지하거나, 전자 장치 100의 설정 또는 사용자 입력에 따라 턴-온(turn-on)될 수 있다.
위치 산출 모듈 117은 전자 장치 100의 위치를 획득하기 위한 모듈로서, 대표적인 예로는 GPS(global position system) 모듈을 포함할 수 있다. 위치 산출 모듈 115은 삼각 측량의 원리로 전자 장치 100의 위치를 측정할 수 있다. 예를 들어, 위치 산출 모듈 117은 3개 이상의 기지국들로부터 떨어진 거리 정보와 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도(Latitude), 경도(Longitude), 및 고도(Altitude)에 따른 3차원의 현 위치 정보를 산출할 수 있다. 또는 위치 산출 모듈 117은 3개 이상의 위성들로부터 전자 장치 100의 위치 정보를 실시간으로 계속 수신함으로써 위치 정보를 산출할 수 있다. 전자 장치 100의 위치 정보는 다양한 방법에 의해 획득될 수 있다.
사용자 입력부 120은 전자 장치 100의 동작 제어를 위한 입력 데이터를 사용자 입력에 응답하여 발생할 수 있다. 사용자 입력부 120은 사용자의 다양한 입력을 검출하기 위한 적어도 하나의 입력 수단을 포함할 수 있다. 예를 들어, 사용자 입력부 120은 키패드(key pad), 돔 스위치(dome switch), 물리 버튼, 터치패드(정압/정전), 조그셔틀(jog & shuttle), 그리고 센서 모듈 등을 포함할 수 있다.
사용자 입력부 120은 일부가 전자 장치 100의 외부에 버튼 형태로 구현될 수 있으며, 일부 또는 전체가 터치 패널(touch panel)로 구현될 수도 있다. 사용자 입력부 120은 본 발명의 다양한 실시 예들에 따른 전자 장치 100의 동작(예: 롤 이미지를 생성하는 기능 등)을 개시(initiation)하기 위한 사용자 입력을 수신할 수 있고, 사용자 입력에 따른 입력 신호를 발생할 수 있다.
센서 모듈은 예를 들면, 물리량을 계측하거나 전자 장치 100의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈은 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서(예: RGB(red, green, blue) 센서), 생체 센서, 온/습도 센서, 조도 센서, 또는 UV(ultra violet) 센서 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 상기 센서 모듈은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치 100은 제어부 180의 일부로서 또는 별도로, 상기 센서 모듈을 제어하도록 구성된 프로세서를 더 포함하여, 제어부 180이 슬립(sleep) 상태에 있는 동안, 상기 센서 모듈을 제어할 수 있다.
터치스크린 130은 입력 기능과 디스플레이 기능을 동시에 수행할 수 있는 입출력 장치를 나타내며, 디스플레이 131과 터치감지부 133을 포함할 수 있다. 터치스크린 130은 전자 장치 100과 사용자 사이에 입출력 인터페이스를 제공하며, 사용자의 터치 입력을 전자 장치 100에게 전달할 수 있고, 또한 전자 장치 100으로부터의 출력을 사용자에게 보여주는 매개체 역할을 포함할 수 있다. 터치스크린 130은 사용자에게 시각적인 출력(visual output)을 보여줄 수 있다. 상기 시각적 출력은 텍스트(text), 그래픽(graphic), 비디오(video)와 이들의 조합의 형태로 나타날 수 있다. 본 발명의 실시 예에서 터치스크린 130은 디스플레이 131를 통해 전자 장치 100의 동작에 따른 다양한 화면을 디스플레이 할 수 있다. 터치스크린 130은 디스플레이 131를 통해 특정 화면을 디스플레이 하는 중에 터치감지부 133을 통해 사용자로부터 터치(touch), 호버링(hovering) 또는 에어 제스처(air gesture) 중 적어도 하나에 기반하는 이벤트(예: 터치 이벤트, 근접 이벤트, 호버링 이벤트, 에어 제스처 이벤트)를 감지할 수 있고, 상기 이벤트에 따른 입력 신호를 상기 제어부 180에게 전달할 수 있다.
본 발명의 다양한 실시 예들에 따르면, 디스플레이 131은 전자 장치 100에서 처리되는 다양한 정보를 디스플레이(출력)할 수 있다. 예를 들어, 디스플레이 131은 원본 이미지를 표시하는 동작과, 롤 이미지를 표시하는 동작과 유저 인터페이스 또는 그래픽 유저 인터페이스(GUI, graphical UI)를 디스플레이 할 수 있다.
디스플레이 131은 전자 장치 100의 회전 방향(또는 놓인 방향)에 따라 가로모드에 의한 화면 디스플레이, 세로모드에 의한 화면 디스플레이, 또는 가로모드와 세로모드 간의 변화에 따른 화면 디스플레이를 지원할 수 있다. 디스플레이 131은 다양한 디스플레이가 사용될 수 있다. 다양한 실시 예들에서 디스플레이 131은 벤디드 디스플레이가 사용될 수 있다. 예를 들어, 디스플레이 131은 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부리거나 말 수 있는 벤디드 디스플레이를 포함할 수 있다.
벤디드 디스플레이는 하우징(예: 본체)에 체결되어 구부러진 형태를 유지할 수 있다. 다양한 실시 예들에서 전자 장치 100은 벤디드 디스플레이와 같은 형태를 비롯하여, 플렉서블 디스플레이(flexible display)와 같이 구부렸다가 폈다가를 자유자재로 할 수 있는 디스플레이 장치로 구현될 수도 있다. 다양한 실시 예들에서 디스플레이 131은 액정 디스플레이(LCD, Liquid Crystal Display), 발광다이오드(LED, Light Emitting Diode) 디스플레이, 유기 발광 다이오드(OLED, Organic LED) 디스플레이, 능동형 OLED(AMOLED, Active Matrix OLED) 디스플레이, 또는 전자 종이(electronic paper) 등에서 액정을 싸고 있는 유리 기판을 플라스틱 필름으로 대체하여, 접고 펼 수 있는 유연성을 부여할 수 있다. 다양한 실시 예들에서 디스플레이 131은 전자 장치 100의 적어도 하나의 측면(side)(예: 좌측, 우측, 상측, 하측 중 적어도 하나의 면)까지 연장되어 체결될 수 있다.
터치감지부 133은 상기 디스플레이 131에 안착될 수 있으며, 상기 터치스크린 130 표면에 접촉 또는 근접하는 사용자 입력을 감지할 수 있다. 상기 터치감지부 133은 본 발명의 실시 예에서 전자 장치 100의 사용과 관련된 동작을 개시하기 위한 사용자 입력을 수신할 수 있고, 사용자 입력에 따른 입력 신호를 발생할 수 있다. 상기 사용자 입력은 싱글터치(single-touch), 멀티터치(multi-touch), 호버링(hovering), 또는 에어 제스처 중 적어도 하나에 기반하여 입력되는 터치 이벤트 또는 근접 이벤트를 포함할 수 있다. 예를 들어, 상기 사용자 입력은 탭(tap), 드래그(drag), 스윕(sweep), 스와이프(swipe), 플릭(flick), 드래그앤드롭(drag & drop), 또는 드로잉 제스처(drawing gesture)(예: 필기) 등)의 방식으로 입력될 수 있다.
오디오 처리부 140은 제어부 180으로부터 입력 받은 오디오 신호를 스피커(SPK, speaker) 141로 전송하고, 마이크(MIC, microphone) 143으로부터 입력 받은 음성 등의 오디오 신호를 제어부 180에 전달하는 기능을 수행할 수 있다. 오디오 처리부 140은 음성/음향 데이터를 제어부 180의 제어에 따라 스피커 141을 통해 가청음으로 변환하여 출력하고, 마이크 143으로부터 수신되는 음성 등의 오디오 신호를 디지털 신호로 변환하여 제어부 180에게 전달할 수 있다. 오디오 처리부 140은 데이터에 삽입된 오디오 처리 정보(예: 효과음, 음악 파일 등)에 따라 사용자 입력에 반응하는 오디오 신호를 출력할 수 있다.
스피커 141은 무선 통신부 110으로부터 수신되거나, 또는 메모리 150에 저장된 오디오 데이터를 출력할 수 있다. 스피커 141은 전자 장치 100에서 수행되는 다양한 동작(기능)과 관련된 음향 신호를 출력할 수도 있다. 본 발명의 실시 예에서는 도시하지 않았지만, 상기 스피커 141은 탈부착 가능한(attachable and detachable) 이어폰(ear phone), 헤드폰(head phone) 또는 헤드셋(head set)이 외부 포트를 통해 전자 장치 100에 연결될 수 있다.
마이크 143은 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리할 수 있다. 마이크 143에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘(noise reduction algorithm)이 구현될 수 있다. 마이크 143은 음성 명령(예: 음악 어플리케이션 동작을 개시하기 위한 음성 명령) 등과 같은 오디오 스트림의 입력을 담당할 수 있다. 마이크 143은 전자 장치 100에 실장되는 내장 마이크와 전자 장치에 연결되는 외장 마이크를 포함할 수 있다.
메모리 150은 제어부 180에 의해 실행되는 하나 또는 그 이상의 프로그램들(one or more programs)을 저장할 수 있고, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 입/출력되는 데이터들은 예를 들어, 동영상, 이미지, 사진, 오디오 등의 파일을 포함할 수 있다. 메모리 150은 획득된 데이터를 저장하는 역할을 담당하며, 실시간으로 획득된 데이터는 일시적인 저장 장치에 저장할 수 있고, 저장하기로 확정된 데이터는 오래 보관 가능한 저장 장치에 저장할 수 있다.
메모리 150은 다양한 실시 예들에서 다수의 구성 요소들(예: 제1 음악, 제2 음악)의 각각에 대한 템포 진행 정보를 동기화 하여, 오디오 출력과 함께 시각적 효과를 디스플레이 하는 기능을 실행하도록 하는 인스트럭션들(instructions)을 저장할 수 있다. 다양한 실시 예들에서, 메모리 150은, 실행 시에, 제어부 180(예: 하나 또는 그 이상의 프로세서들)이, 롤 생성 이벤트를 검출하고, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하고, 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하도록 하는 인스트럭션들을 저장할 수 있다.
메모리 150은 전자 장치 100의 운영 체제(OS, operating system), 터치스크린 130을 이용한 입력 및 디스플레이 제어와 관련된 프로그램, 전자 장치 100의 다양한 동작(기능)들의 제어와 관련된 프로그램, 그리고 각 프로그램들의 동작에 의해 발생되는 다양한 데이터 등을 지속적으로 또는 일시적으로 저장할 수 있다.
메모리 150은 확장 메모리(예: 외장 메모리) 또는 내부 메모리를 포함할 수 있다. 메모리 150은 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 마이크로 타입(micro type), 및 카드 타입(예컨대, SD 카드(Secure Digital Card) 또는 XD 카드(eXtream Digital Card)) 등의 메모리와, DRAM(Dynamic Random Access Memory), SRAM(Static RAM), ROM(Read-Only Memory), PROM(Programmable ROM), EEPROM(Electrically Erasable PROM), 자기 메모리(MRAM, Magnetic RAM), 자기 디스크(magnetic disk), 및 광디스크(optical disk) 타입의 메모리 중 적어도 하나의 타입의 저장 매체(storage medium)를 포함할 수 있다. 전자 장치 100은 인터넷 상에서 상기 메모리 150의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
메모리 150은 다양한 소프트웨어를 저장할 수 있다. 예를 들어, 소프트웨어 구성 요소는 운영 체제(operating system) 소프트웨어 모듈, 통신 소프트웨어 모듈, 그래픽 소프트웨어 모듈, 유저 인터페이스 소프트웨어 모듈, MPEG(Moving Picture Experts Group) 모듈 및 카메라 소프트웨어 모듈, 하나 이상의 어플리케이션 소프트웨어 모듈 등을 포함할 수 있다. 또한 소프트웨어 구성 요소인 모듈은 명령어들의 집합으로 표현할 수 있으므로, 모듈을 명령어 세트(instruction set)라고 표현하기도 한다. 모듈은 또한 프로그램으로 표현하기도 한다.
상기 운영 체제 소프트웨어 모듈은 일반적인 시스템 동작(system operation)을 제어하는 여러 가지의 소프트웨어 구성 요소를 포함할 수 있다. 이러한 일반적인 시스템 작동의 제어는, 예를 들면, 메모리 관리 및 제어, 전력 제어 및 관리 등을 의미할 수 있다. 또한 운영 체제 소프트웨어 모듈은 여러 가지의 하드웨어(장치)와 소프트웨어 구성 요소(모듈) 사이의 통신을 원활하게 하는 기능도 수행할 수 있다.
상기 통신 소프트웨어 모듈은 무선 통신부 110을 통해 컴퓨터, 서버 또는 휴대용 단말기 등 다른 전자 장치와 통신을 가능하게 할 수 있다. 그리고, 통신 소프트웨어 모듈은 해당 통신 방식에 해당하는 프로토콜 구조로 구성될 수 있다.
상기 그래픽 소프트웨어 모듈은 터치스크린 130 상에 그래픽을 제공하고 디스플레이 하기 위한 여러 가지 소프트웨어 구성 요소를 포함할 수 있다. 상기 그래픽(graphics)이란 용어는 텍스트(text), 웹 페이지(web page), 아이콘(icon), 디지털 이미지(digital image), 비디오(video), 애니메이션(animation) 등을 포함하는 의미로 사용될 수 있다.
상기 유저 인터페이스 소프트웨어 모듈은 유저 인터페이스(UI)에 관련한 여러 가지 소프트웨어 구성 요소를 포함할 수 있다. 예를 들어, 유저 인터페이스의 상태가 어떻게 변경되는지 또는 유저 인터페이스 상태의 변경이 어떤 조건에서 이루어지는지 등에 대한 내용을 포함할 수 있다.
상기 MPEG 모듈은 디지털 컨텐츠(예: 비디오, 오디오) 관련 프로세스 및 기능들(예: 컨텐츠의 생성, 재생, 배포 및 전송 등)을 가능하게 하는 소프트웨어 구성 요소를 포함할 수 있다.
상기 카메라 소프트웨어 모듈은 카메라 관련 프로세스 및 기능들을 가능하게 하는 카메라 관련 소프트웨어 구성 요소를 포함할 수 있다.
상기 어플리케이션 모듈은 렌더링 엔진(rendering engine)을 포함하는 웹브라우저(browser), 이메일(email), 즉석 메시지(instant message), 워드 프로세싱(word processing), 키보드 에뮬레이션(keyboard emulation), 어드레스 북(address book), 위젯(widget), 디지털 저작권 관리(DRM, digital right management), 홍채 인식(iris scan), 상황 인지(context cognition), 음성 인식(voice recognition), 위치 기반 서비스(location based service) 등을 포함할 수 있다. 본 발명의 다양한 실시 예들에 따라, 상기 어플리케이션 모듈은 촬영된 또는 선택된 원본 이미지에 대응하는 롤 이미지를 생성하고, 생성된 롤 이미지를 표시하는 동작(기능)을 처리할 수 있다.
인터페이스부 160은 외부 다른 외부 전자 장치로부터 데이터를 전송 받거나, 전원을 공급받아 전자 장치 100 내부의 각 구성들에 전달할 수 있다. 인터페이스부 160은 전자 장치 100 내부의 데이터가 다른 외부 전자 장치로 전송되도록 할 수 있다. 예를 들어, 유/무선 헤드폰 포트(port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 오디오 입/출력(Input/Output) 포트, 비디오 입/출력 포트, 이어폰 포트 등이 인터페이스부 160에 포함될 수 있다.
카메라 모듈 170은 전자 장치 100의 촬영 기능을 지원하는 구성을 나타낸다. 카메라 모듈 170은 제어부 180의 제어에 따라 임의의 피사체를 촬영하고, 촬영된 데이터(예: 이미지)를 디스플레이 131 및 제어부 180에 전달할 수 있다. 카메라 모듈 170은 하나 이상의 이미지 센서를 포함할 수 있다. 예를 들어, 카메라 모듈 170은 전자 장치 100의 전면(예: 디스플레이 131과 동일한 평면) 상에 구비되는 전면 센서(예: 전면 카메라)와 전자 장치 100의 후면(예: 배면) 상에 구비되는 후면 센서(예: 후면 카메라)를 포함할 수 있다.
제어부 180은 전자 장치 100의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부 180은 롤 이미지 생성, 롤 이미지 편집, 롤 이미지 표시 등에 관련된 다양한 제어를 수행할 수 있다. 제어부 180은 하나 또는 그 이상의 프로세서들(one or more processors)로 구현되거나, 또는 제어부 180을 프로세서로 칭할 수도 있다. 예를 들어, 제어부 180은 커뮤니케이션 프로세서(CP, communication processor), 어플리케이션 프로세서(AP, application processor), 인터페이스(예: GPIO(general purpose input/output)), 또는 내부 메모리 등을 별개의 구성 요소로 포함하거나, 또는 하나 이상의 집적화된 회로에 집적화될 수 있다. 상기 어플리케이션 프로세서는 여러 가지의 소프트웨어 프로그램을 실행하여 전자 장치 100을 위한 여러 기능을 수행할 수 있고, 상기 커뮤니케이션 프로세서는 음성 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 또한 상기 제어부 180은 메모리 150에 저장되어 있는 특정한 소프트웨어 모듈(명령어 세트(instruction set))을 실행하여 그 모듈에 대응하는 특정한 여러 가지의 기능을 수행하는 역할을 담당할 수 있다.
본 발명의 다양한 실시 예들에서, 상기 제어부 180은 디스플레이 131에 표시된 이미지에 대한 롤 이미지 생성, 편집, 또는 표시 중 적어도 하나에 해당하는 이벤트를 감지하고, 상기 이벤트에 기반하여 롤 이미지를 생성, 편집 또는 표시하는 동작 중 적어도 하나를 처리할 수 있다. 상기 제어부 180의 본 발명의 다양한 실시 예들에 따른 제어 동작은 후술하는 도면들을 참조하여 설명된다.
본 발명의 실시 예에 따른 제어부 180은 상기의 기능 외에 전자 장치 100의 통상적인 기능과 관련된 각종 동작을 제어할 수 있다. 예를 들어, 제어부 180은 특정 어플리케이션 실행 시 그의 운영 및 화면 디스플레이를 제어할 수 있다. 또한 제어부 180은 터치 기반 또는 근접 기반의 입력 인터페이스(예: 터치스크린 130)에서 지원하는 다양한 터치 이벤트 또는 근접 이벤트 입력에 대응하는 입력 신호를 수신하고 그에 따른 기능 운영을 제어할 수 있다. 또한 제어부 180은 유선 통신 기반 또는 무선 통신 기반으로 각종 데이터의 송수신을 제어할 수도 있다.
전원 공급부 190은 제어부 180의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성 요소들의 동작에 필요한 전원을 공급할 수 있다. 본 발명의 실시 예에서 전원 공급부 190은 제어부 180의 제어에 의해 상기 디스플레이 131, 상기 카메라 모듈 170 등에 전원을 공급 또는 차단(on/off)할 수 있다.
본 발명에서 설명되는 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 본 발명에서 설명되는 실시 예들은 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.
본 발명의 실시 예에서, 상기 기록 매체는 디스플레이에 원본 이미지를 표시하는 동작, 롤 생성 이벤트를 검출하는 동작, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하는 동작, 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
그리고 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부 180 자체로 구현될 수 있다. 또한 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수도 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
다양한 실시예들에 따른 전자 장치는 디스플레이, 메모리, 및 상기 디스플레이와 상기 메모리와 기능적으로 연결된 제어부를 포함하고, 상기 제어부는, 상기 디스플레이에 원본 이미지를 표시하고, 롤 생성 이벤트를 검출하고, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하고, 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하여 상기 메모리에 저장하도록 설정될 수 있다.
상기 제어부는 상기 롤 생성 이벤트에 따라 상기 표시된 이미지 상에 영역 설정 프레임을 표시하고, 사용자의 선택에 따라 상기 영역 설정 프레임의 위치를 이동시켜, 롤 이미지 생성 영역을 결정하고, 상기 롤 이미지 생성 영역에 포함된 객체를 식별하도록 설정될 수 있다.
상기 제어부는 상기 식별된 객체를 이용하여 경계선을 결정하고, 상기 객체 또는 상기 경계선을 이용하여 상기 원본 이미지를 롤 이미지로 변환하도록 설정될 수 있다.
상기 제어부는 상기 원본 이미지의 크기, 상기 객체 또는 상기 경계선 중 적어도 하나에 기반하여 상기 롤 이미지의 크기를 결정하도록 설정될 수 있다.
상기 제어부는 상기 객체의 우선순위, 상기 객체의 크기, 상기 객체의 속성, 또는 상기 원본 이미지의 속성 중 적어도 하나에 기반하여 대표 객체를 선택하고, 상기 대표 객체에 기반하여 상기 롤 이미지를 생성하도록 설정될 수 있다.
상기 제어부는 상기 원본 이미지의 색상 차이, 상기 원본 이미지의 속성, 또는 상기 객체의 크기 중 적어도 하나에 기반하여 상기 경계선을 결정하도록 설정될 수 있다.
상기 전자 장치는 카메라 모듈을 더 포함하고, 상기 제어부는 상기 카메라 모듈을 통해 획득되는 이미지의 종류를 판단하고, 상기 이미지의 종류에 기반하여 롤 이미지의 생성 여부를 결정하도록 설정될 수 있다.
상기 제어부는 상기 식별된 객체를 중심으로 상기 원본 이미지를 3차원 구(sphere) 또는 원형(circle)으로 변환하여 상기 롤 이미지로 생성하도록 설정될 수 있다.
상기 객체는 피사체, 사람, 사물, 배경 또는 자연 환경(natural environment) 중 적어도 하나를 포함하고, 상기 롤 이미지는 상기 원본 이미지에 포함된 하나 이상의 객체 중에서 대표 객체가 상기 3차원 구 또는 상기 원형의 테두리에 다른 객체와 구별되게 표시될 수 있다.
상기 롤 이미지는 경계선을 기준으로 상기 원본 이미지의 하단 영역(lower area)을 3차원 구 또는 원형의 형태로 표현하고, 상기 경계선을 기준으로 상기 원본 이미지의 상단 영역(upper area)을 상기 3차원 구 또는 상기 원형의 바깥부분으로 표현하고, 상기 식별된 객체를 상기 3차원 구 또는 상기 원형의 중심에 배치한 것일 수 있다.
상기 제어부는 상기 디스플레이에 상기 롤 이미지를 표시하고, 사용자 입력을 검출하고, 상기 사용자 입력에 기반하여 상기 롤 이미지에 포함된 객체 또는 구의 크기를 변경하도록 설정될 수 있다.
상기 제어부는 상기 사용자 입력에 기반하여 상기 객체의 크기가 변경되는 경우, 상기 구의 크기를 조정하고, 상기 사용자 입력에 기반하여 상기 구의 크기가 변경되는 경우, 상기 객체의 크기를 조정하도록 설정될 수 있다.
상기 제어부는 롤 이미지 표시 이벤트가 검출되면, 상기 메모리에 저장된 이미지 중에서 롤 이미지를 검색하고, 검색된 롤 이미지를 포함하는 이미지 리스트를 상기 디스플레이에 표시하도록 설정될 수 있다.
상기 제어부는 상기 디스플레이에 표시된 컨텐츠의 메타데이터를 확인하고, 상기 메타데이터에 기반하여 표시할 텍스트 및 구 모양을 결정하여 롤 이미지를 생성하도록 설정될 수 있다.
도 2는 다양한 실시예들에 따른 전자 장치의 롤 이미지 생성 방법을 도시한 흐름도이다.
도 2를 참조하면, 동작 201에서, 제어부 180은 사진을 촬영할 수 있다. 제어부 180은 사용자가 카메라 어플리케이션을 선택하면, 선택된 카메라 어플리케이션을 실행시킬 수 있다. 상기 카메라 어플리케이션이 실행되면, 디스플레이 131에 프리뷰 이미지가 표시될 수 있다. 제어부 180은 사용자로부터 "촬영, "확인" 또는 촬영하도록 설정된 키(또는 버튼)가 선택되면, 디스플레이 131에 표시된 프리뷰 이미지를 촬영할 수 있다.
동작 203에서, 제어부 180은 상기 촬영된 사진이 롤 촬영인지 판단할 수 있다. 상기 롤 촬영이란 촬영된 이미지가 롤 이미지로 생성 가능한 것을 의미할 수 있다. 예를 들면, 상기 롤 촬영은 서라운드, 파노라마 등 일반 촬영에 비해 촬영 각도가 큰 사진을 촬영하는 것을 의미할 수 있다. 제어부 180은 상기 롤 촬영인 경우 동작 270을 수행하고, 상기 롤 촬영이 아닌 경우 동작 205를 수행할 수 있다.
상기 롤 촬영이 아닌 경우, 동작 205에서, 제어부 180은 해당 기능을 수행할 수 있다. 예를 들면, 제어부 180은 상기 촬영된 사진이 롤 촬영이 아닌 경우, 촬영된 사진을 저장할 수 있다. 사진은 앨범(예: 갤러리 어플리케이션)에 저장될 수 있다.
상기 롤 촬영인 경우, 동작 207에서, 제어부 180은 상기 촬영된 사진을 이미지 처리할 수 있다. 이미지 처리란 예를 들어, 상기 촬영된 사진의 크기를 확인하고, 상기 촬영된 사진의 객체를 식별하는 등의 동작을 수행하는 것을 의미할 수 있다.
동작 209에서, 제어부 180은 상기 촬영된 사진을 이용하여 롤 이미지를 생성할 수 있다. 제어부 180은 상기 촬영된 사진을 이미지 처리하여 상기 롤 이미지를 생성할 수 있다. 예를 들어, 제어부 180은 상기 확인된 크기 또는 상기 식별된 객체에 기반하여 상기 롤 이미지를 생성할 수 있다. 예를 들어, 상기 롤 이미지는 평면 형태로 촬영된 사진을 3차원 입체 형태로 변환한 것일 수 있다. 예를 들어, 상기 롤 이미지는 평면의 사진을 말아서 3차원 구(sphere) 형태 또는 원형(circle)으로 변환한 것일 수 있다.
즉, 제어부 180은 사진이 촬영되면, 촬영된 사진이 롤 이미지로 생성 가능한지 판단하고, 생성 가능한 경우 사용자의 별도 입력 없이도 촬영된 사진을 이용하여 롤 이미지를 생성할 수 있다.
도 3은 다양한 실시예들에 따른 롤 이미지를 생성하는 일례를 도시한 도면이다.
도 3을 참조하면, 제어부 180은 원본 이미지(예: 평면의 이미지) 및 롤 이미지로 변환하기 위한 롤 이미지 생성 버튼 311을 포함하는 제1 사용자 인터페이스 310를 표시할 수 있다. 예를 들어, 제1 사용자 인터페이스 310에는 에펠탑을 촬영한 원본 이미지 및 원본 이미지를 롤 이미지로 변환하기 위한 롤 이미지 생성 버튼(예: Planet) 311이 포함될 수 있다. 제1 사용자 인터페이스 310에서 롤 이미지 생성 버튼 311이 선택되면, 제어부 180은 상기 원본 이미지를 롤 이미지로 변환할 수 있다.
제어부 180은 롤 이미지 321, 원본 이미지로 돌아가기 위한 되돌리기 버튼 322를 포함하는 제2 사용자 인터페이스 320를 표시할 수 있다. 제어부 180은 제1 사용자 인터페이스 310에서 롤 이미지 생성 버튼 311이 선택되면, 제2 사용자 인터페이스 320를 표시할 수 있다. 롤 이미지 321는 제1 사용자 인터페이스 310에 표시된 원본 이미지(예: 에펠탑을 촬영한 이미지)를 3차원 구(sphere) 형태로 변환한 것이다. 되돌리기 버튼 322는 롤 이미지 321를 원본 이미지로 표시하기 위한 것일 수 있다. 예를 들어, 되돌리기 버튼 322가 선택되면, 제어부 180은 제1 사용자 인터페이스 310을 표시할 수 있다. 또한, 제2 사용자 인터페이스 320에는 롤 이미지 321을 편집하기 위한 편집 버튼 323, 롤 이미지 321을 저장하기 위한 저장 버튼 324, 및 롤 이미지 321을 공유하기 위한 공유 버튼 325를 더 포함할 수 있다.
편집 버튼 323이 선택되면, 제어부 180은 롤 이미지 321을 편집하기 위한 사용자 인터페이스를 제공할 수 있다. 저장 버튼 324가 선택되면, 제어부 180은 롤 이미지 321을 메모리 150에 저장할 수 있다. 공유 버튼 325가 선택되면, 제어부 180은 롤 이미지 321을 공유할 수 있는 메시지, 소셜 네트워크 서비스(Social Networking Service; SNS), 메신저와 연관된 어플리케이션 리스트를 표시할 수 있다. 어플리케이션 리스트는 아이콘 또는 텍스트 형태로 표현될 수 있다.
도 4는 다양한 실시예들에 따른 롤 이미지를 생성하는 구체적인 방법을 도시한 흐름도이다.
도 4를 참조하면, 동작 401에서, 제어부 180은 디스플레이 131에 이미지를 표시할 수 있다. 디스플레이 131에 표시된 이미지(예: 원본 이미지)는 롤 이미지로 변경하기 위해 사용자로부터 선택된 이미지로서, 예를 들면, 평면 형태의 이미지일 수 있다. 상기 평면의 이미지는 카메라의 서라운드 모드(또는 기능), 파노라마 모드로 촬영된 사진이나, 일반 모드(예: 자동)로 촬영된 사진을 모두 포함하는 개념일 수 있다. 이하에서는 롤 이미지와 구별하기 위해, 평면의 이미지를 "원본 이미지"로 설명한다. 그러나, 설명에 의해 원본 이미지가 제한되는 것은 아니다.
동작 403에서, 제어부 180은 롤 생성 이벤트를 검출할 수 있다. 예를 들면, 상기 롤 생성 이벤트는 사용자로부터 롤 이미지를 생성하기 위한 버튼이 선택되거나, 롤 이미지를 생성하기 위한 제스처가 검출되는 것일 수 있다. 도 3을 참고하여 설명하면, 상기 롤 생성 이벤트는 제1 사용자 인터페이스 310에서, 버튼(예: Planet) 311이 선택되는 것일 수 있다. 또는, 상기 롤 생성 이벤트는 원본 이미지가 표시된 상태에서 롤 이미지를 생성하기 위해 기설정된 제스처가 검출되는 것일 수 있다. 상기 제스처는 사용자 또는 전자 장치 101에 의해 설정될 수 있다. 예를 들면, 상기 제스처는 적어도 두 손가락으로 꼬집는 사용자 입력(예: 핀치(pinch), 줌인(zoom-in))), 적어도 두 손가락이 터치된 상태에서 두 손가락이 멀어지는 사용자 입력(예: 줌아웃(zoom-out), 스프레드(spread))일 수 있다.
동작 405에서, 제어부 180은 상기 원본 이미지의 크기를 확인할 수 있다. 상기 크기는 이미지의 넓이, 폭, 길이를 포함하는 개념일 수 있다. 참고로, 원본 이미지의 넓이, 폭, 길이에 따라 생성되는 롤 이미지의 크기가 달라질 수 있다. 상기 롤 이미지는 원본 이미지를 말아서 입체적인 구 형태로 변환한 것으로, 원본 이미지의 넓이, 폭, 길이에 따라 롤 이미지의 크기가 정해질 수 있다.
상기 크기는 전자 장치 101에서 설정하거나, 사용자로부터 선택될 수도 있다. 예를 들어, 제어부 180은 상기 롤 생성 이벤트가 검출되면, 상기 원본 이미지 위에 영역 설정을 위한 프레임을 표시할 수 있다. 사용자는 영역 설정 프레임을 이동시켜 상기 원본 이미지에서 롤 이미지로 생성하기 위한 영역을 설정할 수 있다. 제어부 180은 상기 사용자의 선택이 없는 경우, 상기 원본 이미지의 전체를 롤 이미지 생성 영역으로 결정할 수 있다. 또는, 제어부 180은 상기 사용자의 선택에 따라 상기 영역 설정 프레임이 위치한 영역을 롤 이미지 생성 영역으로 결정할 수 있다.
동작 407에서, 제어부 180은 객체를 식별할 수 있다. 예를 들어, 제어부 180은 상기 롤 이미지 생성 영역 내에 포함된 객체를 식별할 수 있다. 예를 들어, 상기 객체는 사진을 찍은 대상이 되는 물체(예: 피사체(subject))로서, 예를 들어, 사람, 사물(예: 건물, 동상), 배경 또는 자연 환경(natural environment, 예: 나무, 산, 바다, 강) 등일 수 있다. 제어부 180은 상기 식별된 객체 중에서 중심이 되는 객체를 선택할 수 있다. 다양한 실시예들에 따르면, 제어부 180은 객체의 우선순위, 객체의 크기, 객체의 속성, 또는 이미지의 속성 중 적어도 하나에 기반하여 대표 객체를 선택할 수 있다. 이때, 대표 객체는 이미지의 섬네일(thumbnail)에 해당할 수 있다.
제어부 180은 객체에 우선순위를 부여하고, 우선순위가 높은 객체를 대표 객체로 선택할 수 있다. 사용자가 사진을 찍을 때는 인물을 위주로 촬영하기 때문에, 다른 객체보다 사람이 우선순위가 높을 수 있다. 또는, 제어부 180은 객체의 크기가 큰 객체를 대표 객체로 선택할 수 있다. 다만, 사람보다 다른 객체의 크기가 큰 경우, 제어부 180은 객체의 속성 및 이미지의 속성을 더 고려하여 상기 대표 객체를 선택할 수 있다. 제어부 180은 객체의 속성(예: 색상, 선명도 등)에 기반하여 다른 객체보다 더 선명하고, 명확히 나타난 객체를 대표 객체로 선택할 수 있다. 또는, 제어부 180은 이미지의 속성에 기반하여 상기 이미지가 인물 사진인지, 풍경 사진인지 판단하고, 인물 사진인 경우 인물을 대표 객체로 선택하고, 풍경 사진인 경우 풍경 중 어느 하나를 대표 객체로 선택할 수 있다.
동작 409에서, 제어부 180은 롤 이미지를 생성할 수 있다. 예를 들어, 제어부 180은 상기 식별된 객체에 기반으로 상기 롤 이미지를 생성할 수 있다. 제어부 180은 상기 식별된 객체를 중심으로 상기 원본 이미지를 3차원 구(sphere) 또는 원형(circle)으로 변환하여 상기 롤 이미지로 생성할 수 있다. 상기 롤 이미지는 상기 원본 이미지에 포함된 하나 이상의 객체 중에서 대표 객체가 상기 3차원 구 또는 상기 원형의 테두리에 다른 객체와 구별되게 표시되는 것일 수 있다.
즉, 제어부 180은 사용자로부터 선택된 이미지를 변환하여 롤 이미지를 생성할 수 있다. 이때, 선택된 이미지는 일반적인 이미지일 수도 있고, 일반적인 이미지보다 길이가 길거나, 촬영 각도가 넓은 이미지일 수도 있다.
다양한 실시예들에 따르면, 제어부 180은 경계선(예: 지평선)을 더 고려하여 상기 롤 이미지를 생성할 수 있다. 이를 위해, 제어부 180은 이미지의 색상 차이, 이미지의 속성, 또는 객체(또는 대표 객체)의 크기 중 적어도 하나에 기반하여 상기 경계선을 결정할 수 있다. 예를 들어, 제어부 180은 강(예: 노랑색, 회색)과 하늘(예: 파란색, 흰색(예: 구름)), 숲(예: 녹색, 갈색, 빨강색(예: 단풍))과 바다(예: 파란색) 등과 같이 색상의 차이가 극명히 드러나는 두 객체의 경계를 경계선으로 결정할 수 있다. 또는, 제어부 180은 이미지의 속성에 기반하여 인물이 있는 부분과 없는 부분으로 나누어 그 경계를 경계선으로 결정할 수 있다. 따라서, 제어부 180은 상기 확인된 크기, 상기 식별된 객체, 또는 상기 결정된 경계선 중 적어도 하나를 기반으로 상기 롤 이미지를 생성할 수 있다.
도 5a 내지 도 5c는 다양한 실시예들에 따른 객체에 기반하여 롤 이미지를 생성하는 일례를 도시한 도면들이다.
도 5a는 사용자로부터 설정된 영역의 이미지를 이용하여 롤 이미지를 생성하는 일례를 도시한 것이다. 도 5a를 참조하면, 제어부 180은 원본 이미지, 영역 설정 프레임 511 및 롤 이미지로 변환하기 위한 버튼 512를 포함하는 제1 사용자 인터페이스 510를 표시할 수 있다. 예를 들어, 영역 설정 프레임 511은 사각형의 프레임으로서 롤 이미지로 생성하기 위한 영역을 설정하는데 이용된다. 예를 들어, 사용자는 영역 설정 프레임 511을 이동시켜 롤 이미지로 생성하기 위한 영역을 설정할 수 있다. 즉, 사용자는 원본 이미지를 명확히 식별하기 위하여 영역 설정 프레임 511을 이용하여 원본 이미지의 전체 영역 중에서 식별이 용이한 영역을 선택할 수 있다. 이렇게, 롤 이미지로 생성하기 위한 영역이 설정되면, 롤 이미지의 크기가 결정될 수 있다. 설정된 영역이 크면 롤 이미지의 구가 커지고, 설정된 영역이 작으면 롤 이미지의 구가 작을 수 있다.
제1 사용자 인터페이스 510에서 버튼 512가 선택되면, 제어부 180은 영역 설정 프레임 511 내에 포함된 이미지로부터 객체를 식별하고, 식별된 객체를 이용하여 롤 이미지를 생성할 수 있다. 제어부 180은 롤 이미지 521, 원본 이미지로 돌아가기 위한 되돌리기 버튼 522, 롤 이미지 521을 편집하기 위한 편집 버튼 523, 롤 이미지 521을 저장하기 위한 저장 버튼 524, 및 롤 이미지 521을 공유하기 위한 공유 버튼 525를 포함하는 제2 사용자 인터페이스 520를 표시할 수 있다.
도 5b는 객체를 이용하여 롤 이미지를 생성하는 일례를 도시한 것이다.
도 5b를 참조하면, 제어부 180은 제1 사용자 인터페이스 530에 표시된 원본 이미지에서 객체를 식별할 수 있다. 예를 들면, 제어부 180은 원본 이미지에서 하늘, 에펠탑 532, 나무, 숲 등을 객체로 식별할 수 있다. 다양한 실시예들에 따르면, 제어부 180은 객체의 우선순위, 객체의 크기, 객체의 속성, 또는 이미지의 속성 중 적어도 하나에 기반하여 대표 객체를 선택할 수 있다.
제어부 180은 지평선보다 높은 객체를 대표 객체로 선택할 수 있는데, 제1 사용자 인터페이스 530의 원본 이미지에서는 에펠탑 532을 대표 객체로 선택할 수 있다. 에펠탑 532를 기준으로 높이 531와 밑면 533을 식별할 수 있는데, 밑면 533은 경계선(예: 지평선)으로 해석할 수 있다. 제어부 180은 에펠탑 532, 에펠탑의 높이 531, 경계선 533을 이용하여 롤 이미지를 생성할 수 있다. 제어부 180은 생성된 롤 이미지를 포함하는 제2 사용자 인터페이스 540을 표시할 수 있다. 제2 사용자 인터페이스 540과 제1 사용자 인터페이스 530을 비교하면, 롤 이미지는 에펠탑 532을 기준으로 구 형태로 말린 이미지일 수 있다. 참고로, 제어부 180은 경계선 533을 기준으로 원본 이미지의 하단 영역(예: 나무, 숲, 잔디)을 3차원 구 또는 원형의 형태로 표현하고, 경계선 533을 기준으로 원본 이미지의 상단 영역(예: 에펠탑 532과 경계선 533 사이의 하늘)을 3차원 구 또는 원형의 바깥부분으로 표현될 수 있다.
도 5c는 객체를 이용하여 롤 이미지를 생성하는 다른 일례를 도시한 것이다. 도 5c를 참조하면, 제어부 180은 제1 사용자 인터페이스 550에 표시된 원본 이미지에서 객체를 식별할 수 있다. 예를 들면, 제어부 180은 상기 원본 이미지에서 하늘, 사람 551, 나무, 잔디 등을 객체로 식별할 수 있다. 다양한 실시예들에 따르면, 제어부 180은 객체의 우선순위, 객체의 크기, 객체의 속성, 또는 이미지의 속성 중 적어도 하나에 기반하여 대표 객체를 선택할 수 있다. 사진을 찍을 때는 인물을 위주로 촬영하기 때문에, 다른 객체보다 사람이 우선순위가 높을 수 있다. 제어부 180은 사람 551을 대표 객체로 선택하고, 사람 551을 기준으로 롤 이미지를 생성할 수 있다.
다양한 실시예들에 따르면, 제어부 180은 식별된 객체의 사람이 한 명 이상인 경우, 원본 이미지 내 사람이 배치된 위치(예: 중앙, 측면 등), 사람들 간의 배치 위치, 사람의 크기에 기반하여 대표 객체를 선택할 수 있다. 예를 들어, 제어부 180은 복수의 사람들 중에서 중앙에 위치한 사람을 대표 객체로 선택하거나, 크기가 다른 사람보다 큰 사람을 대표 객체로 선택할 수 있다.
제어부 180은 생성된 롤 이미지를 제2 사용자 인터페이스 560과 같이 표시할 수 있다. 제2 사용자 인터페이스 560과 제1 사용자 인터페이스 550을 비교하면, 롤 이미지는 사람 551을 기준으로 구 형태로 말린 이미지일 수 있다. 예를 들어, 제어부 180은 사람 551을 3차원 구 또는 원형의 중심에 배치하고, 사람 551을 기준으로 하단 영역(예: 나무, 잔디)을 3차원 구 또는 원형의 형태로 표현하고, 사람 551을 기준으로 상단 영역(예: 하늘)을 3차원 구 또는 원형의 바깥부분으로 표현한 롤 이미지를 생성할 수 있다.
다양한 실시예들에 따르면, 제어부 180은 롤 이미지 생성 시, 대표 객체를 극대화하여 표현할 수도 있다. 예를 들면, 제어부 180은 대표 객체가 사람인 경우, 사람을 극대화시켜 롤 이미지를 생성할 수 있다. 제어부 180은 원본 이미지에 사람이 없는 경우, 가장 높은 지점에 위치한 객체를 대표 객체로 극대화시켜 롤 이미지를 생성할 수도 있다.
도 6a 및 도 6b는 다양한 실시예들에 따른 경계선에 기반하여 롤 이미지를 생성하는 일례를 도시한 도면들이다.
도 6a를 참조하면, 제어부 180은 제1 사용자 인터페이스 610에서 이미지의 색상, 속성, 또는 객체 611 중 적어도 하나를 식별하고, 경계선 614를 결정할 수 있다. 제어부 180은 이미지의 색상 차이, 이미지의 속성, 또는 객체(또는 대표 객체)의 크기 중 적어도 하나에 기반하여 경계선 614를 결정할 수 있다. 예를 들어, 제어부 180은 제1 사용자 인터페이스 610에서 하늘(612, 예: 하늘색, 파랑색)과 나무(613, 예: 녹색, 갈색 등) 간의 색상 차이가 극명히 드러나는 부분을 이용하여 경계선 614을 결정할 수 있다. 제어부 180은 식별된 객체 611와 경계선 614를 이용하여 롤 이미지를 생성할 수 있다. 제어부 180은 생성된 롤 이미지를 포함하는 제2 사용자 인터페이스 620을 표시할 수 있다. 예를 들어, 제어부 180은 식별된 객체 611을 구의 중심에 배치하고, 경계선 614를 기준으로 하단 영역 613을 구 형태로 표현하고, 경계선 614를 기준으로 상단 영역 612를 구의 바깥부분으로 표현한 롤 이미지를 생성할 수 있다.
도 6b를 참조하면, 제어부 180은 제1 사용자 인터페이스 630에서 이미지의 색상, 속성, 또는 객체를 식별할 수 있다. 제어부 180은 제1 사용자 인터페이스 630에서 가로 화면 전체에 걸쳐 이어진 일정 두께 픽셀 이상의 유사한 색상을 식별할 수 있다. 예를 들어, 유사한 색상은 하늘(631, 예: 하늘색, 파랑색)과 강(632, 예: 노랑색, 회색)일 수 있다. 제어부 180은 하늘 631과 강 632 간의 색상 차이를 식별할 수 있다. 예를 들어, 제어부 180은 제1 사용자 인터페이스 630에서 대표 객체를 식별할 수 없을 수 있다. 제1 사용자 인터페이스 630에서 롤 이미지 생성 버튼 633이 선택되면, 제어부 180은 이미지의 색상 차이에 기반하여 롤 이미지를 생성할 수 있다. 제어부 180은 생성된 롤 이미지를 포함하는 제2 사용자 인터페이스 640을 표시할 수 있다. 예를 들어, 제어부 180은 강 632를 구 형태로 표현하고, 하늘 631을 구의 바깥부분으로 표현한 롤 이미지를 생성할 수 있다. 이때, 제어부 180은 강 632와 하늘 631의 경계 부분에 배치된 나무를 구를 둘러싼 테두리로 표현할 수 있다.
도 7a 내지 도 7d는 다양한 실시예들에 따른 촬영 각도에 기반하여 롤 이미지를 생성하는 일례를 도시한 도면들이다.
도 7a는 270도로 촬영된 이미지를 도시한 것이다. 원본 이미지 711는 예를 들어, 파노라마 또는 서라운드로 촬영된 것일 수 있다. 제어부 180은 원본 이미지 711의 속성에 기초하여 촬영 각도를 식별할 수 있다. 예를 들어, 파노라마 또는 서라운드로 사진을 촬영할 때, 제어부 180은 자이로 센서, 가속도 센서를 이용하여 촬영 각도를 측정할 수 있다. 측정된 촬영 각도는 원본 이미지 711의 속성 또는 메타데이터로서 이미지와 함께 저장될 수 있다.
다양한 실시예들에 따르면, 제어부 180은 원본 이미지 711의 길이에 기반하여 촬영 각도를 예측할 수도 있다. 예를 들면, 제어부 180은 원본 이미지 711의 절대적인 길이, 예를 들면, 가로/세로 픽셀 비율의 차이가 클수록 촬영 각도가 큰 것으로 예측할 수 있다.
제어부 180은 원본 이미지 711을 기반으로 구 형태 712의 롤 이미지를 생성할 수 있다. 또는, 제어부 180은 롤 이미지의 형태만으로 사용자가 촬영 각도를 용이하게 식별할 수 있도록 원본 이미지 711의 길이 또는 각도에 기반하여 구 형태를 결정할 수 있다. 즉, 구 형태로 롤 이미지를 변환할 때, 제어부 180은 360도 각도로 촬영된 이미지에 대해서는 완전한 구 형태의 롤 이미지를 생성할 수 있다. 또는, 제어부 180은 원본 이미지 711의 길이가 기설정된 길이(예: 10 cm)에 해당하는 경우, 완전한 구 형태의 롤 이미지를 생성할 수 있다.
또는, 제어부 180은 360도 미만으로 촬영된 이미지에 대해서는 구에서 일정 각도(예: 파이 조각)만큼 생략된 롤 이미지를 생성할 수 있다. 예를 들어, 제어부 180은 270도로 촬영된 원본 이미지 711에 대해서는 구에서 90도 정도의 영역(예: 구의 1/4 부분)이 생략된 구 형태 713의 롤 이미지를 생성할 수 있다. 또는, 제어부 180은 원본 이미지 711의 길이가 기설정된 길이(예: 10 cm) 미만에 해당하는 경우, 구에서 일정 영역(예: 파이 조각)만큼 생략된 롤 이미지를 생성할 수 있다.
도 7b는 180도로 촬영된 이미지를 도시한 것이다. 제어부 180은 원본 이미지 721을 기반으로 구 형태 722의 롤 이미지를 생성할 수 있다. 또는, 제어부 180은 원본 이미지 721의 촬영 각도 또는 길이에 기반하여 구 형태를 결정할 수 있다. 예를 들면, 제어부 180은 촬영 각도가 180도인 원본 이미지 721에 대해서는 구에서 180도 정도의 영역(예: 구의 1/2 부분)이 생략된 구 형태 713의 롤 이미지를 생성할 수 있다. 이 경우, 사용자는 상기 롤 이미지의 형태만으로 촬영 각도가 180도 라는 것을 용이하게 식별할 수 있다.
도 7c는 120도로 촬영된 이미지를 도시한 것이다. 제어부 180은 원본 이미지 731을 기반으로 구 형태 732의 롤 이미지를 생성할 수 있다. 또는, 제어부 180은 원본 이미지 731의 촬영 각도 또는 길이에 기반하여 구 형태를 결정할 수 있다. 예를 들면, 제어부 180은 촬영 각도가 120도인 원본 이미지 731에 대해서는 구에서 240도 정도의 영역(예: 구의 1/3 부분)이 생략된 구 형태 734의 롤 이미지를 생성할 수 있다.
도 7d는 90도로 촬영된 이미지를 도시한 것이다. 제어부 180은 원본 이미지 741을 기반으로 구 형태 742의 롤 이미지를 생성할 수 있다. 또는, 제어부 180은 원본 이미지 741의 촬영 각도 또는 길이에 기반하여 구 형태를 결정할 수 있다. 예를 들면, 제어부 180은 촬영 각도가 90도인 원본 이미지 741에 대해서는 구에서 270도 정도의 영역(예: 구의 3/4 부분)이 생략된 구 형태 743의 롤 이미지를 생성할 수 있다.
따라서, 제어부 180은 이미지의 길이 또는 각도에 기초하여 롤 이미지를 상대적으로 표현할 수 있다. 즉, 제어부 180은 원본 이미지의 물리적인 공간(예: 각도, 길이)에 대한 데이터를 인포그라피(infography)로 표현할 수 있다.
도 8은 다양한 실시예들에 따른 전자 장치의 롤 이미지 편집 방법을 도시한 흐름도이다.
도 8을 참조하면, 동작 801에서, 제어부 180은 롤 이미지를 표시할 수 있다. 롤 이미지는 상기에서 설명한 바와 같이, 평면의 이미지를 말아서 3차원 구 형태로 표현된 것일 수 있다. 예를 들면, 제어부 180은 롤 이미지를 편집하기 위한 사용자 인터페이스에서 상기 롤 이미지를 표시할 수 있다. 도 5a를 참고하여 설명하면, 제어부 180은 롤 이미지가 표시된 사용자 인터페이스 320에서 편집 버튼 523이 선택되어, 롤 이미지 편집 화면에서 상기 롤 이미지를 표시할 수 있다.
동작 803에서, 제어부 180은 제1 사용자 입력을 검출할 수 있다. 상기 제1 사용자 입력은 상기 롤 이미지 위에 터치가 발생하는 것일 수 있다.
동작 805에서, 제어부 180은 상기 제1 사용자 입력의 위치를 확인할 수 있다. 상기 롤 이미지는 객체(예: 사람, 건물 등), 구, 배경(예: 구 바깥부분)으로 구성될 수 있다. 제어부 180은 상기 제1 사용자 입력이 상기 롤 이미지 내 객체, 구, 또는 배경 중 어느 부분에서 검출되는지 확인할 수 있다.
상기 제1 사용자 입력의 위치가 객체인 경우 제어부 180은 동작 821을 수행하고, 상기 제1 사용자 입력의 위치가 구인 경우 제어부 180은 동작 831을 수행하며, 상기 제1 사용자 입력의 위치가 배경인 경우 제어부 180은 동작 841을 수행할 수 있다.
상기 제1 사용자 입력의 위치가 객체인 경우, 동작 821에서, 제어부 180은 상기 제1 사용자 입력에 기반하여 객체의 크기를 변경할 수 있다. 예를 들어, 사용자는 롤 이미지의 식별을 용이하게 하기 위해 객체의 크기가 크게 표현하기를 원할 수 있다. 이 경우, 사용자는 크기를 변경할 객체를 선택(또는 터치)하고, 객체를 선택한 상태에서 터치를 이동(예: 드래그)시킬 수 있다. 즉, 상기 사용자는 객체를 터치한 상태에서 터치를 해제하지 않고 터치를 이동시킬 수 있다. 이렇게 터치 후 이동에 대한 제1 사용자 입력에 기반하여 제어부 180은 상기 객체의 크기를 변경할 수 있다.
동작 823에서, 제어부 180은 상기 변경되는 객체의 크기에 기반하여 구의 크기를 조정할 수 있다. 롤 이미지의 전체 크기는 정해져 있기 때문에, 롤 이미지 내에서 객체의 크기가 변경되는 경우, 변경되는 객체의 크기에 따라 구의 크기가 결정될 수 있다. 제어부 180은 상기 객체의 크기와 상기 구의 크기를 반비례적으로 변경할 수 있다. 예를 들면, 제어부 180은 상기 객체의 크기가 커지는 경우, 구의 크기를 작게 조정하고, 상기 객체의 크기가 작아지는 경우 구의 크기를 크게 조정할 수 있다. 제어부 180은 상기 제1 사용자 입력에 따라 상기 객체 또는 상기 구의 크기가 변경되는 경우, 변경된 부분을 상기 롤 이미지에 반영하여 임시적으로 저장할 수 있다.
상기 제1 사용자 입력의 위치가 구인 경우, 동작 831에서, 제어부 180은 상기 제1 사용자 입력에 기반하여 구의 크기를 변경할 수 있다. 사용자는 구의 테두리를 선택(또는 터치)하고, 선택한 상태에서 터치를 이동(예: 드래그)시킬 수 있다. 즉, 상기 사용자는 객체를 터치한 상태에서 터치를 해제하지 않고 터치를 이동시킬 수 있다. 이렇게 터치 후 이동에 대한 제1 사용자 입력에 기반하여 제어부 180은 상기 구의 크기를 변경할 수 있다.
동작 833에서, 제어부 180은 상기 변경되는 구의 크기에 기반하여 객체의 크기를 조정할 수 있다. 제어부 180은 상기 롤 이미지 내에서 구의 크기가 변경되는 경우, 변경되는 구의 크기에 따라 객체의 크기를 조정할 수 있다. 예를 들면, 제어부 180은 상기 구의 크기가 커지는 경우, 객체의 크기를 작게 조정하고, 상기 구의 크기가 작아지는 경우 객체의 크기를 크게 조정할 수 있다. 제어부 180은 상기 제1 사용자 입력에 따라 상기 객체 또는 상기 구의 크기가 변경되는 경우, 변경된 부분을 상기 롤 이미지에 반영하여 임시적으로 저장할 수 있다.
상기 제1 사용자 입력의 위치가 배경인 경우, 동작 841에서, 제어부 180은 상기 제1 사용자 입력에 기반하여 객체 및 구의 크기를 조정할 수 있다. 배경이 확대되면, 배경 외에 객체 및 구의 크기가 줄어들고, 배경이 축소되면 배경 외에 객체 및 구의 크기가 커질 수 있다. 제어부 180은 상기 제1 사용자 입력에 따라 상기 객체 또는 상기 구의 크기가 변경되는 경우, 변경된 부분을 상기 롤 이미지에 반영하여 임시적으로 저장할 수 있다.
동작 807에서, 제어부 180은 상기 제1 사용자 입력에 따라 편집된 롤 이미지를 임시적으로 저장할 수 있다. 예를 들면, 제어부 180은 상기 제1 사용자 입력이 완료(예: 터치 해제)되면, 상기 제1 사용자 입력에 기반하여 편집된 롤 이미지를 임시적으로 저장할 수 있다. 또는, 제어부 180은 상기 제1 사용자 입력이 완료되지 않았더라도 상기 제1 사용자 입력에 기초하여 편집되는 롤 이미지를 임시적으로 저장할 수 있다.
동작 809에서, 제어부 180은 제2 사용자 입력이 검출되는지 판단할 수 있다. 상기 제2 사용자 입력은 동작 803에서 검출된 제1 사용자 입력과 구별되는 것일 수 있다. 예를 들어, 상기 제2 사용자 입력은 상기 제1 사용자 입력이 완료된 후에 검출되는 것일 수 있다. 예를 들어, 상기 사용자가 객체 또는 구를 터치한 상태에서 터치를 이동 후 해제한 경우 상기 제1 사용자 입력이 완료된 것으로 판단할 수 있다. 또는, 상기 제2 사용자 입력은 상기 제1 사용자 입력이 완료되지 않은 상태에서 검출되는 새로운 입력일 수 있다. 예를 들어, 상기 사용자는 한 손(또는 손가락)으로 상기 객체 또는 구를 터치한 상태에서 터치를 이동하면서, 다른 한 손(또는 손가락)으로 다른 객체 또는 구를 터치할 수 있다.
제어부 180은 상기 제2 사용자 입력이 검출되면, 상기 제2 사용자 입력의 위치를 확인하기 위하여 동작 805로 복귀할 수 있다. 동작 805로 복귀하면, 제어부 180은 상기 제2 사용자 입력에 기반하여 상기에서 설명한 동작 821, 823, 동작 831, 833, 또는 동작 841 중 적어도 하나를 수행할 수 있다.
또는, 제어부 180은 상기 제2 사용자 입력이 검출되지 않으면, 편집이 완료된 것인지 판단하기 위하여 동작 811을 수행할 수 있다.
동작 811에서, 제어부 180은 편집이 완료된 것인지 판단할 수 있다. 예를 들어, 제어부 180은 상기 제1 사용자 입력이 완료되면 편집이 완료된 것으로 판단할 수 있다. 또는, 제어부 180은 상기 제1 사용자 입력이 완료된 후, 편집 완료 버튼, 저장 버튼 또는 공유 버튼을 선택받은 경우, 편집이 완료된 것으로 판단할 수 있다.
편집이 완료된 경우, 제어부 180은 동작 813을 수행할 수 있다. 동작 813에서, 제어부 180은 동작 807에서 임시 저장된 롤 이미지를 편집된 롤 이미지로 저장할 수 있다. 예를 들어, 제어부 180은 상기 제1 사용자 입력된 후 일정 시간이 경과하는 경우 편집이 완료된 것으로 판단하고 편집된 롤 이미지를 메모리 150에 저장할 수 있다. 제어부 180은 동작 801에서 표시된 롤 이미지 대신에 편집된 롤 이미지를 저장할 수 있다.
편집이 완료되지 않은 경우, 제어부 180은 종료할 수 있다. 예를 들어, 상기 제1 사용자 입력이 완료되지 않은 경우, 상기 사용자 입력이 완료되지 않은 상태에서 종료 버튼이 선택되거나, 상기 제1 사용자 입력이 완료된 후 아무런 입력이 검출되지 않은 경우, 제어부 180은 종료할 수 있다. 이 경우, 제어부 180은 동작 801에서 표시된 롤 이미지를 변경하지 않을 수 있다.
도 9a 내지 도 9d는 다양한 실시예들에 따른 롤 이미지를 편집하는 일례를 도시한 도면들이다.
도 9a는 객체의 크기가 변경됨에 따라 롤 이미지를 편집하는 일례를 도시한 것이다. 도 9a를 참조하면, 제어부 180은 롤 이미지 911를 편집하기 위한 제1 사용자 인터페이스 910을 표시할 수 있다. 롤 이미지 911는 객체 912, 구 913, 배경 914를 포함할 수 있다. 예를 들면, 제어부 180은 제1 사용자 인터페이스 910에서 사용자가 객체 912를 터치한 상태에서 터치를 화면 바깥쪽으로 이동시킨 후 해제하는 사용자 입력을 검출할 수 있다.
또한, 제1 사용자 인터페이스 910에는 원본 이미지로 돌아가기 위한 되돌리기 버튼 915, 취소 버튼 916, 편집 제어 버튼들 917 및 918, 완료 버튼 919를 포함할 수 있다. 되돌리기 버튼 915이 선택되면, 제어부 180은 평면의 이미지(예 도 3의 제1 사용자 인터페이스 310)를 표시할 수 있다. 취소 버튼 916이 선택되면, 제어부 180은 생성된 롤 이미지 표시 화면(예 도 3의 제2 사용자 인터페이스 320)을 표시할 수 있다. 제1 사용자 인터페이스 910은 롤 이미지를 편집하기 위한 화면으로, 편집에 필요한 편집 제어 버튼들 917 및 918이 표시될 수 있다. 예를 들면, 제1 편집 제어 버튼 917은 잘라내기 버튼이고, 제2 편집 제어 버튼 918은 색상 조절 버튼일 수 있다. 완료 버튼 919은 완료 버튼 919가 선택되기 전까지의 사용자 입력을 롤 이미지에 반영하여 저장하기 위한 것일 수 있다.
제어부 180은 객체 922를 선택하는 사용자 입력에 기반하여 편집된 롤 이미지 921를 포함하는 제2 사용자 인터페이스 920을 표시할 수 있다. 편집된 롤 이미지 921은 제1 사용자 인터페이스 910의 롤 이미지 911에서 객체 922의 크기 및 구 923의 크기가 변경된 것일 수 있다. 예를 들면, 편집된 롤 이미지 921은 객체 922의 크기를 크게 변경하는 사용자 입력에 기반하여 객체 922의 크기를 크게 변경하고, 객체 922의 크기가 커짐에 따라 반대로 구 923의 크기가 작아진 것일 수 있다. 객체 922의 크기를 변경할 때, 객체 922가 중심에 위치하지 않는 경우, 제어부 180은 객체 922가 롤 이미지 921의 중심에 배치되도록 객체 922의 위치를 조정할 수 있다.
또한, 제2 사용자 인터페이스 920에는 되돌리기 버튼 925, 취소 버튼 926, 편집 제어 버튼들 927 및 928, 완료 버튼 929를 포함할 수 있다. 되돌리기 버튼 925이 선택되면, 제어부 180은 평면의 이미지(예 도 3의 제1 사용자 인터페이스 310)를 표시할 수 있다. 취소 버튼 926이 선택되면, 제어부 180은 롤 이미지가 편집되기 전의 화면 예를 들어, 제1 사용자 인터페이스 910을 표시할 수 있다. 완료 버튼 929이 선택되면, 제어부 180은 편집된 롤 이미지 921을 메모리 150(예: 사진첩, 갤러리 등)에 저장할 수 있다.
도 9b는 구의 크기가 변경됨에 따라 롤 이미지를 편집하는 일례를 도시한 것이다. 도 9b를 참조하면, 제어부 180은 롤 이미지 931을 편집하기 위한 제1 사용자 인터페이스 930을 표시할 수 있다. 롤 이미지 931는 객체 932, 구 933을 포함할 수 있다. 예를 들면, 제어부 180은 제1 사용자 인터페이스 930에서 사용자가 구 933의 테두리를 터치한 상태에서 터치를 구의 바깥쪽으로 이동시킨 후 해제하는 사용자 입력 934를 검출할 수 있다. 구 933의 테두리가 터치되는 경우, 제어부 180은 구 933의 테두리를 강조(예: 하이라이트)하여 표시할 수 있다.
또한, 제1 사용자 인터페이스 930에는 원본 이미지로 돌아가기 위한 되돌리기 버튼 935, 취소 버튼 936, 편집 제어 버튼들 937 및 938, 완료 버튼 939를 포함할 수 있다. 되돌리기 버튼 935이 선택되면, 제어부 180은 평면의 이미지(예 도 3의 제1 사용자 인터페이스 310)를 표시할 수 있다. 취소 버튼 936이 선택되면, 제어부 180은 생성된 롤 이미지 표시 화면(예 도 3의 제2 사용자 인터페이스 320)을 표시할 수 있다. 제1 사용자 인터페이스 930은 롤 이미지를 편집하기 위한 화면으로, 편집에 필요한 편집 제어 버튼들 927 및 928이 표시될 수 있다. 완료 버튼 939은 완료 버튼 939가 선택되기 전까지의 사용자 입력을 롤 이미지에 반영하여 저장하기 위한 것일 수 있다.
제어부 180은 객체 942를 선택하는 사용자 입력에 기반하여 편집된 롤 이미지 941를 포함하는 제2 사용자 인터페이스 940을 표시할 수 있다. 편집된 롤 이미지 941은 제1 사용자 인터페이스 940의 롤 이미지 941에서 객체 942의 크기 및 구 943의 크기가 변경된 것일 수 있다. 예를 들면, 편집된 롤 이미지 941은 구 943의 크기를 크게 변경하는 사용자 입력에 기반하여 구 943의 크기를 크게 변경하고, 구 943의 크기가 커짐에 따라 반대로 객체 942의 크기가 작아진 것일 수 있다. 구 943의 크기를 변경할 때, 제어부 180은 객체 942가 롤 이미지 941의 중심에 배치되도록 객체 942의 위치를 조정할 수 있다.
또한, 제2 사용자 인터페이스 940에는 되돌리기 버튼 945, 취소 버튼 946, 편집 제어 버튼들 947 및 948, 완료 버튼 949를 포함할 수 있다. 되돌리기 버튼 945이 선택되면, 제어부 180은 평면의 이미지(예 도 3의 제1 사용자 인터페이스 310)를 표시할 수 있다. 취소 버튼 946이 선택되면, 제어부 180은 롤 이미지가 편집되기 전의 화면 예를 들어, 제1 사용자 인터페이스 930을 표시할 수 있다. 완료 버튼 949이 선택되면, 제어부 180은 편집된 롤 이미지 941을 메모리 150(예: 사진첩, 갤러리 등)에 저장할 수 있다.
도 9c는 구의 크기가 변경됨에 따라 롤 이미지를 편집하는 다른 일례를 도시한 것이다. 도 9c를 참조하면, 제어부 180은 제2 사용자 인터페이스 940에서 구 943의 크기를 더 크게 변경하는 경우, 객체 952의 위치가 반전되는 제3 사용자 인터페이스 950를 표시할 수 있다. 제어부 180은 구 953의 크기가 일정 크기 이상(예: 기준치, 임계치) 변경되는 경우, 객체 952의 위치가 이동되도록 롤 이미지를 편집할 수 있다. 즉, 편집된 롤 이미지 951은 제2 사용자 인터페이스 940의 편집된 롤 이미지 941와 구 943의 크기는 동일하지만, 객체 952의 위치가 아래에 위치한 것일 수 있다. 또는, 편집된 롤 이미지 951은 제2 사용자 인터페이스 940의 구 943의 크기보다 구 953의 크기가 커지고, 객체 952의 위치가 아래에 위치한 것일 수 있다.
또한, 제3 사용자 인터페이스 950에는 되돌리기 버튼 954, 취소 버튼 955, 편집 제어 버튼들 956 및 957, 완료 버튼 958을 포함할 수 있다. 되돌리기 버튼 954이 선택되면, 제어부 180은 평면의 이미지(예 도 3의 제1 사용자 인터페이스 310)를 표시할 수 있다. 취소 버튼 955가 선택되면, 제어부 180은 롤 이미지가 편집되기 전의 화면 예를 들어, 제1 사용자 인터페이스 930 또는 제2 사용자 인터페이스 940을 표시할 수 있다. 완료 버튼 958이 선택되면, 제어부 180은 편집된 롤 이미지 951을 메모리 150(예: 사진첩, 갤러리 등)에 저장할 수 있다.
도 9d는 구의 크기가 변경됨에 따라 롤 이미지를 편집하는 또 다른 일례를 도시한 것이다. 도 9d를 참조하면, 제어부 180은 제2 사용자 인터페이스 940에서 구 943의 크기를 더 크게 변경하는 경우, 객체 962의 위치 및 구 963의 안쪽과 바깥 영역이 반전되는 제3 사용자 인터페이스 960를 표시할 수 있다. 제어부 180은 구 963의 크기가 일정 크기 이상(예: 기준치, 임계치) 변경되는 경우, 객체 962의 위치가 이동되도록 롤 이미지를 편집할 수 있다. 즉, 편집된 롤 이미지 961은 객체 962가 구의 안쪽에 배치되고, 구 963의 안쪽 영역(예: 하늘)과 바깥 영역(예: 잔디)이 반전된 것일 수 있다. 즉, 구의 크기가 변경되기 전의 제2 사용자 인터페이스 940에서는 구 941의 안쪽 영역이 잔디이고, 구 941의 바깥 영역이 하늘이였다면, 구의 크기가 커진 후의 제3 사용자 인터페이스 960에서는 구 963의 안쪽 영역이 하늘이고, 구 963의 바깥 영역이 잔디로 변경될 수 있다.
또한, 제3 사용자 인터페이스 960에는 되돌리기 버튼 964, 취소 버튼 965, 편집 제어 버튼들 966 및 967, 완료 버튼 968을 포함할 수 있다. 되돌리기 버튼 964이 선택되면, 제어부 180은 평면의 이미지(예 도 3의 제1 사용자 인터페이스 310)를 표시할 수 있다. 취소 버튼 965가 선택되면, 제어부 180은 롤 이미지가 편집되기 전의 화면 예를 들어, 제1 사용자 인터페이스 930 또는 제2 사용자 인터페이스 940을 표시할 수 있다. 완료 버튼 968이 선택되면, 제어부 180은 편집된 롤 이미지 961을 메모리 150(예: 사진첩, 갤러리 등)에 저장할 수 있다.
도 10은 다양한 실시예들에 따른 전자 장치의 롤 이미지 제공 방법을 도시한 흐름도이다.
도 10을 참조하면, 동작 1001에서, 제어부 180은 복수의 이미지들이 포함된 이미지 리스트를 디스플레이 131에 표시할 수 있다. 이미지 리스트에는 일반 이미지, 일반 이미지보다 길이가 긴 이미지(예: 파노라마 이미지) 또는 롤 이미지 중 적어도 하나가 포함될 수 있다.
동작 1003에서, 제어부 180은 롤 이미지 표시 이벤트를 검출할 수 있다. 상기 롤 이미지 표시 이벤트는 상기 이미지 리스트에서 롤 이미지만 표시하도록 하는 이벤트일 수 있다. 또는, 상기 이미지 리스트에 포함된 이미지들을 모두 롤 이미지로 변환하여 표시하도록 하는 이벤트일 수 있다. 이러한, 롤 이미지 표시 이벤트는 사용자의 설정 또는 전자 장치 100의 설정에 따라 달라질 수 있다.
동작 1005에서, 제어부 180은 롤 이미지를 검색할 수 있다. 상기 롤 이미지 표시 이벤트가 이미 생성된 롤 이미지를 표시하도록 하는 이벤트인 경우, 제어부 180은 메모리 150(예: 사진첩, 갤러리)에서 롤 이미지를 검색할 수 있다.
동작 1007에서, 제어부 180은 상기 검색된 롤 이미지를 표시할 수 있다. 예를 들어, 동작 1001에서 표시되는 이미지 리스트와 동작 1007을 수행한 후 표시되는 이미지 리스트는 다를 수 있다. 예를 들어, 동작 1001에서 표시된 이미지 리스트는 일반 이미지만을 표시하는 것인데, 동작 1007을 수행한 후 표시되는 이미지 리스트는 롤 이미지만을 표시하는 것일 수 있다.
도 11a 및 도 11b는 다양한 실시예들에 따른 롤 이미지를 제공하는 일례를 도시한 도면이다.
도 11a는 이미지 리스트를 표시하는 일례를 도시한 것이다. 도 11a를 참조하면, 제어부 180은 복수의 이미지들을 포함하는 이미지 리스트를 표시한 제1 사용자 인터페이스 1110을 제공할 수 있다. 이미지 리스트에 포함된 이미지 1 1101은 일반 이미지일 수 있다. 일반 이미지는 전자 장치 100의 기본 설정에 따라 일반적으로 촬영 또는 생성되는 이미지일 수 있다. 또는, 이미지 리스트에 포함된 이미지들은 일반 이미지뿐만 아니라, 일반 이미지보다 길이가 긴 이미지(예: 파노라마 이미지) 또는 롤 이미지 중 적어도 하나가 포함될 수 있다. 제1 사용자 인터페이스 1110에서 사용자가 플래닛(Planet) 버튼 1102를 선택하면, 제어부 180은 롤 이미지 표시 이벤트가 검출된 것으로 판단할 수 있다.
제어부 180은 롤 이미지 표시 이벤트가 검출되면, 롤 이미지만을 포함한 이미지 리스트를 표시한 제2 사용자 인터페이스 1120를 제공할 수 있다. 따라서, 사용자는 한눈에 모든 롤 이미지를 확인할 수 있다. 제2 사용자 인터페이스 1120에서 사용자가 썸(Thumb) 버튼 1122를 선택하면, 제어부 180은 원본 이미지 표시 이벤트가 검출된 것으로 판단할 수 있다. 원본 이미지 표시 이벤트가 검출된 것으로 판단되면, 제어부 180은 제1 사용자 인터페이스 1110을 표시할 수 있다. 또는, 제2 사용자 인터페이스 1120에서 사용자가 어느 하나의 롤 이미지 1121를 선택하면, 제어부 180은 디스플레이 131에 선택된 롤 이미지 1121만 표시된 제3 사용자 인터페이스 1130을 표시할 수 있다.
도 11b는 롤 이미지를 표시하는 일례를 도시한 것이다. 도 11b를 참조하면, 제어부 180은 제2 사용자 인터페이스 1120에서 선택된 롤 이미지 1132를 포함하는 제3 사용자 인터페이스 1130를 표시할 수 있다. 제3 사용자 인터페이스 1130은 원본 이미지로 돌아가기 위한 되돌리기 버튼 1131, 롤 이미지 1132를 편집하기 위한 편집 버튼 1133, 롤 이미지 1132를 저장하기 위한 버튼 1134, 롤 이미지 1132를 공유하기 위한 버튼 1135를 포함할 수 있다.
제어부 180은 제3 사용자 인터페이스 1130에서 사용자 입력에 기반하여 롤 이미지를 편집하고, 편집된 롤 이미지 1142를 포함하는 제4 사용자 인터페이스 1140를 제공할 수 있다. 제4 사용자 인터페이스 1140은 제3 사용자 인터페이스 1130에 표시된 롤 이미지 1132를 편집한 롤 이미지 1142가 표시될 수 있다. 즉, 제어부 180은 제3 사용자 인터페이스 1130에서 사용자로부터 편집 버튼 1133이 선택되지 않더라도, 롤 이미지 1132 상에 사용자 입력이 검출되면, 검출된 사용자 입력에 기반하여 롤 이미지를 편집할 수 있다. 편집된 롤 이미지 1142는 원래 롤 이미지 1132에 비해 객체(예: 에펠탑)의 크기가 커지고, 구의 크기가 작아진 것일 수 있다.
되돌리기 버튼 1141이 선택되면, 제어부 180은 편집된 롤 이미지 1142의 원본 이미지를 포함하는 사용자 인터페이스(예: 도 3의 310)를 표시할 수 있다. 편집 버튼 1143이 선택되면, 제어부 180은 롤 이미지 1142를 편집하기 위한 사용자 인터페이스를 제공할 수 있다. 저장 버튼 1144가 선택되면, 제어부 180은 롤 이미지 1142를 메모리 150에 저장할 수 있다. 공유 버튼 1145가 선택되면, 제어부 180은 롤 이미지 1142를 공유할 수 있는 어플리케이션(예: 메시지, 메신저, 소셜 네트워크 서비스)의 리스트를 팝업 형태로 표시할 수 있다.
도 12는 다양한 실시예들에 따른 전자 장치의 일례를 도시한 도면이다.
도 12를 참조하면, 전자 장치 1210은 벤디드 디스플레이로 구성될 수 있다. 예를 들면, 전자 장치 1210은 전자 장치 1210를 세로로 놓고 봤을 때, 가운데 부분 1230이 접힐 수 있다. 또는, 전자 장치 1220은 가운데 부분 1230이 접히는 벤디드 디스플레이로 구성되고, 후면(예: 배면)에 두 개의 카메라 모듈들 1241, 1242을 포함할 수 있다. 예를 들면, 전자 장치 1220은 전자 장치 1220를 세로로 놓고 봤을 때, 후면의 위쪽에 제1 카메라 모듈 1241을 구비하고, 후면의 아래쪽에 제2 카메라 모듈 1242를 구비할 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 장치 1210, 1220은 넓은 각도로 사진을 촬영하기 용이한 형태로 구현될 수 있다. 예를 들면, 전자 장치 1210, 1220은 가운데 부분 1230을 접고 두 개의 카메라 모듈들 1241, 1242을 이용하여 사진을 촬영하는 경우, 롤 이미지를 생성하기 용이한 파노라마 이미지(또는 서라운드 이미지)를 촬영할 수 있다.
도 13은 다양한 실시예들에 따른 컨텐츠를 표시하는 일례를 도시한 도면이다.
도 13을 참조하면, 제어부 180은 하나의 이미지를 복수의 영역으로 분할하고, 분할된 각 영역에 날씨를 표현한 제1 사용자 인터페이스 1310을 표시할 수 있다. 예를 들면, 제1 사용자 인터페이스 1310은 하나의 이미지를 시간의 흐름(예: 오른쪽 방향)에 따라 8개의 영역(예: 1311, 1312, 1313, 1314, 1315, 1316)으로 분할하고, 각 분할된 영역에 날씨를 색상(또는 모양)으로 표현한 것일 수 있다. 제1 사용자 인터페이스 1310에서 각 영역은 전자 장치 100을 가로 모드로 놓았을 때 세로 방향 분할한 것으로, 예를 들면, 하루의 날씨를 시각화한 것일 수 있다.
예를 들면, 영역 1311, 1312는 새벽 0시부터 새벽 3시(예: 영역 1311), 새벽 3시부터 새벽 6시(예: 영역 1312)까지의 날씨를 표현한 것으로, 날씨가 동일 또는 유사할 수 있다. 날씨가 동일 또는 유사한 경우, 영역 1311, 1312는 동일 또는 유사한 색상으로 표현될 수 있다. 영역 1313, 1314는 새벽 6시부터 낮 12시까지의 날씨를 표현한 것으로, 날씨가 동일 또는 유사할 수 있다. 영역 1315는 낮 12시부터 오후 6시까지의 날씨를 표현한 것으로, 날씨가 동일 또는 유사할 수 있다. 영역 1316은 오후 6시부터 오후 12시까지의 날씨를 표현한 것으로, 날씨가 동일 또는 유사할 수 있다.
제어부 180은 제1 사용자 인터페이스 1310에 표시된 이미지를 말아서 입체적인 구 형태로 변환한 롤 이미지를 포함하는 제2 사용자 인터페이스 1320를 표시할 수 있다. 제2 사용자 인터페이스 1320에 표시된 8개의 영역(1311, 1312, 1313, 1314, 1315, 1316)은 제1 사용자 인터페이스 1310에 표시된 8개의 영역을 나타낸 것이다. 예를 들어, 제1 사용자 인터페이스 1310의 원본 이미지에서 날씨를 표현한 부분은 배경으로 처리된 것이며, 제2 사용자 인터페이스 1320의 롤 이미지에서 날씨를 표현한 부분은 구의 바깥 부분을 나타낸다. 표시하지는 않았지만, 제2 사용자 인터페이스 1320에는 원본 이미지로 돌아가기 위한 되돌리기 버튼, 롤 이미지를 편집하기 위한 편집 버튼, 롤 이미지를 저장하기 위한 저장 버튼, 롤 이미지를 공유하기 위한 공유 버튼을 더 포함할 수 있다.
제어부 180은 하나의 이미지를 복수의 영역으로 분할하고, 분할된 각 영역에 날씨를 표현한 제3 사용자 인터페이스 1330을 표시할 수 있다. 예를 들면, 제3 사용자 인터페이스 1330에서 각 영역은 전자 장치 100을 세로 모드로 놓았을 때 이미지를 시계 방향으로 9시 방향부터 12시 방향까지 7개의 영역(예: 1331, 1332, 1333, 1334, 1335, 1336, 1337)으로 분할한 것일 수 있다. 예를 들어, 제어부 180은 각 분할된 영역에 하루의 날씨를 색상(또는 모양), 텍스트, 아이콘으로 표현한 것일 수 있다.
예를 들어, 제1 영역 1331은 오늘(예: 화요일)의 날씨를 나타낸 것으로, 색상은 회색으로 텍스트는 2°(예: 아침 기온)/ 9°(예: 낮 기온)로, 아이콘은 구름 모양으로 나타낼 수 있다. 제2 영역 1332는 수요일의 날씨를 나타낸 것으로, 색상은 투명하게(또는 흰색), 텍스트는 3°/ 9°로, 아이콘은 해 모양으로 나타낼 수 있다. 제3 영역 1333은 목요일의 날씨를 나타낸 것으로, 색상은 불투명하게(또는 물방울 무늬), 텍스트는 6°/ 12°로, 아이콘은 구름과 빗금 모양으로 나타낼 수 있다. 제4 영역 1334는 금요일의 날씨를 나타낸 것으로, 색상은 회색으로 텍스트는 2°/ 9°로, 아이콘은 구름 모양으로 나타낼 수 있다. 제5 영역 1335는 토요일의 날씨를 나타낸 것으로, 색상은 투명하게(또는 흰색), 텍스트는 7°/ 11°로, 아이콘은 해 모양으로 나타낼 수 있다. 제6 영역 1336은 일요일의 날씨를 나타낸 것으로, 색상은 회색으로 텍스트는 3°/ 8° 로, 아이콘은 구름 모양으로 나타낼 수 있다. 제7 영역 1337은 월요일의 날씨를 나타낸 것으로, 색상은 불투명하게(또는 물방울 무늬), 텍스트는 5°/ 9°로, 아이콘은 구름과 빗금 모양으로 나타낼 수 있다.
도 14는 다양한 실시예들에 따른 텍스트 기반의 롤 이미지 생성 방법을 도시한 흐름도이다.
도 14를 참조하면, 동작 1401에서, 제어부 180은 컨텐츠를 표시할 수 있다. 예를 들어, 상기 컨텐츠는 텍스트, 이미지, 멀티미디어 데이터(예: 텍스트와 이미지)를 포함하는 것일 수 있다.
동작 1403에서, 제어부 180은 롤 생성 이벤트를 검출할 수 있다. 롤 생성 이벤트는 동작 1401에서 표시된 컨텐츠를 롤 이미지로 표시하기 위한 것일 수 있다. 롤 생성 이벤트는 사용자로부터 롤 이미지를 생성하기 위한 버튼이 선택되거나, 롤 이미지를 생성하기 위한 제스처가 검출되는 것일 수 있다.
상기 롤 생성 이벤트가 검출되면, 동작 1405에서, 제어부 180은 컨텐츠의 유형을 판단할 수 있다. 컨텐츠의 유형이란 컨텐츠의 종류를 나타내는 것으로, 컨텐츠가 텍스트이지, 이미지인지, 또는 텍스트와 이미지를 포함하는 것인지에 대한 것일 수 있다.
제어부 180은 상기 컨텐츠의 유형이 이미지인 경우, 동작 1417을 수행하고, 상기 컨텐츠의 유형이 텍스트인 경우, 동작 1407을 수행하도록 할 수 있다. 동작 1417에서, 제어부 180은 이미지 기반으로 상기 표시된 컨텐츠에 대한 롤 이미지를 생성할 수 있다. 예를 들어, 상기 이미지 기반으로 롤 이미지를 생성하는 방법은 도 4에서 설명한 롤 이미지 생성 방법을 의미하는 것일 수 있다. 동작 1417에서, 제어부 180은 도 4의 동작 405 내지 411을 수행하는 것일 수 있다. 예를 들어, 제어부 180은 상기 컨텐츠(예: 이미지)의 크기를 확인하고, 객체를 식별하며, 경계선을 결정하여 상기 크기, 객체 또는 경계선을 이용하여 롤 이미지를 생성할 수 있다.
이하, 동작 1407 내지 동작 1415는 텍스트 기반으로 롤 이미지를 생성하는 방법을 도시한 것이다.
상기 컨텐츠의 유형이 텍스트인 경우, 동작 1407에서, 제어부 180은 상기 컨텐츠의 메타데이터를 확인할 수 있다. 메타데이터는 컨텐츠의 속성(예: 태그 정보)에 대한 것으로, 예를 들어, 데이터의 용량, 데이터의 개수, 데이터의 종류 등일 수 있다. 제어부 180은 상기 컨텐츠의 메타데이터에 기반하여 유용한 통계치를 원 형태로 축약할 수 있다.
동작 1409에서, 제어부 180은 상기 메타데이터에 기반하여 롤 이미지 생성 시 표시할 텍스트를 식별할 수 있다. 예를 들어, 제어부 180은 롤 이미지를 구 형태로 생성하는데, 구의 테두리 또는 구의 내부에 텍스트를 표시할 수 있다. 제어부 180은 상기 메타데이터에 기반하여 상기 컨텐츠의 통계치 산출하거나, 또는 상기 컨텐츠로부터 표시할 텍스트를 식별할 수 있다.
동작 1411에서, 제어부 180은 롤 이미지 생성 시, 구 모양을 결정할 수 있다. 이미지 기반의 롤 이미지 생성과 달리 텍스트 기반으로 롤 이미지를 생성할 경우에는 구의 테두리에 텍스트를 표기하기 때문에, 식별된 텍스트의 개수 또는 길이에 따라 구 모양이 달라질 수 있다. 예를 들어, 별 모양 내부에 구가 위치하여, 구의 테두리 바깥부분이 돌기처럼 튀어나오는 구 모양이 있을 수 있다. 또는, 삼각형 안쪽에 구가 위치하여, 구의 테두리 바깥부분이 돌기처럼 튀어나오는 구 모양이 있을 수 있다. 불꽃 모양 내부에 구가 위치하여, 구의 테두리 바깥부분이 돌기처럼 튀어나오는 구 모양이 있을 수 있다. 즉, 구의 테두리 바깥부분이 돌기처럼 튀어나는 개수 또는 모양은 다를 수 있다.
동작 1413에서, 제어부 180은 상기 식별된 텍스트를 상기 결정된 구 모양 바깥쪽에 배치할 수 있다. 예를 들어, 제어부 180은 상기 식별된 텍스트를 상기 결정된 구 모양에서 돌기처럼 튀어나오는 부분에 배치시킬 수 있다.
동작 1415에서, 제어부 180은 롤 이미지를 생성할 수 있다. 제어부 180은 상기 식별된 텍스트가 상기 구 모양 외부에 배치되고, 하나의 컨텐츠에 대한 텍스트를 상기 구 모양 내부에 표시하는 롤 이미지를 생성할 수 있다.
도 15a 및 도 15b는 다양한 실시예들에 따른 텍스트를 기반으로 롤 이미지를 생성하는 일례를 도시한 도면들이다.
도 15a는 헬스 어플리케이션에 대한 제1 사용자 인터페이스를 도시한 것이다. 제1 사용자 인터페이스 1510에는 하루 동안(예: 24일) 사용자의 건강과 관련된 다양한 정보들이 포함될 수 있다. 예를 들면, 제1 사용자 인터페이스 1510에는 현재 걸음수(예: 6048 걸음)와 목표 걸음수(예: 5000 걸음) 1511, 현재 소모된 칼로리(예: 245 kcal)와 목표 소모 칼로리(679kcal) 1512, 자전거 타기 1513, 심장 박동수 1514가 포함될 수 있다. 제어부 180은 제1 사용자 인터페이스 1510에서 제스처 1515를 검출할 수 있다. 제스처 1515는 두 손가락으로 꼬집는 사용자 입력(예: 핀치(pinch), 줌인(zoom-in))일 수 있다. 또는, 제스처 1515는 적어도 두 손가락이 터치된 상태에서 두 손가락이 멀어지는 사용자 입력(예: 줌아웃(zoom-out), 스프레드(spread))일 수 있다. 제어부 180은 검출된 제스처 1515가 롤 생성 이벤트인 경우, 제1 사용자 인터페이스 1510에 포함된 텍스트를 기반으로 롤 이미지를 생성할 수 있다.
제어부 180은 제1 사용자 인터페이스 1510에 포함된 텍스트를 기반으로 생성된 롤 이미지 1521을 포함하는 제2 사용자 인터페이스 1520을 표시할 수 있다. 제2 사용자 인터페이스 1520은 구의 내부에 사용자(예: Dave 님)에 대한 건강 정보(예: 통계치(평균 7003걸음, 평균 260kal))를 표시하고, 구의 외부에 하루 동안 1522(예: 24일)의 운동량 1523을 표시할 수 있다. 운동량 1523에 따라 구 모양의 외부에 돌기처럼 튀어나오는 부분이 달라질 수 있다. 즉, 운동량 1523은 마치 하루 동안 사용자의 건강 정보를 그래프화한 것으로, 사용자는 롤 이미지 1521만으로 자신의 건강 상태를 파악할 수 있다. 즉, 제어부 180은 사용자의 선택에 따라 헬스 어플리케이션에 대하여 제1 사용자 인터페이스 1510 또는 제2 사용자 인터페이스 1520를 제공할 수 있다.
도 15b는 음악 어플리케이션에 대한 제1 사용자 인터페이스를 도시한 것이다. 제1 사용자 인터페이스 1530에는 음악 리스트가 포함될 수 있다. 예를 들면, 제1 사용자 인터페이스 1530에는 song 1 1531, song 2 1532를 포함하는 8개의 음악 파일에 대한 정보가 표시될 수 있다. 제어부 180은 제1 사용자 인터페이스 1530에서 제스처 1533를 검출할 수 있다. 제스처 1533은 두 손가락으로 꼬집는 사용자 입력(예: 핀치, 줌인)일 수 있다. 제스처 1533은 적어도 두 손가락이 터치된 상태에서 두 손가락이 멀어지는 사용자 입력(예: 줌아웃, 스프레드)일 수 있다. 제어부 180은 검출된 제스처 1533이 롤 생성 이벤트인 경우, 제1 사용자 인터페이스 1530에 포함된 텍스트를 기반으로 롤 이미지를 생성할 수 있다.
다양한 실시예들에 따르면, 제어부 180은 제1 사용자 인터페이스 1530에 포함된 텍스트(예: 8개의 음악 파일)를 기반으로 롤 이미지를 생성하거나, 음악 어플리케이션에 포함된 전체 텍스트(예: 전체 음악 파일)를 기반으로 롤 이미지를 생성할 수 있다.
제어부 180은 제1 사용자 인터페이스 1530에 포함된 텍스트를 기반으로 생성된 롤 이미지 1541을 포함하는 제2 사용자 인터페이스 1540을 표시할 수 있다. 제2 사용자 인터페이스 1540은 구의 내부에 사용자(예: Dave 님)에 대한 음악 통계치(예: 하루 평균 12곡, 가장 많이 들은 곡: Go Out/ Blur)를 표시하고, 구의 외부에 음악의 장르를 텍스트(예: ROCK 1542, POP 1543, JAZZ 1544, DANCE 1545, R&B 1546)로 표시할 수 있다. 이때, 제어부 180은 음악 리스트의 메타데이터를 이용하여 구 모양의 외부에 돌기처럼 튀어나오는 부분의 모양을 다르게 표현할 수 있다. 예를 들어, 제어부 180은 가장 많이 포함된 음악 장르(예: ROCK 1542)의 돌기 모양을 다른 음악 장르보다 더 많이 돌출되게 표현할 수 있다. 예를 들어, 구 모양은 음악 파일의 장르를 그래프화한 것으로, 사용자는 롤 이미지 1541만으로 음악 리스트의 통계치 또는 자신의 음악 스타일을 파악할 수 있다. 즉, 제어부 180은 사용자의 선택에 따라 음악 어플리케이션에 대하여 제1 사용자 인터페이스 1530 또는 제2 사용자 인터페이스 1540를 제공할 수 있다.
다양한 실시예들에 따른 전자 장치의 컨텐츠 표시 방법은 디스플레이에 원본 이미지를 표시하는 동작, 롤 생성 이벤트를 검출하는 동작, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하는 동작, 및 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하는 동작을 포함할 수 있다.
상기 컨텐츠 표시 방법은 상기 롤 생성 이벤트에 따라 상기 표시된 이미지 상에 영역 설정 프레임을 표시하는 동작, 사용자의 선택에 따라 상기 영역 설정 프레임의 위치를 이동시켜, 롤 이미지 생성 영역을 결정하는 동작 및 상기 롤 이미지 생성 영역에 포함된 객체를 식별하는 동작을 더 포함할 수 있다.
상기 컨텐츠 표시 방법은 상기 식별된 객체를 이용하여 경계선을 결정하는 동작을 더 포함하고, 상기 변환하는 동작은 상기 객체 또는 상기 경계선을 이용하여 상기 원본 이미지를 롤 이미지로 변환하는 동작을 포함할 수 있다.
상기 컨텐츠 표시 방법은 상기 원본 이미지의 크기, 상기 객체 또는 상기 경계선 중 적어도 하나에 기반하여 상기 롤 이미지의 크기를 결정하는 동작을 더 포함할 수 있다.
상기 롤 이미지로 변환하는 동작은, 상기 객체의 우선순위, 상기 객체의 크기, 상기 객체의 속성, 또는 상기 원본 이미지의 속성 중 적어도 하나에 기반하여 대표 객체를 선택하는 동작; 및 상기 대표 객체에 기반하여 상기 롤 이미지를 생성하는 동작을 포함할 수 있다.
상기 롤 이미지로 변환하는 동작은, 상기 원본 이미지의 색상 차이, 상기 원본 이미지의 속성, 또는 상기 객체의 크기 중 적어도 하나에 기반하여 상기 경계선을 결정하는 동작, 및 상기 경계선을 기준으로 하단 영역을 3차원 구 또는 원형의 형태로 표현하고, 상기 경계선을 기준으로 상단 영역을 상기 3차원 구 또는 상기 원형의 바깥부분으로 표현하고, 상기 식별된 객체를 상기 3차원 구 또는 상기 원형의 중심에 배치하여 상기 롤 이미지를 생성하는 동작을 포함할 수 있다.
상기 컨텐츠 표시 방법은 카메라 모듈을 통해 획득되는 이미지의 종류를 판단하는 동작; 및 상기 이미지의 종류에 기반하여 롤 이미지의 생성 여부를 결정하는 동작을 더 포함할 수 있다.
상기 객체는 피사체, 사람, 사물, 배경 또는 자연 환경 중 적어도 하나를 포함하고, 상기 롤 이미지는 상기 원본 이미지가 상기 식별된 객체를 중심으로 3차원 구 또는 원형으로 표시될 수 있다.
상기 컨텐츠 표시 방법은 상기 디스플레이에 상기 롤 이미지를 표시하는 동작; 사용자 입력을 검출하는 동작; 및 상기 사용자 입력에 기반하여 상기 롤 이미지에 포함된 객체 또는 구의 크기를 변경하는 동작을 더 포함할 수 있다.
상기 변경하는 동작은 상기 사용자 입력에 기반하여 상기 객체의 크기가 변경되는 경우, 상기 구의 크기를 조정하고, 상기 사용자 입력에 기반하여 상기 구의 크기가 변경되는 경우, 상기 객체의 크기를 조정하는 동작을 포함할 수 있다.
상기 컨텐츠 표시 방법은 롤 이미지 표시 이벤트가 검출되면, 상기 메모리에 저장된 이미지 중에서 롤 이미지를 검색하는 동작, 및 상기 검색된 롤 이미지를 포함하는 이미지 리스트를 표시하는 동작을 더 포함할 수 있다.
상기 컨텐츠 표시 방법은 상기 디스플레이에 표시된 컨텐츠의 메타데이터를 확인하는 동작, 및 상기 메타데이터에 기반하여 표시할 텍스트 및 구 모양을 결정하여 롤 이미지를 생성하는 동작을 더 포함할 수 있다.
그리고 본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    디스플레이;
    메모리; 및
    상기 디스플레이와 상기 메모리와 기능적으로 연결된 제어부를 포함하고,
    상기 제어부는,
    상기 디스플레이에 원본 이미지를 표시하고, 롤 생성 이벤트를 검출하고, 상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하고, 상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하여 상기 메모리에 저장하도록 설정된 전자 장치.
  2. 제1항에 있어서, 상기 제어부는,
    상기 롤 생성 이벤트에 따라 상기 표시된 이미지 상에 영역 설정 프레임을 표시하고, 사용자의 선택에 따라 상기 영역 설정 프레임의 위치를 이동시켜, 롤 이미지 생성 영역을 결정하고,
    상기 롤 이미지 생성 영역에 포함된 객체를 식별하도록 설정된 전자 장치.
  3. 제1항에 있어서, 상기 제어부는,
    상기 식별된 객체를 이용하여 경계선을 결정하고, 상기 객체 또는 상기 경계선을 이용하여 상기 원본 이미지를 롤 이미지로 변환하도록 설정된 전자 장치.
  4. 제3항에 있어서, 상기 제어부는,
    상기 원본 이미지의 크기, 상기 객체 또는 상기 경계선 중 적어도 하나에 기반하여 상기 롤 이미지의 크기를 결정하도록 설정된 전자 장치.
  5. 제1항에 있어서, 상기 제어부는,
    상기 객체의 우선순위, 상기 객체의 크기, 상기 객체의 속성, 또는 상기 원본 이미지의 속성 중 적어도 하나에 기반하여 대표 객체를 선택하고, 상기 대표 객체에 기반하여 상기 롤 이미지를 생성하도록 설정된 전자 장치.
  6. 제1항에 있어서, 상기 제어부는,
    상기 원본 이미지의 색상 차이, 상기 원본 이미지의 속성, 또는 상기 객체의 크기 중 적어도 하나에 기반하여 경계선을 결정하도록 설정된 전자 장치.
  7. 제1항에 있어서,
    카메라 모듈을 더 포함하고,
    상기 제어부는,
    상기 카메라 모듈을 통해 획득되는 이미지의 종류를 판단하고, 상기 이미지의 종류에 기반하여 롤 이미지의 생성 여부를 결정하도록 설정된 전자 장치.
  8. 제1항에 있어서, 상기 제어부는,
    상기 식별된 객체를 중심으로 상기 원본 이미지를 3차원 구(sphere) 또는 원형(circle)으로 변환하여 상기 롤 이미지로 생성하도록 설정된 전자 장치.
  9. 제8항에 있어서,
    상기 객체는 피사체, 사람, 사물, 배경 또는 자연 환경(natural environment) 중 적어도 하나를 포함하고,
    상기 롤 이미지는 상기 원본 이미지에 포함된 하나 이상의 객체 중에서 대표 객체가 상기 3차원 구 또는 상기 원형의 테두리에 다른 객체와 구별되게 표시되는, 전자 장치.
  10. 제1항에 있어서,
    상기 롤 이미지는, 경계선을 기준으로 상기 원본 이미지의 하단 영역을 3차원 구 또는 원형의 형태로 표현하고, 상기 경계선을 기준으로 상기 원본 이미지의 상단 영역을 상기 3차원 구 또는 상기 원형의 바깥부분으로 표현하고, 상기 식별된 객체를 상기 3차원 구 또는 상기 원형의 중심에 배치한 것인 전자 장치.
  11. 제1항에 있어서, 상기 제어부는,
    상기 디스플레이에 상기 롤 이미지를 표시하고, 사용자 입력을 검출하고, 상기 사용자 입력에 기반하여 상기 롤 이미지에 포함된 객체 또는 구의 크기를 변경하도록 설정된 전자 장치.
  12. 제11항에 있어서, 상기 제어부는,
    상기 사용자 입력에 기반하여 상기 객체의 크기가 변경되는 경우, 상기 구의 크기를 조정하고, 상기 사용자 입력에 기반하여 상기 구의 크기가 변경되는 경우, 상기 객체의 크기를 조정하도록 설정된 전자 장치.
  13. 제1항에 있어서, 상기 제어부는,
    롤 이미지 표시 이벤트가 검출되면, 상기 메모리에 저장된 이미지 중에서 롤 이미지를 검색하고, 검색된 롤 이미지를 포함하는 이미지 리스트를 상기 디스플레이에 표시하도록 설정된 전자 장치.
  14. 제1항에 있어서, 상기 제어부는,
    상기 디스플레이에 표시된 컨텐츠의 메타데이터를 확인하고, 상기 메타데이터에 기반하여 표시할 텍스트 및 구 모양을 결정하여 롤 이미지를 생성하도록 설정된 전자 장치.
  15. 전자 장치의 컨텐츠 표시 방법에 있어서,
    디스플레이에 원본 이미지를 표시하는 동작;
    롤 생성 이벤트를 검출하는 동작;
    상기 롤 생성 이벤트에 따라 상기 원본 이미지로부터 객체를 식별하는 동작; 및
    상기 식별된 객체를 이용하여 상기 원본 이미지를 롤 이미지로 변환하여 표시하는 동작을 포함하는 방법.
PCT/KR2016/012385 2015-11-06 2016-10-31 컨텐츠 표시 방법 및 이를 구현한 전자 장치 WO2017078350A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/774,148 US10972670B2 (en) 2015-11-06 2016-10-31 Content display method and electronic device for implementing same
EP16862366.8A EP3349103A4 (en) 2015-11-06 2016-10-31 Content display method and electronic device for implementing same
CN201680064706.1A CN108351743B (zh) 2015-11-06 2016-10-31 内容显示方法和用于实现该方法的电子设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0155556 2015-11-06
KR1020150155556A KR102468086B1 (ko) 2015-11-06 2015-11-06 컨텐츠 표시 방법 및 이를 구현한 전자 장치

Publications (1)

Publication Number Publication Date
WO2017078350A1 true WO2017078350A1 (ko) 2017-05-11

Family

ID=58662257

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/012385 WO2017078350A1 (ko) 2015-11-06 2016-10-31 컨텐츠 표시 방법 및 이를 구현한 전자 장치

Country Status (5)

Country Link
US (1) US10972670B2 (ko)
EP (1) EP3349103A4 (ko)
KR (1) KR102468086B1 (ko)
CN (1) CN108351743B (ko)
WO (1) WO2017078350A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434101A (zh) * 2021-06-22 2021-09-24 青岛海尔科技有限公司 设备的控制方法、装置、存储介质及电子装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108259315A (zh) * 2017-01-16 2018-07-06 广州市动景计算机科技有限公司 在线图片分享方法、设备、客户端及电子设备
KR102538309B1 (ko) * 2018-06-20 2023-05-31 한국전자통신연구원 양방향 디스플레이 장치 및 방법
JP6807621B1 (ja) * 2020-08-05 2021-01-06 株式会社インタラクティブソリューションズ 音声に基づいて画像を変更するためのシステム
CN112333468B (zh) * 2020-09-28 2023-05-12 影石创新科技股份有限公司 图像处理方法、装置、设备及存储介质
WO2023204388A1 (ko) * 2022-04-19 2023-10-26 삼성전자 주식회사 디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070103544A1 (en) * 2004-08-26 2007-05-10 Naofumi Nakazawa Panorama image creation device and panorama image imaging device
US20110096089A1 (en) * 2009-10-22 2011-04-28 Samsung Electronics Co., Ltd. Method and device for real time 3d navigation in panoramic images and cylindrical spaces
KR20110048892A (ko) * 2009-11-03 2011-05-12 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20140147597A (ko) * 2013-06-20 2014-12-30 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20150090740A (ko) * 2014-01-29 2015-08-06 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999063488A1 (fr) * 1998-06-02 1999-12-09 Sony Corporation Dispositif et procede de traitement d'images
US20120293607A1 (en) 2011-05-17 2012-11-22 Apple Inc. Panorama Processing
JP5870636B2 (ja) 2011-11-09 2016-03-01 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5493114B1 (ja) * 2012-10-24 2014-05-14 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
KR20140081470A (ko) * 2012-12-21 2014-07-01 삼성전자주식회사 문자 확대 표시 방법, 상기 방법이 적용되는 장치, 및 상기 방법을 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체
CN103079035B (zh) * 2013-01-09 2016-04-20 苏州佳世达电通有限公司 数码相机操作方法以及使用此方法的数码相机
KR20140112909A (ko) 2013-03-14 2014-09-24 삼성전자주식회사 파노라마 영상을 생성하는 전자 장치 및 방법
EP2960856B1 (en) 2013-04-30 2020-03-04 Sony Corporation Image processing device, image processing method, and program
CN103426202A (zh) * 2013-07-24 2013-12-04 江苏物联网络科技发展有限公司 三维全景互动移动终端展示系统及展示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070103544A1 (en) * 2004-08-26 2007-05-10 Naofumi Nakazawa Panorama image creation device and panorama image imaging device
US20110096089A1 (en) * 2009-10-22 2011-04-28 Samsung Electronics Co., Ltd. Method and device for real time 3d navigation in panoramic images and cylindrical spaces
KR20110048892A (ko) * 2009-11-03 2011-05-12 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20140147597A (ko) * 2013-06-20 2014-12-30 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20150090740A (ko) * 2014-01-29 2015-08-06 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3349103A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434101A (zh) * 2021-06-22 2021-09-24 青岛海尔科技有限公司 设备的控制方法、装置、存储介质及电子装置
CN113434101B (zh) * 2021-06-22 2023-06-09 青岛海尔科技有限公司 设备的控制方法、装置、存储介质及电子装置

Also Published As

Publication number Publication date
CN108351743A (zh) 2018-07-31
US10972670B2 (en) 2021-04-06
EP3349103A4 (en) 2018-10-17
KR102468086B1 (ko) 2022-11-17
EP3349103A1 (en) 2018-07-18
US20180332233A1 (en) 2018-11-15
CN108351743B (zh) 2021-06-04
KR20170053273A (ko) 2017-05-16

Similar Documents

Publication Publication Date Title
WO2017078350A1 (ko) 컨텐츠 표시 방법 및 이를 구현한 전자 장치
WO2018182279A1 (en) Method and apparatus for providing augmented reality function in electronic device
WO2018128421A1 (en) Image capturing method and electronic device
WO2016060501A1 (en) Method and apparatus for providing user interface
WO2017043936A1 (en) Method for measuring angles between displays and electronic device using the same
WO2015182912A1 (en) Method of controlling display and electronic device for providing the same
WO2016036137A1 (en) Electronic device with bent display and method for controlling thereof
WO2014046525A1 (en) Method and apparatus for providing multi-window in touch device
WO2017131449A1 (en) Electronic device and method for running function according to transformation of display of electronic device
WO2014137131A1 (en) Method and apparatus for manipulating data on electronic device display
WO2016195291A1 (en) User terminal apparatus and method of controlling the same
EP3350673A1 (en) Electronic device having rollable display and method of controlling the same
WO2018128253A1 (ko) 전자 장치 및 그의 표시 방법
WO2015126196A1 (en) Method and apparatus for displaying screen on electronic device
WO2018021862A1 (en) Method of displaying content and electronic device adapted to the same
WO2017111312A1 (en) Electronic device and method of managing application programs thereof
WO2014098528A1 (en) Text-enlargement display method
WO2017022971A1 (ko) 전자 장치에서 디스플레이 방법 및 장치
WO2016093543A1 (en) Method for controlling and electronic device thereof
WO2017123016A1 (ko) 전자 장치의 플렉서블 디스플레이 및 그의 운용 방법
WO2018174581A1 (ko) 전자 장치의 화이트 밸런스 기능 제어 방법 및 장치
WO2017057960A1 (en) Electronic device and method for controlling the same
WO2018044063A1 (en) Method for providing visual effects according to bezel-based interaction and electronic device for same
WO2015005628A1 (en) Portable device for providing combined ui component and method of controlling the same
WO2016099166A1 (en) Electronic device and method for displaying webpage using the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16862366

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2016862366

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15774148

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE