WO2015005728A1 - 이미지 표시 방법 및 장치 - Google Patents

이미지 표시 방법 및 장치 Download PDF

Info

Publication number
WO2015005728A1
WO2015005728A1 PCT/KR2014/006265 KR2014006265W WO2015005728A1 WO 2015005728 A1 WO2015005728 A1 WO 2015005728A1 KR 2014006265 W KR2014006265 W KR 2014006265W WO 2015005728 A1 WO2015005728 A1 WO 2015005728A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
screen
displayed
display
electronic device
Prior art date
Application number
PCT/KR2014/006265
Other languages
English (en)
French (fr)
Inventor
오훈철
김수형
노병탁
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US14/904,503 priority Critical patent/US10528619B2/en
Publication of WO2015005728A1 publication Critical patent/WO2015005728A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Definitions

  • Various embodiments of the present disclosure relate to an electronic device, and more particularly, to a method and an apparatus for displaying an image.
  • GUI graphical user interface
  • the mobile device may store and execute basic applications manufactured by the manufacturer of the device and installed on the device, additional applications downloaded from an application sales website through the Internet, and the like.
  • the additional applications may be developed by general developers and registered on the application sales website.
  • various electronic devices including mobile devices, are provided in various forms of image viewer applications that can view stored images by displaying images such as photographs on a screen.
  • Some of the stored images may be images that the user does not want to view. According to the prior art, the image display methods are displayed on the screen among the pictures that do not want to view as the pictures in the classification are sequentially displayed on the screen.
  • Various embodiments of the present disclosure may provide a method and an apparatus capable of selecting and viewing only images including a specific object among a plurality of images in an electronic device.
  • an apparatus for displaying an image by recognizing an object displayed on a screen of an electronic device includes a storage unit which stores a plurality of image files; Displays an image corresponding to each image file stored in the storage unit on the screen of the electronic device, and converts the currently displayed image into another image stored in the storage unit according to the input by the input means or the setting of the automatic screen switching function.
  • the display unit may display, on the screen, function selection means for executing a function of controlling the images not including the selected object not to be displayed on the display unit as the specific object is selected.
  • the function selection means may be implemented in the form of a menu window including a function selection menu for at least one function associated with the processing of the image displayed on the display.
  • At least one object included in the selected area may be selected as a specific area is selected by an input means in the image.
  • the selection of a specific object included in the image displayed on the screen detects at least one object included in the image displayed on the screen to display an area of the detected object on the image, wherein the at least one displayed The object may be selected by selecting one of the areas of the detected objects.
  • the selected object may be a face of a person.
  • an apparatus for displaying an image by recognizing an object displayed on a screen of an electronic device includes a storage unit for storing a plurality of image files; Displays an image corresponding to each image file stored in the storage unit on the screen of the electronic device, and converts the currently displayed image into another image stored in the storage unit according to the input by the input means or the setting of the automatic screen switching function.
  • the display unit may display, on the screen, function selection means for executing a function of controlling the images including the selected object not to be displayed on the display unit as the specific object is selected.
  • the function selection means may be implemented in the form of a menu window including a function selection menu for at least one function associated with the processing of the image displayed on the display.
  • At least one object included in the selected area may be selected as a specific area is selected by an input means in the image.
  • the selection of a specific object included in the image displayed on the screen detects at least one object included in the image displayed on the screen to display an area of the detected object on the image, wherein the at least one displayed The object may be selected by selecting one of the areas of the detected objects.
  • the selected object may be a face of a person.
  • a method of displaying an image by recognizing an object displayed on a screen of an electronic device may include displaying an image corresponding to each image file on a screen of the electronic device among a plurality of image files stored in a storage unit.
  • the display process may include a process of switching to a display, and the displaying process may be controlled such that images of the plurality of image files stored in the storage unit that do not include the selected object are not displayed on the display unit. Can be.
  • the process may further include a process of displaying on the screen a function selection means for executing a function to control the images not including the selected object is not displayed on the display unit.
  • the function selection means may be implemented in the form of a menu window including a function selection menu for at least one function associated with the processing of the image displayed on the display.
  • At least one object included in the selected area may be selected as a specific area is selected by an input means in the image.
  • the selection of a specific object included in the image displayed on the screen detects at least one object included in the image displayed on the screen to display an area of the detected object on the image, wherein the at least one displayed The object may be selected by selecting one of the areas of the detected objects.
  • the selected object may be a face of a person.
  • a method of displaying an image by recognizing an object displayed on a screen of an electronic device may include displaying an image corresponding to each image file on a screen of the electronic device among a plurality of image files stored in a storage unit.
  • a displayed image a process of selecting a specific object included in the image displayed on the screen, and converting the displayed image into another image stored in the storage unit according to an input by an input means or a setting of an automatic screen switching function.
  • the displaying may include displaying the image.
  • the displaying may be controlled and displayed such that images including the selected object are not displayed on the display unit among the images of the plurality of image files stored in the storage unit.
  • the method may further include displaying a function selection means on the screen to execute a function of controlling the images including the selected object not to be displayed on the display unit.
  • the function selection means may be implemented in the form of a menu window including a function selection menu for at least one function associated with the processing of the image displayed on the display.
  • At least one object included in the selected area may be selected as a specific area is selected by an input means in the image.
  • the selection of a specific object included in the image displayed on the screen detects at least one object included in the image displayed on the screen to display an area of the detected object on the image, wherein the at least one displayed The object may be selected by selecting one of the areas of the detected objects.
  • the selected object may be a face of a person.
  • Such recording media may include all types of recording media on which programs and data are stored so that they can be read by a computer system. Examples include Read Only Memory, Random Access Memory, Compact Disk, Digital Video Disk (DVD) -ROM, Magnetic Tape, Floppy Disk, Optical Data Storage, Embedded Multimedia Card (eMMC). And the like also implemented in the form of a carrier wave (eg, transmission over the Internet).
  • these recording media can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • the user when viewing an image stored through an electronic device having a screen display means such as a smart phone, the user may only view an image including a person or an object desired by the user. Appreciation of images such as photos can be convenient.
  • the user when viewing an image stored through an electronic device equipped with a screen display means such as a smartphone, the user may view an image including an unwanted person or object except As a result, viewing of an image such as a photo on the electronic device may be convenient.
  • FIG 1 illustrates an electronic device according to an embodiment of the present invention.
  • FIG. 2 is a front perspective view of an electronic device according to an embodiment of the present invention.
  • FIG. 3 is a rear perspective view of an electronic device according to an embodiment of the present invention.
  • 4 and 5 illustrate a general image viewing method in an electronic device.
  • FIG. 6 is a diagram illustrating a concept of displaying an image by recognizing an object displayed on a screen of an electronic device according to an embodiment of the present disclosure.
  • FIG. 7 is a block diagram illustrating a detailed structure of a device displaying an image by recognizing an object displayed on a screen of an electronic device according to an embodiment of the present disclosure.
  • 8A is a flowchart illustrating a procedure of displaying an image by recognizing an object displayed on a screen of an electronic device according to an embodiment of the present disclosure.
  • 8B is a flowchart illustrating a procedure of displaying an image by recognizing an object displayed on a screen of an electronic device according to an embodiment of the present disclosure.
  • FIG. 9 is a flowchart illustrating a procedure of viewing an image by selecting an object on a screen of an electronic device according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a procedure of viewing an image by selecting an object on a screen of an electronic device according to an embodiment of the present invention.
  • 11 to 16 illustrate examples of embodiments of the present invention implemented on a screen of an electronic device.
  • 17 is a block diagram illustrating a detailed configuration of an apparatus implemented according to an embodiment of the present invention.
  • first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • An embodiment of the present disclosure discloses an apparatus and method for recognizing an object included in a specific image displayed on a screen among images stored in an electronic device and displaying images on the screen in relation to the recognized object.
  • an object included in the image may be selected by the user through an input means.
  • a user selects a specific area of an image displayed on the screen by using an input means, and processes the specific object included in the selected area by image processing the selected area. Can be selected and recognized.
  • the present invention by image processing the entire area of the image being displayed, at least one object included in the image is detected and displayed on the screen, and the user selects a specific object from the detected objects. This allows you to select and recognize objects.
  • the 'objects' selectable in the image may include a face, a body, a part of a body, an object carried by a person, an object worn by a person, a building, a part of a building, Any object identifiable in the entire image, such as a tree, an object fixed to the background, or a movable object, may be included in the selectable object according to an embodiment of the present invention.
  • embodiments of the present invention may be applied to both a still image and a video by searching for whether an image including the object exists in the video.
  • An apparatus and method for displaying an image through object recognition displayed on a screen of an electronic device according to an embodiment of the present invention may be implemented in any electronic device equipped with a display means (for example, a touch screen). Any electronic device that can display an image and install a predetermined application that can control an image display method can be included in the electronic device according to an embodiment of the present invention.
  • the electronic device may be any device having a display means, and may be a digital camera, a smart phone, a mobile phone, a game machine, a television (TV), a display device, a vehicle head unit, a laptop computer, a laptop. It may be a computer, a tablet computer, a personal media player (PMP), a personal digital assistant (PDA), a navigation device, an ATM in a bank, a point of sales device in a store, and the like. Also, the electronic device of the present disclosure may be a flexible device or a flexible display device.
  • a typical configuration of such an electronic device is for a portable device (eg, a mobile device such as a mobile phone, a smart phone, etc.), and in the typical configuration of such an electronic device, some components may be omitted or changed as necessary.
  • a portable device eg, a mobile device such as a mobile phone, a smart phone, etc.
  • some components may be omitted or changed as necessary.
  • FIG 1 illustrates an electronic device according to an embodiment of the present invention.
  • the mobile device 100 may be connected to an external electronic device using at least one of the communication module 120, the connector 165, and the earphone connection jack 167.
  • the external electronic device may be detached from the electronic device 100 and connected to a wire by using an earphone, an external speaker, a universal serial bus (USB) memory, a charger, a cradle / dock, a DMB.
  • USB universal serial bus
  • It may include one of various devices such as an antenna, a mobile payment related device, a health care device (such as a blood glucose meter), a game machine, and a car navigation device.
  • the electronic device may include a Bluetooth communication device, a Near Field Communication (NFC) device, a WiFi Direct communication device, and a wireless access point (AP) that can be connected wirelessly.
  • the electronic device 100 may be connected to one of other or electronic devices, for example, a mobile phone, a smartphone, a tablet PC, a desktop PC, and a server by using wired or wireless.
  • the electronic device 100 may include at least one touch screen 190 and at least one touch screen controller 195.
  • the electronic device 100 may include a controller 110, a communication module 120, a multimedia module 140, a camera module 150, an input / output module 160, a sensor module 170, a storage unit 175, and a power supply unit 180.
  • the communication module 120 may include a mobile communication module 121, a sub communication module 130, and a broadcast communication module 141.
  • the sub communication module 130 may include at least one of the WLAN module 131 and the short range communication module 132, and the multimedia module 140 may include at least one of the audio reproduction module 142 and the video reproduction module 143.
  • the camera module 150 may include at least one of the first camera 151 and the second camera 152.
  • the input / output module 160 may include at least one of a button 161, a microphone 162, a speaker 163, a vibration device 164, a connector 165, and a keypad 166.
  • the controller 110 stores a ROM (ROM) 112 in which a control program for controlling the CPU 111 and the electronic device 100 are stored and a signal or data input from the outside of the electronic device 100, or a storage area for an operation performed by the electronic device 100. It may include a RAM (RAM) 113 used as.
  • the CPU 111 may include single core, dual core, triple core or quad core.
  • the CPU 111, ROM 112 and RAM 113 may be interconnected via an internal bus.
  • controller 110 may control the communication module 120, the multimedia module 140, the camera module 150, the input / output module 160, the sensor module 170, the storage unit 175, the power supply unit 180, the touch screen 190, and the touch screen controller 195.
  • the controller 110 searches for images including at least one object selected from the images displayed on the touch screen 190, controls the filtered images to be viewed, or excludes the searched images. Can be controlled to view. Detailed functions according to the embodiment of the present invention of the controller 110 will be described later in the description of FIG. 7.
  • input of the input value may include a gesture input through the camera module 150, a switch / button input through a button 161 or a keypad 166, a voice input through the microphone 162, etc., in addition to a user input through the touch screen 190. It may include.
  • the controller 110 may detect a user input event such as a hovering event when the input unit 168 approaches or is located close to the touch screen 190. According to an embodiment of the present disclosure, when an object included in an image is selected by various input means and various filtering function commands are input, the controller 110 may control an image reading function according to the corresponding function command.
  • the controller 110 may detect various user inputs received through the camera module 150, the input / output module 160, the sensor module 170, etc. as well as the touch screen 190.
  • the user input may include not only the touch but also various types of information input into the electronic device 100 such as a user's gesture, voice, eye movement, iris recognition, and a bio signal.
  • the controller 110 may control a predetermined operation or function corresponding to the detected user input to be performed in the electronic device 100.
  • the controller 110 may output a control signal to the input unit 168 or the vibrating element 164.
  • the control signal may include information about the vibration pattern, and the input unit 168 or the vibration element 164 generates vibrations according to the vibration pattern.
  • the information on the vibration pattern may represent the vibration pattern itself, an identifier of the vibration pattern, and the like. Alternatively, such control signal may simply include a request for vibration generation.
  • the electronic device 100 may include at least one of a mobile communication module 121, a wireless LAN module 131, and a short range communication module 132 according to performance.
  • the mobile communication module 121 may allow the electronic device 100 to be connected to the external electronic device through mobile communication using at least one, one, or a plurality of antennas under the control of the controller 110.
  • the mobile communication module 121 transmits a wireless signal for a voice call, a video call, a text message (SMS) or a multimedia message (MMS) with a mobile phone, a smartphone, a tablet PC or another electronic device having a phone number input to the electronic device 100.
  • SMS text message
  • MMS multimedia message
  • the sub communication module 130 may include at least one of the WLAN module 131 and the short range communication module 132.
  • the wireless LAN module 131 may be included, only the short-range communication module 132 may be included, or both the wireless LAN module 131 and the short-range communication module 132 may be included.
  • the WLAN module 131 may be connected to the Internet at a place where a wireless access point (AP) is installed under the control of the controller 110.
  • the WLAN module 131 may support a WLAN standard (IEEE 802.11x) of the Institute of Electrical and Electronics Engineers (IEEE).
  • the short range communication module 132 may wirelessly perform short range communication between the electronic device 100 and the external electronic device under the control of the controller 110.
  • the short range communication method may include Bluetooth, infrared data association (IrDA), Wi-Fi Direct communication, near field communication (NFC), and the like.
  • the broadcast communication module 141 may control a broadcast signal (eg, a TV broadcast signal, a radio broadcast signal, or a data broadcast signal) transmitted from a broadcast station through a broadcast communication antenna under control of the controller 110 and broadcast additional information (eg, an electric program guide (EPS)). Or it may receive an ESG (Electric Service Guide).
  • a broadcast signal eg, a TV broadcast signal, a radio broadcast signal, or a data broadcast signal
  • broadcast additional information eg, an electric program guide (EPS)
  • EPS electric program guide
  • ESG Electronic Service Guide
  • the multimedia module 140 may include an audio playback module 142 or a video playback module 143.
  • the audio reproduction module 142 may play a digital audio file (eg, a file extension of mp3, wma, ogg, or wav) stored or received in the storage 175 under the control of the controller 110.
  • the video playback module 143 may play a digital video file (eg, a file extension of mpeg, mpg, mp4, avi, mov, or mkv) stored or received under the control of the controller 110.
  • the multimedia module 140 may be integrated in the controller 110.
  • the camera module 150 may include at least one of the first camera 151 and the second camera 152 for capturing a still image or a video under the control of the controller 110.
  • the camera module 150 may include at least one of a barrel unit 155 for zooming in and out to photograph a subject, a motor unit 154 for controlling movement of the barrel unit 155, and a flash 153 for providing an auxiliary light source for photographing a subject. It may include.
  • the first camera 151 may be disposed on the front surface of the electronic device 100, and the second camera 152 may be disposed on the rear surface of the electronic device 100.
  • the input / output module 160 includes at least one of at least one button 161, at least one microphone 162, at least one speaker 163, at least one vibration element 164, connector 165, keypad 166, earphone connection jack 167 and input unit 168. can do.
  • the input / output module 160 is not limited thereto, and a cursor control such as a mouse, trackball, joystick, or cursor direction keys may be provided to control the movement of the cursor on the touch screen 190.
  • the button 161 may be formed on the front, side, or back of the housing (or case) of the electronic device 100, and may be one of a power / lock button, a volume button, a menu button, a home button, a back button, and a search button. It may include at least one.
  • the microphone 162 may generate an electrical signal by receiving a voice or a sound under the control of the controller 110.
  • the speaker 163 may output sounds corresponding to various signals or data (for example, wireless data, broadcast data, digital audio data, digital video data, etc.) to the outside of the electronic device 100 under the control of the controller 110.
  • the speaker 163 may output a sound corresponding to a function performed by the electronic device 100 (for example, a button operation sound corresponding to a phone call, a call connection sound, or a voice of a counterpart user).
  • a sound corresponding to a function performed by the electronic device 100 for example, a button operation sound corresponding to a phone call, a call connection sound, or a voice of a counterpart user.
  • One or more speakers 163 may be formed at appropriate locations or locations of the housing of the electronic device 100.
  • the vibration device 164 may convert an electrical signal into mechanical vibration under the control of the controller 110. For example, when the electronic device 100 in the vibration mode receives a voice or video call from another device, the vibration device 164 processes.
  • One or more vibrating elements 164 may be formed in a housing of the electronic device 100. The vibrating element 164 may process in response to a user input through the touch screen 190.
  • the connector 165 may be used as an interface for connecting the electronic device 100 to an external electronic device or a power source.
  • the controller 110 may transmit data stored in the storage 175 of the electronic device 100 to an external electronic device or receive data from the external electronic device through a wired cable connected to the connector 165.
  • the electronic device 100 may receive power from a power source through a wired cable connected to the connector 165 or charge a battery using the power source.
  • the keypad 166 may receive a key input from the user for controlling the electronic device 100.
  • the keypad 166 may include a physical keypad formed on the electronic device 100 or a virtual keypad displayed on the touch screen 190.
  • the physical keypad formed on the electronic device 100 may be excluded according to the performance or structure of the electronic device 100.
  • the earphone may be inserted into an earphone connecting jack 167 and connected to the electronic device 100.
  • the input unit 168 may be inserted and stored in the electronic device 100, and may be withdrawn or separated from the electronic device 100 when in use.
  • One region inside the electronic device 100 into which the input unit 168 is inserted is provided with a detachment / attachment recognition switch 169 that processes the mount and detachment of the input unit 168, and the detachment / attachment recognition switch 169 is provided in the input unit.
  • a signal corresponding to the mounting and dismounting of the 168 may be output to the controller 110.
  • the detachable recognition switch 169 may be configured to be in direct or indirect contact when the input unit 168 is mounted.
  • the detachable / attachable recognition switch 169 may output a signal corresponding to the mounting or detachment of the input unit 168 (for example, a signal for notifying the mounting or detachment of the input unit 168) based on the contact with the input unit 168. It may be generated and output to the controller 110.
  • the sensor module 170 may include at least one sensor that detects a state of the electronic device 100.
  • the sensor module 170 may include a proximity sensor that detects whether the user approaches the electronic device 100, an illuminance sensor that detects an amount of light around the electronic device 100, or a process of the electronic device 100 (eg, A motion sensor that detects rotation, acceleration or vibration of the electronic device 100, a geo-magnetic sensor that detects the point of the compass of the electronic device 100 using a global magnetic field, and a direction of action of gravity It may include at least one sensor such as a gravity sensor, an altimeter for detecting altitude by measuring atmospheric pressure, and a GPS module 157.
  • the GPS module 157 may receive radio waves from a plurality of GPS satellites in an earth orbit and calculate a location of the electronic device 100 using a time of arrival from the GPS satellites to the electronic device 100.
  • the storage unit 175 may store input / output signals or data according to a process of the communication module 120, the multimedia module 140, the camera module 150, the input / output module 160, the sensor module 170, or the touch screen 190 under the control of the controller 110. .
  • the storage unit 175 may store control programs and applications for controlling the electronic device 100 or the controller 110.
  • the term 'storage unit' refers to any data storage device such as a storage unit 175, a ROM 112 in the controller 110, a RAM 113, or a memory card (eg, an SD card or a memory stick) mounted in the electronic device 100.
  • a storage unit 175 may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the storage unit 175 may be configured to provide applications of various functions such as navigation, video call, game, time-based alarm application, etc., and images for providing a graphical user interface (GUI) related thereto.
  • GUI graphical user interface
  • Information, documents, databases or data related to a method of processing a touch input, background images (menu screen, standby screen, etc.) or operating programs, images captured by the camera module 150, and the like may be stored.
  • the storage unit 175 may store a viewer application for viewing an image according to an embodiment of the present invention, and at least one image may be stored in various formats.
  • the plurality of images stored in the storage unit 175 may be divided into specific group units, folder units, category units, and the like, and may be selected according to the exemplary embodiment of the present invention.
  • An image including a specific object or identification information of the image may be stored in a separate storage area (eg, a temporary storage).
  • the storage unit 175 may be a machine-readable medium (eg, a computer), and the term machine-readable medium may be defined as a medium for providing data to the machine so that the machine may perform a specific function. .
  • the storage unit 175 may include non-volatile media and volatile media. All such media must be tangible so that the instructions carried by the media can be detected by a physical mechanism that reads the instructions into the machine.
  • Such machine-readable media include, but are not limited to, floppy disks, flexible disks, hard disks, magnetic tapes, compact disc read-only memory (CD-ROM), optical disks. , Punch card, paper tape, RAM, Programmable Read-Only Memory (PROM), Erasable PROM (EPROM), FLASH-EPROM, and embedded multimedia It may include at least one of the card (embedded Multi Media Card (eMMC)).
  • eMMC embedded Multi Media Card
  • the power supply unit 180 may supply power to one or a plurality of batteries disposed in the housing of the electronic device 100 under the control of the controller 110. One or more batteries supply power to the electronic device 100. In addition, the power supply unit 180 may supply power input from an external power source to the electronic device 100 through a wired cable connected to the connector 165. In addition, the power supply unit 180 may supply power to the electronic device 100 that is wirelessly input from an external power source through a wireless charging technology.
  • the electronic device 100 may include at least one touch screen 190 that provides a user graphical interface corresponding to various services (eg, a call, data transmission, broadcasting, and photography).
  • the touch screen 190 may output an analog signal corresponding to at least one user input input to the user graphic interface to the touch screen controller 195.
  • the touch screen 190 may receive at least one user input through a user's body (eg, a finger including a thumb) or an input unit 168 (eg, a stylus pen, an electronic pen, etc.).
  • the touch screen 190 may be implemented by, for example, a resistive method, a capacitive method, an infrared method, an ultrasonic wave method, or a combination thereof.
  • the touch screen 190 may include at least two touch panels capable of sensing touch or approach of the finger and the input unit 168, respectively, so as to receive input by the finger and the input unit 168, respectively.
  • the at least two touch panels may provide different output values to the touch screen controller 195, and the touch screen controller 195 may recognize different values input from the at least two touch screen panels so that input from the touch screen 190 may be different. Whether the input is performed by a finger or the input unit 168 can be distinguished.
  • the touch is not limited to the contact between the touch screen 190 and the user's body or touchable input means, and non-contact (for example, the touch screen 190 and the user's body or touchable input means have a detectable distance of 1 mm or less). It may include.
  • the detectable interval in the touch screen 190 may be changed according to the performance or structure of the electronic device 100.
  • the touch screen controller 195 converts an analog signal input from the touch screen 190 into a digital signal and transmits it to the controller 110.
  • the controller 110 may control the touch screen 190 by using the digital signal received from the touch screen controller 195.
  • the touch screen controller 195 may detect a value (eg, current value) output through the touch screen 190 to check not only a user input position but also a hovering interval or distance, and the determined distance value may be a digital signal (eg, Z coordinate).
  • the conversion may be provided to the control unit 110.
  • the touch screen controller 195 may detect a value (for example, a current value, etc.) output through the touch screen 190 to detect a pressure at which the user input means presses the touch screen 190, and convert the confirmed pressure value into a digital signal. It may be provided to the controller 110.
  • a value for example, a current value, etc.
  • FIG. 2 is a diagram illustrating a front perspective view of an electronic device according to an embodiment of the present invention
  • FIG. 3 is a diagram illustrating a rear perspective view of an electronic device according to an embodiment of the present invention.
  • the touch screen 190 is disposed at the front center of the electronic device 100.
  • the touch screen 190 may be largely formed to occupy most of the front surface of the electronic device 100.
  • 2 illustrates an example in which a main home screen is displayed on the touch screen 190.
  • the main home screen is the first screen displayed on the touch screen 190 when the electronic device 100 is turned on.
  • the main home screen may be the first home screen of the home screens of the several pages.
  • the home screen may display shortcut icons 191a, 191b, and 191c, main menu switch key 191d, time, weather, and the like for executing frequently used applications.
  • a menu screen is displayed on the touch screen 190.
  • a status bar 192 may be formed on the top of the touch screen 190 to display a status of the electronic device 100 such as a battery charging state, a received signal strength, and a current time.
  • a home button 161a, a menu button 161b, and a back button 161c may be formed below the touch screen 190.
  • the home button 161a may display a main home screen on the touch screen 190.
  • the main home screen may be displayed on the touch screen 190. have.
  • the home button 161a is selected while applications are executed on the touch screen 190, the main home screen illustrated in FIG. 2 may be displayed on the touch screen 190.
  • the home button 161a may be used to display recently used applications on the touch screen 190 or to display a task manager.
  • the menu button 161b may provide a connection menu that may be displayed on the touch screen 190.
  • the connection menu may include a widget adding menu, a background screen changing menu, a search menu, an editing menu, an environment setting menu, and the like.
  • the back button 161c may be used to display a screen which has been executed immediately before the currently running screen or to terminate the most recently used application.
  • the first camera 151, the illuminance sensor 170a, and the proximity sensor 170b may be disposed at edges of the front surface of the electronic device 100.
  • a second camera 152, a flash 153, and a speaker 163 may be disposed on the rear surface 103 of the electronic device 100.
  • the side 102 of the electronic device 100 includes, for example, a volume button 161e having a power / lock button 161d, a volume up button 161f, and a volume down button 161g, a terrestrial DMB antenna for broadcast reception, one or more Microphones 162 may be disposed.
  • the DMB antenna may be fixed to or detachably attached to the electronic device 100.
  • a connector 165 is formed on the lower side surface of the electronic device 100.
  • the connector 165 is formed with a plurality of electrodes and may be connected to the external device by wire.
  • An earphone connection jack 167 may be formed on an upper side surface of the electronic device 100. Earphones may be inserted into the earphone jack 167.
  • an input unit 168 may be mounted on a lower side surface of the electronic device 100.
  • the input unit 168 may be inserted and stored in the electronic device 100, and may be withdrawn and separated from the electronic device 100 when in use.
  • the detailed structure of the electronic device 100 has been described as an example of the electronic device to which the present invention can be applied.
  • FIG. 6 is a diagram illustrating a concept of displaying an image by recognizing an object displayed on a screen of an electronic device according to an embodiment of the present disclosure.
  • a plurality of pictures or images stored in the image storage unit may be sequentially displayed on the screen according to a preset order (eg, photographing date, name, storage date, etc.).
  • the images may be images stored in a storage unit included in the electronic device.
  • the images may be images located on a server or a network, or may be images stored in another electronic device.
  • an image stored in an electronic device may be displayed on a screen according to an embodiment of the present disclosure, or as another embodiment, may be selectively displayed on a screen among images stored in another electronic device.
  • a specific image may be selected from an image stored in a cloud server or the like through a network, and the selected image may be received through a network and displayed on a screen.
  • the object when a specific object included in an image is selected from a specific image displayed on the screen, the object is identified, and an object identified for images stored in the corresponding storage folder (or category) or all stored images is displayed.
  • Search for inclusion As a result of the search, the image including the selected object may be stored in a separate temporary storage unit. Accordingly, when a user wants to view only an image including the corresponding object, it is possible to filter and view only an image including a specific object by reading only images stored in the temporary storage unit. Also, as another embodiment, by storing an image not including the selected object in a separate temporary storage unit, it is possible to filter and view only an image not including a specific object.
  • the information stored in the temporary storage may be deleted when the filtering function according to the embodiment of the present invention is canceled or released.
  • FIG. 6 is a diagram illustrating a concept of a filtering method according to various embodiments of the present disclosure, and may be implemented to be displayed on the screen in a manner different from that of the illustrated method.
  • the objects included in the image may have one or more identification information (eg, tagging). For example, based on the identification information, it may be searched whether an object identified for images or all images in the storage folder (or category) is included. Accordingly, when the image or the image is viewed, the images including the object having the identification information may be displayed or the images not including the object having the identification information may be displayed.
  • identification information eg, tagging
  • an image including the identified object is selected and stored as a temporary storage unit.
  • the selected image file may be stored in the temporary storage unit.
  • the image file is stored in the image storage unit by referring to the information on the image file stored in the temporary storage unit. We can read from.
  • a method of determining whether an object selected from the specific image is included in another image may be implemented by various methods. For example, it may be determined whether the object is included by comparing the shape, color information, etc. of the image to measure the similarity between the images.
  • an electronic device 700 (eg, the electronic device 100) according to an embodiment of the present invention may include a mode switcher 710, an object identifier 720, a function selector 730, an object selector 740, an image searcher 750, and a search.
  • the result processor 760 may be configured to be included.
  • all or at least some of the components of the electronic device 700 may be included in the controller 110 of the electronic device 100 of FIG. 1.
  • the mode switching unit 710 may perform a function of switching the current state to a mode for selecting an object (eg, an object selection mode).
  • an object selection mode the user can select the object by using various input means. Accordingly, a part of the image displayed on the screen may be selected as an area or a point, or a specific object may be selected among at least one object detected in the image.
  • the object identification unit 720 performs a function of identifying at least one object included in the image displayed on the current screen. For example, when the mode selection unit 710 is switched to the object selection mode according to the mode change, at least one object included in the image displayed on the current screen may be identified.
  • the object identification may be performed through image processing.
  • the method may be implemented by any method, such as a method of extracting an outline, a method of extracting features of an image, or a method using contrast with a background.
  • an object when an object is identified by the object identifier 720, an area of the identified object may be displayed on the screen as shown in FIG. 11.
  • the object identification may be performed by searching for images based on object identification information (eg, tagging information).
  • the object selector 740 performs a function of selecting a specific object based on object selection information input from a user among at least one object identified by the object identifier 720. For example, when three objects are displayed on the screen as illustrated in FIG. 11, a specific object may be selected by the user among the three objects.
  • the user may directly display the area of the object in the object selection mode according to the mode switching by the mode switching unit 710.
  • the user may select a specific area on the image displayed on the screen through various input means (for example, a touch pen, a stylus pen, or a touch with a finger).
  • the object selector 740 may select the selected area as an object.
  • the object selector 740 may perform a function of selecting a specific object from an image displayed on the screen by the object selection information input through the input means. For example, as illustrated in FIG. 14, an object including at least a part of the image may be selected from an image displayed on the screen to select an object. For example, as illustrated in FIG. 11, at least one object included in an image displayed on a current screen may be identified and displayed on a screen, and a user may be selected to select a specific object among the displayed objects.
  • the function selector 730 may perform a function of selecting at least one function related to the selected object.
  • the functions related to the selected object include a function of filtering to display only images including the selected object (hereinafter referred to as a 'face on' function) according to an embodiment of the present invention. Filtering to display included images (hereinafter, referred to as an 'exclude' function). 12 or 15, a menu window for selecting the functions may be displayed on the screen, and the user may select a specific function from the displayed menu window.
  • the image search unit 750 may select an image including an object selected by the object selector 740 from among search target images (eg, images in a specific folder (or category) selected by a user, or all images stored in an electronic device or a server). You can perform a search function. According to an embodiment of the present disclosure, whether the corresponding object is included in the image may be determined by examining the similarity between the selected object and the search target image.
  • search target images eg, images in a specific folder (or category) selected by a user, or all images stored in an electronic device or a server.
  • the search result processor 760 displays at least one image including the selected object on the display unit 770 according to the selected function of the function selector 730. can do.
  • the display unit 770 may display at least one image not including the selected object.
  • a specific function for example, a function of displaying only an image including a selected object or a function of displaying only an image not including a selected object according to the object selection without a separate function selection process by the function selecting unit 730, etc. ) Can be implemented automatically.
  • Each component of the electronic device 700 is separately shown in the drawings to indicate that the electronic device 700 may be functionally and logically separated, and does not mean that the components are physically separate components or implemented as separate codes.
  • each functional unit may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware.
  • each functional unit may mean a logical unit of a predetermined code and a hardware resource for performing the predetermined code, and means only a physically connected code, or does not mean a kind of hardware. This is not difficult for the average professional in the field.
  • FIG. 8A is a flowchart illustrating a procedure of displaying an image by recognizing an object displayed on a screen of an electronic device according to various embodiments of the present disclosure.
  • a specific region eg, an area including distinguishable objects
  • an image eg, a photo
  • an object included in the selection region may be identified (S802).
  • an image including the identified object may be searched among images stored in a corresponding folder (or category) or all or at least some images stored in a storage unit. Accordingly, at least one image including the identified object may be displayed on the screen (S804).
  • FIG. 8B is a flowchart illustrating a procedure of displaying an image by recognizing an object displayed on a screen of an electronic device according to another embodiment of the present disclosure.
  • a specific area eg, an area including a distinguishable object
  • an image eg, a photo
  • an object included in the selection region may be identified (S806).
  • an image including the identified object may be searched among images stored in the corresponding folder (or category) or all or at least some images stored in the storage unit. Accordingly, the remaining images may be displayed on the screen except for at least one image including the identified object.
  • FIG. 9 is a flowchart illustrating a procedure of viewing an image by selecting an object on a screen of an electronic device according to an embodiment of the present disclosure. For example, when an application that performs an image display function is executed, at least one image (eg, a photo) may be displayed on the screen. While viewing the image, the user may switch to the object selection mode by inputting a preset button or selecting a mode switching function provided through a menu (S901).
  • the application may identify at least one object included in the image currently being displayed (S902).
  • the application may display the area of the identified object on the screen as illustrated in FIG. 11 (S903).
  • the user may select a specific object from among at least one object area displayed on the screen (S904). 12 or 15, the filtering function may be selected (S905).
  • the selection of the object may be performed in a state in which there is no display corresponding to the object.
  • an image including an object in the selected area may be searched among images stored in a folder (or category) in which the current image is located or all or at least some images stored in the storage unit (S906).
  • the images may be images located on a server or other electronic device.
  • the filtering function selected above is the filtering function including the selected object (S907-Y)
  • the filtering may be performed to display only an image including the object identified as the search result (S908).
  • the filtered images may be sequentially displayed on the screen according to a user's screen manipulation.
  • the filtering function selected above is a filtering function for excluding the selected object (S907-N)
  • filtering to display only the image including the object identified as the search result is excluded (S909).
  • the filtered images may be sequentially displayed on the screen according to a user's screen manipulation.
  • FIG. 10 is a flowchart illustrating a procedure of viewing an image by selecting an object on a screen of an electronic device according to another embodiment of the present disclosure.
  • an application capable of displaying an image is executed, at least one image (eg, a photo) may be displayed on the screen.
  • the user inputs a preset button or selects a mode switching function provided through a menu while viewing an image, the user may be switched to the object selection mode (S1001).
  • the user may select a specific area on the screen by the input means (S1002).
  • the selection of the region may have a closed curve shape as shown in FIG. 14.
  • the filtering function may be selected (S1003).
  • an object in the selected area may be identified (S1004).
  • the image including the identified object is searched among the images stored in the folder (or category) where the current image is located or among all or at least some images stored in the storage unit (S1005).
  • the images may be images located on a server or other electronic device.
  • the filtering function selected above is a filtering function including the selected object (S1006-Y)
  • the filtering function is displayed to display only an image including the object identified as the search result (S1007).
  • the filtered images are sequentially displayed on the screen according to a user's screen manipulation.
  • the filtering function selected above is a filtering function for excluding the selected object (S1006-N)
  • filtering is performed to display only the image including the object identified as the search result. Then, the filtered images are sequentially displayed on the screen according to the user's screen manipulation.
  • the above-described method of displaying an image by recognizing an object displayed on a screen of the electronic device and a method of selecting an object on the screen of the electronic device and viewing the image may be performed through various computer means.
  • program instructions which may be recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for various embodiments of the present disclosure, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Magneto-optical media and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • program instructions may include high-level language code that can be executed by a computer using an interpreter as well as machine code such as produced by a compiler.
  • the hardware device described above may be configured to operate as one or more software modules to perform the process of the present invention, and vice versa.
  • the mode is changed to a mode for selecting an object (eg, an object selection mode)
  • at least one object included in the image is displayed according to an embodiment of the present invention.
  • the object regions 1110a, 1110b, and 1110c may be identified and displayed on the screen.
  • a face of a person is identified as an object by image processing, and object areas 1110a, 1110b, and 1110c for the object are indicated by dotted lines.
  • the display of the object areas 1110a, 1110b, and 1110c may be variously displayed as well as a dotted line.
  • lines may be displayed with different color lines, or lines may be displayed according to the shape (eg, outline) of the object, and various effects may be performed by image processing the entire identified object.
  • the user may select one object among objects displayed by various input means (touch by a finger in FIG. 11).
  • the user may select at least one object even for an image having no screen display corresponding to the object.
  • a menu window 1200 for selecting various additional functions related to the selected object may be displayed on the screen, as shown in FIG. 12. For example, a current image or a selected object may be included to transmit a message, an e-mail may be transmitted, or the image may be uploaded to a social network service site. .
  • selecting an object-containing filtering button 1210 for example, a face on button
  • selecting an object-containing filtering button 1210 may display images in the current folder (or category), all stored images, or An image including the object selected in FIG. 11 among images stored in a server or another electronic device may be continuously displayed on the screen.
  • the object inclusion filtering function may be performed. Images that do not contain the selected object may be displayed. For example, when the object selected in the first image 1311 is included in the fourth image 1314 but not included in the second image 1312 and the third image 1313, as illustrated in FIG. 13, the object selected in the first image 1311 may be slid or dragged in the first image 1311. By switching to the next image, the second image 1312 and the third image 1313 can be skipped, and the fourth image 1314 can be displayed on the screen.
  • the user can filter and view only the image he / she wants.
  • the image may be selected from among images stored in the current folder (or category) or all stored images.
  • the image including the selected object is skipped, and only the image without the selected object may be displayed.
  • the selected object is included in the next image to be displayed next to the screen image 1610 by sliding or dragging from the currently displayed screen image 1610 to the next image. If included, the display of the corresponding image may be skipped and only an image not including the selected object may be displayed.
  • the object exclusion filtering function according to the embodiment of the present invention is performed. Images containing the selected object can be filtered out and displayed. For example, when the object selected in the first image 1611 is included in the fourth image 1614 and not included in the second image 1612 and the third image 1613, as illustrated in FIG. 16, the object selected in the first image 1611 is slid or dragged in the first image 1611. When switching to the next image, the second image 1612 and the third image 1613 may be displayed, the fourth image 1614 may be skipped, and an image that does not include the next corresponding object may be displayed on the screen.
  • the user can browse the image by excluding the image that he does not want.
  • an object is displayed by a user directly displaying an object area through an input means in the displayed image.
  • an area selected by the electronic pen in the object selection mode may be displayed as a dotted line as the selected object area 1410.
  • the display of the selected object area 1410 may be variously displayed as well as a dotted line.
  • lines may be displayed with different color lines, or lines may be displayed according to the shape (eg, outline) of the object, and various effects may be performed by image processing the entire identified object.
  • the object area 1410 may be displayed in the form of a closed curve, and at least one object included in the closed curve may be regarded as the selected object.
  • an image including at least one of the plurality of objects is filtered or displayed to include at least one object. It is possible to filter the image so that it is not displayed.
  • menu windows 1200 and 1500 for selecting various additional functions related to the selected object may be displayed on the screen.
  • a current image or a selected object may be included to transmit a message, or an email may be transmitted, and the image may be transmitted to a social network service site. You can also upload it.
  • selecting the object-containing filtering button 1210 for example, a face on button
  • selecting the object-containing filtering button 1210 may display the image in the current folder (or category) or among all the stored images.
  • An image including the object selected in FIG. 14 may be continuously displayed on the screen.
  • the filtering button 1210 including the object in FIG. 12 when the user switches to the next image by sliding or dragging 1320 from the currently displayed screen image 1310, the image to be displayed next to the screen image 1310 is displayed.
  • the display of the corresponding image may be skipped and other images including the selected object may be displayed.
  • the object inclusion filtering function may be performed. Images that do not contain the selected object may be displayed. For example, when the object selected in the first image 1311 is included in the fourth image 1314 but not included in the second image 1312 and the third image 1313, as illustrated in FIG. 13, the object selected in the first image 1311 may be slid or dragged in the first image 1311. By switching to the next image, the second image 1312 and the third image 1313 may be skipped and the fourth image 1314 may be displayed on the screen.
  • the user can filter and view only the image he / she wants.
  • the image may be selected from among images stored in the current folder (or category) or all stored images.
  • the image including the selected object is skipped, and only the image without the selected object may be displayed.
  • the selected object is included in the next image to be displayed next to the screen image 1610 by sliding or dragging from the currently displayed screen image 1610 to the next image. If included, the display of the corresponding image may be skipped and only an image not including the selected object may be displayed.
  • the object exclusion filtering function according to the embodiment of the present invention is performed. Images containing the selected object can be filtered out and displayed. For example, when the object selected in the first image 1611 is included in the fourth image 1614 and not included in the second image 1612 and the third image 1613, as illustrated in FIG. 16, the object selected in the first image 1611 is slid or dragged in the first image 1611. When switching to the next image, the second image 1612 and the third image 1613 may be displayed, the fourth image 1614 may be skipped, and an image that does not include the next corresponding object may be displayed on the screen.
  • the user can browse the image by excluding the image that he does not want.
  • an electronic device 1700 may install an application 1710 capable of performing a function according to an embodiment of the present disclosure.
  • the installed application 1710 may basically include a function of an image viewer, and may be included in or interlocked with an already installed image viewer application.
  • the controller 1730 that performs functions according to an embodiment of the present invention may include a decoder 1731, an encoder 1732, a utility 1733 for object recognition, and the like.
  • a framework 1720 may be implemented between the application 1710 and the controller 1730. In this case, the framework 1720 may include a codec control function.
  • the file system 1740 performs a function of inputting / outputting a file (eg, an image file) stored in a storage unit, and performs a function of storing the filtered files in the filtering database 1750 according to an embodiment of the present invention.
  • a file eg, an image file
  • the decoder 1731 decodes the display unit according to the format of the image file (for example, JPEG, GIF, PNG, BMP, TIFF, WBMP, etc.). Display the image via.
  • each image may be encoded according to the format of a specific image file by the encoder 1732 and stored in the storage unit.
  • the utility 1733 compares the selected object with the image files stored in the storage unit when a specific object included in the image is selected and a filtering function associated with the selected object is executed as described above according to an embodiment of the present invention. May determine whether or not is included in each image file.
  • FIG. 17 The structure shown in FIG. 17 is shown as an example for implementing an embodiment of the present invention, and the present invention is not limited to the illustrated structure.
  • the object recognized image may be stored and managed in a separate database.
  • each object eg, a face
  • the user may input additional information about the extracted object to manage the object for each image.
  • At least one face included in each image is extracted, and for each extracted face, a user inputs related information (eg, name, family relationship, description, etc.), and the inputted related information is extracted.
  • related information eg, name, family relationship, description, etc.
  • Each face can be mapped and stored in a database.
  • the information stored in the database may be used for various types of services associated with the above-described embodiments of the present invention. For example, when a specific face included in the image is selected while the image viewer application is executed to browse an image such as a photo, information corresponding to the selected face may be extracted from the database and displayed on the screen.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 다양한 실시예들은, 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 장치에 관한 것으로, 복수의 이미지 파일들을 저장하는 저장부; 상기 저장부에 저장된 각 이미지 파일에 해당하는 이미지를 전자 장치의 화면상에 표시하며, 입력 수단에 의한 입력 또는 자동 화면 전환 기능의 설정에 따라 현재 표시된 이미지를 상기 저장부에 저장된 다른 이미지로 전환하여 표시하는 표시부; 상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택에 따라, 상기 저장부에 저장된 복수의 이미지 파일들의 각 이미지들 중에서 상기 선택된 객체를 포함하지 않는 이미지들이 상기 표시부에 표시되지 않도록 제어하는 제어부를 포함할 수 있다.

Description

이미지 표시 방법 및 장치
본 발명의 다양한 실시 예들은 전자 장치에 관한 것으로, 보다 상세하게는 이미지를 표시하기 위한 방법 및 장치에 관한 것이다.
전자 장치(예컨대, 모바일 장치)에서 제공하는 다양한 서비스 및 부가 기능들이 점차 확대됨에 따라, 많은 전자 장치들이 터치 스크린을 이용한 그래픽 유저 인터페이스(Graphic User Interface; GUI)를 제공하고 있다. 또한, 이러한 모바일 장치의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 모바일 장치에서 실행 가능한 다양한 애플리케이션들이 개발되고 있다.
모바일 장치에는 상기 장치의 제조사에 의해 제작되어 상기 장치에 설치되는 기본 애플리케이션들과, 인터넷을 통하여 애플리케이션 판매 웹사이트로부터 다운로드되는 추가 애플리케이션들 등이 저장되고 실행될 수 있다. 상기 추가 애플리케이션들은 일반 개발자들에 의해 개발되고, 상기 애플리케이션 판매 웹사이트에 등록될 수 있다.
한편, 모바일 장치를 포함하여 각종 전자 기기에서는 사진 등과 같은 이미지를 화면상에 표시함으로써 저장된 이미지를 열람할 수 있는 이미지 뷰어(image viewer) 애플리케이션들이 다양한 형태로 제공되고 있다.
저장된 이미지들 중에서 일부 이미지들은 사용자가 열람을 원하지 않는 이미지들일 수 있다. 종래 기술에 따르면, 이미지 표시 방법들은 해당 분류 내의 사진들이 순차적으로 화면에 표시됨에 따라 열람을 원하지 않는 사진들이 원하는 사진들의 사이에서 화면에 표시된다.
또한, 해당 전자 장치를 통해 다른 사람들과 함께 사진을 열람하고 있는 상황에서 저장된 이미지들 중 다른 사람들에게 보여 지기를 원치 않는 사진이 섞여 있을 경우, 종래의 애플리케이션들에서는 해당 사진이 그대로 보여지는 문제가 있다.
본 발명의 다양한 실시예들은 전자 장치에서 복수의 이미지들 중 특정 객체가 포함된 이미지들만을 선택하여 열람할 수 있는 방법 및 장치를 제공할 수 있다.
전술한 과제를 해결하기 위한 한 실시예에 따르면, 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 장치는, 복수의 이미지 파일들을 저장하는 저장부; 상기 저장부에 저장된 각 이미지 파일에 해당하는 이미지를 전자 장치의 화면상에 표시하며, 입력 수단에 의한 입력 또는 자동 화면 전환 기능의 설정에 따라 현재 표시된 이미지를 상기 저장부에 저장된 다른 이미지로 전환하여 표시하는 표시부; 및 상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택에 따라, 상기 저장부에 저장된 복수의 이미지 파일들의 각 이미지들 중에서 상기 선택된 객체를 포함하지 않는 이미지들이 상기 표시부에 표시되지 않도록 제어하는 제어부를 포함할 수 있다.
상기 표시부는, 상기 특정 객체가 선택됨에 따라 상기 선택된 객체를 포함하지 않는 이미지들이 상기 표시부에 표시되지 않도록 제어하는 기능을 실행시키기 위한 기능 선택 수단을 화면에 표시할 수 있다.
상기 기능 선택 수단은, 상기 표시부에 표시된 이미지에 대한 처리와 관련된 적어도 하나의 기능에 대한 기능 선택 메뉴를 포함하는 메뉴 창 형태로 구현될 수 있다.
상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택은, 상기 이미지 내에서 입력 수단에 의해 특정 영역이 선택됨에 따라, 상기 선택된 영역 내에 포함된 적어도 하나의 객체가 선택될 수 있다.
상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택은, 상기 화면상에 표시된 이미지에 포함된 적어도 하나의 객체를 검출하여 상기 검출된 객체의 영역을 상기 이미지상에서 표시하고, 상기 표시된 적어도 하나의 검출된 객체의 영역 중에서 어느 하나의 영역이 선택됨으로써 객체가 선택될 수 있다.
상기 선택된 객체는 사람의 얼굴일 수 있다.
본 발명의 한 실시예에 따르면, 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 장치는, 복수의 이미지 파일들을 저장하는 저장부; 상기 저장부에 저장된 각 이미지 파일에 해당하는 이미지를 전자 장치의 화면상에 표시하며, 입력 수단에 의한 입력 또는 자동 화면 전환 기능의 설정에 따라 현재 표시된 이미지를 상기 저장부에 저장된 다른 이미지로 전환하여 표시하는 표시부; 및 상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택에 따라, 상기 저장부에 저장된 복수의 이미지 파일들의 각 이미지들 중에서 상기 선택된 객체를 포함하는 이미지들이 상기 표시부에 표시되지 않도록 제어하는 제어부를 포함할 수 있다.
상기 표시부는, 상기 특정 객체가 선택됨에 따라 상기 선택된 객체를 포함하는 이미지들이 상기 표시부에 표시되지 않도록 제어하는 기능을 실행시키기 위한 기능 선택 수단을 화면에 표시할 수 있다.
상기 기능 선택 수단은, 상기 표시부에 표시된 이미지에 대한 처리와 관련된 적어도 하나의 기능에 대한 기능 선택 메뉴를 포함하는 메뉴 창 형태로 구현될 수 있다.
상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택은, 상기 이미지 내에서 입력 수단에 의해 특정 영역이 선택됨에 따라, 상기 선택된 영역 내에 포함된 적어도 하나의 객체가 선택될 수 있다.
상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택은, 상기 화면상에 표시된 이미지에 포함된 적어도 하나의 객체를 검출하여 상기 검출된 객체의 영역을 상기 이미지상에서 표시하고, 상기 표시된 적어도 하나의 검출된 객체의 영역 중에서 어느 하나의 영역이 선택됨으로써 객체가 선택될 수 있다.
상기 선택된 객체는 사람의 얼굴일 수 있다.
본 발명의 한 실시예에 따르면, 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 방법은, 저장부에 저장된 복수의 이미지 파일들 중 각 이미지 파일에 해당하는 이미지를 전자 장치의 화면상에 표시하는 과정과정과, 상기 화면상에 표시된 이미지 내에 포함된 특정 객체가 선택되는 과정과정과, 입력 수단에 의한 입력 또는 자동 화면 전환 기능의 설정에 따라 현재 표시된 이미지를 상기 저장부에 저장된 다른 이미지로 전환하여 표시하는 과정과정을 포함하며, 상기 표시하는 과정과정은, 상기 저장부에 저장된 복수의 이미지 파일들의 각 이미지들 중에서 상기 선택된 객체를 포함하지 않는 이미지들이 상기 표시부에 표시되지 않도록 제어되어 표시될 수 있다.
상기 특정 객체가 선택되는 과정과정 이후에, 상기 선택된 객체를 포함하지 않는 이미지들이 상기 표시부에 표시되지 않도록 제어하는 기능을 실행시키기 위한 기능 선택 수단을 화면에 표시하는 과정과정을 더 포함할 수 있다.
상기 기능 선택 수단은, 상기 표시부에 표시된 이미지에 대한 처리와 관련된 적어도 하나의 기능에 대한 기능 선택 메뉴를 포함하는 메뉴 창 형태로 구현될 수 있다.
상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택은, 상기 이미지 내에서 입력 수단에 의해 특정 영역이 선택됨에 따라, 상기 선택된 영역 내에 포함된 적어도 하나의 객체가 선택될 수 있다.
상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택은, 상기 화면상에 표시된 이미지에 포함된 적어도 하나의 객체를 검출하여 상기 검출된 객체의 영역을 상기 이미지상에서 표시하고, 상기 표시된 적어도 하나의 검출된 객체의 영역 중에서 어느 하나의 영역이 선택됨으로써 객체가 선택될 수 있다.
상기 선택된 객체는 사람의 얼굴일 수 있다.
본 발명의 한 실시예에 따르면, 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 방법은, 저장부에 저장된 복수의 이미지 파일들 중 각 이미지 파일에 해당하는 이미지를 전자 장치의 화면상에 표시하는 과정과, 상기 화면상에 표시된 이미지 내에 포함된 특정 객체가 선택되는 과정과, 입력 수단에 의한 입력 또는 자동 화면 전환 기능의 설정에 따라 표시된 이미지를 상기 저장부에 저장된 다른 이미지로 전환하여 표시하는 과정을 포함하며, 상기 표시하는 과정은, 상기 저장부에 저장된 복수의 이미지 파일들의 각 이미지들 중에서 상기 선택된 객체를 포함하는 이미지들이 상기 표시부에 표시되지 않도록 제어되어 표시될 수 있다.
상기 특정 객체가 선택되는 과정 이후에, 상기 선택된 객체를 포함하는 이미지들이 상기 표시부에 표시되지 않도록 제어하는 기능을 실행시키기 위한 기능 선택 수단을 화면에 표시하는 과정을 더 포함할 수 있다.
상기 기능 선택 수단은, 상기 표시부에 표시된 이미지에 대한 처리와 관련된 적어도 하나의 기능에 대한 기능 선택 메뉴를 포함하는 메뉴 창 형태로 구현될 수 있다.
상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택은, 상기 이미지 내에서 입력 수단에 의해 특정 영역이 선택됨에 따라, 상기 선택된 영역 내에 포함된 적어도 하나의 객체가 선택될 수 있다.
상기 화면상에 표시된 이미지 내에 포함된 특정 객체에 대한 선택은, 상기 화면상에 표시된 이미지에 포함된 적어도 하나의 객체를 검출하여 상기 검출된 객체의 영역을 상기 이미지상에서 표시하고, 상기 표시된 적어도 하나의 검출된 객체의 영역 중에서 어느 하나의 영역이 선택됨으로써 객체가 선택될 수 있다.
상기 선택된 객체는 사람의 얼굴일 수 있다.
한편, 상기 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 방법에 대한 정보는 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수도 있다. 이러한 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함 할 수도 있다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치, 임베디드 멀티미디어 카드(eMMC) 등이 있으며, 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. 또한, 이러한 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
본 발명의 실시 예에 따르면, 스마트폰 등과 같이 화면 표시 수단이 구비된 전자 장치를 통해 저장된 이미지를 열람할 때, 사용자가 원하는 사람 또는 객체 등이 포함된 이미지만을 열람할 수 있게 되어 전자 장치에서의 사진 등과 같은 이미지의 감상이 편리해질 수 있다.
또한, 본 발명의 실시 예에 따르면, 스마트폰 등과 같이 화면 표시 수단이 구비된 전자 장치를 통해 저장된 이미지를 열람할 때, 사용자가 원치 않는 사람 또는 객체 등이 포함된 이미지는 제외하고 열람할 수 있도록 함으로써 전자 장치에서의 사진 등과 같은 이미지의 감상이 편리해질 수 있다.
도 1은 본 발명의 실시예에 따른 전자 장치를 도시한다.
도 2는 본 발명의 실시예에 따른 전자 장치의 전면 사시도를도시한다.
도 3은 본 발명의 실시예에 따른 전자 장치의 후면 사시도를 도시한다.
도 4 및 도 5는 전자 장치에서의 일반적인 이미지 열람 방법을도시한다.
도 6은 본 발명의 실시 예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 개념을 나타내는 도면.
도 7은 본 발명의 실시 예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 장치의 세부 구조를 나타내는 블록도.
도 8a는 본 발명의 실시예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 절차를 나타내는 흐름도.
도 8b는 본 발명의 실시예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 절차를 나타내는 흐름도.
도 9는 본 발명의 실시예에 따라 전자 장치의 화면에서 객체를 선택하여 이미지를 열람하는 절차를 나타내는 흐름도.
도 10은 본 발명의 실시예에 따라 전자 장치의 화면에서 객체를 선택하여 이미지를 열람하는 절차를 나타내는 흐름도.
도 11 내지 도 16은 본 발명의 실시예들이 전자 장치의 화면상에서 구현된 예를 나타내는 도면.
도 17은 본 발명의 실시예에 따라 구현된 장치의 세부 구성을 나타내는 블록도.
이하, 첨부된 도면들을 참조하여 다양한 실시예들을 상세히 설명한다. 이들 실시예들은 당업자가 본 개시의 다양한 실시예들를 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 개시에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 과정, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 과정, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
본 발명의 실시예는 전자 장치 내에 저장된 이미지들 중에서 화면에 표시된 특정 이미지 내에 포함된 객체를 인식하고, 상기 인식된 객체와 관련하여 화면상에서 이미지들을 표시하는 장치 및 방법을 개시한다.
본 발명의 실시예에 따라 상기 이미지 내에 포함된 객체는 사용자가 입력 수단을 통해 선택할 수 있다. 이때, 상기 객체를 선택 및 인식하는 방법으로서, 예컨대, 사용자가 입력 수단을 이용하여 화면에 표시된 이미지의 특정 영역을 선택하고, 선택된 영역을 이미지 프로세싱(image processing)함으로써 선택된 영역 내에 포함된 특정 객체를 선택 및 인식할 수 있다.
또한, 본 발명의 한 실시예에 따르면 표시되고 있는 이미지의 전체 영역을 이미지 프로세싱함으로써 이미지 내에 포함된 적어도 하나의 객체를 검출하여 화면상에 표시하고, 검출된 객체들 중에서 사용자가 특정 객체를 선택하도록 함으로써 객체를 선택 및 인식할 수 있다.
이와 같이, 표시되고 있는 이미지 내에서 특정 객체가 선택되면, 본 발명의 실시예에 따라 선택된 객체가 포함된 이미지만을 표시하도록 필터링(filtering)하거나, 선택된 객체가 포함된 이미지를 제외하여 표시하도록 필터링할 수 있다.
본 발명의 실시예에 따라 상기 이미지 내에서 선택 가능한 '객체(object)'들로는 사람의 얼굴, 신체, 신체의 일부, 사람이 휴대하고 있는 물체, 사람이 착용하고 있는 물체, 건물, 건물의 일부, 수목, 배경에 고정된 물체, 이동 가능한 물체 등 전체 이미지 내에서 식별 가능한 어떠한 대상도 본 발명의 실시예에 따라 선택 가능한 객체에 포함될 수 있다.
또한, 본 발명의 실시예에 따라 후술하는 설명에서는 이미지 내에 포함된 적어도 하나의 객체를 검출하는 것으로 설명하고 있으나, 하나의 동영상 파일을 구성하는 복수의 이미지들 중에서 어느 한 이미지에 포함된 객체를 검출하여 본 개시의 다양한 실시예들을 적용하는 것도 가능하다. 아울러, 선택된 객체가 포함된 이미지를 검색하는 경우에도, 동영상 내에 해당 객체를 포함하는 이미지가 존재하는지 여부를 검색함으로써 정지 영상 및 동영상 모두에 본 발명의 실시예들이 적용될 수 있다.
본 발명의 실시예에 따른 전자 장치의 화면상에서 표시된 객체 인식을 통해 이미지를 표시하는 장치 및 방법은 디스플레이 수단(예컨대, 터치 스크린 등)이 구비된 어떠한 전자 장치 내에서도 구현될 수 있으며, 상기 디스플레이 수단을 통해 이미지를 표시하고, 이미지의 표시 방법을 제어할 수 있는 소정의 애플리케이션이 설치 가능한 어떠한 전자 장치도 본 발명의 실시예에 따른 전자 장치에 포함될 수 있다.
예컨대, 본 발명의 실시예에 따른 전자 장치는 디스플레이 수단을 구비하는 임의의 장치일 수 있으며, 디지털 카메라, 스마트폰, 휴대폰, 게임기, 텔레비전(TV), 디스플레이 장치, 차량용 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants), 내비게이션 장치, 은행의 ATM, 상점의 POS(Point of sales) 장치 등일 수 있다. 또한, 본 개시의 전자 장치는 플렉서블 장치 또는 플렉서블 디스플레이 장치일 수 있다.
이러한 전자 장치의 대표적인 구성은 휴대 기기(예컨대, 휴대폰, 스마트폰 등과 같은 모바일 기기)에 대한 것이며, 이러한 전자 장치의 대표적인 구성에서 일부 구성 소자는 필요에 따라 생략되거나 변경될 수 있다. 먼저, 본 발명이 적용되는 전자 장치의 일 예로서 휴대 기기의 구성을 도 1 내지 도 3을 참조하여 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 전자 장치를 도시한다.
도 1을 참조하면, 휴대 기기 100은 통신 모듈 120, 커넥터 165, 및 이어폰 연결잭 167 중 적어도 하나를 이용하여 외부의 전자 장치와 연결될 수 있다. 이러한, 외부의 전자 장치는 상기 전자 장치 100에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들 중의 하나를 포함할 수 있다. 또한, 전자 장치는 무선으로 연결 가능한 블루투스 통신 장치, NFC(Near Field Communication) 장치, 와이파이 다이렉트(WiFi Direct) 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 그리고, 전자 장치 100은 유선 또는 무선을 이용하여 다른 또는 전자 장치, 예를 들어, 휴대폰, 스마트폰, 태블릿 PC, 데스크탑 PC 및 서버 중의 하나와 연결될 수 있다.
또한, 전자 장치 100은 적어도 하나의 터치 스크린 190 및 적어도 하나의 터치 스크린 컨트롤러 195를 포함할 수 있다. 아울러, 전자 장치 100은 제어부 110, 통신 모듈 120, 멀티미디어 모듈 140, 카메라 모듈 150, 입/출력 모듈 160, 센서 모듈 170, 저장부 175 및 전원 공급부 180를 포함할 수 있다. 통신 모듈 120은 이동통신 모듈 121, 서브 통신 모듈 130 및 방송 통신 모듈 141을 포함할 수 있다. 서브 통신 모듈 130은 무선랜 모듈 131 및 근거리 통신 모듈 132 중 적어도 하나를 포함하고, 멀티미디어 모듈 140은 오디오 재생 모듈 142 및 동영상재생 모듈 143 중 적어도 하나를 포함할 수 있다. 카메라 모듈 150은 제1 카메라 151 및 제2 카메라 152 중 적어도 하나를 포함할 수 있다. 그리고, 입/출력 모듈 160은 버튼 161, 마이크 162, 스피커 163, 진동 소자 164, 커넥터 165 및 키패드 166 중 적어도 하나를 포함할 수 있다.
제어부 110는 CPU 111, 전자 장치 100의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 전자 장치 100의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 전자 장치 100에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU 111는 싱글 코어, 듀얼 코어, 트리플 코어 또는 쿼드 코어를 포함할 수 있다. CPU 111, 롬 112 및 램 113은 내부 버스(bus)를 통해 상호 연결될 수 있다.
또한, 제어부 110는 통신 모듈 120, 멀티미디어 모듈 140, 카메라 모듈 150, 입/출력 모듈 160, 센서 모듈 170, 저장부 175, 전원 공급부 180, 터치 스크린 190 및 터치 스크린 컨트롤러 195를 제어할 수 있다.
이때, 제어부 110는 본 발명의 실시예에 따라 터치 스크린 190 상에 표시된 이미지에서 선택된 적어도 하나의 객체가 포함된 이미지들을 검색하고, 검색된 이미지들을 필터링하여 열람할 수 있도록 제어하거나, 검색된 이미지들을 제외하여 열람할 수 있도록 제어할 수 있다. 상기 제어부 110의 본 발명의 실시예에 따른 세부적인 기능들은 도 7의 설명에서 후술하기로 한다.
본 발명의 실시예에 따르면 상기 입력값의 입력은 터치 스크린 190을 통한 사용자 입력 외에, 카메라 모듈 150을 통한 제스처 입력, 버튼 161 또는 키패드 166를 통한 스위치/버튼 입력, 마이크 162를 통한 음성 입력 등을 포함할 수 있다.
또한, 제어부 110는 입력 유닛 168이 터치 스크린 190에 접근하거나, 그에 근접하게 위치함에 따른 호버링(Hovering) 이벤트와 같은 사용자 입력 이벤트를 감지할 수 있다. 제어부 110는 본 발명의 실시예에 따라 각종 입력 수단에 의해 이미지 내에 포함된 객체가 선택되고, 각종 필터링 기능 명령이 입력되면, 해당 기능 명령에 따른 이미지 열람 기능 등을 제어할 수 있다.
또한, 제어부 110는 상기 터치 스크린 190뿐만 아니라 카메라 모듈 150, 입/출력 모듈 160, 및 센서모듈 170 등을 통해 수신되는 다양한 사용자 입력을 검출할 수 있다. 상기 사용자 입력은 상기 터치뿐만 아니라, 사용자의 제스쳐, 음성, 눈동자 움직임, 홍채 인식, 생체신호 등 상기 전자 장치 100 내로 입력되는 다양한 형태의 정보를 포함할 수 있다. 제어부 110는 상기 검출된 사용자 입력에 대응하는 미리 정해진 동작 또는 기능이 전자 장치 100 내에서 수행되도록 제어할 수 있다.
또한, 제어부 110는 제어 신호를 입력 유닛 168 또는 진동 소자 164로 출력할 수 있다. 이러한 제어 신호는 진동 패턴에 대한 정보를 포함할 수 있으며, 입력 유닛 168 또는 진동 소자 164는 이러한 진동 패턴에 따른 진동을 생성한다. 이러한 진동 패턴에 대한 정보는 진동 패턴 자체, 진동 패턴의 식별자 등을 나타낼 수 있다. 또는, 이러한 제어 신호는 단순히 진동 생성의 요청만을 포함할 수도 있다.
전자 장치 100은 성능에 따라 이동 통신 모듈 121, 무선랜 모듈 131, 및 근거리 통신 모듈 132 중 적어도 하나를 포함할 수 있다.
이동 통신 모듈 121은 제어부 110의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나를 이용하여 이동 통신을 통해 전자 장치 100이 외부 전자 장치와 연결되도록 할 수 있다. 이동 통신 모듈 121은 전자 장치 100에 입력되는 전화번호를 가지는 휴대폰, 스마트폰, 태블릿 PC 또는 다른 전자 장치와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신할 수 있다.
서브 통신 모듈 130은 무선랜 모듈 131과 근거리 통신 모듈 132 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈 131만 포함하거나, 근거리 통신 모듈 132만 포함하거나 또는 무선랜 모듈 131과 근거리 통신 모듈 132을 모두 포함할 수 있다.
무선랜 모듈 131은 제어부 110의 제어에 따라 무선 액세스 포인트(AP, access point)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈 131은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE 802.11x)을 지원할 수 있다. 근거리 통신 모듈 132은 제어부 110의 제어에 따라 전자 장치 100과 외부 전자 장치 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신 방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
방송 통신 모듈 141은 제어부 110의 제어에 따라 방송통신 안테나를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송 부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다.
멀티미디어 모듈 140은 오디오 재생 모듈 142 또는 동영상 재생 모듈 143을 포함할 수 있다. 오디오 재생 모듈 142은 제어부 110의 제어에 따라 저장부 175에 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상 재생 모듈 143은 제어부 110의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예컨대, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다.
멀티미디어 모듈 140은 제어부 110에 통합될 수 있다. 카메라 모듈 150은 제어부 110의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1 카메라 151 및 제2 카메라 152 중 적어도 하나를 포함할 수 있다. 또한, 카메라 모듈 150은 피사체를 촬영하기 위해 줌 인/줌 아웃을 수행하는 경통부 155, 상기 경통부 155의 움직임을 제어하는 모터부 154, 피사체를 촬영하기 위해 필요한 보조 광원을 제공하는 플래시 153 중 적어도 하나를 포함할 수 있다. 제1 카메라 151는 상기 전자 장치 100 전면에 배치되고, 제2 카메라 152는 상기 전자 장치 100의 후면에 배치될 수 있다.
입/출력 모듈 160은 적어도 하나의 버튼 161, 적어도 하나의 마이크 162, 적어도 하나의 스피커 163, 적어도 하나의 진동 소자 164, 커넥터 165, 키패드 166, 이어폰 연결 잭 167 및 입력 유닛 168 중 적어도 하나를 포함할 수 있다. 그리고, 이러한 입/출력 모듈 160은 이에 국한되지 않으며, 마우스, 트랙볼, 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 터치 스크린 190 상의 커서의 움직임을 제어하기 위해 제공될 수 있다.
버튼 161은 상기 전자 장치 100의 하우징(또는 케이스)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다. 마이크 162는 제어부 110의 제어에 따라 음성(voice) 또는 소리를 입력받아 전기적인 신호를 생성할 수 있다. 스피커 163는 제어부 110의 제어에 따라 다양한 신호 또는 데이터(예를 들어, 무선 데이터, 방송 데이터, 디지털 오디오 데이터, 디지털 동영상 데이터 등)에 대응되는 소리를 전자 장치 100의 외부로 출력할 수 있다. 스피커 163는 전자 장치 100이 수행하는 기능에 대응되는 소리(예를 들어, 전화 통화에 대응되는 버튼 조작음, 통화 연결음, 상대방 사용자의 음성 등)를 출력할 수 있다. 스피커 163는 상기 전자 장치 100의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동 소자 164는 제어부 110의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 전자 장치 100은 다른 장치로부터 음성 또는 화상 통화가 수신되는 경우, 진동 소자 164가 과정한다. 진동 소자 164는 상기 전자 장치 100의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 소자 164는 터치 스크린 190을 통한 사용자 입력에 대응하여 과정할 수 있다.
커넥터 165는 상기 전자 장치 100과 외부 전자 장치 또는 전원 소스를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부 110는 커넥터 165에 연결된 유선 케이블을 통해 전자 장치 100의 저장부 175에 저장된 데이터를 외부 전자 장치로 전송하거나 외부 전자 장치로부터 데이터를 수신할 수 있다. 전자 장치 100은 커넥터 165에 연결된 유선 케이블을 통해 전원 소스로부터 전력을 수신하거나, 전원 소스를 이용하여 배터리를 충전할 수 있다.
키패드 166는 전자 장치 100의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드 166는 전자 장치 100에 형성되는 물리적인 키패드 또는 터치 스크린 190에 표시되는 가상의 키패드를 포함할 수 있다. 전자 장치 100에 형성되는 물리적인 키패드는 전자 장치 100의 성능 또는 구조에 따라 제외될 수 있다. 이어폰은 이어폰 연결잭(Earphone Connecting Jack, 167)에 삽입되어 상기 전자 장치 100에 연결될 수 있다.
입력 유닛 168은 전자 장치 100 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 전자 장치 100로부터 인출 또는 분리될 수 있다. 이러한, 입력 유닛 168이 삽입되는 전자 장치 100 내부의 일 영역에는 상기 입력 유닛 168의 장착 및 탈착에 대응하여 과정하는 탈/부착 인식 스위치 169가 구비되어 있고, 탈/부착 인식 스위치 169는 상기 입력 유닛 168의 장착 및 분리에 대응하는 신호를 제어부 110로 출력할 수 있다. 탈/부착 인식 스위치 169는 상기 입력 유닛 168의 장착시 직간접으로 접촉되도록 구성될 수 있다. 이에 따라, 탈/부착 인식 스위치 169는 상기 입력 유닛 168과의 접촉 여부에 기초하여, 상기 입력 유닛 168의 장착 또는 분리에 대응하는 신호(예: 입력 유닛 168의 장착 또는 분리를 통지하는 신호)를 생성하여 제어부 110로 출력할 수 있다.
센서 모듈 170은 전자 장치 100의 상태를 검출하는 적어도 하나의 센서를 포함 할 수 있다. 예를 들어, 센서 모듈 170은 사용자의 전자 장치 100에 대한 접근 여부를 검출하는 근접 센서, 전자 장치 100 주변의 빛의 양을 검출하는 조도 센서, 또는 전자 장치 100의 과정(예: 전자 장치 100의 회전, 전자 장치 100의 가속 또는 진동)을 검출하는 모션 센서, 지구 자기장을 이용해 전자 장치 100의 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter), GPS 모듈 157 등의 적어도 하나의 센서를 포함할 수 있다.
GPS 모듈 157은 지구 궤도상에 있는 복수의 GPS 위성으로부터 전파를 수신하고, GPS 위성으로부터 전자 장치 100까지의 전파 도달 시간(Time of Arrival)을 이용하여 전자 장치 100의 위치를 산출할 수 있다.
저장부 175는 제어부 110의 제어에 따라 통신 모듈 120, 멀티미디어 모듈 140, 카메라 모듈 150, 입/출력 모듈 160, 센서 모듈 170 또는 터치 스크린 190의 과정에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부 175는 전자 장치 100 또는 제어부 110의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.
'저장부'라는 용어는 저장부 175, 제어부 110 내 롬 112, 램 113 또는 전자 장치 100에 장착되는 메모리 카드(예를 들어, SD 카드, 메모리 스틱) 등의 임의의 데이터 저장 장치를 지칭하는 용어로 사용된다. 저장부 175는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.
또한, 저장부 175는 내비게이션, 화상 통화, 게임, 사용자에게 시간을 기반으로 하는 알람 애플리케이션 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서, 터치 입력을 처리하는 방법과 관련된 데이터베이스들 또는 데이터, 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라 모듈 150에 의해 촬영된 이미지들 등을 저장할 수 있다.
또한, 저장부 175는 본 발명의 실시예에 따라 이미지를 열람할 수 있는 뷰어 애플리케이션을 저장할 수 있으며, 적어도 하나의 이미지들이 각종 포맷으로 저장될 수 있다. 본 발명의 실시예에 따르면 상기 저장부 175에 저장된 복수의 이미지들은 특정 그룹 단위, 폴더 단위, 카테고리 단위 등으로 구분되어 저장될 수 있으며, 도 6에 도시된 바와 같이 본 발명의 실시예에 따라 선택된 특정 객체를 포함하고 있는 이미지 또는 해당 이미지의 식별 정보를 별도의 저장 영역(예컨대, 임시 저장부)에 저장할 수도 있다.
저장부 175는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계로 데이터를 제공하는 매체로 정의될 수 있다. 저장부 175는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다.
상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM), 플래시-이피롬(FLASH-EPROM), 및 임베디드 멀티미디어 카드(eMMC(embedded Multi Media Card)) 중의 적어도 하나를 포함 할 수 있다.
전원 공급부 180는 제어부 110의 제어에 따라 전자 장치 100의 하우징에 배치되는 하나 또는 복수의 배터리에 전력을 공급할 수 있다. 하나 또는 복수의 배터리는 전자 장치 100에 전력을 공급한다. 또한, 전원 공급부 180는 커넥터 165와 연결된 유선 케이블을 통해 외부의 전원 소스로부터 입력되는 전원을 전자 장치 100로 공급할 수 있다. 또한, 전원 공급부 180는 무선 충전 기술을 통해 외부의 전원 소스로부터 무선으로 입력되는 전원을 전자 장치 100로 공급할 수도 있다.
그리고, 전자 장치 100은 사용자에게 다양한 서비스(예컨대, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 그래픽 인터페이스를 제공하는 적어도 하나의 터치 스크린 190을 포함할 수 있다. 터치 스크린 190은 사용자 그래픽 인터페이스에 입력되는 적어도 하나의 사용자 입력에 대응되는 아날로그 신호를 터치 스크린 컨트롤러 195로 출력할 수 있다.
터치 스크린 190은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 입력 유닛 168(예를 들어, 스타일러스 펜, 전자 펜 등)을 통해 적어도 하나의 사용자 입력을 수신할 수 있다. 이러한, 터치 스크린 190은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, 또는 이들의 조합으로 구현될 수 있다.
또한, 터치 스크린 190은 손가락 및 입력 유닛 168에 의한 입력을 각각 입력받을 수 있도록, 손가락 및 입력 유닛 168의 터치나 접근을 각각 감지할 수 있는 적어도 두 개의 터치 패널을 포함할 수 있다. 적어도 두 개의 터치 패널은 서로 다른 출력 값을 터치 스크린 컨트롤러 195에 제공할 수 있고, 터치 스크린 컨트롤러 195는 상기 적어도 두 개의 터치 스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치 스크린 190으로부터의 입력이 손가락에 의한 입력인지, 입력 유닛 168에 의한 입력인지를 구분할 수 있다.
또한, 상기 터치는 터치 스크린 190과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예: 터치 스크린 190과 사용자의 신체 또는 터치 가능한 입력 수단과 검출가능한 간격이 1 mm 이하)을 포함할 수 있다. 터치 스크린 190에서 검출가능한 간격은 전자 장치 100의 성능 또는 구조에 따라 변경될 수 있다
터치 스크린 컨트롤러 195는 터치 스크린 190으로부터 입력된 아날로그 신호를 디지털 신호로 변환하여 제어부 110로 전송한다. 제어부 110는 터치 스크린 컨트롤러 195로부터 수신한 디지털 신호를 이용하여 터치 스크린 190을 제어할 수 있다. 터치 스크린 컨트롤러 195는 터치 스크린 190을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 위치뿐만 아니라 호버링 간격 또는 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부 110로 제공할 수도 있다. 또한, 터치 스크린 컨트롤러 195는 터치 스크린 190을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 수단이 터치 스크린 190을 누르는 압력을 검출할 수 있고, 확인된 압력 값을 디지털 신호로 변환하여 제어부 110로 제공할 수도 있다.
도 2는 본 발명의 실시예에 따른 전자 장치의 전면 사시도를 나타낸 도면이고, 도 3은 본 발명의 실시예에 따른 전자 장치의 후면 사시도를 나타낸 도면이다.
도 2 및 도 3을 참조하면, 전자 장치 100의 전면 중앙에는 터치 스크린 190이 배치된다. 터치 스크린 190은 전자 장치 100의 전면의 대부분을 차지하도록 크게 형성될 수 있다. 도 2에서는, 상기 터치 스크린 190에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 전자 장치 100의 전원을 켰을 때 터치 스크린 190 상에 표시되는 첫 화면이다. 또한, 전자 장치 100이 여러 페이지의 서로 다른 홈 화면들을 가질 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 애플리케이션들을 실행하기 위한 단축 아이콘들(191a, 191b, 191c), 메인 메뉴 전환키(191d), 시간, 날씨 등이 표시될 수 있다. 사용자가 메인 메뉴 전환키(191d)를 선택하면, 상기 터치 스크린 190에 메뉴 화면이 표시된다. 또한, 상기 터치 스크린 190의 상단에는 배터리 충전 상태, 수신 신호의 세기, 현재 시각과 같은 전자 장치 100의 상태를 표시하는 상태 바(Status Bar; 192)가 형성될 수도 있다.
상기 터치 스크린 190의 하부에는 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)이 형성될 수 있다. 홈 버튼(161a)은 터치 스크린 190에 메인 홈 화면(main home screen)을 표시할 수 있다. 예를 들어, 터치 스크린 190에 상기 메인 홈 화면과 다른 홈 화면(any home screen) 또는 메뉴 화면이 표시된 상태에서, 상기 홈 버튼(161a)이 선택되면, 터치 스크린 190에 메인 홈 화면이 표시될 수 있다. 또한, 터치 스크린 190 상에서 애플리케이션들이 실행되는 도중 홈 버튼(161a)이 선택되면, 상기 터치 스크린 190 상에는 도 2에 도시된 메인 홈 화면이 표시될 수 있다. 또한 홈 버튼(161a)은 상기 터치 스크린 190 상에 최근에(recently) 사용된 애플리케이션들을 표시하도록 하거나, 태스크 매니저(Task Manager)를 표시하기 위하여 사용될 수도 있다.
메뉴 버튼(161b)은 터치 스크린 190 상에 표시될 수 있는 연결 메뉴를 제공할 수 있다. 상기 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다.
뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 표시하거나, 가장 최근에 사용된 애플리케이션을 종료시키는 경우에 사용될 수 있다.
전자 장치 100의 전면의 가장자리에는 제1 카메라 151와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다. 전자 장치 100의 후면 103에는 제2 카메라 152, 플래시(flash, 153), 스피커 163가 배치될 수 있다.
전자 장치 100의 측면 102에는 예를 들어 전원/잠금 버튼(161d), 볼륨 증가 버튼(161f) 및 볼륨 감소 버튼(161g)을 갖는 볼륨 버튼(161e), 방송 수신을 위한 지상파 DMB 안테나, 하나 또는 복수의 마이크들 162 등이 배치될 수 있다. 상기 DMB 안테나는 전자 장치 100에 고정되거나, 착탈 가능하게 형성될 수도 있다.
또한, 전자 장치 100의 하단 측면에는 커넥터 165가 형성된다. 커넥터 165에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 전자 장치 100의 상단 측면에는 이어폰 연결잭 167이 형성될 수 있다. 이어폰 연결잭 167에는 이어폰이 삽입될 수 있다.
또한, 전자 장치 100의 하단 측면에는 입력 유닛 168이 장착될 수 있다. 입력 유닛 168은 전자 장치 100 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 전자 장치 100로부터 인출 및 분리될 수 있다.
이상으로 본 발명이 적용될 수 있는 전자 장치의 예로서 전자 장치 100의 세부 구조를 설명하였다.
이하, 도 6 내지 도 10를 참조하여 본 발명의 실시예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 장치 및 방법을 상세히 설명한다.
도 6은 본 발명의 실시예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 개념을 나타내는 도면이다. 도 6을 참조하면, 이미지 저장부에 저장된 복수의 사진 또는 이미지들은 미리 설정된 순서(예컨대, 촬영 일자 순, 이름 순, 저장 일자 순 등)에 따라 순차적으로 화면에 표시될 수 있다. 상기 이미지들은 전자 장치에 포함된 저장부에 저장된 이미지 들일 수 있다. 한 실시예에 따르면, 상기 이미지들은 서버나 네트워크상에 위치하는 이미지 들일 수 있고, 또는 다른 전자 장치에 저장된 이미지들인 경우도 가능하다. 보다 구체적으로 설명하면, 전자 장치 내에 저장된 이미지를 본 발명의 실시 예에 따라 화면상에 보여줄 수도 있으며, 다른 실시 예로서 다른 전자 장치에 저장된 이미지들 중에서 선택적으로 화면상에서 보여줄 수도 있다. 또 다른 실시 예로서 클라우드 서버(cloud server) 등에 저장된 이미지들 중에서 네트워크를 통해 특정 이미지를 선택하고, 선택된 이미지를 네트워크를 통해 수신하여 화면상에 보여줄 수도 있다.
본 발명의 실시예에 따라 화면에 표시된 특정 이미지에서 이미지 내에 포함된 특정 객체를 선택하면, 해당 객체를 식별하고, 해당 저장 폴더(또는 카테고리) 내의 이미지들 또는 저장된 전체 이미지들에 대해 식별된 객체가 포함되어 있는지를 검색한다. 상기 검색 결과, 상기 선택된 객체가 포함된 이미지는 별도의 임시 저장부에 저장될 수 있다. 이에 따라, 사용자가 해당 객체가 포함된 이미지만을 열람하고자 할 경우, 상기 임시 저장부에 저장된 이미지들만을 열람함으로써 특정 객체가 포함된 이미지만을 필터링하여 열람하는 것이 가능하다. 또한, 다른 실시예로서 상기 선택된 객체가 포함되지 않은 이미지를 별도의 임시 저장부에 저장하도록 함으로써, 특정 객체가 포함되지 않은 이미지만을 필터링하여 열람하는 것이 가능하다.
한 실시예에 따르면, 임시 저장부에 저장된 정보들은 본 발명의 실시예에 따른 필터링 기능이 취소 또는 해제되면 삭제될 수 있다.
상기 도 6은 다양한 실시예에 따른 필터링 방법의 개념을 도시한 도면으로서, 도시된 방법과는 다른 방법들에 의해서도 화면상에 동일하게 표시되도록 구현할 수 있다. 한 실시예에 따르면, 이미지에 포함된 객체들은 하나 이상의 식별 정보(예: 태깅(tagging))를 가질 수 있다. 예컨대, 상기 식별 정보를 기반으로 상기 저장 폴더(또는 카테고리) 내의 이미지들 또는 전체 이미지 들에 대해 식별된 객체가 포함되어 있는지를 검색할 수 있다. 이에 따라 이미지 또는 영상 열람 시 상기 식별정보를 갖는 객체가 포함된 이미지들이 표시되도록 하거나, 상기 식별정보를 갖는 객체가 포함되지 않은 이미지들이 표시되도록 할 수도 있다.
또한, 본 발명의 실시예에 따라 상기 도 6에서는 식별된 객체가 포함되어 있는 이미지를 선택하여 임시 저장부에 저장되는 것으로 표시되어 있으나, 해당 선택된 이미지 파일 전체가 임시 저장부에 저장되도록 구현할 수도 있으며, 선택된 이미지 파일에 대한 정보(예컨대, 메모리 상의 저장된 주소 정보 등)만을 임시 저장부에 저장한 후, 열람 시에 상기 임시 저장부에 저장된 이미지 파일에 대한 정보를 참조함으로써 해당 이미지 파일을 이미지 저장부로부터 열람할 수 있다.
한 실시예에 따르면, 상기 특정 이미지로부터 선택된 객체가 다른 이미지에 포함되어 있는지 여부를 판단하는 방법은 다양한 방법에 의해 구현될 수 있다. 예컨대, 이미지의 형태, 색상 정보 등을 비교하여 이미지 간의 유사도를 측정함으로써 객체의 포함 여부를 판단할 수도 있다.
이하, 도 7 내지 도 10을 참조하여 본 발명의 실시예들에 따른 장치 및 방법들을 상세히 설명한다.
도 7은 다양한 실시예에 따른 전자 장치를 나타내는 블록도이다. 도 7을 참조하면, 본 발명의 실시예에 따른 전자 장치 700(예: 전자 장치 100)는 모드 전환부 710, 객체 식별부 720, 기능 선택부 730, 객체 선택부 740, 이미지 검색부 750 및 검색 결과 처리부 760를 포함하여 구성될 수 있다. 어떤 예에서는, 상기 전자 장치 700의 구성 중 전체 또는 적어도 일부는 상기 도 1의 전자 장치 100의 제어부 110에 포함될 수 있다.
모드 전환부 710는 이미지가 화면에 표시된 상태에서 모드 선택 정보가 입력됨에 따라 현재 상태를 객체를 선택할 수 있는 모드( 예컨대, 객체 선택 모드)로 전환시키는 기능을 수행할 수 있다. 상기 객체를 선택할 수 있는 모드에서는 사용자가 각종 입력 수단을 이용하여 객체를 선택할 수 있게 된다. 이에 따라, 화면에 표시된 이미지의 일부가 영역 또는 지점으로써 선택되거나, 이미지 내에서 검출된 적어도 하나의 객체들 중에서 특정 객체가 선택되도록 할 수 있다.
객체 식별부 720는 상기 현재 화면에 표시된 이미지에 포함된 적어도 하나의 객체를 식별하는 기능을 수행한다. 예컨대, 상기 모드 전환부 710에 의한 모드 전환에 따라 객체 선택 모드로 전환되면, 현재 화면에 표시된 이미지에 포함된 적어도 하나의 객체를 식별할 수 있다. 상기 객체 식별은 이미지 프로세싱을 통해 수행될 수 있다. 예컨대, 윤곽선을 추출하는 방법, 이미지의 특징을 추출하는 방법, 또는 배경과의 명암 대비를 이용하는 방법 등 어떠한 방법으로도 구현할 수 있다. 이와 같이 객체 식별부 720에 의해 객체가 식별되면, 식별된 결과에 따라 도 11에서와 같이 해당 식별된 객체의 영역을 화면상에 표시할 수 있다. 한 실시예에 따르면, 상기 객체 식별은 객체 식별 정보(예: 태깅(tagging)정보)를 기준으로 이미지들을 검색하여 수행될 수도 있다.
객체 선택부 740에서는 상기 객체 식별부 720를 통해 식별된 적어도 하나의 객체들 중에서 사용자로부터 입력된 객체 선택 정보에 의해 특정 객체를 선택하는 기능을 수행한다. 예컨대, 도 11에 도시된 바와 같이 3 개의 객체가 화면상에 표시되면, 상기 3 개의 객체들 중 사용자에 의해 특정 객체가 선택될 수 있다.
한 실시예에 따르면, 도 14에 도시된 바와 같이 상기 모드 전환부 710에 의한 모드 전환에 따라 객체 선택 모드 상태에서 사용자가 직접 객체의 영역을 표시하도록 할 수도 있다. 예컨대, 객체 선택 모드로 전환되면, 사용자는 화면에 표시된 이미지상에서 각종 입력 수단(예: 터치 펜, 스타일러스 펜, 또는 손가락을 이용한 터치 등)을 통해 특정 영역을 선택할 수 있다. 객체 선택부 740에서는 상기 선택된 영역을 객체로서 선택할 수 있다.
객체 선택부 740는 입력 수단을 통해 입력된 객체 선택 정보에 의해 화면에 표시된 이미지에서 특정 객체를 선택하는 기능을 수행할 수 있다. 예를 들면, 도 14에 도시된 바와 같이 화면에 표시된 이미지에서 상기 이미지의 적어도 일부를 포함하는 영역을 선택하여 객체를 선택하도록 구현할 수있다. 또한 예를 들면, 도 11에 도시된 바와 같이 현재 화면에 표시된 이미지에 포함된 적어도 하나의 객체를 식별하여 화면상에 표시하고 사용자로 하여금 표시된 객체들 중에서 특정 객체를 선택하도록 구현할 수도 있다.
기능 선택부 730는 상기 선택된 객체와 관련된 적어도 하나의 기능을 선택하도록 하는 기능을 수행할 수 있다. 예컨대, 상기 선택된 객체와 관련된 기능들로는 본 발명의 실시예에 따라 상기 선택된 객체가 포함된 이미지들만을 표시하도록 필터링하는 기능(이하에서는 '페이스 온(face on)' 기능이라 칭한다), 상기 선택된 객체가 포함된 이미지들을 제외하여 표시하도록 필터링하는 기능(이하에서는 'Exclude' 기능이라 칭한다) 등이 될 수 있다. 이때, 도 12 또는 도 15에 도시된 바와 같이 상기 기능들을 선택할 수 있는 메뉴 창을 화면 내에 표시할 수 있고, 상기 표시된 메뉴 창에서 사용자가 특정 기능을 선택하도록 구현할 수 있다.
이미지 검색부 750는 검색 대상 이미지들(예: 사용자가 선택한 특정 폴더(또는 카테고리) 내의 이미지들, 전자 장치 또는 서버에 저장된 전체 이미지들) 중에서 상기 객체 선택부 740에 의해 선택된 객체가 포함된 이미지를 검색하는 기능을 수행할 수 있다. 한 실시예에 따르면, 상기 선택된 객체와 검색 대상 이미지와의 유사도를 검사함으로써 해당 객체가 이미지 내에 포함되어 있는지 여부를 판단할 수 있다.
이와 같이, 이미지 검색부 750에서 상기 선택된 객체가 포함된 이미지검색이 수행되면, 검색 결과 처리부 760에서는 기능 선택부 730의 선택된 해당 기능에 따라 상기 선택된 객체가 포함된 적어도 하나의 이미지를 표시부 770에 표시 할 수 있다. 또는 예를 들면, 상기 선택된 객체가 포함되지 않은 적어도 하나의 이미지를 표시부 770에 표시할 수 있다. 한 실시예에 따르면, 기능 선택부 730에 의한 별도의 기능 선택 과정 없이 객체 선택에 따라 특정 기능(예컨대, 선택된 객체가 포함된 이미지만을 표시하는 기능 또는 선택된 객체가 포함되지 않는 이미지만을 표시하는 기능 등)을 자동으로 수행하도록 구현할 수도 있다.
상기 전자 장치 700의 각각의 구성요소들은 기능 및 논리적으로 분리될 수 있음을 나타나기 위해 별도로 도면에 표시한 것이며, 물리적으로 별도의 구성요소이거나 별도의 코드로 구현되는 것만을 의미하는 것은 아니다.
그리고 본 명세서에서 각 기능부라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 각 기능부는 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 물리적으로 연결된 코드만을 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 어려운 일이 아니다.
이하, 도 8 내지 도 10을 참조하여, 본 발명의 실시예들에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 절차를 설명한다.
도 8a는 다양한 실시예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 절차를 나타내는 흐름도이다. 도 8a를 참조하면, 본 발명의 실시예에 따라 전자 장치의 화면상에 표시된 이미지(예: 사진)에서 특정 영역(예: 구별 가능한 객체가 포함된 영역)을 선택(S801)할 수 있다.
영역 선택이 수행되면, 선택 영역 내에 포함된 객체를 식별(S802)할 수 있다. 해당 폴더(또는 카테고리) 내에 저장된 이미지들 또는 저장부에 저장된 전체 또는 적어도 일부 이미지들 중에서 상기 식별된 객체가 포함된 이미지를 검색(S803)할 수 있다. 이에 따라,식별된 객체가 포함된 적어도 하나의 이미지를 화면을 통해 표시 할 수 있다(S804).
도 8b는 본 발명의 다른 실시예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 절차를 나타내는 흐름도이다. 도 8b를 참조하면, 본 발명의 실시예에 따라 전자 장치의 화면상에 표시된 이미지(예컨대, 사진)에서 특정 영역(예: 구별 가능한 객체가 포함된 영역)을 선택(S805)할 수 있다.
영역 선택이 수행되면, 선택 영역 내에 포함된 객체를 식별(S806)할 수 있다. 해당 폴더(또는 카테고리) 내에 저장된 이미지들 또는 저장부에 저장된 전체 또는 적어도 일부 이미지들 중에서 상기 식별된 객체가 포함된 이미지를 검색(S807)할 수 있다. 이에 따라, 식별된 객체가 포함된 적어도 하나의 이미지는 제외하고, 나머지 이미지들을 화면에 표시할 수 있다.
이하 도 9 및 도 10을 참조하여 본 발명의 실시예들에 따라 전자 장치의 화면에서 객체를 선택하여 이미지를 열람하는 방법을 설명한다.
도 9는 본 발명의 실시예에 따른, 전자 장치의 화면에서 객체를 선택하여 이미지를 열람하는 절차를 나타내는 흐름도이다. 예를 들어, 이미지 표시 기능을 수행할 수 있는 애플리케이션이 실행되면 적어도 하나의 이미지(예: 사진)가 화면을 통해 표시될 수 있다. 이미지를 열람하는 중 사용자는 미리 설정된 버튼을 입력하거나, 메뉴를 통해 제공되는 모드 전환 기능을 선택함으로써 객체 선택 모드로 전환(S901)될 수 있다.
상기 객체 선택 모드로 전환되면, 애플리케이션에서는 현재 표시되고 있는 이미지 내에 포함된 적어도 하나의 객체를 식별(S902)할 수 있다. 애플리케이션에서는 식별된 객체의 영역을 도 11에 도시된 바와 같이 화면상에 표시(S903)할 수 있다. 사용자는 화면에 표시된 적어도 하나의 객체 영역들 중에서 특정 객체를 선택(S904)할 수 있다. 또한 도 12 또는 도 15에 도시된 바와 같이 필터링 기능을 선택(S905)할 수 있다.. 한 실시예에 따르면, 객체에 대한 선택은 객체에 대응되는 표시가 없는 상태에서 이루어지는 것도 가능하다.
상기 필터링 기능 선택에 따라 상기 선택된 영역 내의 객체가 포함된 이미지를 현재 이미지가 위치한 폴더(또는 카테고리) 내에 저장된 이미지들 또는 저장부에 저장된 전체 또는 적어도 일부 이미지들 중에서 검색(S906)할 수 있다. 상기 이미지들은 서버, 또는 다른 전자 장치에 위치한 이미지들일 수도 있다.
예를 들면, 상기에서 선택한 필터링 기능이 선택된 객체를 포함하는 필터링 기능일 경우(S907-Y), 상기 검색 결과로서 식별된 객체가 포함된 이미지만을 표시하도록 필터링(S908)할 수 있다. 상기 필터링된 이미지들은 사용자의 화면 조작에 따라 화면상에 순차적으로 표시될 수 있다.
반면, 상기에서 선택한 필터링 기능이 선택된 객체를 제외하는 필터링 기능일 경우(S907-N), 상기 검색 결과로서 식별된 객체가 포함된 이미지만을 제외하여 표시하도록 필터링(S909)한다. 상기 필터링된 이미지들은 사용자의 화면 조작에 따라 화면상에 순차적으로 표시될 수 있다.
도 10은 본 발명의 다른 실시예에 따른, 전자 장치의 화면에서 객체를 선택하여 이미지를 열람하는 절차를 나타내는 흐름도이다. 예를 들면, 이미지 표시를 수행할 수 있는 애플리케이션이 실행되면 적어도 하나의 이미지(예: 사진)가 화면을 통해 표시될 수 있다. 이미지를 열람하는 중 사용자가 미리 설정된 버튼을 입력하거나, 메뉴를 통해 제공되는 모드 전환 기능을 선택하면, 객체 선택 모드로 전환(S1001)될 수 있다.
상기 객체 선택 모드로 전환되면, 사용자는 입력 수단에 의해 화면상의 특정 영역을 선택(S1002)할 수 있다. 이때, 상기 영역의 선택은 도 14에 도시된 바와 같이 폐곡선 형태를 가질 수 있다. 이와 같이, 화면에 표시된 이미지에서 특정 영역이 선택되면, 도 12 또는 도 15에 도시된 바와 같이 필터링 기능을 선택(S1003)할 수 있다.
상기 필터링 기능 선택에 따라 상기 선택된 영역 내의 객체를 식별(S1004)할 수 있다. 상기 식별된 객체가 포함된 이미지를 현재 이미지가 위치한 폴더(또는 카테고리) 내에 저장된 이미지들 또는 저장부에 저장된 전체 또는 적어도 일부 이미지들 중에서 검색(S1005)한다. 상기 이미지들은 서버, 또는 다른 전자 장치에 위치한 이미지들일 수도 있다.
상기에서 선택한 필터링 기능이 선택된 객체를 포함하는 필터링 기능일 경우(S1006-Y), 상기 검색 결과로서 식별된 객체가 포함된 이미지만을 표시하도록 필터링(S1007)한다. 상기 필터링된 이미지들을 사용자의 화면 조작에 따라 화면상에 순차적으로 표시한다.
반면, 상기에서 선택한 필터링 기능이 선택된 객체를 제외하는 필터링 기능일 경우(S1006-N), 상기 검색 결과로서 식별된 객체가 포함된 이미지만을 제외하여 표시하도록 필터링(S1008)한다. 그런 다음, 상기 필터링된 이미지들을 사용자의 화면 조작에 따라 화면상에 순차적으로 표시한다.
상술한 본 발명의 일 실시예에 따른 전자 장치의 화면에 표시된 객체의 인식을 통해 이미지를 표시하는 방법 및 전자 장치의 화면에서 객체를 선택하여 이미지를 열람하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시의 다양한 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상기된 하드웨어 장치는 본 발명의 과정을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이하, 도 11 내지 도 16을 참조하여 본 발명의 실시예들이 전자 장치의 화면상에서 구현된 예를 설명한다.
도 11을 참조하면, 전자 장치의 화면을 통해 이미지가 표시되고, 객체를 선택할 수 있는 모드(예컨대, 객체 선택 모드)로 전환되면, 본 발명의 실시예에 따라 이미지 내에 포함된 적어도 하나의 객체를 식별하여 객체 영역(1110a, 1110b, 1110c)을 화면상에 표시할 수 있다. 도 11에서는 이미지 프로세싱에 의해 사람의 얼굴을 객체로 식별하고, 해당 객체에 대한 객체 영역(1110a, 1110b, 1110c)을 점선으로 표시하였다. 이때, 상기 객체 영역(1110a, 1110b, 1110c)에 대한 표시는 점선뿐만 아니라 다양하게 표시할 수 있다. 예컨대, 색상이 다른 실선으로 표시하거나, 해당 객체의 형태(예컨대, 윤곽선)를 따라 선을 표시할 수도 있으며, 식별된 객체 전체에 이미지 프로세싱하여 다양한 효과를 줄 수도 있다.
이와 같이, 객체 영역(1110a, 1110b, 1110c)이 표시되면, 사용자는 다양한 입력 수단(도 11에서는 손가락에 의한 터치)에 의해 표시된 객체들 중에서 하나의 객체를 선택할 수 있다. 한 실시예에 따르면, 사용자는 객체에 대응되는 화면표시가 없는 이미지에 대해서도 적어도 하나의 객체를 선택할 수도 있다.
한 실시예에 따르면, 복수의 객체를 선택하도록 구현하는 것도 가능하다. 이와 같이, 복수의 객체가 선택될 경우, 복수의 객체들 중 적어도 하나의 객체를 포함하는 이미지가 표시되도록 필터링하거나, 적어도 하나의 객체를 포함하는 이미지가 표시되지 않도록 필터링하는 것이 가능하다.
객체가 선택되면, 도 12에 도시된 바와 같이 선택된 객체와 관련된 각종 부가 기능들을 선택할 수 있는 메뉴 창 1200이 화면에 표시될 수 있다. 예컨대, 현재 이미지 또는 선택된 객체를 포함하여 메시지(message)를 전송하도록 하거나, 이메일(E-mail)을 전송하도록 할 수도 있으며, 해당 이미지를 소셜 네트워크 서비스(Social Network Service) 사이트에 업로드하도록 할 수도 있다.
또한, 본 발명의 실시예에 따르면, 상기 메뉴 창 1200에서 객체 포함 필터링 버튼 1210(예: 페이스온(Face on) 버튼)을 선택하면 현재 폴더(또는 카테고리) 내의 이미지들, 저장된 전체 이미지들, 또는 서버나 다른 전자 장치에 저장된 이미지들 중에서 상기 도 11에서 선택된 객체가 포함된 이미지가 화면상에 연속하여 표시되도록 구현할 수 있다.
예컨대, 도 13을 참조하면, 상기 도 12에서 객체 포함 필터링 버튼 1210을 선택함에 따라 사용자가 현재 표시된 화면 이미지 1310에서 슬라이딩 또는 드래그 1320하여 다음 이미지로 전환시킬 경우 상기 화면 이미지 1310의 다음으로 표시할 이미지에 상기 선택된 객체가 포함되어 있지 않으면 해당 이미지에 대한 화면상의 표시를 스킵(skip)하고, 선택된 객체가 포함된 다른 이미지들을 표시할 수 있다.
예컨대, 본 발명의 실시예에 따른 기능을 실행하기 전 제1 이미지 1311 내지 제4 이미지 1314가 순차적으로 표시되는 상태에서, 본 발명의 실시예에 따른 객체 포함 필터링 기능을 실행할 경우, 상기 이미지들 중 해당 선택된 객체가 포함되지 않은 이미지는 제외하고 표시할 수 있다. 예컨대, 제1 이미지 1311에서 선택한 객체가 제4 이미지 1314에는 포함되어 있으나, 제2 이미지 1312 및 제3 이미지 1313에는 포함되지 않을 경우, 도 13에 도시된 바와 같이 제1 이미지 1311에서 슬라이딩 또는 드래그 등에 의해 다음 이미지로 전환시키면, 제2 이미지 1312 및 제3 이미지 1313를 스킵하고, 제4 이미지 1314를 화면상에 표시할 수 있다.
이에 따라, 본 발명의 실시예에 따른 기능을 실행함으로서 사용자는 자신이 원하는 이미지만을 필터링하여 열람할 수 있게 된다.
한 실시예에 따르면, 도 15에 도시된 바와 같이 메뉴 창 1500에서 객체 제외 필터링 버튼 1510(예: 'Exclude' 버튼)을 선택하면 현재 폴더(또는 카테고리) 내의 이미지들 또는 저장된 전체 이미지들 중에서 상기 도 11에서 선택된 객체가 포함된 이미지는 건너 뛰고(skip), 선택된 객체가 포함되지 않은 이미지만 표시되도록 구현할 수 있다.
도 16을 참조하면, 상기 도 15에서 객체 제외 필터링 버튼 1510을 선택함에 따라 현재 표시된 화면 이미지 1610에서 슬라이딩 또는 드래그하여 다음 이미지로 전환시킬 경우 상기 화면 이미지 1610의 다음으로 표시할 이미지에 상기 선택된 객체가 포함되어 있을 경우에는 해당 이미지에 대한 표시를 건너 뛰고(skip), 선택된 객체가 포함되지 않은 이미지만을 표시할 수 있다.
예컨대, 본 발명의 실시예에 따른 기능을 실행하기 전 제1 이미지 1611 내지 제4 이미지 1614가 순차적으로 표시되는 상태에서, 본 발명의 실시예에 따른 객체 제외 필터링 기능을 실행할 경우, 상기 이미지들 중 해당 선택된 객체가 포함된 이미지는 필터링하여 제외시키고 표시할 수 있다. 예컨대, 제1 이미지 1611에서 선택한 객체가 제4 이미지 1614에 포함되며, 제2 이미지 1612 및 제3 이미지 1613에는 포함되지 않을 경우, 도 16에 도시된 바와 같이 제1 이미지 1611에서 슬라이딩 또는 드래그 등에 의해 다음 이미지로 전환시키면, 제2 이미지 1612 및 제3 이미지 1613를 표시하고, 제4 이미지 1614는 스킵하고 다음 해당 객체가 포함되지 않은 이미지를 화면상에 표시할 수 있다.
이에 따라, 본 발명의 실시예에 따른 기능을 실행함으로써 사용자는 자신이 원하지 않는 이미지를 제외시켜 이미지를 열람할 수 있게 된다.
도 14를 참조하면, 전자 장치의 화면상에 이미지가 표시되고, 객체를 선택할 수 있는 모드(예컨대, 객체 선택 모드)로 전환되면, 표시된 이미지에서 사용자가 입력 수단을 통해 직접 객체 영역을 표시함으로써 객체를 선택할 수 있다. 예컨대, 도 14를 참조하면, 객체 선택 모드에서 전자 펜에 의해 선택된 영역이 선택된 객체 영역 1410으로서 점선으로 표시될 수 있다. 이때, 상기 선택된 객체 영역 1410에 대한 표시는 점선뿐만 아니라 다양하게 표시할 수 있다. 예컨대, 색상이 다른 실선으로 표시하거나, 해당 객체의 형태(예컨대, 윤곽선)를 따라 선을 표시할 수도 있으며, 식별된 객체 전체에 이미지 프로세싱하여 다양한 효과를 줄 수도 있다. 또한, 상기 객체 영역 1410은 폐곡선 형태로 표시될 수 있으며, 폐곡선 내에 포함된 적어도 하나의 객체가 선택된 객체로 간주될 수 있다.
어떤 예에서는, 본 발명의 다른 실시예에 따라 상기 선택된 객체 영역 1410 내에 복수의 객체들이 포함될 경우, 복수의 객체들 중 적어도 하나의 객체를 포함하는 이미지가 표시되도록 필터링하거나 적어도 하나의 객체를 포함하는 이미지가 표시되지 않도록 필터링하는 것이 가능하다.
도 14에서와 같이 객체 가 선택되면, 도 12 또는 도 15에 도시된 바와 같이 선택된 객체와 관련된 각종 부가 기능들을 선택할 수 있는 메뉴 창(1200, 1500)이 화면에 표시될 수 있다. 예컨대, 도 12에서와 같이 현재 이미지 또는 선택된 객체를 포함하여 메시지(message)를 전송하도록 하거나, 이메일(E-mail)을 전송하도록 할 수도 있으며, 해당 이미지를 소셜 네트워크 서비스(Social Network Service) 사이트에 업로드하도록 할 수도 있다.
또한, 본 발명의 실시예에 따르면, 상기 메뉴 창 1200에서 객체 포함 필터링 버튼 1210(예: 페이스온(Face on) 버튼)을 선택하면 현재 폴더(또는 카테고리) 내의 이미지들 또는 저장된 전체 이미지들 중에서 상기 도 14에서 선택된 객체가 포함된 이미지가 화면상에 연속하여 표시되도록 구현할 수 있다.
도 13을 참조하면, 상기 도 12에서 객체 포함 필터링 버튼 1210을 선택함에 따라 사용자가 현재 표시된 화면 이미지 1310에서 슬라이딩 또는 드래그 1320하여 다음 이미지로 전환시킬 경우 상기 화면 이미지 1310의 다음으로 표시할 이미지에 상기 선택된 객체가 포함되어 있지 않을 경우에는 해당 이미지에 대한 표시를 스킵(skip)하고, 선택된 객체가 포함된 다른 이미지들을 표시할 수 있다.
예컨대, 본 발명의 실시예에 따른 기능을 실행하기 전 제1 이미지 1311 내지 제4 이미지 1314가 순차적으로 표시되는 상태에서, 본 발명의 실시예에 따른 객체 포함 필터링 기능을 실행할 경우, 상기 이미지들 중 해당 선택된 객체가 포함되지 않은 이미지는 제외하고 표시할 수 있다. 예컨대, 제1 이미지 1311에서 선택한 객체가 제4 이미지 1314에는 포함되어 있으나, 제2 이미지 1312 및 제3 이미지 1313에는 포함되지 않을 경우, 도 13에 도시된 바와 같이 제1 이미지 1311에서 슬라이딩 또는 드래그 등에 의해 다음 이미지로 전환시키면, 제2 이미지 1312 및 제3 이미지 1313를 스킵하고, 제4 이미지 1314를 화면을 통해 표시할 수 있다..
이에 따라, 본 발명의 실시예에 따른 기능을 실행함으로써 사용자는 자신이 원하는 이미지만을 필터링하여 열람할 수 있게 된다.
한 실시예에 따르면, 도 15에 도시된 바와 같이 메뉴 창 1500에서 객체 제외 필터링 버튼 1510(예: 'Exclude' 버튼)을 선택하면 현재 폴더(또는 카테고리) 내의 이미지들 또는 저장된 전체 이미지들 중에서 상기 도 14에서 선택된 객체가 포함된 이미지는 건너 뛰고(skip), 선택된 객체가 포함되지 않은 이미지만 표시되도록 구현할 수 있다.
도 16을 참조하면, 상기 도 15에서 객체 제외 필터링 버튼 1510을 선택함에 따라 현재 표시된 화면 이미지 1610에서 슬라이딩 또는 드래그하여 다음 이미지로 전환시킬 경우 상기 화면 이미지 1610의 다음으로 표시할 이미지에 상기 선택된 객체가 포함되어 있을 경우에는 해당 이미지에 대한 표시를 건너 뛰고(skip), 선택된 객체가 포함되지 않은 이미지만을 표시할 수 있다.
예컨대, 본 발명의 실시예에 따른 기능을 실행하기 전 제1 이미지 1611 내지 제4 이미지 1614가 순차적으로 표시되는 상태에서, 본 발명의 실시예에 따른 객체 제외 필터링 기능을 실행할 경우, 상기 이미지들 중 해당 선택된 객체가 포함된 이미지는 필터링하여 제외시키고 표시할 수 있다. 예컨대, 제1 이미지 1611에서 선택한 객체가 제4 이미지 1614에 포함되며, 제2 이미지 1612 및 제3 이미지 1613에는 포함되지 않을 경우, 도 16에 도시된 바와 같이 제1 이미지 1611에서 슬라이딩 또는 드래그 등에 의해 다음 이미지로 전환시키면, 제2 이미지 1612 및 제3 이미지 1613를 표시하고, 제4 이미지 1614는 스킵하고 다음 해당 객체가 포함되지 않은 이미지를 화면을 통해 표시할 수 있다.
이에 따라, 본 발명의 실시예에 따른 기능을 실행함으로서 사용자는 자신이 원하지 않는 이미지를 제외시켜 이미지를 열람할 수 있게 된다.
도 17은 본 발명의 실시예에 따라 구현된 전자 장치(예: 전자 장치 100)를 도시하는 블록도이다. 도 17을 참조하면, 전자 장치 1700에는 본 발명의 실시예에 따른 기능을 수행할 수 있는 애플리케이션 1710이 설치될 수 있다. 상기 설치된 애플리케이션 1710은 기본적으로 이미지 뷰어의 기능을 포함할 수도 있으며, 기설치된 이미지 뷰어 애플리케이션에 포함되거나 이와 연동하여 구현될 수도 있다. 본 발명의 실시예에 따른 기능들을 수행하는 제어부 1730는 디코더 1731, 인코더 1732, 객체 인식을 위한 유틸리티 1733 등을 포함할 수 있다. 또한, 본 발명의 실시예에 따라 상기 애플리케이션 1710과 제어부 1730 간에는 프레임워크(framework) 1720가 구성되는 형태로 구현될 수도 있다. 이때, 상기 프레임워크 1720에는 코덱 컨트롤(codec control) 기능을 포함할 수도 있다.
파일 시스템 1740은 저장부에 저장된 파일(예컨대, 이미지 파일)을 입출력하는 기능을 수행하며, 본 발명의 실시예에 따라 필터링된 파일들을 필터링 데이터베이스(DB) 1750에 저장하는 기능을 수행할 수 있다.
애플리케이션 1710이 실행되어, 저장부에 저장된 이미지 파일이 파일 시스템 1740에 의해 로딩되면, 디코더 1731에서는 해당 이미지 파일의 포맷(예컨대, JPEG, GIF, PNG, BMP, TIFF, WBMP 등)에 맞게 디코딩하여 표시부를 통해 이미지를 표시한다. 또한, 각 이미지는 인코더 1732에 의해 특정 이미지 파일의 포맷에 맞게 인코딩하여 저장부에 저장될 수 있다. 유틸리티 1733는 본 발명의 실시예에 따라 상술한 바와 같이 이미지 내에 포함된 특정 객체가 선택되고, 선택된 객체와 관련된 필터링 기능이 실행될 경우, 상기 선택된 객체를 저장부에 저장된 이미지 파일들과 비교하여 해당 객체가 각 이미지 파일 내에 포함되어 있는지 여부를 판단하는 기능을 수행할 수 있다.
상기 도 17에 도시된 구조는 본 발명의 실시예를 구현하기 위한 일 예로서 도시된 것이며, 본 발명이 도시된 구조에 한정되는 것은 아니다.
또한, 상기한 본 개시에서 상술하지는 않았으나, 본 발명의 다른 실시예에 따라 객체 인식된 이미지는 별도의 데이터베이스에 저장하여 관리될 수 있다. 보다 상세하게는, 저장부에 저장된 이미지들 내에 포함된 각 객체(예컨대, 얼굴)를 추출하고, 추출된 객체에 대한 추가 정보를 사용자가 입력하도록 하여 이미지에 대한 객체별 관리가 가능하다.
예컨대, 각 이미지에 포함된 적어도 하나의 얼굴들을 추출하고, 각 추출된 얼굴에 대해 사용자가 관련 정보들(예컨대, 이름, 가족관계, 설명 등)을 입력하도록 하고, 상기 입력된 관련 정보들을 추출된 각 얼굴과 함께 데이터베이스에 매핑하여 저장할 수 있다.
상기 데이터베이스에 저장된 정보들은 상술한 본 발명의 실시예들과 연계된 다양한 형태의 서비스들에 이용될 수 있다. 예컨대, 이미지 뷰어 애플리케이션을 실행하여 사진 등과 같은 이미지를 열람하고 있는 중에 이미지 내에 포함된 특정 얼굴을 선택하면, 선택된 얼굴에 해당하는 정보를 상기 데이터베이스로부터 추출하여 화면상에 표시할 수도 있다.
이상과 같이 본 개시의 다양한 실시예는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (15)

  1. 적어도 하나의 이미지를 표시하는 과정;
    객체관련 이미지를 확인하기 위해 상기 이미지에 포함된 적어도 하나의 객체를 선택하는 과정;
    저장부에 저장된 적어도 하나의 이미지들 중에서 상기 선택한 객체를 포함하는 적어도 하나의 객체관련 이미지를 확인(identify)하는 과정;
    사용자 입력에 따라 상기 확인된 적어도 하나의 객체관련 이미지를 표시하는 과정을 포함하는 전자장치에서 이미지를 표시하는 방법.
  2. 제1항에 있어서, 상기 방법은,
    화면 전환 명령이 입력되면, 상기 확인된 이미지에 대한 표시 여부 결정에 따라, 상기 확인된 이미지 중 적어도 하나의 이미지를 화면상에 표시하는 과정을 더 포함하는, 전자 장치에서 이미지를 표시하는 방법.
  3. 제1항에 있어서, 상기 방법은,
    화면 전환 명령이 입력되면, 상기 확인된 이미지에 대한 표시 여부 결정에 따라, 상기 확인된 이미지를 제외한 이미지 중 적어도 하나의 이미지를 화면상에 표시하는 과정을 더 포함하는, 전자 장치에서 이미지를 표시하는 방법.
  4. 제1항에 있어서, 상기 방법은,
    상기 선택한 객체를 포함하는 적어도 하나의 이미지를 화면상에 표시하도록 제어하는 기능 및 상기 선택한 객체를 포함하는 적어도 하나의 이미지를 제외하여 화면상에 표시하도록 제어하는 기능 중 적어도 하나의 기능을 실행시키기 위한 기능 선택부를 화면에 표시하는 과정을 더 포함하는, 전자 장치에서 컨텐츠를 표시하는 방법.
  5. 제4항에 있어서, 상기 기능 선택부는,
    상기 적어도 하나의 기능을 포함하는 메뉴 창 형태로 , 전자 장치에서 컨텐츠를 표시하는 방법.
  6. 제1항에 있어서, 상기 방법은,
    상기 객체의 선택에 따라, 적어도 하나의 이미지들 중에서 상기 선택된 객체를 포함하는 적어도 하나의 이미지의 표시 순서를 저장부에 저장하는 과정을 더 포함하는, 전자 장치에서 컨텐츠를 표시하는 방법.
  7. 제1항에 있어서, 상기 방법은
    상기 객체의 선택에 따라, 적어도 하나의 이미지들 중에서 상기 선택된 객체에 대해 상기 객체에 대한 식별 정보를 매핑하여 저장하는 과정과,
    화면 전환 명령이 입력되면, 상기 매핑된 식별 정보에 따라 표시 여부를 결정하여, 상기 적어도 하나의 이미지를 화면상에 표시하는 과정을 더 포함하는, 전자 장치에서 이미지를 표시하는 방법.
  8. 제1항에 있어서, 상기 방법은
    화면상에 표시된 상기 이미지에서 적어도 하나의 객체를 검출하는 과정과,
    상기 검출된 적어도 하나의 객체의 영역을 화면상에 표시하는 과정과,
    상기 표시된 적어도 하나의 객체의 영역 중에서 적어도 하나의 객체의 영역을 선택함으로써 객체를 선택하는 과정을 더 포함하는, 전자 장치에서 이미지를 표시하는 방법.
  9. 제1항에 있어서, 상기 객체는,
    사람의 얼굴, 신체, 신체의 일부, 사람이 휴대하고 있는 물체, 사람이 착용하고 있는 물체, 동물, 건물, 건물의 일부, 수목, 배경에 고정된 물체 및 이동 가능한 물체 중에서 선택된 어느 하나 이상인, 전자 장치에서 이미지를 표시하는 방법.
  10. 적어도 하나의 이미지를 저장하는 저장부;
    적어도 하나의 이미지를 표시하는 표시부; 및
    객체관련 이미지를 확인하기 위해 상기 표시부에 표시된 이미지에 포함된 적어도 하나의 객체를 선택하고, 상기 저장부에 저장된 적어도 하나의 이미지들 중에서 상기 선택한 객체를 포함하는 적어도 하나의 객체관련 이미지를 확인(identify)하여, 사용자 입력에 따라 상기 확인된 적어도 하나의 객체관련 이미지를 표시하도록 제어하는 제어부를 포함하는, 전자장치.
  11. 제10항에 있어서, 상기 제어부는,
    화면 전환 명령이 입력되면, 상기 확인된 이미지에 대한 표시 여부 결정에 따라, 상기 확인된 이미지 중 적어도 하나의 이미지를 화면상에 표시하도록 제어하는, 전자 장치.
  12. 제10항에 있어서, 상기 제어부는,
    화면 전환 명령이 입력되면, 상기 확인된 이미지에 대한 표시 여부 결정에 따라, 상기 확인된 이미지를 제외한 이미지 중 적어도 하나의 이미지를 화면상에 표시하도록 제어하는, 전자 장치.
  13. 제10항에 있어서, 상기 제어부는,
    상기 객체의 선택에 따라, 적어도 하나의 이미지들 중에서 상기 선택된 객체를 포함하는 적어도 하나의 이미지의 표시 순서를 저장부에 저장하도록 제어하는, 전자 장치.
  14. 제10항에 있어서, 상기 제어부는
    상기 객체의 선택에 따라, 적어도 하나의 이미지들 중에서 상기 선택된 객체에 대해 상기 객체에 대한 식별 정보를 매핑하여 저장하고, 화면 전환 명령이 입력되면, 상기 매핑된 식별 정보에 따라 표시 여부를 결정하여, 상기 적어도 하나의 이미지를 화면상에 표시하도록 제어하는, 전자 장치.
  15. 제10항에 있어서, 상기 제어부는
    화면상에 표시된 상기 이미지에서 적어도 하나의 객체를 검출하고, 상기 검출된 적어도 하나의 객체의 영역을 화면상에 표시하며, 상기 표시된 적어도 하나의 객체의 영역 중에서 적어도 하나의 객체의 영역을 선택함으로써 객체를 선택하도록 제어하는, 전자 장치.
PCT/KR2014/006265 2013-07-12 2014-07-11 이미지 표시 방법 및 장치 WO2015005728A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/904,503 US10528619B2 (en) 2013-07-12 2014-07-11 Image display method and device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130082518A KR102155133B1 (ko) 2013-07-12 2013-07-12 이미지 표시 방법 및 장치
KR10-2013-0082518 2013-07-12

Publications (1)

Publication Number Publication Date
WO2015005728A1 true WO2015005728A1 (ko) 2015-01-15

Family

ID=52280311

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/006265 WO2015005728A1 (ko) 2013-07-12 2014-07-11 이미지 표시 방법 및 장치

Country Status (3)

Country Link
US (1) US10528619B2 (ko)
KR (1) KR102155133B1 (ko)
WO (1) WO2015005728A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407984A (zh) * 2015-07-31 2017-02-15 腾讯科技(深圳)有限公司 目标对象识别方法及装置
CN113282780A (zh) * 2021-04-28 2021-08-20 维沃移动通信有限公司 图片管理方法、装置、电子设备和可读存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160048318A1 (en) * 2014-08-15 2016-02-18 Microsoft Technology Licensing, Llc Detecting selection of digital ink
KR102390836B1 (ko) * 2015-10-05 2022-04-26 삼성전자주식회사 이미지 데이터를 생성하는 전자 장치 및 방법
US10049431B2 (en) * 2016-07-18 2018-08-14 Qualcomm Incorporated Locking a group of images to a desired level of zoom and an object of interest between image transitions
KR102652362B1 (ko) * 2017-01-23 2024-03-29 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US11714533B2 (en) * 2017-11-20 2023-08-01 Huawei Technologies Co., Ltd. Method and apparatus for dynamically displaying icon based on background image
CN111679731A (zh) * 2019-03-11 2020-09-18 三星电子株式会社 显示装置及其控制方法
JP7313862B2 (ja) * 2019-03-29 2023-07-25 キヤノン株式会社 情報処理装置、方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR900000393A (ko) * 1988-06-20 1990-01-30 네스터 더블유.슈스트 탄성 및 감촉의 개선을 위한 비닐분산수지의 변성
WO2009004524A1 (en) * 2007-06-29 2009-01-08 Nokia Corporation Apparatus, method and computer program product for using images in contact lists maintained in electronic devices
KR20100001064A (ko) * 2008-06-26 2010-01-06 주식회사 케이티 아이피티브이에서 이미지 인식을 이용한 컨텐츠 검색 방법및 시스템
KR20110083025A (ko) * 2010-01-13 2011-07-20 삼성전자주식회사 시간 변화에 따른 얼굴 이미지 저장 장치 및 방법
KR20130020065A (ko) * 2011-08-18 2013-02-27 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3782368B2 (ja) * 2002-03-29 2006-06-07 株式会社東芝 物体画像切り出し方法及びプログラム並びに物体画像切り出し装置
US7627148B2 (en) * 2004-07-06 2009-12-01 Fujifilm Corporation Image data processing apparatus and method, and image data processing program
KR20090003939A (ko) 2007-07-05 2009-01-12 삼성테크윈 주식회사 컴퓨터의 인물 이미지 파일 관리 방법
KR100984307B1 (ko) 2008-05-14 2010-09-30 주식회사 비엔에스웍스 통신 서비스 제공이 가능한 디지털 액자 및 그 방법
US20090303338A1 (en) * 2008-06-06 2009-12-10 Texas Instruments Incorporated Detailed display of portion of interest of areas represented by image frames of a video signal
KR20100000936A (ko) 2008-06-26 2010-01-06 주식회사 케이티테크 인물정보 처리방법 및 이를 수행하는 이동통신단말
CN102025827A (zh) 2009-09-22 2011-04-20 鸿富锦精密工业(深圳)有限公司 通信装置及其基于照片显示的通话方法
KR101165415B1 (ko) 2010-05-24 2012-07-13 주식회사 다음커뮤니케이션 이미지내 생체 얼굴 인식 방법 및 인식 장치
SG11201407749TA (en) * 2012-05-24 2014-12-30 Hitachi Ltd Image analysis device, image analysis system, and image analysis method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR900000393A (ko) * 1988-06-20 1990-01-30 네스터 더블유.슈스트 탄성 및 감촉의 개선을 위한 비닐분산수지의 변성
WO2009004524A1 (en) * 2007-06-29 2009-01-08 Nokia Corporation Apparatus, method and computer program product for using images in contact lists maintained in electronic devices
KR20100001064A (ko) * 2008-06-26 2010-01-06 주식회사 케이티 아이피티브이에서 이미지 인식을 이용한 컨텐츠 검색 방법및 시스템
KR20110083025A (ko) * 2010-01-13 2011-07-20 삼성전자주식회사 시간 변화에 따른 얼굴 이미지 저장 장치 및 방법
KR20130020065A (ko) * 2011-08-18 2013-02-27 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407984A (zh) * 2015-07-31 2017-02-15 腾讯科技(深圳)有限公司 目标对象识别方法及装置
CN113282780A (zh) * 2021-04-28 2021-08-20 维沃移动通信有限公司 图片管理方法、装置、电子设备和可读存储介质

Also Published As

Publication number Publication date
US10528619B2 (en) 2020-01-07
KR20150007899A (ko) 2015-01-21
US20160147792A1 (en) 2016-05-26
KR102155133B1 (ko) 2020-09-11

Similar Documents

Publication Publication Date Title
WO2015005728A1 (ko) 이미지 표시 방법 및 장치
WO2014163330A1 (en) Apparatus and method for providing additional information by using caller phone number
WO2014129862A1 (en) Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
WO2014193101A1 (en) Method and apparatus for controlling screen display using environmental information
WO2014189223A1 (en) Apparatus, method and computer readable recording medium for displaying thumbnail image of panoramic photo
WO2014017790A1 (en) Display device and control method thereof
WO2015030488A1 (en) Multi display method, storage medium, and electronic device
WO2014157897A1 (en) Method and device for switching tasks
WO2014088348A1 (en) Display device for executing a plurality of applications and method for controlling the same
WO2015174612A1 (ko) 이동단말기 및 그 제어방법
WO2015064903A1 (en) Displaying messages in an electronic device
WO2015005628A1 (en) Portable device for providing combined ui component and method of controlling the same
KR102157327B1 (ko) 이미지 형식의 객체를 텍스트 형식으로 변환하는 전자 장치 및 방법
WO2014112804A1 (en) Mobile device and method for displaying information
WO2015037960A1 (ko) 잠금 화면 제공 장치 및 방법
WO2015005732A1 (en) Method of sharing electronic document and devices for the same
WO2014084668A1 (en) Apparatus and method of managing a plurality of objects displayed on touch screen
AU2013355486A1 (en) Display device and method of controlling the same
WO2015105271A1 (en) Apparatus and method of copying and pasting content in a computing device
WO2014196840A1 (en) Portable terminal and user interface method in portable terminal
KR20140143555A (ko) 휴대 장치의 잠금 화면 상에서 빠른 어플리케이션 실행 방법 및 이를 위한 휴대 장치
WO2014196838A1 (en) Electronic device and method of providing battery information by electronic device
WO2014189225A1 (en) User input using hovering input
WO2014098528A1 (en) Text-enlargement display method
WO2013169051A1 (en) Method and apparatus for performing auto-naming of content, and computer-readable recording medium thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14823740

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14904503

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14823740

Country of ref document: EP

Kind code of ref document: A1