WO2012050251A1 - 이동 단말기 및 그 제어방법 - Google Patents

이동 단말기 및 그 제어방법 Download PDF

Info

Publication number
WO2012050251A1
WO2012050251A1 PCT/KR2010/007062 KR2010007062W WO2012050251A1 WO 2012050251 A1 WO2012050251 A1 WO 2012050251A1 KR 2010007062 W KR2010007062 W KR 2010007062W WO 2012050251 A1 WO2012050251 A1 WO 2012050251A1
Authority
WO
WIPO (PCT)
Prior art keywords
item
items
mobile terminal
attribute
display
Prior art date
Application number
PCT/KR2010/007062
Other languages
English (en)
French (fr)
Inventor
박승용
최다미
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US12/988,969 priority Critical patent/US20120096354A1/en
Priority to PCT/KR2010/007062 priority patent/WO2012050251A1/ko
Publication of WO2012050251A1 publication Critical patent/WO2012050251A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a mobile terminal and a control method thereof. More specifically, the present invention relates to a mobile terminal and a method for controlling the same, by searching for and displaying a second item having the same property as the selected first item. It is about.
  • Terminals such as personal computers, laptops, mobile phones, etc.
  • multimedia devices having complex functions such as taking pictures or videos, playing music or video files, playing games, and receiving broadcasts. It is implemented in the form of (Multimedia player).
  • Terminal can move It may be divided into a mobile terminal and a stationary terminal, depending on whether it is present.
  • the mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.
  • the present invention relates to a mobile terminal and a method of controlling the same, which can easily search for related information by searching for and displaying a second item having the same property as the selected first item.
  • Mobile terminal for realizing the above object, a display; And a controller for searching for and displaying at least one second item having the same property as the selected first item when receiving the selection signal for the first item displayed on the display.
  • the display may include a first area displaying the at least one first item and a second area in which the selection signal is generated in response to a touch operation of dragging and dropping the first item displayed on the first area. can do.
  • the first item and the second item may include at least one of a photo, a video, an email, a text message, and a social network service message stored in the mobile terminal.
  • the first item and the second item may include at least one of a picture, a video, an email, a message, and a social network service message stored in at least one of another terminal and an external server.
  • the attribute may include a first attribute including a category to which the first and second items belong, a time at which the first and second items are created, a sender of the first and second items, a receiver of the first and second items, It may include a second attribute including at least one of the contents of the first and second items, the title of the first and second items.
  • the controller may search for and display a second item having the same first attribute as the selected first item in a category having the same first attribute as the selected first item.
  • the attribute may be tag information included in the first and second items.
  • the controller may search for and display the second item based on attributes common to the plurality of first items when a plurality of first items are received.
  • a mobile terminal for realizing the above object, a display; And when receiving a touch signal for dragging and dropping the first item displayed on the first area of the display to the second area of the display, searching for and displaying a second item having the same property as the dragged and dropped first item. It may include a control unit.
  • the first item and the second item may include a picture, a video, an email, a text message, and a social network service message stored in at least one of the mobile terminal, another terminal, and an external server.
  • the attribute may include a first attribute including a category to which the first and second items belong, a time at which the first and second items are created, a sender of the first and second items, a receiver of the first and second items, It may include a second attribute including at least one of the contents of the first and second items, the title of the first and second items.
  • the controller may search for and display a second item having the same first attribute as the selected first item in a category having the same first attribute as the selected first item.
  • control method of the mobile terminal for realizing the above object, the step of displaying a first item; Receiving a selection signal for at least one of the first items; And searching for and displaying at least one second item having the same property as the selected at least one first item.
  • Receiving the selection signal the step of dragging the displayed first item; Dropping the dragged first item on a preset area; And generating the selection signal corresponding to the first item dropped in the preset area.
  • the first and second items may include at least one of a photo, a video, an email, a message, and a social network service message stored in at least one of the mobile terminal, another terminal, and an external server.
  • the searching and displaying may include: a time at which the first item is generated, a sender of the first item, a receiver of the first item, and the first item among second items corresponding to a category attribute to which the first item belongs; The second item corresponding to any one of contents of the item and a title of the first item may be displayed.
  • the mobile terminal and its control method according to the present invention has an effect of easily searching for related information by searching for and displaying a second item having the same property as the selected first item.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating the operation of the mobile terminal of FIG. 1.
  • 3 to 6 are diagrams illustrating the operation of the mobile terminal of FIG. 2.
  • FIG. 7 is a diagram illustrating still another operation of the mobile terminal of FIG. 2.
  • FIG. 8 is a diagram illustrating attributes according to items.
  • FIG. 9 is a diagram illustrating a search result of the mobile terminal of FIG. 2 in a tree form.
  • FIG. 10 is a diagram illustrating a search target of the mobile terminal of FIG. 2.
  • FIG. 11 is a diagram illustrating an operation of a mobile terminal according to another embodiment of the present invention.
  • FIG. 14 is a diagram illustrating an operation of a mobile terminal according to another embodiment of the present invention.
  • the mobile terminal described herein may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • the configuration according to the embodiments described herein may also be applied to fixed terminals such as digital TVs, desktop computers, etc., except when applicable only to mobile terminals.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • Mobile terminal 100 the wireless communication unit 20, the camera 30, the memory 80, the control unit 50, the output unit 60, the input unit 70 ) May be included.
  • the wireless communication unit 20 may include one or more modules that enable wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and a network in which the mobile terminal 100 is located.
  • the wireless communication unit 20 may include a mobile communication module 21 and a short range communication module 23, and may further include a wireless internet module and a location information module, although not shown in detail. .
  • the mobile communication module 21 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the short range communication module 23 refers to a module for short range communication.
  • Bluetooth Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the camera 30 processes image frames such as still images or moving images obtained by an image sensor in a video call mode or a photographing mode.
  • the processed image frame may be displayed on the output unit 60.
  • the image frame processed by the camera 30 may be stored in a memory or transmitted to the outside through the wireless communication unit 20.
  • Two or more cameras 30 may be provided according to the configuration aspect of the terminal.
  • the first camera may be provided at the front side of the mobile terminal 100 and the second camera may be provided at the rear side of the mobile terminal 100.
  • the first camera may serve to photograph the user of the mobile terminal 100 during a video call, and the second camera may serve to photograph an external image.
  • the power supply unit 40 may receive external power and internal power by the control of the controller 50 to supply power required for the operation of each component.
  • the controller 50 controls the overall operation of the mobile terminal 100. For example, perform related control and processing for voice calls, data communications, video calls, and the like.
  • the controller 50 may include a multimedia module for playing multimedia.
  • the multimedia module may be implemented in the controller 50 or may be implemented separately from the controller 50.
  • the controller 50 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as a character and an image, respectively.
  • the output unit 60 may output various types of information including the state of the mobile terminal 100 in various ways. That is, although the display 61 is illustrated as the output unit 60 in FIG. 1, the output unit 60 may include a sound output module, a haptic module, and the like.
  • the input unit 70 may include a plurality of key buttons manipulated to receive a command for controlling the operation of the mobile terminal 100.
  • the key button may also be collectively referred to as a manipulating portion, and may be employed in any manner as long as the user is tactile in a tactile manner.
  • the content input by the key button may be variously set.
  • the display 61 shown in the configuration of the output unit 60 may also serve as the input unit 70 at the same time. For example, if the display 61 is configured as a touch screen, a touch operation applied by the user to the display 61 may be obtained as an input to the mobile terminal 100.
  • the memory 80 may store a program for the operation of the controller 50, and may temporarily store input / output data (eg, a phone book, a message, a still image, a video, etc.).
  • the memory 80 may store data on vibration and sound of various patterns output when a touch is input on the touch screen.
  • the memory 80 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), ReadOnly Memory (ROM), Electrically Erasable Programmable ReadOnly Memory (EEPROM), Programmable ReadOnly Memory (PROM) magnetic memory, magnetic disk, optical disk It may include a storage medium of the type.
  • the mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 80 on the Internet.
  • FIG. 2 is a flowchart illustrating the operation of the mobile terminal of FIG. 1, and FIGS. 3 to 6 are views illustrating the operation of the mobile terminal of FIG. 2.
  • the controller (50 of FIG. 1) of the mobile terminal 100 may allow the step (S10) of displaying the first item (M) to proceed.
  • the first item M may be an object or content selected by a user to retrieve related information.
  • the first item M may be created by a user or acquired from the outside.
  • the first item M may be a photograph taken, an e-mail exchanged with another person, a text message exchanged with another person, a music file, and the like. That is, it means that the first item M may include all content that can be generated or acquired in connection with the use of the mobile terminal 100.
  • 3 illustrates a message exchanged with another user by a user of the mobile terminal 100 as a first item M.
  • the controller 50 of FIG. 1 may sequentially display messages exchanged with other users on the display 151.
  • operation S20 it may be determined whether the displayed first item M is selected.
  • a part of the first item M may be selected by a control signal of the controller 50 of FIG. 1 or by a user's selection. This will be described in more detail as follows.
  • the controller 50 of FIG. 1 may automatically determine that a specific first item M is selected when a specific event occurs. For example, the controller 50 of FIG. 1 selects a first item M including the content when the message of the user of the mobile terminal 100 includes contents of interest to the user. Can be set to Referring to FIG. 3, if the word “paris” is included and the user is interested in the word, the controller 50 of FIG. 1 may determine that it is selected.
  • the selection of some of the first items M by the user's selection may be performed by the user's touch input. For example, as illustrated in FIG. 4, the user may drag a specific one of the first items M with the finger F and drop the search box SR. That is, when a user wants to search for 'Paris' more specifically during a conversation with the other person, the first item M may be dragged and dropped into the search box SR.
  • an icon MI may be displayed in the search window SR.
  • the icon MI may be displayed differently according to the dragged and dropped first item M.
  • FIG. 5 when the first item M is a text message, an icon in the form of a speech bubble may be displayed.
  • the user dragging and dropping on the search box SR may touch the search button EP to allow the next step for searching based on the selected first item M to proceed.
  • an operation S30 of acquiring an attribute of the selected first item M may be performed.
  • the property of the first item M may include a first property and a second property.
  • the first attribute may be a category to which the first item M belongs. For example, it may be information on whether the first item M corresponds to a text message, a photo, a video, an email, an SNS message, or a music file.
  • the second attribute may be related to the content itself and the generation of the first item M.
  • the attribute is a category called a text message, the content of a problem message, a counterpart who sent and received a text message, and a time at which the text message is generated. And so on. Specific contents of the attributes will be described in more detail in the corresponding sections.
  • Step S50 may proceed.
  • the second item N may be an item having the same attributes as the first item M.
  • the content may be content searched based on the selected first item M.
  • the search for the second item N may be performed with respect to content already stored in the memory (80 of FIG. 1) of the mobile terminal 100 or with respect to an external terminal or a server.
  • the retrieved second item N may be displayed on the display 151 as shown in FIG. 6.
  • the displayed second item N may have the same attributes as the selected first content M.
  • FIG. 6 when the first content M is a text message for 'Paris', the displayed second item N may be various images related to 'Paris'. That is, the user of the mobile terminal 100 may actually be a picture taken by the place, an image downloaded by the user of another terminal, or the like.
  • the displayed pictures PIC1 to PIC6 are represented by letters, but this is merely a display for convenience of understanding. That is, the pictures PIC1 to PIC6 may be represented as actual images.
  • FIG. 7 is a diagram illustrating still another operation of the mobile terminal of FIG. 2.
  • the mobile terminal 100 can display the second item N belonging to various categories.
  • the search target may not be determined as a specific category. That is, items belonging to various categories such as pictures PIC1, PIC2, and PIC3, e-mails (MAIL), music files (MP3), and text messages (MESSAGE) may be displayed.
  • MAIL e-mails
  • MP3 music files
  • MESSAGE text messages
  • the selected first item M is 'Paris'
  • the e-mail MAIL, the music file MP3 associated with the place, and the text message MESSAGE sent by the user of the mobile terminal 100 may be searched for and displayed.
  • the user or the controller 50 of FIG. 1 may appropriately set the range of the second item N to be searched and / or displayed. For example, this means that a search may be performed only within an item belonging to the same category, or only an item belonging to several selected categories.
  • FIG. 8 is a diagram illustrating attributes according to items.
  • the attributes may be different from each other according to the type of the item.
  • one item may have a plurality of attributes.
  • the first attribute may be date information when the image is generated. For example, it may be a date when the picture was taken or a date when the picture was downloaded.
  • the second attribute of the image item PIC may be place information. For example, it may be a place where a picture is taken.
  • the third attribute of the image item PIC may be person information. For example, it may be information about who is a person included in the picture. Information about the person included in the picture may be automatically generated by the controller 50 of FIG. 1 using a facial recognition method.
  • the fourth attribute of the image item PIC may be a tag. That is, it does not correspond to the first to third attributes, but it means that the information may be added specially. For example, it may be a memo added by a user to a specific picture. Also, additional attributes may be present as needed.
  • the first attribute is date information of sending and receiving the email
  • the second and third attributes may be recipients and senders.
  • the fourth attribute may be the subject of the email.
  • the content may be included as a fourth attribute.
  • the name of the singer as the first attribute, the genre as the second attribute, the title as the third attribute, and the lyrics as the fourth attribute may be included.
  • the controller 50 of FIG. 1 may search for items that are expected to include the same content based on attribute information unique to each item. For example, when the place of the second attribute of the image item PIC is 'Paris', the title of the fourth attribute of the email item MAIL, the content of the fourth attribute of the message item MESSAGE, the music file item It is possible to search whether or not 'Paris' is included in the title and lyrics of the third and fourth attributes of (MP3).
  • FIG. 9 is a diagram illustrating a search result of the mobile terminal of FIG. 2 in a tree form.
  • the search results of the controller 50 of FIG. 1 may be expressed in a tree form.
  • the first result R1 is a map image of Paris
  • the second result R2 is an arc de triomphe in Paris
  • the third result ( R3) is an e-mail informing about the trip to Paris
  • the fourth result (R4) is a song containing Paris in the title
  • the fifth result (R5) is a movie about Paris
  • the seventh result (R7) derived from the fifth result (R5) ) Is the text related to the Notre Dame of the fifth result (R5)
  • the sixth result (R6) is the text of the social network service for the restaurant in Paris
  • the image related to the 'snail' of the sixth result (R6), the ninth result (R9) derived from the eighth result (R8) may be a song related to the 'snail' of the eighth resolution (R8).
  • the first to sixth results R1 to R6 may be results directly related to the seed keyword S1.
  • the controller 50 of FIG. 1 may determine whether the result is a directly related result based on how many attributes of the seed keyword S1 and the attributes of the first to sixth results R1 to R6 match.
  • the first to sixth results R1 to R6 are likely to include mutual correspondences in attributes other than the name of the place itself.
  • the seventh result (R7) may not be included in the title 'Paris' itself, but 'Paris' is included in the content, it may be relatively similar. Therefore, the controller 50 of FIG. 1 may treat the first to seventh results R1 to R7 as the presentation results CR and may be displayed on the display 151.
  • the eighth and ninth results R8 and R9 derived from the name 'snail' of the sixth result R6 may be evaluated to have a relatively low correlation with the seed keyword S1. Accordingly, the controller 50 of FIG. 1 may treat the eighth and ninth results R8 and R9 as the error information FR and may not display them on the display 151.
  • FIG. 10 is a diagram illustrating a search target of the mobile terminal of FIG. 2.
  • the mobile terminal 100 may vary the search target for the item.
  • the mobile terminal 100 may search for an item in data stored in the memory 80 included in the mobile terminal 100.
  • the controller 50 of FIG. 1 may determine whether the attributes match with respect to the photo stored in the memory 80.
  • the mobile terminal 100 may search for an item in data stored in the server S and / or the other terminal 200 outside the mobile terminal 100.
  • the controller 50 of FIG. 1 may transmit the seed keyword S1 of FIG. 9 to an external server S and / or another terminal 200.
  • the external server S and / or the other terminal 200 may search based on the received seed keyword (S1 of FIG. 9), and then transmit the result to the mobile terminal 100.
  • the external server S and / or the other terminal 200 may communicate with the mobile communication module 21 of FIG. 1 and / or the short range communication module 23 of FIG. 1.
  • FIG. 11 is a diagram illustrating an operation of a mobile terminal according to another embodiment of the present invention.
  • the mobile terminal 100 can execute a search based on a combination of a plurality of seed keywords MI.
  • the user may drag and drop the items to the search box SR.
  • the first, second, and third items MI1, MI2, and MI3 may be dropped into the search box SR.
  • Items dropped in the search box SR may be those that the user intends to search for related content.
  • the first, second, and third items MI1, MI2, and MI3 may have the same or different categories.
  • the search button EP When the search button EP is touched, a search based on the first, second, and third items MI1, MI2, and MI3 transferred to the search window SR may be performed. At this time, the items moved to the search box may be combined with each other to generate a search expression.
  • the first item MI1 is an email item SO1 related to a trip to Paris
  • the second item MI2 is an image item SO2 photographing the Arc de Triomphe in Paris
  • the third item MI3 is Paris.
  • the control unit 50 of FIG. 1 may extract the search result RE based on the commonalities of these three items. That is, a seed keyword is generated through an and operation or or operation of three item attributes, and the search result RE can be extracted based on the seed keyword.
  • the mobile terminal according to another embodiment of the present invention can select a search target through various methods.
  • the user may select the first item M by using the finger F or the like.
  • one of the first items M may be selected through a long touch method.
  • an SMS message is illustrated as the first item M.
  • the picture taken as the first item M, an e-mail with another person, a music file, and the like may be different.
  • a popup window P may be displayed.
  • a menu related to the selected first item M may be displayed.
  • a menu for copying or deleting the content of the selected first item M may be displayed.
  • the related search menu P1 may be displayed in the popup window P.
  • the related search menu P1 may be a menu for executing a function of searching for content related to the selected first item M.
  • FIG. That is, in addition to the method of dragging and dropping the first item M to the search box SP in order to select the first item M as described above with reference to FIG. 4 and the like, a long touch of the first item M is performed. This means that you can search for content.
  • FIG. 14 is a diagram illustrating an operation of a mobile terminal according to another embodiment of the present invention.
  • the user may select the first item M through a method of taking a specific gesture action TT.
  • the user may take a gesture action TT with respect to a specific one of the first items M with the finger F or the like. For example, the gesture TT surrounding the outer circumference of the word to be searched may be performed.
  • the controller 50 of FIG. 1 may search for related content based on the selected word.
  • a search is performed by first moving an item to a search window and then touching a search button.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

이동 단말기 및 그 제어방법이 개시된다. 본 발명의 이동 단말기 및 그 제어방법은, 디스플레이; 및 상기 디스플레이에 표시된 제 1아이템에 대한 선택신호를 수신하면, 상기 선택된 제 1아이템과 동일한 속성을 가지는 적어도 하나의 제 2아이템을 검색하여 표시하는 제어부를 포함하는 것을 특징으로 한다. 본 발명에 의하면, 선택된 제 1아이템과 동일한 속성을 가지는 제 2아이템을 검색하여 표시함으로써 관련 정보의 검색이 용이할 수 있다.

Description

이동 단말기 및 그 제어방법
본 발명은 이동 단말기 및 그 제어방법에 관한 것으로서, 보다 구체적으로는 선택된 제 1아이템과 동일한 속성을 가지는 제 2아이템을 검색하여 표시함으로써 관련 정보의 검색이 용이할 수 있는 이동 단말기 및 그 제어방법에 관한 것이다.
개인용 컴퓨터, 노트북, 휴대폰 등과 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.
단말기는 이동 가능 여부에 따라 이동 단말기(mobile terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.
단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려되고 있다.
최근 이동 단말기를 포함한 다양한 단말기들은 복합적이고 다양한 기능들을 제공함에 따라 메뉴 구조 또한 복잡해지는 추세이다. 또한 이동 단말기로 웹페이지를 포함하는 각종 디지털문서를 디스플레이할 수 있는 기능이 추가되고 있다.
본 발명은 선택된 제 1아이템과 동일한 속성을 가지는 제 2아이템을 검색하여 표시함으로써 관련 정보의 검색이 용이할 수 있는 이동 단말기 및 그 제어방법에 관한 것이다.
상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 이동 단말기는, 디스플레이; 및 상기 디스플레이에 표시된 제 1아이템에 대한 선택신호를 수신하면, 상기 선택된 제 1아이템과 동일한 속성을 가지는 적어도 하나의 제 2아이템을 검색하여 표시하는 제어부를 포함할 수 있다.
상기 디스플레이는, 상기 적어도 하나의 제 1아이템을 표시하는 제 1영역과, 상기 제 1영역에 표시된 제 1아이템을 드래그한 후 드롭하는 터치동작에 대응하여 상기 선택신호가 발생하는 제 2영역을 포함할 수 있다.
상기 제 1아이템과 상기 제 2아이템은, 상기 이동 단말기에 저장된 사진, 동영상, 이메일, 문자 메시지, 소셜네트워크서비스 메시지 중 적어도 하나를 포함할 수 있다.
상기 제 1아이템과 상기 제 2아이템은, 다른 단말기, 외부 서버 중 적어도 어느 하나에 저장된 사진, 동영상, 이메일, 메시지, 소셜네트워크서비스 메시지 중 적어도 하나를 포함할 수 있다.
상기 속성은, 상기 제 1,2아이템이 속하는 카테고리를 포함하는 제 1속성과, 상기 제 1,2 아이템이 생성된 시각, 상기 제 1,2아이템의 송신자, 상기 제 1,2아이템의 수신자, 상기 제 1,2아이템의 내용, 상기 제 1,2아이템의 제목 중 적어도 어느 하나를 포함하는 제 2속성을 포함할 수 있다.
상기 제어부는, 상기 선택된 제 1아이템과 제 1속성이 동일한 카테고리 내에서 상기 선택된 제 1아이템과 제 2속성이 동일한 제 2아이템을 검색하여 표시할 수 있다.
상기 속성은, 상기 제 1,2아이템에 포함된 태그(tag) 정보일 수 있다.
상기 제어부는, 상기 선택신호가 수신된 제 1아이템이 복수 개이면, 상기 복수 개의 제 1아이템에 공통된 속성이 기초하여 상기 제 2아이템을 검색하여 표시할 수 있다.
또한, 상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 이동 단말기는, 디스플레이; 및 상기 디스플레이의 제 1영역에 표시된 제 1아이템을 상기 디스플레이의 제 2영역으로 드래그앤드롭하는 터치신호를 수신하면, 상기 드래그앤드롭된 제 1아이템과 동일한 속성을 가지는 제 2아이템을 검색하여 표시하는 제어부를 포함할 수 있다.
상기 제 1아이템과 상기 제 2아이템은, 상기 이동 단말기, 다른 단말기, 외부 서버 중 적어도 어느 하나에 저장된 사진, 동영상, 이메일, 문자 메시지, 소셜네트워크서비스 메시지를 포함할 수 있다.
상기 속성은, 상기 제 1,2아이템이 속하는 카테고리를 포함하는 제 1속성과, 상기 제 1,2 아이템이 생성된 시각, 상기 제 1,2아이템의 송신자, 상기 제 1,2아이템의 수신자, 상기 제 1,2아이템의 내용, 상기 제 1,2아이템의 제목 중 적어도 어느 하나를 포함하는 제 2속성을 포함할 수 있다.
상기 제어부는, 상기 선택된 제 1아이템과 제 1속성이 동일한 카테고리 내에서 상기 선택된 제 1아이템과 제 2속성이 동일한 제 2아이템을 검색하여 표시할 수 있다.
또한, 상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 이동 단말기의 제어방법은, 제 1아이템을 표시하는 단계; 상기 제 1아이템 중 적어도 하나에 대한 선택신호를 수신하는 단계; 및 상기 선택된 적어도 하나의 제 1아이템과 동일한 속성을 가지는 적어도 하나의 제 2아이템을 검색하여 표시하는 단계를 포함할 수 있다.
상기 선택신호를 수신하는 단계는, 상기 표시된 제 1아이템을 드래그하는 단계; 상기 드래그한 제 1아이템을 기 설정된 영역에 드롭하는 단계; 및 상기 기 설정된 영역에 드롭된 제 1아이템에 대응된 상기 선택신호를 발생하는 단계를 포함할 수 있다.
상기 제 1,2아이템은, 상기 이동 단말기, 다른 단말기, 외부 서버 중 적어도 어느 하나에 저장된 사진, 동영상, 이메일, 메시지, 소셜네트워크서비스 메시지 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.
상기 검색하여 표시하는 단계는, 상기 제 1아이템이 속하는 카테고리 속성에 대응된 제 2아이템 중에서, 상기 제 1아이템이 생성된 시각, 상기 제 1아이템의 송신자, 상기 제 1아이템의 수신자, 상기 제 1아이템의 내용, 상기 제 1아이템의 제목 중 어느 하나가 대응되는 제 2아이템을 표시하는 것을 특징으로 할 수 있다.
본 발명에 따른 이동 단말기 및 그 제어방법은, 선택된 제 1아이템과 동일한 속성을 가지는 제 2아이템을 검색하여 표시함으로써 관련 정보의 검색이 용이한 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 도 1 이동 단말기의 작동을 도시한 플로우챠트이다.
도 3 내지 도 6은 도 2 이동 단말기의 동작을 도시한 도면이다.
도 7은 도 2 이동 단말기의 또 다른 동작을 도시한 도면이다.
도 8은 아이템에 따른 속성을 도시한 도면이다.
도 9는 도 2 이동 단말기의 검색 결과를 트리(tree)형태도 도시한 도면이다.
도 10은 도 2 이동 단말기의 검색 대상을 도시한 도면이다.
도 11은 본 발명의 다른 실시예에 따른 이동 단말기의 동작을 도시한 도면이다.
도 12 및 도 13은 본 발명의 또 다른 실시예에 따른 이동 단말기의 동작을 도시한 도면이다.
도 14는 본 발명의 또 다른 실시예에 따른 이동 단말기의 동작을 도시한 도면이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 이동 단말기의 블록 구성도(block diagram)이다.
본 발명의 일 실시예에 따른 이동 단말기(100)는, 무선 통신부(20)와, 카메라(30)와, 메모리(80)와, 제어부(50)와, 출력부(60)와, 입력부(70)를 포함할 수 있다.
무선 통신부(20)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(20)는 이동 통신 모듈(21)과, 근거리 통신 모듈(23)을 포함할 수 있으며, 도면에 자세히 도시하지는 않았지만 무선 인터넷 모듈 및 위치 정보 모듈 등을 더 포함할 수 있다.
이동 통신 모듈(21)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
근거리 통신 모듈(23)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
카메라(30)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 출력부(60)에 표시될 수 있다. 카메라(30)에서 처리된 화상 프레임은 메모리에 저장되거나 무선 통신부(20)를 통하여 외부로 전송될 수 있다. 카메라(30)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다. 예를 들어, 이동 단말기(100)의 전면 측에 마련된 제 1카메라와, 이동 단말기(100)의 후면 측에 마련된 제 2카메라를 포함할 수 있다. 제 1카메라는 화상 통화시에 이동 단말기(100) 사용자 자신을 촬영하는 역할을 하고, 제 2카메라는 외부 영상을 촬영하는 역할을 할 수 있다.
전원 공급부(40)는 제어부(50)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.
제어부(50)는 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(50)는 멀티 미디어 재생을 위한 멀티미디어 모듈을 구비할 수도 있다. 멀티미디어 모듈은 제어부(50) 내에 구현될 수도 있고, 제어부(50)와 별도로 구현될 수도 있다. 제어부(50)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
출력부(60)는 이동 단말기(100)의 상태 등을 포함하는 각종 정보를 다양한 방법으로 출력할 수 있다. 즉, 도 1에서는 출력부(60)로 디스플레이(61)를 도시하였으나, 출력부(60)는 음향 출력 모듈, 햅틱 모듈 등을 포함할 수 있음을 의미한다.
입력부(70)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위하여 조작되는 복수의 키버튼을 포함할 수 있다. 키버튼은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각 적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 키버튼에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 한편, 출력부(60)의 구성으로 도시한 디스플레이(61)는 동시에 입력부(70)의 역할을 할 수도 있다. 예를 들어, 디스플레이(61)가 터치스크린으로 구성된다면, 사용자가 디스플레이(61)에 가하는 터치 동작을 이동 단말기(100)에 대한 입력으로 획득할 수 있다.
메모리(80)는 제어부(50)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 메모리(80)는 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다. 메모리(80)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(80)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
도 2는 도 1 이동 단말기의 작동을 도시한 플로우챠트이고, 도 3 내지 도 6은 도 2 이동 단말기의 동작을 도시한 도면이다.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)의 제어부(도 1의 50)는 제 1아이템(M)을 표시하는 단계(S10)가 진행되도록 할 수 있다.
제 1아이템(M)은 관련된 정보를 검색하기 위하여 사용자가 선택하는 객체 또는 컨텐츠일 수 있다. 제 1아이템(M)은 사용자가 생성하거나, 외부로부터 획득될 수 있다. 예를 들어, 제 1아이템(M)은 촬영된 사진, 타인과 주고받은 이메일, 타인과 주고받은 문자 메시지, 음악파일 등일 수 있다. 즉, 제 1아이템(M)은 이동 단말기(100)의 사용과 관련되어 생성하거나, 획득할 수 있는 모든 콘텐츠를 포괄할 수 있음을 의미한다. 도 3에는, 제 1아이템(M)으로서 이동 단말기(100)의 사용자가 다른 사용자와 주고받은 메시지를 도시하고 있다. 이에 도시한 바와 같이, 제어부(도 1의 50)는 다른 사용자와 주고받은 메시지를 디스플레이(151)에 순차적으로 표시할 수 있다.
표시한 제 1아이템(M)이 선택되었는지 여부를 판단하는 단계(S20)가 진행될 수 있다.
제어부(도 1 의50)의 제어신호 또는 사용자의 선택에 의하여 제 1아이템(M)중 일부가 선택될 수 있다. 이에 대하여 보다 구체적으로 설명하면 다음과 같다.
제어부(도 1의 50)는 특정한 이벤트가 발생하면 자동적으로 특정한 제 1아이템(M)이 선택된 것으로 판단할 수 있다. 예를 들어, 제어부(도 1의 50)는, 상대방과 주고받던 메시지에 이동 단말기(100)의 사용자가 관심있어할 내용이 포함된 경우에 그 내용을 포함하고 있는 제 1아이템(M)을 선택한 것으로 설정할 수 있다. 도 3에 의한다면, ‘파리’라는 단어가 포함되어 있으며 사용자가 이 단어에 관심을 갖을 것으로 판단한다면, 제어부(도 1의 50)는 이를 선택된 것으로 판단할 수 있다.
사용자의 선택에 의한 제 1아이템(M) 중 일부의 선택은, 사용자의 터치입력에 의하여 진행될 수 있다. 예를 들어, 도 4에 도시한 바와 같이, 사용자는 손가락(F) 등으로 제 1아이템(M) 중 특정한 하나를 드래그(drag)하여 검색창(SR)에 드롭(drop)할 수 있다. 즉, 상대와의 대화 중에 ‘파리’에 대하여 보다 구체적으로 검색하고 싶을 때, 그 제 1아이템(M)을 검색창(SR)으로 드래그앤드롭할 수 있음을 의미한다.
검색창(SR)으로 제 1아이템(M)을 드래그앤드롭하면, 검색창(SR)에는 아이콘(MI)이 표시될 수 있다. 아이콘(MI)은, 드래그앤드롭된 제 1아이템(M)에 따라서 다르게 표시될 수 있다. 예를 들어, 도 5에 도시한 바와 같이, 제 1아이템(M)이 문자메시지인 경우라면 말풍선 형태의 아이콘이 표시될 수 있다. 검색창(SR)에 드래그앤드롭한 사용자는, 검색버튼(EP)을 터치하여, 선택한 제 1아이템(M)에 기초한 검색을 위한 다음 단계가 진행되도록 할 수 있다.
제 1아이템(M) 중 적어도 하나가 선택되면, 선택한 제 1아이템(M)의 속성을 획득하는 단계(S30)가 진행될 수 있다.
제 1아이템(M)의 속성은 제 1속성과 제 2속성을 포함할 수 있다. 제 1속성은 제 1아이템(M)이 속하는 카테고리일 수 있다. 예를 들어, 제 1아이템(M)이 문자메시지, 사진, 동영상, 이메일, SNS 메시지, 음악파일 중 어떠한 것인지에 해당하는가 여부에 대한 정보일 수 있다.
제 2속성은 제 1아이템(M)의 내용 그 자체 및 생성과 관련된 것일 수 있다. 예를 들면, 도 4에 도시한 바와 같이, 선택된 제 1아이템(M)이 문자메시지일 경우에, 속성은 문자메시지라는 카테고리, 문제메시지의 내용, 문자메시지를 주고받은 상대방, 문자메시지의 생성 시각 등이 될 수 있다. 속성의 구체적인 내용에 대해서는 해당하는 부분에서 보다 구체적으로 설명하도록 한다.
선택한 제 1아이템(M)의 속성을 획득하면, 획득한 제 1아이템(M)의 속성에 대응된 제 2아이템(N)을 검색하는 단계(S40) 및 검색된 제 2아이템(N)을 표시하는 단계(S50)가 진행될 수 있다.
제 2아이템(N)은 제 1아이템(M)과 동일한 속성을 가지는 아이템일 수 있다. 즉, 선택된 제 1아이템(M)에 기초하여 검색된 컨텐츠일 수 있다. 제 2아이템(N)에 대한 검색은, 이동 단말기(100)의 메모리(도 1의 80)에 이미 저장되어 있는 컨텐츠에 대하여 진행되거나 외부 단말기 또는 서버에 대해서 진행될 수 있다.
검색된 제 2아이템(N)은, 도 6에 도시한 바와 같이 디스플레이(151)에 표시될 수 있다. 표시되는 제 2아이템(N)은 선택된 제 1컨텐츠(M)와 속성이 동일할 수 있다. 예를 들어, 제 1컨텐츠(M)가 ‘파리’에 대한 문자메시지일 때, 표시된 제 2아이템(N)은 ‘파리’와 관련된 각종 이미지일 수 있다. 즉, 이동 단말기(100)의 사용자가 실재로 그 장소 촬영한 사진, 다른 단말기의 사용자에게 다운로드 받은 이미지 등일 수 있다. 한편, 도 6에서는 표시된 그림(PIC1 내지 PIC6)을 문자로 표현하였으나, 이는 이해의 편의를 위한 표시에 불과하다. 즉, 그림(PIC1 내지 PIC6)이 실제 이미지로 표현될 수 있음을 의미한다.
도 7은 도 2 이동 단말기의 또 다른 동작을 도시한 도면이다.
이에 도시한 바와 같이, 본 발명의 또 다른 동작에 의한 이동 단말기(100)는 다양한 카테고리에 속하는 제 2아이템(N)을 표시할 수 있다.
제어부(도 1의 50)가 제 2아이템(N)을 검색함에 있어서, 검색의 대상이 특정 카테고리로 정되지 않을 수 있다. 즉, 그림(PIC1, PIC2, PIC3), 이메일(MAIL), 음악파일(MP3), 문자메시지(MESSAGE) 등 다양한 카테고리에 속하는 아이템들이 표시될 수 있다. 예를 들어, 선택된 제 1아이템(M)이 ‘파리’일 경우에, 이동 단말기(100)의 사용자가 그 장소에서 촬영했던 사진(PIC1 내지 PIC3), 이동 단말기(100)의 사용자가 그 장소에서 송신했던 이메일(MAIL), 그 장소와 관련된 음악파일(MP3), 이동 단말기(100)의 사용자가 그 장소에서 송신했던 문자메시지(MESSAGE)가 검색되어 표시될 수 있다. 사용자 또는 제어부(도 1의 50)는 검색 및/또는 표시될 제 2아이템(N)의 범위를 적절하게 설정할 수 있다. 예를 들어, 동일한 카테고리에 속하는 아이템 내에서만 검색하거나, 선택된 몇 개의 카테고리에 속하는 아이템만 검색하는 등의 경우가 가능함을 의미한다.
도 8은 아이템에 따른 속성을 도시한 도면이다.
이에 도시한 바와 같이, 아이템의 종류에 따라서 그 속성이 서로 상이할 수 있다. 또한, 하나의 아이템이 복수의 속성을 가질 수 있다.
이미지 아이템(PIC)인 경우에, 제 1속성은 그 이미지가 생성된 날짜 정보일 수 있다. 예를 들어, 사진을 촬영한 날짜, 사진을 다운로드받은 날짜 등일 수 있다. 이미지 아이템(PIC)의 제 2속성은 장소 정보일 수 있다. 예를 들어, 사진을 촬영한 장소일 수 있다. 이미지 아이템(PIC)의 제 3속성은 인물 정보일 수 있다. 예를 들어, 사진에 포함된 인물이 누구인가 하는 정보일 수 있음을 의미한다. 사진에 포함된 인물에 대한 정보는, 안면인식 방법 등을 이용하여 제어부(도 1의 50)가 자동적으로 생성할 수 있다. 이미지 아이템(PIC)의 제 4속성은 태그(tag)일 수 있다. 즉, 제 1 내지 3속성에 해당되지는 않지만, 특별히 부가된 정보일 수 있음을 의미한다. 예를 들어, 특정한 사진에 대해서 사용자가 부가한 메모 등일 수 있다. 또한, 필요에 따라서는 추가적인 속성이 존재할 수 있다.
이메일 아이템(MAIL)인 경우에, 제 1속성은 그 이메일을 주고받은 날짜 정보이며, 제 2,3속성은 수신자 및 송신자일 수 있다. 또한, 제 4속성은 그 이메일의 제목일 수 있다.
메시지 아이템(MESSAGE)인 경우에, 제 4속성으로 그 내용이 포함되어 있을 수 있다.
음악파일 아이템(MP3)인 경우에, 제 1속성으로 가수의 이름, 제 2속성으로 장르, 제 3속성으로 제목, 제 4속성으로 가사가 포함되어 있을 수 있다.
제어부(도 1의 50)는 각 아이템 고유의 속성 정보에 기초하여 동일한 내용을 포함하고 있을 것으로 예상되는 아이템을 검색할 수 있다. 예를 들어, 이미지 아이템(PIC)의 제 2속성인 장소가 ‘파리’인 경우에, 이메일 아이템(MAIL)의 제 4속성인 제목, 메시지 아이템(MESSAGE)의 제 4속성인 내용, 음악파일 아이템(MP3)의 제 3,4속성인 제목, 가사에 ‘파리’가 포함되는가 여부를 검색할 수 있다.
도 9는 도 2 이동 단말기의 검색 결과를 트리(tree)형태도 도시한 도면이다.
이에 도시한 바와 같이, 제어부(도 1의 50)의 검색결과는 트리 형태의 관계로 표현할 수 있다.
제 1아이템에서 추출된 씨드(seed) 키워드(S1)가 ‘파리’인 경우에, 제 1결과(R1)는 파리의 지도 이미지, 제 2결과(R2)는 파리에 있는 개선문, 제 3결과(R3)은 파리 출장을 알리는 이메일, 제 4결과(R4)는 파리를 제목에 포함하는 노래, 제 5결과(R5)는 파리에 관한 영화, 제 5결과(R5)에서 파생된 제 7결과(R7)는 제 5결과(R5)의 ‘노틀담’과 관련된 텍스트, 제 6결과(R6)는 파리의 식당에 대한 소셜네트워크서비스의 텍스트, 제 6결과(R6)에서 파생된 제 8결과(R8)는 제 6결과(R6)의 ‘달팽이’와 관련된 이미지, 제 8결과(R8)에서 파생된 제 9결과(R9)는 제 8결고(R8)의 ‘달팽이’와 관련된 노래일 수 있다.
제 1 내지 6결과(R1 내지 R6)는 씨드 키워드(S1)과 직접적으로 관련된 결과일 수 있다. 제어부(도 1의 50)는 직접적으로 관련된 결과인가 여부를, 씨드 키워드(S1)의 속성들과 제 1 내지 6결과(R1 내지 R6)의 속성들이 몇 개 일치하는가에 기초하여 판단할 수 있다. 제 1 내지 6결과(R1 내지 R6)는 장소의 명칭 그 자체 이외의 속성에서 상호 대응되는 것이 포함되어 있을 가능성이 높다. 또한 제 7결과(R7)도 ‘파리’자체가 제목에 포함되지는 않았지만, 그 내용에 ‘파리’가 포함되어 상대적으로 유사성이 높을 수 있다. 따라서 제어부(도 1의 50)는 제 1 내지 7결과(R1 내지 R7)를 표출결과(CR)로 취급하여, 디스플레이(151)에 표시될 수 있다.
제 6결과(R6)의 ‘달팽이’라는 명칭으로부터 파생된 제 8,9결과(R8, R9)는, 씨드 키워드(S1)와의 연관성이 상대적으로 낮게 평가될 수 있다. 따라서 제어부(도 1의 50)는 제 8,9결과(R8, R9)를 오류정보(FR)로 취급하여, 디스플레이(151)에 표시하지 않을 수 있다.
도 10은 도 2 이동 단말기의 검색 대상을 도시한 도면이다.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)는 아이템에 대한 검색 대상을 다양하게 할 수 있다.
이동 단말기(100)는, 이동 단말기(100)에 포함된 메모리(80)에 저장되어 있는 데이터에서 아이템을 검색할 수 있다. 예를 들어, 제어부(도 1의 50)는 메모리(80)에 저장되어 있는 사진을 대상으로 하여 속성의 일치여부를 판단할 수 있음을 의미한다.
이동 단말기(100)는, 이동 단말기(100) 외부의 서버(S) 및/또는 다른 단말기(200)에 저장된 데이터에서 아이템을 검색할 수도 있다. 예를 들어, 제어부(도 1의 50)는 외부의 서버(S) 및/또는 다른 단말기(200)로 씨드 키워드(도 9의 S1)을 송신할 수 있다. 외부 서버(S) 및/또는 다른 단말기(200)는 송신받은 씨드 키워드(도 9의 S1)에 기초하여 검색을 수행한 후, 그 결과를 이동 단말기(100)로 송신할 수 있다. 외부의 서버(S) 및/또는 다른 단말기(200)와는, 이동 통신 모듈(도 1의 21) 및/또는 근거리 통신 모듈(도 1의 23)을 통하여 통신할 수 있다.
도 11은 본 발명의 다른 실시예에 따른 이동 단말기의 동작을 도시한 도면이다.
이에 도시한 바와 같이, 본 발명의 다른 실시예에 따른 이동 단말기(100)는 복수의 씨드 키워드(MI) 조합에 기초하여 검색을 실행할 수 있다.
사용자는 아이템들을 드래그하여 검색창(SR)에 드롭할 수 있다. 예를 들어, 제 1, 2, 3아이템(MI1, MI2, MI3)를 검색창(SR)에 드롭할 수 있다. 검색창(SR)에 드롭한 아이템들은 사용자가 관련 내용을 검색하기 의도한 것들일 수 있다. 제 1, 2, 3아이템(MI1, MI2, MI3)는 카테고리가 동일할 수도 있고, 다를 수도 있다. 검색창(SR)에 아이템들에 대한 드래그앤드롭이 종료되면, 사용자는 검색버튼(EP)을 터치할 수 있다.
검색버튼(EP)을 터치하면, 검색창(SR)에 옮겨진 제 1, 2, 3아이템(MI1, MI2, MI3)에 기초한 검색이 수행될 수 있다. 이때, 검색창에 옮겨진 아이템들은 서로 조합되어 검색식을 생성할 수 있다. 예를 들어, 제 1아이템(MI1)이 파리 여행에 관련 이메일 아이템(SO1)이고, 제 2아이템(MI2)은 파리의 개선문을 촬영한 이미지 아이템(SO2)이며, 제 3아이템(MI3)는 파리의 음식점에 대한 소셜네트워크서비스에 업로드한 텍스트일 때, 제어부(도 1의 50)는 이들 3개 아이템의 공통점에 기초하여 검색 결과(RE)를 추출할 수 있다. 즉, 3개 아이템 속성의 and 연산 또는 or 연산을 거쳐 씨드 키워드를 생성하여, 그 씨드 키워드에 기초해 검색 결과(RE)를 추출할 수 있음을 의미한다.
도 12 및 도 13은 본 발명의 또 다른 실시예에 따른 이동 단말기의 동작을 도시한 도면이다.
이들 도면에 도시한 바와 같이, 본 발명의 또 다른 실시예에 따른 이동 단말기는, 다양한 방법을 통하여 검색대상을 선택할 수 있다.
도 12에 도시한 바와 같이, 사용자는 손가락(F) 등을 이용하여 제 1아이템(M)을 선택할 수 있다. 예를 들어, 제 1아이템(M) 중 하나를 롱터치하는 방법을 통하여 선택할 수 있다. 도 12 등에서는 제 1아이템(M)으로서 SMS 메시지인 경우를 도시하고 있으나, 제 1아이템(M)으로서 촬영된 사진, 타인과 주고받은 이메일, 음악파일 등 다앙 l 수 있음은 전술한 바와 같다.
도 13에 도시한 바와 같이, 제 1아이템(M) 중 어느 하나가 선택되면, 팝업창(P)이 표시될 수 있다. 팝업창(P)에는 선택된 제 1아이템(M)과 관련된 메뉴가 표시될 수 있다. 예를 들어, 선택된 제 1아이템(M)의 내용을 복사하거나, 삭제하는 메뉴가 표시될 수 있다. 나아가, 팝업창(P)에는 관련검색 메뉴(P1)가 표시될 수도 있다.
관련검색 메뉴(P1)는 선택된 제 1아이템(M)과 관련된 콘텐츠를 검색하는 기능을 실행하는 메뉴일 수 있다. 즉, 도 4 등에 전술한 바와 같이 제 1아이템(M)을 선택하기 위하여 제 1아이템(M)을 검색창(SP)에 드래그앤드롭하는 방법 외에, 제 1아이템(M)을 롱터치함으로써 관련된 콘텐츠에 대한 검색이 가능할 수도 있음을 의미한다.
도 14는 본 발명의 또 다른 실시예에 따른 이동 단말기의 동작을 도시한 도면이다.
이에 도시한 바와 같이, 사용자는 특정한 제스쳐 동작(TT)을 취하는 방법을 통하여 제 1아이템(M)을 선택할 수 있다.
사용자는 손가락(F) 등으로 제 1아이템(M) 중 특정한 하나에 대하여 제스쳐 동작(TT)을 취할 수 있다. 예를 들어, 검색하고자 하는 단어의 외주를 감싸는 제스쳐 동작(TT)을 수행할 수 있다. 사용자가 특정한 단어를 선택하는 폐곡선을 그리는 제스쳐 동작(TT)을 수행하면, 제어부(도 1의 50)는 선택된 단어를 기준으로 하여 관련된 콘텐츠를 검색할 수 있다.
전술한 실시예들에서는, 1차로 아이템을 검색창으로 옮겨 놓은 다음에 검색버튼을 터치하여 검색이 진행되는 것으로 설명하였다. 그러나 아이템을 검색창으로 옮겨놓는 순간에 검색이 진행되는 경우도 가능함은 물론이다.
이와 같이 본 발명은 기재된 실시예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.

Claims (16)

  1. 디스플레이; 및
    상기 디스플레이에 표시된 제 1아이템에 대한 선택신호를 수신하면, 상기 선택된 제 1아이템과 동일한 속성을 가지는 적어도 하나의 제 2아이템을 검색하여 표시하는 제어부를 포함하는 이동 단말기.
  2. 제 1항에 있어서,
    상기 디스플레이는,
    상기 적어도 하나의 제 1아이템을 표시하는 제 1영역과,
    상기 제 1영역에 표시된 제 1아이템을 드래그한 후 드롭하는 터치동작에 대응하여 상기 선택신호가 발생하는 제 2영역을 포함하는 것을 특징으로 하는 이동 단말기.
  3. 제 1항에서,
    상기 제 1아이템과 상기 제 2아이템은,
    상기 이동 단말기에 저장된 사진, 동영상, 이메일, 문자 메시지, 소셜네트워크서비스 메시지 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기.
  4. 제 1항에 있어서,
    상기 제 1아이템과 상기 제 2아이템은,
    다른 단말기, 외부 서버 중 적어도 어느 하나에 저장된 사진, 동영상, 이메일, 메시지, 소셜네트워크서비스 메시지 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기.
  5. 제 1항에 있어서,
    상기 속성은,
    상기 제 1,2아이템이 속하는 카테고리를 포함하는 제 1속성과,
    상기 제 1,2 아이템이 생성된 시각, 상기 제 1,2아이템의 송신자, 상기 제 1,2아이템의 수신자, 상기 제 1,2아이템의 내용, 상기 제 1,2아이템의 제목 중 적어도 어느 하나를 포함하는 제 2속성을 포함하는 것을 특징으로 하는 이동 단말기.
  6. 제 5항에 있어서,
    상기 제어부는,
    상기 선택된 제 1아이템과 제 1속성이 동일한 카테고리 내에서 상기 선택된 제 1아이템과 제 2속성이 동일한 제 2아이템을 검색하여 표시하는 것을 특징으로 하는 이동 단말기.
  7. 제 1항에 있어서,
    상기 속성은,
    상기 제 1,2아이템에 포함된 태그(tag) 정보인 것을 특징으로 하는 이동 단말기.
  8. 제 1항에 있어서,
    상기 제어부는,
    상기 선택신호가 수신된 제 1아이템이 복수 개이면, 상기 복수 개의 제 1아이템에 공통된 속성이 기초하여 상기 제 2아이템을 검색하여 표시하는 것을 특징으로 하는 이동 단말기.
  9. 디스플레이; 및
    상기 디스플레이의 제 1영역에 표시된 제 1아이템을 상기 디스플레이의 제 2영역으로 드래그앤드롭하는 터치신호를 수신하면, 상기 드래그앤드롭된 제 1아이템과 동일한 속성을 가지는 제 2아이템을 검색하여 표시하는 제어부를 포함하는 이동 단말기.
  10. 제 9항에 있어서,
    상기 제 1아이템과 상기 제 2아이템은,
    상기 이동 단말기, 다른 단말기, 외부 서버 중 적어도 어느 하나에 저장된 사진, 동영상, 이메일, 문자 메시지, 소셜네트워크서비스 메시지를 포함하는 것을 특징으로 하는 이동 단말기.
  11. 제 8항에 있어서,
    상기 속성은,
    상기 제 1,2아이템이 속하는 카테고리를 포함하는 제 1속성과,
    상기 제 1,2 아이템이 생성된 시각, 상기 제 1,2아이템의 송신자, 상기 제 1,2아이템의 수신자, 상기 제 1,2아이템의 내용, 상기 제 1,2아이템의 제목 중 적어도 어느 하나를 포함하는 제 2속성을 포함하는 것을 특징으로 하는 이동 단말기.
  12. 제 11항에 있어서,
    상기 제어부는,
    상기 선택된 제 1아이템과 제 1속성이 동일한 카테고리 내에서 상기 선택된 제 1아이템과 제 2속성이 동일한 제 2아이템을 검색하여 표시하는 것을 특징으로 하는 이동 단말기.
  13. 제 1아이템을 표시하는 단계;
    상기 제 1아이템 중 적어도 하나에 대한 선택신호를 수신하는 단계; 및
    상기 선택된 적어도 하나의 제 1아이템과 동일한 속성을 가지는 적어도 하나의 제 2아이템을 검색하여 표시하는 단계를 포함하는 이동 단말기의 제어방법.
  14. 제 13항에 있어서,
    상기 선택신호를 수신하는 단계는,
    상기 표시된 제 1아이템을 드래그하는 단계;
    상기 드래그한 제 1아이템을 기 설정된 영역에 드롭하는 단계; 및
    상기 기 설정된 영역에 드롭된 제 1아이템에 대응된 상기 선택신호를 발생하는 단계를 포함하는 이동 단말기의 제어방법.
  15. 제 13항에 있어서,
    상기 제 1,2아이템은,
    상기 이동 단말기, 다른 단말기, 외부 서버 중 적어도 어느 하나에 저장된 사진, 동영상, 이메일, 메시지, 소셜네트워크서비스 메시지 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말기의 제어방법.
  16. 제 13항에 있어서,
    상기 검색하여 표시하는 단계는,
    상기 제 1아이템이 속하는 카테고리 속성에 대응된 제 2아이템 중에서, 상기 제 1아이템이 생성된 시각, 상기 제 1아이템의 송신자, 상기 제 1아이템의 수신자, 상기 제 1아이템의 내용, 상기 제 1아이템의 제목 중 어느 하나가 대응되는 제 2아이템을 표시하는 것을 특징으로 하는 이동 단말기의 제어방법.
PCT/KR2010/007062 2010-10-14 2010-10-14 이동 단말기 및 그 제어방법 WO2012050251A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/988,969 US20120096354A1 (en) 2010-10-14 2010-10-14 Mobile terminal and control method thereof
PCT/KR2010/007062 WO2012050251A1 (ko) 2010-10-14 2010-10-14 이동 단말기 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/007062 WO2012050251A1 (ko) 2010-10-14 2010-10-14 이동 단말기 및 그 제어방법

Publications (1)

Publication Number Publication Date
WO2012050251A1 true WO2012050251A1 (ko) 2012-04-19

Family

ID=45935190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/007062 WO2012050251A1 (ko) 2010-10-14 2010-10-14 이동 단말기 및 그 제어방법

Country Status (2)

Country Link
US (1) US20120096354A1 (ko)
WO (1) WO2012050251A1 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785335B2 (en) * 2010-12-27 2017-10-10 Sling Media Inc. Systems and methods for adaptive gesture recognition
CN102736907A (zh) * 2011-04-14 2012-10-17 深圳富泰宏精密工业有限公司 操作对象触发事件系统及方法
USD739412S1 (en) * 2012-06-28 2015-09-22 Samsung Electronics Co., Ltd. Portable electronic device with GUI
USD738392S1 (en) * 2012-06-28 2015-09-08 Samsung Electronics Co., Ltd. Portable electronic device with animated GUI
USD739413S1 (en) * 2012-06-28 2015-09-22 Samsung Electronics Co., Ltd. Portable electronic device with GUI
US20140055369A1 (en) * 2012-08-22 2014-02-27 Qualcomm Innovation Center, Inc. Single-gesture mobile computing device operations
KR101359960B1 (ko) * 2012-10-21 2014-02-11 에스케이플래닛 주식회사 메신저 제어 방법을 위한 기록 매체, 이를 위한 장치 및 시스템
USD731542S1 (en) * 2012-11-30 2015-06-09 Google Inc. Portion of a display screen with icon
USD732075S1 (en) * 2012-11-30 2015-06-16 Google Inc. Portion of a display screen with icon
KR102162836B1 (ko) 2013-08-30 2020-10-07 삼성전자주식회사 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
USD752076S1 (en) * 2013-10-03 2016-03-22 Thales Avionics, Inc. Display screen or portion thereof with graphical user interface
KR102238535B1 (ko) * 2014-10-01 2021-04-09 엘지전자 주식회사 이동 단말기 및 그 제어 방법
USD788159S1 (en) * 2014-10-14 2017-05-30 Tencent Technology (Shenzhen) Company Limited Display screen or portion thereof with graphical user interface
USD797769S1 (en) 2014-10-14 2017-09-19 Tencent Technology (Shenzhen) Company Limited Display screen or portion thereof with graphical user interface
CN104376100B (zh) * 2014-11-25 2018-12-18 北京智谷睿拓技术服务有限公司 搜索方法及装置
US10726464B2 (en) 2014-12-18 2020-07-28 Ebay Inc. Expressions of user interest
US11036806B2 (en) * 2018-06-26 2021-06-15 International Business Machines Corporation Search exploration using drag and drop

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060062114A (ko) * 2004-12-03 2006-06-12 브이케이 주식회사 전자태그를 갖는 디스플레이 단말기와 이를 이용한정보제공 시스템 및 방법
EP1980969A2 (en) * 2007-04-10 2008-10-15 Samsung Electronics Co., Ltd. Mobile terminal and method for displaying detailed information about DRM contents
US20100073315A1 (en) * 2008-09-24 2010-03-25 Samsung Electrronics Co., Ltd. Mobile terminal and data display method for the same
KR20100036578A (ko) * 2008-09-30 2010-04-08 삼성전자주식회사 휴대용 단말기에서 메시지 표시 장치 및 방법

Family Cites Families (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5539427A (en) * 1992-02-10 1996-07-23 Compaq Computer Corporation Graphic indexing system
DE69426919T2 (de) * 1993-12-30 2001-06-28 Xerox Corp Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle
US5471578A (en) * 1993-12-30 1995-11-28 Xerox Corporation Apparatus and method for altering enclosure selections in a gesture based input system
US5946647A (en) * 1996-02-01 1999-08-31 Apple Computer, Inc. System and method for performing an action on a structure in computer-generated data
US5784061A (en) * 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
JP3216084B2 (ja) * 1998-01-19 2001-10-09 株式会社ネットワークコミュニティクリエイション チャット画面表示方法
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6564206B1 (en) * 1998-10-05 2003-05-13 Canon Kabushiki Kaisha Information search apparatus and method, and storage medium
US20020126135A1 (en) * 1998-10-19 2002-09-12 Keith Ball Image sharing for instant messaging
US6992702B1 (en) * 1999-09-07 2006-01-31 Fuji Xerox Co., Ltd System for controlling video and motion picture cameras
US6859909B1 (en) * 2000-03-07 2005-02-22 Microsoft Corporation System and method for annotating web-based documents
US6721726B1 (en) * 2000-03-08 2004-04-13 Accenture Llp Knowledge management tool
US6564209B1 (en) * 2000-03-08 2003-05-13 Accenture Llp Knowledge management tool for providing abstracts of information
US6965926B1 (en) * 2000-04-10 2005-11-15 Silverpop Systems, Inc. Methods and systems for receiving and viewing content-rich communications
US6956562B1 (en) * 2000-05-16 2005-10-18 Palmsource, Inc. Method for controlling a handheld computer by entering commands onto a displayed feature of the handheld computer
US7289110B2 (en) * 2000-07-17 2007-10-30 Human Messaging Ab Method and arrangement for identifying and processing commands in digital images, where the user marks the command, for example by encircling it
US20020069223A1 (en) * 2000-11-17 2002-06-06 Goodisman Aaron A. Methods and systems to link data
US20080104526A1 (en) * 2001-02-15 2008-05-01 Denny Jaeger Methods for creating user-defined computer operations using graphical directional indicator techniques
US8054971B2 (en) * 2001-04-27 2011-11-08 Comverse Ltd Free-hand mobile messaging-method and device
US7202861B2 (en) * 2001-06-25 2007-04-10 Anoto Ab Control of a unit provided with a processor
JP4062908B2 (ja) * 2001-11-21 2008-03-19 株式会社日立製作所 サーバ装置および画像表示装置
US7315848B2 (en) * 2001-12-12 2008-01-01 Aaron Pearse Web snippets capture, storage and retrieval system and method
US7120299B2 (en) * 2001-12-28 2006-10-10 Intel Corporation Recognizing commands written onto a medium
US20030163525A1 (en) * 2002-02-22 2003-08-28 International Business Machines Corporation Ink instant messaging with active message annotation
US7086013B2 (en) * 2002-03-22 2006-08-01 Xerox Corporation Method and system for overloading loop selection commands in a system for selecting and arranging visible material in document images
US7036077B2 (en) * 2002-03-22 2006-04-25 Xerox Corporation Method for gestural interpretation in a system for selecting and arranging visible material in document images
US7080059B1 (en) * 2002-05-13 2006-07-18 Quasm Corporation Search and presentation engine
US7299424B2 (en) * 2002-05-14 2007-11-20 Microsoft Corporation Lasso select
US8495503B2 (en) * 2002-06-27 2013-07-23 International Business Machines Corporation Indicating the context of a communication
US7554530B2 (en) * 2002-12-23 2009-06-30 Nokia Corporation Touch screen user interface featuring stroke-based object selection and functional object activation
US7218330B1 (en) * 2003-01-07 2007-05-15 Microsoft Corporation Method and system for selecting elements in a graphical user interface
CN100438425C (zh) * 2003-02-10 2008-11-26 诺基亚有限公司 识别消息中的模式并生成操作的方法和装置
US7711550B1 (en) * 2003-04-29 2010-05-04 Microsoft Corporation Methods and system for recognizing names in a computer-generated document and for providing helpful actions associated with recognized names
US7669134B1 (en) * 2003-05-02 2010-02-23 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US20040228531A1 (en) * 2003-05-14 2004-11-18 Microsoft Corporation Instant messaging user interfaces
US7434175B2 (en) * 2003-05-19 2008-10-07 Jambo Acquisition, Llc Displaying telephone numbers as active objects
US20040257346A1 (en) * 2003-06-20 2004-12-23 Microsoft Corporation Content selection and handling
BR0306577A (pt) * 2003-08-21 2005-06-07 Microsoft Corp Processamento de tinta eletrônica
US20050080770A1 (en) * 2003-10-14 2005-04-14 Microsoft Corporation System and process for presenting search results in a tree format
US20050108351A1 (en) * 2003-11-13 2005-05-19 International Business Machines Corporation Private email content
US7343561B1 (en) * 2003-12-19 2008-03-11 Apple Inc. Method and apparatus for message display
US7149503B2 (en) * 2003-12-23 2006-12-12 Nokia Corporation System and method for associating postmark information with digital content
US7895537B2 (en) * 2003-12-29 2011-02-22 International Business Machines Corporation Method and apparatus for setting attributes and initiating actions through gestures
US7966352B2 (en) * 2004-01-26 2011-06-21 Microsoft Corporation Context harvesting from selected content
US20050171940A1 (en) * 2004-02-04 2005-08-04 Fogg Brian J. Dynamic visualization of search results on a user interface
US7571213B2 (en) * 2004-03-26 2009-08-04 Microsoft Corporation Interactive electronic bubble messaging
US20060041627A1 (en) * 2004-08-20 2006-02-23 Sony Computer Entertainment America Inc. System and method for effectively exchanging photo data in an instant messaging environment
US20060085515A1 (en) * 2004-10-14 2006-04-20 Kevin Kurtz Advanced text analysis and supplemental content processing in an instant messaging environment
JP4297442B2 (ja) * 2004-11-30 2009-07-15 富士通株式会社 手書き情報入力装置
US8147248B2 (en) * 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US8832561B2 (en) * 2005-05-26 2014-09-09 Nokia Corporation Automatic initiation of communications
US20080155414A1 (en) * 2005-06-02 2008-06-26 Ants Inc. Display method of flash-based user interface, computer program product and system based on the same
JP2007109118A (ja) * 2005-10-17 2007-04-26 Hitachi Ltd 入力指示処理装置および入力指示処理プログラム
US7904455B2 (en) * 2005-11-03 2011-03-08 Fuji Xerox Co., Ltd. Cascading cluster collages: visualization of image search results on small displays
US8643605B2 (en) * 2005-11-21 2014-02-04 Core Wireless Licensing S.A.R.L Gesture based document editor
US20070143414A1 (en) * 2005-12-15 2007-06-21 Daigle Brian K Reference links for instant messaging
US8208764B2 (en) * 2006-01-21 2012-06-26 Elizabeth Guckenberger Photo automatic linking system and method for accessing, linking, and visualizing “key-face” and/or multiple similar facial images along with associated electronic data via a facial image recognition search engine
JP4977452B2 (ja) * 2006-01-24 2012-07-18 株式会社リコー 情報管理装置、情報管理方法、情報管理プログラム、記録媒体及び情報管理システム
US7644372B2 (en) * 2006-01-27 2010-01-05 Microsoft Corporation Area frequency radial menus
US20070244925A1 (en) * 2006-04-12 2007-10-18 Jean-Francois Albouze Intelligent image searching
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US9892196B2 (en) * 2006-04-21 2018-02-13 Excalibur Ip, Llc Method and system for entering search queries
US8910060B2 (en) * 2006-06-22 2014-12-09 Rohit Chandra Method and apparatus for highlighting a portion of an internet document for collaboration and subsequent retrieval
US20080046845A1 (en) * 2006-06-23 2008-02-21 Rohit Chandra Method and Apparatus for Controlling the Functionality of a Highlighting Service
US8253731B2 (en) * 2006-11-27 2012-08-28 Designin Corporation Systems, methods, and computer program products for home and landscape design
US20090138113A1 (en) * 2006-11-27 2009-05-28 Designin Corporation Systems, methods, and computer program products for home and landscape design
US20080154869A1 (en) * 2006-12-22 2008-06-26 Leclercq Nicolas J C System and method for constructing a search
KR100886767B1 (ko) * 2006-12-29 2009-03-04 엔에이치엔(주) 지유아이 검색 서비스 제공 방법 및 시스템
US9020963B2 (en) * 2007-01-10 2015-04-28 International Business Machines Corporation Providing relevant assets in collaboration mediums
US8933891B2 (en) * 2007-03-02 2015-01-13 Lg Electronics Inc. Terminal and method of controlling terminal
US8014607B2 (en) * 2007-03-23 2011-09-06 Palo Alto Research Center Incorporated Method and apparatus for creating and editing node-link diagrams in pen computing systems
US7693842B2 (en) * 2007-04-09 2010-04-06 Microsoft Corporation In situ search for active note taking
US20080292195A1 (en) * 2007-05-22 2008-11-27 Vijayasenan Deepu Data Processing System And Method
US10069924B2 (en) * 2007-07-25 2018-09-04 Oath Inc. Application programming interfaces for communication systems
US8181122B2 (en) * 2007-07-30 2012-05-15 Perceptive Pixel Inc. Graphical user interface for large-scale, multi-user, multi-touch systems
US8577338B2 (en) * 2007-08-31 2013-11-05 Palm, Inc. Messaging with media integration
US20090058820A1 (en) * 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
JP5042787B2 (ja) * 2007-11-20 2012-10-03 富士フイルム株式会社 商品検索システム、商品検索方法及び商品検索プログラム
CA2659698C (en) * 2008-03-21 2020-06-16 Dressbot Inc. System and method for collaborative shopping, business and entertainment
US8312380B2 (en) * 2008-04-04 2012-11-13 Yahoo! Inc. Local map chat
US8411046B2 (en) * 2008-10-23 2013-04-02 Microsoft Corporation Column organization of content
US8259124B2 (en) * 2008-11-06 2012-09-04 Microsoft Corporation Dynamic search result highlighting
KR20100054369A (ko) * 2008-11-14 2010-05-25 엘지전자 주식회사 단말기 및 그 제어 방법
US20100131523A1 (en) * 2008-11-25 2010-05-27 Leo Chi-Lok Yu Mechanism for associating document with email based on relevant context
US20100162138A1 (en) * 2008-12-23 2010-06-24 At&T Mobility Ii Llc Conversation bubbles including visual cues for threaded messaging applications
US9935793B2 (en) * 2009-02-10 2018-04-03 Yahoo Holdings, Inc. Generating a live chat session in response to selection of a contextual shortcut
US8819597B2 (en) * 2009-04-10 2014-08-26 Google Inc. Glyph entry on computing device
KR101590766B1 (ko) * 2009-06-26 2016-02-02 삼성전자주식회사 메시지를 그룹화하고 디스플레이하는 장치 및 방법
US8670597B2 (en) * 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
US9087059B2 (en) * 2009-08-07 2015-07-21 Google Inc. User interface for presenting search results for multiple regions of a visual query
US9135277B2 (en) * 2009-08-07 2015-09-15 Google Inc. Architecture for responding to a visual query
KR101623748B1 (ko) * 2009-09-01 2016-05-25 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 이동 단말기 및 이동 단말기의 메시지 작성 방법
US9183224B2 (en) * 2009-12-02 2015-11-10 Google Inc. Identifying matching canonical documents in response to a visual query
US9405772B2 (en) * 2009-12-02 2016-08-02 Google Inc. Actionable search results for street view visual queries
US8977639B2 (en) * 2009-12-02 2015-03-10 Google Inc. Actionable search results for visual queries
US20110128288A1 (en) * 2009-12-02 2011-06-02 David Petrou Region of Interest Selector for Visual Queries
US9852156B2 (en) * 2009-12-03 2017-12-26 Google Inc. Hybrid use of location sensor data and visual query to return local listings for visual query
US20110137884A1 (en) * 2009-12-09 2011-06-09 Anantharajan Sathyakhala Techniques for automatically integrating search features within an application
US20110199342A1 (en) * 2010-02-16 2011-08-18 Harry Vartanian Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound
US20120026100A1 (en) * 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Aligning and Distributing Objects
GB2496793B (en) * 2010-08-17 2018-06-20 Google Llc Touch-based gesture detection for a touch-sensitive device
US20120154295A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Cooperative use of plural input mechanisms to convey gestures
US10409851B2 (en) * 2011-01-31 2019-09-10 Microsoft Technology Licensing, Llc Gesture-based search
US20120216152A1 (en) * 2011-02-23 2012-08-23 Google Inc. Touch gestures for remote control operations
US8878785B1 (en) * 2011-10-05 2014-11-04 Google Inc. Intent determination using geometric shape input

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060062114A (ko) * 2004-12-03 2006-06-12 브이케이 주식회사 전자태그를 갖는 디스플레이 단말기와 이를 이용한정보제공 시스템 및 방법
EP1980969A2 (en) * 2007-04-10 2008-10-15 Samsung Electronics Co., Ltd. Mobile terminal and method for displaying detailed information about DRM contents
US20100073315A1 (en) * 2008-09-24 2010-03-25 Samsung Electrronics Co., Ltd. Mobile terminal and data display method for the same
KR20100036578A (ko) * 2008-09-30 2010-04-08 삼성전자주식회사 휴대용 단말기에서 메시지 표시 장치 및 방법

Also Published As

Publication number Publication date
US20120096354A1 (en) 2012-04-19

Similar Documents

Publication Publication Date Title
WO2012050251A1 (ko) 이동 단말기 및 그 제어방법
CN104104768B (zh) 通过使用呼叫方电话号码来提供附加信息的装置和方法
US20180046625A1 (en) Information retrieval method, eletronic device and storage medium
EP2457183B1 (en) System and method for tagging multiple digital images
WO2020204406A1 (en) Method and system for learning and enabling commands via user demonstration
WO2013157793A1 (en) Method and apparatus for collecting feed information in mobile terminal
US8775969B2 (en) Contact searching method and apparatus, and applied mobile terminal
WO2011108797A1 (en) Mobile terminal and control method thereof
CN106528252A (zh) 对象启动方法及装置
WO2015053541A1 (ko) 전자 장치에서 연관 정보 표시 방법 및 장치
CN102291485A (zh) 移动终端和在该移动终端中生成组的方法
CN103914502A (zh) 使用情形识别的智能搜索服务的方法及其终端
CN105095427A (zh) 搜索推荐方法和装置
CN106202223A (zh) 内容收藏方法、装置和用于收藏应用程序中内容的装置
KR20140031035A (ko) 이동 단말기 및 그것의 제어 방법
CN105373580A (zh) 主题显示方法及装置
CN113311968A (zh) 应用程序关联方法及装置
WO2013125785A1 (en) Task performing method, system and computer-readable recording medium
JP2022510660A (ja) データ処理方法及びその装置、電子機器、並びに記憶媒体
CN105430194A (zh) 用于拨打电话的方法、装置及终端
CN107729439A (zh) 获取多媒体数据的方法、装置和系统
CN108491535B (zh) 信息的分类存储方法及装置
WO2015005599A1 (en) Method and apparatus for operating message function in connection with note function
CN105487746A (zh) 搜索结果的呈现方法和装置
CN103955493A (zh) 信息的展示方法、装置及移动终端

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 12988969

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10858438

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10858438

Country of ref document: EP

Kind code of ref document: A1