WO2006028181A1 - 通信端末とその通信方法 - Google Patents

通信端末とその通信方法 Download PDF

Info

Publication number
WO2006028181A1
WO2006028181A1 PCT/JP2005/016534 JP2005016534W WO2006028181A1 WO 2006028181 A1 WO2006028181 A1 WO 2006028181A1 JP 2005016534 W JP2005016534 W JP 2005016534W WO 2006028181 A1 WO2006028181 A1 WO 2006028181A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
communication
communication terminal
communication partner
search
Prior art date
Application number
PCT/JP2005/016534
Other languages
English (en)
French (fr)
Inventor
Yoshifumi Yonemoto
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004262217A external-priority patent/JP2006080850A/ja
Priority claimed from JP2004270409A external-priority patent/JP2006086895A/ja
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP05782307A priority Critical patent/EP1788809A1/en
Priority to US11/574,848 priority patent/US20080215884A1/en
Publication of WO2006028181A1 publication Critical patent/WO2006028181A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Definitions

  • the present invention relates to, for example, a communication terminal that communicates using a video telephone and a communication method thereof
  • Patent Document 1 When communicating using a videophone, a co-viewing screen telephone system has been proposed as a support device for making conversations more enjoyable (for example, Patent Document 1).
  • the information that each terminal has is different from each other, so before starting the call, the information stored in the database held by each terminal is unified into the same state, and In the state, it is a support device that allows the conversation to progress smoothly by searching information in the database as needed and displaying the data obtained by the search on each terminal.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 3-49385
  • the object of the present invention is to support activation of communication with a communication partner more easily, simplify the operation, and make it easy for elderly people and the like who are not used to the operation of information devices. It is an object of the present invention to provide a communication terminal and communication method that can communicate while displaying various video information and can promote warm communication. Means to solve the problem
  • a communication terminal searches stored information stored in a memory based on key information acquisition means for acquiring key information from a communication party and the key information acquired from the communication party.
  • a configuration comprising: search means for acquiring information related to key information; and information display means for displaying the information obtained as a result of the search by the search means.
  • a communication terminal searches stored information stored in a memory based on key information acquisition means for acquiring key information from a communication party and the key information acquired from the communication party.
  • a configuration comprising: search means for acquiring information related to key information; and information presentation means for transmitting the information obtained as a result of the search by the search means to the communication partner.
  • the communication method of the present invention searches for stored information stored in a memory based on a key information acquisition step of acquiring communication partner power key information, and the key information acquired from the communication partner, and the key information And the information display step of displaying the information obtained as a result of the search in the search step.
  • the communication method searches for stored information stored in a memory based on a key information acquisition step of acquiring communication partner power key information, and the key information acquired from the communication partner, and the key information , And an information presenting step of transmitting the information obtained as a result of the search by the search step to the communication partner.
  • the present invention it is possible to support more active communication with the other party, simplify the operation, and make it easy for elderly people and the like who are not used to the operation of information equipment. You can talk while displaying various video information, and you can promote warm communication.
  • FIG. 1 is a block diagram showing a configuration of a communication terminal according to Embodiment 1 of the present invention.
  • FIG. 2 Construction diagram of the communication system according to the first embodiment of the present invention
  • FIG. 3 A sequence diagram showing a method of acquiring communication partner information according to the first embodiment of the present invention
  • FIG. 4 A flow diagram showing a method of storing received image information according to the first embodiment of the present invention
  • FIG. 5 A flow chart showing a method of responding to a request for communication partner information according to Embodiment 1 of the present invention.
  • FIG. 6 shows a method for searching stored information based on communication partner information according to Embodiment 1 of the present invention.
  • FIG. 7 A diagram showing a display example of reproduction information according to Embodiment 1 of the present invention.
  • FIG. 8 A block diagram showing another configuration of the communication terminal according to Embodiment 1 of the present invention
  • FIG. 9 A diagram showing another display example of output information according to Embodiment 1 of the present invention.
  • FIG. 10 A diagram showing another display example of output information according to Embodiment 1 of the present invention.
  • FIG. 11 A flowchart for explaining extraction of stored information based on sound recognition according to Embodiment 3 of the present invention
  • FIG. 12 A sequence diagram showing a communication method according to Embodiment 4 of the present invention
  • FIG. 13 A block diagram showing a configuration of a communication terminal according to Embodiment 4 of the present invention
  • FIG. 14 A flowchart showing a method of storing stored information based on image recognition according to the fifth embodiment of the present invention
  • FIG. 15 A flow chart showing a search method of stored information based on speech recognition according to the fifth embodiment of the present invention
  • the communication system according to the embodiment of the present invention is, as shown in FIG.
  • the communication terminals (201 to 203) of the present invention are, for example, mobile phones.
  • Communication terminal (201 to 203) are, for example, mobile phones.
  • Communication terminal 100 of the present invention includes communication unit 101, information storage processing unit 102, information storage unit 103, communication partner information acquisition unit 104, and storage information search unit 105. , Information reproduction processing unit 106, and an output unit 107.
  • Communication unit 101 performs call connection for incoming Z-call, and transmission / reception of data such as video information, sound information, text-based information, etc., when performing communication such as videophone.
  • Text-based information is arbitrary data information, including data to be displayed and control information.
  • the information storage processing unit 102 performs processing related to storage of information such as storage processing of reproduced images of videophones, storage processing of sent and received e-mails, storage processing of user information in an address book, and the like.
  • the information storage unit 103 stores storage information, which is information to be stored and processed by the information storage processing unit 102. Specifically, the information storage unit 103 stores images reproduced on a videophone, as well as information acquired via mail or the web, received content received via a network, address of friend's acquaintance, telephone number Various information such as address information including etc. are stored in advance.
  • the information storage unit 103 includes a memory built in each of the communication terminals 201 to 203, specifically, an electrically erasable non-volatile memory (EEPROM), a volatile memory capable of reading and writing (SRAM or DRAM Or magnetic memory (Hard Disk) can be used.
  • the information storage unit 103 may use an external storage device attachable to and detachable from the communication terminals 201 to 203, such as a card type memory or a stick type memory.
  • a storage device of a server of a network established by a wireless network or a wired network can be used as the information storage unit 103.
  • the communication partner information acquisition unit 104 is key information acquisition means of the present invention, and acquires information on the communication partner during communication as well as the own terminal or the other terminal power as search key information.
  • the key information to be obtained is information uniquely identifying the other party in the videophone call, personal information such as preference information, or environment information such as position information or time information.
  • the stored information search unit 105 searches the information stored in the information storage unit 103 using the information related to the communication partner acquired by the communication partner information acquisition unit 104 as search key information (information for search). To extract information about the relationship with the other party in communication (target information).
  • the information reproduction processing unit 106 causes the output unit 107 to reproduce the to-be-searched information having a deep relationship with the communication partner extracted by the stored information search unit 105.
  • the output unit 107 is configured of a display or a speaker for displaying an image.
  • the information reproduction processing unit 106 causes the output unit 107 to display the extracted image information on a display, and reproduces the extracted audio information using a speaker.
  • the communication terminals 201 to 203 respectively have the communication unit 101, the information storage processing unit 102, the information storage unit 103, the communication partner information acquisition unit 104, the storage information search unit 105, and the information reproduction processing shown in FIG. A unit 106 and an output unit 107 are provided.
  • the communication terminal 201 and the communication terminal 202 communicate, the communication terminal 201 acquires person information of the communication partner from the communication terminal 220, and the communication terminal 201 uses the acquired person information as a key information.
  • storage information stored in the information storage unit 103 of the communication terminal 201 will be described as an example of searching and extracting.
  • Communication terminal 201 issues a videophone connection request to communication terminal 202 (step S301).
  • Communication terminal 202 responds to the connection request for the videophone call, and sends a permission response (step S302).
  • 3G mobile phone standard 3G using data multiplexing of ITU-T Recommendation H. 223 which is a standard system for multiplexing multimedia information is used for videophone communication.
  • the communication terminal establishes a data transmission channel capable of transmitting arbitrary data in addition to a video channel for transmitting video information and an audio channel for transmitting sound information by the 3G-324M protocol.
  • each other's communication terminals it is possible for each other's communication terminals to display each other's video and have a conversation with each other.
  • the communication terminal 201 stores the image information received from the communication terminal 202 during communication between the communication terminal 201 and the communication terminal 202 (step S 303), the communication terminal 201 sends the communication terminal 202 to the communication terminal 202 A request for acquiring personal information on the other party of communication is made (step S304).
  • Communication terminal 202 extracts the target personal information in response to the personal information acquisition request from communication terminal 201, and transmits the target personal information to communication terminal 201 (step S305).
  • the communication terminal 201 the image information of the communication partner and the personal information regarding the communication partner A process flow of associating and storing information (attribute information) will be described with reference to FIG.
  • the communication terminal 201 and the communication terminal 202 communicate, and the communication terminal 201 receives image information and acquires information (person information) on the communication terminal 202 which is the other party of communication, and relates to the communication terminal 202 acquired. It shows a case where the received image information and the attribute information are associated and stored as the attribute information.
  • Communication terminal 201 displays an image of the other party of communication during a videophone call (step S 401).
  • step S 402 When communication terminal 201 detects an instruction to save the image information of the communication partner by the user's key input operation of communication terminal 201 or the like (step S 402), a communication terminal 202 as the communication partner receives a person An information acquisition request is made (step S304 in FIG. 3), and personal information of the communication partner is received from the communication terminal 202 (step S403).
  • the information storage processing unit 102 of the communication terminal 201 associates the received image information of the other party of communication with the personal information including the telephone number which is the information uniquely identifying the other party of communication acquired in step S403.
  • the information is stored as storage information in the information storage unit 103 of the communication terminal 201 (step S404).
  • the person information is used as key information to search for and extract the stored information stored in the information storage unit 103 of the communication terminal 201. , You can search quickly.
  • Communication terminal 202 displays an image of the other party during videophone communication with communication terminal 201 (step S 501).
  • the communication terminal 202 receives, from the communication terminal 201, a request for acquiring personal information, which is information related to the other party of communication, via the data transmission channel (step S502).
  • the requested personal information is personal information that uniquely identifies the user of the communication terminal 202.
  • communication terminal 202 When communication terminal 202 receives a request for obtaining personal information, it follows the request, refers to storage information stored in information storage unit 103 of communication terminal 202, and uses communication terminal 202. After extracting the personal information of the person, that is, the video telephone number (step S503), the communication terminal 202 transmits the personal information to be obtained to the communication terminal 201 through the data transmission channel. Do (step S 504).
  • Communication terminal 201 establishes videophone communication with communication terminal 202, and is in communication (step S601).
  • Communication terminal 201 requests personal information, which is communication partner information, to communication terminal 202, which is the communication partner, via the data transmission channel (step S602).
  • the personal information of (user B) is acquired (step S603).
  • the communication terminal 201 acquires, as the person information of the communication partner, identification information for uniquely identifying the communication partner.
  • the identification information uniquely identifying the communication partner is a telephone number.
  • step 603 when personal information is acquired, the stored information search unit 105 obtains the telephone number which is the personal information of the communication partner, which is information uniquely identifying the communication partner obtained by the communication partner information acquisition unit 104. Storage information stored in the information storage unit 103 is automatically searched as search key information (step S 604).
  • the information storage unit 103 stores image information of a person in advance, and further stores together with the image information, person information related to the image information as attribute information. Therefore, the stored information search unit 105 uses the telephone number uniquely identifying the user B who is the communication partner as search key information, and the stored information power in the information storage unit 103 also relates to the user B (information related to the key information Information) can be extracted.
  • the information reproduction processing unit 106 causes the output unit 107 to automatically display the information related to the communication partner extracted (searched information) (step S 605).
  • FIG. 7 shows an example in which the image information displayed on the communication terminal 201 and the data extracted by the search are displayed.
  • the video 701 of the other party in communication via the video channel is displayed in the upper part of the screen, and the information related to the other party is displayed in the lower part (search Image information (to-be-searched information) 702 associated with the other party of communication, which is information extracted based on (information) is displayed.
  • communication terminal 201 searches for and displays stored information in communication terminal 201 using, as key information, personal information acquired from communication terminal 202 which is the other party of communication. Therefore, by automatically displaying the information that the communication partner is interested in, it is possible to help activate the communication more easily, simplify the operation, and operate the information device. Even older people who are not familiar with it can easily make calls while displaying various video information and promote warm communication. That is, according to the first embodiment, the storage information in the information storage unit 103 is automatically searched based on the key information related to the communication partner, so information related to the communication partner can be obtained without complicated operations.
  • the reception information including the image information received from the communication party and the communication party information such as the personal information are associated with each other and stored, so that the reception information is referred to with reference to the communication party information. Even if the amount of information to be searched is large, it is possible to easily extract the intended information.
  • the information related to the communication partner to be acquired is the personal information uniquely identifying the communication partner, but other information such as preference information may be included in the personal information.
  • the search may be performed without being limited to the information related to the communication partner. For example, it may be configured to search for information related to an artist using favorite artist information as a search condition.
  • the personal information can be retrieved when searching for stored information. By using it, it is possible to narrow down the information to be searched.
  • identification information for uniquely identifying a communication partner is not limited to a telephone number. It may be configured to use a user identifier assigned based on a pre-arranged rule. In addition, a user name or e-mail address information registered in address information may be used.
  • the communication terminal 201 may be configured to request information related to the environment, instead of the communication partner information request step S304 in FIG.
  • Information related to the environment refers to information related to the environmental condition in which the communication terminal 202 which is the other party in communication is placed. For example, information related to a place such as latitude Z longitude information or a time such as the current time It is related information.
  • the communication terminal 202 when the communication terminal 201 requests position information as information related to a place, the communication terminal 202 acquires position information using a position measurement function of a GPS function (not shown). The communication terminal 202 transmits the acquired position information to the communication terminal 201 via the data transmission channel.
  • the communication terminal 201 when storing the image information of the communication partner, can record the position information of the communication terminal 202 which is the communication partner terminal as attribute information.
  • the communication terminal 201 can extract relevant information based on the position information at the time of the later retrieval.
  • the position measurement function is not limited to the GPS function, but any other method may be used as long as good position information can be obtained. For example, location information may be acquired from a cellular network.
  • information related to a place it may be information regarding a good place without having to be latitude Z longitude information. For example, zip code, address information, area information, landmark information, etc. may be used. Also, based on the obtained latitude Z longitude information, it may be converted to information related to another type of place. For example, it may be converted into area information and landmark information based on latitude Z longitude information. The conversion to information on another type of place may be performed on the side requesting the information on the place, or may be performed on the side requested. In addition, the requester may designate which type of location information is good, and may be configured to request location information.
  • the location in the specified format The communication terminal for which the request information is requested converts it to the information related to the appropriate place and responds.
  • the information on the environment to acquire the communication partner power is not limited to the information on the place, and may be information on other environments. That is, time information of the communication party may be acquired as the information related to the environment, and the acquired time information may be stored in association with the received image information. In this case, in the situation where there is a time difference between the communication partner and the own terminal, it is possible to save the information reflecting the time in the partner environment.
  • the technical meaning of "relating received information including received image information to communication partner information such as personal information" is that there is a one-to-one relationship between a certain person information (attribute information) and its image information. If there is a certain person information (attribute information) and its image information have a one-to-n relationship, and if certain person information (attribute information) is extracted, the extracted person information (attribute information) This means that image information corresponding to one-to-one or image information corresponding to one-to-n with extracted person information (attribute information) is extracted.
  • step S602 and step S603 the process of acquiring communication partner information (step S602 and step S603) will be described in more detail.
  • the communication partner information acquisition process it is possible to acquire arbitrary information such as person information of the communication partner and environment information in the communication partner information acquisition side, but the acquisition request side (communication terminal 201) Describes how to specify the requested information.
  • communication terminal 201 is a method of requesting acquisition of communication partner information determined in advance, and in this case, as an example, information uniquely identifying the communication partner is used as an example. Request the telephone number of the other party's terminal.
  • the request information may be selected using a list menu or the like.
  • Communication terminal 800 shown in FIG. 8 is provided with key information selection unit 808 in order to select request information.
  • a target (a part of the image) with a pointing device such as a cursor with respect to the image of the communication partner displayed on the display . It is a method of requesting the information to be the object. That is, when a person image is designated by a cursor, person information is requested, and when a background is designated, environment information such as position information is requested.
  • communication terminal 201 requests communication partner information and receives communication partner information as a response
  • communication terminal 202 notifies communication partner information even without making a request. You may configure it to
  • the caller ID notification obtained in the communication connection process may be used as the communication partner information.
  • the communication terminal on the calling side may be configured to search the stored information stored in the information storage unit 103 of the communication terminal on the calling side, using the transmitted telephone number as key information.
  • the communication terminal is configured to refer to and use additional personal information related to the communication partner according to the user information associated with the information uniquely identifying the communication partner stored in information storage section 103. Also good.
  • the personal information (personal information) of the other party of communication includes information such as date of birth, sex, marriage calendar, job type, present address, taste, taste etc., and these are used as search key information (search condition) be able to.
  • psychographic information such as hobbies and preferences
  • demographic information such as age and family structure
  • Embodiment 1 shows an example in which the other party of communication is uniquely identified using the telephone number as the personal information, the information uniquely identifying the other party of communication is good even if it is not the telephone number. You may use the user identifier given based on the rule decided beforehand. In addition, user names and e-mail address information registered in the address information may be used.
  • communication terminal 201 is the communication terminal 2.
  • Communication terminal 202 requested for position information obtains position information by position measurement function such as GPS function.
  • step S 305 communication terminal 202 transmits position information to communication terminal 201.
  • communication terminal 201 obtains position information of communication terminal 202 which is the communication partner.
  • Communication terminal 201 searches the storage information of communication terminal 201 using the acquired position information of the communication partner as search key information, and based on this search, communication terminal 201 relates to the position information of the communication partner. Preferentially extract stored information and present it to the user.
  • stored information may be searched using information that uniquely identifies a communication partner, and narrowing-down may be performed using position information that is environment information.
  • location information may be obtained by a cellular network.
  • the side requesting the position information may or may be converted, and the position information may be converted on the side requested.
  • sequential switching display at a certain time interval or simultaneous display of a plurality of pieces of information may be performed. For example, display as shown in Figs.
  • FIG. 9, 10 This is a code 901, and it is an image of a hand during communication, and codes 902, 100.
  • the user can display a plurality of pieces of information by a method with a small display load such as thumbnails or a small display area. Even if it is selectable, it is good.
  • the most relevant frame or scene may be displayed based on the associated attribute information.
  • the telephone number is used as information uniquely identifying the user who uses the communication terminal.
  • a name or a user identifier may be separately given. good. In this case, it is possible to cope with users having multiple telephone numbers.
  • Embodiment 1 has a system configuration via a base station and a communication network, but in a form in which the communication terminals of each other directly communicate using a local communication interface. It is good.
  • time information which is environmental information is used as key information for searching.
  • time information is used as key information (search condition) for searching, for example, if the communication date and time is February 16th, information related to the past February 16th is preferentially searched.
  • the information storage unit 103 of the communication terminal 201 stores address information and schedule information.
  • Communication partner information acquisition section 104 of communication terminal 201 acquires information for uniquely identifying user B who is the communication partner.
  • the user B is selected based on the address information to make a videophone connection. Therefore, information uniquely characterizing the communication partner is obtained from the address information. That is, the user B who is the other party of communication is uniquely identified using the telephone number obtained from the address information.
  • the stored information to be searched is important information related to today's date, for example, the birth date of the communication partner.
  • information such as having acted with a communication partner is stored on the date (February 16) as past information as schedule information, it is possible to present information to that effect.
  • information related to the place where the user acted is stored in the schedule information, it is possible to present information to that effect by performing a search based on the location information of the communication partner.
  • there is a plan with the user B as schedule of today it may be displayed in the schedule information to be stored.
  • communication partner power time information is acquired, and the acquired time information is effective as a search key information for communication partners having a time difference. For example, if the current time concerning the communication terminal of the communication partner is 21:00 and indicates a time zone of night, priority is given to data on the night, that is, information on time on the communication partner is given priority. Search for.
  • communication terminal 201 searches for and displays stored information in communication terminal 201 using, as key information, environment information acquired from communication terminal 202 which is the other party of communication. Therefore, by automatically displaying the information that the communication partner is interested in, it is possible to help activate the communication more easily, simplify the operation, and operate the information device. Even older people who are not familiar with it can easily make calls while displaying various video information and promote warm communication.
  • time information, time information, day of the week information, month information, time information determined in advance, and time information are acceptable even if information related to time other than this is used. It may be information related to time such as information.
  • the information to be searched may be mail information transmitted / received in the past. Yes.
  • mail information or the like sent from a person in communication is retrieved.
  • the third embodiment is a communication terminal in which information related to the other party of communication is obtained by recognizing information to be received by the other party of communication, and the recognition information is used as search key information.
  • the information storage unit 103 of the communication terminal 201 stores image information and feature information of a person related to the image information.
  • the feature information of the person includes feature information related to voice
  • the communication terminal 202 sends the key information to the communication terminal 201 in response to the acquisition request of the key information of the communication terminal 201. It is done.
  • Communication terminal 201 requests connection to communication terminal 202 by videophone and receives an acceptance response from communication terminal 202, according to H. 223 multiplexing using 3G-324M protocol , Make a videophone communication (step S 1101).
  • the video is transmitted and received using the video channel, and the video of the other party is displayed by the output unit 107 (step S 1102). Also, talk over the audio channel.
  • the communication partner information acquisition unit 104 of the communication terminal 201 extracts the speech information of the partner (step S 1103), and further, the communication partner information acquisition unit 1.
  • step S 1104 analyzes the extracted other party's voice information, and uniquely identifies the other party of communication by referring to the voice database storing the features of the voice stored in the information storage unit 103 (step S 1104) ).
  • the stored information search unit 105 of the communication terminal 201 searches stored information stored in the information storage unit 103 based on the identified communication partner information, and extracts information related to the user B who is the communication partner (see FIG. Step S1105).
  • the information reproduction processing unit 106 of the communication terminal 201 displays, via the output unit 107, image information which is information related to the extracted user B (step S1106).
  • communication terminal 201 is a communication terminal that is a communication partner. Since the stored information in the communication terminal 201 is searched and displayed by using the voice information acquired from the 202 as key information, the communication information can be displayed more automatically by displaying the information that the communication partner is interested in. While being able to support activation and simplifying the operation, even elderly people who are not familiar with the operation of information devices can easily communicate while displaying various video information, and warm communication is possible. It can be promoted.
  • a user interface may be provided to control the timing of speech recognition.
  • a software key or a Z hardware key is provided, and speech recognition is performed with a predetermined key press as a cue.
  • timing of performing speech recognition may be performed at any time predetermined during communication, at any time.
  • speech recognition it may be used to obtain a keyword for searching, apart from uniquely identifying the other party of communication. In this way, stored information can be searched based on the words spoken by the communication partner, and information related to conversation can be easily extracted.
  • the communication terminal can improve speech recognition by storing a term database that assists speech recognition.
  • voice recognition may be voice recognition of the user of the own terminal that is not only the communication partner.
  • the sound information to be recognized is not limited to the voice information, but may be an environmental sound.
  • an environmental sound it is possible to obtain information such as what place the communication partner is in, where it is. For example, indoors, outdoors, traveling by car, etc. are distinguished, and information corresponding thereto can be searched.
  • you are at a station you will be able to extract timetable information with priority.
  • the extracted timetable information can also be transmitted to the communication partner terminal and displayed. With this configuration, it becomes possible to easily extract and provide information necessary for the communication partner.
  • the example of uniquely identifying the communication partner by voice information has been shown, but it may be identified including the emotion of the communication partner. By doing this, it is possible to extract stored information according to the emotion of the communication partner.
  • the third embodiment an example has been described in which sound information is recognized and information related to a communication partner is acquired.
  • information to be recognized video information to be received by the communication partner may be used.
  • the image information of the communication partner user is analyzed using image recognition means to extract the characteristic information of the person, and the communication partner is uniquely identified by referring to the characteristic information of the person contained in the user information. It becomes possible to identify.
  • the image may be recognized with priority given to the image information of the pointed portion.
  • attribute information attached to a video target is also received together, it is possible to use the attribute information as search information.
  • the attribute information is, for example, a person name or a building name attached to the image information as explanation information.
  • attribute information associated with an object pointed by the pointing device can also be used as search information.
  • the assistant specification may be prompted. For example, Designate to narrow down information related to priority or narrow down information related to time preferentially.
  • Communication terminal 201 issues a videophone connection request to communication terminal 202 (step S 1).
  • the communication terminal 202 sends a connection permission response (step S 1202).
  • a session for making a videophone call is opened, and videophone communication is in progress (step S 1203).
  • communication terminal 201 acquires information for uniquely identifying user B who is the other party of communication, and based on the information for uniquely identifying user B, user B The information related to the information is extracted from the information storage unit 103 of the communication terminal 201. Then, the communication terminal 201 transmits a request for confirmation of the reproduction capability information of the extracted image to the communication terminal 202 via the data transmission channel (step S 1204).
  • Communication terminal 201 refers to the acquired reproduction capability information related to communication terminal 202, and converts the still image, which is to-be-searched information, into a format that can be reproduced by communication terminal 202 as necessary, It transmits to the communication terminal 202 via a data transmission channel (step S1206).
  • FIG. 13 is a block diagram showing a configuration of communication terminal 1300 of the fourth embodiment.
  • the communication terminal 1300 includes an image conversion unit 1308 for performing the image conversion process executed in step S1206.
  • communication terminal 201 checks the image reproduction capability of communication terminal 202 of the communication partner. As a result, it is assumed that the communication terminal 202 has the reproduction capability up to the QCIF (Quarter CIF) format. In this case, since the communication terminal 202 can not reproduce in the CIF format stored in the communication terminal 201, the communication terminal 201 converts it into QCIF format data that can be reproduced by the communication terminal 202, and then the communication partner terminal 202 To (step S1206).
  • CIF Common Interface Format
  • communication terminal 201 searches stored information in communication terminal 201 using, as key information, the communication partner information acquired from communication terminal 202 which is the communication partner. Since the communication terminal 201 and the communication terminal 202 share information, it is possible to support activation of the communication more easily, simplify the operation, and become unfamiliar with the operation of the information device. Even elderly people can easily make calls while displaying various video information, and can promote warm communication.
  • the reproduction capability information of the still image it may be information regarding the reproduction capability such as a good display color even if it is not the power resolution shown in the example using the resolution.
  • reproduction capability information In the above description, an example of still image reproduction capability information is shown as the reproduction capability information, but it may be information about a moving image.
  • the reproduction capability information may be reproduction capability information on a good sound or reproduction capability information on structured data such as XML (Extensible Markup Language) even if it is not the reproduction capability information on an image.
  • XML Extensible Markup Language
  • conversion may be performed according to the communication state between terminals. For example, when the transmission capacity for data transmission can not be increased, the data size is reduced and transmitted.
  • video data may be compressed as a JPEG still image and transmitted.
  • the reproduction capability information of the communication partner may be used as a search condition to perform the search.
  • the communication terminal shown in FIG. 1 recognizes the image information or voice information received from the other party of communication to obtain information related to the other party of communication, and the image information for which the recognition information has been received. Or communication method for storing in association with voice information
  • communication partner 202 receives image information.
  • a feature related to a communication partner is acquired by recognizing speech information, and information related to the acquired communication partner is stored in association with received image information or speech information.
  • step S 1401 communication terminal 201 displays an image of the other party of communication during a telephone call, as in the first embodiment.
  • step S 1402 communication terminal 201 detects a recording instruction for recording image information or audio information received from the communication partner.
  • the detection of a recording instruction is, for example, detection of a key operation instructing recording from a user by pressing a software key or a keyboard key.
  • step S 1402 upon detecting a storage instruction of received image information or voice information, communication terminal 201 executes recognition processing of image information or voice information received from the other party of communication in step S 1403. Get information related to the other party.
  • step S 1404 communication terminal 201 is based on the image information or voice information received from the communication partner and the feature information acquired by the recognition process in step S 1403.
  • Communication partner information (attribute information) related to the communication partner is stored in the information storage unit 103 in association with each other.
  • the image information and the feature information of the person related to the image information are stored together.
  • the feature information of a person includes feature information related to voice.
  • step S1403 an example will be described in which an image to be received is recognized to obtain information related to the person of the communication partner.
  • Communication terminal 201 stores in identification information for identifying a plurality of users in information storage unit 103, and characteristic information of a person corresponding to the identification information, in association with each other. For example, the feature information and the voice feature of the face image of each user are stored in association with the telephone number of the address book which is the user information.
  • the feature information of a person obtained by analyzing the video information received through the video channel and the features of each user included in the user information stored in the information storage unit 103.
  • a recognition process that uniquely identifies the person at the other end of communication is performed by comparing the information.
  • the feature related to the other party of communication is acquired, and the information related to the acquired other party of communication is acquired. Is stored in association with the received image information or voice information, so the received information can be searched with reference to the information related to the communication partner, and the intended information can be easily extracted even if the amount of information to be searched is large. can do.
  • an example in which information relating to a person is extracted by image recognition as image recognition is not limited to this.
  • Information relating to a landscape may be extracted.
  • the image information received from the communication terminal of the other party of communication is subjected to image recognition
  • information characterizing the landscape for example, information on a building
  • the feature information is extracted. save.
  • searching for stored information it becomes possible to search for stored information using the stored characteristic information. For example, information that is determined to be more deeply related by comparing feature information that obtains landscape information, which is video information from a communication partner, by image recognition with feature information related to the landscape stored in the information storage unit It is possible to present.
  • Communication terminal 100 may be configured to recognize an image by giving priority to the image information of the pointed portion by designating the position of the other party's video screen to be displayed with the pointing device.
  • attribute information associated with the video target according to the position of the partner video designated by the pointing device may be acquired from the communication partner, and may be stored together.
  • attribute information associated with an object pointed by the pointing device can be used as a search condition for searching stored information.
  • the communication terminal 201 stores the identification information for identifying a plurality of users in the information storage unit 103 in association with the characteristic information on the person image respectively corresponding to the identification information.
  • the voice characteristic information of each user is stored in association with the telephone number of the address book which is user information.
  • voice information of sound information received via the audio channel is separated, and voice characteristic information of a person obtained by analyzing the separated voice information;
  • voice characteristic information of each user included in the user information stored in the information storage unit 103 recognition processing for uniquely identifying the person of the communication partner is performed.
  • the communication terminal 201 requests the communication terminal 202 to connect using a videophone, and receives an acceptance response from the communication terminal 202.
  • the video is transmitted and received using the video channel, and the output unit 107 displays the video of the other party (step S 1502). Also, talk over the audio channel.
  • the communication partner information acquisition unit 104 of the communication terminal 201 extracts the speech information of the partner (step S1503), and further, the communication partner information acquisition unit 1
  • step S 1504 analyzes the extracted other party's voice information, and uniquely identifies the other party of communication by referring to the voice database storing the features of the voice stored in the information storage unit 103 (step S 1504). ).
  • the stored information search unit 105 of the communication terminal 201 searches the stored information stored in the information storage unit 103 based on the identified communication partner information, and extracts information related to the user B who is the communication partner (see FIG. Step S 1505).
  • the extraction information reproduction unit 106 of the communication terminal 201 displays, via the output unit 107, image information which is information related to the extracted user B (step S1506).
  • a user interface may be provided to control the timing of speech recognition.
  • a software key or a Z hardware key is provided, and speech recognition is performed with a predetermined key press as a stop.
  • the timing of performing speech recognition may be made at any time during communication, at any time decided in advance.
  • the communication terminal can improve voice recognition by storing a term database that helps voice recognition.
  • the speech recognition may be performed by speech recognition of the user of the own terminal without using only speech received from the communication partner.
  • the sound information to be recognized is not limited to voice information, but may be environmental sound.
  • environmental sound For example, by recognizing the environmental sound, what kind of place the communication partner is in, what situation Get information such as. For example, it is distinguished that the vehicle is indoors, outdoors, moving by car, etc., and the information is stored as feature information.
  • the present invention particularly relates to communication terminals such as mobile phones, personal digital assistants (PDAs), notebook personal computers, personal computers on networks such as wireless LANs and wired LANs, and communication thereof. Suitable for use in the method.
  • communication terminals such as mobile phones, personal digital assistants (PDAs), notebook personal computers, personal computers on networks such as wireless LANs and wired LANs, and communication thereof. Suitable for use in the method.

Abstract

 通信相手とのコミュニケーションをより活性化させるように支援することができるとともに、操作を簡単にして、情報機器の操作に不慣れな年配者等でも、簡単にいろいろな映像情報を表示しながら通話ができ、温かみのあるコミュニケーションを促進させることができる通信端末。この装置では、情報保存処理部(102)は、情報の保存に関わる処理を行う。通信相手情報取得部(104)は、通信中の通信相手に関する情報を、自端末又は相手端末から検索用キー情報として取得する。保存情報検索部(105)は、通信相手情報取得部(104)により抽出された通信相手に関する情報を検索用キー情報として、情報保存部(103)に記憶される情報を検索し、通信相手と関係の深い情報を抽出する。出力部(107)は、画像情報をディスプレイに表示したり、音声情報をスピーカにて再生したりする。

Description

通信端末とその通信方法
技術分野
[0001] 本発明は、例えばテレビ電話を用いて通信する通信端末とその通信方法に関する
背景技術
[0002] テレビ電話を用いて通信する際、会話をより楽しくするための支援装置として、共覧 型画面電話方式が提案されて ヽる (例えば、特許文献 1)。
[0003] 上記従来の方式は、一般に、各端末が持って!/、る情報が異なるから、通話を開始 する前は、各端末が持つデータベースに格納された情報を同じ状態に統一し、この 状態で、必要に応じて、データベース内の情報を検索し、検索して得られたデータを 各端末に表示することで、会話をスムーズに進行させる支援装置である。
特許文献 1 :特開平 3— 49385号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上記した従来の装置においては、通話を開始する前は、各端末が持 つデータベースに格納された情報を同じ状態に統一にしなければならず、このような 通話前の事前準備は、煩わしく実用的でな 、と 、う問題がある。
[0005] 本発明の目的は、通信相手とのコミュニケーションをより活性化させるように支援す ることができるとともに、操作を簡単にして、情報機器の操作に不慣れな年配者等で も、簡単にいろいろな映像情報を表示しながら通話ができ、温かみのあるコミュニケ ーシヨンを促進させることができる通信端末とその通信方法を提供することである。 課題を解決するための手段
[0006] 本発明の通信端末は、通信相手からキー情報を取得するキー情報取得手段と、前 記通信相手から取得した前記キー情報に基づき、メモリに格納された保存情報を検 索し、前記キー情報に関連する情報を取得する検索手段と、前記検索手段による検 索の結果得られた前記情報を表示する情報表示手段と、を具備する構成を採る。 [0007] 本発明の通信端末は、通信相手からキー情報を取得するキー情報取得手段と、前 記通信相手から取得した前記キー情報に基づき、メモリに格納された保存情報を検 索し、前記キー情報に関連する情報を取得する検索手段と、前記検索手段による検 索の結果得られた前記情報を前記通信相手に送信する情報提示手段と、を具備す る構成を採る。
[0008] 本発明の通信方法は、通信相手力 キー情報を取得するキー情報取得ステップと 、前記通信相手から取得した前記キー情報に基づき、メモリに格納された保存情報 を検索し、前記キー情報に関連する情報を取得する検索ステップと、前記検索ステツ プによる検索の結果得られた前記情報を表示する情報表示ステップと、を具備するよ うにした。
[0009] 本発明の通信方法は、通信相手力 キー情報を取得するキー情報取得ステップと 、前記通信相手から取得した前記キー情報に基づき、メモリに格納された保存情報 を検索し、前記キー情報に関連する情報を取得する検索ステップと、前記検索ステツ プによる検索の結果得られた前記情報を前記通信相手に送信する情報提示ステツ プと、を具備するようにした。
発明の効果
[0010] 本発明によれば、通信相手とのコミュニケーションをより活性化させるように支援す ることができるとともに、操作を簡単にして、情報機器の操作に不慣れな年配者等で も、簡単にいろいろな映像情報を表示しながら通話ができ、温かみのあるコミュニケ ーシヨンを促進させることができる。
図面の簡単な説明
[0011] [図 1]本発明の実施の形態 1に係る通信端末の構成を示すブロック図
[図 2]本発明の実施の形態 1に係る通信システムの構築図
[図 3]本発明の実施の形態 1に係る通信相手情報の取得方法を示すシーケンス図 [図 4]本発明の実施の形態 1に係る受信画像情報の保存方法を示すフロー図
[図 5]本発明の実施の形態 1に係る通信相手情報要求に対する応答方法を示すフロ 一図
[図 6]本発明の実施の形態 1に係る通信相手情報に基づく保存情報の検索方法を示 すフロー図
[図 7]本発明の実施の形態 1に係る再生情報の表示例を示す図
[図 8]本発明の実施の形態 1に係る通信端末の他の構成を示すブロック図
[図 9]本発明の実施の形態 1に係る出力情報の他の表示例を示す図
[図 10]本発明の実施の形態 1に係る出力情報の別の表示例を示す図
[図 11]本発明の実施の形態 3に係る音認識に基づく保存情報の抽出を説明するフロ 一図
[図 12]本発明の実施の形態 4に係る通信方法を示すシーケンス図
[図 13]本発明の実施の形態 4に係る通信端末の構成を示すブロック図
[図 14]本発明の実施の形態 5に係る画像認識に基づく保存情報の保存方法を示す フロー図
[図 15]本発明の実施の形態 5に係る音声認識に基づく保存情報の検索方法を示す フロー図
発明を実施するための最良の形態
[0012] 以下、本発明の実施の形態について図面を参照して詳細に説明する。
[0013] (実施の形態 1)
本発明の実施の形態に係る通信システムは、図 2に示すように、複数の通信端末(
201〜203)力 通信網 220を介して接続されている。
[0014] 本発明の通信端末 (201〜203)は、例えば携帯電話機である。通信端末 (201〜
203)は、基地局(211〜213)を介して、通信網 220に接続される。
[0015] 本発明の通信端末 100は、図 1に示すように、通信部 101と、情報保存処理部 102 と、情報保存部 103と、通信相手情報取得部 104と、保存情報検索部 105と、情報 再生処理部 106と、出力部 107とを備えている。
[0016] 通信部 101は、テレビ電話などの通信を行う際に、発信 Z着信の呼接続や、映像 情報、音情報、テキストベース情報などのデータの送受信を行う。テキストベース情報 は、任意のデータ情報であり、表示されるデータや制御用情報も含まれる。
[0017] 情報保存処理部 102は、テレビ電話の再生画像の保存処理、送受信メールの保存 処理、アドレス帳へのユーザ情報の保存処理等の情報の保存に関わる処理を行う。 [0018] 情報保存部 103は、情報保存処理部 102により保存処理される情報である保存情 報を記憶している。具体的には、情報保存部 103は、テレビ電話での再生画像を蓄 積する他、メールや Web上で取得した情報、ネットワークを介して受信した受信コン テンッ、友人'知人の住所、電話番号等を含むアドレス情報等の様々な情報を予め 蓄積している。
[0019] 情報保存部 103には、通信端末 201〜203の各々に内蔵されたメモリ、具体的に は電気的消去型不揮発性メモリ (EEPROM)、読出書込可能な揮発性メモリ (SRAM や DRAM)、磁気メモリ(Hard Disk)のいずれかを使用することができる。また、情報保 存部 103には、通信端末 201〜203に着脱自在な外部記憶装置、例えば、カード型 メモリ、スティック型メモリ等を使用することができる。更に、無線網や有線網で構築さ れたネットワークのサーバの記憶装置を、情報保存部 103として使用することができ る。
[0020] 通信相手情報取得部 104は、本発明のキー情報取得手段であり、通信中の通信 相手に関する情報を、自端末又は相手端末力も検索用キー情報として取得する。取 得するキー情報としては、テレビ電話中の通信相手を一意に特定する情報または嗜 好情報などの人物情報や、位置情報または時間情報などの環境情報である。
[0021] 保存情報検索部 105は、通信相手情報取得部 104により取得された通信相手に 関する情報を検索用キー情報 (検索用情報)として、情報保存部 103に記憶される情 報を検索し、通信相手と関係の深!ヽ情報 (被検索情報)を抽出する。
[0022] 情報再生処理部 106は、保存情報検索部 105により抽出された通信相手と関係の 深い被検索情報を、出力部 107により、再生処理する。
[0023] 出力部 107は、映像を表示するディスプレイやスピーカにより構成されている。例え ば、情報再生処理部 106は、出力部 107により、抽出された画像情報をディスプレイ に表示したり、抽出された音声情報をスピーカにて再生したりする。
[0024] 通信端末 201〜203は、それぞれ、図 1に示した通信部 101、情報保存処理部 10 2、情報保存部 103、通信相手情報取得部 104、保存情報検索部 105、情報再生処 理部 106、出力部 107を備えている。
[0025] 次に、図 2に示す通信システムにおける通信方法について説明する。最初に、テレ ビ電話中の通信相手に関する情報を取得するシーケンスを、図 3を用いて説明する
[0026] 図 3では、通信端末 201と通信端末 202とが通信し、通信端末 201が、通信端末 2 02から通信相手の人物情報を取得し、通信端末 201が、取得した人物情報をキー 情報として、通信端末 201の情報保存部 103内に格納された保存情報を検索、抽出 する例として説明する。
[0027] 通信端末 201は、通信端末 202に対して、テレビ電話での接続要求を行う(ステツ プ S301)。
[0028] 通信端末 202は、テレビ電話での接続要求に応答して、許可応答を行う(ステップ S302)。
[0029] 上述の接続処理後に、テレビ電話通信のデータ伝送設定を行う。
[0030] 本発明の通信システムでは、テレビ電話通信には、マルチメディア情報を多重化す る標準方式である ITU— T勧告 H. 223のデータ多重化を利用した第 3世代携帯電 話規格の 3G— 324Mプロトコルを利用する。
[0031] 通信端末は、 3G— 324Mプロトコルにより、映像情報を伝送するビデオチャネル及 び音情報を伝送するオーディオチャネルに加えて、任意のデータを伝送することが 可能なデータ伝送チャネルを開設する。
[0032] 次に、前述のデータ伝送チャネルを用いて、通信端末間で行う情報伝送として、通 信相手に関する情報である人物情報の伝送を行う例を説明する。
[0033] 3G— 324Mプロトコル開設により、テレビ電話通信が可能となる (ステップ S303)。
この時点で、互いの通信端末間で、お互いの映像の表示および音声での会話が可 能である。
[0034] 通信端末 201と通信端末 202との通信中(ステップ S303)において、通信端末 20 1が通信端末 202から受信した画像情報を保存する時、通信端末 201は、通信端末 202に対して、通信相手の人物情報の取得要求を行う(ステップ S304)。
[0035] 通信端末 202は、通信端末 201からの人物情報の取得要求により、対象となる人 物情報を抽出し、通信端末 201に送信する (ステップ S305)。
[0036] 次に、通信端末 201において、通信相手の画像情報と通信相手に関する人物情 報 (属性情報)とを関連付けて保存する処理フローを、図 4を用いて説明する。図 4は 、通信端末 201と通信端末 202とが通信し、通信端末 201が、画像情報を受信する とともに通信相手である通信端末 202に関する情報 (人物情報)を取得し、取得した 通信端末 202に関する情報を属性情報として、受信した画像情報と属性情報とを関 連づけて保存する場合を示すものである。
[0037] 通信端末 201は、テレビ電話での通話中に、通信相手の映像を表示する (ステップ S401)。
[0038] 通信端末 201が、通信端末 201のユーザからのキー入力操作などによる通信相手 の画像情報を保存する指示を検出すると (ステップ S402)、通信相手である通信端 末 202に対して、人物情報の取得要求を行い(図 3のステップ S304)、通信端末 202 から通信相手先の人物情報を受信する (ステップ S403)。
[0039] 通信端末 201の情報保存処理部 102は、受信した通信相手の画像情報と、ステツ プ S403にて取得した通信相手を一意に特定する情報である電話番号を含む人物 情報とを関連付けて、通信端末 201の情報保存部 103内に保存情報として保存する (ステップ S404)。画像情報と人物情報 (属性情報)とを関連づけて保存することによ り、人物情報をキー情報として、通信端末 201の情報保存部 103内に格納された保 存情報を検索して抽出するので、検索を迅速に行うことができる。
[0040] 次に、通信端末 201からの人物情報要求を受信する通信端末 202での処理フロー を、図 5を参照して説明する。
[0041] 通信端末 202は、通信端末 201とのテレビ電話通信中において、通信相手の画像 表示を行う(ステップ S 501)。
[0042] 通信端末 202は、通信端末 201から、データ伝送チャネルを介して、通信相手に 関わる情報である人物情報の取得要求を受信する (ステップ S502)。ここで、要求さ れる人物情報は、通信端末 202の使用ユーザを一意に特定する人物情報である。
[0043] 通信端末 202は、人物情報の取得要求を受信すると、その要求に従!、、通信端末 202の情報保存部 103に記憶する保存情報を参照し、通信端末 202を使用するュ 一ザの人物情報、即ち、テレビ電話番号を抽出した後 (ステップ S503)、通信端末 2 02は、求められる人物情報を、データ伝送チャネルを介して、通信端末 201へ送信 する(ステップ S 504)。
[0044] 次に、通信端末 201における保存情報の検索処理フローを、図 6を参照して説明 する。
[0045] 通信端末 201は、通信端末 202とのテレビ電話通信の開設を行い、通信中となる( ステップ S601)。
[0046] これにより、 H. 223多重化の中のビデオチャネルを介して受信する通信相手の映 像を表示することが可能になる。また、音声チャネル (オーディオチャネル)を用いて会 話を行うことが可能になる。
[0047] 通信端末 201は、通信相手である通信端末 202に対して、データ伝送チャネルを 介して、通信相手情報である人物情報の要求を行い (ステップ S602)、通信端末 20 2に関わる使用者 (ユーザ B)の人物情報を取得する (ステップ S603)。
[0048] 従って、通信端末 201は、通信相手の人物情報として、通信相手を一意に特定す る識別情報を取得する。通信相手を一意に特定する識別情報は、電話番号である。
[0049] ステップ 603において、人物情報を取得すると、保存情報検索部 105は、通信相手 情報取得部 104により得られた通信相手を一意に特定する情報である通信相手の 人物情報である電話番号を検索用キー情報として、情報保存部 103に記憶される保 存情報を自動的に検索する (ステップ S604)。
[0050] 情報保存部 103は、予め人物の画像情報を記憶しており、さらに画像情報と共に、 画像情報に関係付けられる人物情報を属性情報として合わせて記憶して 、る。従つ て、保存情報検索部 105は、通信相手であるユーザ Bを一意に特定する電話番号を 検索用キー情報として、情報保存部 103内の保存情報力もユーザ Bに関わる情報( キー情報に関連する情報)を抽出することができる。
[0051] そして、検索が終了すると、情報再生処理部 106は、出力部 107により、抽出され た通信相手に関わる情報 (被検索情報)を自動的に表示する (ステップ S605)。
[0052] 図 7は、通信端末 201上に表示された画像情報と検索により抽出したデータを表示 した例が示されている。
[0053] ステップ S605での表示は、図 7に示すように、画面の上方にはビデオチャネルを介 した通信中の相手の映像 701が表示され、下方には、通信相手に関わる情報 (検索 用情報)に基づき検索して抽出された情報である通信相手と関連する画像情報 (被 検索情報) 702が表示される。
[0054] このように、本実施の形態 1によれば、通信端末 201は、通信相手である通信端末 202から取得する人物情報をキー情報として、通信端末 201内の保存情報を検索し て表示するので、通信相手が関心を持っている情報を自動的に表示することで、コミ ュ-ケーシヨンをより活性化させるように支援することができるとともに、操作を簡単に して、情報機器の操作に不慣れな年配者等でも、簡単にいろいろな映像情報を表示 しながら通話ができ、温かみのあるコミュニケーションを促進させることができる。即ち 、本実施の形態 1によれば、通信相手に関わるキー情報を基に、情報保存部 103内 の保存情報を自動的に検索するので、煩雑な操作なしに、通信相手に関係する情 報を取得することができる。また、本実施の形態 1によれば、通信相手から受信した 画像情報を含む受信情報と人物情報等の通信相手情報とを関連させて保存処理す るので、通信相手情報を参照して受信情報を検索することができ、検索する情報量 が多くても、意図する情報を容易に抽出することができる。
[0055] なお、上記説明では、取得する通信相手に関わる情報は、通信相手を一意に識別 する人物情報としたが、嗜好情報等の他の情報を人物情報に含めても良い。
[0056] 更に、通信相手を一意に識別する情報に加え、他の人物情報 (個人情報)を利用 する場合には、保存情報の検索において、検索される情報を、さらに絞り込むことが 可能となる。
[0057] 人物情報として、通信相手を一意に識別する情報を用いるのでなぐ嗜好情報など を利用する場合には、通信相手に関わる情報に限定せずに検索するようにしても良 い。例えば、好みのアーティスト情報を検索条件として、そのアーティストに関わる情 報を検索するように構成しても良 、。
[0058] 又、通信相手の人物情報として、生年月日、性別、結婚暦、職種、現住所、趣味、 趣向等の情報を含み保存することにより、保存情報の検索の際に、その人物情報を 利用することにより、検索する情報を、絞り込むことが可能となる。
[0059] 又、上記説明では、人物情報として電話番号を利用して、通信相手を一意に特定 する例を示したが、通信相手を一意に特定する識別情報は、電話番号でなくても良 ぐ予め取り決めた規則に基づき付与されたユーザ識別子を利用するように構成して も良い。また、アドレス情報などに登録されているユーザ名やメールアドレス情報など を利用するようにしても良い。
[0060] 又、上記説明では、通信相手に関わる情報として、人物情報を利用する例を説明し たが、人物情報のみでなぐ位置情報、時間情報などの環境情報を利用するようにし ても良い。例えば、通信端末 201は、図 3の通信相手情報要求ステップ S304に換え て、環境に関わる情報を要求するように構成しても良い。
[0061] 環境に関わる情報とは、通信相手である通信端末 202がおかれている環境状況に 関わる情報であり、例えば、緯度 Z経度情報などの場所に関わる情報や、現在時刻 などの時間に関わる情報である。
[0062] 通信端末 201が、例えば、場所に関わる情報として位置情報を要求すると、通信端 末 202は、 GPS機能 (図示せず)の位置計測機能を用いて、位置情報の取得を行う 。通信端末 202は、取得した位置情報を、データ伝送チャネルを介して、通信端末 2 01へ送信する。
[0063] この方法により、通信端末 201は、通信相手の画像情報の保存に際し、通信相手 端末である通信端末 202の位置情報を属性情報として合わせて記録することが可能 となる。通信端末 201は、後の検索の際に、位置情報を基に関連する情報を抽出す ることが可能となる。なお、位置計測機能については、 GPS機能でなくても良ぐ位置 情報を取得できれば他の方法でも良い。例えば、セルラー網より、位置情報を取得し ても良い。
[0064] 又、場所に関わる情報については、緯度 Z経度情報でなくても良ぐ場所に関する 情報であれば良い。例えば、郵便番号、住所情報、エリア情報、ランドマーク情報、 などでも良い。又、得られた緯度 Z経度情報を基に、別形式の場所に関わる情報に 変換しても良い。例えば、緯度 Z経度情報を基に、エリア情報、ランドマーク情報に 変換しても良い。別形式の場所に関わる情報への変換には、場所に関わる情報を要 求する側において、行っても良いし、要求された側において、変換しても良い。また、 どの形式の場所に関わる情報が良いかを、要求する側が指定して、場所に関わる情 報の要求を行うように構成しても良い。この場合、指定された形式による場所に関わ る情報を要求された通信端末は、適切な場所に関わる情報への変換を行い、応答を 行う。なお、通信相手力 取得する環境に関する情報は、場所に関する情報に限ら ず、他の環境に関する情報であっても良い。即ち、環境に関わる情報として、通信相 手の時刻情報を取得し、この取得した時刻情報を受信した画像情報に関連づけして 保存するようにしても良い。この場合、通信相手と自端末において、時差がある状況 にお 、ては、相手環境での時刻を反映して情報を保存することが可能となる。
[0065] なお、「受信した画像情報を含む受信情報と人物情報等の通信相手情報とを関連 させる」技術的な意味は、ある人物情報 (属性情報)とその画像情報が 1対 1の関係を 有する場合、及びある人物情報 (属性情報)とその画像情報が 1対 nの関係を有する 場合の両方を含み、ある人物情報 (属性情報)を抽出した場合、抽出した人物情報( 属性情報)に 1対 1に対応した画像情報、または抽出した人物情報 (属性情報)に 1対 nに対応した画像情報が抽出されることを意味している。
[0066] ここで、通信相手情報の取得処理 (ステップ S602及びステップ S603)につ!/、て、 更に詳細に述べる。
[0067] 通信相手情報の取得処理において、取得する通信相手情報は、通信相手の人物 情報や環境情報など、任意の情報を取得することが可能であるが、取得要求する側( 通信端末 201)において、要求する情報を指定する方法を説明する。
[0068] その一つの方法としては、通信端末 201は、事前に決められた通信相手情報の取 得要求を行う方法であり、この場合、一例として、通信相手を一意に識別する情報と して通信相手端末の電話番号を要求する。
[0069] また、リストメ-ユーなどを用いて、要求情報を選択するようにしても良い。
[0070] 図 8に示した通信端末 800には、要求情報を選択するために、キー情報選択部 80 8が設けられている。
[0071] 例えば、人物情報を要求するのか、環境情報を要求するのか、どちらも要求するの 力これらを、キー情報選択部 808から提示されるリストメ-ユー上で選択できるように 構成しても良い。
[0072] また、別の方法としては、ディスプレイに表示されている通信相手の映像に対して、 カーソルなどのポインティングデバイスより対象(映像の一部分)を指定することにより 、その対象となる情報を要求する方法である。つまり、カーソルにて、人物映像が指 定されると、人物情報を要求し、背景が指定されると、位置情報などの環境情報を要 求するように構成する。
[0073] なお、通信端末 201が、通信相手情報の要求を行い、その応答として通信相手情 報を受信する例を示したが、要求を行わなくとも、通信端末 202は、通信相手情報を 通知するように構成しても良 、。
[0074] 又、着信側の通信端末が、通信相手に関する情報を利用する場合には、通信相手 情報として、通信の接続処理に得られる発番号通知を利用しても良い。
[0075] なお、発信側の通信端末は、発信した電話番号をキー情報として、発信側の通信 端末の情報保存部 103内に格納された保存情報を検索するように構成しても良い。
[0076] さらに、通信端末は、情報保存部 103に記憶する通信相手を一意に識別する情報 に対応付けられるユーザ情報により、通信相手に関わるさらなる個人情報を参照、利 用するように構成しても良い。
[0077] 通信相手の人物情報 (個人情報)は、生年月日、性別、結婚暦、職種、現住所、趣 味、趣向等の情報を含み、これらを検索用キー情報 (検索条件)として利用することが できる。
[0078] 従って、趣味、嗜好等のサイコグラフィック情報、年齢、家族構成等のデモグラフィ ック情報を検索用キー情報として利用することができる。
[0079] 実施の形態 1では、人物情報として、電話番号を利用して、通信相手を一意に特定 する例を示したが、通信相手を一意に特定する情報は、電話番号でなくても良ぐ予 め取り決めた規則に基づき付与されたユーザ識別子を利用するようにしても良い。ま た、アドレス情報に登録されているユーザ名やメールアドレス情報などでも良い。
[0080] 又、実施の形態 1では、通信相手情報 (キー情報)として、人物情報を利用する例を 説明したが、人物情報のみでなぐ位置情報、時間情報などの環境情報を利用する ようにしても良い。
[0081] 次に、通信相手に関わる情報として、位置情報を通信相手端末から取得する例を 説明する。
[0082] 図 3のステップ S304の通信相手情報要求において、通信端末 201は、通信端末 2 02の位置情報を要求する。
[0083] 位置情報を要求された通信端末 202は、 GPS機能などの位置計測機能により位置 情報を得る。
[0084] ステップ S305の通信相手情報の送信にぉ 、て、通信端末 202は、位置情報を通 信端末 201へ送信する。
[0085] そして、通信端末 201は、通信相手である通信端末 202の位置情報を得る。
[0086] 通信端末 201は、取得した通信相手の位置情報を検索用キー情報として、通信端 末 201の保存情報を検索し、この検索により、通信端末 201は、通信相手の位置情 報に関わる保存情報を優先して抽出し、ユーザへ提示する。
[0087] なお、通信相手を一意に識別する情報により、保存情報の検索を行い、さらに環境 情報である位置情報により、絞込みを行っても良い。
[0088] 又、位置情報の取得には、 GPS機能を利用できるが、位置計測機能にっ 、ては、
GPS機能でなくても良ぐ位置情報を取得できれば良い。例えば、セルラー網により 位置情報を取得しても良い。
[0089] なお、位置情報につ 、ては、緯度 Z経度情報でなくても良ぐ位置に関する情報で あれば良い。例えば、郵便番号、住所情報、エリア情報、ランドマーク情報等でも良 い。
[0090] また、得られた緯度 Z経度情報を基に、位置情報に関わるデータベースを利用し て、別形式の位置情報に変換しても良い。例えば、緯度 Z経度情報を基に、エリア 情報、ランドマーク情報に変換しても良い。
[0091] 別形式の位置情報への変換には、位置情報を要求する側にお!、て行っても良 、し 、位置情報を要求された側において、変換しても良い。
[0092] また、どの形式の位置情報が良いかを、位置情報を要求する側が指定して、位置 情報要求を行うようにしても良い。この場合、指定された形式による位置情報を要求 された通信端末では、適切な位置情報への変換を行い、応答を行う。
[0093] なお、保存情報の検索において、検索用情報として、通信相手に関する位置情報 だけでなぐ自端末に関する位置情報を用いても良いし、双方の位置情報を合わせ て利用しても良い。双方の位置情報の利用とは、 2地点間を検索用情報として利用 する、つまり、 2地点間に関わる情報を優先して検索することなどであり、例えば、 2地 点間にあるお店に関する情報を優先して検索することである。
[0094] 更に、位置情報と合わせて、時間情報などの他の環境情報を取得しても良ぐ合わ せて検索用キー情報とすることにより、より相手の状況に応じた情報を取得することが 可能となる。
[0095] なお、上記説明では、抽出される情報 (被検索情報)が 1つの場合を示したが、抽 出される情報が、複数の場合もある。関係する情報が複数ある場合は、予め設定す る方法により、ユーザに提示する。
[0096] 検索された複数の対象情報の中から、一つの情報のみを表示する場合には、一つ の方法として、撮影時間の近 ヽ順番に優先して選択する。
[0097] また、検索された複数の対象情報の表示には、ある一定の時間間隔による順次切 り替え表示、または複数情報の同時表示を行っても良い。例えば、図 9、 10のように 表示する。
[0098] 図 9、 10【こお!ヽて、符号 901、 ΙΟΟΙίま、通信中のネ目手画像であり、符号 902、 100
2は、検索の結果、抽出された複数の画像である。
[0099] なお、抽出された保存情報が、高画質の静止画像や、動画像の場合には、サムネ ィルなどの表示負荷や表示領域の少ない方法により、複数情報を表示して、ユーザ が選択可能なようにしても良 、。
[0100] また、動画像であれば、関連付けられる属性情報を基に、最も関連するフレームや シーンを表示するようにしても良 、。
[0101] また、複数の抽出された情報を同時表示する場合や、ユーザが選択可能とする場 合において、時間軸により並べることも可能である。
[0102] 又、実施の形態 1では、電話番号を通信端末を使用するユーザを一意に特定する 情報としたが、電話番号でなくとも、氏名やユーザ識別子を別途付与するように構成 しても良い。この場合、複数の電話番号を持つユーザに対しても対応することが可能 となる。
[0103] 又、実施の形態 1では、基地局および通信網を介したシステム構成としているが、 互いの通信端末が、ローカル通信インタフェースを用いて、直接通信をする形態であ つても良い。
[0104] 又、実施の形態 1では、通信相手として、 1ユーザである例を示した力 複数の通信 相手を対象とするマルチコールなどであっても良い。そのときには、複数ユーザに共 通する情報となる、グループ情報や、趣味情報、スケジュール情報に基づく共通行動 予定等を検索用キー情報として利用することが可能となる。
[0105] (実施の形態 2)
実施の形態 1では、図 6のステップ S604において、通信相手を特定する情報を得 るように構成したが、実施の形態 2では、通信端末 201が通信端末 202から、環境情 報を保存情報の検索用キー情報 (検索条件)として得るようにした例で説明する。
[0106] 具体的には、人物情報である通信相手を一意に特定する情報とする共に、環境情 報である時間情報を検索のためのキー情報として用いる。
[0107] 時間情報を検索のためのキー情報 (検索条件)にする場合、例えば、通信日時が 2 月 16日であれば、過去の 2月 16日に関係する情報を優先して検索する。
[0108] さて、通信端末 201の情報保存部 103には、撮影された日時情報を属性情報とす る画像情報を記憶している。撮影された日時情報とは、例えば、テレビ電話中に録画 を行った日時や、カメラにより撮影した日時である。
[0109] また、通信端末 201の情報保存部 103は、アドレス情報とスケジュール情報とが記 憶されている。
[0110] 実施の形態 1で説明したように、通信端末 201は、通信端末 202に対して、テレビ 電話での接続要求を行い、テレビ電話通信中となり、通信相手の映像を表示する。
[0111] 通信端末 201の通信相手情報取得部 104は、通信相手であるユーザ Bを一意に 特定する情報を取得する。
[0112] 実施の形態 2では、アドレス情報より、ユーザ Bを選択してテレビ電話接続を行うよう になっている。従って、通信相手を一意に特性する情報をアドレス情報より得る。つま り、アドレス情報より得られる電話番号を用いて通信相手であるユーザ Bを一意に特 定している。
[0113] さらに、通信相手情報取得部 104は、キー情報として、現在の時間情報(日時情報 )を時計 Zカレンダー機能(図示せず)から取得する。 [0114] 通信端末 201の保存情報検索部 105は、通信相手を一意に特定する情報である 電話番号を基に、通信相手であるユーザ Bに関係する情報を抽出し、更に、保存情 報検索部 105は、抽出したユーザ Bに関係する情報の中から現在の日時に関わる情 報を優先して選択する。具体的には、本日の日付 (2月 16日)に対応する情報があれ ば、その日付に対応する情報を優先して選択する。
[0115] そして、通信端末 201の情報再生処理部 106は、出力部 107により、抽出した通信 相手であるユーザ Bに関わる情報を表示する。
[0116] 検索される保存情報は、本日の日付に関わる重要な情報、例えば、通信相手の誕 生日である。また、スケジュール情報に、過去の情報として、本日の日付(2月 16日) に、通信相手と共に行動したなどの情報が記憶されていたならば、その旨の情報を 提示することも可能である。また、スケジュール情報に、行動した場所に関する情報 が記憶されていたならば、通信相手の位置情報に基づく検索を行うことにより、その 旨の情報を提示することも可能である。なお、保存するスケジュール情報に、本日の 予定として、ユーザ Bとの予定があれば、その旨、表示するようにしても良い。
[0117] 又、通信相手力 時刻情報を取得し、取得した時刻情報を検索用キー情報としても 良ぐ時差のある通信相手に対しては有効となる。例えば、通信相手の通信端末に 関わる現在時刻が、 21 : 00であり、夜の時間帯を示すのであれば、夜に関するデー タを優先して、即ち、通信相手の時間に関する情報を優先して検索する。
[0118] このように、本実施の形態 2によれば、通信端末 201は、通信相手である通信端末 202から取得する環境情報をキー情報として、通信端末 201内の保存情報を検索し て表示するので、通信相手が関心を持っている情報を自動的に表示することで、コミ ュ-ケーシヨンをより活性化させるように支援することができるとともに、操作を簡単に して、情報機器の操作に不慣れな年配者等でも、簡単にいろいろな映像情報を表示 しながら通話ができ、温かみのあるコミュニケーションを促進させることができる。
[0119] なお、実施の形態 2では、時間情報として日付情報を用いた力 これ以外の時間に 関する情報であっても良ぐ時刻情報、日時情報、曜日情報、月情報、予め取り決め た時間帯情報等の時間に関する情報であれば良い。
[0120] 又、検索される情報 (被検索情報)は、過去に送受信したメール情報であっても良 い。この場合、例えば、通信中の人物から送られてきたメール情報等が検索される。
[0121] (実施の形態 3)
実施の形態 3は、通信相手力 受信する情報を認識することにより、通信相手に関 わる情報を得て、その認識情報を検索用キー情報として利用するようにした通信端 末である。
[0122] 実施の形態 3では、音認識により得た認識情報に基づき、保存情報を検索し、提示 する通信方法について、図 11を参照して説明する。
[0123] 通信端末 201の情報保存部 103には、画像情報とその画像情報に関係する人物 の特徴情報とを合わせて記憶している。又、人物の特徴情報には、音声に関する特 徴情報を含んでいるものとし、通信端末 201のキー情報の取得要請に対して、通信 端末 202が、キー情報を通信端末 201に送るように構成されて 、る。
[0124] 通信端末 201は、通信端末 202に対して、テレビ電話での接続要求を行い、通信 端末 202からの受諾応答を受信すると、 H. 223多重化を利用した 3G— 324Mプロ トコル〖こより、テレビ電話通信を行う(ステップ S 1101)。
[0125] ビデオチャネルを用いて、映像の送受信を行い、出力部 107により、相手の映像を 表示する (ステップ S 1102)。また、オーディオチャネルを介して、会話を行う。
[0126] 通信端末 201の通信相手情報取得部 104は、オーディオチャネルを用いた会話に おいて、相手の音声情報を抽出し (ステップ S1103)、更に、通信相手情報取得部 1
04は、抽出された相手の音声情報の解析を行い、情報保存部 103に記憶する音声 の特徴を保存している音声データベースを参照することにより、通信相手を一意に特 定する(ステップ S 1104)。
[0127] 通信端末 201の保存情報検索部 105は、特定された通信相手情報に基づき、情 報保存部 103に記憶する保存情報を検索し、通信相手であるユーザ Bに関わる情報 を抽出する(ステップ S1105)。
[0128] 通信端末 201の情報再生処理部 106は、抽出されたユーザ Bに関係付けられる情 報である画像情報を出力部 107を介して表示する (ステップ S 1106)。
[0129] 勿論、これらのステップは、連続して自動的に実行される。
[0130] このように、本実施の形態 3によれば、通信端末 201は、通信相手である通信端末 202から取得する音声情報をキー情報として、通信端末 201内の保存情報を検索し て表示するので、通信相手が関心を持っている情報を自動的に表示することで、コミ ュ-ケーシヨンをより活性化させるように支援することができるとともに、操作を簡単に して、情報機器の操作に不慣れな年配者等でも、簡単にいろいろな映像情報を表示 しながら通話ができ、温かみのあるコミュニケーションを促進させることができる。
[0131] なお、音声認識を行うタイミングを制御するユーザインターフェースを設けても良い
[0132] 例えば、音声認識を行うタイミングを制御するために、ソフトウェアキーや Zハードウ エアキーを設けて、予め取り決めたキー押下をきつかけとして、音声認識を行う。
[0133] また、音声認識を行うタイミングは、通信中に、予め取り決めた任意のタイミングで随 時行うようにしても良い。
[0134] 音声認識を、随時行う場合、通信相手の端末にぉ 、て、対象ユーザ (端末の使用 ユーザ)が変わる場合においても、ユーザは操作なしに、通信相手となるユーザを速 やかに識別することが可能となる。
[0135] なお、音声認識の利用では、通信相手を一意に識別するのみでなぐそれとは別 に、検索するためのキーワードを得るために利用しても良い。このようにすれば、通信 相手が話す言葉に基づいて、保存情報を検索することが可能となり、容易に会話に 関係する情報を抽出することができる。
[0136] 通信端末は、音声認識を助ける用語データベースを記憶しておくことにより、音声 認識を向上させることが可能となる。
[0137] なお、音声認識は、通信相手のみでなぐ自端末のユーザの音声認識を行っても 良い。
[0138] 又、認識する音情報としては、音声情報に限らず、環境音であっても良い。例えば 、環境音を認識することにより、通信相手が、どんな場所にいる力、どんな状況である か等の情報を得ることができる。例えば、室内、屋外、車での移動中などが区別され 、それに応じた情報を検索することができる。また、特定の場所であること、例えば、コ ンサート会場であることや、電車に関する音が聞こえる駅であることを認識することに より、より通信相手の環境に応じた情報を抽出することが可能となる。例えば、滝の音 の聞こえる場所にいるのであれば、滝に関わる保存情報を優先して、抽出することが 可能となる。又、駅にいるのであれば、時刻表情報を優先して、抽出することも可能 になる。抽出された時刻表情報は、通信相手端末に送信し、表示することも可能であ る。このように構成することで、通信相手に必要な情報を、容易に抽出して、提供する ことが可能となる。
[0139] 又、上記説明では、音声情報にて通信相手を一意に識別する例を示したが、通信 相手の感情も含めて識別するようにしても良い。このようにすることで、通信相手の感 情に応じた保存情報を抽出することが可能となる。
[0140] 又、実施の形態 3では、音情報を認識し、通信相手に関わる情報を取得する例を 説明したが、認識する情報としては、通信相手力 受信する映像情報であっても良い 。通信相手ユーザが映し出される映像情報を、画像認識手段を用いて解析すること により、人物の特徴情報を抽出し、ユーザ情報に含まれる人物の特徴情報を参照す ることにより、通信相手を一意に識別することが可能となる。
[0141] 又、上記説明では、通信相手の人物の情報を検索用キー情報として利用する例を 示したが、これに限らず、通信相手端末が撮影している風景情報等の情報であって も良い。例えば、建築物であれば、建築物の特徴情報を検索用情報として関連情報 を検索することができる。
[0142] 又、ポインティングデバイスを用いて、指し示す部分の画像情報を優先して、画像 認識するようにしても良い。このように構成することで、認識する対象を指定して画像 認識することが可能となる。例えば、複数の人物や、人物と建築物の両方が映像とし て表示されているならば、いずれかをポインタデバイスにより指し示すことにより、検索 用キー情報として指定することが可能となる。
[0143] なお、映像の対象に付随する属性情報を、合わせて受信するならば、その属性情 報を検索用情報として利用することが可能である。属性情報とは、例えば、説明情報 として画像情報に付随している人物名や建造物名である。更に、又、ポインティング デバイスで指し示す対象に関係付けられる属性情報を検索用情報として利用するこ とも可能になる。
[0144] 又、検索の絞込みを行うために補助指定を促すようにしても良い。例えば、位置に 関する情報を優先して絞り込むとか、又は、時間に関する情報を優先して絞り込むと か等を指定する。
[0145] (実施の形態 4)
実施の形態 4を図 12、図 13を参照して説明する。
[0146] 実施の形態 4は、通信端末 201にお 、て、通信相手情報を用いて抽出した情報を
、通信相手である通信端末 202とで共有し、表示する通信方法であり、この通信方法 について、図 12を用いて説明する。
[0147] 実施の形態 4においても、テレビ電話通信に関しては、実施の形態 1と同様に、 3G
— 324Mプロトコルを用いて、通信を行う。
[0148] 通信端末 201は、通信端末 202に対して、テレビ電話接続要求を行う(ステップ S1
201)。
[0149] 通信端末 202は、接続許可応答を行う(ステップ S 1202)。
[0150] テレビ電話を行うためのセッション開設を行 、、テレビ電話通信中となる (ステップ S 1203)。
[0151] 通信端末 201は、実施の形態 1において説明したように、通信相手であるユーザ B を一意に特定する情報を取得し、そのユーザ Bを一意に特定する情報を基に、ユー ザ Bに関わる情報を通信端末 201の情報保存部 103より抽出する。そして、通信端 末 201は、通信端末 202に対して、データ伝送チャネルを介して、抽出した画像の再 生能力情報の確認要求を送信する (ステップ S 1204)。
[0152] ここで、再生能力情報として、静止画像の再生能力に含まれる解像度情報を用いる 場合を例として、以下のステップを説明する。
[0153] 通信端末 202は、確認要求のあった再生能力に係わる情報を抽出し、通信端末 2 01に対して、再生能力情報を送信する (ステップ S1205)。
[0154] 通信端末 201は、取得した通信端末 202に関わる再生能力情報を参照し、被検索 情報である静止画像を、通信端末 202が再生可能な形式に、必要に応じて変換処 理し、通信端末 202に対して、データ伝送チャネルを介して送信する(ステップ S120 6)。
[0155] この時、通信端末 201及び通信端末 202においては、被検索情報である静止画像 が共に表示される。
[0156] 図 13は、実施の形態 4の通信端末 1300の構成を示すブロック図である。なお、図 13において、図 1と同一構成である部分には同一の符号を付して、その説明は省略 する。通信端末 1300は、ステップ S1206で実行される画像変換処理を行うための画 像変換部 1308を具備している。
[0157] ここで、通信端末 202にて再生可能な形式に変換について説明する。
[0158] 具体的には、通信端末 201は、 CIF(Common Interface Format)形式で記憶してい る画像データが抽出された場合に、通信相手の通信端末 202の画像再生能力につ いて確認を行った結果、通信端末 202は、 QCIF(Quarter CIF)形式までの再生能力 を有していたとする。この場合、通信端末 201が記憶している CIF形式では、通信端 末 202が再生できないので、通信端末 201は、通信端末 202が再生可能な QCIF形 式のデータに変換して、通信相手端末 202に送信する (ステップ S1206)。
[0159] なお、この場合、通信端末 201においても、通信相手に合わせて、 QCIF形式の画 像として表示を行うが、元の保存形式である CIF形式の画像データとして表示しても 良い。
[0160] このように、本実施の形態 4によれば、通信端末 201は、通信相手である通信端末 202から取得する通信相手情報をキー情報として、通信端末 201内の保存情報を検 索して表示するとともに、通信端末 201と通信端末 202にて情報を共有するので、コ ミュ-ケーシヨンをより活性化させるように支援することができるとともに、操作を簡単 にして、情報機器の操作に不慣れな年配者等でも、簡単にいろいろな映像情報を表 示しながら通話ができ、温かみのあるコミュニケーションを促進させることができる。
[0161] なお、上記説明では、静止画の再生能力情報として、解像度を用いた例を示した 力 解像度でなくても良ぐ表示色など再生能力に関する情報であれば良い。
[0162] なお、上記説明では、再生能力情報として、静止画像の再生能力情報についての 例を示したが、動画像に関する情報でも良い。
[0163] 又、再生能力情報は、画像に関する再生能力情報でなくても良ぐ音に関する再生 能力情報や、 XML(Extensible Markup Language)などの構造化データに関する再生 能力情報であっても良い。 [0164] 又、上記説明では、通信相手の再生能力情報に応じて保存情報を変換する例を 説明したが、端末間の通信状態に応じて変換しても良い。例えば、データ伝送用の 伝送容量が大きく取れない場合には、データサイズが小さくなるように変換して送信 する。例えば、ビデオデータを JPEGの静止画像としてデータ圧縮して送信しても良 い。
[0165] 又、保存情報の検索処理にお!、て、通信相手の再生能力情報を検索条件として用 いて、検索を行うようにしても良い。
[0166] (実施の形態 5)
実施の形態 5では、図 1に示す通信端末において、通信相手から受信する画像情 報又は音声情報を認識処理することにより、通信相手に関わる情報を得て、その認 識情報を受信した画像情報又は音声情報と関連付けて保存する通信方法について
、図 14、 15を用いて説明する。
[0167] 即ち、図 14においては、通信端末 201と通信端末 202とが通信し、通信端末 201 力 通信端末 202から画像情報又は音声情報を含む情報を保存する際、通信相手 力 受信する画像情報又は音声情報を認識処理することにより、通信相手に関わる 特徴を取得し、取得した通信相手に関わる情報を受信した画像情報又は音声情報と 関連付けて保存する例として説明する。
[0168] 先ず、ステップ S1401において、通信端末 201は、実施の形態 1と同様に、テレビ 電話での通話中に、通信相手の画像を表示する。
[0169] 次に、通信端末 201は、ステップ S 1402において、通信相手から受信する画像情 報又は音声情報を記録するための記録指示の検出を行う。
[0170] 記録指示の検出とは、例えば、ソフトウェアキーやノヽードゥエアキ一の押下などによ る、ユーザからの記録を指示するキー操作の検出である。
[0171] ステップ 1402において、受信する画像情報又は音声情報の保存指示を検出する と、通信端末 201は、ステップ S1403において、通信相手から受信する画像情報又 は音声情報の認識処理を行 ヽ、通信相手に関わる情報を得る。
[0172] 次に、通信端末 201は、ステップ S 1404において、通信相手から受信する画像情 報又は音声情報と、ステップ S1403での認識処理により取得した特徴情報に基づく 通信相手に関わる通信相手情報 (属性情報)とを関連付けて、情報保存部 103内に 保存する。
[0173] 通信端末 201の情報保存部 103内には、画像情報とその画像情報に関係する人 物の特徴情報とを合わせて記憶している。又、人物の特徴情報には、音声に関する 特徴情報を含んで ヽるものとする。
[0174] 次に、ステップ S1403における認識処理に関して、受信する映像を認識して、通信 相手の人物に関わる情報を得る例を説明する。
[0175] 通信端末 201は、情報保存部 103に複数のユーザを識別する識別情報と、その識 別情報にそれぞれ対応する人物の特徴情報を関係付けて記憶している。例えば、ュ 一ザ情報であるアドレス帳の電話番号と対応付けて、各ユーザの顔画像の特徴情報 や声の特徴を記憶して 、る。
[0176] 通信端末 201による映像の認識処理は、ビデオチャネルを介して受信する映像情 報を解析して得る人物の特徴情報と、情報保存部 103が記憶するユーザ情報に含ま れる各ユーザの特徴情報とを比較することにより、通信相手の人物を一意に特定す る認識処理を行う。
[0177] このように、本実施の形態 5によれば、通信相手から受信する画像情報又は音声情 報を認識処理することにより、通信相手に関わる特徴を取得し、取得した通信相手に 関わる情報を受信した画像情報又は音声情報と関連付けて保存するので、通信相 手に関わる情報を参照して受信情報を検索することができ、検索する情報量が多く ても、意図する情報を容易に抽出することができる。
[0178] なお、本実施の形態 5では、画像認識として人物に関わる情報を画像認識により抽 出する例を示した力 これに限らず、風景に関わる情報を抽出するようにしても良い。
[0179] 例えば、通信相手の通信端末から受信する画像情報を画像認識するに際し、風景 として特徴となる情報、例えば建造物に関する情報を抽出して、受信画像情報と合わ せて、その特徴情報を保存する。この場合、保存情報の検索の際に、保存する特徴 情報を利用して、保存する情報を検索することが可能となる。例えば、通信相手から の映像情報である風景情報を画像認識により得る特徴情報と、情報保存部に記憶す る風景に関する特徴情報とを比較することにより、より関係が深いと判断する情報を 提示することが可能となる。また、建造物の特徴情報を検索条件として、関係が深い 特徴情報を有する保存情報を検索することができる。
[0180] なお、通信端末 100は、ポインティングデバイスにて、表示する相手映像画面の位 置を指定することにより、指し示す部分の画像情報を優先して、画像認識するよう〖こ しても良い。
[0181] このように構成することにより、認識する対象を指定して画像認識することが可能と なる。例えば、複数の人物や、人物と建造物の両方が映像として表示されているなら ば、いずれかをポインティングデバイスにより指し示すことにより、優先する認識対象 を指定することが可能となり、受信した画像情報の保存に際し、合わせて記憶する特 徴情報を指定することが可能となる。
[0182] なお、ポインティングデバイスで指定する相手映像の位置に応じた映像対象に関係 付けられる属性情報を、通信相手より取得して、合わせて保存するようにしても良い。 このように構成することで、ポインティングデバイスで指し示す対象に関係付けられる 属性情報を検索条件として、保存情報の検索に利用することができる。
[0183] 次に、通信相手の音声を認識することで、通信相手先情報を取得し、取得したキー 情報に基づき、保存した情報を検索する例を、図 15を参照して、説明する。
[0184] この場合も、通信端末 201は、情報保存部 103に複数のユーザを識別する識別情 報と、その識別情報にそれぞれ対応する人物像に関する特徴情報とを関係付けて記 憶している。例えば、ユーザ情報であるアドレス帳の電話番号と対応付けて、各ユー ザの声の特徴情報を記憶して 1、る。
[0185] 通信端末 201による音声の認識処理は、オーディオチャネルを介して受信する音 情報のうち、音声情報を分離し、その分離した音声情報を解析して得られる人物の 声の特徴情報と、情報保存部 103内に記憶するユーザ情報に含まれる各ユーザの 声の特徴情報とを比較することにより、通信相手の人物を一意に特定する認識処理 を行う。
[0186] 具体的な流れは、以下に示す通りである。
[0187] 先ず、通信端末 201は、通信端末 202に対して、テレビ電話での接続要求を行い、 通信端末 202からの受諾応答を受信すると、 H. 223多重化を利用した 3G— 324M プロトコルにより、テレビ電話通信を行う(ステップ 1501)。
[0188] ビデオチャネルを用いて、映像の送受信を行い、出力部 107により、相手の映像を 表示する (ステップ S 1502)。また、オーディオチャネルを介して、会話を行う。
[0189] 通信端末 201の通信相手情報取得部 104は、オーディオチャネルを用いた会話に おいて、相手の音声情報を抽出し (ステップ S1503)、更に、通信相手情報取得部 1
04は、抽出された相手の音声情報の解析を行い、情報保存部 103に記憶する音声 の特徴を保存している音声データベースを参照することにより、通信相手を一意に特 定する(ステップ S 1504)。
[0190] 通信端末 201の保存情報検索部 105は、特定された通信相手情報に基づき、情 報保存部 103に記憶する保存情報を検索し、通信相手であるユーザ Bに関わる情報 を抽出する(ステップ S 1505)。
[0191] 通信端末 201の抽出情報再生部 106は、抽出されたユーザ Bに関係付けられる情 報である画像情報を出力部 107を介して表示する (ステップ S 1506)。
[0192] 勿論、これらのステップは、連続して自動的に実行される。
[0193] なお、音声認識を行うタイミングを制御するユーザインターフェースを設けても良い 。例えば、音声認識を行うタイミングを制御するために、ソフトウェアキーや Zハードウ エアキーを設けて、予め取り決めたキー押下をきつかけとして、音声認識を行う。また 、音声認識を行うタイミングは、通信中に、予め取り決めた任意のタイミングで随時行 うようにしても良い。
[0194] 音声認識を、随時行う場合、通信相手の端末にぉ 、て、対象ユーザ (端末の使用 ユーザ)が変わる場合においても、ユーザは操作なしに、速やかに通信相手となるュ 一ザを再識別することが可能となる。
[0195] なお、通信端末は、音声認識を助ける用語データベースを記憶しておくことにより、 音声認識を向上させることが可能となる。
[0196] 又、音声認識は、通信相手から受信する音声のみでなぐ自端末のユーザの音声 認識を行っても良い。
[0197] 又、認識する音情報としては、音声情報に限らず、環境音であっても良い。例えば 、環境音を認識することにより、通信相手がどんな場所にいる力、どんな状況である か等の情報を得る。例えば、室内、屋外、車での移動中等であることが区別され、そ の情報を特徴情報として合わせて保存する。また、特定の場所であること、例えば、コ ンサート会場であることや、電車に関する音が聞こえる駅であることを認識することが できる。このように構成した場合、後に行われる検索の際に、同様な状況の情報を容 易に抽出することが可能となる。
[0198] 本明細書は、 2004年 9月 9日出願の特願 2004— 262217及び 2004年 9月 16日 出願の特願 2004— 270409【こ基づく。この内容 ίますべてここ【こ含めておく。
産業上の利用可能性
[0199] 本発明は、特に、携帯電話機、携帯情報端末 (PDA: Personal Digital Assistant)、 ノート型パーソナルコンピュータ、無線 LANや有線 LANにより構築されたネットヮー ク上のパーソナルコンピュータ等の通信端末とその通信方法に用いるのに好適であ る。

Claims

請求の範囲
[1] 通信相手からキー情報を取得するキー情報取得手段と、
前記通信相手から取得した前記キー情報に基づき、メモリに格納された保存情報 を検索し、前記キー情報に関連する情報を取得する検索手段と、
前記検索手段による検索の結果得られた前記情報を表示する情報表示手段と、 を具備する通信端末。
[2] 前記情報表示手段は、前記情報をサムネイル形式にて表示する請求項 1記載の通 信端末。
[3] 前記キー情報取得手段は、前記通信相手との通信中に受信する情報から、音情報 又は画像情報を抽出し、抽出した音情報又は画像情報から前記キー情報を取得す る請求項 1記載の通信端末。
[4] ネットワークを介して受信したメール情報又はコンテンツである前記保存情報を前 記メモリに格納する情報保存処理手段を具備する請求項 1記載の通信端末。
[5] 前記キー情報を選択して前記通信相手に要求するキー情報選択手段を具備し、 前記キー情報取得手段は、前記キー情報選択手段にて要求した前記キー情報を 取得する請求項 1記載の通信端末。
[6] 画像情報を含む受信情報に関連する通信相手情報を前記通信相手から取得する 通信相手情報取得手段と、
前記通信相手から受信した前記画像情報を含む受信情報と前記通信相手情報取 得手段により取得した前記通信相手情報とを関連させて前記保存情報として前記メ モリに保存処理する情報保存処理手段と、
を具備する請求項 1記載の通信端末。
[7] 前記通信相手情報取得手段は、前記画像情報を含む受信情報の保存指示を検出 した時、前記通信相手情報を取得する請求項 6記載の通信端末。
[8] 前記通信相手情報取得手段は、ポインティングデバイスで指示された領域の画像 を認識する請求項 6記載の通信端末。
[9] 通信相手からキー情報を取得するキー情報取得手段と、
前記通信相手から取得した前記キー情報に基づき、メモリに格納された保存情報 を検索し、前記キー情報に関連する情報を取得する検索手段と、
前記検索手段による検索の結果得られた前記情報を前記通信相手に送信する情 報提示手段と、
を具備する通信端末。
[10] 前記通信相手の情報再生能力、又は、前記通信相手との通信状況に応じて、前記 検索手段による検索の結果得られた前記情報を所定の形式に変換する変換手段を 具備し、
前記情報提示手段は、前記変換手段にて変換された前記情報を前記通信相手に 送信する請求項 9記載の通信端末。
[11] 通信相手力 キー情報を取得するキー情報取得ステップと、
前記通信相手から取得した前記キー情報に基づき、メモリに格納された保存情報 を検索し、前記キー情報に関連する情報を取得する検索ステップと、
前記検索ステップによる検索の結果得られた前記情報を表示する情報表示ステツ プと、
を具備する通信方法。
[12] 前記情報表示ステップは、前記情報をサムネイル形式にて表示する請求項 11記載 の通信方法。
[13] 前記キー情報取得ステップは、前記通信相手との通信中に受信する情報から、音 情報又は画像情報を抽出し、抽出した音情報又は画像情報から前記キー情報を取 得する請求項 11記載の通信方法。
[14] ネットワークを介して受信したメール情報又はコンテンツである前記保存情報を前 記メモリに格納する情報保存処理ステップを具備する請求項 11記載の通信方法。
[15] キー情報を選択して前記通信相手に要求するキー情報選択ステップを具備し、 前記キー情報取得ステップは、前記キー情報選択ステップにて要求した前記キー 情報を取得する請求項 11記載の通信方法。
[16] 画像情報を含む受信情報に関連する通信相手情報を通信相手から取得する通信 相手情報取得ステップと、
通信相手から受信した前記画像情報を含む受信情報と前記通信相手情報取得ス テツプにより取得した前記通信相手情報とを関連させて前記保存情報として前記メモ リに保存処理する情報保存処理ステップと、
を具備する請求項 11記載の通信方法。
[17] 前記通信相手情報取得ステップは、前記画像情報を含む受信情報の保存指示を 検出した時、前記通信相手情報を取得する請求項 11記載の通信方法。
[18] 前記通信相手情報取得ステップは、ポインティングデバイスで指示された領域の画 像を認識する請求項 11記載の通信方法。
[19] 通信相手力 キー情報を取得するキー情報取得ステップと、
前記通信相手から取得した前記キー情報に基づき、メモリに格納された保存情報 を検索し、前記キー情報に関連する情報を取得する検索ステップと、
前記検索ステップによる検索の結果得られた前記情報を前記通信相手に送信する 情報提示ステップと、
を具備する通信方法。
[20] 前記通信相手の情報再生能力、又は、前記通信相手との通信状況に応じて、前記 検索ステップによる検索の結果得られた前記情報を所定の形式に変換する変換ステ ップを具備し、
前記情報提示ステップは、前記変換ステップにて変換された前記情報を前記通信 相手に送信する請求項 19記載の通信方法。
PCT/JP2005/016534 2004-09-09 2005-09-08 通信端末とその通信方法 WO2006028181A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP05782307A EP1788809A1 (en) 2004-09-09 2005-09-08 Communication terminal and communication method thereof
US11/574,848 US20080215884A1 (en) 2004-09-09 2005-09-08 Communication Terminal and Communication Method Thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004262217A JP2006080850A (ja) 2004-09-09 2004-09-09 通信端末とその通信方法
JP2004-262217 2004-09-09
JP2004-270409 2004-09-16
JP2004270409A JP2006086895A (ja) 2004-09-16 2004-09-16 通信端末とその通信方法

Publications (1)

Publication Number Publication Date
WO2006028181A1 true WO2006028181A1 (ja) 2006-03-16

Family

ID=36036462

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/016534 WO2006028181A1 (ja) 2004-09-09 2005-09-08 通信端末とその通信方法

Country Status (3)

Country Link
US (1) US20080215884A1 (ja)
EP (1) EP1788809A1 (ja)
WO (1) WO2006028181A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635426A (zh) * 2014-11-28 2016-06-01 东莞宇龙通信科技有限公司 一种信息提示方法及终端
JP2019164598A (ja) * 2018-03-20 2019-09-26 パイオニア株式会社 情報検索装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5245406B2 (ja) * 2005-05-27 2013-07-24 日本電気株式会社 画像表示システム、端末装置、画像表示方法およびプログラム
US8856331B2 (en) * 2005-11-23 2014-10-07 Qualcomm Incorporated Apparatus and methods of distributing content and receiving selected content based on user personalization information
KR101364044B1 (ko) * 2007-04-13 2014-02-17 삼성전자주식회사 이동통신 단말기 및 그의 호에 따른 영상 표시 방법
WO2014094614A1 (zh) * 2012-12-20 2014-06-26 北京联想软件有限公司 信息处理方法和信息处理设备
KR102099400B1 (ko) * 2013-06-20 2020-04-09 삼성전자주식회사 휴대 단말기에서 이미지를 표시하는 장치 및 방법
CN105306657B (zh) * 2014-06-20 2019-07-26 中兴通讯股份有限公司 身份识别方法、装置及通讯终端

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02246588A (ja) * 1989-03-20 1990-10-02 Dainippon Printing Co Ltd 情報ファイルシステム及び個人情報ファイルカード
JPH0497684A (ja) * 1990-08-16 1992-03-30 Oki Electric Ind Co Ltd 画像伝送装置
JPH09149156A (ja) * 1995-11-21 1997-06-06 Matsushita Electric Ind Co Ltd 電話装置
JPH09297532A (ja) * 1996-05-08 1997-11-18 Nippon Telegr & Teleph Corp <Ntt> 端末装置
JP2000308033A (ja) * 1999-04-19 2000-11-02 Sharp Corp テレビ電話補助装置およびテレビ電話システム
JP2002271507A (ja) * 2001-03-08 2002-09-20 Matsushita Electric Ind Co Ltd テレビ電話端末を用いた広告提供方法及び該広告提供方法に用いるテレビ電話端末、並びにプログラムを格納した媒体
JP2003158729A (ja) * 2001-11-22 2003-05-30 Mitsubishi Electric Corp テレビ電話装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027544A (ja) * 2000-07-04 2002-01-25 Fujitsu Ltd データ蓄積システム
US7409382B2 (en) * 2000-12-08 2008-08-05 Fujitsu Limited Information processing system, terminal device, method and medium
JP3987025B2 (ja) * 2002-12-12 2007-10-03 シャープ株式会社 マルチメディアデータ処理装置およびマルチメディアデータ処理プログラム
US20080201576A1 (en) * 2003-08-29 2008-08-21 Yoshiko Kitagawa Information Processing Server And Information Processing Method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02246588A (ja) * 1989-03-20 1990-10-02 Dainippon Printing Co Ltd 情報ファイルシステム及び個人情報ファイルカード
JPH0497684A (ja) * 1990-08-16 1992-03-30 Oki Electric Ind Co Ltd 画像伝送装置
JPH09149156A (ja) * 1995-11-21 1997-06-06 Matsushita Electric Ind Co Ltd 電話装置
JPH09297532A (ja) * 1996-05-08 1997-11-18 Nippon Telegr & Teleph Corp <Ntt> 端末装置
JP2000308033A (ja) * 1999-04-19 2000-11-02 Sharp Corp テレビ電話補助装置およびテレビ電話システム
JP2002271507A (ja) * 2001-03-08 2002-09-20 Matsushita Electric Ind Co Ltd テレビ電話端末を用いた広告提供方法及び該広告提供方法に用いるテレビ電話端末、並びにプログラムを格納した媒体
JP2003158729A (ja) * 2001-11-22 2003-05-30 Mitsubishi Electric Corp テレビ電話装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635426A (zh) * 2014-11-28 2016-06-01 东莞宇龙通信科技有限公司 一种信息提示方法及终端
JP2019164598A (ja) * 2018-03-20 2019-09-26 パイオニア株式会社 情報検索装置
JP2022179579A (ja) * 2018-03-20 2022-12-02 パイオニア株式会社 情報検索装置

Also Published As

Publication number Publication date
US20080215884A1 (en) 2008-09-04
EP1788809A1 (en) 2007-05-23

Similar Documents

Publication Publication Date Title
AU2003264434B2 (en) Sign language interpretation system and sign language interpretation method
US8676705B1 (en) Communication device
JP5620517B2 (ja) モバイルユーザーによるマルチメディアタグ付けのためのシステム
US8649776B2 (en) Systems and methods to provide personal information assistance
WO2006028181A1 (ja) 通信端末とその通信方法
US20080147730A1 (en) Method and system for providing location-specific image information
KR101953308B1 (ko) 커뮤니케이션 정보 전송 시스템 및 방법
AU2003264435B2 (en) A videophone sign language interpretation assistance device and a sign language interpretation system using the same.
EP2892210B1 (en) Providing video telephony using broadcast receiving apparatus and SMS message
CN101015208A (zh) 通信终端及其通信方法
JP2007129692A (ja) 移動通信端末機の情報管理方法
US8494123B2 (en) On-hold visual menu from a user&#39;s communications device
JP5152045B2 (ja) 電話装置、画像表示方法及び画像表示処理プログラム
WO2008097052A1 (en) Methods for transmitting image of person, displaying image of caller and retrieving image of person, based on tag information
JP2015115844A (ja) 取次支援システム、取次支援方法、およびプログラム
US7953798B2 (en) Data sharing sequence display method and corresponding sharing device
JP5047467B2 (ja) 映像記録装置、映像記録システム、及び、映像記録方法
JP2007174281A (ja) テレビ電話システム、通信端末、中継装置
JP2006086895A (ja) 通信端末とその通信方法
JP5802116B2 (ja) データ共有機能を有した通話システム
JP2011039647A (ja) 情報提供装置および方法、端末装置および情報処理方法、並びにプログラム
US8892075B2 (en) Selective generation of conversations from individually recorded communications
WO2019082606A1 (ja) コンテンツ管理機器、コンテンツ管理システム、および、制御方法
JP2007165951A (ja) 無線端末制御システムおよび無線端末
JP5878774B2 (ja) 通話端末に関連する画像を表示装置に再生する画像再生サーバ、プログラム及び方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200580029872.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 11574848

Country of ref document: US

Ref document number: 2005782307

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005782307

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2005782307

Country of ref document: EP