WO2005022461A1 - 電子機器及び電子機器における応答情報出力方法 - Google Patents

電子機器及び電子機器における応答情報出力方法 Download PDF

Info

Publication number
WO2005022461A1
WO2005022461A1 PCT/JP2004/012863 JP2004012863W WO2005022461A1 WO 2005022461 A1 WO2005022461 A1 WO 2005022461A1 JP 2004012863 W JP2004012863 W JP 2004012863W WO 2005022461 A1 WO2005022461 A1 WO 2005022461A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
response information
electronic device
response
Prior art date
Application number
PCT/JP2004/012863
Other languages
English (en)
French (fr)
Inventor
Shin Yamada
Kaoru Morita
Makoto Nishimura
Yasuka Onishi
Takayuki Tashiro
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP04772812A priority Critical patent/EP1662437A1/en
Priority to US10/569,989 priority patent/US20070003140A1/en
Publication of WO2005022461A1 publication Critical patent/WO2005022461A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour

Definitions

  • the present invention relates to an electronic device that makes a response based on image information, an electronic device that makes a response based on image information and can simulate a virtual character, and a response information output method for the electronic device.
  • Patent Document 1 As electronic devices that communicate with a virtual character, those described in Patent Document 1 and Patent Document 2 have been proposed.
  • the virtual pet device described in Patent Document 1 responds appropriately to stimuli such as external voices and images, and analyzes the external stimuli to determine the stimulus input person. The response is made according to the discriminator and the degree of recognition.
  • the user recognition growth system described in Patent Document 2 is a variety of robot devices for toys, games, consumer products, industrial use, navigation devices, vending machines, automatic reception devices, etc. Applies to interactive machines, compares user information recognized with stored user information, calculates user recognition, and action selected according to calculated user recognition , Or the method of action selection.
  • Patent Document 1 whether or not an external voice or image input person is a registrant, and the degree of recognition in the case of a registrant (Natsuki) Response). Therefore, the person other than the registrant cannot perform the communication with the virtual character or is limited to the simple one if possible, and the owner has little fun to use with the friend. In addition, the response tends to be uniform because it does not respond to the input voice or image itself.
  • Patent Document 1 International Publication No. 0 0/5 3 2 8 1 Pamphlet
  • Patent Document 2 Japanese Patent Laid-Open No. 2 0 0 1-5 1 9 70
  • the present invention has been made in view of the above circumstances, and is an electronic device capable of simulating a virtual character, and a person other than the user can communicate with the virtual character.
  • the purpose is to provide an electronic device and a response information output method that can be enjoyed even if the user uses it with other people.
  • An electronic device performs a response based on image information, and includes an image input means for inputting image information, and a registration dictionary storage for storing a registration dictionary including user face image data or facial feature data.
  • the registration dictionary includes partial area image data or feature data for each facial part, and the response information generating means is a degree of similarity between the image information for each facial part extracted from the input image information and the registration dictionary It generates response information based on. According to the present invention, since the response information corresponding to the image information for each part of the face extracted from the input image information is generated, a variety of responses can be made to the input image.
  • the electronic device of the present invention further includes character simulation means for simulating a virtual character, and the character simulation means generates simulated response information simulating the behavior of the character based on the response information,
  • the output means performs output based on the simulated response information. According to the present invention, a response simulating a virtual character is performed, so that communication with the character can be enjoyed.
  • the response information generation unit compares the registration dictionary with the input image information to determine whether the input image information indicates the user image, and Includes information that generates different response information depending on the judgment result.
  • a person other than the user can also communicate with the virtual character. You can play a case and enjoy it even if you use it with other people.
  • the electronic device may be configured such that when the user's face image data or facial feature data included in the registration dictionary is determined that the input image information indicates the user's image, Including those that are updated based on the input image information. According to the present invention, when the user uses, the registration dictionary is updated in consideration of the latest face image data, so that a more accurate response can be performed.
  • the electronic device of the present invention is configured such that the response information includes the input image and the partial region image data for each part of the face of the user. Or, it includes information on facial parts that have low similarity to feature data. According to the present invention, since a response is made to the user for a different part of the usual face, the user can enjoy the response.
  • the response information when the input image information is not determined to indicate the user's image, the response information includes partial area image data or feature data for each facial part of the input image. Including partial area image data for each facial part included in the registration dictionary or information including information related to a facial part with high similarity of feature data. According to the present invention, it is possible to respond to a partly similar person and part of the image input other than the user, so that it can be enjoyed even when used with other people. Can do. By storing image data or feature data of the user or other people around the user as a registered dictionary, you can enjoy further responses.
  • the registration dictionary includes image data or feature data downloaded from a data providing server via a network.
  • face images of a large number of people including talents, celebrities, etc. can be easily stored as a registered dictionary.
  • the electronic device includes an electronic device in which the response information generating unit generates the response information using information downloaded from a data providing server via a network. According to the present invention, it is possible to appropriately select a response information generation algorithm, and it is possible to enjoy a response that is more varied.
  • the electronic device according to the present invention includes an electronic device in which the downloaded response information can be updated. According to the present invention, the response information generation algorithm can be changed periodically or at the request of the user, and a variety of responses can be enjoyed.
  • the image input unit includes an image photographing unit.
  • image information can be input easily. For example, when a face enters the field of view of an image capturing device such as a camera, automatically input the captured image and output a response according to the input image information, so that multiple users can enjoy together be able to.
  • the output unit includes an image display unit. According to the present invention, a response can be output easily.
  • the response information output method of the present invention is a response information output method in an electronic device that makes a response based on image information, and includes an image input step for inputting image information, and facial image data or facial feature data of a user Response information is generated using a registration dictionary storage step for storing a registration dictionary, the input image information input in the image input step, and a registration dictionary including user face image data or feature data.
  • the registration dictionary includes partial region image data or feature data for each part of the face,
  • the response information generation step generates response information based on the similarity between the image information for each part of the face extracted from the input image information and the registration dictionary. It is.
  • the electronic device includes character simulation means for simulating a virtual character, and the character simulation means performs character behavior based on the response information generated in the response information generation step.
  • the character simulation means performs character behavior based on the response information generated in the response information generation step.
  • the response information generation step compares the registered dictionary with the input image information, and the input image information indicates an image of the user. It is determined whether or not the response information is different, and different response information is generated according to the determination result.
  • the response information output method of the present invention when it is determined that the input image information indicates the user's image, the user's face image data or facial feature data included in the registration dictionary Is updated based on the input image information.
  • the program of the present invention is a program for executing each step in the above-described response information output method using a computer.
  • a non-user person can communicate with the virtual character, and an electronic device and a response information output that can be enjoyed even if the user can use it with another person.
  • a method can be provided.
  • FIG. 1 is a diagram showing a schematic configuration of a camera-equipped mobile phone according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of user face information items registered in the user face information database of the camera-equipped mobile phone according to the embodiment of the present invention.
  • FIG. 3 is a diagram showing a configuration example of an arbitrary face information data base of the camera-equipped mobile phone according to the embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of items stored in the person attribute table of the camera-equipped mobile phone according to the embodiment of the present invention.
  • FIG. 5 is a diagram showing a schematic operation flow in the case of performing a response according to input image information in the camera-equipped cellular phone according to the embodiment of the present invention.
  • FIG. 6 is a diagram showing a display example of the display unit when performing a response according to input image information in the camera-equipped mobile phone according to the embodiment of the present invention.
  • FIG. 7 is a diagram showing an example of information stored in the response database of the camera-equipped mobile phone according to the embodiment of the present invention.
  • 1 is a control unit
  • 2 is a ROM
  • 3 is a RAM
  • 4 is a nonvolatile memory
  • 5 is an imaging unit
  • 6 is a display unit
  • 7 is an operation unit
  • 10 is an internal bus
  • 21 is an antenna
  • 30 is an audio processing unit
  • 31 is a microphone
  • 32 is a speaker
  • 100 is a mobile phone with a camera.
  • the applied electronic device is a camera-equipped mobile phone, but the application target is not limited to a camera-equipped mobile phone.
  • FIG. 1 is a diagram showing a schematic configuration of a camera-equipped cellular phone that is an electronic apparatus according to an embodiment of the present invention.
  • 1 includes a control unit 1, ROM 2, RAM 3, non-volatile memory 4, imaging unit 5, display unit 6, operation unit 7, internal bus 10 and communication unit 2 0. , Antenna 2 1, sound processing unit 30, microphone 3 1, and speaker 3 2.
  • the control unit 1 controls the overall operation of the mobile phone 100 and is mainly composed of a processor (not shown) that executes a predetermined program.
  • the control unit 1 controls the exchange of data and commands via the internal bus 10 between the elements of the mobile phone 100. Further, as will be described in detail later, the control unit 1 has a function of generating response information using input image information and the dictionary image data stored in the nonvolatile memory 4. Furthermore, the control unit 1 has a function of simulating a virtual character. When outputting an image simulating the behavior of the character, it is output via the display unit 6, and when outputting a sound simulating the behavior of the character, it is output via the voice processing unit 30 and the speaker 32.
  • the ROM 2 stores programs executed by the processor constituting the control unit 1 and various data used by the mobile phone 100.
  • RAM 3 is a memory that temporarily stores data, and is also used as work memory when executing various processes by the control unit 1.
  • the non-volatile memory 4 is composed of, for example, an EEPROM, stores a registration dictionary and response information template, which will be described later, and is also used for various data files when the user uses the camera-equipped mobile phone 100.
  • the imaging unit 5 includes an optical system such as a lens, an imaging device, an image processing unit (all not shown), and the like, and outputs digital image data based on a captured image signal.
  • the imaging unit 5 is the same as that provided in a conventional camera-equipped mobile phone, and the operation in the normal imaging mode is also the same.
  • the through image in the shooting mode is displayed on the display unit 6.
  • the shutter button of the operation unit 7 is operated, digital image data based on the image signal at that time is temporarily stored in the RAM 3, and the operation unit If save is supported from 7, it is stored in non-volatile memory 4. Since camera-equipped mobile phones that perform such photographing operations are well known, detailed description thereof will be omitted.
  • the imaging unit 5 is also used as an image input means for inputting image information in a game mode in which a response based on image information described later is performed. In this mode, it is often operated while looking at the display screen of the display unit 6. Therefore, the lens of the imaging unit 5 is preferably directed to the display surface side of the display unit 6. Provide multiple imaging units 5, one of which is for shooting on the display surface side of the display unit 6, or the shooting direction of the imaging unit 5 is variable, and the display surface side of the display unit 6 is set as the shooting direction in the game mode Can be realized.
  • the display unit 6 displays various types of information of the cellular phone 100, and includes a liquid crystal display panel that performs display and a display control circuit (none of which is shown) that drives the liquid crystal display panel.
  • the operation unit 7 is used for a user to input commands and data for operating the cellular phone 100, and includes a numeric keypad for inputting a telephone number and various data, various function keys, and the like. These keys have different functions depending on the operation mode, and also have a function of a shutter button and a zoom button in a normal shooting mode, and a function of a shooting image input instruction key in a game mode to be described later. It is also used for data input to communicate with a virtual character simulated by the control unit 1.
  • the communication unit 20 connected to the antenna 21 performs wireless communication with the outside, transmits transmission data on a carrier wave and transmits from the antenna 21, and demodulates reception data received by the antenna 21. To do.
  • the demodulated data is audio data, it is sent to the audio processing unit 30.
  • it is controlled by the control unit 1. It is sent to the control unit 1, RAM 3, nonvolatile memory 4, etc. via the internal bus 10.
  • the transmission data is input directly from the audio processing unit 30 or from other elements via the internal path 10.
  • the audio processing unit 30 converts the audio signal input from the microphone 31 into digital data, outputs it as transmission data to the communication unit 20, and receives data (audio data) output from the communication unit 20. Is converted to an analog audio signal and output to the speaker 32.
  • the digital data based on the audio signal from the microphone 31 is sent to the control unit 1 and the like via the internal bus 10, and the digital data input via the buttocks path 10 is converted into an audio signal, and the speaker 3 Output to 2 is also possible.
  • This cellular phone 100 has not only a voice call but also a camera function using the imaging unit 5, a data communication function using the communication unit 20, and a game function. These functions can be selectively operated by operating predetermined keys on the operation unit 7. Since the voice call function, camera function, and data communication function are the same as the conventional ones, explanations are omitted.
  • the game function includes a function to enjoy a response based on the input image information.
  • an output simulating the action of a virtual character is performed. Since the registration information stored in advance in the nonvolatile memory 4 is used for generating the response information, the registration dictionary will be described first.
  • the registration dictionary includes a user face information database and an optional face information database.
  • the user face information database stores user face information of the cellular phone device 100, and includes partial area image data for each part of the user's face or feature data for each face part.
  • Figure 2 shows examples of user face information items registered in the user face information database. The data registered in these items is generated by analyzing the user's face image input in advance. Use the vertex coordinates for eyes, nose, mouth, ears, eyebrows, etc., multiple point coordinates on the outline for outlines, and data that distinguishes the hair area and other areas by binary values for hairstyle It can be used as human face information.
  • the element layout data includes typical elements such as eyes, nose, and mouth. Register relative position data.
  • the user face information may be a reduced image instead of the vertex coordinates.
  • an image obtained by cutting out and reducing an image around the eyes so as to include the eyes may be used as the user face information.
  • the user indicates one or more persons who have previously registered facial image data or facial feature data as users. Registration of facial image data or facial feature data is performed by inputting user facial image data captured by the imaging unit 5 and analyzing it by the control unit 1. It is preferable to use a plurality of face image data as the data to be registered. Therefore, as described later, an analysis result of image data determined to be a user when using the game function may be used. When using multiple face image data, the average value of them may be used, or the distribution may be registered.
  • the optional face information database stores optional face information.
  • Figure 3 shows an example of the configuration of the arbitrary face information database. Any person can be registered in the optional face information database. For example, a face image of a user's acquaintance or a celebrity face image such as a talent may be used. It may also contain user face images.
  • the optional face information database may be created using face image data of the user photographed by the imaging unit 5, or may be created using face image data downloaded from a data providing server (not shown). . Also, the optional face information database itself may be downloaded. In the case of downloading, it is assumed that the cellular phone 100 can be connected to the data providing server via the network.
  • a non-volatile memory 4 is provided with a person attribute table that stores attribute data of the person in association with the person ID.
  • Figure 4 shows an example of items stored in the person attribute table.
  • the data of the person attribute table can be used to generate response information based on input image information described later.
  • the data of the person attribute table is stored together with the registration of the optional face information database.
  • a response database described later may be stored in association with the person ID. In this case, it is preferable to download the response database when providing the optional face information database to be registered.
  • FIG. 5 is a diagram showing a schematic operation flow when a response is made according to input image information.
  • the operation of FIG. 5 is controlled by the program of the control unit 1.
  • the face image is taken using the image pickup unit 5 and the taken image information is input (step S 5 0 2).
  • the control unit 1 of the cellular phone 100 has a function of simulating a virtual character, an image as shown in FIGS. 6 (a) and 6 (b) is displayed on the display unit 6. It prompts the user to operate.
  • FIGS. 6 (a) and 6 (b) is displayed on the display unit 6. It prompts the user to operate.
  • the character simulated by the control unit 1 is a cat, and before setting the game mode, an image of sleeping or playing freely is displayed as shown in Fig. 6 (a). .
  • the game mode is set in step S 5 0 1
  • a question is asked facing the front as shown in FIG. 6 (b).
  • the imaging unit 5 can shoot, and the through image from the imaging unit 5 is displayed on the display unit 6.
  • the imaging unit 5 performs imaging, and the obtained image information is input and stored in the RAM 3.
  • the character simulated by the control unit 1 may be a model of a real creature such as a cat, a model of an imaginary creature, or a model of an inanimate object such as a robot. Since a technique for displaying an image simulating such a character is well known in various game devices, a description thereof will be omitted. In addition, messages from characters may be displayed not only by characters but also by voice. Of course, the character data may be simply displayed to prompt the input of the image without using the character simulation technique.
  • the image information for each part of the face is extracted from the input image information (step S500) and compared with the user face information in the user face information database (step S500). 4) It is determined whether or not the input image information indicates a user (step S500).
  • Various methods can be used as the judgment method. The degree of similarity and the degree of similarity of the arrangement of the main elements can be obtained, and their scores (weighting determined as appropriate) can be used.
  • the user face information database is updated as necessary in step S 5 06. This update process can be skipped and may be performed only when the similarity is high.
  • step S500 response information is generated.
  • the response information here is obtained by comparing the image information for each part of the face extracted from the input image information with the user face information in the user face information database, and according to the comparison result. is there.
  • Response information corresponding to the comparison result can be generated using information stored in the response database as shown in FIG.
  • the response information stored in the response database if information on the part of the face where the similarity between the input image information and the user face information is low is used, the difference from the usual face can be pointed out and you can enjoy the response .
  • the response database is stored in advance in a non-volatile memory.
  • Information downloaded from the data providing server may be used as the data stored in the response database.
  • the response information generated in step S 5 07 is output as image data to the display unit 6 (step S 5 0 8).
  • Figure 6 (c) shows an example. This example is a response example when the input image information is determined to indicate the user, but the hairstyle similarity is particularly low.
  • the response information based on the input image information may be output not only using an image simulating a virtual character, but also output audio information. If the cellular phone 100 does not have a function of simulating a virtual character, it may be simply displayed as text information on the display unit 6, or may be output as audio to the speaker 32.
  • step S 5 0 9 After the response information is output, it is determined whether or not to continue the game (step S 5 0 9). If the game is to be continued, the process returns to step S 5 0 2 and image information is input. If it is determined in step S500 that the input image information does not indicate a user, the image information for each part of the face extracted from the input image information is stored in the arbitrary face information database. Compare with information (step S 5 1 0). In step S500, response information corresponding to the comparison result is generated. The response information in this case is generated by selecting arbitrary face information having a high similarity as a result of comparison and using information related to the part and the person.
  • a person ID table corresponding to the arbitrary face information is used to refer to a person attribute table as shown in FIG. Get attribute.
  • response information is generated using information on the facial part and the person attribute. For example, if the extracted arbitrary face information is included in the eye image database and is the eye image data of the talent A, a response sentence “the eye looks like A” is generated. Also, when the similarity between the user's multiple user face information is high, a response sentence such as “Mr. X (user name) is very similar. .
  • a template for generating a response sentence is prepared in advance in the response database. It is also possible to prepare a dialect response database and generate dialect response sentences. A response database that mimics the tone of talent and comic characters may also be prepared.
  • the information of the shooting date and time is held as an attribute of the person corresponding to the optional face information, and “Your eyes are similar to Talent A, which is 0 years ago,” or “You may make a response like “It ’s similar.”
  • the present invention can be used for an electronic device that makes a response based on image information, an electronic device that makes a response based on image information and can simulate a virtual character.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本発明の課題は、仮想的なキャラクタの模擬が可能な電子機器であって、利用者以外の人もその仮想的なキャラクタとコミュニケーションを行うことができ、利用者が他の人と一緒に使っても楽しめるような電子機器を提供することである。撮像部(5)を介して入力した入力画像情報を、不揮発性メモリ(4)の登録辞書に記憶される利用者の顔画像データまたは顔の特徴データと比較し、応答情報を生成する。登録辞書は、顔の部位毎の部分領域画像データまたは特徴データを含み、応答情報は、入力画像情報から抽出した顔の部位毎の画像情報と登録辞書との類似度に基づいて生成される。応答情報は、仮想的なキャラクタの行動を模擬した情報として表示部(6)に出力される。画像情報の入力、登録辞書との比較、応答情報の生成、及び応答情報の出力は、制御部(1)によって制御される。

Description

明 細 書 電子機器及び電子機器における応答情報出力方法 <技術分野 >
本発明は、 画像情報に基づく応答を行う電子機器、 画像情報に基づく応答を行 うとともに仮想的なキャラクタの模擬が可能な電子機器、 及び電子機器の応答情 報出力方法に関する。 <背景技術 >
仮想的なキャラクタとの間でコミュニケーションを行う電子機器としては、 特 許文献 1及ぴ特許文献 2に記載されたものが提案されている。
特許文献 1に記載された仮想ぺット装置は、 外部からの音声や画像等の刺激に 対して適切な応答をするものであって、 外部からの刺激を解析して刺激の入力者 を判別し、 判別者及ぴその認識度に応じた応答を行うものである。 また、 特許文 献 2に記載されたユーザ認識度成長システムは、 玩具用、 ゲーム用、 民生用、 産 業用等のロボット装置、 ナビゲーシヨン用、 自動販売機用、 自動受付装置用等の 各種対話型のマシンに適用されるものであって、 認識されたユーザ情報と記憶さ れたユーザ情報とを比較してユーザ認識度を演算し、 演算されたユーザ認識度に 応じて選択される行動、 又は行動の選択方法を補正するものである。
すなわち、 特許文献 1及び特許文献 2に記載されたものは、 いずれも、 外部か らの音声や画像の入力者が、 登録者であるかどうか、 及び登録者である場合の認 識度 (なつき度) によって応答を行うものである。 したがって、 登録者以外の者 は、 仮想的なキャラクタとコミユエケーシヨンを行うことができないか、 できた としても簡単なものに限られ、所有者が友達と一緒に使う楽しみが小さい。また、 入力した音声や画像そのものに対する応答を行うものでないので、 応答が画一的 なものになりがちである。
(特許文献 1〉 国際公開第 0 0 / 5 3 2 8 1号パンフレット
(特許文献 2 ) 特開 2 0 0 1 - 5 1 9 7 0号公報 本発明は、 上記事情に鑑みなされたもので、 仮想的なキャラクタの模擬が可能 な電子機器であって、 利用者以外の人もその仮想的なキャラクタとコミュニケ一 シヨンを行うことができ、 利用者が他の人と一緒に使っても楽しめるような電子 機器及び応答情報出力方法を提供することを目的とする。 また、 入力画像に対し て変化に富んだ応答を行うことができる電子機器及び応答情報出力方法を提供す ることを目的とする。
<発明の開示 >
本発明の電子機器は、 画像情報に基づく応答を行うものであって、 画像情報を 入力する画像入力手段と、 利用者の顔画像データ又は顔の特徴データを含む登録 辞書を記憶する登録辞書記憶手段と、 前記画像入力手段によつて入力された入力 画像情報と前記登録辞書とを利用して、応答情報を生成する応答情報生成手段と、 前記応答情報に基づく出力を行う出力手段とを備え、 前記登録辞書は、 顔の部位 毎の部分領域画像データ又は特徴データを含み、 前記応答情報生成手段は、 前記 入力画像情報から抽出した顔の部位毎の画像情報と前記登録辞書との類似度に基 づいた応答情報を生成するものである。 本発明によれば、 入力画像情報から抽出 した顔を部位毎の画像情報に応じた応答情報を生成するので、 入力画像に対して 変化に富んだ応答を行うことができる。
本発明の電子機器は、 さらに、 仮想的なキャラクタを模擬するキャラクタ模擬 手段を備え、 前記キャラクタ模擬手段は、 前記応答情報に基づいてキャラクタの 行動を模擬した模擬応答情報を生成するものであり、 前記出力手段は、 前記模擬 応答情報に基づく出力を行うものである。 本発明によれば、 仮想的なキャラクタ を模擬した応答を行うので、 キャラクタとのコミュニケーションを楽しむことが できる。
本発明の電子機器は、 前記応答情報生成手段が、 前記登録辞書と前記入力画像 情報とを比較して、 前記入力画像情報が前記利用者の画像を示すものであるかど うかを判断し、 その判断結果に応じて異なる応答情報を生成するものであるもの を含む。 本発明によれば、 利用者以外の人もその仮想的なキャラクタとコミュ二 ケーシヨンを行うことができ、 利用者が他の人と一緒に使っても楽しむことがで さる。
本発明の電子機器は、 前記登録辞書に含まれる前記利用者の顔画像データ又は 顔の特徴データが、 前記入力画像情報が前記利用者の画像を示すものであると判 断された場合に、その入力画像情報に基づいて更新されるものであるものを含む。 本発明によれば、 利用者が使用する場合には、 最新の顔画像データを考慮して登 録辞書を更新するので、 より適確な応答を行うことができる。
本発明の電子機器は、 前記入力画像情報が前記利用者の画像を示すものと判断 される場合に、 前記応答情報が、 前記入力画像と前記利用者の前記顔の部位毎の 部分領域画像データ又は特徴データとの類似度が低い顔の部位に関する情報を含 むものを含む。 本発明によれば、 利用者に対して、 いつもの顔を異なる部分につ いての応答がされるので、 応答を楽しむことができる。
本発明の電子機器は、 前記入力画像情報が前記利用者の画像を示すものと判断 されない場合に、 前記応答情報が、 前記入力画像の顔の部位毎の部分領域画像デ ータ又は特徴データと前記登録辞書に含まれる顔の部位毎の部分領域画像データ 又は特徴データの類似度が高い顔の部位に関連する情報を含むものを含む。 本発 明によれば、 利用者以外の画像入力に対しては、 部分的に類似する人物及びその 部位に関係する応答を行うことができるので、 他の人と一緒に使っても楽しむこ とができる。 利用者や利用者の周囲の人以外の人の画像データ又は特徴データを 登録辞書として記憶させておくと、 さらに応答を楽しむことができる。
本発明の電子機器は、 前記登録辞書が、 ネットワークを介してデータ提供サー バからダウンロードした画像データ又は特徴データを含むものを含む。 本発明に よれば、 タレント、 著名人等を含む多数の人の顔画像を、 登録辞書として手軽に 記憶させることができる。
本発明の電子機器は、 前記応答情報生成手段が、 ネットワークを介してデータ 提供サーバからダウンロードした情報を利用して前記応答情報を生成するもので あるものを含む。 本発明によれば、 応答情報の生成アルゴリズムを適宜選択可能 となり、 さらに変化に富んだ応答を楽しむことができる。 本発明の電子機器は、 前記ダウンロードした応答情報が、 更新可能であるもの を含む。 本発明によれば、 定期的にあるいは、 利用者の希望により応答情報の生 成アルゴリズムを変更することができ、 さらに変化に富んだ応答を楽しむことが できる。
本発明の電子機器は、 前記画像入力手段が、 画像撮影手段を含むものを含む。 本発明によれば、 手軽に画像情報を入力することができる。 例えば、 カメラ等の 画像撮影手段の視野に顔が入ると、 自動的に撮影した画像を入力し、 入力画像情 報に応じた応答を出力するようにすると、 さらに複数の利用者が一緒に楽しむこ とができる。
本発明の電子機器は、 前記出力手段が、 画像表示手段を含むものを含む。 本発 明によれば、 応答を手軽に出力することができる。
本発明の応答情報出力方法は、 画像情報に基づく応答を行う電子機器における 応答情報出力方法であって、 画像情報を入力する画像入力ステップと、 利用者の 顔画像データ又は顔の特徴データを含む登録辞書を記憶する登録辞書記憶ステッ プと、 前記画像入力ステップで入力された入力画像情報と、 利用者の顔画像デー タ又は特徴データを含む登録辞書とを利用して、 応答情報を生成する応答情報生 成ステップと、 前記応答情報生成ステップで生成した応答情報に基づく出力を行 う出力ステップとを備え、 前記登録辞書は、 顔の部位毎の部分領域画像データ又 は特徴データを含み、 前記応答情報生成ステップは、 前記入力画像情報から抽出 した顔の部位毎の画像情報と前記登録辞書との類似度に基づいた応答情報を生成 するものである。
本発明の応答情報出力方法は、 前記電子機器が、 仮想的なキャラクタを模擬す るキャラクタ模擬手段を備え、 前記キャラクタ模擬手段によって、 前記応答情報 生成ステツプで生成した応答情報に基づいてキャラクタの行動を模擬した模擬応 答情報を生成する模擬応答情報生成ステップを含み、 前記出力手段が、 前記模擬 応答情報に基づく出力を行うものであるものを含む。
本発明の応答情報出力方法は、 前記応答情報生成ステップが、 前記登録辞書と 前記入力画像情報とを比較して、 前記入力画像情報が前記利用者の画像を示すも のであるかどうかを判断し、 その判断結果に応じて異なる応答情報を生成するも のであるものを含む。
本発明の応答情報出力方法は、 前記入力画像情報が前記利用者の画像を示すも のであると判断された場合に、 前記登録辞書に含まれる前記利用者の顔画像デー タ又は顔の特徴データを、その入力画像情報に基づいて更新するステップを含む。 本発明のプログラムは、 上記した応答情報出力方法における各ステップをコン ピュータを用いて実行するためのプログラムである。
本発明によれば、 利用者以外の人もその仮想的なキャラクタとコミュニケーシ ョンを行うことができ、 利用者が他の人と一緒に使っても楽しめるような電子機 器及び応答情報出力方法を提供することができる。 また、 入力画像に対して変化 に富んだ応答を行うことができる電子機器及び応答情報出力方法を提供すること ができる。 ぐ図面の簡単な説明 >
図 1は、 本発明の実施の形態のカメラ付き携帯電話機の概略構成を示す図であ る。
図 2は、 本発明の実施の形態のカメラ付き携帯電話機の利用者顔情報データべ ースに登録される利用者顔情報の項目例を示す図である。
図 3は、 本発明の実施の形態のカメラ付き携帯電話機の任意顔情報データべ一 スの構成例を示す図である。
図 4は、 本発明の実施の形態のカメラ付き携帯電話機の人物属性テーブルに記 憶される項目の一例を示す図である。
図 5は、 本発明の実施の形態のカメラ付き携帯電話機において、 入力画像情報 に応じた応答を行う場合の概略動作フローを示す図である。
図 6は、 本発明の実施の形態のカメラ付き携帯電話機において、 入力画像情報 に応じた応答を行う場合の表示部の表示例を示す図である。
図 7は、 本発明の実施の形態のカメラ付き携帯電話機の応答データベースに記 憶される情報の一例を示す図である。 なお、図中の符号 1は制御部、 2は R OM、 3は R AM、 4は不揮発性メモリ、 5は撮像部、 6は表示部、 7は操作部、 1 0は内部バス、 2 0は通信部、 2 1は アンテナ、 3 0は音声処理部、 3 1はマイクロホン、 3 2はスピーカ、 1 0 0は カメラ付き携帯電話機である。
<発明を実施するための最良の形態 >
以下、 本発明の実施の形態について、 図面を用いて説明する。 この実施の形態 では、 適用する電子機器がカメラ付き携帯電話機であるが、 適用対象はカメラ付 き携帯電話機に限らない。
図 1は、 本発明の実施の形態の電子機器であるカメラ付き携帯電話機の概略構 成を示す図である。図 1のカメラ付き携帯電話機 1 0 0は、制御部 1、 R OM 2、 R AM 3、 不揮発性メモリ 4、 撮像部 5、 表示部 6、 操作部 7、 内部バス 1 0、 通信部 2 0、 アンテナ 2 1、 音声処理部 3 0、 マイクロホン 3 1、 スピーカ 3 2 を含む。
制御部 1は、 携帯電話機 1 0 0全体の動作を制御するものであり、 所定のプロ グラムを実行するプロセッサ (図示せず) を主体に構成される。 制御部 1は、 携 帯電話機 1 0 0の各要素相互間の内部バス 1 0を介したデータや命令の授受の制 御を行う。 また、 制御部 1は、 詳細は後述するように、 入力画像情報と不揮発性 メモリ 4に記憶された前記辞書画像データとを利用して応答情報を生成する機能 を有する。 さらに、 制御部 1は、 仮想的なキャラクタを模擬する機能を有する。 キャラクタの行動を模擬した画像を出力する場合は、 表示部 6を介して出力し、 キャラクタの行動を模擬した音声を出力する場合は、 音声処理部 3 0、 スピーカ 3 2を介して出力する。
R OM 2は、 制御部 1を構成するプロセッサによって実行されるプログラムや 携帯電話機 1 0 0で利用する各種データを記憶する。 R AM 3は、 データを一時 的に記憶するメモリであり、 制御部 1による各種処理を実行する際のワークメモ リとしても利用される。 不揮発性メモリ 4は、 例えば E E P R OMで構成され、 後述する登録辞書、 応答情報テンプレートを記憶するとともに、 利用者がカメラ 付き携帯電話機 1 0 0を利用する際の各種データファイル用としても利用される。 撮像部 5は、 レンズ等の光学系、 撮像素子、 画像処理部 (いずれも図示せず) 等を含み、 撮影画像信号に基づくデジタル画像データを出力するものである。 撮 像部 5は、 従来からのカメラ付き携帯電話機に設けられるものと同様のものであ り、 通常の撮影モード時の動作も同様である。 すなわち、 撮影モード時のスルー 画像は表示部 6に表示され、 操作部 7のシャッターボタンを操作すると、 その時 の撮影画像信号に基づくデジタル画像データが R AM 3に一時的に保持され、 操 作部 7から保存を支持すると、 不揮発性メモリ 4に記憶される。 なお、 このよう な撮影動作を行うカメラ付き携帯電話機は周知であるので、 詳細な説明は省略す る。
撮像部 5は、 後述する画像情報に基づく応答を行うゲームモード時に、 画像情 報を入力する画像入力手段としても利用される。 このモード時には、 表示部 6の 表示画面を見ながら操作する場合が多いので、 撮像部 5のレンズは、 表示部 6の 表示面側に向けられているのが好ましい。 撮像部 5を複数設け、 そのうちの 1つ を表示部 6の表示面側撮影用としたり、 撮像部 5の撮影方向を可変とし、 ゲーム モード時に表示部 6の表示面側を撮影方向とすることにより、 実現できる。
表示部 6は、 携帯電話機 1 0 0の各種情報を表示するもので、 表示を行う液晶 表示パネルとこの液晶表示パネルを駆動する表示制御回路 (いずれも図示せず) とから構成される。
操作部 7は、 利用者が携帯電話機 1 0 0を操作するための指令やデータの入力 するためのものであり、 電話番号や各種データを入力するためのテンキー、 各種 のファンクションキー等を含む。 これらのキーは、 動作モードによって異なる機 能を有し、 通常の撮影モード時のシャッターポタンやズームポタンの機能、 後述 するゲームモード時の撮影画像入力指示キーの機能も有する。 また、 制御部 1に よって模擬される仮想的なキャラクタとのコミュニケーションを行うためのデー タ入力にも利用される。
アンテナ 2 1と接続された通信部 2 0は、 外部との無線通信を行うもので、 送 信データを搬送波に乗せてアンテナ 2 1から送信し、 またアンテナ 2 1で受信し た受信データを復調するものである。復調したデータが音声データである場合は、 音声処理部 3 0に送られ、その他のデータである場合は、制御部 1の制御により、 内部バス 1 0を介して制御部 1、 R AM 3、 不揮発性メモリ 4等に送られる。 ま た、 送信データは、 音声処理部 3 0から直接又は他の要素から内部パス 1 0を介 して入力される。
音声処理部 3 0は、 マイクロホン 3 1から入力された音声信号をデジタルデー タに変換し、 送信データとして通信部 2 0へ出力するとともに、 通信部 2 0から 出力された受信データ (音声データ) をアナログ音声信号に変換し、 スピーカ 3 2へ出力するものである。 また、 マイクロホン 3 1からの音声信号に基づくデジ タルデータを、 内部バス 1 0を介して制御部 1等に送るとともに、 內部パス 1 0 介して入力されるデジタルデータを音声信号に変換し、 スピーカ 3 2に出力する ことも可能である。
次に、 図 1のカメラ付き携帯電話機 1 0 0の動作について説明する。 この携帯 電話機 1 0 0は、 音声による通話を行うだけでなく、 撮像部 5を利用するカメラ 機能、 通信部 2 0を利用するデータ通信機能、 ゲーム機能を有する。 これらの機 能は、 操作部 7の所定のキーを操作することにより、 選択的に動作可能である。 なお、 音声通話機能、 カメラ機能、 データ通信機能は、 従来のものと同様である ので、 説明を省略する。
ゲーム機能として、入力した画像情報に基づく応答を楽しむ機能を含んでおり、 応答を行うに際して、 仮想的なキャラクタの行動を模擬した出力を行う。 応答情 報の生成には、 予め不揮発性メモリ 4に記憶された登録辞書を利用するので、 ま ず、 登録辞書について説明する。
登録辞書は、 利用者顔情報データベースと、 任意顔情報データベースを含む。 利用者顔情報データベースは、 携帯電話装置 1 0 0の利用者の顔情報を記憶する もので、 利用者の顔の部位毎の部分領域画像データまたは顔の部位毎の特徴デー タを含む。 図 2に、 利用者顔情報データベースに登録される利用者顔情報の項目 例を示す。 これらの項目に登録されるデータは、 予め入力された利用者の顔画像 を分析することによって生成される。 目、 鼻、 口、 耳、 眉等についてはそれらの 頂点座標を、 輪郭については輪郭線上の複数の点座標と、 髪型については髪領域 とそれ以外の領域を 2値で区別したデータを、 利用者顔情報として利用すること が可能である。 また、 要素配置デ タとしては、 目、 鼻、 口等の代表的な要素の 相対位置データを登録する。 なお、 目、 鼻、 口、 耳、 眉等については、 頂点座標 ではなく、 縮小した画像を利用者顔情報にしてもよい。 例えば目であれば、 目を 含むように目周辺の画像を切出して縮小した画像を利用者顔情報としてもよい。 なお、 ここで利用者は、 予め顔画像デ タまたは顔の特徴データを利用者とし て登録した 1又は複数の人物を示すものである。 顔画像データまたは顔の特徴デ ータの登録は、 撮像部 5によって撮影した利用者の顔画像データを入力し、 制御 部 1によって分析することによって行う。 登録するデータには、 複数の顔画像デ ータを利用することが好ましい。 したがって、 後述するように、 ゲーム機能利用 時に利用者であると判断された画像データの分析結果を利用してもよい。 複数の 顔画像データを利用する場合、 それらの平均値を利用してもよいし、 分布を登録 してもよい。
任意顔情報データベースは、 任意顔情報を記憶するものであり、 任意顔情報は
1又は複数の人物の顔の部位毎の画像データまたは特徴データを含むものである。 図 3に任意顔情報データベースの構成例を示す。 任意顔情報データベースに登録 する人物は、 任意である。 例えば、 利用者の知人の顔画像でもよいし、 タレント 等の著名人の顔画像でもよい。 また、 利用者の顔画像を含んでいてもよい。 任意 顔情報データベースは、 撮像部 5によって撮影した利用者の顔画像データを利用 して作成してもよいし、 図示しないデータ提供サーバからダウンロードした顔画 像データを利用して作成してもよい。 また、 任意顔情報データベース自体をダウ ンロードしてもよい。 ダウンロードする場合は、 携帯電話機 1 0 0がネットヮー クを介してデータ提供サーバに接続可能としておく。
任意顔情報データベースに登録されるそれぞれの任意顔情報は、 それぞれ人物 I Dと対応付けて記憶され、 その任意顔情報の元画像が示す人物を特定できるよ うになつている。 また、 人物 I Dと対応付けてその人物の属性データを記憶する 人物属性テーブルが不揮発性メモリ 4に設けられる。 図 4に、 人物属性テーブル に記憶される項目の一例を示す。 人物属性テーブルのデータは、 後述する入力画 像情報に基づく応答情報の生成に利用することができる。 なお、 人物属性テープ ルのデータは、 任意顔情報データベースの登録時に合わせて記憶させる。 登録す る顔画像データをデータ提供サーバからダウンロードする場合は、 合わせて人物 属性データもダウンロードするのが好ましい。また、データ提供サーバにおいて、 後述する応答データベースを人物 I Dに対応付けて記憶しておいてもよい。 この 場合は、 登録する任意顔情報データベースをデータ提供するときに応答データべ ースもダウンロードするのが好ましい。
続いて、 ゲームモード時に、 入力した画像情報に応じた応答を行う場合の動作 について説明する。 図 5は、 入力画像情報に応じた応答を行う場合の概略動作フ ローを示す図である。図 5の動作は、制御部 1のプログラムによって制御される。 ステップ S 5 0 1で携帯電話機 1 0 0をゲームモードに設定したあと、 撮像部 5を利用して顔画像を撮影し、 撮影画像情報を入力する (ステップ S 5 0 2 ) 。 携帯電話機 1 0 0の制御部 1が、 仮想的なキャラクタを模擬する機能を有する場 合、 図 6 ( a ) 及び図 6 ( b ) に示すような画像を表示部 6に表示することによ つて、 利用者の操作を促す。 図 6の例では、 制御部 1が模擬するキャラクタが猫 であり、 ゲームモードに設定する前は、 図 6 ( a ) に示すように、 寝ていたり、 勝手に遊んでいる画像が表示される。 そして、 ステップ S 5 0 1でゲームモード に設定されると、 図 6 ( b ) に示すように正面を向いて質問する。 この状態で、 撮像部 5が撮影可能となり、 表示部 6には撮像部 5からのスルー画像が表示され る。 その後、 操作部 7のシャッターポタンを操作することによって、 撮像部 5が 撮影を行い、 得られた画像情報が入力され、 R AM 3に記憶される。
なお、 制御部 1によって模擬されるキャラクタは、 猫などの現実の生物を模擬 したものでも、 想像上の生物を模擬したものでも、 ロボット等の無生物を模擬し たものでもよい。 このようなキャラクタを模擬した画像を表示する技術は、 各種 ゲーム装置において周知であるので説明を省略する。 また、 キャラクタからのメ ッセージを文字によって表示するだけでなく、 音声によって主力させてもよい。 もちろん、 キャラクタの模擬技術を利用することなく、 単に、 文字データを表示 させて画像の入力を促してもよい。
画像情報が入力されると、入力画像情報から顔の部位毎の画像情報を抽出し(ス テツプ S 5 0 3 ) 、 利用者顔情報データベースの利用者顔情報と比較し (ステツ プ S 5 0 4 ) 、 入力画像情報が利用者を示すものかどうかを判断する (ステップ S 5 0 5 ) 。 判断方法は各種方法が採用できるが、 一例として、 顔の部位毎の類 似度と主要要素の配置の類似度を求め、 それらのスコア (重み付けは適宜定めて おく。 ) を利用することができる。
入力画像情報が利用者を示すものである場合には、 ステップ S 5 0 6で、 利用 者顔情報データベースを必要に応じて更新する。 この更新処理はスキップするこ とも可能であり、 類似度が高い場合にのみ行ってもよい。
ステップ S 5 0 7では、 応答情報の生成を行う。 ここでの応答情報は、 入力画 像情報から抽出した顔の部位毎の画像情報と、 利用者顔情報データベースの利用 者顔情報とを個別に比較し、 その比較結果に応じて得られるものである。 比較結 果に応じた応答情報は、 図 7に示されるような応答データベースに記憶される情 報を利用して生成することができる。応答データベースに記憶される応答情報は、 入力画像情報と利用者顔情報との類似度が低い顔の部位に関する情報を利用する と、 いつもの顔との違いが指摘され、 応答を楽しむことができる。
なお、 応答データベースは、 予め不揮発性メモリに記憶させておく。 応答デー タベースに記憶させるデータは、 データ提供サーバからダウンロードした情報を 利用してもよい。 また、 データ提供サーバが提供する情報が定期的に変更される 場合、 さらに変化に富んだ応答を楽しむことができる。
ステップ S 5 0 7で生成された応答情報は、 表示部 6に画像データとして出力 される (ステップ S 5 0 8 ) 。 図 6 ( c ) にその一例を示す。 この例は、 入力画 像情報が利用者を示すものと判断されたが、 髪型の類似度が特に低い場合の応答 例である。 なお、 入力画像情報に基づく応答情報の出力は、 仮想的なキャラクタ を模擬した画像を利用して出力するだけでなく、 音声情報を合わせて出力しても よい。 また、 携帯電話機 1 0 0が仮想的なキャラクタを模擬する機能を有しない 場合は、 表示部 6に単にテキスト情報として表示してもよいし、 スピーカ 3 2に 音声出力してもよい。 さらに、 顔の部位に関する情報を生成するときにその顔の 撮影日や撮影場所の情報を保存しておいて、 「3ヶ月前の顔に似ているね」 とい うような応答をさせてもよい。
応答情報の出力後、 さらにゲームを継続するかどうかを判断し (ステップ S 5 0 9 ) 、 継続する場合は、 ステップ S 5 0 2に戻って画像情報を入力する。 ステップ S 5 0 5で、 入力画像情報が利用者を示すものでないと判断された場 合は、 入力画像情報から抽出された顔の部位毎の画像情報を、 それぞれ任意顔情 報データベースの任意顔情報と比較する (ステップ S 5 1 0 ) 。 そして、 ステツ プ S 5 0 7で、 比較結果に応じた応答情報を生成する。 この場合の応答情報は、 比較の結果、 類似度が高い任意顔情報を選択し、 その部位及び人物に関連する情 報を利用して生成する。
具体的には、 入力画像と類似度が高い任意顔情報が抽出されると、 その任意顔 情報に対応する人物 I Dを利用して図 4に示すような人物属性テーブルを参照し、 その人物の属性を取得する。 そして、 顔の部位に関する情報と人物属性を利用し て応答情報を生成する。 例えば、 抽出した任意顔情報が目画像データベースに含 まれるもので、 タレント Aの目画像データであるとすると、 「目が Aに似ている ね」 という応答文を生成する。 また、 利用者の複数の利用者顔情報との類似度が 高い場合は、 「Xさん (利用者の名前) とよく似ているね。 ひょっとして親戚?」 というような応答文を生成する。 応答文生成のためのテンプレートは、 応答デー タベースに予め用意しておく。 なお、 方言の応答データベースを用意しておき、 方言の応答文を生成させてもよい。 また、 タレントや漫画のキャラクタの口調を まねた応答データベースを用意しておいてもよい。
また、 任意顔情報に対応する人物の属性として、 撮影日時の情報を保持してお いて、 「目が〇年前のタレント Aに似ているね」 とか、 「口が〇年前のお母さん に似ているね」 というような応答をさせてもよい。
本発明を詳細にまた特定の実施態様を参照して説明したが、 本発明の精神と範 囲を逸脱することなく様々な変更や修正を加えることができることは当業者にと つて明らかである。
本出願は、 2003年 9月 1 S出願の日本特許出願 No.2003- 308617に基づくもので あり、 その内容はここに参照として取り込まれる。 く産業上の利用可能性 >
本発明は、 画像情報に基づく応答を行う電子機器、 画像情報に基づく応答を行 うとともに仮想的なキャラクタの模擬が可能な電子機器等に利用可能である。

Claims

請 求 の 範 囲
1 . 画像情報に基づく応答を行う電子機器であって、
画像情報を入力する画像入力手段と、
利用者の顔画像データ又は顔の特徴データを含む登録辞書を記憶する登録辞書 記憶手段と、
前記画像入力手段によつて入力された入力画像情報と前記登録辞書とを利用し て、 応答情報を生成する応答情報生成手段と、
前記応答情報に基づく出力を行う出力手段とを備え、
前記登録辞書は、 顔の部位毎の部分領域画像データ又は特徴データを含み、 前記応答情報生成手段は、 前記入力画像情報から抽出した顔の部位毎の画像情 報と前記登録辞書との類似度に基づいた応答情報を生成するものである電子機器。
2 . 請求の範囲第 1項に記載の電子機器であって、
仮想的なキャラクタを模擬するキャラクタ模擬手段を備え、
前記キャラクタ模擬手段は、 前記応答情報に基づいてキヤラクタの行動を模擬 した模擬応答情報を生成するものであり、
前記出力手段は、 前記模擬応答情報に基づく出力を行うものである電子機器。
3 . 請求の範囲第 1項又は第 2項に記載の電子機器であって、
前記応答情報生成手段は、 前記登録辞書と前記入力画像情報とを比較して、 前 記入力画像情報が前記利用者の画像を示すものであるかどうかを判断し、 その判 断結果に応じて異なる応答情報を生成するものである電子機器。
4 . 請求の範囲第 3項に記載の電子機器であって、
前記登録辞書に含まれる前記利用者の顔画像データ又は顔の特徴データは、 前 記入力画像情報が前記利用者の画像を示すものであると判断された場合、 その入 力画像情報に基づいて更新される電子機器。
5 . 請求の範囲第 3項又は第 4項に記載の電子機器であって、 前記入力画像情報が前記利用者の画像を示すものと判断される場合、 前記応答 情報は、 前記入力画像と前記利用者の前記顔の部位毎の部分領域画像データ又は 特徴データとの類似度が低い顔の部位に関する情報を含む電子機器。
6 . 請求の範囲第 3項ないし第 5項のいずれか 1項に記載の電子機器であ つて、
前記入力画像情報が前記利用者の画像を示すものと判断されない場合、 前記応 答情報は、 前記入力画像の顔の部位毎の部分領域画像データ又は特徴データと前 記登録辞書に含まれる顔の部位毎の部分領域画像データ又は特徴データの類似度 が高い顔の部位に関連する情報を含む電子機器。
7 . 請求の範囲第 1項ないし第 6項のいずれか 1項に記載の電子機器であ つて、
前記登録辞書は、 ネットワークを介してデータ提供サーバからダウンロードし た画像データ又は特徴データを含む電子機器。
8 . 請求の範囲第 1項ないし第 7項のいずれか 1項に記載の電子機器であ つて、
前記応答情報生成手段は、 ネットワークを介してデータ提供サーバからダウン ロードした情報を利用して前記応答情報を生成するものである電子機器。
9. 請求の範囲第 8項に記載の電子機器であって、
前記ダウンロードした応答情報は、 更新可能である電子機器。
1 0 . 請求の範囲第 1項ないし第 9項のいずれか 1項に記載の電子機器で あって、
前記画像入力手段は、 画像撮影手段を含む電子機器。
1 1 . 請求の範囲第 1項ないし第 1 0項のいずれか 1項に記載の電子機器 であって、
前記出力手段は、 画像表示手段を含む電子機器。
1 2 . 画像情報に基づく応答を行う電子機器における応答情報出力方法で あって、
画像情報を入力する画像入力ステップと、
利用者の顔画像データ又は顔の特徴データを含む登録辞書を記憶する登録辞書 記憶ステップと、
前記画像入力ステップで入力された入力画像情報と、 利用者の顔画像データ又 は特徴データを含む登録辞書とを利用して、 応答情報を生成する応答情報生成ス テツプと、
前記応答情報生成ステップで生成した応答情報に基づく出力を行う出カステツ プとを備え、
前記登録辞書は、 顔の部位毎の部分領域画像データ又は特徴データを含み、 前記応答情報生成ステップは、 前記入力画像情報から抽出した顔の部位毎の画 像情報と前記登録辞書との類似度に基づいた応答情報を生成するものである応答 情報出力方法。
1 3 . 請求の範囲第 1 2項に記載の応答情報出力方法であって、
前記電子機器は、 仮想的なキャラクタを模擬するキャラクタ模擬手段を備え、 前記キャラクタ模擬手段によって、 前記応答情報生成ステップで生成した応答 情報に基づいてキャラクタの行動を模擬した模擬応答情報を生成する模擬応答情 報生成ステップを含み、
前記出力手段は、 前記模擬応答情報に基づく出力を行うものである応答情報出 力方法。
1 4. 請求の範囲第 1 2項又は第 1 3項に記載の応答情報出力方法であつ て、 前記応答情報生成ステップは、前記登録辞書と前記入力画像情報とを比較して、 前記入力画像情報が前記利用者の画像を示すものであるかどうかを判断し、 その 判断結果に応じて異なる応答情報を生成するものである応答情報出力方法。
1 5 . .請求の範囲第 1 4項に記載の応答情報出力方法であって、
前記入力画像情報が前記利用者の画像を示すものであると判断された場合、 前 記登録辞書に含まれる前記利用者の顔画像データ又は顔の特徴データを、 その入 力画像情報に基づいて更新するステップを含む応答情報出力方法。
1 6 . 請求の範囲第 1 2項ないし第 1 5項のいずれか 1項に記載の各ステ ップをコンピュータを用いて実行するためのプログラム。
PCT/JP2004/012863 2003-09-01 2004-08-30 電子機器及び電子機器における応答情報出力方法 WO2005022461A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04772812A EP1662437A1 (en) 2003-09-01 2004-08-30 Electronic device and method for outputting response information in electronic device
US10/569,989 US20070003140A1 (en) 2003-09-01 2004-08-30 Electronic device and method for outputting response information in electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-308617 2003-09-01
JP2003308617A JP2005078413A (ja) 2003-09-01 2003-09-01 電子機器及び電子機器における応答情報出力方法

Publications (1)

Publication Number Publication Date
WO2005022461A1 true WO2005022461A1 (ja) 2005-03-10

Family

ID=34269520

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/012863 WO2005022461A1 (ja) 2003-09-01 2004-08-30 電子機器及び電子機器における応答情報出力方法

Country Status (5)

Country Link
US (1) US20070003140A1 (ja)
EP (1) EP1662437A1 (ja)
JP (1) JP2005078413A (ja)
CN (1) CN1846227A (ja)
WO (1) WO2005022461A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4544026B2 (ja) * 2005-05-11 2010-09-15 オムロン株式会社 撮像装置、携帯端末
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8300953B2 (en) * 2008-06-05 2012-10-30 Apple Inc. Categorization of digital media based on media characteristics
JP2010134910A (ja) * 2008-11-07 2010-06-17 Fujifilm Corp ペット画像検出システムおよびその動作制御方法
JP5956860B2 (ja) * 2012-07-09 2016-07-27 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
WO2017043132A1 (ja) 2015-09-08 2017-03-16 日本電気株式会社 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム
JP6433928B2 (ja) * 2016-02-15 2018-12-05 株式会社東芝 検索装置、検索方法および検索システム
JP7435908B2 (ja) 2021-04-09 2024-02-21 日本電気株式会社 認証システム、処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173092A (ja) * 1997-08-28 1999-03-16 Omron Corp 仮想ペット飼育装置、方法及びプログラム記録媒体
JP2000137818A (ja) * 1998-11-04 2000-05-16 Ntt Data Corp パターン認識方式
JP2001057641A (ja) * 1999-08-17 2001-02-27 Nec Corp 画像入力装置とその制御方法、画像表示装置、画像表示方法、及びプログラム供給媒体
JP2003058888A (ja) * 2001-08-15 2003-02-28 Secom Co Ltd 個人照合装置
JP2003271934A (ja) * 2002-03-18 2003-09-26 Toshiba Corp 顔画像認識システム及び顔画像認識方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266151A (ja) * 2000-03-17 2001-09-28 Toshiba Corp 個人識別装置および個人識別方法
JP4314016B2 (ja) * 2002-11-01 2009-08-12 株式会社東芝 人物認識装置および通行制御装置
JP2004178163A (ja) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd 画像処理方法及びその装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173092A (ja) * 1997-08-28 1999-03-16 Omron Corp 仮想ペット飼育装置、方法及びプログラム記録媒体
JP2000137818A (ja) * 1998-11-04 2000-05-16 Ntt Data Corp パターン認識方式
JP2001057641A (ja) * 1999-08-17 2001-02-27 Nec Corp 画像入力装置とその制御方法、画像表示装置、画像表示方法、及びプログラム供給媒体
JP2003058888A (ja) * 2001-08-15 2003-02-28 Secom Co Ltd 個人照合装置
JP2003271934A (ja) * 2002-03-18 2003-09-26 Toshiba Corp 顔画像認識システム及び顔画像認識方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SAITO K. ET AL.: "Keitai camera de "kao" o ninshiki - eyematic", SOFUTO BANKU IT MEDIA KABUSHIKI KAISHA, 20 August 2002 (2002-08-20), XP002985664, Retrieved from the Internet <URL:http://www.itmedia.co.jp/mobile/0208/20/n-eyematic.html> [retrieved on 20040924] *
SHIRANE M. ET AL.: "Omron, kao no gazo o ninshiki shite ninso uranai nado o suru service", IMPRESS KABUSHIKI KAISHA, 6 July 2001 (2001-07-06), XP002985663, Retrieved from the Internet <URL:http://k-tai.impress.co.jp/cda/article/news_toppage/5206.html> [retrieved on 20040624] *

Also Published As

Publication number Publication date
EP1662437A1 (en) 2006-05-31
US20070003140A1 (en) 2007-01-04
CN1846227A (zh) 2006-10-11
JP2005078413A (ja) 2005-03-24

Similar Documents

Publication Publication Date Title
US11605193B2 (en) Artificial intelligence-based animation character drive method and related apparatus
CN111191599B (zh) 姿态识别方法、装置、设备及存储介质
RU2293445C2 (ru) Способ и устройство для выполнения имитации воспитания в мобильном терминале
EP2355009A2 (en) Terminal and method for providing augmented reality
CN111760265A (zh) 一种操作控制的方法及装置
CN113508369A (zh) 交流支持系统、交流支持方法、交流支持程序以及图像控制程序
CN109091869A (zh) 虚拟对象的动作控制方法、装置、计算机设备及存储介质
CN111290568A (zh) 交互方法、装置及计算机设备
CN110555507B (zh) 虚拟机器人的交互方法、装置、电子设备及存储介质
CN110794964A (zh) 虚拟机器人的交互方法、装置、电子设备及存储介质
CN109819167A (zh) 一种图像处理方法、装置和移动终端
CN112669846A (zh) 交互系统、方法、装置、电子设备及存储介质
WO2005022461A1 (ja) 電子機器及び電子機器における応答情報出力方法
CN112669416B (zh) 客服服务系统、方法、装置、电子设备及存储介质
JP6796762B1 (ja) 仮想人物対話システム、映像生成方法、映像生成プログラム
CN117271749A (zh) 一种元宇宙场景非玩家角色的创建方法及计算机
JP2005078590A (ja) 顔照合システム
EP1662438A1 (en) Electronic device having user authentication function
CN115068940A (zh) 虚拟场景中虚拟对象的控制方法、计算机设备及存储介质
JP6491808B1 (ja) ゲームプログラムおよびゲーム装置
CN108525307B (zh) 游戏实现方法、装置、存储介质及电子设备
KR101068941B1 (ko) 이동 통신 단말기의 개인 캐릭터 서비스 방법 및 그 이동통신 단말기
JP6792658B2 (ja) ゲームプログラムおよびゲーム装置
JP2001209779A (ja) 仮想生物システム及び仮想生物システムにおけるパタン学習方法
JP6889192B2 (ja) ゲームプログラムおよびゲーム装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480025006.9

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004772812

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007003140

Country of ref document: US

Ref document number: 10569989

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2004772812

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2004772812

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10569989

Country of ref document: US