JP2010002941A - Information providing system - Google Patents

Information providing system Download PDF

Info

Publication number
JP2010002941A
JP2010002941A JP2006280793A JP2006280793A JP2010002941A JP 2010002941 A JP2010002941 A JP 2010002941A JP 2006280793 A JP2006280793 A JP 2006280793A JP 2006280793 A JP2006280793 A JP 2006280793A JP 2010002941 A JP2010002941 A JP 2010002941A
Authority
JP
Japan
Prior art keywords
information
character
unit
voice
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006280793A
Other languages
Japanese (ja)
Inventor
Masato Miyanouchi
誠人 宮之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FREPAR NETWORKS Inc
Somar Corp
Original Assignee
FREPAR NETWORKS Inc
Somar Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FREPAR NETWORKS Inc, Somar Corp filed Critical FREPAR NETWORKS Inc
Priority to JP2006280793A priority Critical patent/JP2010002941A/en
Priority to PCT/JP2006/325450 priority patent/WO2008044325A1/en
Publication of JP2010002941A publication Critical patent/JP2010002941A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q99/00Subject matter not provided for in other groups of this subclass

Landscapes

  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information providing system which enables a user to feel occupancy, and to communicate with insatiable and attractive characters. <P>SOLUTION: An information communication device 10 reproduces a peculiar character in accordance with user identification information, so that users' feeling of occupancy or emotions about the character can be raised. The image or voice of a character is changed in accordance with a variety of information such as the sensed result of a sensor unit 107 such as an object sensor or a wind pressure sensor set in the information communication device 10 and the tag information of merchandise read by a reader device 30, so that a character in an abundance of unexpectedness can be created. Thus, it is possible to improve the attraction of characters. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、インターネットなどのネットワークを介して情報を提供する情報提供システムに係り、例えば、ユーザの問いかけに応じてキャラクタの画像や音声に変化を与えることができる双方向型の情報提供システムに関するものである。   The present invention relates to an information providing system that provides information via a network such as the Internet. For example, the present invention relates to an interactive information providing system capable of changing a character image or voice according to a user's inquiry. It is.

近年、インターネットに代表される情報通信技術の発達によって、個人が容易に大容量のデータを送受信できるようになってきている。例えば、インターネット上でユーザの希望に応じた大容量の動画データや音楽データを配信するサービスが注目を集めており、その市場が年々拡大している。また、デジタル型のテレビジョン放送では、通常のテレビジョン放送に付帯する文字放送を通じて、放映中のプログラムの内容やアンケートなどを送信し、これに対するユーザからの応答を放送局へ返信する双方向型の通信が可能である。   In recent years, with the development of information communication technology represented by the Internet, it has become possible for individuals to easily transmit and receive large volumes of data. For example, services that deliver large-capacity moving image data and music data according to the user's wishes on the Internet are attracting attention, and the market is expanding year by year. In addition, in digital type television broadcasting, the contents of the program being broadcast and questionnaires are transmitted through the teletext broadcast attached to the normal television broadcast, and the response from the user to this is returned to the broadcasting station. Communication is possible.

しかし、このような双方向型の通信技術はまだ発展途上にあり、更なる技術革新が要望されている。デジタル型のテレビジョン放送やインターネットでは、確かにユーザの希望する情報を容易に取得できるが、このようにして情報を得る行為は、対人間のコミュニケーションに比べると意外性に乏しいため、容易に飽きられてしまうという問題がある。一方、ネットワークを介して行われる実際の人間同士のコミュニケーションでは、空想性や物語性が乏しく種々の社会的な制約に縛られやすいという問題や、無用な人間関係のトラブルに巻き込まれる可能性があるなどの問題がある。   However, such bidirectional communication technology is still in the process of development, and further technological innovation is desired. In digital television broadcasting and the Internet, it is possible to easily obtain information desired by users. However, the act of obtaining information in this way is less surprising than human communication, so it is easy to get bored easily. There is a problem that it will be. On the other hand, in actual human-to-human communication performed via a network, there is a possibility that it is easy to be bound by various social constraints due to poor fantasy and storytelling, and there is a possibility of being involved in unnecessary human relationship troubles. There are problems such as.

また近年では、ネットワーク上で不特定の参加者により行われるコンピュータ・ゲームが盛んになってきているが、このようなゲーム空間で遭遇し得る参加者のキャラクタは、あくまで他の参加者によりコントロールされるキャラクタであるため、これらのキャラクタとのコミュニケーションは、上述した人間同士の場合と同様な問題を内包している。また、ゲーム空間に現れる仮想のキャラクタといっても、通常は参加者一人で独占することはできないため、愛着や占有感を覚えにくいという問題がある。   In recent years, computer games played by unspecified participants on the network have become popular, but the characters of participants who can encounter such a game space are only controlled by other participants. Therefore, communication with these characters contains the same problems as those between humans described above. Moreover, even if it is a virtual character that appears in the game space, there is a problem that it is difficult to memorize attachment and occupancy because normally one participant cannot monopolize.

本発明はかかる事情に鑑みてなされたものであり、その目的は、占有感を覚えやすく、飽きのこない魅力的なキャラクタとのコミュニケーションを楽しむことができる情報提供システムを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an information providing system that allows the user to enjoy communication with an attractive character that is easy to remember and feels tired.

本発明に係る情報提供システムは、キャラクタの画像及び/又は音声を再生する再生部と、所定の物理的状態を感知するセンサ部と、ユーザ識別情報を記憶する記憶部とを備えた複数の情報通信装置と、前記再生部において再生するキャラクタの画像及び/又は音声に関わるキャラクタ情報を前記複数の情報通信装置それぞれに提供するサーバ装置とを備える。前記サーバ装置は、前記情報通信装置から前記ユーザ識別情報を取得すると、当該取得したユーザ識別情報に対応する固有のキャラクタであって前記センサ部の感知結果に応じて変化するキャラクタの前記キャラクタ情報を生成するキャラクタ情報生成部を有する。前記情報通信装置は、前記サーバ装置から提供される前記キャラクタ情報に基づいて、前記固有のキャラクタの画像及び/又は音声を前記再生部で再生するとともにその画像及び/又は音声を前記センサ部の感知結果に応じて変化させる制御部を有する。   An information providing system according to the present invention includes a plurality of pieces of information including a reproduction unit that reproduces an image and / or sound of a character, a sensor unit that senses a predetermined physical state, and a storage unit that stores user identification information. A communication device; and a server device that provides character information related to an image and / or sound of a character to be reproduced by the reproduction unit to each of the plurality of information communication devices. When the server device obtains the user identification information from the information communication device, the server device obtains the character information of a character that is a unique character corresponding to the obtained user identification information and changes according to a sensing result of the sensor unit. It has a character information generator for generating. The information communication device reproduces the image and / or sound of the unique character by the reproduction unit based on the character information provided from the server device and detects the image and / or sound by the sensor unit. It has a control part which changes according to a result.

好適に、前記情報通信装置は、物品の識別情報を読み取る読取部を有してもよい。前記キャラクタ情報生成部は、前記情報通信装置から前記物品識別情報を取得すると、当該取得した物品識別情報に応じて前記固有のキャラクタの前記キャラクタ情報を生成してもよい。前記情報通信装置の前記制御部は、前記サーバ装置から提供される前記物品識別情報に応じた前記キャラクタ情報に基づいて、前記再生部が再生する前記固有のキャラクタの画像及び/又は音声を変化させてもよい。
その場合、前記キャラクタ情報生成部は、前記固有のキャラクタが特定の商品の購入を勧誘し、当該勧誘の後、当該特定の商品に関わる特定の物品識別情報が前記読取部で読み取られたか否かに応じて前記固有のキャラクタの態度が変わるように前記キャラクタ情報を生成してもよい。
また、前記サーバ装置は、前記読取部において読み取られた前記物品識別情報を前記ユーザ識別情報ごとに収集する情報収集部と、前記情報収集部の収集結果に応じて、前記ユーザ識別情報ごとにユーザの行動様式を判定する判定部とを有してもよい。前記キャラクタ情報生成部は、前記判定部の判定結果に応じて前記固有のキャラクタの前記キャラクタ情報を生成してもよい。
Suitably, the said information communication apparatus may have a reading part which reads the identification information of articles | goods. When the character information generation unit acquires the item identification information from the information communication device, the character information generation unit may generate the character information of the unique character according to the acquired item identification information. The control unit of the information communication device changes the image and / or sound of the unique character reproduced by the reproduction unit based on the character information corresponding to the article identification information provided from the server device. May be.
In that case, the character information generation unit invites the specific character to solicit the purchase of a specific product, and after the solicitation, whether the specific product identification information related to the specific product has been read by the reading unit. The character information may be generated so that the attitude of the unique character changes according to the situation.
Further, the server device collects the article identification information read by the reading unit for each user identification information, and a user for each user identification information according to a collection result of the information collection unit. And a determination unit that determines the behavior style. The character information generation unit may generate the character information of the unique character according to a determination result of the determination unit.

好適に、前記サーバ装置は、前記センサ部の感知結果を前記ユーザ識別情報ごとに収集する情報収集部と、前記情報収集部の収集結果に応じて、前記ユーザ識別情報ごとにユーザの行動様式を判定する判定部とを有してもよい。前記キャラクタ情報生成部は、前記判定部の判定結果に応じて前記固有のキャラクタの前記キャラクタ情報を生成してもよい。   Preferably, the server device collects a sensing result of the sensor unit for each user identification information, and sets a user behavior for each user identification information according to a collection result of the information collection unit. You may have the determination part to determine. The character information generation unit may generate the character information of the unique character according to a determination result of the determination unit.

また、前記情報通信装置は、音声を入力する音声入力部を有してもよい。前記サーバ装置は、前記音声入力部において入力された音声の情報を取得し、当該取得した情報に基づいて当該音声を認識する音声認識部を有してもよい。前記キャラクタ情報生成部は、前記音声認識部の認識結果に応じて前記固有のキャラクタの前記キャラクタ情報を生成してもよい。   The information communication apparatus may include a voice input unit that inputs voice. The server device may include a voice recognition unit that acquires voice information input in the voice input unit and recognizes the voice based on the acquired information. The character information generation unit may generate the character information of the unique character according to a recognition result of the voice recognition unit.

また、前記情報通信装置は、無線信号を送受信する無線通信部を有してもよい。前記サーバ装置は、前記無線通信部において受信された無線信号に含まれる音声情報を取得すると、当該取得した情報に基づいて当該音声を認識する音声認識部を有してもよい。前記キャラクタ情報生成部は、前記音声認識部の認識結果に応じて前記固有のキャラクタの前記キャラクタ情報並びに音声情報を生成してもよい。前記無線通信部は、通信相手から受信した無線信号に含まれる音声情報に応じて生成された前記固有のキャラクタの音声情報を前記サーバ装置から取得すると、当該取得した音声情報を含む無線信号を当該通信相手へ送信してもよい。   The information communication apparatus may include a wireless communication unit that transmits and receives wireless signals. The server device may include a voice recognition unit that recognizes the voice based on the acquired information when the voice information included in the wireless signal received by the wireless communication unit is acquired. The character information generation unit may generate the character information and voice information of the unique character according to a recognition result of the voice recognition unit. When the wireless communication unit obtains the voice information of the unique character generated according to the voice information included in the radio signal received from the communication partner from the server device, the radio communication unit receives the radio signal including the acquired voice information. You may transmit to a communicating party.

また、好適には、前記キャラクタ情報生成部は、年、月、週又は日の少なくとも1つを単位として、前記固有のキャラクタの画像及び/又は音声が周期的に変化するように前記キャラクタ情報を生成してもよい。   Preferably, the character information generation unit sets the character information so that an image and / or sound of the unique character periodically changes in units of at least one of year, month, week or day. It may be generated.

本発明によれば、ユーザ固有のキャラクタの画像や音声をセンサ部の感知結果に応じて変化させることによって、占有感を覚えやすく、飽きのこない魅力的なキャラクタとコミュニケーションを楽しむことができる。   According to the present invention, by changing the image and sound of a user-specific character in accordance with the sensing result of the sensor unit, it is easy to remember a sense of occupancy, and enjoy communication with an attractive character that never gets tired.

図1は、本発明の実施形態に係る情報提供システムの構成の一例を示す図である。
図1に示す情報提供システムは、キャラクタの画像や音声を再生可能な情報通信装置10−1〜10−4と、サーバ装置20とを有する。
情報通信装置10−1〜10−4は、それぞれ本発明の情報通信装置の一例である。
サーバ装置20は、本発明のサーバ装置の一例である。
FIG. 1 is a diagram illustrating an example of a configuration of an information providing system according to an embodiment of the present invention.
The information providing system shown in FIG. 1 includes information communication devices 10-1 to 10-4 that can reproduce character images and sounds, and a server device 20.
Each of the information communication devices 10-1 to 10-4 is an example of the information communication device of the present invention.
The server device 20 is an example of a server device of the present invention.

[情報通信装置10]
まず、情報通信装置10−1〜10−4について説明する。ここでは、各情報通信装置を代表して「情報通信装置10」と記す。
情報通信装置10は、インターネットなどのネットワークを介してサーバ装置20にユーザ識別情報を送信し、これに応じて生成されたキャラクタ情報をサーバ装置20から取得し、取得したキャラクタ情報に基づいてユーザ固有のキャラクタの画像や音声を再生する。このキャラクタについては、例えば、別の惑星に住む住人が亜空間通信によって地球人の前に現れているといった、架空の状況が設定されている。情報通信装置10は、各種のセンサを備えており、このセンサの感知結果に応じて、別惑星の住人であるキャラクタの画像や音声に変化を与える。
[Information Communication Device 10]
First, the information communication apparatuses 10-1 to 10-4 will be described. Here, each information communication device is represented by “information communication device 10”.
The information communication device 10 transmits user identification information to the server device 20 via a network such as the Internet, acquires character information generated in response to the information from the server device 20, and is user-specific based on the acquired character information. Play the image and sound of the character. For this character, for example, a fictitious situation is set in which a resident who lives on another planet appears in front of an earthling person by subspace communication. The information communication apparatus 10 includes various sensors, and changes the image and sound of a character who is a resident of another planet according to the detection results of the sensors.

図2及び図3は、情報通信装置10の外観の一例を示す図である。
図2(A)は正面図、図2(B)は右側の側面図、図2(C)は背面図、図3(A)は上側からみた平面図、図3(B)は底面図をそれぞれ示す。
2 and 3 are diagrams showing an example of the external appearance of the information communication apparatus 10.
2A is a front view, FIG. 2B is a right side view, FIG. 2C is a rear view, FIG. 3A is a plan view seen from above, and FIG. 3B is a bottom view. Each is shown.

情報通信装置10は、直方体における1つの面を、これに接する2つの面に対して直角を保ったまま、他の2つの面に対して傾斜させた形状を有している。この斜めに傾斜した面は、情報通信装置10の正面をなしており、この正面に対して傾斜する2つの面のうち、面積の大きい方が底面、面積の小さい方が上面をなす。図3(A),(B)に示すように、正面は背面方向に向かって緩く湾曲している。また背面と上面、左側面、右側面とが接する部分は角が取られており、丸みを帯びている。   The information communication apparatus 10 has a shape in which one surface of the rectangular parallelepiped is inclined with respect to the other two surfaces while maintaining a right angle with respect to the two surfaces in contact with the rectangular parallelepiped. This obliquely inclined surface forms the front surface of the information communication apparatus 10, and of the two surfaces inclined with respect to the front surface, the larger area is the bottom surface and the smaller area is the upper surface. As shown in FIGS. 3A and 3B, the front surface is gently curved toward the back surface direction. In addition, the portion where the back surface is in contact with the upper surface, the left side surface, and the right side surface is rounded and rounded.

情報通信装置10の正面中央の上側部分には、キャラクタの立体画像を表示するための矩形のディスプレイ領域151が形成され、その正面中央の下側部分には、キャラクタやその他の情報を表示するための矩形のディスプレイ領域152が形成される。図2の例において、ディスプレイ領域151は縦方向に長く、ディスプレイ領域152は横方向に長くなっている。   A rectangular display area 151 for displaying a stereoscopic image of a character is formed in the upper part of the front center of the information communication apparatus 10, and a character and other information are displayed in the lower part of the front center. A rectangular display area 152 is formed. In the example of FIG. 2, the display area 151 is long in the vertical direction, and the display area 152 is long in the horizontal direction.

矩形のディスプレイ領域151の上側の辺と下側の辺には、キャラクタの立体画像を視覚的に際立たせるための装飾部材(153〜156)がそれぞれ形成されている。
上側の突出部154は、ディスプレイ領域151の上辺から正面に向かって底面と平行に突出する板状の形を有しており、その先端は角が取られ、半円状の丸みを帯びている。
カゴ部153は、距離を隔てて同心に配置された径の異なる2つのリング部材と、その2つのリング部材を接続する複数本のスポークとを有する。
カゴ部153における径の短い方のリング部材は、突出部154の先端部分における下側の面に嵌め込まれており、径の長い方のリング部材は、突出部154の下側の面から下方に向かって突き出している。
On the upper side and the lower side of the rectangular display area 151, decoration members (153 to 156) for visually distinguishing the stereoscopic image of the character are formed, respectively.
The upper protruding portion 154 has a plate-like shape that protrudes in parallel with the bottom surface from the upper side of the display area 151 toward the front, and the tip thereof is rounded and rounded in a semicircular shape. .
The cage portion 153 includes two ring members having different diameters arranged concentrically at a distance, and a plurality of spokes that connect the two ring members.
The ring member having a shorter diameter in the cage portion 153 is fitted into the lower surface of the tip portion of the projecting portion 154, and the ring member having a longer diameter is lowered downward from the lower surface of the projecting portion 154. Sticks out.

下側の突出部156は、ディスプレイ領域151の下辺から正面に向かって突出している。突出部156の上側は情報通信装置10の上面と底面に対して平行な面をなしており、その下側の面は半球状に丸みを帯びた曲面をなしている。
カゴ部155は、上述したかご部153と同様に、距離を隔てて同心に配置された径の異なる2つのリング部材と、その2つのリング部材を接続する複数本のスポークとを有する。
カゴ部155における径の短い方のリング部材は、突出部156の上側の面に嵌め込まれており、径の長い方のリング部材は、突出部156の上側の面から上方に向かって突き出している。
The lower protrusion 156 protrudes from the lower side of the display area 151 toward the front. The upper side of the projecting portion 156 forms a surface parallel to the upper surface and the bottom surface of the information communication apparatus 10, and the lower surface forms a hemispherically rounded curved surface.
Similar to the car portion 153 described above, the cage portion 155 includes two ring members having different diameters arranged concentrically at a distance, and a plurality of spokes that connect the two ring members.
The ring member having a shorter diameter in the cage portion 155 is fitted into the upper surface of the protruding portion 156, and the ring member having a longer diameter protrudes upward from the upper surface of the protruding portion 156. .

カゴ部153及び155の各リング部材は、上下の方向においてほぼ同心に配置されている。カゴ部153及び155によって上下を挟まれた筒状の空間は、キャラクタの立体画像が結像される領域となっている。   The ring members of the cage portions 153 and 155 are arranged substantially concentrically in the vertical direction. A cylindrical space sandwiched between the cage portions 153 and 155 is an area where a stereoscopic image of the character is formed.

情報通信装置10の背面のほぼ中央付近には、後述するリムーバブル記憶部117を着脱するための穴157が形成されている。
リムーバブル記憶部117は、例えば図2に示すように、両端が半球状に丸みを帯びた筒型のカプセルである。穴157は、情報通信装置10の背面から底面に対して斜め方向に延びており、リムーバブル記憶部117はこの穴157に挿入した状態で使用される。
A hole 157 for attaching and removing a removable storage unit 117 described later is formed in the vicinity of the center of the back surface of the information communication apparatus 10.
For example, as shown in FIG. 2, the removable storage unit 117 is a cylindrical capsule whose both ends are hemispherically rounded. The hole 157 extends obliquely from the back surface to the bottom surface of the information communication apparatus 10, and the removable storage unit 117 is used while being inserted into the hole 157.

図4は、情報通信装置10の構成の一例を示す図である。
図4に示す情報通信装置10は、キャラクタ表示部101と、情報表示部102と、増幅部103及び105と、スピーカ104と、マイクロフォン106と、センサ部107と、記憶部115と、リムーバブル記憶部117及びそのインターフェース部(I/F部)116と、ネットワーク・インターフェース部(ネットワークI/F部)118と、無線通信部119と、制御部121と、リーダ装置30及びそのインターフェース部(I/F部)120とを有する。
キャラクタ表示部101、増幅部103及びスピーカ104を含むブロックは、本発明の再生部の一例である。
センサ部107は、本発明のセンサ部の一例である。
リムーバブル記憶部117は、本発明の記憶部の一例である。
増幅部105及びマイクロフォン106を含むブロックは、本発明の音声入力部の一例である。
無線通信部119は、本発明の無線通信部の一例である。
FIG. 4 is a diagram illustrating an example of the configuration of the information communication apparatus 10.
4 includes a character display unit 101, an information display unit 102, amplification units 103 and 105, a speaker 104, a microphone 106, a sensor unit 107, a storage unit 115, and a removable storage unit. 117 and its interface unit (I / F unit) 116, network interface unit (network I / F unit) 118, wireless communication unit 119, control unit 121, reader device 30 and its interface unit (I / F) Part) 120.
The block including the character display unit 101, the amplification unit 103, and the speaker 104 is an example of the reproduction unit of the present invention.
The sensor unit 107 is an example of the sensor unit of the present invention.
The removable storage unit 117 is an example of the storage unit of the present invention.
The block including the amplification unit 105 and the microphone 106 is an example of the voice input unit of the present invention.
The wireless communication unit 119 is an example of the wireless communication unit of the present invention.

キャラクタ表示部101は、制御部121から供給される画像信号に応じて、ディスプレイ領域151の手前の領域(カゴ部153及び155によって上下を挟まれた空間)に立体画像を結像する。画像の表示方法は任意の立体画像の表示方式を用いることができる。   In accordance with the image signal supplied from the control unit 121, the character display unit 101 forms a stereoscopic image in a region in front of the display region 151 (a space sandwiched between the upper and lower portions of the basket units 153 and 155). As an image display method, an arbitrary stereoscopic image display method can be used.

情報表示部102は、例えば液晶ディスプレイパネルや有機(無機)ELパネルなどの表示デバイスを用いて構成されており、制御部121から供給される画像信号に応じてディスプレイ領域152に各種の情報を表示する。   The information display unit 102 is configured using a display device such as a liquid crystal display panel or an organic (inorganic) EL panel, for example, and displays various types of information on the display region 152 in accordance with an image signal supplied from the control unit 121. To do.

増幅部103は、制御部121から供給される音声信号を増幅してスピーカ104に供給する。スピーカ104は、増幅部103において増幅された音声信号に応じた音を発生する。   The amplifying unit 103 amplifies the audio signal supplied from the control unit 121 and supplies the amplified audio signal to the speaker 104. The speaker 104 generates a sound corresponding to the audio signal amplified by the amplification unit 103.

マイクロフォン106は、入力される音を音声信号に変換して増幅部105に出力する。増幅部105は、マイクロフォン106からの音声信号を増幅して制御部121に出力する。   The microphone 106 converts the input sound into an audio signal and outputs it to the amplification unit 105. The amplification unit 105 amplifies the audio signal from the microphone 106 and outputs it to the control unit 121.

センサ部107は、所定の物理的現象を感知して電気信号に変換し、制御部121に出力する。
センサ部107は、例えば図4に示すように、物体センサ108、風圧センサ109、光センサ110、温度センサ111を有する。
The sensor unit 107 senses a predetermined physical phenomenon, converts it into an electrical signal, and outputs it to the control unit 121.
The sensor unit 107 includes, for example, an object sensor 108, a wind pressure sensor 109, an optical sensor 110, and a temperature sensor 111 as shown in FIG.

物体センサ108は、情報通信装置10の周囲の所定領域に侵入した物体を感知する。この所定領域は、例えば、キャラクタ表示部101による立体画像の結像領域(カゴ部153及び155によって上下を挟まれた空間)に設定される。
物体センサ108における物体の感知の方式は任意であり、例えば光や静電容量の変化によって物体を感知する方式や、画像処理によって物体を感知する方式などを用いることができる。
一例を挙げると、物体センサ108は投光部と受光部のペアを有しており、投光部から所定領域に投射した光が物体で反射して受光部に入射する場合に、この所定領域へ物体が進入したことを検出する。投光部と受光部のペアを上述した突出部154と155にそれぞれ一対ずつ設ければ、立体画像が結像する領域の上側と下側においてそれぞれ独立に物体の進入を検知することも可能である。これにより、例えばユーザがキャラクタの頭部を触ろうとした場合と足元を触ろうとした場合とを区別することが可能になり、キャラクタの反応のバリエーションを増やすことができる。
The object sensor 108 detects an object that has entered a predetermined area around the information communication apparatus 10. This predetermined area is set, for example, as a stereoscopic image formation area (a space sandwiched between the upper and lower sides of the car parts 153 and 155) by the character display unit 101.
The method of sensing an object in the object sensor 108 is arbitrary. For example, a method of sensing an object by a change in light or capacitance, a method of sensing an object by image processing, or the like can be used.
For example, the object sensor 108 has a pair of a light projecting unit and a light receiving unit, and when the light projected from the light projecting unit to the predetermined region is reflected by the object and enters the light receiving unit, the predetermined region is obtained. Detect that an object has entered. If a pair of a light projecting part and a light receiving part is provided for each of the protrusions 154 and 155 described above, it is also possible to detect the entry of an object independently on the upper side and the lower side of the region where the stereoscopic image is formed. is there. Thereby, for example, it is possible to distinguish between a case where the user tries to touch the head of the character and a case where the user tries to touch the foot, and the variation of the character's reaction can be increased.

風圧センサ109は、情報通信装置10にあたる風の圧力を感知する。風圧センサ109は、例えばディスプレイ領域151の周囲に配置されており、キャラクタ表示部101によって表示されるキャラクタに向かって吹きかけられた息を感知することができる。   The wind pressure sensor 109 senses the pressure of the wind that hits the information communication apparatus 10. The wind pressure sensor 109 is disposed, for example, around the display area 151, and can sense breath blown toward the character displayed by the character display unit 101.

光センサ110は、情報通信装置10の周囲の明るさを感知する。例えば、情報通信装置10を設置した部屋の明るさが複数段階のどのレベルにあるかを検出する。   The optical sensor 110 senses the brightness around the information communication apparatus 10. For example, it detects which level the brightness of the room in which the information communication apparatus 10 is installed is at a plurality of levels.

温度センサ111は、情報通信装置10の周囲の温度を感知する。例えば、情報通信装置10を設置した部屋の温度が複数段階のどのレベルにあるかを検出する。   The temperature sensor 111 senses the temperature around the information communication apparatus 10. For example, it detects which level the temperature of the room in which the information communication apparatus 10 is installed is at a plurality of levels.

記憶部115は、制御部121の処理に利用される種々のデータや、一時的に保持する必要があるデータ、制御部121にコンピュータが含まれている場合にはそのプログラムコードなどを記憶する。記憶部115は、例えばハードディスク装置などの磁気ディスク装置や、光ディスク装置、各種の半導体メモリなどによって構成される。   The storage unit 115 stores various data used for the processing of the control unit 121, data that needs to be temporarily stored, and a program code when the computer is included in the control unit 121. The storage unit 115 includes a magnetic disk device such as a hard disk device, an optical disk device, various semiconductor memories, and the like.

リムーバブル記憶部117は、ユーザ識別情報や、固有のキャラクタに関する情報を記憶する。リムーバブル記憶部117は、例えばフラッシュメモリなどの不揮発性メモリや、その他の半導体メモリ、光ディスク装置、磁気ディスク装置などによって構成される。
リムーバブル記憶部117は、I/F部116を介して制御部121と着脱自在に接続される。リムーバブル記憶部117とI/F部116は、例えば赤外通信などの非接触の方式によって通信を行う。
The removable storage unit 117 stores user identification information and information about unique characters. The removable storage unit 117 is configured by, for example, a nonvolatile memory such as a flash memory, other semiconductor memory, an optical disk device, a magnetic disk device, or the like.
The removable storage unit 117 is detachably connected to the control unit 121 via the I / F unit 116. The removable storage unit 117 and the I / F unit 116 communicate with each other by a non-contact method such as infrared communication.

ネットワークI/F部118は、制御部121がネットワークを介してサーバ装置20と通信を行えるように、所定のプロトコルに基づいた通信処理を行う。   The network I / F unit 118 performs communication processing based on a predetermined protocol so that the control unit 121 can communicate with the server device 20 via the network.

無線通信部119は、携帯電話機40と無線通信を行う。携帯電話機40との間で送受信される通信データは、ネットワークI/F部118からネットワーク経由で他の通信端末(電話機等)に中継される。   The wireless communication unit 119 performs wireless communication with the mobile phone 40. Communication data transmitted to and received from the mobile phone 40 is relayed from the network I / F unit 118 to another communication terminal (telephone or the like) via the network.

リーダ装置30は、物品に付されたタグから物品の識別情報を読み取り、I/F部120を介して制御部121へ出力する。   The reader device 30 reads the identification information of the article from the tag attached to the article and outputs it to the control unit 121 via the I / F unit 120.

リーダ装置30は、例えば図4に示すように、読取部301とI/F部302を有する。
読取部301は、物体に付されたタグから物品識別情報を読み取る。例えば、商品のタグに付されたバーコードから、物品識別情報を光学的に読み取る。商品に取り付けられたRFID(Radio Frequency Identification)タグから、無線通信によって物品識別情報を取得してもよい。
I/F部302は、I/F部120と所定の通信方式により通信を行い、読取部301において読み取られた物品識別情報を制御部121に伝送する。I/F部302とI/F部120との通信方式は任意であり、例えば赤外通信やBluetooth(登録商標)などの近距離無線通信などを用いることが可能である。
The reader device 30 includes, for example, a reading unit 301 and an I / F unit 302 as shown in FIG.
The reading unit 301 reads article identification information from a tag attached to an object. For example, the article identification information is optically read from a barcode attached to a product tag. Article identification information may be acquired by radio communication from an RFID (Radio Frequency Identification) tag attached to the product.
The I / F unit 302 communicates with the I / F unit 120 by a predetermined communication method, and transmits the article identification information read by the reading unit 301 to the control unit 121. The communication method between the I / F unit 302 and the I / F unit 120 is arbitrary, and for example, near field communication such as infrared communication or Bluetooth (registered trademark) can be used.

図5は、リーダ装置30の外観の一例を示す図である。
図5(A)は平面図、図5(B)は斜視図、図5(C)は側面図を示す。リーダ装置30は、例えば図5に示すような円盤状の形を有しており、その中央部(丸印の部分)に物品のタグを置くと、光学的若しくは電気的な方法によってタグの物品識別情報を読み取る。
FIG. 5 is a diagram illustrating an example of the appearance of the reader device 30.
5A is a plan view, FIG. 5B is a perspective view, and FIG. 5C is a side view. The reader device 30 has, for example, a disk shape as shown in FIG. 5. When an article tag is placed at the center (circled portion), the article of the tag is optically or electrically processed. Read identification information.

制御部121は、例えば記憶部115に格納されるプログラムコードに基づいて処理を実行するコンピュータを有しており、プログラムの手順に従って情報通信装置10の全体的な動作を統括的に制御する。   The control unit 121 includes a computer that executes processing based on a program code stored in the storage unit 115, for example, and comprehensively controls the overall operation of the information communication apparatus 10 according to the procedure of the program.

例えば制御部121は、ネットワークを介してサーバ装置から提供されるキャラクタ情報に基づいて、キャラクタ表示部101にキャラクタの立体画像を表示し、スピーカ104からキャラクタの音声を出力する処理を行う。サーバ装置20から提供されるキャラクタ情報には、キャラクタの画像や音声に関わる情報のほか、キャラクタの変化に関わる情報が含まれており、これらの情報に基づいて、キャラクタの画像や音声を変化させる。例えば、センサ部107の風圧センサ109において風圧が感知されると、制御部121はキャラクタ情報に基づいて、キャラクタの洋服や髪が風で揺れるようにキャラクタの画像を変化させる。   For example, the control unit 121 performs a process of displaying a stereoscopic image of the character on the character display unit 101 and outputting the voice of the character from the speaker 104 based on the character information provided from the server device via the network. The character information provided from the server device 20 includes information related to character changes in addition to information related to character images and sounds. Based on these pieces of information, the character images and sounds are changed. . For example, when the wind pressure is detected by the wind pressure sensor 109 of the sensor unit 107, the control unit 121 changes the character image such that the character's clothes and hair are shaken by the wind based on the character information.

また制御部121は、増幅部105において入力されるマイクロフォン106からの音声信号をデジタルデータに変換してサーバ装置20の後述する音声認識部214に送信する処理や、リーダ装置30において読み取られた物品識別情報をサーバ装置20の後述するキャラクタ情報生成部211に送信する処理、無線通信部119において送受信される通信データをサーバ装置20の後述する電話網制御部215へ中継する処理などを行う。   In addition, the control unit 121 converts a voice signal from the microphone 106 input in the amplification unit 105 into digital data and transmits the digital data to a later-described voice recognition unit 214 of the server device 20, or an article read by the reader device 30. A process of transmitting the identification information to a character information generation unit 211 (to be described later) of the server apparatus 20 and a process of relaying communication data transmitted and received by the wireless communication unit 119 to a telephone network control unit 215 (to be described later) of the server apparatus 20 are performed.

[サーバ装置20]
次に、サーバ装置20について説明する。
[Server device 20]
Next, the server device 20 will be described.

図6は、サーバ装置20の構成の一例を示す図である。
図6に示すサーバ装置20は、ネットワーク・インターフェース部(ネットワークI/F部)201と、ユーザ情報記憶部202と、固有キャラクタ記憶部203と、キャラクタ要素記憶部204と、キャラクタ管理データ記憶部205と、物品管理データ記憶部206と、制御部210とを有する。
また制御部210は、キャラクタ情報生成部211と、情報収集部212と、判定部213と、音声認識部214と、電話網制御部215と、物品情報処理部216と、キャラクタ管理部217とを有する。
キャラクタ情報生成部211は、本発明のキャラクタ情報生成部の一例である。
情報収集部212は、本発明の情報収集部の一例である。
判定部213は、本発明の判定部の一例である。
音声認識部214は、本発明の音声認識部の一例である。
FIG. 6 is a diagram illustrating an example of the configuration of the server device 20.
6 includes a network interface unit (network I / F unit) 201, a user information storage unit 202, a unique character storage unit 203, a character element storage unit 204, and a character management data storage unit 205. And an article management data storage unit 206 and a control unit 210.
The control unit 210 also includes a character information generation unit 211, an information collection unit 212, a determination unit 213, a voice recognition unit 214, a telephone network control unit 215, an article information processing unit 216, and a character management unit 217. Have.
The character information generation unit 211 is an example of a character information generation unit of the present invention.
The information collection unit 212 is an example of the information collection unit of the present invention.
The determination unit 213 is an example of a determination unit of the present invention.
The voice recognition unit 214 is an example of the voice recognition unit of the present invention.

ネットワークI/F部201は、制御部210がネットワークを介して情報通信装置10と通信を行えるように、所定のプロトコルに基づいた通信処理を行う。   The network I / F unit 201 performs communication processing based on a predetermined protocol so that the control unit 210 can communicate with the information communication apparatus 10 via the network.

ユーザ情報記憶部202は、情報通信装置10を利用する各ユーザの識別情報(ユーザ識別情報)に関連付けて、ユーザごとに各種の情報を記憶する。例えば、現在接続中の情報通信装置10のネットワークアドレスや、ユーザが現在保有している固有のキャラクタの識別情報(キャラクタ識別情報)、判定部213において判定されたユーザの行動様式に関する情報などを、ユーザ識別情報に関連付けて記憶する。   The user information storage unit 202 stores various types of information for each user in association with identification information (user identification information) of each user who uses the information communication apparatus 10. For example, the network address of the information communication apparatus 10 currently connected, the identification information (character identification information) of the unique character that the user currently holds, information on the user's behavior determined by the determination unit 213, etc. Store in association with user identification information.

固有キャラクタ記憶部203は、固有のキャラクタそれぞれを識別するための情報(キャラクタ識別情報)に関連付けて、そのキャラクタに関わる各種の情報を記憶する。例えばキャラクタの外観や声に関わる各種の要素(服装、体型、髪型、声質など)、キャラクタの各種の属性(生物種、国籍、戸籍、年齢、性別、住所、職業、経歴、趣味、嗜好)、キャラクタの性格、現在の体調などを、キャラクタ識別情報に関連付けて記憶する。   The unique character storage unit 203 stores various information related to the character in association with information (character identification information) for identifying each unique character. For example, various elements related to the appearance and voice of the character (clothing, body type, hairstyle, voice quality, etc.), various attributes of the character (biological species, nationality, family register, age, gender, address, occupation, career, hobbies, preferences), Character personality, current physical condition, and the like are stored in association with character identification information.

キャラクタ要素記憶部204は、キャラクタの画像や音声を再生するために必要な各要素の情報を記憶する。例えば実写の映像によってキャラクタを生成する場合には、様々な服装や髪型によって各種の場面ごとに撮影されたキャラクタの映像と音声を記憶する。また、コンピュータ・グラフィックスによってキャラクタの画像を合成する場合には、合成に用いられるキャラクタのパーツごと(頭、体、服装など)の画像データと、予め声優などによって録音された声のデータなどを記憶する。   The character element storage unit 204 stores information on each element necessary for reproducing a character image and sound. For example, when a character is generated from a live-action video, the video and audio of the character photographed for various scenes with various clothes and hairstyles are stored. In addition, when compositing character images by computer graphics, image data for each character part (head, body, clothes, etc.) used for compositing, voice data previously recorded by a voice actor, etc. Remember.

キャラクタ管理データ記憶部205は、固有のキャラクタを生成する際に用いられる画像要素や音声要素の使用状況を記憶する。例えば、実在のタレントの映像を使用してキャラクタを生成する場合や、漫画家によって創作されたキャラクタを使用する場合には、その著作物の使用に関わる料金を算出するための情報として、著作物である画像要素や音声要素ごとにその使用人数、使用期間等の情報を記憶する。   The character management data storage unit 205 stores the usage status of image elements and audio elements used when generating a unique character. For example, when generating a character using an image of a real talent, or when using a character created by a cartoonist, the copyrighted material is used as information for calculating the fee related to the use of the copyrighted material. For each image element or sound element, information such as the number of users and the period of use is stored.

物品管理データ記憶部206は、各情報通信装置10のリーダ装置30において読み取られた物品識別情報の管理用のデータを記憶する。例えば、いつ、どのユーザによって、どの物品識別情報が読み取られたのかを記憶する。また、物品識別情報に対応する物品(商品)に関わる情報として、物品の種別(食品、雑貨、遊具など)やその供給者(会社)の情報などを記憶する。   The article management data storage unit 206 stores management data for article identification information read by the reader device 30 of each information communication apparatus 10. For example, when and which user has read which article identification information is stored. In addition, as information related to the article (product) corresponding to the article identification information, the type of the article (food, miscellaneous goods, playground equipment, etc.), information on the supplier (company), and the like are stored.

上述した各記憶部(202〜206)は、例えばハードディスク装置などの磁気ディスク装置や、光ディスク装置、各種の半導体メモリなどによって構成される。   Each of the storage units (202 to 206) described above is configured by, for example, a magnetic disk device such as a hard disk device, an optical disk device, and various semiconductor memories.

制御部210は、不図示の記憶部に格納されるプログラムコードに基づいて処理を実行するコンピュータを有しており、プログラムの手順に従ってサーバ装置20の全体的な動作を統括的に制御する。制御部210に含まれる各ブロック(211〜217)は、例えばプログラムの機能的な処理ブロックとして実現される。   The control unit 210 has a computer that executes processing based on a program code stored in a storage unit (not shown), and comprehensively controls the overall operation of the server device 20 according to the procedure of the program. Each block (211 to 217) included in the control unit 210 is realized as a functional processing block of a program, for example.

情報収集部212は、各情報通信装置10において入力された各種の情報をユーザ識別情報ごとに収集する。すなわち、情報通信装置10のリーダ装置30において読み取られた物品識別情報や、センサ部107の各センサの感知結果、音声認識部214における音声の認識結果などを、ユーザ識別情報ごとに収集する。   The information collection unit 212 collects various types of information input in each information communication device 10 for each user identification information. That is, the article identification information read by the reader device 30 of the information communication device 10, the detection result of each sensor of the sensor unit 107, the voice recognition result of the voice recognition unit 214, and the like are collected for each user identification information.

判定部213は、情報収集部212の収集結果に応じて、ユーザ識別情報ごとにユーザの行動様式を判定する。
例えば、収集された物品識別情報から、どのような種類の商品をいつ購入したかに応じて、ユーザの嗜好を分析し、分類分けを行う。すなわち、収集された各物品識別情報に対応する物品(商品)についての情報(商品名や種別、会社名などの情報)を物品管理データ記憶部206から読み出し、この読み出した情報に基づいて、ユーザの嗜好性を判定する。具体的には、飲み物に関してお茶や炭酸飲料よりコーヒーの消費が多いと判定した場合、このユーザはコーヒ類を好むタイプに属すると判定する。
また、例えば24時間における光センサの感知結果からユーザの平均的な帰宅時間、休日等を判定したり、温度センサの感知結果からユーザの室温調節に関する好みを判定したりする。
The determination unit 213 determines the user behavior for each user identification information according to the collection result of the information collection unit 212.
For example, the user's preference is analyzed and classified according to what kind of product is purchased from the collected item identification information. That is, information (information such as product name, type, company name, etc.) about the product (product) corresponding to each collected product identification information is read from the product management data storage unit 206, and the user is based on the read information. Judge the preference of Specifically, when it is determined that coffee is consumed more than tea or carbonated drinks, the user determines that the user belongs to a type that prefers coffee.
Further, for example, the average return time of the user, holidays, etc. are determined from the detection results of the optical sensor in 24 hours, or the user's preference regarding the room temperature adjustment is determined from the detection results of the temperature sensor.

音声認識部214は、情報通信装置10からネットワークを介して音声の情報を取得すると、その音声の情報に基づいて音声を認識する。例えば、音声認識部214は、情報通信装置10のマイクロフォン106で入力された音声や、携帯電話機40から受信した無線信号に含まれる通信相手の音声について認識処理を行う。
なお、携帯電話機40の音声について認識処理を行う場合は、全ての通信相手について認識処理を行うのではなく、特定の通信相手に電話をかけた場合にのみ認識処理を行うのが望ましい。例えば、固有のキャラクタに対して割り当てられた電話番号に電話をかけた場合、そのキャラクタに成り代わって音声の認識処理を行う。
When the voice recognition unit 214 acquires voice information from the information communication apparatus 10 via the network, the voice recognition unit 214 recognizes the voice based on the voice information. For example, the voice recognition unit 214 performs a recognition process on the voice input from the microphone 106 of the information communication apparatus 10 and the voice of the communication partner included in the radio signal received from the mobile phone 40.
In addition, when performing the recognition process about the voice of the mobile phone 40, it is desirable to perform the recognition process only when calling a specific communication partner, instead of performing the recognition process for all communication partners. For example, when a call is made to a telephone number assigned to a unique character, voice recognition processing is performed on behalf of that character.

キャラクタ情報生成部211は、情報通信装置10からユーザ識別情報を取得すると、その取得したユーザ識別情報に対応する固有のキャラクタのキャラクタ情報を生成する。
例えばキャラクタ情報生成部211は、キャラクタに変化を与える所定のイベントが発生すると(例えば、センサ部107による物理的な変化の検出、リーダ装置30における物品識別情報の読み取り、マイクロフォン104等における音声の入力、一定の周期で繰り返される所定のイベントなどが発生すると)、そのイベントの内容と、固有キャラクタ記憶部203に記憶されるキャラクタ固有の情報に応じて、キャラクタ要素記憶部204に記憶される要素を組み合わせて、キャラクタ情報を生成する。
キャラクタ情報生成部211によって生成されるキャラクタ情報には、情報通信装置10においてキャラクタの画像や音声を再生するために必要な情報のほか、キャラクタの変化に関わる情報が含まれており、例えばセンサ部107の感知結果に応じてキャラクタの画像や音声をどのように変化させるかなどの指示が含まれる。
When acquiring the user identification information from the information communication device 10, the character information generation unit 211 generates character information of a unique character corresponding to the acquired user identification information.
For example, the character information generation unit 211 generates a predetermined event that changes the character (for example, detection of a physical change by the sensor unit 107, reading of article identification information by the reader device 30, input of sound by the microphone 104, etc.) When a predetermined event repeated at a constant cycle occurs), the element stored in the character element storage unit 204 is determined according to the contents of the event and the character-specific information stored in the unique character storage unit 203. In combination, character information is generated.
The character information generated by the character information generation unit 211 includes information related to the change of the character in addition to information necessary for reproducing the image and sound of the character in the information communication device 10. For example, the sensor unit Instructions such as how to change the image and sound of the character in accordance with the detection result 107 are included.

キャラクタ情報生成部211は、情報通信装置10から物品識別情報を取得すると、その取得した物品識別情報に応じてキャラクタ情報を生成し、情報通信装置10に送信する。例えば、物品識別情報に対応する商品名等の情報を物品管理データ記憶部206から取得し、この商品名等の情報に適合するキャラクタの画像や音声の情報(例えばその商品を手に持っているキャラクタの画像の情報など)をキャラクタ要素記憶部204から読み出し、これに基づいてキャラクタ情報を生成する。   When the character information generation unit 211 acquires the item identification information from the information communication device 10, the character information generation unit 211 generates character information according to the acquired item identification information and transmits the character information to the information communication device 10. For example, information such as a product name corresponding to the product identification information is acquired from the product management data storage unit 206, and character image or audio information (for example, the product is held in the hand) that matches the product name information. Character image information) is read from the character element storage unit 204, and character information is generated based on the information.

また、キャラクタ情報生成部211は、固有のキャラクタが特定の商品の購入を勧誘するようにキャラクタ情報を生成してもよい。その場合には、勧誘を行った後で、その特定の商品に関わる特定の物品識別情報がリーダ装置30で読み取られたか否かに応じて、キャラクタの態度が変わるようにキャラクタ情報を生成してもよい。具体的には、キャラクタによって勧誘された特定の商品を購入して、その物品識別情報をリーダ装置30で読み取らせた場合に、キャラクタが大喜びするようにキャラクタ情報を生成してもよい。これにより、特定の商品についてのユーザの購買意欲を増進させることができる。   Moreover, the character information generation part 211 may generate | occur | produce character information so that a specific character may solicit purchase of a specific goods. In that case, after soliciting, character information is generated so that the attitude of the character changes depending on whether or not the specific item identification information related to the specific product is read by the reader device 30. Also good. Specifically, the character information may be generated so that the character is delighted when a specific product solicited by the character is purchased and the article identification information is read by the reader device 30. Thereby, the user's willingness to purchase a specific product can be promoted.

更に、キャラクタ情報生成部211は、判定部213の判定結果に応じて固有のキャラクタのキャラクタ情報を生成する。例えば、判定部213において、ユーザの好みの飲み物がコーヒーであると判定された場合、キャラクタ情報生成部211は、コーヒーの新商品を勧誘するようにキャラクタ情報を生成する。また、センサ部107の感知結果によってユーザの平均的な帰宅時間が夜8時から10時まであると判定された場合には、その時間帯に室内の照明がオンされたときに「おかえりなさい」といった挨拶を発するようにキャラクタ情報を生成する。   Further, the character information generation unit 211 generates character information of a unique character according to the determination result of the determination unit 213. For example, if the determination unit 213 determines that the user's favorite drink is coffee, the character information generation unit 211 generates character information so as to invite a new coffee product. Further, when it is determined that the average return time of the user is from 8:00 to 10:00 at night based on the detection result of the sensor unit 107, “return home” when the room lighting is turned on during the time period. Character information is generated so as to give a greeting.

また、キャラクタ情報生成部211は、情報通信部10のマイクロフォン106において入力された音声の認識結果を音声認識部214から取得すると、その認識結果に応じたキャラクタ情報を生成する。例えば、マイクロフォン106において入力された音声が「こんにちは」であると認識された場合、これに対する返答として「はい、こんにちは」といった挨拶を返すようにキャラクタ情報を生成する。   Further, when the character information generation unit 211 obtains the recognition result of the voice input from the microphone 106 of the information communication unit 10 from the voice recognition unit 214, the character information generation unit 211 generates character information corresponding to the recognition result. For example, if the audio input in the microphone 106 is recognized as "Hello", "yes, hello" as a response to this to produce a character information to return a greeting like.

他方、キャラクタ情報生成部211は、情報通信部10の無線通信部119において受信された無線信号に含まれる音声の認識結果を音声認識部214から取得した場合、その認識結果に応じたキャラクタ情報を生成するとともに、これに加えて、通信相手の携帯電話機40に対して応答を返すための音声情報を生成する。例えば、携帯電話機40から特定の電話番号(キャラクタ固有の電話番号)に電話をかけると、その電話に対してあたかもキャラクタが応答しているように音声情報を生成する。またその際、電話機を手にとって話しているキャラクタの画像を情報通信部10のキャラクタ表示部101に表示するように、キャラクタ情報を生成する。これにより、携帯電話機40を通じてキャラクタとの仮想的な会話を楽しむことが可能になる。   On the other hand, when the character information generation unit 211 acquires the speech recognition result included in the wireless signal received by the wireless communication unit 119 of the information communication unit 10 from the speech recognition unit 214, the character information generation unit 211 displays character information corresponding to the recognition result. In addition to this, voice information for returning a response to the mobile phone 40 of the communication partner is generated. For example, when a call is made from a mobile phone 40 to a specific phone number (character-specific phone number), voice information is generated as if the character is responding to the phone. At that time, character information is generated so that an image of the character talking with the hand of the telephone is displayed on the character display unit 101 of the information communication unit 10. This makes it possible to enjoy a virtual conversation with the character through the mobile phone 40.

また、キャラクタ情報生成部211は、年、月、週又は日の少なくとも1つを単位として、固有のキャラクタの画像や音声が周期的に変化するようにキャラクタ情報を生成する。例えば、夜になるとパジャマに着替えたり、季節に応じて服装を変えたり、週末と平日でキャラクタのメッセージが異なるようにキャラクタ情報を生成する。また、ユーザ情報記憶部202にユーザの誕生日が記録されている場合には、誕生日になると特別のメッセージを発するようにキャラクタ情報を生成する。   In addition, the character information generation unit 211 generates character information so that the image and sound of the unique character change periodically with at least one of year, month, week or day as a unit. For example, the character information is generated so that it changes into pajamas at night, the clothes are changed according to the season, and the message of the character is different between weekends and weekdays. If the user's birthday is recorded in the user information storage unit 202, character information is generated so that a special message is issued when the birthday is reached.

電話網制御部215は、情報通信部10の無線通信部119を基地局として、携帯電話機40とネットワーク上の他の通信端末とが電話網を形成するように、所定のプロトコルに従って通信制御を行う。   The telephone network control unit 215 performs communication control according to a predetermined protocol so that the mobile phone 40 and other communication terminals on the network form a telephone network using the wireless communication unit 119 of the information communication unit 10 as a base station. .

物品情報処理部216は、各情報通信装置10のリーダ装置30において読み取られた物品識別情報を処理し、管理用のデータを物品管理データ記憶部206に格納する処理を行う。例えば、物品識別情報ごとに、読み取られた日付や、読み取りを行ったユーザのユーザ識別情報を物品管理データ記憶部206に記憶する。これにより、種々の商品のマーケティングに有用なデータを蓄積することができる。   The article information processing unit 216 processes the article identification information read by the reader device 30 of each information communication apparatus 10 and stores management data in the article management data storage unit 206. For example, for each item identification information, the read date and the user identification information of the user who performed the reading are stored in the item management data storage unit 206. Thereby, data useful for marketing various products can be accumulated.

キャラクタ管理部217は、キャラクタ管理データ記憶部205に著作物として登録されている画像要素や音声要素の使用状況(使用人数や使用期間など)をサーチし、そのサーチ結果を著作物ごとにキャラクタ管理データ記憶部205に記録する。これにより、著作者に対する著作物の使用料金を正確に計算できるようになるため、キャラクタに使用可能な著作物の提供を受けやすくなり、キャラクタ生成用のコンテンツが豊富化し、魅力的なキャラクタを創造しやすくなる。   The character management unit 217 searches the usage status (number of users, usage period, etc.) of image elements and audio elements registered as works in the character management data storage unit 205, and manages the search results for each work. Records in the data storage unit 205. This makes it possible to accurately calculate the fee for using the copyrighted work for the author, making it easier to receive works that can be used for the character, enriching content for character generation, and creating attractive characters. It becomes easy to do.

ここで、上述した構成を有する情報提供システムの動作について説明する。   Here, the operation of the information providing system having the above-described configuration will be described.

<固有のキャラクタの再生>
まず、ユーザ識別情報に対応した固有のキャラクタが再生される処理について、図7のフローチャートを参照して説明する。
<Reproduction of unique characters>
First, processing for reproducing a unique character corresponding to user identification information will be described with reference to the flowchart of FIG.

ステップST101:
装置が起動すると、情報通信装置10の制御部121はリムーバブル記憶部117からユーザ識別情報を読み出し、サーバ装置20に送信する。
Step ST101:
When the apparatus is activated, the control unit 121 of the information communication apparatus 10 reads the user identification information from the removable storage unit 117 and transmits it to the server apparatus 20.

ステップST102:
キャラクタ情報生成部211は、情報通信装置10からユーザ識別情報を取得すると、このユーザ識別情報をユーザ情報記憶部202から検索し、これに関連付けられたキャラクタ識別情報を読み出す。次いで、ユーザ情報記憶部202は、そのキャラクタ識別情報をキャラクタ要素記憶部204において検索し、これに関連付けて記憶されている情報(キャラクタの画像や音声を再生するために必要な各要素の情報)を読み出す。そして、この読み出した情報に基づいてキャラクタ情報を生成し、情報通信装置10へ提供する。
Step ST102:
When the character information generation unit 211 acquires the user identification information from the information communication apparatus 10, the character information generation unit 211 searches the user information storage unit 202 for the user identification information and reads the character identification information associated therewith. Next, the user information storage unit 202 searches the character element storage unit 204 for the character identification information, and stores information associated with the character identification information (information of each element necessary for reproducing a character image or sound). Is read. Then, character information is generated based on the read information and provided to the information communication device 10.

ステップST103:
情報通信装置10の制御部121は、サーバ装置20からキャラクタ情報を取得すると、これに基づいてキャラクタの画像をキャラクタ表示部101に表示するとともに、その音声をマイクロフォン106から出力する。
Step ST103:
When the control unit 121 of the information communication device 10 acquires the character information from the server device 20, the control unit 121 displays a character image on the character display unit 101 based on the acquired character information, and outputs the sound from the microphone 106.

ステップST104:
情報通信装置10の制御部121は、センサ部107の感知結果が入力されると、取得したキャラクタ情報に基づいて、キャラクタが感知結果に応じた反応を示すようにその画像や音声を変化させる。例えば物体センサ108によってキャラクタの頭部付近を触ろうとすると、キャラクタが驚いた表情を持つようにキャラクタの画像を変化させる。
Step ST104:
When the detection result of the sensor unit 107 is input, the control unit 121 of the information communication apparatus 10 changes the image and the sound based on the acquired character information so that the character shows a reaction according to the detection result. For example, when the object sensor 108 is used to touch the vicinity of the head of the character, the character image is changed so that the character has a surprised expression.

<物品識別情報に応じたキャラクタの変化>
次に、リーダ装置30において物品識別情報が読み取られた場合のキャラクタの変化について、図8のフローチャートを参照して説明する。
<Change of character according to article identification information>
Next, the change of the character when the article identification information is read by the reader device 30 will be described with reference to the flowchart of FIG.

ステップST201:
リーダ装置30において物品識別情報が読み取られると、情報通信装置10の制御部121はその物品識別情報をサーバ装置20へ送信する。
Step ST201:
When the article identification information is read by the reader device 30, the control unit 121 of the information communication device 10 transmits the article identification information to the server device 20.

ステップST202:
キャラクタ情報生成部211は、情報通信装置10から物品識別情報を取得すると、この物品識別情報に対応する商品名等の情報を物品管理データ記憶部206から取得し、この商品名等に適合するキャラクタの画像や音声の情報をキャラクタ要素記憶部204から読み出す。そして、読み出した情報に基づいてキャラクタ情報を生成し、情報通信装置10へ提供する。
Step ST202:
When the character information generation unit 211 acquires the item identification information from the information communication device 10, the character information generation unit 211 acquires information such as a product name corresponding to the item identification information from the item management data storage unit 206, and matches the product name. Are read out from the character element storage unit 204. Then, character information is generated based on the read information and provided to the information communication device 10.

ステップST203:
情報通信装置10の制御部121は、サーバ装置20からキャラクタ情報を取得すると、これに基づいてキャラクタの画像と音声を変化させる。例えば、リーダ装置30において洋服の物品識別情報を読み取った場合には、キャラクタがその洋服を着た状態となるようにキャラクタの画像を変更する。
Step ST203:
When the control unit 121 of the information communication device 10 acquires character information from the server device 20, the control unit 121 changes the character image and sound based on the character information. For example, when the article identification information of clothes is read by the reader device 30, the character image is changed so that the character is in the state of wearing the clothes.

<音声の認識結果に応じたキャラクタの変化>
次に、マイクロフォン106を通じて音声が入力された場合のキャラクタの変化について、図9のフローチャートを参照して説明する。
<Character changes according to the speech recognition result>
Next, a change in character when sound is input through the microphone 106 will be described with reference to a flowchart of FIG.

ステップST301:
マイクロフォン106から増幅部105を介して音声信号が入力されると、情報通信装置10の制御部121はその音声情報をサーバ装置20へ送信する。
Step ST301:
When an audio signal is input from the microphone 106 via the amplification unit 105, the control unit 121 of the information communication device 10 transmits the audio information to the server device 20.

ステップST302:
音声認識部214は、情報通信装置10から音声の情報を取得すると、その情報に基づいて音声の認識を行う。
Step ST302:
When the voice recognition unit 214 acquires voice information from the information communication apparatus 10, the voice recognition unit 214 recognizes the voice based on the information.

ステップST303:
キャラクタ情報生成部211は、音声認識部214において音声の認識結果が得られると、その認識結果に応じてキャラクタ情報を生成し、情報通信装置10へ提供する。
Step ST303:
When the voice recognition unit 214 obtains a voice recognition result, the character information generation unit 211 generates character information according to the recognition result and provides the character information to the information communication apparatus 10.

ステップST304:
情報通信装置10の制御部121は、サーバ装置20からキャラクタ情報を取得すると、これに基づいてキャラクタの画像と音声を変化させる。例えば、音声の認識結果が「お腹すいた」であった場合に、キャラクタがエプロン姿に変化して「何か作りましょうか?」と発話するように、キャラクタの画像と音声を更新する。
Step ST304:
When the control unit 121 of the information communication device 10 acquires character information from the server device 20, the control unit 121 changes the character image and sound based on the character information. For example, when the speech recognition result is “I'm hungry”, the character image and sound are updated so that the character changes into an apron and says “Let's make something?”.

<情報通信装置10からの情報収集>
次に、センサ部107感知結果やリーダ装置30で読み出した物品識別情報、音声認識部214の認識結果などに応じてユーザの行動様式を判定する処理について、図10のフローチャートを参照して説明する。
<Information Collection from Information Communication Device 10>
Next, a process for determining the user's behavior style according to the sensing result of the sensor unit 107, the article identification information read by the reader device 30, the recognition result of the voice recognition unit 214, and the like will be described with reference to the flowchart of FIG. .

ステップST401:
センサ部107においてセンサが物体の進入や風圧の変化などを感知した場合や、リーダ装置30において物品識別情報が読み取られた場合、あるいはマイクロフォン106,無線通信部119において音声情報が入力された場合に、情報通信装置10の制御部121は、その感知結果や物品識別情報、音声情報をサーバ装置20に送信する。
Step ST401:
When the sensor senses the entry of an object or a change in wind pressure in the sensor unit 107, when the article identification information is read by the reader device 30, or when voice information is input by the microphone 106 or the wireless communication unit 119 The control unit 121 of the information communication apparatus 10 transmits the detection result, article identification information, and audio information to the server apparatus 20.

ステップST402:
情報収集装置212は、各情報通信装置10から送信されるセンサ部107の感知結果や物品識別情報をユーザ識別情報ごとに収集し、これをユーザ情報記憶部202に格納する。音声情報が送信された場合は、音声認識部214によって音声認識された結果をユーザ情報記憶部202に格納する。
Step ST402:
The information collection device 212 collects the sensing results and article identification information of the sensor unit 107 transmitted from each information communication device 10 for each user identification information, and stores this in the user information storage unit 202. When voice information is transmitted, the result of voice recognition by the voice recognition unit 214 is stored in the user information storage unit 202.

ステップST403:
判定部213は、ユーザ情報記憶部202に格納されるセンサ部107の感知結果、物品識別情報、音声認識結果を分析し、ユーザの行動様式を判定する。例えば、物品識別情報に対応する商品名や商品の種別等の情報を物品管理データ記憶部206より取得し、これに基づいてユーザの消費傾向や嗜好性などを判定する。また、センサ部107の感知結果に応じて、ユーザの生活パターンや生活環境、情報通信装置10の利用頻度などを判定する。更には、音声認識結果に応じて、ユーザの頻繁に使用する単語などを分析し、ユーザの言葉使いや方言など判定する。そして、これらの判定結果をユーザ情報記憶部202に書き込む。
Step ST403:
The determination unit 213 analyzes the detection result of the sensor unit 107, the article identification information, and the voice recognition result stored in the user information storage unit 202, and determines the user behavior. For example, information such as the product name and product type corresponding to the product identification information is acquired from the product management data storage unit 206, and based on this, the user's consumption tendency, palatability, and the like are determined. Further, according to the detection result of the sensor unit 107, the user's life pattern and living environment, the frequency of use of the information communication apparatus 10, and the like are determined. Further, according to the voice recognition result, words frequently used by the user are analyzed, and the user's word usage and dialect are determined. Then, these determination results are written in the user information storage unit 202.

ステップST404:
キャラクタ情報生成部211は、所定のイベントが発生すると、キャラクタ情報を生成して情報通信装置10に提供する。例えば、図8,図9において説明した場合の他、所定の周期(1日のうちの朝と晩や、1週間、1月、1年などの周期)で発生する所定のイベントに応じて、キャラクタ情報を自動的に生成する。
キャラクタ情報生成部211は、キャラクタ情報を生成する場合、キャラクタ情報記憶部211に記憶されるキャラクタの情報とともに、ユーザ情報記憶部202に書き込まれた判定部213の判定結果を加味する。例えば、ユーザ情報記憶部202にユーザのファッションスタイルに対する好みの判定部213の判定結果が書き込まれている場合、キャラクタ情報生成部211はそのファッションスタイルに対してキャラクタの外観がマッチするようにキャラクタ情報を生成する。
Step ST404:
When a predetermined event occurs, the character information generation unit 211 generates character information and provides it to the information communication apparatus 10. For example, in addition to the case described with reference to FIGS. 8 and 9, according to a predetermined event that occurs in a predetermined cycle (morning and evening in a day, a cycle of one week, one month, one year, etc.) Character information is automatically generated.
When generating the character information, the character information generation unit 211 takes into account the determination result of the determination unit 213 written in the user information storage unit 202 together with the character information stored in the character information storage unit 211. For example, when the determination result of the preference determination unit 213 for the user's fashion style is written in the user information storage unit 202, the character information generation unit 211 sets the character information so that the appearance of the character matches the fashion style. Is generated.

なお、判定部213はユーザ情報記憶部202に書き込まれたユーザの行動様式の判定結果に応じて、キャラクタの性格や体調など更に判定し、その判定結果をキャラクタ情報記憶部211に記憶されるキャラクタの属性等の情報に反映させてもよい。例えば、センサ部107における物体センサの検出頻度や音声認識の頻度などに応じて、情報通信装置10の利用頻度を判定し、その判定結果に応じてキャラクタの性格や体調などの情報を変化させてもよい。これにより、例えばキャラクタ情報生成部211は、情報通信装置10の利用頻度が多くなるほど、キャラクタのバイタリティが向上するようにキャラクタ情報を生成することが可能になる。   The determination unit 213 further determines the character's personality and physical condition according to the determination result of the user's behavior pattern written in the user information storage unit 202, and the determination result is stored in the character information storage unit 211. It may be reflected in information such as attributes. For example, the usage frequency of the information communication device 10 is determined according to the detection frequency of the object sensor in the sensor unit 107 and the frequency of voice recognition, and information such as the character and physical condition of the character is changed according to the determination result. Also good. Thereby, for example, the character information generation unit 211 can generate the character information so that the vitality of the character is improved as the use frequency of the information communication apparatus 10 is increased.

ステップST405:
情報通信装置10の制御部121は、サーバ装置20から新たに生成されたキャラクタ情報を取得すると、これに基づいてキャラクタの画像と音声を変化させる。
Step ST405:
When the control unit 121 of the information communication device 10 acquires newly generated character information from the server device 20, the control unit 121 changes the character image and sound based on the acquired character information.

以上説明したように、本実施形態によれば、ユーザ識別情報に対応した固有のキャラクタを再生することによって、キャラクタに対するユーザの占有感や思い入れを高めることができる。また、センサ部107における感知結果など、各種の情報に応じてキャラクタの画像や音声に変化を与えることによって、意外性に富んだキャラクタを創造できるため、キャラクタの魅力を向上させることができる。   As described above, according to the present embodiment, the user's sense of occupancy and feelings about the character can be enhanced by reproducing the unique character corresponding to the user identification information. In addition, by changing the character image and sound according to various types of information such as the sensing result in the sensor unit 107, it is possible to create a surprisingly rich character, so that the attractiveness of the character can be improved.

以上、本発明の実施形態について説明したが、本発明は上記の形態のみに限定されるものではなく、種々の変形例を含んでいる。   As mentioned above, although embodiment of this invention was described, this invention is not limited only to said form, Various modifications are included.

上述の実施形態では、キャラクタを立体画像で再生しているが、本発明はこれに限定されない。例えばブラウン管、液晶、プラズマディスプレイ等のFPD(flat panel display)、プロジェクションテレビなどによってキャラクタを2次元画像で再生してもよいし、画像のみ若しくは音声のみのキャラクタを再生してもよい。   In the above-described embodiment, the character is reproduced as a stereoscopic image, but the present invention is not limited to this. For example, a character may be reproduced as a two-dimensional image using an FPD (flat panel display) such as a cathode ray tube, a liquid crystal display, or a plasma display, a projection television, or the like, or an image only or a voice only character may be reproduced.

図6の例では、サーバ装置20を単一の装置で表しているが、本発明はこれに限定されるものではなく、物理的に分かれた複数の装置の集合によって構成してもよい。その場合、サーバ装置20の制御部210は複数のコンピュータで構成してもよく、サーバ装置20の全体的な処理を複数のコンピュータで分散して実行してもよい。また、サーバ装置20の各記憶部(202〜206)に格納される情報についても、それぞれ複数の記憶装置に分散して格納してよい。   In the example of FIG. 6, the server device 20 is represented by a single device. However, the present invention is not limited to this, and the server device 20 may be configured by a set of physically separated devices. In that case, the control unit 210 of the server device 20 may be configured by a plurality of computers, and the overall processing of the server device 20 may be executed by being distributed by the plurality of computers. Information stored in each storage unit (202 to 206) of the server device 20 may also be distributed and stored in a plurality of storage devices.

他方、情報通信装置10の制御部121やサーバ装置20の制御部210は、その全ての機能をコンピュータによりソフトウェアで実現しても良いし、その一部又は全部をロジック回路によりハードウェアで実現してもよい。   On the other hand, the control unit 121 of the information communication device 10 and the control unit 210 of the server device 20 may realize all of the functions by software using a computer, or may implement part or all of the functions by hardware using a logic circuit. May be.

キャラクタ情報生成部211によって生成されたキャラクタ情報は、その生成を行う度にサーバ装置20から情報通信装置10へ送信してもよいし、通信装置10の要求に応じて(例えば記憶部115の空き容量などに応じて)サーバ装置20から送信してもよい。   The character information generated by the character information generation unit 211 may be transmitted from the server device 20 to the information communication device 10 each time the character information is generated, or in response to a request from the communication device 10 (for example, the free space in the storage unit 115) You may transmit from the server apparatus 20 (depending on capacity etc.).

上述した実施形態では、情報収集部212が各情報通信装置10において入力された各種の情報をユーザ識別情報ごとに収集する例を挙げているが、本発明はこれに限定されない。すなわち、情報収集部212は、ユーザ識別情報ごとの(1ユーザの)情報のみを収集するだけでなく、ある情報ついての全ユーザの統計的なデータを収集してもよい。
以下、具体例として、情報収集部212がセンサ部107の感知結果を収集する場合を例に挙げる。
例えば情報収集部212は、物体センサ108の検出頻度が高い時間帯を統計データとして収集する。この場合、判定部213は、情報収集部21が生成した統計データに基づいて、所定の時間帯ごとに情報通信装置10の視聴率を判定する。またキャラクタ情報生成部211は、当該判定結果に基づいて、視聴率の高い時間帯でキャラクタが広告メッセージを発するようにキャラクタ情報を生成する。これにより、ユーザへの広告効果の高い時間帯を選んで、キャラクタによる効果的な広告を行うことができる。
また、別の例として、情報収集部212は、音声認識部214において認識される特定の単語の使用頻度について統計データを収集する。この場合、判定部213は、所定の地域ごとに特定の単語が使用される頻度を判定し、キャラクタ情報生成部211は、この特定の単語についての使用頻度が高い地域において、特定の話題を選んで会話を行うようにキャラクタ情報を生成する。これにより、キャラクタが地域の話題や流行に対して敏感に振舞うようになるため、ユーザのキャラクタに対する親和性を高めることができる。
In the above-described embodiment, the information collection unit 212 collects various types of information input in each information communication apparatus 10 for each user identification information, but the present invention is not limited to this. That is, the information collecting unit 212 may collect not only information (for one user) for each user identification information but also statistical data of all users for certain information.
Hereinafter, as a specific example, a case in which the information collection unit 212 collects the detection results of the sensor unit 107 will be described as an example.
For example, the information collection unit 212 collects a time period when the detection frequency of the object sensor 108 is high as statistical data. In this case, the determination unit 213 determines the audience rating of the information communication device 10 for each predetermined time period based on the statistical data generated by the information collection unit 21. Moreover, the character information generation part 211 produces | generates character information based on the said determination result so that a character may emit an advertising message in the time slot | zone with a high audience rating. Thereby, the time zone with the high advertising effect to a user can be chosen, and the effective advertisement by a character can be performed.
As another example, the information collection unit 212 collects statistical data regarding the frequency of use of specific words recognized by the speech recognition unit 214. In this case, the determination unit 213 determines the frequency with which a specific word is used for each predetermined region, and the character information generation unit 211 selects a specific topic in the region where the specific word is frequently used. Character information is generated so as to have a conversation. As a result, since the character behaves sensitively to local topics and trends, the user's affinity for the character can be enhanced.

上述した実施形態では、主としてユーザと仮想的キャラクタとの従来にない革新的なコミュニケーションの効果について詳しく説明したが、本発明はこれにとどまるものではなく、広告業やコンテンツ産業などの様々な分野への波及的な効果を期待できる。
例えば、リーダ装置において読み取らせる物品は、ユーザがキャラクタのためにプレゼントする専用の物品であってもよい。すなわち、食品、薬、洋服、装飾品などが描かれたカードをユーザが購入し、これをリーダ装置に読み取らせることによって、キャラクタがその商品を仮想的に受け取るようにしてもよい。このような、キャラクタ専用のグッズを商品化すれば、新たなグッズの市場を開拓することが可能となる。
また、商品の供給元と提携し、リーダ装置(読取部)で読み取り可能なタグ等を付した商品の販売を進めれば、ユーザへの広告とその効果の確認をリアルタイムに行うことが可能となるため、強力な市場調査手段となり得る。例えば新商品を開発した企業が、その広告をキャラクタに行わせ、それを購入したユーザがリーダ装置で商品の識別情報を読み取らせれば、何がどのようなタイプの人にどれ位売れたかを瞬時に把握することが可能となる。
他方、売れ行きの低迷している商品については、キャラクタがユーザに対して一種の「おねだり」を行うことによって、新たな購入の契機が発生し、商品の寿命を延ばす画期的な広告媒体となり得る。
更に、キャラクタの映像コンテンツの提供元としてタレントプロダクションなどと提携すれば、情報通信装置におけるユーザへのアピールと相まって、新たなタレントの発掘や育成を行うことが可能となる。この場合、店舗での新商品のイベントキャンペーンに、キャラクタとして映像を提供しているタレントを派遣すれば、タレントの知名度の向上と、商品の販売促進の両方を同時に実現できる。
また、映像製作会社と強力して、新たなキャラクタを創造し、これをテレビジョンや映画などの他の分野へ展開することも可能となり、コンテンツ産業の振興を図ることもできる。
In the above-described embodiment, the effect of innovative communication between the user and the virtual character that has never existed in the past has been described in detail. However, the present invention is not limited to this, and can be applied to various fields such as the advertising industry and the content industry. Can be expected to have a ripple effect.
For example, the article to be read by the reader device may be a dedicated article that the user presents for the character. That is, the user may purchase a card on which food, medicine, clothes, decorations, and the like are drawn, and cause the character to receive the product virtually by causing the reader device to read the card. If such merchandise dedicated to characters is commercialized, a new merchandise market can be developed.
In addition, if the company sells products with tags that can be read by a reader device (reading unit) in partnership with the product supplier, it will be possible to perform advertisements to users and check their effects in real time. Therefore, it can be a powerful market research tool. For example, if a company that developed a new product makes a character perform the advertisement and the user who purchases it reads the identification information of the product with a reader device, it will instantly tell what is sold to what type of person. It becomes possible to grasp.
On the other hand, with respect to products that have been sluggish in sales, a character can make a kind of “buzz” to the user, which can lead to new purchases and can be an innovative advertising medium that extends the life of the product. .
Furthermore, if it is partnered with talent production as a provider of the video content of the character, it becomes possible to discover and cultivate new talent, coupled with appeal to users in the information communication device. In this case, if a talent who provides a video as a character is dispatched to an event campaign for a new product in a store, both improvement of the name recognition of the talent and promotion of product sales can be realized at the same time.
In addition, it is possible to create a new character with a video production company and deploy it to other fields such as television and movies, and promote the content industry.

本発明の実施形態に係る情報提供システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the information provision system which concerns on embodiment of this invention. 情報通信装置の外観の一例を示す第1の図である。It is the 1st figure which shows an example of the external appearance of an information communication apparatus. 情報通信装置の外観の一例を示す第2の図である。It is a 2nd figure which shows an example of the external appearance of an information communication apparatus. 情報通信装置の構成の一例を示す図である。It is a figure which shows an example of a structure of an information communication apparatus. リーダ装置の外観の一例を示す図である。It is a figure which shows an example of the external appearance of a reader apparatus. サーバ装置の構成の一例を示す図である。It is a figure which shows an example of a structure of a server apparatus. ユーザ識別情報に対応した固有のキャラクタが再生される処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process by which the specific character corresponding to user identification information is reproduced | regenerated. 物品識別情報が読み取られた場合のキャラクタの変化について説明するためのフローチャートである。It is a flowchart for demonstrating the change of the character when goods identification information is read. 音声が入力された場合のキャラクタの変化について説明するためのフローチャートである。It is a flowchart for demonstrating the change of the character when an audio | voice is input. ユーザの行動様式を判定する処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process which determines a user's action style.

符号の説明Explanation of symbols

10,10−1〜10−4…情報通信装置、20…サーバ装置、101…キャラクタ表示部、102…情報表示部、103,105…増幅部、104…スピーカ、106…マイクロフォン、107…センサ部、115…記憶部、117…リムーバブル記憶部、116,120…インターフェース部、118,201…ネットワーク・インターフェース部、119…無線通信部、121…制御部、30…リーダ装置、202…ユーザ情報記憶部、203…固有キャラクタ記憶部、204…キャラクタ要素記憶部、205…キャラクタ管理データ記憶部、206…物品管理データ記憶部、210…制御部、211…キャラクタ情報生成部、212…情報収集部、213…判定部、214…音声認識部、215…電話網制御部、216…物品情報処理部、217…キャラクタ管理部

DESCRIPTION OF SYMBOLS 10,10-1-10-4 ... Information communication apparatus, 20 ... Server apparatus, 101 ... Character display part, 102 ... Information display part, 103, 105 ... Amplification part, 104 ... Speaker, 106 ... Microphone, 107 ... Sensor part 115, storage unit, 117, removable storage unit, 116, 120 ... interface unit, 118, 201 ... network interface unit, 119 ... wireless communication unit, 121 ... control unit, 30 ... reader device, 202 ... user information storage unit , 203 ... Unique character storage unit, 204 ... Character element storage unit, 205 ... Character management data storage unit, 206 ... Article management data storage unit, 210 ... Control unit, 211 ... Character information generation unit, 212 ... Information collection unit, 213 ... determination unit, 214 ... voice recognition unit, 215 ... telephone network control unit, 216 ... article information processing Department, 217 ... character management unit

Claims (8)

キャラクタの画像及び/又は音声を再生する再生部と、所定の物理的状態を感知するセンサ部と、ユーザ識別情報を記憶する記憶部とを備えた複数の情報通信装置と、
前記再生部において再生するキャラクタの画像及び/又は音声に関わるキャラクタ情報を前記複数の情報通信装置それぞれに提供するサーバ装置と
を備え、
前記サーバ装置は、
前記情報通信装置から前記ユーザ識別情報を取得すると、当該取得したユーザ識別情報に対応する固有のキャラクタであって前記センサ部の感知結果に応じて変化するキャラクタの前記キャラクタ情報を生成するキャラクタ情報生成部
を有し、
前記情報通信装置は、
前記サーバ装置から提供される前記キャラクタ情報に基づいて、前記固有のキャラクタの画像及び/又は音声を前記再生部で再生するとともにその画像及び/又は音声を前記センサ部の感知結果に応じて変化させる制御部
を有する、
情報提供システム。
A plurality of information communication devices including a reproduction unit that reproduces an image and / or sound of a character, a sensor unit that senses a predetermined physical state, and a storage unit that stores user identification information;
A server device that provides character information related to the image and / or sound of the character to be reproduced in the reproduction unit to each of the plurality of information communication devices;
The server device
When the user identification information is acquired from the information communication device, the character information generation for generating the character information of a character that is a unique character corresponding to the acquired user identification information and changes according to a sensing result of the sensor unit Have
The information communication device includes:
Based on the character information provided from the server device, the image and / or sound of the unique character is reproduced by the reproduction unit, and the image and / or sound is changed according to the detection result of the sensor unit. Having a control unit,
Information provision system.
前記情報通信装置は、物品の識別情報を読み取る読取部をさらに有し、
前記サーバ装置の前記キャラクタ情報生成部は、前記情報通信装置から前記物品識別情報を取得すると、当該取得した物品識別情報に応じて前記固有のキャラクタの前記キャラクタ情報を生成し、
前記情報通信装置の前記制御部は、前記サーバ装置から提供される前記物品識別情報に応じた前記キャラクタ情報に基づいて、前記再生部が再生する前記固有のキャラクタの画像及び/又は音声を変化させる、
請求項1に記載の情報提供システム。
The information communication device further includes a reading unit that reads identification information of an article,
The character information generation unit of the server device, when acquiring the article identification information from the information communication device, generates the character information of the unique character according to the acquired article identification information,
The control unit of the information communication device changes an image and / or sound of the unique character reproduced by the reproduction unit based on the character information corresponding to the article identification information provided from the server device. ,
The information providing system according to claim 1.
前記キャラクタ情報生成部は、前記固有のキャラクタが特定の商品の購入を勧誘する勧誘処理を行いし、当該勧誘処理の後、当該特定の商品に関わる特定の物品識別情報が前記読取部で読み取られたか否かに応じて前記固有のキャラクタの態度が変わるように前記キャラクタ情報を生成する、
請求項2に記載の情報提供システム。
The character information generation unit performs a solicitation process in which the unique character solicits purchase of a specific product, and after the solicitation process, specific article identification information related to the specific product is read by the reading unit. Generating the character information so that the attitude of the unique character changes according to whether or not
The information providing system according to claim 2.
前記サーバ装置は、
前記読取部において読み取られた前記物品識別情報を前記ユーザ識別情報ごとに収集する情報収集部と、
前記情報収集部の収集結果に応じて、前記ユーザ識別情報ごとにユーザの行動様式を判定する判定部と
を有し、
前記キャラクタ情報生成部は、前記判定部の判定結果に応じて前記固有のキャラクタの前記キャラクタ情報を生成する、
請求項2又は3に記載の情報提供システム。
The server device
An information collection unit that collects the article identification information read by the reading unit for each user identification information;
A determination unit that determines a user behavior for each of the user identification information according to a collection result of the information collection unit;
The character information generation unit generates the character information of the unique character according to a determination result of the determination unit.
The information provision system according to claim 2 or 3.
前記サーバ装置は、
前記センサ部の感知結果を前記ユーザ識別情報ごとに収集する情報収集部と、
前記情報収集部の収集結果に応じて、前記ユーザ識別情報ごとにユーザの行動様式を判定する判定部と
を有し、
前記キャラクタ情報生成部は、前記判定部の判定結果に応じて前記固有のキャラクタの前記キャラクタ情報を生成する、
請求項1乃至4の何れか一項に記載の情報提供システム。
The server device
An information collection unit that collects the sensing result of the sensor unit for each user identification information;
A determination unit that determines a user behavior for each of the user identification information according to a collection result of the information collection unit;
The character information generation unit generates the character information of the unique character according to a determination result of the determination unit.
The information provision system according to any one of claims 1 to 4.
前記情報通信装置は、音声を入力する音声入力部を有し、
前記サーバ装置は、前記音声入力部において入力された音声の情報を取得し、当該取得した情報に基づいて当該音声を認識する音声認識部を有し、
前記キャラクタ情報生成部は、前記音声認識部の認識結果に応じて前記固有のキャラクタの前記キャラクタ情報を生成する、
請求項1乃至5の何れか一項に記載の情報提供システム。
The information communication device has a voice input unit for inputting voice,
The server apparatus has a voice recognition unit that acquires voice information input in the voice input unit and recognizes the voice based on the acquired information.
The character information generation unit generates the character information of the unique character according to a recognition result of the voice recognition unit.
The information providing system according to any one of claims 1 to 5.
前記情報通信装置は、無線信号を送受信する無線通信部を有し、
前記サーバ装置は、前記無線通信部において受信された無線信号に含まれる音声情報を取得すると、当該取得した情報に基づいて当該音声を認識する音声認識部を有し、
前記キャラクタ情報生成部は、前記音声認識部の認識結果に応じて前記固有のキャラクタの前記キャラクタ情報並びに音声情報を生成し、
前記無線通信部は、通信相手から受信した無線信号に含まれる音声情報に応じて生成された前記固有のキャラクタの音声情報を前記サーバ装置から取得すると、当該取得した音声情報を含む無線信号を当該通信相手へ送信する、
請求項1乃至5の何れか一項に記載の情報提供システム。
The information communication apparatus includes a wireless communication unit that transmits and receives wireless signals.
The server device has a voice recognition unit that recognizes the voice based on the acquired information when the voice information included in the wireless signal received by the wireless communication unit is acquired;
The character information generation unit generates the character information and voice information of the unique character according to the recognition result of the voice recognition unit,
When the wireless communication unit obtains the voice information of the unique character generated according to the voice information included in the radio signal received from the communication partner from the server device, the radio communication unit receives the radio signal including the acquired voice information. Send to other party,
The information providing system according to any one of claims 1 to 5.
前記キャラクタ情報生成部は、年、月、週又は日の少なくとも1つを単位として、前記固有のキャラクタの画像及び/又は音声が周期的に変化するように前記キャラクタ情報を生成する、
請求項1に記載の情報提供システム。
The character information generation unit generates the character information so that an image and / or sound of the unique character periodically changes in units of at least one of year, month, week, or day.
The information providing system according to claim 1.
JP2006280793A 2006-10-13 2006-10-13 Information providing system Pending JP2010002941A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006280793A JP2010002941A (en) 2006-10-13 2006-10-13 Information providing system
PCT/JP2006/325450 WO2008044325A1 (en) 2006-10-13 2006-12-14 Information providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006280793A JP2010002941A (en) 2006-10-13 2006-10-13 Information providing system

Publications (1)

Publication Number Publication Date
JP2010002941A true JP2010002941A (en) 2010-01-07

Family

ID=39282537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006280793A Pending JP2010002941A (en) 2006-10-13 2006-10-13 Information providing system

Country Status (2)

Country Link
JP (1) JP2010002941A (en)
WO (1) WO2008044325A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164793A (en) * 2012-02-13 2013-08-22 Future Tech Lab Co Ltd Agent system that constitutes operating system synchronized for every user, and realizes the same operation for individual users between different electronic apparatuses in operation of modern electronic apparatus
JP2014167517A (en) * 2013-02-28 2014-09-11 Nippon Telegraph & Telephone East Corp Conversation providing system, game providing system, conversation providing method, game providing method, and program
WO2016104193A1 (en) * 2014-12-26 2016-06-30 シャープ株式会社 Response determination device, speech interaction system, method for controlling response determination device, and speech interaction device
JP2016177440A (en) * 2015-03-19 2016-10-06 ヤフー株式会社 Information processing device and method
JP2016177442A (en) * 2015-03-19 2016-10-06 ヤフー株式会社 Information processing device and method
JP2016177441A (en) * 2015-03-19 2016-10-06 ヤフー株式会社 Information processing device and method
JP2021012421A (en) * 2019-07-03 2021-02-04 株式会社バンダイナムコエンターテインメント Server system and automatic purchase system

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008045128B4 (en) 2008-09-01 2024-06-27 Volkswagen Ag Information communication device in a vehicle for graphically outputting information using an animated anthropomorphic character (avatar) adapted to a condition
US9492120B2 (en) 2011-07-05 2016-11-15 Saudi Arabian Oil Company Workstation for monitoring and improving health and productivity of employees
US9615746B2 (en) 2011-07-05 2017-04-11 Saudi Arabian Oil Company Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
CA2840979C (en) * 2011-07-05 2018-07-10 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for coaching employees based upon monitored health conditions using an avatar
US9844344B2 (en) 2011-07-05 2017-12-19 Saudi Arabian Oil Company Systems and method to monitor health of employee when positioned in association with a workstation
CA2840804C (en) 2011-07-05 2018-05-15 Saudi Arabian Oil Company Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9526455B2 (en) 2011-07-05 2016-12-27 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US10307104B2 (en) 2011-07-05 2019-06-04 Saudi Arabian Oil Company Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9710788B2 (en) 2011-07-05 2017-07-18 Saudi Arabian Oil Company Computer mouse system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9722472B2 (en) 2013-12-11 2017-08-01 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for harvesting human energy in the workplace
KR101542693B1 (en) * 2014-05-28 2015-08-06 김병태 Multi-Learning Incubator
US10642955B2 (en) 2015-12-04 2020-05-05 Saudi Arabian Oil Company Devices, methods, and computer medium to provide real time 3D visualization bio-feedback
US9889311B2 (en) 2015-12-04 2018-02-13 Saudi Arabian Oil Company Systems, protective casings for smartphones, and associated methods to enhance use of an automated external defibrillator (AED) device
US10475351B2 (en) 2015-12-04 2019-11-12 Saudi Arabian Oil Company Systems, computer medium and methods for management training systems
US10628770B2 (en) 2015-12-14 2020-04-21 Saudi Arabian Oil Company Systems and methods for acquiring and employing resiliency data for leadership development
US10824132B2 (en) 2017-12-07 2020-11-03 Saudi Arabian Oil Company Intelligent personal protective equipment
JP6457682B1 (en) 2018-04-16 2019-01-23 パスロジ株式会社 Authentication system, authentication method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3965538B2 (en) * 1998-02-27 2007-08-29 株式会社エクォス・リサーチ Agent device
JP2000020888A (en) * 1998-07-07 2000-01-21 Aqueous Reserch:Kk Agent device
US20020022523A1 (en) * 2000-08-17 2002-02-21 Lg Electronics Inc. Learning/growing system using living goods and method thereof
JP2005326670A (en) * 2004-05-14 2005-11-24 Hiroshi Sato Mobile terminal device, information processing method, and service providing system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164793A (en) * 2012-02-13 2013-08-22 Future Tech Lab Co Ltd Agent system that constitutes operating system synchronized for every user, and realizes the same operation for individual users between different electronic apparatuses in operation of modern electronic apparatus
JP2014167517A (en) * 2013-02-28 2014-09-11 Nippon Telegraph & Telephone East Corp Conversation providing system, game providing system, conversation providing method, game providing method, and program
WO2016104193A1 (en) * 2014-12-26 2016-06-30 シャープ株式会社 Response determination device, speech interaction system, method for controlling response determination device, and speech interaction device
JPWO2016104193A1 (en) * 2014-12-26 2017-05-25 シャープ株式会社 Correspondence determining device, voice dialogue system, control method of correspondence determining device, and voice dialogue device
JP2016177440A (en) * 2015-03-19 2016-10-06 ヤフー株式会社 Information processing device and method
JP2016177442A (en) * 2015-03-19 2016-10-06 ヤフー株式会社 Information processing device and method
JP2016177441A (en) * 2015-03-19 2016-10-06 ヤフー株式会社 Information processing device and method
JP2021012421A (en) * 2019-07-03 2021-02-04 株式会社バンダイナムコエンターテインメント Server system and automatic purchase system
JP7481809B2 (en) 2019-07-03 2024-05-13 株式会社バンダイナムコエンターテインメント Server system, automatic purchasing system and purchasing service providing method

Also Published As

Publication number Publication date
WO2008044325A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
JP2010002941A (en) Information providing system
US20230105041A1 (en) Multi-media presentation system
CN105339969B (en) Linked advertisements
Kimmel Connecting with consumers: Marketing for new marketplace realities
US9123061B2 (en) System and method for personalized dynamic web content based on photographic data
US20090158170A1 (en) Automatic profile-based avatar generation
US20140006152A1 (en) Providing a Proximity Triggered Response in a Video Display
TWI666608B (en) Service providing system, service providing device and data construction method
US20130326382A1 (en) Information processing system, storing medium, information processing device, and display method
US20220027929A1 (en) System and method of identifying audience demographics and delivering relative content to audience
CN106921876A (en) Advanced level user is provided using multi-dimensional data to dissect and commercial affairs selection in real time
CN107659545A (en) A kind of media information processing method and media information processing system, electronic equipment
Szocs et al. The store of the future: Engaging customers through sensory elements, personalized atmospherics, and interpersonal interaction
Dalgic et al. Utilizing consumer psychology in business strategy
CN106113057A (en) Audio frequency and video advertising method based on robot and system
Gudelunas Shopping with friends: Audience perspectives on television shopping
JP6905615B1 (en) Augmented reality system
JP5472566B2 (en) Information registration presentation device, information registration presentation system, information registration presentation method, and information registration presentation processing program
CN103383597B (en) Method for media program to be presented
CN106920142A (en) Integrated multi-platform user interface/Consumer&#39;s Experience
JP2022036690A (en) Virtual space delivery device, computer program, and virtual space delivery method
CN113407146A (en) Terminal voice interaction method and system and corresponding terminal equipment
Ritmala Creating sensory experiences for customers
Lombard et al. Digital Advertising in a New Age: The Power of (Tele) Presence
Eru Online game experiences: The perspective of experiental marketing