JP2002082893A - Terminal with chatting means, editing device, chat server and recording medium - Google Patents

Terminal with chatting means, editing device, chat server and recording medium

Info

Publication number
JP2002082893A
JP2002082893A JP2000272349A JP2000272349A JP2002082893A JP 2002082893 A JP2002082893 A JP 2002082893A JP 2000272349 A JP2000272349 A JP 2000272349A JP 2000272349 A JP2000272349 A JP 2000272349A JP 2002082893 A JP2002082893 A JP 2002082893A
Authority
JP
Japan
Prior art keywords
chat
virtual object
user
terminal device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000272349A
Other languages
Japanese (ja)
Inventor
Hiroyuki Tarumi
浩幸 垂水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2000272349A priority Critical patent/JP2002082893A/en
Publication of JP2002082893A publication Critical patent/JP2002082893A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve a problem that invitation to chat by selecting only users in a specified area can not be made in the conventional chat system. SOLUTION: A virtual object which can be referred only in the specified area is utilized and a function to invite the virtual object to participate in the chat and a chat starting function to specify a chat server and an identification mark of a chat room are incorporated in the chat system.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、チャットを実現す
るシステムに関し、特に移動中の不特定多数のユーザに
対して地域を限定してチャットの誘いを実現するシステ
ムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for implementing a chat, and more particularly to a system for inviting an unspecified number of moving users to chat in a limited area.

【0002】[0002]

【従来の技術】インターネット等の通信網の発達によ
り、複数のユーザの間で文字によるメッセージをリアル
タイムに交換するサービスであるチャットが普及してき
ている。
2. Description of the Related Art With the development of communication networks such as the Internet, chats, which are services for exchanging text messages in real time among a plurality of users, have become widespread.

【0003】最も一般的に行われているチャットは、イ
ンターネット上のWWW(World Wide We
b)の特定のページを閲覧する複数のユーザが、それぞ
れ自分の名前(仮名でもよい)を使ってログインし、互
いに文字列をタイプすることによって発言しあい、他人
の発言を画面上で確認するという方式のものである。こ
のような例は、2000年9月1日現在、http://www.j
side.com などで商用で行われている。
[0003] The most commonly used chat is WWW (World Wide Wed) on the Internet.
b) A plurality of users browsing a specific page log in using their own names (or pseudonyms), speak each other by typing a character string, and confirm the comments of others on the screen. It is of the system. An example of this is http: //www.j as of September 1, 2000.
Commercially available at side.com.

【0004】また、IRC(Internet Rel
ay Chat)というシステムもある。このシステム
では、インターネット上に複数配置されているIRC専
用のサーバに定義されているチャットルームと呼ばれる
通信チャネルに、IRC専用のクライアントソフトウェ
アを接続することによってシステムが構成されている。
あるチャットルームに接続されているクライアントソフ
トウェアを利用するユーザの発言(文字列のタイピン
グ)は、同一のチャットルームに接続しているすべての
クライアントソフトウェアに伝達される。これにより、
同一のチャットルームに接続している複数のユーザの間
でのリアルタイムの会話が成り立つようになっている。
IRC専用のサーバとしては、(株)富士通研究所で開
発されたCHOCOS、またクライアントソフトウェア
としては、同じく(株)富士通研究所で開発されたCH
OCOAなどがある。CHOCOSとCHOCOAに関
する技術情報は、2000年9月1日現在、http://ww
w.chocoa.comで開示されている。
Further, IRC (Internet Rel)
ay Chat). In this system, a system is configured by connecting IRC-dedicated client software to a communication channel called a chat room defined in a plurality of IRC-dedicated servers arranged on the Internet.
A user's remark (character string typing) using client software connected to a certain chat room is transmitted to all client software connected to the same chat room. This allows
Real-time conversation between a plurality of users connected to the same chat room is established.
CHOCOS developed by Fujitsu Laboratories Ltd. as a server dedicated to IRC, and CH-COS developed by Fujitsu Laboratories Ltd. as client software
OCOA and the like. Technical information on CHOCOS and CHOCOA is available at http: // ww as of September 1, 2000.
It is disclosed on w.chocoa.com.

【0005】上記のものはいずれも、文字列のやりとり
のみによるユーザ間コミュニケーションを実現している
が、さらに表情等を用いて感情を伝える手段を提供して
いるサービスも存在する。たとえば、IRCクライアン
トソフトウェアの一種であるマイクロソフト社のコミッ
クチャットというソフトウェアでは、ユーザを漫画の登
場人物に見立てて表示し、その表情を数通り用意して表
示することにより、喜怒哀楽等の感情を表現できるよう
になっている。また、チャットで受渡しする文字列にH
TML(Hypertext Markup Lang
uage)を利用することにより、画像や文字フォント
の変更などを伝えることができる場合もある。また音声
が送れるものもある。本明細書では、これらの、チャッ
トで受渡しされるデータの形式を総称して、「文字列
等」と表記する。
[0005] All of the above-mentioned ones realize communication between users only by exchanging character strings, but there are also services that provide means for conveying emotions using facial expressions and the like. For example, a comic chat software from Microsoft, which is a type of IRC client software, displays a user as a cartoon character and prepares and displays several expressions to express emotions such as emotions and emotions. It can be expressed. In addition, the character string to be passed on chat
TML (Hypertext Markup Lang)
In some cases, a change in an image, a character font, or the like can be transmitted by using “uage)”. Some can send audio. In this specification, the format of the data transferred in the chat is generically referred to as “character string or the like”.

【0006】さらに上記のチャットシステムの技術を応
用したものとして、3次元仮想空間を用いたものがあ
る。このようなシテスムでは、各ユーザが自分のアバタ
(化身)を持ち、アバタが3次元仮想空間内を移動す
る。3次元仮想空間で近距離にいる他人のアバタや、仮
想の物体、仮想の生物等とチャットで会話ができるよう
になっている。このようなシステムの構築技術を公開し
たものとしては、特開平10−154053号公報「3
次元仮想現実空間表示処理装置、3次元仮想現実空間処
理方法、および情報提供媒体」がある。さらに音声によ
るメッセージ交換を3次元仮想空間で実現したものとし
ては、特開平10−207684号公報「3次元仮想現
実空間共有シテスムにおける情報処理装置、情報処理方
法および媒体」で公開された技術がある。
Further, as an application of the above-described chat system technology, there is an application using a three-dimensional virtual space. In such a system, each user has his or her own avatar (incarnation), and the avatar moves in a three-dimensional virtual space. In a three-dimensional virtual space, it is possible to have a conversation with an avatar, a virtual object, a virtual creature or the like of another person who is in a short distance by chat. Japanese Patent Application Laid-Open No. H10-154053 discloses "3.
3D Virtual Reality Space Display Processing Apparatus, 3D Virtual Reality Space Processing Method, and Information Providing Medium ". Further, as a technology for realizing voice message exchange in a three-dimensional virtual space, there is a technology disclosed in Japanese Patent Application Laid-Open No. H10-207684 "Information processing apparatus, information processing method and medium in three-dimensional virtual reality space sharing system". .

【0007】[0007]

【発明が解決しようとする課題】前述の数々のチャット
のシステムでは、チャットによるコミュニケーションを
開始するきっかけを与える手段が二通りある。第一は、
同じWWWのページや同じチャットルームに接続してい
るユーザ同士がチャットを開始し得るものである。ま
た、第二は3次元仮想空間を用いたものの場合で、仮想
空間内で近距離に位置するユーザ同士がチャットを開始
し得るものである
In the above-mentioned various chat systems, there are two means for giving an opportunity to start communication by chat. The first is
Users connected to the same WWW page or the same chat room can start chatting. The second is a case using a three-dimensional virtual space, in which users located at short distances in the virtual space can start chatting.

【0008】第一の場合においては、ユーザ同士は予め
示し合わせて同じWWWページや同じチャットルームに
接続しなければチャットが開始できない。また第二の場
合においては、予め示し合わせて同じ仮想空間に自分の
アバタをおいた上で、さらに仮想空間内でアバタが近距
離に位置していなければチャットが開始できない。
[0008] In the first case, the users cannot start chatting unless they connect to the same WWW page or the same chat room in advance. In the second case, chatting cannot be started unless the avatar is placed in the same virtual space and the avatar is not located at a short distance in the virtual space.

【0009】すなわち、以上述べたいずれのシステムに
おいても、次のような要求には対応できない。
That is, none of the systems described above can meet the following requirements.

【0010】第一に、例えば、あるユーザ(インターネ
ットに接続された自宅の計算機を利用中と想定する)が
これから銀座に出かける用事があり、銀座の様子を知る
ために銀座のある場所、たとえば銀座4丁目交差点付近
に現在いる人にチャットで話しかけたいといったよう
に、(仮想世界ではなく)現実世界の地理的に特定され
た場所に現在いる人に対してチャットを行いたいという
要求である。
First, for example, a user (assuming that a computer at home connected to the Internet is being used) is going to go to Ginza, and a place in Ginza, for example, Ginza in order to know the state of Ginza. A request is to chat with a person who is currently at a geographically specified location in the real world (not the virtual world), such as wanting to chat with a person who is currently near the 4-chome intersection.

【0011】第二に、特定の複数の場所、例えば東京の
銀座四丁目と大阪の梅田一丁目にいる人のみ参加可能な
チャットのセッションを設定したいという要求である。
Second, there is a request to set up a chat session in which only persons at a plurality of specific locations, for example, Ginza 4-chome in Tokyo and Umeda 1-chome in Osaka can participate.

【0012】現在、携帯電話・PHS事業者の少なくと
も一部は、携帯電話或いはPHSの所持者の居場所を特
定する技術を有しているので、たとえば銀座4丁目付近
にいる人全員の電話をコールし、最初に電話に出た人と
の間で回線接続を行うというようなことは技術的には可
能である。上記のような要求は単純にはこの方法で満た
すことができる。しかしこのような方法は電話を受け取
った人にとっては迷惑千万であり、社会的に受け入れら
れるとは考えにくい。社会的に受容される方法で、上述
の要求を満たす技術が求められる。
At present, at least a part of the mobile phone / PHS business has a technology for specifying the location of the owner of the mobile phone or PHS, so that, for example, calls of all persons near Ginza 4-chome can be made. However, it is technically possible to make a line connection with the person who first answers the telephone. The above requirements can simply be met in this way. However, such a method is annoying to those who receive the call and is unlikely to be socially acceptable. There is a need for technology that meets the above requirements in a socially acceptable manner.

【0013】[0013]

【課題を解決するための手段】上記の課題を解決するた
めに、特定の地域でのみ閲覧可能な仮想オブジェクトを
利用する。このような仮想オブジェクトは、近代科学社
刊「インタラクティブシステムとソフトウェアVI」の1
ページから10ページに記載の論文「時空間限定型オブジ
ェクトシステム:SpaceTag」(以下、文献1と
表記する)と情報処理学会刊「マルチメディア、分散、
協調とモーバイル(DICOMO'99)シンポジウム論文集」(1
999年7月)の495ページから500ページまでに記載の論文
「時空間限定オブジェクトシステムSpaceTag、
プロトタイプシステムの設計と実装」(以下、文献2と
表記する)とに開示されている技術である「Space
Tag」を利用することで実現できる。
In order to solve the above-mentioned problem, a virtual object that can be browsed only in a specific area is used. Such a virtual object is one of "Interactive System and Software VI" published by Modern Science.
The paper "Space-Time Limited Object System: SpaceTag" (hereinafter referred to as Document 1) described on pages 10 to 10 and "Multimedia, Distributed,
Collection of Symposium on Cooperation and Mobile (DICOMO'99) ”(1
(July 999) pp. 495 to 500 of the paper "Space-Time Limited Object System SpaceTag,
"Space and Design", a technique disclosed in "Design and Implementation of Prototype System" (hereinafter referred to as Document 2).
It can be realized by using “Tag”.

【0014】SpaceTagは、特定の領域に居るユ
ーザが、携帯端末を利用して閲覧できる仮想オブジェク
トである。ユーザは、GPS(Global Posi
tioning System)等の位置測定機能を有
する携帯電話や携帯型計算機等の携帯端末を所持してお
り、ユーザの居る位置において閲覧可能なSpaceT
agのみを携帯端末の画面上で見ることができる。すな
わち、SpaceTagという仮想オブジェクトには、
一つ一つ位置座標が決められており、その位置座標から
一定距離内にいるユーザしか閲覧できない。Space
Tagは任意のデータ形式をとることができる。例えば
文書であってもよいし、動画であってもよいし、音声で
あってもよいし、実行可能なプログラムであってもよ
い。
[0014] A SpaceTag is a virtual object that can be browsed by a user in a specific area using a portable terminal. The user can use GPS (Global Posi)
SpaceT, which has a portable terminal such as a mobile phone or a portable computer having a position measuring function such as a Tying System, and can be browsed at the position where the user is.
Only ag can be seen on the screen of the mobile terminal. That is, a virtual object called SpaceTag has
Position coordinates are determined one by one, and only users within a certain distance from the position coordinates can browse. Space
Tag can take any data format. For example, it may be a document, a moving image, a sound, or an executable program.

【0015】以下に、このようにSpaceTagによ
って実現可能な仮想オブジェクトを用いて特定の領域に
いる人とのチャットを開始するための手段の概略を説明
する。
Hereinafter, an outline of means for starting a chat with a person in a specific area using a virtual object which can be realized by SpaceTag will be described.

【0016】仮想オブジェクトをチャットに利用するた
めには次のような手段をとる。仮想オブジェクトとして
は「チャットしましょう」あるいは「お話ししましょ
う」などのチャット希望を表現するようなデータを使
う。ある領域にいる人とのチャットを希望するユーザ
(以後、ユーザAと書く)は、このような仮想オブジェ
クトを作成し、当該領域に置く。例えば、ユーザAが銀
座四丁目交差点付近にいる誰かとチャットしたければ、
仮想オブジェクトを銀座四丁目交差点に置く。この場合
の置くという操作は仮想オブジェクトに対して位置属性
を与える処理なので、実際に銀座四丁目の交差点に物理
的な何かが置かれるわけではない。銀座四丁目交差点付
近にいる人で、仮想オブジェクトを閲覧する機能を有す
る携帯端末を持っている人のうちの誰か(以後、ユーザ
Bとする)が、該仮想オブジェクトを見つけて、チャッ
トをしても良いと考えた場合、ユーザBが該仮想オブジ
ェクトに対して携帯端末上である操作を行うと、ユーザ
BはユーザAとチャットが開始できるように仕組む。
In order to use a virtual object for a chat, the following means is used. As the virtual object, data that expresses a chat desire, such as "let's chat" or "let's talk", is used. A user who wants to chat with a person in a certain area (hereinafter referred to as user A) creates such a virtual object and places it in the area. For example, if user A wants to chat with someone near the Ginza 4-chome intersection,
Place the virtual object at the Ginza 4-chome intersection. Since the operation of placing in this case is a process of giving a position attribute to the virtual object, something physical is not actually placed at the intersection of Ginza 4-chome. Someone near the Ginza 4-chome intersection and having a portable terminal having a function of browsing a virtual object (hereinafter referred to as user B) finds the virtual object and chats with him. When the user B performs an operation on the mobile terminal with respect to the virtual object, the user B arranges to start chatting with the user A.

【0017】また、複数の地点にいる人のみ参加可能な
チャットのセッションを設定する場合には、それら複数
の地点にチャットの誘いをかけるための仮想オブジェク
トを置く。それらの場所にいる、仮想オブジェクトを閲
覧する機能を有する携帯端末を持っている人のうちの誰
かが、その仮想オブジェクトを見つけて、チャットをし
ても良いと考えた場合、ユーザがその仮想オブジェクト
に対して携帯端末上である操作を行うと、チャットのセ
ッションに参加できる。
When a chat session in which only persons at a plurality of points can participate is set, a virtual object for inviting a chat to the plurality of points is placed. If any of those people who have a mobile terminal with the function of browsing the virtual object at those places find that the virtual object is acceptable and chat with them, By performing an operation on the mobile terminal, the user can participate in a chat session.

【0018】このような仕組みは、仮想オブジェクトが
外見上はチャットを希望する文字列等でありつつ、か
つ、内部的にはチャットのクライアントソフトウェアと
しての機能を有するか、あるいはチャットのクライアン
トソフトウェアを起動するプログラムでもあるような仮
想オブジェクトとして提供することで実現できる。
According to such a mechanism, the virtual object is apparently a character string or the like desired to be chatted and has a function internally as a client software of the chat, or activates the client software of the chat. It can be realized by providing it as a virtual object that is also a program to perform.

【0019】このようにすることで、チャットに対して
興味のある人以外には迷惑のかからないような方法で、
特定の地域にいる人に対してチャットの開始を呼びかけ
ることができる。
[0019] By doing so, in a manner that does not bother anyone other than those who are interested in chatting,
You can invite people in a particular area to start a chat.

【0020】しかし、単に「チャットしましょう」等の
文字列を表示するだけの仮想オブジェクトでは魅力に乏
しく、実際にチャットが成立する可能性を高く期待する
ことはできない。この問題を解決するため、本発明で
は、さらに、仮想オブジェクトとして動物等の外見を持
つキャラクターを利用し、キャラクターがユーザに話し
かけてくるようなユーザインタフェースも採用し、チャ
ットの成立可能性を向上させる。
However, a virtual object that merely displays a character string such as “let's chat” is less attractive and cannot be expected to have a high possibility of actually establishing a chat. In order to solve this problem, the present invention further uses a character having appearance such as an animal as a virtual object, employs a user interface in which the character speaks to the user, and improves the possibility of establishing a chat. .

【0021】また、文字列の入力によらず音声によるチ
ャットのセッションを利用したい場合もある。この場合
については、チャットのサーバおよびクライアントソフ
トウェアとして音声を利用できるもの、あるいは電話を
利用することによって実現する。
There is also a case where it is desired to use a voice chat session without inputting a character string. This case is realized by using voice as a chat server and client software, or using a telephone.

【0022】本発明の実施においては、実際にユーザが
チャット可能な場所に居続けている(チャット開始後移
動していない)ことを確認したい場合もある、このた
め、チャットサーバにユーザの居場所を認証する手段を
加えて、チャットへの参加を許可した場所以外からのチ
ャットへの参加を制限する。
In the embodiment of the present invention, there is a case where it is desired to confirm that the user is actually staying in a place where the chat can be performed (the user has not moved after starting the chat). And restrict chat participation from places other than those where you are allowed to participate.

【0023】[0023]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。実施の形態は五つ説明
する。第一の実施の形態は、あるユーザが、特定の場所
にいる不特定のユーザとの間でチャットを行いたいとい
う要求を満足するための最も基本的な実施の形態であ
る。第二の実施の形態は、ユーザインタフェースにキャ
ラクターを利用してチャットの成立率を向上させる実施
の形態である。第三の実施の形態は、音声を用いたチャ
ットを実現する実施の形態である。第四の実施の形態
は、チャットシステムの管理者が、特定の複数の場所に
いる不特定の人の間でのチャットセッションを設定した
いという要求を満たすための実施の形態である。第五の
実施の形態は、チャットに参加するユーザがチャットを
許可されない場所に移動した後でもチャットに参加し続
けることがないようにするための実施の形態である。第
二から第五の実施の形態はいずれも第一の実施の形態の
改良もしくは小規模の改造である。
Embodiments of the present invention will be described below with reference to the drawings. Five embodiments will be described. The first embodiment is the most basic embodiment for satisfying a request that a certain user wants to chat with an unspecified user at a specific place. The second embodiment is an embodiment in which a character is used as a user interface to improve the chat establishment rate. The third embodiment is an embodiment for realizing a chat using voice. The fourth embodiment is an embodiment for satisfying a request that a manager of a chat system wants to set up a chat session between unspecified persons at a plurality of specific places. The fifth embodiment is an embodiment for preventing a user participating in a chat from continuing to participate in a chat even after moving to a place where the chat is not permitted. Each of the second to fifth embodiments is an improvement or small-scale modification of the first embodiment.

【0024】まず、第一の実施の形態について、図面を
参照しながら説明する 。
First, a first embodiment will be described with reference to the drawings.

【0025】図1は、本発明の全体構成を示すブロック
図である。本発明は、携帯端末1、仮想オブジェクトサ
ーバ2、チャットサーバ3、端末4から構成される。チ
ャットの誘いをかけるユーザが利用するのは端末4であ
る。チャットの誘いをかけられるユーザが利用するのは
携帯端末1である。携帯端末1、端末4はそれぞれ仮想
オブジェクトサーバ2、チャットサーバ3と通信を行
う。携帯端末1は移動するユーザが利用可能なものであ
れば何でも良く、ノートサイズのコンピュータ、手の平
サイズのコンピュータ、携帯電話、着装可能なコンピュ
ータ(いわゆるウェアラブルコンピュータ)などが考え
られる。また端末4は固定端末であっても携帯可能な端
末であっても構わない。以下に、これらを順に説明す
る。
FIG. 1 is a block diagram showing the overall configuration of the present invention. The present invention includes a mobile terminal 1, a virtual object server 2, a chat server 3, and a terminal 4. It is the terminal 4 that the user who invites the chat is used. The mobile terminal 1 is used by a user who can be invited to chat. The mobile terminal 1 and the terminal 4 communicate with the virtual object server 2 and the chat server 3, respectively. The mobile terminal 1 may be anything that can be used by a moving user, and may be a notebook-sized computer, a palm-sized computer, a mobile phone, a wearable computer (a so-called wearable computer), or the like. The terminal 4 may be a fixed terminal or a portable terminal. Hereinafter, these will be described in order.

【0026】なお、第一の実施の形態において、携帯端
末1は請求項1と請求項13に係わる発明の実施の形態
であり、端末4は請求項7、請求項17、請求項21に
係わる発明の実施の形態である。
In the first embodiment, the portable terminal 1 is an embodiment of the invention according to claims 1 and 13, and the terminal 4 is according to claims 7, 17, and 21. It is an embodiment of the invention.

【0027】図2は、本発明において、移動するユー
ザ、すなわちチャットの誘いをかけられることが想定さ
れるユーザが所有する、携帯端末1の構成を示すブロッ
ク図である。携帯端末1は、仮想オブジェクトに関する
インデクス情報を仮想オブジェクトサーバ2から受け取
るための第一の通信チャネルを受信するインデクス受信
手段10、携帯端末1の位置を測定する測位手段11、
複数の仮想オブジェクトの中から表示すべきものの選択
を行う情報選択手段12、仮想オブジェクトサーバ2か
ら仮想オブジェクトのコンテンツの受け取りを行うため
の第二の通信チャネルの送受信を行う送受信手段13、
端末ユーザとのユーザインタフェースを実現するユーザ
インタフェース手段14、および、チャットを実現する
チャット手段15から構成されている。
FIG. 2 is a block diagram showing a configuration of the portable terminal 1 owned by a moving user, that is, a user who is supposed to be invited to chat in the present invention. The mobile terminal 1 includes an index receiving unit 10 that receives a first communication channel for receiving index information about the virtual object from the virtual object server 2, a positioning unit 11 that measures the position of the mobile terminal 1,
Information selecting means 12 for selecting an object to be displayed from a plurality of virtual objects; transmitting / receiving means 13 for transmitting / receiving a second communication channel for receiving the content of the virtual object from the virtual object server 2;
It comprises a user interface means 14 for realizing a user interface with a terminal user and a chat means 15 for realizing a chat.

【0028】インデクス受信手段10は第一の通信チャ
ネルを通してインデクス情報を仮想オブジェクトサーバ
2から受信する。第一の通信チャネルは低コストで一斉
同報処理の可能な通信方式が適している。たとえば、ポ
ケットベル(NTTドコモグループの商標)等の呼称で
利用されているページャは、安価な一斉同報通信チャネ
ルである。安価な一斉同報通信チャネルとしては、他に
FM文字放送も考えられる。
The index receiving means 10 receives index information from the virtual object server 2 through the first communication channel. For the first communication channel, a communication method capable of performing broadcast processing at low cost is suitable. For example, a pager used under a name such as a pager (a trademark of the NTT Docomo Group) is an inexpensive broadcast channel. As an inexpensive broadcast channel, FM teletext broadcasting is also conceivable.

【0029】図3はインデクス受信手段10が外部から
受信するインデクス情報の形式の例を示す図である。一
単位のインデクス情報は、識別記号、名前、緯度、経
度、有効半径、開始時刻、終了時刻、サイズの情報から
なっている。一単位のインデクス情報は、一つの仮想オ
ブジェクトに関する情報である。識別記号は仮想オブジ
ェクトを識別するための一意の記号である。名前は仮想
オブジェクトの内容を簡潔に示す文字列等である。緯度
と経度は仮想オブジェクトの有効な地域の中心となる位
置(以下、単に中心位置と称する)を示す。有効半径
は、仮想オブジェクトが有効な距離を示す。すなわち、
中心位置から有効半径分だけ離れた距離までの円形の領
域で該仮想オブジェクトが有効であることを示す。な
お、この例では円形の領域を仮定しているが、インデク
ス情報のパラメータの与え方によって円形以外の領域を
有効領域として定義することも可能である。たとえば、
四角形の領域も可能である。さらに、インデクス情報に
高さに関する情報を加えることにより、中心位置を三次
元で表現し、該仮想オブジェクトの有効領域を球、ある
いは他の三次元形状で定義することも可能である。開始
時刻と終了時刻は、該仮想オブジェクトを閲覧可能な時
間帯の最初と最後を示す。サイズは該仮想オブジェクト
のサイズ(バイト数等)を示す。
FIG. 3 is a diagram showing an example of the format of index information that the index receiving means 10 receives from outside. One unit of index information includes information of an identification symbol, a name, a latitude, a longitude, an effective radius, a start time, an end time, and a size. One unit of index information is information on one virtual object. The identification symbol is a unique symbol for identifying the virtual object. The name is a character string or the like that briefly indicates the contents of the virtual object. The latitude and longitude indicate a position (hereinafter simply referred to as a center position) which is a center of an effective area of the virtual object. The effective radius indicates the effective distance of the virtual object. That is,
This indicates that the virtual object is valid in a circular area from the center position to a distance separated by the effective radius. Although a circular area is assumed in this example, an area other than the circular area can be defined as an effective area depending on how to give parameters of the index information. For example,
Square areas are also possible. Furthermore, by adding information about the height to the index information, the center position can be expressed in three dimensions, and the effective area of the virtual object can be defined by a sphere or another three-dimensional shape. The start time and the end time indicate the beginning and end of the time zone in which the virtual object can be browsed. The size indicates the size (such as the number of bytes) of the virtual object.

【0030】このように場所と時間を限定して携帯端末
から閲覧可能な情報を制限することに関しては、文献
1、文献2にも記載されているので、これらの文献に記
載されている技術が適用可能である。たとえば、仮想オ
ブジェクトを用途目的別に分類する技術(文献1、文献
2ではチャンネルと称しているが、本明細書で言う通信
チャネルとは異なるものである)、中心位置からの距離
に応じて仮想オブジェクトの見せ方を変更する技術、仮
想オブジェクトを時間とともに移動させる技術などが適
用できる。ただし文献1、文献2ではインデクス情報を
別扱いにしていないので、本実施の形態とは通信の仕方
が異なっている。
[0030] Limiting the information that can be browsed from the portable terminal by limiting the place and time in this way is described in References 1 and 2, and the technology described in these references is used. Applicable. For example, a technique for classifying virtual objects according to purpose of use (referred to as a channel in Literatures 1 and 2 but different from a communication channel referred to in this specification), a virtual object according to a distance from a center position A technique for changing the way of showing a virtual object, a technique for moving a virtual object over time, and the like are applicable. However, in References 1 and 2, index information is not treated separately, so that the communication method is different from that of the present embodiment.

【0031】図2の説明に戻る。測位手段11は、携帯
端末1の現在位置と現在時刻を知る装置である。具体的
には、衛星を用いた測位システムであるGPSが適して
いるが、他の手段であっても構わない。例えば、地上に
設置した複数の基地局からの電波を受信することによっ
て位置を知るような装置であっても構わない。
Returning to the description of FIG. The positioning means 11 is a device that knows the current position and the current time of the mobile terminal 1. Specifically, GPS, which is a positioning system using satellites, is suitable, but other means may be used. For example, a device that knows the position by receiving radio waves from a plurality of base stations installed on the ground may be used.

【0032】情報選択手段12は、インデクス受信手段
10からインデクス情報を受け取り、測位手段11から
位置と時刻に関する情報を受け取る。インデクス情報は
次々とインデクス受信手段10から情報選択手段12に
送られて来るが、情報選択手段12は、測位手段11か
ら得た現在位置と現在時刻に関する情報を参照し、イン
デクス情報の中から現在の場所と時間において閲覧が許
可されているものを選択する。
The information selecting means 12 receives the index information from the index receiving means 10 and receives the information on the position and the time from the positioning means 11. The index information is successively sent from the index receiving means 10 to the information selecting means 12. The information selecting means 12 refers to the information on the current position and the current time obtained from the positioning means 11, and selects the current information from the index information. Select ones that are allowed to browse at the location and time.

【0033】ユーザインタフェース手段14は、携帯端
末1のユーザが入出力を行うための入出力装置の集合で
ある。たとえば、出力装置としての液晶ディスプレイと
入力装置としてのキーボードの組み合わせである。出力
装置としてスピーカを備えていても構わないし、入力装
置としてマイクロフォンや、タッチパッド等のポインテ
ィングデバイスを備えていても構わない。
The user interface means 14 is a set of input / output devices for the user of the portable terminal 1 to perform input / output. For example, a combination of a liquid crystal display as an output device and a keyboard as an input device. A speaker may be provided as an output device, and a microphone or a pointing device such as a touch pad may be provided as an input device.

【0034】情報選択手段12は、前述のように選択し
たインデクス情報を、ユーザインタフェース手段14を
利用してユーザに提示する。図4は、液晶ディスプレイ
が出力装置として利用されている場合に、インデクス情
報がユーザに提示されている様子を示す、ユーザインタ
フェースの外見の例を示す図である。この例では、液晶
ディスプレイ30に、五項目のインデクス情報31a、
31b、31c、31d、31eが示されている。一つ
のインデクス情報の表示においては、開始時刻が24時
間制の時刻または日付で提示され、それに加えて名前が
表示されている。例えば、インデクス情報31aの場
合、開始時刻が13時5分であり、名前が「迷子の犬を
探して」である。この例では表示しないこととなってい
るが、液晶ディスプレイ30の画面の広さなどに応じて
表示する項目を変更しても構わない。たとえば、画面が
広ければ中心位置までの距離を示したり、地図上に仮想
オブジェクトの中心位置を表示したりしても構わない。
地図上に仮想オブジェクトの中心位置を表示する場合の
例は、文献2にも示されている。
The information selecting means 12 presents the index information selected as described above to the user using the user interface means 14. FIG. 4 is a diagram illustrating an example of the appearance of a user interface showing a state in which index information is presented to a user when a liquid crystal display is used as an output device. In this example, five items of index information 31a are displayed on the liquid crystal display 30.
31b, 31c, 31d and 31e are shown. In the display of one piece of index information, the start time is presented by a time or date in a 24-hour system, and a name is displayed in addition thereto. For example, in the case of the index information 31a, the start time is 13:05, and the name is "Find a lost child". Although not displayed in this example, the displayed items may be changed according to the size of the screen of the liquid crystal display 30 or the like. For example, if the screen is wide, the distance to the center position may be indicated, or the center position of the virtual object may be displayed on a map.
An example in which the center position of a virtual object is displayed on a map is also shown in Reference 2.

【0035】ユーザは、ユーザインタフェース手段14
によって示されたインデクス情報の中から、閲覧したい
ものを選択する。例えば、31dのインデクス情報「チ
ャットしましょう」を選択したとする。選択したインデ
クス情報は、情報選択手段12に送られる。情報選択手
段12は、ユーザが閲覧を希望する仮想オブジェクトの
インデクス情報の識別記号と、測位手段11から得た現
在位置に関する情報とを送受信手段13に送り、仮想オ
ブジェクトのコンテンツの獲得を依頼する。
The user operates the user interface means 14
Is selected from the index information indicated by. For example, assume that the 31d index information "let's chat" is selected. The selected index information is sent to the information selecting means 12. The information selection unit 12 sends the identification symbol of the index information of the virtual object that the user wants to browse and the information on the current position obtained from the positioning unit 11 to the transmission / reception unit 13 and requests acquisition of the content of the virtual object.

【0036】送受信手段13は、高速な第二の通信チャ
ネルを利用して、仮想オブジェクトサーバ2と双方向通
信を行う手段である。第二の通信チャネルはいかなるも
のであっても構わないが、例えば現在普及している技術
であれば64kbpsで通信が可能なPHSがある。ま
た、現在計画されているものとしては、次世代の携帯電
話規格のIMT−2000が考えられる。携帯端末を利
用中に何らかの有線通信媒体等に接続することを前提に
すれば、第二の通信チャネルは有線通信であっても構わ
ない。また、送信と受信とで異なる通信手段、例えば異
なる周波数帯を利用してもかまわない。
The transmission / reception means 13 is means for performing two-way communication with the virtual object server 2 using the high-speed second communication channel. The second communication channel may be of any type. For example, there is a PHS that can communicate at 64 kbps if the technology is currently widespread. Also, what is currently being planned is the next-generation mobile phone standard IMT-2000. Assuming that the mobile terminal is connected to any wired communication medium or the like while being used, the second communication channel may be wired communication. Further, different communication means for transmission and reception, for example, different frequency bands may be used.

【0037】さて、送受信手段13は、情報選択手段1
2から獲得すべき仮想オブジェクトの識別記号と現在位
置に関する情報を受け取ると、仮想オブジェクトサーバ
2との間に通信接続を確立し、識別記号と現在位置に関
する情報を仮想オブジェクトサーバ2に送信する。仮想
オブジェクトサーバ2の構成については後述する。仮想
オブジェクトサーバ2は、識別記号に該当する仮想オブ
ジェクトが、現在時刻と携帯端末1の所在位置に照らし
合わせて閲覧可能と判断できれば、当該コンテンツを携
帯端末1の送受信手段13に第二の通信チャネルを利用
して送り込む。送受信手段13は受け取ったコンテンツ
を情報選択手段12経由で、または直接にユーザインタ
フェース手段14に送る。ユーザインタフェース手段1
4はコンテンツをユーザに表示する。
Now, the transmitting / receiving means 13 includes the information selecting means 1
When receiving the information about the identification symbol of the virtual object to be obtained and the current position from the virtual object server 2, it establishes a communication connection with the virtual object server 2 and sends the information about the identification symbol and the current position to the virtual object server 2. The configuration of the virtual object server 2 will be described later. If the virtual object server 2 determines that the virtual object corresponding to the identification symbol can be browsed based on the current time and the location of the mobile terminal 1, the virtual object server 2 transmits the content to the transmission / reception unit 13 of the mobile terminal 1 via the second communication channel. Send using. The transmitting / receiving means 13 sends the received content to the user interface means 14 via the information selecting means 12 or directly. User interface means 1
4 displays the content to the user.

【0038】図5は、仮想オブジェクトのコンテンツの
データの一般的な形式を示す図である。図から明らかな
ように、図3のインデクス情報にコンテンツが追加され
た形式となる。このコンテンツの部分は、各仮想オブジ
ェクト毎にそれぞれ異なる形式のデータであって構わな
い。例えば、画像データであればJPEG等の形式、音
声・音楽であればWAVやMIDIなどの形式、複合文
書であればHTML等の形式、3次元形状であればVR
MLなどの形式が考えられる。
FIG. 5 is a diagram showing a general format of the data of the content of the virtual object. As is clear from the figure, the format is such that the content is added to the index information in FIG. This content portion may be data of a different format for each virtual object. For example, a format such as JPEG for image data, a format such as WAV or MIDI for voice and music, a format such as HTML for compound documents, and a VR for three-dimensional shape
A format such as ML is conceivable.

【0039】図6は、先に選択されたインデクス情報3
1dに対応するコンテンツの場合に想定されるコンテン
ツデータの概略を示す図である。この例では、識別番号
が00123456の仮想オブジェクトであり、名前
が″チャットしましょう″であり、中心位置が北緯35
度40分04.7秒、東経139度46分05.7秒で
あり、有効半径が200メートルであり、開始時刻が2
000年5月20日の12時50分であり、終了時刻が
同日13時05分であり、サイズが800キロバイトで
ある。コンテンツは「銀座4丁目付近の方、…」で始ま
る短文のテキストと、ボタンの定義から構成されている
ものとする。ボタンの定義には外見の定義と動作の定義
がある。
FIG. 6 shows the previously selected index information 3
It is a figure which shows the outline of the content data assumed in the case of the content corresponding to 1d. In this example, the virtual object has the identification number 00123456, the name is “let's chat”, and the center position is north latitude 35.
Degree 40 minutes 04.7 seconds, east longitude 139 degrees 46 minutes 05.7 seconds, effective radius 200 meters, start time 2
At 12:50 on May 20, 2000, the end time is 13:05 on the same day, and the size is 800 kilobytes. It is assumed that the content is composed of short texts starting with “Ginza 4-chome area,...” And button definitions. There are two types of button definitions: appearance and behavior.

【0040】図7は、図6に示されるコンテンツがユー
ザインタフェース手段14の液晶ディスプレイ30に表
示されている例を示す図である。インデクス情報の一部
はインデクス情報表示領域32aに表示されている。ま
た仮想オブジェクトのコンテンツのうちのテキスト部分
はコンテンツ表示領域32bに表示されている。この例
の場合、コンテンツにはさらにボタン32c、32dが
含まれているため、それらは別個に表示されている。ユ
ーザがボタン32cをクリックすると、チャットが開始
される。ユーザがボタン32dをクリックすると、チャ
ットは開始されない。前述の通り、これらの動作に関す
る記述もコンテンツに含まれている。
FIG. 7 is a diagram showing an example in which the content shown in FIG. 6 is displayed on the liquid crystal display 30 of the user interface means 14. Part of the index information is displayed in the index information display area 32a. The text portion of the content of the virtual object is displayed in the content display area 32b. In this example, since the content further includes buttons 32c and 32d, they are displayed separately. When the user clicks the button 32c, the chat starts. When the user clicks the button 32d, the chat does not start. As described above, the description regarding these operations is also included in the content.

【0041】ユーザがボタン32cをクリックした場
合、チャット手段15が起動される。チャット手段15
は従来技術に基づくチャット用クライアントソフトウェ
アである。チャット手段15は携帯端末1に予め組み込
まれているものであっても良いし、仮想オブジェクトの
コンテンツとともに仮想オブジェクトサーバ2から携帯
端末1にダウンロードされるソフトウェアであっても良
い。後者の場合、図6のコンテンツの部分にチャット手
段のソフトウェアが追加される。
When the user clicks the button 32c, the chat means 15 is activated. Chat means 15
Is chat client software based on the prior art. The chat means 15 may be built in the mobile terminal 1 in advance, or may be software downloaded from the virtual object server 2 to the mobile terminal 1 together with the contents of the virtual object. In the latter case, software for chat means is added to the content portion in FIG.

【0042】さて、この場合チャット手段15は起動時
にチャットサーバ3を識別する記号と、チャットサーバ
3上でのチャットルームを識別する記号とを得る。これ
らの記号は図6のコンテンツ中のボタンの動作の定義部
分に含まれている。ここで、チャットルームとは通信チ
ャンネルに相当する概念であり、同一のチャットルーム
に「入室」しているユーザにはタイピングによる発言が
一斉同報される。
In this case, the chat means 15 obtains a symbol for identifying the chat server 3 at the time of starting and a symbol for identifying the chat room on the chat server 3. These symbols are included in the definition of the operation of the button in the content of FIG. Here, the chat room is a concept corresponding to a communication channel, and a user who “enters” the same chat room is broadcasted by typing.

【0043】チャットが開始されると、チャット手段1
5はユーザインタフェース手段14を利用してユーザと
の間の入出力を行う。図8は、チャット利用中における
ユーザインタフェース手段14の液晶ディスプレイ30
の表示例を示す図である。この例では、「はなこ」が携
帯端末1のユーザであり、「たろう」が端末4のユーザ
である。すなわち、「たろう」がチャットの誘いかけを
行い、「はなこ」がそれに応じたことが想定されてい
る。チャットのユーザインタフェースはチャット履歴画
面33aと入力用フィールド33bからなっている。
「はなこ」は入力用フィールド33bに自らの発言を入
力する。
When the chat is started, the chat means 1
5 uses the user interface means 14 to perform input / output with the user. FIG. 8 shows the liquid crystal display 30 of the user interface means 14 during use of the chat.
It is a figure showing the example of a display of. In this example, “Hanako” is the user of the portable terminal 1 and “Taro” is the user of the terminal 4. That is, it is assumed that "Taro" invites a chat and "Hanako" responds to the invitation. The chat user interface includes a chat history screen 33a and an input field 33b.
"Hanako" inputs his / her own remark in the input field 33b.

【0044】なお、チャット手段15とチャットサーバ
3との間の通信については、チャットサーバ3の仕様に
基づくものであれば何でも良い。例えば、チャットサー
バ3がインターネットに接続されたものであれば、アナ
ログやデジタルの電話を利用し、インターネットサービ
スプロバイダを途中に介したIP接続などが考えられ
る。
The communication between the chat means 15 and the chat server 3 may be any communication based on the specifications of the chat server 3. For example, if the chat server 3 is connected to the Internet, an analog or digital telephone may be used, and an IP connection via an Internet service provider may be considered.

【0045】次に、本発明による仮想オブジェクトサー
バ2について、発明の実施の形態を図面を参照しながら
説明する。
Next, an embodiment of the virtual object server 2 according to the present invention will be described with reference to the drawings.

【0046】図9は本発明による、仮想オブジェクトサ
ーバ2の構成を示すブロック図である。仮想オブジェク
トサーバ2は、インデクス送信手段50、送受信手段5
1、データベース管理手段52、仮想オブジェクトデー
タベース53、インデクス作成手段54、登録手段5
5、時計56、ネットワーク接続手段57から構成され
ている。
FIG. 9 is a block diagram showing the configuration of the virtual object server 2 according to the present invention. The virtual object server 2 includes an index transmitting unit 50, a transmitting / receiving unit 5
1. Database management means 52, virtual object database 53, index creation means 54, registration means 5
5, a clock 56 and a network connection means 57.

【0047】仮想オブジェクトデータベース53は、仮
想オブジェクトを集めたデータベースである。仮想オブ
ジェクトデータベース53に格納されている一レコード
のデータの論理構造は、図5に示したものである。仮想
オブジェクトデータベースは、論理的には図5で示した
構造のレコードの集合であるが、関係データベースによ
る実装である必要はなく、オブジェクト指向データベー
スであっても、また別の実装であっても構わない。
The virtual object database 53 is a database in which virtual objects are collected. The logical structure of the data of one record stored in the virtual object database 53 is as shown in FIG. The virtual object database is logically a set of records having the structure shown in FIG. 5, but need not be implemented by a relational database, and may be an object-oriented database or another implementation. Absent.

【0048】データベース管理手段52は、仮想オブジ
ェクトデータベース53を管理するデータベース管理シ
ステムである。
The database management means 52 is a database management system for managing the virtual object database 53.

【0049】登録手段55は、新しい仮想オブジェクト
を追加するための手段である。人手による登録であって
も構わないし、その他何らかの自動的手段による登録で
あっても構わない。また遠隔のユーザが仮想オブジェク
トを登録する場合には、ネットワーク接続手段57を介
して登録手段55を利用する。
The registration unit 55 is a unit for adding a new virtual object. The registration may be performed manually or may be performed by some other automatic means. When a remote user registers a virtual object, the registration unit 55 is used via the network connection unit 57.

【0050】データベース管理手段52は、登録手段5
5から新しい仮想オブジェクトを受け取ると、該新規仮
想オブジェクトを仮想オブジェクトデータベース53に
登録するとともに、インデクス情報の部分をインデクス
作成手段54に送る。インデクス作成手段54は、新規
のインデクス情報を受け取ると、それをインデクス送信
手段50に渡す。
The database management means 52 includes the registration means 5
When a new virtual object is received from 5, the new virtual object is registered in the virtual object database 53, and the index information part is sent to the index creating means 54. Upon receiving the new index information, the index creating unit 54 passes the new index information to the index transmitting unit 50.

【0051】また、インデクス作成手段54は、新規の
インデクス情報が発生していない時には、データベース
管理手段52を介して仮想オブジェクトデータベース5
3にアクセスし、蓄えられている仮想オブジェクトのイ
ンデクス情報を順次取り出し、取り出したインデクス情
報をインデクス送信手段50に渡す。この、仮想オブジ
ェクトデータベース53から仮想オブジェクトのインデ
クス情報を取り出す順序に関しては、様々な方法が考え
られる。例えば、 1. 単純に、識別記号の順に取り出す。 2. 仮想オブジェクトにその重要性を基準にして重要な
ものから順にA、B、C等ランクを付け、取り出される
頻度がランクが上のもの程高くなるようにする。 3. 有効半径の大きい仮想オブジェクトほど高い頻度で
取り出されるようにする。 4. 終了時刻の近付いている仮想オブジェクトほど、高
い頻度で取り出されるようにする。 5. 開始時刻から一定時刻、たとえば10分以内のもの
は特に高い頻度で取り出されるようにする。 などが考えられる。
When no new index information is generated, the index creating means 54 sends the virtual object database 5 via the database managing means 52 to the virtual object database 5.
3 and sequentially retrieves the stored index information of the virtual object, and passes the retrieved index information to the index transmitting means 50. Various methods can be considered for the order in which the index information of the virtual object is extracted from the virtual object database 53. For example: 1. Simply extract in the order of identification symbols. 2. The virtual objects are ranked A, B, C, and so on in order of importance based on their importance, so that the higher the rank, the higher the frequency of retrieval. 3. A virtual object with a larger effective radius is extracted more frequently. 4. Make sure that virtual objects with a nearer end time are extracted more frequently. 5. Items that are within a certain time from the start time, for example, within 10 minutes, are taken out with a particularly high frequency. And so on.

【0052】インデクス送信手段50は、インデクス作
成手段54からインデクス情報を受け取ると、該インデ
クス情報を、第一の通信チャネルを利用して、複数の携
帯端末1に向けて一斉同報する。
When receiving the index information from the index creating means 54, the index transmitting means 50 broadcasts the index information to a plurality of portable terminals 1 by using the first communication channel.

【0053】送受信手段51は第二の通信チャネルを利
用する。送受信手段51は、いずれかの携帯端末1から
仮想オブジェクトの識別記号と該携帯端末1の位置を示
す情報とを第二の通信チャネルを介して受け取ると、該
識別記号に対応する仮想オブジェクトを、データベース
管理手段52を介して、仮想オブジェクトデータベース
53から受け取る。また時計56から現在の時刻を得
る。次に、該携帯端末1から送られて来た位置情報と現
在の時刻とを、当該仮想オブジェクトと比較し、閲覧可
能な範囲であれば、第二の通信チャネルを利用して要求
者である携帯端末1に送信する。
The transmission / reception means 51 uses the second communication channel. When the transmitting / receiving unit 51 receives the identification symbol of the virtual object and the information indicating the position of the mobile terminal 1 from any of the mobile terminals 1 via the second communication channel, the transmission / reception unit 51 converts the virtual object corresponding to the identification symbol into It is received from the virtual object database 53 via the database management means 52. The current time is obtained from the clock 56. Next, the position information sent from the portable terminal 1 and the current time are compared with the virtual object, and if the virtual object can be browsed, the requester is requested using the second communication channel. Send to mobile terminal 1.

【0054】なお、前述したように第二の通信チャネル
はいかなる通信手段であってもよく、送信と受信で異な
る通信手段を用いても構わない。
As described above, the second communication channel may be any communication means, and different communication means may be used for transmission and reception.

【0055】ネットワーク接続手段57は、インターネ
ット等の外部ネットワークとの通信を実現する手段であ
る。本実施の形態で説明する範囲に限って言えば、ネッ
トワーク接続手段57は、端末4のユーザが仮想オブジ
ェクトを登録する際に利用される。端末4のユーザ(た
ろう)は、ここに示す例では当初銀座4丁目付近にいる
人とのチャットを望んでいる。そこで、端末4のユーザ
は図6に示されるような仮想オブジェクトを作成し、銀
座4丁目付近の位置を指定して登録する。このようにし
て登録された仮想オブジェクトが、後に携帯端末1を所
有するユーザ「はなこ」に発見され、チャットが成立す
ることになる。
The network connection means 57 is means for realizing communication with an external network such as the Internet. Speaking of the range described in the present embodiment, the network connection unit 57 is used when the user of the terminal 4 registers a virtual object. In the example shown here, the user (Taro) of the terminal 4 initially wants to chat with a person near Ginza 4-chome. Therefore, the user of the terminal 4 creates a virtual object as shown in FIG. 6 and designates and registers a position near Ginza 4-chome. The virtual object thus registered is later discovered by the user "Hanako" who owns the mobile terminal 1, and a chat is established.

【0056】次に、端末4の実施の形態について、図面
を参照しながら説明する。図10は端末4の構成を示す
ブロック図である。端末4は少なくともユーザインタフ
ェース手段61、仮想オブジェクト編集手段62、通信
手段63、チャット手段64からなり、また外部に記録
媒体65を接続できる。
Next, an embodiment of the terminal 4 will be described with reference to the drawings. FIG. 10 is a block diagram showing the configuration of the terminal 4. The terminal 4 includes at least a user interface unit 61, a virtual object editing unit 62, a communication unit 63, and a chat unit 64. A recording medium 65 can be connected to the outside.

【0057】ユーザインタフェース手段61は、端末4
のユーザが入出力を行うための入出力装置の集合であ
る。たとえば、出力装置としてのディスプレイと入力装
置としてのキーボードの組み合わせである。出力装置と
してスピーカを備えていても構わないし、入力装置とし
てマイクロフォンや、タッチパッド等のポインティング
デバイスを備えていても構わない。
The user interface means 61 includes the terminal 4
Is a set of input / output devices for a user to perform input / output. For example, a combination of a display as an output device and a keyboard as an input device. A speaker may be provided as an output device, and a microphone or a pointing device such as a touch pad may be provided as an input device.

【0058】仮想オブジェクト編集手段62は、前述の
仮想オブジェクト、例えば図6に示された構造を持つよ
うな仮想オブジェクトを作成するためのソフトウェア等
である。仮想オブジェクト編集手段62は、少なくとも
オブジェクトの外見を定義する機能(例えば、「チャッ
トしましょう」というテキストが外見であることを定義
する)と、チャットサーバ3を識別する記号およびチャ
ットサーバ3内のチャットルームを識別する記号を定義
して該仮想オブジェクトに内蔵せしめる機能と、該仮想
オブジェクトを配置する場所を定義する機能を有する。
本実施の形態においては、前述のように、チャットの開
始を確認するためのボタン機能を仮想オブジェクトが有
しているため、この場合はボタンの外見とボタンの動作
を定義する機能も、仮想オブジェクト編集手段62には
必要である。また、仮想オブジェクトを配置しておける
時間を限る場合には、仮想オブジェクトの有効な時間を
定義する機能も、仮想オブジェクト編集手段62には必
要である。仮想オブジェクト編集手段62はユーザイン
タフェース手段61を利用してユーザとの対話を行い、
ユーザが目的とする仮想オブジェクトを作成し、通信手
段63に渡す。仮想オブジェクト編集手段62は、編集
途中または編集済の仮想オブジェクトを外部の記録媒体
65に格納する。また外部の記録媒体65から仮想オブ
ジェクトを読みだし、該仮想オブジェクトの編集の継続
を行うこともできる。
The virtual object editing means 62 is software or the like for creating the above-described virtual object, for example, a virtual object having the structure shown in FIG. The virtual object editing means 62 includes at least a function for defining the appearance of the object (for example, defining that the text "let's chat" is an appearance), a symbol for identifying the chat server 3 and a chat in the chat server 3. It has a function of defining a symbol for identifying a room and incorporating it into the virtual object, and a function of defining a place where the virtual object is arranged.
In the present embodiment, as described above, since the virtual object has a button function for confirming the start of the chat, in this case, the function for defining the appearance of the button and the operation of the button is also provided by the virtual object. The editing means 62 is required. When the time during which the virtual object can be arranged is limited, the virtual object editing means 62 also needs a function for defining the effective time of the virtual object. The virtual object editing means 62 uses the user interface means 61 to interact with the user,
The user creates a desired virtual object and passes it to the communication means 63. The virtual object editing means 62 stores the virtual object being edited or edited in an external recording medium 65. It is also possible to read a virtual object from the external recording medium 65 and continue editing the virtual object.

【0059】通信手段63は、仮想オブジェクト編集手
段62から仮想オブジェクトを受け取ると、ユーザイン
タフェース手段61を利用してユーザと対話し、ユーザ
の確認を得た上で、該仮想オブジェクトを仮想オブジェ
クトサーバ2に送信する。仮想オブジェクトサーバ2
は、ネットワーク接続手段57を介して仮想オブジェク
トを受け取ると、前述のように登録手段55及びデータ
ベース管理手段52をを利用して、仮想オブジェクトデ
ータベース53に、該仮想オブジェクトを登録する。
When the communication means 63 receives the virtual object from the virtual object editing means 62, it interacts with the user using the user interface means 61, obtains the confirmation of the user, and transmits the virtual object to the virtual object server 2. Send to Virtual object server 2
When the virtual object is received via the network connection means 57, the virtual object is registered in the virtual object database 53 using the registration means 55 and the database management means 52 as described above.

【0060】チャット手段64は、既存技術に基づくチ
ャット用クライアントソフトウェアであり、チャットサ
ーバ3を利用してチャット可能なものとする。
The chat means 64 is client software for chat based on existing technology, and can chat using the chat server 3.

【0061】最後に、本発明におけるチャットサーバ3
の実施の形態について説明する。チャットサーバ3は既
存技術に基づくチャットサーバであればよく、単数また
は複数のチャットルームを管理することができれば良
い。例えばIRCサーバであっても構わない。
Finally, the chat server 3 of the present invention
An embodiment will be described. The chat server 3 may be a chat server based on an existing technology, and may be any one that can manage one or a plurality of chat rooms. For example, it may be an IRC server.

【0062】以上が本発明の第一実施の形態である。動
作の要点を再度整理して説明すると以下のようになる。
端末4のユーザ(たろう)が仮想オブジェクトを作成
し、仮想オブジェクトサーバ2に登録する。この仮想オ
ブジェクトは特定の領域にいるユーザにしか閲覧できな
いものである。別のユーザ(はなこ)がこの仮想オブジ
ェクトに閲覧可能な領域に入り、携帯端末1に該仮想オ
ブジェクトをダウンロードする。該仮想オブジェクトに
は、チャットサーバ3の識別記号とチャットルームの識
別記号が含まれており、ユーザ(はなこ)はそれらを用
いてチャットサーバ3の当該チャットルームに接続す
る。当該チャットルームにユーザ(たろう)が既に入室
していれば、ユーザ(たろう)とユーザ(はなこ)との
間でチャットが成立する。このようにして、ユーザ(た
ろう)は現実世界の特定の領域に居る人にチャットの誘
いをかけることができる。その際チャットに興味のない
人には迷惑をかけることがない。
The above is the first embodiment of the present invention. The main points of the operation are summarized and described again as follows.
The user (Taro) of the terminal 4 creates a virtual object and registers it in the virtual object server 2. This virtual object can be viewed only by a user in a specific area. Another user (Hanako) enters an area where the virtual object can be browsed, and downloads the virtual object to the portable terminal 1. The virtual object includes the identification symbol of the chat server 3 and the identification symbol of the chat room, and the user (Hanako) connects to the chat room of the chat server 3 by using them. If the user (Taro) has already entered the chat room, a chat is established between the user (Taro) and the user (Hanako). In this way, the user (Taro) can invite a person in a specific area of the real world to chat. It does not bother anyone who is not interested in chatting.

【0063】次に、第二の実施の形態について、図面を
参照しながら説明する。第二の実施の形態においては、
第一の実施の形態のうち携帯端末1のチャット手段15
がユーザインタフェース手段14を利用する形態を改善
する。
Next, a second embodiment will be described with reference to the drawings. In the second embodiment,
Chatting means 15 of portable terminal 1 in the first embodiment
Uses the user interface means 14.

【0064】なお、第二の実施の形態において、携帯端
末1は請求項2と請求項14に係わる発明の実施の形態
である。
In the second embodiment, the portable terminal 1 is an embodiment of the invention according to claims 2 and 14.

【0065】図11は、第二の実施の形態において、仮
想オブジェクトがユーザインタフェース手段14の液晶
ディスプレイ30に表示されている例を示す図であり、
第一の実施の形態の図7に代わるものである。第二の実
施の形態においては、仮想オブジェクトの外見は「チャ
ットしましょう」のような文字だけではなく、たとえば
兎のような親しみやすいキャラクター73を含んでい
る。文字の部分はキャラクター73の発話と解釈され、
吹き出し71とともに表示される。ボタン72a、72
bはそれぞれ第一の実施の形態におけるボタン32c、
32dに対応している。ユーザがボタン72bを押すと
チャット手段15は起動されない。ユーザがボタン72
aを押すと、チャット手段15が起動される。その際、
第一の実施の形態の場合と同様に、チャットサーバ3の
識別記号およびチャットルームの識別記号がチャット手
段15に渡される。
FIG. 11 is a diagram showing an example in which a virtual object is displayed on the liquid crystal display 30 of the user interface means 14 in the second embodiment.
This is an alternative to FIG. 7 of the first embodiment. In the second embodiment, the appearance of the virtual object includes not only characters such as "let's chat" but also friendly characters 73 such as rabbits. The character part is interpreted as the utterance of the character 73,
It is displayed together with the balloon 71. Button 72a, 72
b is the button 32c in the first embodiment,
32d. When the user presses the button 72b, the chat means 15 is not activated. User presses button 72
Pressing a activates the chat means 15. that time,
As in the case of the first embodiment, the identification symbol of the chat server 3 and the identification symbol of the chat room are passed to the chat means 15.

【0066】図12は、第二の実施の形態において、チ
ャット手段15がユーザインタフェース手段14を介し
てユーザにチャットの機能を提供している様子を示す図
であり、第一の実施の形態における図8に代わるもので
ある。図12では図8のチャット会話のうち、「たろ
う」と「はなこ」の最初の一言ずつに該当する会話のみ
表示されている。第一の実施の形態では、図7と図8は
明らかに異なる画面であり、チャットのモードに入った
ことが携帯端末1のユーザ(はなこ)に意識され、チャ
ットの対話相手が遠隔のどこかにいる他のユーザである
ことも同様に意識される。これに対して第二の実施の形
態では図11のキャラクター73をそのままチャット手
段15が引き継ぎ、会話も図11と同様に吹き出し71
を利用して行われる。携帯端末1のユーザ(はなこ)の
発話は、別の吹き出し74を使って表示される。この場
合、携帯端末1のユーザ(はなこ)はチャットの相手を
遠隔の地にいる別のユーザとしてではなく、キャラクタ
ー73そのものとして直感的には意識することになろ
う。これにより、ユーザの興味を高め、チャットの成立
確率を向上させるのに役立つ効果が期待できる。
FIG. 12 is a diagram showing a state in which the chat means 15 provides a user with a chat function via the user interface means 14 in the second embodiment. This is an alternative to FIG. FIG. 12 shows only the conversation corresponding to the first words of “Taro” and “Hanako” in the chat conversation of FIG. In the first embodiment, FIGS. 7 and 8 are clearly different screens. The user (Hanako) of the portable terminal 1 is aware that the chat mode has been entered, and the chat partner is somewhere remote. It is also recognized that the user is another user at the same time. On the other hand, in the second embodiment, the chat means 15 takes over the character 73 of FIG.
It is performed using. The utterance of the user (Hanako) of the mobile terminal 1 is displayed using another balloon 74. In this case, the user (Hanako) of the portable terminal 1 will intuitively recognize the chat partner not as another user in a remote place but as the character 73 itself. As a result, an effect useful for increasing the interest of the user and improving the probability of establishing a chat can be expected.

【0067】また、端末4のユーザ(たろう)の発話を
文字の表示でなく音声合成技術を用いて音声の発話とし
て表現したり、携帯端末1のユーザ(はなこ)の音声に
よる発話を音声認識技術を用いて文字列等に変換してチ
ャットサーバ3に送ることによって、よりユーザの興味
を高める効果も期待できる。このように音声合成技術お
よび音声認識技術を用いる工夫は、本実施の形態のみな
らず、他の実施の形態においても適用可能である。
Further, the speech of the user (Taro) of the terminal 4 is expressed as a speech utterance using a speech synthesis technique instead of displaying characters, and the speech uttered by the user (Hanako) of the portable terminal 1 is represented by a speech recognition technique. By converting the data into a character string or the like using, and sending it to the chat server 3, an effect of further increasing the interest of the user can be expected. Such a device using the speech synthesis technology and the speech recognition technology is applicable not only to the present embodiment but also to other embodiments.

【0068】本実施の形態においては、キャラクター7
3は兎の外見を持つことを例とたが、動物、植物、仮想
の生物、実在の人物、架空の人物、漫画の登場人物等、
ユーザが親しみやすいものであれば何でもキャラクター
として採用できる。
In the present embodiment, the character 7
Example 3 has the appearance of a rabbit, but animals, plants, virtual creatures, real people, fictional characters, cartoon characters, etc.
Anything that the user is familiar with can be adopted as the character.

【0069】また、第二の実施の形態では、端末4の仮
想オブジェクト編集手段62に、キャラクター73の外
見を編集する機能を追加する必要がある。
In the second embodiment, it is necessary to add a function for editing the appearance of the character 73 to the virtual object editing means 62 of the terminal 4.

【0070】次に、第三の実施の形態について、図面を
参照しながら説明する。第三の実施の形態では、テキス
トのチャットの代わりに音声による会話を用いる。
Next, a third embodiment will be described with reference to the drawings. In the third embodiment, a voice conversation is used instead of a text chat.

【0071】なお、第三の実施の形態において、携帯端
末1は請求項6と請求項16に係わる発明の実施の形態
であり、端末4は請求項8、請求項18、請求項22に
係わる発明の実施の形態である。
In the third embodiment, the portable terminal 1 is an embodiment of the invention according to claims 6 and 16, and the terminal 4 is according to claims 8, 18 and 22. It is an embodiment of the invention.

【0072】図13は、第三の実施の形態における携帯
端末1の構成を示すブロック図であり、第一の実施の携
帯における図2に代わるものである。第三の実施の携帯
ではチャット手段15の代わりに電話手段16を用い
る。電話手段16は、日本を含む各国でで各社によって
サービスされている既存技術による携帯電話の端末機能
を用いて実現する。
FIG. 13 is a block diagram showing a configuration of the portable terminal 1 according to the third embodiment, which replaces FIG. 2 in the portable terminal according to the first embodiment. In the mobile phone of the third embodiment, telephone means 16 is used instead of chat means 15. The telephone means 16 is realized by using a terminal function of a mobile phone using an existing technology which is provided by each company in each country including Japan.

【0073】第三の実施の形態においては、仮想オブジ
ェクトにチャットサーバ3の識別記号およびチャットル
ームの識別記号の代わりに、電話番号が含まれている。
図7あるいは図11のようなチャットの開始を確認する
画面において、携帯端末1のユーザがチャットの開始を
指示すると、電話番号が電話手段16に渡され、該電話
番号に対して発信が行われる。電話が接続されると、ユ
ーザインタフェース手段14に含まれるマイク・スピー
カー等を利用して、電話による音声対話を利用すること
ができる。
In the third embodiment, a telephone number is included in the virtual object instead of the identification symbol of the chat server 3 and the identification symbol of the chat room.
When the user of the portable terminal 1 instructs the start of the chat on the screen for confirming the start of the chat as shown in FIG. 7 or FIG. 11, the telephone number is passed to the telephone means 16 and a call is made to the telephone number. . When the telephone is connected, a voice conversation by telephone can be used by using a microphone / speaker or the like included in the user interface unit 14.

【0074】第三の実施の形態においては、チャットサ
ーバ3は使用されない。また、端末4のユーザはチャッ
ト手段64を使用しない。仮想オブジェクト編集手段6
2では、チャットサーバ3の識別記号およびチャットル
ームの識別記号を定義する代わりに、電話番号を定義
し、該仮想オブジェクトに内蔵せしめる。この電話番号
は、端末4のユーザが利用可能なものであれば構わな
い。仮想オブジェクト編集手段62は、編集途中または
編集済の仮想オブジェクトを外部の記録媒体65に格納
する。また外部の記録媒体65から仮想オブジェクトを
読みだし、該仮想オブジェクトの編集の継続を行うこと
もできる。
In the third embodiment, the chat server 3 is not used. The user of the terminal 4 does not use the chat means 64. Virtual object editing means 6
In 2, in place of defining the identification symbol of the chat server 3 and the identification symbol of the chat room, a telephone number is defined and embedded in the virtual object. The telephone number may be any number that can be used by the user of the terminal 4. The virtual object editing means 62 stores the virtual object being edited or edited in an external recording medium 65. It is also possible to read a virtual object from the external recording medium 65 and continue editing the virtual object.

【0075】第三の実施の形態は以上のように構成さ
れ、その動作の概略は以下の通りである。端末4のユー
ザAが仮想オブジェクトを作成し、仮想オブジェクトサ
ーバ2に登録する。この仮想オブジェクトは特定の領域
にいるユーザにしか閲覧できないものである。別のユー
ザBがこの仮想オブジェクトに閲覧可能な領域に入り、
携帯端末1に該仮想オブジェクトをダウンロードする。
該仮想オブジェクトには、電話番号が含まれており、ユ
ーザBがチャットの開始を選択すると、電話手段16に
よって該電話番号に電話がかけられる。この番号にかけ
られた電話にユーザAが応答すれば、ユーザAとユーザ
Bとの間で音声によるチャットが成立する。
The third embodiment is configured as described above, and the outline of the operation is as follows. The user A of the terminal 4 creates a virtual object and registers it in the virtual object server 2. This virtual object can be viewed only by a user in a specific area. Another user B enters the area that can be viewed by this virtual object,
The virtual object is downloaded to the mobile terminal 1.
The virtual object includes a telephone number, and when the user B selects to start a chat, the telephone means 16 calls the telephone number. When the user A answers the call made to this number, a voice chat is established between the user A and the user B.

【0076】なお、第三の実施の形態では既存技術によ
る携帯電話機能を利用したが、インターネットを利用し
て圧縮した音声を送受信する技術を利用しても構わな
い。この場合、電話番号の代わりにインターネットアド
レスが利用される。
In the third embodiment, the mobile phone function based on the existing technology is used. However, a technology for transmitting and receiving compressed voice using the Internet may be used. In this case, an Internet address is used instead of a telephone number.

【0077】次に、第四の実施の形態について、図面を
参照しながら説明する。第一から第三の実施の形態にお
いては、ユーザとしてはチャットを誘う側と誘われる側
の2名のみ関与していた。第四の実施の形態では、不特
定多数のユーザがチャットを行う。
Next, a fourth embodiment will be described with reference to the drawings. In the first to third embodiments, only two users, a user who invites a chat and a user who is invited, are involved. In the fourth embodiment, an unspecified number of users chat.

【0078】なお、第四の実施の形態において、携帯端
末1は請求項1、請求項2、請求項13、請求項14に
係わる発明の実施の形態であり、端末4は請求項7、請
求項17、請求項21に係わる発明の実施の形態であ
る。
In the fourth embodiment, the portable terminal 1 is an embodiment according to the first, second, thirteenth and fourteenth aspects of the invention, and the terminal 4 is the seventh and the fourth aspects. This is an embodiment of the invention according to claim 17 and claim 21.

【0079】図14は第四の実施の形態におけるシステ
ムの全体構成を示す図で、第一の実施の形態における図
1に代わるものである。第四の実施の形態においては、
端末4のユーザはチャットに参加する者である必要はな
く、システム全体の管理者、あるいはチャットサービス
の提供者である。以後、第四の実施の形態の説明におい
ては端末4のユーザを管理者と呼ぶ。一方携帯端末1を
所持するユーザは複数おり、それぞれがチャットに参加
することが想定される。これらの携帯端末1のユーザは
第一の実施の形態の場合と同様に現実世界の特定の領域
に入ることでチャットに参加できる。
FIG. 14 is a diagram showing the overall configuration of a system according to the fourth embodiment, which replaces FIG. 1 according to the first embodiment. In the fourth embodiment,
The user of the terminal 4 need not be a participant in the chat, but is an administrator of the entire system or a provider of the chat service. Hereinafter, in the description of the fourth embodiment, the user of the terminal 4 is referred to as an administrator. On the other hand, there are a plurality of users who have the mobile terminal 1, and it is assumed that each user participates in the chat. The user of these portable terminals 1 can participate in the chat by entering a specific area in the real world as in the first embodiment.

【0080】第四の実施の形態においては、管理者はチ
ャットサーバ3の識別記号と、チャットサーバ3によっ
て管理されるチャットルームの識別記号とを仮想オブジ
ェクトにおいて定義し、該仮想オブジェクトを複数の箇
所に配置する。この例ではA地点とB地点に仮想オブジ
ェクトを配置する。このように複数の箇所に仮想オブジ
ェクトを配置するには、仮想オブジェクトの中心位置の
座標値が少なくとも異なるコピーを作成し、仮想オブジ
ェクトサーバ2に登録すれば良い。携帯端末1のユーザ
は、A地点もしくはB地点の近傍においてこれら仮想オ
ブジェクトを閲覧することができる。
In the fourth embodiment, the administrator defines the identification symbol of the chat server 3 and the identification symbol of the chat room managed by the chat server 3 in a virtual object, and defines the virtual object in a plurality of locations. To place. In this example, virtual objects are arranged at point A and point B. In order to arrange the virtual objects in a plurality of places as described above, it is only necessary to create a copy in which the coordinate values of the center position of the virtual object are at least different from each other, and register them in the virtual object server 2. The user of the portable terminal 1 can browse these virtual objects near the point A or the point B.

【0081】図15は、第四の実施の形態において想定
される仮想オブジェクトの外見の例を示す図であり、第
一の実施の形態における図7に代わるものであるが、文
面以外の変更はなく技術的には図7と全く同一である。
A地点が東京の銀座4丁目、B地点が大阪の梅田一丁目
と想定されている。この場合、管理者の意図により銀座
4丁目と梅田一丁目を結合するチャットルームがチャッ
トサーバ3内に作成されており、仮想オブジェクトには
該チャットルームの識別記号が含まれている。従ってこ
の仮想オブジェクトをダウンロードした者は当該チャッ
トに参加できる。図7でボタン32cを押した後の動作
は第一の実施の形態と全く同じである。これは、一般に
既存技術によるチャットサーバは一つのチャットルーム
に複数のユーザの入室を許しているため、全く問題なく
運用できる。
FIG. 15 is a diagram showing an example of the appearance of a virtual object assumed in the fourth embodiment, which replaces FIG. 7 in the first embodiment. And is technically the same as FIG.
It is assumed that point A is Ginza 4-chome in Tokyo and point B is Umeda 1-chome in Osaka. In this case, a chat room connecting Ginza 4-chome and Umeda 1-chome is created in the chat server 3 according to the administrator's intention, and the virtual object contains the identification symbol of the chat room. Therefore, a person who downloads this virtual object can participate in the chat. The operation after pressing the button 32c in FIG. 7 is exactly the same as in the first embodiment. This is because the chat server based on the existing technology generally allows a plurality of users to enter one chat room, and thus can be operated without any problem.

【0082】なお、第四の実施の形態と第二の実施の形
態を組み合わせて利用する場合には、キャラクター73
を人数分だけ表示する必要がある。このような技術はマ
イクロソフト社のコミックチャットによって既に実現さ
れているので、応用すればよい。
When the fourth embodiment and the second embodiment are used in combination, the character 73
Need to be displayed for the number of people. Such technology has already been realized by Microsoft's comic chat, so it should be applied.

【0083】次に、第五の実施の形態について図を参照
しながら説明する。第五の実施の形態は、第一、第二、
および第四の実施の形態を改良したもので、携帯端末1
のユーザがチャットサーバ3の識別記号とチャットルー
ムの識別記号を仮想オブジェクトから得た後、実際には
チャット可能な領域から他の場所に移動しているにもか
かわらず、既に得たこれらの識別記号を用いてチャット
に参加可能であるという問題点を解決する。
Next, a fifth embodiment will be described with reference to the drawings. The fifth embodiment is the first, second,
And a modification of the fourth embodiment.
After obtaining the identification symbol of the chat server 3 and the identification symbol of the chat room from the virtual object, these users have already obtained these identification symbols even though they have actually moved from the chat available area to another place. Solve the problem that it is possible to participate in chat using symbols.

【0084】図16は第五の実施の形態における携帯端
末1の構成を示すブロック図であり、第一の実施の形態
の図2に代わるものである。チャット手段15以外の構
成要素は図2と同一であるが、チャット手段15には改
良が加えられ、チャット手段15aと改められている。
また、チャットサーバ3にも改良が加えられ、チャット
サーバ3aと改められている。
FIG. 16 is a block diagram showing the configuration of the portable terminal 1 according to the fifth embodiment, which replaces FIG. 2 of the first embodiment. The components other than the chat means 15 are the same as those in FIG. 2, but the chat means 15 has been improved and replaced with the chat means 15a.
Also, the chat server 3 has been improved and changed to the chat server 3a.

【0085】なお、第五の実施の形態において、携帯端
末1は請求項3、請求項4、請求項5、請求項15に係
わる発明の実施の形態であり、チャットサーバ3aは請
求項9から請求項12までおよび請求項19、請求項2
0の発明に係わる実施の形態である。
In the fifth embodiment, the portable terminal 1 is an embodiment according to the third, fourth, fifth, and fifteenth aspects of the present invention. Up to Claim 12, Claim 19, Claim 2
0 is an embodiment according to the invention of FIG.

【0086】チャット手段15aは測位手段11から携
帯端末1の現在位置に関する情報を得る。チャット手段
15aは、チャットサーバ3aに対するアクセス要求の
都度、現在位置に関する情報を付加して送る。具体的に
は、チャットルームへの入室要求時、発言時に携帯端末
1の現在位置に関する情報を付加してチャットサーバ3
aに送る。また、チャットルームに入室後は、発言のな
い場合にもチャットに参加中であることを示すため定期
的に位置情報をチャットサーバ3aに送る。
The chat means 15 a obtains information on the current position of the portable terminal 1 from the positioning means 11. The chat means 15a adds information on the current position and sends it each time an access request is made to the chat server 3a. Specifically, at the time of a request to enter a chat room or at the time of speech, information relating to the current position of the mobile terminal 1 is added to the chat server 3.
Send to a. Further, after entering the chat room, even when there is no remark, the location information is periodically sent to the chat server 3a to indicate that the user is participating in the chat.

【0087】図17は、チャットサーバ3aの構成を示
すブロック図である。チャットサーバ3aは、少なくと
も従来型チャットサーバ81、認証手段82、位置限定
手段83、ネットワーク接続手段84からなる。従来型
チャットサーバ81は第一の実施の形態におけるチャッ
トサーバ3等と同様、既存技術に基づくチャットサーバ
であり、単数または複数のチャットルームを管理でき
る。位置限定手段83は、チャットサーバ3aが管理す
る各チャットルームについて、該チャットルームにアク
セス可能な位置の情報を、外部からネットワーク接続手
段84を介して入手し、蓄積する。ここでは、端末4を
利用しているユーザもしくは管理者が、インターネット
等を利用して位置限定手段83にデータを書き込むこと
が想定される。ネットワーク接続手段84は、通常利用
されているインターネットとのインターフェースで良
い。
FIG. 17 is a block diagram showing the configuration of the chat server 3a. The chat server 3a includes at least a conventional chat server 81, an authentication unit 82, a position limiting unit 83, and a network connection unit 84. The conventional chat server 81 is a chat server based on existing technology, like the chat server 3 and the like in the first embodiment, and can manage one or a plurality of chat rooms. The position limiting unit 83 obtains, from the outside via the network connection unit 84, information on the position where each chat room managed by the chat server 3a can be accessed, and accumulates the information. Here, it is assumed that a user or an administrator using the terminal 4 writes data in the position limiting unit 83 using the Internet or the like. The network connection means 84 may be an interface with the Internet which is usually used.

【0088】図18は、位置限定手段83の内部に蓄積
されているデータの一例を示す図である。データの構造
は、チャットルームの識別記号(ルームID)と、該チ
ャットルームにアクセス可能な位置とを対応させた表で
ある。例えば1番のチャットルームにアクセス可能な位
置は、北緯35度40分04.7秒、東経139度46
分05.7秒の銀座四丁目から半径500メートル以内
と定義されている。また2番のチャットルームにアクセ
ス可能な位置は、1番と同様の銀座4丁目の他に北緯3
4度41分46.8秒、東経135度30分07.0秒
の梅田1丁目から半径500メートル以内であり、二つ
の領域からアクセス可能である。
FIG. 18 is a diagram showing an example of data stored in the position limiting means 83. The data structure is a table associating chat room identification symbols (room IDs) with positions where the chat rooms can be accessed. For example, the position where the first chat room can be accessed is 35 degrees 40 minutes 04.7 seconds north latitude and 139 degrees 46 east longitude.
It is defined to be within a 500 meter radius from Ginza 4-chome at 05.7 seconds. The location where you can access the chat room No. 2 is Ginza 4-chome, the same as No. 1, and the north latitude 3
It is within a 500 meter radius from Umeda 1-chome at 4 degrees 41 minutes 46.8 seconds and 135 degrees 30 minutes 07.0 seconds east longitude, and is accessible from two areas.

【0089】図17の説明に戻る。認証手段82は、位
置限定手段83から各チャットルームに対してアクセス
可能な位置の制約を入手する。外部からチャットサーバ
3aへのアクセス要求はまず認証手段82によって受け
取られる。その際、アクセス要求に付随して要求者の現
在位置に関する情報を受け取る。この位置がアクセス対
象のチャットルームにアクセス可能な位置の制約を満た
していなければ、アクセス要求を拒否し、既に入室して
いた場合には当該クライアントを退室させる要求を従来
型チャットサーバ81に送り、チャットの参加者から除
外する。位置の制約が満たされている場合にはアクセス
要求は受理され、従来型チャットサーバ81に渡され、
チャットが可能となる。
Returning to the description of FIG. The authentication unit 82 obtains, from the position limitation unit 83, the restriction on the position where each chat room can be accessed. An access request to the chat server 3a from the outside is first received by the authentication unit 82. At this time, information on the current position of the requester is received along with the access request. If the position does not satisfy the restriction on the position where the chat room to be accessed can be accessed, the access request is rejected. If the position has already been entered, a request to leave the client is sent to the conventional chat server 81, Exclude from chat participants. If the location constraint is satisfied, the access request is accepted and passed to the conventional chat server 81,
Chatting becomes possible.

【0090】第五の実施の形態は以上のように構成され
ているので、携帯端末1の所有者が実際にチャット可能
な位置にいない限り、チャットサーバおよびチャットル
ームの識別記号を知っていてもチャットに参加すること
ができない。また、チャット中に移動してチャット可能
な領域から外に出た場合には、チャットサーバ3aの認
証手段82によってチャットルームから自動的に退室さ
せられ、チャットの継続ができない。
Since the fifth embodiment is configured as described above, as long as the owner of portable terminal 1 is not at a position where chat can be actually performed, even if the identification symbols of the chat server and the chat room are known. Unable to participate in chat. If the user moves out of the chat available area during the chat and is out of the chat room by the authentication means 82 of the chat server 3a, the chat cannot be continued.

【0091】[0091]

【発明の効果】本発明の請求項1、請求項7、請求項1
3、請求項17、および請求項21に係わる第一の実施
の形態によれば、端末4のユーザは特定地域でのみ閲覧
可能な仮想オブジェクトにチャットサーバの識別記号と
チャットルームの識別記号とを内蔵させることができ、
それを当該地域に居る携帯端末1のユーザが閲覧した場
合に、これらの識別記号で指定されたチャットルームに
アクセスできる。端末4のユーザが当該チャットルーム
に入れば、両ユーザの間でチャットが成立する。このよ
うにして、端末4のユーザは特定地域にいるユーザに対
してチャットの誘いかけを行うことが可能になる。
According to the present invention, claims 1, 7, and 1 of the present invention are provided.
According to the first embodiment of the present invention, the user of the terminal 4 assigns the identification symbol of the chat server and the identification symbol of the chat room to a virtual object that can be browsed only in a specific area. Can be built-in,
When the user of the mobile terminal 1 located in the area views the browsing, the user can access the chat room specified by these identification symbols. When the user of the terminal 4 enters the chat room, a chat is established between the two users. Thus, the user of the terminal 4 can invite a user in a specific area to chat.

【0092】本発明の請求項2と請求項14に係わる第
二の実施の形態によれば、携帯端末1のユーザに親しみ
の持てるキャラクターを利用してチャットの誘いかけと
チャットの会話を表示することができるので、チャット
の成立確率をさらに高める効果がある。
According to the second embodiment of the present invention, a user of the portable terminal 1 displays a chat invitation and a chat conversation using a character which is familiar to the user. This has the effect of further increasing the probability of establishing a chat.

【0093】本発明の請求項6、請求項8、請求項1
6、請求項18、および請求項22に係わる第三の実施
の形態によれば、チャットの代わりに電話を用いて、第
一の実施の形態と同様の効果が得られる。すなわち、端
末4のユーザは特定の地域にいるユーザを対象にして電
話による音声チャットの誘いかけをすることが可能とな
る。
[0093] Claims 6, 8, and 1 of the present invention.
According to the sixth, the eighteenth, and the twenty-second embodiment, the same effects as in the first embodiment can be obtained by using a telephone instead of a chat. That is, the user of the terminal 4 can invite a voice chat by telephone to a user in a specific area.

【0094】本発明の請求項1、請求項7、請求項1
3、請求項14、請求項17、および請求項21に係わ
る第四の実施の形態によれば、チャットの管理者は複数
の特定地域に居る携帯端末1のユーザのみ参加可能なチ
ャットの設定を行うことが可能である。
[0094] Claims 1, 7, and 1 of the present invention.
According to the fourth embodiment of the present invention, the chat administrator sets a chat setting that allows only the user of the portable terminal 1 in a plurality of specific areas to participate. It is possible to do.

【0095】本発明の請求項3乃至請求項5、請求項9
乃至請求項12、請求項15、請求項19、および請求
項20に係わる第五の実施の形態によれば、チャットサ
ーバは、チャットへの参加が可能な特定の地域には、そ
の時点で実際に居ない携帯端末1のユーザをチャットか
ら排除でき、特定地域に居るユーザとのチャットの趣旨
を徹底する効果がある。
[0095] Claims 3 to 5 and 9 of the present invention.
According to the fifth embodiment according to claims 12, 15, 19, and 20, the chat server determines whether or not the specific area where the chat can be performed is available at the time. The user of the mobile terminal 1 who is not in the area can be excluded from the chat, and the effect of thoroughly chatting with the user in the specific area can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の全体構成を示すブロック図。FIG. 1 is a block diagram showing the overall configuration of the present invention.

【図2】第一、第二、第四の実施の形態における、携帯
端末1の構成を示すブロック図。
FIG. 2 is a block diagram showing a configuration of a portable terminal 1 according to the first, second, and fourth embodiments.

【図3】 インデクス情報の形式の例を示す図。FIG. 3 is a diagram showing an example of a format of index information.

【図4】 第一の実施の形態において、インデクス情報
がユーザに提示されている様子を示すユーザインタフェ
ースの外見の例を示す図。
FIG. 4 is a diagram showing an example of the appearance of a user interface showing how index information is presented to a user in the first embodiment.

【図5】 仮想オブジェクトのコンテンツのデータの一
般的な形式を示す図。
FIG. 5 is a view showing a general format of data of a content of a virtual object.

【図6】 コンテンツデータの概略を示す図。FIG. 6 is a diagram showing an outline of content data.

【図7】 第一の実施の形態において、図6に示される
コンテンツがユーザインタフェース手段14の液晶ディ
スプレイ30に表示されている例を示す図。
FIG. 7 is a diagram showing an example in which the content shown in FIG. 6 is displayed on the liquid crystal display 30 of the user interface unit 14 in the first embodiment.

【図8】 第一の実施の形態において、チャット利用中
におけるユーザインタフェース手段14の液晶ディスプ
レイ30の表示例を示す図。
FIG. 8 is a diagram showing a display example of the liquid crystal display 30 of the user interface unit 14 during use of a chat in the first embodiment.

【図9】 全ての実施の形態における、仮想オブジェク
トサーバ2の構成を示すブロック図。
FIG. 9 is a block diagram showing a configuration of a virtual object server 2 in all embodiments.

【図10】 第一、第二、第三、第四の実施の形態にお
ける、端末4の構成を示すブロック図。
FIG. 10 is a block diagram showing a configuration of a terminal 4 according to the first, second, third, and fourth embodiments.

【図11】 第二の実施の形態において、仮想オブジェ
クトがユーザインタフェース手段14の液晶ディスプレ
イ30に表示されている例を示す図。
FIG. 11 is a diagram showing an example in which a virtual object is displayed on the liquid crystal display 30 of the user interface unit 14 in the second embodiment.

【図12】 第二の実施の形態において、チャット手段
15がユーザインタフェース手段14を介してユーザに
チャットの機能を提供している様子を示す図。
FIG. 12 is a diagram showing a state in which a chat unit 15 provides a user with a chat function via a user interface unit 14 in the second embodiment.

【図13】 第三の実施の形態における携帯端末1の
構成を示すブロック図。
FIG. 13 is a block diagram showing a configuration of a portable terminal 1 according to the third embodiment.

【図14】 第四の実施の形態におけるシステムの全体
構成を示す図。
FIG. 14 is a diagram illustrating an overall configuration of a system according to a fourth embodiment.

【図15】 第四の実施の形態において想定される仮想
オブジェクトの外見の例を示す図。
FIG. 15 is a diagram showing an example of the appearance of a virtual object assumed in the fourth embodiment.

【図16】 第五の実施の形態における携帯端末1の構
成を示すブロック図。
FIG. 16 is a block diagram showing a configuration of a portable terminal 1 according to a fifth embodiment.

【図17】 第五の実施の形態におけるチャットサーバ
3aの構成を示すブロック図。
FIG. 17 is a block diagram showing a configuration of a chat server 3a according to the fifth embodiment.

【図18】 第五の実施の形態における位置限定手段8
3の内部に蓄積されているデータの一例を示す図 。
FIG. 18 shows a position limiting unit 8 according to the fifth embodiment.
FIG. 3 is a diagram showing an example of data stored in the inside of FIG.

【符号の説明】[Explanation of symbols]

1 携帯端末 2 仮想オブジェクトサーバ 3 チャットサーバ 3a チャットサーバ 4 端末 10 インデクス受信手段 11 測位手段 12 情報選択手段 13 送受信手段 14 ユーザインタフェース手段 15 チャット手段 15a チャット手段 16 電話手段 30 液晶ディスプレイ 31a〜31e インデクス情報の表示例 32a インデクス情報表示領域 32b コンテンツ表示領域 32c,32d ボタン 33a チャット履歴画面 33b 入力用フィールド 50 インデクス送信手段 51 送受信手段 52 データベース管理手段 53 仮想オブジェクトデータベース 54 インデクス作成手段 55 登録手段 56 時計 57 ネットワーク接続手段 61 ユーザインタフェース手段 62 仮想オブジェクト編集手段 63 通信手段 64 チャット手段 65 記録媒体 71 吹き出し 72a,72b ボタン 73 キャラクター 74 吹き出し 81 従来型チャットサーバ 82 認証手段 83 位置限定手段 84 ネットワーク接続手段 Reference Signs List 1 mobile terminal 2 virtual object server 3 chat server 3a chat server 4 terminal 10 index receiving means 11 positioning means 12 information selecting means 13 transmitting / receiving means 14 user interface means 15 chat means 15a chat means 16 telephone means 30 liquid crystal displays 31a to 31e index information 32a Index information display area 32b Content display area 32c, 32d button 33a Chat history screen 33b Input field 50 Index transmission means 51 Transmission / reception means 52 Database management means 53 Virtual object database 54 Index creation means 55 Registration means 56 Clock 57 Network Connection means 61 User interface means 62 Virtual object editing means 63 Communication means 64 Chat hand 65 recording medium 71 balloon 72a, 72b button 73 characters 74 balloon 81 conventional chat server 82 authentication means 83 position limiting means 84 network connecting section

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 特定の地域でのみ閲覧可能な仮想オブジ
ェクトを閲覧する機能を有するユーザインタフェース手
段を備えた端末装置において、前記ユーザインタフェー
ス手段が、複数のユーザが通信接続可能であって前記複
数のユーザのうちの一名の入力した文字列等情報を前記
複数のユーザに一斉同報する機能を少なくとも有するチ
ャットルームを一意に識別する識別記号を少なくとも含
む前記仮想オブジェクトを閲覧した際に、前記端末装置
のユーザの入力した文字列等情報を前記チャットルーム
に送信し、かつ前記チャットルームから受け取った文字
列等情報を前記端末装置のユーザに表示する機能を有す
るチャット手段と、前記識別記号で識別される前記チャ
ットルームとを、相互に通信接続する機能を有すること
を特徴とする端末装置。
1. A terminal device comprising a user interface unit having a function of browsing a virtual object that can be browsed only in a specific area, wherein the user interface unit is configured to allow a plurality of users to communicate and connect to each other. When browsing the virtual object including at least an identification symbol for uniquely identifying a chat room having at least a function of broadcasting information such as a character string entered by one of the users to the plurality of users, A chat unit having a function of transmitting information such as a character string input by a user of the device to the chat room, and displaying the information such as a character string received from the chat room to a user of the terminal device; Terminal device having a function of mutually connecting the chat room to Place.
【請求項2】 前記チャット手段が前記チャットルーム
から受け取った文字列等情報を前記端末装置のユーザに
表示する際に、キャラクターの発話として表示すること
を特徴とする、請求項1に記載の端末装置。
2. The terminal according to claim 1, wherein when the chat means displays information such as a character string received from the chat room to a user of the terminal device, the information is displayed as an utterance of a character. apparatus.
【請求項3】 前記端末装置は該端末装置の現在位置を
測定する測位手段をさらに有し、前記チャット手段は前
記測位手段から前記端末装置の現在位置に関する情報を
受け取って、前記チャットルームに前記端末装置の前記
現在位置に関する情報を送信することを特徴とする、請
求項1または請求項2に記載の端末装置。
3. The terminal device further includes positioning means for measuring a current position of the terminal device, wherein the chat means receives information on the current position of the terminal device from the positioning means, and stores the information in the chat room. The terminal device according to claim 1, wherein information on the current position of the terminal device is transmitted.
【請求項4】 前記チャット手段から前記チャットルー
ムに対する前記端末装置の現在位置に関する情報の送信
が、前記チャット手段が前記端末装置のユーザの入力し
た文字列等情報を前記チャットルームに送信する際に付
随して行われることを特徴とする、請求項3に記載の端
末装置。
4. The method according to claim 1, wherein the transmitting of the information on the current position of the terminal device from the chat means to the chat room is performed when the chat means transmits information such as a character string input by a user of the terminal device to the chat room. 4. The terminal device according to claim 3, wherein the terminal device is operated in conjunction with the terminal device.
【請求項5】 前記チャット手段から前記チャットルー
ムに対する前記端末装置の現在位置に関する情報の送信
が、一定時間内に少なくとも一回必ず行われることを特
徴とする、請求項3に記載の端末装置。
5. The terminal device according to claim 3, wherein the information about the current position of the terminal device with respect to the chat room is transmitted from the chat means at least once within a predetermined time.
【請求項6】 特定の地域でのみ閲覧可能な仮想オブジ
ェクトを閲覧する機能を有するユーザインタフェース手
段を備えた端末装置において、前記ユーザインタフェー
ス手段が、電話番号を少なくとも含む前記仮想オブジェ
クトを閲覧した際に、該電話番号に対して電話を発呼す
る機能を有することを特徴とする端末装置。
6. A terminal device having a user interface unit having a function of browsing a virtual object that can be browsed only in a specific area, wherein the user interface unit browses the virtual object including at least a telephone number. A terminal device having a function of making a call to the telephone number.
【請求項7】 特定の地域でのみ閲覧可能な仮想オブジ
ェクトを編集する機能を有する仮想オブジェクト編集手
段を少なくとも含む編集装置において、前記仮想オブジ
ェクト編集手段が、前記仮想オブジェクトに、複数のユ
ーザが通信接続可能であって前記複数のユーザのうちの
一名の入力した文字列等情報を前記複数のユーザに一斉
同報する機能を少なくとも有するチャットルームを一意
に識別する識別記号を内蔵せしめる機能を備えることを
特徴とする、編集装置。
7. An editing apparatus including at least a virtual object editing unit having a function of editing a virtual object that can be viewed only in a specific area, wherein the virtual object editing unit is connected to the virtual object by a plurality of users. A function of incorporating an identification code for uniquely identifying a chat room that is capable of simultaneously broadcasting information such as a character string input by one of the plurality of users to the plurality of users. An editing device, characterized by the following.
【請求項8】 特定の地域でのみ閲覧可能な仮想オブジ
ェクトを編集する機能を有する仮想オブジェクト編集手
段を少なくとも含む編集装置において、前記仮想オブジ
ェクト編集手段が、前記仮想オブジェクトに電話番号を
内蔵せしめる機能を備えることを特徴とする、編集装
置。
8. An editing apparatus including at least a virtual object editing unit having a function of editing a virtual object that can be browsed only in a specific area, wherein the virtual object editing unit has a function of incorporating a telephone number in the virtual object. An editing device, comprising:
【請求項9】 複数のユーザが通信接続可能であって前
記複数のユーザのうちの一名の入力した文字列等情報を
前記複数のユーザに一斉同報する機能を少なくとも有す
るチャットルームを少なくとも一つ含むチャットサーバ
において、前記チャットサーバが、前記ユーザの位置が
所定の領域に属していない場合には前記ユーザの接続要
求を拒否する認証手段を有することを特徴とする、チャ
ットサーバ。
9. At least one chat room that is connectable to a plurality of users and has at least a function of broadcasting information such as a character string input by one of the plurality of users to the plurality of users simultaneously. A chat server, comprising: an authentication unit for rejecting a connection request of the user when the position of the user does not belong to a predetermined area.
【請求項10】 前記認証手段が、前記ユーザの位置が
所定の領域から外部に移動した場合には、前記ユーザと
前記チャットサーバとの接続を切断する機能をさらに有
することを特徴とする、請求項9に記載のチャットサー
バ。
10. The method according to claim 1, wherein the authentication unit further has a function of disconnecting the connection between the user and the chat server when the position of the user moves from a predetermined area to the outside. Item 10. The chat server according to item 9.
【請求項11】 前記認証手段が、前記ユーザの位置に
関する情報を前記ユーザの利用する端末装置から受け取
ることを特徴とする、請求項9または請求項10に記載
のチャットサーバ。
11. The chat server according to claim 9, wherein the authentication unit receives information on the position of the user from a terminal device used by the user.
【請求項12】 前記チャットサーバが、該チャットサ
ーバに含まれている単数または複数のチャットルームの
各々について、該チャットルームのユーザが該チャット
ルームへ参加することが可能な所定の領域に関する情報
を記録した位置限定手段をさらに有し、前記認証手段が
前記位置限定手段から前記チャットルームの各々に関す
る前記所定の領域に関する情報を得ることを特徴とす
る、請求項9、請求項10、または請求項11に記載の
チャットサーバ。
12. The chat server, for each of one or more chat rooms included in the chat server, information on a predetermined area where a user of the chat room can participate in the chat room. 11. The recording device according to claim 9, further comprising a recorded position limiting unit, wherein the authentication unit obtains information on the predetermined area relating to each of the chat rooms from the position limiting unit. The chat server according to item 11.
【請求項13】 ユーザが入出力操作の可能な端末装置
を制御するプログラムを記録してある、前記端末装置で
読み取り可能な記録媒体において、特定の地域でのみ閲
覧可能な仮想オブジェクトを閲覧する第一のプログラム
コード手段と、複数のユーザが通信接続可能であって前
記複数のユーザのうちの一名の入力した文字列等情報を
前記複数のユーザに一斉同報する機能を少なくとも有す
るチャットルームを一意に識別する識別記号が前記仮想
オブジェクトに含まれている場合に、前記端末装置と前
記識別記号で識別される前記チャットルームとを相互に
通信接続する第二のプログラムコード手段とを含むプロ
グラムを記録してあることを特徴とする記録媒体。
13. A method of browsing a virtual object that can be browsed only in a specific area, on a recording medium readable by the terminal device, in which a program for controlling a terminal device that allows a user to perform input / output operations is recorded. One program code means and a chat room which is capable of communicating with a plurality of users and has at least a function of simultaneously broadcasting information such as a character string input by one of the plurality of users to the plurality of users. A program including second program code means for mutually connecting and connecting the terminal device and the chat room identified by the identification symbol, when an identification symbol for uniquely identifying is included in the virtual object. A recording medium characterized by being recorded.
【請求項14】 前記プログラムが、さらに、前記チャ
ットルームから受信した文字列等情報をキャラクターの
発話としてユーザに提示する第三のプログラムコード手
段を備えることを特徴とする、請求項13に記載の記録
媒体。
14. The program according to claim 13, wherein the program further comprises third program code means for presenting information such as a character string received from the chat room to a user as a character utterance. recoding media.
【請求項15】 前記プログラムが、前記端末装置の現
在位置に関する情報を前記チャットルームに送信する第
四のプログラムコード手段を備えることを特徴とする、
請求項13または請求項14に記載の記録媒体。
15. The program according to claim 15, further comprising: fourth program code means for transmitting information on a current position of the terminal device to the chat room.
The recording medium according to claim 13 or claim 14.
【請求項16】 ユーザが入出力操作の可能な端末装置
を制御するプログラムを記録してある、前記端末装置で
読み取り可能な記録媒体において、特定の地域でのみ閲
覧可能な仮想オブジェクトを閲覧する第一のプログラム
コード手段と、電話番号が前記仮想オブジェクトに含ま
れている場合に、前記電話番号に対して電話を発呼する
第二のプログラムコード手段とを含むプログラムを記録
してあることを特徴とする記録媒体。
16. A method of browsing a virtual object that can be browsed only in a specific area on a recording medium readable by the terminal device, in which a program for controlling a terminal device capable of performing input / output operations by a user is recorded. A program including one program code means and a second program code means for making a call to the telephone number when the telephone number is included in the virtual object is recorded. Recording medium.
【請求項17】 ユーザが入出力操作の可能な編集装置
を制御するプログラムを記録してある、前記編集装置で
読み取り可能な記録媒体において、特定の地域でのみ閲
覧可能な仮想オブジェクトを編集する第一のプログラム
コード手段と、前記仮想オブジェクトに、複数のユーザ
が通信接続可能であって前記複数のユーザのうちの一名
の入力した文字列等情報を前記複数のユーザに一斉同報
する機能を少なくとも有するチャットルームを一意に識
別する識別記号を内蔵せしめる第二のプログラムコード
手段とを少なくとも備えたプログラムを記録してあるこ
とを特徴とする、記録媒体。
17. A method for editing a virtual object that can be browsed only in a specific area, on a recording medium readable by the editing device, in which a program for controlling an editing device that allows a user to perform input / output operations is recorded. A program code means, and a function of allowing a plurality of users to communicate and connect to the virtual object and simultaneously broadcasting information such as a character string input by one of the plurality of users to the plurality of users. A recording medium characterized by recording at least a program having at least a second program code means for incorporating an identification symbol for uniquely identifying at least a chat room.
【請求項18】 ユーザが入出力操作の可能な編集装置
を制御するプログラムを記録してある、前記編集装置で
読み取り可能な記録媒体において、特定の地域でのみ閲
覧可能な仮想オブジェクトを編集する第一のプログラム
コード手段と、前記仮想オブジェクトに、電話番号を内
蔵せしめる第二のプログラムコード手段とを少なくとも
備えたプログラムを記録してあることを特徴とする、記
録媒体。
18. A method for editing a virtual object that can be browsed only in a specific area, on a recording medium readable by the editing device, in which a program for controlling an editing device that allows a user to perform input / output operations is recorded. A recording medium characterized by recording a program having at least one program code means and a second program code means for storing a telephone number in the virtual object.
【請求項19】 複数のユーザが通信接続可能であって
前記複数のユーザのうちの一名の入力した文字列等情報
を前記複数のユーザに一斉同報する機能を少なくとも有
するチャットルームを少なくとも一つ含むチャットサー
バを制御するプログラムを記録してある、前記チャット
サーバで読み取り可能な記録媒体において、前記チャッ
トサーバが、前記ユーザの位置が所定の領域に属してい
ない場合には前記ユーザの接続要求を拒否する第一のプ
ログラムコード手段が前記プログラムに含まれているこ
とを特徴とする、記録媒体。
19. At least one chat room which is connectable to a plurality of users and has at least a function of broadcasting information such as a character string inputted by one of the plurality of users to the plurality of users simultaneously. In a recording medium readable by the chat server, which stores a program for controlling the chat server including the chat server, if the position of the user does not belong to a predetermined area, the chat server requests a connection of the user. Recording medium characterized in that the program includes first program code means for rejecting the program.
【請求項20】 前記プログラムが、前記ユーザの位置
が所定の領域から外部に移動した場合には、前記ユーザ
と前記チャットサーバとの接続を切断する第二のプログ
ラムコード手段をさらに含んでいることを特徴とする、
請求項19に記載の記録媒体。
20. The program further includes second program code means for disconnecting the connection between the user and the chat server when the position of the user moves out of a predetermined area. Characterized by
The recording medium according to claim 19.
【請求項21】 任意のデータを表現する仮想オブジェ
クトを単数または複数記録した記録媒体において、前記
仮想オブジェクトのうち少なくとも一つについて、前記
仮想オブジェクトが閲覧可能な特定の地域を指定する情
報と、複数のユーザが通信接続可能であって前記複数の
ユーザのうちの一名の入力した文字列等情報を前記複数
のユーザに一斉同報する機能を少なくとも有するチャッ
トルームを一意に識別する識別記号とを、それぞれ対応
させて記録してあることを特徴とする、記録媒体。
21. A recording medium on which one or more virtual objects expressing arbitrary data are recorded, wherein at least one of the virtual objects includes information specifying a specific area where the virtual objects can be viewed, and An identification symbol that uniquely identifies a chat room that is capable of communication connection and has a function of simultaneously broadcasting information such as a character string entered by one of the plurality of users to the plurality of users. Recording media recorded in correspondence with each other.
【請求項22】 任意のデータを表現する仮想オブジェ
クトを単数または複数記録した記録媒体において、前記
仮想オブジェクトのうち少なくとも一つについて、前記
仮想オブジェクトが閲覧可能な特定の地域を指定する情
報と、電話番号とを、それぞれ対応させて記録してある
ことを特徴とする、記録媒体。
22. A recording medium in which one or more virtual objects representing arbitrary data are recorded, for at least one of the virtual objects, information specifying a specific area where the virtual objects can be viewed, A recording medium in which numbers are recorded in correspondence with each other.
JP2000272349A 2000-09-07 2000-09-07 Terminal with chatting means, editing device, chat server and recording medium Pending JP2002082893A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000272349A JP2002082893A (en) 2000-09-07 2000-09-07 Terminal with chatting means, editing device, chat server and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000272349A JP2002082893A (en) 2000-09-07 2000-09-07 Terminal with chatting means, editing device, chat server and recording medium

Publications (1)

Publication Number Publication Date
JP2002082893A true JP2002082893A (en) 2002-03-22

Family

ID=18758479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000272349A Pending JP2002082893A (en) 2000-09-07 2000-09-07 Terminal with chatting means, editing device, chat server and recording medium

Country Status (1)

Country Link
JP (1) JP2002082893A (en)

Cited By (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102547A (en) * 2002-09-06 2004-04-02 Nec Corp Communication system, communication server, and communicating method
JP2005346299A (en) * 2004-06-01 2005-12-15 Dainippon Printing Co Ltd Communication system and communication method utilizing communication network
JP2008507749A (en) * 2004-07-20 2008-03-13 エスケー コミュニケーションズ コーポレーション MOBLOG-BASED LOCAL COMMUNITY SERVICE PROVIDING SYSTEM AND METHOD THROUGH MOBILE COMMUNICATION TERMINAL
JP2008507750A (en) * 2004-07-20 2008-03-13 エスケー コミュニケーションズ コーポレーション Off-site proposal method in moblog-based local community system through mobile communication terminal
KR101125096B1 (en) * 2005-05-03 2012-03-26 에스케이커뮤니케이션즈 주식회사 System and method for making, managing and evaluating a meeting using the position information of a mobile terminal and computer readable medium processing the method
JP2013168157A (en) * 2010-02-15 2013-08-29 Yutaka Tsukamoto Access control system and server
WO2015111153A1 (en) * 2014-01-22 2015-07-30 株式会社メディアシーク Event management device and event management system
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9330381B2 (en) 2008-01-06 2016-05-03 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9600174B2 (en) 2006-09-06 2017-03-21 Apple Inc. Portable electronic device for instant messaging
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
JP6263668B1 (en) * 2017-10-13 2018-01-17 株式会社Cueworks Chat type task management system
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
JP2018506103A (en) * 2014-12-19 2018-03-01 フェイスブック,インク. Facilitate sending and receiving peer-to-business payments
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10348654B2 (en) * 2003-05-02 2019-07-09 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
JP2019164645A (en) * 2018-03-20 2019-09-26 学校法人 中央大学 Communication system and communication method
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
JP2020035130A (en) * 2018-08-29 2020-03-05 Kddi株式会社 Dating support system, terminal device, server device, dating support method and computer program
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US10607140B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification

Cited By (186)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
JP2004102547A (en) * 2002-09-06 2004-04-02 Nec Corp Communication system, communication server, and communicating method
US10623347B2 (en) 2003-05-02 2020-04-14 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US10348654B2 (en) * 2003-05-02 2019-07-09 Apple Inc. Method and apparatus for displaying information during an instant messaging session
JP2005346299A (en) * 2004-06-01 2005-12-15 Dainippon Printing Co Ltd Communication system and communication method utilizing communication network
JP2008507749A (en) * 2004-07-20 2008-03-13 エスケー コミュニケーションズ コーポレーション MOBLOG-BASED LOCAL COMMUNITY SERVICE PROVIDING SYSTEM AND METHOD THROUGH MOBILE COMMUNICATION TERMINAL
JP2008507750A (en) * 2004-07-20 2008-03-13 エスケー コミュニケーションズ コーポレーション Off-site proposal method in moblog-based local community system through mobile communication terminal
KR101125096B1 (en) * 2005-05-03 2012-03-26 에스케이커뮤니케이션즈 주식회사 System and method for making, managing and evaluating a meeting using the position information of a mobile terminal and computer readable medium processing the method
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10572142B2 (en) 2006-09-06 2020-02-25 Apple Inc. Portable electronic device for instant messaging
US11762547B2 (en) 2006-09-06 2023-09-19 Apple Inc. Portable electronic device for instant messaging
US9600174B2 (en) 2006-09-06 2017-03-21 Apple Inc. Portable electronic device for instant messaging
US11169690B2 (en) 2006-09-06 2021-11-09 Apple Inc. Portable electronic device for instant messaging
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US11743375B2 (en) 2007-06-28 2023-08-29 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US11122158B2 (en) 2007-06-28 2021-09-14 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US10521084B2 (en) 2008-01-06 2019-12-31 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US11126326B2 (en) 2008-01-06 2021-09-21 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US10503366B2 (en) 2008-01-06 2019-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9792001B2 (en) 2008-01-06 2017-10-17 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9330381B2 (en) 2008-01-06 2016-05-03 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US10475446B2 (en) 2009-06-05 2019-11-12 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US11410053B2 (en) 2010-01-25 2022-08-09 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607140B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984326B2 (en) 2010-01-25 2021-04-20 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984327B2 (en) 2010-01-25 2021-04-20 New Valuexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
JP6485848B1 (en) * 2010-02-15 2019-03-20 豊 塚本 Computer system and program
JP2018125009A (en) * 2010-02-15 2018-08-09 豊 塚本 Computer system and program
JP2019079563A (en) * 2010-02-15 2019-05-23 豊 塚本 Computer system and program
JP6474117B1 (en) * 2010-02-15 2019-02-27 豊 塚本 Computer system and program
JP2019091463A (en) * 2010-02-15 2019-06-13 豊 塚本 Computer system and program
JP2014206998A (en) * 2010-02-15 2014-10-30 豊 塚本 Computer system
JP2013168157A (en) * 2010-02-15 2013-08-29 Yutaka Tsukamoto Access control system and server
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10978090B2 (en) 2013-02-07 2021-04-13 Apple Inc. Voice trigger for a digital assistant
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US10657961B2 (en) 2013-06-08 2020-05-19 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
JP5982589B2 (en) * 2014-01-22 2016-08-31 株式会社メディアシーク Event management apparatus, event management system, and client terminal
WO2015111153A1 (en) * 2014-01-22 2015-07-30 株式会社メディアシーク Event management device and event management system
JPWO2015111153A1 (en) * 2014-01-22 2017-03-23 株式会社メディアシーク Event management apparatus, event management system, and client terminal
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10083690B2 (en) 2014-05-30 2018-09-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US11257504B2 (en) 2014-05-30 2022-02-22 Apple Inc. Intelligent assistant for home automation
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10497365B2 (en) 2014-05-30 2019-12-03 Apple Inc. Multi-command single utterance input method
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10431204B2 (en) 2014-09-11 2019-10-01 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US11556230B2 (en) 2014-12-02 2023-01-17 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
JP2018506103A (en) * 2014-12-19 2018-03-01 フェイスブック,インク. Facilitate sending and receiving peer-to-business payments
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10311871B2 (en) 2015-03-08 2019-06-04 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
JP6263668B1 (en) * 2017-10-13 2018-01-17 株式会社Cueworks Chat type task management system
JP2019074888A (en) * 2017-10-13 2019-05-16 株式会社Cueworks Chat type task management system
WO2019073612A1 (en) * 2017-10-13 2019-04-18 株式会社Cueworks Chat-type task management system
JP7133193B2 (en) 2018-03-20 2022-09-08 学校法人 中央大学 Communication system and communication method
JP2019164645A (en) * 2018-03-20 2019-09-26 学校法人 中央大学 Communication system and communication method
JP2020035130A (en) * 2018-08-29 2020-03-05 Kddi株式会社 Dating support system, terminal device, server device, dating support method and computer program

Similar Documents

Publication Publication Date Title
JP2002082893A (en) Terminal with chatting means, editing device, chat server and recording medium
Okada Youth culture and the shaping of Japanese mobile media: Personalization and the keitai Internet as multimedia
AU2005200442B2 (en) Command based group SMS with mobile message receiver and server
US7047030B2 (en) Group communication method for a wireless communication device
US20070150608A1 (en) Method of Enabling a Wireless Information Device to Access Data Services
US20080037534A1 (en) Push-Type Telecommunications Accompanied by a Telephone Call
US20140325395A1 (en) Voice link system
US20050076078A1 (en) Event based communication system
CN101291341A (en) On-line environment automatic user match
WO2000016209A1 (en) Dynamic matchingtm of users for group communication
TW201222271A (en) System and method for providing and managing interactive services
JP2002522998A (en) Computer architecture and processes for audio conferencing over local and global networks, including the Internet and intranets
JP2007020193A (en) Apparatus and method for providing subscriber information during wait time in mobile communication system
WO2002021287A1 (en) Transmission terminal, data server device and reception terminal used in electronic message transmission/reception system
US20050162431A1 (en) Animation data creating method, animation data creating device, terminal device, computer-readable recording medium recording animation data creating program and animation data creating program
TWI224921B (en) Structure using multimedia messaging services to proceed interactive two-way transmission and method thereof
US20050017976A1 (en) Cellular terminal, method for creating animation of cellular terminal, and animation creation system
JPH1188863A (en) Program information display device
KR20020085747A (en) Realtime/on-demand wireless sightseeing information multicasting system using mobile terminal and method thereof
KR20030088621A (en) A mobile game matching system and method condition based on realtime condition matching & sms
JP2007041992A (en) Conversation system, conversation method, conversation server and program
KR100674569B1 (en) Community service apparatus for utilizing sound source and method thereof
KR100360538B1 (en) The Real time/Nonreal time Interactive Web Presention Method and System applicated Multimedia Technology
JP3942980B2 (en) Karaoke performance terminal that outputs a message message via the user's mobile phone
KR20070098421A (en) Multiplex voice discussion service method and system which use the on-line notice board