JP2000099225A - Device and method for processing information and distribution medium - Google Patents

Device and method for processing information and distribution medium

Info

Publication number
JP2000099225A
JP2000099225A JP10264196A JP26419698A JP2000099225A JP 2000099225 A JP2000099225 A JP 2000099225A JP 10264196 A JP10264196 A JP 10264196A JP 26419698 A JP26419698 A JP 26419698A JP 2000099225 A JP2000099225 A JP 2000099225A
Authority
JP
Japan
Prior art keywords
displayed
virtual space
text
step
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10264196A
Other languages
Japanese (ja)
Inventor
Tsunenori Noma
Haruhiko Sakata
治彦 坂田
恒毅 野間
Original Assignee
Sony Corp
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, ソニー株式会社 filed Critical Sony Corp
Priority to JP10264196A priority Critical patent/JP2000099225A/en
Publication of JP2000099225A publication Critical patent/JP2000099225A/en
Application status is Granted legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To enable a user to easily recognize a chat text corresponding to an avatar by controlling the text of chat to be performed in a virtual space by a virtual life object so as to be displayed in an image of the virtual space. SOLUTION: A serif data display area 151 is provided above a world picture 140 for displaying an avatar and a chat text 1 of 'Taro: Hi!' of avatar 'Taro' is displayed in a balloon above the position of the avatar 'Taro'. Inside the serif data display area 151, the world picture is displayed in the area where the balloon is not displayed. Thus, when the balloon is not displayed in the serif data display area 151, a user can visually recognize the image of the world picture 140 as it is. The chat text 1 is displayed so that the center position of the avatar 'Taro' coincides with the center position of the balloon of chat text 1 in the row direction.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、情報処理装置および方法、並びに提供媒体に関し、特に、仮想生命オブジェクトが行うチャットのテキストが仮想生命オブジェクトと同一の仮想空間の画像に表示されるようにすることにより、ユーザが仮想生命オブジェクトを使用したテキストチャットを実施した際に、仮想生命オブジェクトのチャットのテキストの認識効果を向上させるようにした情報処理装置および方法、並びに提供媒体に関する。 BACKGROUND OF THE INVENTION The present invention relates to an information processing apparatus and method, and a providing medium, in particular, so that the text of the chat virtual living object performed is displayed on the image of the virtual living object and the same virtual space it makes when the user performed the text chat using virtual living object, an information processing apparatus and method to improve the recognition effect of chat text virtual living object, and to provide the medium.

【0002】 [0002]

【従来の技術】仮想空間を複数のユーザが共有し、その仮想空間の中で、各ユーザの分身である仮想生命オブジェクト(以下、アバタと称する)を使用して、ユーザ間でコミュニケーションを図ることができる仮想空間共有システムがある。 BACKGROUND OF THE INVENTION virtual space is shared by multiple users, in the virtual space, the virtual life object is a branch for each user using (hereinafter, referred to as avatar), to promote communication between users there is a virtual space sharing system that can. このような従来の仮想空間共有システムは、テキストチャットを行う際のアバタのチャットテキストを、図14に示すように、アバタを表示する仮想空間画面(以下、ワールド画面1と称する)とは別に設けた専用の画面(以下、セリフデータ表示領域2と称する)に表示している。 Such conventional virtual space sharing system, the chat text avatars when performing text chat, as shown in FIG. 14, a virtual space screen displaying the avatar (hereinafter, referred to as the World screen 1) provided separately from the dedicated screens are displayed (hereinafter, referred to as speech data display area 2).

【0003】セリフデータ表示領域2においては、図1 [0003] In speech data display area 2, FIG. 1
5に示すように、チャットテキストの表示可能行数が予め設定され、その範囲内でアバタのチャットテキストが1行づつ左詰めで上から下へと表示される。 As shown in 5, is set number displayable line of chat text in advance, chat text avatars within that range are displayed from top to bottom on one line at a time left justified. 例えば、1 For example, 1
番上の行のアドレスをY=0とすると、次のチャットテキストはその下のアドレスY=1の行に表示される。 When the address of a row on the turn and Y = 0, the following chat text is displayed in the address line Y = 1 thereunder.

【0004】図16に示すように、表示可能行数が5行に設定されている場合、アドレスY=4の行でセリフデータ表示領域2が一杯となる。 [0004] As shown in FIG. 16, if the number of displayable lines is set to five rows, speech data display area 2 in the row address Y = 4 becomes full. さらにチャットテキストを表示しようとする場合、アドレスY=0のチャットテキスト「太郎:よお!」が消去され、アドレスY=1乃至Y=4に表示されている4行分のチャットテキスト(図16の点線で囲まれた部分)が、アドレスY=0乃至Y=3のセリフデータ表示領域2にコピーして表示される。 If you want to try to further display the chat text, chat text of the address Y = 0 "Taro:! Hi dudes" is erased, the address Y = 1 or Y = 4 to are displayed four lines of chat text (Fig. 16 the dotted boxes in part of) is displayed by copying the speech data display area 2 of the address Y = 0 to Y = 3. その後、アドレスY=4に表示されていたチャットテキストが消去される。 Then, chat text which has been displayed in the address Y = 4 is erased.

【0005】すなわち、スクロールが行われる。 [0005] In other words, the scroll is carried out. このスクロール機能により、新しく表示されるチャットテキストの表示領域がアドレスY=4の行に確保された後、図17に示すように、新しく表示しようとするチャットテキスト「太郎:最近は暇になってきたから元気。」がアドレスY=4の行に表示される。 This scroll function, after the display area of ​​the chat text to be displayed newly is secured to the row address Y = 4, as shown in FIG. 17, chat text "Taro to be displayed new: recently come to spare time Genki because I. "is displayed on the line of the address Y = 4. このような処理が繰り返し行われ、新たなチャットテキストがセリフ表示領域2に順次表示される。 Such processing is repeated, a new chat text is sequentially displayed on the dialogue display region 2.

【0006】 [0006]

【発明が解決しようとする課題】しかしながら、共有仮想空間上において、アバタは複数存在するのが通常である。 [SUMMARY OF THE INVENTION However, in the shared virtual space, the avatar it is usual presence of a plurality. 従って、アバタを表示しているワールド画面1とは別のセリフデータ表示領域2にアバタのチャットテキストを表示するようにすると、ユーザがアバタとチャットテキストを直感的に対応づけることが困難になるだけでなく、ユーザの視点がワールド画面1よりセリフデータ表示領域2に固定されがちとなり、仮想空間共有システムの特徴であるアバタを使用したテキストチャットの効果が損なわれる。 Therefore, when to display the chat text avatar to another speech data display area 2 is World screen 1 displaying an avatar, it is difficult to the user characterizing intuitively corresponding avatar and chat text only not, the user's viewpoint becomes likely to be secured from the World screen 1 to the speech data display area 2, the effect of text chat using avatar is a feature of the virtual space sharing system is impaired.

【0007】また、セリフデータ表示領域2における改行がチャットテキストごとに行われるため、図18に示すように、比較的短いチャットテキストが連続する場合、セリフデータ表示領域2の右側のエリアが空白状態となり、セリフデータ表示領域2が有効に使われない課題がある。 Further, since the new line in the speech data display area 2 is performed for each chat text, as shown in FIG. 18, when a relatively short chat text is continuous, the right area is blank state serif data display area 2 next, speech data display area 2 there is a problem that is not effectively used.

【0008】本発明はこのような状況に鑑みてなされたものであり、アバタに対応するチャットテキストをワールド画面内に表示するようにし、ユーザがアバタに対応したチャットテキストを容易に認識できるようにし、もって、仮想空間共有システムにおけるアバタを使用したテキストチャット効果の向上を図るものである。 [0008] The present invention has been made in view of such circumstances, so as to display the chat text corresponding to the avatar in the world screen, the user to easily recognize the chat text corresponding to the avatar , it has been, is intended to improve the text chat effects using avatar in the virtual space sharing system.

【0009】 [0009]

【課題を解決するための手段】請求項1に記載の情報処理装置は、ネットワークを介して接続された他の情報処理装置と仮想空間を共有する情報処理装置において、仮想空間の画像を提供する提供手段と、仮想生命オブジェクトが仮想空間に表示されるように制御する第1の表示制御手段と、仮想空間において仮想生命オブジェクトが行うチャットのテキストが、仮想空間の画像内に表示されるように制御する第2の表示制御手段とを備えることを特徴とする。 Means for Solving the Problems An information processing apparatus according to claim 1, in the information processing apparatus to share with other information processing apparatus connected via a network virtual space, to provide an image of the virtual space and providing means, as virtual living object in the first display control means for controlling so as to be displayed in the virtual space, text chat virtual living object performs in the virtual space is displayed in the image of the virtual space characterized in that it comprises a second display control means for controlling.

【0010】請求項6に記載の情報処理方法は、ネットワークを介して接続された他の情報処理装置と仮想空間を共有する情報処理装置の情報処理方法において、仮想空間の画像を提供する提供ステップと、仮想生命オブジェクトが仮想空間に表示されるように制御する第1の表示制御ステップと、仮想空間において仮想生命オブジェクトが行うチャットのテキストが、仮想空間の画像内に表示されるように制御する第2の表示制御ステップとを含むことを特徴とする。 [0010] The information processing method according to claim 6 is the information processing method of an information processing apparatus to be shared with another information processing apparatus connected via a network a virtual space, providing step of providing an image of the virtual space When a first display control step of controlling so virtual creature object is displayed in the virtual space, text chat virtual living object performs in the virtual space, and controls to be displayed in a virtual space image characterized in that it comprises a second display control step.

【0011】請求項7に記載の提供媒体は、ネットワークを介して接続された他の情報処理装置と仮想空間を共有する情報処理装置に、仮想空間の画像を提供する提供ステップと、仮想生命オブジェクトが仮想空間に表示されるように制御する第1の表示制御ステップと、仮想空間において仮想生命オブジェクトが行うチャットのテキストが、仮想空間の画像内に表示されるように制御する第2の表示制御ステップとを含む処理を実行させるコンピュータが読み取り可能なプログラムを提供することを特徴とする。 [0011] providing medium according to claim 7, the information processing apparatus to share are connected via a network with another information processing apparatus a virtual space, a providing step of providing an image of the virtual space, the virtual life object There a first display control step of controlling so as to be displayed in the virtual space, text chat virtual living object performs in the virtual space, the second display control for controlling so as to be displayed in the image of the virtual space computer to execute processing including the steps and providing a readable program.

【0012】請求項1に記載の情報処理装置、請求項6 [0012] The information processing apparatus according to claim 1, claim 6
に記載の情報処理方法、および請求項7に記載の提供媒体においては、仮想生命オブジェクトの行うテキストチャットが仮想空間の画像内に表示される。 The information processing method according to, and in the providing medium according to claim 7, text chat performed by the virtual living object is displayed in the image of the virtual space.

【0013】 [0013]

【発明の実施の形態】以下に本発明の実施の形態を説明するが、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段後の括弧内に、対応する実施の形態(但し一例)を付加して本発明の特徴を記述すると、次のようになる。 Describing the embodiments of the present invention in the following DETAILED DESCRIPTION OF THE INVENTION Although, in order to clarify the correspondence between the following embodiments and the means of the invention described in the appended claims, the respective means in parentheses after, when describing the features of the present invention by adding the corresponding embodiments (but one example), as follows. 但し勿論この記載は、各手段を記載したものに限定することを意味するものではない。 However, of course this description is not meant to be limited to the recited elements.

【0014】すなわち、請求項1に記載の情報処理装置は、ネットワークを介して接続された他の情報処理装置と仮想空間を共有する情報処理装置において、仮想空間の画像を提供する提供手段(例えば、図5のステップS [0014] That is, the information processing apparatus according to claim 1, in the information processing apparatus to be shared with another information processing apparatus connected via a network a virtual space, providing means for providing an image of the virtual space (e.g. , the steps of FIG. 5 S
13)と、仮想生命オブジェクトが仮想空間に表示されるように制御する第1の表示制御手段(例えば、図5のステップS14)と、仮想空間において仮想生命オブジェクトが行うチャットのテキストが、仮想空間の画像内に表示されるように制御する第2の表示制御手段(例えば、図5のステップS18)とを備えることを特徴とする。 And 13), the first display control means for controlling so virtual creature object is displayed in the virtual space (e.g., the step S14) in FIG. 5, the text of the chat virtual living object performs in the virtual space, virtual space second display control means for controlling so as to display an image (e.g., step S18 in FIG. 5); and a.

【0015】図1は、本発明を適用した共有仮想空間提供システムの構成例を表している。 [0015] Figure 1 represents a configuration example of a shared virtual space-providing system according to the present invention. サーバ端末40− The server terminal 40-
1,40−2は、共有仮想空間提供プログラムを有し、 1,40-2 has a shared virtual space-providing program,
通信ネットワーク30を介して、そこに接続されているパーソナルコンピュータ10−1乃至10−3に、ユーザがコミュニケーションをとるための共有仮想空間を提供する。 Via the communication network 30, the personal computer 10-1 to 10-3 is connected thereto, the user provides a shared virtual space for to communicate.

【0016】図2はサーバ端末40−1のハードウェア構成を表している。 [0016] Figure 2 represents the hardware configuration of the server terminal 40-1. (尚、図示は省略するが、サーバ端末40−2もサーバ端末40−1と同様に構成されている)内部バス104には、CPU(Central Processin (Although not shown, the server terminal 40-2 also has the same configuration as the server terminal 40-1) The internal bus 104, CPU (Central processIn
g Unit)101、ROM(Read Only Memory)10 g Unit) 101, ROM (Read Only Memory) 10
2、およびRAM(Random Access Memory)103が接続されている。 2, and RAM (Random Access Memory) 103 are connected. この内部バス104はI/Oインタフェース105とも接続されている。 The internal bus 104 is also connected to I / O interface 105. I/Oインタフェース105はハードディスクドライブ(HDD)106、通信部107、キーボード108、マウス109、および表示部110と接続されている。 I / O interface 105 is connected to a hard disk drive (HDD) 106, a communication unit 107, a keyboard 108, a mouse 109 and a display unit 110.

【0017】CPU101はサーバ端末40−1の各機能を統括するコントローラであり、ROM102に記憶されているプログラムに従って、各種の処理を実行する。 The CPU101 is a controller which controls the functions of the server terminal 40-1, in accordance with a program stored in the ROM 102, executes various processes. RAM103には、CPU101が各種の処理を実行する上において、必要なデータやプログラムなどが適宜記憶される。 The RAM 103, CPU 101 is in the execution of various processes, such as data and programs required are suitably stored. HDD106は外部記憶装置であり、仮想空間共有プログラムなどが記憶されている。 HDD106 is an external storage device, such as a virtual space sharing program is stored. 通信部1 The communication unit 1
07は、例えば、モデムにより構成され、インターネットなどの通信ネットワーク30を介して、外部の装置と通信を行う。 07 is composed of, for example, a modem, via a communication network 30 such as the Internet, it communicates with an external device. キーボード108は外部からの入力を行うとき、ユーザにより操作される。 Keyboard 108 when performing an input from the outside, is operated by a user. マウス109は表示部110に表示されたボタンなどを選択したりするとき操作される。 Mouse 109 is operated to or select a button displayed on the display unit 110. 表示部110はLCD(Liquid Crystal D The display unit 110 LCD (Liquid Crystal D
isplay)などにより構成され、所定の画像を表示する。 isplay) is constituted by such as a predetermined image is displayed.

【0018】図3はパーソナルコンピュータ10−1のハードウェア構成を表している(図示は省略するが、パーソナルコンピュータ10−2,10−3も同様に構成されている)。 [0018] Figure 3 shows the hardware configuration of the personal computer 10-1 (although not shown, are similarly configured personal computers 10-2 and 10-3). その基本構成は、図2のサーバ端末40 Its basic configuration, the server terminal 40 of FIG. 2
−1と同様であり、そのCPU121乃至表示部130 Is similar to -1, the CPU121 through the display unit 130
は、図2のCPU101乃至表示部110に対応している。 Corresponds to the CPU101 through the display unit 110 of FIG.

【0019】次に、仮想空間共有システムの動作について説明する。 [0019] Next, a description will be given of the operation of the virtual space sharing system. 最初に、サーバ端末40−1(サーバ端末40−2も同様)の処理を図4のフローチャートを参照して説明する。 First, the process of the server terminal 40-1 (same server terminal 40-2) with reference to the flowchart of FIG. 4 will be described.

【0020】ステップS1において、CPU101は、 [0020] In step S1, CPU101 is,
通信ネットワーク30から通信部107を介して、パーソナルコンピュータ10−1乃至10−3からアバタのID(Identification)と位置を受信したか否かを判定し、受信した場合、ステップS2において、通信部10 Via the communication unit 107 from the communication network 30, it determines whether it has received the position as ID (for the Identification) of the avatar from the personal computer 10-1 to 10-3, when receiving, in step S2, the communication unit 10
7を制御し、すべてのユーザのパーソナルコンピュータ10−1乃至10−3に、ステップS1で受信したアバタのIDと位置を送信させる。 Controls 7, the personal computer 10-1 to 10-3 for all users to transmit the ID and location of the avatar received in step S1. ステップS1において、 In step S1,
CPU101がアバタのIDと位置を受信していないと判定した場合、ステップS2の処理はスキップされ、ステップS3の処理に移る。 If the CPU101 determines that it has not received the ID and location of the avatar, step S2 is skipped, the routine to proceed to step S3.

【0021】ステップS3において、CPU101は、 [0021] In step S3, CPU101 is,
ユーザのパーソナルコンピュータ10−1乃至10−3 The user of the personal computer 10-1 to 10-3
から、アバタのIDとチャットテキストを受信したか否かを判定し、受信した場合、CPU101は、ステップS4において、全てのユーザのパーソナルコンピュータ10−1乃至10−3に、受信したチャットテキストと対応するアバタのIDとチャットテキストを送信する。 From, when determining whether it has received the ID and chat text avatar, received, CPU 101, in step S4, the personal computer 10-1 to 10-3 of all users, corresponding with the received chat text It transmits the ID and the chat text of the avatar to be.
ステップS3でチャットテキストと対応するアバタのI I of the avatar and the corresponding chat text in step S3
Dとチャットテキストが受信されていないと判定された場合、ステップS4の処理はスキップされる。 If D and chat text is determined not to have been received, the processing of step S4 is skipped.

【0022】ステップS5において、処理の終了が指令されたか否かが判定され、指令されていないとき、ステップS1に戻り、それ以降の処理が繰り返される。 [0022] In step S5, whether the end of the processing is instructed is determined, when not commanded, the flow returns to step S1, and the subsequent processing is repeated. 終了が指令されるまで、ステップS1乃至S4の処理が、繰り返して行われることにより、複数のユーザが仮想空間を共有することができる。 Until the end is commanded, the processing in steps S1 to S4 are carried out repeatedly, a plurality of users can share a virtual space.

【0023】次に、パーソナルコンピュータ10−1の処理内容を図5のフローチャートを参照して説明する(尚、パーソナルコンピュータ10−2,10−3においても、同様の処理が行われる)。 Next, the processing contents of the personal computer 10-1 will be described with reference to the flowchart of FIG. 5 (Incidentally, also in the personal computer 10-2 and 10-3, the same processing is performed).

【0024】ステップS11において、新たに仮想空間共有システムに参加するとき、ユーザはキーボード12 [0024] In step S11, when newly entering the virtual space sharing system, a user keyboard 12
8またはマウス129を操作して、自分のアバタを選択する。 By operating the 8 or the mouse 129, to choose their own avatar. ステップS12において、CPU121は通信部127を制御して、ユーザが選択したアバタのIDを仮想空間に初めて参加するときのデフォルトの位置とともに、サーバ端末40−1に送信させる。 In step S12, CPU 121 controls the communication unit 127, with the default position when the user first join the ID of the avatar selected in the virtual space, is transmitted to the server terminal 40-1. このIDと位置は、上述したように、図4のステップS2において、サーバ端末40−1からパーソナルコンピュータ10−1 The ID and location, as described above, in step S2 of FIG. 4, the personal computer 10-1 from the server terminal 40-1
と、他のパーソナルコンピュータ10−2,10−3にさらに送信される。 When, further transmitted to other personal computers 10-2 and 10-3.

【0025】ステップS13において、CPU121 [0025] In step S13, CPU121
は、HDD126に記憶されているワールド画面データを読み出し、表示部130に表示させる。 Reads the world screen data stored in the HDD 126, on the display unit 130. ステップS1 Step S1
4において、CPU121は、通信部127を介して、 In 4, CPU 121, through the communication unit 127,
アバタのIDと位置を受信する。 It receives the ID and location of the avatar. これはステップS12 This step S12
において、自分自身が送信したものが、サーバ端末40 In, what I own has been transmitted, the server terminal 40
−1がステップS2の処理を実行することで転送されてきたものである。 -1 are those which have been transferred by executing the process of step S2. CPU121は、これをHDD126 CPU121 is, this HDD126
に記憶させるとともに、IDに対応するアバタの画像データをHDD126から読み出し、表示部130のワールド画面の指定された位置に表示させる。 Together it is stored in the read image data of the avatar corresponding to the ID from the HDD 126, and displays the specified position of the World screen of the display unit 130.

【0026】以上の処理により、ユーザが仮想空間にアバタを介して参加できたことになる。 [0026] By the above process, the user is to have been a part via an avatar in the virtual space.

【0027】その後、ステップS15において、自分のアバタの位置を変更する入力の処理、ステップS16において自分のチャットテキストを入力する場合の処理、 [0027] Thereafter, in step S15, processing of the input to change the position of his avatar, the processing for entering their chat text in step S16,
ステップS17において、他のユーザのアバタの位置変更があった場合の処理、そして、ステップS18において、チャットテキストの表示処理が順次行われる。 In step S17, the processing when there is a location change of the avatar of another user, and, in step S18, the display processing of the chat text is sequentially performed.

【0028】ステップS15乃至S18の処理は、ステップS19において、終了が指令されたと判定されるまで繰り返し行われる。 The processing of steps S15 to S18, in step S19, is repeatedly performed until it is determined that the termination is instructed.

【0029】次に、ステップS15における、自分のアバタの位置を変更する場合の処理を、図6に示すフローチャートを参照して説明する。 Next, in step S15, the processing of changing the position of his avatar will be described with reference to the flowchart shown in FIG. ステップS31において、ユーザは自分のアバタの位置を変更するか否かを判定し、変更する場合、ステップS32において、自分のアバタの位置をパーソナルコンピュータ10−1のマウス129を操作して入力する。 In step S31, the user determines whether to change the position of his avatar, when changing, at step S32, and inputs by operating the mouse 129 of the personal computer 10-1 the position of his avatar. ステップS33において、CPU121は、アバタのIDと、ステップS32 In step S33, CPU 121 has the ID of the avatar, step S32
で入力されたその位置データを、サーバ端末40−1に送信する。 The position data entered in, to the server terminal 40-1. ステップS31で、アバタの位置を変更しないと判定された場合、ステップS32、S33の処理はスキップされる。 In step S31, if it is determined not to change the position of the avatar, the process of step S32, S33 is skipped.

【0030】さらに、図5のステップS16における、 Furthermore, in step S16 in FIG. 5,
チャットテキストを入力する場合の処理を、図7に示すフローチャートを参照して説明する。 The process when entering the chat text, with reference to the flowchart shown in FIG. ステップS41において、ユーザはチャットテキストを入力するか否かを判定し、入力する場合、ステップS42にて、ユーザは、チャットテキストをパーソナルコンピュータ10− In step S41, the user determines whether to enter the chat text, to enter, at step S42, the user, the chat text personal computer 10
1のキーボード128を操作して入力する。 Inputting by operating the first keyboard 128. CPU12 CPU12
1はステップS43にて、入力されたチャットテキストをサーバ端末40−1に送信する。 1 is transmitted in step S43, the input chat text to the server terminal 40-1. ステップS41で、 In step S41,
CPU121がチャットテキストを入力しないと判定した場合、ステップS42,S43の処理はスキップされる。 If the CPU121 determines not to enter the chat text, the process of step S42, S43 is skipped.

【0031】図5のステップS17における、アバタの位置が変更となった場合の処理を、図8に示すフローチャートを参照して説明する。 [0031] in step S17 in FIG. 5, a process when the position of the avatar was changed will be described with reference to the flowchart shown in FIG. ステップS51において、 In the step S51,
CPU121は、サーバ端末40−1から、移動したアバタのIDおよび位置を受信したか否かを判定し、受信した場合、ステップS52にて、受信したアバタのID CPU121 from server terminal 40-1 determines whether it has received the ID and location of the moved avatar, when receiving, in step S52, ID of the avatar received
および位置をHDD126に記憶させる(すでに、そのアバタの位置が記憶されている場合、その値が更新される)。 And it stores the position to HDD 126 (already, in which case the position of the avatar is stored, the value is updated). ステップS53において、CPU121はIDに対応するアバタの画像を、受信した新たな位置に移動させ、表示させる。 In step S53, CPU 121 is an image of the avatar corresponding to the ID, move to a new position received, to be displayed. ステップS51でCPU121がアバタの位置の変更を受信していないと判定した場合、ステップS52,S53の処理はスキップされる。 If CPU121 in step S51 is determined that it has not received the change in the position of the avatar, the process of step S52, S53 is skipped.

【0032】上述したように、アバタが新たに参加したとき(ステップS12)、あるいは、すでに参加しているアバタの位置が変更されたとき(ステップS33)、 [0032] As described above, when the avatar has joined newly (step S12), the or when already the position of the avatar that is joined has been changed (step S33),
そのアバタのIDと位置が、サーバ端末40−1を介して、各パーソナルコンピュータ10−1乃至10−3に送信して、これに基づいて、パーソナルコンピュータ1 ID and the position of the avatar, and transmitted via the server terminal 40-1, the respective personal computers 10-1 to 10-3, based on this, the personal computer 1
0−1乃至10−3は、アバタの画像をワールド画面上に表示させる。 0-1 to 10-3, to display an image of the avatar in the world on the screen.

【0033】次に、図5のステップS18における、チャットテキストを表示する処理を、図9に示すフローチャートを参照して説明する。 Next, in step S18 in FIG. 5, a process of displaying the chat text, with reference to the flowchart shown in FIG. ステップS61において、 In the step S61,
CPU121は、サーバ端末40−1からチャットテキストと対応するアバタのIDを受信したか否かを判定し、受信した場合、ステップS62において、チャットテキストを吹き出し表示させる。 CPU121 determines whether it has received the ID of the avatar corresponding from the server terminal 40-1 and chat text, if received, in step S62, and displays balloon chat text. ステップS61において、サーバ端末40−1からチャットテキストが入力されていないと判定された場合、ステップS62の処理はスキップされる。 In step S61, the chat text from the server terminal 40-1 when it is determined not to be input, the processing of step S62 is skipped.

【0034】図10と図11は、表示部130のワールド画面140の表示例を示す。 FIG. 10 and FIG. 11 shows a display example of a World screen 140 of the display unit 130. この例では、3人のユーザのアバタが3つ(太郎、花子および白くま)表示されている。 In this example, avatar three users 3 are (Taro, Hanako and Polar Bear) display.

【0035】なお、図10と図11におけるワールド画面140の下方の顔の表情が表示されているボタン14 [0035] Incidentally, the button facial expression under the World screen 140 in FIG. 10 and FIG. 11 is displayed 14
1乃至145は、ユーザがチャットを行う時に笑ったり、怒ったりしたことを、アバタの表情として変化させてコミュニケーションするとき操作される機能ボタンである。 1 to 145, laugh when the user performs a chat, it was angry, a function button which is operated to communicate varied as facial expression of the avatar. ボタン141は通常の表情、ボタン142は笑った表情、ボタン143は怒った表情、ボタン144は泣いた表情、ボタン145は驚いた表情にそれぞれ対応している。 Button 141 is normal expression, the button 142 is smiling facial expression, button 143 is angry expression, button 144 is crying facial expression, button 145 corresponds respectively to surprised facial expression. ユーザはチャット中にアバタの表情を変化させたいとき、顔表情ボタン141乃至145のいずれかを選択操作した後、さらに、ACTIONボタン146を操作することで、アバタの顔の表情を変化させることができる。 When the user want to change the facial expression of the avatar during a chat, after selecting operation one of the facial expression buttons 141 to 145, further, by operating the ACTION button 146, it is possible to change the facial expression of the avatar it can.

【0036】図12のフローチャートを参照して、図9 [0036] with reference to the flowchart of FIG. 12, FIG. 9
におけるステップS62の吹き出し表示処理の詳細を説明する。 Details will be described in balloon display process of step S62 in. CPU121は、ステップS71で、サーバ端末40−1が、図4のステップS4の処理を実行して転送してきた、チャットテキストをHDD126に記憶させる。 CPU121 in step S71, the server terminal 40-1 has been transferred executes the process of step S4 of FIG. 4, and stores the chat text in HDD 126.

【0037】ステップS72において、CPU121 [0037] In step S72, CPU121
は、HDD126に記憶されているチャットテキストから、チャットテキストの文字数に応じて、吹き出しの長さを決定し、disp_lengthに設定する。 From chat text stored in HDD 126, depending on the number of characters in the chat text to determine the length of the balloon is set to Disp_length. すなわち、CP In other words, CP
U121は、ワールド画面140の内部の所定の領域に、セリフデータ表示領域151を設定し(説明の便宜上、図10と図11においては、セリフデータ表示領域151(図10および図11参照)が枠で表示されているが、実際には、枠は表示されない)、そこに吹き出しを表示させ、その吹き出しの中にチャットテキストを表示させるが、ここで、吹き出しの長さが決定される。 U121 is a predetermined region within the World screen 140, for convenience of setting the speech data display area 151 (described in FIGS. 10 and 11, speech data display area 151 (see FIGS. 10 and 11) the frame in has been displayed, in fact, the frame is not displayed), to display the balloon in there, but to display the chat text in a balloon that, here, the length of the balloon is determined. C
PU121はまた、吹き出しを表示するワールド画面1 PU121 also, World screen 1 to display a balloon
40上の位置を決定し、disp_xに設定する。 Determining the position on the 40, it is set to Disp_x. 吹き出しの表示位置disp_xは、長さdisp_lengthおよびアバタの水平方向(x軸方向)の中心位置(以下、Xと称する)から決定されるが、その詳細は、図13のフローチャートを参照して後述する。 Balloon display position disp_x the center position of the length disp_length and avatar horizontal direction (x-axis direction) is determined (hereinafter, referred to as X), the details will be described later with reference to the flowchart of FIG. 13 .

【0038】ステップS73において、CPU121 [0038] In step S73, CPU121
は、ステップS72で決定した長さの吹き出しを、セリフデータ表示領域151の吹き出しを表示すべき現在の行(変数cur_yに対応する行)に、既に表示されている吹き出しと重ならないようにして、表示できるか否かを判定し、表示できない場合、ステップS74において、 Is blown out of the length determined in step S72, the balloon on the current line to be displayed (row corresponding to the variable Cur_y) serif data display area 151, previously not overlap the balloon is displayed, If determines whether to show, can not be displayed, in step S74, the
変数cur_yの値を1だけインクリメントする。 Increments the value of the variable cur_y by one. すなわち、吹き出しを表示する行が1行だけ下の行に移動される。 That is, the line for displaying the balloon is moved on the line down one line.

【0039】ステップS75において、CPU121 [0039] In step S75, CPU121
は、変数cur_yの値が、セリフデータ表示領域151に表示できる最大行数cur_y_max(図10と図11の例の場合、cur_y_max=4)を超えるか否かの判定を行い、 The value of the variable cur_y is (in the example of FIGS. 10 and 11, cur_y_max = 4) Maximum number of rows Cur_y_max that can be displayed in the speech data display area 151 a determination is made whether more than,
その値が最大行数cur_y_maxを超える場合、ステップS If the value exceeds the maximum number of rows Cur_y_max, step S
76において、CPU121はスクロールアップ処理を行う。 In 76, CPU 121 performs a scroll-up process. すなわち、CPU121は、セリフデータ表示領域151に表示されている全ての行の吹き出しを1行づつ上にシフトさせ、変数cur_yに、最大行数cur_y_maxを設定する。 That, CPU 121 is a balloon of all rows that appear in the speech data display area 151 is shifted up one line at a time, to a variable Cur_y, sets the maximum number of rows Cur_y_max. ステップS77において、CPU121は、 In step S77, CPU121 is,
変数cur_yに設定されている行に、吹き出しを表示させ、その中に、ステップS71で記憶したチャットテキストを表示させる。 The line that is set in the variable Cur_y, to display the balloon, therein, and displays the chat text stored in step S71.

【0040】ステップS73で、既に表示されている吹き出しと重ならないで、新たな吹き出しが表示可能と判定された場合(その行に、他の吹き出しが表示されていない場合を含む)、ステップS74乃至S76の処理はスキップされ、また、ステップS75で、変数cur_yが最大行数cur_y_max以下であると判定された場合、ステップS76の処理はスキップされる。 [0040] In step S73, not overlapping the balloon is already displayed, when a new balloon is determined to be displayed (on the line, including the case where another balloon is not displayed), to step S74 processing of S76 is skipped, and in step S75, the case where the variable cur_y is determined to be less than the maximum number of rows Cur_y_max, the process of step S76 is skipped. これらの場合、その時点で変数cur_yに設定されている行に吹き出しが表示される。 In these cases, balloon to the row that is set to the variable cur_y at that time is displayed.

【0041】ステップS71乃至S77の処理は、サーバ端末40−1がステップS4の処理を実行した結果転送されたチャットテキストを受信するごとに行われる。 The processing of steps S71 to S77 is performed each time the server terminal 40-1 receives the processing has been executed result transferred chat text in step S4.
すなわち、ステップS78で、新たなチャットテキストの転送が終了したと判定されるまで行われる。 That is, in step S78, is continued until a new chat text transfer is determined to have ended.

【0042】次に、図12のステップS72における、 Next, in step S72 in FIG. 12,
吹き出しの表示位置disp_xを算出する処理の詳細を図1 Figure 1 processing details for calculating the balloon display position disp_x
3のフローチャートを参照して説明する。 With reference to the flowchart of 3 will be described.

【0043】ステップS81において、CPU121 [0043] In step S81, CPU121
は、表示部130に表示されているワールド画面140 The World screen 140 that is displayed on the display unit 130
上のアバタ(チャットテキストに対応する(図9のステップS61で受信したIDに対応する)アバタ)の中心位置Xを算出する。 Calculating the center position X of the avatar above (corresponding to the chat text (corresponding to the ID received in step S61 in FIG. 9) avatar).

【0044】ステップS82において、CPU121 [0044] In step S82, CPU121
は、次式を演算し、位置disp_xに吹き出しの左端位置を設定し、かつ、吹き出しの水平方向の中心を、アバタの水平方向の中心と一致させる。 It calculates the following equation, set the left end of the balloon to position Disp_x, and the horizontal center of the balloon, to coincide with the horizontal center of the avatar. disp_x = X − disp_length/2 disp_x = X - disp_length / 2

【0045】ステップS83において、CPU121 [0045] In step S83, CPU121
は、吹き出しの左端を、ステップS82で求めた位置di Is, the blow-out of the left end, position di obtained in step S82
sp_xに表示した場合、吹き出しの左端または右端が、セリフデータ表示領域151からはみでるか否かの判定を行う。 When displayed on Sp_x, balloon left or right end, it is determined whether protrude from speech data display area 151. 次式が成立すると、吹き出しの左端がセリフデータ表示領域151の左端x_minからあふれることになる。 When the following equation is established, balloon left edge will be left x_min overflowing serif data display area 151. disp_x < x_min また、次式が成立すると、吹き出しの右端がセリフデータ表示領域151の右端x_maxからあふれることになる。 disp_x <x_min Further, the following equation is established, balloon right end so that the right end x_max overflowing serif data display area 151. disp_x + disp_length > x_max disp_x + disp_length> x_max

【0046】上式のいずれかが成立する場合、ステップS84において、CPU121は、吹き出しがセリフデータ表示領域151からはみでないように位置調整を行う。 [0046] If any of the above equation is satisfied, in step S84, CPU 121 is balloon performs position adjustment so as not to protrude from the speech data display area 151. すなわち、吹き出しの左端がセリフデータ表示領域151の左端からはみでる場合、CPU121は、次式に示すように、吹き出しの左端の位置disp_xに、セリフデータ表示領域151の左端位置x_minを設定する。 That is, when the balloon of the left end protrude from the left end of the speech data display area 151, CPU 121, as shown in the following equation, the balloon of the leftmost position Disp_x, sets the left end position x_min serif data display area 151. disp_x = x_min また、CPU121は、吹き出しの右端がセリフデータ表示領域151の右端からはみでる場合、次式を演算し、吹き出しの左端の位置disp_xに、セリフデータ表示領域151の右端位置x_maxから長さdisp_lengthの分だけ左側の位置を設定する。 disp_x = x_min also, CPU 121, when the balloon of the right end protrude from the right end of the speech data display area 151, calculates the following equation, balloon at the left end position Disp_x, length disp_length from the right end position x_max serif data display area 151 only to set the position of the left side of the minute. disp_x = x_max − disp_length disp_x = x_max - disp_length

【0047】なお、CPU121によるステップS8 [0047] It should be noted that the step S8 by CPU121
3,S84の吹き出し位置調整は、セリフデータ表示領域151の両端だけでなく、吹き出しを表示する行に、 3, balloon position adjustment of the S84 is, not just at the end of the speech data display area 151, a row to display the balloon,
既に他の吹き出しがある場合には、値x_min,x_max Already if there is a blow-out of the other, the value x_min, x_max
に、既存の吹き出しの右端または左端の位置を設定して、同様の処理が行われる。 To, by setting the right or left edge of the existing balloon, similar processing is performed.

【0048】ステップS83において、CPU121 [0048] In step S83, CPU121
が、吹き出しがセリフデータ表示領域151からはみでないと判定した場合、ステップS84の処理はスキップされる。 But if the balloon is determined not to protrude from the speech data display area 151, the process of step S84 is skipped. すなわち、この場合には、ステップS82で設定された値disp_x(X−disp_length/2)が吹き出しの位置とされる。 That is, in this case, the value disp_x (X-disp_length / 2) set in step S82 is the position of the balloon.

【0049】パーソナルコンピュータ10−1乃至10 The personal computer 10-1 to 10
−3において、以上に述べたチャットテキストの吹き出し表示処理が行われた場合のワールド画面140の表示例を、図10と図11を参照してさらに説明する。 In -3, a display example of a World screen 140 when the balloon display process of the chat text described above is performed will be further described with reference to FIGS. 10 and 11. アバタを表示するワールド画面140の上方にセリフデータ表示領域151が設けられ、アバタ「太郎」のチャットテキスト1「太郎:よお!」が、アバタ「太郎」の位置の上方の吹き出しの中に表示されている。 Is serif data display area 151 provided on the upper side of the world screen 140 to display an avatar, chat text 1 of the avatar "Taro", "Taro:! Hi dudes" is displayed in a balloon above the position of the avatar "Taro" It is. セリフデータ表示領域151の、吹き出しが表示されていない領域には、ワールド画面が表示されている。 Serif data display area 151, in a region that has not been the balloon is displayed, and the World screen is displayed. これにより、セリフデータ表示領域151に、吹き出しが表示されていない場合、ユーザはワールド画面140の画像をそのまま視認することができる。 Thus, if the speech data display area 151, not balloon is displayed, the user can directly visually recognize an image of the world screen 140. チャットテキスト1はアバタ「太郎」のセンター位置と、チャットテキスト1の吹き出しの行方向のセンター位置が一致するように表示されているのが判る。 Chat text 1 avatar "Taro" and the center position of, it can be seen that the blow-out in the row direction of the center position of the chat text 1 is being displayed to match. アバタ「太郎」の右側に位置するアバタ「花子」のチャットテキスト2「花子:こんにちは」 Chat text 2 of the avatar "Hanako" which is located to the right of the avatar "Taro", "Hanako: Hello"
は、アバタ「花子」の位置の上方に表示され、かつ、アバタ「太郎」のチャットテキストの右側に表示されている。 It is displayed above the position of the avatar "Hanako", and are displayed on the right side of the chat text of the avatar "Taro".

【0050】このように、基本的には、各アバタに対応したチャットテキストが各アバタの位置の上方に表示される。 [0050] Thus, basically, chat text corresponding to each avatar is displayed above the position of each avatar. これにより、アバタと対応するチャットの対応づけが容易となる。 Thereby, correspondence chat corresponding to the avatar is facilitated. チャットテキスト1のように、チャットテキストの文字数が少ない場合、チャットテキスト2 As of chat text 1, if there is a small number of characters in the chat text, chat text 2
はチャットテキスト1と同じ行に表示され、セリフデータ表示領域151の有効活用が図られる。 Is displayed on the same line as the chat text 1, the effective use of speech data display area 151 can be achieved.

【0051】次に、アバタ「白くま」のチャットテキスト3「白くま:ひさしぶり!」は、チャットテキスト文字数からチャットテキスト1,2と同一行に表示できないと判定されて、次の行に改行して表示されている。 Next, chat text 3 of the avatar "Polar Bear", "Polar Bear: after a long time" is, it is determined from the chat text characters and chat text 1 and 2 can not be displayed on the same line, a new line to the next line It is to display. このようにチャットテキスト1乃至チャットテキスト4が表示され、チャットテキスト5「白くま:うん、そっちは?」が表示された時点で、セリフデータ表示領域15 This chat text 1 through chat text 4 is displayed as, chat text 5 "Polar Bear:? Yeah, over there is" at the time is displayed, the speech data display area 15
1には、最大行数まで吹き出しが表示された状態となる。 The 1, a state in which balloon is displayed up to the maximum number of lines. そこで、図12のステップS76に示すスクロールアップ機能により、セリフデータ表示領域151の最下行が空白状態にされ、そこに新たなチャットテキストが表示される。 Therefore, the scroll up function shown in step S76 of FIG. 12, the bottom line of the speech data display area 151 is in the null state, there a new chat text is displayed. このようにして、図11に示すように、最下行にチャットテキスト6「太郎:最近は暇になってきたから元気。」が表示される。 In this way, as shown in FIG. 11, chat text 6 on the bottom line "Taro:. Recently vitality because it has become free time" is displayed.

【0052】チャットテキスト6「太郎:最近は暇になってきたから元気。」は、長さdisp_lengthが長いため、アバタ「太郎」の中心位置Xと、吹き出しの中心位置を一致させて吹き出しを表示しようとすると、吹き出しの左端がセリフデータ表示領域151からはみでてしまう。 [0052] chat text 6 "Taro:. Genki because I have recently become a free time" is, since the length disp_length is long, you try to view the center position X of the avatar "Taro", the balloon to match the center position of the balloon When, balloon left will protrude from the speech data display area 151. そこで、ステップS84の吹き出し位置調整が行われ、チャットテキスト6の吹き出しは、その左端が、 Thus, the balloon adjusting the position of the step S84 is performed, the balloon of the chat text 6, its left end,
セリフデータ表示領域151の左端に一致するように表示されている。 It is displayed to match the left end of the speech data display area 151.

【0053】以上においては、ワールド画面内で、アバタを介してテキストチャットを行うようにしたが、アバタ以外の仮想生命オブジェクトでテキストチャットを行う場合にも、本発明は適用することが可能である。 [0053] In the above, within the World screen, but to perform the text chat via the avatar, even when performing text chat in a virtual life object other than the avatar, it is possible that the invention is applicable .

【0054】なお、本明細書中において、上記処理を実行するコンピュータプログラムをユーザに提供する提供媒体には、磁気ディスク、CD−ROMなどの情報記録媒体の他、インターネット、デジタル衛星などのネットワークによる伝送媒体も含まれる。 [0054] In this specification, the providing medium for providing a computer program for executing the processing to the user, other magnetic disk, an information recording medium such as a CD-ROM, the Internet, by a network, such as digital satellite transmission media also included.

【0055】 [0055]

【発明の効果】以上のように、請求項1に記載の情報処理装置、請求項6に記載の情報処理方法、および請求項7に記載の提供媒体によれば、仮想生命オブジェクトが行うチャットのテキストを、仮想空間の画像内に表示するようにしたので、ユーザが仮想生命オブジェクトとチャットテキストを、仮想空間の画面内で直感的に対応づけることが容易となり、共有仮想空間システムにおけるチャットテキストの効果の低減を抑制することができる。 As described above, according to the present invention, an information processing apparatus according to claim 1, information processing method according to claim 6, and according to the distribution medium as set forth in claim 7, the chat virtual living object performs text, since be displayed in the image of the virtual space, the user virtual life object and chat text, it is easy to characterize intuitively correspond with the screen of the virtual space, chat text in a shared virtual space system it is possible to suppress the reduction of the effect.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明を適用した共有仮想空間提供システムの構成を示すブロック図である。 1 is a block diagram showing the configuration of a shared virtual space-providing system according to the present invention.

【図2】図1のサーバ端末40−1の構成を示すブロック図である。 It is a block diagram showing the arrangement of Figure 2 server terminal 40-1 of FIG.

【図3】図1のパーソナルコンピュータ10−1の構成を示すブロック図である。 3 is a block diagram showing the configuration of the personal computer 10-1 in Fig.

【図4】図1のサーバ端末40−1の処理を説明するフローチャートである。 4 is a flowchart for explaining the processing of the server terminal 40-1 of FIG.

【図5】図1のパーソナルコンピュータ10−1の処理を説明するフローチャートである。 5 is a flow chart for explaining a process of the personal computer 10-1 in Fig.

【図6】図5のステップS15の自分のアバタ位置変更入力処理の詳細を説明するフローチャートである。 6 is a flowchart illustrating the details of his avatar position change input processing in step S15 in FIG. 5.

【図7】図5のステップS16のチャットテキストを入力する処理の詳細を説明するフローチャートである。 7 is a flowchart illustrating the details of the process of inputting chat text in step S16 in FIG. 5.

【図8】図5のステップS17のアバタの位置の変更の処理の詳細を説明するフローチャートである。 8 is a flowchart illustrating the details of the processing of changing the position of the avatar in step S17 in FIG. 5.

【図9】図5のステップS18のチャットテキストを表示する処理の詳細を説明するフローチャートである。 9 is a flowchart illustrating the details of the process of displaying the chat text in step S18 in FIG. 5.

【図10】図3の表示部130のワールド画面の表示例を示す図である。 10 is a diagram showing a display example of a World screen of the display unit 130 of FIG.

【図11】図3の表示部130のワールド画面の他の表示例を示す図である。 11 is a view showing another display example of the World screen of the display unit 130 of FIG.

【図12】図9のステップS62の吹き出し表示の処理の詳細を説明するフローチャートである。 12 is a flowchart illustrating the details of the balloon display process of step S62 of FIG. 9.

【図13】図12のステップS72の吹き出し位置と長さの決定の処理の詳細を説明するフローチャートである。 13 is a flowchart illustrating the details of the process of determining a balloon position and length of the step S72 in FIG. 12.

【図14】従来のワールド画面の表示例を示す図である。 14 is a diagram showing a display example of a conventional World screen.

【図15】従来のアバタのテキストチャットを表示する画面の例を示す図である。 15 is a diagram showing an example of a screen displaying a text chat conventional avatar.

【図16】従来のアバタのテキストチャットを表示する画面の例を示す図である。 16 is a diagram showing an example of a screen displaying a text chat conventional avatar.

【図17】従来のアバタのテキストチャットを表示する画面の例を示す図である。 FIG. 17 is a diagram showing an example of a screen that displays a text chat of traditional avatar.

【図18】従来のアバタのテキストチャットを表示する画面の例を示す図である。 FIG. 18 is a diagram showing an example of a screen that displays a text chat of traditional avatar.

【符号の説明】 DESCRIPTION OF SYMBOLS

10−1,10−2,10−3 パーソナルコンピュータ, 30 通信ネットワーク, 40−1,40−2 10-1 personal computer, 30 a communication network, 40-1 and 40-2
サーバ端末, 101 CPU, 107通信部, Server terminal, 101 CPU, 107 communication unit,
110 表示部, 121 CPU, 127 通信部, 130表示部, 141,142,143,14 110 display unit, 121 CPU, 127 communication unit, 130 display unit, 141,142,143,14
4,145 顔表情ボタン, 146ACTIONボタン 4,145 facial expression button, 146ACTION button

Claims (7)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 ネットワークを介して接続された他の情報処理装置と仮想空間を共有する情報処理装置において、 前記仮想空間の画像を提供する提供手段と、 仮想生命オブジェクトが前記仮想空間に表示されるように制御する第1の表示制御手段と、 前記仮想空間において前記仮想生命オブジェクトが行うチャットのテキストが、前記仮想空間の画像内に表示されるように制御する第2の表示制御手段とを備えることを特徴とする情報処理装置。 [Claim 1] with another information processing apparatus connected via a network in an information processing apparatus for sharing a virtual space, and providing means for providing an image of the virtual space, the virtual life object is displayed on the virtual space a first display control means for controlling the so that, the said chat virtual living object performs text in the virtual space, and a second display control means for controlling so as to be displayed in the image of the virtual space the information processing apparatus, characterized in that it comprises.
  2. 【請求項2】 前記第2の表示制御手段は、前記仮想空間の画像の所定の範囲内にテキスト表示エリアを設定し、前記テキストを、前記テキスト表示エリアに表示させることを特徴とする請求項1に記載の情報処理装置。 Wherein said second display control means, according to claim, wherein setting the text display area within a predetermined range of the image of the virtual space, the text, and wherein the to be displayed on the text display area the information processing apparatus according to 1.
  3. 【請求項3】 前記第2の表示制御手段は、前記チャットのテキストを、吹き出し内に表示させることを特徴とする請求項1に記載の情報処理装置。 Wherein said second display control means, the information processing apparatus according to claim 1, characterized in that the text of the chat to be displayed on the balloon.
  4. 【請求項4】 前記第2の表示制御手段は、前記吹き出しの長さを、前記テキストの長さに対応して設定することを特徴とする請求項3に記載の情報処理装置。 Wherein said second display control means, the information processing apparatus according to claim 3, the length of the balloon above and sets corresponds to the length of the text.
  5. 【請求項5】 前記第2の表示制御手段は、前記チャットのテキストの長さと、対応する前記仮想生命オブジェクトの位置に基づいて、前記チャットのテキストの表示位置を制御することを特徴とする請求項1に記載の情報処理装置。 Wherein said second display control means, the length of the text of the chat based on the position of the corresponding virtual living object, claims and controlling the display position of the text of the chat the information processing apparatus according to claim 1.
  6. 【請求項6】 ネットワークを介して接続された他の情報処理装置と仮想空間を共有する情報処理装置の情報処理方法において、 前記仮想空間の画像を提供する提供ステップと、 仮想生命オブジェクトが前記仮想空間に表示されるように制御する第1の表示制御ステップと、 前記仮想空間において前記仮想生命オブジェクトが行うチャットのテキストが、前記仮想空間の画像内に表示されるように制御する第2の表示制御ステップとを含むことを特徴とする情報処理方法。 And 6. The other information processing apparatus connected via a network information processing method of an information processing apparatus for sharing a virtual space, a providing step of providing an image of the virtual space, the virtual life object the virtual a first display control step of controlling so as to be displayed on the spatial, the chat text the in the virtual space virtual living object performed by the second display of the control to be displayed in the image of the virtual space the information processing method characterized by comprising a control step.
  7. 【請求項7】 ネットワークを介して接続された他の情報処理装置と仮想空間を共有する情報処理装置に、 前記仮想空間の画像を提供する提供ステップと、 仮想生命オブジェクトが前記仮想空間に表示されるように制御する第1の表示制御ステップと、 前記仮想空間において前記仮想生命オブジェクトが行うチャットのテキストが、前記仮想空間の画像内に表示されるように制御する第2の表示制御ステップとを含む処理を実行させるコンピュータが読み取り可能なプログラムを提供することを特徴とする提供媒体。 7. A information processing apparatus connected via a network with another information processing apparatus for sharing a virtual space, a providing step of providing an image of the virtual space, the virtual life object is displayed on the virtual space a first display control step of controlling to so that, the said chat virtual living object performs text in the virtual space, and a second display control step of controlling so as to be displayed in the image of the virtual space providing medium characterized by computer to execute processing including to provide readable program.
JP10264196A 1998-09-18 1998-09-18 Device and method for processing information and distribution medium Granted JP2000099225A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10264196A JP2000099225A (en) 1998-09-18 1998-09-18 Device and method for processing information and distribution medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10264196A JP2000099225A (en) 1998-09-18 1998-09-18 Device and method for processing information and distribution medium

Publications (1)

Publication Number Publication Date
JP2000099225A true JP2000099225A (en) 2000-04-07

Family

ID=17399825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10264196A Granted JP2000099225A (en) 1998-09-18 1998-09-18 Device and method for processing information and distribution medium

Country Status (1)

Country Link
JP (1) JP2000099225A (en)

Cited By (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001061446A1 (en) * 2000-02-18 2001-08-23 Sharp Kabushiki Kaisha Representation data control system, and representation data control device constituting it, and recording medium recording its program
JP2002251279A (en) * 2001-02-26 2002-09-06 Sanyo Electric Co Ltd Contents distributing system and contents distributing server
US6882975B2 (en) 2001-05-28 2005-04-19 Namco Ltd. Method, storage medium, apparatus, server and program for providing an electronic chat
WO2008078489A1 (en) * 2006-12-22 2008-07-03 Konami Digital Entertainment Co., Ltd. Game device, method of controlling game device, and information recording medium
US8296365B2 (en) 2000-08-01 2012-10-23 Sony Computer Entertainment Inc. Communication system, computer program execution device, recording medium, computer program, program information supply method, and program information editing method
JP5695769B1 (en) * 2014-02-14 2015-04-08 株式会社パピレス Server in the electronic book distribution system, its control method, and the control program
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9330381B2 (en) 2008-01-06 2016-05-03 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9571539B2 (en) 2014-07-17 2017-02-14 Honda Motor Co., Ltd. Method and electronic device for performing exchange of messages
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9600174B2 (en) 2006-09-06 2017-03-21 Apple Inc. Portable electronic device for instant messaging
US9608956B2 (en) 2014-07-17 2017-03-28 Honda Motor Co., Ltd. Method and electronic device for performing exchange of messages
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10289433B2 (en) 2014-09-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog

Cited By (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001061446A1 (en) * 2000-02-18 2001-08-23 Sharp Kabushiki Kaisha Representation data control system, and representation data control device constituting it, and recording medium recording its program
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US8296365B2 (en) 2000-08-01 2012-10-23 Sony Computer Entertainment Inc. Communication system, computer program execution device, recording medium, computer program, program information supply method, and program information editing method
JP2002251279A (en) * 2001-02-26 2002-09-06 Sanyo Electric Co Ltd Contents distributing system and contents distributing server
JP4666789B2 (en) * 2001-02-26 2011-04-06 三洋電機株式会社 A content distribution system and a content distribution server
US6882975B2 (en) 2001-05-28 2005-04-19 Namco Ltd. Method, storage medium, apparatus, server and program for providing an electronic chat
US9600174B2 (en) 2006-09-06 2017-03-21 Apple Inc. Portable electronic device for instant messaging
CN101534913B (en) 2006-12-22 2012-10-17 科乐美数码娱乐株式会社 Game device, method of controlling game device, and information recording medium
US8303408B2 (en) 2006-12-22 2012-11-06 Konami Digital Entertainment Co., Ltd. Game device, method of controlling game device, and information recording medium
WO2008078489A1 (en) * 2006-12-22 2008-07-03 Konami Digital Entertainment Co., Ltd. Game device, method of controlling game device, and information recording medium
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9330381B2 (en) 2008-01-06 2016-05-03 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9792001B2 (en) 2008-01-06 2017-10-17 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
JP5695769B1 (en) * 2014-02-14 2015-04-08 株式会社パピレス Server in the electronic book distribution system, its control method, and the control program
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10083690B2 (en) 2014-05-30 2018-09-25 Apple Inc. Better resolution when referencing to concepts
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9571539B2 (en) 2014-07-17 2017-02-14 Honda Motor Co., Ltd. Method and electronic device for performing exchange of messages
US9608956B2 (en) 2014-07-17 2017-03-28 Honda Motor Co., Ltd. Method and electronic device for performing exchange of messages
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10289433B2 (en) 2014-09-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant

Similar Documents

Publication Publication Date Title
KR101717805B1 (en) Systems and methods for haptically-enhanced text interfaces
EP1324269B1 (en) Image processing apparatus, image processing method, record medium, computer program, and semiconductor device
RU2374702C2 (en) Systems and methods with application of wave lenses for search results
JP2677754B2 (en) Data processing method
KR101385364B1 (en) Method and apparatus for providing application interface portions on peripheral computer devices
KR100457509B1 (en) Communication terminal controlled through a touch screen and a voice recognition and instruction executing method thereof
KR100454615B1 (en) Three-dimensional virtual reality space sharing method, a three-dimensional virtual reality space sharing system, an information recording medium, an information recording method, an information transmission medium, an information transmission method, an information processing method, client terminal, and a shared server terminal
US6208339B1 (en) User-interactive data entry display system with entry fields having distinctive and changeable autocomplete
KR101390103B1 (en) Controlling image and mobile terminal
JP4142175B2 (en) The graphical user interface device
JP3100334B2 (en) Multimedia title editing apparatus and style creation device to be used in this
EP1226854A2 (en) Program execution system comprising program execution device, operational device and display device
JPH06309128A (en) Method and system for adjusting graphical user interface according to font requested by user
GB2412833A (en) Personalising a user interface based on frequency of selection of commands
JP2003157250A (en) System, method and program for sharing high value
JPH07204349A (en) Converter for game machine
US20090327883A1 (en) Dynamically adapting visualizations
JP2000089929A (en) Method and device for data processing and computer- readable recording medium
JPH07261969A (en) Method for constituting definition file for hierarchical structure menu
JP2002077329A (en) Electronic device
JPH09138767A (en) Communication equipment for feeling expression
CN1102778C (en) File processing device capable of simple modifying file data
CN1639673A (en) Method and apparatus for a gesture-based user interface
JP3679350B2 (en) Information storage medium and a computer system
JPH11143616A (en) Character communication equipment

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110