JPH09265457A - On-line conversation system - Google Patents

On-line conversation system

Info

Publication number
JPH09265457A
JPH09265457A JP8075840A JP7584096A JPH09265457A JP H09265457 A JPH09265457 A JP H09265457A JP 8075840 A JP8075840 A JP 8075840A JP 7584096 A JP7584096 A JP 7584096A JP H09265457 A JPH09265457 A JP H09265457A
Authority
JP
Japan
Prior art keywords
data
means
display
symbol image
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8075840A
Other languages
Japanese (ja)
Inventor
Akira Naito
彰 内藤
Original Assignee
Hitachi Ltd
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, 株式会社日立製作所 filed Critical Hitachi Ltd
Priority to JP8075840A priority Critical patent/JPH09265457A/en
Publication of JPH09265457A publication Critical patent/JPH09265457A/en
Application status is Pending legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To furthermore improve the presence of conversation by not only carrying out enumerative display of speech contents from respective terminals on the display screen of the communication terminal, but also enabling a user to visually and easily know the operation screen of a communication terminal in an on-line conversation system. SOLUTION: A communication terminal 101 connected to a host computer through a communication network 102 is provided with a connection terminal display means 109 for displaying symbol images corresponding to respective communication terminals simultaneously executing conversation and a transmitting source emphasizing means 110 for displaying the symbol image of a communication terminal corresponding to a final speaker with emphasis. The terminal 101 receives the character data of speech contents and the identification(ID) information of a speaker (transmitting terminal) from the host computer, displays the speech contents and displays the symbol image corresponding to the transmitting source with emphasis.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、計算機によるデータ処理技術と、通信ネットワークによるオンライン通信技術に関する。 The present invention relates includes a data processing technique using a computer, about the online communication technique according to a communication network.

【0002】 [0002]

【従来の技術】キーボードなどの入力手段と、CRTなどの表示手段と、MODEMなどの通信手段を備えた通信端末、例えば、パーソナルコンピュータ同士を、公衆回線などの通信ネットワークで接続することにより、文字によるオンライン会話システムを構築することができる。 Input means 2. Description of the Related Art A keyboard, a display means such as CRT, a communication terminal having a communication means such as MODEM, for example, a personal computer together, by connecting a communication network such as a public line, character it is possible to build an online conversation system by. つまり、一方の通信端末で入力した文字データを相手側の端末に送信し、相手側の通信端末では、受信した文字データを表示手段上に表示することで、互いの発言内容を交換することができる。 In other words, it transmits the character data input by one of the communication terminal on the other side of the terminal, at the other side of the communication terminal, by displaying on the display means the text data received, to exchange speech content of each other it can. ここで、会話の相手が唯一に特定できない場合、つまり、三つ以上の通信端末間で、同様のオンライン会話システムを構築する場合には、直接通信端末間でデータの送受信を行うのではなく、通常、ホストコンピュータなどに設けられた共通のデータ格納エリアを介した間接的な方法を使用する。 Here, if the other of the conversation can not be determined uniquely, i.e., between three or more communication terminals, when constructing a similar online chat system, instead of transmitting and receiving data between the direct communication terminals, typically uses indirect method via a common data storage area provided in a host computer or the like. つまり、各通信端末が、ホストコンピュータに文字データを送信することで、共通のデータ格納エリアに発言内容を書き込み、ホストコンピュータが、共通のデータ格納エリアに書き込まれた内容を、会話システムに参加している全ての通信端末に送信することで、前記発言内容を全ての通信端末に伝える。 That is, each communication terminal, by transmitting the character data to the host computer, to write the speech content into a common data storage area, a host computer, the contents written in the common data storage area, joined the conversation system by sending to all communication terminals that conveys the speech content to all communication terminals.

【0003】図2はオンライン会話システムの操作画面の例の説明図である。 [0003] FIG. 2 is an explanatory diagram of an example of an operation screen of the online chat system. ここでは、A,B,Cという識別名称を持った三つの通信端末間での会話例を示す。 Here, an A, B, conversations example between three communication terminals having an identification name C. 通信端末Aの表示画面201上に、発言者を示す送信元識別表示202と、発言内容203〜206が表示されている。 On the display screen 201 of the communication terminal A, and the source identification 202 indicating the speaker, speech content 203-206 it is displayed. 時間的に後の発言が、表示画面201の下方に表示される。 Speech temporally later is displayed below the display screen 201. 図2(a)では、発言内容206が最新の発言に相当する。 In FIG. 2 (a), speech content 206 corresponds to the latest speech. ここで、通信端末Aから、「太郎です」という文字データを送信すると、図2(b)の発言内容2 Here, from the communication terminal A, and sends the character data of "is Taro", the speech content of Figure 2 (b) 2
07のように追加表示される。 It is additionally displayed as 07.

【0004】従来技術では、以上のような文字データを主体としたオンライン会話システムの他に、会話の臨場感を高めるため、会話の場面をビジュアルに表示する例がある。 [0004] In the prior art, in addition to the above online chat system that the character data has been mainly like, to enhance the realism of the conversation, there is an example of displaying a scene of conversation visually. 図3は、Worlds Inc. 3, Worlds Inc. 社の「Wor Company of "Wor
lds Chat」と呼ばれるオンライン会話システムの操作画面の例の説明図である。 lds Chat "example of an operation screen online conversation system called an illustration of. 通信端末の表示画面3 Of the communication terminal display screen 3
01は、発言内容表示エリア302と、参加者表示エリア303で構成される。 01, the speech content display area 302, and a participant display area 303. 発言内容表示エリア302は、 Speech content display area 302,
図2で説明した表示画面と、基本的に構成は同じである。 A display screen described with reference to FIG 2, basically formed are the same. 参加者表示エリア303は、オンライン会話システムに参加している、個々の通信端末に対応するシンボル画像によって構成される。 Participants display area 303 is participating in the online chat system, constituted by the symbol image corresponding to an individual communication terminal. 図3は、三つの通信端末間で会話を行っている例を示しており、各通信端末に対応するシンボル画像304〜306が表示されている。 Figure 3 shows an example in which performing a conversation between three communication terminals, symbol images 304 to 306 are displayed that correspond to each communication terminal.

【0005】 [0005]

【発明が解決しようとする課題】図3で示した従来技術において、ビジュアルに参加者を表示した参加者表示エリア303の効果としては、参加者を一覧できること、 In the prior art shown in FIG. 3 [0006], as an effect of the participant display area 303 that displays the participants visuals can be a list of participants,
及び、会話の臨場感を高くすることなどが挙げられる。 And, like increasing the realism of the conversation.
しかし、オンラインで会話が始まった後は、発言内容表示エリア302のみが必要であり、参加者表示エリア3 However, after the conversation online has begun, it is necessary only speech content display area 302, participants display area 3
03は、操作の役に立っていない。 03, no vote of the operation. つまり、会話中は、 In other words, during the conversation,
図2の例で示したような、発言内容の羅列が表示されるだけであり、臨場感が高いとは言いがたい。 As shown in the example of FIG. 2, only enumeration of the speech content is displayed, hard to say that there is a high sense of reality. また、表示画面内の参加者表示エリア303の領域が使われない分、効率的な表示方法とは言いがたい。 In addition, the minute the area of ​​the participants display area 303 in the display screen is not used, it is difficult to say an efficient display method. 本発明の解決すべき課題の一つは、従来技術における、参加者表示エリア303と発言内容表示エリア302を融合し、会話中でも臨場感の高い操作画面を実現することである。 One problem to be solved of the present invention, in the prior art, fusion of speech content display area 302 and participants display area 303, is to achieve high operating screen realistic even during a conversation. また、従来技術では、発言内容が文字データで構成されているが、代わりに音声データを送受信することで、より臨場感のあるオンライン会話システムを構築することができる。 Further, in the prior art, the speech content is composed of text data, by sending and receiving voice data in place, it is possible to construct a line chat system more realistic. この場合、発言内容が音声で出力されるため、 In this case, the speech content is output by voice,
発言内容表示エリア302が不要となり、ビジュアルな参加者表示エリア303のみで良いことになる。 It becomes unnecessary speech content display area 302, so that it is only visual participants display area 303. しかし、参加者表示エリア303を無くした場合、操作画面上から送信元識別表示も無くなることになり、どの通信端末からの発言なのか判別がつかなくなる。 However, when eliminating the participant display area 303, will be also eliminated sender identification from the operation screen, determine whether the remarks from which the communication terminal is not stuck. そこで、本発明の解決すべきもう一つの課題は、参加者表示エリアを無くした操作画面で、発言内容の送信元を明示することである。 Therefore, solving another problem to be of the present invention, the operation screen which eliminates participant display area, is to demonstrate the source of the speech content.

【0006】 [0006]

【課題を解決するための手段】前記の課題を実現するために、本発明のオンライン会話システムは、以下の手段により構成される。 To SUMMARY OF THE INVENTION To achieve the above problems, online chat system of the present invention is constituted by the following means.

【0007】キーボードやタブレット装置などの文字入力手段と、CRTや液晶パネルなどの表示手段と、通信ネットワークに接続し、データの送受信を行うための電話機やMODEMなどから構成される第1の通信手段と、ホストコンピュータから受信した接続端末リスト情報に基づき、シンボル画像の表示データを作成するシンボル画像設定手段と、前記シンボル画像の表示データを格納する、メモリやハードディスクなどから構成されるシンボル画像記憶手段と、前記シンボル画像記憶手段に格納されたシンボル画像を表示手段に出力する接続端末表示手段と、ホストコンピュータから受信した送信元識別情報にて特定される通信端末に対応するシンボル画像を、シンボル画像記憶手段に格納されたシンボル画像データの中から検索し [0007] character input means such as a keyboard and a tablet device, a display means such as a CRT or a liquid crystal panel, connected to a communication network, the first communication means and the like telephone, MODEM, for performing data transmission and reception If, based on the connection terminal list information received from the host computer, the symbol image setting means for generating display data of the symbol image, and stores the display data of the symbol image, a symbol image storage means composed of such as a memory and a hard disk When the connection terminal display means for outputting the stored symbol image in the symbol image storage means on the display means, a symbol image corresponding to the communication terminal specified by the transmission source identification information received from the host computer, the symbol image searching among the stored symbol image data in the storage means 該当するシンボル画像の表示データを変更する送信元強調手段を備えた通信端末と、公衆回線や専用線などから構成される通信ネットワークと、 A communication terminal having a source emphasizing means for changing the display data of the corresponding symbol image, a communication network and the like public line or a dedicated line,
通信ネットワークに接続し、データの送受信を行うための電話機やMODEMなどの第2の通信手段と、第2の通信手段から受信した文字データと前記データの送信元の通信端末を特定する送信元識別情報を格納する、メモリやハードディスクなどの受信データ記憶手段と、接続中の通信端末を特定するための接続端末リスト情報を格納する、メモリやハードディスクなどの接続端末記憶手段を備えたホストコンピュータから構成される。 Connected to a communication network, the telephone and the second communication means, such as a MODEM, a second transmission source identification for identifying the source of the communication terminal of the data with the received character data from the communication means for transmitting and receiving data storing information, and stores the received data storage means such as a memory or a hard disk, a connection terminal list information for specifying a communication terminal during the connection, composed of a host computer having a connection terminal storage means such as a memory or a hard disk It is.

【0008】また、前述の通信端末に関して、音声データを入力するためのマイクなどの音声入力手段を備えることが好ましい。 Further, with respect to the communication terminal described above, preferably comprises a voice input means such as a microphone for inputting voice data. また、音声データを出力するためのスピーカなどの音声出力手段を備えることが好ましい。 Further, it is preferable to provide a sound output unit such as a speaker for outputting audio data.

【0009】 [0009]

【発明の実施の形態】以下、添付の図面を参照して、本発明につき説明を加える。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, with reference to the accompanying drawings, adding explained present invention.

【0010】図1は本発明の実施例にかかるオンライン会話システムの構成を示すブロック図である。 [0010] Figure 1 is a block diagram illustrating an online chat system configuration according to an embodiment of the present invention. 本実施例にかかるオンライン会話システムは、ホストコンピュータと通信ネットワークを介して接続された複数の通信端末間で、文字データや音声データを用いた会話を行う場合に、各端末からの発言内容と発言者識別情報を通知する構成になっている。 Online conversation system according to the present embodiment, among a plurality of communication terminals connected via a communication network with a host computer, when a conversation using the character data and audio data, speech and speech content from the terminal It has been configured to notify the user identification information.

【0011】図1に示すように、本発明のオンライン会話システムは、全体的に、通信システム101、通信ネットワーク102、及び、ホストコンピュータ103により構成される。 [0011] As shown in FIG. 1, the online chat system of the present invention generally, the communication system 101, communication network 102 and, constituted by the host computer 103. なお、複数の通信端末101が、通信ネットワーク102に接続されるが、説明の便宜上、図1には、単一の通信端末101のみ示している。 Incidentally, a plurality of communication terminal 101, but is connected to the communication network 102, for convenience of explanation, FIG. 1 shows only a single communication terminal 101. 以下に、各ブロック構成を説明する。 The following describes the respective blocks.

【0012】まず、通信端末101の構成について説明する。 [0012] First, the configuration of the communication terminal 101. キーボードやタブレット装置などからなり、通信端末101の使用者の入力操作によって、オンライン会議への発言内容である文字データを入力する文字入力手段104と、CRTや液晶パネルなどからなり、ホストコンピュータ103から受信した文字データや、ホストコンピュータに同時に接続している通信端末を示すシンボル画像などを表示する表示手段105と、回線端末装置やMODEMなどからなり、通信ネットワーク102 Made keyboard or tablet device, by an input operation of the user of communication terminal 101, a character input unit 104 for inputting character data is a speech content to online meetings, made such as a CRT or a liquid crystal panel, from the host computer 103 received or character data, a display unit 105 for displaying the symbol image that indicates the communication terminals connected to the host computer at the same time, made like the line terminal and MODEM, communication network 102
と接続し、ホストコンピュータ103との間でデータの送受信を行う第1の通信手段106と、メモリやハードディスクなどの記憶装置からなり、複数のシンボル画像の表示データを格納するシンボル画像記憶手段107 Connected to, the first communication means 106 for transmitting and receiving data between the host computer 103, made from a storage device such as a memory or a hard disk, a symbol image storage means 107 for storing display data of a plurality of symbol images
と、CPUなどのデータ演算装置とメモリなどの記憶装置からなる、三つのデータ処理手段、つまり、シンボル画像設定手段108、接続端末表示手段109、送信元強調手段110から構成される。 If, consists of a storage device such as a data processing apparatus and the memory, such as a CPU, three data processing means, i.e., the symbol image setting unit 108, the connection terminal display unit 109, and a source emphasizing means 110. また、マイクなどからなり、使用者の声など音声データを入力する音声入力手段114と、スピーカなどからなり、第1の通信手段1 Moreover, made like a microphone, a voice input unit 114 for inputting voice data, such as the user's voice, consists speaker, the first communication means 1
06によって、ホストコンピュータ103から受信した音声データなどを出力する音声出力手段115を含むこともある。 By 06, it may also include an audio output unit 115 for outputting the voice data received from the host computer 103.

【0013】第1の通信手段106は、文字入力手段1 [0013] The first communication unit 106, a character input device 1
04から入力された文字データや、音声入力手段114 And character data that has been input from 04, voice input means 114
から入力された音声データなどを、通信ネットワーク1 The voice data input from the communication network 1
02を介してホストコンピュータ103に送信する。 To the host computer 103 via a 02. また、通信ネットワーク102を介して、ホストコンピュータ103から文字データや音声データなどの発言内容に関するデータを受信し、表示手段105や音声出力手段115へ出力する。 Further, via the communication network 102, receives the data relating to the speech content, such as text data and audio data from the host computer 103, and outputs to the display unit 105 and the audio output unit 115. また、ホストコンピュータ103 In addition, the host computer 103
から送信元識別情報を受信し、送信元強調手段110に伝達する。 Receiving the transmission source identification information from, and transmitted to the sender enhancement unit 110. また、ホストコンピュータ103から接続端末リスト情報を受信し、シンボル画像設定手段108に通知する。 Further, receiving the connection terminal list information from the host computer 103, and notifies the symbol image setting unit 108. 接続端末リスト情報には、通信端末の識別情報だけでなく、各通信端末に対応するシンボル画像の表示データに関する情報、例えば、シンボル画像のイメージデータ、シンボル画像のパターン番号、あるいは、シンボル画像の色などの表示属性が含まれることが好ましい。 The connection terminal list information, not only the identification information of the communication terminal, information about the display data of a symbol image corresponding to each communication terminal, for example, image data of the symbol images, the symbol image pattern number or, in the symbol image color preferably it contains a display attribute, such as.

【0014】シンボル画像設定手段108は、第1の通信装置106によって、ホストコンピュータから受信した接続端末リスト情報によって特定される通信端末に対応するシンボル画像の表示データを作成する。 [0014] symbol image setting unit 108, by the first communication device 106, creates display data of a symbol image corresponding to the communication terminal specified by the connection terminal list information received from the host computer. シンボルデータの作成では、予め通信端末内に格納してあるシンボル画像の表示データを複写して使用することが好ましい。 The creation of the symbol data, it is preferable to use a copy display data symbol images that are stored in advance in the communication terminal. また、ホストコンピュータから、接続端末リスト情報としてシンボル画像の表示データを受信し、使用することも好ましい。 Further, from the host computer, it receives display data of symbol images as a connection terminal list information, it is also preferable to use.

【0015】接続端末表示手段109は、シンボル画像記憶手段107に格納された、表示データに基づき、表示手段105の表示画面上にシンボル画像を出力する。 The connecting terminal display unit 109, stored in the symbol image storage unit 107, based on the display data, and outputs the symbol image on the display screen of the display unit 105.

【0016】送信元強調手段110は、第1の通信手段106から受け取った送信元識別情報で特定される通信端末に対応したシンボル画像を、シンボル画像記憶手段107に格納されたシンボル画像の中から検索し、該当するシンボル画像の表示データを変更する。 The sender emphasizing means 110, the symbol image corresponding to the communication terminal specified by the transmission source identification information received from the first communication unit 106, from among the symbol images stored in the symbol image storage unit 107 search, to change the display data of the corresponding symbol image.

【0017】また、通信ネットワーク102の構成は、 Further, the configuration of the communication network 102,
有線、あるいは無線通信に関わらず、また、公衆回線、 Wired, or regardless of the wireless communication, also a public line,
あるいは、専用線に関わらず、同時に複数の通信端末1 Alternatively, irrespective of the dedicated line, at the same time a plurality of communication terminals 1
01と、ホストコンピュータ103を接続し、データの送受信の仲介を行うことができる、従来技術による通信ネットワークを使用する。 01, to connect the host computer 103 can perform mediating transmission and reception of data, using a communication network according to the prior art.

【0018】次に、ホストコンピュータ103の構成について説明する。 [0018] Next, a description will be given of the configuration of the host computer 103. 回線端末装置やMODEMなどからなり、通信ネットワーク102と接続し、複数の101との間でデータの送受信を行う第2の通信手段111と、 Made like the line terminal and MODEM, connected to the communication network 102, a second communication unit 111 for transmitting and receiving data between a plurality of 101,
メモリやハードディスクからなり、第2の通信手段11 Consists memory or hard disk, the second communication unit 11
1から受信したデータと前記データの送信元の通信端末を特定する送信元識別情報を格納する受信データ記憶手段112と、接続中の通信端末を特定するための接続端末リスト情報を格納する接続端末記憶手段113から構成される。 Connection terminals for storing the received data storage unit 112 for storing the transmission source identification information for identifying the source of the communication terminal of the data with the received data, the connection terminal list information for specifying a communication terminal during the connection from 1 and a storage unit 113.

【0019】受信データ記憶手段112は、第2の通信手段から受信した文字データ,音声データなどの発言内容に関するデータと前記データの送信元の通信端末を特定する送信元識別情報を格納する。 The received data storage unit 112 stores the character data received from the second communication means, the transmission source identification information for identifying the source of the communication terminal of the data data relating to the speech content, such as audio data.

【0020】接続端末記憶手段113は、接続中の通信端末を特定するための接続端末リスト情報を格納する。 The connection terminal memory unit 113 stores the connection terminal list information for specifying a communication terminal currently connected.

【0021】次に、本発明の実施例にて用いる、接続端末リスト情報とシンボル画像の表示データについて、データ構造を説明する。 Next, use in Examples of the present invention, the display data of the connection terminal list information and the symbol image, illustrating the data structures.

【0022】接続端末リスト情報の構造を、図4を参照して説明する。 [0022] The structure of the connection terminal list information will be described with reference to FIG. 接続端末リスト情報のデータテーブル4 Data table 4 of the connection terminal list information
01は、通常、図4(a)のように通信端末の識別情報、例えば、識別番号402から構成される。 01, usually, the identification information of the communication terminal as shown in FIG. 4 (a), the example, consists of the identification number 402. この識別情報は、各接続中の各通信端末に1対1に対応し、重複しない。 This identification information is one-to-one correspondence to each communication terminal in each connection do not overlap. ホストコンピュータ103は、接続中の通信端末を監視し、接続中の通信端末に対応する識別情報のみが、データテーブル401に格納されるようにする。 The host computer 103 monitors the communication terminal during the connection, only the identification information corresponding to the communication terminal in the connection, to be stored in the data table 401. また、図4(b)に示すように、接続中の各通信端末のシンボル画像の表示データ403を格納することもある。 Further, as shown in FIG. 4 (b), sometimes storing display data 403 of the symbol image of each communication terminal currently connected.

【0023】シンボル画像の表示データの構造を、図5 [0023] The structure of the display data of the symbol image, as shown in FIG. 5
を参照して説明する。 With reference to the description. 表示データのデータテーブル50 Data table 50 of the display data
1は、例えば、通信端末の識別番号などの端末識別情報502、表示装置の画面上におけるシンボル画像の表示座標などの座標情報503、シンボル画像のサイズ、拡大率などのサイズ情報504、シンボル画像の色,明るさなどの表示カラー情報505、シンボル画像のイメージデータなどのグラフィックデータ506、最も新しい送信元の通信端末を識別する送信元識別情報507などの要素を含んでいる。 1, for example, coordinate information 503 such as the display coordinates of the symbol images in a communication terminal identification number the terminal identification information 502, such as a display device on the screen, the size of the symbol image, size information 504, such as magnification, the symbol image color, contain elements such as display color information 505, graphic data 506, such as image data of the symbol image, the transmission source identification information 507 for identifying a most recent transmission source communication terminal, such as brightness. 送信元識別情報507により特定される、最も新しい送信元の通信端末とは、ホストコンピュータ103から各通信端末101に向けて最後に送信された文字データ、あるいは、音声データの送信元の通信端末のことである。 Specified by the transmission source identification information 507, the most recent transmission source communication terminal, character data sent from the host computer 103 to the end toward the communication terminal 101, or the transmission source communication terminal of the audio data it is. ここで、グラフィックデータ5 Here, the graphic data 5
06は、複数分のシンボル画像を格納することもある。 06, also storing the symbol image of the plurality of content.
これにより、一つの通信端末に対して、状態に応じ複数のシンボル画像を切り替え表示することができる。 Accordingly, for one communication terminal can display switching between a plurality of symbol images corresponding to the state.

【0024】次に、通信端末101の作動について、シンボル画像設定手段108、接続端末表示手段109 Next, the operation of communication terminal 101, the symbol image setting unit 108, the connection terminal display unit 109
と、送信元強調手段110の処理の流れについて説明する。 When, illustrating a flow of processing in the source emphasizing means 110.

【0025】図6はシンボル画像設定手段108の処理フローである。 [0025] FIG 6 is a flowchart of processing symbol image setting unit 108. ステップ601で、ホストコンピュータ103から受信した接続端末リスト情報から、1端末分のデータを読み込む。 In step 601, the connection terminal list information received from the host computer 103 reads the first terminal of data. この時、第1の通信手段106が1端末分のデータを受信する毎に、ステップ601で読み込んでも良いし、また、一旦、第1の通信手段106 In this case, every time the first communication means 106 receives the data of the first terminal component, may be read at step 601, also temporarily, the first communication means 106
が複数の端末分のデータを受信しメモリなどの記憶装置に格納し、ステップ601で1端末分づつ、前記記憶装置から読み込んでも良い。 There was stored in a storage device such as the received memory data of a plurality of terminals min, 1 terminal minute increments at step 601, it may be read from the storage device. ステップ602で、読み込んだ1端末分のデータに、シンボル画像の表示データが含まれるかを検出する。 In step 602, the first terminal of data read to detect whether either of the display data of the symbol image. 接続端末リスト情報は、図4を用いて説明したように、各通信端末の識別情報以外に、各通信端末に対応するシンボル画像を表示装置で表示するための表示データを含むこともある。 Connection terminal list information, as described with reference to FIG. 4, in addition to the identification information of each communication terminal, which may include a display data for displaying a symbol image corresponding to each communication terminal on the display device. このステップ60 This step 60
2で、シンボル画像の表示データが含まれていないと判定した場合には、ステップ603で、通信端末101内のメモリなどの記憶装置に予め格納してある、シンボル画像用の表示データを読み込み、該当する通信端末の表示データとする。 2, if it is determined not to contain the display data of the symbol images, in step 603, is previously stored in a storage device such as a memory of the communication terminal 101 reads the display data symbol image, the relevant communication terminal display data. ステップ604で、通信端末の識別情報と、シンボル画像の表示データを、シンボル画像記憶手段107に格納する。 In step 604, the identification information of the communication terminal, the display data of the symbol image, and stores the symbol image storage unit 107. これらのデータは、図5を用いて説明したデータテーブルの構造で格納する。 These data stored in a structure of the data table described with reference to FIG. ホストコンピュータ103から受信した、接続端末リスト情報で特定される通信端末全てについて、ステップ604までの処理を行ったかを、ステップ605で判定し、処理を終了をする。 Received from the host computer 103, for all communication terminal specified in the connection terminal list information, whether performing the processing of steps 604, determined in step 605, the process ends. 以上のシンボル画像設定手段108の処理は、ホストコンピュータ103から接続端末リスト情報を受信する毎に実行し、逐次、シンボル画像記憶手段1 The process of the symbol image setting unit 108 described above, executes whenever receiving the connection terminal list information from the host computer 103, sequential, symbol image storage means 1
07のデータが最新の内容に更新する。 07 of the data is updated to the latest content.

【0026】図7は、接続端末表示手段109の処理フローである。 FIG. 7 is a process flow of the connection terminal display unit 109. ステップ701で、シンボル画像記憶手段107から、1端末分のシンボル画像の表示データを読み出す。 In step 701, the symbol image storage unit 107, reads the display data of the first terminal portion of the symbol image. ステップ702で、シンボル画像記憶手段10 In step 702, the symbol image storage means 10
7に格納された全ての通信端末に関して、シンボル画像を表示したか判定する。 For all communication terminal stored in 7, it determines whether to display the symbol image. 未表示の通信端末があると判定した場合には、ステップ703で、該当するシンボル画像の表示データを読み込み、表示装置105に出力する。 If it is determined that there is undisplayed communication terminal in step 703, it reads the display data of the corresponding symbol image, and outputs to the display device 105. シンボル画像を出力する際に、図5の503〜50 When outputting the symbol image, 503-50 of Figure 5
6に設定されたデータに基づき表示を行う。 Performing a display based on the data set in the 6.

【0027】図8は、送信元強調手段110の処理フローである。 [0027] FIG 8 is a processing flow of the transmission source enhancement unit 110. ステップ801で、第1の受信手段106がホストコンピュータ103から受信したデータの中から、送信元識別情報を読み込む。 In step 801, the first receiving means 106 from the data received from the host computer 103 reads the transmission source identification information. ステップ802で、読み込んだ送信元識別情報によって特定される通信端末に対応するシンボル画像を、シンボル画像記憶手段107 In step 802, the symbol image corresponding to the communication terminal specified by the transmission source identification information read symbol image storage means 107
に格納されたデータから検索する。 Search data stored in the. 図5の例を用いた場合、送信元識別情報は、通信端末の識別番号であり、この識別番号に合致するデータを、識別情報502のデータと比較しながら検索する。 When using the example of FIG. 5, the transmission source identification information is an identification number of the communication terminal, the data matching the identification number, searches in comparison with the data of the identification information 502. ステップ803で、検索されたシンボル画像の表示データの内容を変更する。 In step 803, it changes the contents of the display data of the retrieved symbol image. 変更する内容は、表示座標503、サイズ情報504、表示カラー情報505、グラフィックデータ506の内の一つ、または、複数である。 The contents to be changed, the display coordinates 503, size information 504, the display color information 505, one of the graphic data 506, or a plurality. また、送信元識別情報507 In addition, the transmission source identification information 507
を変更することもある。 There is also possible to change the. この送信元識別情報507は、 The transmission source identification information 507,
二つの値をとり、通常は送信元ではないことを示す値が設定されており、ステップ802で検索されたシンボル画像についてのみ、送信元を示す値が設定される。 It takes two values, usually are set to indicate that it is not the source, the retrieved symbol image in step 802 only a value indicating a transmission source is set. つまり、送信元識別情報507は、最も新しい発言者に対応する通信端末に対してのみ、他と異なる値をとる。 That is, transmission source identification information 507, only the communication terminal corresponding to the most recent speaker, take other different values. グラフィックデータ506に、複数の画像分のデータが格納されている場合、この値に応じて、通常用のシンボル画像と強調用のシンボル画像を切り替えて表示する。 The graphic data 506, if the data of a plurality of image content is stored, in accordance with this value is displayed by switching the symbol image for stressed normal symbol image for.

【0028】最後に、以上の説明した実施例による、通信端末101の操作画面例を説明する。 [0028] Finally, according to the example embodiment of the above description will be described an example of an operation screen of the communication terminal 101. 図9は、送信元強調手段110によって、シンボル画像の表示データの内、表示カラー情報505を変更した場合である。 9, the source stressed unit 110, among the display data of the symbol images is when you change the display color information 505. 図9 Figure 9
(a)で、通信端末101の表示画面図901内に、接続中の通信端末に対応するシンボル画像902から90 In (a), in the display screen view 901 of the communication terminal 101, the symbol image 902 corresponding to the communication terminal in the connection 90
4が表示されている。 4 is displayed. これらのシンボル画像902から904に対応する通信端末からの発言内容は、各々、発言内容表示905〜907に表示されている。 Speech content from a communication terminal corresponding These symbol images 902 to 904, respectively, are displayed on the speech content display 905 to 907. この三つのシンボル画像902から904に対応する通信端末の内、シンボル画像902に対応した通信端末からの発言が最も新しい為、シンボル画像902のみが、異なった表示色になっている。 Among the three symbol images 902 of the communication terminal corresponding to 904, say from a communication terminal corresponding to the symbol image 902 is the newest Therefore, only the symbol image 902 has different display color. 続いて、シンボル画像903に対応する通信端末が、図9(b)の903に示すような発言をすると、シンボル画像902の表示色は、他のシンボル画像と同じにもどり、代わりに、シンボル画像90 Subsequently, the communication terminal corresponding to the symbol image 903, when the speech as shown in 903 of FIG. 9 (b), the display color of the symbol images 902, back to the same as the other symbol images, instead, the symbol image 90
3の表示色が他と異なった色になる。 3 of the display color is the other a different color. 図9の例の場合、 For example in FIG. 9,
通信端末101の使用者は、シンボル画像の表示色によって、最も新しい発言者を識別することが可能となる。 The user of communication terminal 101, the display color of the symbol image, it is possible to identify the newest speaker.

【0029】図10は、送信元強調手段110によって、シンボル画像の表示データの内、グラフィックデータ506を変更した場合である。 [0029] Figure 10, by the source emphasizing means 110, among the display data of the symbol image, which is if you change the graphic data 506. ここでは、グラフィックデータ506に、発言時のシンボル画像と、その他の場合のシンボル画像の、形態の異なる2種類が格納されている。 Here, the graphic data 506, the symbol image at the time of utterance, the symbol images in the other cases, two different types are stored morphologies. 図10(a)で、通信端末101の表示画面図1001内に、接続中の通信端末に対応するシンボル画像1002から1004が表示されている。 In FIG. 10 (a), the display screen view 1001 of the communication terminal 101, the symbol image 1002 corresponding to the communication terminal in the connection 1004 is displayed. これらのシンボル画像1002から1004に対応する通信端末からの発言内容は、各々、発言内容表示905〜907に表示されている。 Speech content from a communication terminal corresponding These symbol images 1002 to 1004, respectively, are displayed on the speech content display 905 to 907. この三つのシンボル画像902から9 From these three symbol image 902 9
04に対応する通信端末の内、シンボル画像1002に対応した通信端末からの発言が最も新しい為、シンボル画像1002のみが、発言者を示す異なった形態の画像になっている。 04 of the communication terminal corresponding, most new due to the remarks from the communication terminal corresponding to the symbol image 1002, only symbol image 1002, has become the image of the different forms show the speaker. 続いて、シンボル画像1004に対応する通信端末が、図9(b)の1007に示すような発言をすると、シンボル画像1002の画像は、他のシンボル画像と同じにもどり、代わりに、シンボル画像100 Subsequently, the communication terminal corresponding to the symbol image 1004, when the utterance, as shown in 1007 of FIG. 9 (b), the image of the symbol image 1002, return to the same as the other symbol images, instead, the symbol image 100
4の画像が、発言者を示す異なった形態になる。 4 of the image becomes different forms show a speaker. 図10 Figure 10
の例の場合、通信端末101の使用者は、シンボル画像の形態によって、最も新しい発言者を識別することが可能となる。 For example, the user of communication terminal 101, depending on the form of the symbol image, it is possible to identify the newest speaker.

【0030】図11は送信元強調手段110によって、 By FIG. 11 is the source stressed means 110,
シンボル画像の表示データの内、座標情報503とサイズ情報504を変更した場合である。 Among the display data of the symbol images is the case changing the coordinate information 503 and size information 504. 図11(a)で、 In FIG. 11 (a), the
通信端末101の表示画面図1101内に、接続中の通信端末に対応するシンボル画像1102から1106が表示されている。 In the display screen view 1101 of the communication terminal 101, the symbol image 1102 corresponding to the communication terminal in the connection 1106 is displayed. これらのシンボル画像1102から1 From these symbols image 1102 1
106に対応する通信端末からの発言内容の内、最も新しい内容が、発言内容枠1107内に表示されている。 Of speech content from a communication terminal corresponding to 106, most new content is displayed in the speech content frame 1107.
この五つのシンボル画像1102から1106に対応する通信端末の内、シンボル画像1104に対応した通信端末からの発言が最も新しい為、その発言内容が発言枠1107内に表示され、シンボル画像1104のみが、 Of the communication terminal corresponding the symbol images 1102 of the five in 1106, for the most recent speech from the communication terminal corresponding to the symbol image 1104, the speech content is displayed in the remarks frame 1107, only the symbol image 1104,
画面中央よりの位置に移動し、サイズも大きくなっている。 It moves to a position of from the center of the screen, which is larger size. 続いて、シンボル画像1106に対応する通信端末が、図11(b)の1107に示すような発言をすると、シンボル画像1104の画像は、他のシンボル画像と同様に画面周囲側に戻り、サイズも他のシンボル画像と同サイズに戻る。 Subsequently, the communication terminal corresponding to the symbol image 1106, when the utterance, as shown in 1107 of FIG. 11 (b), the image of the symbol image 1104, returns to the screen periphery side like the other symbol images, even size Back to the same size and the other symbol image. 代わりに、シンボル画像1106の画像が、画面中央よりの位置に移動し、サイズが大きくなる。 Instead, the image of the symbol image 1106 is moved to a position closer to the center of the screen size is increased. 図11の例の場合、通信端末101の使用者は、 In the example of FIG. 11, the user of communication terminal 101,
シンボル画像の位置とサイズによって、最も新しい発言者を識別することが可能となる。 The position and size of the symbol image, it is possible to identify the newest speaker.

【0031】また、以上の図9ないし図11で用いた例では、各通信端末からの発言内容を、文字情報として扱っているが、音声データを使用しても同様に実現できる。 Further, in the example used in FIG. 9 to 11 described above, the speech content from the communication terminal, that is serving as character information, can be implemented similarly using voice data. つまり、発言内容を表示する代わりに、通信端末1 In other words, instead of displaying the speech content, communication terminal 1
01に備えた音声出力手段115によって出力する。 Output by the audio output unit 115 with the 01. この場合、音声出力とともに、文字データの表示出力を行っても良い。 In this case, together with the audio output, it may be subjected to display output of character data.

【0032】その他、表示データとして動画データを格納することにより、送信元のシンボル画像を動画表示することも、本実施例と同様の構成で実現することができる。 [0032] Other, by storing the moving image data as display data, also movie display the source of the symbol image can be realized by the same configuration as the present embodiment.

【0033】 [0033]

【発明の効果】本発明のオンライン会話システムにより、従来のオンライン会話システムでは、単に、各端末からの発言内容の羅列が表示されるだけであった操作画面を、視覚的にわかりやすくし、より一層、会話の臨場感を高めることできる。 On-line chat system of the present invention, the conventional online chat system, simply, an operation screen in which was only enumeration of the speech content from the terminal is displayed, visually understandable, and more further, can it increase the realism of the conversation.

【0034】第一に、従来技術の通信端末の操作画面にみられた、参加者表示エリア表示の技術をより発展させ、会話の発言内容自体をビジュアルに表示できるようにした。 [0034] First, was seen in the operation screen of the communication terminal of the prior art, and to be able to view the participant display area display of technology more developed, the speech content itself of the conversation to the visual. 特に、コンピュータ操作などに慣れていない、 In particular, not accustomed to such as computer operation,
初心者に対して、馴染みやすい操作環境を提供する子とができる。 For the beginner, it is a child that provides a familiar operating environment.

【0035】第2に、複数の発言内容を、前述のようにビジュアルに同時表示した場合、あるいは、音声データにより会話を行った場合、発言を受け取った通信端末側では、発言順序が混乱する問題が生じる。 [0035] Second, a plurality of speech content, if simultaneously displayed visually as described above or, in the case of performing a conversation by voice data, the communication terminal that has received the remark, problems speaking order confused It occurs. 本発明では、 In the present invention,
最後の発言を送信した通信端末を、シンボル画像の強調表現によって、ビジュアルに通知することができ、初心者でも理解しやすい。 The communication terminal that has transmitted the last remark, the enhancement representation of the symbol image can be notified visually, and easy to understand even for beginners.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明の一実施例のブロック図。 1 is a block diagram of an embodiment of the present invention.

【図2】オンライン会話システムの説明図。 FIG. 2 is an explanatory diagram of the online conversation system.

【図3】従来技術の説明図。 FIG. 3 is an explanatory diagram of a prior art.

【図4】接続端末リスト情報の説明図。 FIG. 4 is an explanatory diagram of a connection terminal list information.

【図5】シンボル画像の表示データの説明図。 FIG. 5 is an explanatory diagram of a display data of the symbol image.

【図6】シンボル画像設定手段の処理フローチャート。 [6] the process flowchart of the symbol image setting means.

【図7】接続端末表示手段の処理フローチャート。 [7] processing flowchart of the connection terminal display unit.

【図8】送信元強調手段の処理フローチャート。 [8] The processing flow of the source enhancement means.

【図9】シンボル画像の表示データの説明図。 FIG. 9 is an explanatory diagram of a display data of the symbol image.

【図10】シンボル画像の表示データの説明図。 FIG. 10 is an explanatory diagram of a display data of the symbol image.

【図11】シンボル画像の表示データの説明図。 FIG. 11 is an explanatory diagram of a display data of the symbol image.

【符号の説明】 DESCRIPTION OF SYMBOLS

101…通信端末、102…通信ネットワーク、103 101 ... communication terminal, 102 ... communication network, 103
…ホストコンピュータ、104…文字入力手段、105 ... host computer, 104 ... character input means, 105
…表示手段、106…第1の通信手段、107…シンボル画像記憶手段、108…シンボル設定手段、109… ... display unit, 106 ... first communication unit, 107 ... symbol image storage unit, 108 ... symbol setting means, 109 ...
接続端末表示手段、110…送信元強調手段、111… Connecting the terminal display unit, 110 ... source emphasizing means, 111 ...
第2の通信手段、112…受信データ記憶手段、113 Second communication means, 112 ... reception data storage means, 113
…接続端末記憶手段、114…音声入力手段、115… ... connection terminal storage unit, 114 ... voice input section, 115 ...
音声出力手段。 Audio output means.

Claims (6)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】キーボードなどの文字入力手段と、CRT A character input means such as 1. A keyboard, CRT
    などの表示手段と、通信ネットワークと接続する第1の通信手段を備え、前記文字入力手段から入力された文字データを前記第1の通信手段によって送信し、前記第1 A display means such as, comprises a first communication means for connecting to a communication network, transmits the character data input from said character input means by said first communication means, said first
    の通信手段から受信した文字データを表示手段に出力する通信端末と、通信ネットワークと、前記通信ネットワークに接続する第2の通信手段と、前記第2の通信手段から受信した文字データと前記文字データの送信元の通信端末を特定する送信元識別情報を格納する受信データ記憶手段と、接続中の通信端末を特定するための接続端末リスト情報を格納する接続端末記憶手段を備え、接続中の複数の通信端末に対して、前記受信データ記憶手段に格納された文字データと前記送信元識別情報を一斉送信するホストコンピュータとによって構成されるオンライン会話システムにおいて、 前記ホストコンピュータが、接続端末記憶手段に格納された接続端末リスト情報を、各通信端末へ送信し、前記通信端末が、受信した接続端末リスト情報で A communication terminal for outputting to the display means the text data received from the communication means, a communication network and a second communication means for connecting to the communication network, the second the character data the character data received from the communication unit comprising: a received data storing means for storing the transmission source identification information for identifying the source of a communication terminal, a connection terminal storage means for storing a connection terminal list information for specifying a communication terminal during the connection, a plurality of connecting of the communication terminal, in an online chat system constituted by a host computer broadcasts the stored character data the transmission source identification information to the received data storage unit, the host computer, the connection terminal storage means the stored connection terminal list information, and transmitted to each communication terminal, the communication terminal, in the received connection terminal list information 特定される個々の通信端末に対応した、シンボル画像の表示データを作成するシンボル画像設定手段と、前記シンボル画像を格納するシンボル画像記憶手段と、シンボル画像記憶手段に格納された表示データに基づき、表示手段上に、 Corresponding to each communication terminal specified, the symbol image setting means for generating display data of the symbol images, the symbol image storage means for storing the symbol image, based on the display data stored in the symbol image storage means, on the display means,
    シンボル画像を表示する接続端末表示手段と、前記送信元識別情報で特定される通信端末に対応したシンボル画像を、シンボル画像記憶手段に格納されたシンボル画像の中から検索し、該当するシンボル画像の表示データを変更する送信元強調手段を備えること特徴とするオンライン会話システム。 A connection terminal display means for displaying a symbol image, a symbol image corresponding to the communication terminal specified by said transmission source identification information, and searches the symbol images stored in the symbol image storage means, of the corresponding symbol image online conversation system according to claim further comprising a source emphasizing means for changing the display data.
  2. 【請求項2】請求項1において、前記端末手段が、マイクなどの音声入力手段と、スピーカなどの音声出力手段を備え、音声入力手段から入力された音声データを、前記第1の通信手段によって送信し、前記第1の通信手段から受信した音声データを音声出力手段によって出力し、前記ホストコンピュータが、前記第2の通信手段から受信した音声データと前記音声データの送信元の通信端末を特定する前記送信元識別情報を前記受信データ記憶手段に格納し、接続中の複数の通信端末に対して、前記受信データ記憶手段に格納された音声データと送信元識別情報を一斉送信するオンライン会話システム。 2. A method according to claim 1, wherein the terminal means, an audio input unit such as a microphone, a voice output unit such as a speaker, the audio data input from the voice input means, by said first communication means transmitted, the audio data received from the first communication means and outputs the voice output means, said host computer, identifying the second transmission source communication terminal of the voice data and the voice data received from the communication means online conversation system that stores the transmission source identification information to the received data storage means, for a plurality of communication terminals currently connected, broadcasts the received data storing voice data and source identification information stored in the means for .
  3. 【請求項3】請求項1または2において、前記シンボル画像の表示データに、前記シンボル画像の色,明るさなどの表示属性が含まれ、前記送信元強調手段が、前記表示データの内、前記表示属性を変更するオンライン会話システム。 3. An apparatus according to claim 1 or 2, the display data of the symbol image, the color of the symbol image, includes display attributes such as brightness, the sender enhancement means, of said display data, the online conversation system to change the display attribute.
  4. 【請求項4】請求項1または2において、前記シンボル画像の表示データに、前記シンボル画像のサイズ,拡大率などの大きさの属性が含まれ、前記送信元強調手段が、表示データの内、前記大きさの属性を変更するオンライン会話システム。 4. The method of claim 1 or 2, the display data of the symbol image, the size of the symbol image, include the size of the attributes, such as magnification, said source emphasizing means, among the display data, online conversation system to change the attributes of the size.
  5. 【請求項5】請求項1または2において、前記シンボル画像の表示データに、前記シンボル画像の表示座標などの座標データが含まれ、前記送信元強調手段が、表示データの内、前記座標データを変更するオンライン会話システム。 5. A method according to claim 1 or 2, the display data of the symbol image, the include coordinate data, such as display coordinates of the symbol image, the sender emphasizing means, among the display data, the coordinate data online conversation system to change.
  6. 【請求項6】請求項1または2において、一つの通信端末あたり複数のシンボル画像と、前記複数のシンボル画像の中から表示すべきシンボル画像を特定するための表示シンボル識別データを、シンボル画像記憶手段内に格納し、前記送信元強調手段が、前記表示シンボル識別データを変更するオンライン会話システム。 6. The method according to claim 1 or 2, and one of the plurality of per communication terminal symbol image, a display symbol identification data for identifying the symbol image to be displayed from among the plurality of symbol images, the symbol image storage online conversation system stored in unit, the sender emphasizing means changes the display symbol identification data.
JP8075840A 1996-03-29 1996-03-29 On-line conversation system Pending JPH09265457A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8075840A JPH09265457A (en) 1996-03-29 1996-03-29 On-line conversation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8075840A JPH09265457A (en) 1996-03-29 1996-03-29 On-line conversation system

Publications (1)

Publication Number Publication Date
JPH09265457A true JPH09265457A (en) 1997-10-07

Family

ID=13587808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8075840A Pending JPH09265457A (en) 1996-03-29 1996-03-29 On-line conversation system

Country Status (1)

Country Link
JP (1) JPH09265457A (en)

Cited By (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9330381B2 (en) 2008-01-06 2016-05-03 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
JP2016122460A (en) * 2016-02-12 2016-07-07 株式会社スクウェア・エニックス Communication program, communication terminal, and communication method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9600174B2 (en) 2006-09-06 2017-03-21 Apple Inc. Portable electronic device for instant messaging
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10269345B2 (en) 2016-09-19 2019-04-23 Apple Inc. Intelligent task discovery

Cited By (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9600174B2 (en) 2006-09-06 2017-03-21 Apple Inc. Portable electronic device for instant messaging
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9330381B2 (en) 2008-01-06 2016-05-03 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9792001B2 (en) 2008-01-06 2017-10-17 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US10276170B2 (en) 2013-06-07 2019-04-30 Apple Inc. Intelligent automated assistant
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10083690B2 (en) 2014-05-30 2018-09-25 Apple Inc. Better resolution when referencing to concepts
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP2016122460A (en) * 2016-02-12 2016-07-07 株式会社スクウェア・エニックス Communication program, communication terminal, and communication method
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10269345B2 (en) 2016-09-19 2019-04-23 Apple Inc. Intelligent task discovery

Similar Documents

Publication Publication Date Title
Fussell Social and cognitive processes in interpersonal communication: Implications for advanced telecommunications technologies
US7409639B2 (en) Intelligent collaborative media
JP5195106B2 (en) Image correction method, image correction system, and image fix
US5913685A (en) CPR computer aiding
KR101706654B1 (en) System and method for hybrid course instruction
US6647119B1 (en) Spacialization of audio with visual cues
US7092247B2 (en) Method of designing a size-adjustable multi-mode display unit for portable electronic devices
CN101427303B (en) Method and device for latency reduction in a display device
EP0664636A2 (en) Audio conferencing system
US20170090845A1 (en) Presentation facilitation
US6201859B1 (en) Method and apparatus for controlling participant input in a conferencing environment
US6069622A (en) Method and system for generating comic panels
US6466250B1 (en) System for electronically-mediated collaboration including eye-contact collaboratory
CN101192943B (en) Method and system for role-based display of document renditions for Web conferencing
CN1119763C (en) Apparatus and method for collaborative dynamic video annotation
US6377925B1 (en) Electronic translator for assisting communications
US20020022520A1 (en) Game system, game device, game device control method and information storage medium
US6966035B1 (en) Frame for communicating expressive information for meetings
KR100436944B1 (en) Multi-user interactive 3D world system by world side web
EP1496405A2 (en) Information processing method and information processing apparatus
US5432525A (en) Multimedia telemeeting terminal device, terminal device system and manipulation method thereof
US6987514B1 (en) Voice avatars for wireless multiuser entertainment services
JP3679350B2 (en) Information storage medium and a computer system
US5826051A (en) Method and apparatus for simplifying active window selection, application activation, and shared command execution in a multi-application environment
KR100987248B1 (en) User input method and apparatus in mobile communication terminal