JP2008104080A - Method and system for linking data information and audio information - Google Patents

Method and system for linking data information and audio information Download PDF

Info

Publication number
JP2008104080A
JP2008104080A JP2006286519A JP2006286519A JP2008104080A JP 2008104080 A JP2008104080 A JP 2008104080A JP 2006286519 A JP2006286519 A JP 2006286519A JP 2006286519 A JP2006286519 A JP 2006286519A JP 2008104080 A JP2008104080 A JP 2008104080A
Authority
JP
Japan
Prior art keywords
voice
information
data
terminal device
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006286519A
Other languages
Japanese (ja)
Other versions
JP4814753B2 (en
Inventor
Yasuhiro Yamamoto
康裕 山本
Fumihiro Nakajima
史浩 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Software Corp
Original Assignee
NTT Software Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Software Corp filed Critical NTT Software Corp
Priority to JP2006286519A priority Critical patent/JP4814753B2/en
Publication of JP2008104080A publication Critical patent/JP2008104080A/en
Application granted granted Critical
Publication of JP4814753B2 publication Critical patent/JP4814753B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To link audio information accumulated in an audio accumulation server and data information accumulated in a data utilization server. <P>SOLUTION: An audio accumulation server records audio information received from a terminal device and stores a telephone number of the terminal device and an audio arrival time as audio associated information and a data utilization server receives from the terminal device terminal device transmission data containing a first time that is a time prior to the time at which the audio information is sent from the terminal device, a second time that is a time after the end of audio recording, and the telephone number, accesses the audio accumulation server to extract audio associated information which contains the same telephone number as the telephone number contained in the terminal device transmission data and contains an audio arrival time after the first time and prior to the second time, acquires audio information corresponding to the relevant audio associated information and correspondingly stores the relevant audio information and the data information in a utilization data storage means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、携帯電話機から1まとまりとなるべきデータ情報と音声情報とが別々に送信され、それぞれ別々の装置に格納される場合において、これらのデータ情報と音声情報とを統合する技術に関するものである。   The present invention relates to a technique for integrating data information and audio information that are to be united from a mobile phone and stored in separate devices. is there.

携帯電話機の技術進歩は目覚しく、携帯電話機1台で様々な情報を入力、あるいは取得できるようになっている。このような情報には、携帯電話機に具備するカメラから取得した静止画像、あるいは動画像、テキスト情報、GPS機能がついている機種であればGPS情報(携帯電話機の位置情報)、さらにはマイクから取得した音声情報などがある。
これらの情報をネットワークに接続されたサーバに送信することにより、サーバにおいてこれらの情報を種々の目的で利用することが可能となる。特に、音声情報と画像情報とを一体のものとしてサーバに送信することにより、画像内容を音声を用いて説明するといったアプリケーションの構築が可能となる。
The technological progress of mobile phones has been remarkable, and various information can be input or acquired by one mobile phone. Such information includes still images or moving images acquired from the camera provided in the mobile phone, GPS information (location information of the mobile phone) if the model has a GPS function, and further acquired from a microphone. Audio information.
By transmitting these pieces of information to a server connected to the network, it becomes possible to use these pieces of information for various purposes in the server. In particular, by transmitting audio information and image information to the server as an integrated unit, it is possible to construct an application that explains the image content using audio.

例えば、特許文献1には、携帯型PCを用いて取得した写真データ及び音声データ等からなる環境調査用の統合データを記録媒体に記憶し、統合データを必要に応じて携帯電話機を用いて外部PCに送信し、外部PCにおいてデータ解析等を行う技術が記載されている。   For example, in Patent Document 1, environmental survey integrated data including photo data and audio data acquired using a portable PC is stored in a recording medium, and the integrated data is externally used using a mobile phone as necessary. A technique for transmitting data to a PC and performing data analysis or the like on the external PC is described.

また、特許文献2には、緊急時に携帯電話機により取得した画像ファイル及び音声ファイルを通信サービス業者サーバに送信し、通信サービス業者サーバが画像ファイル及び音声ファイルを添付した緊急連絡用メールを作成し、連絡先に送信することが記載されている。
これら技術は携帯型PCもしくは携帯電話機にある程度の記憶容量を持つ記憶媒体などが実装され、これらの情報をこれらの記憶媒体に格納することが前提となっている。しかしながら、音声を長時間録音したデータを格納しておくには大容量の記憶媒体が必要であり、また、これらのデータを無線で特定のサーバに送ることになれば、通信量が大きくなり、通信時間も増大してしまうといった事態を招く。このような事態を回避するために、録音時間に上限を設けると利用者からは使いずらいといった評価を得てしまう。
一方、音声を録音することについては、特許文献1、あるいは特許文献2のように、携帯電話機等に音声データを格納するのではなく、遠隔にある音声蓄積サーバに音声を録音し、それを必要に応じて聞くことができるサービスが広く普及している。
例えば、特許文献3には、携帯電話機から送信される音声情報を録音すると共に、録音された音声情報を携帯電話機の使用者からの要請に応じて再生する録音サービス装置が記載されている。また、特許文献4には、携帯電話機に音声を入力し、その音声をサーバに送信してサーバが音声を記録する技術が記載されている。
In Patent Document 2, an image file and a voice file acquired by a mobile phone in an emergency are transmitted to a communication service provider server, and the communication service provider server creates an emergency contact mail with the image file and the voice file attached thereto. It is described that it is sent to the contact.
These technologies are based on the premise that a storage medium or the like having a certain storage capacity is mounted on a portable PC or a mobile phone, and that the information is stored in these storage media. However, a large-capacity storage medium is required to store data recorded for a long time, and if these data are sent to a specific server wirelessly, the amount of communication increases. The communication time will also increase. In order to avoid such a situation, if an upper limit is set for the recording time, the user gets an evaluation that it is difficult to use.
On the other hand, with respect to recording voice, it is necessary to record voice on a remote voice storage server instead of storing voice data in a mobile phone or the like as in Patent Document 1 or Patent Document 2. Services that can be heard according to the situation are widely spread.
For example, Patent Document 3 describes a recording service device that records voice information transmitted from a mobile phone and reproduces the recorded voice information in response to a request from a user of the mobile phone. Patent Document 4 describes a technique in which voice is input to a mobile phone, the voice is transmitted to a server, and the server records the voice.

一般に、携帯電話機を用いて音声蓄積サーバへの録音を行う場合、音声通話と同様に音声蓄積サーバに電話をかけ呼接続を行い、携帯電話機に対する発話音声が音声通話路を経由して、直接、音声蓄積サーバに記録される。録音した音声を再生する場合は、音声蓄積サーバを呼び出し、音声蓄積サーバから音声を再生させる。
音声蓄積サーバを用いれば、携帯電話機に大容量の記憶媒体を必要としないので、大容量の記憶媒体を有しない比較的低価格帯の携帯電話機においても音声録音/再生が可能である。
Generally, when recording to a voice storage server using a mobile phone, a call is made to the voice storage server in the same manner as a voice call, and the call connection is made. Recorded in the voice storage server. When playing back the recorded voice, the voice storage server is called and the voice is played back from the voice storage server.
If a voice storage server is used, a large-capacity storage medium is not required for the mobile phone, so that voice recording / playback is possible even in a relatively low-priced mobile phone that does not have a large-capacity storage medium.

しかし、画像情報やテキスト情報等は音声通信経路とは別のデータ通信経路を経由してサーバ(一般的なWebサーバとする)に送信されるため、音声情報と画像情報等とを一体のものとして扱うことを要するアプリケーションにおいて、音声の蓄積に上記のような音声蓄積サーバを用いることとすると、音声蓄積サーバに蓄積された音声情報と、Webサーバに蓄積された画像情報等とを一塊の情報群であると認識するための関連付けを行うことが必要となる。   However, since image information, text information, and the like are transmitted to a server (a general Web server) via a data communication path different from the voice communication path, the voice information and the image information are integrated. If an audio storage server such as the one described above is used to store audio in an application that needs to be handled as a group of audio information stored in the audio storage server, image information stored in the Web server, etc. It is necessary to perform association for recognizing the group.

この課題に対して、簡単な対応策としては、両情報に同一の識別情報(ID相当)を付与することが考えられるが、通常、音声の音声蓄積サーバへの録音に際しては、音声とともに発信者側の電話番号と録音時刻が記録されるだけであり、これら以外のIDを付与するようにするには、音声蓄積サーバを少なからず改造する必要が生じる。   As a simple countermeasure against this problem, it is conceivable to give the same identification information (corresponding to ID) to both pieces of information. Usually, when recording the voice into the voice storage server, the caller together with the voice Only the telephone number and the recording time on the side are recorded, and in order to assign IDs other than these, it is necessary to modify the voice storage server.

別の対応策として、音声蓄積サーバでは「発信者番号+音声の着信時刻」を記録し、サーバにおいては「発信者番号+データ情報の発信時刻」を記録し、両者の値が一致するかどうかで関連があるか否かを判断する方法が考えられる。しかし、音声は発話により送信され、データ情報は携帯電話機の操作により送信されるので、音声の着信時刻とデータ情報の発信時刻とが一致することはありえない。また、一定の時間の時刻差であれば(例えば5秒差)、同一時刻であると見なすといった判断ロジックを採用したとしても、必ずしも音声の発信とデータ発信との時間差が上記一定の時間差内である保証はない。従って、このような判断ロジックを採用した場合、結びつけるべき音声情報とデータ情報を結びつけることができなかったり、関連のない音声情報とデータ情報とを結びつけてしまったりといったことが発生してしまい、音声情報とデータ情報間の一体性を判断するための有効な方法ではない。
特開2002−352040号公報 特開2005−039700号公報 特開2001−177653号公報 特開2004−336319号公報
As another countermeasure, the voice storage server records "caller number + voice arrival time", and the server records "caller number + data information outgoing time". A method for determining whether or not there is a relationship is possible. However, since the voice is transmitted by utterance and the data information is transmitted by the operation of the mobile phone, the incoming time of the voice and the outgoing time of the data information cannot match. In addition, even if a determination logic is adopted such that a time difference of a certain time (for example, a difference of 5 seconds) is regarded as the same time, the time difference between the voice transmission and the data transmission is not necessarily within the certain time difference. There is no guarantee. Therefore, when such a determination logic is adopted, it may occur that the voice information and the data information to be linked cannot be linked, or the irrelevant voice information and the data information are linked. It is not an effective method for judging the unity between information and data information.
JP 2002-352040 A Japanese Patent Laying-Open No. 2005-039700 JP 2001-177653 A JP 2004-336319 A

本発明は上記の点に鑑みてなされたものであり、携帯電話機から音声通信経路を経由して音声蓄積サーバに蓄積された音声情報と、当該携帯電話機からデータ通信経路を経由してデータ利用サーバに蓄積されたデータ情報とを結びつけるための技術を、既存の音声蓄積サーバ及び携帯電話機に対して大きな機能追加等を施すことなく実現することを目的とする。   The present invention has been made in view of the above points, and voice information stored in a voice storage server via a voice communication path from a mobile phone and a data utilization server from the mobile phone via a data communication path It is an object of the present invention to realize a technology for linking data information stored in a mobile phone without adding a large function to an existing voice storage server and mobile phone.

上記の課題は、データ情報を取得してデータ通信経路を介して送信する機能と音声通信経路を介して音声情報の送信を行う機能とを有する端末装置と、当該端末装置から受信する音声情報を蓄積する機能を有する音声蓄積サーバと、前記端末装置からデータ情報を受信して格納する機能を有するデータ利用サーバとを備えたシステムにおいて、前記データ情報と前記音声情報とを結びつける方法であって、前記端末装置が、第1の時刻を取得して格納手段に格納するステップと、前記端末装置が、利用者の操作に基づき前記データ情報を取得して前記格納手段に格納するステップと、前記端末装置が、前記音声蓄積サーバと呼接続を行い、利用者の発話による音声情報を前記音声蓄積サーバに送信するステップと、前記音声蓄積サーバが、前記端末装置から受信した音声情報を音声情報格納手段に格納するとともに、前記端末装置の電話番号と音声着信時刻とを前記音声情報と対応付けて音声関連情報として音声関連情報格納手段に格納するステップと、前記端末装置が、前記音声蓄積サーバとの呼接続が終了した後、前記データ情報と、前記第1の時刻と、前記呼接続が終了した時刻より後の時刻である第2の時刻と、前記端末装置の電話番号とを端末装置送信データとして前記データ利用サーバに送信するステップと、前記データ利用サーバが、前記端末装置送信データを受信して端末装置送信データ格納手段に格納するステップと、前記データ利用サーバが、前記音声蓄積サーバにアクセスすることにより、前記端末装置送信データに含まれる前記電話番号と同じ電話番号を含み、かつ、前記第1の時刻より後であり前記第2の時刻より前である音声着信時刻を含む音声関連情報を抽出し、当該音声関連情報に対応する音声情報を取得し、当該音声情報と前記データ情報とを対応付けて利用データ格納手段に格納するステップとを有することを特徴とする方法により解決できる。なお、データ利用サーバとして例えばWebサーバを使用できる。   The above problem is that a terminal device having a function of acquiring data information and transmitting it via a data communication path and a function of transmitting voice information via a voice communication path, and voice information received from the terminal apparatus are obtained. In a system comprising a voice storage server having a function of storing data and a data use server having a function of receiving and storing data information from the terminal device, the method combines the data information and the voice information, The terminal device acquiring a first time and storing the first time in a storage unit; the terminal device acquiring the data information based on a user operation; and storing the data information in the storage unit; A device performs a call connection with the voice storage server and transmits voice information from a user's utterance to the voice storage server; Storing the voice information received from the terminal device in the voice information storage means, and storing the telephone number and voice reception time of the terminal device in the voice related information storage means as voice related information in association with the voice information; The terminal device after the call connection with the voice storage server is terminated, the data information, the first time, and a second time that is later than the time when the call connection is terminated; Transmitting the telephone number of the terminal device to the data utilization server as terminal device transmission data, and receiving the terminal device transmission data and storing the terminal device transmission data in the terminal device transmission data storage means; The data utilization server accesses the voice storage server to obtain the same telephone number as the telephone number included in the terminal device transmission data. And the voice related information including the voice incoming time that is after the first time and before the second time is extracted, voice information corresponding to the voice related information is acquired, and the voice information is acquired. And the step of storing the data information in the utilization data storage means in association with each other. For example, a Web server can be used as the data use server.

また、本発明は、データ情報を取得してデータ通信経路を介して送信する機能と音声通信経路を介して音声情報の送信を行う機能とを有する端末装置から受信する音声情報を蓄積する機能を有する音声蓄積サーバと、前記端末装置からデータ情報を受信して格納する機能を有するデータ利用サーバとを備え、前記データ情報と前記音声情報とを結びつける機能を有するシステムであって、前記音声蓄積サーバは、前記端末装置と呼接続を行い、前記端末装置から受信する音声情報を音声情報格納手段に格納するとともに、前記端末装置の電話番号と音声着信時刻とを前記音声情報と対応付けて音声関連情報として音声関連情報格納手段に格納する手段を有し、前記データ利用サーバは、前記データ情報と、前記音声情報が前記端末装置から送信される時刻より前の時刻である第1の時刻と、前記呼接続が終了した時刻より後の時刻である第2の時刻と、前記端末装置の電話番号とを含む端末装置送信データを前記端末装置から受信し、端末装置送信データ格納手段に格納する手段と、前記音声蓄積サーバにアクセスすることにより、前記端末装置送信データに含まれる前記電話番号と同じ電話番号を含み、かつ、前記第1の時刻より後であり前記第2の時刻より前である音声着信時刻を含む音声関連情報を抽出し、当該音声関連情報に対応する音声情報を取得し、当該音声情報と前記データ情報とを対応付けて利用データ格納手段に格納する手段とを有する、ことを特徴とするシステムとして構成することもできる。   The present invention also has a function of accumulating voice information received from a terminal device having a function of acquiring data information and transmitting the data information via a data communication path and a function of transmitting voice information via the voice communication path. A voice storage server, and a data use server having a function of receiving and storing data information from the terminal device, the system having a function of linking the data information and the voice information, the voice storage server Makes a call connection with the terminal device, stores the voice information received from the terminal device in the voice information storage means, and associates the telephone number of the terminal device and the voice incoming time with the voice information to Means for storing the information in a voice related information storage means, and the data utilization server sends the data information and the voice information from the terminal device. Terminal device transmission data including a first time that is a time before the time at which the call is made, a second time that is a time after the call connection is terminated, and a telephone number of the terminal device. Means for receiving from the device and storing in the terminal device transmission data storage means; and accessing the voice storage server, thereby including the same telephone number as the telephone number included in the terminal device transmission data, and the first The voice related information including the voice incoming time that is later than the second time and before the second time is extracted, voice information corresponding to the voice related information is acquired, and the voice information and the data information are associated with each other. It can also be configured as a system characterized by having a means for storing in the utilization data storage means.

本発明によれば、携帯電話機から音声通信経路を経由して音声蓄積サーバに蓄積された音声情報と、当該携帯電話機からデータ通信経路を経由してデータ利用サーバに蓄積されたデータ情報とを結びつけるための技術を、既存の音声蓄積サーバ及び携帯電話機に対して大きな機能追加等を施すことなく実現することが可能となる。   According to the present invention, the voice information stored in the voice storage server via the voice communication path from the mobile phone is linked to the data information stored in the data utilization server via the data communication path from the mobile phone. For this reason, it is possible to realize the technology for this without adding a large function to the existing voice storage server and mobile phone.

以下、図面を参照して本発明の実施の形態について説明する。以下の実施の形態では、携帯電話機から画像情報(写真)、テキスト情報、及びGPS情報(これらをデータ情報と呼ぶ)をWebサーバに送るとともに、音声を音声蓄積サーバに送信し、Webサーバが音声情報とデータ情報との結びつけを行い、Webサーバにアクセスした端末に対してGPS情報に基づく位置情報を地図上にマッピングした画面を表示し、端末のユーザは地図上の当該位置をクリックすることにより、写真やテキスト情報を音声を聞きながら参照することができるサービスを前提としている。また、携帯電話機の時刻と音声蓄積サーバの時刻とはある程度正確に一致しているものとする。   Embodiments of the present invention will be described below with reference to the drawings. In the following embodiment, image information (photograph), text information, and GPS information (these are referred to as data information) are transmitted from a mobile phone to a Web server, and voice is transmitted to a voice storage server. By linking information and data information, a screen in which location information based on GPS information is mapped on a map is displayed on a terminal accessing a Web server, and the user of the terminal clicks on the map It assumes a service that allows users to refer to photos and text information while listening to audio. In addition, it is assumed that the time of the mobile phone and the time of the voice storage server match to some extent accurately.

(システム構成)
図1に本発明の実施の形態におけるシステム構成を示す。図1に示すように、本実施の形態におけるシステムは、携帯電話機10、音声蓄積サーバ20、及びWebサーバ30を有している。
(System configuration)
FIG. 1 shows a system configuration in the embodiment of the present invention. As shown in FIG. 1, the system in the present embodiment includes a mobile phone 10, a voice storage server 20, and a Web server 30.

携帯電話機10は携帯網の音声通信経路40を介して音声蓄積サーバ20と呼接続を行って、音声通信経路40により音声を音声蓄積サーバ20に送信する。また、携帯電話機10は携帯網のデータ通信経路50を介してWebサーバ30にデータ情報を送信する。   The cellular phone 10 makes a call connection with the voice storage server 20 via the voice communication path 40 of the mobile network, and transmits voice to the voice storage server 20 via the voice communication path 40. In addition, the cellular phone 10 transmits data information to the Web server 30 via the data communication path 50 of the cellular network.

携帯電話機10は市販されている一般的なものであり、GPS受信部11、カメラ12、文字入力部13、音声入力部14、データ格納部15、データ送受信部16、音声送受信部17、及びアンテナ18を有する。GPS受信部11はGPS衛星からGPS情報を受信し、カメラ12は写真を撮影して画像情報を取得し、文字入力部13はユーザ操作に基づきテキスト情報を取得し、それぞれデータ格納部15に記録する。そして、データ格納部15に格納されたデータ情報は、データ送受信部16によりデータ通信経路50を介してWebサーバ30に送信される。   The mobile phone 10 is a commercially available general device, and includes a GPS receiver 11, a camera 12, a character input unit 13, a voice input unit 14, a data storage unit 15, a data transmission / reception unit 16, a voice transmission / reception unit 17, and an antenna. 18 The GPS receiving unit 11 receives GPS information from a GPS satellite, the camera 12 takes a picture and acquires image information, and the character input unit 13 acquires text information based on a user operation and records it in the data storage unit 15. To do. The data information stored in the data storage unit 15 is transmitted to the Web server 30 by the data transmission / reception unit 16 via the data communication path 50.

また、音声入力部14はユーザの発話による音声を取得し、音声送受信部17は取得された音声を音声通信経路40を介して音声蓄積サーバ20に送信する。また、音声送受信部17は呼接続等の電話機能を有している。   In addition, the voice input unit 14 acquires voice generated by the user's utterance, and the voice transmission / reception unit 17 transmits the acquired voice to the voice storage server 20 via the voice communication path 40. The voice transmission / reception unit 17 has a telephone function such as call connection.

携帯電話機10には更にデータ情報入力・送信のためのアプリケーションプログラム(以下、単にアプリケーションと呼ぶ)を実行するための機能部(CPU、メモリ等)が備えられており、このアプリケーションを実行することにより、データ情報の入力や送信を行うためのデータ情報入力送信部が生成される。更に携帯電話機10は画面表示を行うための図示しない表示部を有している。   The mobile phone 10 is further provided with a function unit (CPU, memory, etc.) for executing an application program (hereinafter simply referred to as an application) for inputting / transmitting data information. A data information input transmission unit for inputting and transmitting data information is generated. Furthermore, the mobile phone 10 has a display unit (not shown) for performing screen display.

音声蓄積サーバ20は、携帯電話機10から受信する音声を音声情報として格納する音声情報格納部21を有している。また、音声蓄積サーバ20は、当該音声情報に関連付けて音声関連情報(発信者電話番号と音声着信時刻)を格納する音声関連情報格納部22を有している。   The voice storage server 20 includes a voice information storage unit 21 that stores voice received from the mobile phone 10 as voice information. The voice storage server 20 includes a voice related information storage unit 22 that stores voice related information (caller telephone number and voice incoming time) in association with the voice information.

Webサーバ30は、携帯電話機10から受信したデータ情報と結び付けるべき音声情報を音声蓄積サーバ20から取得し、当該データ情報と音声情報とを格納する利用データ格納部31を有している。また、Webサーバ30は、地図情報を格納する地図情報格納部32を有している。なお、地図情報は必要に応じて外部の地図情報サーバから取得するようにしてもよい。更に、Webサーバ30は、利用データ格納部31に格納されたデータと地図情報格納部32に格納された地図情報を用いてユーザに対してサービスを提供する機能を有している。   The Web server 30 has a usage data storage unit 31 that acquires voice information to be associated with data information received from the mobile phone 10 from the voice storage server 20 and stores the data information and voice information. The Web server 30 has a map information storage unit 32 that stores map information. The map information may be acquired from an external map information server as necessary. Further, the Web server 30 has a function of providing a service to the user using the data stored in the usage data storage unit 31 and the map information stored in the map information storage unit 32.

(システムの動作)
次に、本実施の形態におけるシステムの動作を図2のフローチャートを参照して説明する。
(System operation)
Next, the operation of the system in the present embodiment will be described with reference to the flowchart of FIG.

まず、ユーザによる操作に基づき携帯電話機10はアプリケーションを起動し、起動したアプリケーションにより生成されたデータ情報入力送信部がアプリケーション起動時の時刻(アプリケーション起動時刻という)をデータ格納部15に保存する(ステップM1)。   First, the cellular phone 10 activates an application based on an operation by the user, and the data information input transmission unit generated by the activated application saves the time when the application is activated (referred to as application activation time) in the data storage unit 15 (step S1). M1).

データ情報入力送信部は、携帯電話機10の表示部に、ユーザがデータ情報を入力することをサポートするための画面を表示し、ユーザはその画面に示された情報に従って、写真撮影、テキスト入力、GPS情報取得のための操作を行う。これらの操作により得られた画像情報、テキスト情報、及びGPS情報はデータ情報入力送信部によりデータ格納部15に格納される(ステップM2)。   The data information input transmission unit displays a screen for supporting the user to input the data information on the display unit of the mobile phone 10, and the user takes a picture, inputs a text according to the information shown on the screen, An operation for acquiring GPS information is performed. The image information, text information, and GPS information obtained by these operations are stored in the data storage unit 15 by the data information input / transmission unit (step M2).

上記画面には音声蓄積サーバ20に発呼するためのボタンが表示されており、ユーザがそのボタンを押し下げる(クリックする)ことにより、データ情報入力送信部は音声蓄積サーバ20への発呼処理を行う(ステップM3)。その後アプリケーションの実行は一時中断される。つまり、アプリケーションを用いたデータの入力等を行うことができなくなる。また、アプリケーションは、音声蓄積サーバ20に発呼する前の時点ではデータ情報の送信を行うことができないように構成されていてもよい。   A button for making a call to the voice storage server 20 is displayed on the screen. When the user depresses (clicks) the button, the data information input transmission unit performs a call process to the voice storage server 20. Perform (step M3). Thereafter, the execution of the application is suspended. That is, it becomes impossible to input data using an application. Further, the application may be configured such that data information cannot be transmitted before the call is made to the voice storage server 20.

音声蓄積サーバ20への呼接続が完了すると、携帯電話機10のユーザは音声蓄積サーバ20から流れるガイダンス等に従って、ステップ2で入力したデータ情報に関係する内容の発話を行い、発話した音声は音声通信経路40を介して音声蓄積サーバ20に送信される(ステップM4)。   When the call connection to the voice storage server 20 is completed, the user of the mobile phone 10 utters the content related to the data information input in step 2 according to the guidance and the like flowing from the voice storage server 20, and the spoken voice is voice communication It is transmitted to the voice storage server 20 via the path 40 (step M4).

一方、ステップV1において携帯電話機10と呼接続された音声蓄積サーバ20は、発信者電話番号(携帯電話機10の電話番号)と音声着信時刻とを音声関連情報として音声関連情報格納部22に蓄積する(ステップV2)。なお、発信者電話番号は、携帯網における発信者電話番号通知機能を用いて通知するようにしてもよいし、携帯電話機10が通知してもよい。また、音声着信時刻は音声録音が開始されたときに、音声蓄積サーバ20が取得する時刻である。   On the other hand, the voice storage server 20 connected to the mobile phone 10 in step V1 stores the caller telephone number (phone number of the mobile phone 10) and the voice incoming time in the voice related information storage unit 22 as voice related information. (Step V2). The caller telephone number may be notified using a caller telephone number notification function in the mobile network, or may be notified by the mobile phone 10. The voice incoming time is the time that the voice storage server 20 acquires when voice recording is started.

音声蓄積サーバ20は、携帯電話機10から送信された音声を音声情報格納部21に格納(録音)する(ステップV3)。なお、音声関連情報格納部22に格納される発信者電話番号及び音声着信時刻とからなる音声関連情報と、音声情報格納部21に格納される音声情報とは関連付けられている。例えば、音声関連情報に音声情報の識別情報(ファイル名等)を含ませることによりこの関連付けを行うことができる。   The voice storage server 20 stores (records) the voice transmitted from the mobile phone 10 in the voice information storage unit 21 (step V3). Note that the voice related information including the caller telephone number and the voice incoming time stored in the voice related information storage unit 22 and the voice information stored in the voice information storage unit 21 are associated with each other. For example, this association can be performed by including identification information (such as a file name) of the audio information in the audio related information.

さて、携帯電話機10側では、音声の入力が終了すると呼の切断(呼接続の終了)が行われ、携帯電話機10における通話機能が終了し、その後アプリケーションが再起動(再実行)され、データ情報入力送信部が動作する(ステップM5)。   On the mobile phone 10 side, when the voice input is finished, the call is disconnected (call connection is finished), the call function in the mobile phone 10 is finished, and then the application is restarted (re-executed). The input transmission unit operates (step M5).

データ情報入力送信部は表示部にデータ送信ボタンを含む画面を表示する。ユーザが当該画面に表示されたデータ送信ボタンを押し下げる(クリックする)ことにより、データ情報入力送信部はその押し下げの時刻(データ送信時刻と呼ぶ)をデータ格納部15に保存する(ステップM6)。更に、データ情報入力送信部は、ステップM2で入力・保存されたデータ情報と、アプリケーション起動時刻と、データ送信時刻と、携帯電話機10の電話番号とをWebサーバ30にデータ通信経路50を介して送信する(ステップM7)。   The data information input transmission unit displays a screen including a data transmission button on the display unit. When the user depresses (clicks) the data transmission button displayed on the screen, the data information input / transmission unit stores the depressing time (referred to as data transmission time) in the data storage unit 15 (step M6). Further, the data information input / transmission unit transmits the data information input / saved in step M 2, the application start time, the data transmission time, and the telephone number of the mobile phone 10 to the Web server 30 via the data communication path 50. Transmit (step M7).

Webサーバ30は、携帯電話機10から送信されたデータ情報と、アプリケーション起動時刻と、データ送信時刻と、携帯電話機10の電話番号と(これらをまとめて携帯電話機送信データと呼ぶ)を受信し、Webサーバ30の一次データ格納部(RAM等)に保存する(ステップW1)。   The Web server 30 receives the data information transmitted from the mobile phone 10, the application start time, the data transmission time, the telephone number of the mobile phone 10 (collectively referred to as mobile phone transmission data), and the Web server 30 The data is stored in a primary data storage unit (RAM or the like) of the server 30 (step W1).

そして、Webサーバ30は音声蓄積サーバ20における音声関連情報格納部22を参照し、ステップW1で受信した携帯電話機送信データに含まれる発信者電話番号と同じ発信者電話番号を持ち、かつ、音声着信時刻がアプリケーション起動時刻とデータ送信時刻との間に存在する音声関連情報を抽出する(ステップW2)。そして、Webサーバ30は、当該音声関連情報に対応する音声情報を取得し、ステップW1で受信したデータ情報とを一体として利用データ格納部31に格納する(ステップW3)。ステップW2の処理で抽出した音声関連情報に対応する音声情報とステップW1で受信したデータ情報とを一体と見なしてよい理由を次に説明する。   Then, the Web server 30 refers to the voice related information storage unit 22 in the voice storage server 20, has the same caller telephone number as the caller telephone number included in the mobile phone transmission data received in Step W1, and receives a voice call. The voice related information whose time is between the application start time and the data transmission time is extracted (step W2). Then, the Web server 30 acquires audio information corresponding to the audio related information, and stores it in the usage data storage unit 31 together with the data information received in Step W1 (Step W3). The reason why the voice information corresponding to the voice related information extracted in the process of step W2 and the data information received in step W1 may be regarded as one body will be described below.

図2に示すフローチャートに沿ってデータ、音声の送信及び格納を行う場合の処理を時系列で示すと図3に示すようになる。   FIG. 3 shows the processing in the case of transmitting and storing data and voice in time series according to the flowchart shown in FIG.

つまり、まずアプリケーションの起動がなされ(アプリケーション起動時刻:T1)、データ入力・編集の後、音声蓄積サーバへの発呼が行われ、音声録音が開始される(音声着信時刻:T2)。そして、音声の録音が終了した後、通話機能の終了に伴いアプリケーションが再実行され、送信ボタンの押し下げによりデータ情報の送信が開始され(データ送信時刻:T3)、データ送信が終了する。   That is, the application is first activated (application activation time: T1). After data input / editing, a call is made to the voice storage server, and voice recording is started (voice reception time: T2). Then, after the voice recording is completed, the application is re-executed along with the termination of the call function, transmission of data information is started by pressing the transmission button (data transmission time: T3), and data transmission is terminated.

アプリケーションの起動がされなければ音声蓄積サーバ20への発呼はなされないので、必ずT1<T2となる。また、音声の録音が終了した後でなければデータ送信を行うことはないので、必ずT2<T3となる。従って、常にT1<T2<T3が成り立つ。また、データ入力・編集、及び音声蓄積サーバ20への発呼は同一アプリケーションを用いて連続して行われるので、T1とT3との間に同じユーザの他のデータ情報に関連する音声の録音が行われることはない。   If the application is not activated, no call is made to the voice storage server 20, so that T1 <T2. In addition, since data transmission is not performed unless the voice recording is completed, T2 <T3 is always satisfied. Therefore, T1 <T2 <T3 always holds. Also, since data input / editing and calling to the voice storage server 20 are continuously performed using the same application, voice recording related to other data information of the same user is recorded between T1 and T3. Never done.

よって、携帯電話機送信データに含まれる発信者電話番号と同じ発信者電話番号を持ち、かつ、音声着信時刻T2がアプリケーション起動時刻T1とデータ送信時刻T3との間に存在する音声関連情報に対応する音声情報は、携帯電話機送信データに含まれるデータ情報と一体のものとして扱うことができる。   Therefore, it has the same caller telephone number as the caller telephone number included in the mobile phone transmission data, and the voice incoming time T2 corresponds to the voice related information existing between the application start time T1 and the data transmission time T3. The voice information can be handled as one piece with the data information included in the mobile phone transmission data.

なお、T1は、音声着信時刻T2より前の時刻であればよく必ずしもアプリケーション起動時刻である必要はない。また、T3は、音声着信時刻T2より後の時刻であればよく必ずしもデータ送信時刻(送信ボタンを押した時刻)である必要はない。また、T2は、T1とT3の間の時刻であればよく必ずしも音声の録音を開始した時刻である必要はない。例えば音声の録音の途中の時刻や、音声の録音が終了した時刻でもよい。   Note that T1 may be any time before the voice incoming time T2, and is not necessarily the application activation time. Further, T3 may be a time after the voice incoming time T2, and is not necessarily the data transmission time (time when the transmission button is pressed). Further, T2 may be a time between T1 and T3, and does not necessarily need to be a time when voice recording is started. For example, it may be a time during voice recording or a time when voice recording ends.

図2におけるステップW3の後の処理の一例を次に説明する。Webサーバ30は、利用データ格納部31に格納されたデータ情報に含まれるGPS情報に基づき、GPS情報が示す位置を含む地図情報を取得し、その位置を示す画像を含み、その位置をクリックしたときに写真及びテキスト情報を表示するとともに、音声を出力するようにしたWebページを作成し、ユーザ識別情報(ユーザID、電話番号等)と対応付けて利用データ格納部31に格納する。そして、Webサーバ30は、ユーザ端末からのアクセスに応じて当該Webページを当該ユーザ端末に送信する。ユーザ端末には、データ情報と関連付けられた位置を示す画像を含む地図画像が表示され(図4(a))、当該位置を示す画像で示された位置をクリックすることにより、写真とテキスト情報が表示され(図4(b)、音声を聞くことができる。   An example of processing after step W3 in FIG. 2 will be described next. The Web server 30 acquires map information including the position indicated by the GPS information based on the GPS information included in the data information stored in the usage data storage unit 31, includes an image indicating the position, and clicks on the position Sometimes, a web page that displays a photograph and text information and outputs a voice is created and stored in the usage data storage unit 31 in association with user identification information (user ID, telephone number, etc.). Then, the web server 30 transmits the web page to the user terminal in response to access from the user terminal. On the user terminal, a map image including an image indicating a position associated with the data information is displayed (FIG. 4A), and by clicking on the position indicated by the image indicating the position, the photograph and text information are displayed. Is displayed (FIG. 4B), and the user can listen to the voice.

(各装置の詳細構成)
次に、上記の動作を行う各装置の機能構成についてより詳細に説明する。
(Detailed configuration of each device)
Next, the functional configuration of each device that performs the above operation will be described in more detail.

図5に、アプリケーションが実行されているときにおける携帯電話機10のデータ情報入力送信部の機能構成を示す。図5に示すようにデータ情報入力送信部は、時刻取得部1、データ情報入力・編集部3、発呼部5、及びデータ情報送信処理部7を有している。   FIG. 5 shows a functional configuration of the data information input transmission unit of the mobile phone 10 when the application is executed. As shown in FIG. 5, the data information input / transmission unit includes a time acquisition unit 1, a data information input / editing unit 3, a calling unit 5, and a data information transmission processing unit 7.

時刻取得部1は、アプリケーションが起動したときと送信ボタンの押し下げがなされたときに携帯電話機10が備える時計機能部から時刻を取得し、当該時刻をデータ格納部15に記録する。データ情報入力・編集部3は、写真撮影により得られた画像を取得してデータ格納部15に記録する機能、テキスト入力画面を表示して、入力されたテキストをデータ格納部15に記録する機能、GPS受信部11で受信したGPS情報をデータ格納部15に記録する機能等を有している。なお、上記の時刻情報、画像情報、テキスト情報、GPS情報は互いに関連付けられてデータ格納部15に記録される。   The time acquisition unit 1 acquires the time from the clock function unit included in the mobile phone 10 when the application is activated and when the transmission button is pressed, and records the time in the data storage unit 15. The data information input / editing unit 3 has a function of acquiring an image obtained by photographing and recording it in the data storage unit 15 and a function of displaying a text input screen and recording the input text in the data storage unit 15 The GPS receiving unit 11 has a function of recording GPS information received in the data storage unit 15. The time information, the image information, the text information, and the GPS information are recorded in the data storage unit 15 in association with each other.

発呼部7は、ユーザからの操作に基づき、音声蓄積サーバ20に対して呼接続を行うための発呼を行う。また、データ情報送信処理部5は、送信ボタンの押し下げに応じて時刻情報とデータ情報に発信者電話番号を付加した情報をデータ通信経路50を経由してWebサーバ30に送信するための機能を有している。   The calling unit 7 makes a call for making a call connection to the voice storage server 20 based on an operation from the user. In addition, the data information transmission processing unit 5 has a function for transmitting time information and information obtained by adding a caller telephone number to the data information to the Web server 30 via the data communication path 50 in response to pressing of the transmission button. Have.

図6は、音声蓄積サーバ20の機能構成図である。音声蓄積サーバ20は、電話機能部23、音声蓄積処理部24、Webサーバ連携処理部25、音声関連情報格納部22、及び音声情報格納部21を有している。   FIG. 6 is a functional configuration diagram of the voice storage server 20. The voice storage server 20 includes a telephone function unit 23, a voice storage processing unit 24, a Web server cooperation processing unit 25, a voice related information storage unit 22, and a voice information storage unit 21.

電話機能部23は、音声通信経路40を通じて他の装置と呼接続を行い、音声の送受信を行うための機能部である。音声蓄積処理部24は、音声関連情報格納部22に、音声着信時刻、発信者電話番号、及び音声識別情報を互いに対応付けて格納するための処理部である。また、音声蓄積処理部24は、電話機能部23から受信した音声を音声情報として音声情報格納部21に格納するための処理を行う。   The telephone function unit 23 is a function unit for performing call connection with another device through the voice communication path 40 and transmitting and receiving voice. The voice accumulation processing unit 24 is a processing unit for storing the voice incoming time, the caller telephone number, and the voice identification information in the voice related information storage unit 22 in association with each other. The voice accumulation processing unit 24 performs processing for storing the voice received from the telephone function unit 23 in the voice information storage unit 21 as voice information.

Webサーバ連携処理部25は、Webサーバ30からのアクセスを受けてWebサーバ30に音声関連情報格納部22の検索を行わせたり、音声関連情報や音声情報をWebサーバに送信する機能を有している。   The Web server cooperation processing unit 25 has a function of receiving access from the Web server 30 and causing the Web server 30 to search the audio related information storage unit 22 and transmitting audio related information and audio information to the Web server. ing.

なお、音声蓄積処理部24とWebサーバ連携処理部25はそれぞれ音声蓄積のためのプログラム、Webサーバ連携処理のためのプログラムを音声蓄積サーバ20上で実行することにより実現可能である。   The voice storage processing unit 24 and the Web server cooperation processing unit 25 can be realized by executing a program for voice storage and a program for Web server cooperation processing on the voice storage server 20, respectively.

図7は、Webサーバ30の機能構成図である。Webサーバ30は、データ通信機能部33、Webデータ処理部34、音声蓄積サーバ連携処理部35、一次データ格納部36、利用データ格納部31、地図情報格納部32を有している。   FIG. 7 is a functional configuration diagram of the Web server 30. The web server 30 includes a data communication function unit 33, a web data processing unit 34, a voice storage server cooperation processing unit 35, a primary data storage unit 36, a usage data storage unit 31, and a map information storage unit 32.

データ通信機能部33は、データ通信経路50を介して他の装置とデータ通信を行うための機能部である。Webデータ処理部34は、携帯電話機10から携帯電話機送信データを受信して一次データ格納部36に格納する機能、携帯電話機10から受信したデータ情報と、音声蓄積サーバ連携処理部35を介して取得した、前記データ情報と一体となるべき音声情報とを利用データ格納部31に格納する機能、利用データ格納部31に格納されたデータを利用して図4(a)、(b)に示したようなサービスを提供する機能等を有している。   The data communication function unit 33 is a function unit for performing data communication with other devices via the data communication path 50. The Web data processing unit 34 receives the mobile phone transmission data from the mobile phone 10 and stores it in the primary data storage unit 36, the data information received from the mobile phone 10, and the voice storage server cooperation processing unit 35 4 (a) and 4 (b) using the function of storing the voice information to be integrated with the data information in the usage data storage unit 31 and the data stored in the usage data storage unit 31. It has a function to provide such services.

また、音声蓄積サーバ連携処理部35は、Webデータ処理部34からアプリケーション起動時刻、データ送信時刻、発信者電話番号を受け取り、音声蓄積サーバ20にアクセスし、アプリケーション起動時刻、データ送信時刻、発信者電話番号を用いて音声関連情報格納部22を検索し、当該発信者電話番号と同じ発信者電話番号を持ち、かつ、音声着信時刻がアプリケーション起動時刻とデータ送信時刻との間に存在する音声関連情報を抽出し、その音声関連情報に含まれる音声識別情報を用いて、音声情報格納部21から当該音声情報を取得し、Webデータ処理部34に渡す機能を有している。   The voice storage server cooperation processing unit 35 receives the application start time, data transmission time, and caller telephone number from the Web data processing unit 34, and accesses the voice storage server 20 to access the application start time, data transmission time, and caller. The voice related information storage unit 22 is searched using the telephone number, the voice related information having the same caller telephone number as the caller telephone number, and the voice incoming time is between the application start time and the data transmission time. It has a function to extract information, acquire the voice information from the voice information storage unit 21 using the voice identification information included in the voice related information, and pass it to the Web data processing unit 34.

なお、音声蓄積サーバ連携処理部35は、発信者電話番号が一致する音声関連情報を全て取得し、Webデータ処理部34がそれらの音声関連情報を一次データ格納部36に格納し、Webデータ処理部34がアプリケーション起動時刻とデータ送信時刻とを用いて、一次データ格納部36に格納された音声関連情報の中から目的とするデータ情報に対応する音声関連情報を抽出することとしてもよい。この場合、Webデータ処理部34は、抽出された音声関連情報から音声情報の識別情報を取得し、その識別情報を用いることにより音声蓄積サーバ連携処理部35を介して音声蓄積サーバ30から音声情報を取得する。   The voice storage server cooperation processing unit 35 acquires all the voice related information having the same caller telephone number, the Web data processing unit 34 stores the voice related information in the primary data storage unit 36, and the Web data processing The unit 34 may extract the voice related information corresponding to the target data information from the voice related information stored in the primary data storage unit 36 using the application activation time and the data transmission time. In this case, the Web data processing unit 34 acquires the identification information of the voice information from the extracted voice related information, and uses the identification information to send the voice information from the voice storage server 30 via the voice storage server cooperation processing unit 35. To get.

Webデータ処理部34と音声蓄積サーバ連携処理部35はそれぞれWebデータ処理のためのプログラム、音声蓄積サーバ連携処理のためのプログラムをWebサーバ30上で実行することにより実現可能である。   The Web data processing unit 34 and the voice storage server cooperation processing unit 35 can be realized by executing a program for Web data processing and a program for voice storage server cooperation processing on the Web server 30, respectively.

図8に、利用データ格納部31に格納されるデータの一例を示す。図8に示す例では、画像ファイル、音声ファイル、テキスト情報、緯度経度情報(GPS情報)、発信者情報(ID等)等が塊毎に格納されている。   FIG. 8 shows an example of data stored in the usage data storage unit 31. In the example shown in FIG. 8, an image file, a sound file, text information, latitude / longitude information (GPS information), caller information (ID, etc.), and the like are stored for each chunk.

本実施の形態で説明した技術を用いることにより、例えば、写真をWebサーバに送って、更に音声で写真の内容を補足するようなサービスを容易に提供できる。また、データ情報にGPS情報を含ませ、上述したような地図へのマッピングを行うことにより、どこから電話しているのか説明が不要な留守番電話機能を実現できる。また、本実施の形態における技術は特別な装置がなくても市販の携帯電話機で実現できるので、一般市民から情報を収集して生きた情報によるハザードマップ作成等に応用範囲を広げることも可能である。   By using the technology described in the present embodiment, for example, a service can be easily provided in which a photograph is sent to a Web server and the contents of the photograph are supplemented by voice. In addition, by including GPS information in the data information and performing mapping to the map as described above, an answering machine function that does not need to explain where the call is made can be realized. In addition, since the technology in this embodiment can be realized with a commercially available mobile phone without a special device, it is also possible to expand the application range to create a hazard map using live information by collecting information from the general public. is there.

本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。   The present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the claims.

本発明の実施の形態におけるシステム構成図である。It is a system configuration figure in an embodiment of the invention. 本発明の実施の形態におけるシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the system in embodiment of this invention. 処理の流れを時系列で示した図である。It is the figure which showed the flow of the process in time series. 提供されるサービスの一例を説明するための図である。It is a figure for demonstrating an example of the service provided. 携帯電話機10のデータ情報入力送信部の機能構成図である。3 is a functional configuration diagram of a data information input transmission unit of the mobile phone 10; FIG. 音声蓄積サーバ20の機能構成図である。3 is a functional configuration diagram of a voice storage server 20. FIG. Webサーバ30の機能構成図である。2 is a functional configuration diagram of a Web server 30. FIG. 利用データ格納部31に格納されるデータの一例を示す図である。4 is a diagram illustrating an example of data stored in a usage data storage unit 31. FIG.

符号の説明Explanation of symbols

10 携帯電話機
11 GPS受信部
12 カメラ
13 文字入力部
14 音声入力部
15 データ格納部
16 データ送受信部
17 音声送受信部
18 アンテナ
20 音声蓄積サーバ
21 音声情報格納部
22 音声関連情報格納部
23 電話機能部
24 音声蓄積処理部
25 Webサーバ連携処理部
30 Webサーバ
31 利用データ格納部
32 地図情報格納部
33 データ通信機能部
34 Webデータ処理部
35 音声蓄積サーバ連携処理部
36 一次データ格納部
40 音声通信経路
50 データ通信経路
DESCRIPTION OF SYMBOLS 10 Mobile telephone 11 GPS receiving part 12 Camera 13 Character input part 14 Voice input part 15 Data storage part 16 Data transmission / reception part 17 Voice transmission / reception part 18 Antenna 20 Voice storage server 21 Voice information storage part 22 Voice related information storage part 23 Telephone function part 24 voice storage processing unit 25 Web server cooperation processing unit 30 Web server 31 usage data storage unit 32 map information storage unit 33 data communication function unit 34 Web data processing unit 35 voice storage server cooperation processing unit 36 primary data storage unit 40 voice communication path 50 Data communication path

Claims (2)

データ情報を取得してデータ通信経路を介して送信する機能と音声通信経路を介して音声情報の送信を行う機能とを有する端末装置と、当該端末装置から受信する音声情報を蓄積する機能を有する音声蓄積サーバと、前記端末装置からデータ情報を受信して格納する機能を有するデータ利用サーバとを備えたシステムにおいて、前記データ情報と前記音声情報とを結びつける方法であって、
前記端末装置が、第1の時刻を取得して格納手段に格納するステップと、
前記端末装置が、利用者の操作に基づき前記データ情報を取得して前記格納手段に格納するステップと、
前記端末装置が、前記音声蓄積サーバと呼接続を行い、利用者の発話による音声情報を前記音声蓄積サーバに送信するステップと、
前記音声蓄積サーバが、前記端末装置から受信した音声情報を音声情報格納手段に格納するとともに、前記端末装置の電話番号と音声着信時刻とを前記音声情報と対応付けて音声関連情報として音声関連情報格納手段に格納するステップと、
前記端末装置が、前記音声蓄積サーバとの呼接続が終了した後、前記データ情報と、前記第1の時刻と、前記呼接続が終了した時刻より後の時刻である第2の時刻と、前記端末装置の電話番号とを端末装置送信データとして前記データ利用サーバに送信するステップと、
前記データ利用サーバが、前記端末装置送信データを受信して端末装置送信データ格納手段に格納するステップと、
前記データ利用サーバが、前記音声蓄積サーバにアクセスすることにより、前記端末装置送信データに含まれる前記電話番号と同じ電話番号を含み、かつ、前記第1の時刻より後であり前記第2の時刻より前である音声着信時刻を含む音声関連情報を抽出し、当該音声関連情報に対応する音声情報を取得し、当該音声情報と前記データ情報とを対応付けて利用データ格納手段に格納するステップと
を有することを特徴とする方法。
A terminal device having a function of acquiring data information and transmitting it via a data communication path and a function of transmitting voice information via a voice communication path; and a function of accumulating voice information received from the terminal device In a system comprising a voice storage server and a data use server having a function of receiving and storing data information from the terminal device, a method for linking the data information and the voice information,
The terminal device acquiring a first time and storing it in a storage means;
The terminal device acquires the data information based on a user's operation and stores it in the storage means;
The terminal device performs a call connection with the voice storage server, and transmits voice information from a user's utterance to the voice storage server;
The voice storage server stores voice information received from the terminal device in voice information storage means, and associates the telephone number and voice reception time of the terminal device with the voice information as voice related information. Storing in the storage means;
The terminal device, after the call connection with the voice storage server is terminated, the data information, the first time, a second time that is later than the time when the call connection is terminated, Transmitting the telephone number of the terminal device to the data utilization server as terminal device transmission data;
The data utilization server receiving the terminal device transmission data and storing it in the terminal device transmission data storage means;
The data utilization server includes the same telephone number as the telephone number included in the terminal device transmission data by accessing the voice storage server, and is later than the first time and the second time Extracting voice related information including a voice incoming time that is earlier, obtaining voice information corresponding to the voice related information, and storing the voice information and the data information in association with each other in the usage data storage unit; A method characterized by comprising:
データ情報を取得してデータ通信経路を介して送信する機能と音声通信経路を介して音声情報の送信を行う機能とを有する端末装置から受信する音声情報を蓄積する機能を有する音声蓄積サーバと、前記端末装置からデータ情報を受信して格納する機能を有するデータ利用サーバとを備え、前記データ情報と前記音声情報とを結びつける機能を有するシステムであって、
前記音声蓄積サーバは、前記端末装置と呼接続を行い、前記端末装置から受信する音声情報を音声情報格納手段に格納するとともに、前記端末装置の電話番号と音声着信時刻とを前記音声情報と対応付けて音声関連情報として音声関連情報格納手段に格納する手段を有し、
前記データ利用サーバは、前記データ情報と、前記音声情報が前記端末装置から送信される時刻より前の時刻である第1の時刻と、前記呼接続が終了した時刻より後の時刻である第2の時刻と、前記端末装置の電話番号とを含む端末装置送信データを前記端末装置から受信し、端末装置送信データ格納手段に格納する手段と、
前記音声蓄積サーバにアクセスすることにより、前記端末装置送信データに含まれる前記電話番号と同じ電話番号を含み、かつ、前記第1の時刻より後であり前記第2の時刻より前である音声着信時刻を含む音声関連情報を抽出し、当該音声関連情報に対応する音声情報を取得し、当該音声情報と前記データ情報とを対応付けて利用データ格納手段に格納する手段とを有する
ことを特徴とするシステム。
A voice storage server having a function of storing voice information received from a terminal device having a function of acquiring data information and transmitting the data information via a data communication path and a function of transmitting voice information via the voice communication path; A data use server having a function of receiving and storing data information from the terminal device, and a system having a function of linking the data information and the voice information,
The voice storage server performs call connection with the terminal device, stores voice information received from the terminal device in voice information storage means, and associates the telephone number and voice reception time of the terminal device with the voice information. In addition, it has means for storing in the voice related information storage means as voice related information,
The data utilization server includes a first time that is a time before the time when the data information and the voice information are transmitted from the terminal device, and a second time that is after the time when the call connection is terminated. Means for receiving terminal device transmission data including the time of the terminal device and the telephone number of the terminal device from the terminal device, and storing it in the terminal device transmission data storage means;
By receiving the voice storage server, an incoming voice call that includes the same telephone number as the telephone number included in the terminal device transmission data and that is later than the first time and before the second time Extracting voice related information including time, acquiring voice information corresponding to the voice related information, and storing the voice information and the data information in association with each other in the usage data storage means, System.
JP2006286519A 2006-10-20 2006-10-20 Method and system for linking data information and voice information Expired - Fee Related JP4814753B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006286519A JP4814753B2 (en) 2006-10-20 2006-10-20 Method and system for linking data information and voice information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006286519A JP4814753B2 (en) 2006-10-20 2006-10-20 Method and system for linking data information and voice information

Publications (2)

Publication Number Publication Date
JP2008104080A true JP2008104080A (en) 2008-05-01
JP4814753B2 JP4814753B2 (en) 2011-11-16

Family

ID=39438043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006286519A Expired - Fee Related JP4814753B2 (en) 2006-10-20 2006-10-20 Method and system for linking data information and voice information

Country Status (1)

Country Link
JP (1) JP4814753B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028209A (en) * 2008-07-15 2010-02-04 Ntt Communications Kk Data cooperation method, content server device, automatic answering telephone service providing apparatus, and program
JP2012182837A (en) * 2012-05-31 2012-09-20 Ntt Communications Kk Voice message collection system, voice message collection method, and program
CN111818225A (en) * 2020-06-30 2020-10-23 深圳传音控股股份有限公司 Audio data processing method, terminal equipment and storage

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177653A (en) * 1999-12-20 2001-06-29 Yamaha Corp Sound recording service device for portable telephone set and radio information transmitting device
JP2001265719A (en) * 2000-03-16 2001-09-28 Seiko Epson Corp Information provision system
JP2002352040A (en) * 2001-05-29 2002-12-06 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for collecting and managing environmental examination data and recording medium with this program recorded
JP2004336319A (en) * 2003-05-07 2004-11-25 Sharp Corp Portable telephone set
JP2005039700A (en) * 2003-07-18 2005-02-10 Casio Comput Co Ltd Emergency connection system and emergency connection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177653A (en) * 1999-12-20 2001-06-29 Yamaha Corp Sound recording service device for portable telephone set and radio information transmitting device
JP2001265719A (en) * 2000-03-16 2001-09-28 Seiko Epson Corp Information provision system
JP2002352040A (en) * 2001-05-29 2002-12-06 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for collecting and managing environmental examination data and recording medium with this program recorded
JP2004336319A (en) * 2003-05-07 2004-11-25 Sharp Corp Portable telephone set
JP2005039700A (en) * 2003-07-18 2005-02-10 Casio Comput Co Ltd Emergency connection system and emergency connection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028209A (en) * 2008-07-15 2010-02-04 Ntt Communications Kk Data cooperation method, content server device, automatic answering telephone service providing apparatus, and program
JP2012182837A (en) * 2012-05-31 2012-09-20 Ntt Communications Kk Voice message collection system, voice message collection method, and program
CN111818225A (en) * 2020-06-30 2020-10-23 深圳传音控股股份有限公司 Audio data processing method, terminal equipment and storage

Also Published As

Publication number Publication date
JP4814753B2 (en) 2011-11-16

Similar Documents

Publication Publication Date Title
KR101397322B1 (en) Tagging of multimedia content with geographical location by the user of a wireless communications device
US8614753B2 (en) Method and apparatus for generating image file having object information
JP2009500720A5 (en)
RU2009101912A (en) DIALING THE NUMBER BASED ON THE IMAGE
KR20120057942A (en) Mobile terminal and information display method using the same
RU2007112676A (en) METHOD FOR ADDING GEOGRAPHIC TITLES TO IMAGES AT MOBILE COMMUNICATION TERMINAL
RU2005127851A (en) METHOD AND APPARATUS FOR MULTISENSOR IMPROVEMENT OF SPEECH IN MOBILE DEVICE
JP2012518827A (en) A Method for Tagging Photos Based on Broadcast-Aided Face Identification
JP6077231B2 (en) Information acquisition method and apparatus for user terminal in communication system
KR20120042306A (en) Method for providing realty information and system
JP2014513828A (en) Automatic conversation support
KR20120042253A (en) Method for providing realty information and system
JPWO2008114369A1 (en) Route search system, mobile terminal, route providing server, and route providing program
JP2021026285A (en) Information presentation system, information presentation method, server device and program thereof
CN105848287A (en) Method, device and system for processing terminal positioning and router
JP2005057343A (en) Apparatus and method of registering image data
JP4814753B2 (en) Method and system for linking data information and voice information
KR101782275B1 (en) Method and device for state notification
KR101800661B1 (en) Method and apparatus for accessing location based service
JP6492709B2 (en) Communication terminal, incoming call support program, and method
JP2006350592A (en) Music information provision device
JP2005236729A (en) Digital image storage system
JP2003216609A (en) Information retrieval system and method
JP2008219344A (en) Program for receiving, automatically converting, writing, searching, and delivering image, and storage medium
JP2012018148A (en) Position information providing device, navigation device, navigation system and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110826

R150 Certificate of patent or registration of utility model

Ref document number: 4814753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees