JP2012068910A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2012068910A
JP2012068910A JP2010213394A JP2010213394A JP2012068910A JP 2012068910 A JP2012068910 A JP 2012068910A JP 2010213394 A JP2010213394 A JP 2010213394A JP 2010213394 A JP2010213394 A JP 2010213394A JP 2012068910 A JP2012068910 A JP 2012068910A
Authority
JP
Japan
Prior art keywords
information
speaker
processing apparatus
identification information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010213394A
Other languages
Japanese (ja)
Other versions
JP5743471B2 (en
Inventor
Akihiko Sugikawa
明彦 杉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2010213394A priority Critical patent/JP5743471B2/en
Publication of JP2012068910A publication Critical patent/JP2012068910A/en
Application granted granted Critical
Publication of JP5743471B2 publication Critical patent/JP5743471B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor for reading aloud information acquired from an information provision server after removing unnecessary information to be read aloud.SOLUTION: The information processor includes: communication means for accessing a server for providing information and acquiring information from the server; acquisition means for analyzing the information acquired by the communication means to acquire at least one utterance data and acquiring identification information of a speaker, information that shows an image of the speaker, and utterance content from the respective utterance data; display means for acquiring image data of the speaker from the information that shows the image of the speaker and displaying it together with the identification information of the speaker; sentence creation means for analyzing the utterance content and removing unnecessary information to create sentences for voice synthesis; and notification means for notifying a user of the sentences created by the sentence creation means by using voice synthesis.

Description

本発明の実施形態は、車両運転者に運転支援のためのナビゲーション情報を表示するとともに、情報提供サーバからの文章情報を音声に変換して出力し、音声の読み上げと連動して、その文章を発言したユーザや発言対象であるユーザの画像情報を表示手段にする情報処理装置に関する。   The embodiment of the present invention displays navigation information for driving assistance to a vehicle driver, converts text information from the information providing server into speech, outputs it, and synchronizes the speech with speech to read the text. The present invention relates to an information processing apparatus that uses image information of a speaking user or a user who is a speaking target as display means.

従来、目的地までの運転を支援するナビゲーション装置があり、ナビゲーション情報を車両に設けた液晶パネル等のディスプレイに表示するようにしている。また近年では、ナビゲーション情報を車両のフロントガラスに表示するヘッドアップデイスプレイ(以下、HUDと称す)を設け、運転者の視認性を向上した装置もある。   2. Description of the Related Art Conventionally, there is a navigation device that supports driving to a destination, and navigation information is displayed on a display such as a liquid crystal panel provided in the vehicle. In recent years, there is also a device that improves the driver's visibility by providing a head-up display (hereinafter referred to as HUD) that displays navigation information on the windshield of the vehicle.

また、最近では携帯電話やパソコン等の情報通信装置を使ってインターネット上のサービスを利用し、各種の情報をリアルタイムに収集したり、インターネット上に情報の書き込みができるようになっている。このようなコミュニケーションサービスの一例として、例えば、「Twitter」(ツイッター)が一般的に知られており、ユーザが「つぶやき」と呼ばれる短い記事を書き込み、その発言を他のユーザが読んだり、書き込まれた発言に対して返信することができるようになっている。   Recently, it has become possible to collect various information in real time and to write information on the Internet by using services on the Internet using information communication devices such as mobile phones and personal computers. As an example of such a communication service, for example, “Twitter” (Twitter) is generally known, a user writes a short article called “tweet”, and other users read or write the remarks. You can reply to the remarks.

即ち、「Twitter」は、短い発言をリアルタイムで配信するサービスであり、携帯電話やPC(パソコン)を用いてサービスを受けることができ、世界的に普及している。上記サービスにおいては、発言者自身が書き込んだ文章(発言)のほかに、発言者自身が登録した他の発信者の書き込みを、自身の発言と合せて時系列で見ることができる。また、他の発言者が書き込んだ発言を引用したり、或る発言者の発言に対して、返信を書き込みする機能がある。   That is, “Twitter” is a service that delivers short messages in real time, and can be received using a mobile phone or a PC (personal computer), and is widely used worldwide. In the above service, in addition to the sentences (speakers) written by the speaker himself, other senders registered by the speaker himself can be seen in time series together with his / her speech. In addition, there is a function of quoting a comment written by another speaker or writing a reply to a certain speaker's comment.

上記サービスは、送信できる文字数が制限されているため、短い発言で対話を進めるように専用のルールが規定されている。また、発言したユーザや、発言の対象となるユーザを示す情報も「Twitter」サービスでは、非常に重要な情報であり、ユーザの定めたIDとユーザを示す画像データ(アイコン)が、文章とともに表示される。   Since the number of characters that can be transmitted in the above service is limited, a dedicated rule is defined so as to advance the conversation with a short speech. In addition, the information indicating the user who has spoken or the user who is the subject of the speech is also very important information in the “Twitter” service, and the user-defined ID and image data (icon) indicating the user are displayed together with the text. Is done.

また運転中に、リアルタイムに収集した情報を車両用のディスプレイに表示したいという要求もあるが、車両用のディスプレイに、収集した情報を表示すると、表示画面を注視する時間が増えてしまい、運転の妨げとなり危険である。またメールサービスの場合は、音声合成手段を使用して、文章の内容を読み上げることで、画面を注視しなくても内容を理解することができる。   In addition, there is a request to display information collected in real time on the vehicle display while driving, but displaying the collected information on the vehicle display increases the time it takes to watch the display screen. It hinders and is dangerous. In the case of a mail service, the content can be understood without paying attention to the screen by reading out the content of the text by using a speech synthesis means.

しかしながら、「Twitter」サービスの場合は、文章の内容にユーザIDや、検索用キーワード等の略語や、他の情報にアクセスするための識別子が含まれているため、そのまま読み上げると内容を理解することが困難になるという不具合がある。特にユーザIDは、音声合成で読み上げできないような、文字や記号が多用されており、音声合成で読み上げる対象としては不適切である。   However, in the case of the “Twitter” service, the content of the text contains the user ID, abbreviations such as search keywords, and identifiers for accessing other information. There is a problem that it becomes difficult. In particular, the user ID uses a lot of characters and symbols that cannot be read out by speech synthesis, and is inappropriate as a target to be read out by speech synthesis.

特開平11−134166号公報JP-A-11-134166 特開2010−71656号公報JP 2010-71656 A

本発明が解決しようとする課題は、情報提供サーバから取得した情報を解析し、発言したユーザ、発言の対象となるユーザ、文章の内容を、運転手の注意を運転からそらせないで伝える情報処理装置を提供することにある。   The problem to be solved by the present invention is to analyze information acquired from an information providing server, and to convey information about a user who has made a statement, a user who is to speak, and the contents of a sentence without diverting the driver's attention from driving To provide an apparatus.

実施形態に係る情報処理装置は、情報提供用のサーバにアクセスし、サーバからの情報を取得する通信手段と、前記通信手段で取得した情報を解析して1つ以上の発言データを取得し、かつ、各発言データから発言者の識別情報と発言者の画像を示す情報、及び発言内容を取得する取得手段と、前記発言者の画像を示す情報から発言者の画像データを取得し、前記発言者の識別情報とあわせて表示する表示手段と、前記発言内容を解析し、不要な情報を取り除き音声合成用の文章を作成する文章作成手段と、前記文章作成手段で作成した文章を音声合成により報知する報知手段と、を具備する。   The information processing apparatus according to the embodiment accesses a server for providing information, obtains information from the server, and obtains one or more utterance data by analyzing the information obtained by the communication means, And from each utterance data, the identification information of the utterer, the information indicating the image of the utterer, and the acquisition means for acquiring the content of the utterance; Display means for displaying together with the identification information of the person, sentence creation means for analyzing the content of the utterance, removing unnecessary information and creating a sentence for speech synthesis, and sentence created by the sentence creation means by speech synthesis An informing means for informing.

一実施形態に係る情報処理装置の全体構成を示すブロック図。1 is a block diagram showing an overall configuration of an information processing apparatus according to an embodiment. 情報提供用のサーバとのやり取りの一例を示す説明図。Explanatory drawing which shows an example of exchange with the server for information provision. 車両に情報処理装置を取り付けた例を示す斜視図。The perspective view which shows the example which attached the information processing apparatus to the vehicle. 通信手段で取得したサーバ情報をパソコンで表示した例を示す説明図。Explanatory drawing which shows the example which displayed the server information acquired with the communication means with the personal computer. サーバ情報の表示と音声報知の例を示す説明図。Explanatory drawing which shows the example of a display of server information, and audio | voice alerting | reporting. サーバ情報の表示と音声報知の第2の例を示す説明図。Explanatory drawing which shows the 2nd example of a display of server information and audio | voice alerting | reporting. サーバ情報の表示と音声報知の第3の例を示す説明図。Explanatory drawing which shows the 3rd example of a display of a server information, and audio | voice alerting | reporting. サーバ情報の表示と音声報知の第4の例を示す説明図。Explanatory drawing which shows the 4th example of a display of a server information, and audio | voice alerting | reporting. 取得したサーバ情報をHUDにて表示した例を示す説明図。Explanatory drawing which shows the example which displayed the acquired server information by HUD.

以下、実施形態に係る情報処理装置について図面を参照して詳細に説明する。尚、各図において同一箇所については同一の符号を付す。   Hereinafter, an information processing apparatus according to an embodiment will be described in detail with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected about the same location.

図1は、実施形態に係る情報処理装置の構成を示すブロック図であり、車両用の情報処理装置を例示している。車両用情報処理装置は、ナビゲーションにかかわる情報処理部や、音楽やラジオを聴くためオーディオ機能を有する場合もあるが、本実施形態の主要部ではないため省いている。   FIG. 1 is a block diagram illustrating a configuration of an information processing apparatus according to an embodiment, and illustrates an information processing apparatus for a vehicle. The vehicle information processing apparatus may have an information processing unit related to navigation or an audio function for listening to music or radio, but is omitted because it is not a main part of this embodiment.

図1において、情報処理装置10は、プログラムを実行するCPU11、プログラムやデータを一時的に記憶するメモリ12、プログラムを保持しているROM13、地図データや音声合成用の辞書や音素データを記録しているHDDやフラッシュメモリ等の記録手段14、ナビゲーションや音楽情報を液晶画面等に表示する表示手段15、ボタンやタッチパネルを用いてユーザの指示を入力する入力手段16、音素データを基に計算で作成されたデジタル音声合成データをアナログ信号に変換して出力する音声出力手段17、車外部に設けられた情報提供サーバ20とLTE,3G回線等の方式で通信を行う通信手段18から構成される。   In FIG. 1, an information processing apparatus 10 records a CPU 11 that executes a program, a memory 12 that temporarily stores programs and data, a ROM 13 that holds programs, a map data, a dictionary for speech synthesis, and phoneme data. Calculation means based on phoneme data, recording means 14 such as HDD and flash memory, display means 15 for displaying navigation and music information on a liquid crystal screen, input means 16 for inputting user instructions using buttons and touch panel It comprises voice output means 17 for converting the generated digital voice synthesis data into an analog signal and outputting it, and communication means 18 for communicating with an information providing server 20 provided outside the vehicle by a system such as LTE or 3G line. .

表示手段15は、情報を表示するものであり、車両に備えた液晶ディスプレイやHUDが用いられる。入力手段16は、車両に設けた操作ボタン(図示せず)からの入力を検知するもので、運転者等の操作によって、各種指示を入力する。尚、入力手段16は、表示手段15のディスプレイをタッチするタッチパネル式のものでもよい。   The display means 15 displays information, and a liquid crystal display or HUD provided in the vehicle is used. The input means 16 detects an input from an operation button (not shown) provided on the vehicle, and inputs various instructions by an operation of a driver or the like. The input means 16 may be a touch panel type that touches the display of the display means 15.

音声出力手段17は、さらに音声アンプやスピーカ171(図3)を含み、例えば車両内部に取り付けたスピーカから音声を報知する。尚、以下の説明では音声合成データを処理してスピーカから報知することを「文章を読み上げる」と呼ぶことにする。   The audio output means 17 further includes an audio amplifier and a speaker 171 (FIG. 3), and notifies the audio from a speaker attached inside the vehicle, for example. In the following description, processing the voice synthesis data and notifying from the speaker will be referred to as “reading a sentence”.

本実施形態では、図1の各要素をバスで接続し1つの筐体で具現化している例を示しているが、1つ以上の機能を他の装置内に設け、有線や無線で接続し、他の装置と連携して実現する構成も考えられる。   In the present embodiment, an example is shown in which each element in FIG. 1 is connected by a bus and embodied in a single housing. However, one or more functions are provided in another device and connected by wire or wirelessly. A configuration realized in cooperation with other devices is also conceivable.

また、現在CPUの能力も高く、専用のLSIなどを使用しなくても、ソフトウェアとして実現できる。そのため実施形態では、ソフトウェアで実現する方法を記載するが、1つ以上の機能をLSI等のハードウェアに置き換え、図1の構成に加える方法も考えられる。   In addition, the CPU has a high capability at present and can be realized as software without using a dedicated LSI or the like. Therefore, in the embodiment, a method realized by software is described, but a method of replacing one or more functions with hardware such as LSI and adding it to the configuration of FIG. 1 is also conceivable.

図2は、情報処理装置10と情報提供サーバ20との間の情報のやりとりの一例を示す説明図である。情報取得は、パソコンのプログラムが行う方法と同じ方法を用いる。即ち情報提供用サーバ20(以下、単にサーバと呼ぶ)は、インターネット上のコミュニケーションサービスシステムに含まれるサーバであり、LTE,3G回線等の通信手段によってアクセスすることができる。上記のコミュニケーションサービスシステムとして、本実施形態では、米国のTwitter社が開発した「Twitter」と呼ばれるシステムを用いて説明する。   FIG. 2 is an explanatory diagram illustrating an example of information exchange between the information processing apparatus 10 and the information providing server 20. The information acquisition uses the same method as that performed by the PC program. That is, the information providing server 20 (hereinafter simply referred to as a server) is a server included in a communication service system on the Internet, and can be accessed by communication means such as an LTE or 3G line. In the present embodiment, the communication service system will be described using a system called “Twitter” developed by Twitter in the United States.

本実施形態の構成であるソフトウェアは、予め決められているURLを用いてサーバ20にアクセスを行う。そのときあわせて、情報処理装置10からユーザのID、パスワード、必要な発言の個数(N個)等の情報をサーバ20に送信する。サーバ20は、ユーザIDとパスワードで認証を行い、認証の結果が正しければ、要求された情報を車両に設けた情報処理装置10に送信する。   The software having the configuration of the present embodiment accesses the server 20 using a predetermined URL. At the same time, the information processing apparatus 10 transmits information such as the user ID, password, and the number of necessary utterances (N) to the server 20. The server 20 performs authentication with the user ID and password, and if the authentication result is correct, the server 20 transmits the requested information to the information processing apparatus 10 provided in the vehicle.

サーバ20は、送信する情報としてXMLやJSONなどの構造化した形式データを作成する。1つの発言を示すアイテム(図2に示す1個のデータ)は、発言ID、発言したユーザID、発言したユーザの画像を示す情報(URL)、発言日時、発言内容、発言内容が引用の場合は、オリジナルの発言のID等の情報が、予め決められたタグにあわせて記載されており、これらのアイテムが、要求された個数分(N個)格納された形式の情報となっている。   The server 20 creates structured format data such as XML or JSON as information to be transmitted. An item indicating one utterance (one piece of data shown in FIG. 2) includes a utterance ID, a uttered user ID, information (URL) indicating an image of the uttered user, a utterance date, a utterance content, and a utterance content. The information such as the ID of the original message is described in accordance with a predetermined tag, and these items are information in a format in which the required number (N) of items is stored.

情報処理装置10上で動作するプログラムは、受信したデータを、内部に含まれるTAGを基に解析し、1つ以上の発言データを取得し、それを記録手段14に保持する。次に各発言データの解析を行い、各発言データに対して発言者のID、 発言者の画像を示すURL、発言日時、発言内容、引用情報等の情報を取得し、記録手段14に記録する。したがって、CPU11や記録手段14は発言データ等を取得する取得手段を構成する。また音声出力手段17は、発言内容を解析し、不要な情報を取り除き音声合成用の文章を作成する文章作成手段の機能を有する。   The program operating on the information processing apparatus 10 analyzes the received data based on the TAG included therein, acquires one or more utterance data, and holds it in the recording unit 14. Next, each piece of utterance data is analyzed, and for each piece of utterance data, information such as the utterer's ID, URL indicating the utterer's image, utterance date and time, utterance content, and citation information is acquired and recorded in the recording means 14 . Therefore, the CPU 11 and the recording unit 14 constitute an acquisition unit that acquires message data and the like. The voice output unit 17 has a function of a sentence creation unit that analyzes the content of a statement, removes unnecessary information, and creates a sentence for speech synthesis.

図3は、情報処理装置10を車両に取り付け、表示手段15に情報を表示する場合の構成を示す斜視図である。表示手段15は、情報を表示するものであり、車両に備えた液晶ディスプレイ151や、HUDが用いられる。液晶ディスプレイ151には、ナビゲーション情報や、音楽再生情報、エアコン設定などの情報が表示される。HUDは、例えば車両のダッシュボードにおける運転席に対応する位置に配置されたプロジェクターであり、運転席前方のフロントガラスFGに画像を投影する。また液晶ディスプレイ151の近くにスピーカ171を設けている。   FIG. 3 is a perspective view showing a configuration when the information processing apparatus 10 is attached to a vehicle and information is displayed on the display means 15. The display means 15 displays information, and a liquid crystal display 151 provided in the vehicle or a HUD is used. The liquid crystal display 151 displays information such as navigation information, music playback information, and air conditioner settings. The HUD is a projector disposed at a position corresponding to the driver's seat on the dashboard of the vehicle, for example, and projects an image on the windshield FG in front of the driver's seat. A speaker 171 is provided near the liquid crystal display 151.

また、図3で示すように車両内に運転者が操作可能なスタートボタン161とストップボタン162を設け、スタートボタン161を押すことによりアプリケーションを起動し、サーバ20に対してアクセスを開始する。またストップボタン162を押すことでアクセスを停止する。或いは液晶ディスプレイ151にタッチパネル形式の操作ボタンを表示し、スタートボタン161とストップボタン162と同様の機能を実行できるようにしてもよい。スタートボタン161とストップボタン162は入力手段16の一部を構成する。   Further, as shown in FIG. 3, a start button 161 and a stop button 162 that can be operated by the driver are provided in the vehicle. When the start button 161 is pressed, the application is started and access to the server 20 is started. The access is stopped by pressing a stop button 162. Alternatively, a touch panel type operation button may be displayed on the liquid crystal display 151 so that the same function as the start button 161 and the stop button 162 can be executed. The start button 161 and the stop button 162 constitute part of the input means 16.

図4は、「Twitter」サービスの情報を、パソコンの画面に表示した場合の一例を示す。例では1つの書き込みのみ記載しているが、実際はこのような書き込みが複数、時系列に沿って表示される。   FIG. 4 shows an example when information of the “Twitter” service is displayed on the screen of the personal computer. In the example, only one writing is described, but actually, a plurality of such writings are displayed in time series.

図4(a)は、発言者である「tenki」が、「18日15時38分頃、択捉島南東沖にて最大震度3Mの地震が発生 」という発言と、関連情報のURLと、分類用のハッシュタグを書き込んだ例を示した図である。図4(a)では、発言者のアイコン41と発言者のID42のほかに、http://で記載された関連情報を示すURL(Uniform Resource Locator)43と、#で始まる発言内容のジャンルやテーマを示すハッシュタグ44や、ツイートと呼ばれる発言の内容50をそれぞれ示したものである。   Fig. 4 (a) shows that "tenki", the speaker, said, "A seismic earthquake with a maximum seismic intensity of 3M occurred off the southeast of Shiretaru Island at around 15:38 on March 18," URL of related information, and classification It is the figure which showed the example which wrote the hash tag for. In FIG. 4A, in addition to the speaker icon 41 and the speaker ID 42, a URL (Uniform Resource Locator) 43 indicating related information described in http: //, and the genre of the content of the message starting with # A hash tag 44 indicating a theme and a content 50 of a message called a tweet are shown.

図4(b)は、発言者ID_123がID_XYZに対して「元気ですか」と発言した例を示した図である。@の記号(45)は、ID_XYZ宛への発言を示している記号である。   FIG. 4B is a diagram illustrating an example in which the speaker ID_123 has remarked “How are you” with respect to ID_XYZ. The symbol (45) of @ is a symbol indicating a message addressed to ID_XYZ.

図4(c)は、発言者ID_123が、発言者ID_XYZの発言内容「こちらでは3日真夏日が続いています」をそのまま引用した例を示した図である。2つの矢印マーク46は、他のユーザの発言の引用を示している記号である。   FIG. 4C is a diagram showing an example in which the speaker ID_123 directly quotes the content of the speech of the speaker ID_XYZ “here, the 3rd summer day continues”. The two arrow marks 46 are symbols indicating quotations from other users.

図4(d)は、発言者ID_123の発言内容「今日も暑いですね」を引用し、それに対して「東京も暑いです」と発言した例を示した図である。RTの記号47は他の発言内容の引用を示している記号であるが、図4(c)の記号46と異なり、引用だけでなく、引用に対する発言を有する場合に用いられる。   FIG. 4D is a diagram showing an example in which the content of the speaker ID_123 is quoted as “Today it is hot” and “Tokyo is also hot”. The symbol 47 of RT is a symbol indicating citation of other utterance contents. However, unlike the symbol 46 of FIG. 4C, the symbol 47 of RT is used when not only citation but also utterance with respect to citation.

ところで、図4に示す情報には、ユーザIDや、検索用キーワード等の略語、他の情報にアクセスするための識別子等が含まれているため、音声合成手段を使用して、文章をそのまま読み上げても内容を理解することは困難である。特にユーザIDは、音声合成で読み上げできないような、文字や記号が多用されており、音声に変わる方法が必要とされる。   By the way, since the information shown in FIG. 4 includes a user ID, an abbreviation such as a search keyword, an identifier for accessing other information, etc., the text is read as it is by using speech synthesis means. However, it is difficult to understand the contents. In particular, the user ID uses a lot of characters and symbols that cannot be read out by speech synthesis, and requires a method of changing to speech.

このため、本実施形態ではサーバ20から取得した情報を解析し、発言したユーザ、発言の対象となるユーザ、文章の内容を、運転手の注意を運転からそらせないで伝えるようにした点に特徴がある。以下、具体的に説明する。   For this reason, this embodiment is characterized in that the information acquired from the server 20 is analyzed, and the user who made the statement, the user who is the subject of the statement, and the content of the sentence are conveyed without diverting the driver's attention from driving. There is. This will be specifically described below.

図5は、通信手段18で取得したサーバ情報を処理して、表示手段15に表示される画像の表示例と、音声合成により読み上げられる内容を示した説明図である。図5では、ナビゲーション用の画像30を表示し、かつサーバ情報40をナビゲーション画像30に重ねて表示している。ナビゲーション画像30としては、車両の進行方向をガイドする矢印を表示した例を示している。またサーバ情報40としては、例えば発言者の画像データ(アイコン)41と、発言者の識別情報であるID42を含む。また、図5では便宜上、音声による報知内容を点線枠50内にて示している。   FIG. 5 is an explanatory diagram showing a display example of an image displayed on the display unit 15 by processing the server information acquired by the communication unit 18 and contents read out by speech synthesis. In FIG. 5, the navigation image 30 is displayed and the server information 40 is displayed superimposed on the navigation image 30. As the navigation image 30, an example is shown in which an arrow for guiding the traveling direction of the vehicle is displayed. The server information 40 includes, for example, an image data (icon) 41 of a speaker and an ID 42 which is identification information of the speaker. Further, in FIG. 5, for the sake of convenience, the content of notification by voice is shown in a dotted frame 50.

尚、図5に示す例では、特定の発言者が発言した内容を、発言者のアイコン41と発言者のID42を表示する例を示したが、音声による報知内容や表示内容は、他の形態も種々考えられる。さらに、本例では、ナビゲーション画像30にサーバ情報40を重ねて表示しているが、音楽やラジオのプレーヤ画面に重ねて表示したり、サーバ情報40を単体で表示してもよい。   In the example shown in FIG. 5, an example in which a speaker's icon 41 and a speaker's ID 42 are displayed for the content that a specific speaker has spoken is shown. Various are also conceivable. Furthermore, in this example, the server information 40 is displayed superimposed on the navigation image 30, but may be displayed superimposed on a music or radio player screen, or the server information 40 may be displayed alone.

即ち、実施形態では、サーバ20から取得した発言データの解析結果を基に、発言したユーザのIDとユーザの画像(アイコン)を表示手段15に表示し、さらに発言内容の情報を解析して、読み上げる内容と、表示画面に表示する内容を制御する。   That is, in the embodiment, based on the analysis result of the utterance data acquired from the server 20, the utterance user ID and the user image (icon) are displayed on the display unit 15, and the utterance content information is further analyzed. Control what is read and what is displayed on the display screen.

発言内容の解析は、以下のような手順で行う。最初に、発言内容を、「、」「 」などの記号で複数のデータに分割する。次に、分割された各データが、予め定めた特殊記号や特殊文字、例えば、http://、@、#、RT,QTなどを含んでいるか検査し、特殊文字を含んでいた場合は、文字に応じて以下の処理を行う。   The contents of the statement are analyzed in the following procedure. First, the content of a statement is divided into a plurality of data using symbols such as “,” “”. Next, it is checked whether each divided data includes a predetermined special symbol or special character, for example, http: //, @, #, RT, QT, etc. The following processing is performed according to the character.

http://の場合は、関連情報を取得するための情報を示しており、読み上げに適した情報でなないため、http://を含んだデータは削除する。@の場合は、以下に続く文字をIDとするユーザへの発言を示しており、このID情報は表示用データとして使用するため削除する。また#以下に続く文字は、検索に用いられるキーワードを示しており、読み上げに適した情報でなないため、#を含んだデータを削除する。RTやQTは、以下の文章が引用であることを示す記号であり、この場合は、RT,QTの文字を削除するだけでなく、RT,QTの後のデータを、RT,QTの前のデータよりも先に読み上げるようにする。   In the case of http: //, it shows information for acquiring related information, and it is not information suitable for reading, so data including http: // is deleted. In the case of @, a message to the user having the following characters as an ID is shown, and this ID information is deleted for use as display data. Also, the characters following the # indicate keywords used for the search, and are not information suitable for reading, so data including # is deleted. RT and QT are symbols indicating that the following sentences are citations. In this case, not only the characters RT and QT are deleted, but also the data after RT and QT is replaced with the data before RT and QT. Read ahead of the data.

また、上記の特殊記号を含まないデータでも、読み上げに不適当な記号、例えば「」、{}、()等は削除する。こうして、発言した内容の読み上げをルール化し、読み上げに不要な部分を削除して読み上げ文章を作成することにより、サーバ情報の聞き取りが容易になる。   Even for data not including the special symbols, symbols inappropriate for reading, such as “”, {}, (), etc. are deleted. In this way, it becomes easy to listen to the server information by making a rule for reading out the content that has been spoken and deleting a portion unnecessary for reading to create a reading sentence.

図4(a)の場合、発言内容は、「18日15時38分頃、択捉島南東沖にて最大震度3Mの地震が発生 。(http://www.tenki/index.html)#tenki#saigai」であるが、上記ルール適応後は、図5に示すように「18日15時38分頃、択捉島南東沖にて最大震度3Mの地震が発生」という、読み上げ文章50となり、これを音声合成モジュールに渡すことにより、音声データを作成し、音声出力手段17から出力する。また、表示手段15に発言者の画像データ(アイコン)41と発言者のID42を表示する。発言者のアイコン41と発言者のID42は、音声合成の発話開始前から発話終了後までの時間に同期して表示する。   In the case of Fig. 4 (a), the content of the remark is "At about 15:38 on the 18th, an earthquake with a maximum seismic intensity of 3M occurred off the southeast of Etorofu Island. (Http: //www.tenki/index.html) #tenki “#Saigai”, but after applying the above rule, as shown in FIG. 5, a reading sentence 50 reads, “A seismic intensity of 3M occurred off the southeast of Teppetsu Island at around 15:38 on March 18,” Is sent to the speech synthesis module to create speech data and output it from the speech output means 17. The display unit 15 displays the speaker image data (icon) 41 and the speaker ID 42. The speaker icon 41 and the speaker ID 42 are displayed in synchronization with the time from the start of speech synthesis speech to the end of speech.

尚、同一者の発言が続く場合は、アイコンとIDを一旦消去し、一定時間のインターバルの後、同一者のアイコとンIDを表示するとよい。これにより別の発言であることを運転手に明示的に通知することができる。   If the same person continues to speak, the icon and ID may be temporarily deleted, and the icon and ID of the same person may be displayed after a certain time interval. In this way, the driver can be explicitly notified that it is another statement.

このように実施形態によれば、情報提供用のサーバ20から収集した情報を音声に変換して出力することができ、IDや記号等の読み上げ不要な情報は割愛して読み上げるため、発言内容を容易に理解することができる。   As described above, according to the embodiment, the information collected from the information providing server 20 can be converted into sound and output, and information that is not necessary to be read out such as IDs and symbols is omitted and read out. Easy to understand.

以下、図6〜図8を参照して、サーバ情報(発言者のアイコン41と発言者のID42)の他の表示例及び音声報知の例を説明する。図6〜図8では、表示手段にサーバ情報を単体で表示する場合を示す。   Hereinafter, another display example of the server information (the speaker icon 41 and the speaker ID 42) and an example of voice notification will be described with reference to FIGS. 6 to 8 show a case where the server information is displayed alone on the display means.

図4(b)ように、発言者の発言が、特定のIDを有する人に向けて行われる場合は、発言内容は、「@ID_XYZ 元気ですか」であるが、上記ルール適応後は、図6に示すように「元気ですか」という読み上げ文章になる。また、発言内容に含まれる、ID_XYZは、発言の対処者のIDとして取り扱う。これにより、図6に示すように、発言者のアイコンとID、特定者向けの発話であることを示すアイコン(例えば矢印)と組み合わせて表示することにより、誰から誰への発言か容易に理解することが可能となる。   As shown in FIG. 4B, when the speaker's speech is directed toward a person having a specific ID, the content of the speech is “@ID_XYZ, how are you”? As shown in FIG. 6, the text reads “How are you?” Further, ID_XYZ included in the content of the speech is handled as the ID of the person who handles the speech. As a result, as shown in FIG. 6, by displaying in combination with the icon and ID of the speaker, and an icon (for example, an arrow) indicating that the speech is for a specific person, it is easy to understand who to whom. It becomes possible to do.

図4(c)のようにID_XYZの発言内容をそのまま引用している場合、上記ルール適応後は、図7に示すように、「こちらでは3日真夏日が続いています」という読み上げ文章になる。また、画面には、引用したユーザのIDであるID_123と、引用を示す矢印マークと、引用された発言をしたユーザのアイコンとユーザID(ID_XYZ)を表示する。これにより、誰が誰の発言を引用したのか、容易に理解できる。   When the content of the ID_XYZ statement is quoted as shown in FIG. 4 (c), after the above rule adaptation, as shown in FIG. . Also, ID_123, which is the ID of the quoted user, an arrow mark indicating the quote, the icon of the user who made the quoted statement, and the user ID (ID_XYZ) are displayed on the screen. This makes it easy to understand who quoted who said.

図4(d)のように他の人の発言を引用して、それに対して発言している場合、発言内容は、「東京も暑いです RT@ID_123 今日も暑いですね」であるが、上記ルール適応後は、ID_A10の発言である「東京も暑いです」とID_123の発言である「今日も暑いですね」という2つとデータとして扱う。また読み上げ順も変更し、図8(a)のように、ID_123のIDを最初に画面に表示し、「今日も暑いですね」を音声合成で読み上げる。読み上げ終了後、図8(b)のように、ID_A10のアイコンとID、及びID_123への発言を示す矢印、ID_123を画面に表示し、「東京も暑いです」を音声合成で読み上げる。   As shown in Fig. 4 (d), when you quote another person's remarks and speak against them, the remarks are "Tokyo is hot RT @ ID_123 It's hot today" After the rule is applied, the data is treated as two data, “Tokyo is too hot” which is a statement of ID_A10 and “Today is also hot” which is a statement of ID_123. Also, the reading order is changed, and as shown in FIG. 8A, the ID_123 ID is first displayed on the screen, and “Today is hot today” is read out by voice synthesis. After the completion of reading, as shown in FIG. 8B, the ID_A10 icon and ID, an arrow indicating the message to ID_123, and ID_123 are displayed on the screen, and “Tokyo is too hot” is read out by voice synthesis.

このように発言情報を提示することで、他人の引用への発言という、複雑な発言でも、運転手は,容易に内容を把握することが可能となる。   By presenting the remark information in this way, the driver can easily grasp the content even with complicated remarks such as remarks made by others.

図9は、HUDを用いて車両のフロントガラスFGに、図6のサーバ情報40を表示した例を示している。サーバ情報40としては、例えば発信者のアイコンと発信者のIDなどを表示する。また同時に発信者の情報50を音声により報知する。HUDを用いた場合、運転者の視界(実景)にサーバ情報40が重なって表示される。このため、サーバ情報40は運転の支障にならないように、運転者の視線の位置よりも低い位置に表示する。   FIG. 9 shows an example in which the server information 40 of FIG. 6 is displayed on the windshield FG of the vehicle using the HUD. As the server information 40, for example, a caller icon and a caller ID are displayed. At the same time, the caller information 50 is notified by voice. When the HUD is used, the server information 40 is displayed so as to overlap the driver's field of view (actual scene). For this reason, the server information 40 is displayed at a position lower than the position of the driver's line of sight so as not to hinder driving.

以上述べたように本発明の実施形態によれば、サーバから取得した発言データを解析し、発言内容から、読み上げても内容を理解できない情報を削除することで、読み上げた内容を容易に理解することができる。また、発言者の画像や、IDだけでなく、発言相手のIDや、その人向けの発言である記号、引用を示す記号を画面に表示することで、音声だけでは伝えにくい内容を容易に理解することが可能となる。さらに、引用への発言の場合、読み上げる順番を変更し、話の流れが理解できるようになる。   As described above, according to the embodiment of the present invention, the speech data acquired from the server is analyzed, and information that cannot be understood even if it is read out is deleted from the speech content, so that the content read out can be easily understood. be able to. Also, not only the image of the speaker and the ID, but also the ID of the other party, the symbol for the person, and the citation symbol are displayed on the screen, making it easy to understand content that is difficult to convey by voice alone. It becomes possible to do. In addition, in the case of utterances to quotes, the order of reading is changed so that the flow of the story can be understood.

また以上の説明に限定されることなく、特許請求の範囲を逸脱しない範囲で種々の変形が可能である。   The present invention is not limited to the above description, and various modifications can be made without departing from the scope of the claims.

10…情報処理装置
11…CPU
12…メモリ
13…ROM
14…記録手段
15…表示手段
16…入力手段
17…音声出力手段
18…通信手段
20…情報提供用のサーバ
10 ... Information processing apparatus 11 ... CPU
12 ... Memory 13 ... ROM
14 ... Recording means 15 ... Display means 16 ... Input means 17 ... Audio output means 18 ... Communication means 20 ... Information providing server

Claims (9)

情報提供用のサーバにアクセスし、前記サーバからの情報を取得する通信手段と、
前記通信手段で取得した情報を解析して1つ以上の発言データを取得し、かつ、各発言データから発言者の識別情報と発言者の画像を示す情報、及び発言内容を取得する取得手段と、
前記発言者の画像を示す情報から発言者の画像データを取得し、前記発言者の識別情報とあわせて表示する表示手段と、
前記発言内容を解析し、不要な情報を取り除き音声合成用の文章を作成する文章作成手段と、
前記文章作成手段で作成した文章を音声合成により報知する報知手段と、
を具備する情報処理装置。
Communication means for accessing a server for providing information and obtaining information from the server;
An acquisition means for analyzing the information acquired by the communication means to acquire one or more utterance data, and acquiring information indicating the identification information of the utterer and an image of the utterer, and the utterance content from each utterance data; ,
Display means for obtaining the image data of the speaker from the information indicating the image of the speaker, and displaying it together with the identification information of the speaker;
Analyzing the content of the statement, removing unnecessary information and creating a sentence for speech synthesis;
Informing means for informing the sentence created by the sentence creating means by speech synthesis;
An information processing apparatus comprising:
前記表示手段は、発言者の識別情報と前記発言者の画像データを、ナビゲーション情報又は音楽プレーヤ画面を含む他の情報に重ねて表示することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display unit displays the identification information of the speaker and the image data of the speaker over the navigation information or other information including a music player screen. 前記表示手段は、車両のフロントガラスに画像を投影表示するヘッドアップディスプレイを含み、前記発言者の識別情報と前記発言者の画像データを前記フロントガラスに投影表示することを特徴とする請求項1記載の情報処理装置。   The display means includes a head-up display that projects and displays an image on a windshield of a vehicle, and projects and displays the identification information of the speaker and the image data of the speaker on the windshield. The information processing apparatus described. 前記音声合成出力の報知開始から報知終了までの時間に同期して、前記発言者の識別情報と前記発言者の画像データを表示することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the identification information of the speaker and the image data of the speaker are displayed in synchronization with a time from the start of notification of the speech synthesis output to the end of notification. 同一者の発言が続く場合は、前記発言者の識別情報と前記発言者の画像データを一旦消去し、一定時間のインターバルの後、前記発言者の識別情報と前記発言者の画像データを新たな音声合成出力の報知と同期して表示することを特徴とする請求項1記載の情報処理装置。   When the same person's speech continues, the identification information of the speaker and the image data of the speaker are once deleted, and after a certain time interval, the identification information of the speaker and the image data of the speaker are newly updated. The information processing apparatus according to claim 1, wherein the information processing apparatus displays the information in synchronization with the notification of the speech synthesis output. 前記文章作成手段は、前記不要な情報を取り除く際に、発言内容が特定識別情報を有する人物宛と判断した場合は、前記人物の識別情報を削除して音声合成の文章を作成し、
前記表示手段に前記人物の識別情報と、特定人物への発言を示す記号と、前記発言者の識別情報及び前記発言者の画像データを表示することを特徴とする請求項1記載の情報処理装置。
The sentence creation means, when removing the unnecessary information, if it is determined that the utterance content is addressed to a person having specific identification information, deletes the person identification information and creates a speech synthesis sentence,
2. The information processing apparatus according to claim 1, wherein the display means displays the identification information of the person, a symbol indicating a speech to a specific person, the identification information of the speaker, and the image data of the speaker. .
前記取得手段は、前記取得した発言を解析する際に、発言内容が他者の引用と判断した場合には、引用もとの発言者の識別情報及びその発言者の画像を示す情報を取得し、
前記表示手段に、前記引用した発言者の識別情報と、引用を示す記号と、引用もとの発言者の識別情報と、前記引用もとの発言者の画像データを表示することを特徴とする請求項1記載の情報処理装置。
When the acquisition unit analyzes the acquired statement and determines that the content of the statement is a quote from another person, the acquisition unit acquires identification information of the original speaker and information indicating the image of the speaker. ,
The display means displays the identification information of the cited speaker, a symbol indicating the quotation, identification information of the original speaker, and image data of the original speaker. The information processing apparatus according to claim 1.
前記文章作成手段は、前記不要な情報を取り除く際に、発言内容が他者の発言内容を引用したものに発言していると判断した場合には、引用された発言内容から音声合成の文章を作成し先に音声合成により報知することを特徴とする請求項1記載の情報処理装置。   The sentence creation means, when removing the unnecessary information, if it is determined that the utterance content is uttered in the quoted content of the other person's utterance content, the speech synthesis text is extracted from the quoted utterance content. The information processing apparatus according to claim 1, wherein the information processing apparatus is informed and notified by voice synthesis. 前記文章作成手段は、少なくとも、関連情報を取得するためのURL 、キーワードを示すハッシュタグ、引用記号を判別し、読み上げ不要な情報として除去することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the sentence creating unit discriminates at least a URL for acquiring related information, a hash tag indicating a keyword, and a quotation mark, and removes it as unnecessary information to be read out.
JP2010213394A 2010-09-24 2010-09-24 Information processing device Expired - Fee Related JP5743471B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010213394A JP5743471B2 (en) 2010-09-24 2010-09-24 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010213394A JP5743471B2 (en) 2010-09-24 2010-09-24 Information processing device

Publications (2)

Publication Number Publication Date
JP2012068910A true JP2012068910A (en) 2012-04-05
JP5743471B2 JP5743471B2 (en) 2015-07-01

Family

ID=46166114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010213394A Expired - Fee Related JP5743471B2 (en) 2010-09-24 2010-09-24 Information processing device

Country Status (1)

Country Link
JP (1) JP5743471B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020009249A (en) * 2018-07-10 2020-01-16 Line株式会社 Information processing method, information processing device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133853A (en) * 1996-10-29 1998-05-22 Nippon Telegr & Teleph Corp <Ntt> Method and device for rewriting electronic mail
JP2003214865A (en) * 2002-01-28 2003-07-30 Nippon Seiki Co Ltd Displaying method of display device
JP2007241321A (en) * 2004-03-05 2007-09-20 Nec Corp Message transmission system, message transmission method, reception device, transmission device and message transmission program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133853A (en) * 1996-10-29 1998-05-22 Nippon Telegr & Teleph Corp <Ntt> Method and device for rewriting electronic mail
JP2003214865A (en) * 2002-01-28 2003-07-30 Nippon Seiki Co Ltd Displaying method of display device
JP2007241321A (en) * 2004-03-05 2007-09-20 Nec Corp Message transmission system, message transmission method, reception device, transmission device and message transmission program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6014037551; つぶやきを読み上げるiPhoneアプリに惚れた!,[online] , 20100430 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020009249A (en) * 2018-07-10 2020-01-16 Line株式会社 Information processing method, information processing device, and program
JP7179512B2 (en) 2018-07-10 2022-11-29 Line株式会社 Information processing method, information processing device, and program

Also Published As

Publication number Publication date
JP5743471B2 (en) 2015-07-01

Similar Documents

Publication Publication Date Title
US11917107B2 (en) System and method for processing voicemail
US10522146B1 (en) Systems and methods for recognizing and performing voice commands during advertisement
US10553209B2 (en) Systems and methods for hands-free notification summaries
US9053096B2 (en) Language translation based on speaker-related information
US10496753B2 (en) Automatically adapting user interfaces for hands-free interaction
CN108337380B (en) Automatically adjusting user interface for hands-free interaction
KR101894499B1 (en) State-dependent query response
US9143603B2 (en) Methods and arrangements employing sensor-equipped smart phones
US9245254B2 (en) Enhanced voice conferencing with history, language translation and identification
US8934652B2 (en) Visual presentation of speaker-related information
US8335496B1 (en) Playing local device information over a telephone connection
US20140081634A1 (en) Leveraging head mounted displays to enable person-to-person interactions
US9661133B2 (en) Electronic device and method for extracting incoming/outgoing information and managing contacts
TW200809769A (en) Sharing voice application processing via markup
KR20130081176A (en) Mobile terminal and mothod for controling of the same
US20120109759A1 (en) Speech recognition system platform
US11282523B2 (en) Voice assistant management
WO2014154097A1 (en) Automatic page content reading-aloud method and device thereof
US11244682B2 (en) Information processing device and information processing method
WO2015102082A1 (en) Terminal device, program, and server device for providing information according to user data input
WO2022111206A1 (en) Audio and text synchronization method and apparatus, readable medium, and electronic device
WO2019000881A1 (en) Method, apparatus and device for navigation, and computer-readable storage medium
US20130337853A1 (en) System and method for interacting with a mobile communication device
US9167394B2 (en) In-vehicle messaging
JP5743471B2 (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150306

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150428

R150 Certificate of patent or registration of utility model

Ref document number: 5743471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees