JP2020150550A - Audio reproduction apparatus and vehicle - Google Patents

Audio reproduction apparatus and vehicle Download PDF

Info

Publication number
JP2020150550A
JP2020150550A JP2020083226A JP2020083226A JP2020150550A JP 2020150550 A JP2020150550 A JP 2020150550A JP 2020083226 A JP2020083226 A JP 2020083226A JP 2020083226 A JP2020083226 A JP 2020083226A JP 2020150550 A JP2020150550 A JP 2020150550A
Authority
JP
Japan
Prior art keywords
voice
information
terminal devices
vehicle
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020083226A
Other languages
Japanese (ja)
Inventor
勉 足立
Tsutomu Adachi
勉 足立
丈誠 横井
Takemasa Yokoi
丈誠 横井
林 茂
Shigeru Hayashi
茂 林
健純 近藤
Takeyoshi Kondo
健純 近藤
辰美 黒田
Tatsumi Kuroda
辰美 黒田
大介 毛利
Daisuke Mori
大介 毛利
豪生 野澤
Takeo Nozawa
豪生 野澤
謙史 竹中
Kenji Takenaka
謙史 竹中
博司 前川
Hiroshi Maekawa
博司 前川
毅 川西
Takeshi Kawanishi
毅 川西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADC Technology Inc
Original Assignee
ADC Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADC Technology Inc filed Critical ADC Technology Inc
Publication of JP2020150550A publication Critical patent/JP2020150550A/en
Priority to JP2021119653A priority Critical patent/JP2021185664A/en
Priority to JP2022002379A priority patent/JP7301274B2/en
Priority to JP2022208636A priority patent/JP2023052086A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/72Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0265Vehicular advertisement
    • G06Q30/0266Vehicular advertisement based on the position of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6075Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones

Abstract

To provide a communication system capable of safely transmitting and receiving outgoing content such as content desired to tweet even when a user has difficulty in operating or visually recognizing a terminal device, and provide the terminal device.SOLUTION: A communication system includes a plurality of terminal devices capable of communicating with each other. Each terminal device includes voice input conversion means, voice transmission means, voice reception means, and voice reproduction means. When there are a plurality of voice signals reproduction of which is not completed, the voice reproduction means arranges voices so that the voices corresponding to the voice signals do not overlap and performs reproduction.SELECTED DRAWING: Figure 10C

Description

関連出願の相互参照Cross-reference of related applications

本国際出願は、2011年12月14日に日本国特許庁に出願された日本国特許出願第2011−273578号および日本国特許出願第2011−273579号、並びに、2012年3月28日に日本国特許庁に出願された日本国特許出願第2012−074627号および日本国特許出願第2012−074628号に基づく優先権を主張するものであり、日本国特許出願第2011−273578号、第2011−273579号、第2012−074627号、および第2012−074628号の全内容を参照により本国際出願に援用する。 This international application is filed with Japanese Patent Application No. 2011-273578 and Japanese Patent Application No. 2011-273579 filed with the Japanese Patent Office on December 14, 2011, and Japan on March 28, 2012. It claims priority based on Japanese Patent Application No. 2012-074627 and Japanese Patent Application 2012-0746228 filed with the National Patent Office, and Japanese Patent Application Nos. 2011-273578 and 2011-. The entire contents of Nos. 273579, 2012-0746227, and 2012-0746228 are incorporated herein by reference.

本発明は、複数の端末装置を備えた通信システム、および端末装置に関する。 The present invention relates to a communication system including a plurality of terminal devices and a terminal device.

多数のユーザが携帯電話等の端末装置を用いて、つぶやきたい内容等の発信内容を文字でそれぞれ入力すると、サーバがその発信内容を順に並べた状態で各端末装置に配信するシステムが知られている(例えば、特許文献1参照)。 A system is known in which a large number of users use a terminal device such as a mobile phone to input transmission contents such as the content to be tweeted in characters, and the server distributes the transmission contents to each terminal device in order. (See, for example, Patent Document 1).

特開2011−215861号公報Japanese Unexamined Patent Publication No. 2011-215861

端末装置の操作や視認が困難なユーザであってもつぶやきたい内容等の発信内容を安全に送受信できることが好ましい。 It is preferable that even a user who has difficulty in operating or visually recognizing the terminal device can safely send and receive the transmitted contents such as the contents to be tweeted.

本発明の1つの局面は、
互いに通信可能な複数の端末装置を備えた通信システムであって、
各端末装置は、
ユーザが音声を入力すると該音声を音声信号に変換する音声入力変換手段と、
前記音声信号を他の端末装置を含む装置に送信する音声送信手段と、
他の端末装置にて送信された音声信号を受信する音声受信手段と、
受信した音声信号を再生する音声再生手段と、
を備え、
前記音声再生手段は、再生が完了していない複数の音声信号が存在する場合、各音声信号に対応する音声が重複しないように整列させてから再生する。
One aspect of the present invention is
A communication system equipped with a plurality of terminal devices capable of communicating with each other.
Each terminal device
A voice input conversion means that converts the voice into a voice signal when the user inputs the voice,
A voice transmission means for transmitting the voice signal to a device including another terminal device,
A voice receiving means for receiving a voice signal transmitted by another terminal device, and
Audio reproduction means for reproducing the received audio signal,
With
When there are a plurality of audio signals whose reproduction has not been completed, the audio reproduction means arranges the audio signals corresponding to the respective audio signals so that they do not overlap, and then reproduces the audio signals.

また、本発明の別の局面は、
複数の端末装置と前記複数の端末装置のそれぞれと通信可能なサーバ装置とを備えた通信システムであって、
各端末装置は、
ユーザが音声を入力すると該音声を音声信号に変換する音声入力変換手段と、
前記音声信号を前記サーバ装置に送信する音声送信手段と、
前記サーバ装置にて送信された音声信号を受信する音声受信手段と、
受信した音声信号を再生する音声再生手段と、
を備え、
前記サーバ装置は、
前記複数の端末装置から送信された音声信号を受信し、各音声信号に対応する音声が重複しないように整列させてから前記複数の端末装置に対して音声信号を配信する配信手段を備えている。
In addition, another aspect of the present invention is
A communication system including a plurality of terminal devices and a server device capable of communicating with each of the plurality of terminal devices.
Each terminal device
A voice input conversion means that converts the voice into a voice signal when the user inputs the voice,
A voice transmission means for transmitting the voice signal to the server device, and
A voice receiving means for receiving a voice signal transmitted by the server device, and
Audio reproduction means for reproducing the received audio signal,
With
The server device
It is provided with a distribution means that receives voice signals transmitted from the plurality of terminal devices, arranges the voices corresponding to the voice signals so as not to overlap, and then distributes the voice signals to the plurality of terminal devices. ..

これらのような通信システムによれば、音声で発信内容を入力し、音声で他の通信装置からの発信内容を再生することができるので、端末装置の操作や視認が困難なユーザであってもつぶやきたい内容等の発信内容を安全に送受信することができる。 According to a communication system such as these, it is possible to input the transmission content by voice and reproduce the transmission content from another communication device by voice, so that even a user who has difficulty in operating or visually recognizing the terminal device can use it. It is possible to safely send and receive outgoing content such as the content you want to tweet.

また、これらのような通信システムでは、音声を再生する際に、音声が重複しないように再生することができるので、音声を聞きやすくすることができる。
また、上記いずれの通信システムにおいても、音声再生手段は、ユーザによる特定の指令を受けると、既に再生した音声信号を再度再生するようにしてもよい。特に、直前に再生した音声信号を再生してもよい。
Further, in a communication system such as these, when the voice is reproduced, the voice can be reproduced so as not to be duplicated, so that the voice can be easily heard.
Further, in any of the above communication systems, the voice reproduction means may re-play the already reproduced voice signal when receiving a specific command from the user. In particular, the audio signal reproduced immediately before may be reproduced.

このような通信システムによれば、騒音等によって聞き取れなかった音声信号をユーザの指令により再度再生することができる。
さらに、上記いずれの通信システムにおいても、端末装置は車両に搭載されてもよく、端末装置は、車両のハンドル上にあるユーザの手の動きを検出する動作検出手段と、動作検出手段により音声の入力を開始する開始特定動作を検出した場合に、音声入力変換手段に作動を開始させ、動作検出手段により音声の入力を終了する終了特定動作を検出した場合に、音声入力変換手段に作動を終了させる作動制御手段と、を備えていてもよい。
According to such a communication system, an audio signal that cannot be heard due to noise or the like can be reproduced again according to a user command.
Further, in any of the above communication systems, the terminal device may be mounted on the vehicle, and the terminal device includes motion detecting means for detecting the movement of the user's hand on the handle of the vehicle and voice by the motion detecting means. Start input Start When a specific action is detected, the voice input conversion means starts the operation, and the motion detection means ends the voice input. End When a specific action is detected, the voice input conversion means ends the operation. The operation control means for causing the operation may be provided.

このような通信システムによれば、音声を入力するための操作をハンドル上で行うことができる。よって、車両の運転中のユーザがより安全に音声を入力することができる。
また、上記いずれの通信システムにおいても、開始特定動作、および終了特定動作は、クラクションを操作する際の操作方向とは異なる方向の手の動きであってもよい。
According to such a communication system, an operation for inputting voice can be performed on the steering wheel. Therefore, the user who is driving the vehicle can input the voice more safely.
Further, in any of the above communication systems, the start specific operation and the end specific operation may be movements of the hand in a direction different from the operation direction when operating the horn.

このような通信システムによれば、開始特定動作または終了特定動作の際に、クラクションが鳴らされることを抑制することができる。
次に、端末装置は、上記のいずれかの通信システムを構成する端末装置として構成されていてもよい。
According to such a communication system, it is possible to suppress the sounding of the horn during the start specific operation or the end specific operation.
Next, the terminal device may be configured as a terminal device constituting any of the above communication systems.

このような端末装置によれば、上記のいずれかの通信システムと同様の効果を享受することができる。
なお、上記通信システム(端末装置)においては、音声送信手段は、ユーザによって入力された音声信号に、該ユーザを識別するための識別情報を音声で付加した新たな音声信号を生成し、該生成した音声信号を送信するようにしてもよい。
According to such a terminal device, the same effect as that of any of the above communication systems can be enjoyed.
In the above communication system (terminal device), the voice transmission means generates a new voice signal in which identification information for identifying the user is added by voice to the voice signal input by the user, and the generation is performed. The voice signal may be transmitted.

また、複数の端末装置と複数の端末装置のそれぞれと通信可能なサーバ装置とを備えた通信システムにおいては、配信手段は、ユーザによって入力された音声信号に、該ユーザを識別するための識別情報を音声で付加した新たな音声信号を生成し、該生成した音声信号を配信するようにしてもよい。 Further, in a communication system including a plurality of terminal devices and a server device capable of communicating with each of the plurality of terminal devices, the distribution means uses identification information for identifying the user in a voice signal input by the user. A new voice signal to which is added by voice may be generated, and the generated voice signal may be distributed.

これらのような通信システムによれば、音声で発信内容を入力し、音声で他の通信装置からの発信内容を再生することができるので、端末装置の操作や視認が困難なユーザであってもつぶやきたい内容等の発信内容を安全に送受信することができる。 According to a communication system such as these, it is possible to input the transmission content by voice and reproduce the transmission content from another communication device by voice, so that even a user who has difficulty in operating or visually recognizing the terminal device can use it. It is possible to safely send and receive outgoing content such as the content you want to tweet.

また、これらのような通信システムでは、ユーザを識別するための識別情報を音声で付加することができるので、ユーザは自身の識別情報を話すことなく、他のユーザに音声発
信元のユーザを通知することができる。
Further, in a communication system such as these, identification information for identifying a user can be added by voice, so that the user notifies another user of the user of the voice originator without speaking his / her own identification information. can do.

さらに、上記いずれかの通信システムにおいて、付加する識別情報としては、ユーザの本名であってもよいし、本名以外のニックネームであってもよい。また、通信態様に応じて識別情報として追加する内容(例えば、本名、第1のニックネーム、第2のニックネーム等)を変更するようにしてもよい。例えば、互いに自身を特定するための情報を事前に交換しておき、通信相手が予め登録された相手であるか否かによって、追加する識別情報を変更すればよい。 Further, in any of the above communication systems, the identification information to be added may be the real name of the user or a nickname other than the real name. Further, the content to be added as the identification information (for example, the real name, the first nickname, the second nickname, etc.) may be changed according to the communication mode. For example, information for identifying themselves may be exchanged in advance, and the identification information to be added may be changed depending on whether or not the communication partner is a pre-registered partner.

また、上記いずれかの通信システムにおいては、音声信号の再生前に、音声信号から該音声信号に含まれる予め設定されたキーワードを抽出するキーワード抽出手段と、音声信号に含まれるキーワードを別の単語の音声または予め設定された音に置き換える音声置換手段と、を備えていてもよい。 Further, in any of the above communication systems, a keyword extraction means for extracting a preset keyword included in the voice signal from the voice signal and another word for the keyword included in the voice signal before reproducing the voice signal. A voice replacement means for replacing the voice or a preset sound may be provided.

このような通信システムによれば、配信するには好ましくない単語(卑猥な単語や人名を示す単語、或いは野蛮な単語等)をキーワードに登録し、配信してもよい単語や音に置換して配信を行うことができる。 According to such a communication system, words that are not preferable for distribution (obscene words, words indicating personal names, barbaric words, etc.) are registered as keywords and replaced with words or sounds that may be distributed. Can be delivered.

なお、例えば、通信相手等の条件によって音声置換手段を作動させたり作動させなかったりしてもよい。また、「あのー」や「えーっと」等、話し言葉特有の意味のない単語については、この単語を省略した音声信号を生成するようにしてもよい。この場合、省略した分だけ音声信号の再生時間を短縮することができる。 Note that, for example, the voice replacement means may or may not be activated depending on the conditions of the communication partner and the like. In addition, for words that have no meaning peculiar to spoken words, such as "ah" and "um", an audio signal may be generated by omitting these words. In this case, the reproduction time of the audio signal can be shortened by the amount omitted.

また、上記いずれかの通信システムにおいては、各端末装置は、自身の位置情報を取得し、該位置情報を自身の端末装置から送信する音声信号に対応付けて他の端末装置に対して送信する位置情報送信手段と、他の端末装置にて送信された位置情報を取得する位置情報取得手段と、再生される音声に対応する端末装置の位置と自身の端末装置の位置との位置関係に応じて、音声再生手段によって音声を再生する際に出力される音量を制御する音量制御手段と、を備えていてもよい。 Further, in any of the above communication systems, each terminal device acquires its own position information and transmits the position information to another terminal device in association with a voice signal transmitted from its own terminal device. Depending on the positional relationship between the position information transmitting means, the position information acquiring means for acquiring the position information transmitted by another terminal device, the position of the terminal device corresponding to the reproduced voice, and the position of the own terminal device. Further, it may be provided with a volume control means for controlling the volume output when the voice is reproduced by the voice reproduction means.

このような通信システムによれば、再生される音声に対応する端末装置の位置と自身の端末装置の位置との位置関係に応じて音量を制御するので、音声を聞くユーザは、他の端末装置と自身の端末装置との位置関係を感覚的に把握することができる。 According to such a communication system, the volume is controlled according to the positional relationship between the position of the terminal device corresponding to the reproduced voice and the position of the own terminal device, so that the user listening to the voice can use another terminal device. It is possible to intuitively grasp the positional relationship between the device and its own terminal device.

なお、音量制御手段は、他の端末装置までの距離が遠くなるに従って音量が小さくなるように制御してもよいし、複数のスピーカから音声を出力する場合、自身の端末装置の位置に対する他の端末装置が位置する方位に応じて、ユーザからみて他の端末装置が位置する方向からの音量が大きくなるように音量を制御してもよい。また、このような制御を組み合わせてもよい。 Note that the volume control means may be controlled so that the volume decreases as the distance to another terminal device increases, and when sound is output from a plurality of speakers, other volume control means may be used with respect to the position of its own terminal device. Depending on the orientation in which the terminal device is located, the volume may be controlled so that the volume from the direction in which the other terminal device is located becomes louder from the user's point of view. Moreover, such control may be combined.

さらに、上記通信システムにおいては、音声信号を文字に変換する文字変換手段と、該変換された文字を表示装置に出力する文字出力手段と、を備えていてもよい。
このような通信システムによれば、音声で聞き逃した情報を文字で確認することができる。
Further, the communication system may include character conversion means for converting an audio signal into characters and character output means for outputting the converted characters to a display device.
According to such a communication system, it is possible to confirm the information missed by voice in characters.

なお、上記いずれかの通信システムでは、車両の状態やユーザの運転操作を示す情報(ライト、ワイパ、テレビ、ラジオ等の作動状態、走行速度、進行方向等の走行状態、車両のセンサによる検出値や故障の有無等の制御状態)を音声に併せて送信してもよい。 In any of the above communication systems, information indicating the state of the vehicle and the driving operation of the user (operating state of lights, wipers, televisions, radios, etc., running speed, running state such as traveling direction, detection value by the vehicle sensor) (Control status such as presence / absence of failure) may be transmitted together with the voice.

この際、これらの情報は、音声で出力してもよいし、文字で出力してもよい。また、例
えば他の端末装置から得られる情報に基づいて渋滞情報等の各種情報を生成し、該生成した情報を出力してもよい。
At this time, these information may be output by voice or by characters. Further, for example, various information such as traffic jam information may be generated based on information obtained from another terminal device, and the generated information may be output.

なお、上記いずれかの通信システムにおいては、各端末装置同士が直接音声信号を交換する構成と、各端末装置同士がサーバ装置を介して音声信号を交換する構成とを、予め設定された条件(例えば、サーバ装置と繋がる基地局までの距離や、端末装置同士の通信状態、或いは、ユーザによる設定等)によって切り換えるようにしてもよい。 In any of the above communication systems, preset conditions (a configuration in which each terminal device directly exchanges voice signals and a configuration in which each terminal device exchanges voice signals via a server device are set. For example, switching may be performed depending on the distance to the base station connected to the server device, the communication state between the terminal devices, the setting by the user, or the like).

また、一定時間毎、一定の音声信号再生数毎、或いは、端末装置の位置に応じて、広告を音声で流すようにしてもよい。広告の内容は、広告主の端末装置やサーバ装置等から音声信号の再生を行う端末装置に送信するようにすればよい。 Further, the advertisement may be played by voice every fixed time, every fixed number of voice signal reproductions, or according to the position of the terminal device. The content of the advertisement may be transmitted from the advertiser's terminal device, server device, or the like to the terminal device that reproduces the audio signal.

この際、ユーザが端末装置に対して所定の操作を入力することによって広告主との通話(通信)ができるようにしたり、広告主の店舗に端末装置のユーザを誘導したりするようにしてもよい。 At this time, even if the user can make a call (communication) with the advertiser by inputting a predetermined operation to the terminal device, or guide the user of the terminal device to the advertiser's store. Good.

さらに、上記いずれかの通信システムにおいても、通信相手を不特定多数としてもよいし、通信相手を限定してもよい。
例えば、位置情報を交換する構成の場合には、一定距離以内の端末装置を通信相手としてもよいし、特定のユーザ(先行車両や対向車両など(カメラを用いたナンバプレート撮像、GPSで特定))、予め設定されたグループ内のユーザを通信相手としてもよい。また、設定により通信相手を変更できるように(通信モードを変更できるように)してもよい。
Further, in any of the above communication systems, the communication partner may be an unspecified number of communication partners, or the communication partner may be limited.
For example, in the case of a configuration in which position information is exchanged, a terminal device within a certain distance may be used as a communication partner, or a specific user (preceding vehicle, oncoming vehicle, etc. (number plate imaging using a camera, specified by GPS)). ), Users in a preset group may be the communication partner. Further, the communication partner may be changed by the setting (the communication mode may be changed).

また、端末装置が車両に搭載されている場合には、同じ道路を同じ方向に移動している端末装置を通信相手としたり、車両の挙動が一致している端末装置(脇道にそれた場合には通信相手から外すなど)を通信相手としたりしてもよい。 In addition, when the terminal device is mounted on the vehicle, the terminal device moving in the same direction on the same road is used as the communication partner, or the terminal device having the same behavior of the vehicle (when it deviates to a side road). May be the communication partner (such as removing from the communication partner).

また、他のユーザを特定して、お気に入り登録や、排除登録等を予め設定できるように構成しておき、好みの相手を選択して通信できるようにしてもよい。この場合、音声を送信する際に通信相手を特定する通信相手情報を送信したり、サーバ装置が存在する場合には、サーバ装置に通信相手情報を登録しておいたりすることで、所定の相手にのみに音声信号を送信することができるようにすればよい。 In addition, other users may be specified and configured so that favorite registration, exclusion registration, and the like can be set in advance so that a favorite partner can be selected and communicated. In this case, when transmitting voice, the communication partner information that identifies the communication partner is transmitted, or if the server device exists, the communication partner information is registered in the server device to specify the communication partner. It suffices to be able to transmit an audio signal only to the server.

また、複数のボタン等のスイッチにそれぞれ方向を対応付けておき、ユーザがこのスイッチで通信相手のいる方向を指定すると、その方向のユーザのみを通信相手に設定するようにしてもよい。 Further, if a direction is associated with each switch such as a plurality of buttons and the user specifies the direction in which the communication partner is present with this switch, only the user in that direction may be set as the communication partner.

さらに、ユーザが音声を入力する際の感情や丁寧な話し方であるか等を、入力レベルの振幅や音声に含まれている丁寧表現を音声信号から検出することで判断し、感情が高ぶっていたり、丁寧な話し方でなかったりするユーザによる音声を配信しないようにしてもよい。 Furthermore, the emotions and polite way of speaking when the user inputs voice are judged by detecting the amplitude of the input level and the polite expression contained in the voice from the voice signal, and the emotions are high. , It is possible not to deliver the voice by the user who does not speak politely.

また、人の悪口を発言するユーザや、感情が高ぶっていたり、丁寧な話し方でなかったりするユーザに、失言等を通知するようにしてもよい。この場合、悪口等としてキーワード登録された単語が音声信号中に含まれているか否かによって判断を行うようにすればよい。 In addition, a user who speaks badly about a person or a user who has high emotions or does not speak politely may be notified of a false word or the like. In this case, the determination may be made based on whether or not a word registered as a keyword as a bad word is included in the audio signal.

さらに、上記いずれの通信システムにおいても、音声信号を交換する構成としたが、文字からなる情報を取得し、この情報を音声に変換して再生するようにしてもよい。また、
音声を送信する際にも、音声を文字に変換してから伝送し、音声に復元してから再生するようにしてもよい。この構成では、通信によって伝送すべきデータ量を減少させることができる。
Further, in any of the above communication systems, the voice signal is exchanged, but the information composed of characters may be acquired, and this information may be converted into voice and reproduced. Also,
When transmitting the voice, the voice may be converted into characters and then transmitted, and the voice may be restored and then played back. In this configuration, the amount of data to be transmitted by communication can be reduced.

さらに、このように文字によってデータを伝送する構成においては、予め設定された複数の言語のうちの最もデータ量が少なくなる言語に翻訳してからデータを伝送するようにしてもよい。 Further, in the configuration in which data is transmitted by characters in this way, the data may be transmitted after being translated into the language having the smallest amount of data among the plurality of preset languages.

ところで近年、例えばTwitter(登録商標)やFacebook(登録商標)など、ユーザが発
信した情報を、他のユーザが閲覧できる状態で管理するサービスの利用者が急増している。こうしたサービスにおいて、情報の発信及び閲覧には、パーソナルコンピュータや携帯電話機(いわゆるスマートフォンを含む)などの端末装置が用いられる(特開2011−215861号公報)。
By the way, in recent years, the number of users of services such as Twitter (registered trademark) and Facebook (registered trademark) that manage information transmitted by a user so that other users can view it is rapidly increasing. In such services, terminal devices such as personal computers and mobile phones (including so-called smartphones) are used for transmitting and viewing information (Japanese Patent Laid-Open No. 2011-215861).

一方で、車両(例えば自動車)に乗車した状態のユーザ(例えば車両の運転者)は、車両に乗車していない状態と比較して行動が制限されることから、時間を持て余すことが多い。このため、車両の乗車中に、前述したようなサービスを利用すると、時間を有効に活用することができる。しかしながら、従来のサービスは、車両に乗車したユーザによる使用態様を十分に考慮したものとは言い難かった。 On the other hand, a user (for example, a driver of a vehicle) who is in a vehicle (for example, a car) often has time to spare because his / her behavior is restricted as compared with a state in which he / she is not in the vehicle. Therefore, if the service as described above is used while the vehicle is on board, the time can be effectively utilized. However, it cannot be said that the conventional service fully considers the usage mode by the user who got on the vehicle.

そこで、車両に乗車したユーザにとって有用なサービスを構築するための技術を提供することが求められる。
このための技術として、第1の参考発明の端末装置は、音声を入力する入力手段と、位置情報を取得する取得手段と、前記入力手段により入力された音声を表す音声情報を、その音声の入力時に前記取得手段により取得された位置情報である発声位置が特定可能な形で、複数の前記端末装置で共用されるサーバへ送信する送信手段と、他の前記端末装置から前記サーバへ送信された前記音声情報を前記サーバから受信し、前記音声情報の表す音声を再生する再生手段と、を備え、前記再生手段は、他の前記端末装置から前記サーバへ送信された前記音声情報のうち、その発声位置が、前記取得手段により取得された位置情報を基準に設定される周辺エリア内に位置する前記音声情報の表す音声を再生する。
Therefore, it is required to provide a technique for constructing a service useful for a user who gets on a vehicle.
As a technique for this purpose, the terminal device of the first reference invention uses an input means for inputting voice, an acquisition means for acquiring position information, and voice information representing the voice input by the input means of the voice. A transmission means for transmitting to a server shared by a plurality of the terminal devices in a form in which a voice position, which is position information acquired by the acquisition means at the time of input, can be specified, and transmission from the other terminal devices to the server. A reproduction means for receiving the voice information from the server and reproducing the voice represented by the voice information is provided, and the reproduction means is among the voice information transmitted from the other terminal device to the server. The voice represented by the voice information located in the peripheral area whose voice position is set based on the position information acquired by the acquisition means is reproduced.

ある場所でユーザが発した音声は、その場所に存在する(又はその場所へ向かう)他のユーザにとって、有用である場合が多い。特に、車両に乗車したユーザの位置は、車両に乗車していないユーザと比較して、時間の経過(車両の走行)に伴い大きく変化し得る。したがって、車両に乗車するユーザにとって、現在地を基準とする周辺エリア内で発せられた他のユーザの音声は、有用な情報となり得る。 Voices made by a user at a location are often useful to other users who are (or are heading for) that location. In particular, the position of the user who is in the vehicle can change significantly with the passage of time (running of the vehicle) as compared with the user who is not in the vehicle. Therefore, for the user who gets on the vehicle, the voice of another user emitted in the surrounding area based on the current location can be useful information.

この点、前述した構成によれば、ある端末装置Aのユーザは、他の端末装置B(他の車両)のユーザが発した音声のうち、端末装置Aの現在地を基準に設定される周辺エリア内で発せられた音声を聞くことができる。したがって、このような端末装置によれば、車両に乗車したユーザに対して有用な情報を提供することができる。 In this regard, according to the above-described configuration, the user of a certain terminal device A has a peripheral area set based on the current location of the terminal device A among the voices emitted by the user of the other terminal device B (another vehicle). You can hear the voice emitted inside. Therefore, according to such a terminal device, useful information can be provided to a user who has boarded the vehicle.

また、前述した端末装置において、前記周辺エリアは、前記取得手段により取得された位置情報に対して進行方向側に偏りを持つエリアであってもよい。この構成によれば、既に通過した場所で発せられた音声を再生対象から減らして、これから向かう場所で発せられた音声を増やすことができる。したがって、このような端末装置によれば、情報の有用性を高くすることができる。 Further, in the terminal device described above, the peripheral area may be an area having a bias toward the traveling direction with respect to the position information acquired by the acquisition means. According to this configuration, it is possible to reduce the sound emitted at the place where it has already passed from the reproduction target and increase the sound emitted at the place where it is going from now on. Therefore, according to such a terminal device, the usefulness of the information can be enhanced.

また、前述した端末装置において、前記周辺エリアは、進行予定経路に沿ったエリアであってもよい。この構成によれば、進行予定経路に沿ったエリア以外で発せられた音声を
再生対象から除外することができる。したがって、このような端末装置によれば、情報の有用性を高くすることができる。
Further, in the terminal device described above, the peripheral area may be an area along the planned travel route. According to this configuration, it is possible to exclude the sound emitted from the area other than the area along the planned progress route from the reproduction target. Therefore, according to such a terminal device, the usefulness of the information can be enhanced.

また、第2の参考発明の端末装置は、車両に関する特定のイベントが発生したことを検出する検出手段と、前記検出手段により前記特定のイベントが発生したことが検出された場合に、前記特定のイベントに対応する音声を表す音声情報を、他の前記端末装置、又は、複数の前記端末装置で共用されるサーバ、へ送信する送信手段と、他の前記端末装置又は前記サーバから前記音声情報を受信し、前記音声情報の表す音声を再生する再生手段と、を備える。 Further, the terminal device of the second reference invention has a detection means for detecting the occurrence of a specific event related to the vehicle, and the specific event when the detection means detects that the specific event has occurred. Transmission means for transmitting voice information representing voice corresponding to an event to another terminal device or a server shared by a plurality of the terminal devices, and the voice information from the other terminal device or the server. A reproduction means for receiving and reproducing the sound represented by the voice information is provided.

この構成によれば、ある端末装置Aのユーザは、他の端末装置B(他の車両)から送信された、車両に関する特定のイベントに対応する音声を聞くことができる。したがって、端末装置のユーザは、他の車両の状態を、運転しながら把握することができる。 According to this configuration, the user of one terminal device A can hear the sound corresponding to a specific event related to the vehicle transmitted from the other terminal device B (another vehicle). Therefore, the user of the terminal device can grasp the state of another vehicle while driving.

また、前述した端末装置において、前記検出手段は、車両のユーザにより特定の運転操作が行われたことを、前記特定のイベントとして検出し、前記送信手段は、前記検出手段により前記特定の運転操作が検出された場合に、前記特定の運転操作が行われたことを通知する内容の音声を表す前記音声情報を送信してもよい。この構成によれば、端末装置のユーザは、他の車両において特定の運転操作が行われたことを、運転しながら把握することができる。 Further, in the terminal device described above, the detection means detects that a specific driving operation has been performed by the user of the vehicle as the specific event, and the transmitting means uses the detecting means to detect the specific driving operation. When is detected, the voice information representing the voice of the content notifying that the specific driving operation has been performed may be transmitted. According to this configuration, the user of the terminal device can grasp while driving that a specific driving operation has been performed in another vehicle.

また、前述した端末装置において、前記検出手段は、急ブレーキ操作を検出し、前記送信手段は、前記検出手段により急ブレーキ操作が検出された場合に、急ブレーキ操作が行われたことを通知する内容の音声を表す前記音声情報を送信してもよい。この構成によれば、端末装置のユーザは、他の車両において急ブレーキ操作が行われたことを、運転しながら把握することができる。したがって、目視だけで他の車両の状態を確認する場合と比較して、安全な走行を実現することができる。 Further, in the terminal device described above, the detecting means detects a sudden braking operation, and the transmitting means notifies that the sudden braking operation has been performed when the sudden braking operation is detected by the detecting means. The audio information representing the audio of the content may be transmitted. According to this configuration, the user of the terminal device can grasp while driving that the sudden braking operation has been performed in another vehicle. Therefore, it is possible to realize safe driving as compared with the case where the state of another vehicle is confirmed only by visual inspection.

通信システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the communication system. 車両に搭載された装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the device mounted on a vehicle. 入力部の構成を示す説明図である。It is explanatory drawing which shows the structure of the input part. サーバの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of a server. 音声発信処理の一部を示すフローチャートである。It is a flowchart which shows a part of voice transmission processing. 音声発信処理の残りの部分を示すフローチャートである。It is a flowchart which shows the rest of the voice transmission processing. 分類処理を示すフローチャートである。It is a flowchart which shows the classification process. 操作音声決定処理を示すフローチャートである。It is a flowchart which shows operation voice determination processing. 状態音声決定処理を示すフローチャートである。It is a flowchart which shows the state voice determination process. 認証処理を示すフローチャートである。It is a flowchart which shows the authentication process. 音声配信処理の一部を示すフローチャートである。It is a flowchart which shows a part of voice distribution processing. 音声配信処理の別の一部を示すフローチャートである。It is a flowchart which shows another part of the audio distribution processing. 音声配信処理の残りの部分を示すフローチャートである。It is a flowchart which shows the rest of the audio distribution processing. 音声再生処理の一部を示すフローチャートである。It is a flowchart which shows a part of audio reproduction processing. 音声再生処理の残りの部分を示すフローチャートである。It is a flowchart which shows the rest of the audio reproduction processing. スピーカ設定処理を示すフローチャートである。It is a flowchart which shows the speaker setting process. モード移行処理を示すフローチャートである。It is a flowchart which shows the mode transition process. 再再生処理を示すフローチャートである。It is a flowchart which shows the replay processing. 蓄積処理を示すフローチャートである。It is a flowchart which shows the accumulation process. 要求処理を示すフローチャートである。It is a flowchart which shows the request processing. 応答処理の一部を示すフローチャートである。It is a flowchart which shows a part of response processing. 応答処理の残りの部分を示すフローチャートである。It is a flowchart which shows the rest of the response processing. 自車両位置から所定距離以内に設定された周辺エリアを示す図である。It is a figure which shows the peripheral area set within a predetermined distance from the own vehicle position. 基準位置から所定距離以内に設定された周辺エリアを示す図である。It is a figure which shows the peripheral area set within a predetermined distance from a reference position. 走行予定経路に沿って設定された周辺エリアを示す図である。It is a figure which shows the peripheral area set along the planned travel route. 変形例の応答処理の一部を示すフローチャートである。It is a flowchart which shows a part of the response processing of a modification. 変形例の応答処理の残りの部分を示すフローチャートである。It is a flowchart which shows the remaining part of the response processing of a modification. 変形例の音声再生処理の一部を示すフローチャートである。It is a flowchart which shows a part of the audio reproduction processing of a modification. 変形例の音声再生処理の別の一部を示すフローチャートである。It is a flowchart which shows another part of the audio reproduction processing of a modification. 変形例の音声再生処理のさらに別の一部を示すフローチャートである。It is a flowchart which shows still another part of the audio reproduction processing of a modification. 変形例の音声再生処理の残りの部分を示すフローチャートである。It is a flowchart which shows the remaining part of the audio reproduction processing of a modification. 居眠り判定処理を示すフローチャートである。It is a flowchart which shows the doze determination process. 追加情報表示処理を示すフローチャートである。It is a flowchart which shows the additional information display processing.

以下に本発明に係る実施の形態を図面とともに説明する。
[本実施形態の構成]
図1は、本発明が適用された通信システム1の概略構成を示すブロック図、図2は、車両に搭載された装置の概略構成を示すブロック図である。また、図3A−3Cは、入力部45の構成を示す説明図である。また、図4は、サーバ10の概略構成を示すブロック図である。
Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
[Structure of the present embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a communication system 1 to which the present invention is applied, and FIG. 2 is a block diagram showing a schematic configuration of an apparatus mounted on a vehicle. Further, FIG. 3A-3C is an explanatory diagram showing the configuration of the input unit 45. Further, FIG. 4 is a block diagram showing a schematic configuration of the server 10.

通信システム1は、端末装置31〜33のユーザ同士が簡単な操作で音声によってコミュニケーションをすることが可能な機能を有するシステムである。ここでいうユーザとは、車両の乗員(例えば運転者)である。通信システム1は、図1に示すように、互いに通信可能な複数の端末装置31〜33と、これらの端末装置31〜33のそれぞれと基地局20,21を介して通信可能なサーバ10と、を備えている。つまり、サーバ10は、複数の端末装置31〜33で共用される。なお、本実施形態では、説明の便宜上、3つの端末装置31〜33を図示しているが、より多くの端末装置を用いてもよい。 The communication system 1 is a system having a function that allows users of the terminal devices 31 to 33 to communicate with each other by voice with a simple operation. The user referred to here is a vehicle occupant (for example, a driver). As shown in FIG. 1, the communication system 1 includes a plurality of terminal devices 31 to 33 capable of communicating with each other, and a server 10 capable of communicating with each of these terminal devices 31 to 33 via base stations 20 and 21. It has. That is, the server 10 is shared by a plurality of terminal devices 31 to 33. In this embodiment, three terminal devices 31 to 33 are shown for convenience of explanation, but more terminal devices may be used.

端末装置31〜33は、例えば乗用車やトラック等の車両に搭載された車載装置として構成されており、図2に示すように、CPU41、ROM42、RAM43等を備えた周知のマイコンとして構成されている。CPU41は、ROM42等に格納されたプログラムに基づいて、後述する音声発信処理や音声再生処理等の各種処理を実施する。 The terminal devices 31 to 33 are configured as in-vehicle devices mounted on vehicles such as passenger cars and trucks, and are configured as well-known microcomputers including a CPU 41, a ROM 42, a RAM 43, and the like, as shown in FIG. .. The CPU 41 performs various processes such as a voice transmission process and a voice reproduction process, which will be described later, based on a program stored in the ROM 42 or the like.

また、端末装置31〜33は、その他に通信部44や入力部45を備えている。通信部44は、例えば携帯電話機の無線基地局として構成された基地局20,21と通信を行う機能(携帯電話網を介してサーバ10や他の端末装置31〜33と通信を行うための通信部)と、自身の見通し範囲内に位置する他の端末装置31〜33(先行車両、後方車両、対向車両など、他の車両に搭載された端末装置31〜33)と直接通信を行う機能(他の端末装置31〜33と直接通信を行うための通信部)と、を備えている。 In addition, the terminal devices 31 to 33 also include a communication unit 44 and an input unit 45. The communication unit 44 has a function of communicating with base stations 20 and 21 configured as wireless base stations of mobile phones (communication for communicating with a server 10 and other terminal devices 31 to 33 via a mobile phone network). (Part) and a function to directly communicate with other terminal devices 31 to 33 (terminal devices 31 to 33 mounted on other vehicles such as preceding vehicles, rear vehicles, and oncoming vehicles) located within their own line-of-sight range (section). (Communication unit) for direct communication with other terminal devices 31 to 33).

入力部45は、端末装置31〜33のそれぞれのユーザが指令を入力するためのボタン、スイッチ等として構成されている。また、入力部45は、ユーザの生体的特徴を読み取るための機能も備えている。 The input unit 45 is configured as a button, a switch, or the like for each user of the terminal devices 31 to 33 to input a command. The input unit 45 also has a function for reading the biological characteristics of the user.

さらに、入力部45は、図3Aに示すように、車両のハンドル60のユーザ側の面において、複数のタッチパネル61,62としても構成されている。そして、これらのタッチパネル61,62は、クラクションスイッチ63の周囲、かつ車両の旋回の際のハンドル操作時には触れない位置に配置されている。このようなタッチパネル61,62は、車両のハンドル60上にあるユーザの手(指)の動きを検出する。 Further, as shown in FIG. 3A, the input unit 45 is also configured as a plurality of touch panels 61 and 62 on the user side surface of the steering wheel 60 of the vehicle. The touch panels 61 and 62 are arranged around the horn switch 63 and at positions that are not touched when the steering wheel is operated when the vehicle is turning. Such touch panels 61 and 62 detect the movement of the user's hand (finger) on the steering wheel 60 of the vehicle.

また、図2に示すように、端末装置31〜33は、車両に備えられたナビゲーション装置48、オーディオ装置50、ABSECU51、マイク52、スピーカ53、ブレーキセンサ54、パッシングセンサ55、ウインカセンサ56、下面センサ57、横風センサ58、衝突/転倒センサ59、その他の周知の複数のセンサ類に通信線(例えば車内LAN)を介して接続されている。 Further, as shown in FIG. 2, the terminal devices 31 to 33 include a navigation device 48, an audio device 50, an ABSECU 51, a microphone 52, a speaker 53, a brake sensor 54, a passing sensor 55, a winker sensor 56, and a lower surface provided in the vehicle. It is connected to a sensor 57, a crosswind sensor 58, a collision / tipping sensor 59, and a plurality of other well-known sensors via a communication line (for example, an in-vehicle LAN).

ナビゲーション装置48は、周知のナビゲーション装置と同様に、車両の現在地を検出する現在地検出部及び画像を表示させるディスプレイを備えている。ナビゲーション装置48は、GPS受信機49により検出される車両の位置座標(現在地)の情報などに基づき、周知のナビゲーション処理を実行する。また、ナビゲーション装置48は、端末装置31〜33から現在地を要求されると、最新の現在地の情報を端末装置31〜33に返す。また、ナビゲーション装置48は、端末装置31〜33から文字情報を表示させるよう指令を受けると、ディスプレイに文字情報に対応する文字を表示させる。 Similar to a well-known navigation device, the navigation device 48 includes a current location detection unit that detects the current location of the vehicle and a display that displays an image. The navigation device 48 executes a well-known navigation process based on information such as the position coordinates (current location) of the vehicle detected by the GPS receiver 49. Further, when the terminal device 31 to 33 requests the current location, the navigation device 48 returns the latest current location information to the terminal devices 31 to 33. Further, when the navigation device 48 receives a command from the terminal devices 31 to 33 to display the character information, the navigation device 48 causes the display to display the character corresponding to the character information.

オーディオ装置50は、音楽等を再生する周知の音響再生装置である。オーディオ装置50によって再生された音楽等は、スピーカ53から出力される。
ABSECU51は、アンチロック・ブレーキ・システム(ABS)に関する制御を行う電子制御装置(ECU)である。ABSECU51は、車輪のスリップ率があらかじめ設定された範囲内(車両を安全かつ速やかに制動可能なスリップ率)となるように制動力(ブレーキ油圧)を制御することで、ブレーキのロックを抑制する。つまり、ABSECU51は、ブレーキロック抑制装置として機能する。また、ABSECU51は、ABSが作動した場合(制動力の制御を開始した場合)に、通知信号を端末装置31〜33に出力する。
The audio device 50 is a well-known audio reproduction device that reproduces music and the like. The music or the like reproduced by the audio device 50 is output from the speaker 53.
The ABS ECU 51 is an electronic control unit (ECU) that controls the anti-lock braking system (ABS). The ABSECU 51 suppresses the lock of the brake by controlling the braking force (brake oil pressure) so that the slip ratio of the wheels is within a preset range (slip ratio that can brake the vehicle safely and quickly). That is, the ABSECU 51 functions as a brake lock suppressing device. Further, the ABS ECU 51 outputs a notification signal to the terminal devices 31 to 33 when the ABS is activated (when the control of the braking force is started).

マイク52は、ユーザの発する音声を入力する。
スピーカ53は、例えば5つのスピーカとサブウーハとを備えた5.1chサラウンドシステムとして構成されている。これらの各スピーカは、ユーザの周囲を取り囲むように配置されている。
The microphone 52 inputs the voice emitted by the user.
The speaker 53 is configured as a 5.1ch surround system including, for example, five speakers and a subwoofer. Each of these speakers is arranged so as to surround the user.

ブレーキセンサ54は、ユーザによるブレーキペダルの踏み込み速度が判定基準値以上である場合に、急ブレーキ操作として検出する。なお、急ブレーキ操作の判定は、これに限定されるものではなく、例えば、ブレーキペダルの踏み込み量に基づき判定してもよく、また、車両の加速度(減速度)に基づき判定してもよい。 The brake sensor 54 detects as a sudden braking operation when the depression speed of the brake pedal by the user is equal to or higher than the determination reference value. The determination of the sudden braking operation is not limited to this, and may be determined based on, for example, the amount of depression of the brake pedal, or may be determined based on the acceleration (deceleration) of the vehicle.

パッシングセンサ55は、ユーザによるパッシング操作(ヘッドライトを一時的にロービームからハイビームにする操作)を検出する。
ウインカセンサ56は、ユーザによるウインカ操作(左右いずれかのウインカを点滅させる操作)を検出する。
The passing sensor 55 detects a passing operation (an operation of temporarily changing the headlight from a low beam to a high beam) by the user.
The winker sensor 56 detects a winker operation (an operation of blinking either the left or right winker) by the user.

下面センサ57は、路面の段差などと車両の下面とが接触した状態又は接触する危険性の高い状態を検出する。本実施形態では、外部の物体(路面の段差など)と接触することにより容易に変形又は変位し、接触状態から解放されることで元の(変形前又は変位前の)状態に復帰する検出部材が、前後のバンパの下面(車輪部分を除く車両の下面における最下部)に設けられている。そして、下面センサ57は、この検出部材の変形又は変位を検出することで、路面の段差などと車両の下面とが接触した状態又は接触する危険性の高い状態を検出する。なお、路面の段差などと車両の下面とが接触した状態又は接触する危険性の高い状態を、外部の物体と非接触で検出するセンサを用いてもよい。 The bottom surface sensor 57 detects a state in which a step on the road surface and the bottom surface of the vehicle are in contact with each other or a state in which there is a high risk of contact with the vehicle surface. In the present embodiment, a detection member that easily deforms or displaces when it comes into contact with an external object (such as a step on the road surface) and returns to the original (before deformation or before displacement) state when released from the contact state. Is provided on the lower surface of the front and rear bumpers (the lowest part on the lower surface of the vehicle excluding the wheel portion). Then, the bottom surface sensor 57 detects a state in which a step on the road surface and the bottom surface of the vehicle are in contact with each other or a state in which there is a high risk of contact by detecting the deformation or displacement of the detection member. A sensor that detects a state in which a step on the road surface and the lower surface of the vehicle are in contact with each other or a state in which there is a high risk of contact with an external object may be used.

横風センサ58は、車両に対する強い横風(例えば、風圧が判定基準値以上の横風)を
検出する。なお、横風センサ58は、風圧を検出するセンサとしてもよく、また、風量を検出するセンサとしてもよい。
The crosswind sensor 58 detects a strong crosswind to the vehicle (for example, a crosswind whose wind pressure is equal to or higher than the determination reference value). The crosswind sensor 58 may be a sensor for detecting wind pressure or a sensor for detecting air volume.

衝突/転倒センサ59は、車両が外部の物体(他の車両を含む)に衝突した状態や、車両が転倒した状態など、車両が事故を起こした可能性の高い状態を検出する。衝突/転倒センサ59は、車両に強い衝撃(加速度)が生じたことを検出するセンサとして構成することができる。なお、衝突した状態と、転倒した状態と、を独立して検出するようにしてもよい。例えば、車両(車体)の傾き度合いに応じて転倒状態か否かを判定してもよい。また、車両が事故を起こした可能性の高いその他の状態(例えば、エアバッグが開いた状態)を含めてもよい。 The collision / fall sensor 59 detects a state in which the vehicle has a high possibility of having an accident, such as a state in which the vehicle collides with an external object (including another vehicle) or a state in which the vehicle has fallen. The collision / fall sensor 59 can be configured as a sensor that detects that a strong impact (acceleration) has occurred in the vehicle. It should be noted that the collided state and the fallen state may be detected independently. For example, it may be determined whether or not the vehicle is in a fallen state according to the degree of inclination of the vehicle (vehicle body). It may also include other conditions in which the vehicle is likely to have an accident (eg, the airbag is open).

サーバ10は、図4に示すように、CPU11、ROM12、RAM13、データベース(記憶装置)14、通信部15等を備えた周知のサーバとしてのハードウェア構成を備えている。このサーバ10は、後述する音声配信処理等の各種処理を実施する。 As shown in FIG. 4, the server 10 has a hardware configuration as a well-known server including a CPU 11, a ROM 12, a RAM 13, a database (storage device) 14, a communication unit 15, and the like. The server 10 performs various processes such as audio distribution processing described later.

また、サーバ10のデータベース14としては、端末装置31〜33のユーザの名前と、これらのユーザのニックネームと、を対応付けた名前/ニックネームDB、端末装置31〜33のIDと通信相手とを記述した通信相手DB、禁止ワードが登録された禁止ワードDB、広告主の端末装置のIDと広告を行う範囲とが記述された広告DB等を備えている。ユーザは、サーバ10に名前、ニックネーム、通信相手等を登録しておくことで、本システムのサービスが利用可能となる。 Further, in the database 14 of the server 10, a name / nickname DB in which the names of the users of the terminal devices 31 to 33 and the nicknames of these users are associated with each other, an ID of the terminal devices 31 to 33, and a communication partner are described. It includes a communication partner DB, a prohibited word DB in which prohibited words are registered, an advertisement DB in which the ID of the advertiser's terminal device and the range in which the advertisement is performed are described. The user can use the service of this system by registering the name, nickname, communication partner, etc. in the server 10.

[本実施形態の処理]
このような通信システム1において実施される処理について、図5A及び5B以下の図面を用いて説明する。図5A及び5Bは、端末装置31〜33のCPU41が実行する音声発信処理を示すフローチャートである。
[Processing of this embodiment]
The processing performed in such a communication system 1 will be described with reference to the drawings of FIGS. 5A and 5B and below. 5A and 5B are flowcharts showing a voice transmission process executed by the CPU 41 of the terminal devices 31 to 33.

音声発信処理は、端末装置31〜33の電源が投入されると開始され、その後繰り返し実行される処理である。また、音声発信処理は、ユーザによって発せられる音声を表す音声情報などを他の装置(サーバ10や他の端末装置31〜33等)に対して送信する処理である。以下の説明では、他の装置へ送信するための音声情報を「送信音声情報」ともいう。 The voice transmission process is a process that is started when the power of the terminal devices 31 to 33 is turned on and then repeatedly executed. Further, the voice transmission process is a process of transmitting voice information or the like representing a voice emitted by a user to another device (server 10, other terminal devices 31 to 33, etc.). In the following description, voice information for transmission to another device is also referred to as "transmission voice information".

詳細には、図5A及び5Bに示すように、まず、入力部45を介した入力操作があったか否かを判定する(S101)。ここで、入力操作としては、通常の入力操作と、緊急用の入力操作とがあり、異なる入力操作として自身のROM等のメモリに登録されている。 More specifically, as shown in FIGS. 5A and 5B, first, it is determined whether or not there is an input operation via the input unit 45 (S101). Here, as the input operation, there are a normal input operation and an emergency input operation, and they are registered in a memory such as a ROM of their own as different input operations.

通常の入力操作としては、例えば図3Bに示すように、タッチパネル61,62においてハンドル60の径方向にスライドする手の動きが登録されており、緊急用の入力操作としては、例えば図3Cに示すように、タッチパネル61,62においてハンドル60の周方向にスライドする手の動きが登録されている。この処理では、これらの操作のうちのいずれかがタッチパネル61,62を介して入力されたか否かを判定する。 As a normal input operation, for example, as shown in FIG. 3B, the movement of the hand sliding in the radial direction of the handle 60 is registered on the touch panels 61 and 62, and as an emergency input operation, for example, it is shown in FIG. 3C. As described above, the movement of the hand sliding in the circumferential direction of the handle 60 is registered on the touch panels 61 and 62. In this process, it is determined whether or not any of these operations is input via the touch panels 61 and 62.

このように入力操作がクラクションスイッチ63の作動方向(押す方向)とは異なる方向で作動するよう設定されているとクラクションの誤作動を抑制することができるため好ましい。 It is preferable that the input operation is set to operate in a direction different from the operating direction (pushing direction) of the horn switch 63 because the malfunction of the horn can be suppressed.

入力操作がなければ(S101:NO)、後述するS110の処理に移行する。また、入力操作があれば(S101:YES)、ユーザの発する音声(送信音声情報とするための音声)の録音を開始する(S102)。 If there is no input operation (S101: NO), the process proceeds to S110, which will be described later. Further, if there is an input operation (S101: YES), recording of the voice (voice to be transmitted voice information) emitted by the user is started (S102).

そして、入力部45を介した終了操作があったか否かを判定する(S103)。終了操作は入力操作同様にあらかじめROM等のメモリに登録されている。この終了操作は入力操作と同様の操作であってもよいし、異なる操作であってもよい。 Then, it is determined whether or not there is an end operation via the input unit 45 (S103). The end operation is registered in advance in a memory such as a ROM like the input operation. This end operation may be the same operation as the input operation, or may be a different operation.

終了操作がなければ(S103:NO)、入力操作後、あらかじめ設定された基準時間(例えば20秒)が経過しているか否かを判定する(S104)。ここで基準時間は、長時間の音声入力を禁止するために設けられたものであり、特定の通信相手と通信を行う場合には、不特定の通信相手と通信を行う場合に比べ、同じかより長い基準時間が設定される。また、基準時間を無限大の時間に設定してもよい。 If there is no end operation (S103: NO), it is determined whether or not a preset reference time (for example, 20 seconds) has elapsed after the input operation (S104). Here, the reference time is provided to prohibit long-term voice input, and is it the same when communicating with a specific communication partner as compared with the case of communicating with an unspecified communication partner? A longer reference time is set. Further, the reference time may be set to an infinite time.

基準時間が経過していなければ(S104:NO)、S102の処理に戻る。また、基準時間が経過している場合(S104:YES)及びS103の処理にて終了操作がされている場合(S103:YES)には、録音を終了し、入力操作が緊急用の操作入力であるか否かを判定する(S105)。緊急用の操作入力であれば(S105:YES)、緊急用の音声情報である旨の緊急情報フラグを付加し(S106)、S107の処理に移行する。 If the reference time has not elapsed (S104: NO), the process returns to the process of S102. If the reference time has elapsed (S104: YES) or if the end operation has been performed in the process of S103 (S103: YES), the recording is ended and the input operation is an emergency operation input. It is determined whether or not there is (S105). If it is an emergency operation input (S105: YES), an emergency information flag indicating that it is emergency voice information is added (S106), and the process proceeds to S107.

緊急用の操作入力でなければ(S105:NO)、直ちにS107の処理に移行する。続いて、録音された音声(肉声)を、合成音声(機械音)に変換する(S107)。具体的には、まず、録音された音声を、周知の音声認識技術を利用してテキスト(文字データ)に変換する。次に、変換により得られたテキストを、周知の音声合成技術を利用して合成音声に変換する。このようにして、録音された音声が合成音声に変換される。 If it is not an emergency operation input (S105: NO), the process immediately proceeds to S107. Subsequently, the recorded voice (real voice) is converted into a synthetic voice (machine sound) (S107). Specifically, first, the recorded voice is converted into text (character data) by using a well-known voice recognition technology. Next, the text obtained by the conversion is converted into synthetic speech using a well-known speech synthesis technique. In this way, the recorded voice is converted into synthetic voice.

続いて、送信音声情報に操作内容情報を付加するよう設定する(S108)。ここで操作内容情報とは、車両の状態やユーザの運転操作を示す情報(ウインカ操作、パッシング操作、急ブレーキ操作等の操作状態、ライト、ワイパ、テレビ、ラジオ等の作動状態、走行速度、加速度、進行方向等の走行状態、各種センサによる検出値や故障の有無等の制御状態等)を示す。これらの情報は、車両内の通信線(例えば車内LAN)を介して取得される。 Subsequently, it is set to add the operation content information to the transmitted voice information (S108). Here, the operation content information refers to information indicating the state of the vehicle and the driving operation of the user (operation state such as winker operation, passing operation, sudden braking operation, operating state of lights, wipers, televisions, radios, etc., running speed, acceleration. , Driving state such as traveling direction, control state such as detection value by various sensors and presence / absence of failure). This information is acquired via a communication line in the vehicle (for example, an in-vehicle LAN).

続いて、送信音声情報を、あらかじめ決められた複数の種類(ジャンル)のいずれかに分類し、分類した種類を表す分類情報を送信音声情報に付加するよう設定する分類処理を実行する(S109)。このような分類は、例えばサーバ10や端末装置31〜33において、多数の音声情報の中から必要な音声情報を抽出(検索)する場合に利用される。送信音声情報の分類は、ユーザが手動で行ってもよく、また、自動で行ってもよい。例えば、ディスプレイに選択項目(あらかじめ決められた複数の種類)を表示し、ユーザに選択させてもよい。また例えば、発言の内容を解析し、その内容に応じた種類に分類してもよい。また例えば、発言時の状況(車両の状態や運転操作など)に応じた種類に分類してもよい。 Subsequently, the transmitted voice information is classified into one of a plurality of predetermined types (genres), and a classification process for setting to add the classification information representing the classified types to the transmitted voice information is executed (S109). .. Such classification is used, for example, when the server 10 or the terminal devices 31 to 33 extract (search) necessary voice information from a large amount of voice information. The transmission voice information may be classified manually by the user or automatically. For example, a selection item (a plurality of predetermined types) may be displayed on the display and the user may select the selection item. Further, for example, the content of the statement may be analyzed and classified into types according to the content. Further, for example, it may be classified into types according to the situation at the time of speaking (vehicle condition, driving operation, etc.).

図6は、送信音声情報の分類を自動で行う場合の分類処理の一例を示すフローチャートである。まず、特定の運転操作が発言時に行われていたか否かを判定する(S201)。この例では、パッシングセンサ55により検出されるパッシング操作と、ブレーキセンサ54により検出される急ブレーキ操作と、がここでいう特定の運転操作に該当する。また、この例では、音声情報を、「通常」、「注意」及び「警告」の3つの種類に分類する。 FIG. 6 is a flowchart showing an example of the classification process in the case of automatically classifying the transmitted voice information. First, it is determined whether or not a specific driving operation was performed at the time of speaking (S201). In this example, the passing operation detected by the passing sensor 55 and the sudden braking operation detected by the brake sensor 54 correspond to the specific driving operation referred to here. Further, in this example, the voice information is classified into three types of "normal", "caution" and "warning".

特定の運転操作が発言時に行われていないと判定した場合には(S201:NO)、送信音声情報を「通常」に分類し、「通常」を表す分類情報を送信音声情報に付加するよう設定する(S202)。 When it is determined that a specific driving operation is not performed at the time of speaking (S201: NO), the transmitted voice information is classified into "normal" and the classification information representing "normal" is added to the transmitted voice information. (S202).

一方、パッシング操作が発言時に行われていたと判定した場合には(S201:YES,S203:YES)、送信音声情報を「注意」に分類し、「注意」を表す分類情報を送信音声情報に付加するよう設定する(S204)。また、急ブレーキ操作が発言時に行われていたと判定した場合には(S203:NO,S205:YES)、送信音声情報を「警告」に分類し、「警告」を表す分類情報を送信音声情報に付加するよう設定する(S206)。 On the other hand, when it is determined that the passing operation was performed at the time of speaking (S201: YES, S203: YES), the transmitted voice information is classified into "Caution", and the classification information indicating "Caution" is added to the transmitted voice information. (S204). If it is determined that the sudden braking operation was performed at the time of speaking (S203: NO, S205: YES), the transmitted voice information is classified into "warning", and the classification information representing "warning" is used as the transmitted voice information. Set to add (S206).

このような分類処理の後、後述するS114(図5B)に移行する。なお、S205で急ブレーキ操作が発言時に行われていないと判定した場合には(S205:NO)、S101(図5A)に戻る。 After such a classification process, the process proceeds to S114 (FIG. 5B) described later. If it is determined in S205 that the sudden braking operation has not been performed at the time of speaking (S205: NO), the process returns to S101 (FIG. 5A).

ちなみに、この例では、送信音声情報を1つの種類に分類しているが、これに限定されるものではなく、例えばタグ情報のように、1つの送信音声情報に対し2つ以上の種類を割り当てることができるようにしてもよい。 By the way, in this example, the transmitted voice information is classified into one type, but the present invention is not limited to this, and two or more types are assigned to one transmitted voice information such as tag information. You may be able to do it.

図5Aに戻り、前述したS101で入力操作なしと判定した場合には(S101:NO)、特定の運転操作が行われたか否かを判定する(S110)。ここでいう特定の運転操作とは、ユーザが発声していない音声を送信音声情報として送信するトリガとしての操作であり、前述したS201で判定した特定の運転操作とは異なるものであってもよい。特定の運転操作が行われたと判定した場合には(S110:YES)、運転操作に応じた送信音声情報を決定する操作音声決定処理を実行する(S111)。 Returning to FIG. 5A, when it is determined in S101 described above that there is no input operation (S101: NO), it is determined whether or not a specific driving operation has been performed (S110). The specific driving operation referred to here is an operation as a trigger for transmitting voice not uttered by the user as transmitted voice information, and may be different from the specific driving operation determined in S201 described above. .. When it is determined that a specific driving operation has been performed (S110: YES), an operation voice determination process for determining the transmitted voice information according to the driving operation is executed (S111).

図7は、操作音声決定処理の一例を示すフローチャートである。この例では、ウインカセンサ56により検出されるウインカ操作と、パッシングセンサ55により検出されるパッシング操作と、ブレーキセンサ54により検出される急ブレーキ操作と、がS110でいう特定の運転操作に該当する。 FIG. 7 is a flowchart showing an example of the operation voice determination process. In this example, the winker operation detected by the winker sensor 56, the passing operation detected by the passing sensor 55, and the sudden braking operation detected by the brake sensor 54 correspond to the specific driving operation referred to in S110.

まず、S110でいう特定の運転操作としてウインカ操作が検出されたか否かを判定する(S301)。ウインカ操作が検出されたと判定した場合には(S301:YES)、ウインカ操作が行われたことを通知する内容の音声(例えば、「ウインカ操作を行いました」、「左(右)へ移動します」、「注意してください」等の音声)を送信音声情報に設定する(S302)。 First, it is determined whether or not the winker operation is detected as the specific driving operation referred to in S110 (S301). When it is determined that the winker operation has been detected (S301: YES), the voice of the content notifying that the winker operation has been performed (for example, "the winker operation has been performed", "move to the left (right)". Set voices such as "Masu" and "Please be careful") as the transmitted voice information (S302).

一方、ウインカ操作が検出されていないと判定した場合には(S301:NO)、S110でいう特定の運転操作としてパッシング操作が検出されたか否かを判定する(S303)。パッシング操作が検出されたと判定した場合には(S303:YES)、パッシング操作が行われたことを通知する内容の音声(例えば、「パッシング操作を行いました」、「注意してください」等の音声)を送信音声情報に設定する(S304)。 On the other hand, when it is determined that the winker operation is not detected (S301: NO), it is determined whether or not the passing operation is detected as the specific operation operation referred to in S110 (S303). If it is determined that a passing operation has been detected (S303: YES), a voice that notifies that the passing operation has been performed (for example, "passing operation has been performed", "be careful", etc. Voice) is set as the transmission voice information (S304).

そして、ウインカ操作が検出された場合(S301:YES)及びパッシング操作が検出された場合(S303:YES)のいずれにおいても、送信音声情報を「注意」に分類し、「注意」を表す分類情報を送信音声情報に付加するよう設定する(S305)。その後、操作音声決定処理を終了し、後述するS114(図5B)の処理に移行する。 Then, in both the case where the winker operation is detected (S301: YES) and the case where the passing operation is detected (S303: YES), the transmitted voice information is classified into "Caution", and the classification information indicating "Caution" is displayed. Is set to be added to the transmitted voice information (S305). After that, the operation voice determination process is terminated, and the process proceeds to the process of S114 (FIG. 5B) described later.

一方、パッシング操作が検出されていないと判定した場合には(S303:NO)、S110でいう特定の運転操作として急ブレーキ操作が検出されたか否かを判定する(S306)。急ブレーキ操作が検出されたと判定した場合には(S306:YES)、急ブレーキ操作が行われたことを通知する内容の音声(例えば、「急ブレーキ操作を行いました」等の音声)を送信音声情報に設定する(S307)。そして、送信音声情報を「警告」
に分類し、「警告」を表す分類情報を送信音声情報に付加するよう設定する(S308)。その後、操作音声決定処理を終了し、後述するS114(図5B)の処理に移行する。なお、S110でいう特定の運転操作として急ブレーキ操作が検出されていないと判定した場合には(S306:NO)、S101(図5A)に戻る。
On the other hand, when it is determined that the passing operation is not detected (S303: NO), it is determined whether or not the sudden braking operation is detected as the specific driving operation referred to in S110 (S306). When it is determined that a sudden braking operation has been detected (S306: YES), a voice (for example, a voice such as "a sudden braking operation has been performed") is transmitted to notify that the sudden braking operation has been performed. Set to voice information (S307). And "warning" the transmitted voice information
It is set to add the classification information representing "warning" to the transmitted voice information (S308). After that, the operation voice determination process is terminated, and the process proceeds to the process of S114 (FIG. 5B) described later. If it is determined that the sudden braking operation is not detected as the specific driving operation referred to in S110 (S306: NO), the process returns to S101 (FIG. 5A).

図5Aに戻り、前述したS110で特定の運転操作が行われていないと判定した場合には(S110:NO)、特定の状態が検出されたか否かを判定する(S112)。ここでいう特定の状態とは、ユーザが発声していない音声を送信音声情報として送信するトリガとしての状態である。特定の状態が検出されていないと判定した場合には(S112:NO)、音声発信処理を終了する。一方、特定の状態が検出されたと判定した場合には(S112:YES)、状態に応じた送信音声情報を決定する状態音声決定処理を実行する(S113)。 Returning to FIG. 5A, when it is determined that the specific driving operation has not been performed in S110 described above (S110: NO), it is determined whether or not a specific state has been detected (S112). The specific state referred to here is a state as a trigger for transmitting voice that is not uttered by the user as transmission voice information. If it is determined that a specific state has not been detected (S112: NO), the voice transmission process is terminated. On the other hand, when it is determined that a specific state has been detected (S112: YES), a state voice determination process for determining transmission voice information according to the state is executed (S113).

図8は、状態音声決定処理の一例を示すフローチャートである。この例では、ABSが作動した状態と、路面の段差などと車両の下面とが接触した状態又は接触する危険性の高い状態と、車両に対する強い横風が検出された状態と、車両が衝突又は転倒した状態と、がS112でいう特定の状態に該当する。 FIG. 8 is a flowchart showing an example of the state voice determination process. In this example, the ABS is activated, the step on the road surface is in contact with the lower surface of the vehicle or there is a high risk of contact, a strong crosswind to the vehicle is detected, and the vehicle collides or falls. Corresponds to the specific state referred to in S112.

まず、ABSECU51から出力される通知信号に基づき、ABSが作動したか否かを判定する(S401)。ABSが作動したと判定した場合には(S401:YES)、ABSが作動したことを通知する内容の音声(例えば、「ABSが作動しました」、「スリップに注意してください」等の音声)を送信音声情報に設定する(S402)。 First, it is determined whether or not the ABS has been activated based on the notification signal output from the ABS ECU 51 (S401). When it is determined that the ABS has been activated (S401: YES), a voice notifying that the ABS has been activated (for example, a voice such as "ABS has been activated" or "Be careful of slipping"). Is set as the transmitted voice information (S402).

一方、ABSが作動していないと判定した場合には(S401:NO)、下面センサ57により、路面の段差などと車両の下面とが接触した状態又は接触する危険性の高い状態が検出されたか否かを判定する(S403)。そして、接触した状態又は接触する危険性の高い状態が検出されたと判定した場合には(S403:YES)、車両の下面を擦る危険性があることを通知する内容の音声(例えば、「車両の下面を擦る危険性があります」、「段差が存在します」等の音声)を送信音声情報に設定する(S404)。 On the other hand, when it is determined that the ABS is not operating (S401: NO), has the bottom sensor 57 detected a state in which a step on the road surface is in contact with the bottom surface of the vehicle or a state in which there is a high risk of contact? Whether or not it is determined (S403). Then, when it is determined that a contact state or a state having a high risk of contact is detected (S403: YES), a voice of the content notifying that there is a risk of rubbing the lower surface of the vehicle (for example, "of the vehicle" Set voices such as "There is a risk of rubbing the bottom surface" and "There is a step") as the transmitted voice information (S404).

一方、接触した状態又は接触する危険性の高い状態が検出されていないと判定した場合には(S403:NO)、横風センサ58により、車両に対する強い横風が検出されたか否かを判定する(S405)。そして、強い横風が検出されたと判定した場合には(S405:YES)、強い横風が検出されたことを通知する内容の音声(例えば、「横風に注意してください」等の音声)を送信音声情報に設定する(S406)。 On the other hand, when it is determined that the contact state or the state having a high risk of contact has not been detected (S403: NO), the crosswind sensor 58 determines whether or not a strong crosswind to the vehicle has been detected (S405). ). Then, when it is determined that a strong crosswind has been detected (S405: YES), a voice (for example, a voice such as "Be careful of the crosswind") for notifying that a strong crosswind has been detected is transmitted. Set to information (S406).

そして、ABSが作動した場合(S401:YES)、路面の段差などと車両の下面とが接触した状態又は接触する危険性の高い状態が検出された場合(S403:YES)、及び、強い横風が検出された場合(S405:YES)、のいずれにおいても、送信音声情報を「注意」に分類し、「注意」を表す分類情報を送信音声情報に付加するよう設定する(S407)。その後、状態音声決定処理を終了し、後述するS114(図5B)の処理に移行する。 Then, when the ABS is activated (S401: YES), when a state in which a step on the road surface is in contact with the lower surface of the vehicle or a state in which there is a high risk of contact is detected (S403: YES), and a strong crosswind is generated. In any case (S405: YES), the transmitted voice information is classified into "attention", and the classification information indicating "attention" is set to be added to the transmitted voice information (S407). After that, the state voice determination process is terminated, and the process proceeds to the process of S114 (FIG. 5B) described later.

一方、強い横風が検出されていないと判定した場合には(S405:NO)、衝突/転倒センサ59により、車両が衝突又は転倒した状態(車両が事故を起こした可能性の高い状態)が検出されたか否かを判定する(S408)。車両が衝突又は転倒した状態が検出されたと判定した場合には(S408:YES)、車両が衝突又は転倒したことを通知する内容の音声(例えば「車両が衝突(又は転倒)しました」、「事故が発生しました」等の音声)を送信音声情報に設定する(S409)。そして、送信音声情報を「警告」に分類し、「警告」を表す分類情報を送信音声情報に付加するよう設定する(S410)。そ
の後、状態音声決定処理を終了し、後述するS114(図5B)の処理に移行する。なお、車両が衝突又は転倒した状態が検出されていないと判定した場合には(S408:NO)、S101(図5A)に戻る。
On the other hand, when it is determined that a strong crosswind has not been detected (S405: NO), the collision / fall sensor 59 detects a state in which the vehicle has collided or has fallen (a state in which the vehicle is likely to have caused an accident). It is determined whether or not it has been done (S408). When it is determined that a vehicle has collided or has fallen (S408: YES), a voice notifying that the vehicle has collided or has fallen (for example, "the vehicle has collided (or has fallen)", " A voice such as "An accident has occurred") is set as the transmitted voice information (S409). Then, the transmitted voice information is classified into "warning", and the classification information representing "warning" is set to be added to the transmitted voice information (S410). After that, the state voice determination process is terminated, and the process proceeds to the process of S114 (FIG. 5B) described later. If it is determined that the state in which the vehicle has collided or has fallen has not been detected (S408: NO), the process returns to S101 (FIG. 5A).

図5Bに戻り、S114では、ナビゲーション装置48に対して位置情報を要求することで位置情報を取得し、この位置情報を送信音声情報に付加するよう設定する。位置情報は、取得した時点でのナビゲーション装置48の現在地(換言すれば、車両の現在地、端末装置31〜33の現在地、ユーザの現在地)を、絶対位置(緯度や経度等)で表す情報である。特に、S114で取得した位置情報は、ユーザが音声を発した位置(発声位置)を表す。なお、発声位置は、ユーザが音声を発した位置を特定できるものであればよく、音声を入力するタイミングと位置情報を取得するタイミングとの時間差(車両の走行に伴う位置の変化)などの要因により、多少のばらつきが生じても構わない。 Returning to FIG. 5B, in S114, the position information is acquired by requesting the position information from the navigation device 48, and the position information is set to be added to the transmitted voice information. The position information is information that represents the current location of the navigation device 48 (in other words, the current location of the vehicle, the current location of the terminal devices 31 to 33, the current location of the user) at the time of acquisition in absolute position (latitude, longitude, etc.). .. In particular, the position information acquired in S114 represents a position (speech position) in which the user has uttered a voice. The utterance position may be any one that can identify the position where the user utters the voice, and factors such as the time difference between the timing of inputting the voice and the timing of acquiring the position information (change in position due to the running of the vehicle) Therefore, some variation may occur.

続いて、送信音声情報、緊急情報、位置情報、操作内容情報、分類情報及び後述する認証処理にて設定されるユーザのニックネームを含む情報を送信データとした音声パケットを生成する(S115)。そして、生成した音声パケットを通信相手の装置(サーバ10又は他の端末装置31〜33)に対して無線送信して(S116)、音声発信処理を終了する。つまり、ユーザの発した音声を表す送信音声情報を、緊急情報、位置情報(発声位置)、操作内容情報、分類情報及びニックネームが特定可能な形(対応付けられた状態)で送信する。なお、すべての音声パケットをサーバ10へ送信し、特定の音声パケット(例えば分類情報として「注意」又は「警告」が付加された送信音声情報を含むもの)については、直接通信可能な他の端末装置31〜33にも送信するようにしてもよい。 Subsequently, a voice packet is generated using the transmitted voice information, the emergency information, the position information, the operation content information, the classification information, and the information including the user's nickname set in the authentication process described later as the transmitted data (S115). Then, the generated voice packet is wirelessly transmitted to the communication partner device (server 10 or other terminal devices 31 to 33) (S116), and the voice transmission process is terminated. That is, the transmitted voice information representing the voice uttered by the user is transmitted in a form in which emergency information, position information (voiced position), operation content information, classification information, and nickname can be specified (associated state). It should be noted that all voice packets are transmitted to the server 10, and specific voice packets (for example, those including transmitted voice information to which "caution" or "warning" is added as classification information) can be directly communicated with other terminals. It may also be transmitted to the devices 31 to 33.

また、端末装置31〜33では、起動時やユーザによる特定の操作が入力された際に、図9に示す認証処理を実施する。認証処理は、音声入力を行うユーザを特定するための処理である。 Further, the terminal devices 31 to 33 carry out the authentication process shown in FIG. 9 at the time of activation or when a specific operation is input by the user. The authentication process is a process for identifying a user who performs voice input.

認証処理では、図9に示すように、まず、ユーザの生体的特徴(例えば、指紋、網膜、掌、声紋等のうちのいずれか)を端末装置31〜33の入力部45を介して取得する(S501)。そして、あらかじめRAM等のメモリに登録されたユーザ名(ID)と生体的特徴とを対応付けたデータベースを参照することによってユーザを特定し、ユーザが設定したニックネームを音声に挿入するよう設定する(S502)。このような処理が終了すると、認証処理を終了する。 In the authentication process, as shown in FIG. 9, first, the biological characteristics of the user (for example, any one of fingerprint, retina, palm, voiceprint, etc.) are acquired via the input unit 45 of the terminal devices 31 to 33. (S501). Then, the user is specified by referring to the database in which the user name (ID) registered in the memory such as RAM and the biological feature are associated with each other, and the nickname set by the user is set to be inserted into the voice ( S502). When such a process is completed, the authentication process is terminated.

次に、音声配信処理について図10A−10Cに示すフローチャートを用いて説明する。音声配信処理は、サーバ10が端末装置31〜33から送信された音声パケットに対して所定の操作(処理)を行い、操作後の音声パケットを他の端末装置31〜33に対して配信する処理である。 Next, the audio distribution process will be described with reference to the flowchart shown in FIGS. 10A-10C. In the voice distribution process, the server 10 performs a predetermined operation (process) on the voice packet transmitted from the terminal devices 31 to 33, and distributes the operated voice packet to the other terminal devices 31 to 33. Is.

詳細には、図10A−10Cに示すように、まず、端末装置31〜33から送信された音声パケットを受信したか否かを判定する(S701)。音声パケットを受信していなければ(S701:NO)、後述するS725の処理に移行する。 Specifically, as shown in FIGS. 10A-10C, first, it is determined whether or not the voice packet transmitted from the terminal devices 31 to 33 has been received (S701). If the voice packet is not received (S701: NO), the process proceeds to S725, which will be described later.

また、音声パケットを受信していれば(S701:YES)、この音声パケットを取得し(S702)、名前/ニックネームDBを参照することで音声パケットにニックネームを付加する(S703)。この処理では、ユーザによって入力された音声パケットに、ユーザを識別するための識別情報であるニックネームを音声で付加した新たな音声パケットを生成する。このとき、ユーザが入力した音声とニックネームとが重複しないように、ニックネームはユーザが入力した音声の前又は後に付加する。 If the voice packet is received (S701: YES), the voice packet is acquired (S702), and the nickname is added to the voice packet by referring to the name / nickname DB (S703). In this process, a new voice packet in which a nickname, which is identification information for identifying the user, is added by voice to the voice packet input by the user is generated. At this time, the nickname is added before or after the voice input by the user so that the voice input by the user and the nickname do not overlap.

続いて、新たな音声パケットに含まれる音声情報の表す音声を文字に変換する(S704)。この処理では、音声を他のユーザが読み取り可能な文字に変換する周知の処理を利用する。この際、位置情報、操作内容情報等についても同様に文字データに変換する。なお、音声パケットの送信元の端末装置31〜33で、音声から文字への変換処理を行う場合には、その変換処理によって得られた文字データを端末装置31〜33から取得することで、サーバ10における変換処理を省略(又は簡略化)してもよい。 Subsequently, the voice represented by the voice information included in the new voice packet is converted into characters (S704). This process utilizes a well-known process of converting speech into characters readable by other users. At this time, the position information, the operation content information, and the like are also converted into character data in the same manner. When the terminal devices 31 to 33, which are the sources of voice packets, perform the conversion process from voice to characters, the server is obtained by acquiring the character data obtained by the conversion process from the terminal devices 31 to 33. The conversion process in 10 may be omitted (or simplified).

次いで、音声(又は変換した文字データ)中の名前(人名)を抽出し、名前があるか否かを判定する(S705)。なお、音声パケットに緊急情報が含まれている場合には、S705から後述するS720までの処理を省略し、後述するS721の処理に移行する。 Next, the name (personal name) in the voice (or converted character data) is extracted, and it is determined whether or not there is a name (S705). If the voice packet contains emergency information, the processing from S705 to S720 described later is omitted, and the process proceeds to the processing of S721 described later.

音声中に名前がなければ(S705:NO)、後述するS709の処理に移行する。また、音声中に名前があれば(S705:YES)、名前/ニックネームDBにこの名前が存在するか否かを判定する(S706)。名前/ニックネームDBに音声中の名前が存在すれば(S706:YES)、この名前を対応するニックネームに音声で置換(文字データにおいては名前をニックネームに文字で置換)し(S707)、S709の処理に移行する。 If there is no name in the voice (S705: NO), the process proceeds to S709, which will be described later. If there is a name in the voice (S705: YES), it is determined whether or not this name exists in the name / nickname DB (S706). If the name in the voice exists in the name / nickname DB (S706: YES), the name is replaced with the corresponding nickname by voice (in the character data, the name is replaced with the nickname with characters) (S707), and the processing of S709. Move to.

また、名前/ニックネームDBに音声中の名前が存在しなければ(S706:NO)、名前を「ピー」という音に置換(文字データにおいては名前を「***」等の別の文字に置換)し(S708)、S709の処理に移行する。 If the name in the voice does not exist in the name / nickname DB (S706: NO), the name is replaced with the sound "pee" (in the character data, the name is replaced with another character such as "***". ) (S708), and the process proceeds to S709.

続いて、音声(又は変換した文字データ)中のあらかじめ設定された禁止ワードを抽出する(S709)。禁止ワードは、一般的に下品、卑猥等、聞く人を不愉快にさせる虞がある単語が禁止ワードDBに登録されており、この処理では音声(又は変換した文字データ)中の単語と禁止ワードDB内の禁止ワードとを照合することで禁止ワードを抽出する。 Subsequently, a preset prohibited word in the voice (or converted character data) is extracted (S709). As for the prohibited words, words such as vulgar and obscene that may make the listener uncomfortable are registered in the prohibited word DB, and in this process, the words in the voice (or converted character data) and the prohibited word DB are registered. The prohibited words are extracted by collating with the prohibited words in.

禁止ワードについては、「ブー」という音に置換(文字データにおいては名前を「×××」等の別の文字に置換)する(S710)。続いて、抑揚チェック及び丁寧表現チェックを実施する(S711,S712)。 The prohibited word is replaced with a "boo" sound (in the character data, the name is replaced with another character such as "XXX") (S710). Subsequently, an intonation check and a polite expression check are carried out (S711, S712).

これらの処理では、ユーザが音声を入力する際の感情や丁寧な話し方であるか等を、マイク52への入力レベルの振幅(絶対値や変化率)や音声に含まれている丁寧表現を音声情報から検出することで判断し、感情が高ぶっていたり、丁寧な話し方でなかったりする状況であるか否かを検出する。 In these processes, the amplitude (absolute value and rate of change) of the input level to the microphone 52 and the polite expression included in the voice are expressed as the emotion and the polite way of speaking when the user inputs the voice. Judgment is made by detecting from the information, and it is detected whether or not the situation is such that emotions are high or the speech is not polite.

チェックの結果、入力された音声が通常の感情であり、かつ丁寧な話し方であれば(S713:YES)、直ちに後述するS715の処理に移行する。また、チェックの結果、入力された音声について、感情が高ぶっていたり、丁寧な話し方でなかったりすれば(S713:NO)、この音声パケットの配信を禁止する旨を示す、音声配信禁止フラグをセットし(S714)、S715の処理に移行する。 As a result of the check, if the input voice is a normal emotion and the speaking style is polite (S713: YES), the process immediately proceeds to the process of S715 described later. In addition, as a result of the check, if the input voice has high emotions or is not spoken politely (S713: NO), a voice distribution prohibition flag is set to indicate that the distribution of this voice packet is prohibited. Then (S714), the process proceeds to S715.

続いて、該当する音声パケットを送信した端末装置31〜33の挙動を、位置情報を追跡することで特定し、端末装置31〜33の挙動が幹線道路から脇道にそれるか、又は、一定時間(例えば、5分程度)以上停止したか否かを判定する(S715)。 Subsequently, the behavior of the terminal devices 31 to 33 that transmitted the corresponding voice packet is identified by tracking the position information, and the behavior of the terminal devices 31 to 33 deviates from the main road to the side road or for a certain period of time. It is determined whether or not the vehicle has stopped for (for example, about 5 minutes) or more (S715).

端末装置31〜33の挙動が幹線道路から脇道にそれるか停止していれば(S715:YES)、休憩しているものとして休憩フラグをセットし(S716)、S717の処理に移行する。また、端末装置31〜33の挙動が幹線道路から脇道にそれる、又は、停止
することに該当しなければ(S715:NO)、直ちにS717の処理に移行する。
If the behavior of the terminal devices 31 to 33 deviates from the main road to the side road or is stopped (S715: YES), the break flag is set as if the terminal device is resting (S716), and the process proceeds to S717. Further, if the behavior of the terminal devices 31 to 33 does not correspond to deviating from the main road to the side road or stopping (S715: NO), the process immediately shifts to the process of S717.

そして、あらかじめ設定された端末装置(例えば、電源が投入されているすべての端末装置、設定に基づき抽出される一部の端末装置、等)を通信相手として設定し(S717)、また、音声入力元の端末装置31〜33に対して失言の結果(名前や禁止ワードの有無の結果や、抑揚チェック、丁寧表現チェックの結果等)を通知する(S718)。 Then, preset terminal devices (for example, all terminal devices that are turned on, some terminal devices that are extracted based on the settings, etc.) are set as communication partners (S717), and voice input is also performed. Notify the original terminal devices 31 to 33 of the result of the false word (result of presence / absence of name or prohibited word, result of intonation check, polite expression check, etc.) (S718).

続いて、配信を行う端末装置31〜33(配信先車両)の位置が特定の位置を通過したか否かを判定する(S719)。ここで、サーバ10においては、複数の広告が広告DBに登録されており、この広告DBでは、広告ごとに広告を配信する領域が設定されている。この処理では、広告(CM)を配信する領域に端末装置31〜33が進入したことを検出している。 Subsequently, it is determined whether or not the position of the terminal devices 31 to 33 (delivery destination vehicle) for distribution has passed a specific position (S719). Here, in the server 10, a plurality of advertisements are registered in the advertisement DB, and in this advertisement DB, an area for delivering the advertisement is set for each advertisement. In this process, it is detected that the terminal devices 31 to 33 have entered the area where the advertisement (CM) is distributed.

配信先車両が特定の位置を通過していれば(S719:YES)、特定の位置に対応する広告をこの端末装置31〜33に送信する音声パケットに付加する(S720)。また、配信先車両が特定の位置を通過していなければ(S719:NO)、S721の処理に移行する。 If the delivery destination vehicle has passed the specific position (S719: YES), the advertisement corresponding to the specific position is added to the voice packet transmitted to the terminal devices 31 to 33 (S720). If the delivery destination vehicle has not passed the specific position (S719: NO), the process proceeds to S721.

続いて、配信すべき音声パケットが複数あるか否かを判定する(S721)。音声パケットが複数ある場合には(S721:YES)、音声パケットが重複しないように整列させ(S722)、S723の処理に移行する。なお、この処理の際には、緊急情報の再生順位が先になるように優先して整列され、休憩フラグがセットされた音声パケットは順序が後になるように整列される。 Subsequently, it is determined whether or not there are a plurality of voice packets to be delivered (S721). When there are a plurality of voice packets (S721: YES), the voice packets are arranged so as not to be duplicated (S722), and the process proceeds to S723. In this process, the voice packets in which the emergency information reproduction order is prioritized are arranged first, and the voice packets for which the break flag is set are arranged so that the order is later.

また、音声パケットが1つである場合には(S721:NO)、直ちにS723の処理に移行する。続いて、既に音声パケットを送信中であるか否かを判定する(S723)。
音声パケットの送信中であれば(S723:YES)、送信しようとする音声パケットを送信中のパケットの後で送信するよう設定し(S724)、S726の処理に移行する。また、音声パケットの送信中でなければ(S723:NO)、直ちにS726の処理に移行する。
If there is only one voice packet (S721: NO), the process immediately proceeds to S723. Subsequently, it is determined whether or not the voice packet is already being transmitted (S723).
If the voice packet is being transmitted (S723: YES), the voice packet to be transmitted is set to be transmitted after the packet being transmitted (S724), and the process proceeds to S726. Further, if the voice packet is not being transmitted (S723: NO), the process immediately proceeds to the process of S726.

ところで、S725の処理では、送信する音声パケットがあるか否かを判定する(S725)。音声パケットがあれば(S725:YES)、送信すべき音声パケットの送信を行い(S726)、音声配信処理を終了する。また、音声パケットがなければ(S726:NO)、音声配信処理を終了する。 By the way, in the process of S725, it is determined whether or not there is a voice packet to be transmitted (S725). If there is a voice packet (S725: YES), the voice packet to be transmitted is transmitted (S726), and the voice distribution process is terminated. If there is no voice packet (S726: NO), the voice distribution process ends.

次に、端末装置31〜33のCPU41が音声の再生を行う音声再生処理について図11A及び11Bに示すフローチャートを用いて説明する。音声再生処理では、図11A及び11Bに示すように、まず、他の端末装置31〜33やサーバ10等の他の装置からパケットを受信したか否かを判定する(S801)。パケットを受信していなければ(S801:NO)、音声再生処理を終了する。 Next, the audio reproduction process in which the CPU 41 of the terminal devices 31 to 33 reproduces the audio will be described with reference to the flowcharts shown in FIGS. 11A and 11B. In the voice reproduction process, as shown in FIGS. 11A and 11B, first, it is determined whether or not a packet has been received from another device such as the other terminal devices 31 to 33 or the server 10 (S801). If no packet has been received (S801: NO), the audio reproduction process ends.

また、パケットを受信していれば(S801:YES)、このパケットが音声パケットであるか否かを判定する(S802)。音声パケットでなければ(S802:NO)、後述するS812の処理に移行する。 Further, if the packet is received (S801: YES), it is determined whether or not this packet is a voice packet (S802). If it is not a voice packet (S802: NO), the process proceeds to S812, which will be described later.

また、音声パケットであれば(S802:YES)、現在再生中の音声情報について再生を停止し、再生中であった音声情報を消去する(S803)。そして、配信禁止フラグがセットされているか否かを判定する(S804)。配信禁止フラグがセットされていれば(S804:YES)、音声再生を禁止する旨を示す音声メッセージ(ROM等のメモ
リにあらかじめ記録されているもの)を生成するとともに、この音声メッセージに対応する文字メッセージを生成する(S805)。
If it is a voice packet (S802: YES), playback of the voice information currently being played is stopped, and the voice information being played is deleted (S803). Then, it is determined whether or not the delivery prohibition flag is set (S804). If the delivery prohibition flag is set (S804: YES), a voice message (pre-recorded in a memory such as ROM) indicating that voice playback is prohibited is generated, and the characters corresponding to this voice message are generated. Generate a message (S805).

続いて、音声を聞き取りやすくするために、オーディオ装置50により再生されている音楽等の再生音量をオフにする(S806)。なお、再生音量を低下させてもよく、また、再生自体を停止させてもよい。 Subsequently, in order to make the sound easier to hear, the playback volume of the music or the like being played by the audio device 50 is turned off (S806). The playback volume may be lowered, or the playback itself may be stopped.

続いて、再生される音声の配信元に対応する端末装置31〜33の位置(発声位置)と、自身の端末装置31〜33の位置(現在地)と、の位置関係に応じて、音声をスピーカ53から再生する際に出力される音量を設定するスピーカ設定処理を実施し(S807)、設定された音量でS805の処理にて生成された音声メッセージを再生(再生を開始)する(S808)。この際、文字メッセージを含む文字データをナビゲーション装置48のディスプレイに出力し表示させる(S812)。 Subsequently, the voice is sounded according to the positional relationship between the positions of the terminal devices 31 to 33 (speaking positions) corresponding to the distribution source of the reproduced voice and the positions of the terminal devices 31 to 33 (current location). A speaker setting process for setting the volume to be output when playing from 53 is performed (S807), and the voice message generated in the process of S805 is played (starting playback) at the set volume (S808). At this time, the character data including the character message is output to the display of the navigation device 48 and displayed (S812).

なお、この処理において表示される文字データとしては、音声パケットに含まれる音声情報の表す音声の内容を示す文字データ、ユーザによる操作内容を示す文字データ及び音声メッセージが含まれる。 The character data displayed in this process includes character data indicating the content of the voice represented by the voice information included in the voice packet, character data indicating the operation content by the user, and a voice message.

また、S804の処理にて、配信禁止フラグがセットされていなければ(S804:NO)、前述したS806と同様、オーディオ装置50により再生されている音楽等の再生音量をオフにする(S809)。さらに、スピーカ設定処理を実施し(S810)、音声パケットに含まれる音声情報の表す音声を再生し(S811)、S812の処理に移行する。音声情報の表す音声は合成音声であるため、再生態様を容易に変更することができる。例えば、再生スピードの調整、言葉に含まれる感情成分の抑制、音調の調整、声色の調整など、ユーザ操作に基づき又は自動的に変更することができる。 Further, if the distribution prohibition flag is not set in the process of S804 (S804: NO), the playback volume of the music or the like being played by the audio device 50 is turned off (S809) as in the above-mentioned S806. Further, the speaker setting process is performed (S810), the voice represented by the voice information included in the voice packet is reproduced (S811), and the process proceeds to the process of S812. Since the voice represented by the voice information is a synthetic voice, the reproduction mode can be easily changed. For example, it can be changed based on or automatically by the user operation, such as adjusting the reproduction speed, suppressing the emotional component contained in the words, adjusting the tone, and adjusting the voice color.

なお、S811の処理では、整列された音声パケットに含まれる音声情報の表す音声を順に再生するので、音声パケットが重複することはないことを前提としているが、複数のサーバ10から音声パケットを受信する場合のように、音声パケットが重複する虞がある場合には、前述のS722の処理(音声パケットを整列させる処理)を実施するようにすればよい。 In the process of S811, since the voice represented by the voice information included in the aligned voice packets is reproduced in order, it is assumed that the voice packets do not overlap, but the voice packets are received from the plurality of servers 10. When there is a risk of duplication of voice packets, the above-mentioned process of S722 (process of aligning voice packets) may be performed.

続いて、コマンドを表す音声がユーザにより入力されたか否かを判定する(S813)。本実施形態では、音声の再生中に、再生中の音声を飛ばすコマンドを表す音声(例えば「カット」という音声)が入力されると(S813:YES)、現在再生中の音声情報を所定の単位で飛ばして、次の音声情報を再生する(S814)。つまり、聞きたくない音声を、音声操作によりスキップして再生することができる。ここでいう所定の単位は、例えば発言(コメント)単位としてもよく、また、発言者単位としてもよい。受信したすべての音声情報について音声の再生が終了すると(S815:YES)、オーディオ装置50により再生されている音楽等の再生音量をオンに戻して(S816)、音声再生処理を終了する。 Subsequently, it is determined whether or not the voice representing the command has been input by the user (S813). In the present embodiment, when a voice representing a command to skip the voice being played (for example, a voice called "cut") is input during voice playback (S813: YES), the voice information currently being played is set as a predetermined unit. Skip with and play the next audio information (S814). That is, the voice that you do not want to hear can be skipped and played by voice operation. The predetermined unit referred to here may be, for example, a comment unit or a speaker unit. When the reproduction of the audio for all the received audio information is completed (S815: YES), the reproduction volume of the music or the like being reproduced by the audio device 50 is turned back on (S816), and the audio reproduction process is terminated.

次に、S807及びS810で実行されるスピーカ設定処理の詳細について、図12を用いて説明する。図12は音声再生処理のうちのスピーカ設定処理を示すフローチャートである。スピーカ設定処理では、図12に示すように、まず、自車両位置を示す位置情報(過去の位置情報を含む)をナビゲーション装置48から取得する(S901)。 Next, the details of the speaker setting process executed in S807 and S810 will be described with reference to FIG. FIG. 12 is a flowchart showing a speaker setting process in the audio reproduction process. In the speaker setting process, as shown in FIG. 12, first, position information (including past position information) indicating the position of the own vehicle is acquired from the navigation device 48 (S901).

続いて、再生対象となる音声パケットに含まれる位置情報(発声位置)を抽出し(S902)、自車両の移動ベクトルに対する他の端末装置31〜33の位置(距離)を検出する(S903)。この処理においては、自身の端末装置31〜33(車両)の進行方向を
基準としたときの再生する音声パケットの送信元の端末装置が位置する方位と、この端末装置までの距離とを検出する。
Subsequently, the position information (speech position) included in the voice packet to be reproduced is extracted (S902), and the positions (distances) of the other terminal devices 31 to 33 with respect to the movement vector of the own vehicle are detected (S903). In this process, the direction in which the terminal device of the source of the voice packet to be reproduced is located and the distance to the terminal device when the traveling direction of the own terminal device 31 to 33 (vehicle) is used as a reference is detected. ..

続いて、音声パケットの送信元の端末装置が位置する方位に応じて、スピーカの音量比を調整する(S904)。この処理では、送信元の端末装置が位置する方位から音声が聞こえるように、この端末装置が存在する方位に位置するスピーカの音量を最も大きくなるように音量の比率を設定する。 Subsequently, the volume ratio of the speaker is adjusted according to the orientation in which the terminal device that is the source of the voice packet is located (S904). In this process, the volume ratio is set so that the volume of the speaker located in the direction in which the terminal device is located is maximized so that the sound can be heard from the direction in which the terminal device of the transmission source is located.

そして、音声パケットの送信元の端末装置までの距離に応じて最も音量比が大きなスピーカに対する音量の最大値を設定する(S905)。この処理によって他のスピーカに対する音量についても音量比に基づいて設定できる。このような処理が終了すると、スピーカ設定処理を終了する。 Then, the maximum value of the volume for the speaker having the largest volume ratio is set according to the distance to the terminal device from which the voice packet is transmitted (S905). By this process, the volume for other speakers can also be set based on the volume ratio. When such processing is completed, the speaker setting processing is completed.

次に、モード移行処理について説明する。図13は、端末装置31〜33のCPU41が実行するモード移行処理を示すフローチャートである。モード移行処理は、通信相手を不特定多数とする配信モードと、特定の相手を通信相手とする対話モードとを切り替えるための処理であり、端末装置31〜33の電源が投入されると開始され、その後繰り返し実施される。 Next, the mode transition process will be described. FIG. 13 is a flowchart showing a mode transition process executed by the CPU 41 of the terminal devices 31 to 33. The mode transition process is a process for switching between a distribution mode in which an unspecified number of communication partners is used and an interactive mode in which a specific party is a communication partner, and is started when the power of the terminal devices 31 to 33 is turned on. , And then repeated.

詳細には、図13に示すように、まず、現在の設定モードが対話モードであるか配信モードであるかを判定する(S1001,S1004)。設定モードが対話モードでも配信モードでもなければ(S1001:NO,S1004:NO)、S1001の処理に戻る。 More specifically, as shown in FIG. 13, first, it is determined whether the current setting mode is the interactive mode or the distribution mode (S1001, S1004). If the setting mode is neither the interactive mode nor the distribution mode (S1001: NO, S1004: NO), the process returns to the process of S1001.

また、設定モードが対話モードであれば(S1001:YES)、入力部45を介してモード移行操作があったか否かを判定する(S1002)。モード移行操作がなければ(S1002:NO)、モード移行処理を終了する。 Further, if the setting mode is the interactive mode (S1001: YES), it is determined whether or not there is a mode transition operation via the input unit 45 (S1002). If there is no mode transition operation (S1002: NO), the mode transition process ends.

モード移行操作があれば(S1002:YES)、配信モードに移行する(S1003)。この際、サーバ10に対して通信相手を不特定多数に設定するよう通知し、サーバ10がこの通知を受けて、この端末装置31〜33に対する通信相手の設定(通信相手DBの記述)を変更する。 If there is a mode transition operation (S1002: YES), the mode shifts to the distribution mode (S1003). At this time, the server 10 is notified to set the communication partner to an unspecified number of persons, and the server 10 receives this notification and changes the setting of the communication partner (description of the communication partner DB) for the terminal devices 31 to 33. To do.

また、設定モードが配信モードであれば(S1001:NO,S1004:YES)、入力部45を介してモード移行操作があったか否かを判定する(S1005)。モード移行操作がなければ(S1005:NO)、モード移行処理を終了する。 Further, if the setting mode is the distribution mode (S1001: NO, S1004: YES), it is determined whether or not there is a mode transition operation via the input unit 45 (S1005). If there is no mode transition operation (S1005: NO), the mode transition process ends.

モード移行操作があれば(S1005:YES)、音声パケットを再生中の相手に対話要求を送信する(S1006)。詳細には、サーバ10に対して音声パケット(の送信元の端末装置)を指定して対話要求を送信すると、サーバ10は対応する端末装置に対話要求を送信する。そしてサーバ10は、この端末装置から対話要求に対する回答を受け、対話要求元の端末装置31〜33に回答を送る。 If there is a mode transition operation (S1005: YES), a dialogue request is transmitted to the other party playing the voice packet (S1006). Specifically, when a voice packet (the terminal device of the transmission source) is specified to the server 10 and a dialogue request is transmitted, the server 10 transmits the dialogue request to the corresponding terminal device. Then, the server 10 receives a reply to the dialogue request from this terminal device and sends the reply to the terminal devices 31 to 33 of the dialogue request source.

端末装置31〜33では、対話要求を受け入れる旨の回答があれば(S1007:YES)、対話要求を受け入れた端末装置を通信相手とする対話モードに移行する(S1008)。この際、サーバ10に対して通信相手を特定の端末装置に設定するよう端末装置を指定して通知し、サーバ10がこの通知を受けて通信相手の設定を変更する。 If there is a reply that the dialogue request is accepted (S1007: YES), the terminal devices 31 to 33 shift to the dialogue mode in which the terminal device that has accepted the dialogue request is the communication partner (S1008). At this time, the server 10 is notified by designating the terminal device to set the communication partner to a specific terminal device, and the server 10 receives this notification and changes the setting of the communication partner.

また、対話要求を受け入れる旨の回答がなければ(S1007:NO)、モード移行処理を終了する。
次に、図14は、端末装置31〜33のCPU41が実行する再再生処理を示すフローチャートである。再再生処理は、音声パケットに含まれる音声情報の表す音声の再生中に、繰り返し再生を行う旨の再再生操作が入力されると開始される割り込み処理である。この処理は、音声再生処理を中断して実施される。
If there is no response to accept the dialogue request (S1007: NO), the mode transition process ends.
Next, FIG. 14 is a flowchart showing a replay process executed by the CPU 41 of the terminal devices 31 to 33. The replay processing is an interrupt process that is started when a replay operation for repeating playback is input during playback of the voice represented by the voice information included in the voice packet. This process is performed by interrupting the audio reproduction process.

再再生処理では、図14に示すように、まず、指定の音声パケットを選択する(S1011)。この処理では、再生中の音声パケット又は再生直後の音声パケット(再生終了後基準時間(例えば3秒)以内)を現在再生中の音声パケットの再生開始後の時間に応じて選択する。 In the replay process, as shown in FIG. 14, first, a designated voice packet is selected (S1011). In this process, the audio packet being reproduced or the audio packet immediately after reproduction (within the reference time (for example, 3 seconds) after the end of reproduction) is selected according to the time after the start of reproduction of the audio packet currently being reproduced.

続いて、選択された音声パケットを最初から再生し(S1012)、再再生処理を終了する。この処理が終了すると、音声再生処理を再開する。
ところで、サーバ10は、端末装置31〜33から送信された音声パケットを受信して音声情報を蓄積し、端末装置31〜33から要求を受けた場合に、蓄積している音声情報の中から要求元の端末装置31〜33に応じた音声情報を抽出し、抽出した音声情報を送信してもよい。
Subsequently, the selected voice packet is reproduced from the beginning (S1012), and the reproduction process is terminated. When this process is completed, the audio reproduction process is restarted.
By the way, the server 10 receives the voice packet transmitted from the terminal devices 31 to 33 and stores the voice information, and when the request is received from the terminal devices 31 to 33, the server 10 requests from the stored voice information. The voice information corresponding to the original terminal devices 31 to 33 may be extracted and the extracted voice information may be transmitted.

図15は、サーバ10のCPU11が実行する蓄積処理を示すフローチャートである。蓄積処理は、前述した音声発信処理(図5A及び5B)で端末装置31〜33から送信された音声パケットを蓄積(記憶)するための処理である。なお、蓄積処理は、前述した音声配信処理(図10A−10C)に代えて実施してもよく、また、音声配信処理とともに(例えば並行して)実施してもよい。 FIG. 15 is a flowchart showing a storage process executed by the CPU 11 of the server 10. The storage process is a process for accumulating (storing) voice packets transmitted from the terminal devices 31 to 33 in the voice transmission process (FIGS. 5A and 5B) described above. The accumulation process may be performed in place of the audio distribution process (FIGS. 10A-10C) described above, or may be performed together with the audio distribution process (for example, in parallel).

蓄積処理では、まず、端末装置31〜33から送信された音声パケットを受信したか否かを判定する(S1101)。音声パケットを受信していなければ(S1101:NO)、蓄積処理を終了する。 In the storage process, first, it is determined whether or not the voice packet transmitted from the terminal devices 31 to 33 has been received (S1101). If no voice packet has been received (S1101: NO), the storage process ends.

音声パケットを受信した場合には(S1101:YES)、受信した音声パケットをデータベース14に蓄積する(S1102)。具体的には、音声パケットに含まれる各種情報(音声情報、緊急情報、位置情報、操作内容情報、分類情報、ユーザのニックネーム、等)に基づいて、音声情報が検索できる形で蓄積する。その後、蓄積処理を終了する。なお、所定の消去条件を満たす音声情報(例えば、古い音声情報、解約ユーザの音声情報、等)はデータベース14から消去するようにしてもよい。 When the voice packet is received (S1101: YES), the received voice packet is stored in the database 14 (S1102). Specifically, the voice information is stored in a searchable form based on various information (voice information, emergency information, location information, operation content information, classification information, user's nickname, etc.) included in the voice packet. After that, the accumulation process is terminated. Note that voice information satisfying a predetermined deletion condition (for example, old voice information, voice information of a churn user, etc.) may be deleted from the database 14.

図16は、端末装置31〜33のCPU41が実行する要求処理を示すフローチャートである。要求処理は、所定時間(例えば数十秒や数分)ごとに実行される。
要求処理では、まず、ナビゲーション装置48によりルート案内の処理が実行されている(換言すれば、目的地までの案内ルートが設定されている)か否かを判定する(S1201)。ルート案内の処理が実行されていると判定した場合には(S1201:YES)、ナビゲーション装置48から、自車両位置を示す位置情報(現在の位置情報)と、案内ルートの情報(目的地及び目的地に至る経路の情報)と、を車両位置情報として取得する(S1202)。その後、S1206に移行する。なお、車両位置情報とは、後述する周辺エリアをサーバ10に設定させるための情報である。
FIG. 16 is a flowchart showing a request process executed by the CPU 41 of the terminal devices 31 to 33. Request processing is executed every predetermined time (for example, several tens of seconds or several minutes).
In the request processing, first, it is determined whether or not the route guidance process is executed by the navigation device 48 (in other words, the guidance route to the destination is set) (S1201). When it is determined that the route guidance process is being executed (S1201: YES), the navigation device 48 provides position information (current position information) indicating the position of the own vehicle and guidance route information (destination and purpose). Information on the route to the ground) and is acquired as vehicle position information (S1202). After that, it shifts to S1206. The vehicle position information is information for causing the server 10 to set a peripheral area to be described later.

一方、ルート案内の処理が実行されていないと判定した場合には(S1201:NO)、車両が走行中であるか否かを判定する(S1203)。具体的には、車両の走行速度が判定基準値を上回る場合に、走行中であると判定する。この判定基準値は、一般的な右左折時の速度(直進走行と比較して低い速度)よりも高い値となるように設定されている。このため、走行中であると判定された場合には、車両の進行方向が大きく変化しない可能性が高い。換言すれば、S1203では、車両の位置情報の変化に基づき進行方向が予測
しやすい走行状態であるか否かを判定する。ただし、これに限定されるものではなく、例えば、0又は0に近い値を判定基準値に設定してもよい。
On the other hand, when it is determined that the route guidance process is not executed (S1201: NO), it is determined whether or not the vehicle is running (S1203). Specifically, when the traveling speed of the vehicle exceeds the determination reference value, it is determined that the vehicle is traveling. This judgment reference value is set to be higher than the general speed at the time of turning left or right (low speed as compared with straight running). Therefore, when it is determined that the vehicle is running, there is a high possibility that the traveling direction of the vehicle does not change significantly. In other words, in S1203, it is determined whether or not the traveling direction is easy to predict based on the change in the position information of the vehicle. However, the present invention is not limited to this, and for example, 0 or a value close to 0 may be set as the determination reference value.

車両が走行中であると判定した場合には(S1203:YES)、ナビゲーション装置48から、自車両位置を示す位置情報(現在の位置情報)と、1つ以上の過去の位置情報と、を車両位置情報として取得する(S1204)。その後、S1206に移行する。なお、過去の位置情報を複数取得する場合は、例えば、5秒前の位置情報、10秒前の位置情報、というように、時間間隔が等しい位置情報を取得してもよい。 When it is determined that the vehicle is running (S1203: YES), the navigation device 48 provides the vehicle with position information (current position information) indicating the position of the own vehicle and one or more past position information. Acquired as position information (S1204). After that, it shifts to S1206. When acquiring a plurality of past position information, the position information having the same time interval may be acquired, for example, the position information 5 seconds ago and the position information 10 seconds ago.

一方、車両が走行中でないと判定した場合には(S1203:NO)、ナビゲーション装置48から、自車両位置を示す位置情報(現在の位置情報)を車両位置情報として取得する(S1205)。その後、S1206に移行する。 On the other hand, when it is determined that the vehicle is not running (S1203: NO), the position information (current position information) indicating the position of the own vehicle is acquired as the vehicle position information from the navigation device 48 (S1205). After that, it shifts to S1206.

続いて、お気に入り情報を取得する(S1206)。お気に入り情報は、多数の音声情報の中からユーザが必要とする音声情報を抽出(検索)するために用いることのできる情報であり、ユーザにより手動で又は自動的に(例えば、ユーザの発言などから嗜好を解析して)設定される。例えば、特定のユーザ(例えば、あらかじめ指定しておいたユーザ)がお気に入り情報として設定されると、その特定のユーザにより発信された音声情報が優先して抽出される。同様に、例えば、特定のキーワードがお気に入り情報として設定されると、その特定のキーワードを含む音声情報が優先して抽出される。なお、このS1206の処理では、既に設定されているお気に入り情報を取得してもよく、また、この段階でユーザに設定させてもよい。 Subsequently, favorite information is acquired (S1206). Favorite information is information that can be used to extract (search) the voice information required by the user from a large amount of voice information, and is manually or automatically by the user (for example, from the user's remarks). It is set (by analyzing the taste). For example, when a specific user (for example, a user specified in advance) is set as favorite information, the voice information transmitted by the specific user is preferentially extracted. Similarly, for example, when a specific keyword is set as favorite information, voice information including the specific keyword is preferentially extracted. In the process of S1206, the favorite information that has already been set may be acquired, or the user may be allowed to set the favorite information at this stage.

続いて、要求する音声情報の種類(ジャンル)を取得する(S1207)。ここでいう種類とは、前述したS109等の処理で分類した種類(本実施形態では「通常」、「注意」及び「警告」)である。 Subsequently, the type (genre) of the requested voice information is acquired (S1207). The type referred to here is a type classified by the above-mentioned processing such as S109 (in this embodiment, "normal", "caution", and "warning").

続いて、車両位置情報と、お気に入り情報と、音声情報の種類と、自身(端末装置31〜33)のID(サーバ10が返信先を特定するための情報)と、を含む情報要求を、サーバ10へ送信する(S1208)。その後、要求処理を終了する。 Subsequently, the server makes an information request including vehicle position information, favorite information, the type of voice information, and the ID (information for the server 10 to specify the reply destination) of itself (terminal devices 31 to 33). It is transmitted to 10 (S1208). After that, the request processing ends.

図17A及び17Bは、サーバ10のCPU11が実行する応答処理を示すフローチャートである。応答処理は、前述した要求処理(図16)で端末装置31〜33から送信された情報要求に対して応答するための処理である。なお、応答処理は、前述した音声配信処理(図10A−10C)に代えて実施してもよく、また、音声配信処理とともに(例えば並行して)実施してもよい。 17A and 17B are flowcharts showing the response processing executed by the CPU 11 of the server 10. The response process is a process for responding to an information request transmitted from the terminal devices 31 to 33 in the request process (FIG. 16) described above. The response process may be performed in place of the voice distribution process (FIGS. 10A-10C) described above, or may be performed together with the voice distribution process (for example, in parallel).

応答処理では、まず、端末装置31〜33から送信された情報要求を受信したか否かを判定する(S1301)。情報要求を受信していなければ(S1301:NO)、応答処理を終了する。 In the response process, first, it is determined whether or not the information request transmitted from the terminal devices 31 to 33 has been received (S1301). If the information request has not been received (S1301: NO), the response process ends.

情報要求を受信した場合には(S1301:YES)、受信した情報要求に含まれる車両位置情報に応じた周辺エリアを設定する(S1302〜S1306)。本実施形態では、前述したように(S1201〜S1205,S1208)、(P1)自車両位置を示す位置情報、(P2)自車両位置を示す位置情報及び1つ以上の過去の位置情報、(P3)自車両位置を示す位置情報及び案内ルートの情報、のうちのいずれかが、車両位置情報として提供される。 When the information request is received (S1301: YES), the peripheral area corresponding to the vehicle position information included in the received information request is set (S1302 to S1306). In the present embodiment, as described above, (S1201 to S1205, S1208), (P1) position information indicating the position of the own vehicle, (P2) position information indicating the position of the own vehicle, and one or more past position information, (P3). ) Either the position information indicating the position of the own vehicle or the information of the guidance route is provided as the vehicle position information.

受信した情報要求に含まれる車両位置情報が、(P1)自車両位置を示す位置情報、であると判定した場合には(S1302:YES)、図18に例示するように、自車両位置
(車両の現在地)Cから所定距離L1以内のエリアA1を周辺エリアに設定する(S1303)。その後、S1307に移行する。なお、図18において、縦横の線は、車両が走行可能な道路を示し、“×”は、サーバ10に蓄積されている音声情報の発声位置を示す。
When it is determined that the vehicle position information included in the received information request is (P1) position information indicating the own vehicle position (S1302: YES), the own vehicle position (vehicle) is illustrated as shown in FIG. Area A1 within a predetermined distance L1 from (current location) C is set as a peripheral area (S1303). After that, it shifts to S1307. In FIG. 18, vertical and horizontal lines indicate roads on which the vehicle can travel, and “x” indicates the vocalization position of the voice information stored in the server 10.

一方、受信した情報要求に含まれる車両位置情報が、(P2)自車両位置を示す位置情報及び1つ以上の過去の位置情報、であると判定した場合には(S1302:NO,S1304:YES)、図19に例示するように、自車両位置(車両の現在地)Cよりも進行方向側(図19における右側)にずれた基準位置Cbから所定距離L2以内のエリアA2を周辺エリアに設定する(S1305)。その後、S1307に移行する。 On the other hand, when it is determined that the vehicle position information included in the received information request is (P2) position information indicating the own vehicle position and one or more past position information, (S1302: NO, S1304: YES). ), As illustrated in FIG. 19, the area A2 within a predetermined distance L2 from the reference position Cb shifted to the traveling direction side (right side in FIG. 19) from the own vehicle position (current location of the vehicle) C is set as the peripheral area. (S1305). After that, it shifts to S1307.

具体的には、車両の進行方向は、現在の位置情報Cと過去の位置情報Cpとの位置関係に基づいて推測する。なお、現在地Cから基準位置Cbまでの距離は、エリアの半径L2よりも大きくしてもよい。つまり、現在地Cを含まないエリアA2を周辺エリアに設定してもよい。 Specifically, the traveling direction of the vehicle is estimated based on the positional relationship between the current position information C and the past position information Cp. The distance from the current location C to the reference position Cb may be larger than the radius L2 of the area. That is, the area A2 that does not include the current location C may be set as the peripheral area.

一方、受信した情報要求に含まれる車両位置情報が、(P3)自車両位置を示す位置情報及び案内ルートの情報、であると判定した場合には(S1304:NO)、走行予定経路に沿ったエリアを周辺エリアに設定する(S1306)。その後、S1307に移行する。 On the other hand, if it is determined that the vehicle position information included in the received information request is (P3) position information indicating the position of the own vehicle and information on the guidance route (S1304: NO), the vehicle follows the planned travel route. The area is set to the surrounding area (S1306). After that, it shifts to S1307.

具体的には、例えば図20に示すように、出発地Sから目的地Gに至る走行予定経路(太線部分)のうち、現在地Cから目的地Gに至る経路に沿ったエリア(経路上と判定されるエリア)A3を、周辺エリアに設定する。ここで、経路に沿ったエリアは、例えば、経路からの距離が所定距離L3以内の範囲として設定してもよい。この場合、道路属性(例えば道路の幅や種類など)に応じてL3の値を変更してもよい。また、目的地Gまでの範囲ではなく、現在地Cから所定距離L4以内の範囲としてもよい。また、ここでは走行済みの経路(出発地Sから現在地Cに至る経路)を除外しているが、これに限定されるものではなく、走行済みの経路も含めるようにしてもよい。 Specifically, for example, as shown in FIG. 20, of the planned travel routes (thick line portion) from the departure point S to the destination G, the area along the route from the current location C to the destination G (determined to be on the route). Area) A3 is set as the surrounding area. Here, the area along the route may be set, for example, as a range in which the distance from the route is within a predetermined distance L3. In this case, the value of L3 may be changed according to the road attribute (for example, the width and type of the road). Further, the range may be within a predetermined distance L4 from the current location C instead of the range to the destination G. Further, although the route that has already been traveled (the route from the departure point S to the current location C) is excluded here, the route is not limited to this, and the route that has already been traveled may be included.

続いて、データベース14に蓄積されている音声情報の中から、発声位置が周辺エリア内の音声情報を抽出する(S1307)。図18〜図20の例では、発声位置が周辺エリア(破線で囲まれた領域)A1,A2,A3内の音声情報が抽出される。 Subsequently, from the voice information stored in the database 14, the voice information whose utterance position is in the peripheral area is extracted (S1307). In the examples of FIGS. 18 to 20, the voice information in the peripheral area (the area surrounded by the broken line) A1, A2, and A3 where the vocalization position is located is extracted.

続いて、S1307で抽出された音声情報の中から、受信した情報要求に含まれる音声情報の種類に対応する音声情報を抽出する(S1308)。さらに、S1308で抽出された音声情報の中から、受信した情報要求に含まれるお気に入り情報に対応する音声情報を抽出する(S1309)。 Subsequently, the voice information corresponding to the type of voice information included in the received information request is extracted from the voice information extracted in S1307 (S1308). Further, from the voice information extracted in S1308, the voice information corresponding to the favorite information included in the received information request is extracted (S1309).

以上の処理(S1302〜S1309)により、端末装置31〜33から受信した情報要求に応じた音声情報を、その情報要求の送信元の端末装置31〜33へ送信すべき送信候補の音声情報として抽出する。 By the above processing (S1302 to S1309), the voice information corresponding to the information request received from the terminal devices 31 to 33 is extracted as the voice information of the transmission candidate to be transmitted to the terminal devices 31 to 33 from which the information request is transmitted. To do.

続いて、送信候補の音声情報のそれぞれについて、音声の内容を解析する(S1310)。具体的には、音声情報の表す音声をテキスト(文字データ)に変換し、変換後のテキストに含まれるキーワードを抽出する。なお、音声情報の内容を表すテキスト(文字データ)をその音声情報ともにデータベース14に記憶しておき、記憶されている情報を利用するようにしてもよい。 Subsequently, the content of the voice is analyzed for each of the voice information of the transmission candidates (S1310). Specifically, the voice represented by the voice information is converted into text (character data), and the keywords included in the converted text are extracted. The text (character data) representing the content of the voice information may be stored in the database 14 together with the voice information, and the stored information may be used.

続いて、送信候補の音声情報のそれぞれについて、他の音声情報と内容が重複するか否
かを判定する(S1311)。例えば、ある音声情報Aに含まれるキーワードと、別の音声情報Bに含まれるキーワードと、が所定割合以上(例えば半数以上)一致する場合に、音声情報A,Bの内容が重複すると判定する。なお、単にキーワードの割合で判定するのではなく、文脈等に基づき内容の重複を判定してもよい。
Subsequently, it is determined whether or not the content of each of the voice information of the transmission candidate overlaps with other voice information (S1311). For example, when a keyword included in a certain voice information A and a keyword included in another voice information B match by a predetermined ratio or more (for example, half or more), it is determined that the contents of the voice information A and B are duplicated. It should be noted that the duplication of contents may be determined based on the context or the like, instead of simply determining the ratio of keywords.

そして、送信候補の音声情報のすべてについて、他の音声情報と内容が重複しないと判定した場合には(S1311:NO)、S1313へ移行して、送信候補の音声情報を、情報要求の送信元の端末装置31〜33へ送信し(S1313)、応答処理を終了する。なお、送信先の端末装置31〜33ごとに、送信済みの音声情報を記憶しておき、既に送信した音声情報については送信しないようにしてもよい。 Then, when it is determined that the contents of all the voice information of the transmission candidate do not overlap with other voice information (S1311: NO), the process proceeds to S1313, and the voice information of the transmission candidate is used as the transmission source of the information request. Is transmitted to the terminal devices 31 to 33 (S1313), and the response process is completed. It should be noted that the transmitted voice information may be stored for each of the transmission destination terminal devices 31 to 33, and the already transmitted voice information may not be transmitted.

一方、送信候補の音声情報の中に、他の音声情報と内容が重複する音声情報が存在すると判定した場合には(S1311:YES)。内容が重複する複数の音声情報のうち、送信候補の音声情報として残す1つの音声情報以外を、送信候補の音声情報から除外することで、内容の重複を解消する(S1312)。例えば、内容が重複する複数の音声情報のうち、最も新しい音声情報を残してもよく、逆に、最も古い音声情報を残してもよい。また例えば、音声情報に含まれるキーワードが最も多いものを残してもよい。その後、送信候補の音声情報を、情報要求の送信元の端末装置31〜33へ送信し(S1313)、応答処理を終了する。 On the other hand, when it is determined that the voice information whose contents overlap with other voice information exists in the voice information of the transmission candidate (S1311: YES). Of the plurality of voice information having duplicate contents, the duplication of contents is eliminated by excluding from the voice information of the transmission candidates other than one voice information left as the voice information of the transmission candidate (S1312). For example, the latest voice information may be left among a plurality of voice information having overlapping contents, and conversely, the oldest voice information may be left. Further, for example, the one with the most keywords included in the voice information may be left. After that, the voice information of the transmission candidate is transmitted to the terminal devices 31 to 33 of the transmission source of the information request (S1313), and the response process is completed.

なお、サーバ10から端末装置31〜33へ送信された音声情報は、前述した音声再生処理(図11A及び11B)で再生される。端末装置31〜33は、既に受信済みの音声パケットの表す音声の再生中に、新たな音声パケットを受信した場合には、新たに受信した音声パケットの表す音声を優先して再生する。また、古い音声パケットの表す音声は再生せずに消去する。その結果、車両の位置に応じた音声情報の表す音声が優先して再生される。 The voice information transmitted from the server 10 to the terminal devices 31 to 33 is reproduced by the above-mentioned voice reproduction processing (FIGS. 11A and 11B). When a new voice packet is received during the reproduction of the voice represented by the already received voice packet, the terminal devices 31 to 33 preferentially reproduce the voice represented by the newly received voice packet. Also, the voice represented by the old voice packet is deleted without being played. As a result, the voice represented by the voice information according to the position of the vehicle is preferentially reproduced.

[本実施形態による効果]
以上説明したように、本実施形態によれば、以下の効果が得られる。
(1)端末装置31〜33は、車両において、ユーザが発した音声を入力するとともに(S102)、位置情報(現在地)を取得する(S114)。そして、端末装置31〜33は、入力された音声を表す音声情報を、その音声の入力時に取得された位置情報(発声位置)が特定可能な形で、複数の端末装置31〜33で共用されるサーバ10へ送信する(S116)。また、端末装置31〜33は、他の端末装置31〜33からサーバ10へ送信された音声情報をサーバ10から受信し、受信した音声情報の表す音声を再生する(S811)。具体的には、端末装置31〜33は、他の端末装置31〜33からサーバ10へ送信された音声情報のうち、その発声位置が、現在地を基準に設定される周辺エリア内(S1303,S1305,S1306)に位置する音声情報の表す音声を再生する。
[Effect of this embodiment]
As described above, according to the present embodiment, the following effects can be obtained.
(1) The terminal devices 31 to 33 input the voice uttered by the user in the vehicle (S102) and acquire the position information (current location) (S114). Then, the terminal devices 31 to 33 share the voice information representing the input voice with the plurality of terminal devices 31 to 33 in a form in which the position information (speaking position) acquired at the time of inputting the voice can be specified. It is transmitted to the server 10 (S116). Further, the terminal devices 31 to 33 receive the voice information transmitted from the other terminal devices 31 to 33 to the server 10 from the server 10 and reproduce the voice represented by the received voice information (S811). Specifically, the terminal devices 31 to 33 are in the peripheral area (S1303, S1305) in which the vocalization position of the voice information transmitted from the other terminal devices 31 to 33 to the server 10 is set based on the current location. , S1306), the voice represented by the voice information is reproduced.

ある場所でユーザが発した音声は、その場所に存在する(又はその場所へ向かう)他のユーザにとって、有用である場合が多い。特に、車両に乗車したユーザの位置は、車両に乗車していないユーザと比較して、時間の経過(車両の走行)に伴い大きく変化し得る。したがって、車両に乗車するユーザにとって、現在地を基準とする周辺エリア内で発せられた他のユーザの音声は、有用な情報となり得る。 Voices made by a user at a location are often useful to other users who are (or are heading for) that location. In particular, the position of the user who is in the vehicle can change significantly with the passage of time (running of the vehicle) as compared with the user who is not in the vehicle. Therefore, for the user who gets on the vehicle, the voice of another user emitted in the surrounding area based on the current location can be useful information.

この点、本実施形態では、ある端末装置31のユーザは、他の端末装置32,33(他の車両)のユーザが発した音声のうち、端末装置31の現在地を基準に設定される周辺エリア内で発せされた音声を聞くことができる。したがって、本実施形態によれば、車両に乗車したユーザに対して有用な情報を提供することができる。 In this regard, in the present embodiment, the user of a certain terminal device 31 has a peripheral area set based on the current location of the terminal device 31 among the voices emitted by the users of the other terminal devices 32 and 33 (other vehicles). You can hear the voice emitted inside. Therefore, according to the present embodiment, it is possible to provide useful information to the user who has boarded the vehicle.

周辺エリア内で発生された音声は、リアルタイムな音声に限らず、過去の(例えば数時間前に発せられた)音声も含まれ得るが、このような音声は、周辺エリア外(例えば遠方の場所)で発せられたリアルタイムな音声と比較して、有用な情報となり得る。例えば、道路における特定の地点で車線規制等が行われている場合、その情報をあるユーザがつぶやくことで、その地点へ向かう別のユーザは、その地点を回避するという選択を行うことができる。また例えば、道路における特定の地点から見る景色が素晴らしい場合、その情報をあるユーザがつぶやくことで、その地点へ向かう別のユーザは、その景色を見逃さないようにすることができる。 The voice generated in the surrounding area is not limited to real-time voice, but may include past voice (for example, emitted several hours ago), but such voice is outside the surrounding area (for example, in a distant place). ) Can be useful information compared to the real-time voice emitted in. For example, when lane regulation or the like is enforced at a specific point on a road, one user can tweet the information, and another user heading for that point can choose to avoid that point. Also, for example, when the scenery seen from a specific point on the road is wonderful, one user can tweet the information so that another user heading to that point does not miss the scenery.

(2)端末装置31〜33からサーバ10へ、車両位置情報として、車両の現在の位置情報に加え、過去の位置情報又は走行予定経路(進行予定経路)の情報が送信された場合、周辺エリアは、車両の現在地に対して進行方向側に偏りを持つエリアに設定される(図19、図20)。このため、既に通過した場所で発せられた音声を再生対象から減らして、これから向かう場所で発せられた音声を増やすことができる。その結果、情報の有用性を高くすることができる。 (2) When the past position information or the planned travel route (scheduled travel route) information is transmitted from the terminal devices 31 to 33 to the server 10 in addition to the current position information of the vehicle as the vehicle position information, the surrounding area Is set in an area that is biased toward the traveling direction with respect to the current location of the vehicle (FIGS. 19 and 20). Therefore, it is possible to reduce the sound emitted at the place where it has already passed from the playback target and increase the sound emitted at the place where it is heading from now on. As a result, the usefulness of the information can be increased.

(3)周辺エリアが、走行予定経路に沿ったエリアに設定された場合には、走行予定経路に沿ったエリア以外で発せられた音声を除外することができるため、情報の有用性を更に向上させることができる。 (3) When the surrounding area is set to an area along the planned travel route, voices emitted in areas other than the planned travel route can be excluded, further improving the usefulness of the information. Can be made to.

(4)端末装置31〜33は、所定時間ごとに車両位置情報を自動的に取得し(S1202,S1204,S1205)、サーバ10へ送信することで(S1208)、車両の現在地に応じた音声情報を取得する。このため、車両の走行に伴い位置が変化しても、その位置に応じた音声情報を取得することができる。特に、端末装置31〜33は、サーバ10から新たな音声情報を受信した場合に、受信済みの音声情報を消去して(S803)、新たな音声情報を再生する(S811)。つまり、所定時間ごとに、音声を再生すべき音声情報を、最新の車両位置情報に応じた音声情報に更新する。したがって、再生される音声を、車両の走行に伴う位置の変化に追従させることができる。 (4) The terminal devices 31 to 33 automatically acquire the vehicle position information at predetermined time intervals (S1202, S1204, S1205) and transmit the vehicle position information to the server 10 (S1208), so that the voice information according to the current location of the vehicle is obtained. To get. Therefore, even if the position changes as the vehicle travels, it is possible to acquire voice information according to the position. In particular, when new voice information is received from the server 10, the terminal devices 31 to 33 erase the received voice information (S803) and reproduce the new voice information (S811). That is, at predetermined time intervals, the voice information for which the voice should be reproduced is updated with the voice information corresponding to the latest vehicle position information. Therefore, the reproduced sound can be made to follow the change in the position due to the traveling of the vehicle.

(5)端末装置31〜33は、車両の現在地を含む車両位置情報等をサーバ10へ送信することで(S1208)、現在地等に応じた音声情報をサーバ10に抽出させ(S1302〜S1312)、サーバ10から受信した音声情報の表す音声を再生する(S811)。このため、端末装置31〜33で音声情報を抽出する構成と比較して、サーバ10から受信する音声情報の量を減らすことができる。 (5) The terminal devices 31 to 33 transmit the vehicle position information including the current location of the vehicle to the server 10 (S1208), and cause the server 10 to extract the voice information according to the current location (S1302 to S1312). The voice represented by the voice information received from the server 10 is reproduced (S811). Therefore, the amount of voice information received from the server 10 can be reduced as compared with the configuration in which the terminal devices 31 to 33 extract the voice information.

(6)端末装置31〜33は、ユーザの発した音声を入力し(S102)、入力した音声を合成音声に変換する(S107)。このように合成音声に変換してから再生することで、音声をそのまま再生する場合と比較して、再生態様を変更しやすくすることができる。例えば、再生スピードの調整、言葉に含まれる感情成分の抑制、音調の調整、声色の調整、などの変更を容易に行うことができる。 (6) The terminal devices 31 to 33 input the voice uttered by the user (S102) and convert the input voice into synthetic voice (S107). By reproducing the voice after converting it into a synthetic voice in this way, it is possible to make it easier to change the playback mode as compared with the case where the voice is played as it is. For example, it is possible to easily make changes such as adjustment of playback speed, suppression of emotional components contained in words, adjustment of tone, and adjustment of voice color.

(7)端末装置31〜33は、音声の再生中に、コマンドを表す音声が入力された場合に、そのコマンドに応じて音声の再生態様を変更する。具体的には、再生中の音声を飛ばすコマンドを表す音声が入力された場合に(S813:YES)、再生中の音声を所定の単位で飛ばして再生する(S814)。このため、聞きたくない音声を、例えば発言(コメント)単位や、発言者単位など、所定の単位で飛ばして再生することができる。 (7) When a voice representing a command is input during playback of voice, the terminal devices 31 to 33 change the voice reproduction mode according to the command. Specifically, when a voice representing a command for skipping the voice being played is input (S813: YES), the voice being played is skipped in a predetermined unit and played back (S814). Therefore, the voice that is not desired to be heard can be skipped and reproduced in a predetermined unit such as a comment unit or a speaker unit.

(8)サーバ10は、送信候補の音声情報のそれぞれについて、他の音声情報と内容が重複するか否かを判定し(S1311)、重複すると判定した場合には(S1311:YES)、重複する内容の音声情報を削除する(S1312)。例えば、ある場所で発生し
た事故についての発言などのように、同じ事象に対して複数のユーザが同様の発言をした場合には、同様の発言が繰り返し再生される現象が生じやすくなる。この点、本実施形態によれば、内容の重複する音声の再生が省略されるため、同様の発言が繰り返し再生される現象を生じにくくすることができる。
(8) The server 10 determines whether or not the content of each of the voice information of the transmission candidate is duplicated with other voice information (S1311), and if it is determined to be duplicated (S1311: YES), the contents are duplicated. The audio information of the content is deleted (S1312). For example, when a plurality of users make similar remarks for the same event, such as remarks about an accident that occurred in a certain place, a phenomenon in which the same remarks are repeatedly reproduced is likely to occur. In this respect, according to the present embodiment, since the reproduction of the voice having duplicated contents is omitted, it is possible to prevent the phenomenon that the same remark is repeatedly reproduced.

(9)サーバ10は、送信候補の音声情報の中から、お気に入り情報に対応する音声情報を抽出して(S1309)、端末装置31〜33へ送信する(S1313)。このため、他の多数のユーザにより送信される大量の音声情報の中から、ユーザが必要とする(ユーザに応じた優先条件を満たす)音声情報を効率よく抽出して優先的に再生することができる。 (9) The server 10 extracts the voice information corresponding to the favorite information from the voice information of the transmission candidates (S1309) and transmits the voice information to the terminal devices 31 to 33 (S1313). Therefore, it is possible to efficiently extract the voice information required by the user (which satisfies the priority condition according to the user) from a large amount of voice information transmitted by many other users and play it preferentially. it can.

(10)端末装置31〜33は、車両に搭載されたオーディオ装置と通信可能に構成され、音声の再生中におけるオーディオ装置の音量を、音声を再生する前の音量と比較して、低くする(S806)。このため、音声を聞き取りやすくすることができる。 (10) The terminal devices 31 to 33 are configured to be communicable with the audio device mounted on the vehicle, and the volume of the audio device during sound reproduction is lowered as compared with the volume before the sound is reproduced (10). S806). Therefore, the voice can be easily heard.

(11)端末装置31〜33は、車両において、車両に関する特定のイベントが発生したことを検出する(S110,S112)。そして、端末装置31〜33は、特定のイベントが発生したことを検出した場合に(S110:YES又はS112:YES)、特定のイベントに対応する音声を表す音声情報を、他の端末装置31〜33又はサーバ10へ送信する(S116)。また、端末装置31〜33は、他の端末装置31〜33又はサーバ10から音声情報を受信し、受信した音声情報の表す音声を再生する(S811)。 (11) The terminal devices 31 to 33 detect that a specific event related to the vehicle has occurred in the vehicle (S110, S112). Then, when the terminal devices 31 to 33 detect that a specific event has occurred (S110: YES or S112: YES), the terminal devices 31 to 3 to the other terminal devices 31 to provide voice information representing the voice corresponding to the specific event. It is transmitted to 33 or the server 10 (S116). Further, the terminal devices 31 to 33 receive voice information from the other terminal devices 31 to 33 or the server 10 and reproduce the voice represented by the received voice information (S811).

本実施形態によれば、ある端末装置31のユーザは、他の端末装置32,33(他の車両)から送信された、車両に関する特定のイベントに対応する音声を聞くことができる。したがって、端末装置31〜33のユーザは、他の車両の状態を、運転しながら把握することができる。 According to the present embodiment, the user of a certain terminal device 31 can hear the sound corresponding to a specific event related to the vehicle transmitted from the other terminal devices 32, 33 (another vehicle). Therefore, the user of the terminal devices 31 to 33 can grasp the state of another vehicle while driving.

(12)端末装置31〜33は、車両のユーザにより特定の運転操作が行われたことを、特定のイベントとして検出する(S301,S303,S306)。そして、端末装置31〜33は、特定の運転操作を検出した場合に(S301:YES、S303:YES又はS306:YES)、特定の運転操作が行われたことを通知する内容の音声を表す音声情報を送信する(S302,S304,S307,S116)。このため、端末装置31〜33のユーザは、他の車両において特定の運転操作が行われたことを、運転しながら把握することができる。 (12) The terminal devices 31 to 33 detect that a specific driving operation has been performed by the user of the vehicle as a specific event (S301, S303, S306). Then, when the terminal devices 31 to 33 detect a specific driving operation (S301: YES, S303: YES or S306: YES), a voice representing a voice indicating that the specific driving operation has been performed is performed. Information is transmitted (S302, S304, S307, S116). Therefore, the user of the terminal devices 31 to 33 can grasp while driving that a specific driving operation has been performed in another vehicle.

(13)端末装置31〜33は、急ブレーキ操作を検出した場合に(S306:YES)、急ブレーキ操作が行われたことを通知する内容の音声を表す音声情報を送信する(S307)。このため、端末装置31〜33のユーザは、他の車両において急ブレーキ操作が行われたことを、運転しながら把握することができる。したがって、目視だけで他の車両の状態を確認する場合と比較して、安全な走行を実現することができる。 (13) When the terminal devices 31 to 33 detect a sudden braking operation (S306: YES), the terminal devices 31 to 33 transmit voice information representing a voice of the content notifying that the sudden braking operation has been performed (S307). Therefore, the user of the terminal devices 31 to 33 can grasp while driving that the sudden braking operation has been performed in another vehicle. Therefore, it is possible to realize safe driving as compared with the case where the state of another vehicle is confirmed only by visual inspection.

(14)端末装置31〜33は、パッシング操作を検出した場合に(S303:YES)、パッシング操作が行われたことを通知する内容の音声を表す音声情報を送信する(S304)。このため、端末装置31〜33のユーザは、他の車両においてパッシング操作が行われたことを、運転しながら把握することができる。したがって、目視だけで他の車両の状態を確認する場合と比較して、他の車両からの合図を把握しやすくすることができる。 (14) When the terminal devices 31 to 33 detect the passing operation (S303: YES), the terminal devices 31 to 33 transmit voice information representing the voice of the content notifying that the passing operation has been performed (S304). Therefore, the user of the terminal devices 31 to 33 can grasp while driving that the passing operation has been performed in another vehicle. Therefore, it is possible to easily grasp the signal from the other vehicle as compared with the case where the state of the other vehicle is confirmed only by visual inspection.

(15)端末装置31〜33は、ウインカ操作を検出した場合に(S301:YES)、ウインカ操作が行われたことを通知する内容の音声を表す音声情報を送信する(S30
2)。このため、端末装置31〜33のユーザは、他の車両においてウインカ操作が行われたことを、運転しながら把握することができる。したがって、目視だけで他の車両の状態を確認する場合と比較して、他の車両の動きを予測しやすくすることができる。
(15) When the terminal devices 31 to 33 detect the winker operation (S301: YES), the terminal devices 31 to 33 transmit voice information representing the voice of the content notifying that the winker operation has been performed (S30).
2). Therefore, the user of the terminal devices 31 to 33 can grasp while driving that the winker operation has been performed in another vehicle. Therefore, it is possible to easily predict the movement of the other vehicle as compared with the case of confirming the state of the other vehicle only by visual inspection.

(16)端末装置31〜33は、車両に関する特定の状態を特定のイベントとして検出する(S401,S403,S405,S408)。そして、端末装置31〜33は、特定の状態を検出した場合に(S401:YES、S403:YES、S405:YES又はS408:YES)、特定の状態が検出されたことを通知する内容の音声を表す音声情報を送信する(S402,S404,S406,S409,S116)。このため、端末装置31〜33のユーザは、他の車両において特定の状態が検出されたことを、運転しながら把握することができる。 (16) The terminal devices 31 to 33 detect a specific state related to the vehicle as a specific event (S401, S403, S405, S408). Then, when the terminal devices 31 to 33 detect a specific state (S401: YES, S403: YES, S405: YES or S408: YES), the terminal device 31 to 33 emits a voice of the content notifying that the specific state has been detected. The voice information to be represented is transmitted (S402, S404, S406, S409, S116). Therefore, the user of the terminal devices 31 to 33 can grasp while driving that a specific state has been detected in another vehicle.

(17)端末装置31〜33は、ABSの作動を検出した場合に(S401:YES)、ABSが作動したことを通知する内容の音声を表す音声情報を送信する(S402)。このため、端末装置31〜33のユーザは、他の車両においてABSが作動したことを、運転しながら把握することができる。したがって、路面の状況を目視だけで確認する場合と比較して、スリップしやすい状況を予測しやすくすることができる。 (17) When the terminal devices 31 to 33 detect the operation of the ABS (S401: YES), the terminal devices 31 to 33 transmit voice information representing the voice of the content notifying that the ABS has been operated (S402). Therefore, the user of the terminal devices 31 to 33 can grasp that the ABS has been operated in another vehicle while driving. Therefore, it is possible to easily predict the slip-prone situation as compared with the case where the road surface condition is visually confirmed.

(18)端末装置31〜33は、路面の段差などと車両の下面とが接触した状態又は接触する危険性の高い状態を検出した場合に(S403:YES)、車両の下面を擦る危険性があることを通知する内容の音声を表す音声情報を送信する(S404)。このため、路面の状況を目視だけで確認する場合と比較して、車両の下面を擦る危険性が高い状況を予測しやすくすることができる。 (18) When the terminal devices 31 to 33 detect a state in which a step on the road surface is in contact with the lower surface of the vehicle or a state in which there is a high risk of contact (S403: YES), there is a risk of rubbing the lower surface of the vehicle. The voice information representing the voice of the content notifying the existence is transmitted (S404). Therefore, it is possible to easily predict a situation in which there is a high risk of rubbing the lower surface of the vehicle as compared with the case where the condition of the road surface is visually confirmed.

(19)端末装置31〜33は、車両が横風を受けている状態を検出した場合に(S405:YES)、車両が横風を受けていることを通知する内容の音声を表す音声情報を送信する(S406)。このため、車外の状況を目視だけで確認する場合と比較して、横風の影響を受けやすい状況を予測しやすくすることができる。 (19) When the terminal devices 31 to 33 detect a state in which the vehicle is receiving a crosswind (S405: YES), the terminal devices 31 to 33 transmit voice information representing a voice of the content notifying that the vehicle is receiving a crosswind. (S406). Therefore, it is possible to easily predict the situation that is easily affected by the crosswind as compared with the case where the situation outside the vehicle is visually confirmed.

(20)端末装置31〜33は、車両が転落又は衝突した状態を検出した場合に(S408:YES)、車両が転落又は衝突したことを通知する内容の音声を表す音声情報を送信する(S409)。このため、端末装置31〜33のユーザは、他の車両が転落又は衝突したことを、運転しながら把握することができる。したがって、目視だけで他の車両の状態を確認する場合と比較して、安全な走行を実現することができる。 (20) When the terminal devices 31 to 33 detect a state in which the vehicle has fallen or collided (S408: YES), the terminal devices 31 to 33 transmit voice information representing the voice of the content notifying that the vehicle has fallen or collided (S409). ). Therefore, the user of the terminal devices 31 to 33 can grasp while driving that another vehicle has fallen or collided. Therefore, it is possible to realize safe driving as compared with the case where the state of another vehicle is confirmed only by visual inspection.

(21)その他、以下のような効果も得られる。
以上のように詳述した通信システム1は、互いに通信可能な複数の端末装置31〜33を備えており、また、複数の端末装置31〜33のそれぞれと通信可能なサーバ10とを備えている。各端末装置31〜33のCPU41は、ユーザが音声を入力すると該音声を音声情報に変換し、音声情報を他の端末装置31〜33を含む装置に送信する。
(21) In addition, the following effects can be obtained.
The communication system 1 described in detail as described above includes a plurality of terminal devices 31 to 33 capable of communicating with each other, and also includes a server 10 capable of communicating with each of the plurality of terminal devices 31 to 33. .. When the user inputs voice, the CPU 41 of each terminal device 31 to 33 converts the voice into voice information and transmits the voice information to a device including other terminal devices 31 to 33.

そして、CPU41は他の端末装置31〜33にて送信された音声情報を受信し、受信した音声情報を再生する。また、サーバ10は、複数の端末装置31〜33から送信された音声情報を受信し、各音声情報に対応する音声が重複しないように整列させてから複数の端末装置31〜33に対して音声情報を配信する。 Then, the CPU 41 receives the voice information transmitted by the other terminal devices 31 to 33, and reproduces the received voice information. Further, the server 10 receives the voice information transmitted from the plurality of terminal devices 31 to 33, arranges the voices corresponding to the voice information so as not to overlap, and then voices the voices to the plurality of terminal devices 31 to 33. Distribute information.

このような通信システム1によれば、音声で発信内容を入力し、音声で他の端末装置31〜33からの発信内容を再生することができるので、運転中のユーザであってもつぶやきたい内容等の発信内容を安全に送受信することができる。また、このような通信システム1では、音声を再生する際に、音声が重複しないように再生することができるので、音
声を聞きやすくすることができる。
According to such a communication system 1, it is possible to input the transmission content by voice and reproduce the transmission content from other terminal devices 31 to 33 by voice, so that even a driving user wants to tweet. Etc. can be safely transmitted and received. Further, in such a communication system 1, when the voice is reproduced, the voice can be reproduced so as not to be duplicated, so that the voice can be easily heard.

また、上記通信システム1においてCPU41は、ユーザによる特定の指令を受けると、既に再生した音声情報を再度再生する。特に、直前に再生した音声情報を再生してもよい。このような通信システム1によれば、騒音等によって聞き取れなかった音声情報をユーザの指令により再度再生することができる。 Further, in the communication system 1, when the CPU 41 receives a specific command from the user, the CPU 41 replays the already played voice information. In particular, the voice information played immediately before may be played back. According to such a communication system 1, voice information that cannot be heard due to noise or the like can be reproduced again by a user command.

さらに、上記通信システム1において、端末装置31〜33は車両に搭載されており、端末装置31〜33のCPU41は、車両のハンドル上にあるユーザの手の動きを検出するタッチパネル61,62と、タッチパネル61,62により音声の入力を開始する開始特定動作を検出した場合に、音声パケットを生成する処理を開始させ、タッチパネル61,62により音声の入力を終了する終了特定動作を検出した場合に、音声パケットを生成する処理を終了させる。このような通信システム1によれば、音声を入力するための操作をハンドル上で行うことができる。よって、車両の運転中のユーザがより安全に音声を入力することができる。 Further, in the communication system 1, the terminal devices 31 to 33 are mounted on the vehicle, and the CPU 41 of the terminal devices 31 to 33 includes touch panels 61 and 62 for detecting the movement of the user's hand on the handle of the vehicle. When the touch panels 61 and 62 detect the start specific action of starting the voice input, the process of generating the voice packet is started, and when the touch panels 61 and 62 detect the end specific action of ending the voice input. The process of generating a voice packet is terminated. According to such a communication system 1, an operation for inputting voice can be performed on the steering wheel. Therefore, the user who is driving the vehicle can input the voice more safely.

また、上記通信システム1においてCPU41は、タッチパネル61,62を介して入力される開始特定動作及び終了特定動作を、クラクションを操作する際の操作方向とは異なる方向の手の動きとして検出する。このような通信システム1によれば、開始特定動作又は終了特定動作の際に、クラクションが鳴らされることを抑制することができる。 Further, in the communication system 1, the CPU 41 detects the start specific operation and the end specific operation input via the touch panels 61 and 62 as hand movements in a direction different from the operation direction when operating the horn. According to such a communication system 1, it is possible to suppress the sounding of the horn at the time of the start specific operation or the end specific operation.

また、上記通信システム1においてサーバ10は、ユーザによって入力された音声情報に、該ユーザを識別するための識別情報を音声で付加した新たな音声情報を生成し、該生成した音声情報を配信する。このような通信システム1では、ユーザを識別するための識別情報を音声で付加することができるので、ユーザは自身の識別情報を話すことなく、他のユーザに音声発信元のユーザを通知することができる。 Further, in the communication system 1, the server 10 generates new voice information in which identification information for identifying the user is added by voice to the voice information input by the user, and distributes the generated voice information. .. In such a communication system 1, since identification information for identifying a user can be added by voice, the user notifies another user of the user who originated the voice without speaking his / her own identification information. Can be done.

さらに、上記通信システム1においてサーバ10は、音声情報の再生前に、音声情報から該音声情報に含まれるあらかじめ設定されたキーワードを抽出し、音声情報に含まれるキーワードを別の単語の音声又はあらかじめ設定された音に置き換える。このような通信システム1によれば、配信するには好ましくない単語(卑猥な単語や人名を示す単語、野蛮な単語等)をキーワードに登録し、配信してもよい単語や音に置換して配信を行うことができる。 Further, in the communication system 1, the server 10 extracts a preset keyword included in the voice information from the voice information before playing the voice information, and sets the keyword included in the voice information into the voice of another word or in advance. Replace with the set sound. According to such a communication system 1, words that are not preferable for distribution (obscene words, words indicating personal names, barbaric words, etc.) are registered as keywords and replaced with words or sounds that may be distributed. Can be delivered.

また、上記通信システム1において各端末装置31〜33のCPU41は、自身の位置情報を取得し、該位置情報を自身の端末装置31〜33から送信する音声情報に対応付けて他の端末装置31〜33に対して送信し、他の端末装置31〜33にて送信された位置情報を取得する。そして、再生される音声に対応する端末装置31〜33の位置と自身の端末装置31〜33の位置との位置関係に応じて、音声を再生する際に出力される音量を制御する。 Further, in the communication system 1, the CPU 41 of each terminal device 31 to 33 acquires its own position information, associates the position information with the voice information transmitted from its own terminal devices 31 to 33, and associates the position information with other terminal devices 31. It is transmitted to ~ 33, and the position information transmitted by other terminal devices 31 to 33 is acquired. Then, the volume output when the sound is reproduced is controlled according to the positional relationship between the positions of the terminal devices 31 to 33 corresponding to the reproduced sound and the positions of the own terminal devices 31 to 33.

特に、CPU41は、他の端末装置31〜33までの距離が遠くなるに従って音量が小さくなるように制御し、かつ複数のスピーカから音声を出力する際に、自身の端末装置31〜33の位置に対する他の端末装置31〜33が位置する方位に応じて、ユーザからみて他の端末装置31〜33が位置する方向からの音量が大きくなるように音量を制御する。 In particular, the CPU 41 controls the volume to decrease as the distance to the other terminal devices 31 to 33 increases, and when outputting audio from a plurality of speakers, the CPU 41 refers to the position of its own terminal devices 31 to 33. The volume is controlled so that the volume from the direction in which the other terminal devices 31 to 33 are located becomes louder from the user's point of view according to the orientation in which the other terminal devices 31 to 33 are located.

このような通信システム1によれば、再生される音声に対応する端末装置31〜33の位置と自身の端末装置31〜33の位置との位置関係に応じて音量を制御するので、音声を聞くユーザは、他の端末装置31〜33と自身の端末装置31〜33との位置関係を感
覚的に把握することができる。
According to such a communication system 1, the volume is controlled according to the positional relationship between the positions of the terminal devices 31 to 33 corresponding to the reproduced voice and the positions of the own terminal devices 31 to 33, so that the voice is heard. The user can intuitively grasp the positional relationship between the other terminal devices 31 to 33 and his / her own terminal devices 31 to 33.

さらに、上記通信システム1においてサーバ10は、音声情報を文字に変換し、変換された文字を表示装置に出力する。このような通信システム1によれば、音声で聞き逃した情報を文字で確認することができる。 Further, in the communication system 1, the server 10 converts voice information into characters and outputs the converted characters to the display device. According to such a communication system 1, it is possible to confirm the information missed by voice in characters.

さらに、上記通信システム1では、各端末装置31〜33のCPU41は、車両の状態やユーザの運転操作を示す情報(ライト、ワイパ、テレビ、ラジオ等の作動状態、走行速度、進行方向等の走行状態、車両のセンサによる検出値や故障の有無等の制御状態)を音声に併せて送信する。このような通信システム1では、ユーザの運転操作を示す情報についても他の端末装置31〜33に送ることができる。 Further, in the communication system 1, the CPU 41 of each terminal device 31 to 33 is used to display information indicating the state of the vehicle and the driving operation of the user (operating state of lights, wipers, televisions, radios, etc., traveling speed, traveling direction, etc.). The state, the value detected by the vehicle sensor, the control state such as the presence or absence of a failure, etc.) are transmitted together with the voice. In such a communication system 1, information indicating a user's driving operation can also be sent to other terminal devices 31 to 33.

また、上記通信システム1では、端末装置31〜33の位置に応じて、広告を音声で流す。広告の内容は、サーバ10にて挿入され、サーバ10が音声情報の再生を行う端末装置31〜33に広告を送信する。このような通信システム1によれば、広告収入を得ることができるビジネスモデルを提供することができる。 Further, in the communication system 1, the advertisement is played by voice according to the positions of the terminal devices 31 to 33. The content of the advertisement is inserted in the server 10, and the advertisement is transmitted to the terminal devices 31 to 33 in which the server 10 reproduces the voice information. According to such a communication system 1, it is possible to provide a business model capable of earning advertising revenue.

さらに、上記通信システム1においては、通信相手を不特定多数とする配信モードと特定の通信相手との通話を行う対話モードとを変更可能に設定されている。このような通信システム1によれば、特定の相手との通話を楽しむこともできる。 Further, in the communication system 1, the distribution mode in which an unspecified number of communication partners are set and the dialogue mode in which a call is made with a specific communication partner are set to be changeable. According to such a communication system 1, it is possible to enjoy a call with a specific party.

さらに、上記通信ステム1においてサーバ10は、ユーザが音声を入力する際の感情や丁寧な話し方であるか等を、入力レベルの振幅や音声に含まれている丁寧表現を音声情報から検出することで判断し、感情が高ぶっていたり、丁寧な話し方でなかったりするユーザによる音声を配信しないようにする。このような通信システム1によれば、喧嘩を引き起こす原因となるユーザからの発言を排除することができる。 Further, in the communication system 1, the server 10 detects from the voice information the amplitude of the input level and the polite expression included in the voice, such as the emotion when the user inputs the voice and the polite way of speaking. Do not deliver audio by users who have high emotions or do not speak politely. According to such a communication system 1, it is possible to eliminate a statement from a user that causes a quarrel.

また、上記通信システム1においてサーバ10は人の悪口を発言するユーザや、感情が高ぶっていたり、丁寧な話し方でなかったりするユーザに、失言等を通知する。この場合、悪口等としてキーワード登録された単語が音声情報中に含まれているか否かによって判断を行う。このような通信システム1によれば、失言を行ったユーザに失言を行わないよう促すことができる。 Further, in the communication system 1, the server 10 notifies a user who speaks badly about a person or a user who has high emotions or does not speak politely, such as a false word. In this case, the judgment is made based on whether or not the word registered as a keyword as a bad word is included in the voice information. According to such a communication system 1, it is possible to urge the user who has made a mistake not to make a mistake.

なお、S102が入力手段としての処理の一例に相当し、S114,S1202,S1204,S1205が取得手段としての処理の一例に相当し、S116が送信手段としての処理の一例に相当し、S811が再生手段としての処理の一例に相当する。 Note that S102 corresponds to an example of processing as an input means, S114, S1202, S1204, and S1205 correspond to an example of processing as an acquisition means, S116 corresponds to an example of processing as a transmission means, and S811 corresponds to reproduction. It corresponds to an example of processing as a means.

[その他の実施形態]
本発明の実施の形態は、上記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
[Other Embodiments]
The embodiment of the present invention is not limited to the above embodiment, and various forms may be adopted as long as it belongs to the technical scope of the present invention.

(1)上記実施形態では、蓄積された複数の音声情報の中から、音声を再生する端末装置31〜33に応じた音声情報を抽出する抽出処理を、サーバ10で実行するようにしているが(S1302〜S1312)、これに限定されるものではない。例えば、音声を再生する端末装置31〜33でこのような抽出処理の一部又は全部を実行してもよい。例えば、サーバ10が、端末装置31〜33で再生されない可能性のある余分な音声情報も含み得る形で、音声情報を端末装置31〜33へ送信し、端末装置31〜33が、受信した音声情報の中から、再生すべき音声情報を抽出(不要な音声情報を破棄)するようにしてもよい。なお、サーバ10から端末装置31〜33への音声情報の送信は、端末装置31〜33からの要求に応じて行われるようにしてもよく、また、要求に関係なく行われるよ
うにしてもよい。
(1) In the above embodiment, the server 10 executes an extraction process for extracting voice information according to the terminal devices 31 to 33 that reproduce the voice from the accumulated voice information. (S1302 to S1312), and the present invention is not limited to this. For example, a part or all of such an extraction process may be executed by the terminal devices 31 to 33 that reproduce the sound. For example, the server 10 transmits audio information to the terminal devices 31 to 33 in a form that may include extra audio information that may not be reproduced by the terminal devices 31 to 33, and the terminal devices 31 to 33 receive the received audio. The audio information to be reproduced may be extracted from the information (unnecessary audio information is discarded). The transmission of voice information from the server 10 to the terminal devices 31 to 33 may be performed in response to a request from the terminal devices 31 to 33, or may be performed regardless of the request. ..

(2)上記実施形態では、サーバ10は、送信候補の音声情報のそれぞれについて、他の音声情報と内容が重複するか否かを判定し(S1311)、重複すると判定した場合に(S1311:YES)、内容の重複を解消する(S1312)。このようにすることで、同様の発言が繰り返し再生される現象を生じにくくすることができるが、見方を変えれば、内容が重複する音声情報の数が多いほど、その内容の信憑性は高いと考えられる。そこで、内容が重複する音声情報が一定数以上であることを、その内容の音声を再生する条件としてもよい。 (2) In the above embodiment, the server 10 determines whether or not the content of each of the voice information of the transmission candidate is duplicated with other voice information (S1311), and when it is determined that the contents are duplicated (S1311: YES). ), The duplication of contents is eliminated (S1312). By doing so, it is possible to prevent the phenomenon that similar remarks are repeatedly reproduced, but from a different point of view, the greater the number of overlapping audio information, the higher the credibility of the content. Conceivable. Therefore, it may be a condition for reproducing the audio of the content that the number of audio information having duplicate contents is a certain number or more.

例えば、図21A及び21Bに示す応答処理は、前述した図17A及び17Bの応答処理におけるS1311〜S1312の処理を、S1401〜S1403の処理に置き換えたものである。すなわち、図21A及び21Bに示す応答処理では、送信候補の音声情報のそれぞれについて、例えば「事故」や「通行規制」など、あらかじめ設定された特定のキーワードが含まれるか否かを判定する(S1401)。 For example, the response processing shown in FIGS. 21A and 21B replaces the processing of S1311 to S1312 in the response processing of FIGS. 17A and 17B described above with the processing of S1401 to S1403. That is, in the response processing shown in FIGS. 21A and 21B, it is determined whether or not each of the voice information of the transmission candidate includes a specific preset keyword such as "accident" or "traffic control" (S1401). ).

そして、送信候補の音声情報の中に、特定のキーワードを含む音声情報が存在すると判定した場合には(S1401:YES)、特定のキーワードを含む音声情報の中に、同一内容の(内容が重複する)音声情報が一定数(例えば3つ)未満のものが存在するか否かを判定する(S1402)。ここで、同一内容の音声情報が一定数未満の音声情報が存在すると判定した場合には(S1402:YES)、その内容の音声情報を送信候補の音声情報から除外する(S1403)。その後、送信候補の音声情報を、情報要求の送信元の端末装置31〜33へ送信し(S1313)、応答処理を終了する。 Then, when it is determined that the voice information including the specific keyword exists in the voice information of the transmission candidate (S1401: YES), the same content (contents are duplicated) in the voice information including the specific keyword. (S) Determines whether or not there is less than a certain number (for example, three) of voice information (S1402). Here, when it is determined that there is less than a certain number of voice information having the same content (S1402: YES), the voice information of the content is excluded from the voice information of the transmission candidate (S1403). After that, the voice information of the transmission candidate is transmitted to the terminal devices 31 to 33 of the transmission source of the information request (S1313), and the response process is completed.

一方、送信候補の音声情報の中に、特定のキーワードを含む音声情報が存在しないと判定した場合や(S1401:NO)、同一内容の音声情報が一定数未満の音声情報が存在しないと判定した場合には(S1402:NO)、そのままS1313へ移行し、送信候補の音声情報を、情報要求の送信元の端末装置31〜33へ送信して(S1313)、応答処理を終了する。 On the other hand, it is determined that there is no voice information including a specific keyword in the voice information of the transmission candidate (S1401: NO), or that there is no voice information having the same content less than a certain number. In the case (S1402: NO), the process proceeds to S1313 as it is, the voice information of the transmission candidate is transmitted to the terminal devices 31 to 33 of the transmission source of the information request (S1313), and the response process is terminated.

つまり、図21A及び21Bに例示した応答処理によれば、特定のキーワードが含まれる音声情報については、同一内容の音声情報が一定数蓄積されるまでは端末装置31〜33へ送信されず、一定数に達したことを条件として端末装置31〜33へ送信される。このようにすることで、虚偽の情報など、内容の信憑性の低い音声が端末装置31〜33で再生されることを抑制することができる。 That is, according to the response processing illustrated in FIGS. 21A and 21B, the voice information including a specific keyword is not transmitted to the terminal devices 31 to 33 until a certain number of voice information having the same content is accumulated, and is constant. It is transmitted to the terminal devices 31 to 33 on condition that the number is reached. By doing so, it is possible to suppress the reproduction of unreliable voice such as false information on the terminal devices 31 to 33.

なお、図21A及び21Bの例では、特定のキーワードを含む音声情報を対象として、同一内容の音声情報が一定数存在することを送信のための条件としたが、これに限定されるものではない。例えば、特定のキーワードを含むか否かに関係なく、送信候補の音声情報のすべてについて、同一内容の音声情報が一定数存在することを送信のための条件としてもよい。また、同一内容の音声が一定数存在するか否かの判定においては、発信元が同一の音声情報が複数存在しても、1つとしてカウントする(複数としてカウントしない)ようにしてもよい。このようにすれば、同一のユーザが同一内容の音声を複数回発言することにより、内容の信憑性の低い音声が他のユーザの端末装置31〜33で再生されてしまうことを抑制することができる。 In the examples of FIGS. 21A and 21B, it is a condition for transmission that a certain number of voice information having the same content exists for voice information including a specific keyword, but the present invention is not limited to this. .. For example, it may be a condition for transmission that a certain number of voice information having the same content exists for all the voice information of the transmission candidate regardless of whether or not a specific keyword is included. Further, in determining whether or not a certain number of voices having the same content exist, even if there are a plurality of voice information having the same source, they may be counted as one (not counted as a plurality). By doing so, it is possible to prevent the same user from reciting the voice of the same content a plurality of times, so that the voice having low credibility of the content is reproduced by the terminal devices 31 to 33 of another user. it can.

(3)上記実施形態では、音声情報を送信する端末装置31〜33が、録音された音声を合成音声に変換する処理を行うようにしているが(S107)、これに限定されるものではない。例えば、このような変換処理の一部又は全部をサーバ10で実行してもよく、また、音声を再生する端末装置31〜33で実行してもよい。 (3) In the above embodiment, the terminal devices 31 to 33 for transmitting voice information perform a process of converting the recorded voice into synthetic voice (S107), but the present invention is not limited to this. .. For example, a part or all of such conversion processing may be executed by the server 10, or may be executed by the terminal devices 31 to 33 that reproduce the voice.

(4)上記実施形態では、端末装置31〜33が所定時間ごとに要求処理(図16)を実行するようにしているが、これに限定されるものではなく、他の所定のタイミングで実行してもよい。例えば、所定距離を走行するごと、ユーザによる要求操作時、指定時刻の到来時、指定地点の通過時、周辺エリアの退出時、などに実行してもよい。 (4) In the above embodiment, the terminal devices 31 to 33 execute the request process (FIG. 16) at predetermined time intervals, but the present invention is not limited to this, and the request processing is executed at another predetermined timing. You may. For example, each time the vehicle travels a predetermined distance, it may be executed at the time of a request operation by the user, at the time of arrival of a designated time, at the time of passing through a designated point, at the time of leaving the surrounding area, and the like.

(5)上記実施形態では、周辺エリア内の音声情報を抽出して再生するようにしているが、これに限定されるものではない。例えば、周辺エリアを包含する(周辺エリアよりも広い)拡大エリアを設定し、拡大エリア内の音声情報を抽出して、その中から周辺エリア内の音声情報を更に抽出して再生してもよい。具体的には、上記実施形態のS1307で、発声位置が拡大エリア内の音声情報を抽出する。そして、端末装置31〜33では、サーバ10から受信した拡大エリア内の音声情報を記憶(キャッシュ)しておき、音声情報の表す音声を再生する段階において、発声位置が周辺エリア内の音声情報を抽出して再生する。このようにすれば、車両の走行に伴い、現在地に基づく周辺エリアが変化しても、変化後の周辺エリアが音声情報受信時の拡大エリア内であれば、その周辺エリアに応じた音声情報の表す音声を再生することができる。 (5) In the above embodiment, the audio information in the surrounding area is extracted and reproduced, but the present invention is not limited to this. For example, an enlarged area including the surrounding area (wider than the surrounding area) may be set, audio information in the enlarged area may be extracted, and audio information in the peripheral area may be further extracted and reproduced. .. Specifically, in S1307 of the above embodiment, the voice information in the area where the vocalization position is expanded is extracted. Then, in the terminal devices 31 to 33, the voice information in the enlarged area received from the server 10 is stored (cached), and at the stage of reproducing the voice represented by the voice information, the voice information is stored in the peripheral area. Extract and play. In this way, even if the surrounding area based on the current location changes as the vehicle travels, if the surrounding area after the change is within the expanded area when the voice information is received, the voice information according to the surrounding area can be obtained. The represented voice can be played.

(6)上記実施形態では、車両の現在地(実際の位置)に基づいて周辺エリアを設定するようにしているが、これに限定されるものではなく、現在地以外の位置情報を取得し、取得した位置情報を基準に周辺エリアを設定してもよい。具体的には、ユーザにより設定(入力)された位置情報を取得してもよい。このようにすれば、例えば、目的地を基準に周辺エリアを設定することで、目的地付近で発信された音声情報を、目的地から遠く離れた場所で事前に確認することができる。 (6) In the above embodiment, the surrounding area is set based on the current location (actual position) of the vehicle, but the present invention is not limited to this, and location information other than the current location is acquired and acquired. The surrounding area may be set based on the position information. Specifically, the position information set (input) by the user may be acquired. In this way, for example, by setting the surrounding area based on the destination, the voice information transmitted in the vicinity of the destination can be confirmed in advance at a place far away from the destination.

(7)上記実施形態では、端末装置として、車両に搭載された車載装置として構成された端末装置31〜33を例示したが、これに限定されるものではない。例えば、ユーザが携帯可能かつ車両で使用可能な装置(携帯電話機等)でもよい。また、端末装置は、構成の少なくとも一部(例えば、位置を検出するための構成、音声を入力するための構成、音声を再生するための構成、等)を車両に搭載された装置と共用してもよく、共用しなくてもよい。 (7) In the above embodiment, as the terminal device, terminal devices 31 to 33 configured as an in-vehicle device mounted on a vehicle are illustrated, but the terminal device is not limited thereto. For example, a device (such as a mobile phone) that can be carried by the user and used in a vehicle may be used. In addition, the terminal device shares at least a part of the configuration (for example, a configuration for detecting a position, a configuration for inputting voice, a configuration for reproducing voice, etc.) with a device mounted on the vehicle. It may or may not be shared.

(8)上記実施形態では、他の端末装置31〜33からサーバ10へ送信された音声情報のうち、その発声位置が、現在地を基準に設定される周辺エリア内に位置する音声情報の表す音声を再生する構成を例示したが、これに限定されるものではなく、位置情報に関係なく音声情報を抽出・再生するようにしてもよい。 (8) In the above embodiment, among the voice information transmitted from the other terminal devices 31 to 33 to the server 10, the voice represented by the voice information whose utterance position is set in the peripheral area set based on the current location. Although the configuration for reproducing the sound is illustrated, the present invention is not limited to this, and the audio information may be extracted and reproduced regardless of the position information.

(9)端末装置がユーザから入力する情報は、ユーザの発した音声に限定されるものではなく、例えば、ユーザにより入力された文字情報でもよい。つまり、端末装置は、ユーザの発した音声に代えて(又は音声とともに)、ユーザから文字情報を入力してもよい。この場合、端末装置は、文字情報をユーザが視認可能に表示してもよく、また、文字情報を合成音声に変換して再生してもよい。 (9) The information input by the terminal device from the user is not limited to the voice uttered by the user, and may be, for example, character information input by the user. That is, the terminal device may input character information from the user instead of (or together with the voice) uttered by the user. In this case, the terminal device may display the character information so that the user can see it, or may convert the character information into synthetic voice and reproduce it.

(10)上記実施形態は、本発明が適用された実施形態の一例に過ぎない。本発明は、システム、装置、方法、プログラム、記録した記録媒体、などの種々の形態で実現することができる。 (10) The above embodiment is only an example of the embodiment to which the present invention is applied. The present invention can be realized in various forms such as a system, an apparatus, a method, a program, a recording medium for recording, and the like.

(11)その他、以下のようにしてもよい。
例えば、上記通信システム1においては、通信態様に応じて識別情報として追加する内容(例えば、本名、第1のニックネーム、第2のニックネーム等)を変更するようにしてもよい。例えば、互いに自身を特定するための情報を事前に交換しておき、通信相手があ
らかじめ登録された相手であるか否かによって、識別情報を変更すればよい。
(11) In addition, the following may be performed.
For example, in the communication system 1, the content to be added as identification information (for example, real name, first nickname, second nickname, etc.) may be changed according to the communication mode. For example, information for identifying themselves may be exchanged in advance, and the identification information may be changed depending on whether or not the communication partner is a pre-registered partner.

また、上記実施形態では、いかなる場合もキーワードを別の単語等に置き換えるよう構成したが、例えば、通信相手や通信モード等の条件によってはキーワードを別の単語等に置き換える処理を実施しないようにしてもよい。特定の相手と通信をしている場合には、公衆に対して配信する場合と異なり、このような処理を行う必要がないからである。 Further, in the above embodiment, the keyword is configured to be replaced with another word or the like in any case, but for example, the process of replacing the keyword with another word or the like is not performed depending on the conditions such as the communication partner and the communication mode. May be good. This is because when communicating with a specific party, it is not necessary to perform such processing, unlike the case of distributing to the public.

また、「あのー」や「えーっと」等、話し言葉特有の意味のない単語については、この単語を省略した音声情報を生成するようにしてもよい。この場合、省略した分だけ音声情報の再生時間を短縮することができる。 In addition, for words that have no meaning peculiar to spoken words, such as "ah" and "um", voice information may be generated by omitting these words. In this case, the reproduction time of the audio information can be shortened by the amount omitted.

また、上記実施形態では、各端末装置31〜33のCPU41が車両の状態やユーザの運転操作を示す情報の情報を文字で出力したが、音声で出力してもよい。また、例えば他の端末装置31〜33から得られる情報に基づいて渋滞情報等の各種情報を生成し、該生成した情報を出力してもよい。 Further, in the above embodiment, the CPU 41 of each terminal device 31 to 33 outputs information indicating the state of the vehicle and the driving operation of the user in characters, but it may be output by voice. Further, for example, various information such as traffic jam information may be generated based on the information obtained from other terminal devices 31 to 33, and the generated information may be output.

さらに、上記通信システム1においては、各端末装置31〜33同士が直接音声情報を交換する構成と、各端末装置31〜33同士がサーバ10を介して音声情報を交換する構成とを、あらかじめ設定された条件(例えば、サーバ10と繋がる基地局までの距離や、端末装置31〜33同士の通信状態、又は、ユーザによる設定等)によって切り換えるようにしてもよい。 Further, in the communication system 1, a configuration in which the terminal devices 31 to 33 directly exchange voice information and a configuration in which the terminal devices 31 to 33 exchange voice information via the server 10 are set in advance. It may be switched according to the specified conditions (for example, the distance to the base station connected to the server 10, the communication state between the terminal devices 31 to 33, the setting by the user, etc.).

また、上記実施形態では、端末装置31〜33の位置に応じて、広告を音声で流すよう構成したが、一定時間ごと、一定の音声情報再生数ごとに広告を音声で流すようにしてもよい。また、広告の内容は、広告主の端末装置31〜33から他の端末装置31〜33に送信してもよい。この際、ユーザが端末装置31〜33に対して所定の操作を入力することによって広告主との通話(通信)ができるようにしたり、広告主の店舗に端末装置31〜33のユーザを誘導したりするようにしてもよい。 Further, in the above embodiment, the advertisement is configured to be played by voice according to the position of the terminal devices 31 to 33, but the advertisement may be played by voice at regular time intervals and at regular voice information playback counts. .. Further, the content of the advertisement may be transmitted from the advertiser's terminal devices 31 to 33 to other terminal devices 31 to 33. At this time, the user can make a call (communication) with the advertiser by inputting a predetermined operation to the terminal devices 31 to 33, or guide the user of the terminal devices 31 to 33 to the advertiser's store. You may try to do it.

さらに、上記実施形態においては、特定の複数の通信相手と通信を行うモードを設定してもよい。例えば、位置情報を交換する構成の場合には、一定距離以内の端末装置31〜33を通信相手としてもよいし、特定のユーザ(先行車両や対向車両など(カメラを用いたナンバプレート撮像、GPSで特定)、あらかじめ設定されたグループ内のユーザを通信相手としてもよい。また、設定により通信相手を変更できるように(通信モードを変更できるように)してもよい。 Further, in the above embodiment, a mode for communicating with a plurality of specific communication partners may be set. For example, in the case of a configuration in which position information is exchanged, terminal devices 31 to 33 within a certain distance may be used as communication partners, or a specific user (preceding vehicle, oncoming vehicle, etc. (number plate imaging using a camera, GPS). (Specified in), a user in a preset group may be used as a communication partner, and the communication partner may be changed by setting (communication mode can be changed).

また、端末装置31〜33が車両に搭載されている場合には、同じ道路を同じ方向に移動している端末装置31〜33を通信相手としたり、車両の挙動が一致している端末装置31〜33(脇道にそれた場合には通信相手から外すなど)を通信相手としたりしてもよい。 Further, when the terminal devices 31 to 33 are mounted on the vehicle, the terminal devices 31 to 33 moving in the same direction on the same road are used as communication partners, or the terminal devices 31 in which the behaviors of the vehicles match. ~ 33 (such as removing it from the communication partner if it deviates from the side road) may be used as the communication partner.

また、他のユーザを特定して、お気に入り登録や、排除登録等をあらかじめ設定できるように構成しておき、好みの相手を選択して通信できるようにしてもよい。この場合、音声を送信する際に通信相手を特定する通信相手情報を送信したり、サーバが存在する場合には、サーバに通信相手情報を登録しておいたりすることで、所定の相手にのみ音声情報を送信することができるようにすればよい。 In addition, another user may be specified and configured so that favorite registration, exclusion registration, and the like can be set in advance so that a favorite partner can be selected and communicated. In this case, when transmitting voice, the communication partner information that identifies the communication partner is transmitted, or if the server exists, the communication partner information is registered in the server, so that only the specified partner can be reached. It suffices to be able to transmit voice information.

また、複数のボタン等のスイッチにそれぞれ方向を対応付けておき、ユーザがこのスイッチで通信相手のいる方向を指定すると、その方向のユーザのみを通信相手に設定するようにしてもよい。 Further, if a direction is associated with each switch such as a plurality of buttons and the user specifies the direction in which the communication partner is present with this switch, only the user in that direction may be set as the communication partner.

さらに、上記通信システム1においては、音声情報を交換する構成としたが、文字からなる情報を取得し、この情報を音声に変換して再生するようにしてもよい。また、音声を送信する際にも、音声を文字に変換してから伝送し、音声に復元してから再生するようにしてもよい。この構成では、通信によって伝送すべきデータ量を減少させることができる。 Further, although the communication system 1 is configured to exchange voice information, information composed of characters may be acquired, and this information may be converted into voice and reproduced. Further, when transmitting the voice, the voice may be converted into characters and then transmitted, and the voice may be restored and then reproduced. In this configuration, the amount of data to be transmitted by communication can be reduced.

さらに、このように文字によってデータを伝送する構成においては、あらかじめ設定された複数の言語のうちの最もデータ量が少なくなる言語に翻訳してからデータを伝送するようにしてもよい。 Further, in the configuration in which data is transmitted by characters in this way, the data may be transmitted after being translated into the language having the smallest amount of data among the plurality of preset languages.

また、上記実施形態のサーバ10の機能の一部を端末装置31〜33が実施してもよい。例えば、端末装置31〜33のCPU41において、再生が完了していない複数の音声情報が存在する場合、各音声情報に対応する音声が重複しないように整列させてから再生するようにしてもよい。CPU41において、ユーザによって入力された音声情報に、該ユーザを識別するための識別情報を音声で付加した新たな音声情報を生成し、該生成した音声情報を送信するようにしてもよい。 Further, the terminal devices 31 to 33 may perform a part of the functions of the server 10 of the above embodiment. For example, in the CPU 41 of the terminal devices 31 to 33, when there are a plurality of voice information whose reproduction has not been completed, the voice corresponding to each voice information may be arranged so as not to be duplicated before being reproduced. The CPU 41 may generate new voice information in which identification information for identifying the user is added by voice to the voice information input by the user, and transmit the generated voice information.

具体的には、音声発信処理や音声再生処理において、音声配信処理の一部を実施させてもよい。例えば、音声再生処理にて音声配信処理の一部を実施する場合には、図22A−22Dに示すように、音声再生処理のS802とS804との間において、音声配信処理のS703〜S722(S717を除く)の処理を実施すればよい。 Specifically, in the voice transmission processing and the voice reproduction processing, a part of the voice distribution processing may be performed. For example, when a part of the audio distribution process is performed in the audio reproduction process, as shown in FIGS. 22A-22D, between S802 and S804 of the audio reproduction process, the audio distribution processes S703 to S722 (S717). ) May be carried out.

このような通信システムであっても、音声を再生する際に、音声が重複しないように再生することができるので、音声を聞きやすくすることができる。また、このような通信システム1であっても、ユーザを識別するための識別情報を音声で付加することができるので、ユーザは自身の識別情報を話すことなく、他のユーザに音声発信元のユーザを通知することができる。 Even in such a communication system, when the voice is reproduced, the voice can be reproduced so as not to be duplicated, so that the voice can be easily heard. Further, even in such a communication system 1, since the identification information for identifying the user can be added by voice, the user does not speak his / her own identification information, and the voice source can be added to another user. The user can be notified.

また、上記実施形態では、音声が重複して再生されることを禁止したが、あえて音声の一部を重複させて再生してもよい。この場合、先の音声の最後の数秒間と、後の音声の最初の数秒間だけをオーバーラップするようにしてもよい。この際には、先の音声の最後に徐々に音量を小さくするフェードアウト効果と、後の音声の最初に徐々に音声を大きくするフェードイン効果とを組み合わせるようにしてもよい。 Further, in the above embodiment, it is prohibited to reproduce the sound in duplicate, but a part of the sound may be reproduced in duplicate. In this case, only the last few seconds of the previous voice and the first few seconds of the later voice may overlap. In this case, the fade-out effect of gradually reducing the volume at the end of the preceding voice and the fade-in effect of gradually increasing the volume at the beginning of the subsequent voice may be combined.

さらに、ユーザが発した音声の有無で居眠り運転かどうか判定してもよい。この構成を実現するためには、例えば、図23に示す居眠り判定処理を実施するとよい。
居眠り判定処理は、端末装置31〜33において音声発信処理と並行して実施される処理であり、ユーザが一定時間発声しない場合や、発声したとしても意識レベルが低いと推定される場合に、警報を発したり停車等の車両制御をしたりする処理である。詳細には、図23に示すように、まず、ユーザによる最終発生からの時間をカウントする(S1401)。
Further, it may be determined whether or not the driver is dozing off based on the presence or absence of the voice emitted by the user. In order to realize this configuration, for example, the doze determination process shown in FIG. 23 may be performed.
The doze determination process is a process performed in parallel with the voice transmission process in the terminal devices 31 to 33, and an alarm is given when the user does not speak for a certain period of time or when it is estimated that the consciousness level is low even if the user speaks. It is a process of issuing a vehicle or controlling a vehicle such as stopping. Specifically, as shown in FIG. 23, first, the time from the last occurrence by the user is counted (S1401).

そして、ユーザによる最終発声から予め設定された第1基準時間(例えば10分程度)が経過したか否かを判定する(S1402)。第1基準時間が経過していなければ(S1402:NO)、居眠り判定処理を終了する。 Then, it is determined whether or not a preset first reference time (for example, about 10 minutes) has elapsed from the final utterance by the user (S1402). If the first reference time has not elapsed (S1402: NO), the doze determination process ends.

また、第1基準時間が経過していれば(S1402:YES)、ユーザへの問い掛けを実施する(S1403)。この処理では、ユーザが意識レベルを確認するためにユーザに発声を促す質問を行う。このため、例えば「起きていますか?」等、直接的な問い掛けで
もよいし、「現在時刻を教えてください」等、間接的な問い掛けでもよい。
If the first reference time has elapsed (S1402: YES), the user is asked a question (S1403). In this process, the user asks a question that prompts the user to speak in order to confirm the level of consciousness. For this reason, it may be a direct question such as "Are you awake?" Or an indirect question such as "Please tell me the current time".

続いて、このような問い掛けに対する応答が得られたか否かを判定する(S1404)。問い掛けに対する応答が得られていれば(S1404:YES)、応答のレベルを判定する(S1405)。 Subsequently, it is determined whether or not a response to such a question has been obtained (S1404). If a response to the question is obtained (S1404: YES), the level of the response is determined (S1405).

ここで、応答のレベルとは、声の大きさ、滑舌のよさ等、眠くなるとレベル(音の大きさ、音声認識による精度)が低下する項目を示し、この処理ではこれらの何れかの項目と予め設定された閾値とを比較して判断する。 Here, the response level indicates an item whose level (loudness, accuracy by voice recognition) decreases when sleepy, such as loudness of voice and smooth tongue, and any of these items is used in this process. And the preset threshold value are compared to make a judgment.

応答のレベルが十分高ければ(S1405:YES)、居眠り判定処理を終了する。また、応答のレベルが不十分である場合(S1405:NO)、およびS1404の処理にて問い掛けに対する応答が得られていない場合には(S1404:NO)、ユーザによる最終発声から前述の第1基準時間以上の値に設定された第2基準時間(例えば、10分10秒程度)が経過したか否かを判定する(S1406)。 If the response level is sufficiently high (S1405: YES), the doze determination process ends. Further, when the response level is insufficient (S1405: NO) and when the response to the question is not obtained in the processing of S1404 (S1404: NO), the first criterion described above is obtained from the final utterance by the user. It is determined whether or not the second reference time (for example, about 10 minutes and 10 seconds) set to a value equal to or longer than the time has elapsed (S1406).

第2基準時間が経過していなければ(S1406:NO)、S1403の処理に戻る。また、第2基準時間が経過していれば(S1406:YES)、スピーカ53等を介して警報を発する(S1407)。 If the second reference time has not elapsed (S1406: NO), the process returns to S1403. If the second reference time has elapsed (S1406: YES), an alarm is issued via the speaker 53 or the like (S1407).

続いて、警報に対する応答(例えば、「わー」というような声や警報を解除するための入力部45を介した操作)が得られたか否かを判定する(S1408)。警報に対する応答が得られていれば(S1408:YES)、S1405の処理と同様に、応答のレベルを判定する(S1409)。なお、入力部45を介した操作が入力された場合には、応答のレベルが充分であるものと判定する。 Subsequently, it is determined whether or not a response to the alarm (for example, a voice such as "Wow" or an operation via the input unit 45 for canceling the alarm) has been obtained (S1408). If a response to the alarm is obtained (S1408: YES), the level of the response is determined (S1409) in the same manner as in the processing of S1405. When an operation is input via the input unit 45, it is determined that the response level is sufficient.

応答のレベルが十分高ければ(S1409:YES)、居眠り判定処理を終了する。また、応答のレベルが不十分である場合(S1409:NO)、およびS1408の処理にて問い掛けに対する応答が得られていない場合には(S1408:NO)、ユーザによる最終発声から前述の第2基準時間以上の値に設定された第3基準時間(例えば、10分30秒程度)が経過したか否かを判定する(S1410)。 If the response level is sufficiently high (S1409: YES), the doze determination process ends. Further, when the response level is insufficient (S1409: NO) and when the response to the question is not obtained in the processing of S1408 (S1408: NO), the second criterion described above is obtained from the final utterance by the user. It is determined whether or not the third reference time (for example, about 10 minutes and 30 seconds) set to a value equal to or longer than the time has elapsed (S1410).

第3基準時間が経過していなければ(S1410:NO)、S1407の処理に戻る。また、第3基準時間が経過していれば(S1410:YES)、例えば車両を停車させる等の車両制御を実施し(S1411)、居眠り判定処理を終了する。 If the third reference time has not elapsed (S1410: NO), the process returns to S1407. Further, if the third reference time has elapsed (S1410: YES), vehicle control such as stopping the vehicle is performed (S1411), and the doze determination process is terminated.

このような処理を実施すれば、ユーザ(運転者)の居眠りを抑制することができる。
また、広告を音声で挿入する場合(S720)や、音声を文字でも表示させる場合(S812)には、さらに追加の文字情報をナビゲーション装置48等のディスプレイに表示させてもよい。
By carrying out such a process, it is possible to suppress the user (driver) from falling asleep.
Further, when the advertisement is inserted by voice (S720) or when the voice is displayed by characters (S812), additional character information may be further displayed on a display such as the navigation device 48.

このような構成を実現するために、例えば、図24に示す追加情報表示処理を実施すればよい。なお、追加情報表示処理は、サーバ10において音声配信処理と並行して実施される処理である。 In order to realize such a configuration, for example, the additional information display process shown in FIG. 24 may be performed. The additional information display process is a process performed on the server 10 in parallel with the voice distribution process.

追加情報表示処理では、図24に示すように、まず、音声配信処理において広告(CM)が挿入されたか否か(S1501)、および文字が表示されたか否か(S1502)を判定する。広告が挿入された(S1501:YES)、或いは文字が表示された(S1502:YES)場合には、表示させる文字に関連する情報を取得する(S1503)。 In the additional information display processing, as shown in FIG. 24, first, it is determined whether or not an advertisement (CM) is inserted (S1501) and whether or not a character is displayed (S1502) in the voice distribution processing. When the advertisement is inserted (S1501: YES) or the character is displayed (S1502: YES), the information related to the character to be displayed is acquired (S1503).

ここで、文字に関連する情報には、例えば、表示させる文字列(キーワード)に対応する広告や地域の情報、或いは文字列に関する情報を解説するための情報等、この文字列に対応付けられた情報が該当する。この情報は、サーバ10内から取得してもよいし、サーバ10の外部(インターネット上等)から取得してもよい。 Here, the information related to the character is associated with this character string, for example, an advertisement or area information corresponding to the character string (keyword) to be displayed, or information for explaining information about the character string. The information is applicable. This information may be acquired from inside the server 10 or from outside the server 10 (on the Internet, etc.).

文字に関連する情報を取得すると、この情報を文字や画像としてディスプレイに表示させ(S1504)、追加情報表示処理を終了する。
なお、S1501およびS1502の処理において広告が挿入されておらず、かつ文字が表示されない場合には(S1501:NOかつS1502:NO)、追加情報表示処理を終了する。
When the information related to the characters is acquired, this information is displayed on the display as characters or images (S1504), and the additional information display process is terminated.
If no advertisement is inserted and characters are not displayed in the processes of S1501 and S1502 (S1501: NO and S1502: NO), the additional information display process is terminated.

このような構成によれば、音声を文字として表示させるだけでなく、関連する情報についても表示させることができる。
なお、文字情報を表示させるディスプレイは、ナビゲーション装置48のディスプレイに限らず、車両内のヘッドアップディスプレイ等、任意のディスプレイであってもよい。
According to such a configuration, not only the voice can be displayed as characters, but also related information can be displayed.
The display for displaying the character information is not limited to the display of the navigation device 48, and may be any display such as a head-up display in the vehicle.

1…通信システム、10…サーバ、20…基地局、31〜33…端末装置、41…CPU、42…ROM、43…RAM、44…通信部、45…入力部、48…ナビゲーション装置、49…GPS受信機、52…マイク、53…スピーカ 1 ... Communication system, 10 ... Server, 20 ... Base station, 31-33 ... Terminal device, 41 ... CPU, 42 ... ROM, 43 ... RAM, 44 ... Communication unit, 45 ... Input unit, 48 ... Navigation device, 49 ... GPS receiver, 52 ... microphone, 53 ... speaker

本発明は、音声情報を再生するように構成された音声再生装置、及び音声再生装置を備えた車両に関する。 The present invention relates to a voice reproduction device configured to reproduce voice information and a vehicle provided with the voice reproduction device .

音声再生装置の操作や視認が困難なユーザであってもつぶやきたい内容等の発信内容を安全に送受信できることが好ましい。 It is preferable that even a user who has difficulty in operating or visually recognizing the voice reproduction device can safely send and receive the transmitted contents such as the contents to be tweeted.

Claims (3)

互いに通信可能な複数の端末装置を備えた通信システムであって、
各端末装置は、
ユーザが音声を入力すると該音声を音声信号に変換する音声入力変換手段と、
前記音声信号を他の端末装置を含む装置に送信する音声送信手段と、
他の端末装置にて送信された音声信号を受信する音声受信手段と、
受信した音声信号を再生する音声再生手段と、
を備え、
前記音声再生手段は、再生が完了していない複数の音声信号が存在する場合、各音声信号に対応する音声が重複しないように整列させてから再生する、通信システム。
A communication system equipped with a plurality of terminal devices capable of communicating with each other.
Each terminal device
A voice input conversion means that converts the voice into a voice signal when the user inputs the voice,
A voice transmission means for transmitting the voice signal to a device including another terminal device,
A voice receiving means for receiving a voice signal transmitted by another terminal device, and
Audio reproduction means for reproducing the received audio signal,
With
The audio reproduction means is a communication system in which, when there are a plurality of audio signals whose reproduction has not been completed, the audio corresponding to each audio signal is arranged so as not to overlap and then reproduced.
複数の端末装置と前記複数の端末装置のそれぞれと通信可能なサーバ装置とを備えた通信システムであって、
各端末装置は、
ユーザが音声を入力すると該音声を音声信号に変換する音声入力変換手段と、
前記音声信号を前記サーバ装置に送信する音声送信手段と、
前記サーバ装置にて送信された音声信号を受信する音声受信手段と、
受信した音声信号を再生する音声再生手段と、
を備え、
前記サーバ装置は、
前記複数の端末装置から送信された音声信号を受信し、各音声信号に対応する音声が重複しないように整列させてから前記複数の端末装置に対して音声信号を配信する配信手段を備えている、通信システム。
A communication system including a plurality of terminal devices and a server device capable of communicating with each of the plurality of terminal devices.
Each terminal device
A voice input conversion means that converts the voice into a voice signal when the user inputs the voice,
A voice transmission means for transmitting the voice signal to the server device, and
A voice receiving means for receiving a voice signal transmitted by the server device, and
Audio reproduction means for reproducing the received audio signal,
With
The server device
It is provided with a distribution means that receives voice signals transmitted from the plurality of terminal devices, arranges the voices corresponding to the voice signals so as not to overlap, and then distributes the voice signals to the plurality of terminal devices. ,Communications system.
請求項1または請求項2に記載の通信システムにおいて、
前記音声再生手段は、ユーザによる特定の指令を受けると、既に再生した音声信号を再度再生する、通信システム。
In the communication system according to claim 1 or 2.
The voice reproduction means is a communication system that reproduces an already reproduced voice signal when a specific command is received by the user.
JP2020083226A 2011-12-14 2020-05-11 Audio reproduction apparatus and vehicle Pending JP2020150550A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021119653A JP2021185664A (en) 2011-12-14 2021-07-20 vehicle
JP2022002379A JP7301274B2 (en) 2011-12-14 2022-01-11 Audio player and vehicle
JP2022208636A JP2023052086A (en) 2011-12-14 2022-12-26 Terminal device and vehicle

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2011273579 2011-12-14
JP2011273578 2011-12-14
JP2011273578 2011-12-14
JP2011273579 2011-12-14
JP2012074628 2012-03-28
JP2012074628 2012-03-28
JP2012074627 2012-03-28
JP2012074627 2012-03-28

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019080135A Division JP6814364B2 (en) 2011-12-14 2019-04-19 Information providing device and vehicle

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2021119653A Division JP2021185664A (en) 2011-12-14 2021-07-20 vehicle
JP2022002379A Division JP7301274B2 (en) 2011-12-14 2022-01-11 Audio player and vehicle

Publications (1)

Publication Number Publication Date
JP2020150550A true JP2020150550A (en) 2020-09-17

Family

ID=48612675

Family Applications (10)

Application Number Title Priority Date Filing Date
JP2013549331A Active JP6234819B2 (en) 2011-12-14 2012-12-14 Communication system and terminal device
JP2017202809A Active JP6479927B2 (en) 2011-12-14 2017-10-19 Communication system and terminal device
JP2018001179A Active JP6525175B2 (en) 2011-12-14 2018-01-09 Communication system and communication device
JP2018001180A Active JP6525176B2 (en) 2011-12-14 2018-01-09 Advertisement offer device
JP2019080135A Active JP6814364B2 (en) 2011-12-14 2019-04-19 Information providing device and vehicle
JP2019080134A Pending JP2019193262A (en) 2011-12-14 2019-04-19 Voice input device
JP2020083226A Pending JP2020150550A (en) 2011-12-14 2020-05-11 Audio reproduction apparatus and vehicle
JP2021119653A Pending JP2021185664A (en) 2011-12-14 2021-07-20 vehicle
JP2022002379A Active JP7301274B2 (en) 2011-12-14 2022-01-11 Audio player and vehicle
JP2022208636A Pending JP2023052086A (en) 2011-12-14 2022-12-26 Terminal device and vehicle

Family Applications Before (6)

Application Number Title Priority Date Filing Date
JP2013549331A Active JP6234819B2 (en) 2011-12-14 2012-12-14 Communication system and terminal device
JP2017202809A Active JP6479927B2 (en) 2011-12-14 2017-10-19 Communication system and terminal device
JP2018001179A Active JP6525175B2 (en) 2011-12-14 2018-01-09 Communication system and communication device
JP2018001180A Active JP6525176B2 (en) 2011-12-14 2018-01-09 Advertisement offer device
JP2019080135A Active JP6814364B2 (en) 2011-12-14 2019-04-19 Information providing device and vehicle
JP2019080134A Pending JP2019193262A (en) 2011-12-14 2019-04-19 Voice input device

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021119653A Pending JP2021185664A (en) 2011-12-14 2021-07-20 vehicle
JP2022002379A Active JP7301274B2 (en) 2011-12-14 2022-01-11 Audio player and vehicle
JP2022208636A Pending JP2023052086A (en) 2011-12-14 2022-12-26 Terminal device and vehicle

Country Status (4)

Country Link
US (1) US9613639B2 (en)
EP (2) EP2793454A4 (en)
JP (10) JP6234819B2 (en)
WO (1) WO2013089236A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5974498B2 (en) * 2012-01-24 2016-08-23 株式会社デンソー Inter-vehicle communication device
WO2014151956A1 (en) * 2013-03-14 2014-09-25 Flir Systems, Inc. Wind sensor motion compensation systems and methods
CN104376846A (en) * 2013-08-16 2015-02-25 联想(北京)有限公司 Voice adjusting method and device and electronic devices
US9711146B1 (en) 2014-06-05 2017-07-18 ProSports Technologies, LLC Wireless system for social media management
US9343066B1 (en) 2014-07-11 2016-05-17 ProSports Technologies, LLC Social network system
US10321259B2 (en) * 2014-10-28 2019-06-11 Comcast Cable Communications, Llc Low energy network
US9730023B2 (en) 2015-10-27 2017-08-08 Chatterbeak, Inc. Communication based on geographical region
DE102016200048B4 (en) * 2016-01-06 2020-08-13 Volkswagen Aktiengesellschaft Warning device and method for warning motor vehicle occupants
US10360916B2 (en) * 2017-02-22 2019-07-23 Plantronics, Inc. Enhanced voiceprint authentication
DE112018002405T5 (en) * 2017-05-10 2020-01-23 Kubota Corporation OPERATING SUPPORT SYSTEM FOR WORKING MACHINE AND AGRICULTURAL SUPPORT SYSTEM
KR102512740B1 (en) * 2017-07-11 2023-03-21 주식회사 하나은행 Method, server apparatus and terminal unit for recommend in-vehidle financial service
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US11273778B1 (en) * 2017-11-09 2022-03-15 Amazon Technologies, Inc. Vehicle voice user interface
US11404075B1 (en) * 2017-11-09 2022-08-02 Amazon Technologies, Inc. Vehicle voice user interface
JP6954198B2 (en) * 2018-03-23 2021-10-27 株式会社Jvcケンウッド Terminal devices, group communication systems, and group communication methods
JP7153841B2 (en) * 2019-02-14 2022-10-17 株式会社ナカヨ Intercom system, intercom terminal, and intercom call method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143256A (en) * 2001-10-30 2003-05-16 Nec Corp Terminal and communication control method
JP2003258988A (en) * 2002-02-28 2003-09-12 Toshiba Corp Information terminal equipment and method for controlling reproducing volume applied to the information terminal equipment
JP2003304337A (en) * 2002-04-08 2003-10-24 Nec Corp Speech control system in remote conference system
JP2005295375A (en) * 2004-04-02 2005-10-20 Omron Corp Information acquisition support system
JP2005348006A (en) * 2004-06-02 2005-12-15 Nec Corp Video telephone system having character display function and voice character conversion display method in video telephone system
WO2008126259A1 (en) * 2007-03-30 2008-10-23 Fujitsu Limited Communication system, server device, communication terminal device, and computer program
JP2010507353A (en) * 2006-10-18 2010-03-04 ソニー オンライン エンタテインメント エルエルシー System and method for coordinating overlapping media messages

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3703045B2 (en) * 1996-09-30 2005-10-05 マツダ株式会社 Navigation device
JP2001142487A (en) 1999-11-11 2001-05-25 Sony Corp Voice data input system
US7712123B2 (en) * 2000-04-14 2010-05-04 Nippon Telegraph And Telephone Corporation Method, system, and apparatus for acquiring information concerning broadcast information
JP4605852B2 (en) * 2000-04-19 2011-01-05 Kddi株式会社 Call service providing device
US6925307B1 (en) * 2000-07-13 2005-08-02 Gtech Global Services Corporation Mixed-mode interaction
AU2001272871A1 (en) * 2000-07-14 2002-01-30 Cellpoint Systems Ab A method and system for broadcasting messages including location dependant targeted advertisement in a cellular network
US6985913B2 (en) * 2000-12-28 2006-01-10 Casio Computer Co. Ltd. Electronic book data delivery apparatus, electronic book device and recording medium
KR100731015B1 (en) * 2001-01-09 2007-06-22 엘지전자 주식회사 method for providing information service matched with terminal-position
JP4802370B2 (en) 2001-01-30 2011-10-26 ソニー株式会社 COMMUNICATION CONTROL DEVICE AND METHOD, RECORDING MEDIUM, AND PROGRAM
JP2002358720A (en) 2001-06-01 2002-12-13 Pioneer Electronic Corp Information reproducing device and information reproducing method
JP2003101662A (en) * 2001-09-21 2003-04-04 Sharp Corp Communication method, communication apparatus and communication terminal
JP2003291750A (en) * 2002-04-01 2003-10-15 Nissan Motor Co Ltd On-vehicle equipment controller
JP2004163586A (en) * 2002-11-12 2004-06-10 Clarion Co Ltd Voice recording device, on-vehicle device, mobile machine, distribution system, distribution server, and method and program for controlling distribution server
JP2004104778A (en) * 2003-08-28 2004-04-02 Seiko Epson Corp Information distribution system, control method of information distribution system and information distribution server
JP3678733B2 (en) * 2003-10-03 2005-08-03 株式会社エヌ・ティ・ティ・ドコモ Mobile communication terminal and location information providing method
US7120235B2 (en) * 2003-10-06 2006-10-10 Ingenio, Inc. Method and apparatus to provide pay-per-call performance based advertising
JP2006054656A (en) * 2004-08-11 2006-02-23 Nec Corp Ptt communication system, ptt communication method and ptt communication server
JP4635531B2 (en) 2004-09-14 2011-02-23 ブラザー工業株式会社 Receiving device and information distribution system
JP4385949B2 (en) * 2005-01-11 2009-12-16 トヨタ自動車株式会社 In-vehicle chat system
JP2006229903A (en) 2005-02-21 2006-08-31 Fuji Xerox Co Ltd Conference supporting system, method and computer program
JP2006309348A (en) 2005-04-26 2006-11-09 Sharp Corp Transmitter, receiver, transmitting method, receiving method, transmitting program, receiving program, and computer-readable recording medium
JP2007096838A (en) * 2005-09-29 2007-04-12 Matsushita Electric Ind Co Ltd Group voice communication controller, voice communication apparatus, and group voice communication system
JP2007259293A (en) * 2006-03-24 2007-10-04 Nec Corp Conference call system, terminal with call function, conference call method, and program and recording medium
JP2007318438A (en) * 2006-05-25 2007-12-06 Yamaha Corp Voice state data generating device, voice state visualizing device, voice state data editing device, voice data reproducing device, and voice communication system
US20080107045A1 (en) * 2006-11-02 2008-05-08 Viktors Berstis Queuing voip messages
JP2008141348A (en) * 2006-11-30 2008-06-19 Yamaha Corp Communication apparatus
JPWO2009066696A1 (en) * 2007-11-19 2011-04-07 日本電気株式会社 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD AND ADVERTISEMENT EFFECT MEASUREMENT CONTROL PROGRAM USED FOR THE ADVERTISEMENT EFFECT MEASUREMENT DEVICE
JP2009139592A (en) 2007-12-05 2009-06-25 Sony Corp Speech processing device, speech processing system, and speech processing program
US20090259397A1 (en) * 2008-04-10 2009-10-15 Richard Stanton Navigation system with touchpad remote
JP2009301299A (en) * 2008-06-12 2009-12-24 Tokai Rika Co Ltd Gesture determination device
JP5018671B2 (en) 2008-07-07 2012-09-05 株式会社デンソー Vehicle navigation device
JP2010028202A (en) * 2008-07-15 2010-02-04 Sanyo Electric Co Ltd Emergency disaster report receiver
JP2010034689A (en) * 2008-07-25 2010-02-12 Fujitsu Ltd Mobile terminal searching program, server, mobile terminal, and mobile terminal searching method
JP2010039898A (en) * 2008-08-07 2010-02-18 Hitachi Ltd Advertisement distribution system, advertisement distribution device and advertisement distribution method
JP5018689B2 (en) 2008-08-12 2012-09-05 株式会社Jvcケンウッド On-vehicle device, content information processing method and program
JP4774088B2 (en) * 2008-08-28 2011-09-14 ヤフー株式会社 Ad delivery method that links schedule information and location information
JP4852584B2 (en) * 2008-10-23 2012-01-11 ヤフー株式会社 Prohibited word transmission prevention method, prohibited word transmission prevention telephone, prohibited word transmission prevention server
US20100280828A1 (en) * 2009-04-30 2010-11-04 Gene Fein Communication Device Language Filter
US7873349B1 (en) * 2009-10-06 2011-01-18 Sur-Tec, Inc. System, method, and device for intelligence gathering and position tracking
KR20110024581A (en) * 2009-09-02 2011-03-09 삼성전자주식회사 Terminal and method for providing mobile advertising service based on region
US20110105094A1 (en) * 2009-10-29 2011-05-05 Microsoft Corporation Location integration in software defined radio
JP2011118804A (en) * 2009-12-07 2011-06-16 Nec Corp Advertisement distribution system and advertisement distribution method
JP5005758B2 (en) * 2009-12-25 2012-08-22 株式会社ホンダアクセス In-vehicle device operating device in automobile
JP5593759B2 (en) * 2010-03-19 2014-09-24 富士通株式会社 Call voice processing apparatus, call voice control apparatus and method
JP2011205243A (en) * 2010-03-24 2011-10-13 Sharp Corp Information processing apparatus, conference system, information processing method, and computer program
US20110246172A1 (en) * 2010-03-30 2011-10-06 Polycom, Inc. Method and System for Adding Translation in a Videoconference
JP5597428B2 (en) 2010-03-31 2014-10-01 ヤフー株式会社 Terminal, system, method and program for displaying information
JP2011087324A (en) * 2010-12-21 2011-04-28 Kyocera Corp Mobile terminal device, communication system, and method of controlling communication

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143256A (en) * 2001-10-30 2003-05-16 Nec Corp Terminal and communication control method
JP2003258988A (en) * 2002-02-28 2003-09-12 Toshiba Corp Information terminal equipment and method for controlling reproducing volume applied to the information terminal equipment
JP2003304337A (en) * 2002-04-08 2003-10-24 Nec Corp Speech control system in remote conference system
JP2005295375A (en) * 2004-04-02 2005-10-20 Omron Corp Information acquisition support system
JP2005348006A (en) * 2004-06-02 2005-12-15 Nec Corp Video telephone system having character display function and voice character conversion display method in video telephone system
JP2010507353A (en) * 2006-10-18 2010-03-04 ソニー オンライン エンタテインメント エルエルシー System and method for coordinating overlapping media messages
WO2008126259A1 (en) * 2007-03-30 2008-10-23 Fujitsu Limited Communication system, server device, communication terminal device, and computer program

Also Published As

Publication number Publication date
JP2018082484A (en) 2018-05-24
JP6525176B2 (en) 2019-06-05
JP6234819B2 (en) 2017-11-22
JP2023052086A (en) 2023-04-11
JP2018082485A (en) 2018-05-24
EP2793454A4 (en) 2015-07-22
EP2793454A1 (en) 2014-10-22
JP6525175B2 (en) 2019-06-05
JPWO2013089236A1 (en) 2015-04-27
JP2021185664A (en) 2021-12-09
WO2013089236A1 (en) 2013-06-20
EP3367651A3 (en) 2018-11-14
JP2022064893A (en) 2022-04-26
JP2018067920A (en) 2018-04-26
JP6814364B2 (en) 2021-01-20
EP3367651A2 (en) 2018-08-29
US20140303966A1 (en) 2014-10-09
JP2019195162A (en) 2019-11-07
JP2019193262A (en) 2019-10-31
JP6479927B2 (en) 2019-03-06
US9613639B2 (en) 2017-04-04
JP7301274B2 (en) 2023-07-03

Similar Documents

Publication Publication Date Title
JP6814364B2 (en) Information providing device and vehicle
WO2017057170A1 (en) Interaction device and interaction method
US10875525B2 (en) Ability enhancement
US20120135714A1 (en) Information system for motor vehicle
WO2017057173A1 (en) Interaction device and interaction method
WO2006011310A1 (en) Speech identifying device, speech identifying method, and program
JP6846617B2 (en) Information provision method, server, information terminal device, system and voice dialogue system
CN111261154A (en) Agent device, agent presentation method, and storage medium
KR102592833B1 (en) Control system and method of interlocking control system of voice recognition function of vehicle
WO2019069731A1 (en) Information processing device, information processing method, program, and moving body
JP2020095475A (en) Matching method, matching server, matching system, and program
JP2020060861A (en) Agent system, agent method, and program
US20230191992A1 (en) Conversation detector to insert audible announcements
JP6387287B2 (en) Unknown matter resolution processing system
JP4080986B2 (en) Voice notification device
JP2019159559A (en) Information providing apparatus
KR20180137724A (en) Image Sharing System Based On Speech Recognition and Image Sharing System Using It
CN112193255A (en) Human-computer interaction method, device, equipment and storage medium of vehicle-machine system
JP2020060623A (en) Agent system, agent method, and program
JP2023129228A (en) Electronic device, output device, program, and the like
CN117429365A (en) Device and method for providing information and entertainment in a motor vehicle
JP2021105769A (en) On-vehicle device and response output control method
JP2018158625A (en) Management server in vehicle approach notification system for notifying person of approach of travelling vehicle, vehicle approach notification method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211214