JP2023034563A - Matching system and matching method - Google Patents

Matching system and matching method Download PDF

Info

Publication number
JP2023034563A
JP2023034563A JP2021140862A JP2021140862A JP2023034563A JP 2023034563 A JP2023034563 A JP 2023034563A JP 2021140862 A JP2021140862 A JP 2021140862A JP 2021140862 A JP2021140862 A JP 2021140862A JP 2023034563 A JP2023034563 A JP 2023034563A
Authority
JP
Japan
Prior art keywords
information
user
sound
unit
emotional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021140862A
Other languages
Japanese (ja)
Inventor
裕介 清水
Yusuke Shimizu
広大 田中
Kodai Tanaka
雄士 青木
Yuji Aoki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2021140862A priority Critical patent/JP2023034563A/en
Publication of JP2023034563A publication Critical patent/JP2023034563A/en
Pending legal-status Critical Current

Links

Images

Abstract

To allow for appropriately matching a user with another user sharing common interests or tastes with the user.SOLUTION: A heard sound extraction unit 61 and an emotional voice extraction unit 63 extract information of heard sounds heard by users 11 and information of emotional voices reflecting emotional states of the users 11 from sound information. A taste specification unit 65 specifies information of tastes of the users 11 from the extracted information of heard sounds and emotional voices. A similarity determination unit 90 determines similarity of tastes between users 11 on the basis of information of tastes of the individual users 11 stored in a database unit 80, and a user extraction unit 90 extracts pairs of users 11 in each of which the similarity is equal to or higher than a determination threshold. A matching information providing unit 100 provides user information of one user 11 of a pair extracted by the user extraction unit 90 to a terminal device 20 of the other user 11 of this pair, as matching information.SELECTED DRAWING: Figure 2

Description

本発明は、マッチングシステム及びマッチング方法に関する。 The present invention relates to matching systems and matching methods.

自動運転車両には、運転できないユーザでも一人で乗ることができる。自動運転車両では、ユーザが一人で車両に乗る機会が増えると考えられる。ユーザが一人で車両に乗る機会は、ソーシャルディスタンシングが要求される状況でも増える可能性がある。同乗者がいない車両では、同乗者がいる車両に比べて、ユーザが車内で孤独感を感じる可能性が増える可能性がある。特に、自動運転車両では、ユーザが運転操作を行わない分、余計に孤独感を感じやすくなる可能性がある。 Self-driving vehicles allow users who cannot drive to ride alone. In self-driving vehicles, it is thought that there will be more opportunities for users to get into the vehicle alone. Opportunities for users to travel alone in vehicles may also increase in situations where social distancing is required. A vehicle without a passenger may increase the likelihood that a user will feel lonely in the vehicle compared to a vehicle with a passenger. In particular, in a self-driving vehicle, the user may feel even more lonely because the user does not perform driving operations.

車両に乗ったユーザに他の車両のユーザとのコミュニケーション手段を提供することは、車両のユーザが感じる孤独感の緩和に有効であると考えられる。車両のユーザ同士のコミュニケーション手段として、特許文献1では、車両ユーザのマッチング方法が提案されている。 Providing a vehicle user with a means of communication with other vehicle users is considered effective in alleviating the sense of loneliness felt by vehicle users. As a means of communication between vehicle users, Patent Literature 1 proposes a vehicle user matching method.

特許文献1のマッチング方法では、第一のユーザとの相性がよいと判定された第二のユーザの乗車車両が、第一のユーザの乗車車両と接近する可能性があると判定されると、第二のユーザの情報が第一のユーザに提供される。 In the matching method of Patent Document 1, when it is determined that the second user's boarding vehicle, which is determined to be compatible with the first user, may approach the first user's boarding vehicle, Information of the second user is provided to the first user.

第一のユーザと第二のユーザとの相性の良し悪しは、車両ユーザのユーザ情報に基づいて判定される。各ユーザのユーザ情報は、各ユーザの乗車特性情報を含んでいる。各ユーザの乗車特性情報は、各ユーザの乗車履歴情報に基づいて生成される。 Whether the first user and the second user are compatible is determined based on the user information of the vehicle user. The user information of each user includes riding characteristic information of each user. Each user's riding characteristic information is generated based on each user's riding history information.

特開2020-95475号公報JP 2020-95475 A

特許文献1のマッチング方法では、ユーザの乗車履歴情報に基づいてユーザの属性を決定し、決定した属性をユーザのマッチングに利用している。ところで、ユーザ同士の相性の善し悪しを判定する際には、ユーザ同士の趣味嗜好が合うかどうかが重要な判断要因となる。ユーザが車両で感じる孤独感を緩和する際には、ユーザの乗車履歴情報よりもユーザの趣味嗜好に即した要素に基づいてユーザの属性を決定し、ユーザのマッチングに利用することが好ましいと考えられる。 In the matching method of Patent Literature 1, user attributes are determined based on the user's boarding history information, and the determined attributes are used for user matching. By the way, when determining whether the compatibility between users is good or bad, whether or not the tastes and preferences of the users match is an important factor. In order to alleviate the feeling of loneliness that users feel in vehicles, it is considered preferable to determine user attributes based on elements that match the user's tastes and preferences rather than the user's ride history information and use it for user matching. be done.

本発明の目的は、車両の乗員を始めとするユーザに、そのユーザと趣味嗜好の合う他のユーザを適切にマッチングできるようにすることにある。 SUMMARY OF THE INVENTION It is an object of the present invention to appropriately match a user, such as an occupant of a vehicle, with another user who has the same tastes and interests as the user.

上記目的を達成するため本発明の第1の態様に係るマッチングシステムは、
音声情報からユーザが聴取した聴取音の情報を抽出する聴取音抽出部と、
音声情報から前記ユーザの感情状態が反映された感情音の情報を抽出する感情音抽出部と、
抽出された前記聴取音の情報と抽出された前記感情音の情報とから、前記ユーザの嗜好の情報を特定する嗜好特定部と、を有する端末機器と、
複数の前記ユーザについてそれぞれ特定された前記嗜好の情報がユーザ別に蓄積されるデータベース部と、
前記データベース部のユーザ別の前記嗜好の情報に基づいて、前記ユーザ同士の嗜好の類似性を判定する類似性判定部と、
前記類似性が判定閾値以上となる前記ユーザの組み合わせを抽出するユーザ抽出部と、
前記ユーザ抽出部が抽出した組み合わせ中のユーザのうち一のユーザの前記端末機器に、前記抽出した組み合わせ中の他のユーザの情報を、マッチング情報として提供するマッチング情報提供部と、を有するサーバと、
を備える。
In order to achieve the above object, the matching system according to the first aspect of the present invention includes:
a listening sound extracting unit that extracts information about a listening sound heard by a user from voice information;
an emotional sound extracting unit that extracts emotional sound information reflecting the user's emotional state from voice information;
a terminal device having a preference identifying unit that identifies information about the user's preference from the extracted listening sound information and the extracted emotional sound information;
a database unit in which the information on the preferences specified for each of the plurality of users is accumulated for each user;
a similarity determination unit that determines the similarity of preferences between the users based on the information on the preferences for each user in the database unit;
a user extracting unit that extracts a combination of the users whose similarity is equal to or greater than a determination threshold;
a matching information providing unit that provides, as matching information, information of other users in the extracted combination to the terminal device of one of the users in the combination extracted by the user extraction unit; ,
Prepare.

また、上記目的を達成するため本発明の第2の態様に係るマッチング方法は、
音声情報からユーザが聴取した聴取音の情報を抽出する聴取音抽出ステップと、
音声情報から前記ユーザの感情状態が反映された感情音の情報を抽出する感情音抽出ステップと、
抽出された前記聴取音の情報と抽出された前記感情音の情報とから、前記ユーザの嗜好の情報を特定する嗜好特定ステップと、
複数のユーザについてそれぞれ特定されてデータベース部に蓄積されたユーザ別の前記嗜好の情報に基づいて、前記ユーザ同士の嗜好の類似性を判定する類似性判定ステップと、
前記類似性が判定閾値以上となる前記ユーザの組み合わせを抽出するユーザ抽出ステップと、
前記ユーザ抽出ステップで抽出した組み合わせ中のユーザのうち一のユーザの端末機器に、前記抽出した組み合わせ中の他のユーザの情報を、マッチング情報として提供するマッチング情報提供ステップと、
を含む。
In order to achieve the above object, a matching method according to a second aspect of the present invention includes:
a listening sound extraction step of extracting information of a listening sound heard by a user from voice information;
an emotional sound extraction step of extracting emotional sound information reflecting the user's emotional state from voice information;
a preference identifying step of identifying information about the user's preference from the extracted listening sound information and the extracted emotional sound information;
a similarity determination step of determining the similarity of the preferences of the users based on the information of the preferences for each user that are specified for each of a plurality of users and accumulated in a database unit;
a user extraction step of extracting a combination of the users whose similarity is equal to or greater than a determination threshold;
a matching information providing step of providing, as matching information, information of other users in the extracted combination to a terminal device of one of the users in the combination extracted in the user extraction step;
including.

本発明によれば、ユーザに、趣味嗜好の合う他のユーザを適切にマッチングできるようにすることができる。 Advantageous Effects of Invention According to the present invention, it is possible to appropriately match a user with other users who have similar interests and tastes.

図1は、本発明の一実施形態に係るマッチングシステムの説明図である。FIG. 1 is an explanatory diagram of a matching system according to one embodiment of the present invention. 図2は、図1のマッチングシステムの機能的な構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the matching system of FIG. 1; 図3は、図2の環境音解析部のさらに詳細な構成を示すブロック図である。FIG. 3 is a block diagram showing a more detailed configuration of the environmental sound analysis section of FIG. 2. As shown in FIG. 図4Aは、図2の環境音解析部が解析する環境音の発生パターンの一例を説明するためのグラフである。4A is a graph for explaining an example of an environmental sound generation pattern analyzed by the environmental sound analysis unit in FIG. 2. FIG. 図4Bは、図2の環境音解析部が解析する環境音の発生パターンの他の例を説明するためのグラフである。4B is a graph for explaining another example of the environmental sound generation pattern analyzed by the environmental sound analysis unit in FIG. 2; FIG. 図5Aは、図3の嗜好特定部が特定するユーザの嗜好の一例を示す説明図である。FIG. 5A is an explanatory diagram showing an example of user preferences specified by the preference specifying unit in FIG. 3 . 図5Bは、図3の嗜好特定部が特定するユーザの嗜好の別例を示す説明図である。FIG. 5B is an explanatory diagram showing another example of user preferences specified by the preference specifying unit in FIG. 3 . 図6は、図2の類似傾向判定部が行う類似傾向判定処理の手順の一例を示すフローチャートである。FIG. 6 is a flow chart showing an example of a procedure of similarity tendency determination processing performed by the similarity tendency determination unit of FIG. 2 . 図7は、図2のマッチングシステムの各部によって実行されるマッチング方法の手順の一例を示すフローチャートである。FIG. 7 is a flow chart showing an example of a matching method procedure executed by each part of the matching system of FIG.

以下、本発明の実施形態について、図面を参照して説明する。各図面を通じて同一あるいは同等の部位、又は構成要素には、同一の符号を付している。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same reference numerals are given to the same or equivalent parts or components throughout each drawing.

以下に示す実施形態は、この発明の技術的思想を具体化するための装置等を例示するものである。この発明の技術的思想は、各構成部品の材質、形状、構造、配置、機能等を下記のものに特定するものでない。 The embodiments shown below are examples of apparatuses and the like for embodying the technical idea of the present invention. The technical idea of the present invention does not specify the material, shape, structure, arrangement, function, etc. of each component as follows.

図1は、本発明の一実施形態に係るマッチングシステムの説明図である。図1に示すように、本実施形態のマッチングシステムは、車両10の端末機器20とサーバ30とを通信ネットワーク40によって接続して構成することができる。 FIG. 1 is an explanatory diagram of a matching system according to one embodiment of the present invention. As shown in FIG. 1, the matching system of this embodiment can be configured by connecting a terminal device 20 of a vehicle 10 and a server 30 via a communication network 40 .

マッチングシステムは、例えば、車両10で取得した音声情報に基づいて、車両10に乗ったユーザ11の聴取音と感情音とからユーザ11の嗜好を判定することができる。マッチングシステムは、判定したユーザ11の嗜好に即して、他の車両10に乗ったユーザ11の情報をマッチング情報として、車両10のユーザ11に提供することができる。本実施形態において、各ユーザ11は、それぞれ異なる車両10に乗っているものとする。 The matching system can determine the preferences of the user 11 from the sounds and emotional sounds of the user 11 riding in the vehicle 10, for example, based on voice information acquired by the vehicle 10. FIG. The matching system can provide the user 11 of the vehicle 10 with the information of the user 11 who got on the other vehicle 10 as the matching information in line with the determined preference of the user 11 . In this embodiment, it is assumed that each user 11 rides in a different vehicle 10 .

車両10は、運転操作の一部又は全部をコンピュータの制御により自動で行う自動運転車両でもよく、車両10に乗った人間が全ての運転操作を行う非自動運転車両でもよい。 The vehicle 10 may be an automatically operated vehicle in which part or all of the driving operation is automatically performed by computer control, or may be a non-automatically operated vehicle in which all driving operations are performed by a person riding in the vehicle 10 .

端末機器20は、車両10に搭載された車載器でもよく、ユーザ11が車両10に持ち込んだ携帯端末でもよい。端末機器20は、図示しないCPU(Central Processing Unit )と内部記憶装置とを備える。車載器は、例えば、カーナビゲーション装置、ディスプレイオーディオ装置を含む。携帯端末は、例えば、スマートホン、タブレット端末を含む。端末機器20は、車両10の室内において音声情報を取得する集音機能を有しているものとする。集音機能は、例えば、マイクロホンを用いて実現することができる。 The terminal device 20 may be a vehicle-mounted device mounted on the vehicle 10 or a mobile terminal brought into the vehicle 10 by the user 11 . The terminal device 20 includes a CPU (Central Processing Unit) and an internal storage device (not shown). Onboard equipment includes, for example, a car navigation system and a display audio system. Mobile terminals include, for example, smartphones and tablet terminals. It is assumed that the terminal device 20 has a sound collecting function of acquiring voice information in the room of the vehicle 10 . A sound collection function can be realized using a microphone, for example.

サーバ30は、例えば、図示しないCPUと内部記憶装置とを備える汎用コンピュータで構成することができる。サーバ30は、通信ネットワーク40を介して各車両10の端末機器20と通信することができる。 The server 30 can be configured by, for example, a general-purpose computer having a CPU and an internal storage device (not shown). The server 30 can communicate with the terminal device 20 of each vehicle 10 via the communication network 40 .

通信ネットワーク40は、例えば、端末機器20との間で無線通信を行うネットワークを含む構成とすることができる。通信ネットワーク40は、インターネットを含んで構成してもよい。端末機器20が使用するネットワークとサーバ30が使用するネットワークとは、同じネットワークでもよく、異なるネットワークでもよい。 The communication network 40 can be configured to include, for example, a network that performs wireless communication with the terminal device 20 . Communication network 40 may include the Internet. The network used by the terminal device 20 and the network used by the server 30 may be the same network or different networks.

端末機器20が車載器である場合、車両10に乗ったユーザ11は、車載器を操作して、必要な情報の入力を行うことができる。必要な情報は、例えば、ユーザ11と他の車両10のユーザ11とをマッチングするのにサーバ30が必要とする情報を含むものとすることができる。 When the terminal device 20 is a vehicle-mounted device, the user 11 in the vehicle 10 can operate the vehicle-mounted device to input necessary information. The required information may include, for example, information needed by server 30 to match user 11 with users 11 of other vehicles 10 .

端末機器20が携帯端末である場合、車両10に乗ったユーザ11は、車両10に持ち込んだ携帯端末にインストールされたアプリケーションソフトウェア(以下、「アプリ」と称する。)を起動させて、携帯端末を操作し、必要な情報の入力を行うことができる。ユーザ11が端末機器20である携帯端末のアプリを起動させる場合は、ユーザ11の携帯端末にネイティブアプリをインストールし、携帯端末内の演算装置に演算処理を行わせる。 When the terminal device 20 is a mobile terminal, the user 11 in the vehicle 10 activates application software (hereinafter referred to as an "app") installed in the mobile terminal brought into the vehicle 10 to use the mobile terminal. You can operate and input necessary information. When the user 11 activates the application of the mobile terminal, which is the terminal device 20, the native application is installed in the mobile terminal of the user 11, and the arithmetic device in the mobile terminal performs arithmetic processing.

また、端末機器20である携帯端末にネイティブアプリをインストールする代わりに、例えば、PWA(Progressive Web Apps)技術を利用することもできる。PWA技術を利用する場合は、インターネット上のクラウドサーバに構築したモバイルデバイス向けのWebサイトを、ユーザ11の携帯端末にインストールしたアプリのように使うことができる。 Also, instead of installing a native application in the mobile terminal, which is the terminal device 20, for example, PWA (Progressive Web Apps) technology can be used. When PWA technology is used, a website for mobile devices built on a cloud server on the Internet can be used like an application installed on the mobile terminal of the user 11 .

PWA技術を利用する場合は、例えば、携帯端末からインターネット上のクラウドサーバにアクセスし、携帯端末に表示させたクラウドサーバのコンソール画面上で、必要な情報の入力を行うことができる。クラウドサーバの機能は、サーバ30に持たせてもよく、サーバ30と連携するインターネット上の他のサーバ(図示せず)に持たせてもよい。 When PWA technology is used, for example, a mobile terminal can access a cloud server on the Internet, and necessary information can be input on the console screen of the cloud server displayed on the mobile terminal. The function of the cloud server may be provided to the server 30, or may be provided to another server (not shown) on the Internet that cooperates with the server 30. FIG.

本実施形態では、端末機器20が車載器である場合について説明する。以下、端末機器20としての車載器に符号20を付して、本実施形態のマッチングシステムを説明する。 In this embodiment, a case where the terminal device 20 is a vehicle-mounted device will be described. In the following, the matching system of the present embodiment will be described with reference numeral 20 attached to the vehicle-mounted device as the terminal device 20 .

図2は、図1のマッチングシステムの機能的な構成を示すブロック図である。図2に示すように、本実施形態のマッチングシステムは、環境音取得部50、環境音解析部60、解析結果送信部70、解析結果保持部80、類似傾向判定部90及び通信制御部100を有する構成とすることができる。 FIG. 2 is a block diagram showing a functional configuration of the matching system of FIG. 1; As shown in FIG. 2, the matching system of this embodiment includes an environmental sound acquisition unit 50, an environmental sound analysis unit 60, an analysis result transmission unit 70, an analysis result storage unit 80, a similarity tendency determination unit 90, and a communication control unit 100. It can be configured to have.

環境音取得部50は、車載器20に構築することができる。環境音取得部50は、マイクロホン等により車内の音声情報を取得する。車内の音声情報は、車内で取得される環境音の情報であればよく、音声の発生源が車内及び車外のどちらに存在するかを問わない。マッチングシステムは、必ずしも環境音取得部50を有していなくてもよい。 The environmental sound acquisition unit 50 can be constructed in the vehicle-mounted device 20 . The environmental sound acquisition unit 50 acquires audio information inside the vehicle using a microphone or the like. The in-vehicle audio information may be information about environmental sounds acquired in the vehicle, and it does not matter whether the source of the audio is inside or outside the vehicle. The matching system does not necessarily have the environmental sound acquisition unit 50 .

環境音は、ユーザ11が車内で発した音声と、ユーザ11が聴取目的で車内において出力させた聴取音とを含む。 The environmental sounds include voices uttered by the user 11 inside the vehicle and listening sounds output inside the vehicle for the purpose of listening by the user 11 .

ユーザ11が車内で発した音声は、ユーザ11の喜怒哀楽の感情状態が反映される感情音と、必ずしもユーザ11の感情状態が反映されるとは限らない、感情音に該当しない音声との両方を含む。感情音は、例えば、ユーザ11の笑い声、怒声、鼻歌の歌声、ため息、会話等を含むものとすることができる。感情音に該当しない音声は、例えば、ユーザ11の咳払い、くしゃみ等の音声を含むものとすることができる。 The voice uttered by the user 11 in the car is composed of an emotional sound that reflects the emotional state of the user 11 and a voice that does not necessarily reflect the emotional state of the user 11 and does not correspond to the emotional sound. Including both. Emotional sounds may include, for example, the user's 11 laughter, anger, humming, sighing, conversation, and the like. Sounds that do not correspond to emotional sounds can include, for example, sounds of the user 11 clearing his throat, sneezing, and the like.

聴取音は、例えば、テレビ又はラジオの放送音声、楽曲等の再生音を含む。放送音声及び再生音は、車両10に搭載された機器(図示せず)で受信又は再生されたものでも、車両10にユーザ11が持ち込んだ機器(図示せず)で受信又は再生されたものでもよい。 Listening sounds include, for example, broadcast sounds of television or radio, and reproduced sounds such as music. The broadcast sound and the reproduced sound may be received or reproduced by a device (not shown) mounted on the vehicle 10 or received or reproduced by a device (not shown) brought into the vehicle 10 by the user 11. good.

環境音は、上述したユーザ11の音声及び聴取音の他、車両10の周辺で発生して車内に届いた車外の音声を含む。車外の音声は、例えば、車外の騒音を含む。車外の騒音は、例えば、車両10のクラクションの音、街頭の騒音等を含む。クラクションの音は、ユーザ11が乗った車両10の音であるか他の車両10の音であるかを問わない。街頭の騒音は、例えば、車両10の周辺の人通りによる騒音、鉄道等の車両10以外の交通機関による騒音等を含む。 The environmental sound includes the voice of the user 11 and the listening sound described above, as well as the voice outside the vehicle that is generated around the vehicle 10 and reaches the inside of the vehicle. The sound outside the vehicle includes, for example, noise outside the vehicle. The noise outside the vehicle includes, for example, the sound of the horn of the vehicle 10, street noise, and the like. It does not matter whether the sound of the horn is the sound of the vehicle 10 in which the user 11 is riding or the sound of another vehicle 10 . The noise on the street includes, for example, noise caused by people walking around the vehicle 10, noise caused by means of transportation other than the vehicle 10 such as railways, and the like.

環境音取得部50は、例えば、マッチングシステムの機能のオン及びオフをユーザ11が車載器20において設定することで、音声情報の取得を開始し、あるいは、音声情報の取得を停止することができる。環境音取得部50は、例えば、ユーザ11がマッチングシステムの機能の設定をオフからオンに変更したときに、音声情報の取得を開始することができる。環境音取得部50は、例えば、ユーザ11がマッチングシステムの機能の設定をオンからオフに変更したときに、環境音取得部50は音声情報の取得を停止することができる。 The environmental sound acquisition unit 50 can start acquiring voice information or stop acquiring voice information, for example, when the user 11 sets the function of the matching system on and off in the vehicle-mounted device 20. . The environmental sound acquisition unit 50 can start acquiring audio information, for example, when the user 11 changes the setting of the matching system function from off to on. The environmental sound acquisition unit 50 can stop acquiring voice information, for example, when the user 11 changes the setting of the matching system function from on to off.

環境音解析部60及び解析結果送信部70は、車載器20及びサーバ30のどちらか一方に構築することができる。環境音には会話も含まれるため、プライバシーを保護する観点からすると、環境音解析部60及び解析結果送信部70は、車載器20に構築することが望ましい。環境音解析部60及び解析結果送信部70をサーバ30に構築する場合、環境音取得部50は、取得した音声情報を、車載器20から通信ネットワーク40を介してサーバ30の環境音解析部60に送信することができる。 The environmental sound analysis unit 60 and the analysis result transmission unit 70 can be constructed in either the vehicle-mounted device 20 or the server 30 . Since environmental sounds include conversation, it is desirable to construct the environmental sound analysis unit 60 and the analysis result transmission unit 70 in the vehicle-mounted device 20 from the viewpoint of protecting privacy. When the environmental sound analysis unit 60 and the analysis result transmission unit 70 are configured in the server 30, the environmental sound acquisition unit 50 transmits the acquired voice information from the vehicle-mounted device 20 to the environmental sound analysis unit 60 of the server 30 via the communication network 40. can be sent to

環境音解析部60は、環境音取得部50が取得した音声情報を解析し、数値化する。環境音解析部60は、環境音取得部50が取得した音声情報でなく、イヤホン等の再生装置(図示せず)が出力する音声情報、又は、ユーザ11の口元に向けた狭指向性マイクロホン等の集音装置(図示せず)で集音した音声情報を解析してもよい。 The environmental sound analysis unit 60 analyzes the audio information acquired by the environmental sound acquisition unit 50 and quantifies it. The environmental sound analysis unit 60 does not use the audio information acquired by the environmental sound acquisition unit 50, but audio information output by a playback device (not shown) such as an earphone, or a narrow directivity microphone directed toward the mouth of the user 11. Sound information collected by a sound collector (not shown) may be analyzed.

環境音解析部60は、音声情報の解析をリアルタイムで行ってもよい。環境音解析部60は、一定周期の期間内に環境音取得部50が取得した音声情報を、一定周期毎に解析してもよい。一定周期の長さは、例えば、5秒でもよいし、5分でもよい。環境音解析部60は、音声情報の解析を周期的に行う場合、今周期の解析結果を前周期の解析結果と照合し、両解析結果の類似性に基づいて、前周期から今周期に亘って同じ環境音が継続しているか否かを判断することができる。 The environmental sound analysis unit 60 may analyze the audio information in real time. The environmental sound analysis unit 60 may analyze the audio information acquired by the environmental sound acquisition unit 50 within a certain period of time at regular intervals. The fixed cycle length may be, for example, 5 seconds or 5 minutes. When the sound information is analyzed periodically, the environmental sound analysis unit 60 compares the analysis result of the current period with the analysis result of the previous period, and based on the similarity between the two analysis results, It is possible to judge whether the same environmental sound continues or not.

図3に示すように、環境音解析部60は、聴取音抽出部61、感情音抽出部63及び嗜好特定部65を有する。 As shown in FIG. 3 , the environmental sound analysis unit 60 has a listening sound extraction unit 61 , an emotional sound extraction unit 63 and a preference identification unit 65 .

聴取音抽出部61は、環境音取得部50により環境音の情報として取得された音声情報を解析し、取得された音声情報から、ユーザ11が乗車した車両10においてユーザ11が聴取した聴取音の情報を抽出する。聴取音抽出部61は、環境音取得部50が取得した音声情報でなく、イヤホン等の再生装置(図示せず)が出力する音声情報から、ユーザ11の聴取音を抽出してもよい。聴取音抽出部61は、ユーザ11が聴取した音が含まれる音声情報から、ユーザ11の聴取音を抽出すればよい。 The listening sound extracting unit 61 analyzes the audio information acquired as the environmental sound information by the environmental sound acquiring unit 50, and extracts the listening sound that the user 11 heard in the vehicle 10 in which the user 11 boarded from the acquired audio information. Extract information. The listening sound extracting unit 61 may extract the listening sound of the user 11 not from the audio information acquired by the environmental sound acquiring unit 50 but from audio information output by a playback device (not shown) such as an earphone. The listening sound extracting unit 61 may extract the listening sound of the user 11 from the audio information including the sound heard by the user 11 .

感情音抽出部63は、環境音取得部50により環境音の情報として取得された音声情報を解析し、取得された音声情報から、車両10に乗ったユーザ11の感情状態が反映された感情音の情報を抽出する。感情音抽出部63は、環境音取得部50が取得した音声情報でなく、ユーザ11の口元に向けた狭指向性マイクロホン等の集音装置(図示せず)で集音した音声情報から、ユーザ11の感情音を抽出してもよい。聴取音抽出部61は、ユーザ11の感情状態が反映される音が含まれる音声情報から、ユーザ11の聴取音を抽出すればよい。 The emotional sound extracting unit 63 analyzes the voice information acquired as environmental sound information by the environmental sound acquiring unit 50, and extracts the emotional sound reflecting the emotional state of the user 11 riding in the vehicle 10 from the acquired voice information. extract the information of The emotional sound extraction unit 63 extracts the sound of the user 11 not from the sound information acquired by the environmental sound acquisition unit 50 but from sound information collected by a sound collecting device (not shown) such as a narrow directional microphone aimed at the mouth of the user 11 . Eleven emotional sounds may be extracted. The listening sound extracting unit 61 may extract the listening sound of the user 11 from the audio information including the sound reflecting the emotional state of the user 11 .

嗜好特定部65は、聴取音抽出部61が抽出した聴取音の情報と、感情音抽出部63が抽出した感情音の情報とから、ユーザ11の嗜好の情報を特定する。 The preference identification unit 65 identifies information about the preference of the user 11 from the listening sound information extracted by the listening sound extraction unit 61 and the emotional sound information extracted by the emotional sound extraction unit 63 .

図4Aのグラフに示す例では、環境音取得部50により、環境音ES1がt0~t4の期間に連続して取得されている。また、図4Aの例では、環境音取得部50により、別の環境音ES3がt1~t2の期間にだけ取得されている。 In the example shown in the graph of FIG. 4A, the environmental sound ES1 is continuously acquired by the environmental sound acquisition unit 50 during the period from t0 to t4. Further, in the example of FIG. 4A, another environmental sound ES3 is acquired by the environmental sound acquisition unit 50 only during the period from t1 to t2.

図3の聴取音抽出部61は、環境音取得部50が取得した音声情報を解析する。聴取音抽出部61は、例えば、図4Aのt0~t4の期間に連続している環境音ES1を、継続性がある環境音と判断し、t1~t2の期間だけで終了した環境音ES3を、継続性がない環境音と判断することができる。聴取音抽出部61は、継続性がある環境音と判断した環境音ES1の音声情報の波形をt0~t4の期間について正規化し、聴取音であると判定する。聴取音抽出部61は、継続性がない環境音と判断した環境音ES3の音声情報について、聴取音以外の環境音であると判定する。 The listening sound extraction unit 61 in FIG. 3 analyzes the audio information acquired by the environmental sound acquisition unit 50 . For example, the listening sound extraction unit 61 determines that the environmental sound ES1 that continues during the period from t0 to t4 in FIG. , can be determined as an environmental sound without continuity. The listening sound extracting unit 61 normalizes the waveform of the audio information of the environmental sound ES1 determined to be the environmental sound with continuity for the period from t0 to t4, and determines that it is the listening sound. The listening sound extracting unit 61 determines that the audio information of the environmental sound ES3 determined as the environmental sound without continuity is the environmental sound other than the listening sound.

聴取音抽出部61は、公知の技術により環境音の周波数を解析し、車載のオーディオ装置のスピーカから出力された環境音であるか否かを判断する機能を有していてもよい。この機能を有する場合、聴取音抽出部61は、例えば、車載のオーディオ装置のスピーカから出力されたと判断した環境音を、聴取音であると判定することができる。 The listening sound extraction unit 61 may have a function of analyzing the frequency of the environmental sound using a known technique and determining whether or not it is the environmental sound output from the speaker of the in-vehicle audio device. When having this function, the listening sound extracting unit 61 can determine, for example, an environmental sound that is determined to be output from a speaker of an in-vehicle audio device to be a listening sound.

図3の聴取音抽出部61は、抽出した聴取音の情報を解析し、ユーザ11が聴取した楽曲、番組等を特定する。聴取音抽出部61は、例えば、正規化した聴取音の波形を不図示のデータベース等に登録された楽曲データの波形と照合し、一致又は近似する波形を含む楽曲データを検出することで、ユーザ11が聴取した楽曲を特定することができる。聴取音抽出部61は、例えば、放送された番組のプレイリストにある楽曲の楽曲データの波形と照合することで、ユーザ11が聴取した番組を、番組中で流した楽曲を通じて特定することもできる。 The listening sound extraction unit 61 in FIG. 3 analyzes the information of the extracted listening sound, and identifies the music, program, etc., that the user 11 has listened to. For example, the listening sound extracting unit 61 compares the waveform of the normalized listening sound with the waveform of music data registered in a database (not shown) or the like, and detects music data including matching or similar waveforms, so that the user can 11 can identify the music that has been listened to. The listening sound extracting unit 61 can identify the program that the user 11 listened to through the music that was played during the program, for example, by checking the waveform of the music data of the music in the playlist of the broadcasted program. .

図4Bのグラフに示す例では、環境音ES1,ES3とは別の環境音ES2が、環境音ES1と同じt0~t4の期間に連続して環境音取得部50により取得されている。 In the example shown in the graph of FIG. 4B, the environmental sound ES2 different from the environmental sounds ES1 and ES3 is continuously acquired by the environmental sound acquisition unit 50 during the same period of t0 to t4 as the environmental sound ES1.

図3の感情音抽出部63は、環境音取得部50が取得した音声情報のうち、聴取音解析部61が聴取音以外の環境音であると判定した音声情報を解析する。感情音抽出部63は、例えば、図4Bのt0~t4の期間に連続している環境音ES2を、環境音ES1と同じく継続性がある環境音と判断することができる。環境音解析部60は、継続性がある環境音と判断した環境音ES2の音声情報の波形をt0~t4の期間について正規化し、同じt0~t4の期間について正規化した環境音ES1の音声情報の波形との類似性を評価する。波形の類似性は、例えば、図4A、図4Bの縦軸に示す波形の振幅変動の同期性の高さ、波形の周波数の近似度の高さ等に基づいて評価することができる。 The emotional sound extraction unit 63 of FIG. 3 analyzes the audio information that the listening sound analysis unit 61 has determined to be environmental sounds other than listening sounds, among the audio information acquired by the environmental sound acquiring unit 50 . For example, the emotional sound extraction unit 63 can determine that the environmental sound ES2 that continues during the period from t0 to t4 in FIG. 4B is an environmental sound that has continuity like the environmental sound ES1. The environmental sound analysis unit 60 normalizes the waveform of the audio information of the environmental sound ES2 judged to be the continuous environmental sound for the period from t0 to t4, and normalizes the audio information of the environmental sound ES1 for the same period from t0 to t4. Evaluate the similarity with the waveform of The similarity of waveforms can be evaluated based on, for example, the degree of synchronism of amplitude fluctuations of the waveforms shown on the vertical axes in FIGS. 4A and 4B, the degree of approximation of the frequencies of the waveforms, and the like.

図3の感情音抽出部63は、類似性がある環境音と判断した環境音ES2の正規化した音声情報の波形を、聴取音に合わせたユーザ11の鼻歌の波形と判定し、ユーザ11のポジティブな感情状態を反映した感情音であると判定することができる。 The emotional sound extraction unit 63 of FIG. It can be determined that the emotional sound reflects a positive emotional state.

感情音抽出部63は、例えば、環境音取得部50が取得した音声情報を解析し、ユーザ11の発話内容、発話音量を取得して、その内容の特徴から、ユーザ11のネガティブな感情状態を反映した感情音であると判定することができる。音声情報から発話内容、発話音量を取得し、ユーザ11の感情状態を反映した感情音であることを判定する方法には、公知の方法を利用することができる。 The emotional sound extraction unit 63, for example, analyzes the voice information acquired by the environmental sound acquisition unit 50, acquires the utterance content and utterance volume of the user 11, and determines the negative emotional state of the user 11 from the characteristics of the content. It can be determined that it is a reflected emotional sound. A known method can be used as a method of acquiring the utterance content and the utterance volume from the voice information and determining that the emotional sound reflects the emotional state of the user 11 .

感情音抽出部63は、例えば、ユーザ11のネガティブな感情状態を反映した感情音であることを判定している間、環境音取得部50が取得した音声情報の解析を一時保留してもよい。この一時保留により、感情状態が類似するユーザ11のマッチング情報が他の車両10から提供されて、ネガティブな感情状態のユーザ11同士がマッチングされるのを、回避することができる。 For example, the emotional sound extraction unit 63 may suspend the analysis of the audio information acquired by the environmental sound acquisition unit 50 while determining that the emotional sound reflects the negative emotional state of the user 11. . This temporary suspension makes it possible to prevent matching information of users 11 having similar emotional states from being provided from other vehicles 10 and users 11 having negative emotional states to be matched with each other.

感情音抽出部63は、環境音取得部50が取得した音声情報を解析した結果、聴取音及び感情音のいずれの類型にも当てはまらないと判断した環境音を、聴取音及び感情音以外の一般環境音と判断することができる。 As a result of analyzing the voice information acquired by the environmental sound acquiring unit 50, the emotional sound extracting unit 63 extracts environmental sounds that are determined not to fit into any of the types of auditory sounds and emotional sounds as general sounds other than auditory sounds and emotional sounds. It can be judged as an environmental sound.

嗜好特定部65は、例えば、聴取音抽出部61による聴取音の抽出中にユーザ11が発した感情音を感情音抽出部63が抽出した場合に、抽出した聴取音の内容と感情音の内容との組み合わせを、ユーザ11の嗜好の情報として特定することができる。 For example, when the emotional sound extracted by the user 11 during the extraction of the listening sound by the listening sound extracting unit 61 is extracted by the emotional sound extracting unit 63, the preference identifying unit 65 determines the content of the extracted listening sound and the content of the emotional sound. can be specified as information of user 11's preference.

図5Aは、嗜好特定部65が特定するユーザ11の嗜好の一例を示す説明図である。聴取音抽出部61が特定した楽曲Aの聴取中にユーザ11が発した感情音を、感情音抽出部63がポジティブと判定した場合、嗜好特定部65が特定するユーザ11の嗜好の情報は、図5Aの嗜好情報No.1のように、楽曲Aとポジティブとの組み合わせとなる。 FIG. 5A is an explanatory diagram showing an example of preferences of the user 11 identified by the preference identification unit 65. FIG. When the emotional sound extracted by the user 11 while listening to the song A specified by the listening sound extracting unit 61 is determined to be positive by the emotional sound extracting unit 63, the preference information of the user 11 specified by the preference specifying unit 65 is Preference information No. in FIG. 5A. Like 1, it is a combination of song A and positive.

聴取音抽出部61が特定した楽曲Bの聴取中にユーザ11が発した感情音を、感情音抽出部63がネガティブと判定した場合、嗜好特定部65が特定するユーザ11の嗜好の情報は、図5Aの嗜好情報No.2のように、楽曲Bとネガティブとの組み合わせとなる。 When the emotional sound extraction unit 63 determines that the emotional sound emitted by the user 11 while listening to the song B specified by the listening sound extraction unit 61 is negative, the preference information of the user 11 specified by the preference specification unit 65 is Preference information No. in FIG. 5A. 2, it is a combination of music B and negative.

聴取音抽出部61が特定した楽曲Cの聴取中にユーザ11の感情音を感情音抽出部63が抽出しなかった場合、嗜好特定部65は、図5Aの嗜好情報No.3のように、楽曲Cだけをユーザ11の嗜好の情報として特定してもよい。 If the emotional sound extraction unit 63 does not extract the emotional sound of the user 11 while listening to the song C specified by the listening sound extraction unit 61, the preference specification unit 65 selects the preference information No. 1 shown in FIG. 5A. 3, only the song C may be specified as the user's 11 preference information.

嗜好特定部65は、感情音の解析結果として、聴取音に時系列的に紐づいた感情音に反映されたユーザ11の感情状態を示す情報を、嗜好の情報に含めることができる。嗜好の情報に含めるユーザ11の感情状態を示す情報は、感情音抽出部63が抽出した感情音に反映されたポジティブ又はネガティブの感情状態に限定されない。嗜好の情報に含める情報は、例えば、感情音抽出部63が抽出した感情音に反映された感情状態を数値化した情報であってもよい。 The preference identification unit 65 can include information indicating the emotional state of the user 11 reflected in the emotional sound that is chronologically linked to the listening sound in the preference information as the analysis result of the emotional sound. The information indicating the emotional state of the user 11 to be included in the preference information is not limited to the positive or negative emotional state reflected in the emotional sound extracted by the emotional sound extractor 63 . Information to be included in the preference information may be, for example, information obtained by quantifying the emotional state reflected in the emotional sound extracted by the emotional sound extraction unit 63 .

嗜好特定部65は、聴取音抽出部61による聴取音の抽出中にユーザ11の感情音を感情音抽出部63が抽出した場合に、感情音の発生時点を含む情報を、ユーザ11の嗜好の情報として特定してもよい。1つの聴取音の聴取中に感情音抽出部63が抽出するユーザ11の感情音は、1回でも複数回でもよい。感情音の発生時点は、例えば、聴取音の開始からの経過時間で表すことができる。聴取音の開始からの経過時間で感情音の発生時点を表すことで、嗜好特定部65は、聴取音と感情音との時系列的な相関関係を示す情報から、ユーザ11の嗜好の情報を特定することができる。 When the emotional sound of the user 11 is extracted by the emotional sound extracting unit 63 while the listening sound is being extracted by the listening sound extracting unit 61, the preference specifying unit 65 stores the information including the time point of occurrence of the emotional sound as the preference of the user 11. It may be specified as information. The emotional sound of the user 11 extracted by the emotional sound extraction unit 63 during listening to one listening sound may be performed once or multiple times. The time point at which the emotional sound is generated can be represented, for example, by the elapsed time from the start of the listening sound. By representing the time point at which the emotional sound is generated by the elapsed time from the start of the listening sound, the preference specifying unit 65 can determine the preference information of the user 11 from the information indicating the time-series correlation between the listening sound and the emotional sound. can be specified.

図5Bは、嗜好特定部65が特定するユーザ11の嗜好の別例を示す説明図である。図5Bの嗜好情報No.10は、聴取音抽出部61が特定した楽曲Aの聴取の開始から10秒後、1分13秒後、2分8秒後にユーザ11がそれぞれ発した感情音を、感情音抽出部63がポジティブ、ポジティブ、ネガティブとそれぞれ判定した場合を示す。嗜好情報No.11は、聴取音抽出部61が特定した楽曲Bの聴取の開始から5秒後、3分28秒後にユーザ11がそれぞれ発した感情音を、感情音抽出部63がネガティブ、ネガティブとそれぞれ判定した場合を示す。 FIG. 5B is an explanatory diagram showing another example of the preferences of the user 11 specified by the preference specifying unit 65. As shown in FIG. Preference information No. in FIG. 5B. 10, the emotional sound extracting unit 63 detects the emotional sounds uttered by the user 11 after 10 seconds, 1 minute and 13 seconds, and 2 minutes and 8 seconds after starting listening to the song A specified by the listening sound extracting unit 61 as positive sounds. , positive and negative, respectively. Preference information No. At 11, the emotional sounds uttered by the user 11 after 5 seconds and after 3 minutes and 28 seconds from the start of listening to the song B specified by the listening sound extracting unit 61 are determined as negative by the emotional sound extracting unit 63, respectively. indicate the case.

聴取音抽出部61が特定した楽曲Cの聴取中にユーザ11の感情音を感情音抽出部63が抽出しなかった場合、嗜好特定部65が特定するユーザ11の嗜好の情報は、図5Bの嗜好情報No.12のように、感情音とその発生時点とがない楽曲Cだけの情報となる。 If the emotional sound extraction unit 63 does not extract the emotional sound of the user 11 while listening to the song C specified by the listening sound extraction unit 61, the information of the preference of the user 11 specified by the preference specification unit 65 is shown in FIG. 5B. Preference information No. As shown in 12, the information is only for the song C, which does not have emotional sound and its occurrence time.

嗜好特定部65は、感情音の発生時点を含む情報をユーザ11の嗜好の情報として特定することで、ユーザ11の嗜好をより細かく評価できる嗜好の情報を提供することができる。 The preference specifying unit 65 can provide preference information that enables more detailed evaluation of the preference of the user 11 by specifying the information including the time point of occurrence of the emotional sound as the preference information of the user 11 .

環境音解析部60は、環境音取得部50が取得した音声情報を解析する度に、嗜好特定部65が特定したユーザ11の嗜好の情報を、環境音解析部60による音声情報の解析結果のデジタルデータとして解析結果送信部70に引き渡す。 Each time the environmental sound analysis unit 60 analyzes the audio information acquired by the environmental sound acquisition unit 50, the environmental sound analysis unit 60 converts the preference information of the user 11 identified by the preference identification unit 65 into the analysis result of the audio information by the environmental sound analysis unit 60. It is handed over to the analysis result transmission unit 70 as digital data.

解析結果送信部70は、環境音解析部60から解析結果のデジタルデータが引き渡されると、その都度、引き渡された解析結果のデジタルデータを解析結果保持部80に記憶させる。環境音解析部60及び解析結果送信部70を車載器20に構築する場合、解析結果送信部70は、環境音解析部60から引き渡された解析結果のデジタルデータを、車載器20から通信ネットワーク40を介してサーバ30の解析結果保持部80に送信できる。 Each time the environmental sound analysis unit 60 delivers the digital data of the analysis result, the analysis result transmission unit 70 stores the delivered digital data of the analysis result in the analysis result holding unit 80 . When constructing the environmental sound analysis unit 60 and the analysis result transmission unit 70 in the vehicle-mounted device 20, the analysis result transmission unit 70 transmits the digital data of the analysis result handed over from the environmental sound analysis unit 60 from the vehicle-mounted device 20 to the communication network 40. can be transmitted to the analysis result holding unit 80 of the server 30 via the .

解析結果保持部80は、サーバ30の内部記憶装置を用いて構築することができる。内部記憶装置は、例えば、SSD(Solid State Drive )又はHDD(Hard Disk Drive )によって構成することができる。解析結果保持部80は、解析結果送信部70が送信した解析結果のデジタルデータを記憶する。 The analysis result holding unit 80 can be constructed using an internal storage device of the server 30 . The internal storage device can be composed of, for example, an SSD (Solid State Drive) or HDD (Hard Disk Drive). The analysis result holding unit 80 stores the digital data of the analysis result transmitted by the analysis result transmission unit 70 .

解析結果保持部80は、複数の車両10についてそれぞれ抽出されたユーザ11の嗜好の情報が、ユーザ11別に蓄積されるデータベース部として、機能することができる。 The analysis result holding unit 80 can function as a database unit that accumulates information on the preferences of the users 11 extracted for each of the plurality of vehicles 10 for each user 11 .

類似傾向判定部90は、ユーザ11毎に、類似傾向(嗜好)が近い他のユーザ11を選定する。類似傾向判定部90は、解析結果保持部80にユーザ11別に記憶されている解析結果のデジタルデータを定期的に参照して、類似傾向が近いユーザ11を選定する。類似傾向判定部90は、例えば、サーバ30に構築することができる。類似傾向判定部90は、類似傾向が近いユーザ11の選定を、例えば、図6のフローチャートに示す手順の処理で行うことができる。 For each user 11, the similarity tendency determination unit 90 selects another user 11 having a similarity tendency (preference). The similarity tendency determination unit 90 periodically refers to the digital data of the analysis results stored for each user 11 in the analysis result holding unit 80, and selects users 11 having similar tendencies. The similarity tendency determination unit 90 can be constructed in the server 30, for example. The similarity tendency determination unit 90 can select the user 11 having a similarity tendency, for example, by performing the processing of the procedure shown in the flowchart of FIG. 6 .

類似傾向判定部90は、図6のフローチャートの処理を、例えば、解析結果送信部70によって送信された解析結果のデジタルデータが解析結果保持部80に記憶される度に行ってもよく、一定周期毎に行ってもよい。一定周期は、例えば、5分でもよく、1時間でもよい。 The similarity tendency determination unit 90 may perform the processing of the flowchart of FIG. 6, for example, each time the analysis result digital data transmitted by the analysis result transmission unit 70 is stored in the analysis result storage unit 80, or may be performed at a constant cycle. You can go every The constant cycle may be, for example, 5 minutes or 1 hour.

類似傾向判定部90は、解析結果保持部80に記憶された解析結果のデジタルデータを参照して、近似したデジタルデータを全てのユーザ11について抽出し、嗜好の傾向毎に仕分けた集団を作成する(ステップS1)。傾向毎の仕分けは、例えば、聴取した楽曲又は番組のジャンル、感情音に反映されたユーザ11の感情状態等を指標として行うことができる。 The similarity tendency determination unit 90 refers to the digital data of the analysis results stored in the analysis result holding unit 80, extracts similar digital data for all the users 11, and creates a group sorted by preference tendency. (Step S1). Sorting by tendency can be performed using, for example, the genre of the music or program listened to, the emotional state of the user 11 reflected in the emotional sound, or the like as an index.

解析結果送信部70が送信した解析結果のデジタルデータを、解析結果保持部80が一定期間の過去分まで記憶している場合、類似傾向判定部90は、過去分の解析結果のデジタルデータも参照して、より嗜好の類似傾向が強い集団を作成することができる。 When the analysis result holding unit 80 stores the digital data of the analysis result transmitted by the analysis result transmission unit 70 up to the past for a certain period, the similarity tendency determination unit 90 also refers to the digital data of the analysis result for the past. By doing so, it is possible to create a group with a stronger similarity in taste.

類似傾向判定部90は、作成した集団内で、マッチング相手を選定するユーザ11と嗜好に関する類似傾向が最も高い他のユーザ11のデジタルデータを特定する。 The similarity tendency determination unit 90 identifies the digital data of the user 11 who selects a matching partner and the other user 11 who has the highest similarity tendency regarding taste within the created group.

環境音解析部60及び解析結果送信部70を車載器20に構築する場合、解析結果送信部70は、車載器20が搭載された車両10に乗ったユーザ11の属性の情報を付加して、解析結果のデジタルデータを解析結果保持部80に送信することができる。解析結果送信部70は、ユーザ11の属性の情報を、動的又は静的に付加することができる。 When constructing the environmental sound analysis unit 60 and the analysis result transmission unit 70 in the vehicle-mounted device 20, the analysis result transmission unit 70 adds attribute information of the user 11 riding in the vehicle 10 in which the vehicle-mounted device 20 is mounted, Digital data of the analysis result can be transmitted to the analysis result holding unit 80 . The analysis result transmission unit 70 can dynamically or statically add the attribute information of the user 11 .

ユーザの属性の情報は、例えば、ユーザの性別、年齢、生活地域、あるいは、生体認識データ等の情報を含むものとすることができる。環境音取得部50が取得した音声情報を、感情状態を反映した感情音であると感情音抽出部63が判定した場合、ユーザ11の属性は、感情音抽出部63が判定した感情音に反映された感情状態を含んでいてもよい。 The user attribute information can include information such as the user's sex, age, living area, or biometric data, for example. When the emotional sound extraction unit 63 determines that the voice information acquired by the environmental sound acquisition unit 50 is the emotional sound reflecting the emotional state, the attribute of the user 11 is reflected in the emotional sound determined by the emotional sound extraction unit 63. may include the emotional state of the

類似傾向判定部90は、解析結果保持部80のデジタルデータにユーザ11の属性の情報が付加されている場合、類似傾向判定部90が作成した集団内で、嗜好に関する類似傾向が最も高いデジタルデータを、ユーザ11の属性を加味して特定してもよい。類似傾向判定部90は、ユーザ11の属性を加味することで、嗜好に関する類似傾向が最も高いデジタルデータを、高い精度で特定することができる。 When the attribute information of the user 11 is added to the digital data in the analysis result holding unit 80, the similarity tendency determination unit 90 selects the digital data with the highest similarity tendency regarding taste in the group created by the similarity tendency determination unit 90. may be specified in consideration of the attributes of the user 11 . By taking into account the attributes of the user 11, the similarity tendency determination unit 90 can identify digital data with the highest similarity tendency regarding taste with high accuracy.

類似傾向判定部90は、マッチング相手を選定するユーザ11との嗜好に関する類似傾向が予め決められた判定閾値を超える、他のユーザ11のデジタルデータが、ステップS1で作成した同じ集団内に存在するか否かを判定する(ステップS3)。嗜好に関する類似傾向が判定閾値を超える他のユーザ11のデジタルデータが、同じ集団内に存在しないと判定した場合(ステップS3でNO)、類似傾向判定部90は、以後の手順をスキップする。このスキップにより、類似傾向判定部90は、嗜好に関する類似傾向が近いユーザ11の選定を、次のサイクルで図6の手順を行うまで保留する。 The similarity tendency determination unit 90 determines that the digital data of other users 11 whose similarity in taste with the user 11 who selects a matching partner exceeds a predetermined determination threshold exists in the same group created in step S1. It is determined whether or not (step S3). If it is determined that the digital data of another user 11 whose similar tendency regarding preference exceeds the determination threshold does not exist in the same group (NO in step S3), the similar tendency determination unit 90 skips the subsequent steps. Due to this skip, the similarity tendency determination unit 90 suspends the selection of the user 11 who has a similarity in taste until the procedure of FIG. 6 is performed in the next cycle.

類似傾向判定部90は、嗜好に関する類似傾向が判定閾値を超える他のユーザ11のデジタルデータが、マッチング相手を選定するユーザ11と同じ集団内に存在すると判定した場合(ステップS3でYES)、次のステップS5の手順に進む。ステップS5の手順はスキップしてもよく、ステップS5の手順をスキップする場合は、後述するステップS7の手順に進む。 If the similarity tendency determination unit 90 determines that the digital data of the other user 11 whose preference similarity tendency exceeds the determination threshold exists in the same group as the user 11 who selects the matching partner (YES in step S3), the following to step S5. The procedure of step S5 may be skipped, and when the procedure of step S5 is skipped, the procedure proceeds to step S7, which will be described later.

ステップS5では、類似傾向判定部90は、ステップS3において、判定閾値を超える他のユーザ11のデジタルデータが存在すると判定した集団内に、感情音の感情状態がポジティブな傾向を示すユーザ11のデジタルデータが存在するか否かを判定する。 In step S5, the similarity tendency determination unit 90 selects digital data of users 11 whose emotional states of emotional sounds exhibit a positive tendency in the group determined in step S3 as having digital data of other users 11 exceeding the determination threshold. Determine whether data exists.

類似傾向判定部90は、ポジティブな傾向を示すユーザ11のデジタルデータが集団内に存在しないと判定した場合(ステップS5でNO)、感情状態がネガティブな傾向を示すユーザ11のデジタルデータだけが仕分けられた集団であると認識する。この場合、類似傾向判定部90は、以後の手順をスキップし、嗜好に関する類似傾向が近いユーザ11の選定を次のサイクルまで保留する。類似傾向判定部90は、ポジティブな傾向を示すユーザ11のデジタルデータが集団内に存在すると判定した場合(ステップS5でYES)、次のステップS7の手順に進む。 When the similar tendency determination unit 90 determines that the digital data of the user 11 who shows a positive tendency does not exist in the group (NO in step S5), only the digital data of the user 11 whose emotional state shows a negative tendency is sorted. Recognize that it is a group that has been In this case, the similarity tendency determination unit 90 skips the subsequent procedures and suspends the selection of the user 11 who has a similarity in taste until the next cycle. When the similarity tendency determination unit 90 determines that the digital data of the user 11 showing a positive tendency exists in the group (YES in step S5), the procedure proceeds to the next step S7.

ステップS7では、類似傾向判定部90は、マッチング相手を選定するユーザ11のデジタルデータと同じ集団内の、嗜好に関する類似傾向が最も高い他のユーザ11のデジタルデータを、マッチング相手のデジタルデータとして抽出する。 In step S7, the similarity tendency determination unit 90 extracts the digital data of the other user 11 who has the highest similarity tendency regarding taste in the same group as the digital data of the user 11 who selects the matching partner as the digital data of the matching partner. do.

類似傾向判定部90が抽出する、類似傾向が最も高いユーザ11のデジタルデータは、文字通り、類似傾向が「最も高い」単一のデジタルデータでもよく、「最も高い」という概念に当てはまる近似度範囲に属する、1又は複数のデジタルデータでもよい。ステップS7の処理により、類似傾向判定部90は、嗜好の情報を表すデジタルデータが近似するユーザ11同士の1対1の組み合わせ、あるいは、1対多の組み合わせを、抽出することができる。 The digital data of the user 11 with the highest similarity tendency extracted by the similarity tendency determination unit 90 may literally be a single digital data with the 'highest' similarity tendency, and the degree of similarity range applicable to the concept of 'highest'. It may be one or more digital data belonging to it. Through the process of step S7, the similarity tendency determination unit 90 can extract a one-to-one combination or a one-to-many combination of users 11 whose digital data representing information on preferences are similar.

類似傾向判定部90は、抽出したマッチング相手のデジタルデータに対応する他のユーザ11の情報又は他のユーザ11が乗った車両10の情報を、マッチング相手との接続情報として通信制御部100に送信する(ステップS9)。 The similarity tendency determination unit 90 transmits the information of the other user 11 corresponding to the extracted digital data of the matching partner or the information of the vehicle 10 in which the other user 11 rides to the communication control unit 100 as connection information with the matching partner. (step S9).

類似傾向判定部90は、以上のステップS1~ステップS9の手順を、サーバ30において繰り返し実行する。 The similarity tendency determination unit 90 repeatedly executes the above steps S1 to S9 in the server 30. FIG.

類似傾向判定部90は、データベース部(解析結果保持部80)のユーザ11別の嗜好の情報に基づいて、ユーザ11同士の嗜好の類似性を判定する類似性判定部として、機能することができる。類似傾向判定部90は、類似性が判定閾値以上となるユーザ11同士の組み合わせを抽出するユーザ抽出部として、機能することができる。 The similarity tendency determination unit 90 can function as a similarity determination unit that determines the similarity of preferences between the users 11 based on the information on the preferences of each user 11 in the database unit (analysis result storage unit 80). . The similarity tendency determination unit 90 can function as a user extraction unit that extracts a combination of users 11 whose similarity is equal to or greater than a determination threshold.

通信制御部100は、類似傾向判定部90が送信した接続情報に対応する他のユーザ11又は他のユーザ11が乗った車両10の情報に基づいて、他のユーザ11が乗った車両10の車載器20を特定する。通信制御部100は、マッチング相手を選定するユーザ11が乗った車両10の車載器20に、特定した車載器20との通信を確立するのに必要な情報を提供する。 Based on the information of the other user 11 corresponding to the connection information transmitted by the similarity tendency determination unit 90 or the information of the vehicle 10 in which the other user 11 has ridden, the communication control unit 100 determines whether the vehicle 10 in which the other user 11 has ridden is installed. Identify the vessel 20 . The communication control unit 100 provides the vehicle-mounted device 20 of the vehicle 10 in which the user 11 who selects a matching partner gets on with information necessary to establish communication with the specified vehicle-mounted device 20 .

通信制御部100が提供する情報は、車載器20同士を通信ネットワーク40及びサーバ30を介して接続するための情報であってもよく、通信ネットワーク40及びサーバ30を介さず車載器20同士を直接接続(P2P接続)するための情報であってもよい。通信制御部100が提供する情報は、他車両10のユーザが他車両10において操作する端末機器(車載器20)との通信接続情報を含んでいる。 The information provided by the communication control unit 100 may be information for connecting the vehicle-mounted devices 20 via the communication network 40 and the server 30 . It may be information for making a connection (P2P connection). Information provided by the communication control unit 100 includes communication connection information with a terminal device (vehicle device 20 ) operated by the user of the other vehicle 10 in the other vehicle 10 .

通信制御部100は、各ユーザが乗った車両10の車載器20について、通信の確立に必要な情報を保持しているものとする。通信制御部100は、例えば、解析結果保持部80及び類似傾向判定部90と共に、サーバ30に構築することができる。通信制御部100は、例えば、通信ネットワーク40を介した通信によって、各車両10の車載器20に情報を提供することができる。 It is assumed that the communication control unit 100 holds information necessary for establishing communication with respect to the vehicle-mounted device 20 of the vehicle 10 in which each user rides. The communication control unit 100 can be built in the server 30 together with the analysis result storage unit 80 and the similarity trend determination unit 90, for example. The communication control unit 100 can provide information to the vehicle-mounted device 20 of each vehicle 10 by communication via the communication network 40, for example.

通信制御部100は、マッチング情報提供部として機能することができる。マッチング情報提供部としての通信制御部100は、ユーザ抽出部としての類似傾向判定部90が抽出した組み合わせ中のユーザ11のうち一人が乗っている車両10の車載器20に、マッチング情報を提供する。通信制御部100が提供するマッチング情報は、ユーザ抽出部としての類似傾向判定部90が抽出した組み合わせ中の他のユーザ11の情報を含んでいる。 The communication control unit 100 can function as a matching information providing unit. The communication control unit 100 as a matching information providing unit provides matching information to the vehicle-mounted device 20 of the vehicle 10 in which one of the users 11 in the combination extracted by the similarity tendency determination unit 90 as a user extraction unit is riding. . The matching information provided by the communication control unit 100 includes information on other users 11 in combinations extracted by the similarity tendency determination unit 90 as a user extraction unit.

通信制御部100からの情報を受信した車載器20は、受信した情報を利用してマッチング相手のユーザ11が乗った他車両10の車載器20との通信を自動的に確立してもよい。あるいは、通信制御部100からの情報を車載器20が受信した際に、受信した車載器20の車両10に乗ったユーザ11が、マッチング相手のユーザ11が乗った他車両10の車載器20との通信を実際に行うか否かを決めてもよい。通信を行うか否かをユーザ11が決める場合は、例えば、通信を行う際にユーザ11が車載器20を操作して、マッチング相手のユーザ11が乗った他の車両10の車載器20との通信を開始させるようにすることができる。 The vehicle-mounted device 20 that has received the information from the communication control unit 100 may automatically establish communication with the vehicle-mounted device 20 of the other vehicle 10 in which the matching partner user 11 rides using the received information. Alternatively, when the information from the communication control unit 100 is received by the vehicle-mounted device 20, the user 11 who got on the vehicle 10 of the vehicle-mounted device 20 that received the information is the vehicle-mounted device 20 of the other vehicle 10 on which the user 11 of the matching partner got on. may decide whether or not to actually perform the communication. When the user 11 decides whether or not to communicate, for example, the user 11 operates the vehicle-mounted device 20 to communicate with the vehicle-mounted device 20 of another vehicle 10 in which the matching partner user 11 rides. communication can be initiated.

以上に説明した構成による本実施形態のマッチングシステムでは、図7のフローチャートに示すマッチング方法を実行することができる。このマッチング方法は、環境音取得、聴取音抽出、感情音抽出、嗜好特定、類似性判定、ユーザ抽出、及び、マッチング情報提供の各ステップ(ステップS21~ステップS33)を含んでいる。 In the matching system of this embodiment having the configuration described above, the matching method shown in the flowchart of FIG. 7 can be executed. This matching method includes steps (steps S21 to S33) of obtaining environmental sounds, extracting listening sounds, extracting emotional sounds, identifying preferences, determining similarities, extracting users, and providing matching information.

環境音取得ステップ(ステップS21)では、環境音取得部50が、ユーザ11が乗車した車両10において、音声情報を車両10の環境音の情報として取得する。環境音取得ステップ(ステップS21)は、スキップすることもできる。聴取音抽出ステップ(ステップS23)では、環境音解析部60の聴取音抽出部61が、取得された環境音の情報を解析し、取得された環境音の情報から聴取音の情報を抽出する。環境音取得ステップ(ステップS21)をスキップする場合の聴取音抽出ステップ(ステップS23)では、ユーザ11が聴取した音が含まれる音声情報から、ユーザ11の聴取音を抽出する。 In the environmental sound acquisition step (step S21), the environmental sound acquisition unit 50 acquires audio information as environmental sound information of the vehicle 10 in which the user 11 has boarded. The environmental sound acquisition step (step S21) can also be skipped. In the listening sound extraction step (step S23), the listening sound extraction unit 61 of the environmental sound analysis unit 60 analyzes the acquired environmental sound information and extracts listening sound information from the acquired environmental sound information. In the listening sound extracting step (step S23) when skipping the environmental sound obtaining step (step S21), the listening sound of the user 11 is extracted from the voice information including the sound heard by the user 11. FIG.

感情音抽出ステップ(ステップS25)では、環境音解析部60の感情音抽出部63が、取得された環境音の情報を解析し、取得された環境音の情報からユーザ11の感情状態が反映された感情音の情報を抽出する。環境音取得ステップ(ステップS21)をスキップする場合の感情音抽出ステップ(ステップS25)では、ユーザ11の感情状態が反映される音が含まれる音声情報から、ユーザ11の感情音を抽出する。 In the emotional sound extraction step (step S25), the emotional sound extraction unit 63 of the environmental sound analysis unit 60 analyzes the acquired environmental sound information, and the emotional state of the user 11 is reflected from the acquired environmental sound information. Extract the information of the emotional sounds. In the emotional sound extraction step (step S25) when the environmental sound acquisition step (step S21) is skipped, the emotional sound of the user 11 is extracted from the voice information containing the sound reflecting the emotional state of the user 11.

嗜好特定ステップ(ステップS27)では、環境音解析部60の嗜好特定部65が、抽出された聴取音の情報と感情音の情報とから、ユーザ11の嗜好の情報を特定する。 In the preference identification step (step S27), the preference identification unit 65 of the environmental sound analysis unit 60 identifies information on the preference of the user 11 from the extracted listening sound information and emotional sound information.

類似性判定ステップ(ステップS29)では、類似傾向判定部90が、データベース部(解析結果保持部80)に蓄積されたユーザ11別の嗜好の情報と、嗜好特定ステップ(ステップS27)で嗜好特定部65が特定した嗜好の情報とを照合する。ユーザ11別の嗜好の情報は、複数のユーザ11についてそれぞれ特定されてデータベース部(解析結果保持部80)に蓄積される。類似性判定ステップ(ステップS29)では、類似傾向判定部90が、照合した各嗜好同士の類似性を判定する。 In the similarity determination step (step S29), the similarity tendency determination unit 90 extracts the information on the preferences of each user 11 accumulated in the database unit (analysis result holding unit 80) and the preference identification unit in the preference identification step (step S27). The preference information specified by 65 is collated. Information on preferences for each user 11 is specified for each of a plurality of users 11 and accumulated in the database section (analysis result holding section 80). In the similarity determination step (step S29), the similarity tendency determination unit 90 determines the similarity between the collated preferences.

ユーザ抽出ステップ(ステップS31)では、類似傾向判定部90が、類似性が判定閾値以上となるユーザ11の組み合わせを抽出する。マッチング情報提供ステップ(ステップS33)では、通信制御部100が、ユーザ抽出ステップ(ステップS31)で類似傾向判定部90が抽出した組み合わせ中のユーザ11のうち一人が乗っている車両10の車載器20に、マッチング情報を提供する。マッチング情報は、抽出した組み合わせ中の他のユーザ11の情報を含んでいる。 In the user extraction step (step S31), the similarity tendency determination unit 90 extracts combinations of users 11 whose similarity is equal to or greater than the determination threshold. In the matching information provision step (step S33), the communication control unit 100 selects the vehicle-mounted device 20 of the vehicle 10 on which one of the users 11 in the combination extracted by the similarity tendency determination unit 90 in the user extraction step (step S31) is riding. to provide matching information. Matching information includes information of other users 11 in the extracted combinations.

本実施形態のマッチングシステムで、図7のマッチング方法を実行すると、各車両10のユーザ11は、通信制御部100から車載器20に提供される情報を用いて、嗜好の類似傾向の高いユーザ11が乗った他の車両10の車載器20と通信を確立できる。各車両10のユーザ11は、通信を確立した車載器20の車両10に乗ったユーザ11と、会話等のコミュニケーションを取ることができる。類似傾向判定部90が、嗜好を指標にして、嗜好に関する類似傾向が最も高いユーザのデジタルデータを特定した場合、通信制御部100は、車両10に乗ったユーザ11と嗜好が合う他の車両10のユーザ11を適切にマッチングすることができる。 When the matching system of this embodiment executes the matching method of FIG. Communication can be established with the vehicle-mounted device 20 of another vehicle 10 on which the vehicle is boarded. The user 11 of each vehicle 10 can communicate with the user 11 riding in the vehicle 10 of the vehicle-mounted device 20 with which communication has been established. When the similarity tendency determination unit 90 identifies the digital data of the user with the highest similarity tendency with respect to taste using taste as an index, the communication control unit 100 determines the other vehicle 10 whose taste matches the user 11 riding in the vehicle 10 . of users 11 can be appropriately matched.

感情状態の類似性が高い他車両10のユーザ11をマッチング相手とすることで、車両10に乗ったユーザ11に、ストレスを感じにくく居心地のよい空間を車内で提供することができる。特に、自動運転車両の普及、ソーシャルディスタンシングが要求される状況の増加等により、ユーザ11が一人で車両10に乗る機会が増える場合は、ユーザ11が車内で孤独感を感じる可能性を減らし、快適な移動空間を車内で提供することができる。ユーザ11が車両10の運転操作を行う場合は、ユーザ11の安全運転動作を促進することにも寄与することができる。 By matching the user 11 of the other vehicle 10 having a highly similar emotional state as a matching partner, it is possible to provide the user 11 riding in the vehicle 10 with a comfortable space in the vehicle that is less stressful. In particular, when there are more opportunities for the user 11 to ride the vehicle 10 alone due to the spread of self-driving vehicles and the increase in situations requiring social distancing, the possibility of the user 11 feeling lonely in the vehicle is reduced, A comfortable moving space can be provided in the vehicle. When the user 11 performs a driving operation of the vehicle 10, it is possible to contribute to promoting safe driving behavior of the user 11 as well.

以上の実施形態では、車載器20を車両10の端末機器20とした例について説明した。車両10にユーザ11が持ち込んだスマートホン、タブレット端末等の携帯端末を、車両10の端末機器20とする場合は、携帯端末にインストールしたアプリを利用して、マッチングシステム及びマッチング方法を実現することもできる。 In the above embodiment, an example in which the vehicle-mounted device 20 is the terminal device 20 of the vehicle 10 has been described. When a portable terminal such as a smart phone or a tablet terminal brought into the vehicle 10 by the user 11 is used as the terminal device 20 of the vehicle 10, an application installed in the portable terminal is used to realize a matching system and a matching method. can also

例えば、嗜好の傾向の類似性が高い他の車両10のユーザ11の携帯端末に、その携帯端末にインストールしたアプリ上でアクセスするための情報を、通信制御部100からマッチング情報としてユーザ11の携帯端末に提供してもよい。 For example, information for accessing a mobile terminal of a user 11 of another vehicle 10 having a high similarity in preference tendency on an application installed in the mobile terminal is sent from the communication control unit 100 as matching information to the mobile terminal of the user 11. may be provided to the terminal.

例えば、ユーザ11は、携帯端末にインストールしたテキストチャットアプリ上でマッチング相手のユーザ11の携帯端末とアクセスするための情報を、通信制御部100からマッチング情報として受け取ることができる。マッチング情報を受け取ったユーザ11は、携帯端末で起動させたテキストチャットアプリ上で、マッチング情報を用いてマッチング相手のユーザ11の携帯端末にテキストメッセージを送信し、テキストチャットを開始することができる。 For example, the user 11 can receive information for accessing the mobile terminal of the matching partner user 11 on the text chat application installed on the mobile terminal from the communication control unit 100 as matching information. The user 11 who received the matching information can start text chat by transmitting a text message to the mobile terminal of the matching partner user 11 using the matching information on a text chat application started on the mobile terminal.

例えば、ユーザ11は、携帯端末にインストールしたマッチングアプリ上でマッチング相手のユーザ11の携帯端末とアクセスするための情報を、通信制御部100からマッチング情報として受け取ることができる。マッチング情報を受け取ったユーザ11は、携帯端末で起動させたマッチングアプリ上で、マッチング情報を用いてマッチング相手のユーザの携帯端末にアクセスし、例えば、待ち合わせの約束をすることができる。 For example, the user 11 can receive, as matching information from the communication control unit 100, information for accessing the mobile terminal of the matching partner user 11 on a matching application installed on the mobile terminal. The user 11 who has received the matching information accesses the mobile terminal of the matching partner user using the matching information on the matching application activated on the mobile terminal, and can make an appointment, for example.

携帯端末のアプリ上でマッチング相手のユーザ11の携帯端末とアクセスする場合、解析結果保持部80は、マッチング相手とのアクセスに必要な情報を、ユーザ11が乗った車両10で取得した音声情報の解析結果のデジタルデータに関連付けて記憶する。通信制御部100は、類似傾向が最も高いユーザのデジタルデータに関連付けた情報を解析結果保持部80から取得し、マッチング情報として提供することができる。 When accessing the mobile terminal of the user 11 who is the matching partner on the application of the mobile terminal, the analysis result holding unit 80 stores the information necessary for accessing the matching partner by using the voice information acquired by the vehicle 10 in which the user 11 is riding. It is stored in association with the digital data of the analysis result. The communication control unit 100 can acquire information associated with the digital data of the user with the highest similarity tendency from the analysis result holding unit 80 and provide it as matching information.

例えば、ユーザ11は、携帯端末にインストールした音楽配信サービスのアプリ上で、マッチング相手のユーザ11が登録した「お気に入り」の楽曲リスト等を、通信制御部100からマッチング情報として受け取ることができる。マッチング情報を受け取ったユーザ11は、携帯端末で起動させた音楽配信サービスのアプリ上で、マッチング情報を用いてマッチング相手のユーザ11が登録した「お気に入り」の楽曲リストを入手し、入手した楽曲リストから再生する楽曲を選択できる。 For example, the user 11 can receive, as matching information from the communication control unit 100, a "favorite" song list registered by the matching partner user 11 on a music distribution service application installed in the mobile terminal. After receiving the matching information, the user 11 uses the matching information to obtain the "favorite" music list registered by the user 11 who is the matching partner on the application of the music distribution service started on the mobile terminal, and the obtained music list. You can select a song to play from

携帯端末のアプリ上でマッチング相手のユーザ11が登録した音楽配信サービスの「お気に入り」の楽曲リスト等を、マッチング情報として受け取る場合、解析結果保持部80は、受け取った楽曲リスト等を、解析結果のデジタルデータに関連付けて記憶する。通信制御部100は、類似度が最も高いユーザ11のデジタルデータに関連付けた「お気に入り」の楽曲リスト等を解析結果保持部80から取得し、マッチング情報として提供することができる。 When receiving, as matching information, a "favorite" song list or the like of a music distribution service registered by the matching partner user 11 on the application of the mobile terminal, the analysis result holding unit 80 stores the received song list or the like as the analysis result. Store in association with digital data. The communication control unit 100 can acquire a “favorite” music list associated with the digital data of the user 11 having the highest degree of similarity from the analysis result holding unit 80 and provide it as matching information.

通信制御部100が、「お気に入り」のリストをマッチング情報として提供するマッチングシステム及びマッチング方法は、上述した音楽配信サービス以外のアプリを利用した場合でも、実現することができる。例えば、電子書籍配信サービス、動画配信サービス等、情報コンテンツの配信サービスでも、「お気に入り」のリストをマッチング情報として提供することができる。 A matching system and a matching method in which the communication control unit 100 provides a list of "favorites" as matching information can be realized even when an application other than the music distribution service described above is used. For example, information content distribution services such as e-book distribution services and video distribution services can also provide a list of "favorites" as matching information.

通信制御部100がマッチング情報として提供する「お気に入り」のリストは、他の車両10のユーザ11が他の車両10で操作する端末機器20(携帯端末)において提供される情報コンテンツに関する、他の車両10のユーザ11の嗜好情報を含んでいる。 The list of "favorites" provided by the communication control unit 100 as matching information is related to information content provided in a terminal device 20 (portable terminal) operated by a user 11 of another vehicle 10 in another vehicle 10. It contains preference information for ten users 11 .

端末機器20は、必ずしも車両10に設置されたものでなくてもよく、あるいは、ユーザ11が車両10に持ち込んだものでなくてもよい。端末機器20は、ユーザ11の聴取音と感情音とが取得できる場所に設置され、あるいは、ユーザ11によって持ち込まれたものであればよい。 The terminal device 20 may not necessarily be installed in the vehicle 10 or brought into the vehicle 10 by the user 11 . The terminal device 20 may be installed in a place where the user's 11 listening sounds and emotional sounds can be acquired, or may be brought in by the user 11 .

ユーザ11の聴取音と感情音とが取得できる場所は、車両10の他、例えば、ユーザ11の居室であってもよい。車両10、ユーザ11の居室等は、いずれも区切られた室内空間であるが、ユーザ11の聴取音と感情音とが取得できる場所は、室内空間に限定されない。ユーザ11の聴取音と感情音とが取得できる場所は、屋外等の開放された空間であってもよい。 The place where the user's 11 listening sound and emotional sound can be acquired may be the user's room, for example, other than the vehicle 10 . The vehicle 10, the room of the user 11, and the like are all partitioned indoor spaces, but the places where the user's 11 listening sounds and emotional sounds can be acquired are not limited to the indoor spaces. The place where the user's 11 listening sound and emotional sound can be acquired may be an open space such as outdoors.

10 車両
11 ユーザ
20 車載器(端末機器)
30 サーバ
40 通信ネットワーク
50 環境音取得部
60 環境音解析部
61 聴取音抽出部
63 感情音抽出部
65 嗜好特定部
70 解析結果送信部
80 解析結果保持部(データベース部)
90 類似傾向判定部(類似性判定部、ユーザ抽出部)
100 通信制御部(マッチング情報提供部)
ES1 環境音(聴取音)
ES2 環境音(感情音)
ES3 環境音(一般環境音)
10 vehicle 11 user 20 vehicle-mounted device (terminal device)
30 server 40 communication network 50 environmental sound acquisition unit 60 environmental sound analysis unit 61 listening sound extraction unit 63 emotional sound extraction unit 65 preference identification unit 70 analysis result transmission unit 80 analysis result storage unit (database unit)
90 similarity tendency determination unit (similarity determination unit, user extraction unit)
100 communication control unit (matching information providing unit)
ES1 Environmental sound (listening sound)
ES2 environmental sound (emotional sound)
ES3 environmental sound (general environmental sound)

Claims (5)

音声情報からユーザが聴取した聴取音の情報を抽出する聴取音抽出部と、
音声情報から前記ユーザの感情状態が反映された感情音の情報を抽出する感情音抽出部と、
抽出された前記聴取音の情報と抽出された前記感情音の情報とから、前記ユーザの嗜好の情報を特定する嗜好特定部と、を有する端末機器と、
複数の前記ユーザについてそれぞれ特定された前記嗜好の情報がユーザ別に蓄積されるデータベース部と、
前記データベース部のユーザ別の前記嗜好の情報に基づいて、前記ユーザ同士の嗜好の類似性を判定する類似性判定部と、
前記類似性が判定閾値以上となる前記ユーザの組み合わせを抽出するユーザ抽出部と、
前記ユーザ抽出部が抽出した組み合わせ中のユーザのうち一のユーザの前記端末機器に、前記抽出した組み合わせ中の他のユーザの情報を、マッチング情報として提供するマッチング情報提供部と、を有するサーバと、
を備えるマッチングシステム。
a listening sound extracting unit that extracts information about a listening sound heard by a user from voice information;
an emotional sound extracting unit that extracts emotional sound information reflecting the user's emotional state from voice information;
a terminal device having a preference identifying unit that identifies information about the user's preference from the extracted listening sound information and the extracted emotional sound information;
a database unit in which the information on the preferences specified for each of the plurality of users is accumulated for each user;
a similarity determination unit that determines the similarity of preferences between the users based on the information on the preferences for each user in the database unit;
a user extracting unit that extracts a combination of the users whose similarity is equal to or greater than a determination threshold;
a matching information providing unit that provides, as matching information, information of other users in the extracted combination to the terminal device of one of the users in the combination extracted by the user extraction unit; ,
A matching system with
前記嗜好特定部は、前記抽出された聴取音と前記抽出された感情音との時系列的な相関関係を示す情報から、前記ユーザの嗜好の情報を特定する請求項1に記載のマッチングシステム。 2. The matching system according to claim 1, wherein the preference identification unit identifies information about the user's preference from information indicating a time-series correlation between the extracted listening sounds and the extracted emotional sounds. 前記端末機器は、音声情報を前記ユーザの環境音の情報として取得する環境音取得部をさらに備えており、
前記聴取音抽出部は、取得された前記環境音の情報から前記聴取音を抽出し、
前記感情音抽出部は、前記取得された環境音の情報から前記感情音を抽出する請求項1又は2に記載のマッチングシステム。
The terminal device further includes an environmental sound acquisition unit that acquires voice information as environmental sound information of the user,
The listening sound extraction unit extracts the listening sound from the acquired information of the environmental sound,
3. The matching system according to claim 1, wherein the emotional sound extraction unit extracts the emotional sound from the acquired environmental sound information.
前記環境音取得部は、前記ユーザが乗車した車両において、音声情報を前記環境音の情報として取得する請求項3に記載のマッチングシステム。 4. The matching system according to claim 3, wherein the environmental sound acquisition unit acquires voice information as the environmental sound information in a vehicle in which the user rides. 音声情報からユーザが聴取した聴取音の情報を抽出する聴取音抽出ステップと、
音声情報から前記ユーザの感情状態が反映された感情音の情報を抽出する感情音抽出ステップと、
抽出された前記聴取音の情報と抽出された前記感情音の情報とから、前記ユーザの嗜好の情報を特定する嗜好特定ステップと、
複数のユーザについてそれぞれ特定されてデータベース部に蓄積されたユーザ別の前記嗜好の情報に基づいて、前記ユーザ同士の嗜好の類似性を判定する類似性判定ステップと、
前記類似性が判定閾値以上となる前記ユーザの組み合わせを抽出するユーザ抽出ステップと、
前記ユーザ抽出ステップで抽出した組み合わせ中のユーザのうち一のユーザの端末機器に、前記抽出した組み合わせ中の他のユーザの情報を、マッチング情報として提供するマッチング情報提供ステップと、
を含むマッチング方法。
a listening sound extraction step of extracting information of a listening sound heard by a user from voice information;
an emotional sound extraction step of extracting emotional sound information reflecting the user's emotional state from voice information;
a preference identifying step of identifying information about the user's preference from the extracted listening sound information and the extracted emotional sound information;
a similarity determination step of determining the similarity of the preferences of the users based on the information of the preferences for each user that are specified for each of a plurality of users and accumulated in a database unit;
a user extraction step of extracting a combination of the users whose similarity is equal to or greater than a determination threshold;
a matching information providing step of providing, as matching information, information of other users in the extracted combination to a terminal device of one of the users in the combination extracted in the user extraction step;
Matching methods, including
JP2021140862A 2021-08-31 2021-08-31 Matching system and matching method Pending JP2023034563A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021140862A JP2023034563A (en) 2021-08-31 2021-08-31 Matching system and matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021140862A JP2023034563A (en) 2021-08-31 2021-08-31 Matching system and matching method

Publications (1)

Publication Number Publication Date
JP2023034563A true JP2023034563A (en) 2023-03-13

Family

ID=85505158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021140862A Pending JP2023034563A (en) 2021-08-31 2021-08-31 Matching system and matching method

Country Status (1)

Country Link
JP (1) JP2023034563A (en)

Similar Documents

Publication Publication Date Title
US11055739B2 (en) Using environment and user data to deliver advertisements targeted to user interests, e.g. based on a single command
US9319019B2 (en) Method for augmenting a listening experience
KR101983635B1 (en) A method of recommending personal broadcasting contents
EP2919472A1 (en) Display apparatus, method for controlling display apparatus, and interactive system
US9959885B2 (en) Method for user context recognition using sound signatures
KR20120038000A (en) Method and system for determining the topic of a conversation and obtaining and presenting related content
US20190378518A1 (en) Personalized voice recognition service providing method using artificial intelligence automatic speaker identification method, and service providing server used therein
US20240037202A1 (en) Methods and systems for a voice id verification database and service in social networking and commercial business transactions
CN107592339B (en) Music recommendation method and music recommendation system based on intelligent terminal
KR20220062420A (en) Distributed identification in networked system
CN104091596A (en) Music identifying method, system and device
CN110083738A (en) A kind of music recommended method and terminal device based on vocal print and context aware
CN105810219A (en) Multimedia file playing method and playing system, and audio terminal
CN107451185B (en) Recording method, reading system, computer readable storage medium and computer device
KR102135076B1 (en) Emotion-based personalized news recommender system using artificial intelligence speakers
JP2023034563A (en) Matching system and matching method
JP2005332404A (en) Content providing system
JP7470336B2 (en) Audio data identification device
KR20150005804A (en) Music recommendation system and method for providing user's feedback, and service apparatus applied to the same
JP3638591B2 (en) Content provision system
CN109559760B (en) Emotion analysis method and system based on voice information
JP3696869B2 (en) Content provision system
CN109754820B (en) Target audio acquisition method and device, storage medium and terminal
CN105743848B (en) Multimedia content selective transmission method and device and remote control equipment
JP2018054926A (en) Voice interactive apparatus and voice interactive method