JP2023034563A - Matching system and matching method - Google Patents
Matching system and matching method Download PDFInfo
- Publication number
- JP2023034563A JP2023034563A JP2021140862A JP2021140862A JP2023034563A JP 2023034563 A JP2023034563 A JP 2023034563A JP 2021140862 A JP2021140862 A JP 2021140862A JP 2021140862 A JP2021140862 A JP 2021140862A JP 2023034563 A JP2023034563 A JP 2023034563A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- sound
- unit
- emotional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、マッチングシステム及びマッチング方法に関する。 The present invention relates to matching systems and matching methods.
自動運転車両には、運転できないユーザでも一人で乗ることができる。自動運転車両では、ユーザが一人で車両に乗る機会が増えると考えられる。ユーザが一人で車両に乗る機会は、ソーシャルディスタンシングが要求される状況でも増える可能性がある。同乗者がいない車両では、同乗者がいる車両に比べて、ユーザが車内で孤独感を感じる可能性が増える可能性がある。特に、自動運転車両では、ユーザが運転操作を行わない分、余計に孤独感を感じやすくなる可能性がある。 Self-driving vehicles allow users who cannot drive to ride alone. In self-driving vehicles, it is thought that there will be more opportunities for users to get into the vehicle alone. Opportunities for users to travel alone in vehicles may also increase in situations where social distancing is required. A vehicle without a passenger may increase the likelihood that a user will feel lonely in the vehicle compared to a vehicle with a passenger. In particular, in a self-driving vehicle, the user may feel even more lonely because the user does not perform driving operations.
車両に乗ったユーザに他の車両のユーザとのコミュニケーション手段を提供することは、車両のユーザが感じる孤独感の緩和に有効であると考えられる。車両のユーザ同士のコミュニケーション手段として、特許文献1では、車両ユーザのマッチング方法が提案されている。
Providing a vehicle user with a means of communication with other vehicle users is considered effective in alleviating the sense of loneliness felt by vehicle users. As a means of communication between vehicle users,
特許文献1のマッチング方法では、第一のユーザとの相性がよいと判定された第二のユーザの乗車車両が、第一のユーザの乗車車両と接近する可能性があると判定されると、第二のユーザの情報が第一のユーザに提供される。
In the matching method of
第一のユーザと第二のユーザとの相性の良し悪しは、車両ユーザのユーザ情報に基づいて判定される。各ユーザのユーザ情報は、各ユーザの乗車特性情報を含んでいる。各ユーザの乗車特性情報は、各ユーザの乗車履歴情報に基づいて生成される。 Whether the first user and the second user are compatible is determined based on the user information of the vehicle user. The user information of each user includes riding characteristic information of each user. Each user's riding characteristic information is generated based on each user's riding history information.
特許文献1のマッチング方法では、ユーザの乗車履歴情報に基づいてユーザの属性を決定し、決定した属性をユーザのマッチングに利用している。ところで、ユーザ同士の相性の善し悪しを判定する際には、ユーザ同士の趣味嗜好が合うかどうかが重要な判断要因となる。ユーザが車両で感じる孤独感を緩和する際には、ユーザの乗車履歴情報よりもユーザの趣味嗜好に即した要素に基づいてユーザの属性を決定し、ユーザのマッチングに利用することが好ましいと考えられる。
In the matching method of
本発明の目的は、車両の乗員を始めとするユーザに、そのユーザと趣味嗜好の合う他のユーザを適切にマッチングできるようにすることにある。 SUMMARY OF THE INVENTION It is an object of the present invention to appropriately match a user, such as an occupant of a vehicle, with another user who has the same tastes and interests as the user.
上記目的を達成するため本発明の第1の態様に係るマッチングシステムは、
音声情報からユーザが聴取した聴取音の情報を抽出する聴取音抽出部と、
音声情報から前記ユーザの感情状態が反映された感情音の情報を抽出する感情音抽出部と、
抽出された前記聴取音の情報と抽出された前記感情音の情報とから、前記ユーザの嗜好の情報を特定する嗜好特定部と、を有する端末機器と、
複数の前記ユーザについてそれぞれ特定された前記嗜好の情報がユーザ別に蓄積されるデータベース部と、
前記データベース部のユーザ別の前記嗜好の情報に基づいて、前記ユーザ同士の嗜好の類似性を判定する類似性判定部と、
前記類似性が判定閾値以上となる前記ユーザの組み合わせを抽出するユーザ抽出部と、
前記ユーザ抽出部が抽出した組み合わせ中のユーザのうち一のユーザの前記端末機器に、前記抽出した組み合わせ中の他のユーザの情報を、マッチング情報として提供するマッチング情報提供部と、を有するサーバと、
を備える。
In order to achieve the above object, the matching system according to the first aspect of the present invention includes:
a listening sound extracting unit that extracts information about a listening sound heard by a user from voice information;
an emotional sound extracting unit that extracts emotional sound information reflecting the user's emotional state from voice information;
a terminal device having a preference identifying unit that identifies information about the user's preference from the extracted listening sound information and the extracted emotional sound information;
a database unit in which the information on the preferences specified for each of the plurality of users is accumulated for each user;
a similarity determination unit that determines the similarity of preferences between the users based on the information on the preferences for each user in the database unit;
a user extracting unit that extracts a combination of the users whose similarity is equal to or greater than a determination threshold;
a matching information providing unit that provides, as matching information, information of other users in the extracted combination to the terminal device of one of the users in the combination extracted by the user extraction unit; ,
Prepare.
また、上記目的を達成するため本発明の第2の態様に係るマッチング方法は、
音声情報からユーザが聴取した聴取音の情報を抽出する聴取音抽出ステップと、
音声情報から前記ユーザの感情状態が反映された感情音の情報を抽出する感情音抽出ステップと、
抽出された前記聴取音の情報と抽出された前記感情音の情報とから、前記ユーザの嗜好の情報を特定する嗜好特定ステップと、
複数のユーザについてそれぞれ特定されてデータベース部に蓄積されたユーザ別の前記嗜好の情報に基づいて、前記ユーザ同士の嗜好の類似性を判定する類似性判定ステップと、
前記類似性が判定閾値以上となる前記ユーザの組み合わせを抽出するユーザ抽出ステップと、
前記ユーザ抽出ステップで抽出した組み合わせ中のユーザのうち一のユーザの端末機器に、前記抽出した組み合わせ中の他のユーザの情報を、マッチング情報として提供するマッチング情報提供ステップと、
を含む。
In order to achieve the above object, a matching method according to a second aspect of the present invention includes:
a listening sound extraction step of extracting information of a listening sound heard by a user from voice information;
an emotional sound extraction step of extracting emotional sound information reflecting the user's emotional state from voice information;
a preference identifying step of identifying information about the user's preference from the extracted listening sound information and the extracted emotional sound information;
a similarity determination step of determining the similarity of the preferences of the users based on the information of the preferences for each user that are specified for each of a plurality of users and accumulated in a database unit;
a user extraction step of extracting a combination of the users whose similarity is equal to or greater than a determination threshold;
a matching information providing step of providing, as matching information, information of other users in the extracted combination to a terminal device of one of the users in the combination extracted in the user extraction step;
including.
本発明によれば、ユーザに、趣味嗜好の合う他のユーザを適切にマッチングできるようにすることができる。 Advantageous Effects of Invention According to the present invention, it is possible to appropriately match a user with other users who have similar interests and tastes.
以下、本発明の実施形態について、図面を参照して説明する。各図面を通じて同一あるいは同等の部位、又は構成要素には、同一の符号を付している。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same reference numerals are given to the same or equivalent parts or components throughout each drawing.
以下に示す実施形態は、この発明の技術的思想を具体化するための装置等を例示するものである。この発明の技術的思想は、各構成部品の材質、形状、構造、配置、機能等を下記のものに特定するものでない。 The embodiments shown below are examples of apparatuses and the like for embodying the technical idea of the present invention. The technical idea of the present invention does not specify the material, shape, structure, arrangement, function, etc. of each component as follows.
図1は、本発明の一実施形態に係るマッチングシステムの説明図である。図1に示すように、本実施形態のマッチングシステムは、車両10の端末機器20とサーバ30とを通信ネットワーク40によって接続して構成することができる。
FIG. 1 is an explanatory diagram of a matching system according to one embodiment of the present invention. As shown in FIG. 1, the matching system of this embodiment can be configured by connecting a
マッチングシステムは、例えば、車両10で取得した音声情報に基づいて、車両10に乗ったユーザ11の聴取音と感情音とからユーザ11の嗜好を判定することができる。マッチングシステムは、判定したユーザ11の嗜好に即して、他の車両10に乗ったユーザ11の情報をマッチング情報として、車両10のユーザ11に提供することができる。本実施形態において、各ユーザ11は、それぞれ異なる車両10に乗っているものとする。
The matching system can determine the preferences of the
車両10は、運転操作の一部又は全部をコンピュータの制御により自動で行う自動運転車両でもよく、車両10に乗った人間が全ての運転操作を行う非自動運転車両でもよい。
The
端末機器20は、車両10に搭載された車載器でもよく、ユーザ11が車両10に持ち込んだ携帯端末でもよい。端末機器20は、図示しないCPU(Central Processing Unit )と内部記憶装置とを備える。車載器は、例えば、カーナビゲーション装置、ディスプレイオーディオ装置を含む。携帯端末は、例えば、スマートホン、タブレット端末を含む。端末機器20は、車両10の室内において音声情報を取得する集音機能を有しているものとする。集音機能は、例えば、マイクロホンを用いて実現することができる。
The
サーバ30は、例えば、図示しないCPUと内部記憶装置とを備える汎用コンピュータで構成することができる。サーバ30は、通信ネットワーク40を介して各車両10の端末機器20と通信することができる。
The
通信ネットワーク40は、例えば、端末機器20との間で無線通信を行うネットワークを含む構成とすることができる。通信ネットワーク40は、インターネットを含んで構成してもよい。端末機器20が使用するネットワークとサーバ30が使用するネットワークとは、同じネットワークでもよく、異なるネットワークでもよい。
The
端末機器20が車載器である場合、車両10に乗ったユーザ11は、車載器を操作して、必要な情報の入力を行うことができる。必要な情報は、例えば、ユーザ11と他の車両10のユーザ11とをマッチングするのにサーバ30が必要とする情報を含むものとすることができる。
When the
端末機器20が携帯端末である場合、車両10に乗ったユーザ11は、車両10に持ち込んだ携帯端末にインストールされたアプリケーションソフトウェア(以下、「アプリ」と称する。)を起動させて、携帯端末を操作し、必要な情報の入力を行うことができる。ユーザ11が端末機器20である携帯端末のアプリを起動させる場合は、ユーザ11の携帯端末にネイティブアプリをインストールし、携帯端末内の演算装置に演算処理を行わせる。
When the
また、端末機器20である携帯端末にネイティブアプリをインストールする代わりに、例えば、PWA(Progressive Web Apps)技術を利用することもできる。PWA技術を利用する場合は、インターネット上のクラウドサーバに構築したモバイルデバイス向けのWebサイトを、ユーザ11の携帯端末にインストールしたアプリのように使うことができる。
Also, instead of installing a native application in the mobile terminal, which is the
PWA技術を利用する場合は、例えば、携帯端末からインターネット上のクラウドサーバにアクセスし、携帯端末に表示させたクラウドサーバのコンソール画面上で、必要な情報の入力を行うことができる。クラウドサーバの機能は、サーバ30に持たせてもよく、サーバ30と連携するインターネット上の他のサーバ(図示せず)に持たせてもよい。
When PWA technology is used, for example, a mobile terminal can access a cloud server on the Internet, and necessary information can be input on the console screen of the cloud server displayed on the mobile terminal. The function of the cloud server may be provided to the
本実施形態では、端末機器20が車載器である場合について説明する。以下、端末機器20としての車載器に符号20を付して、本実施形態のマッチングシステムを説明する。
In this embodiment, a case where the
図2は、図1のマッチングシステムの機能的な構成を示すブロック図である。図2に示すように、本実施形態のマッチングシステムは、環境音取得部50、環境音解析部60、解析結果送信部70、解析結果保持部80、類似傾向判定部90及び通信制御部100を有する構成とすることができる。
FIG. 2 is a block diagram showing a functional configuration of the matching system of FIG. 1; As shown in FIG. 2, the matching system of this embodiment includes an environmental sound acquisition unit 50, an environmental
環境音取得部50は、車載器20に構築することができる。環境音取得部50は、マイクロホン等により車内の音声情報を取得する。車内の音声情報は、車内で取得される環境音の情報であればよく、音声の発生源が車内及び車外のどちらに存在するかを問わない。マッチングシステムは、必ずしも環境音取得部50を有していなくてもよい。
The environmental sound acquisition unit 50 can be constructed in the vehicle-mounted
環境音は、ユーザ11が車内で発した音声と、ユーザ11が聴取目的で車内において出力させた聴取音とを含む。
The environmental sounds include voices uttered by the
ユーザ11が車内で発した音声は、ユーザ11の喜怒哀楽の感情状態が反映される感情音と、必ずしもユーザ11の感情状態が反映されるとは限らない、感情音に該当しない音声との両方を含む。感情音は、例えば、ユーザ11の笑い声、怒声、鼻歌の歌声、ため息、会話等を含むものとすることができる。感情音に該当しない音声は、例えば、ユーザ11の咳払い、くしゃみ等の音声を含むものとすることができる。
The voice uttered by the
聴取音は、例えば、テレビ又はラジオの放送音声、楽曲等の再生音を含む。放送音声及び再生音は、車両10に搭載された機器(図示せず)で受信又は再生されたものでも、車両10にユーザ11が持ち込んだ機器(図示せず)で受信又は再生されたものでもよい。
Listening sounds include, for example, broadcast sounds of television or radio, and reproduced sounds such as music. The broadcast sound and the reproduced sound may be received or reproduced by a device (not shown) mounted on the
環境音は、上述したユーザ11の音声及び聴取音の他、車両10の周辺で発生して車内に届いた車外の音声を含む。車外の音声は、例えば、車外の騒音を含む。車外の騒音は、例えば、車両10のクラクションの音、街頭の騒音等を含む。クラクションの音は、ユーザ11が乗った車両10の音であるか他の車両10の音であるかを問わない。街頭の騒音は、例えば、車両10の周辺の人通りによる騒音、鉄道等の車両10以外の交通機関による騒音等を含む。
The environmental sound includes the voice of the
環境音取得部50は、例えば、マッチングシステムの機能のオン及びオフをユーザ11が車載器20において設定することで、音声情報の取得を開始し、あるいは、音声情報の取得を停止することができる。環境音取得部50は、例えば、ユーザ11がマッチングシステムの機能の設定をオフからオンに変更したときに、音声情報の取得を開始することができる。環境音取得部50は、例えば、ユーザ11がマッチングシステムの機能の設定をオンからオフに変更したときに、環境音取得部50は音声情報の取得を停止することができる。
The environmental sound acquisition unit 50 can start acquiring voice information or stop acquiring voice information, for example, when the
環境音解析部60及び解析結果送信部70は、車載器20及びサーバ30のどちらか一方に構築することができる。環境音には会話も含まれるため、プライバシーを保護する観点からすると、環境音解析部60及び解析結果送信部70は、車載器20に構築することが望ましい。環境音解析部60及び解析結果送信部70をサーバ30に構築する場合、環境音取得部50は、取得した音声情報を、車載器20から通信ネットワーク40を介してサーバ30の環境音解析部60に送信することができる。
The environmental
環境音解析部60は、環境音取得部50が取得した音声情報を解析し、数値化する。環境音解析部60は、環境音取得部50が取得した音声情報でなく、イヤホン等の再生装置(図示せず)が出力する音声情報、又は、ユーザ11の口元に向けた狭指向性マイクロホン等の集音装置(図示せず)で集音した音声情報を解析してもよい。
The environmental
環境音解析部60は、音声情報の解析をリアルタイムで行ってもよい。環境音解析部60は、一定周期の期間内に環境音取得部50が取得した音声情報を、一定周期毎に解析してもよい。一定周期の長さは、例えば、5秒でもよいし、5分でもよい。環境音解析部60は、音声情報の解析を周期的に行う場合、今周期の解析結果を前周期の解析結果と照合し、両解析結果の類似性に基づいて、前周期から今周期に亘って同じ環境音が継続しているか否かを判断することができる。
The environmental
図3に示すように、環境音解析部60は、聴取音抽出部61、感情音抽出部63及び嗜好特定部65を有する。
As shown in FIG. 3 , the environmental
聴取音抽出部61は、環境音取得部50により環境音の情報として取得された音声情報を解析し、取得された音声情報から、ユーザ11が乗車した車両10においてユーザ11が聴取した聴取音の情報を抽出する。聴取音抽出部61は、環境音取得部50が取得した音声情報でなく、イヤホン等の再生装置(図示せず)が出力する音声情報から、ユーザ11の聴取音を抽出してもよい。聴取音抽出部61は、ユーザ11が聴取した音が含まれる音声情報から、ユーザ11の聴取音を抽出すればよい。
The listening
感情音抽出部63は、環境音取得部50により環境音の情報として取得された音声情報を解析し、取得された音声情報から、車両10に乗ったユーザ11の感情状態が反映された感情音の情報を抽出する。感情音抽出部63は、環境音取得部50が取得した音声情報でなく、ユーザ11の口元に向けた狭指向性マイクロホン等の集音装置(図示せず)で集音した音声情報から、ユーザ11の感情音を抽出してもよい。聴取音抽出部61は、ユーザ11の感情状態が反映される音が含まれる音声情報から、ユーザ11の聴取音を抽出すればよい。
The emotional
嗜好特定部65は、聴取音抽出部61が抽出した聴取音の情報と、感情音抽出部63が抽出した感情音の情報とから、ユーザ11の嗜好の情報を特定する。
The
図4Aのグラフに示す例では、環境音取得部50により、環境音ES1がt0~t4の期間に連続して取得されている。また、図4Aの例では、環境音取得部50により、別の環境音ES3がt1~t2の期間にだけ取得されている。 In the example shown in the graph of FIG. 4A, the environmental sound ES1 is continuously acquired by the environmental sound acquisition unit 50 during the period from t0 to t4. Further, in the example of FIG. 4A, another environmental sound ES3 is acquired by the environmental sound acquisition unit 50 only during the period from t1 to t2.
図3の聴取音抽出部61は、環境音取得部50が取得した音声情報を解析する。聴取音抽出部61は、例えば、図4Aのt0~t4の期間に連続している環境音ES1を、継続性がある環境音と判断し、t1~t2の期間だけで終了した環境音ES3を、継続性がない環境音と判断することができる。聴取音抽出部61は、継続性がある環境音と判断した環境音ES1の音声情報の波形をt0~t4の期間について正規化し、聴取音であると判定する。聴取音抽出部61は、継続性がない環境音と判断した環境音ES3の音声情報について、聴取音以外の環境音であると判定する。
The listening
聴取音抽出部61は、公知の技術により環境音の周波数を解析し、車載のオーディオ装置のスピーカから出力された環境音であるか否かを判断する機能を有していてもよい。この機能を有する場合、聴取音抽出部61は、例えば、車載のオーディオ装置のスピーカから出力されたと判断した環境音を、聴取音であると判定することができる。
The listening
図3の聴取音抽出部61は、抽出した聴取音の情報を解析し、ユーザ11が聴取した楽曲、番組等を特定する。聴取音抽出部61は、例えば、正規化した聴取音の波形を不図示のデータベース等に登録された楽曲データの波形と照合し、一致又は近似する波形を含む楽曲データを検出することで、ユーザ11が聴取した楽曲を特定することができる。聴取音抽出部61は、例えば、放送された番組のプレイリストにある楽曲の楽曲データの波形と照合することで、ユーザ11が聴取した番組を、番組中で流した楽曲を通じて特定することもできる。
The listening
図4Bのグラフに示す例では、環境音ES1,ES3とは別の環境音ES2が、環境音ES1と同じt0~t4の期間に連続して環境音取得部50により取得されている。 In the example shown in the graph of FIG. 4B, the environmental sound ES2 different from the environmental sounds ES1 and ES3 is continuously acquired by the environmental sound acquisition unit 50 during the same period of t0 to t4 as the environmental sound ES1.
図3の感情音抽出部63は、環境音取得部50が取得した音声情報のうち、聴取音解析部61が聴取音以外の環境音であると判定した音声情報を解析する。感情音抽出部63は、例えば、図4Bのt0~t4の期間に連続している環境音ES2を、環境音ES1と同じく継続性がある環境音と判断することができる。環境音解析部60は、継続性がある環境音と判断した環境音ES2の音声情報の波形をt0~t4の期間について正規化し、同じt0~t4の期間について正規化した環境音ES1の音声情報の波形との類似性を評価する。波形の類似性は、例えば、図4A、図4Bの縦軸に示す波形の振幅変動の同期性の高さ、波形の周波数の近似度の高さ等に基づいて評価することができる。
The emotional
図3の感情音抽出部63は、類似性がある環境音と判断した環境音ES2の正規化した音声情報の波形を、聴取音に合わせたユーザ11の鼻歌の波形と判定し、ユーザ11のポジティブな感情状態を反映した感情音であると判定することができる。
The emotional
感情音抽出部63は、例えば、環境音取得部50が取得した音声情報を解析し、ユーザ11の発話内容、発話音量を取得して、その内容の特徴から、ユーザ11のネガティブな感情状態を反映した感情音であると判定することができる。音声情報から発話内容、発話音量を取得し、ユーザ11の感情状態を反映した感情音であることを判定する方法には、公知の方法を利用することができる。
The emotional
感情音抽出部63は、例えば、ユーザ11のネガティブな感情状態を反映した感情音であることを判定している間、環境音取得部50が取得した音声情報の解析を一時保留してもよい。この一時保留により、感情状態が類似するユーザ11のマッチング情報が他の車両10から提供されて、ネガティブな感情状態のユーザ11同士がマッチングされるのを、回避することができる。
For example, the emotional
感情音抽出部63は、環境音取得部50が取得した音声情報を解析した結果、聴取音及び感情音のいずれの類型にも当てはまらないと判断した環境音を、聴取音及び感情音以外の一般環境音と判断することができる。
As a result of analyzing the voice information acquired by the environmental sound acquiring unit 50, the emotional
嗜好特定部65は、例えば、聴取音抽出部61による聴取音の抽出中にユーザ11が発した感情音を感情音抽出部63が抽出した場合に、抽出した聴取音の内容と感情音の内容との組み合わせを、ユーザ11の嗜好の情報として特定することができる。
For example, when the emotional sound extracted by the
図5Aは、嗜好特定部65が特定するユーザ11の嗜好の一例を示す説明図である。聴取音抽出部61が特定した楽曲Aの聴取中にユーザ11が発した感情音を、感情音抽出部63がポジティブと判定した場合、嗜好特定部65が特定するユーザ11の嗜好の情報は、図5Aの嗜好情報No.1のように、楽曲Aとポジティブとの組み合わせとなる。
FIG. 5A is an explanatory diagram showing an example of preferences of the
聴取音抽出部61が特定した楽曲Bの聴取中にユーザ11が発した感情音を、感情音抽出部63がネガティブと判定した場合、嗜好特定部65が特定するユーザ11の嗜好の情報は、図5Aの嗜好情報No.2のように、楽曲Bとネガティブとの組み合わせとなる。
When the emotional
聴取音抽出部61が特定した楽曲Cの聴取中にユーザ11の感情音を感情音抽出部63が抽出しなかった場合、嗜好特定部65は、図5Aの嗜好情報No.3のように、楽曲Cだけをユーザ11の嗜好の情報として特定してもよい。
If the emotional
嗜好特定部65は、感情音の解析結果として、聴取音に時系列的に紐づいた感情音に反映されたユーザ11の感情状態を示す情報を、嗜好の情報に含めることができる。嗜好の情報に含めるユーザ11の感情状態を示す情報は、感情音抽出部63が抽出した感情音に反映されたポジティブ又はネガティブの感情状態に限定されない。嗜好の情報に含める情報は、例えば、感情音抽出部63が抽出した感情音に反映された感情状態を数値化した情報であってもよい。
The
嗜好特定部65は、聴取音抽出部61による聴取音の抽出中にユーザ11の感情音を感情音抽出部63が抽出した場合に、感情音の発生時点を含む情報を、ユーザ11の嗜好の情報として特定してもよい。1つの聴取音の聴取中に感情音抽出部63が抽出するユーザ11の感情音は、1回でも複数回でもよい。感情音の発生時点は、例えば、聴取音の開始からの経過時間で表すことができる。聴取音の開始からの経過時間で感情音の発生時点を表すことで、嗜好特定部65は、聴取音と感情音との時系列的な相関関係を示す情報から、ユーザ11の嗜好の情報を特定することができる。
When the emotional sound of the
図5Bは、嗜好特定部65が特定するユーザ11の嗜好の別例を示す説明図である。図5Bの嗜好情報No.10は、聴取音抽出部61が特定した楽曲Aの聴取の開始から10秒後、1分13秒後、2分8秒後にユーザ11がそれぞれ発した感情音を、感情音抽出部63がポジティブ、ポジティブ、ネガティブとそれぞれ判定した場合を示す。嗜好情報No.11は、聴取音抽出部61が特定した楽曲Bの聴取の開始から5秒後、3分28秒後にユーザ11がそれぞれ発した感情音を、感情音抽出部63がネガティブ、ネガティブとそれぞれ判定した場合を示す。
FIG. 5B is an explanatory diagram showing another example of the preferences of the
聴取音抽出部61が特定した楽曲Cの聴取中にユーザ11の感情音を感情音抽出部63が抽出しなかった場合、嗜好特定部65が特定するユーザ11の嗜好の情報は、図5Bの嗜好情報No.12のように、感情音とその発生時点とがない楽曲Cだけの情報となる。
If the emotional
嗜好特定部65は、感情音の発生時点を含む情報をユーザ11の嗜好の情報として特定することで、ユーザ11の嗜好をより細かく評価できる嗜好の情報を提供することができる。
The
環境音解析部60は、環境音取得部50が取得した音声情報を解析する度に、嗜好特定部65が特定したユーザ11の嗜好の情報を、環境音解析部60による音声情報の解析結果のデジタルデータとして解析結果送信部70に引き渡す。
Each time the environmental
解析結果送信部70は、環境音解析部60から解析結果のデジタルデータが引き渡されると、その都度、引き渡された解析結果のデジタルデータを解析結果保持部80に記憶させる。環境音解析部60及び解析結果送信部70を車載器20に構築する場合、解析結果送信部70は、環境音解析部60から引き渡された解析結果のデジタルデータを、車載器20から通信ネットワーク40を介してサーバ30の解析結果保持部80に送信できる。
Each time the environmental
解析結果保持部80は、サーバ30の内部記憶装置を用いて構築することができる。内部記憶装置は、例えば、SSD(Solid State Drive )又はHDD(Hard Disk Drive )によって構成することができる。解析結果保持部80は、解析結果送信部70が送信した解析結果のデジタルデータを記憶する。
The analysis
解析結果保持部80は、複数の車両10についてそれぞれ抽出されたユーザ11の嗜好の情報が、ユーザ11別に蓄積されるデータベース部として、機能することができる。
The analysis
類似傾向判定部90は、ユーザ11毎に、類似傾向(嗜好)が近い他のユーザ11を選定する。類似傾向判定部90は、解析結果保持部80にユーザ11別に記憶されている解析結果のデジタルデータを定期的に参照して、類似傾向が近いユーザ11を選定する。類似傾向判定部90は、例えば、サーバ30に構築することができる。類似傾向判定部90は、類似傾向が近いユーザ11の選定を、例えば、図6のフローチャートに示す手順の処理で行うことができる。
For each
類似傾向判定部90は、図6のフローチャートの処理を、例えば、解析結果送信部70によって送信された解析結果のデジタルデータが解析結果保持部80に記憶される度に行ってもよく、一定周期毎に行ってもよい。一定周期は、例えば、5分でもよく、1時間でもよい。
The similarity
類似傾向判定部90は、解析結果保持部80に記憶された解析結果のデジタルデータを参照して、近似したデジタルデータを全てのユーザ11について抽出し、嗜好の傾向毎に仕分けた集団を作成する(ステップS1)。傾向毎の仕分けは、例えば、聴取した楽曲又は番組のジャンル、感情音に反映されたユーザ11の感情状態等を指標として行うことができる。
The similarity
解析結果送信部70が送信した解析結果のデジタルデータを、解析結果保持部80が一定期間の過去分まで記憶している場合、類似傾向判定部90は、過去分の解析結果のデジタルデータも参照して、より嗜好の類似傾向が強い集団を作成することができる。
When the analysis
類似傾向判定部90は、作成した集団内で、マッチング相手を選定するユーザ11と嗜好に関する類似傾向が最も高い他のユーザ11のデジタルデータを特定する。
The similarity
環境音解析部60及び解析結果送信部70を車載器20に構築する場合、解析結果送信部70は、車載器20が搭載された車両10に乗ったユーザ11の属性の情報を付加して、解析結果のデジタルデータを解析結果保持部80に送信することができる。解析結果送信部70は、ユーザ11の属性の情報を、動的又は静的に付加することができる。
When constructing the environmental
ユーザの属性の情報は、例えば、ユーザの性別、年齢、生活地域、あるいは、生体認識データ等の情報を含むものとすることができる。環境音取得部50が取得した音声情報を、感情状態を反映した感情音であると感情音抽出部63が判定した場合、ユーザ11の属性は、感情音抽出部63が判定した感情音に反映された感情状態を含んでいてもよい。
The user attribute information can include information such as the user's sex, age, living area, or biometric data, for example. When the emotional
類似傾向判定部90は、解析結果保持部80のデジタルデータにユーザ11の属性の情報が付加されている場合、類似傾向判定部90が作成した集団内で、嗜好に関する類似傾向が最も高いデジタルデータを、ユーザ11の属性を加味して特定してもよい。類似傾向判定部90は、ユーザ11の属性を加味することで、嗜好に関する類似傾向が最も高いデジタルデータを、高い精度で特定することができる。
When the attribute information of the
類似傾向判定部90は、マッチング相手を選定するユーザ11との嗜好に関する類似傾向が予め決められた判定閾値を超える、他のユーザ11のデジタルデータが、ステップS1で作成した同じ集団内に存在するか否かを判定する(ステップS3)。嗜好に関する類似傾向が判定閾値を超える他のユーザ11のデジタルデータが、同じ集団内に存在しないと判定した場合(ステップS3でNO)、類似傾向判定部90は、以後の手順をスキップする。このスキップにより、類似傾向判定部90は、嗜好に関する類似傾向が近いユーザ11の選定を、次のサイクルで図6の手順を行うまで保留する。
The similarity
類似傾向判定部90は、嗜好に関する類似傾向が判定閾値を超える他のユーザ11のデジタルデータが、マッチング相手を選定するユーザ11と同じ集団内に存在すると判定した場合(ステップS3でYES)、次のステップS5の手順に進む。ステップS5の手順はスキップしてもよく、ステップS5の手順をスキップする場合は、後述するステップS7の手順に進む。
If the similarity
ステップS5では、類似傾向判定部90は、ステップS3において、判定閾値を超える他のユーザ11のデジタルデータが存在すると判定した集団内に、感情音の感情状態がポジティブな傾向を示すユーザ11のデジタルデータが存在するか否かを判定する。
In step S5, the similarity
類似傾向判定部90は、ポジティブな傾向を示すユーザ11のデジタルデータが集団内に存在しないと判定した場合(ステップS5でNO)、感情状態がネガティブな傾向を示すユーザ11のデジタルデータだけが仕分けられた集団であると認識する。この場合、類似傾向判定部90は、以後の手順をスキップし、嗜好に関する類似傾向が近いユーザ11の選定を次のサイクルまで保留する。類似傾向判定部90は、ポジティブな傾向を示すユーザ11のデジタルデータが集団内に存在すると判定した場合(ステップS5でYES)、次のステップS7の手順に進む。
When the similar
ステップS7では、類似傾向判定部90は、マッチング相手を選定するユーザ11のデジタルデータと同じ集団内の、嗜好に関する類似傾向が最も高い他のユーザ11のデジタルデータを、マッチング相手のデジタルデータとして抽出する。
In step S7, the similarity
類似傾向判定部90が抽出する、類似傾向が最も高いユーザ11のデジタルデータは、文字通り、類似傾向が「最も高い」単一のデジタルデータでもよく、「最も高い」という概念に当てはまる近似度範囲に属する、1又は複数のデジタルデータでもよい。ステップS7の処理により、類似傾向判定部90は、嗜好の情報を表すデジタルデータが近似するユーザ11同士の1対1の組み合わせ、あるいは、1対多の組み合わせを、抽出することができる。
The digital data of the
類似傾向判定部90は、抽出したマッチング相手のデジタルデータに対応する他のユーザ11の情報又は他のユーザ11が乗った車両10の情報を、マッチング相手との接続情報として通信制御部100に送信する(ステップS9)。
The similarity
類似傾向判定部90は、以上のステップS1~ステップS9の手順を、サーバ30において繰り返し実行する。
The similarity
類似傾向判定部90は、データベース部(解析結果保持部80)のユーザ11別の嗜好の情報に基づいて、ユーザ11同士の嗜好の類似性を判定する類似性判定部として、機能することができる。類似傾向判定部90は、類似性が判定閾値以上となるユーザ11同士の組み合わせを抽出するユーザ抽出部として、機能することができる。
The similarity
通信制御部100は、類似傾向判定部90が送信した接続情報に対応する他のユーザ11又は他のユーザ11が乗った車両10の情報に基づいて、他のユーザ11が乗った車両10の車載器20を特定する。通信制御部100は、マッチング相手を選定するユーザ11が乗った車両10の車載器20に、特定した車載器20との通信を確立するのに必要な情報を提供する。
Based on the information of the
通信制御部100が提供する情報は、車載器20同士を通信ネットワーク40及びサーバ30を介して接続するための情報であってもよく、通信ネットワーク40及びサーバ30を介さず車載器20同士を直接接続(P2P接続)するための情報であってもよい。通信制御部100が提供する情報は、他車両10のユーザが他車両10において操作する端末機器(車載器20)との通信接続情報を含んでいる。
The information provided by the
通信制御部100は、各ユーザが乗った車両10の車載器20について、通信の確立に必要な情報を保持しているものとする。通信制御部100は、例えば、解析結果保持部80及び類似傾向判定部90と共に、サーバ30に構築することができる。通信制御部100は、例えば、通信ネットワーク40を介した通信によって、各車両10の車載器20に情報を提供することができる。
It is assumed that the
通信制御部100は、マッチング情報提供部として機能することができる。マッチング情報提供部としての通信制御部100は、ユーザ抽出部としての類似傾向判定部90が抽出した組み合わせ中のユーザ11のうち一人が乗っている車両10の車載器20に、マッチング情報を提供する。通信制御部100が提供するマッチング情報は、ユーザ抽出部としての類似傾向判定部90が抽出した組み合わせ中の他のユーザ11の情報を含んでいる。
The
通信制御部100からの情報を受信した車載器20は、受信した情報を利用してマッチング相手のユーザ11が乗った他車両10の車載器20との通信を自動的に確立してもよい。あるいは、通信制御部100からの情報を車載器20が受信した際に、受信した車載器20の車両10に乗ったユーザ11が、マッチング相手のユーザ11が乗った他車両10の車載器20との通信を実際に行うか否かを決めてもよい。通信を行うか否かをユーザ11が決める場合は、例えば、通信を行う際にユーザ11が車載器20を操作して、マッチング相手のユーザ11が乗った他の車両10の車載器20との通信を開始させるようにすることができる。
The vehicle-mounted
以上に説明した構成による本実施形態のマッチングシステムでは、図7のフローチャートに示すマッチング方法を実行することができる。このマッチング方法は、環境音取得、聴取音抽出、感情音抽出、嗜好特定、類似性判定、ユーザ抽出、及び、マッチング情報提供の各ステップ(ステップS21~ステップS33)を含んでいる。 In the matching system of this embodiment having the configuration described above, the matching method shown in the flowchart of FIG. 7 can be executed. This matching method includes steps (steps S21 to S33) of obtaining environmental sounds, extracting listening sounds, extracting emotional sounds, identifying preferences, determining similarities, extracting users, and providing matching information.
環境音取得ステップ(ステップS21)では、環境音取得部50が、ユーザ11が乗車した車両10において、音声情報を車両10の環境音の情報として取得する。環境音取得ステップ(ステップS21)は、スキップすることもできる。聴取音抽出ステップ(ステップS23)では、環境音解析部60の聴取音抽出部61が、取得された環境音の情報を解析し、取得された環境音の情報から聴取音の情報を抽出する。環境音取得ステップ(ステップS21)をスキップする場合の聴取音抽出ステップ(ステップS23)では、ユーザ11が聴取した音が含まれる音声情報から、ユーザ11の聴取音を抽出する。
In the environmental sound acquisition step (step S21), the environmental sound acquisition unit 50 acquires audio information as environmental sound information of the
感情音抽出ステップ(ステップS25)では、環境音解析部60の感情音抽出部63が、取得された環境音の情報を解析し、取得された環境音の情報からユーザ11の感情状態が反映された感情音の情報を抽出する。環境音取得ステップ(ステップS21)をスキップする場合の感情音抽出ステップ(ステップS25)では、ユーザ11の感情状態が反映される音が含まれる音声情報から、ユーザ11の感情音を抽出する。
In the emotional sound extraction step (step S25), the emotional
嗜好特定ステップ(ステップS27)では、環境音解析部60の嗜好特定部65が、抽出された聴取音の情報と感情音の情報とから、ユーザ11の嗜好の情報を特定する。
In the preference identification step (step S27), the
類似性判定ステップ(ステップS29)では、類似傾向判定部90が、データベース部(解析結果保持部80)に蓄積されたユーザ11別の嗜好の情報と、嗜好特定ステップ(ステップS27)で嗜好特定部65が特定した嗜好の情報とを照合する。ユーザ11別の嗜好の情報は、複数のユーザ11についてそれぞれ特定されてデータベース部(解析結果保持部80)に蓄積される。類似性判定ステップ(ステップS29)では、類似傾向判定部90が、照合した各嗜好同士の類似性を判定する。
In the similarity determination step (step S29), the similarity
ユーザ抽出ステップ(ステップS31)では、類似傾向判定部90が、類似性が判定閾値以上となるユーザ11の組み合わせを抽出する。マッチング情報提供ステップ(ステップS33)では、通信制御部100が、ユーザ抽出ステップ(ステップS31)で類似傾向判定部90が抽出した組み合わせ中のユーザ11のうち一人が乗っている車両10の車載器20に、マッチング情報を提供する。マッチング情報は、抽出した組み合わせ中の他のユーザ11の情報を含んでいる。
In the user extraction step (step S31), the similarity
本実施形態のマッチングシステムで、図7のマッチング方法を実行すると、各車両10のユーザ11は、通信制御部100から車載器20に提供される情報を用いて、嗜好の類似傾向の高いユーザ11が乗った他の車両10の車載器20と通信を確立できる。各車両10のユーザ11は、通信を確立した車載器20の車両10に乗ったユーザ11と、会話等のコミュニケーションを取ることができる。類似傾向判定部90が、嗜好を指標にして、嗜好に関する類似傾向が最も高いユーザのデジタルデータを特定した場合、通信制御部100は、車両10に乗ったユーザ11と嗜好が合う他の車両10のユーザ11を適切にマッチングすることができる。
When the matching system of this embodiment executes the matching method of FIG. Communication can be established with the vehicle-mounted
感情状態の類似性が高い他車両10のユーザ11をマッチング相手とすることで、車両10に乗ったユーザ11に、ストレスを感じにくく居心地のよい空間を車内で提供することができる。特に、自動運転車両の普及、ソーシャルディスタンシングが要求される状況の増加等により、ユーザ11が一人で車両10に乗る機会が増える場合は、ユーザ11が車内で孤独感を感じる可能性を減らし、快適な移動空間を車内で提供することができる。ユーザ11が車両10の運転操作を行う場合は、ユーザ11の安全運転動作を促進することにも寄与することができる。
By matching the
以上の実施形態では、車載器20を車両10の端末機器20とした例について説明した。車両10にユーザ11が持ち込んだスマートホン、タブレット端末等の携帯端末を、車両10の端末機器20とする場合は、携帯端末にインストールしたアプリを利用して、マッチングシステム及びマッチング方法を実現することもできる。
In the above embodiment, an example in which the vehicle-mounted
例えば、嗜好の傾向の類似性が高い他の車両10のユーザ11の携帯端末に、その携帯端末にインストールしたアプリ上でアクセスするための情報を、通信制御部100からマッチング情報としてユーザ11の携帯端末に提供してもよい。
For example, information for accessing a mobile terminal of a
例えば、ユーザ11は、携帯端末にインストールしたテキストチャットアプリ上でマッチング相手のユーザ11の携帯端末とアクセスするための情報を、通信制御部100からマッチング情報として受け取ることができる。マッチング情報を受け取ったユーザ11は、携帯端末で起動させたテキストチャットアプリ上で、マッチング情報を用いてマッチング相手のユーザ11の携帯端末にテキストメッセージを送信し、テキストチャットを開始することができる。
For example, the
例えば、ユーザ11は、携帯端末にインストールしたマッチングアプリ上でマッチング相手のユーザ11の携帯端末とアクセスするための情報を、通信制御部100からマッチング情報として受け取ることができる。マッチング情報を受け取ったユーザ11は、携帯端末で起動させたマッチングアプリ上で、マッチング情報を用いてマッチング相手のユーザの携帯端末にアクセスし、例えば、待ち合わせの約束をすることができる。
For example, the
携帯端末のアプリ上でマッチング相手のユーザ11の携帯端末とアクセスする場合、解析結果保持部80は、マッチング相手とのアクセスに必要な情報を、ユーザ11が乗った車両10で取得した音声情報の解析結果のデジタルデータに関連付けて記憶する。通信制御部100は、類似傾向が最も高いユーザのデジタルデータに関連付けた情報を解析結果保持部80から取得し、マッチング情報として提供することができる。
When accessing the mobile terminal of the
例えば、ユーザ11は、携帯端末にインストールした音楽配信サービスのアプリ上で、マッチング相手のユーザ11が登録した「お気に入り」の楽曲リスト等を、通信制御部100からマッチング情報として受け取ることができる。マッチング情報を受け取ったユーザ11は、携帯端末で起動させた音楽配信サービスのアプリ上で、マッチング情報を用いてマッチング相手のユーザ11が登録した「お気に入り」の楽曲リストを入手し、入手した楽曲リストから再生する楽曲を選択できる。
For example, the
携帯端末のアプリ上でマッチング相手のユーザ11が登録した音楽配信サービスの「お気に入り」の楽曲リスト等を、マッチング情報として受け取る場合、解析結果保持部80は、受け取った楽曲リスト等を、解析結果のデジタルデータに関連付けて記憶する。通信制御部100は、類似度が最も高いユーザ11のデジタルデータに関連付けた「お気に入り」の楽曲リスト等を解析結果保持部80から取得し、マッチング情報として提供することができる。
When receiving, as matching information, a "favorite" song list or the like of a music distribution service registered by the matching
通信制御部100が、「お気に入り」のリストをマッチング情報として提供するマッチングシステム及びマッチング方法は、上述した音楽配信サービス以外のアプリを利用した場合でも、実現することができる。例えば、電子書籍配信サービス、動画配信サービス等、情報コンテンツの配信サービスでも、「お気に入り」のリストをマッチング情報として提供することができる。
A matching system and a matching method in which the
通信制御部100がマッチング情報として提供する「お気に入り」のリストは、他の車両10のユーザ11が他の車両10で操作する端末機器20(携帯端末)において提供される情報コンテンツに関する、他の車両10のユーザ11の嗜好情報を含んでいる。
The list of "favorites" provided by the
端末機器20は、必ずしも車両10に設置されたものでなくてもよく、あるいは、ユーザ11が車両10に持ち込んだものでなくてもよい。端末機器20は、ユーザ11の聴取音と感情音とが取得できる場所に設置され、あるいは、ユーザ11によって持ち込まれたものであればよい。
The
ユーザ11の聴取音と感情音とが取得できる場所は、車両10の他、例えば、ユーザ11の居室であってもよい。車両10、ユーザ11の居室等は、いずれも区切られた室内空間であるが、ユーザ11の聴取音と感情音とが取得できる場所は、室内空間に限定されない。ユーザ11の聴取音と感情音とが取得できる場所は、屋外等の開放された空間であってもよい。
The place where the user's 11 listening sound and emotional sound can be acquired may be the user's room, for example, other than the
10 車両
11 ユーザ
20 車載器(端末機器)
30 サーバ
40 通信ネットワーク
50 環境音取得部
60 環境音解析部
61 聴取音抽出部
63 感情音抽出部
65 嗜好特定部
70 解析結果送信部
80 解析結果保持部(データベース部)
90 類似傾向判定部(類似性判定部、ユーザ抽出部)
100 通信制御部(マッチング情報提供部)
ES1 環境音(聴取音)
ES2 環境音(感情音)
ES3 環境音(一般環境音)
10
30
90 similarity tendency determination unit (similarity determination unit, user extraction unit)
100 communication control unit (matching information providing unit)
ES1 Environmental sound (listening sound)
ES2 environmental sound (emotional sound)
ES3 environmental sound (general environmental sound)
Claims (5)
音声情報から前記ユーザの感情状態が反映された感情音の情報を抽出する感情音抽出部と、
抽出された前記聴取音の情報と抽出された前記感情音の情報とから、前記ユーザの嗜好の情報を特定する嗜好特定部と、を有する端末機器と、
複数の前記ユーザについてそれぞれ特定された前記嗜好の情報がユーザ別に蓄積されるデータベース部と、
前記データベース部のユーザ別の前記嗜好の情報に基づいて、前記ユーザ同士の嗜好の類似性を判定する類似性判定部と、
前記類似性が判定閾値以上となる前記ユーザの組み合わせを抽出するユーザ抽出部と、
前記ユーザ抽出部が抽出した組み合わせ中のユーザのうち一のユーザの前記端末機器に、前記抽出した組み合わせ中の他のユーザの情報を、マッチング情報として提供するマッチング情報提供部と、を有するサーバと、
を備えるマッチングシステム。 a listening sound extracting unit that extracts information about a listening sound heard by a user from voice information;
an emotional sound extracting unit that extracts emotional sound information reflecting the user's emotional state from voice information;
a terminal device having a preference identifying unit that identifies information about the user's preference from the extracted listening sound information and the extracted emotional sound information;
a database unit in which the information on the preferences specified for each of the plurality of users is accumulated for each user;
a similarity determination unit that determines the similarity of preferences between the users based on the information on the preferences for each user in the database unit;
a user extracting unit that extracts a combination of the users whose similarity is equal to or greater than a determination threshold;
a matching information providing unit that provides, as matching information, information of other users in the extracted combination to the terminal device of one of the users in the combination extracted by the user extraction unit; ,
A matching system with
前記聴取音抽出部は、取得された前記環境音の情報から前記聴取音を抽出し、
前記感情音抽出部は、前記取得された環境音の情報から前記感情音を抽出する請求項1又は2に記載のマッチングシステム。 The terminal device further includes an environmental sound acquisition unit that acquires voice information as environmental sound information of the user,
The listening sound extraction unit extracts the listening sound from the acquired information of the environmental sound,
3. The matching system according to claim 1, wherein the emotional sound extraction unit extracts the emotional sound from the acquired environmental sound information.
音声情報から前記ユーザの感情状態が反映された感情音の情報を抽出する感情音抽出ステップと、
抽出された前記聴取音の情報と抽出された前記感情音の情報とから、前記ユーザの嗜好の情報を特定する嗜好特定ステップと、
複数のユーザについてそれぞれ特定されてデータベース部に蓄積されたユーザ別の前記嗜好の情報に基づいて、前記ユーザ同士の嗜好の類似性を判定する類似性判定ステップと、
前記類似性が判定閾値以上となる前記ユーザの組み合わせを抽出するユーザ抽出ステップと、
前記ユーザ抽出ステップで抽出した組み合わせ中のユーザのうち一のユーザの端末機器に、前記抽出した組み合わせ中の他のユーザの情報を、マッチング情報として提供するマッチング情報提供ステップと、
を含むマッチング方法。 a listening sound extraction step of extracting information of a listening sound heard by a user from voice information;
an emotional sound extraction step of extracting emotional sound information reflecting the user's emotional state from voice information;
a preference identifying step of identifying information about the user's preference from the extracted listening sound information and the extracted emotional sound information;
a similarity determination step of determining the similarity of the preferences of the users based on the information of the preferences for each user that are specified for each of a plurality of users and accumulated in a database unit;
a user extraction step of extracting a combination of the users whose similarity is equal to or greater than a determination threshold;
a matching information providing step of providing, as matching information, information of other users in the extracted combination to a terminal device of one of the users in the combination extracted in the user extraction step;
Matching methods, including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021140862A JP2023034563A (en) | 2021-08-31 | 2021-08-31 | Matching system and matching method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021140862A JP2023034563A (en) | 2021-08-31 | 2021-08-31 | Matching system and matching method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023034563A true JP2023034563A (en) | 2023-03-13 |
Family
ID=85505158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021140862A Pending JP2023034563A (en) | 2021-08-31 | 2021-08-31 | Matching system and matching method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023034563A (en) |
-
2021
- 2021-08-31 JP JP2021140862A patent/JP2023034563A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11055739B2 (en) | Using environment and user data to deliver advertisements targeted to user interests, e.g. based on a single command | |
US9319019B2 (en) | Method for augmenting a listening experience | |
KR101983635B1 (en) | A method of recommending personal broadcasting contents | |
EP2919472A1 (en) | Display apparatus, method for controlling display apparatus, and interactive system | |
US9959885B2 (en) | Method for user context recognition using sound signatures | |
KR20120038000A (en) | Method and system for determining the topic of a conversation and obtaining and presenting related content | |
US20190378518A1 (en) | Personalized voice recognition service providing method using artificial intelligence automatic speaker identification method, and service providing server used therein | |
US20240037202A1 (en) | Methods and systems for a voice id verification database and service in social networking and commercial business transactions | |
CN107592339B (en) | Music recommendation method and music recommendation system based on intelligent terminal | |
KR20220062420A (en) | Distributed identification in networked system | |
CN104091596A (en) | Music identifying method, system and device | |
CN110083738A (en) | A kind of music recommended method and terminal device based on vocal print and context aware | |
CN105810219A (en) | Multimedia file playing method and playing system, and audio terminal | |
CN107451185B (en) | Recording method, reading system, computer readable storage medium and computer device | |
KR102135076B1 (en) | Emotion-based personalized news recommender system using artificial intelligence speakers | |
JP2023034563A (en) | Matching system and matching method | |
JP2005332404A (en) | Content providing system | |
JP7470336B2 (en) | Audio data identification device | |
KR20150005804A (en) | Music recommendation system and method for providing user's feedback, and service apparatus applied to the same | |
JP3638591B2 (en) | Content provision system | |
CN109559760B (en) | Emotion analysis method and system based on voice information | |
JP3696869B2 (en) | Content provision system | |
CN109754820B (en) | Target audio acquisition method and device, storage medium and terminal | |
CN105743848B (en) | Multimedia content selective transmission method and device and remote control equipment | |
JP2018054926A (en) | Voice interactive apparatus and voice interactive method |