JP7309095B2 - 受話者推定装置、受話者推定方法、及び受話者推定プログラム - Google Patents
受話者推定装置、受話者推定方法、及び受話者推定プログラム Download PDFInfo
- Publication number
- JP7309095B2 JP7309095B2 JP2023514700A JP2023514700A JP7309095B2 JP 7309095 B2 JP7309095 B2 JP 7309095B2 JP 2023514700 A JP2023514700 A JP 2023514700A JP 2023514700 A JP2023514700 A JP 2023514700A JP 7309095 B2 JP7309095 B2 JP 7309095B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- state
- constraint
- feature amount
- listener
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 230000002093 peripheral effect Effects 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 23
- 238000001228 spectrum Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 26
- 230000006399 behavior Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
状態取得部によって取得された、前記発話者を含む1人以上の参加者が存在する領域内の状態を示す領域状態情報から前記領域内の状態についての特徴量を抽出することによって、特徴量情報を生成する特徴量抽出部と、音声による操作を受け付ける対象機器を含む機器の状態を示す機器状態情報を取得し、前記領域内において前記参加者の行動を制約する状態を示すデータである制約基準データを予め記憶する第1の記憶部から前記制約基準データを取得し、前記領域状態情報、前記機器状態情報、及び前記制約基準データに基づいて、前記参加者の行動を制約している状態を示す制約状態情報を取得する制約状態情報取得部と、予め想定された制約状態情報と前記特徴量情報の取得期間を含む予備動作情報との関係を示す予備動作条件データを予め記憶する第2の記憶部から、前記制約状態情報に対応する前記取得期間を含む予備動作情報を選択し、選択された前記取得期間を含む予備動作情報に基づいて前記取得期間の前記特徴量情報を出力する予備動作情報選択部と、前記制約状態情報及び前記制約基準データに基づいて前記取得期間の前記特徴量情報から前記受話者の推定に用いられる1つ以上の特徴量を選択し、前記1つ以上の特徴量に基づく加工特徴量情報を生成する特徴量加工部と、前記加工特徴量情報に基づいて前記受話者を推定する受話者推定部と、を有することを特徴とする。
《1-1》構成の概要
〈受話者推定システム〉
図1は、実施の形態1に係る受話者推定システムの構成を概略的に示す図である。受話者推定システムは、状態取得部20と、機器30と、入力部40と、受話者推定装置100と、出力部50とを有する。入力部40及び出力部50は、受話者推定装置100の一部であってもよい。入力部40は、信号を受信する入力装置としての入力インタフェースである。出力部50は、信号を出力する出力装置としての出力インタフェースである。
図2は、実施の形態1に係る受話者推定装置100の構成を概略的に示す機能ブロック図である。受話者推定装置100は、実施の形態1に係る受話者推定方法を実施することができる装置である。図2に示されるように、受話者推定装置100は、制約状態情報取得部110と、制約基準データC1を記憶する第1の記憶部150と、特徴量抽出部120と、特徴量加工部130と、受話者推定部140と、予備動作情報選択部160と、予備動作条件データC2を記憶する第2の記憶部170とを有する。受話者推定装置100は、入力部40を介して受け取った機器情報B0及び領域状態情報A0と、予め記憶された各種の基準データである制約基準データC1及び予備動作条件データとに基づいて受話者を推定するための処理を行い、推定の結果を示す推定結果情報D4を出力する。出力部50は、推定結果情報D4に基づく出力情報D5を出力する。第1の記憶部150と第2の記憶部170とは、互いに異なる記憶装置であってもよい。第1の記憶部150と第2の記憶部170とは、同じ記憶装置の中の互いに異なる記憶領域であってもよい。
〈制約状態情報取得部110〉
次に、各構成を詳細に説明する。制約状態情報取得部110は、受話者の発話時に、機器情報B0及び領域状態情報A0を入力部40から受け取る。また、制約状態情報取得部110は、制約基準データC1を参照する。制約状態情報取得部110は、参加者の行動を制約する制約状態を示す制約状態情報D2を取得(すなわち、生成)する。制約状態情報取得部110は、取得された制約状態情報D2を、特徴量加工部130と予備動作情報選択部160に提供する。制約状態情報D2は、例えば、発話者の姿勢の制約、周囲状況による発話者の動きの制約、などの発話者の行動の制約を示す情報を含む。制約状態情報D2は、例えば、文字列情報、数値情報、などで表現される。
特徴量抽出部120は、入力部40から領域状態情報A0を受け取る。つまり、特徴量抽出部120は、入力部40から音声情報A1及び映像情報A2のうちの少なくとも1つを受け取る。特徴量抽出部120は、発話者が意図する受話者の推定に用いられる1つ以上の特徴量を抽出することによって、特徴量情報D0を生成する。特徴量抽出部120は、特徴量情報D0を特徴量加工部130に提供する。
予備動作情報選択部160は、予め想定された(すなわち、予め決められた)制約状態情報D2´と特徴量情報D0の取得期間を含む予備動作情報との関係を示す予備動作条件データC2をデータベースとして予め記憶する第2の記憶部170から、制約状態情報D2に対応する取得期間を含む予備動作情報を選択し、選択された取得期間を含む予備動作情報に基づいて取得期間の特徴量情報D1を出力する。
特徴量加工部130は、制約状態情報D2及び制約基準データC1に基づいて取得期間(フレーム番号t_10からt_20の期間)の特徴量情報D1から受話者の推定に用いられる特徴量を選択し、選択された1つ以上の特徴量に基づく加工特徴量情報D3を生成する。特徴量加工部130は、加工特徴量情報D3を受話者推定部140に提供する。
受話者推定部140は、加工特徴量情報D3を受け取り、受話者を推定した結果を示す推定結果情報D4を出力部50に提供する。加工特徴量情報D3は、受話者の推定の対象となる発話に伴う音声特徴量又は画像特徴量を表す値の少なくとも1つを含む。受話者の推定には、記憶部に記憶されている推定基準データを用いてもよい。ここで、推定基準データは、参加者の発話時における発話内容、顔向き又は視線方向などの加工特徴量情報D3の組み合わせによる受話者の推定のルールが予め定められた基準データを含む。また、加工特徴量情報D3を基に受話者を推定するための、統計モデル、SVM(Support Vector Machine)又はニューラルネットワークなどのパラメータ又はモデルであればよい。
出力部50は、推定結果情報D4に基づく、受話者の推定の結果を示す出力情報D5を出力する。推定結果情報D4は、例えば、受話者が参加者のうちのいずれであるかを示す文字列情報又は数値情報を含む。また、推定結果情報D4は、参加者のうちのいずれかが受話者であることを示す確率を表現した数値情報などであってもよい。出力情報D5は、推定結果情報D4を基に、例えば、受話者の推定の結果を示す情報を表した文字列情報又は数値情報、又は受話者を示す画像などの情報である。また、出力情報D5は、参加者のうちのいずれかが受話者であることを示す確率を表した数値情報を含んでもよい。
次に、実施の形態1に係る受話者推定装置100の動作を詳細に説明する。
入力部40は、機器情報B0及び領域状態情報A0を受信する。すなわち、入力部40は、対象機器情報B1及び周辺機器情報B2の少なくとも1つと、音声情報A1及び映像情報A2の少なくとも1つを受信する。
制約状態情報取得部110は、機器情報B0、領域状態情報A0、及び制約基準データC1に基づいて制約状態情報D2を取得(すなわち、生成)する。
特徴量抽出部120は、領域状態情報A0から特徴量を抽出することによって特徴量情報D0を生成する。すなわち、特徴量抽出部120は、音声情報A1及び映像情報A2の少なくとも1つから特徴量を抽出することによって特徴量情報D0を生成する。
予備動作情報選択部160は、図7から図9に示されるように、予備動作条件データC2から、制約状態情報D2(例えば、フレーム番号t_20、走行状態が走行、席位置が運転席)に対応する取得期間を含む予備動作情報(例えば、条件R_1、走行状態が走行、機器操作が左折、席位置が運転席、取得予備動作の期間が現時点から過去10秒までの期間である。)を選択する。予備動作情報選択部160は、現時点から過去10秒までの取得期間の特徴量情報D0を選択し、この予備動作情報に基づく取得期間の特徴量情報D1を出力する。
特徴量加工部130は、制約状態情報D2及び制約基準データC1を用いて、特徴量情報D1から加工特徴量情報D3を生成する。
受話者推定部140は、加工特徴量情報D3から受話者を推定し、推定の結果を示す推定結果情報D4を出力する。つまり、受話者推定部140は、受話者の推定の対象となる発話に伴う音声特徴量又は画像特徴量を少なくとも1つを含む加工特徴量情報D3を受け取り、受話者を推定する。
出力部50は、推定結果情報D4に基づく出力情報D5を出力する。出力部50は、推定結果情報D4に基づく文字列情報、数値情報、受話者を示す画像、などを出力情報D5として出力する。また、出力部50は、参加者の各々が受話者である確率を示す数値情報を出力情報D5として出力してもよい。
以上に説明したように、実施の形態1に係る受話者推定装置100、受話者推定方法、及び受話者推定プログラムを用いれば、会話時における参加者の制約状態を考慮に入れて、且つ、予備動作情報に基づく取得期間(例えば、フレーム番号t_10からt_20の期間)の特徴量情報D1を用いて、加工特徴量情報D3を生成し、受話者を推定するので、受話者の推定の精度を向上させることができる。
《2-1》構成
図12は、実施の形態2に係る受話者推定装置200の構成を概略的に示す機能ブロック図である。受話者推定装置200は、実施の形態2に係る受話者推定方法を実施することができる装置である。図12において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号が付される。実施の形態2に係る受話者推定装置200は、特徴量情報D0に基づいて発話前、発話中、及び発話後のいずれであるかに関する予備動作種別情報を出力する予備動作種別取得部180を更に有し、制約状態情報取得部110で取得された制約状態情報D2に対応する第1の期間と予備動作種別情報が示す第2の期間とからなる取得期間を含む予備動作情報を選択し、選択された取得期間を含む予備動作情報に基づいて取得期間の特徴量情報D1を出力する点において、実施の形態1に係る受話者推定装置100と相違する。他の構成に関して、実施の形態2に係る受話者推定装置200は、実施の形態1に係る受話者推定装置100と同じである。
以上に説明したように、実施の形態2に係る受話者推定装置200、受話者推定方法、及び受話者推定プログラムを用いれば、会話時における参加者の制約状態を考慮に入れて、且つ、予備動作情報に基づく取得期間(例えば、フレーム番号t_15からt_20の期間)の特徴量情報D1を用いて、加工特徴量情報D3を生成し、受話者を推定するので、受話者の推定の精度を向上させることができる。
上記実施の形態では、第1の記憶部150及び第2の記憶部170が受話者推定装置の一部として示されているが、これらは、受話者推定装置に接続された外部の記憶装置又は受話者推定装置に備えられた通信装置によって通信可能なネットワーク上のサーバに備えられた記憶装置であってもよい。
Claims (15)
- 発話者が発する音声の受話者を推定する受話者推定装置であって、
状態取得部によって取得された、前記発話者を含む1人以上の参加者が存在する領域内の状態を示す領域状態情報から前記領域内の状態についての特徴量を抽出することによって、特徴量情報を生成する特徴量抽出部と、
音声による操作を受け付ける対象機器を含む機器の状態を示す機器状態情報を取得し、前記領域内において前記参加者の行動を制約する状態を示すデータである制約基準データを予め記憶する第1の記憶部から前記制約基準データを取得し、前記領域状態情報、前記機器状態情報、及び前記制約基準データに基づいて、前記参加者の行動を制約している状態を示す制約状態情報を取得する制約状態情報取得部と、
予め想定された制約状態情報と前記特徴量情報の取得期間を含む予備動作情報との関係を示す予備動作条件データを予め記憶する第2の記憶部から、前記制約状態情報に対応する前記取得期間を含む予備動作情報を選択し、選択された前記取得期間を含む予備動作情報に基づいて前記取得期間の前記特徴量情報を出力する予備動作情報選択部と、
前記制約状態情報及び前記制約基準データに基づいて前記取得期間の前記特徴量情報から前記受話者の推定に用いられる1つ以上の特徴量を選択し、前記1つ以上の特徴量に基づく加工特徴量情報を生成する特徴量加工部と、
前記加工特徴量情報に基づいて前記受話者を推定する受話者推定部と、
を有することを特徴とする受話者推定装置。 - 前記状態取得部は、前記領域内における音声を取得することによって音声情報を生成する音声取得部と、前記領域内の映像を撮影することによって映像情報を生成する映像取得部とを有し、
前記領域状態情報は、前記音声情報及び前記映像情報のうちの少なくとも1つを含む
ことを特徴とする請求項1に記載の受話者推定装置。 - 前記音声情報は、前記音声の音圧を示す情報、前記音声の基本周波数成分を示す情報、及び前記音声のスペクトルのうちの少なくとも1つを含むことを特徴とする請求項2に記載の受話者推定装置。
- 前記映像情報は、前記参加者の座席の位置を示す情報、前記参加者の顔向きを示す情報、前記参加者の視線方向を示す情報、及び前記参加者の口の開口度を示す情報のうちの少なくとも1つを含むことを特徴とする請求項2又は3に記載の受話者推定装置。
- 前記機器は、前記対象機器の他に、前記参加者によって操作される周辺機器を含むことを特徴とする請求項1から4のいずれか1項に記載の受話者推定装置。
- 前記機器状態情報は、前記周辺機器の状態及び前記周辺機器に対して実行された操作のうちの少なくとも1つを含むことを特徴とする請求項5に記載の受話者推定装置。
- 前記受話者推定装置は、車両に搭載される車両用装置であり、
前記予備動作条件データは、前記車両の走行状態を示す情報、前記車両の走行速度を示す情報、前記車両における前記機器の操作を示す情報、前記車両が走行している道路種別を示す情報、前記車両が走行している位置から右左折地点までの距離を示す情報、前記車両の運転を支援するナビゲーション情報、及び前記車両が走行している位置付近の道路状況を示す情報のうちの、1つの情報又は2つ以上の情報の組み合わせと、前記取得期間との関係を示す
ことを特徴とする請求項1から6のいずれか1項に記載の受話者推定装置。 - 前記取得期間は、前記予備動作情報選択部による予備動作選択の前の予め決められた時間であり、
前記取得期間は、前記車両の走行速度が予め決められた第1の閾値より速い場合に第1の時間に設定され、前記車両の走行速度が前記予め決められた第1の閾値以下の場合に前記第1の時間より長い第2の時間に設定される
ことを特徴とする請求項7に記載の受話者推定装置。 - 前記取得期間は、前記予備動作情報選択部による予備動作選択の前の予め決められた時間であり、
前記取得期間は、前記車両の走行速度が予め決められた第1の閾値より速く且つ前記車両から右左折地点までの距離が第2の閾値以下である場合に第1の時間より短い時間に設定される
ことを特徴とする請求項8に記載の受話者推定装置。 - 前記特徴量情報に基づいて発話前、発話中、及び発話後のいずれであるかに関する予備動作種別情報を出力する予備動作種別取得部を更に有し、
前記予備動作情報選択部は、前記第2の記憶部から、前記制約状態情報取得部で取得された前記制約状態情報に対応する第1の期間と前記予備動作種別情報が示す第2の期間とからなる前記取得期間を含む予備動作情報を選択し、選択された前記取得期間を含む予備動作情報に基づいて前記取得期間の前記特徴量情報を出力する
ことを特徴とする請求項7から9のいずれか1項に記載の受話者推定装置。 - 前記加工特徴量情報は、前記取得期間の前記特徴量情報から選択された前記1つ以上の特徴量を含む情報であることを特徴とする請求項1から10のいずれか1項に記載の受話者推定装置。
- 前記加工特徴量情報は、前記取得期間の前記特徴量情報から選択された前記1つ以上の特徴量と、前記1つ以上の特徴量の各々の重みとを含む情報であることを特徴とする請求項1から10のいずれか1項に記載の受話者推定装置。
- 前記受話者推定部は、前記対象機器及び前記参加者のうちの前記発話者以外の人の中から、前記受話者を推定することを特徴とする請求項1から12のいずれか1項に記載の受話者推定装置。
- 発話者が発する音声の受話者を推定する受話者推定装置によって実行される方法であって、
状態取得部によって取得された、前記発話者を含む1人以上の参加者が存在する領域内の状態を示す領域状態情報から前記領域内の状態についての特徴量を抽出することによって、特徴量情報を生成するステップと、
音声による操作を受け付ける対象機器を含む機器の状態を示す機器状態情報を取得し、前記領域内において前記参加者の行動を制約する状態を示すデータである制約基準データを予め記憶する第1の記憶部から前記制約基準データを取得し、前記領域状態情報、前記機器状態情報、及び前記制約基準データに基づいて、前記参加者の行動を制約している状態を示す制約状態情報を取得するステップと、
予め想定された制約状態情報と前記特徴量情報の取得期間を含む予備動作情報との関係を示す予備動作条件データを予め記憶する第2の記憶部から、前記制約状態情報に対応する前記取得期間を含む予備動作情報を選択し、選択された前記取得期間を含む予備動作情報に基づいて前記取得期間の前記特徴量情報を出力するステップと、
前記制約状態情報及び前記制約基準データに基づいて前記取得期間の前記特徴量情報から前記受話者の推定に用いられる1つ以上の特徴量を選択し、前記1つ以上の特徴量に基づく加工特徴量情報を生成するステップと、
前記加工特徴量情報に基づいて前記受話者を推定するステップと、
を有することを特徴とする受話者推定方法。 - 発話者が発する音声の受話者を推定する処理をコンピュータに実行させる受話者推定プログラムであって、
状態取得部によって取得された、前記発話者を含む1人以上の参加者が存在する領域内の状態を示す領域状態情報から前記領域内の状態についての特徴量を抽出することによって、特徴量情報を生成するステップと、
音声による操作を受け付ける対象機器を含む機器の状態を示す機器状態情報を取得し、前記領域内において前記参加者の行動を制約する状態を示すデータである制約基準データを予め記憶する第1の記憶部から前記制約基準データを取得し、前記領域状態情報、前記機器状態情報、及び前記制約基準データに基づいて、前記参加者の行動を制約している状態を示す制約状態情報を取得するステップと、
予め想定された制約状態情報と前記特徴量情報の取得期間を含む予備動作情報との関係を示す予備動作条件データを予め記憶する第2の記憶部から、前記制約状態情報に対応する前記取得期間を含む予備動作情報を選択し、選択された前記取得期間を含む予備動作情報に基づいて前記取得期間の前記特徴量情報を出力するステップと、
前記制約状態情報及び前記制約基準データに基づいて前記取得期間の前記特徴量情報から前記受話者の推定に用いられる1つ以上の特徴量を選択し、前記1つ以上の特徴量に基づく加工特徴量情報を生成するステップと、
前記加工特徴量情報に基づいて前記受話者を推定するステップと、
を前記コンピュータに実行させることを特徴とする受話者推定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/019147 WO2022244178A1 (ja) | 2021-05-20 | 2021-05-20 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022244178A1 JPWO2022244178A1 (ja) | 2022-11-24 |
JP7309095B2 true JP7309095B2 (ja) | 2023-07-14 |
Family
ID=84141501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023514700A Active JP7309095B2 (ja) | 2021-05-20 | 2021-05-20 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7309095B2 (ja) |
WO (1) | WO2022244178A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006338529A (ja) | 2005-06-03 | 2006-12-14 | Nippon Telegr & Teleph Corp <Ntt> | 会話構造推定方法 |
JP2007272534A (ja) | 2006-03-31 | 2007-10-18 | Advanced Telecommunication Research Institute International | 省略語補完装置、省略語補完方法、及びプログラム |
WO2019097674A1 (ja) | 2017-11-17 | 2019-05-23 | 日産自動車株式会社 | 車両用操作支援装置 |
WO2020240730A1 (ja) | 2019-05-29 | 2020-12-03 | 三菱電機株式会社 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006079427A (ja) * | 2004-09-10 | 2006-03-23 | Toshiba Tec Corp | 携帯情報機器 |
JP2020080503A (ja) * | 2018-11-14 | 2020-05-28 | 本田技研工業株式会社 | エージェント装置、エージェント提示方法、およびプログラム |
JP2020095121A (ja) * | 2018-12-11 | 2020-06-18 | パナソニックIpマネジメント株式会社 | 音声認識システム、学習済みモデルの生成方法、音声認識システムの制御方法、プログラム、及び移動体 |
-
2021
- 2021-05-20 JP JP2023514700A patent/JP7309095B2/ja active Active
- 2021-05-20 WO PCT/JP2021/019147 patent/WO2022244178A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006338529A (ja) | 2005-06-03 | 2006-12-14 | Nippon Telegr & Teleph Corp <Ntt> | 会話構造推定方法 |
JP2007272534A (ja) | 2006-03-31 | 2007-10-18 | Advanced Telecommunication Research Institute International | 省略語補完装置、省略語補完方法、及びプログラム |
WO2019097674A1 (ja) | 2017-11-17 | 2019-05-23 | 日産自動車株式会社 | 車両用操作支援装置 |
WO2020240730A1 (ja) | 2019-05-29 | 2020-12-03 | 三菱電機株式会社 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2022244178A1 (ja) | 2022-11-24 |
JPWO2022244178A1 (ja) | 2022-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11361452B2 (en) | Information processing apparatus, control method, and program | |
CN108725440B (zh) | 前向碰撞控制方法和装置、电子设备、程序和介质 | |
US10222226B2 (en) | Navigation systems and associated methods | |
US10943400B2 (en) | Multimodal user interface for a vehicle | |
JP6639444B2 (ja) | 情報提供装置及び情報提供方法 | |
US10872603B2 (en) | Dialog device and dialog method | |
JP6382273B2 (ja) | 施設満足度算出装置 | |
JP6713490B2 (ja) | 情報提供装置及び情報提供方法 | |
JP6612707B2 (ja) | 情報提供装置 | |
DE112018003014T5 (de) | Erfahrung-bereitstellungssystem, erfahrung-bereitstellungsverfahren und erfahrung-bereitstellungsprogramm | |
CN108932290B (zh) | 地点提案装置及地点提案方法 | |
US11460309B2 (en) | Control apparatus, control method, and storage medium storing program | |
CN110929078A (zh) | 一种汽车语音形象换装方法、装置、设备及存储介质 | |
WO2021258671A1 (zh) | 基于车载数字人的辅助驾驶交互方法及装置、存储介质 | |
JP7309095B2 (ja) | 受話者推定装置、受話者推定方法、及び受話者推定プログラム | |
JP7354888B2 (ja) | 情報処理装置、プログラム、及び、情報処理方法 | |
JP6945767B2 (ja) | 受話者推定装置、受話者推定方法、及び受話者推定プログラム | |
WO2020003392A1 (ja) | 運転支援装置および運転モード判断モデル生成装置 | |
JPWO2008038375A1 (ja) | 情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体 | |
JP2023136194A (ja) | 情報処理装置、移動体、それらの制御方法、プログラム、及び記憶媒体 | |
JP2020095389A (ja) | 地点情報記録システム、地点情報案内システム、地点情報記録プログラムおよび地点情報案内プログラム | |
CN112951216B (zh) | 一种车载语音处理方法及车载信息娱乐系统 | |
US20220388511A1 (en) | System for controlling a driving speed of a vehicle and a method thereof | |
JP2021108072A (ja) | レコメンドシステム、レコメンド方法およびプログラム | |
JP2023162857A (ja) | 音声対話装置及び音声対話方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230301 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7309095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |