JPWO2019097674A1 - 車両用操作支援装置 - Google Patents
車両用操作支援装置 Download PDFInfo
- Publication number
- JPWO2019097674A1 JPWO2019097674A1 JP2019554145A JP2019554145A JPWO2019097674A1 JP WO2019097674 A1 JPWO2019097674 A1 JP WO2019097674A1 JP 2019554145 A JP2019554145 A JP 2019554145A JP 2019554145 A JP2019554145 A JP 2019554145A JP WO2019097674 A1 JPWO2019097674 A1 JP WO2019097674A1
- Authority
- JP
- Japan
- Prior art keywords
- human
- vehicle
- voice data
- relationship
- relationships
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 241000282414 Homo sapiens Species 0.000 claims abstract description 305
- 241000282412 Homo Species 0.000 claims description 33
- 238000000034 method Methods 0.000 description 84
- 238000012545 processing Methods 0.000 description 26
- 238000000605 extraction Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000011002 quantification Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 241001122315 Polites Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 102000054584 human Y acceptor Human genes 0.000 description 2
- 108700023876 human Y acceptor Proteins 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 210000003746 feather Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3617—Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- Social Psychology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
まずは日常的に、乗員となり得る複数の人間が所持する端末機TD1,TD2,TD3と、人間関係解析ユニット1Aとを用いて、特定の人間と特定の人間との人間関係を解析し、これを定量化して人間関係データベース15に蓄積する。具体的には、図2Aに示すように、音声取得部11は、インターネットなどの無線通信回線網を介して、複数の端末機TDと情報の送受信を実行し、特に各端末機TDの、IDと現在位置と収音した会話音声データとを入力する(図2AのステップS21)。次いで、ステップS22にて、会話グループ推定部12は、音声取得部11に入力された各端末機TDの、IDと現在位置と収音した会話音声データとに基づいて、ある特定の端末機TDに入力された会話音声データに関し、誰と誰とが会話しているのか、会話している人間のグループ(集団)を推定する。このとき、会話グループ推定部12は、音声取得部11に入力された各端末機TDの、IDと現在位置と収音した会話音声データとに基づいて、端末機TDによって同時刻に集音された複数の会話音声データに対し、集音された位置情報が閾値以上に接近している組み合わせを抽出することで、端末機TDの位置情報に基づく仮の会話グループの推定を実行する。
1A…人間関係解析ユニット
11…音声取得部
12…会話グループ推定部
13…直接的人間関係解析部
14…間接的人間関係推定部
1B…人間関係記憶ユニット
15…人間関係データベース
1C…支援情報決定ユニット
16…支援情報決定部
1D…車両情報学習ユニット
17…車両情報学習部
1E…操作傾向記憶ユニット
18…操作傾向データベース
TD1,TD2,TD3…端末機
VH1,VH2…車両
A,B,C,X,Y,Z…人間(乗員)
V1,V2,V3…人間関係の解析値
[0005]
本発明が解決しようとする課題は、人間関係を含む乗員構成に適した推奨情報を短時間で求め、乗員が行う各種車両操作の支援に供する車両用操作支援装置を提供することである。
課題を解決するための手段
[0006]
本発明は、人間が車両に搭乗する場合以外にも収音可能な端末機により検出される、複数の人間の会話音声データを取得し、当該会話音声データに含まれる発話者毎の発話内容から複数の人間同士の直接的な人間関係を解析する。そして、複数の人間が乗車したら、その人間と解析された人間関係とから、推奨されるべく定められた車両操作の支援情報を決定することによって上記課題を解決する。
発明の効果
[0007]
本発明によれば、乗車前に求めておいた人間関係に関する情報を用いているので、人間関係を含む乗員構成に適した推奨情報を短時間で求めることができ、乗員が行う各種車両操作の支援にタイムリーに供することができる。
図面の簡単な説明
[0008]
[図1]本発明に係る車両用操作支援装置の一実施の形態を示すブロック図である。
[図2A]図1の会話グループ推定部にて実行される処理手順を示すフローチャートである。
[図2B]図2AのステップS22の発話位置による組み合わせ抽出処理を説明するための平面地図である。
[図2C]図2AのステップS23の発話期間による組み合わせ抽出処理を説明するためのタイムチャートである。
[図3A]図1の直接的人間関係解析部にて実行される処理手順を示すフローチャートである。
[図3B]図3AのステップS33の発話内容のカテゴリの解析処理に用いられ
Claims (7)
- 人間関係解析ユニットと、人間関係記憶ユニットと、支援情報決定ユニットと、を備え、人間関係を含む乗員構成に適した推奨情報を求め、乗員が行う車両操作の支援に供する車両用操作支援装置において、
前記人間関係解析ユニットは、
前記乗員となり得る複数の人間の会話音声データを取得して発話者を特定し、
取得した会話音声データを、特定した発話者毎に分析して所定のキーワードを抽出し、
発話者毎の前記キーワードに基づいて当該発話者毎の言葉遣いを特定し、
前記複数の人間の会話音声データに基づいて会話内容を特定し、
特定した言葉遣いと、特定した会話内容とから、前記複数の人間同士の直接的な人間関係を解析して定量化し、
前記人間関係記憶ユニットは、前記乗員となり得る複数の人間の前記直接的な人間関係を予め蓄積し、
前記支援情報決定ユニットは、車両に搭乗した複数の乗員を特定し、前記人間関係記憶ユニットに蓄積された前記直接的な人間関係に基づいて、前記複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定する、車両用操作支援装置。 - 前記人間関係解析ユニットは、定量化された前記直接的な人間関係に基づいて、前記人間関係記憶ユニットに記憶された人間同士のうち、解析されていない人間同士の間接的な人間関係を推定して定量化し、
前記人間関係記憶ユニットは、前記間接的な人間関係をも蓄積し、
前記支援情報決定ユニットは、前記人間関係記憶ユニットに蓄積された前記直接的な人間関係及び前記間接的な人間関係に基づいて、前記複数の乗員同士の人間関係に応じて推奨されるべく定められた車両操作の支援情報を決定する請求項1に記載の車両用操作支援装置。 - 前記人間関係解析ユニットは、定量化された前記直接的な人間関係に基づいて、前記人間関係記憶ユニットに記憶された人間同士のうち、解析されていない人間同士の間接的な人間関係を推定して定量化する場合、
既に定量化された第1の人間と第2の人間との直接的な人間関係V1と、既に定量化された前記第2の人間と第3の人間との直接的な人間関係V2と、既に定量化された前記第3の人間と前記第1の人間との直接的な人間関係V3とを用いて複数の人間関係V1,V2,V3の関係を統計処理し、
解析されていない人間関係V3´を、既に定量化された残りの人間関係V1,V2と前記統計処理された人間関係V1,V2,V3の関係から推定する請求項2に記載の車両用操作支援装置。 - 車両情報学習ユニットと、操作傾向記憶ユニットとをさらに備え、
前記車両情報学習ユニットは、
車両に搭乗した複数の乗員を特定し、
前記人間関係記憶ユニットから前記複数の乗員に関する人間関係を抽出し、
前記車両の操作に関する操作情報を検出し、
抽出された人間関係と検出された操作情報とを関連付け、
前記操作傾向記憶ユニットは、前記関連付けられた人間関係及び操作情報を蓄積し、
前記支援情報決定ユニットは、前記操作傾向記憶ユニットに蓄積された人間関係に関連する操作情報を、前記推奨されるべく定められた車両操作の支援情報として決定する請求項1〜3のいずれか一項に記載の車両用操作支援装置。 - 前記人間関係解析ユニットは、複数の人間の会話音声データを取得して発話者を特定する場合に、
複数の会話音声データの発話位置を検出し、
複数の会話音声データのうち、前記発話位置が所定距離以下である会話音声データ群を抽出し、これらの会話音声データ群の発話者を会話グループとし、当該会話グループに属する発話者を特定する請求項1〜4のいずれか一項に記載の車両用操作支援装置。 - 前記人間関係解析ユニットは、複数の人間の会話音声データを取得して発話者を特定する場合に、
複数の会話音声データの発話期間を検出し、
複数の会話音声データのうち、前記発話期間が所定時間以上重複しない会話音声データ群を抽出し、これらの会話音声データ群の発話者を会話グループとして推定し、当該会話グループに属する発話者を特定する請求項1〜5のいずれか一項に記載の車両用操作支援装置。 - 前記乗員となり得る複数の人間の会話音声データは、前記人間が車両に搭乗する場合以外にも収音可能な端末機により検出し、
検出した会話音声データを前記人間関係解析ユニットに送信する請求項1〜6のいずれか一項に記載の車両用操作支援装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/041460 WO2019097674A1 (ja) | 2017-11-17 | 2017-11-17 | 車両用操作支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019097674A1 true JPWO2019097674A1 (ja) | 2020-12-03 |
JP7024799B2 JP7024799B2 (ja) | 2022-02-24 |
Family
ID=66538941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019554145A Active JP7024799B2 (ja) | 2017-11-17 | 2017-11-17 | 車両用操作支援装置 |
Country Status (10)
Country | Link |
---|---|
US (1) | US20210174790A1 (ja) |
EP (1) | EP3712887B1 (ja) |
JP (1) | JP7024799B2 (ja) |
KR (1) | KR20200074168A (ja) |
CN (1) | CN111801667B (ja) |
BR (1) | BR112020009783A2 (ja) |
CA (1) | CA3084696C (ja) |
MX (1) | MX2020004484A (ja) |
RU (1) | RU2768509C2 (ja) |
WO (1) | WO2019097674A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020240730A1 (ja) * | 2019-05-29 | 2020-12-03 | 三菱電機株式会社 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
KR102249784B1 (ko) * | 2020-01-06 | 2021-05-10 | 주식회사 파우미 | 소형 용기의 내부 코팅용 상방향 노즐 |
WO2022244178A1 (ja) * | 2021-05-20 | 2022-11-24 | 三菱電機株式会社 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
CN115376522B (zh) * | 2021-05-21 | 2024-10-01 | 佛山市顺德区美的电子科技有限公司 | 空调器的声纹控制方法、空调器及可读存储介质 |
CN115878070B (zh) * | 2023-03-01 | 2023-06-02 | 上海励驰半导体有限公司 | 一种车载音频播放方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006099195A (ja) * | 2004-09-28 | 2006-04-13 | Sony Corp | 視聴コンテンツ提供システム及び視聴コンテンツ提供方法 |
WO2007105436A1 (ja) * | 2006-02-28 | 2007-09-20 | Matsushita Electric Industrial Co., Ltd. | ウェアラブル端末 |
JP2009232415A (ja) * | 2008-03-25 | 2009-10-08 | Denso Corp | 自動車用情報提供システム |
JP2012133530A (ja) * | 2010-12-21 | 2012-07-12 | Denso Corp | 車載装置 |
JP2013182560A (ja) * | 2012-03-05 | 2013-09-12 | Nomura Research Institute Ltd | 人間関係推定システム |
WO2016121174A1 (ja) * | 2015-01-30 | 2016-08-04 | ソニー株式会社 | 情報処理システムおよび制御方法 |
JP2017009826A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | グループ状態判定装置およびグループ状態判定方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2229398C1 (ru) * | 2003-09-12 | 2004-05-27 | Общество с ограниченной ответственностью "Альтоника" | Охранно-навигационная система для транспортного средства |
JP4670438B2 (ja) * | 2005-04-01 | 2011-04-13 | ソニー株式会社 | コンテンツおよびそのプレイリストの提供方法 |
US20100042498A1 (en) * | 2008-08-15 | 2010-02-18 | Atx Group, Inc. | Criteria-Based Audio Messaging in Vehicles |
JP2010190743A (ja) * | 2009-02-18 | 2010-09-02 | Equos Research Co Ltd | ナビゲーションシステム及びナビゲーション装置 |
JP2011081763A (ja) * | 2009-09-09 | 2011-04-21 | Sony Corp | 情報処理装置、情報処理方法及び情報処理プログラム |
WO2011064938A1 (ja) * | 2009-11-25 | 2011-06-03 | 日本電気株式会社 | 音声データ解析装置、音声データ解析方法及び音声データ解析用プログラム |
US11070661B2 (en) * | 2010-09-21 | 2021-07-20 | Cellepathy Inc. | Restricting mobile device usage |
EP2624252B1 (en) * | 2010-09-28 | 2015-03-18 | Panasonic Corporation | Speech processing device and speech processing method |
US8775059B2 (en) * | 2011-10-26 | 2014-07-08 | Right There Ware LLC | Method and system for fleet navigation, dispatching and multi-vehicle, multi-destination routing |
US9008906B2 (en) * | 2011-11-16 | 2015-04-14 | Flextronics Ap, Llc | Occupant sharing of displayed content in vehicles |
US10169464B2 (en) * | 2012-05-14 | 2019-01-01 | Ramesh Sivarajan | System and method for a bidirectional search engine and its applications |
US20150193888A1 (en) * | 2014-01-06 | 2015-07-09 | Linkedln Corporation | Techniques for determining relationship information |
CN105701123B (zh) * | 2014-11-27 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 人车关系的识别方法及装置 |
CN104933201A (zh) * | 2015-07-15 | 2015-09-23 | 蔡宏铭 | 基于同行信息的内容推荐方法及系统 |
US11170451B2 (en) * | 2015-10-02 | 2021-11-09 | Not So Forgetful, LLC | Apparatus and method for providing gift recommendations and social engagement reminders, storing personal information, and facilitating gift and social engagement recommendations for calendar-based social engagements through an interconnected social network |
US10298690B2 (en) * | 2017-01-10 | 2019-05-21 | International Business Machines Corporation | Method of proactive object transferring management |
-
2017
- 2017-11-17 RU RU2020117547A patent/RU2768509C2/ru active
- 2017-11-17 US US16/764,705 patent/US20210174790A1/en not_active Abandoned
- 2017-11-17 EP EP17932260.7A patent/EP3712887B1/en active Active
- 2017-11-17 JP JP2019554145A patent/JP7024799B2/ja active Active
- 2017-11-17 MX MX2020004484A patent/MX2020004484A/es unknown
- 2017-11-17 WO PCT/JP2017/041460 patent/WO2019097674A1/ja unknown
- 2017-11-17 CN CN201780096439.0A patent/CN111801667B/zh active Active
- 2017-11-17 CA CA3084696A patent/CA3084696C/en active Active
- 2017-11-17 BR BR112020009783-7A patent/BR112020009783A2/pt not_active Application Discontinuation
- 2017-11-17 KR KR1020207014105A patent/KR20200074168A/ko not_active Application Discontinuation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006099195A (ja) * | 2004-09-28 | 2006-04-13 | Sony Corp | 視聴コンテンツ提供システム及び視聴コンテンツ提供方法 |
WO2007105436A1 (ja) * | 2006-02-28 | 2007-09-20 | Matsushita Electric Industrial Co., Ltd. | ウェアラブル端末 |
JP2009232415A (ja) * | 2008-03-25 | 2009-10-08 | Denso Corp | 自動車用情報提供システム |
JP2012133530A (ja) * | 2010-12-21 | 2012-07-12 | Denso Corp | 車載装置 |
JP2013182560A (ja) * | 2012-03-05 | 2013-09-12 | Nomura Research Institute Ltd | 人間関係推定システム |
WO2016121174A1 (ja) * | 2015-01-30 | 2016-08-04 | ソニー株式会社 | 情報処理システムおよび制御方法 |
JP2017009826A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | グループ状態判定装置およびグループ状態判定方法 |
Also Published As
Publication number | Publication date |
---|---|
BR112020009783A2 (pt) | 2020-11-03 |
WO2019097674A1 (ja) | 2019-05-23 |
EP3712887B1 (en) | 2021-09-29 |
CA3084696A1 (en) | 2019-05-23 |
EP3712887A4 (en) | 2021-03-10 |
RU2020117547A (ru) | 2021-12-17 |
EP3712887A1 (en) | 2020-09-23 |
RU2768509C2 (ru) | 2022-03-24 |
KR20200074168A (ko) | 2020-06-24 |
CA3084696C (en) | 2023-06-13 |
RU2020117547A3 (ja) | 2021-12-17 |
US20210174790A1 (en) | 2021-06-10 |
MX2020004484A (es) | 2020-08-03 |
CN111801667A (zh) | 2020-10-20 |
JP7024799B2 (ja) | 2022-02-24 |
CN111801667B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7024799B2 (ja) | 車両用操作支援装置 | |
US11868943B2 (en) | Business metric identification from structured communication | |
CN103038818B (zh) | 在车载语音识别系统与车外语音识别系统之间的通信系统和方法 | |
JP6820664B2 (ja) | 受付システムおよび受付方法 | |
JP6125445B2 (ja) | ライフログ記録システム及びそのプログラム | |
US20220035840A1 (en) | Data management device, data management method, and program | |
US20220036381A1 (en) | Data disclosure device, data disclosure method, and program | |
US11755652B2 (en) | Information-processing device and information-processing method | |
JP2021144370A (ja) | 車両乗合支援システム及び車両乗合支援方法 | |
WO2022264391A1 (ja) | サーバ装置、システム、サーバ装置の制御方法及び記憶媒体 | |
JP2019159790A (ja) | 情報処理方法及び情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200420 |
|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20200420 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220124 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7024799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |