CN111277485B - 信息处理装置以及记录介质 - Google Patents
信息处理装置以及记录介质 Download PDFInfo
- Publication number
- CN111277485B CN111277485B CN201911145293.1A CN201911145293A CN111277485B CN 111277485 B CN111277485 B CN 111277485B CN 201911145293 A CN201911145293 A CN 201911145293A CN 111277485 B CN111277485 B CN 111277485B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- information
- tweet
- speech
- tag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 41
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 238000007796 conventional method Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 20
- 238000007726 management method Methods 0.000 description 16
- 238000013500 data storage Methods 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000004313 glare Effects 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 208000001034 Frostbite Diseases 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/52—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/433—Query formulation using audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
提供一种信息处理装置以及信息处理程序。信息处理装置具备基于与由语音检测部检测的说话内容对应的语音信息、和从车辆得到的车辆信息中的至少一方来生成指定字符串的生成部。通过该构成,用户不进行操作就能够输入作为推文标签的指定字符串。因此,与基于用户的操作(手工输入)来生成推文标签的现有技术相比,能够大幅减轻用户的负担,并且,能够抑制输入错误。
Description
技术领域
本发明涉及信息处理装置以及信息处理程序。
背景技术
日本特开2018-77785公开了一种用户不会感到费事就能够输入推文标签(hashtag,“#”号标签)的技术。
发明内容
然而,在日本特开2018-77785所公开的技术中,存在若不操作信息处理装置则无法输入推文标签这一课题。
本发明是鉴于上述课题而完成的,其目的在于获得不进行操作就能够输入作为推文标签的指定字符串的信息处理装置。
为了解决上述问题,本发明的实施方式涉及的信息处理装置具备:生成部,其基于与由语音检测部检测的说话内容对应的语音信息、和从车辆得到的车辆信息中的至少一方,生成指定字符串。
根据本实施方式,没有手工输入指定字符串的必要,因此,与现有技术相比,能够减轻用户的负担。
另外,在本实施方式中,所述生成部也可以构成为:基于所述语音信息来生成与所述说话内容对应的所述指定字符串,将由设置于所述车辆的传感器检测出的数据关联于所生成的所述指定字符串来进行上传。
根据本实施方式,进行了字符串检索的用户能够更详细地确认进行了说话的地点的状况。
本发明的其他实施方式可以作为信息处理程序来实现。
根据本发明,能够实现不进行操作就能输入指定字符串这一效果。
附图说明
下面将参照附图说明本发明示例性实施例的特征、优点以及技术上和产业上的意义,其中相同的标号表示相同的要素,并且,其中:
图1是表示本发明的实施方式涉及的信息处理装置10的构成的图。
图2是用于说明信息处理装置10的第1动作例的流程图。
图3是用于说明信息处理装置10的第2动作例的流程图。
图4是用于说明生成推文标签的状况的图。
图5是表示用于实现本发明的实施方式涉及的信息处理装置10的硬件构成例的图。
具体实施方式
以下,参照附图对用于实施发明的实施方式进行说明。
实施方式
图1是表示本发明的实施方式涉及的信息处理装置10的构成的图。在车辆100设有麦克风1、汽车控制用的车载ECU(Electronic Control Unit,电子控制单元)2、传感器3以及信息处理装置10。以下,有时将“车辆100”仅称为“车辆”。此外,应用信息处理装置10的车辆不限定于汽车,例如也可以是自行车、电车等的汽车以外的交通工具。
麦克风1是将车辆的搭乘者发出的语音作为振动波形来进行检测、并输出表示所检测出的振动波形的信号来作为语音信息的语音检测器。
车载ECU2例如是对设置于车辆的发动机、启动装置(starter)、制动器、刮水器(wiper)等进行控制的计算机,对状况检测部12输出车辆信息。车辆信息例如是表示发动机的转速、加速踏板的操作量(加速器踩踏量)、制动器的操作量(制动器踩踏量)、刮水器的工作状态(停止中、动作速度等)、方向指示器的指示方向等的信息。从车载ECU2输出的车辆信息并不限定于这些。
传感器3例如是GPS(Global Positioning System,全球定位系统)传感器、车载摄像头、车载雷达等的检测器。传感器3的种类并不限定于这些。传感器3将由这些传感器检测出的信息作为传感器信息向状况检测部12输出。
信息处理装置10经由通信网络200与数据中心300以能够进行通信的方式连接。在数据中心300连接有终端装置400。在终端装置400安装(install)有用于访问Facebook(注册商标)、twitter(注册商标)、Instagram(注册商标)等SNS(Social Networking Service,社交网络服务)网站的服务应用程序。终端装置400能够通过启动服务应用程序来利用推文标签检索预定的信息。例如,当用户用终端装置400检索“#暴雨”时,在数据中心300中检索与该推文标签关联的信息,所检索到的信息被提供给终端装置400。以下,对信息处理装置10的构成进行具体的说明。
信息处理装置10构成为基于语音信息、车辆信息、传感器信息等生成推文标签。信息处理装置10具备语音检测部11、状况检测部12、推文标签管理部13、推文标签生成部14以及通信控制部15。
语音检测部11例如通过对从麦克风1输出的包含语音信息的频率成分进行解析来确定与说话内容对应的信息,并输出至推文标签生成部14。对于确定与说话内容对应的信息的方法,如日本特开2017-126861等所公开的那样是公知的,因此,省略说明。
状况检测部12基于来自车载ECU2的车辆信息、来自传感器3的传感器信息等,生成表示车辆的运转状况和/或周围状况的信息,并向推文标签生成部14输出。例如在刮水器以低速进行动作的情况下,正在下小雨的可能性高。在该情况下,状况检测部12通过将刮水器的动作速度与由后述的检测条件管理部301设定出的检测条件进行对照,在判定为正在下小雨时,输出该判定信息来作为状况检测信息。另外,在制动器被紧急踩踏了的情况下,例如由于人和/或车在视野不良的交叉路口等处突然窜出来而车辆急停的可能性高。在该情况下,状况检测部12通过将制动器的操作量与由检测条件管理部301设定了的检测条件进行对照,在判定为是容易发生交通事故的场所时,输出该判定信息来作为状况检测信息。另外,在传感器3为GPS传感器的情况下,状况检测部12基于来自GPS传感器的位置信息,确定车辆的当前位置和行进方向,输出所确定的当前位置和行进方向的信息来作为状况检测信息。
推文标签管理部13为了使得来自语音检测部11的语音内容、来自状况检测部12的状况检测信息等容易被进行推文标签检索,对将语音内容、车辆信息等抽象化后的推文标签进行管理。例如在语音内容为“正在稍稍下雨”、“是蒙蒙细雨”等的情况下,通过预先设定将这些说话内容抽象化后的“#小雨”这一推文标签的制作规则,推文标签检索变得容易进行。另外,在状况检测信息是与刮水器的动作状态对应的信息的情况下,通过预先设定与刮水器的动作速度对应的推文标签的制作规则,也能够将车辆信息活用于推文标签检索。
推文标签管理部13既可以构成为具备推文标签列表,通过参照该推文标签列表来输出与语音内容、车辆信息、传感器信息等对应的推文标签,也可以作为通过对所输入的语音内容以及状况检测信息进行学习而自动地生成对应的推文标签的学习器而构成。
推文标签列表例如既可以是将多个语音内容与将这些各个语音内容抽象化后的多个推文标签相关联后的表信息,也可以是将多个车辆信息与将这些各个车辆信息抽象化后的多个推文标签相关联后的表信息。具体而言,与“太阳反射晃眼”、“是夕阳”等的语音内容关联有“#晃眼”、“#夕阳”等的推文标签,与“无视危险信号”等的语音内容关联有“#危险”、“#交叉路口”等的推文标签。另外,与“正在稍稍下雨”、“是蒙蒙细雨”等的语音内容关联有“#小雨”、“#阵雨”等的推文标签,与“是游击型暴雨”、“突然下起了暴雨”等的语音内容关联有“#游击型暴雨”等的推文标签。
另外,与表示刮水器正在以低速进行动作这一情况的状况检测信息(刮水器低速运转)关联有“#小雨”、“#阵雨”等的推文标签,与表示刮水器正在以高速进行动作这一情况的状况检测信息(刮水器高速运转)关联有“#大雨”、“#暴雨”等的推文标签。另外,与表示制动器被紧急踩踏了这一情况的状况检测信息(制动器踩踏量大)关联有“#危险”、“#交叉路口”等的推文标签。此外,推文标签列表的内容并不限定于这些。
在推文标签管理部13为学习器的情况下,例如进行教师学习、无教师学习、半教师学习、强化学习、深度学习等的机器学习。机器学习是指用于使计算机获得如人那样的学习能力的技术,并且是指如下技术:计算机根据事先取入的学习数据自主地生成数据识别等的判断所需的算法,对新的数据应用该算法来进行预测。机器学习方法可以使用回归分析、k均值算法、自举(bootstrap)法等公知的方法,因此,在此省略详细的说明。
推文标签生成部14是如下的生成部:通过参照推文标签管理部13,生成并输出作为与语音信息、状况检测信息等对应的指定字符串的推文标签。例如,在语音内容为“正在稍稍下雨”、“是蒙蒙细雨”等的情况下,生成“#小雨”、“#阵雨”等的推文标签。另外,在基于当停止状态的刮水器以短时间进行了高速动作时所检测的状况检测信息而判断为“游击型暴雨”的情况下,生成“#游击型暴雨”这一推文标签。
另外,推文标签生成部14也可以构成为组合语音信息和状况检测信息来生成推文标签。例如在语音内容为“下雨了”等的情况下,在基于当停止状态的刮水器以短时间进行了高速动作时所检测的状况检测信息而判断为“游击型暴雨”时,也生成“#游击型暴雨”这一推文标签。
另外,推文标签生成部14也可以构成为在语音内容为“晃眼”的情况下生成关联了表示该语音被检测出时的车辆的位置以及行进方向的数据的“#晃眼”这一推文标签。在该情况下,进行了推文标签检索的用户能够确认被说出了“晃眼”的场所例如为上行车道的特定场所。
另外,推文标签生成部14也可以构成为在语音内容为“晃眼”的情况下生成关联了该语音被检测出时所拍摄到的动态图像的拍摄数据的“#晃眼”这一推文标签。在该情况下,进行了推文标签检索的用户能够实时地确认被说出了“晃眼”的地点的状况。
另外,推文标签生成部14也可以构成为在语音内容为“是彩虹”的情况下生成关联了该语音被检测出时所拍摄到的静止图像的拍摄数据的“#彩虹”这一推文标签。在该情况下,进行了推文标签检索的用户能够在抑制数据通信量的上升的同时确认彩虹的样子。
通信控制部15是与通信网络200之间通过无线通信或者有线通信授受信息的接口。通信网络200是互联网、便携终端用的网络等。通信控制部15将由推文标签生成部14生成的推文标签经由通信网络200发送至数据中心300,并且,接收从数据中心300发送了的检测条件,并发送至状况检测部12。
接着,对数据中心300的构成进行说明。数据中心300具备检测条件管理部301、数据保存部302、推文标签检索部303、通信控制部304、推文标签更新部305以及外部协作部306。
通信控制部304是与通信网络200之间通过无线通信或者有线通信授受信息的接口。
检测条件管理部301对状况检测部12的检测条件进行管理。例如在刮水器正在以低速进行动作的情况下,正在下小雨的可能性高,因此,需要使状况检测部12对处于那样的状况这一情况进行检测。因此,在检测条件管理部301设定有与车辆信息的种类、车辆信息的值等对应的多个检测条件。这些检测条件经由通信控制部304、通信网络200以及通信控制部15被输入到状况检测部12。检测条件管理部301的检测条件能够根据车辆信息的种类等进行变更。
在数据保存部302保存有由推文标签生成部14生成的多个推文标签。推文标签检索部303通过参照数据保存部302,读出由终端装置400检索到的推文标签。推文标签更新部305具有对保存于推文标签管理部13的信息进行更新的功能。外部协作部306是与终端装置400之间通过无线通信或者有线通信授受信息的接口。
接着,使用图2对信息处理装置10的第1动作进行说明。图2是用于说明信息处理装置10的第1动作例的流程图。当由语音检测部11检测说话内容时(步骤S1),通过推文标签生成部14例如参照保存于推文标签管理部13的推文标签列表(步骤S2),生成与说话内容对应的推文标签(步骤S3)。
当取得车辆信息和传感器信息中的至少一方后(步骤S4),将状况检测信息、例如表示语音被检测出时的车辆的位置以及行进方向的数据与通过步骤S3生成的推文标签进行关联,并向数据中心300发送(步骤S5)。接收到该推文标签的数据中心300将推文标签保存于数据保存部302(步骤S6)。当由终端装置400进行推文标签检索时,开始关联的推文标签的检索(步骤S7),作为检索结果的推文标签被发送给终端装置400。在终端装置400显示与该推文标签对应的信息(步骤S8)。
接着,使用图3对信息处理装置10的第2动作进行说明。图3是用于说明信息处理装置10的第2动作例的流程图。在步骤S11中,判断由状况检测部12检测出的车辆信息是否与检测条件一致,在车辆信息与检测条件一致的情况(步骤S11:是),通过推文标签生成部14例如参照保存于推文标签管理部13的推文标签列表,生成与车辆信息对应的推文标签(步骤S12)。
在步骤S13中,例如判断在从车辆信息被检测出的时间点开始到经过一定时间为止的期间是否由语音检测部11检测出说话内容。在未检测出说话内容的情况下(步骤S13:否),通过步骤S12生成的推文标签被向数据中心300发送,并保存于数据中心300的数据保存部302。
在检测出说话内容的情况下(步骤S13:是),通过推文标签生成部14例如参照保存于推文标签管理部13的推文标签列表,生成与说话内容对应的推文标签(步骤S14)。在步骤S15中,将状况检测信息、例如表示语音被检测出时的车辆的位置以及行进方向的数据与通过步骤S14生成的推文标签进行关联,并向数据中心300发送,并保存于数据中心300的数据保存部302。步骤S6以后的处理动作与图2所示的处理动作是同样的,因此,省略说明。
此外,信息处理装置10的动作例并不限定于这些,例如也可以构成为在由语音检测部11检测出说话内容时,即使是在车辆信息被检测出的情况下,也仅将与说话内容对应的推文标签向数据中心300发送。即使在这样构成的情况下,也没有手工输入推文标签的必要,因此,与现有技术相比,能够减轻用户的负担。
图4是用于说明生成推文标签的状况的图。在图4所示的道路的上行车道中,车辆100和位于车辆100的数公里后方的车辆100A正在行驶,在下行车道中,车辆100B正在行驶。当正在上行车道行驶的车辆100通过特定场所A时,由邻近的大厦的窗户反射的太阳光照射到特定场所A,因此,设为车辆100的驾驶员感到晃眼这一状况。
在当通过特定场所A时车辆100的驾驶员说出了“晃眼”的情况下,基于该说话内容,生成“#晃眼”这一推文标签。另外,基于从GPS等的传感器3输出的传感器信息,检测车辆的移动方向和当前位置,因此,与“#晃眼”这一推文标签关联有表示车辆的移动方向和当前位置的信息。这样生成的推文标签被保存于数据保存部302。在正在车辆100的后方行驶的车辆100A的搭乘者利用“#晃眼”这一推文标签检索了关联的信息的情况下,能够在车辆100A到达特定场所A之前获知在前方存在晃眼场所这一情况。此外,正在下行车道行驶的车辆100B正在与车辆100的行驶车道不同的车道上行驶,因此,即使车辆100B的搭乘者利用“#晃眼”这一推文标签检索了关联的信息,车辆100B的搭乘者也不会被提供与车辆100A的搭乘者阅览的信息相同的信息。
在该情况下,信息处理装置10也可以构成为:在说出了“晃眼”时,用车载摄像头对特定场所A附近进行拍摄,将该拍摄数据与“#晃眼”这一推文标签进行关联,并上传至数据中心300。由此,后续的车辆100A的搭乘者能够确认特定场所A的风景,因此,能够更详细地确认其状况。
另外,信息处理装置10也可以构成为:在说出了“危险”时,将说出“危险”前后数十秒期间所拍摄到的拍摄数据与“#危险”这一推文标签进行关联,并上传至数据中心300。由此,进行了推文标签检索的用户能够详细地确认容易发生交通事故的视野不良的交叉路口等的状况。
另外,在语音内容为“游击型暴雨”的情况下,既可以将该语音被检测出时所拍摄到的动态图像的拍摄数据与“#游击型暴雨”这一推文标签进行关联,另外,也可以将由麦克风1收集到的声音(雨打到车辆上的声音)与该推文标签进行关联。通过这样构成,进行了推文标签检索的用户能够实时地确认游击型暴雨的状况。
图5是表示用于实现本发明的实施方式涉及的信息处理装置10的硬件构成例的图。信息处理装置10可以由CPU(Central Processing Unit,中央处理单元)、系统LSI(Large Scale Integration,大规模集成电路)等的处理器10A、由RAM(Random AccessMemory,随机访问存储器)、ROM(Read Only Memory,只读存储器)等构成的存储器10B、以及输入输出接口10C实现。此外,处理器10A也可以是微型计算机、DSP(Digital SignalProcessor,数字信号处理器)这样的运算单元。处理器10A、存储器10B以及输入输出接口10C与总线10D连接,能够经由总线10D相互进行信息的交接。输入输出接口10C在推文标签生成部14与通信网络200之间进行信息的收发。在实现信息处理装置10的情况下,通过将信息处理装置10用的程序预先保存于存储器10B,处理器10A执行该程序,由此实现信息处理装置10的语音检测部11、状况检测部12、推文标签管理部13、推文标签生成部14等。
此外,本实施方式涉及的信息处理装置10不限定于设置于车辆的导航装置、语音识别装置等,也可以是智能手机、平板终端、便携电话、个人计算机等。
如以上所说明的那样,本发明的实施方式涉及的信息处理装置10具备生成部(推文标签生成部14),该生成部基于与由语音检测部检测出的说话内容对应的语音信息、和从车辆得到的车辆信息中的至少一方,生成指定字符串。在车辆的驾驶期间难以进行设备操作,进而难以观看显示于设备的信息,但根据信息处理装置10,能够不进行操作而容易地输入作为指定字符串的推文标签。因此,与基于用户的操作(手工输入)生成推文标签的现有技术相比,能够大幅减轻用户的负担,并且,能够抑制输入错误。
另外,推文标签生成部14也可以构成为:基于语音信息生成与说话内容对应的指定字符串,将由设置在车辆的传感器检测出的数据关联于所生成的指定字符串并进行上传。通过该构成,进行了推文标签检索的用户能够更详细地确认进行了说话的地点的状况。
另外,本实施方式涉及的信息处理装置程序使计算机执行如下步骤:基于与由语音检测部检测的说话内容对应的语音信息、和从车辆得到的车辆信息中的至少一方,生成指定字符串。根据本实施方式涉及的信息处理装置程序,与基于用户的操作(手输入)来生成推文标签的现有技术相比,能够大幅减轻用户的负担,并且,能够抑制输入错误。
以上的实施方式所示出的构成是表示本发明的内容的一个例子的构成,既可以与其他公知的技术进行组合,也可以在不脱离本发明的宗旨的范围内对构成的一部分进行省略、变更。
Claims (2)
1.一种信息处理装置,具备:
生成部,其基于与由语音检测部检测的说话内容对应的语音信息和从车辆得到的车辆信息双方,生成指定字符串,所述车辆信息是表示车辆所具备的装置的工作状态的信息,
所述生成部,将在检测出与所述说话内容对应的语音时由设置于所述车辆且检测所述车辆的周围状况的传感器检测出的数据关联于基于所述语音信息和所述车辆信息双方所生成的所述指定字符串并进行上传。
2.一种计算机可读的记录介质,记录有信息处理程序,该信息处理程序使计算机执行如下步骤:
基于与由语音检测部检测的说话内容对应的语音信息和从车辆得到的车辆信息双方,生成指定字符串,所述车辆信息是表示车辆所具备的装置的工作状态的信息;
将在检测出与所述说话内容对应的语音时由设置于所述车辆且检测所述车辆的周围状况的传感器检测出的数据关联于基于所述语音信息和所述车辆信息双方所生成的所述指定字符串并进行上传。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-228220 | 2018-12-05 | ||
JP2018228220A JP7176383B2 (ja) | 2018-12-05 | 2018-12-05 | 情報処理装置及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111277485A CN111277485A (zh) | 2020-06-12 |
CN111277485B true CN111277485B (zh) | 2022-08-02 |
Family
ID=70971005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911145293.1A Active CN111277485B (zh) | 2018-12-05 | 2019-11-21 | 信息处理装置以及记录介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11354516B2 (zh) |
JP (1) | JP7176383B2 (zh) |
CN (1) | CN111277485B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111897996B (zh) * | 2020-08-10 | 2023-10-31 | 北京达佳互联信息技术有限公司 | 话题标签推荐方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103921727A (zh) * | 2013-01-11 | 2014-07-16 | 歌乐株式会社 | 信息处理装置及其语音操作方法、语音操作系统 |
CN107111621A (zh) * | 2014-10-10 | 2017-08-29 | 歌乐株式会社 | 检索系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006308848A (ja) | 2005-04-28 | 2006-11-09 | Honda Motor Co Ltd | 車両機器制御装置 |
JP5616142B2 (ja) | 2010-06-28 | 2014-10-29 | 本田技研工業株式会社 | 携帯機器と連携した車載機器を用いてコンテンツを自動的に投稿するためのシステム |
WO2013185109A2 (en) | 2012-06-08 | 2013-12-12 | Apple Inc. | Systems and methods for recognizing textual identifiers within a plurality of words |
DE112013007521T5 (de) | 2013-10-22 | 2016-07-21 | Mitsubishi Electric Corporation | Server zur Navigation, Navigationssystem und Navigationsverfahren |
JP2015146550A (ja) | 2014-02-04 | 2015-08-13 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10217135B2 (en) | 2014-02-05 | 2019-02-26 | Pacific Wave Technology, Inc. | Presenting an advertisement in a vehicle |
US10284651B2 (en) * | 2014-02-27 | 2019-05-07 | Harman International Industries, Incorporated | Data aggregation and delivery |
JP6512750B2 (ja) | 2014-05-21 | 2019-05-15 | クラリオン株式会社 | 支援システム、及び支援装置 |
US9838347B2 (en) * | 2015-03-11 | 2017-12-05 | Microsoft Technology Licensing, Llc | Tags in communication environments |
JP2017126861A (ja) | 2016-01-13 | 2017-07-20 | 大和ハウス工業株式会社 | 映像表示システム及び映像表示方法 |
JP6501747B2 (ja) | 2016-11-11 | 2019-04-17 | Necパーソナルコンピュータ株式会社 | 情報処理システム、サーバ、および情報処理方法 |
-
2018
- 2018-12-05 JP JP2018228220A patent/JP7176383B2/ja active Active
-
2019
- 2019-11-21 CN CN201911145293.1A patent/CN111277485B/zh active Active
- 2019-11-22 US US16/691,680 patent/US11354516B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103921727A (zh) * | 2013-01-11 | 2014-07-16 | 歌乐株式会社 | 信息处理装置及其语音操作方法、语音操作系统 |
CN107111621A (zh) * | 2014-10-10 | 2017-08-29 | 歌乐株式会社 | 检索系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111277485A (zh) | 2020-06-12 |
JP7176383B2 (ja) | 2022-11-22 |
US11354516B2 (en) | 2022-06-07 |
JP2020091647A (ja) | 2020-06-11 |
US20200184010A1 (en) | 2020-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102498091B1 (ko) | 운전 제어 장치 및 운전 제어 방법, 그리고 프로그램 | |
JP6369611B2 (ja) | ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム | |
JP2023168361A (ja) | 情報処理システム、情報処理方法及びプログラム | |
US20180053102A1 (en) | Individualized Adaptation of Driver Action Prediction Models | |
US11961397B1 (en) | Processing system having a machine learning engine for providing a customized driving assistance output | |
EP3357780A1 (en) | Driving control device, driving control method, and program | |
US10339398B2 (en) | Method and device for recognizing traffic signs | |
US20190120649A1 (en) | Dialogue system, vehicle including the dialogue system, and accident information processing method | |
US9644985B2 (en) | Navigation device that evaluates points of interest based on user utterance | |
JP6612707B2 (ja) | 情報提供装置 | |
US10363866B2 (en) | Contextual priority signal in autonomous environment | |
CN112581750B (zh) | 车辆行驶控制方法、装置、可读存储介质及电子设备 | |
JP2016053880A (ja) | 車載システム、情報処理方法、およびコンピュータプログラム | |
CN110654331A (zh) | 车辆、车机设备及其车载助手交互方法 | |
CN109102801A (zh) | 语音识别方法和语音识别装置 | |
CN111277485B (zh) | 信息处理装置以及记录介质 | |
CN111278708B (zh) | 用于辅助驾驶的方法和装置 | |
JP6619316B2 (ja) | 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体 | |
JP2022179490A (ja) | 運転評価モデル適合装置、端末装置、制御方法、プログラム及び記憶媒体 | |
US11874129B2 (en) | Apparatus and method for servicing personalized information based on user interest | |
JP2018124097A (ja) | 車載装置、情報提供方法、情報提供システム | |
CN114148342A (zh) | 自动驾驶判断系统、自动驾驶控制系统及车辆 | |
CN113474827A (zh) | 交通环境识别装置和车辆控制装置 | |
US11914914B2 (en) | Vehicle interface control | |
US11887386B1 (en) | Utilizing an intelligent in-cabin media capture device in conjunction with a transportation matching system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |