JP7058757B2 - Information processing equipment and information processing method - Google Patents
Information processing equipment and information processing method Download PDFInfo
- Publication number
- JP7058757B2 JP7058757B2 JP2020558781A JP2020558781A JP7058757B2 JP 7058757 B2 JP7058757 B2 JP 7058757B2 JP 2020558781 A JP2020558781 A JP 2020558781A JP 2020558781 A JP2020558781 A JP 2020558781A JP 7058757 B2 JP7058757 B2 JP 7058757B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- stream
- stream data
- unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車両の情報を乗員に提示する情報処理装置および情報処理方法に関する。 The present invention relates to an information processing device and an information processing method for presenting vehicle information to an occupant.
車両の情報を直接またはクラウドと連携して乗員に提示する技術が実現されている。乗員に提示する車両の情報は、連続データであるストリームデータと、離散データである非ストリームデータとに大別される。車両に設けられた装置またはクラウドは、ストリームデータおよび非ストリームデータのうちの少なくとも1つを用いて必要な情報を生成して乗員に提示している。従来、ストリームデータをデータ処理する技術が開示されている(例えば、特許文献1参照)。 The technology to present vehicle information to occupants directly or in cooperation with the cloud has been realized. Vehicle information presented to occupants is roughly divided into stream data, which is continuous data, and non-stream data, which is discrete data. A device or cloud installed in the vehicle uses at least one of stream data and non-stream data to generate the necessary information and present it to the occupants. Conventionally, a technique for processing stream data has been disclosed (see, for example, Patent Document 1).
有用な情報を乗員に提示するために、ストリームデータと非ストリームデータとを連携させる場合がある。一般的に、ストリームデータと非ストリームデータとでは特性が異なるため、ストリームデータおよび非ストリームデータを別々にデータ処理することがある。別々にデータ処理されたストリームデータと非ストリームデータとを車両に設けられた装置が連携させる際、ストリームデータと非ストリームデータとを同期させる必要があるなど、連携させるための処理が煩雑になるという問題がある。一方、別々にデータ処理されたストリームデータおよび非ストリームデータをクラウドが連携させる場合も同様に、連携させるための処理が煩雑になるという問題がある。特許文献1では、ストリームデータと非ストリームデータとを連携させる処理について言及していないため、上記のように連携させるための処理が煩雑になるという問題がある。 Stream data and non-stream data may be linked in order to present useful information to the occupants. In general, stream data and non-stream data have different characteristics, so stream data and non-stream data may be processed separately. When a device installed in a vehicle links stream data and non-stream data that have been separately processed, the processing for linking becomes complicated, such as the need to synchronize the stream data and non-stream data. There's a problem. On the other hand, when the cloud links stream data and non-stream data that have been separately processed, there is a problem that the processing for linking is complicated. Since Patent Document 1 does not mention the process of linking stream data and non-stream data, there is a problem that the process for linking as described above becomes complicated.
このように、従来では、ストリームデータと非ストリームデータとを連携させるための処理が煩雑となり、データ処理の負荷が大きくなるという問題があった。 As described above, conventionally, there has been a problem that the processing for linking stream data and non-stream data becomes complicated and the load of data processing becomes large.
本発明は、このような問題を解決するためになされたものであり、データ処理の負荷を軽減することが可能な情報処理装置および情報処理方法を提供することを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to provide an information processing apparatus and an information processing method capable of reducing the load of data processing.
上記の課題を解決するために、本発明による情報処理装置は、連続データであるストリームデータと、離散データである非ストリームデータとを取得するデータ取得部と、予め定められた変換定義に基づいて、データ取得部が取得した非ストリームデータのうちのストリームデータと連携させるべき非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換し、ストリームデータと連携させない非ストリームデータを模擬ストリームデータに変換しないデータ変換部と、データ取得部が取得したストリームデータと、データ変換部が変換した模擬ストリームデータとに対して予め定められたストリーム処理を行うストリーム処理部と、データ取得部が取得した非ストリームデータのうちのストリームデータと連携させない非ストリームデータに対して予め定められた非ストリーム処理を行う非ストリーム処理部とを備え、ストリームデータは、映像データ、音声データ、楽曲データ、車両の周辺に存在する物体の有無を示すリモートセンシングデータ、車両の状態を示す車両状態データ、および車両の乗員の身体的な状態を示す乗員状態データのうちの少なくとも1つを含み、非ストリームデータは、車両の乗員の視線の動きを示す視線データ、乗員の操作状態を示す操作状態データ、および現在の時刻を示す時刻データのうちの少なくも1つを含む。 In order to solve the above problems, the information processing apparatus according to the present invention is based on a data acquisition unit that acquires stream data that is continuous data and non-stream data that is discrete data, and a predetermined conversion definition. , The non-stream data that should be linked with the stream data among the non-stream data acquired by the data acquisition unit is converted into simulated stream data that simulates the stream data, and the non-stream data that is not linked with the stream data is converted into simulated stream data. A stream processing unit that performs predetermined stream processing on the data conversion unit that does not perform, the stream data acquired by the data acquisition unit, and the simulated stream data converted by the data conversion unit, and a non-stream acquired by the data acquisition unit. It is equipped with a non-stream processing unit that performs predetermined non-stream processing for non-stream data that is not linked with stream data among the data, and the stream data exists in the video data, audio data, music data, and the periphery of the vehicle. The non-stream data includes at least one of remote sensing data indicating the presence or absence of an object, vehicle condition data indicating the condition of the vehicle, and occupant condition data indicating the physical condition of the occupant of the vehicle, and the non-stream data is the occupant of the vehicle. It includes at least one of the line-of-sight data indicating the movement of the line of sight, the operation state data indicating the operation state of the occupant, and the time data indicating the current time .
本発明によると、情報処理装置は、予め定められた変換定義に基づいて、データ取得部が取得した非ストリームデータのうちのストリームデータと連携させるべき非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換し、ストリームデータと連携させない非ストリームデータを模擬ストリームデータに変換しないデータ変換部を備えるため、データ処理の負荷を軽減することが可能となる。
According to the present invention, the information processing apparatus simulates a simulated stream of non-stream data to be linked with stream data among the non-stream data acquired by the data acquisition unit based on a predetermined conversion definition. Since it is provided with a data conversion unit that converts non-stream data that is converted into data and does not link with stream data into simulated stream data, it is possible to reduce the load of data processing.
本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 Objectives, features, embodiments, and advantages of the present invention will be made more apparent with the following detailed description and accompanying drawings.
本発明の実施の形態について、図面に基づいて以下に説明する。 Embodiments of the present invention will be described below with reference to the drawings.
<実施の形態>
<構成>
図1は、本実施の形態による情報処理装置1の構成の一例を示すブロック図である。なお、図1では、本実施の形態による情報処理装置を構成する必要最小限の構成を示している。<Embodiment>
<Structure>
FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus 1 according to the present embodiment. Note that FIG. 1 shows the minimum necessary configuration for configuring the information processing apparatus according to the present embodiment.
図1に示すように、情報処理装置1は、データ取得部2と、データ変換部3と、ストリーム処理部4と、非ストリーム処理部5とを備えている。データ取得部2は、連続データであるストリームデータと、離散データである非ストリームデータとを取得する。
As shown in FIG. 1, the information processing apparatus 1 includes a
データ変換部3は、予め定められた変換定義に基づいて、データ取得部2が取得した非ストリームデータのうちのストリームデータと連携させるべき非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換する。また、データ変換部3は、ストリームデータ、およびストリームデータと連携させない非ストリームデータについては変換処理を行わない。
The
ストリーム処理部4は、データ取得部2がストリームデータと、データ変換部3が変換した模擬ストリームデータとに対して予め定められたストリーム処理を行う。非ストリーム処理部5は、データ取得部2が取得した非ストリームデータのうちのストリームデータと連携させない非ストリームデータに対して予め定められた非ストリーム処理を行う。
In the
次に、図1に示す情報処理装置1を含む情報処理装置の他の構成について説明する。 Next, another configuration of the information processing apparatus including the information processing apparatus 1 shown in FIG. 1 will be described.
図2は、他の構成に係る情報処理装置6の構成の一例を示すブロック図である。
FIG. 2 is a block diagram showing an example of the configuration of the
図2に示すように、情報処理装置6は、データ取得部2と、データ変換部3と、データ振分部7と、ストリーム処理部4と、非ストリーム処理部5と、データ利用部8と、変換定義9と、振分定義10とを備えている。なお、情報処理装置6は、車両に搭載されているものとする。例えば、情報処理装置6は、車両に搭載されたナビゲーション装置に含まれてもよく、情報処理装置6が単体で車両に搭載されてもよい。
As shown in FIG. 2, the
データ取得部2は、カメラ11、センサ12、マイク13、タッチパネル14、およびECU(Electronic Control Unit)15から、ストリームデータと非ストリームデータとを取得する。ストリームデータとしては、例えば、カメラ11が撮影した映像データ、マイク13などから取得した音声データ、楽曲データ、LIDAR(Light Detection and Ranging)またはレーダなどから取得したリモートセンシングデータ、車両の状態を示す車両状態データ、および車両の乗員の身体的な状態を示す乗員状態データなどが挙げられる。リモートセンシングデータは、車両の周辺に存在する物体の有無を示すデータであり、車両と物体との距離、および車両に対して物体が存在している方向を含む。車両状態データは、車両の速度、加速度、および舵角などを含む。乗員状態データは、車両の乗員の脈拍値などを含む。ECU15は、車両の状態を検出するセンサからデータを取得する。
The
また、非ストリームデータとしては、車両の乗員の視線の動きを示す視線データ、乗員の操作状態を示す操作状態データ、時刻データ、GPS(Global Positioning System)などから取得した車両の現在位置を示す位置データなどが挙げられる。非ストリームデータは、一定周期で取得するデータでもよく、不定期に取得するデータでもよい。不定期に取得するデータとしては、例えば、車両の急ブレーキ時に検出した加速度データなどが挙げられる。ECU15は、時刻データを検出し、GPSなどから位置データを取得する。
The non-stream data includes line-of-sight data indicating the movement of the line of sight of the occupant of the vehicle, operation state data indicating the operation state of the occupant, time data, and a position indicating the current position of the vehicle acquired from GPS (Global Positioning System). Data etc. can be mentioned. The non-stream data may be data acquired at regular intervals or may be acquired irregularly. Examples of the data acquired irregularly include acceleration data detected during sudden braking of the vehicle. The
カメラ11は、車両に設けられたカメラであり、例えば、車両の前方を撮影するカメラ、および車内を撮影するカメラなどが挙げられる。カメラ11が車内を撮影するカメラである場合、乗員の視線の動きを検出することができる。センサ12は、車両に設けられたセンサであり、例えばLIDARおよびレーダを含む。また、センサ12は、例えば、乗員の身体的な状態、および乗員の視線の動きなどを検出することができる。なお、乗員の視線の動きを検出するときは、カメラ11とセンサ12とを組み合わせてもよい。
The
マイク13は、乗員の音声による操作状態を検出することができる。タッチパネル14は、乗員のタッチ操作による操作状態を検出することができる。ECU15は、車両状態データ、時刻データ、および位置データを収集することができる。なお、ECU15は、センサ12が検出した情報を収集してもよい。
The
データ変換部3は、予め定められた変換定義9に基づいて、データ取得部2が取得した非ストリームデータのうちのストリームデータと連携させるべき非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換する。また、データ変換部3は、ストリームデータ、およびストリームデータと連携させない非ストリームデータについては変換処理を行わない。ストリームデータと連携させるべき非ストリームデータとしては、例えば、ストリームデータである映像データに連携させる非ストリームデータである加速度データなどが挙げられる。
The
ここで、変換定義9について説明する。図3は、変換定義9の一例を示す図である。なお、変換定義9は、図示しない記憶部に記憶されているものとする。
Here, the
図3に示すように、変換定義9は、「データ名」、「種別」、および「変換定義」で構成されている。「データ名」は、データ取得部2が取得した各種データの名称を示している。「種別」は、ストリーム処理または非ストリーム処理のいずれに用いるデータであるのかを示している。「変換定義」は、非ストリームデータをストリームデータに変換するときの変換方法を示している。
As shown in FIG. 3, the
例えば、非ストリームデータである視線データは、非ストリーム処理に用いるデータである。従って、視線データは、データ変換部3によって模擬ストリームデータに変換されない。
For example, the line-of-sight data, which is non-stream data, is data used for non-stream processing. Therefore, the line-of-sight data is not converted into simulated stream data by the
非ストリームデータである操作状態データは、ストリーム処理に用いるデータである。従って、操作状態データは、データ変換部3によって模擬ストリームデータに変換される。例えば、データ変換部3は、操作状態データに対して「0で補完」することによって模擬ストリームデータに変換する。
The operation state data, which is non-stream data, is data used for stream processing. Therefore, the operation state data is converted into simulated stream data by the
ストリームデータである映像データは、ストリーム処理に用いるデータである。従って、映像データは、データ変換部3によって模擬ストリームデータに変換されない。
Video data, which is stream data, is data used for stream processing. Therefore, the video data is not converted into simulated stream data by the
非ストリームデータである加速度データは、ストリーム処理に用いるデータである。従って、加速度データは、データ変換部3によって模擬ストリームデータに変換される。例えば、データ変換部3は、加速度データに対して「0で補完」することによって模擬ストリームデータに変換する。
Acceleration data, which is non-stream data, is data used for stream processing. Therefore, the acceleration data is converted into simulated stream data by the
なお、上記では、データ変換部3が、非ストリームデータに対して「0で補完」する場合について説明したが、これに限るものではない。例えば、データ変換部3は、データ取得部2が取得した非ストリームデータの近似値を補完してもよく、他の任意の値を補完してもよい。
In the above, the case where the
データ変換部3は、連携させるストリームデータと時間的に同期するように、非ストリームを模擬ストリームに変換する。変換時のサンプリングレートは、変換定義9に含まれているものとする。
The
変換定義9は、例えばデータ利用部8およびHMI17を介して任意に変更可能である。
The
図2の説明に戻り、データ振分部7は、予め定められた振分定義10に基づいて、ストリームデータおよび模擬ストリームデータをストリーム処理部4に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分ける。
Returning to the description of FIG. 2, the data distribution unit 7 transfers the stream data and the simulated stream data to the
ここで、振分定義10について説明する。図4は、振分定義10の一例を示す図である。なお、振分定義10は、図示しない記憶部に記憶されているものとする。
Here, the
図4に示すように、振分定義10は、「データ名」および「種別」で構成されている。「データ名」は、データ取得部2が取得した各種データの名称を示している。「種別」は、ストリーム処理または非ストリーム処理のいずれに用いるデータであるのかを示している。
As shown in FIG. 4, the
例えば、視線データは、非ストリーム処理に用いるデータである。従って、データ振分部7は、視線データを非ストリーム処理部5に振り分ける。
For example, the line-of-sight data is data used for non-stream processing. Therefore, the data distribution unit 7 distributes the line-of-sight data to the
操作状態データ、映像データ、および加速度データは、ストリーム処理に用いるデータである。従って、データ振分部7は、操作状態データ、映像データ、および加速度データをストリーム処理部4に振り分ける。
The operation state data, video data, and acceleration data are data used for stream processing. Therefore, the data distribution unit 7 distributes the operation state data, the video data, and the acceleration data to the
なお、図4における「操作状態データ+映像データ+加速度データ」は、操作状態データ、映像データ、および加速度データが連携してストリーム処理部4でストリーム処理されることを示している。操作状態データおよび加速度データは、データ変換部3で模擬ストリームデータに変換されたデータである。すなわち、操作状態データおよび加速度データは、映像データと連携させるべきデータである。
The "operation state data + video data + acceleration data" in FIG. 4 indicates that the operation state data, the video data, and the acceleration data are linked and stream-processed by the
振分定義10は、例えばデータ利用部8およびHMI17を介して任意に変更可能である。
The
図2の説明に戻り、ストリーム処理部4は、データ振分部7によって振り分けられたストリームデータおよび模擬ストリームデータに対して予め定められたストリーム処理を行う。具体的には、ストリーム処理部4は、予め定められた処理フロー定義に基づいて、ストリームデータおよび模擬ストリームデータに対してストリーム処理を行う。なお、ストリーム処理部4は、処理フロー定義を保持しているものとする。
Returning to the description of FIG. 2, the
ここで、処理フロー定義について説明する。図5は、処理フロー定義の一例を示す図であり、ドライブレコーダーサービスを実現するサービスアプリケーションを実行する処理フロー定義の一例を示している。サービスアプリケーションとは、車両の情報を直接またはクラウドと連携して乗員に提示するサービスを実現するソフトウェアのことをいう。ドライブレコーダーサービスは、乗員に提示するサービスの1つである。 Here, the processing flow definition will be described. FIG. 5 is a diagram showing an example of a processing flow definition, and shows an example of a processing flow definition for executing a service application that realizes a drive recorder service. A service application is software that realizes a service that presents vehicle information to occupants directly or in cooperation with the cloud. The drive recorder service is one of the services presented to the occupants.
図5に示すように、処理フロー定義は、「前方カメラ」、「加速度」、「同期」、「急ブレーキ」、「動画抽出」、および「送信」の各処理機能が順序付けられて構成されている。各処理機能は、ソフトウェアで構成されている。 As shown in FIG. 5, the processing flow definition is configured by ordering the processing functions of "forward camera", "acceleration", "synchronization", "sudden braking", "video extraction", and "transmission". There is. Each processing function is composed of software.
「前方カメラ」は、車両前方を撮影したカメラから映像を取得する処理機能である。「加速度」は、車両に設けられた加速度センサから加速度データを取得する処理機能である。すなわち、「前方カメラ」および「加速度」は、映像および加速度データなどのデータソースを収集する処理機能である。なお、データソースを収集する処理機能としては、「前方カメラ」および「加速度」以外に、例えば、車内を撮影したカメラから映像を取得する処理機能である「車内カメラ」、運転者などの視線を検出する処理機能である「視線座標」、レーザ光を用いて車両の周辺に存在する歩行者および物体を検出する処理機能である「LIDAR」、およびミリ波を用いて車両の周辺に存在する歩行者および物体を検出する処理機能である「ミリ波」などが挙げられる。 The "front camera" is a processing function for acquiring an image from a camera that has taken a picture of the front of the vehicle. "Acceleration" is a processing function for acquiring acceleration data from an acceleration sensor provided in a vehicle. That is, the "forward camera" and "acceleration" are processing functions for collecting data sources such as video and acceleration data. In addition to the "front camera" and "acceleration", the processing functions for collecting data sources include, for example, the "in-vehicle camera", which is a processing function for acquiring images from a camera that has taken a picture of the inside of the vehicle, and the line of sight of the driver. "Line-of-sight coordinates" which is a processing function to detect, "LIDAR" which is a processing function to detect pedestrians and objects existing around the vehicle using laser light, and walking existing around the vehicle using millimeter waves. Examples include "millimeter wave" which is a processing function for detecting a person and an object.
「同期」は、複数のデータソースの同期を取る処理機能である。図5の例では、前方カメラから取得した映像と、加速度センサから取得した加速度データとの同期を取る。 "Synchronization" is a processing function that synchronizes multiple data sources. In the example of FIG. 5, the image acquired from the front camera and the acceleration data acquired from the acceleration sensor are synchronized.
「急ブレーキ」は、加速データに基づいて車両の急ブレーキを検出する処理機能であり、処理フロー定義に基づくデータ処理の結果を送信するトリガとなる。なお、当該トリガとなる処理機能としては、「急ブレーキ」以外に、例えば、運転者などの視線が予め定められた方向であることを検出する処理機能である「視線注目」、車両の急加速を検出する処理機能である「急加速」、および定周期でデータソースを送信する処理機能である「定周期」などが挙げられる。 "Sudden braking" is a processing function for detecting sudden braking of a vehicle based on acceleration data, and is a trigger for transmitting the result of data processing based on the processing flow definition. In addition to "sudden braking", the processing function that serves as the trigger includes, for example, "line-of-sight attention", which is a processing function for detecting that the driver's line of sight is in a predetermined direction, and sudden acceleration of the vehicle. Examples include "rapid acceleration", which is a processing function for detecting data sources, and "constant cycle", which is a processing function for transmitting a data source at a fixed cycle.
「動画抽出」は、カメラが撮影した映像から一定時間内の動画を抽出する処理機能であり、処理フロー定義に基づくデータ処理の結果として送信すべき情報を生成する。データ処理の結果として送信すべき情報を生成する処理機能としては、「動画抽出」以外に、例えば、複数の画像から少なくとも1つの画像を抽出する「画像抽出」、地図を生成する「地図生成」、および運転のリスクに関する情報を生成する「リスク情報」などが挙げられる。 "Movie extraction" is a processing function for extracting a moving image within a certain period of time from a video taken by a camera, and generates information to be transmitted as a result of data processing based on a processing flow definition. In addition to "video extraction", the processing functions that generate information to be transmitted as a result of data processing include, for example, "image extraction" that extracts at least one image from a plurality of images, and "map generation" that generates a map. , And "risk information" that generates information about driving risks.
このように、ストリーム処理部4は、処理フロー定義に従って、予め定められたイベントが生じたときにストリームデータおよび模擬ストリームデータの一部を切り出す処理を行う。そして、ストリーム処理部4は、切り出したデータをデータ利用部8に送り、その他のデータを破棄する。具体的には、ストリーム処理部4は、予め定められた時点または予め定められた時間範囲におけるストリームデータおよび模擬ストリームデータの一部を切り出す。予め定められた時点としては、例えば、イベントが発生した時点、およびイベントが発生した時点よりも前または後の時点を含む。予め定められた時間範囲としては、例えば、イベントが発生した時点の前後数秒間、イベントが発生した時点までの数秒間、およびイベントが発生した時点から数秒間などを含む。
In this way, the
なお、ストリームデータが映像データである場合、ストリーム処理部4は、映像データの予め定められた領域を切り出す処理を行ってもよい。例えば、ストリーム処理部4は、センサ12が検出した運転者の視線データに基づいて、当該運転者の視線を基準とする予め定められた範囲に相当する映像の領域を切り出す処理を行ってもよい。この場合、非ストリームデータである視線データは、データ変換部3で模擬ストリームデータに変換され、ストリームデータである映像データに同期されているものとする。
When the stream data is video data, the
処理フロー定義は、例えばデータ利用部8およびHMI17を介して任意に変更可能である。
The processing flow definition can be arbitrarily changed via, for example, the
図2の説明に戻り、非ストリーム処理部5は、データ振分部7によって振り分けられた非ストリームデータに対して予め定められた非ストリーム処理を行う。
Returning to the description of FIG. 2, the
データ利用部8は、ストリーム処理部4でストリーム処理された第1データと、非ストリーム処理部5で非ストリーム処理された第2データとを利用する。
The
具体的には、データ利用部8は、ストリーム処理部4でストリーム処理された第1データと、非ストリーム処理部5で非ストリーム処理された第2データとを、そのままクラウド16に送信する。クラウド16では、データ利用部8から取得した第1データおよび第2データを用いて車両の乗員に提示する情報を生成し、当該車両の乗員に提示する。この場合、クラウド16が生成した情報は、HMI17を介して乗員に提示してもよい。
Specifically, the
また、データ利用部8は、ストリーム処理部4でストリーム処理された第1データと、非ストリーム処理部5で非ストリーム処理された第2データとを用いて車両の乗員に提示する情報を生成し、当該情報をHMI(Human Machine Interface)17を介して乗員に提示する。
Further, the
なお、情報処理装置6は、クラウド16と連携してAI(Artificial Intelligence)アシスタントを実現することができる。この場合、データ利用部8は、AIアシスタントの実行に必要なデータをクラウド16に送信する。データ利用部8がクラウド16に送信するデータとしては、例えば、音声データと位置データとを組み合わせたデータ、すなわちストリーム処理部4でストリーム処理が行われた第1データが挙げられる。この場合、非ストリームデータである位置データは、データ変換部3で模擬ストリームデータに変換され、ストリームデータである音声データに同期しているものとする。クラウド16は、データ利用部8から取得したデータを用いてAIアシスタントの実行に必要な処理を行い、当該処理の結果を情報処理装置6に送信する。
The
図6は、情報処理装置6のハードウェア構成の一例を示すブロック図である。
FIG. 6 is a block diagram showing an example of the hardware configuration of the
情報処理装置6におけるデータ取得部2、データ変換部3、データ振分部7、ストリーム処理部4、非ストリーム処理部5、およびデータ利用部8の各機能は、処理回路により実現される。すなわち、情報処理装置6は、ストリームデータおよび非ストリームデータを取得し、ストリームデータと連携させるべき非ストリームデータを模擬ストリームデータに変換し、ストリームデータおよび模擬ストリームデータをストリーム処理部に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分け、ストリームデータおよび模擬ストリームデータに対してストリーム処理を行い、非ストリームデータに対して非ストリーム処理を行い、ストリーム処理された第1データと非ストリーム処理された第2データとを利用するための処理回路を備える。処理回路は、メモリ19に格納されたプログラムを実行するプロセッサ18(中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)である。
Each function of the
情報処理装置6におけるデータ取得部2、データ変換部3、データ振分部7、ストリーム処理部4、非ストリーム処理部5、およびデータ利用部8の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ19に格納される。処理回路は、メモリ19に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、情報処理装置6は、ストリームデータおよび非ストリームデータを取得するステップ、ストリームデータと連携させるべき非ストリームデータを模擬ストリームデータに変換するステップ、ストリームデータおよび模擬ストリームデータをストリーム処理部に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分けるステップ、ストリームデータおよび模擬ストリームデータに対してストリーム処理を行うステップ、非ストリームデータに対して非ストリーム処理を行うステップ、ストリーム処理された第1データと非ストリーム処理された第2データとを利用するステップが結果的に実行されることになるプログラムを格納するためのメモリ19を備える。また、これらのプログラムは、データ取得部2、データ変換部3、データ振分部7、ストリーム処理部4、非ストリーム処理部5、およびデータ利用部8の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリとは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、DVD等、または、今後使用されるあらゆる記憶媒体であってもよい。
The functions of the
<動作>
図7は、情報処理装置6の動作の一例を示すフローチャートである。<Operation>
FIG. 7 is a flowchart showing an example of the operation of the
ステップS11において、データ取得部2は、カメラ11、センサ12、マイク13、タッチパネル14、およびECU15から、ストリームデータおよび非ストリームデータを取得する。
In step S11, the
ステップS12において、データ変換部3は、変換定義9に基づいて、データ取得部2が取得した非ストリームデータのうち、ストリームデータと連携させるべき非ストリームデータがあるか否かを判断する。ストリームデータと連携させるべき非ストリームデータがある場合は、ステップS13に移行する。ストリームデータと連携させるべき非ストリームデータがない場合は、ステップS14に移行する。
In step S12, the
ステップS13において、データ変換部3は、変換定義9に基づいて、非ストリームデータを模擬ストリームデータに変換する。
In step S13, the
ステップS14において、データ振分部7は、振分定義10に基づいて、ストリームデータおよび模擬ストリームデータをストリーム処理部4に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分ける。
In step S14, the data distribution unit 7 distributes stream data and simulated stream data to the
ステップS15において、ストリーム処理部4は、データ振分部7によって振り分けられたストリームデータおよび模擬ストリームデータに対して予め定められたストリーム処理を行う。
In step S15, the
ステップS16において、非ストリーム処理部5は、データ振分部7によって振り分けられた非ストリームデータに対して予め定められた非ストリーム処理を行う。
In step S16, the
なお、図7では、ストリーム処理を行った後に非ストリーム処理を行う場合を示しているが、これに限るものではなく、非ストリーム処理を行った後にストリーム処理を行ってもよい。 Note that FIG. 7 shows a case where the non-stream processing is performed after the stream processing is performed, but the present invention is not limited to this, and the stream processing may be performed after the non-stream processing is performed.
図8は、データ変換部3の動作の一例を示すフローチャートであり、図7のステップS13の詳細を示している。以下、データ変換部3は、データ取得部2が取得した図9に示す非ストリームデータである位置データを模擬ストリームデータに変換する場合について説明する。図9において、「時刻」は位置データを取得した年月日を示しており、例えば「20180622151933」は「2018年6月22日15時19分33秒」を表している。
FIG. 8 is a flowchart showing an example of the operation of the
ステップS21において、データ変換部3は、変換定義9に含まれるサンプリングレートに基づいた周期のデータ列を準備する。具体的には、図10に示すようなデータ列を準備する。サンプリングレートは、位置データと連携するストリームデータと時間的に同期するように設定されている。
In step S21, the
ステップS22において、データ変換部3は、時刻情報に基づいて非ストリームデータをデータ列に書き込む。具体的には、図11に示すように、データ変換部3は、時刻情報に基づいて位置データをデータ列に書き込む。
In step S22, the
ステップS23において、データ変換部3は、データ列に書き込まれていない箇所にデータを補完する。具体的には、図12に示すように、データ変換部3は、ステップS22で書き込んだ各位置データの近似値を補完する。なお、図12において、データ変換部3は、データ列に書き込まれていない箇所に0を補完してもよい。
In step S23, the
ステップS24において、データ変換部3は、ステップS23で補完したデータ列を模擬ストリームデータとし、当該模擬ストリームデータを連携するストリームデータと同期させる。
In step S24, the
図13は、データ振分部7の動作の一例を示すフローチャートであり、図7のステップS14の詳細を示している。 FIG. 13 is a flowchart showing an example of the operation of the data distribution unit 7, and shows the details of step S14 in FIG. 7.
ステップS31において、データ振分部7は、振分定義10に基づいて、ストリームデータ、非ストリームデータ、および模擬ストリームデータのそれぞれをストリーム処理部4または非ストリーム処理部5のいずれに振り分けるのかを判断する。
In step S31, the data distribution unit 7 determines whether to distribute each of the stream data, the non-stream data, and the simulated stream data to the
ステップS32において、データ振分部7は、ストリームデータおよび模擬ストリームデータをストリーム処理部4に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分ける。
In step S32, the data distribution unit 7 distributes the stream data and the simulated stream data to the
<効果>
従来、ストリームデータと非ストリームデータとを車両に設けられた装置またはクラウドで連携させる際、連携させるための処理が煩雑になってデータ処理の負荷がかかるという問題があった。一方、本実施の形態によれば、データ変換部3はデータ取得部2からリアルタイムにストリームデータおよび非ストリームデータを取得しており、取得する両データの時間的なずれはほぼない。従って、データ変換部3は、変換定義9に基づいて、非ストリームデータを模擬ストリームデータに変換し、ストリームデータと模擬ストリームデータとの同期処理を容易に行うことができる。その結果、従来よりもデータ処理の負荷を軽減することが可能となる。<Effect>
Conventionally, when the stream data and the non-stream data are linked by a device provided in the vehicle or the cloud, there is a problem that the process for linking becomes complicated and the load of data processing is increased. On the other hand, according to the present embodiment, the
本実施の形態によれば、データ変換部3は、全ての非ストリームデータを模擬ストリームに変換するのではなく、変換定義9に基づいて必要な非ストリームデータを模擬ストリームデータに変換している。従って、全ての非ストリームデータを模擬ストリームに変換する場合よりもデータ処理の負荷を軽減することができる。
According to the present embodiment, the
本実施の形態によれば、データ振分部7は、振分定義10に基づいて、ストリームデータおよび模擬ストリームデータをストリーム処理部4に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分ける。従って、ストリームデータ処理を行う必要がない非ストリームデータについては、当該非ストリームデータが必要な時に非ストリームデータ処理を行うことが可能となり、全体的なデータ処理の負荷を軽減することができる。
According to the present embodiment, the data distribution unit 7 distributes stream data and simulated stream data to the
一般的に、車種によって車両に搭載されるハードウェア構成が異なり、当該ハードウェアから取得可能なデータも異なるため、サービスアプリケーションの開発者は車両ごとに搭載されるハードウェア構成を考慮してサービスアプリケーションを開発する必要があった。一方、本実施の形態によれば、ハードウェア構成の変更に合わせて変換定義9を変更すればよいため、サービスアプリケーションの開発者の負担を軽減することができる。
In general, the hardware configuration installed in a vehicle differs depending on the vehicle type, and the data that can be acquired from the hardware also differs. Therefore, the service application developer considers the hardware configuration installed in each vehicle and considers the service application. Had to develop. On the other hand, according to the present embodiment, since the
なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。 In the present invention, the embodiments can be appropriately modified or omitted within the scope of the invention.
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is exemplary in all embodiments and the invention is not limited thereto. It is understood that innumerable variations not illustrated can be assumed without departing from the scope of the present invention.
1 情報処理装置、2 データ取得部、3 データ変換部、4 ストリーム処理部、5 非ストリーム処理部、6 情報処理装置、7 データ振分部、8 データ利用部、9 変換定義、10 振分定義、11 カメラ、12 センサ、13 マイク、14 タッチパネル、15 ECU、16 クラウド、17 HMI、18 プロセッサ、19 メモリ。 1 Information processing device, 2 Data acquisition unit, 3 Data conversion unit, 4 Stream processing unit, 5 Non-stream processing unit, 6 Information processing device, 7 Data distribution unit, 8 Data utilization unit, 9 Conversion definition, 10 Distribution definition , 11 cameras, 12 sensors, 13 microphones, 14 touch panels, 15 ECUs, 16 clouds, 17 HMIs, 18 processors, 19 memories.
Claims (12)
予め定められた変換定義に基づいて、前記データ取得部が取得した前記非ストリームデータのうちの前記ストリームデータと連携させるべき前記非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換し、前記ストリームデータと連携させない前記非ストリームデータを前記模擬ストリームデータに変換しないデータ変換部と、
前記データ取得部が取得した前記ストリームデータと、前記データ変換部が変換した前記模擬ストリームデータとに対して予め定められたストリーム処理を行うストリーム処理部と、
前記データ取得部が取得した前記非ストリームデータのうちの前記ストリームデータと連携させない前記非ストリームデータに対して予め定められた非ストリーム処理を行う非ストリーム処理部と、
を備え、
前記ストリームデータは、映像データ、音声データ、楽曲データ、車両の周辺に存在する物体の有無を示すリモートセンシングデータ、前記車両の状態を示す車両状態データ、および前記車両の乗員の身体的な状態を示す乗員状態データのうちの少なくとも1つを含み、
前記非ストリームデータは、車両の乗員の視線の動きを示す視線データ、前記乗員の操作状態を示す操作状態データ、および現在の時刻を示す時刻データのうちの少なくも1つを含む、情報処理装置。 A data acquisition unit that acquires stream data that is continuous data and non-stream data that is discrete data,
Based on a predetermined conversion definition, the non-stream data to be linked with the stream data among the non-stream data acquired by the data acquisition unit is converted into simulated stream data simulating the stream data, and the above-mentioned A data conversion unit that does not convert the non-stream data that is not linked to the stream data into the simulated stream data ,
A stream processing unit that performs predetermined stream processing on the stream data acquired by the data acquisition unit and the simulated stream data converted by the data conversion unit.
A non-stream processing unit that performs predetermined non-stream processing on the non-stream data that is not linked to the stream data among the non-stream data acquired by the data acquisition unit.
Equipped with
The stream data includes video data, audio data, music data, remote sensing data indicating the presence or absence of an object existing around the vehicle, vehicle state data indicating the state of the vehicle, and the physical state of the occupant of the vehicle. Contains at least one of the occupant status data shown
The non-stream data is an information processing apparatus including at least one of line-of-sight data indicating the movement of the line-of-sight of a vehicle occupant, operation state data indicating the operation state of the occupant, and time data indicating the current time. ..
前記ストリーム処理部は、前記映像データの予め定められた領域を切り出すことを特徴とする、請求項4に記載の情報処理装置。 The stream data includes video data and includes video data.
The information processing apparatus according to claim 4, wherein the stream processing unit cuts out a predetermined area of the video data.
前記データ利用部は、前記第1データおよび前記第2データを外部のクラウドに送信することを特徴とする、請求項1に記載の情報処理装置。 A data utilization unit that uses the first data that the stream processing unit has performed the stream processing and the second data that the non-stream processing unit has performed the non-stream processing is further provided.
The information processing apparatus according to claim 1, wherein the data utilization unit transmits the first data and the second data to an external cloud.
予め定められた変換定義に基づいて、取得した前記非ストリームデータのうちの前記ストリームデータと連携させるべき前記非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換し、前記ストリームデータと連携させない前記非ストリームデータを前記模擬ストリームデータに変換せず、
取得した前記ストリームデータと、変換した前記模擬ストリームデータとに対して予め定められたストリーム処理を行い、
取得した前記非ストリームデータのうちの前記ストリームデータと連携させない前記非ストリームデータに対して予め定められた非ストリーム処理を行い、
前記ストリームデータは、映像データ、音声データ、楽曲データ、車両の周辺に存在する物体の有無を示すリモートセンシングデータ、前記車両の状態を示す車両状態データ、および前記車両の乗員の身体的な状態を示す乗員状態データのうちの少なくとも1つを含み、
前記非ストリームデータは、車両の乗員の視線の動きを示す視線データ、前記乗員の操作状態を示す操作状態データ、および現在の時刻を示す時刻データのうちの少なくも1つを含む、情報処理方法。 Get stream data that is continuous data and non-stream data that is discrete data,
Based on a predetermined conversion definition, the non-stream data to be linked with the stream data among the acquired non-stream data is converted into simulated stream data simulating the stream data and not linked with the stream data. Without converting the non-stream data to the simulated stream data,
A predetermined stream process is performed on the acquired stream data and the converted simulated stream data.
Of the acquired non-stream data, the non-stream data that is not linked to the stream data is subjected to predetermined non-stream processing .
The stream data includes video data, audio data, music data, remote sensing data indicating the presence or absence of an object existing around the vehicle, vehicle state data indicating the state of the vehicle, and the physical state of the occupant of the vehicle. Contains at least one of the occupant status data shown
The non-stream data includes at least one of line-of-sight data indicating the movement of the line-of-sight of a vehicle occupant, operation state data indicating the operation state of the occupant, and time data indicating the current time. ..
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/045098 WO2020115896A1 (en) | 2018-12-07 | 2018-12-07 | Information processing device and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020115896A1 JPWO2020115896A1 (en) | 2021-09-02 |
JP7058757B2 true JP7058757B2 (en) | 2022-04-22 |
Family
ID=70973475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020558781A Active JP7058757B2 (en) | 2018-12-07 | 2018-12-07 | Information processing equipment and information processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7058757B2 (en) |
WO (1) | WO2020115896A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005236625A (en) | 2004-02-19 | 2005-09-02 | Nippon Telegr & Teleph Corp <Ntt> | Remote control system |
JP2008204304A (en) | 2007-02-22 | 2008-09-04 | Hitachi Ltd | Vehicle behavior reproduction method and system |
JP2009123182A (en) | 2007-10-23 | 2009-06-04 | Denso Corp | Safety confirmation determination device and driving teaching support system |
JP2013063737A (en) | 2011-09-20 | 2013-04-11 | Toyota Motor Corp | Vehicle stream data management system |
JP2014075035A (en) | 2012-10-04 | 2014-04-24 | Denso Corp | Operation support system and in-vehicle unit to be used for the same system |
JP2015023510A (en) | 2013-07-22 | 2015-02-02 | 矢崎エナジーシステム株式会社 | On-vehicle device |
JP2017147841A (en) | 2016-02-17 | 2017-08-24 | 富士電機株式会社 | Power conversion device |
-
2018
- 2018-12-07 JP JP2020558781A patent/JP7058757B2/en active Active
- 2018-12-07 WO PCT/JP2018/045098 patent/WO2020115896A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005236625A (en) | 2004-02-19 | 2005-09-02 | Nippon Telegr & Teleph Corp <Ntt> | Remote control system |
JP2008204304A (en) | 2007-02-22 | 2008-09-04 | Hitachi Ltd | Vehicle behavior reproduction method and system |
JP2009123182A (en) | 2007-10-23 | 2009-06-04 | Denso Corp | Safety confirmation determination device and driving teaching support system |
JP2013063737A (en) | 2011-09-20 | 2013-04-11 | Toyota Motor Corp | Vehicle stream data management system |
JP2014075035A (en) | 2012-10-04 | 2014-04-24 | Denso Corp | Operation support system and in-vehicle unit to be used for the same system |
JP2015023510A (en) | 2013-07-22 | 2015-02-02 | 矢崎エナジーシステム株式会社 | On-vehicle device |
JP2017147841A (en) | 2016-02-17 | 2017-08-24 | 富士電機株式会社 | Power conversion device |
Also Published As
Publication number | Publication date |
---|---|
WO2020115896A1 (en) | 2020-06-11 |
JPWO2020115896A1 (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240112051A1 (en) | Machine learning models operating at different frequencies for autonomous vehicles | |
EP3700198B1 (en) | Imaging device, image processing apparatus, and image processing method | |
US20200175754A1 (en) | Information processing apparatus, information processing method, program, and movable object | |
JP7259749B2 (en) | Information processing device, information processing method, program, and moving body | |
WO2021059714A1 (en) | Occupancy grid map generation device, occupancy grid map generation system, occupancy grid map generation method, and program | |
CN109118532B (en) | Visual field depth estimation method, device, equipment and storage medium | |
CN107613262B (en) | Visual information processing system and method | |
JP2010181409A (en) | Method and device for assisting vehicle driver | |
WO2022075133A1 (en) | Imaging device, information processing device, imaging system, and imaging method | |
US11971481B2 (en) | Point cloud registration for lidar labeling | |
US20170070835A1 (en) | System for generating immersive audio utilizing visual cues | |
CN108924461B (en) | Video image processing method and device | |
JP7243714B2 (en) | EXPOSURE CONTROL DEVICE, EXPOSURE CONTROL METHOD, PROGRAM, PHOTOGRAPHY DEVICE, AND MOBILE | |
JP2022515508A (en) | Vehicle control methods, related devices, and computer storage media | |
KR20210087495A (en) | Sensor data processing methods, devices, electronic devices and systems | |
CN114089811B (en) | Data processing method, device, equipment and storage medium | |
JP7058757B2 (en) | Information processing equipment and information processing method | |
KR102095454B1 (en) | Cloud server for connected-car and method for simulating situation | |
US20230103650A1 (en) | System and method for providing scene information | |
EP4171023A1 (en) | Computer-implemented method and computer program for generating a thumbnail from a video stream or file, and video surveillance system | |
KR101788663B1 (en) | System for processing integrated data of the ultra sonic sensors and camera on vehicle | |
US11455800B2 (en) | Roadway alert system using video stream from a smart mirror | |
JP2021018681A (en) | Data collection system, on-vehicle device, data collection device, terminal device and data collection method | |
JP7109586B2 (en) | Information processing device and information processing method | |
US11881065B2 (en) | Information recording device, information recording method, and program for recording information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7058757 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |