JP7058757B2 - Information processing equipment and information processing method - Google Patents

Information processing equipment and information processing method Download PDF

Info

Publication number
JP7058757B2
JP7058757B2 JP2020558781A JP2020558781A JP7058757B2 JP 7058757 B2 JP7058757 B2 JP 7058757B2 JP 2020558781 A JP2020558781 A JP 2020558781A JP 2020558781 A JP2020558781 A JP 2020558781A JP 7058757 B2 JP7058757 B2 JP 7058757B2
Authority
JP
Japan
Prior art keywords
data
stream
stream data
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020558781A
Other languages
Japanese (ja)
Other versions
JPWO2020115896A1 (en
Inventor
賢吾 赤穂
和代 川勝
伸俊 轟木
真奈 垰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020115896A1 publication Critical patent/JPWO2020115896A1/en
Application granted granted Critical
Publication of JP7058757B2 publication Critical patent/JP7058757B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の情報を乗員に提示する情報処理装置および情報処理方法に関する。 The present invention relates to an information processing device and an information processing method for presenting vehicle information to an occupant.

車両の情報を直接またはクラウドと連携して乗員に提示する技術が実現されている。乗員に提示する車両の情報は、連続データであるストリームデータと、離散データである非ストリームデータとに大別される。車両に設けられた装置またはクラウドは、ストリームデータおよび非ストリームデータのうちの少なくとも1つを用いて必要な情報を生成して乗員に提示している。従来、ストリームデータをデータ処理する技術が開示されている(例えば、特許文献1参照)。 The technology to present vehicle information to occupants directly or in cooperation with the cloud has been realized. Vehicle information presented to occupants is roughly divided into stream data, which is continuous data, and non-stream data, which is discrete data. A device or cloud installed in the vehicle uses at least one of stream data and non-stream data to generate the necessary information and present it to the occupants. Conventionally, a technique for processing stream data has been disclosed (see, for example, Patent Document 1).

特開2013-63737号公報Japanese Unexamined Patent Publication No. 2013-63737

有用な情報を乗員に提示するために、ストリームデータと非ストリームデータとを連携させる場合がある。一般的に、ストリームデータと非ストリームデータとでは特性が異なるため、ストリームデータおよび非ストリームデータを別々にデータ処理することがある。別々にデータ処理されたストリームデータと非ストリームデータとを車両に設けられた装置が連携させる際、ストリームデータと非ストリームデータとを同期させる必要があるなど、連携させるための処理が煩雑になるという問題がある。一方、別々にデータ処理されたストリームデータおよび非ストリームデータをクラウドが連携させる場合も同様に、連携させるための処理が煩雑になるという問題がある。特許文献1では、ストリームデータと非ストリームデータとを連携させる処理について言及していないため、上記のように連携させるための処理が煩雑になるという問題がある。 Stream data and non-stream data may be linked in order to present useful information to the occupants. In general, stream data and non-stream data have different characteristics, so stream data and non-stream data may be processed separately. When a device installed in a vehicle links stream data and non-stream data that have been separately processed, the processing for linking becomes complicated, such as the need to synchronize the stream data and non-stream data. There's a problem. On the other hand, when the cloud links stream data and non-stream data that have been separately processed, there is a problem that the processing for linking is complicated. Since Patent Document 1 does not mention the process of linking stream data and non-stream data, there is a problem that the process for linking as described above becomes complicated.

このように、従来では、ストリームデータと非ストリームデータとを連携させるための処理が煩雑となり、データ処理の負荷が大きくなるという問題があった。 As described above, conventionally, there has been a problem that the processing for linking stream data and non-stream data becomes complicated and the load of data processing becomes large.

本発明は、このような問題を解決するためになされたものであり、データ処理の負荷を軽減することが可能な情報処理装置および情報処理方法を提供することを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to provide an information processing apparatus and an information processing method capable of reducing the load of data processing.

上記の課題を解決するために、本発明による情報処理装置は、連続データであるストリームデータと、離散データである非ストリームデータとを取得するデータ取得部と、予め定められた変換定義に基づいて、データ取得部が取得した非ストリームデータのうちのストリームデータと連携させるべき非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換し、ストリームデータと連携させない非ストリームデータを模擬ストリームデータに変換しないデータ変換部と、データ取得部が取得したストリームデータと、データ変換部が変換した模擬ストリームデータとに対して予め定められたストリーム処理を行うストリーム処理部と、データ取得部が取得した非ストリームデータのうちのストリームデータと連携させない非ストリームデータに対して予め定められた非ストリーム処理を行う非ストリーム処理部とを備え、ストリームデータは、映像データ、音声データ、楽曲データ、車両の周辺に存在する物体の有無を示すリモートセンシングデータ、車両の状態を示す車両状態データ、および車両の乗員の身体的な状態を示す乗員状態データのうちの少なくとも1つを含み、非ストリームデータは、車両の乗員の視線の動きを示す視線データ、乗員の操作状態を示す操作状態データ、および現在の時刻を示す時刻データのうちの少なくも1つを含むIn order to solve the above problems, the information processing apparatus according to the present invention is based on a data acquisition unit that acquires stream data that is continuous data and non-stream data that is discrete data, and a predetermined conversion definition. , The non-stream data that should be linked with the stream data among the non-stream data acquired by the data acquisition unit is converted into simulated stream data that simulates the stream data, and the non-stream data that is not linked with the stream data is converted into simulated stream data. A stream processing unit that performs predetermined stream processing on the data conversion unit that does not perform, the stream data acquired by the data acquisition unit, and the simulated stream data converted by the data conversion unit, and a non-stream acquired by the data acquisition unit. It is equipped with a non-stream processing unit that performs predetermined non-stream processing for non-stream data that is not linked with stream data among the data, and the stream data exists in the video data, audio data, music data, and the periphery of the vehicle. The non-stream data includes at least one of remote sensing data indicating the presence or absence of an object, vehicle condition data indicating the condition of the vehicle, and occupant condition data indicating the physical condition of the occupant of the vehicle, and the non-stream data is the occupant of the vehicle. It includes at least one of the line-of-sight data indicating the movement of the line of sight, the operation state data indicating the operation state of the occupant, and the time data indicating the current time .

本発明によると、情報処理装置は、予め定められた変換定義に基づいて、データ取得部が取得した非ストリームデータのうちのストリームデータと連携させるべき非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換し、ストリームデータと連携させない非ストリームデータを模擬ストリームデータに変換しないデータ変換部を備えるため、データ処理の負荷を軽減することが可能となる。

According to the present invention, the information processing apparatus simulates a simulated stream of non-stream data to be linked with stream data among the non-stream data acquired by the data acquisition unit based on a predetermined conversion definition. Since it is provided with a data conversion unit that converts non-stream data that is converted into data and does not link with stream data into simulated stream data, it is possible to reduce the load of data processing.

本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 Objectives, features, embodiments, and advantages of the present invention will be made more apparent with the following detailed description and accompanying drawings.

本発明の実施の形態による情報処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the information processing apparatus by embodiment of this invention. 本発明の実施の形態による情報処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the information processing apparatus by embodiment of this invention. 本発明の実施の形態による変換定義の一例を示す図である。It is a figure which shows an example of the conversion definition by embodiment of this invention. 本発明の実施の形態による振分定義の一例を示す図である。It is a figure which shows an example of the distribution definition by embodiment of this invention. 本発明の実施の形態による処理フロー定義の一例を示す図である。It is a figure which shows an example of the process flow definition by embodiment of this invention. 本発明の実施の形態による情報処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the information processing apparatus by embodiment of this invention. 本発明の実施の形態による情報処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the information processing apparatus by embodiment of this invention. 本発明の実施の形態によるデータ変換部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the data conversion part by embodiment of this invention. 本発明の実施の形態によるデータ変換部の動作を説明するための図である。It is a figure for demonstrating the operation of the data conversion part by embodiment of this invention. 本発明の実施の形態によるデータ変換部の動作を説明するための図である。It is a figure for demonstrating the operation of the data conversion part by embodiment of this invention. 本発明の実施の形態によるデータ変換部の動作を説明するための図である。It is a figure for demonstrating the operation of the data conversion part by embodiment of this invention. 本発明の実施の形態によるデータ変換部の動作を説明するための図である。It is a figure for demonstrating the operation of the data conversion part by embodiment of this invention. 本発明の実施の形態によるデータ振分部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the data distribution part by embodiment of this invention.

本発明の実施の形態について、図面に基づいて以下に説明する。 Embodiments of the present invention will be described below with reference to the drawings.

<実施の形態>
<構成>
図1は、本実施の形態による情報処理装置1の構成の一例を示すブロック図である。なお、図1では、本実施の形態による情報処理装置を構成する必要最小限の構成を示している。
<Embodiment>
<Structure>
FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus 1 according to the present embodiment. Note that FIG. 1 shows the minimum necessary configuration for configuring the information processing apparatus according to the present embodiment.

図1に示すように、情報処理装置1は、データ取得部2と、データ変換部3と、ストリーム処理部4と、非ストリーム処理部5とを備えている。データ取得部2は、連続データであるストリームデータと、離散データである非ストリームデータとを取得する。 As shown in FIG. 1, the information processing apparatus 1 includes a data acquisition unit 2, a data conversion unit 3, a stream processing unit 4, and a non-stream processing unit 5. The data acquisition unit 2 acquires stream data which is continuous data and non-stream data which is discrete data.

データ変換部3は、予め定められた変換定義に基づいて、データ取得部2が取得した非ストリームデータのうちのストリームデータと連携させるべき非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換する。また、データ変換部3は、ストリームデータ、およびストリームデータと連携させない非ストリームデータについては変換処理を行わない。 The data conversion unit 3 converts the non-stream data to be linked with the stream data among the non-stream data acquired by the data acquisition unit 2 into simulated stream data simulating the stream data based on a predetermined conversion definition. do. Further, the data conversion unit 3 does not perform conversion processing on the stream data and the non-stream data that is not linked with the stream data.

ストリーム処理部4は、データ取得部2がストリームデータと、データ変換部3が変換した模擬ストリームデータとに対して予め定められたストリーム処理を行う。非ストリーム処理部5は、データ取得部2が取得した非ストリームデータのうちのストリームデータと連携させない非ストリームデータに対して予め定められた非ストリーム処理を行う。 In the stream processing unit 4, the data acquisition unit 2 performs predetermined stream processing on the stream data and the simulated stream data converted by the data conversion unit 3. The non-stream processing unit 5 performs predetermined non-stream processing on the non-stream data that is not linked with the stream data among the non-stream data acquired by the data acquisition unit 2.

次に、図1に示す情報処理装置1を含む情報処理装置の他の構成について説明する。 Next, another configuration of the information processing apparatus including the information processing apparatus 1 shown in FIG. 1 will be described.

図2は、他の構成に係る情報処理装置6の構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the configuration of the information processing apparatus 6 according to another configuration.

図2に示すように、情報処理装置6は、データ取得部2と、データ変換部3と、データ振分部7と、ストリーム処理部4と、非ストリーム処理部5と、データ利用部8と、変換定義9と、振分定義10とを備えている。なお、情報処理装置6は、車両に搭載されているものとする。例えば、情報処理装置6は、車両に搭載されたナビゲーション装置に含まれてもよく、情報処理装置6が単体で車両に搭載されてもよい。 As shown in FIG. 2, the information processing apparatus 6 includes a data acquisition unit 2, a data conversion unit 3, a data distribution unit 7, a stream processing unit 4, a non-stream processing unit 5, and a data utilization unit 8. , A conversion definition 9 and a distribution definition 10. It is assumed that the information processing device 6 is mounted on the vehicle. For example, the information processing device 6 may be included in the navigation device mounted on the vehicle, or the information processing device 6 may be mounted on the vehicle alone.

データ取得部2は、カメラ11、センサ12、マイク13、タッチパネル14、およびECU(Electronic Control Unit)15から、ストリームデータと非ストリームデータとを取得する。ストリームデータとしては、例えば、カメラ11が撮影した映像データ、マイク13などから取得した音声データ、楽曲データ、LIDAR(Light Detection and Ranging)またはレーダなどから取得したリモートセンシングデータ、車両の状態を示す車両状態データ、および車両の乗員の身体的な状態を示す乗員状態データなどが挙げられる。リモートセンシングデータは、車両の周辺に存在する物体の有無を示すデータであり、車両と物体との距離、および車両に対して物体が存在している方向を含む。車両状態データは、車両の速度、加速度、および舵角などを含む。乗員状態データは、車両の乗員の脈拍値などを含む。ECU15は、車両の状態を検出するセンサからデータを取得する。 The data acquisition unit 2 acquires stream data and non-stream data from the camera 11, the sensor 12, the microphone 13, the touch panel 14, and the ECU (Electronic Control Unit) 15. The stream data includes, for example, video data taken by the camera 11, audio data acquired from the microphone 13, music data, remote sensing data acquired from LIDAR (Light Detection and Ranging) or radar, and a vehicle indicating the state of the vehicle. Examples include state data and occupant state data indicating the physical state of the occupants of the vehicle. The remote sensing data is data indicating the presence or absence of an object existing in the vicinity of the vehicle, and includes the distance between the vehicle and the object and the direction in which the object exists with respect to the vehicle. Vehicle condition data includes vehicle speed, acceleration, steering angle, and the like. The occupant status data includes the pulse value of the occupant of the vehicle and the like. The ECU 15 acquires data from a sensor that detects the state of the vehicle.

また、非ストリームデータとしては、車両の乗員の視線の動きを示す視線データ、乗員の操作状態を示す操作状態データ、時刻データ、GPS(Global Positioning System)などから取得した車両の現在位置を示す位置データなどが挙げられる。非ストリームデータは、一定周期で取得するデータでもよく、不定期に取得するデータでもよい。不定期に取得するデータとしては、例えば、車両の急ブレーキ時に検出した加速度データなどが挙げられる。ECU15は、時刻データを検出し、GPSなどから位置データを取得する。 The non-stream data includes line-of-sight data indicating the movement of the line of sight of the occupant of the vehicle, operation state data indicating the operation state of the occupant, time data, and a position indicating the current position of the vehicle acquired from GPS (Global Positioning System). Data etc. can be mentioned. The non-stream data may be data acquired at regular intervals or may be acquired irregularly. Examples of the data acquired irregularly include acceleration data detected during sudden braking of the vehicle. The ECU 15 detects the time data and acquires the position data from GPS or the like.

カメラ11は、車両に設けられたカメラであり、例えば、車両の前方を撮影するカメラ、および車内を撮影するカメラなどが挙げられる。カメラ11が車内を撮影するカメラである場合、乗員の視線の動きを検出することができる。センサ12は、車両に設けられたセンサであり、例えばLIDARおよびレーダを含む。また、センサ12は、例えば、乗員の身体的な状態、および乗員の視線の動きなどを検出することができる。なお、乗員の視線の動きを検出するときは、カメラ11とセンサ12とを組み合わせてもよい。 The camera 11 is a camera provided in the vehicle, and examples thereof include a camera for photographing the front of the vehicle, a camera for photographing the inside of the vehicle, and the like. When the camera 11 is a camera that photographs the inside of the vehicle, it is possible to detect the movement of the line of sight of the occupant. The sensor 12 is a sensor provided in the vehicle and includes, for example, lidar and radar. Further, the sensor 12 can detect, for example, the physical condition of the occupant, the movement of the occupant's line of sight, and the like. When detecting the movement of the line of sight of the occupant, the camera 11 and the sensor 12 may be combined.

マイク13は、乗員の音声による操作状態を検出することができる。タッチパネル14は、乗員のタッチ操作による操作状態を検出することができる。ECU15は、車両状態データ、時刻データ、および位置データを収集することができる。なお、ECU15は、センサ12が検出した情報を収集してもよい。 The microphone 13 can detect the operation state by the voice of the occupant. The touch panel 14 can detect the operation state by the touch operation of the occupant. The ECU 15 can collect vehicle state data, time data, and position data. The ECU 15 may collect the information detected by the sensor 12.

データ変換部3は、予め定められた変換定義9に基づいて、データ取得部2が取得した非ストリームデータのうちのストリームデータと連携させるべき非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換する。また、データ変換部3は、ストリームデータ、およびストリームデータと連携させない非ストリームデータについては変換処理を行わない。ストリームデータと連携させるべき非ストリームデータとしては、例えば、ストリームデータである映像データに連携させる非ストリームデータである加速度データなどが挙げられる。 The data conversion unit 3 converts the non-stream data to be linked with the stream data among the non-stream data acquired by the data acquisition unit 2 into simulated stream data simulating the stream data based on the predetermined conversion definition 9. Convert. Further, the data conversion unit 3 does not perform conversion processing on the stream data and the non-stream data that is not linked with the stream data. Examples of the non-stream data to be linked with the stream data include acceleration data which is non-stream data linked with the video data which is the stream data.

ここで、変換定義9について説明する。図3は、変換定義9の一例を示す図である。なお、変換定義9は、図示しない記憶部に記憶されているものとする。 Here, the conversion definition 9 will be described. FIG. 3 is a diagram showing an example of the conversion definition 9. It is assumed that the conversion definition 9 is stored in a storage unit (not shown).

図3に示すように、変換定義9は、「データ名」、「種別」、および「変換定義」で構成されている。「データ名」は、データ取得部2が取得した各種データの名称を示している。「種別」は、ストリーム処理または非ストリーム処理のいずれに用いるデータであるのかを示している。「変換定義」は、非ストリームデータをストリームデータに変換するときの変換方法を示している。 As shown in FIG. 3, the conversion definition 9 is composed of a “data name”, a “type”, and a “conversion definition”. The "data name" indicates the name of various data acquired by the data acquisition unit 2. "Type" indicates whether the data is used for stream processing or non-stream processing. "Conversion definition" indicates a conversion method when converting non-stream data to stream data.

例えば、非ストリームデータである視線データは、非ストリーム処理に用いるデータである。従って、視線データは、データ変換部3によって模擬ストリームデータに変換されない。 For example, the line-of-sight data, which is non-stream data, is data used for non-stream processing. Therefore, the line-of-sight data is not converted into simulated stream data by the data conversion unit 3.

非ストリームデータである操作状態データは、ストリーム処理に用いるデータである。従って、操作状態データは、データ変換部3によって模擬ストリームデータに変換される。例えば、データ変換部3は、操作状態データに対して「0で補完」することによって模擬ストリームデータに変換する。 The operation state data, which is non-stream data, is data used for stream processing. Therefore, the operation state data is converted into simulated stream data by the data conversion unit 3. For example, the data conversion unit 3 converts the operation state data into simulated stream data by "complementing with 0".

ストリームデータである映像データは、ストリーム処理に用いるデータである。従って、映像データは、データ変換部3によって模擬ストリームデータに変換されない。 Video data, which is stream data, is data used for stream processing. Therefore, the video data is not converted into simulated stream data by the data conversion unit 3.

非ストリームデータである加速度データは、ストリーム処理に用いるデータである。従って、加速度データは、データ変換部3によって模擬ストリームデータに変換される。例えば、データ変換部3は、加速度データに対して「0で補完」することによって模擬ストリームデータに変換する。 Acceleration data, which is non-stream data, is data used for stream processing. Therefore, the acceleration data is converted into simulated stream data by the data conversion unit 3. For example, the data conversion unit 3 converts the acceleration data into simulated stream data by "complementing with 0".

なお、上記では、データ変換部3が、非ストリームデータに対して「0で補完」する場合について説明したが、これに限るものではない。例えば、データ変換部3は、データ取得部2が取得した非ストリームデータの近似値を補完してもよく、他の任意の値を補完してもよい。 In the above, the case where the data conversion unit 3 "complements with 0" for the non-stream data has been described, but the present invention is not limited to this. For example, the data conversion unit 3 may complement the approximate value of the non-stream data acquired by the data acquisition unit 2, or may complement any other value.

データ変換部3は、連携させるストリームデータと時間的に同期するように、非ストリームを模擬ストリームに変換する。変換時のサンプリングレートは、変換定義9に含まれているものとする。 The data conversion unit 3 converts the non-stream into a simulated stream so as to be time-synchronized with the stream data to be linked. It is assumed that the sampling rate at the time of conversion is included in the conversion definition 9.

変換定義9は、例えばデータ利用部8およびHMI17を介して任意に変更可能である。 The conversion definition 9 can be arbitrarily changed via, for example, the data utilization unit 8 and the HMI 17.

図2の説明に戻り、データ振分部7は、予め定められた振分定義10に基づいて、ストリームデータおよび模擬ストリームデータをストリーム処理部4に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分ける。 Returning to the description of FIG. 2, the data distribution unit 7 transfers the stream data and the simulated stream data to the stream processing unit 4 and the non-stream data to the non-stream processing unit 5 based on the predetermined distribution definition 10. Sort.

ここで、振分定義10について説明する。図4は、振分定義10の一例を示す図である。なお、振分定義10は、図示しない記憶部に記憶されているものとする。 Here, the distribution definition 10 will be described. FIG. 4 is a diagram showing an example of the distribution definition 10. It is assumed that the distribution definition 10 is stored in a storage unit (not shown).

図4に示すように、振分定義10は、「データ名」および「種別」で構成されている。「データ名」は、データ取得部2が取得した各種データの名称を示している。「種別」は、ストリーム処理または非ストリーム処理のいずれに用いるデータであるのかを示している。 As shown in FIG. 4, the distribution definition 10 is composed of a “data name” and a “type”. The "data name" indicates the name of various data acquired by the data acquisition unit 2. "Type" indicates whether the data is used for stream processing or non-stream processing.

例えば、視線データは、非ストリーム処理に用いるデータである。従って、データ振分部7は、視線データを非ストリーム処理部5に振り分ける。 For example, the line-of-sight data is data used for non-stream processing. Therefore, the data distribution unit 7 distributes the line-of-sight data to the non-stream processing unit 5.

操作状態データ、映像データ、および加速度データは、ストリーム処理に用いるデータである。従って、データ振分部7は、操作状態データ、映像データ、および加速度データをストリーム処理部4に振り分ける。 The operation state data, video data, and acceleration data are data used for stream processing. Therefore, the data distribution unit 7 distributes the operation state data, the video data, and the acceleration data to the stream processing unit 4.

なお、図4における「操作状態データ+映像データ+加速度データ」は、操作状態データ、映像データ、および加速度データが連携してストリーム処理部4でストリーム処理されることを示している。操作状態データおよび加速度データは、データ変換部3で模擬ストリームデータに変換されたデータである。すなわち、操作状態データおよび加速度データは、映像データと連携させるべきデータである。 The "operation state data + video data + acceleration data" in FIG. 4 indicates that the operation state data, the video data, and the acceleration data are linked and stream-processed by the stream processing unit 4. The operation state data and the acceleration data are data converted into simulated stream data by the data conversion unit 3. That is, the operation state data and the acceleration data are data to be linked with the video data.

振分定義10は、例えばデータ利用部8およびHMI17を介して任意に変更可能である。 The distribution definition 10 can be arbitrarily changed via, for example, the data utilization unit 8 and the HMI 17.

図2の説明に戻り、ストリーム処理部4は、データ振分部7によって振り分けられたストリームデータおよび模擬ストリームデータに対して予め定められたストリーム処理を行う。具体的には、ストリーム処理部4は、予め定められた処理フロー定義に基づいて、ストリームデータおよび模擬ストリームデータに対してストリーム処理を行う。なお、ストリーム処理部4は、処理フロー定義を保持しているものとする。 Returning to the description of FIG. 2, the stream processing unit 4 performs predetermined stream processing on the stream data and the simulated stream data distributed by the data distribution unit 7. Specifically, the stream processing unit 4 performs stream processing on the stream data and the simulated stream data based on a predetermined processing flow definition. It is assumed that the stream processing unit 4 holds the processing flow definition.

ここで、処理フロー定義について説明する。図5は、処理フロー定義の一例を示す図であり、ドライブレコーダーサービスを実現するサービスアプリケーションを実行する処理フロー定義の一例を示している。サービスアプリケーションとは、車両の情報を直接またはクラウドと連携して乗員に提示するサービスを実現するソフトウェアのことをいう。ドライブレコーダーサービスは、乗員に提示するサービスの1つである。 Here, the processing flow definition will be described. FIG. 5 is a diagram showing an example of a processing flow definition, and shows an example of a processing flow definition for executing a service application that realizes a drive recorder service. A service application is software that realizes a service that presents vehicle information to occupants directly or in cooperation with the cloud. The drive recorder service is one of the services presented to the occupants.

図5に示すように、処理フロー定義は、「前方カメラ」、「加速度」、「同期」、「急ブレーキ」、「動画抽出」、および「送信」の各処理機能が順序付けられて構成されている。各処理機能は、ソフトウェアで構成されている。 As shown in FIG. 5, the processing flow definition is configured by ordering the processing functions of "forward camera", "acceleration", "synchronization", "sudden braking", "video extraction", and "transmission". There is. Each processing function is composed of software.

「前方カメラ」は、車両前方を撮影したカメラから映像を取得する処理機能である。「加速度」は、車両に設けられた加速度センサから加速度データを取得する処理機能である。すなわち、「前方カメラ」および「加速度」は、映像および加速度データなどのデータソースを収集する処理機能である。なお、データソースを収集する処理機能としては、「前方カメラ」および「加速度」以外に、例えば、車内を撮影したカメラから映像を取得する処理機能である「車内カメラ」、運転者などの視線を検出する処理機能である「視線座標」、レーザ光を用いて車両の周辺に存在する歩行者および物体を検出する処理機能である「LIDAR」、およびミリ波を用いて車両の周辺に存在する歩行者および物体を検出する処理機能である「ミリ波」などが挙げられる。 The "front camera" is a processing function for acquiring an image from a camera that has taken a picture of the front of the vehicle. "Acceleration" is a processing function for acquiring acceleration data from an acceleration sensor provided in a vehicle. That is, the "forward camera" and "acceleration" are processing functions for collecting data sources such as video and acceleration data. In addition to the "front camera" and "acceleration", the processing functions for collecting data sources include, for example, the "in-vehicle camera", which is a processing function for acquiring images from a camera that has taken a picture of the inside of the vehicle, and the line of sight of the driver. "Line-of-sight coordinates" which is a processing function to detect, "LIDAR" which is a processing function to detect pedestrians and objects existing around the vehicle using laser light, and walking existing around the vehicle using millimeter waves. Examples include "millimeter wave" which is a processing function for detecting a person and an object.

「同期」は、複数のデータソースの同期を取る処理機能である。図5の例では、前方カメラから取得した映像と、加速度センサから取得した加速度データとの同期を取る。 "Synchronization" is a processing function that synchronizes multiple data sources. In the example of FIG. 5, the image acquired from the front camera and the acceleration data acquired from the acceleration sensor are synchronized.

「急ブレーキ」は、加速データに基づいて車両の急ブレーキを検出する処理機能であり、処理フロー定義に基づくデータ処理の結果を送信するトリガとなる。なお、当該トリガとなる処理機能としては、「急ブレーキ」以外に、例えば、運転者などの視線が予め定められた方向であることを検出する処理機能である「視線注目」、車両の急加速を検出する処理機能である「急加速」、および定周期でデータソースを送信する処理機能である「定周期」などが挙げられる。 "Sudden braking" is a processing function for detecting sudden braking of a vehicle based on acceleration data, and is a trigger for transmitting the result of data processing based on the processing flow definition. In addition to "sudden braking", the processing function that serves as the trigger includes, for example, "line-of-sight attention", which is a processing function for detecting that the driver's line of sight is in a predetermined direction, and sudden acceleration of the vehicle. Examples include "rapid acceleration", which is a processing function for detecting data sources, and "constant cycle", which is a processing function for transmitting a data source at a fixed cycle.

「動画抽出」は、カメラが撮影した映像から一定時間内の動画を抽出する処理機能であり、処理フロー定義に基づくデータ処理の結果として送信すべき情報を生成する。データ処理の結果として送信すべき情報を生成する処理機能としては、「動画抽出」以外に、例えば、複数の画像から少なくとも1つの画像を抽出する「画像抽出」、地図を生成する「地図生成」、および運転のリスクに関する情報を生成する「リスク情報」などが挙げられる。 "Movie extraction" is a processing function for extracting a moving image within a certain period of time from a video taken by a camera, and generates information to be transmitted as a result of data processing based on a processing flow definition. In addition to "video extraction", the processing functions that generate information to be transmitted as a result of data processing include, for example, "image extraction" that extracts at least one image from a plurality of images, and "map generation" that generates a map. , And "risk information" that generates information about driving risks.

このように、ストリーム処理部4は、処理フロー定義に従って、予め定められたイベントが生じたときにストリームデータおよび模擬ストリームデータの一部を切り出す処理を行う。そして、ストリーム処理部4は、切り出したデータをデータ利用部8に送り、その他のデータを破棄する。具体的には、ストリーム処理部4は、予め定められた時点または予め定められた時間範囲におけるストリームデータおよび模擬ストリームデータの一部を切り出す。予め定められた時点としては、例えば、イベントが発生した時点、およびイベントが発生した時点よりも前または後の時点を含む。予め定められた時間範囲としては、例えば、イベントが発生した時点の前後数秒間、イベントが発生した時点までの数秒間、およびイベントが発生した時点から数秒間などを含む。 In this way, the stream processing unit 4 performs a process of cutting out a part of the stream data and the simulated stream data when a predetermined event occurs according to the processing flow definition. Then, the stream processing unit 4 sends the cut out data to the data utilization unit 8 and discards other data. Specifically, the stream processing unit 4 cuts out a part of the stream data and the simulated stream data in a predetermined time point or a predetermined time range. Predetermined time points include, for example, a time point when an event occurs and a time point before or after the time when the event occurs. The predetermined time range includes, for example, a few seconds before and after the time when the event occurs, a few seconds until the time when the event occurs, a few seconds from the time when the event occurs, and the like.

なお、ストリームデータが映像データである場合、ストリーム処理部4は、映像データの予め定められた領域を切り出す処理を行ってもよい。例えば、ストリーム処理部4は、センサ12が検出した運転者の視線データに基づいて、当該運転者の視線を基準とする予め定められた範囲に相当する映像の領域を切り出す処理を行ってもよい。この場合、非ストリームデータである視線データは、データ変換部3で模擬ストリームデータに変換され、ストリームデータである映像データに同期されているものとする。 When the stream data is video data, the stream processing unit 4 may perform a process of cutting out a predetermined area of the video data. For example, the stream processing unit 4 may perform a process of cutting out an image region corresponding to a predetermined range based on the driver's line of sight based on the driver's line of sight data detected by the sensor 12. .. In this case, it is assumed that the line-of-sight data, which is non-stream data, is converted into simulated stream data by the data conversion unit 3 and synchronized with the video data, which is stream data.

処理フロー定義は、例えばデータ利用部8およびHMI17を介して任意に変更可能である。 The processing flow definition can be arbitrarily changed via, for example, the data utilization unit 8 and the HMI 17.

図2の説明に戻り、非ストリーム処理部5は、データ振分部7によって振り分けられた非ストリームデータに対して予め定められた非ストリーム処理を行う。 Returning to the description of FIG. 2, the non-stream processing unit 5 performs predetermined non-stream processing on the non-stream data distributed by the data distribution unit 7.

データ利用部8は、ストリーム処理部4でストリーム処理された第1データと、非ストリーム処理部5で非ストリーム処理された第2データとを利用する。 The data utilization unit 8 uses the first data stream-processed by the stream processing unit 4 and the second data non-stream-processed by the non-stream processing unit 5.

具体的には、データ利用部8は、ストリーム処理部4でストリーム処理された第1データと、非ストリーム処理部5で非ストリーム処理された第2データとを、そのままクラウド16に送信する。クラウド16では、データ利用部8から取得した第1データおよび第2データを用いて車両の乗員に提示する情報を生成し、当該車両の乗員に提示する。この場合、クラウド16が生成した情報は、HMI17を介して乗員に提示してもよい。 Specifically, the data utilization unit 8 transmits the first data stream-processed by the stream processing unit 4 and the second data non-stream-processed by the non-stream processing unit 5 to the cloud 16 as they are. The cloud 16 uses the first data and the second data acquired from the data utilization unit 8 to generate information to be presented to the occupants of the vehicle and presents the information to the occupants of the vehicle. In this case, the information generated by the cloud 16 may be presented to the occupant via the HMI 17.

また、データ利用部8は、ストリーム処理部4でストリーム処理された第1データと、非ストリーム処理部5で非ストリーム処理された第2データとを用いて車両の乗員に提示する情報を生成し、当該情報をHMI(Human Machine Interface)17を介して乗員に提示する。 Further, the data utilization unit 8 generates information to be presented to the occupants of the vehicle by using the first data stream-processed by the stream processing unit 4 and the second data non-stream processed by the non-stream processing unit 5. , The information is presented to the occupants via the HMI (Human Machine Interface) 17.

なお、情報処理装置6は、クラウド16と連携してAI(Artificial Intelligence)アシスタントを実現することができる。この場合、データ利用部8は、AIアシスタントの実行に必要なデータをクラウド16に送信する。データ利用部8がクラウド16に送信するデータとしては、例えば、音声データと位置データとを組み合わせたデータ、すなわちストリーム処理部4でストリーム処理が行われた第1データが挙げられる。この場合、非ストリームデータである位置データは、データ変換部3で模擬ストリームデータに変換され、ストリームデータである音声データに同期しているものとする。クラウド16は、データ利用部8から取得したデータを用いてAIアシスタントの実行に必要な処理を行い、当該処理の結果を情報処理装置6に送信する。 The information processing device 6 can realize an AI (Artificial Intelligence) assistant in cooperation with the cloud 16. In this case, the data utilization unit 8 transmits the data necessary for executing the AI assistant to the cloud 16. Examples of the data transmitted by the data utilization unit 8 to the cloud 16 include data in which voice data and position data are combined, that is, first data that has been stream-processed by the stream processing unit 4. In this case, it is assumed that the position data, which is non-stream data, is converted into simulated stream data by the data conversion unit 3 and synchronized with the audio data, which is stream data. The cloud 16 performs processing necessary for executing the AI assistant using the data acquired from the data utilization unit 8, and transmits the result of the processing to the information processing apparatus 6.

図6は、情報処理装置6のハードウェア構成の一例を示すブロック図である。 FIG. 6 is a block diagram showing an example of the hardware configuration of the information processing apparatus 6.

情報処理装置6におけるデータ取得部2、データ変換部3、データ振分部7、ストリーム処理部4、非ストリーム処理部5、およびデータ利用部8の各機能は、処理回路により実現される。すなわち、情報処理装置6は、ストリームデータおよび非ストリームデータを取得し、ストリームデータと連携させるべき非ストリームデータを模擬ストリームデータに変換し、ストリームデータおよび模擬ストリームデータをストリーム処理部に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分け、ストリームデータおよび模擬ストリームデータに対してストリーム処理を行い、非ストリームデータに対して非ストリーム処理を行い、ストリーム処理された第1データと非ストリーム処理された第2データとを利用するための処理回路を備える。処理回路は、メモリ19に格納されたプログラムを実行するプロセッサ18(中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)である。 Each function of the data acquisition unit 2, the data conversion unit 3, the data distribution unit 7, the stream processing unit 4, the non-stream processing unit 5, and the data utilization unit 8 in the information processing apparatus 6 is realized by a processing circuit. That is, the information processing apparatus 6 acquires stream data and non-stream data, converts the non-stream data to be linked with the stream data into simulated stream data, and transfers the stream data and simulated stream data to the stream processing unit, and the non-stream data. Is distributed to the non-stream processing unit 5, stream processing is performed on the stream data and the simulated stream data, non-stream processing is performed on the non-stream data, and the stream-processed first data and the non-stream-processed first data are performed. It is provided with a processing circuit for using 2 data. The processing circuit is a processor 18 (also referred to as a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor)) that executes a program stored in the memory 19.

情報処理装置6におけるデータ取得部2、データ変換部3、データ振分部7、ストリーム処理部4、非ストリーム処理部5、およびデータ利用部8の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ19に格納される。処理回路は、メモリ19に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、情報処理装置6は、ストリームデータおよび非ストリームデータを取得するステップ、ストリームデータと連携させるべき非ストリームデータを模擬ストリームデータに変換するステップ、ストリームデータおよび模擬ストリームデータをストリーム処理部に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分けるステップ、ストリームデータおよび模擬ストリームデータに対してストリーム処理を行うステップ、非ストリームデータに対して非ストリーム処理を行うステップ、ストリーム処理された第1データと非ストリーム処理された第2データとを利用するステップが結果的に実行されることになるプログラムを格納するためのメモリ19を備える。また、これらのプログラムは、データ取得部2、データ変換部3、データ振分部7、ストリーム処理部4、非ストリーム処理部5、およびデータ利用部8の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリとは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、DVD等、または、今後使用されるあらゆる記憶媒体であってもよい。 The functions of the data acquisition unit 2, the data conversion unit 3, the data distribution unit 7, the stream processing unit 4, the non-stream processing unit 5, and the data utilization unit 8 in the information processing apparatus 6 are software, firmware, or software and firmware. It is realized by the combination with. The software or firmware is described as a program and stored in the memory 19. The processing circuit realizes the functions of each part by reading and executing the program stored in the memory 19. That is, the information processing apparatus 6 has a step of acquiring stream data and non-stream data, a step of converting non-stream data to be linked with stream data into simulated stream data, and sending stream data and simulated stream data to a stream processing unit. A step of distributing stream data to the non-stream processing unit 5, a step of performing stream processing on stream data and simulated stream data, a step of performing non-stream processing on non-stream data, and a step of performing non-stream processing on the stream-processed first data and non-stream data. A memory 19 for storing a program in which a step using the stream-processed second data is to be executed as a result is provided. Further, these programs cause a computer to execute the procedures or methods of the data acquisition unit 2, the data conversion unit 3, the data distribution unit 7, the stream processing unit 4, the non-stream processing unit 5, and the data utilization unit 8. It can be said that there is. Here, the memory is, for example, non-volatile or volatile such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EPROM (Electrically Erasable Programmable Read Only Memory). It may be a sex semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a DVD, or the like, or any storage medium that will be used in the future.

<動作>
図7は、情報処理装置6の動作の一例を示すフローチャートである。
<Operation>
FIG. 7 is a flowchart showing an example of the operation of the information processing apparatus 6.

ステップS11において、データ取得部2は、カメラ11、センサ12、マイク13、タッチパネル14、およびECU15から、ストリームデータおよび非ストリームデータを取得する。 In step S11, the data acquisition unit 2 acquires stream data and non-stream data from the camera 11, the sensor 12, the microphone 13, the touch panel 14, and the ECU 15.

ステップS12において、データ変換部3は、変換定義9に基づいて、データ取得部2が取得した非ストリームデータのうち、ストリームデータと連携させるべき非ストリームデータがあるか否かを判断する。ストリームデータと連携させるべき非ストリームデータがある場合は、ステップS13に移行する。ストリームデータと連携させるべき非ストリームデータがない場合は、ステップS14に移行する。 In step S12, the data conversion unit 3 determines whether or not there is non-stream data to be linked with the stream data among the non-stream data acquired by the data acquisition unit 2 based on the conversion definition 9. If there is non-stream data to be linked with the stream data, the process proceeds to step S13. If there is no non-stream data to be linked with the stream data, the process proceeds to step S14.

ステップS13において、データ変換部3は、変換定義9に基づいて、非ストリームデータを模擬ストリームデータに変換する。 In step S13, the data conversion unit 3 converts the non-stream data into simulated stream data based on the conversion definition 9.

ステップS14において、データ振分部7は、振分定義10に基づいて、ストリームデータおよび模擬ストリームデータをストリーム処理部4に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分ける。 In step S14, the data distribution unit 7 distributes stream data and simulated stream data to the stream processing unit 4 and non-stream data to the non-stream processing unit 5 based on the distribution definition 10.

ステップS15において、ストリーム処理部4は、データ振分部7によって振り分けられたストリームデータおよび模擬ストリームデータに対して予め定められたストリーム処理を行う。 In step S15, the stream processing unit 4 performs predetermined stream processing on the stream data and the simulated stream data distributed by the data distribution unit 7.

ステップS16において、非ストリーム処理部5は、データ振分部7によって振り分けられた非ストリームデータに対して予め定められた非ストリーム処理を行う。 In step S16, the non-stream processing unit 5 performs predetermined non-stream processing on the non-stream data distributed by the data distribution unit 7.

なお、図7では、ストリーム処理を行った後に非ストリーム処理を行う場合を示しているが、これに限るものではなく、非ストリーム処理を行った後にストリーム処理を行ってもよい。 Note that FIG. 7 shows a case where the non-stream processing is performed after the stream processing is performed, but the present invention is not limited to this, and the stream processing may be performed after the non-stream processing is performed.

図8は、データ変換部3の動作の一例を示すフローチャートであり、図7のステップS13の詳細を示している。以下、データ変換部3は、データ取得部2が取得した図9に示す非ストリームデータである位置データを模擬ストリームデータに変換する場合について説明する。図9において、「時刻」は位置データを取得した年月日を示しており、例えば「20180622151933」は「2018年6月22日15時19分33秒」を表している。 FIG. 8 is a flowchart showing an example of the operation of the data conversion unit 3, and shows the details of step S13 in FIG. 7. Hereinafter, the case where the data conversion unit 3 converts the position data, which is the non-stream data shown in FIG. 9 acquired by the data acquisition unit 2, into the simulated stream data will be described. In FIG. 9, the “time” indicates the date when the position data was acquired, and for example, “201806221151933” represents “June 22, 2018 15:19:33”.

ステップS21において、データ変換部3は、変換定義9に含まれるサンプリングレートに基づいた周期のデータ列を準備する。具体的には、図10に示すようなデータ列を準備する。サンプリングレートは、位置データと連携するストリームデータと時間的に同期するように設定されている。 In step S21, the data conversion unit 3 prepares a data string having a period based on the sampling rate included in the conversion definition 9. Specifically, a data string as shown in FIG. 10 is prepared. The sampling rate is set to be synchronized in time with the stream data linked with the position data.

ステップS22において、データ変換部3は、時刻情報に基づいて非ストリームデータをデータ列に書き込む。具体的には、図11に示すように、データ変換部3は、時刻情報に基づいて位置データをデータ列に書き込む。 In step S22, the data conversion unit 3 writes non-stream data to the data string based on the time information. Specifically, as shown in FIG. 11, the data conversion unit 3 writes the position data in the data string based on the time information.

ステップS23において、データ変換部3は、データ列に書き込まれていない箇所にデータを補完する。具体的には、図12に示すように、データ変換部3は、ステップS22で書き込んだ各位置データの近似値を補完する。なお、図12において、データ変換部3は、データ列に書き込まれていない箇所に0を補完してもよい。 In step S23, the data conversion unit 3 complements the data in a place not written in the data string. Specifically, as shown in FIG. 12, the data conversion unit 3 complements the approximate value of each position data written in step S22. In addition, in FIG. 12, the data conversion unit 3 may complement 0 in the portion not written in the data string.

ステップS24において、データ変換部3は、ステップS23で補完したデータ列を模擬ストリームデータとし、当該模擬ストリームデータを連携するストリームデータと同期させる。 In step S24, the data conversion unit 3 uses the data string supplemented in step S23 as simulated stream data, and synchronizes the simulated stream data with the linked stream data.

図13は、データ振分部7の動作の一例を示すフローチャートであり、図7のステップS14の詳細を示している。 FIG. 13 is a flowchart showing an example of the operation of the data distribution unit 7, and shows the details of step S14 in FIG. 7.

ステップS31において、データ振分部7は、振分定義10に基づいて、ストリームデータ、非ストリームデータ、および模擬ストリームデータのそれぞれをストリーム処理部4または非ストリーム処理部5のいずれに振り分けるのかを判断する。 In step S31, the data distribution unit 7 determines whether to distribute each of the stream data, the non-stream data, and the simulated stream data to the stream processing unit 4 or the non-stream processing unit 5 based on the distribution definition 10. do.

ステップS32において、データ振分部7は、ストリームデータおよび模擬ストリームデータをストリーム処理部4に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分ける。 In step S32, the data distribution unit 7 distributes the stream data and the simulated stream data to the stream processing unit 4 and the non-stream data to the non-stream processing unit 5.

<効果>
従来、ストリームデータと非ストリームデータとを車両に設けられた装置またはクラウドで連携させる際、連携させるための処理が煩雑になってデータ処理の負荷がかかるという問題があった。一方、本実施の形態によれば、データ変換部3はデータ取得部2からリアルタイムにストリームデータおよび非ストリームデータを取得しており、取得する両データの時間的なずれはほぼない。従って、データ変換部3は、変換定義9に基づいて、非ストリームデータを模擬ストリームデータに変換し、ストリームデータと模擬ストリームデータとの同期処理を容易に行うことができる。その結果、従来よりもデータ処理の負荷を軽減することが可能となる。
<Effect>
Conventionally, when the stream data and the non-stream data are linked by a device provided in the vehicle or the cloud, there is a problem that the process for linking becomes complicated and the load of data processing is increased. On the other hand, according to the present embodiment, the data conversion unit 3 acquires stream data and non-stream data in real time from the data acquisition unit 2, and there is almost no time lag between the acquired data. Therefore, the data conversion unit 3 can convert the non-stream data into the simulated stream data based on the conversion definition 9, and can easily perform the synchronization processing between the stream data and the simulated stream data. As a result, it is possible to reduce the load of data processing as compared with the conventional case.

本実施の形態によれば、データ変換部3は、全ての非ストリームデータを模擬ストリームに変換するのではなく、変換定義9に基づいて必要な非ストリームデータを模擬ストリームデータに変換している。従って、全ての非ストリームデータを模擬ストリームに変換する場合よりもデータ処理の負荷を軽減することができる。 According to the present embodiment, the data conversion unit 3 does not convert all the non-stream data into the simulated stream, but converts the necessary non-stream data into the simulated stream data based on the conversion definition 9. Therefore, the load of data processing can be reduced as compared with the case of converting all non-stream data into a simulated stream.

本実施の形態によれば、データ振分部7は、振分定義10に基づいて、ストリームデータおよび模擬ストリームデータをストリーム処理部4に、非ストリームデータを非ストリーム処理部5にそれぞれ振り分ける。従って、ストリームデータ処理を行う必要がない非ストリームデータについては、当該非ストリームデータが必要な時に非ストリームデータ処理を行うことが可能となり、全体的なデータ処理の負荷を軽減することができる。 According to the present embodiment, the data distribution unit 7 distributes stream data and simulated stream data to the stream processing unit 4 and non-stream data to the non-stream processing unit 5 based on the distribution definition 10. Therefore, for non-stream data that does not require stream data processing, non-stream data processing can be performed when the non-stream data is required, and the overall data processing load can be reduced.

一般的に、車種によって車両に搭載されるハードウェア構成が異なり、当該ハードウェアから取得可能なデータも異なるため、サービスアプリケーションの開発者は車両ごとに搭載されるハードウェア構成を考慮してサービスアプリケーションを開発する必要があった。一方、本実施の形態によれば、ハードウェア構成の変更に合わせて変換定義9を変更すればよいため、サービスアプリケーションの開発者の負担を軽減することができる。 In general, the hardware configuration installed in a vehicle differs depending on the vehicle type, and the data that can be acquired from the hardware also differs. Therefore, the service application developer considers the hardware configuration installed in each vehicle and considers the service application. Had to develop. On the other hand, according to the present embodiment, since the conversion definition 9 may be changed according to the change in the hardware configuration, the burden on the developer of the service application can be reduced.

なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。 In the present invention, the embodiments can be appropriately modified or omitted within the scope of the invention.

本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is exemplary in all embodiments and the invention is not limited thereto. It is understood that innumerable variations not illustrated can be assumed without departing from the scope of the present invention.

1 情報処理装置、2 データ取得部、3 データ変換部、4 ストリーム処理部、5 非ストリーム処理部、6 情報処理装置、7 データ振分部、8 データ利用部、9 変換定義、10 振分定義、11 カメラ、12 センサ、13 マイク、14 タッチパネル、15 ECU、16 クラウド、17 HMI、18 プロセッサ、19 メモリ。 1 Information processing device, 2 Data acquisition unit, 3 Data conversion unit, 4 Stream processing unit, 5 Non-stream processing unit, 6 Information processing device, 7 Data distribution unit, 8 Data utilization unit, 9 Conversion definition, 10 Distribution definition , 11 cameras, 12 sensors, 13 microphones, 14 touch panels, 15 ECUs, 16 clouds, 17 HMIs, 18 processors, 19 memories.

Claims (12)

連続データであるストリームデータと、離散データである非ストリームデータとを取得するデータ取得部と、
予め定められた変換定義に基づいて、前記データ取得部が取得した前記非ストリームデータのうちの前記ストリームデータと連携させるべき前記非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換し、前記ストリームデータと連携させない前記非ストリームデータを前記模擬ストリームデータに変換しないデータ変換部と、
前記データ取得部が取得した前記ストリームデータと、前記データ変換部が変換した前記模擬ストリームデータとに対して予め定められたストリーム処理を行うストリーム処理部と、
前記データ取得部が取得した前記非ストリームデータのうちの前記ストリームデータと連携させない前記非ストリームデータに対して予め定められた非ストリーム処理を行う非ストリーム処理部と、
を備え
前記ストリームデータは、映像データ、音声データ、楽曲データ、車両の周辺に存在する物体の有無を示すリモートセンシングデータ、前記車両の状態を示す車両状態データ、および前記車両の乗員の身体的な状態を示す乗員状態データのうちの少なくとも1つを含み、
前記非ストリームデータは、車両の乗員の視線の動きを示す視線データ、前記乗員の操作状態を示す操作状態データ、および現在の時刻を示す時刻データのうちの少なくも1つを含む、情報処理装置。
A data acquisition unit that acquires stream data that is continuous data and non-stream data that is discrete data,
Based on a predetermined conversion definition, the non-stream data to be linked with the stream data among the non-stream data acquired by the data acquisition unit is converted into simulated stream data simulating the stream data, and the above-mentioned A data conversion unit that does not convert the non-stream data that is not linked to the stream data into the simulated stream data ,
A stream processing unit that performs predetermined stream processing on the stream data acquired by the data acquisition unit and the simulated stream data converted by the data conversion unit.
A non-stream processing unit that performs predetermined non-stream processing on the non-stream data that is not linked to the stream data among the non-stream data acquired by the data acquisition unit.
Equipped with
The stream data includes video data, audio data, music data, remote sensing data indicating the presence or absence of an object existing around the vehicle, vehicle state data indicating the state of the vehicle, and the physical state of the occupant of the vehicle. Contains at least one of the occupant status data shown
The non-stream data is an information processing apparatus including at least one of line-of-sight data indicating the movement of the line-of-sight of a vehicle occupant, operation state data indicating the operation state of the occupant, and time data indicating the current time. ..
予め定められた振分定義に基づいて、前記ストリームデータおよび前記模擬ストリームデータを前記ストリーム処理部に、前記ストリームデータと連携させない前記非ストリームデータを前記非ストリーム処理部にそれぞれ振り分けるデータ振分部をさらに備える、請求項1に記載の情報処理装置。 A data distribution unit that distributes the stream data and the simulated stream data to the stream processing unit and the non-stream data that is not linked to the stream data to the non-stream processing unit based on a predetermined distribution definition. The information processing apparatus according to claim 1, further comprising. 前記データ変換部は、連携させるべき前記ストリームデータと時間的に同期するように、前記非ストリームデータを前記模擬ストリームデータに変換することを特徴とする、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the data conversion unit converts the non-stream data into the simulated stream data so as to be time-synchronized with the stream data to be linked. 前記ストリーム処理部は、予め定められたイベントが生じたとき、前記ストリームデータおよび前記模擬ストリームデータの一部を切り出すことを特徴とする、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the stream processing unit cuts out a part of the stream data and the simulated stream data when a predetermined event occurs. 前記ストリーム処理部は、予め定められた時点または予め定められた時間範囲における前記ストリームデータおよび前記模擬ストリームデータの一部を切り出すことを特徴とする、請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the stream processing unit cuts out a part of the stream data and the simulated stream data at a predetermined time point or in a predetermined time range. 前記ストリームデータは、映像データを含み、
前記ストリーム処理部は、前記映像データの予め定められた領域を切り出すことを特徴とする、請求項4に記載の情報処理装置。
The stream data includes video data and includes video data.
The information processing apparatus according to claim 4, wherein the stream processing unit cuts out a predetermined area of the video data.
前記ストリーム処理部は、予め定められた処理フロー定義に従って前記ストリーム処理を実行することを特徴とする、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the stream processing unit executes the stream processing according to a predetermined processing flow definition. 前記変換定義は、変更可能であることを特徴とする、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the conversion definition can be changed. 前記振分定義は、変更可能であることを特徴とする、請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the distribution definition can be changed. 前記処理フロー定義は、変更可能であることを特徴とする、請求項に記載の情報処理装置。 The information processing apparatus according to claim 7 , wherein the processing flow definition can be changed. 前記ストリーム処理部が前記ストリーム処理を行った第1データと、前記非ストリーム処理部が前記非ストリーム処理を行った第2データとを利用するデータ利用部をさらに備え、
前記データ利用部は、前記第1データおよび前記第2データを外部のクラウドに送信することを特徴とする、請求項1に記載の情報処理装置。
A data utilization unit that uses the first data that the stream processing unit has performed the stream processing and the second data that the non-stream processing unit has performed the non-stream processing is further provided.
The information processing apparatus according to claim 1, wherein the data utilization unit transmits the first data and the second data to an external cloud.
連続データであるストリームデータと、離散データである非ストリームデータとを取得し、
予め定められた変換定義に基づいて、取得した前記非ストリームデータのうちの前記ストリームデータと連携させるべき前記非ストリームデータを、ストリームデータを模擬した模擬ストリームデータに変換し、前記ストリームデータと連携させない前記非ストリームデータを前記模擬ストリームデータに変換せず、
取得した前記ストリームデータと、変換した前記模擬ストリームデータとに対して予め定められたストリーム処理を行い、
取得した前記非ストリームデータのうちの前記ストリームデータと連携させない前記非ストリームデータに対して予め定められた非ストリーム処理を行い、
前記ストリームデータは、映像データ、音声データ、楽曲データ、車両の周辺に存在する物体の有無を示すリモートセンシングデータ、前記車両の状態を示す車両状態データ、および前記車両の乗員の身体的な状態を示す乗員状態データのうちの少なくとも1つを含み、
前記非ストリームデータは、車両の乗員の視線の動きを示す視線データ、前記乗員の操作状態を示す操作状態データ、および現在の時刻を示す時刻データのうちの少なくも1つを含む、情報処理方法。
Get stream data that is continuous data and non-stream data that is discrete data,
Based on a predetermined conversion definition, the non-stream data to be linked with the stream data among the acquired non-stream data is converted into simulated stream data simulating the stream data and not linked with the stream data. Without converting the non-stream data to the simulated stream data,
A predetermined stream process is performed on the acquired stream data and the converted simulated stream data.
Of the acquired non-stream data, the non-stream data that is not linked to the stream data is subjected to predetermined non-stream processing .
The stream data includes video data, audio data, music data, remote sensing data indicating the presence or absence of an object existing around the vehicle, vehicle state data indicating the state of the vehicle, and the physical state of the occupant of the vehicle. Contains at least one of the occupant status data shown
The non-stream data includes at least one of line-of-sight data indicating the movement of the line-of-sight of a vehicle occupant, operation state data indicating the operation state of the occupant, and time data indicating the current time. ..
JP2020558781A 2018-12-07 2018-12-07 Information processing equipment and information processing method Active JP7058757B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/045098 WO2020115896A1 (en) 2018-12-07 2018-12-07 Information processing device and information processing method

Publications (2)

Publication Number Publication Date
JPWO2020115896A1 JPWO2020115896A1 (en) 2021-09-02
JP7058757B2 true JP7058757B2 (en) 2022-04-22

Family

ID=70973475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558781A Active JP7058757B2 (en) 2018-12-07 2018-12-07 Information processing equipment and information processing method

Country Status (2)

Country Link
JP (1) JP7058757B2 (en)
WO (1) WO2020115896A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236625A (en) 2004-02-19 2005-09-02 Nippon Telegr & Teleph Corp <Ntt> Remote control system
JP2008204304A (en) 2007-02-22 2008-09-04 Hitachi Ltd Vehicle behavior reproduction method and system
JP2009123182A (en) 2007-10-23 2009-06-04 Denso Corp Safety confirmation determination device and driving teaching support system
JP2013063737A (en) 2011-09-20 2013-04-11 Toyota Motor Corp Vehicle stream data management system
JP2014075035A (en) 2012-10-04 2014-04-24 Denso Corp Operation support system and in-vehicle unit to be used for the same system
JP2015023510A (en) 2013-07-22 2015-02-02 矢崎エナジーシステム株式会社 On-vehicle device
JP2017147841A (en) 2016-02-17 2017-08-24 富士電機株式会社 Power conversion device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236625A (en) 2004-02-19 2005-09-02 Nippon Telegr & Teleph Corp <Ntt> Remote control system
JP2008204304A (en) 2007-02-22 2008-09-04 Hitachi Ltd Vehicle behavior reproduction method and system
JP2009123182A (en) 2007-10-23 2009-06-04 Denso Corp Safety confirmation determination device and driving teaching support system
JP2013063737A (en) 2011-09-20 2013-04-11 Toyota Motor Corp Vehicle stream data management system
JP2014075035A (en) 2012-10-04 2014-04-24 Denso Corp Operation support system and in-vehicle unit to be used for the same system
JP2015023510A (en) 2013-07-22 2015-02-02 矢崎エナジーシステム株式会社 On-vehicle device
JP2017147841A (en) 2016-02-17 2017-08-24 富士電機株式会社 Power conversion device

Also Published As

Publication number Publication date
WO2020115896A1 (en) 2020-06-11
JPWO2020115896A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
US20240112051A1 (en) Machine learning models operating at different frequencies for autonomous vehicles
EP3700198B1 (en) Imaging device, image processing apparatus, and image processing method
US20200175754A1 (en) Information processing apparatus, information processing method, program, and movable object
JP7259749B2 (en) Information processing device, information processing method, program, and moving body
WO2021059714A1 (en) Occupancy grid map generation device, occupancy grid map generation system, occupancy grid map generation method, and program
CN109118532B (en) Visual field depth estimation method, device, equipment and storage medium
CN107613262B (en) Visual information processing system and method
JP2010181409A (en) Method and device for assisting vehicle driver
WO2022075133A1 (en) Imaging device, information processing device, imaging system, and imaging method
US11971481B2 (en) Point cloud registration for lidar labeling
US20170070835A1 (en) System for generating immersive audio utilizing visual cues
CN108924461B (en) Video image processing method and device
JP7243714B2 (en) EXPOSURE CONTROL DEVICE, EXPOSURE CONTROL METHOD, PROGRAM, PHOTOGRAPHY DEVICE, AND MOBILE
JP2022515508A (en) Vehicle control methods, related devices, and computer storage media
KR20210087495A (en) Sensor data processing methods, devices, electronic devices and systems
CN114089811B (en) Data processing method, device, equipment and storage medium
JP7058757B2 (en) Information processing equipment and information processing method
KR102095454B1 (en) Cloud server for connected-car and method for simulating situation
US20230103650A1 (en) System and method for providing scene information
EP4171023A1 (en) Computer-implemented method and computer program for generating a thumbnail from a video stream or file, and video surveillance system
KR101788663B1 (en) System for processing integrated data of the ultra sonic sensors and camera on vehicle
US11455800B2 (en) Roadway alert system using video stream from a smart mirror
JP2021018681A (en) Data collection system, on-vehicle device, data collection device, terminal device and data collection method
JP7109586B2 (en) Information processing device and information processing method
US11881065B2 (en) Information recording device, information recording method, and program for recording information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220412

R150 Certificate of patent or registration of utility model

Ref document number: 7058757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150