JP2019125305A - Support device for creating teacher data - Google Patents
Support device for creating teacher data Download PDFInfo
- Publication number
- JP2019125305A JP2019125305A JP2018007187A JP2018007187A JP2019125305A JP 2019125305 A JP2019125305 A JP 2019125305A JP 2018007187 A JP2018007187 A JP 2018007187A JP 2018007187 A JP2018007187 A JP 2018007187A JP 2019125305 A JP2019125305 A JP 2019125305A
- Authority
- JP
- Japan
- Prior art keywords
- images
- teacher data
- image
- displayed
- data creation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、教師データ作成支援装置に関する。 Embodiments of the present invention relate to a teacher data creation support device.
従来から、画像の入力に応じて何らかの情報(ラベル)を出力する学習済みモデルが知られており、このような学習済みモデルを教師付き学習によって生成する場合に必要な教師データの作成を支援するための技術が種々検討されている。 Conventionally, a learned model that outputs some information (labels) in response to image input is known, and generation of teacher data necessary for generating such a learned model by supervised learning is supported. Various techniques for achieving this have been studied.
しかしながら、上記のような教師データを正確に作成するためには、最終的には、画像をユーザが目で見ることで当該画像にどのようなラベルを対応付けるかを判断し、判断結果に基づいて、画像とラベルとの対応付けを人手で実施する必要があるので、教師データを作成するための作業は、一般的に煩雑である。 However, in order to create the above teacher data accurately, finally, the user looks at the image visually to determine what label is to be associated with the image, and based on the determination result Since it is necessary to manually associate the image with the label, the work for creating teacher data is generally complicated.
特に、人間の顔が写った画像と、当該顔の表情との対応付けを実施する場合、1枚の画像だけでなく、その前後の時系列の他の画像も考慮して、一般的な画像処理では抽出しにくい表情の変化を目で見て分析し、どのような対応付けを実施するかを判断する必要があるので、この場合における教師データを正確に作成するための作業は、非常に煩雑である。 In particular, when correlating the image of a human face with the facial expression of the face, not only one image but also other images in time series before and after that are considered as a general image. Since it is necessary to visually analyze changes in facial expressions that are difficult to extract in processing and to determine what kind of correspondence is to be carried out, the work to create teacher data accurately in this case is very important. It is complicated.
そこで、実施形態の課題の一つは、人間の顔が写った画像と、当該顔の表情との対応関係を含む教師データを正確に作成する作業を簡単化することが可能な教師データ作成支援装置を提供することである。 Therefore, one of the problems in the embodiment is teacher data creation support that can simplify the task of accurately creating teacher data including the correspondence between the image of a human face and the facial expression of the face. It is providing a device.
実施形態の一例としての教師データ作成支援装置は、教師付き学習に用いられる教師データの作成を支援するための教師データ作成支援装置であって、人間の顔が写った動画を取得する取得部と、動画からフレームごとに複数の静止画を抽出する抽出部と、複数の静止画の各々に写った人間の顔と、当該顔の表情と、の対応付けを支援するための支援画面を表示部に表示する表示処理部と、支援画面に対する操作入力部を介したユーザの操作を受け付ける操作受付部と、支援画面に対するユーザの操作に応じて対応付けを実施する対応付け処理部と、を備え、支援画面は、複数の静止画から抽出された複数の第1画像が表示される第1領域と、複数の第1画像のうち1つの第1画像を選択するためのユーザの操作が受け付けられた場合に、複数の静止画のうち、選択された1つの第1画像に対して時系列で所定の範囲内にある複数の第2画像が表示される第2領域と、複数の第2画像の各々に写った人間の顔に対して対応付け可能な表情の複数の候補が表示される第3領域と、を含む。 The teacher data creation support device as an example of the embodiment is a teacher data creation support device for supporting creation of teacher data used for supervised learning, which is an acquisition unit for acquiring a moving image in which a human face is taken, An extraction unit for extracting a plurality of still images for each frame from a moving image, and a support screen for supporting association between human faces captured in each of the plurality of still images and facial expressions of the face A display processing unit for displaying on the screen, an operation reception unit for receiving an operation of the user via the operation input unit on the support screen, and an association processing unit for performing association in accordance with the user's operation on the support screen; In the support screen, a first region where a plurality of first images extracted from a plurality of still images are displayed, and a user operation for selecting one first image of the plurality of first images are accepted In the case A second region in which a plurality of second images within a predetermined range are displayed in time series with respect to the selected one first image among the still images of the second image and a plurality of second images And a third area in which a plurality of candidates for facial expressions that can be mapped to human faces are displayed.
上述した教師データ作成支援装置によれば、支援画面により、人間の顔が写った画像と、当該顔の表情との対応関係を含む教師データを正確に作成する作業を簡単化することができる。 According to the above-described teacher data creation support device, it is possible to simplify the task of correctly creating teacher data including the correspondence between the image of a human face and the facial expression of the face by using the support screen.
上述した教師データ作成支援装置において、複数の第1画像は、人間の顔が写った画像を入力した場合に当該人間の顔の表情の推定結果を出力する表情認識ライブラリを用いた処理を複数の静止画に実行した結果に基づいて抽出される、複数の静止画を時系列で見て表情の推定結果に所定以上の変化が見られた複数の時点における複数の画像である。このような構成によれば、表情が変化している可能性が高い画像を基準として、画像と表情との対応付け作業を行うことができる。 In the above-described teacher data creation support device, when a plurality of first images are input with an image in which a human face appears, a plurality of processes using an expression recognition library that outputs estimation results of the facial expression of the human face They are a plurality of images at a plurality of time points when a plurality of still images are extracted in time series and extracted on the basis of a result of execution on a still image in time series, and a change of a predetermined level or more is observed. According to such a configuration, the image and the expression can be associated with each other on the basis of the image that is highly likely to change in expression.
また、上述した教師データ作成支援装置において、複数の第1画像は、複数の静止画を時系列で見て所定の時間間隔で並んだ複数の画像である。このような構成によれば、第1画像を簡単に抽出することができる。 Further, in the above-described teacher data creation support device, the plurality of first images are a plurality of images arranged in predetermined time intervals by viewing a plurality of still images in time series. According to such a configuration, the first image can be easily extracted.
また、上述した教師データ作成支援装置において、表示処理部は、複数の第2画像を抽出する所定の範囲を、選択された1つの第1画像ごとに変更可能に構成されている。このような構成によれば、たとえば、第1画像に対応した時点の前後の時系列も含めた表情の変化を確認するために抽出する第2画像の個数を必要に応じて異ならせることが可能になるので、画像と表情との対応付けを効率的に行うことができる。 In the teacher data creation support device described above, the display processing unit is configured to be able to change the predetermined range for extracting the plurality of second images for each selected first image. According to such a configuration, for example, it is possible to make the number of second images to be extracted different in order to confirm changes in expression including time series before and after the time point corresponding to the first image. Thus, the image and the expression can be associated efficiently.
また、上述した教師データ作成支援装置において、対応付け処理部は、第2領域に表示された複数の第2画像のうち1以上の第2画像がユーザの操作に応じて選択された状態で、第3領域に表示された複数の候補のうちの1つの候補がユーザの操作に応じて選択された場合に、当該1つの候補と、1以上の第2画像と、の対応付けを一括して実施する。このような構成によれば、たとえば複数の第2画像の各々について個別に対応付けの作業を行う場合と異なり、作業負担を軽減することができる。 In the teacher data creation support device described above, the association processing unit is configured to select one or more second images among the plurality of second images displayed in the second area according to the user's operation. When one of the plurality of candidates displayed in the third area is selected according to the user's operation, the association between the one candidate and one or more second images is collectively performed. carry out. According to such a configuration, it is possible to reduce the work load, unlike, for example, the case of individually associating the plurality of second images.
また、上述した教師データ作成支援装置において、取得部は、動画に写った人間の当該動画の各時点における生体情報を動画とともに取得し、支援画面は、所定の範囲内における生体情報の変化が表示される第4領域をさらに含む。このような構成によれば、生体情報の変化をさらに考慮して、表情の判定をより正確に行うことができる。 In addition, in the teacher data creation support device described above, the acquisition unit acquires the biological information at each time point of the moving image of the human taken in the moving image together with the moving image, and the support screen displays the change in the biological information within a predetermined range Further includes a fourth area to be According to such a configuration, it is possible to more accurately determine the facial expression in consideration of the change in the biological information.
また、上述した教師データ作成支援装置において、取得部は、人間が乗っている車両の内部の映像を動画として取得するとともに、当該映像の各時点における車両の走行状態を含む車両情報を取得し、支援画面は、所定の範囲内における車両情報の変化が表示される第5領域をさらに含む。このような構成によれば、車両の車両情報の変化をさらに考慮して、表情の判定をより正確に行うことができる。 Further, in the teacher data creation support device described above, the acquisition unit acquires a video inside the vehicle on which a human being is riding as a moving image, and acquires vehicle information including the traveling state of the vehicle at each time of the video. The support screen further includes a fifth area in which a change in vehicle information within a predetermined range is displayed. According to such a configuration, it is possible to more accurately determine the expression by further considering the change in the vehicle information of the vehicle.
以下、実施形態を図面に基づいて説明する。以下に記載する実施形態の構成、ならびに当該構成によってもたらされる作用および結果(効果)は、あくまで一例であって、以下の記載内容に限られるものではない。 Hereinafter, embodiments will be described based on the drawings. The configurations of the embodiments described below, and the operations and results (effects) provided by the configurations are merely examples, and the present invention is not limited to the following description.
図1は、実施形態にかかる教師データ作成支援装置100のハードウェア構成を示した例示的かつ模式的なブロック図である。教師データ作成支援装置100とは、教師付き学習に用いられる教師データの作成を支援するための装置である。以下に説明するように、教師データ作成支援装置100は、PC(パーソナルコンピュータ)などといった通常のコンピュータと同様のハードウェア構成を有している。
FIG. 1 is an exemplary and schematic block diagram showing the hardware configuration of the teacher data
図1に示されるように、教師データ作成支援装置100は、ハードウェア構成として、プロセッサ101と、メモリ102と、入出力インターフェース(I/F)103と、ストレージ104と、を有している。これらのハードウェア構成は、バス150を介して互いに通信可能に接続されている。
As shown in FIG. 1, the teacher data
プロセッサ101は、たとえばCPU(中央演算装置)により構成され、教師データ作成支援装置100の各部の動作を統括的に制御する。メモリ102は、たとえばROM(リードオンリーメモリ)やRAM(ランダムアクセスメモリ)などを含み、プロセッサ101により実行される各種の処理に必要なデータの保存や、当該プロセッサ101の作業領域の提供などを実現する。
The processor 101 is formed of, for example, a CPU (central processing unit), and centrally controls the operation of each unit of the teacher data
入出力インターフェース103は、教師データ作成支援装置100に対して情報を入力する入力デバイスと、教師データ作成支援装置100から出力される情報を出力する出力デバイスと、を接続可能なインターフェースである。入力デバイスは、たとえばマウスやキーボードなどといった操作入力部151であり、出力デバイスは、たとえばLCD(液晶ディスプレイ)やOELD(有機エレクトロルミネセンスディスプレイ)などといった表示部152である。なお、入出力インターフェース103に接続可能な構成が操作入力部151および表示部152に限られないことは言うまでもない。
The input / output interface 103 is an interface capable of connecting an input device for inputting information to the teacher data
なお、ストレージ104は、たとえばHDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)などによって構成された補助記憶装置である。 The storage 104 is an auxiliary storage device configured by, for example, a hard disk drive (HDD) or a solid state drive (SSD).
実施形態では、上記のようなハードウェア構成を有した教師データ作成支援装置100がユーザによって操作されることで、教師データが作成される。
In the embodiment, teacher data is created by the user operating the teacher data
実施形態にかかる教師データは、車両に乗っている人間の顔が写った画像を含む情報が入力された場合に当該顔の表情(表情に表れている感情)を出力する学習済みモデル(具体例は後述する)を生成するための教師付き学習に用いられる。 The teacher data according to the embodiment is a learned model that outputs an expression of the face (an emotion appearing in an expression) when information including an image showing an image of a human face on a vehicle is input (specific example) Is used for supervised learning to generate (described later).
ところで、画像の入力に応じて当該画像に対応付けられた何らかの情報(ラベル)を出力する学習済みモデルは従来から知られており、このような学習済みモデルを教師付き学習によって生成する場合に必要となる教師データの作成を支援するための技術が種々検討されている。 By the way, a learned model that outputs some information (label) associated with the image according to the input of the image is conventionally known, and is necessary when generating such a learned model by supervised learning Various techniques for assisting in the creation of teacher data are being considered.
しかしながら、上記のような教師データを正確に作成するためには、最終的には、画像をユーザが目で見ることで当該画像にどのようなラベルを対応付けるかを判断し、判断結果に基づいて、画像とラベルとの対応付けを人手で実施する必要があるので、教師データを作成するための作業は、一般的に煩雑である。 However, in order to create the above teacher data accurately, finally, the user looks at the image visually to determine what label is to be associated with the image, and based on the determination result Since it is necessary to manually associate the image with the label, the work for creating teacher data is generally complicated.
特に、人間の顔が写った画像と、当該顔の表情との対応付けを実施する実施形態のような場合、1枚の画像だけでなく、その前後の時系列の他の画像も考慮して、一般的な画像処理では抽出しにくい表情の変化を目で見て分析し、どのような対応付けを実施するかを判断する必要があるので、この場合における教師データを正確に作成するための作業は、非常に煩雑である。 In particular, in the case of an embodiment in which an image showing a human face is associated with an expression of the face, not only one image but also other images before and after it are taken into consideration. Because it is necessary to visually analyze changes in facial expressions that are difficult to extract in general image processing, and to determine what kind of correspondence is to be performed, to create teacher data accurately in this case The work is very complicated.
そこで、実施形態は、教師データ作成支援装置100に以下のような機能を持たせることで、人間の顔が写った画像と、当該顔の表情との対応関係を含む教師データを正確に作成する作業を簡単化することを実現する。
Therefore, according to the embodiment, the teacher data
図2は、実施形態にかかる教師データ作成支援装置100の機能的構成を示した例示的かつ模式的なブロック図である。図2に示される機能モジュール群は、プロセッサ101がメモリ102に記憶されたソフトウェア(制御プログラム)を実行した結果として実現される。なお、実施形態では、図2に示される機能モジュール群の一部または全部が、専用のハードウェア(回路)によって実現されてもよい。
FIG. 2 is an exemplary and schematic block diagram showing a functional configuration of the teacher data
図2に示されるように、教師データ作成支援装置100は、機能的構成として、取得部201と、抽出部202と、表示処理部203と、操作受付部204と、対応付け処理部205と、を有している。
As illustrated in FIG. 2, the teacher data
取得部201は、教師データの作成のもととなる、車両に乗っている人間の顔が写った動画を取得する。なお、実施形態において、取得部201は、動画の撮像時における当該動画に写った人間の生体情報(心拍数や発汗状況、体温、重心、体重など)や、動画の撮像時における車両の走行状態(速度や加速度、アクセルペダルの開度、ブレーキペダルの踏力、時刻、位置など)を含む車両情報なども、あわせて取得可能である。なお、車両情報は、車内の撮像環境(環境光の量など)や、動画の撮像時における車両の周辺の状況(交通状況や天候など)なども含みうる。これらのデータは、たとえば、有線あるいは無線の通信によって外部から教師データ作成支援装置100に入力される。
The
抽出部202は、取得部201により取得された動画からフレームごとに複数の静止画を抽出する。つまり、動画は、時系列で連続した複数の静止画の集まりとして構成されるので、抽出部202は、取得部201により取得された動画から、当該動画を構成する時系列で連続した複数の静止画を抽出する。
The
表示処理部203は、表示部152(図1参照)の表示内容を制御する。たとえば、表示処理部203は、抽出部202により抽出された複数の静止画の各々に写った人間の顔と、当該顔の表情と、の対応付けを支援するための支援画面300(後述する図3参照)を表示部152(図1参照)に表示する。詳細は後述するが、支援画面300には、簡単な操作で正確な対応付けを実現するための環境をユーザに提供する様々なGUI(グラフィカルユーザインターフェース)が設けられる。
The
操作受付部204は、操作入力部151(図1参照)を介したユーザの操作を受け付ける。たとえば、操作受付部204は、支援画面300に対するユーザの操作を受け付ける。
The
対応付け処理部205は、支援画面300に対するユーザの操作に応じて、複数の静止画の各々に写った人間の顔と、当該顔の表情と、の対応付けを実施する。実施形態では、対応付け処理部205により実施された対応付けの結果に基づいて、教師データが作成される。
The
ここで、実施形態において提供される支援画面300について、その画面構成の例を挙げて具体的に説明する。
Here, the
図3は、実施形態にかかる教師データ作成支援装置100によって提供される支援画面300の画面構成を示した例示的かつ模式的な図である。
FIG. 3 is an exemplary and schematic diagram showing the screen configuration of the
図3に示されるように、実施形態にかかる支援画面300は、動画が再生表示される再生表示領域301と、当該再生表示領域301内で再生表示されている動画の再生区間(時間)を識別するための区間表示302と、再生表示領域301内での動画の再生/一時停止を実行するための再生/一時停止ボタン303と、を含んでいる。これらの画面構成によれば、ユーザは、取得部201により取得された動画を視認しながら所望の対応付け(画像と表情との対応付け)を実施することができる。
As shown in FIG. 3, the
また、実施形態にかかる支援画面300は、抽出部202により抽出された複数の静止画から所定の基準に従って概略的に(間隔をあけて)さらに抽出された複数の概略画像が表示される概略表示領域310を含んでいる。複数の概略画像は、複数の静止画の時系列に沿った概略的な変化を表す。なお、概略画像は、「第1画像」の一例であり、概略表示領域310は、「第1領域」の一例である。
In addition, the
たとえば、図3に示される例では、抽出部202により抽出された複数の静止画から所定の基準に従ってさらに抽出された複数の概略画像のうち、区間302aに対応した概略画像としての3つの画像311〜312が、概略表示領域310内に時系列に沿って並んで表示されている。なお、実施形態において、概略表示領域310内に表示される概略画像の範囲に対応した区間302aは、手動または自動で切り替わりうる。
For example, in the example illustrated in FIG. 3, among the plurality of outline images further extracted according to a predetermined standard from the plurality of still images extracted by the
実施形態において、概略画像は、たとえば、抽出部202により抽出された複数の静止画に、人間の顔が写った画像を入力した場合に当該人間の顔の表情の推定結果を出力する表情認識ライブラリを用いた処理を実行した結果に基づいて抽出される、当該複数の静止画を時系列で見て表情の推定結果が変化した複数の時点における複数の画像である。このような構成によれば、表情が変化している可能性が高い画像を基準として、画像と表情との対応付け作業を行うことができる。
In the embodiment, the outline image is, for example, an expression recognition library that outputs an estimation result of the facial expression of a human face when an image including a human face is input to a plurality of still images extracted by the
なお、実施形態で使用される表情認識ライブラリは、既知のものであってもよい。また、実施形態では、表情認識ライブラリを使用せずに一定の基準で概略画像を抽出する構成が採用されてもよい。したがって、実施形態では、概略画像が、たとえば、抽出部202により抽出された複数の静止画を時系列で見て所定の時間間隔で並んだ複数の画像であってもよい。
The expression recognition library used in the embodiment may be known. Further, in the embodiment, a configuration may be adopted in which the outline image is extracted on a certain basis without using the expression recognition library. Therefore, in the embodiment, the outline images may be, for example, a plurality of images arranged in predetermined time intervals by viewing a plurality of still images extracted by the
また、実施形態において、概略画像は、表情認識ライブラリを使用することなく、人間の顔に対して予め定められた複数の特徴点のそれぞれの特徴量の変化量を算出することで抽出されてもよい。この構成においては、たとえば、時系列で隣接する2つの時点における2つの静止画につき、対応する特徴点同士で特徴量の差分をとり、当該差分を示す値が閾値以上となる特徴点が一定数以上存在するか否かを判定することで、2つの静止画間で表情に変化があったか否かを判定し、表情に変化があったと判定された静止画を概略画像として抽出する、という手法が採用されうる。なお、比較する特徴点の個数は、複数であれば、たとえば100個などといった任意の個数に設定可能である。 Further, in the embodiment, the rough image may be extracted by calculating the amount of change of each feature amount of a plurality of predetermined feature points for a human face without using an expression recognition library. Good. In this configuration, for example, with respect to two still images at two time points adjacent to each other in time series, differences between feature amounts are taken between corresponding feature points, and a certain number of feature points whose value indicating the difference is equal to or more than a threshold By determining whether or not the above exists, it is determined whether or not there is a change in expression between two still images, and a still image determined to have a change in expression is extracted as a schematic image. It can be adopted. The number of feature points to be compared can be set to an arbitrary number such as 100, as long as the number is more than one.
さらに、実施形態では、抽出された複数の概略画像が概略表示領域310内に収まりきらない場合、区間302aに対応した区間表示302内の領域にカーソルを重畳し、当該カーソルの移動に応じて、概略表示領域310内に表示される概略画像の範囲を切り替える構成が採用されてもよい。
Furthermore, in the embodiment, when the plurality of extracted outline images do not fit within the
ここで、実施形態にかかる支援画面300は、概略表示領域310に表示された複数の概略画像の各々の時系列で前後の状況をより詳細に確認するための画面構成を含んでいる。より具体的に、実施形態にかかる支援画面300は、複数の概略画像のうち1つの概略画像を選択するためのユーザの操作が操作受付部204により受け付けられた場合に、抽出部202により抽出された複数の静止画のうち、選択された1つの概略画像に対して時系列で所定の範囲内にある複数の詳細画像が表示される詳細表示領域320を含んでいる。なお、詳細画像は、「第2画像」の一例であり、詳細表示領域320は、「第2領域」の一例である。
Here, the
たとえば、図3に示される例では、詳細表示領域320内に、概略表示領域310に表示された概略画像としての画像311に対して時系列で前後に位置する9つの画像321〜329が、詳細画像として表示されている。これにより、ユーザは、詳細画像として表示された9つの画像321〜329とともに、概略画像として表示された画像311を見ることで、画像311の前後の所定の範囲の時系列における表情の変化(移り変わり)を確認し、確認結果に基づいて、正確に表情を特定することができる。なお、実施形態において、詳細表示領域320内に表示される詳細画像の個数は、図3に示される例のような9つに制限されるものではない。
For example, in the example shown in FIG. 3, in the
また、実施形態では、詳細画像を抽出する所定の範囲が、選択された1つの概略画像ごとに異なっていてもよい。たとえば、実施形態では、選択された1つの概略画像に対応した表情の推定結果に応じて、詳細画像を抽出する範囲が変更されうる。このような構成によれば、たとえば、前後の時系列も含めた表情の変化を詳細に確認する必要性が大きいほどより多くの詳細画像を抽出することが可能になるので、画像と表情との対応付けを効率的に行うことができる。 In the embodiment, the predetermined range from which the detailed image is extracted may be different for each selected one of the schematic images. For example, in the embodiment, the range from which the detailed image is extracted may be changed according to the estimation result of the expression corresponding to one selected outline image. According to such a configuration, it is possible to extract more detailed images, for example, as the necessity for confirming changes in facial expressions including the time series before and after in greater detail is increased. The association can be performed efficiently.
また、実施形態にかかる支援画面300は、ユーザによる対応付けの操作を受け付けるための画面構成を含んでいる。より具体的に、実施形態にかかる支援画面300は、詳細表示領域320に表示された複数の詳細画像の各々に写った人間の顔に対して対応付け可能な表情の複数の候補が表示される候補表示領域330を含んでいる。なお、候補表示領域330は、「第3領域」の一例である。
In addition, the
たとえば、図3に示される例では、候補表示領域330内に、複数の候補を表す画面構成として、はっきりしない感情(neutral)に対応したボタン331と、喜びの感情(happiness)に対応したボタン332と、悲しみの感情(sadness)に対応したボタン333と、が表示されている。なお、候補表示領域330にこれら以外の感情を表すボタンも表示されうることは言うまでもない。
For example, in the example shown in FIG. 3, in the
ここで、実施形態は、詳細表示領域320に表示された複数の詳細画像のうち1以上の詳細画像がユーザの操作に応じて選択された状態で、候補表示領域330に表示された複数の候補のうちの1つの候補がユーザの操作に応じて選択された場合に、選択された1つの候補と、選択された1以上の詳細画像と、の対応付けを一括して実施するように構成されている。
Here, in the embodiment, the plurality of candidates displayed in the
たとえば、実施形態では、詳細表示領域320に表示された複数の詳細画像が、デフォルトで選択済みの状態となっている。そして、ユーザは、詳細表示領域320に表示された複数の詳細画像のうち、他の画像と同様の対応付けを実施したくない詳細画像を選択することで、選択した詳細画像を対応付けの対象から除外し、その上で候補表示領域330内の1つの候補を選択することで、一括した対応付けを対応付け処理部205に実施させる。このような構成によれば、たとえば複数の詳細画像の各々について個別に対応付けの作業を行う場合と異なり、作業負担を軽減することができる。
For example, in the embodiment, the plurality of detail images displayed in the
さらに、実施形態にかかる支援画面300は、表情の判別を補助するための情報を表示するための画面構成を含んでいる。より具体的に、実施形態にかかる支援画面300は、取得部201により取得された生体情報および車両情報(走行状態など)の変化が表示される参考情報表示領域340を含んでいる。なお、参考情報表示領域340は、「第4領域」の一例であるとともに「第5領域」の一例である。
Furthermore, the
たとえば、図3に示される例では、参考情報表示領域340内に、詳細表示領域320に表示された複数の詳細画像に対応した期間(所定の範囲)内における生体情報の一例としての心拍数の変化を表すグラフ341と、当該期間内における車両情報(走行状態など)の一例としての車速の変化を表すグラフ342と、が表示されている。このような構成によれば、生体情報および車両情報の変化をさらに考慮して、詳細画像に写った人間の顔の表情の判定をより正確に行うことができる。
For example, in the example illustrated in FIG. 3, in the reference
なお、図3に示される例では、生体情報の変化(グラフ341)と車両情報の変化(グラフ342)とが共に同一の領域(参考情報表示領域340)に表示されているが、実施形態では、生体情報の変化と車両情報の変化とが別個の領域に表示されてもよい。また、実施形態では、前述したように、車両情報として、車内の撮像環境や動画の撮像時における車両の周辺の状況なども取得部201によって取得されうるので、これらの情報も支援画面300内に表示されうる。
In the example shown in FIG. 3, the change in biological information (graph 341) and the change in vehicle information (graph 342) are both displayed in the same area (reference information display area 340), but in the embodiment, The change in biological information and the change in vehicle information may be displayed in separate areas. Further, in the embodiment, as described above, the
以上の構成に基づき、実施形態にかかる教師データ作成支援装置100は、ユーザによる教師データの作成を支援するために、次のような処理を実行する。
Based on the above configuration, the teacher data
図4は、実施形態にかかる教師データ作成支援装置100が表示部152に支援画面300を表示する際における処理の流れを示した例示的かつ模式的なフローチャートである。この図4に示される処理フローは、たとえば、教師データの作成を行うために支援画面300を呼び出す操作をユーザが操作入力部151を介して教師データ作成支援装置100に入力した場合に実行される。
FIG. 4 is an exemplary schematic flow chart showing the flow of processing when the teacher data
図4に示される処理フローでは、まず、S401において、教師データ作成支援装置100(たとえば取得部201)は、教師データの作成のもととなる、車両に乗っている人間の顔が写った動画や、当該動画に写った人間の生体情報、当該動画の撮像時における車両の走行状態を含む車両情報などを取得する。 In the processing flow shown in FIG. 4, first, in S401, the teacher data creation support apparatus 100 (for example, the acquisition unit 201) receives an animation of the face of a person riding a vehicle, which is the basis of creation of teacher data. Or, human's biological information captured in the moving image, vehicle information including the traveling state of the vehicle at the time of capturing the moving image, and the like are acquired.
そして、S402において、教師データ作成支援装置100(たとえば抽出部202)は、S401で取得された動画からフレームごとに複数の静止画を抽出する。 Then, in S402, the teacher data creation support device 100 (for example, the extraction unit 202) extracts a plurality of still images for each frame from the moving image acquired in S401.
そして、S403において、教師データ作成支援装置100(たとえば表示処理部203)は、S402で抽出された複数の静止画から、前述した支援画面300の概略表示領域310に表示すべき概略画像を所定の基準に従って抽出する。なお、前述したように、概略画像は、表情認識ライブラリによる表情の推定結果に基づいて抽出されてもよいし、当該表情の推定結果とは関係なく一定の基準に基づいて抽出されてもよい。
Then, in S403, the teacher data creation support device 100 (for example, the display processing unit 203) generates a predetermined outline image to be displayed in the
そして、S404において、教師データ作成支援装置100(たとえば表示処理部203)は、S403で抽出された概略画像が表示された概略表示領域310を含む支援画面300を表示部152に表示する。そして、処理が終了する。
Then, in S404, the teacher data creation support device 100 (for example, the display processing unit 203) displays, on the display unit 152, the
図5は、実施形態にかかる教師データ作成支援装置100が支援画面300上に詳細画像を表示する際における処理の流れを示した例示的かつ模式的な図である。この図5に示される処理フローは、たとえば、上述した図4に示される一連の処理によって支援画面300が表示部152に表示された後に実行される。
FIG. 5 is an exemplary schematic diagram showing the flow of processing when the teacher data
図5に示される処理フローでは、まず、S501において、教師データ作成支援装置100(たとえば表示処理部203)は、操作受付部204が受け付けたユーザの操作(支援画面300の概略表示領域310に対する操作)に応じて、概略表示領域310に表示された複数の概略画像のうちの1つが選択されたか否かを判断する。
In the processing flow shown in FIG. 5, first, in S501, the teacher data creation support device 100 (for example, the display processing unit 203) receives the user's operation (the operation on the
S501において、複数の概略画像のうちの1つが選択されていないと判断された場合、処理が終了する。一方、S501において、複数の概略画像のうちの1つが選択されたと判断された場合、S502に処理が進む。 If it is determined in S501 that one of the outline images is not selected, the process ends. On the other hand, when it is determined in S501 that one of the plurality of outline images is selected, the process proceeds to S502.
そして、S502において、教師データ作成支援装置100(たとえば表示処理部203)は、動画を構成する複数の静止画から、S501で選択された1つの概略画像に対して時系列で所定の範囲内にある複数の詳細画像を抽出する。 Then, in S502, the teacher data creation support device 100 (for example, the display processing unit 203) causes the one outline image selected in S501 to be within a predetermined range in time series from a plurality of still images constituting the moving image. Extract certain detailed images.
そして、S503において、教師データ作成支援装置100(たとえば表示処理部203)は、S502で抽出された詳細画像を、支援画面300の詳細表示領域320に表示する。
Then, in S503, the teacher data creation support device 100 (for example, the display processing unit 203) displays the detail image extracted in S502 in the
そして、S504において、教師データ作成支援装置100(たとえば表示処理部203)は、S503で表示された詳細表示領域320に対応した期間内における生体情報および車両情報の変化を支援画面300の参考情報表示領域340に表示する。そして、処理が終了する。
Then, in S504, the teacher data creation support device 100 (for example, the display processing unit 203) displays the change of the biological information and the vehicle information in the period corresponding to the
図6は、実施形態にかかる教師データ作成支援装置100が支援画面300に対する操作に応じて対応付けを実施する際における処理の流れを示した例示的かつ模式的な図である。この図6に示される処理フローは、たとえば、上述した図5に示される一連の処理によって詳細画像が詳細表示領域320に表示された後に実行される。
FIG. 6 is an exemplary and schematic diagram showing a flow of processing when the teacher data
図6に示される処理フローでは、まず、S601において、教師データ作成支援装置100(たとえば対応付け処理部205)は、操作受付部204が受け付けたユーザの操作(支援画面300の候補表示領域330に対する操作)に応じて、表情の候補が決定(選択)されたか否かを判断する。
In the processing flow shown in FIG. 6, first, in S601, the teacher data creation support apparatus 100 (for example, the association processing unit 205) receives the user's operation (the
S601において、表情の候補が決定されていないと判断された場合、処理が終了する。一方、S601において、表情の候補が決定されたと判断された場合、S602に処理が進む。 If it is determined in S601 that no expression candidate has been determined, the process ends. On the other hand, when it is determined in S601 that the expression candidate is determined, the process proceeds to S602.
そして、S602において、教師データ作成支援装置100(たとえば対応付け処理部205)は、S601で決定された表情の候補に基づき、現在選択されている詳細画像に対する一括した対応付けを実施する。なお、現在選択されている詳細画像とは、前述したように、詳細表示領域320に表示された複数の詳細画像のうち、ユーザの操作によって対応付けの対象から除外されていないものである。実施形態では、S602における対応付けの結果に基づいて、教師データが作成される。そして、処理が終了する。
Then, in step S602, the teacher data creation support apparatus 100 (for example, the association processing unit 205) performs, on the basis of the facial expression candidates determined in step S601, collective association with the currently selected detailed image. Note that, as described above, the currently selected detailed image is one of the plurality of detailed images displayed in the
以上説明したように、実施形態にかかる教師データ作成支援装置100は、少なくとも次のような画面構成を含んだ支援画面300を表示部152に表示する表示処理部203を有している。支援画面300は、動画を構成する複数の静止画から所定の基準に従って抽出された複数の概略画像が表示される概略表示領域310と、複数の概略画像のうち1つを選択するためのユーザの操作が受け付けられた場合に、複数の静止画のうち、選択された1つの概略画像に対して時系列で所定の範囲内にある複数の詳細画像が表示される詳細表示領域320と、複数の詳細画像の各々に写った人間の顔に対して対応付け可能な表情の複数の候補が表示される候補表示領域330と、を含んでいる。
As described above, the teacher data
上記のような構成によれば、支援画面300により、(車両内に存在している)人間の顔が写った画像と、当該顔の表情との対応関係を含む教師データを正確に作成する作業を簡単化することができる。
According to the above configuration, the
また、実施形態において、複数の概略画像は、動画を構成する複数の静止画に表情認識ライブラリを実行した結果に基づいて抽出される、複数の静止画を時系列で見て、表情認識ライブラリによる表情の推定結果に所定以上の変化が見られた複数の時点における複数の画像である。このように構成すれば、表情が変化している可能性が高い画像を基準として、画像と表情との対応付け作業を行うことができる。 In the embodiment, the plurality of outline images are extracted based on the result of executing the expression recognition library on the plurality of still images constituting the moving image, and the plurality of still images are viewed in time series It is a plurality of images at a plurality of time points when a change of a predetermined level or more is found in the estimation result of the expression. According to this configuration, the image and the expression can be associated with each other on the basis of the image that is highly likely to change in expression.
なお、実施形態において、複数の概略画像は、複数の静止画を時系列で見て所定の時間間隔で並んだ複数の画像であってもよい。このように構成すれば、概略画像を簡単に抽出することができる。 In the embodiment, the plurality of outline images may be a plurality of images which are arranged at predetermined time intervals by viewing a plurality of still images in time series. With this configuration, it is possible to easily extract a schematic image.
また、実施形態において、表示処理部203は、複数の詳細画像を抽出する所定の範囲を、選択された1つの概略画像ごとに変更可能に構成されている。たとえば、実施形態では、選択された1つの概略画像に対応した表情の推定結果に応じて、詳細画像を抽出する範囲が変更されうる。このように構成すれば、概略画像に対応した時点の前後の時系列も含めた表情の変化を確認するために抽出する詳細画像の個数を必要に応じて異ならせることが可能になるので、たとえば前後の時系列も含めた表情の変化を詳細に確認する必要性が大きい概略画像ほど、当該概略画像を基準としてより多くの詳細画像を抽出することが可能になる。この結果、画像と表情との対応付けを効率的に行うことができる。
Further, in the embodiment, the
また、実施形態において、対応付け処理部205は、詳細表示領域320に表示された複数の詳細画像のうち1以上の詳細画像がユーザの操作に応じて選択された状態で、候補表示領域330に表示された複数の候補のうちの1つの候補がユーザの操作に応じて選択された場合に、当該1つの候補と、1以上の詳細画像と、の対応付けを一括して実施する。このような構成によれば、たとえば複数の詳細画像の各々について個別に対応付けの作業を行う場合と異なり、作業負担を軽減することができる。
Further, in the embodiment, the
また、実施形態において、支援画面300は、複数の詳細画像に対応した所定の範囲内における生体情報および車両情報の変化が表示される参考情報表示領域340をさらに含んでいる。このように構成すれば、生体情報および車両情報の変化をさらに考慮して、表情の判定をより正確に行うことができる。
In the embodiment, the
以下、実施形態にかかる教師データ作成支援装置100によって作成された教師データを利用した技術について簡単に説明する。実施形態において作成された教師データを利用すれば、次の図7に示されるような車両制御システム700を構成することができる。
Hereinafter, a technology using teacher data created by the teacher data
図7は、実施形態にかかる教師データ作成支援装置100によって作成された教師データを利用することで実現される車両制御システム700の構成を示した例示的かつ模式的なブロック図である。この車両制御システム700は、車両に搭載される。
FIG. 7 is an exemplary and schematic block diagram showing a configuration of a
図7に示されるように、車両制御システム700は、車両制御装置710と、センサ群720と、制御対象730と、を有している。
As shown in FIG. 7, the
車両制御装置710は、たとえば、車両に搭載されるECU(エレクトロニックコントロールユニット)である。ECUは、一般に、プロセッサやメモリなどといった通常のコンピュータと同様のハードウェアを有したマイクロコンピュータとして構成される。 Vehicle control device 710 is, for example, an ECU (Electronic Control Unit) mounted on a vehicle. The ECU is generally configured as a microcomputer having hardware similar to that of a normal computer such as a processor and a memory.
センサ群720は、車両に設けられる各種のセンサの集まりである。図7に示される例では、センサ群720が、車内の状況を撮像する車内カメラ721と、車内に存在する人間の生体情報を検出する生体情報センサ722と、車両の走行状態を検出する走行状態センサ723と、を含んでいる。
The sensor group 720 is a collection of various sensors provided in the vehicle. In the example illustrated in FIG. 7, the sensor group 720 includes an in-vehicle camera 721 that captures an in-vehicle situation, a biometric information sensor 722 that detects human biometric information present in the vehicle, and a traveling state in which the traveling state of the vehicle is detected. And a
制御対象730は、車両制御装置710によって制御される車両の各種の設備である。制御対象730は、アクセルなどを含む加速システムや、ブレーキなどを含む制動システム、ステアリングなどを含む操舵システムなどといった車両の走行に関するシステムのみならず、車内における様々なサービス(空調や音楽など)を提供するためのシステムも含みうる。 The control target 730 is various equipment of the vehicle controlled by the vehicle control device 710. The control target 730 provides various services (air conditioning, music, etc.) in the vehicle as well as systems related to vehicle travel such as acceleration systems including accelerators, braking systems including brakes, steering systems including steering etc. May also include a system for
ここで、車両制御装置710は、情報取得部711と、表情判定部712と、制御部713と、を有している。これらの構成は、プロセッサがメモリに記憶されたソフトウェア(制御プログラム)を実行した結果として実現されてもよいし、専用のハードウェア(回路)によって実現されてもよい。 Here, the vehicle control device 710 includes an information acquisition unit 711, an expression determination unit 712, and a control unit 713. These configurations may be realized as a result of the processor executing software (control program) stored in the memory, or may be realized by dedicated hardware (circuit).
情報取得部711は、センサ群720から情報を取得する。そして、表情判定部712は、情報取得部711によって取得された情報に基づいて、車内の人間の顔の表情を判定する。 The information acquisition unit 711 acquires information from the sensor group 720. Then, the facial expression determination unit 712 determines the facial expression of the human face in the car based on the information acquired by the information acquisition unit 711.
より具体的に、表情判定部712は、実施形態にかかる教師データ作成支援装置100によって作成された教師データに基づく教師付き学習によって生成された学習済みモデル712aを有している。この学習済みモデル712aは、実施形態にかかる技術を利用しているので、車内カメラ721によって取得された映像(動画または静止画)と、生体情報センサ722によって取得された生体情報と、走行状態センサ723によって取得された走行状態と、の入力に応じて、現在車内に存在する人間の顔の表情(の推定結果)を出力する。
More specifically, the facial expression determination unit 712 includes a learned model 712 a generated by supervised learning based on the teacher data generated by the teacher data
そして、制御部713は、表情判定部712の判定結果に応じて、現在車内に存在する人間の顔の表情に合った適切な走行やサービスなどの提供が実現されるように、制御対象730を制御する。これにより、人間の感情に沿った快適な車両を提供することができる。 Then, in accordance with the determination result of the expression determination unit 712, the control unit 713 controls the control target 730 so as to realize provision of appropriate traveling and services that match the human facial expression currently existing in the car. Control. This makes it possible to provide a comfortable vehicle in line with human emotions.
なお、図7に示される例において、センサ群720は、車内の撮像環境や、動画の撮像時における車両の周辺の状況などといった、走行状態以外の車両情報を検出するための構成を含んでいてもよい。そして、表情判定部712は、これら全ての車両情報を考慮して表情を判定するように構成されていてもよい。 In the example illustrated in FIG. 7, the sensor group 720 includes a configuration for detecting vehicle information other than the traveling state, such as an imaging environment in a car, a situation around the vehicle at the time of imaging a moving image, and the like. It is also good. Then, the facial expression determination unit 712 may be configured to determine the facial expression in consideration of all the vehicle information.
以上、本発明の実施形態を説明したが、上述した実施形態はあくまで一例であって、発明の範囲を限定することは意図していない。上述した新規な実施形態は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態およびその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although embodiment of this invention was described, embodiment mentioned above is an example to the last, and limiting the scope of invention is not intended. The novel embodiments described above can be implemented in various forms, and various omissions, substitutions, and modifications can be made without departing from the scope of the invention. The above-described embodiments and the modifications thereof are included in the scope and the gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.
100 教師データ作成支援装置
151 操作入力部
152 表示部
201 取得部
202 抽出部
203 表示処理部
204 操作受付部
205 対応付け処理部
300 支援画面
310 概略表示領域(第1領域)
320 詳細表示領域(第2領域)
330 候補表示領域(第3領域)
340 参考情報表示領域(第4領域、第5領域)
100 teacher data creation support device 151 operation input unit 152
320 Detail display area (second area)
330 candidate display area (third area)
340 Reference information display area (fourth area, fifth area)
Claims (7)
人間の顔が写った動画を取得する取得部と、
前記動画からフレームごとに複数の静止画を抽出する抽出部と、
前記複数の静止画の各々に写った前記人間の顔と、当該顔の表情と、の対応付けを支援するための支援画面を表示部に表示する表示処理部と、
前記支援画面に対する操作入力部を介したユーザの操作を受け付ける操作受付部と、
前記支援画面に対する前記ユーザの操作に応じて前記対応付けを実施する対応付け処理部と、
を備え、
前記支援画面は、
前記複数の静止画から抽出された複数の第1画像が表示される第1領域と、
前記複数の第1画像のうち1つの第1画像を選択するための前記ユーザの操作が受け付けられた場合に、前記複数の静止画のうち、選択された前記1つの第1画像に対して時系列で所定の範囲内にある複数の第2画像が表示される第2領域と、
前記複数の第2画像の各々に写った前記人間の顔に対して対応付け可能な前記表情の複数の候補が表示される第3領域と、
を含む、
教師データ作成支援装置。 A teacher data creation support device for supporting creation of teacher data used for supervised learning, comprising:
An acquisition unit that acquires a moving image of a human face;
An extraction unit for extracting a plurality of still images from the moving image for each frame;
A display processing unit that displays on a display unit a support screen for supporting association of the human face captured in each of the plurality of still images with the facial expression of the face;
An operation receiving unit that receives a user's operation via the operation input unit on the support screen;
An association processing unit that carries out the association according to the user's operation on the support screen;
Equipped with
The support screen is
A first area in which a plurality of first images extracted from the plurality of still images are displayed;
When the user's operation for selecting one of the plurality of first images is accepted, time may be selected with respect to the selected one of the plurality of still images. A second area in which a plurality of second images within a predetermined range in series are displayed;
A third area in which a plurality of candidates for the facial expression that can be associated with the human face captured in each of the plurality of second images are displayed;
including,
Teacher data creation support device.
請求項1に記載の教師データ作成支援装置。 When the plurality of first images receives an image including the human face, processing is performed on the plurality of still images using an expression recognition library that outputs the estimation result of the expression of the human face. It is a plurality of images at a plurality of time points when the plurality of still images extracted based on the result are seen in time series and the estimation result of the expression is changed in a predetermined amount or more.
The teacher data creation support device according to claim 1.
請求項1に記載の教師データ作成支援装置。 The plurality of first images are a plurality of images in which the plurality of still images are viewed in time series and arranged at predetermined time intervals.
The teacher data creation support device according to claim 1.
請求項1〜3のいずれか1項に記載の教師データ作成支援装置。 The display processing unit is configured to be able to change the predetermined range for extracting the plurality of second images for each of the selected first images.
The teacher data creation assistance apparatus of any one of Claims 1-3.
請求項1〜4のいずれか1項に記載の教師データ作成支援装置。 The association processing unit is displayed in the third area in a state where one or more second images among the plurality of second images displayed in the second area are selected according to the user's operation. When one candidate among the plurality of candidates is selected according to the operation of the user, the association between the one candidate and the one or more second images is collectively performed. ,
The teacher data creation assistance apparatus of any one of Claims 1-4.
前記支援画面は、前記所定の範囲内における前記生体情報の変化が表示される第4領域をさらに含む、
請求項1〜5のいずれか1項に記載の教師データ作成支援装置。 The acquisition unit acquires, together with the moving image, biological information at each time point of the moving image of the human captured in the moving image,
The support screen further includes a fourth area in which a change in the biological information within the predetermined range is displayed.
The teacher data creation assistance apparatus of any one of Claims 1-5.
前記支援画面は、前記所定の範囲内における前記車両情報の変化が表示される第5領域をさらに含む、
請求項1〜6のいずれか1項に記載の教師データ作成支援装置。 The acquisition unit acquires, as the moving image, an image of the inside of a vehicle on which the human being is riding, and acquires vehicle information including a traveling state of the vehicle at each time of the image.
The support screen further includes a fifth area in which a change in the vehicle information within the predetermined range is displayed.
The teacher data creation assistance apparatus of any one of Claims 1-6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018007187A JP2019125305A (en) | 2018-01-19 | 2018-01-19 | Support device for creating teacher data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018007187A JP2019125305A (en) | 2018-01-19 | 2018-01-19 | Support device for creating teacher data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019125305A true JP2019125305A (en) | 2019-07-25 |
Family
ID=67398890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018007187A Pending JP2019125305A (en) | 2018-01-19 | 2018-01-19 | Support device for creating teacher data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019125305A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023087859A1 (en) * | 2021-11-17 | 2023-05-25 | 中兴通讯股份有限公司 | Method and apparatus for generating virtual classroom, and storage medium |
-
2018
- 2018-01-19 JP JP2018007187A patent/JP2019125305A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023087859A1 (en) * | 2021-11-17 | 2023-05-25 | 中兴通讯股份有限公司 | Method and apparatus for generating virtual classroom, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240152548A1 (en) | Electronic apparatus for searching related image and control method therefor | |
US9691183B2 (en) | System and method for dynamically generating contextual and personalized digital content | |
CN102906671B (en) | Gesture input device and gesture input method | |
US20130135295A1 (en) | Method and system for a augmented reality | |
US20150035827A1 (en) | Information processing device, information processing method, and information processing system | |
US20210329175A1 (en) | Image processing system, image processing method, and program | |
US10725534B2 (en) | Apparatus and method of generating machine learning-based cyber sickness prediction model for virtual reality content | |
JP2020109578A (en) | Information processing device and program | |
WO2014050432A1 (en) | Information processing system, information processing method and program | |
JPWO2014045843A1 (en) | Image processing system, image processing method, and program | |
US20220253131A1 (en) | Systems and methods for object tracking using fused data | |
WO2024104045A1 (en) | Method for acquiring operation instruction on basis of compartment area, and display method and related device | |
US20210117040A1 (en) | System, method, and apparatus for an interactive container | |
KR20150038877A (en) | User interfacing apparatus and method using an event corresponding a user input | |
US20200394407A1 (en) | Detection device, detection method, generation method, computer program, and storage medium | |
US20200401805A1 (en) | Image processing apparatus and method of controlling the same | |
Frigieri et al. | Fast and accurate facial landmark localization in depth images for in-car applications | |
KR20210130953A (en) | Method and system for creating virtual image based deep-learning | |
EP3594794A1 (en) | Information processing device and information processing method | |
JP2020112944A (en) | Video processing device, video processing method, and video processing program | |
JP2019125305A (en) | Support device for creating teacher data | |
US20220309682A1 (en) | Object tracking apparatus, object tracking method, and program | |
US20220189200A1 (en) | Information processing system and information processing method | |
US20150262013A1 (en) | Image processing apparatus, image processing method and program | |
US20150154775A1 (en) | Display control method, information processor, and computer program product |