JP2021144312A - Determination apparatus - Google Patents

Determination apparatus Download PDF

Info

Publication number
JP2021144312A
JP2021144312A JP2020041003A JP2020041003A JP2021144312A JP 2021144312 A JP2021144312 A JP 2021144312A JP 2020041003 A JP2020041003 A JP 2020041003A JP 2020041003 A JP2020041003 A JP 2020041003A JP 2021144312 A JP2021144312 A JP 2021144312A
Authority
JP
Japan
Prior art keywords
image
unit
determination
monotonous
visual saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020041003A
Other languages
Japanese (ja)
Inventor
良平 加川
Ryohei Kagawa
良平 加川
俊明 井上
Toshiaki Inoue
俊明 井上
友二 伊藤
Tomoji Ito
友二 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2020041003A priority Critical patent/JP2021144312A/en
Publication of JP2021144312A publication Critical patent/JP2021144312A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To detect a monotonous tendency from a captured image.SOLUTION: A determination apparatus 1 comprises: a landscape image processing unit 3 for acquiring, in chronological order, a visual saliency map obtained by estimating the level of visual saliency in an image based on the image which is obtained by capturing outside from a moving body; and a monotonous determination unit 4 for determining whether the image tends to be monotonous based on the standard deviation and the amount of eye movement that are calculated based on the visual saliency map.SELECTED DRAWING: Figure 1

Description

本発明は、移動体から外部を撮像した1または複数の画像に基づいて当該画像が単調傾向か判定する判定装置に関する。 The present invention relates to a determination device for determining whether an image has a monotonous tendency based on one or a plurality of images obtained by photographing the outside from a moving body.

一般に高速道路などの単調な風景や景色が続く道路において長時間運転していると、眠気を催す等の催眠状態に陥る現象は高速道路催眠現象として知られている。また、景色の変化が無い、あるいは景色の変化が乏しい道路や等間隔に規則正しく設置された街灯などを有する道路においては眠気を催すことがある。 In general, a phenomenon in which a person falls into a hypnotic state such as drowsiness when driving for a long time on a road such as a highway where monotonous scenery or scenery continues is known as a highway hypnosis phenomenon. In addition, drowsiness may occur on roads where there is no change in scenery or changes in scenery are scarce, or on roads with street lights installed at regular intervals.

このような単調な道路を検出する発明として、例えば特許文献1には、外観画像を取得する画像取得手段と、画像取得手段により取得した外観画像に基づいて、外観画像に対応する風景の単調度を演算する単調度演算手段とを備える風景単調度演算装置が記載されている。 As an invention for detecting such a monotonous road, for example, Patent Document 1 describes the monotonicity of a landscape corresponding to an external appearance image based on an image acquisition means for acquiring an external appearance image and an external appearance image acquired by the image acquisition means. A landscape monotonicity arithmetic unit including a monotonicity arithmetic means for calculating the above is described.

また、特許文献2には、運転者の覚醒状態を高い精度で判断する覚醒状態判断システムが記載されている。 Further, Patent Document 2 describes a wakefulness determination system that determines a driver's wakefulness state with high accuracy.

特許第4550116号公報Japanese Patent No. 4550116 特開2010−128649号公報Japanese Unexamined Patent Publication No. 2010-128649

特許文献1に記載された発明の場合、特徴判断処理を行って風景分類をし、風景の変化数カウントに基づいて単調度を求めている。そのため、「街並み」のように風景が複雑であっても、時間変化又は位置変化が小さければ単調度が低く判定されてしまう。また、特許文献2に記載された発明の場合、道路情報、車両情報、車間距離情報を用いて単調区間と判定された区間における、頭部の動きから覚醒度を判定している。単調区間検出は、道路情報を基に判定を行っているため、視覚情報を考慮していない。そのため、看板や標識が乱立していても直線単路であれば単調であると判定する場合がある。 In the case of the invention described in Patent Document 1, the feature determination process is performed to classify the landscape, and the monotonicity is obtained based on the number of changes in the landscape. Therefore, even if the landscape is complicated as in the "cityscape", if the time change or the position change is small, the monotonicity is judged to be low. Further, in the case of the invention described in Patent Document 2, the arousal level is determined from the movement of the head in the section determined to be a monotonous section using road information, vehicle information, and inter-vehicle distance information. Since the monotonous section detection is determined based on the road information, the visual information is not taken into consideration. Therefore, even if the signboards and signs are crowded, it may be determined that the road is monotonous if it is a straight single road.

本発明が解決しようとする課題としては、撮像した画像から単調の傾向を検出することが一例として挙げられる。 One example of the problem to be solved by the present invention is to detect a monotonous tendency from an captured image.

上記課題を解決するために、請求項1に記載の発明は、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する取得部と、前記視覚顕著性分布情報に基づいて算出された統計量を用いて当該画像が単調傾向か判定する判定部と、を備えることを特徴としている。 In order to solve the above problem, the invention according to claim 1 is based on an image obtained by capturing an image of the outside from a moving body, and the visual saliency distribution information obtained by estimating the level of visual saliency in the image. It is characterized by including an acquisition unit for acquiring the image and a determination unit for determining whether the image has a monotonous tendency by using the statistic calculated based on the visual saliency distribution information.

請求項6に記載の発明は、移動体から外部を撮像した画像に基づいて当該画像が単調傾向か判定する判定装置で実行される判定方法であって、前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する取得工程と、前記視覚顕著性分布情報に基づいて算出された統計量を用いて当該画像が単調傾向か判定する判定工程と、を含むことを特徴としている。 The invention according to claim 6 is a determination method executed by a determination device for determining whether or not the image has a monotonous tendency based on an image obtained by capturing an image of the outside from a moving body, and in the image based on the image. Judgment as to whether the image tends to be monotonous using the acquisition process of acquiring the visual saliency distribution information obtained by estimating the height of the visual saliency and the statistics calculated based on the visual saliency distribution information. It is characterized by including steps.

請求項7に記載の発明は、請求項6に記載の判定方法をコンピュータにより実行させることを特徴としている。 The invention according to claim 7 is characterized in that the determination method according to claim 6 is executed by a computer.

請求項8に記載の発明は、請求項7に記載の判定プログラムを格納したことを特徴としている。 The invention according to claim 8 is characterized in that the determination program according to claim 7 is stored.

本発明の第1実施例にかかる判定装置の機能構成図である。It is a functional block diagram of the determination apparatus which concerns on 1st Example of this invention. 図1に示された風景画像処理部の構成を例示するブロック図である。It is a block diagram which illustrates the structure of the landscape image processing part shown in FIG. (a)は判定装置へ入力する画像を例示する図であり、(b)は(a)に対し推定される、視覚顕著性マップを例示する図である。(A) is a diagram exemplifying an image to be input to the determination device, and (b) is a diagram exemplifying a visual saliency map estimated with respect to (a). 図1に示された風景画像処理部の処理方法を例示するフローチャートである。It is a flowchart which illustrates the processing method of the landscape image processing unit shown in FIG. 非線形写像部の構成を詳しく例示する図である。It is a figure which exemplifies the structure of the nonlinear mapping part in detail. 中間層の構成を例示する図である。It is a figure which illustrates the structure of the intermediate layer. (a)および(b)はそれぞれ、フィルタで行われる畳み込み処理の例を示す図である。(A) and (b) are diagrams showing an example of a convolution process performed by a filter, respectively. (a)は、第1のプーリング部の処理を説明するための図であり、(b)は、第2のプーリング部の処理を説明するための図であり、(c)は、アンプーリング部の処理を説明するための図である。(A) is a diagram for explaining the processing of the first pooling unit, (b) is a diagram for explaining the processing of the second pooling unit, and (c) is a diagram for explaining the processing of the second pooling unit. It is a figure for demonstrating the process of. 図1に示された単調判定部の動作のフローチャートである。It is a flowchart of the operation of the monotonic determination unit shown in FIG. 本発明の第2実施例にかかる判定装置の動作のフローチャートである。It is a flowchart of the operation of the determination apparatus which concerns on 2nd Embodiment of this invention. 自己相関の演算結果の例である。This is an example of the calculation result of autocorrelation.

以下、本発明の一実施形態にかかる判定装置を説明する。本発明の一実施形態にかかる判定装置は、取得部が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得し、判定部が、視覚顕著性分布情報に基づいて算出された統計量を用いて当該画像が単調傾向か判定する。このようにすることにより、撮像した画像から、人間の注視し易い位置に基づき単調傾向か判定可能となる。人間(運転者)の注視し易い位置に基づいて判定されるため、運転者が単調と感じるのと近い傾向で判定することができ、より精度良く判定することができる。 Hereinafter, a determination device according to an embodiment of the present invention will be described. In the determination device according to the embodiment of the present invention, the acquisition unit estimates the visual saliency distribution information in the image based on the image obtained by capturing the outside from the moving body, and obtains the visual saliency distribution information. The image is acquired, and the determination unit determines whether the image tends to be monotonous using the statistic calculated based on the visual saliency distribution information. By doing so, it is possible to determine from the captured image whether the tendency is monotonous based on a position that is easy for a human to gaze at. Since the determination is based on a position that is easy for a human (driver) to gaze at, the determination can be made with a tendency close to that of the driver feeling monotonous, and the determination can be made more accurately.

また、視覚顕著性分布情報として得られた画像内の各画素の輝度の標準偏差を算出する標準偏差算出部を備え、判定部は、算出された標準偏差に基づいて当該画像が単調傾向か判定してもよい。このようにすることにより、1枚の画像において、注視し易い位置が集中している場合に単調傾向と判定することができる。 In addition, it is equipped with a standard deviation calculation unit that calculates the standard deviation of the brightness of each pixel in the image obtained as visual saliency distribution information, and the determination unit determines whether the image tends to be monotonous based on the calculated standard deviation. You may. By doing so, it can be determined that there is a monotonous tendency when the positions that are easy to gaze at are concentrated in one image.

また、視覚顕著性分布情報として得られた画像内の各画素の輝度の平均値を算出する平均値算出部を備え、判定部は、算出された平均値に基づいて当該画像が単調傾向か判定してもよい。このようにすることにより、1枚の画像において、注視し易い位置が集中している場合に単調傾向と判定することができる。また、平均値により判定するので、演算処理を簡素化することができる。 In addition, it is provided with an average value calculation unit that calculates the average value of the brightness of each pixel in the image obtained as visual saliency distribution information, and the determination unit determines whether the image tends to be monotonous based on the calculated average value. You may. By doing so, it can be determined that there is a monotonous tendency when the positions that are easy to gaze at are concentrated in one image. Further, since the determination is made based on the average value, the arithmetic processing can be simplified.

また、取得部は、視覚顕著性分布情報を時系列に取得し、判定部は、時系列に取得した視覚顕著性分布情報から統計量を算出し、時系列に得られた統計量に基づいて単調傾向か判定する第一判定部と、自己相関に基づいて単調傾向か判定する第二判定部と、を備えてもよい。このようにすることにより、統計量のみでは判定が困難な走行中に現れる街灯等の周期的に現れる物体による単調傾向を自己相関により判定することができる。 In addition, the acquisition unit acquires the visual saliency distribution information in a time series, and the determination unit calculates a statistic from the visual saliency distribution information acquired in the time series, and based on the statistic obtained in the time series. A first determination unit for determining whether the tendency is monotonous and a second determination unit for determining whether the tendency is monotonous based on autocorrelation may be provided. By doing so, it is possible to determine the monotonous tendency due to periodically appearing objects such as street lights appearing during traveling, which is difficult to determine only by the statistic, by autocorrelation.

また、視覚顕著性分布情報として時系列に得られた画像に基づいてフレーム間の視線移動量を算出する視線移動量算出部を備え、判定部は、算出された視線移動量に基づいて当該画像が単調傾向か判定してもよい。このようにすることにより、例えば視線移動量が小さい場合は単調傾向などと判定することができる。 In addition, it is provided with a line-of-sight movement amount calculation unit that calculates the line-of-sight movement amount between frames based on images obtained in time series as visual saliency distribution information, and the determination unit is the image based on the calculated line-of-sight movement amount. May be determined whether is a monotonous tendency. By doing so, for example, when the amount of movement of the line of sight is small, it can be determined that the tendency is monotonous.

また、取得部は、画像を写像処理可能な中間データに変換する入力部と、中間データを写像データに変換する非線形写像部と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、非線形写像部は、中間データに対し特徴の抽出を行う特徴抽出部と、特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備えてもよい。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。また、このようにして推定した視覚顕著性は、文脈的な注意状態を反映したものとなる。 In addition, the acquisition unit generates an input unit that converts an image into intermediate data that can be mapped, a non-linear mapping unit that converts intermediate data into mapping data, and saliency estimation information that shows a saliency distribution based on the mapping data. The non-linear mapping unit may include an output unit, a feature extraction unit that extracts features from intermediate data, and an upsample unit that upsamples the data generated by the feature extraction unit. By doing so, the visual prominence can be estimated at a small calculation cost. Moreover, the visual saliency estimated in this way reflects the contextual attention state.

また、本発明の一実施形態にかかる判定方法は、取得工程で、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得し、判定工程で、視覚顕著性分布情報に基づいて算出された統計量を用いて当該画像が単調傾向か判定する。このようにすることにより、撮像した画像から、人間の注視し易い位置に基づき単調傾向か判定可能となる。人間(運転者)の注視し易い位置に基づいて判定されるため、運転者が単調と感じるのと近い傾向で判定することができ、より判定精度を良くすることができる。 Further, the determination method according to the embodiment of the present invention is a visual saliency distribution obtained by estimating the level of visual saliency in the image based on an image obtained by capturing the outside from a moving body in the acquisition step. Information is acquired, and in the determination step, it is determined whether the image tends to be monotonous using the statistics calculated based on the visual saliency distribution information. By doing so, it is possible to determine from the captured image whether the tendency is monotonous based on a position that is easy for a human to gaze at. Since the determination is based on a position that is easy for a human (driver) to gaze at, the determination can be made with a tendency close to that of the driver feeling monotonous, and the determination accuracy can be further improved.

また、上述した判定方法を、コンピュータにより実行させている。このようにすることにより、コンピュータを用いて撮像した画像から、人間の注視し易い位置に基づき単調傾向か判定可能となる。 Further, the above-mentioned determination method is executed by a computer. By doing so, it is possible to determine whether or not the image has a monotonous tendency based on a position that is easy for a human to gaze from an image captured by a computer.

また、上述した判定プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。 Further, the determination program described above may be stored in a computer-readable storage medium. By doing so, the program can be distributed as a single unit in addition to being incorporated in the device, and version upgrades and the like can be easily performed.

本発明の第1の実施例にかかる判定装置を図1〜図9を参照して説明する。本実施例にかかる判定装置は、例えば自動車等の移動体に設置されるに限らず、事業所等に設置されるサーバ装置等で構成してもよい。即ち、リアルタイムに解析する必要はなく、走行後等に解析を行ってもよい。 The determination device according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 9. The determination device according to this embodiment is not limited to being installed in a moving body such as an automobile, for example, and may be configured by a server device or the like installed in a business establishment or the like. That is, it is not necessary to analyze in real time, and the analysis may be performed after running or the like.

図1に示したように、判定装置1は、風景画像取得部2と、風景画像処理部3と、単調判定部4と、を備えている。 As shown in FIG. 1, the determination device 1 includes a landscape image acquisition unit 2, a landscape image processing unit 3, and a monotonous determination unit 4.

風景画像取得部2は、例えばカメラなどで撮像された画像(例えば動画像)が入力され、その画像を画像データとして出力する。なお、入力された動画像は、例えばフレーム毎等の時系列に分解された画像データとして出力する。風景画像取得部2に入力される画像として静止画を入力してもよいが、時系列に沿った複数の静止画からなる画像群として入力するのが好ましい。 The landscape image acquisition unit 2 inputs, for example, an image captured by a camera or the like (for example, a moving image), and outputs the image as image data. The input moving image is output as image data decomposed in time series such as for each frame. A still image may be input as an image to be input to the landscape image acquisition unit 2, but it is preferable to input as an image group composed of a plurality of still images in chronological order.

風景画像取得部2に入力される画像は、例えば車両の進行方向が撮像された画像が挙げられる。つまり、移動体から外部を連続的に撮像した画像とする。この画像はいわゆるパノラマ画像や複数カメラを用いて取得した画像等の水平方向に180°や360°等進行方向以外が含まれる画像であってもよい。また、風景画像取得部2には入力されるのは、カメラで撮像された画像に限らず、ハードディスクドライブやメモリカード等の記録媒体から読み出した画像であってもよい。 Examples of the image input to the landscape image acquisition unit 2 include an image in which the traveling direction of the vehicle is captured. That is, the image is obtained by continuously capturing the outside from the moving body. This image may be an image including a so-called panoramic image, an image acquired by using a plurality of cameras, or the like, which includes a direction other than the traveling direction such as 180 ° or 360 ° in the horizontal direction. Further, what is input to the landscape image acquisition unit 2 is not limited to the image captured by the camera, but may be an image read from a recording medium such as a hard disk drive or a memory card.

風景画像処理部3は、風景画像取得部2から画像データが入力され、後述する視覚顕著性推定情報として視覚顕著性マップを出力する。即ち、風景画像処理部3は、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップ(視覚顕著性分布情報)を取得する取得部として機能する。 The landscape image processing unit 3 receives image data from the landscape image acquisition unit 2 and outputs a visual saliency map as visual saliency estimation information described later. That is, the landscape image processing unit 3 acquires a visual saliency map (visual saliency distribution information) obtained by estimating the level of visual saliency in the image based on an image obtained by capturing the outside from a moving body. Functions as an acquisition unit.

図2は、風景画像処理部3の構成を例示するブロック図である。本実施例に係る風景画像処理部3は、入力部310、非線形写像部320、出力部330および記憶部390を備える。入力部310は、画像を写像処理可能な中間データに変換する。非線形写像部320は、中間データを写像データに変換する。出力部330は、写像データに基づき顕著性分布を示す顕著性推定情報を生成する。そして、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322とを備える。記憶部390は、風景画像取得部2から入力された画像データや後述するフィルタの係数等が保持されている。以下に詳しく説明する。 FIG. 2 is a block diagram illustrating the configuration of the landscape image processing unit 3. The landscape image processing unit 3 according to this embodiment includes an input unit 310, a non-linear mapping unit 320, an output unit 330, and a storage unit 390. The input unit 310 converts the image into intermediate data that can be mapped. The non-linear mapping unit 320 converts the intermediate data into mapping data. The output unit 330 generates saliency estimation information showing a saliency distribution based on the mapping data. The nonlinear mapping unit 320 includes a feature extraction unit 321 that extracts features from the intermediate data, and an upsampling unit 322 that upsamples the data generated by the feature extraction unit 321. The storage unit 390 holds the image data input from the landscape image acquisition unit 2, the coefficients of the filter described later, and the like. This will be described in detail below.

図3(a)は、風景画像処理部3へ入力する画像を例示する図であり、図3(b)は、図3(a)に対し推定される、視覚顕著性分布を示す画像を例示する図である。本実施例に係る風景画像処理部3は、画像における各部分の視覚顕著性を推定する装置である。視覚顕著性とは例えば、目立ちやすさや視線の集まりやすさを意味する。具体的には視覚顕著性は、確率等で示される。ここで、確率の大小は、たとえばその画像を見た人の視線がその位置に向く確率の大小に対応する。 FIG. 3 (a) is a diagram illustrating an image to be input to the landscape image processing unit 3, and FIG. 3 (b) illustrates an image showing a visual saliency distribution estimated with respect to FIG. 3 (a). It is a figure to do. The landscape image processing unit 3 according to this embodiment is a device that estimates the visual prominence of each part in the image. Visual prominence means, for example, the ease of conspicuousness and the ease of gathering eyes. Specifically, the visual prominence is indicated by a probability or the like. Here, the magnitude of the probability corresponds to, for example, the magnitude of the probability that the line of sight of the person who sees the image points to the position.

図3(a)と図3(b)とは、互いに位置が対応している。そして、図3(a)において、視覚顕著性が高い位置ほど、図3(b)において輝度が高く表示されている。図3(b)のような視覚顕著性分布を示す画像は、出力部330が出力する視覚顕著性マップの一例である。本図の例において、視覚顕著性は、256階調の輝度値で可視化されている。出力部330が出力する視覚顕著性マップの例については詳しく後述する。 The positions of FIGS. 3 (a) and 3 (b) correspond to each other. Then, in FIG. 3A, the higher the visual prominence is, the higher the brightness is displayed in FIG. 3B. The image showing the visual saliency distribution as shown in FIG. 3B is an example of the visual saliency map output by the output unit 330. In the example of this figure, the visual saliency is visualized by the luminance value of 256 gradations. An example of the visual saliency map output by the output unit 330 will be described in detail later.

図4は、本実施例に係る風景画像処理部3の動作を例示するフローチャートである。図4に示したフローチャートは、コンピュータによって実行される判定方法の一部であって、入力ステップS110、非線形写像ステップS120、および出力ステップS130を含む。入力ステップS110では、画像が写像処理可能な中間データに変換される。非線形写像ステップS120では、中間データが写像データに変換される。出力ステップS130では、写像データに基づき顕著性分布を示す視覚顕著性推定情報(視覚顕著性分布情報)が生成される。ここで、非線形写像ステップS120は、中間データに対し特徴の抽出を行う特徴抽出ステップS121と、特徴抽出ステップS121で生成されたデータのアップサンプルを行うアップサンプルステップS122とを含む。 FIG. 4 is a flowchart illustrating the operation of the landscape image processing unit 3 according to the present embodiment. The flowchart shown in FIG. 4 is part of a determination method performed by a computer and includes an input step S110, a non-linear mapping step S120, and an output step S130. In the input step S110, the image is converted into intermediate data that can be mapped. In the nonlinear mapping step S120, the intermediate data is converted into mapping data. In the output step S130, visual saliency estimation information (visual saliency distribution information) showing a saliency distribution is generated based on the mapping data. Here, the nonlinear mapping step S120 includes a feature extraction step S121 for extracting features from the intermediate data and an upsampling step S122 for upsampling the data generated in the feature extraction step S121.

図2に戻り、風景画像処理部3の各構成要素について説明する。入力ステップS110において入力部310は、画像を取得し、中間データに変換する。入力部310は、画像データを風景画像取得部2から取得する。そして入力部310は、取得した画像を中間データに変換する。中間データは非線形写像部320が受け付け可能なデータであれば特に限定されないが、たとえば高次元テンソルである。また、中間データはたとえば、取得した画像に対し輝度を正規化したデータ、または、取得した画像の各画素を、輝度の傾きに変換したデータである。入力ステップS110において入力部310は、さらに画像のノイズ除去や解像度変換等を行っても良い。 Returning to FIG. 2, each component of the landscape image processing unit 3 will be described. In the input step S110, the input unit 310 acquires an image and converts it into intermediate data. The input unit 310 acquires image data from the landscape image acquisition unit 2. Then, the input unit 310 converts the acquired image into intermediate data. The intermediate data is not particularly limited as long as it is data that can be accepted by the nonlinear mapping unit 320, but is, for example, a high-dimensional tensor. Further, the intermediate data is, for example, data in which the brightness of the acquired image is normalized, or data in which each pixel of the acquired image is converted into a slope of the brightness. In the input step S110, the input unit 310 may further perform image noise removal, resolution conversion, and the like.

非線形写像ステップS120において、非線形写像部320は入力部310から中間データを取得する。そして、非線形写像部320において中間データが写像データに変換される。ここで、写像データは例えば高次元テンソルである。非線形写像部320で中間データに施される写像処理は、たとえばパラメータ等により制御可能な写像処理であり、関数、汎関数、またはニューラルネットワークによる処理であることが好ましい。 In the nonlinear mapping step S120, the nonlinear mapping unit 320 acquires intermediate data from the input unit 310. Then, the non-linear mapping unit 320 converts the intermediate data into mapping data. Here, the mapping data is, for example, a high-dimensional tensor. The mapping process applied to the intermediate data by the nonlinear mapping unit 320 is, for example, a mapping process that can be controlled by a parameter or the like, and is preferably a function, a functional, or a neural network process.

図5は、非線形写像部320の構成を詳しく例示する図であり、図6は、中間層323の構成を例示する図である。上記した通り、非線形写像部320は、特徴抽出部321およびアップサンプル部322を備える。特徴抽出部321において特徴抽出ステップS121が行われ、アップサンプル部322においてアップサンプルステップS122が行われる。また、本図の例において、特徴抽出部321およびアップサンプル部322の少なくとも一方は、複数の中間層323を含むニューラルネットワークを含んで構成される。ニューラルネットワークにおいては、複数の中間層323が結合されている。 FIG. 5 is a diagram illustrating the configuration of the nonlinear mapping unit 320 in detail, and FIG. 6 is a diagram illustrating the configuration of the intermediate layer 323. As described above, the nonlinear mapping unit 320 includes a feature extraction unit 321 and an upsampling unit 322. The feature extraction step S121 is performed in the feature extraction unit 321, and the upsample step S122 is performed in the upsample unit 322. Further, in the example of this figure, at least one of the feature extraction unit 321 and the upsampling unit 322 is configured to include a neural network including a plurality of intermediate layers 323. In the neural network, a plurality of intermediate layers 323 are connected.

特にニューラルネットワークは畳み込みニューラルネットワークであることが好ましい。具体的には、複数の中間層323のそれぞれは、一または二以上の畳み込み層324を含む。そして、畳み込み層324では、入力されたデータに対し複数のフィルタ325による畳み込みが行われ、複数のフィルタ325の出力に対し活性化処理が施される。 In particular, the neural network is preferably a convolutional neural network. Specifically, each of the plurality of intermediate layers 323 includes one or more convolutional layers 324. Then, in the convolution layer 324, the input data is convolved by the plurality of filters 325, and the outputs of the plurality of filters 325 are activated.

図5の例において、特徴抽出部321は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間に第1のプーリング部326を備える。また、アップサンプル部322は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間にアンプーリング部328を備える。さらに、特徴抽出部321とアップサンプル部322とは、オーバーラッププーリングを行う第2のプーリング部327を介して互いに接続されている。 In the example of FIG. 5, the feature extraction unit 321 is configured to include a neural network including a plurality of intermediate layers 323, and includes a first pooling unit 326 between the plurality of intermediate layers 323. Further, the upsampling unit 322 is configured to include a neural network including a plurality of intermediate layers 323, and an amplifiering unit 328 is provided between the plurality of intermediate layers 323. Further, the feature extraction unit 321 and the upsampling unit 322 are connected to each other via a second pooling unit 327 that performs overlap pooling.

なお、本図の例において各中間層323は、二以上の畳み込み層324からなる。ただし、少なくとも一部の中間層323は、一の畳み込み層324のみからなってもよい。互いに隣り合う中間層323は、第1のプーリング部326、第2のプーリング部327およびアンプーリング部328のいずれかで区切られる。ここで、中間層323に二以上の畳み込み層324が含まれる場合、それらの畳み込み層324におけるフィルタ325の数は互いに等しいことが好ましい。 In the example of this figure, each intermediate layer 323 is composed of two or more convolutional layers 324. However, at least a part of the intermediate layer 323 may consist of only one convolution layer 324. The intermediate layers 323 adjacent to each other are separated by one of a first pooling portion 326, a second pooling portion 327, and an amplifiering portion 328. Here, when the intermediate layer 323 includes two or more convolution layers 324, it is preferable that the number of filters 325 in the convolution layers 324 is equal to each other.

本図では、「A×B」と記された中間層323は、B個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対しA個の畳み込みフィルタを含むことを意味している。このような中間層323を以下では「A×B中間層」とも呼ぶ。たとえば、64×2中間層323は、2個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対し64個の畳み込みフィルタを含むことを意味している。 In this figure, the intermediate layer 323 marked "AxB" is composed of B convolution layers 324, meaning that each convolution layer 324 includes A convolution filters for each channel. .. Such an intermediate layer 323 will also be referred to as an "A × B intermediate layer" below. For example, the 64 × 2 intermediate layer 323 consists of two convolution layers 324, meaning that each convolution layer 324 includes 64 convolution filters for each channel.

本図の例において、特徴抽出部321は、64×2中間層323、128×2中間層323、256×3中間層323、および、512×3中間層323をこの順に含む。また、アップサンプル部322は、512×3中間層323、256×3中間層323、128×2中間層323、および64×2中間層323をこの順に含む。また、第2のプーリング部327は、2つの512×3中間層323を互いに接続している。なお、非線形写像部320を構成する中間層323の数は特に限定されず、たとえば画像データの画素数に応じて定めることができる。 In the example of this figure, the feature extraction unit 321 includes a 64 × 2 intermediate layer 323, a 128 × 2 intermediate layer 323, a 256 × 3 intermediate layer 323, and a 512 × 3 intermediate layer 323 in this order. Further, the upsampling unit 322 includes 512 × 3 intermediate layer 323, 256 × 3 intermediate layer 323, 128 × 2 intermediate layer 323, and 64 × 2 intermediate layer 323 in this order. Further, the second pooling portion 327 connects two 512 × 3 intermediate layers 323 to each other. The number of intermediate layers 323 constituting the nonlinear mapping unit 320 is not particularly limited, and can be determined according to, for example, the number of pixels of the image data.

なお、本図は非線形写像部320の構成の一例であり、非線形写像部320は他の構成を有していても良い。たとえば、64×2中間層323の代わりに64×1中間層323が含まれても良い。中間層323に含まれる畳み込み層324の数が削減されることで、計算コストがより低減される可能性がある。また、たとえば、64×2中間層323の代わりに32×2中間層323が含まれても良い。中間層323のチャネル数が削減されることで、計算コストがより低減される可能性がある。さらに、中間層323における畳み込み層324の数とチャネル数との両方を削減しても良い。 Note that this figure is an example of the configuration of the nonlinear mapping unit 320, and the nonlinear mapping unit 320 may have another configuration. For example, the 64 × 1 intermediate layer 323 may be included instead of the 64 × 2 intermediate layer 323. By reducing the number of convolution layers 324 included in the intermediate layer 323, the calculation cost may be further reduced. Further, for example, the 32 × 2 intermediate layer 323 may be included instead of the 64 × 2 intermediate layer 323. By reducing the number of channels in the intermediate layer 323, the calculation cost may be further reduced. Further, both the number of convolution layers 324 and the number of channels in the intermediate layer 323 may be reduced.

ここで、特徴抽出部321に含まれる複数の中間層323においては、第1のプーリング部326を経る毎にフィルタ325の数が増加することが好ましい。具体的には、第1の中間層323aと第2の中間層323bとが、第1のプーリング部326を介して互いに連続しており、第1の中間層323aの後段に第2の中間層323bが位置する。そして、第1の中間層323aは、各チャネルに対するフィルタ325の数がN1である畳み込み層324で構成されており、第2の中間層323bは、各チャネルに対するフィルタ
325の数がN2である畳み込み層324で構成されている。このとき、N2>N1が成り立つことが好ましい。また、N2=N1×2が成り立つことがより好ましい。
Here, in the plurality of intermediate layers 323 included in the feature extraction unit 321, it is preferable that the number of filters 325 increases each time the first pooling unit 326 is passed. Specifically, the first intermediate layer 323a and the second intermediate layer 323b are continuous with each other via the first pooling portion 326, and the second intermediate layer is behind the first intermediate layer 323a. 323b is located. The first intermediate layer 323a is composed of a convolution layer 324 in which the number of filters 325 for each channel is N1, and the second intermediate layer 323b is a convolution layer in which the number of filters 325 for each channel is N2. It is composed of layers 324. At this time, it is preferable that N2> N1 holds. Further, it is more preferable that N2 = N1 × 2 holds.

また、アップサンプル部322に含まれる複数の中間層323においては、アンプーリング部328を経る毎にフィルタ325の数が減少することが好ましい。具体的には、第3の中間層323cと第4の中間層323dとが、アンプーリング部328を介して互いに連続しており、第3の中間層323cの後段に第4の中間層323dが位置する。そして、第3の中間層323cは、各チャネルに対するフィルタ325の数がN3である畳み込み層324で構成されており、第4の中間層323dは、各チャネルに対するフィルタ325の数がN4である畳み込み層324で構成されている。このとき、N4<N3が成り立つことが好ましい。また、N3=N4×2が成り立つことがより好ましい。 Further, in the plurality of intermediate layers 323 included in the upsample unit 322, it is preferable that the number of filters 325 decreases each time the amplifier ring unit 328 is passed through. Specifically, the third intermediate layer 323c and the fourth intermediate layer 323d are continuous with each other via the amplifiering portion 328, and the fourth intermediate layer 323d is located after the third intermediate layer 323c. To position. The third intermediate layer 323c is composed of a convolution layer 324 in which the number of filters 325 for each channel is N3, and the fourth intermediate layer 323d is a convolution layer in which the number of filters 325 for each channel is N4. It is composed of layers 324. At this time, it is preferable that N4 <N3 holds. Further, it is more preferable that N3 = N4 × 2 holds.

特徴抽出部321では、入力部310から取得した中間データから勾配や形状など、複数の抽象度を持つ画像特徴を中間層323のチャネルとして抽出する。図6は、64×2
中間層323の構成を例示している。本図を参照して、中間層323における処理を説明する。本図の例において、中間層323は第1の畳み込み層324aと第2の畳み込み層324bとで構成されており、各畳み込み層324は64個のフィルタ325を備える。第1の畳み込み層324aでは、中間層323に入力されたデータの各チャネルに対して、フィルタ325を用いた畳み込み処理が施される。たとえば入力部310へ入力された画像がRGB画像である場合、3つのチャネルh (i=1..3)のそれぞれに対して処理が施される。また、本図の例において、フィルタ325は64種の3×3フィルタであり、すなわち合計64×3種のフィルタである。畳み込み処理の結果、各チャネルiに対して、64個の結果h i,j(i=1..3,j=1..64)が得られる。
The feature extraction unit 321 extracts image features having a plurality of abstractions such as gradients and shapes from the intermediate data acquired from the input unit 310 as channels of the intermediate layer 323. FIG. 6 shows 64 × 2.
The configuration of the intermediate layer 323 is illustrated. The processing in the intermediate layer 323 will be described with reference to this figure. In the example of this figure, the intermediate layer 323 is composed of a first convolution layer 324a and a second convolution layer 324b, and each convolution layer 324 includes 64 filters 325. In the first convolution layer 324a, each channel of the data input to the intermediate layer 323 is subjected to a convolution process using the filter 325. For example, when the image input to the input unit 310 is an RGB image, processing is performed on each of the three channels h 0 i (i = 1.3). Further, in the example of this figure, the filter 325 is 64 types of 3 × 3 filters, that is, a total of 64 × 3 types of filters. As a result of the convolution process, 64 results h 0 i, j (i = 1..3, j = 1...64) are obtained for each channel i.

次に、複数のフィルタ325の出力に対し、活性化部329において活性化処理が行われる。具体的には、全チャネルの対応する結果jについて、対応する要素毎の総和に活性化処理が施される。この活性化処理により、64チャネルの結果h (i=1..64
)、すなわち、第1の畳み込み層324aの出力が、画像特徴として得られる。活性化処理は特に限定されないが、双曲関数、シグモイド関数、および正規化線形関数の少なくともいずれかを用いる処理が好ましい。
Next, the activation process is performed on the output of the plurality of filters 325 in the activation unit 329. Specifically, for the corresponding result j of all channels, the activation process is applied to the sum of the corresponding elements. This activation treatment resulted in 64 channels h 1 i (i = 1..64).
), That is, the output of the first convolution layer 324a is obtained as an image feature. The activation process is not particularly limited, but a process using at least one of a hyperbolic function, a sigmoid function, and a rectified linear function is preferable.

さらに、第1の畳み込み層324aの出力データを第2の畳み込み層324bの入力データとし、第2の畳み込み層324bにて第1の畳み込み層324aと同様の処理を行って、64チャネルの結果h (i=1..64)、すなわち第2の畳み込み層324bの出力が、画像特徴として得られる。第2の畳み込み層324bの出力がこの64×2中間層323の出力データとなる。 Further, the output data of the first convolution layer 324a is used as the input data of the second convolution layer 324b, and the second convolution layer 324b performs the same processing as that of the first convolution layer 324a, resulting in 64 channels. The output of 2 i (i = 1..64), i.e., the second convolution layer 324b, is obtained as an image feature. The output of the second convolution layer 324b becomes the output data of the 64 × 2 intermediate layer 323.

ここで、フィルタ325の構造は特に限定されないが、3×3の二次元フィルタであることが好ましい。また、各フィルタ325の係数は独立に設定可能である。本実施例において、各フィルタ325の係数は記憶部390に保持されており、非線形写像部320がそれを読み出して処理に用いることができる。ここで、複数のフィルタ325の係数は機械学習を用いて生成、修正された補正情報に基づいて定められてもよい。たとえば、補正情報は、複数のフィルタ325の係数を、複数の補正パラメータとして含む。非線形写像部320は、この補正情報をさらに用いて中間データを写像データに変換することができる。記憶部390は風景画像処理部3に備えられていてもよいし、風景画像処理部3の外部に設けられていてもよい。また、非線形写像部320は補正情報を、通信ネットワークを介して外部から取得しても良い。 Here, the structure of the filter 325 is not particularly limited, but a 3 × 3 two-dimensional filter is preferable. Further, the coefficient of each filter 325 can be set independently. In this embodiment, the coefficient of each filter 325 is stored in the storage unit 390, and the nonlinear mapping unit 320 can read it out and use it for processing. Here, the coefficients of the plurality of filters 325 may be determined based on the correction information generated and corrected by using machine learning. For example, the correction information includes the coefficients of the plurality of filters 325 as a plurality of correction parameters. The nonlinear mapping unit 320 can further use this correction information to convert intermediate data into mapping data. The storage unit 390 may be provided in the landscape image processing unit 3 or may be provided outside the landscape image processing unit 3. Further, the nonlinear mapping unit 320 may acquire the correction information from the outside via the communication network.

図7(a)および図7(b)はそれぞれ、フィルタ325で行われる畳み込み処理の例を示す図である。図7(a)および図7(b)では、いずれも3×3畳み込みの例が示されている。図7(a)の例は、最近接要素を用いた畳み込み処理である。図7(b)の例は、距離が二以上の近接要素を用いた畳み込み処理である。なお、距離が三以上の近接要素を用いた畳み込み処理も可能である。フィルタ325は、距離が二以上の近接要素を用いた畳み込み処理を行うことが好ましい。より広範囲の特徴を抽出することができ、視覚顕著性の推定精度をさらに高めることができるからである。 7 (a) and 7 (b) are diagrams showing an example of the convolution process performed by the filter 325, respectively. In both FIGS. 7 (a) and 7 (b), an example of 3 × 3 convolution is shown. The example of FIG. 7A is a convolution process using the closest element. The example of FIG. 7B is a convolution process using proximity elements having a distance of two or more. It should be noted that a convolution process using proximity elements having a distance of three or more is also possible. The filter 325 preferably performs a convolution process using proximity elements having a distance of two or more. This is because a wider range of features can be extracted and the accuracy of estimating visual saliency can be further improved.

以上、64×2中間層323の動作について説明した。他の中間層323(128×2中間層323、256×3中間層323、および、512×3中間層323等)の動作についても、畳み込み層324の数およびチャネルの数を除いて、64×2中間層323の動作と同じである。また、特徴抽出部321における中間層323の動作も、アップサンプル部322における中間層323の動作も上記と同様である。 The operation of the 64 × 2 intermediate layer 323 has been described above. The operation of the other intermediate layers 323 (128 × 2 intermediate layer 323, 256 × 3 intermediate layer 323, 512 × 3 intermediate layer 323, etc.) is also 64 ×, excluding the number of convolution layers 324 and the number of channels. 2 The operation is the same as that of the intermediate layer 323. Further, the operation of the intermediate layer 323 in the feature extraction unit 321 and the operation of the intermediate layer 323 in the upsampling unit 322 are the same as described above.

図8(a)は、第1のプーリング部326の処理を説明するための図であり、図8(b)は、第2のプーリング部327の処理を説明するための図であり、図8(c)は、アンプーリング部328の処理を説明するための図である。 FIG. 8A is a diagram for explaining the processing of the first pooling unit 326, and FIG. 8B is a diagram for explaining the processing of the second pooling unit 327, and FIG. 8B is a diagram for explaining the processing of the second pooling unit 327. (C) is a diagram for explaining the processing of the amplifier ring unit 328.

特徴抽出部321において、中間層323から出力されたデータは、第1のプーリング部326においてチャネル毎にプーリング処理が施された後、次の中間層323に入力される。第1のプーリング部326ではたとえば、非オーバーラップのプーリング処理が行われる。図8(a)では、各チャネルに含まれる要素群に対し、2×2の4つの要素30を1つの要素30に対応づける処理を示している。第1のプーリング部326ではこのような対応づけが全ての要素30に対し行われる。ここで、2×2の4つの要素30は互いに重ならないよう選択される。本例では、各チャネルの要素数が4分の1に縮小される。なお、第1のプーリング部326において要素数が縮小される限り、対応づける前後の要素30の数は特に限定されない。 The data output from the intermediate layer 323 in the feature extraction unit 321 is input to the next intermediate layer 323 after the pooling process is performed for each channel in the first pooling unit 326. In the first pooling unit 326, for example, a non-overlapping pooling process is performed. FIG. 8A shows a process of associating four 2 × 2 elements 30 with one element 30 for an element group included in each channel. In the first pooling unit 326, such a correspondence is made for all the elements 30. Here, the four elements 30 of 2 × 2 are selected so as not to overlap each other. In this example, the number of elements in each channel is reduced to a quarter. As long as the number of elements in the first pooling unit 326 is reduced, the number of elements 30 before and after the association is not particularly limited.

特徴抽出部321から出力されたデータは、第2のプーリング部327を介してアップサンプル部322に入力される。第2のプーリング部327では、特徴抽出部321からの出力データに対し、オーバーラッププーリングが施される。図8(b)では、一部の要素30をオーバーラップさせながら、2×2の4つの要素30を1つの要素30に対応づける処理を示している。すなわち、繰り返される対応づけにおいて、ある対応づけにおける2×2の4つの要素30のうち一部が、次の対応づけにおける2×2の4つの要素30にも含まれる。本図のような第2のプーリング部327では要素数は縮小されない。なお、第2のプーリング部327において対応づける前後の要素30の数は特に限定されない。 The data output from the feature extraction unit 321 is input to the upsampling unit 322 via the second pooling unit 327. In the second pooling unit 327, overlap pooling is applied to the output data from the feature extraction unit 321. FIG. 8B shows a process of associating four 2 × 2 elements 30 with one element 30 while overlapping some elements 30. That is, in the repeated association, a part of the 2 × 2 four elements 30 in one association is also included in the 2 × 2 four elements 30 in the next association. The number of elements is not reduced in the second pooling unit 327 as shown in this figure. The number of elements 30 before and after being associated with the second pooling unit 327 is not particularly limited.

第1のプーリング部326および第2のプーリング部327で行われる各処理の方法は特に限定されないが、たとえば、4つの要素30の最大値を1つの要素30とする対応づけ(max pooling)や4つの要素30の平均値を1つの要素30とする対応づけ(average pooling)が挙げられる。 The method of each processing performed by the first pooling unit 326 and the second pooling unit 327 is not particularly limited, but for example, a mapping (max pooling) in which the maximum value of the four elements 30 is set as one element 30 or 4 An association (average pooling) in which the average value of one element 30 is set as one element 30 can be mentioned.

第2のプーリング部327から出力されたデータは、アップサンプル部322における中間層323に入力される。そして、アップサンプル部322の中間層323からの出力データはアンプーリング部328においてチャネル毎にアンプーリング処理が施された後、次の中間層323に入力される。図8(c)では、1つの要素30を複数の要素30に拡大する処理を示している。拡大の方法は特に限定されないが、1つの要素30を2×2の4つの要素30へ複製する方法が例として挙げられる。 The data output from the second pooling unit 327 is input to the intermediate layer 323 in the upsampling unit 322. Then, the output data from the intermediate layer 323 of the upsample unit 322 is input to the next intermediate layer 323 after the amplifiering process is performed for each channel in the amplifiering unit 328. FIG. 8C shows a process of expanding one element 30 to a plurality of elements 30. The method of enlargement is not particularly limited, and an example is a method of duplicating one element 30 into four 2 × 2 elements 30.

アップサンプル部322の最後の中間層323の出力データは写像データとして非線形写像部320から出力され、出力部330に入力される。出力ステップS130において出力部330は、非線形写像部320から取得したデータに対し、たとえば正規化や解像度変換等を行うことで視覚顕著性マップを生成し、出力する。視覚顕著性マップはたとえば、図3(b)に例示したような視覚顕著性を輝度値で可視化した画像(画像データ)である。また、視覚顕著性マップはたとえば、ヒートマップのように視覚顕著性に応じて色分けされた画像であっても良いし、視覚顕著性が予め定められた基準より高い視覚顕著領域を、その他の位置とは識別可能にマーキングした画像であっても良い。さらに、視覚顕著性推定情報は画像等として示されたマップ情報に限定されず、視覚顕著領域を示す情報を列挙したテーブル等であっても良い。 The output data of the last intermediate layer 323 of the upsampling unit 322 is output from the nonlinear mapping unit 320 as mapping data and input to the output unit 330. In the output step S130, the output unit 330 generates and outputs a visual saliency map by performing, for example, normalization or resolution conversion on the data acquired from the nonlinear mapping unit 320. The visual saliency map is, for example, an image (image data) in which the visual saliency as illustrated in FIG. 3B is visualized by a luminance value. Further, the visual saliency map may be an image color-coded according to the visual saliency, such as a heat map, or a visual saliency region having a visual saliency higher than a predetermined reference can be set at other positions. May be an image marked so as to be identifiable. Further, the visual prominence estimation information is not limited to the map information shown as an image or the like, and may be a table or the like listing information indicating the visually prominent region.

単調判定部4は、風景画像処理部3において取得した視覚顕著性マップに基づいて、風景画像取得部2に入力された画像が単調傾向か判定する。本実施例では、視覚顕著性マップから種々の統計量を算出し、その統計量に基づいて単調傾向か判定する。即ち、単調判定部4は、視覚顕著性マップ(視覚顕著性分布情報)に基づいて算出された統計量を用いて当該画像が単調傾向か判定する判定部として機能する。 The monotonous determination unit 4 determines whether the image input to the landscape image acquisition unit 2 has a monotonous tendency based on the visual saliency map acquired by the landscape image processing unit 3. In this embodiment, various statistics are calculated from the visual saliency map, and it is determined whether the tendency is monotonous based on the statistics. That is, the monotonous determination unit 4 functions as a determination unit for determining whether the image has a monotonous tendency by using the statistic calculated based on the visual saliency map (visual saliency distribution information).

図9に単調判定部4の動作のフローチャートを示す。まず、視覚顕著性マップを構成する画像(例えば図3(b))における各画素の輝度の標準偏差を演算する(ステップS11)。本ステップでは、まず、視覚顕著性マップを構成する画像における各画像の輝度の平均値を算出する。視覚顕著性マップを構成する画像がH画素×V画素であり、任意の座標(k,m)における輝度値をVVC(k,m)とすると、平均値は以下の(1)式で算出される。

Figure 2021144312
FIG. 9 shows a flowchart of the operation of the monotonous determination unit 4. First, the standard deviation of the brightness of each pixel in the image (for example, FIG. 3B) constituting the visual saliency map is calculated (step S11). In this step, first, the average value of the brightness of each image in the images constituting the visual saliency map is calculated. Assuming that the image constituting the visual saliency map is H pixel × V pixel and the luminance value at an arbitrary coordinate (k, m) is VVC (k, m) , the average value is calculated by the following equation (1). Will be done.
Figure 2021144312

(1)式により算出された平均値から視覚顕著性マップを構成する画像における各画像の輝度の標準偏差を算出する。標準偏差SDEVは以下の(2)式で算出される。

Figure 2021144312
From the average value calculated by the equation (1), the standard deviation of the brightness of each image in the image constituting the visual saliency map is calculated. The standard deviation SDEV is calculated by the following equation (2).
Figure 2021144312

ステップS11で算出された標準偏差について、出力結果が複数あるか判定する(ステップS12)。このステップでは、風景画像取得部2から入力された画像が動画像であり、フレーム単位で視覚顕著性マップが取得されて、ステップS11では複数フレーム分の標準偏差が算出されたかを判定している。 With respect to the standard deviation calculated in step S11, it is determined whether or not there are a plurality of output results (step S12). In this step, the image input from the landscape image acquisition unit 2 is a moving image, the visual saliency map is acquired in frame units, and in step S11, it is determined whether the standard deviations for a plurality of frames have been calculated. ..

出力結果が複数ある場合は(ステップS12;Yes)、視線移動量を演算する(ステップS13)。視線移動量は、本実施例では、時間的に前後のフレームそれぞれの視覚顕著性マップにおける輝度値が最大(最高)の座標距離により求めている。視線移動量VSAは、前のフレームにおける最高輝度値の座標を(x1,y1)、後のフレームにおける最高輝度値の座標を(x2,y2)とすると、次の(3)式で算出される。

Figure 2021144312
When there are a plurality of output results (step S12; Yes), the line-of-sight movement amount is calculated (step S13). In this embodiment, the line-of-sight movement amount is obtained from the coordinate distance at which the brightness value in the visual saliency map of each of the frames before and after is the maximum (maximum) in terms of time. The line-of-sight movement amount VSA is calculated by the following equation (3), where the coordinates of the maximum luminance value in the previous frame are (x1, y1) and the coordinates of the maximum luminance value in the subsequent frame are (x2, y2). ..
Figure 2021144312

そして、ステップS11で算出された標準偏差やS13で算出された視線移動量に基づいて単調傾向かを判定する(ステップS14)。本ステップでは、ステップS12がNoの場合は、ステップS11で算出される標準偏差に閾値を設け、その閾値と比較することで閾値と比較することで単調傾向かを判定すればよい。一方、ステップS12がYesの場合は、ステップS13で算出される視線移動量に閾値を設け、その閾値と比較することで閾値と比較することで単調傾向かを判定すればよい。 Then, it is determined whether the tendency is monotonous based on the standard deviation calculated in step S11 and the line-of-sight movement amount calculated in S13 (step S14). In this step, when step S12 is No, a threshold value may be set for the standard deviation calculated in step S11, and it may be determined whether the tendency is monotonous by comparing with the threshold value and comparing with the threshold value. On the other hand, when step S12 is Yes, a threshold value may be set for the line-of-sight movement amount calculated in step S13, and it may be determined whether the tendency is monotonous by comparing with the threshold value.

即ち、単調判定部4は、視覚顕著性マップ(視覚顕著性分布情報)として得られた画像内の各画素の輝度の標準偏差を算出する標準偏差算出部として機能し、視覚顕著性マップ(視覚顕著性分布情報)として時系列に得られた画像に基づいてフレーム間の視線移動量を算出する視線移動量算出部として機能する。 That is, the monotonous determination unit 4 functions as a standard deviation calculation unit for calculating the standard deviation of the brightness of each pixel in the image obtained as a visual saliency map (visual saliency distribution information), and the visual saliency map (visual saliency map). It functions as a line-of-sight movement amount calculation unit that calculates the line-of-sight movement amount between frames based on images obtained in time series as saliency distribution information).

なお、単調判定部4の処理結果(判定結果)は、判定装置1の外部に出力される。例えば、この処理結果に基づいて、車載ディスプレイ装置等に視覚的に単調な道路を走行している旨の報知を行ってもよいし、スピーカ等から聴覚的、あるいは、シート等の振動などにより報知を行ってもよい。さらには、単調判定部4の処理結果に基づいて、休息できる場所等へ誘導するようにしてもよい。また、運転におけるヒヤリハットの要因分析として判定結果を用いてもよい。 The processing result (determination result) of the monotonous determination unit 4 is output to the outside of the determination device 1. For example, based on this processing result, the in-vehicle display device or the like may be notified that the vehicle is traveling on a visually monotonous road, or the speaker or the like may notify the vehicle by hearing or by vibration of the seat or the like. May be done. Further, based on the processing result of the monotonous determination unit 4, the user may be guided to a place where he / she can rest. In addition, the determination result may be used as a factor analysis of the hiyari hat in driving.

また、上述した説明では、標準偏差により単調傾向か判定していたが、視覚顕著性マップの輝度の平均値、つまり、(1)式の結果に基づいて単調傾向か判定してもよい。輝度の平均値の場合も標準偏差と同様に閾値を設け、その閾値と比較することで単調傾向か判定すればよい。この場合は単調判定部4が平均値算出部として機能する。 Further, in the above description, whether the tendency is monotonous is determined by the standard deviation, but it may be determined whether the tendency is monotonous based on the average value of the brightness of the visual saliency map, that is, the result of the equation (1). In the case of the average value of the brightness, a threshold value may be set in the same manner as the standard deviation, and it may be determined whether the tendency is monotonous by comparing with the threshold value. In this case, the monotonous determination unit 4 functions as an average value calculation unit.

また、図1に示した構成を例えばコンピュータで実行されるプログラムとすることで、判定方法を実行する判定プログラムとすることができる。また、この判定プログラムは、判定装置1が有するメモリ等に記憶するに限らず、メモリカードや光ディスク等の記憶媒体に格納してもよい。 Further, by setting the configuration shown in FIG. 1 as, for example, a program executed by a computer, it is possible to obtain a determination program that executes the determination method. Further, this determination program is not limited to being stored in the memory or the like of the determination device 1, and may be stored in a storage medium such as a memory card or an optical disk.

本実施例によれば、判定装置1は、風景画像処理部3が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを時系列に取得し、単調判定部4が、視覚顕著性マップに基づいて算出された標準偏差や視線移動量等に基づいて当該画像が単調傾向か判定する。このようにすることにより、撮像した画像から、人間の注視し易い位置に基づき単調傾向か判定可能となる。人間(運転者)の注視し易い位置に基づいて判定されるため、運転者が単調と感じるのと近い傾向で判定することができ、より精度良く判定することができる。 According to this embodiment, the determination device 1 is obtained by the landscape image processing unit 3 estimating the level of visual saliency in the image based on the image obtained by capturing the outside from the moving body. The map is acquired in chronological order, and the monotonic determination unit 4 determines whether the image tends to be monotonous based on the standard deviation calculated based on the visual saliency map, the amount of movement of the line of sight, and the like. By doing so, it is possible to determine from the captured image whether the tendency is monotonous based on a position that is easy for a human to gaze at. Since the determination is based on a position that is easy for a human (driver) to gaze at, the determination can be made with a tendency close to that of the driver feeling monotonous, and the determination can be made more accurately.

また、単調判定部4は、視覚顕著性マップとして得られた画像内の各画素の輝度の標準偏差を算出し、そして、算出された標準偏差に基づいて当該画像が単調傾向か判定している。このようにすることにより、1枚の画像において、注視し易い位置が集中している場合に単調傾向と判定することができる。 Further, the monotonic determination unit 4 calculates the standard deviation of the brightness of each pixel in the image obtained as the visual saliency map, and determines whether the image has a monotonous tendency based on the calculated standard deviation. .. By doing so, it can be determined that there is a monotonous tendency when the positions that are easy to gaze at are concentrated in one image.

また、単調判定部4は、視覚顕著性マップとして得られた画像内の各画素の輝度の平均値を算出し、そして、算出された平均値に基づいて当該画像が単調傾向か判定してもよい。このようにすることにより、1枚の画像において、注視し易い位置が集中している場合に単調傾向と判定することができる。また、平均値により判定するので、演算処理を簡素化することができる。 Further, the monotonic determination unit 4 calculates the average value of the brightness of each pixel in the image obtained as the visual saliency map, and determines whether the image has a monotonous tendency based on the calculated average value. good. By doing so, it can be determined that there is a monotonous tendency when the positions that are easy to gaze at are concentrated in one image. Further, since the determination is made based on the average value, the arithmetic processing can be simplified.

また、単調判定部4は、視覚顕著性マップとして時系列に得られた画像に基づいてフレーム間の視線移動量を算出し、そして、算出された視線移動量に基づいて単調傾向か判定している。このようにすることにより、動画像について判定する場合に、例えば視線移動量が小さい場合は単調傾向などと判定することができる。 Further, the monotonic determination unit 4 calculates the amount of line-of-sight movement between frames based on the images obtained in time series as a visual saliency map, and determines whether the tendency is monotonous based on the calculated amount of line-of-sight movement. There is. By doing so, when determining a moving image, for example, when the amount of movement of the line of sight is small, it can be determined that there is a monotonous tendency.

また、風景画像処理部3は、画像を写像処理可能な中間データに変換する入力部310と、中間データを写像データに変換する非線形写像部320と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部330と、を備え、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322と、を備えている。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。また、このようにして推定した視覚顕著性は、文脈的な注意状態を反映したものとなる。 Further, the landscape image processing unit 3 includes an input unit 310 that converts an image into intermediate data that can be mapped, a nonlinear mapping unit 320 that converts the intermediate data into mapping data, and a saliency distribution that shows a saliency distribution based on the mapping data. The non-linear mapping unit 320 includes an output unit 330 for generating estimation information, and the non-linear mapping unit 320 upsamples the feature extraction unit 321 that extracts features from the intermediate data and the data generated by the feature extraction unit 321. A unit 322 and a unit 322 are provided. By doing so, the visual prominence can be estimated at a small calculation cost. Moreover, the visual saliency estimated in this way reflects the contextual attention state.

次に、本発明の第2の実施例にかかるリスク情報出力装置を図10及び図11を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。 Next, the risk information output device according to the second embodiment of the present invention will be described with reference to FIGS. 10 and 11. The same parts as those in the first embodiment described above are designated by the same reference numerals, and the description thereof will be omitted.

本実施例は、第1の実施例の方法、特に出力結果が複数ある場合(動画)において検出が漏れるケースについても単調傾向と判定できるようにするものである。ブロック構成等は第1の実施例と同様である。本実施例にかかる単調判定部4の動作のフローチャートを図10に示す。 In this embodiment, the method of the first embodiment, particularly the case where the detection is omitted when there are a plurality of output results (moving image), can be determined as a monotonous tendency. The block configuration and the like are the same as those in the first embodiment. FIG. 10 shows a flowchart of the operation of the monotonous determination unit 4 according to this embodiment.

図10のフローチャートにおいて、ステップS11、S13は、図9と同様である。なお、本実施例では、後述するように自己相関を利用するため、対象となる画像は動画像となることからステップS12は省略する。ステップS14Aは、判定内容はステップS14と同様である。このステップS14Aは、本実施例では、単調傾向についての一次判定として行われる。 In the flowchart of FIG. 10, steps S11 and S13 are the same as those of FIG. In this embodiment, since autocorrelation is used as described later, the target image is a moving image, so step S12 is omitted. In step S14A, the determination content is the same as in step S14. In this embodiment, this step S14A is performed as a primary determination for a monotonous tendency.

次に、ステップS14Aの判定の結果、単調傾向であると判定された場合は(ステップS15;Yes)、図9と同様に、その判定結果を判定装置1の外部へ出力する。一方、ステップS14Aに判定の結果、単調傾向でないと判定された場合は(ステップS15;No)、自己相関演算を行う(ステップS16)。 Next, when it is determined that the tendency is monotonous as a result of the determination in step S14A (step S15; Yes), the determination result is output to the outside of the determination device 1 in the same manner as in FIG. On the other hand, if it is determined in step S14A that the tendency is not monotonous as a result of the determination (step S15; No), an autocorrelation calculation is performed (step S16).

本実施例では、ステップS11やS13で算出された標準偏差(輝度平均値)や視線移動量を用いて自己相関を演算する。自己相関R(k)は、期待値をE、Xの平均をμ、Xの分散をσ、ラグをkとすると次の(4)式で算出されることが知られている。本実施例では、kを所定範囲で変化させて(4)式の演算を行い、最も大きな算出値を自己相関値とする。

Figure 2021144312
In this embodiment, the autocorrelation is calculated using the standard deviation (luminance average value) and the line-of-sight movement amount calculated in steps S11 and S13. It is known that the autocorrelation R (k) is calculated by the following equation (4), where the expected value is E, the average of X is μ, the variance of X is σ 2, and the lag is k. In this embodiment, k is changed within a predetermined range to perform the calculation of Eq. (4), and the largest calculated value is set as the autocorrelation value.
Figure 2021144312

そして、算出された自己相関値に基づいて単調傾向か判定する(ステップS17)。判定は、第1の実施例と同様に自己相関値に閾値を設け、閾値と比較することで単調傾向かを判定すればよい。例えば、k=k1での自己相関値が閾値より大きければk1毎に同じような風景が繰り返されることを意味する。単調傾向と判定された場合は、当該風景画像は単調傾向である画像と分類される。このような自己相関値を算出することによって、等間隔に規則正しく設置された街灯などの周期的に配置された物体による単調な傾向の道路を判定することができるようになる。 Then, it is determined whether the tendency is monotonous based on the calculated autocorrelation value (step S17). The determination may be made by setting a threshold value for the autocorrelation value as in the first embodiment and comparing it with the threshold value to determine whether the autocorrelation tendency is monotonous. For example, if the autocorrelation value at k = k1 is larger than the threshold value, it means that the same landscape is repeated every k1. If it is determined to be monotonous, the landscape image is classified as a monotonous image. By calculating such an autocorrelation value, it becomes possible to determine a road having a monotonous tendency due to objects arranged periodically such as street lights regularly installed at equal intervals.

図11に自己相関の演算結果の例を示す。図11は、走行動画について視覚顕著性マップの輝度平均値についてのコレログラムである。図11の縦軸は相関関数(自己相関値)、横軸はラグを示している。また、図11において、網掛けの部分は信頼区間95%(優位水準αs=0.05)であり、帰無仮説を「ラグkのとき周期性がない」、対立仮説を「ラグkのとき周期性がある」とすると、この網掛け部分内のデータは帰無仮説を棄却できないため周期性がないと判定され、網掛け部分を超えたものは正負にかかわらず周期性があるものと判定される。 FIG. 11 shows an example of the calculation result of autocorrelation. FIG. 11 is a correlogram of the average luminance of the visual saliency map for the running moving image. The vertical axis of FIG. 11 shows the correlation function (autocorrelation value), and the horizontal axis shows the lag. Further, in FIG. 11, the shaded portion has a confidence interval of 95% (dominant level αs = 0.05), the null hypothesis is “no periodicity when lag k”, and the alternative hypothesis is “when lag k”. If "there is periodicity", it is judged that the data in this shaded part has no periodicity because the null hypothesis cannot be rejected, and that the data beyond the shaded part has periodicity regardless of whether it is positive or negative. Will be done.

図11(a)はトンネル走行の動画であり、周期性がある例である。図11(a)によれば、10個目と17個目に周期性がみられることが分かる。トンネルの場合、トンネル内照明が一定間隔で配置されているので、その照明等による単調な傾向を判定することができる。一方、図11(b)は一般道路走行の動画であり、周期性が無い例である。図11(b)によれば、殆どのデータが信頼区間に入っていることが分かる。 FIG. 11A is a moving image of tunnel running, which is an example having periodicity. According to FIG. 11A, it can be seen that periodicity is observed at the 10th and 17th pieces. In the case of a tunnel, since the lighting in the tunnel is arranged at regular intervals, it is possible to determine a monotonous tendency due to the lighting or the like. On the other hand, FIG. 11B is a moving image of driving on a general road, which is an example without periodicity. According to FIG. 11B, it can be seen that most of the data is in the confidence interval.

図10のフローチャートのように動作させることで、まずは平均・標準偏差・視線移動量で単調か判定し、そこで漏れたものの中から周期性という観点で二次判定をすることができるようになる。 By operating as shown in the flowchart of FIG. 10, it is possible to first determine whether the average, standard deviation, and line-of-sight movement amount are monotonous, and then make a secondary determination from the leaked items from the viewpoint of periodicity.

本実施例によれば、風景画像処理部3は、視覚顕著性マップを時系列に取得し、単調判定部4は、時系列に取得した視覚顕著性マップから統計量を算出し、時系列に得られた統計量に基づいて単調傾向か判定する第一判定部と、自己相関に基づいて単調傾向か判定する第二判定部と、して機能する。このようにすることにより、統計量のみでは判定が困難な走行中に現れる街灯等の周期的に現れる物体による単調傾向を自己相関により判定することができる。 According to this embodiment, the landscape image processing unit 3 acquires the visual saliency map in time series, and the monotonic determination unit 4 calculates the statistic from the visually saliency map acquired in chronological order and converts it into time series. It functions as a first determination unit for determining whether the tendency is monotonous based on the obtained statistics and a second determination unit for determining whether the tendency is monotonous based on the autocorrelation. By doing so, it is possible to determine the monotonous tendency due to periodically appearing objects such as street lights appearing during traveling, which is difficult to determine only by the statistic, by autocorrelation.

また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の判定装置を具備する限り、勿論、本発明の範疇に含まれるものである。 Further, the present invention is not limited to the above examples. That is, those skilled in the art can carry out various modifications according to conventionally known knowledge within a range that does not deviate from the gist of the present invention. Even with such a modification, as long as the determination device of the present invention is still provided, it is, of course, included in the category of the present invention.

1 判定装置
2 風景画像取得部
3 風景画像処理部(取得部)
4 単調判定部(判定部、標準偏差算出部、平均値算出部、視線移動量算出部)
1 Judgment device 2 Landscape image acquisition unit 3 Landscape image processing unit (acquisition unit)
4 Monotonic judgment unit (judgment unit, standard deviation calculation unit, average value calculation unit, line-of-sight movement amount calculation unit)

Claims (9)

移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する取得部と、
前記視覚顕著性分布情報に基づいて算出された統計量を用いて当該画像が単調傾向か判定する判定部と、
を備えることを特徴とする判定装置。
An acquisition unit that acquires visual saliency distribution information obtained by estimating the level of visual saliency in the image based on an image of the outside taken from a moving body.
A determination unit that determines whether the image has a monotonous tendency using the statistic calculated based on the visual saliency distribution information, and
A determination device comprising.
前記視覚顕著性分布情報として得られた画像内の各画素の輝度の標準偏差を算出する標準偏差算出部を備え、
前記判定部は、算出された前記標準偏差に基づいて当該画像が単調傾向か判定する、
ことを特徴とする請求項1に記載の判定装置。
A standard deviation calculation unit for calculating the standard deviation of the brightness of each pixel in the image obtained as the visual saliency distribution information is provided.
The determination unit determines whether the image tends to be monotonous based on the calculated standard deviation.
The determination device according to claim 1, wherein the determination device is characterized by the above.
前記視覚顕著性分布情報として得られた画像内の各画素の輝度の平均値を算出する平均値算出部を備え、
前記判定部は、算出された前記平均値に基づいて当該画像が単調傾向か判定する、
ことを特徴とする請求項1に記載の判定装置。
It is provided with an average value calculation unit that calculates the average value of the brightness of each pixel in the image obtained as the visual saliency distribution information.
The determination unit determines whether the image tends to be monotonous based on the calculated average value.
The determination device according to claim 1, wherein the determination device is characterized by the above.
前記取得部は、前記視覚顕著性分布情報を時系列に取得し、
前記判定部は、時系列に取得した前記視覚顕著性分布情報から前記統計量を算出し、時系列に得られた前記統計量に基づいて単調傾向か判定する第一判定部と、
前記統計量の自己相関に基づいて単調傾向か判定する第二判定部と、
を備えることを特徴とする請求項1に記載の判定装置。
The acquisition unit acquires the visual saliency distribution information in chronological order.
The determination unit calculates the statistic from the visual saliency distribution information acquired in the time series, and determines whether the tendency is monotonous based on the statistic obtained in the time series.
A second determination unit that determines whether the tendency is monotonous based on the autocorrelation of the statistic,
The determination device according to claim 1, further comprising.
前記視覚顕著性分布情報として時系列に得られた画像に基づいてフレーム間の視線移動量を算出する視線移動量算出部を備え、
前記判定部は、算出された前記視線移動量に基づいて当該画像が単調傾向か判定する、
ことを特徴とする請求項1に記載の判定装置。
It is provided with a line-of-sight movement amount calculation unit that calculates the line-of-sight movement amount between frames based on images obtained in time series as the visual saliency distribution information.
The determination unit determines whether the image tends to be monotonous based on the calculated amount of movement of the line of sight.
The determination device according to claim 1, wherein the determination device is characterized by the above.
前記取得部は、
前記画像を写像処理可能な中間データに変換する入力部と、
前記中間データを写像データに変換する非線形写像部と、
前記写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、
前記非線形写像部は、前記中間データに対し特徴の抽出を行う特徴抽出部と、前記特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備える、
ことを特徴とする請求項1から5のうちいずれか一項に記載の判定装置。
The acquisition unit
An input unit that converts the image into intermediate data that can be mapped,
A non-linear mapping unit that converts the intermediate data into mapping data,
It is provided with an output unit that generates saliency estimation information showing a saliency distribution based on the mapping data.
The nonlinear mapping unit includes a feature extraction unit that extracts features from the intermediate data, and an upsample unit that upsamples the data generated by the feature extraction unit.
The determination device according to any one of claims 1 to 5, wherein the determination device is characterized by the above.
移動体から外部を撮像した画像に基づいて当該画像が単調傾向か判定する判定装置で実行される判定方法であって、
前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する取得工程と、
前記視覚顕著性分布情報に基づいて算出された統計量を用いて当該画像が単調傾向か判定する判定工程と、
を含むことを特徴とする判定方法。
It is a judgment method executed by a judgment device for judging whether or not the image has a monotonous tendency based on an image obtained by capturing an image of the outside from a moving body.
An acquisition step of acquiring visual saliency distribution information obtained by estimating the level of visual saliency in the image based on the image, and
A determination step of determining whether the image has a monotonous tendency using the statistic calculated based on the visual saliency distribution information, and
A determination method characterized by including.
請求項7に記載の判定方法をコンピュータにより実行させることを特徴とする判定プログラム。 A determination program, characterized in that the determination method according to claim 7 is executed by a computer. 請求項8に記載の判定プログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium comprising storing the determination program according to claim 8.
JP2020041003A 2020-03-10 2020-03-10 Determination apparatus Pending JP2021144312A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020041003A JP2021144312A (en) 2020-03-10 2020-03-10 Determination apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020041003A JP2021144312A (en) 2020-03-10 2020-03-10 Determination apparatus

Publications (1)

Publication Number Publication Date
JP2021144312A true JP2021144312A (en) 2021-09-24

Family

ID=77766585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020041003A Pending JP2021144312A (en) 2020-03-10 2020-03-10 Determination apparatus

Country Status (1)

Country Link
JP (1) JP2021144312A (en)

Similar Documents

Publication Publication Date Title
JP4364275B2 (en) Image processing method, image processing apparatus, and computer program
US11381715B2 (en) Computer method and apparatus making screens safe for those with photosensitivity
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
JP4739870B2 (en) Sunglasses detection device and face center position detection device
US20210082127A1 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
Paone et al. Baseline face detection, head pose estimation, and coarse direction detection for facial data in the SHRP2 naturalistic driving study
EP2309454A2 (en) Apparatus and method for detecting motion
US10013889B2 (en) Method and system for enhancing interactions between teachers and students
JP2014192770A (en) Periphery monitoring control device for vehicle
EP2976990B1 (en) Pupil detection device and pupil detection method
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP2024060029A (en) Situation Output Device
JP2007011490A (en) Device and method for detecting road parameter
JP2024019588A (en) Map data generation device
JP7001150B2 (en) Identification system, model re-learning method and program
JP2009212929A (en) Method, apparatus and program for evaluating image trimming range
JP2021144312A (en) Determination apparatus
JP2011233120A (en) Advertising effectiveness indicator measuring apparatus, method of advertising effectiveness indicator measuring and program
US20220284718A1 (en) Driving analysis device and driving analysis method
US20230154211A1 (en) Image processing system and image processing method
JP2014191479A (en) Face recognition device, image pickup device, control method, and program
KR102327578B1 (en) Apparatus and method for providing object and environment information using wearable device
JP2021157247A (en) Determination device
JP2021077249A (en) Determination device
JP2020184146A (en) Saliency estimation device, saliency estimation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109