JP7455889B2 - Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program - Google Patents

Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program Download PDF

Info

Publication number
JP7455889B2
JP7455889B2 JP2022064667A JP2022064667A JP7455889B2 JP 7455889 B2 JP7455889 B2 JP 7455889B2 JP 2022064667 A JP2022064667 A JP 2022064667A JP 2022064667 A JP2022064667 A JP 2022064667A JP 7455889 B2 JP7455889 B2 JP 7455889B2
Authority
JP
Japan
Prior art keywords
data
evaluation
mapping
image
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022064667A
Other languages
Japanese (ja)
Other versions
JP2023154980A (en
Inventor
満 中澤
科翰 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2022064667A priority Critical patent/JP7455889B2/en
Publication of JP2023154980A publication Critical patent/JP2023154980A/en
Application granted granted Critical
Publication of JP7455889B2 publication Critical patent/JP7455889B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法に関する。 The present invention relates to an image evaluation device, an image processing system, a user terminal, an image evaluation method, an image evaluation program, and an image display support method.

たとえば下記特許文献1には、学習済みモデルを利用して画像データの異常を検出する装置が記載されている。 For example, Patent Document 1 listed below describes a device that detects abnormalities in image data using a trained model.

特開2022-26016号公報Japanese Patent Application Publication No. 2022-26016

発明者は、身体の所定部位の露出がある画像データを異常とすることを検討した。その場合、学習済みモデルが所定部位に注目することなく画像データの異常の有無の判定結果を出力する場合、判定精度が低くなるおそれがある。 The inventor considered that image data in which a predetermined part of the body is exposed is considered abnormal. In that case, if the learned model outputs a determination result of the presence or absence of an abnormality in image data without paying attention to a predetermined region, the determination accuracy may be lowered.

以下、上記課題を解決するための手段およびその作用効果について記載する。
1.実行装置、および記憶装置を備え、前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、前記位置情報写像データは、位置情報写像を規定するためのデータであり、前記位置情報写像は、位置情報データを出力する写像であり、前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、前記評価写像データは、評価写像を規定するためのデータであり、前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理である画像評価装置である。
Below, means for solving the above problems and their effects will be described.
1. an execution device and a storage device, the storage device stores location information mapping data and evaluation mapping data, the location information mapping data is data for defining a location information mapping, and the storage device stores location information mapping data and evaluation mapping data; The position information mapping is a mapping that outputs position information data, the position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated, and the evaluation mapping data is The evaluation mapping is data for defining an evaluation mapping, and the evaluation mapping is a mapping that inputs evaluation input data and the position information data and outputs an evaluation result of the image data, and the evaluation input data is a mapping that outputs an evaluation result of the image data. The execution device is configured to execute a position information generation process and an evaluation process, and the position information generation process It is a process of generating the position information data by inputting input data into the position information mapping, and the position input data is data that corresponds to the image data and is data that is input to the position information mapping. In the image evaluation apparatus, the evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data to the evaluation mapping.

上記構成では、評価写像に、画像データに応じた評価用入力データのみならず、位置情報データが入力される。位置情報データは、所定部位の情報を示すデータである。そのため、評価写像は、画像データ中の所定部位の位置についての情報を利用して評価結果を出力できる。そのため、位置情報データを利用しない場合と比較して、所定部位の露出等の異常をより高精度に評価できる。 In the above configuration, not only the evaluation input data corresponding to the image data but also the position information data is input to the evaluation mapping. The position information data is data indicating information on a predetermined region. Therefore, the evaluation mapping can output an evaluation result using information about the position of a predetermined part in the image data. Therefore, abnormalities such as exposure of a predetermined region can be evaluated with higher precision than when position information data is not used.

2.前記所定部位は、人の胸部、尻部、および正面下腹部の3つの部分のうちの少なくとも1つを含む上記1記載の画像評価装置である。
人の胸部、尻部、および正面下腹部の3つの部分の露出の有無は、公序良俗に反するか否かを定める上で特に重要である。そのため、上記構成では、所定部位の位置情報を利用することにより、画像データが公序良俗に反するか否かを高精度に評価できる。
2. The image evaluation device according to 1 above, wherein the predetermined region includes at least one of the following three parts: a person's chest, buttocks, and front lower abdomen.
The presence or absence of exposure of the three parts of a person's chest, buttocks, and front lower abdomen is particularly important in determining whether or not it violates public order and morals. Therefore, with the above configuration, by using the position information of the predetermined part, it is possible to evaluate with high accuracy whether or not the image data violates public order and morals.

3.前記位置情報データは、前記評価用入力データを構成する各画素が前記所定部位を示すか否かの情報を付与するデータであり、前記評価写像は、前記評価用入力データの各画素と前記各画素に対応する前記位置情報データとが対応付けて入力されることによって前記評価結果を出力する写像である上記1または2記載の画像評価装置である。 3. The position information data is data that provides information as to whether each pixel forming the evaluation input data indicates the predetermined region, and the evaluation mapping is data that provides information on whether each pixel forming the evaluation input data indicates the predetermined region, and the evaluation mapping is data that provides information on whether each pixel forming the evaluation input data indicates the predetermined region. The image evaluation device according to the above 1 or 2, wherein the image evaluation device is a mapping that outputs the evaluation result by inputting the position information data corresponding to the pixels in association with each other.

上記評価写像は、評価用入力データおよび位置情報データが互いに対応付けて評価写像に入力される。そのため、画像データの各画素のうち所定部位に対応する画素に着目しつつ評価結果を算出する確実性を高めることができる。 In the evaluation mapping, evaluation input data and position information data are input into the evaluation mapping in association with each other. Therefore, it is possible to increase the reliability of calculating an evaluation result while paying attention to a pixel corresponding to a predetermined region among each pixel of image data.

4.前記評価写像は、仮評価写像を含み、前記仮評価写像は、前記評価用入力データを入力として前記画像データの仮の評価結果を出力する写像であり、前記評価処理は、仮評価処理と、妥当性評価処理と、を含み、前記仮評価処理は、前記仮評価写像に前記評価用入力データを入力することによって前記仮の評価結果を出力する処理を含み、前記妥当性評価処理は、前記位置情報データを入力として、前記画像データの示す領域のうちの前記所定部位を示す領域が前記仮の評価結果に寄与した度合いに応じて前記仮の評価結果の妥当性を評価する処理を含む上記1~3のいずれか1つに記載の画像評価装置である。 4. The evaluation mapping includes a provisional evaluation mapping, the provisional evaluation mapping is a mapping that inputs the evaluation input data and outputs a provisional evaluation result of the image data, and the evaluation processing includes provisional evaluation processing; a validity evaluation process, the provisional evaluation process includes a process of outputting the provisional evaluation result by inputting the evaluation input data into the provisional evaluation mapping, and the validity evaluation process includes the The above-described process includes a process of taking position information data as input and evaluating the validity of the tentative evaluation result according to the degree to which a region indicating the predetermined part out of the regions indicated by the image data has contributed to the tentative evaluation result. The image evaluation device according to any one of items 1 to 3.

上記構成では、実行装置が、仮評価写像が出力する仮の評価結果に画像データが示す領域のうちの所定部位を示す領域が寄与した度合いに応じて、仮の評価結果の妥当性を評価する処理を実行する。そのため、妥当性の評価をすることなく仮評価写像の出力する仮の評価結果から最終的な評価結果を定める場合と比較すると、最終的な評価結果の精度を高めることができる。 In the above configuration, the execution device evaluates the validity of the tentative evaluation result according to the degree to which the region indicating a predetermined part of the region indicated by the image data has contributed to the tentative evaluation result output by the tentative evaluation mapping. Execute processing. Therefore, compared to the case where the final evaluation result is determined from the provisional evaluation result output by the provisional evaluation mapping without evaluating the validity, the accuracy of the final evaluation result can be improved.

5.前記実行装置は、通知処理を実行するように構成され、前記通知処理は、前記妥当性評価処理によって妥当ではないと判定される場合に、妥当ではない旨を通知する処理である上記4記載の画像評価装置である。 5. 4. The execution device is configured to execute a notification process, and the notification process is a process of notifying that it is not valid when it is determined that it is not valid by the validity evaluation process. It is an image evaluation device.

上記構成では、実行装置は、妥当性評価処理によって妥当ではないと判定する場合、その旨を通知する。そのため、仮の評価結果の妥当性について、最終的に人が判断することが可能となる。 In the above configuration, when the execution device determines that the validity evaluation process is not valid, it notifies the execution device to that effect. Therefore, it becomes possible for a person to ultimately judge the validity of the provisional evaluation results.

6.前記評価写像は、特徴量レイヤを備え、前記特徴量レイヤは、前記画像データが示す領域を複数個の領域に分割したそれぞれに数値を与えることによって、前記画像データの特徴量を定量化するレイヤであり、前記評価写像は、前記特徴量レイヤが示す前記複数個の領域の少なくとも一部の値と前記位置情報データとを合成する処理を含んで前記評価結果を出力する写像である上記1記載の画像評価装置である。 6. The evaluation mapping includes a feature layer, and the feature layer is a layer that quantifies the feature amount of the image data by dividing the region indicated by the image data into a plurality of regions and assigning a numerical value to each region. 1 above, wherein the evaluation mapping is a mapping that outputs the evaluation result including a process of combining at least some values of the plurality of regions indicated by the feature amount layer and the position information data. This is an image evaluation device.

上記構成では、実行装置が特徴量レイヤが示す複数個の領域の少なくとも一部の値と位置情報データとを合成する処理を施す。そのため、この処理の施された特徴量は、補正が施されない特徴量と比較して、所定部位により着目した特徴量となりうる。そのため、評価結果を、所定部位に確実に着目した評価結果とすることが可能となる。 In the above configuration, the execution device performs a process of synthesizing at least part of the values of the plurality of regions indicated by the feature amount layer and the position information data. Therefore, the feature amount that has been subjected to this processing can be a feature amount that focuses more on a predetermined region than the feature amount that has not been corrected. Therefore, it is possible to obtain an evaluation result that reliably focuses on a predetermined region.

7.上記1~6のいずれか1つに記載の画像評価装置における前記実行装置、および前記記憶装置と、複数のユーザ端末と、を備え、前記実行装置は、提供処理、および制限処理を実行するように構成され、前記提供処理は、前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、前記制限処理は、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する処理である画像処理システムである。 7. The image evaluation device according to any one of items 1 to 6 above includes the execution device, the storage device, and a plurality of user terminals, and the execution device is configured to execute provision processing and restriction processing. and the provision process is configured to provide the image data in order to enable the user terminal to display an image indicated by the image data that has been evaluated by the evaluation process to the effect that the display does not need to be restricted. The restriction process is a process of transmitting to the user terminal, and the restriction process is a process of transmitting the image to the user terminal, and the restriction process is a process of transmitting the image to the user terminal, and the restriction process is a process of transmitting the image to the user terminal, and the restriction process is a process of transmitting the image to the user terminal. This is an image processing system that limits processing.

上記提供処理および制限処理によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
8.前記ユーザ端末は、指示処理を実行するように構成され、前記指示処理は、身体の露出度についての許容範囲を指示する処理であり、前記制限しなくてよい旨の評価は、前記露出度が前記許容範囲内である旨の評価であり、前記ユーザ端末により表示されることを制限すべき旨の評価は、前記露出度が前記許容範囲から外れる旨の評価である上記7記載の画像処理システムである。
According to the above-mentioned provision processing and restriction processing, it is possible to appropriately support selectively displaying the image indicated by the image data on the user terminal according to the evaluation result of the evaluation processing.
8. The user terminal is configured to execute an instruction process, and the instruction process is a process for instructing a permissible range for the degree of body exposure, and the evaluation that there is no need to limit the degree of exposure means that the degree of exposure is The image processing system according to 7 above, wherein the evaluation that the degree of exposure is within the permissible range and that displaying by the user terminal should be restricted is an evaluation that the degree of exposure is outside the permissible range. It is.

上記構成では、ユーザの意思に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
9.前記制限処理は、前記ユーザ端末により表示されることを制限すべきと評価された前記画像データの前記ユーザ端末への送信を禁止する禁止処理と、前記ユーザ端末により表示されることを制限すべきと評価された前記画像データを制限指令とともに送信する制限送信処理と、の少なくとも1つの処理を含み、前記制限指令は、前記ユーザ端末において前記画像データが示す画像を警告とともに表示されるようにする指令、前記ユーザ端末において前記画像データが示す画像のうちの所定部位の露出にマスクをする指令、および前記ユーザ端末において前記画像データが示す画像を表示しないようにする指令のいずれかである上記7または8記載の画像処理システムである。
With the above configuration, it is possible to appropriately support selectively displaying an image indicated by image data on a user terminal according to the user's intention.
9. The restriction process includes a prohibition process that prohibits transmission of the image data that has been evaluated to be restricted from being displayed by the user terminal to the user terminal, and a prohibition process that prohibits the image data from being displayed by the user terminal. and a restriction transmission process of transmitting the image data evaluated as such along with a restriction command, the restriction command causing an image indicated by the image data to be displayed on the user terminal along with a warning. 7 above, which is any one of a command, a command to mask the exposure of a predetermined part of the image represented by the image data on the user terminal, and a command not to display the image represented by the image data on the user terminal. or the image processing system described in 8.

上記禁止処理によれば、ユーザ端末により表示されることを制限すべきと評価された画像データが示す画像が、ユーザ端末に表示されることを確実に抑制できる。また、上記制限送信処理によれば、以下のいずれかが可能となる。 According to the above-mentioned prohibition process, it is possible to reliably suppress the image indicated by the image data evaluated to be restricted from being displayed on the user terminal from being displayed on the user terminal. Further, according to the above-mentioned limited transmission processing, one of the following becomes possible.

・ユーザ端末により表示されることを制限すべき旨の警告がユーザ端末によってなされること。
・ユーザ端末に表示された画像中の所定部位の露出がマスクされること。
- A warning is issued by the user terminal to the effect that display on the user terminal should be restricted.
- The exposure of a predetermined part in the image displayed on the user terminal is masked.

・ユーザ端末により表示されることを制限すべきと評価された画像データが示す画像が表示されることを、ユーザ端末において禁止すること。
10.上記8記載の画像処理システムにおける前記ユーザ端末である。
- Prohibiting the user terminal from displaying an image indicated by image data that has been evaluated as being restricted from being displayed by the user terminal.
10. The user terminal in the image processing system described in 8 above.

11.上記1~6のいずれか1つに記載の画像評価装置における前記各処理を実行するステップを有する画像評価方法である。
12.上記1~6のいずれか1つに記載の画像評価装置における前記各処理をコンピュータに実行させる画像評価プログラムである。
11. An image evaluation method comprising the steps of executing each of the processes in the image evaluation apparatus according to any one of items 1 to 6 above.
12. This is an image evaluation program that causes a computer to execute each of the processes in the image evaluation apparatus described in any one of 1 to 6 above.

13.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末により表示される画像の候補を示す画像データのうち、上記1~6のいずれか1つに記載の画像評価装置における前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。 13. An image display support method for supporting selective display of images on a user terminal, the method comprising: selecting any one of the above items 1 to 6 among image data indicating image candidates to be displayed by the user terminal; In order to be able to display, on the user terminal, an image indicated by the image data that has been evaluated to the effect that displaying does not need to be restricted by the evaluation process in the image evaluation device described above, the image data is displayed on the user terminal. and a restricting step of restricting display of an image represented by the image data that has been evaluated by the evaluation process as being restricted from being displayed by the user terminal. This is an image display support method.

上記提供工程および制限工程によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
14.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末は、指示処理を実行するように構成され、前記指示処理は、身体の露出度についての許容範囲を指示する処理であり、前記ユーザ端末により表示される画像の候補を示す画像データのうち、上記1~6のいずれか1つに記載の画像評価装置における前記評価処理によって前記露出度が前記許容範囲内である旨評価された前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記ユーザ端末により表示される画像の候補を示す画像データのうち、前記評価処理によって、前記露出度が前記許容範囲から外れると評価された前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。
According to the above-mentioned providing step and restriction step, it is possible to appropriately support selectively displaying the image indicated by the image data on the user terminal according to the evaluation result of the evaluation process.
14. An image display support method for supporting selective display of images on a user terminal, wherein the user terminal is configured to execute instruction processing, and the instruction processing includes determining a permissible degree of body exposure. This is a process of instructing a range, and the exposure degree is determined by the evaluation process in the image evaluation apparatus according to any one of 1 to 6 above among image data indicating image candidates to be displayed by the user terminal. a providing step of transmitting the image data to the user terminal so that the image indicated by the image data evaluated to be within an acceptable range can be displayed on the user terminal; and a candidate image to be displayed by the user terminal. a limiting step of restricting display of an image represented by the image data whose exposure degree is evaluated to be outside the permissible range by the evaluation process from being displayed by the user terminal. This is an image display support method.

上記方法では、ユーザの意思に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
15.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末により表示される画像の候補を示す画像データを取得する取得工程と、前記取得工程において取得された前記画像データのうち上記1~6のいずれか1つに記載の画像評価装置における前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記取得工程において取得された前記画像データのうち、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。
The above method can appropriately support selectively displaying images indicated by image data on a user terminal according to the user's intention.
15. An image display support method for supporting selective display of images on a user terminal, the method comprising: an acquisition step of acquiring image data indicating image candidates to be displayed by the user terminal; The image represented by the image data that has been evaluated by the evaluation process in the image evaluation device according to any one of the above items 1 to 6 to the effect that it is not necessary to restrict display of the image data. a providing step of transmitting the image data to the user terminal so that the image data can be displayed on the user terminal; and a step of restricting display of the image data acquired in the acquisition step by the evaluation process. The image display support method includes the step of restricting display of an image indicated by the evaluated image data by the user terminal.

上記提供工程および制限工程によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。 According to the above-mentioned providing step and restricting step, it is possible to appropriately support selectively displaying the image indicated by the image data on the user terminal according to the evaluation result of the evaluation process.

第1の実施形態にかかる画像処理システムの全体構成を示す図である。1 is a diagram showing the overall configuration of an image processing system according to a first embodiment. 同実施形態にかかる表示可能な画像を規定する図である。FIG. 3 is a diagram defining displayable images according to the same embodiment. 同実施形態にかかるCM動画データが示す画像の表示支援に関する処理の手順を示す流れ図である。2 is a flowchart showing a procedure for processing related to display support for an image indicated by commercial video data according to the same embodiment. 同実施形態にかかるフレーム評価処理の詳細な手順を示す図である。FIG. 3 is a diagram illustrating a detailed procedure of frame evaluation processing according to the embodiment. 同実施形態にかかるヒートマップを説明するための図である。It is a figure for explaining the heat map concerning the same embodiment. 第2の実施形態にかかるCM動画データが示す画像の表示支援に関する処理の手順を示す流れ図である。12 is a flowchart illustrating a process procedure related to display support for an image indicated by CM video data according to a second embodiment. 第3の実施形態にかかるフレーム評価処理の詳細な手順を示す流れ図である。12 is a flowchart showing detailed steps of frame evaluation processing according to the third embodiment. 第4の実施形態にかかるフレーム評価処理の詳細な手順を示す図である。FIG. 7 is a diagram showing detailed procedures of frame evaluation processing according to the fourth embodiment. 同実施形態にかかる最終評価処理の詳細な手順を示す図である。It is a figure showing the detailed procedure of final evaluation processing concerning the same embodiment. 第5の実施形態にかかるフレーム評価処理の詳細な手順を示す図である。FIG. 7 is a diagram showing detailed procedures of frame evaluation processing according to the fifth embodiment. 同実施形態にかかるCM動画データが示す画像の表示支援に関する処理の手順を示す流れ図である。2 is a flowchart showing a procedure for processing related to display support for an image indicated by commercial video data according to the same embodiment.

<第1の実施形態>
以下、第1の実施形態について図面を参照しつつ説明する。
「前提構成」
図1に、画像処理システムの全体構成を示す。
<First embodiment>
The first embodiment will be described below with reference to the drawings.
"Prerequisite configuration"
FIG. 1 shows the overall configuration of the image processing system.

複数の業者端末10(1),10(2),…は、何らかの商品を消費者に販売する業者が所持する端末である。なお、以下では、業者端末10(1),10(2),…を総括する場合、業者端末10と記載する。業者端末10は、PU12、記憶装置14、および通信機16を備えている。PU12は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。記憶装置14は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置14には、PU12が実行するプログラムが記憶されている。 The plurality of merchant terminals 10(1), 10(2), . . . are terminals owned by merchants who sell certain products to consumers. Note that hereinafter, when the vendor terminals 10(1), 10(2), . . . are collectively referred to as the vendor terminal 10. The vendor terminal 10 includes a PU 12, a storage device 14, and a communication device 16. The PU 12 is a software processing device including arithmetic units such as a CPU, a GPU, and a TPU. The storage device 14 includes an electrically rewritable nonvolatile memory and a storage medium such as a disk medium. The storage device 14 stores programs executed by the PU 12.

業者端末10の通信機16は、ネットワーク20を介して画像評価装置30と通信可能とされる。業者端末10は、販売したい商品に関するCM動画データを画像評価装置30に送信する。ここで、CM動画データとは、たとえば商品を広告するためのコマーシャル動画に相当する。CM動画の再生時間、フレーム数、解像度、およびデータフォーマットに制限はない。 The communication device 16 of the vendor terminal 10 is enabled to communicate with the image evaluation device 30 via the network 20. The vendor terminal 10 transmits CM video data regarding a product that the vendor wants to sell to the image evaluation device 30. Here, the commercial video data corresponds to, for example, a commercial video for advertising a product. There are no restrictions on the playback time, number of frames, resolution, or data format of commercial videos.

画像評価装置30は、CM動画データを評価して、問題がない場合にはユーザ端末50(1),50(2),…に送信する。以下では、ユーザ端末50(1),50(2),…を総括する場合、ユーザ端末50と記載する。 The image evaluation device 30 evaluates the commercial video data, and if there is no problem, transmits the data to the user terminals 50(1), 50(2), . . . In the following, when the user terminals 50(1), 50(2), . . . are collectively referred to as the user terminal 50.

画像評価装置30は、PU32、記憶装置34、および通信機36を備えている。PU32は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。詳しくは、PU32は、画像処理、推論処理および並列処理等の所定の処理に特化したハードウェアアクセラレータを演算ユニットとして含んでよい。また、PU32は、ホモジニアスアーキテクチャまたはヘテロジニアスアーキテクチャの態様をとる演算ユニットを含んでよい。また、PU32は、単一のチップ上にモノリシックに集積された演算ユニットを含んでよく、チップレット等の複数のチップが接続された演算ユニットを含んでよい。記憶装置34は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置34には、画像評価プログラム34a、位置情報写像データ34b、および評価写像データ34cが記憶されている。通信機36は、ネットワーク20を介して業者端末10およびユーザ端末50との通信を可能とするための機器である。 The image evaluation device 30 includes a PU 32, a storage device 34, and a communication device 36. The PU 32 is a software processing device that includes arithmetic units such as a CPU, a GPU, and a TPU. Specifically, the PU 32 may include a hardware accelerator specialized for predetermined processing such as image processing, inference processing, and parallel processing as an arithmetic unit. Further, the PU 32 may include an arithmetic unit that takes the form of a homogeneous architecture or a heterogeneous architecture. Further, the PU 32 may include an arithmetic unit monolithically integrated on a single chip, or may include an arithmetic unit to which a plurality of chips such as chiplets are connected. The storage device 34 includes an electrically rewritable nonvolatile memory and a storage medium such as a disk medium. The storage device 34 stores an image evaluation program 34a, position information mapping data 34b, and evaluation mapping data 34c. The communication device 36 is a device that enables communication with the vendor terminal 10 and the user terminal 50 via the network 20.

ユーザ端末50は、CM動画データを再生する端末である。ユーザ端末50は、CM動画が示す商品の購入操作を実行する機能を有してもよい。
ユーザ端末50は、PU52、記憶装置54、通信機56、およびユーザインターフェース58を備えている。PU52は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。PU52は、PU32に含まれ得る態様の演算ユニットを含んでもよい。記憶装置54は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置54には、アプリケーションプログラム54aが記憶されている。アプリケーションプログラム54aは、画像評価装置30から送信されるCM動画データを再生するプログラムである。通信機56は、ネットワーク20を介して画像評価装置30との通信を可能とするための機器である。ユーザインターフェース58は、表示装置等を備える。
The user terminal 50 is a terminal that plays back commercial video data. The user terminal 50 may have a function of executing a purchasing operation for a product indicated by a commercial video.
The user terminal 50 includes a PU 52, a storage device 54, a communication device 56, and a user interface 58. The PU 52 is a software processing device that includes arithmetic units such as a CPU, a GPU, and a TPU. PU52 may include an arithmetic unit in a manner that can be included in PU32. The storage device 54 includes an electrically rewritable nonvolatile memory and a storage medium such as a disk medium. The storage device 54 stores an application program 54a. The application program 54a is a program that plays back commercial video data transmitted from the image evaluation device 30. The communication device 56 is a device that enables communication with the image evaluation device 30 via the network 20. The user interface 58 includes a display device and the like.

「画像評価処理」
画像評価装置30のPU32は、業者端末10から送信されたCM動画データがユーザ端末50によって再生して問題ないデータであるか否かを評価する。
"Image evaluation processing"
The PU 32 of the image evaluation device 30 evaluates whether the CM video data transmitted from the vendor terminal 10 is data that can be reproduced by the user terminal 50 without any problem.

図2は、再生して問題ないデータの定義の一例を示す。図2には、身体の部分のうち、所定部位に、マーキングがなされている。すなわち、部分「3」~「5」によって定義される胸部にマーキングがなされている。また、人体の正面視において、部分「10」、「11」、「18」によって定義される「正面下腹部」にマーキングがなされている。また、人体の背面における部分「12~14」,「18」によって定義される「尻部」にマーキングがなされている。PU32は、人の画像のうち図2にマーキングした箇所が露出した画像については、再生して問題がある画像であると評価する。 FIG. 2 shows an example of the definition of data that can be reproduced without any problem. In FIG. 2, markings are made at predetermined parts of the body. That is, markings are made on the chest defined by portions "3" to "5". Furthermore, in a front view of the human body, markings are made on the "front lower abdomen" defined by portions "10", "11", and "18". Also, markings are made on the "buttocks" defined by parts "12 to 14" and "18" on the back of the human body. The PU 32 evaluates an image of a person in which the portion marked in FIG. 2 is exposed as an image that poses a problem in reproduction.

図3に、画像評価装置30によって実行される、図2に示した基準に沿った評価に基づいてCM動画データがユーザ端末50によって選択的に表示されることを支援する処理の手順を示す。図3に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、以下では、先頭に「S」が付与された数字によって各処理のステップ番号を表現する。 FIG. 3 shows the procedure of a process executed by the image evaluation device 30 to support selective display of CM video data by the user terminal 50 based on evaluation in accordance with the criteria shown in FIG. The process shown in FIG. 3 is realized by the PU 32 repeatedly executing the image evaluation program 34a stored in the storage device 34, for example, at a predetermined period. Note that in the following, the step number of each process is expressed by a number prefixed with "S".

図3に示す一連の処理において、PU32は、まず、業者端末10から送信されたCM動画データを取得する(S10)。なお、ここで、「取得」は、記憶装置34に記憶されたCM動画データのうちの1つを選択的に読み出すことを意味する。この処理の前に、PU32は、通信機36を介して業者端末10から送信されたCM動画データを受信する。そして、PU32は、受信したCM動画データを記憶装置34に記憶する。 In the series of processes shown in FIG. 3, the PU 32 first obtains CM video data transmitted from the vendor terminal 10 (S10). Note that here, "obtaining" means selectively reading out one of the CM video data stored in the storage device 34. Before this process, the PU 32 receives CM video data transmitted from the vendor terminal 10 via the communication device 36. Then, the PU 32 stores the received CM video data in the storage device 34.

次にPU32は、CM動画データのフレームを指定する変数iを初期化する(S12)。この処理は、変数iを、CM動画データの先頭のフレームを指定する値とするための処理である。次に、PU32は、フレームデータFDを、N個周期で3個サンプリングする(S14)。すなわち、PU32は、フレームデータFD(i)、FD(i+N)、FD(i+2N)をサンプリングする。なお、フレームデータFD(1),FD(2),FD(3),…は、CM動画データの再生順序に従ったフレームデータFDの時系列を示す。詳しくは、フレームデータFDの後のカッコ内の数字が大きいほど、時系列的に後に再生されるフレームデータFDであることを示す。ちなみに、フレームデータFDは、レッド、グリーン、ブルーの3原色のそれぞれの輝度を示す「w×h」の画素数を有した2次元データである。ここで、「w」および「h」は自然数である。なお、以下では、上記3原色を適宜、「R,G,B」と表現する。 Next, the PU 32 initializes a variable i that specifies a frame of CM video data (S12). This process is a process for setting the variable i to a value that specifies the first frame of the commercial video data. Next, the PU 32 samples the frame data FD three times at N intervals (S14). That is, the PU 32 samples frame data FD(i), FD(i+N), and FD(i+2N). Note that frame data FD(1), FD(2), FD(3), . . . indicate a time series of frame data FD according to the reproduction order of CM video data. Specifically, the larger the number in parentheses after the frame data FD, the later the frame data FD is reproduced in chronological order. Incidentally, the frame data FD is two-dimensional data having the number of pixels of "w×h" indicating the brightness of each of the three primary colors of red, green, and blue. Here, "w" and "h" are natural numbers. In addition, below, the said three primary colors will be expressed as "R, G, B" suitably.

そして、PU32は、フレームデータFD(i)、FD(i+N)、FD(i+2N)のそれぞれを評価するフレーム評価処理を実行する(S16)。
図4に、フレーム評価処理の詳細を示す。
Then, the PU 32 executes a frame evaluation process for evaluating each of the frame data FD(i), FD(i+N), and FD(i+2N) (S16).
FIG. 4 shows details of the frame evaluation process.

図4に示す一連の処理において、PU32は、1つのフレームデータFDを胸部、正面下腹部、尻部、および顔部の位置情報を出力する回帰モデルに入力する(S30)。回帰モデルは、フレームデータFDが示す「w×h」の画像領域の少なくとも1部における、胸部、正面下腹部、尻部、および顔部のそれぞれの存在確率を示す2次元分布を出力するモデルである。ここで、2次元分布は、例として、2次元ガウス分布である。 In the series of processes shown in FIG. 4, the PU 32 inputs one frame data FD to a regression model that outputs positional information of the chest, front lower abdomen, buttocks, and face (S30). The regression model is a model that outputs a two-dimensional distribution indicating the existence probability of each of the chest, front lower abdomen, buttocks, and face in at least part of the "w x h" image area indicated by the frame data FD. be. Here, the two-dimensional distribution is, for example, a two-dimensional Gaussian distribution.

PU32は、例として、胸部、正面下腹部、尻部、および顔部のそれぞれの存在確率に関する2次元ガウス分布が平均値を示すxy座標成分の値と、分散パラメータとを出力する。本実施形態では、2次元ガウス分布の共分散行列を、対角行列とみなす。また、本実施形態では、2つの対角成分を等しいとみなす。したがって、本実施形態の2次元ガウス分布の分散パラメータは、1個である。回帰モデルは、画像領域内において扱える上限の人数を所定数kとしている。そして、回帰モデルでは、人毎に、胸部、正面下腹部、尻部、および顔部のそれぞれの存在確率の分布を表現するガウス分布に関する、上記xy座標成分の値、および分散パラメータの値を出力する。したがって、回帰モデルは、例として、「12k」個の出力値を有する。 The PU 32 outputs, for example, the value of the xy coordinate component and the dispersion parameter in which the two-dimensional Gaussian distribution regarding the existence probability of each of the chest, frontal lower abdomen, buttocks, and face shows the average value. In this embodiment, the covariance matrix of a two-dimensional Gaussian distribution is regarded as a diagonal matrix. Furthermore, in this embodiment, two diagonal components are considered to be equal. Therefore, the two-dimensional Gaussian distribution of this embodiment has one dispersion parameter. In the regression model, the upper limit of the number of people that can be handled within the image area is a predetermined number k. Then, in the regression model, the values of the xy coordinate components and the values of the dispersion parameters are output for each person regarding the Gaussian distribution that expresses the distribution of the existence probability of the chest, front lower abdomen, buttocks, and face. do. Therefore, the regression model has, by way of example, "12k" output values.

回帰モデルは、例として、教師あり学習によって学習された学習済みモデルである。
図5に、回帰モデルの訓練データを例示する。訓練データは、胸部、正面下腹部、尻部、および顔部のそれぞれの代表点の座標(xi,yi:i=1~4)と、分散パラメータの値が定義されたデータである。分散パラメータは、画像領域に占める人の大きさに応じて設定される。
The regression model is, for example, a trained model learned by supervised learning.
FIG. 5 illustrates training data for the regression model. The training data is data in which the coordinates (xi, yi: i=1 to 4) of representative points of the chest, front lower abdomen, buttocks, and face, and the values of the dispersion parameters are defined. The dispersion parameter is set depending on the size of the person occupying the image area.

なお、回帰モデルは、ニューラルネットワーク(以下、NNと記載)を含むモデルであってよい。具体的には、畳み込みニューラルネットワーク(以下、CNNと記載)としてもよい。ただし、CNNに限らない。 Note that the regression model may be a model including a neural network (hereinafter referred to as NN). Specifically, it may be a convolutional neural network (hereinafter referred to as CNN). However, it is not limited to CNN.

回帰モデルは、図1に示した記憶装置34に記憶された位置情報写像データ34bによって規定される。位置情報写像データ34bは、パラメトリックモデルである回帰モデルの学習済みのパラメータの値を含むデータである。すなわち、回帰モデルがCNNの場合、位置情報写像データ34bは、畳み込み処理に用いる各フィルタの値を含む。また、回帰モデルが全結合レイヤ等を含む場合、位置情報写像データ34bは、全結合レイヤの重みを示すパラメータの値を含む。なお、回帰モデルがNNの場合、位置情報写像データ34bは、活性化関数を規定するデータを含んでもよい。ただし、たとえば活性化関数を規定するデータは、画像評価プログラム34aに含めてもよい。なお、回帰モデルは、教師なし学習によって学習された学習済みモデルであってもよく、半教師あり学習によって学習された学習済みモデルであってもよい。 The regression model is defined by the position information mapping data 34b stored in the storage device 34 shown in FIG. The position information mapping data 34b is data that includes values of learned parameters of a regression model that is a parametric model. That is, when the regression model is CNN, the position information mapping data 34b includes the values of each filter used in the convolution process. Furthermore, when the regression model includes a fully connected layer or the like, the position information mapping data 34b includes the value of a parameter indicating the weight of the fully connected layer. Note that when the regression model is a NN, the position information mapping data 34b may include data that defines an activation function. However, for example, data defining the activation function may be included in the image evaluation program 34a. Note that the regression model may be a trained model learned by unsupervised learning, or a trained model learned by semi-supervised learning.

図4に戻り、PU32は、S10の処理を完了する場合、回帰モデルの出力値に基づき、胸部、正面下腹部、尻部、および顔部のそれぞれに関するヒートマップを生成する(S32)。それらヒートマップは、いずれも「w×h」個の領域を有する。ヒートマップは、「w×h」個の領域のそれぞれに、存在確率に応じた値が定められたマップである。たとえば胸部のヒートマップは、胸部に対応する2次元ガウス分布の平均値の座標(x1,y1)に対応する領域において、最も大きい値が定められている。そして、座標(x1,y1)に対応する領域から離れた領域ほど、小さい値が定められている。座標(x1,y1)に対応する領域からの距離と値との関係は、分散パラメータによって規定される。 Returning to FIG. 4, when completing the process of S10, the PU 32 generates a heat map for each of the chest, front lower abdomen, buttocks, and face based on the output value of the regression model (S32). Each of these heat maps has "w×h" areas. The heat map is a map in which a value is determined for each of "w×h" areas according to the existence probability. For example, in the heat map of the chest, the largest value is determined in the region corresponding to the coordinates (x1, y1) of the average value of the two-dimensional Gaussian distribution corresponding to the chest. A smaller value is determined for an area farther away from the area corresponding to the coordinates (x1, y1). The relationship between the distance from the area corresponding to the coordinates (x1, y1) and the value is defined by the dispersion parameter.

次にPU32は、フレームデータFDと、同フレームデータFDから生成されたヒートマップとを、識別モデル70aに入力することによって、フレームデータFDを評価する評価変数yok,yngの値を算出する(S34)。評価変数yokは、フレームデータFDが、胸部、正面下腹部、および尻部の露出がない画像を示すデータである確率を示す変数である。また、評価変数yngは、フレームデータFDが、胸部、正面下腹部、および尻部の少なくとも1つに露出がある画像を示すデータである確率を示す変数である。 Next, the PU 32 calculates the values of evaluation variables yok and yng for evaluating the frame data FD by inputting the frame data FD and the heat map generated from the frame data FD into the identification model 70a (S34 ). The evaluation variable yok is a variable that indicates the probability that the frame data FD is data representing an image in which the chest, front lower abdomen, and buttocks are not exposed. Furthermore, the evaluation variable yng is a variable that indicates the probability that the frame data FD is data representing an image in which at least one of the chest, front lower abdomen, and buttocks is exposed.

識別モデル70aは、例として、CNNを含む。識別モデル70aにおいて、R,G,Bの3つの「w×h」のデータと、胸部、正面下腹部、尻部、および顔部のそれぞれの「w×h」のヒートマップ60~66とは、1または複数のフィルタflによって、畳み込まれる。フィルタflは、「a×b×7」個の数値よりなる。ただし、「a」は、「w」より小さい自然数である。また、「b」は、「h」より小さい自然数である。この処理は、フレームデータFDを構成する各画素領域と、ヒートマップ60~66の対応する領域とが、互いに対応付けられて識別モデル70aに入力されることを意味する。 The identification model 70a includes CNN, for example. In the identification model 70a, what are the three "w x h" data of R, G, B and the "w x h" heat maps 60 to 66 of the chest, front lower abdomen, buttocks, and face? , one or more filters fl. The filter fl consists of "a×b×7" numerical values. However, "a" is a natural number smaller than "w". Further, "b" is a natural number smaller than "h". This processing means that each pixel region constituting the frame data FD and the corresponding regions of the heat maps 60 to 66 are inputted into the identification model 70a in correspondence with each other.

識別モデル70aは、いくつかの畳み込みレイヤおよびプーリングレイヤ等を有する。なお、識別モデル70aのCNNは、残差ブロックを有してもよい。識別モデル70aは、下流の全結合レイヤM10において、特徴マップが結合されることによって2つの出力値が出力される。そして、出力活性化関数としての2出力のソフトマックス関数M12によって、評価変数yok,yngの値が算出される。 The identification model 70a has several convolution layers, pooling layers, etc. Note that the CNN of the identification model 70a may have a residual block. In the discriminative model 70a, two output values are output by combining the feature maps in the downstream fully connected layer M10. Then, the values of the evaluation variables yok and yng are calculated using the two-output softmax function M12 as an output activation function.

識別モデル70aは、例として、教師あり学習によって学習がなされた学習済みモデルである。識別モデル70aは、次の訓練データを用いて訓練されたモデルである。すなわち、胸部、正面下腹部、および尻部の露出がない画像を示す画像データと、胸部、正面下腹部、および尻部の少なくとも1つに露出がある画像を示す画像データとである。学習によって、識別モデル70aを規定するフィルタの数値および全結合レイヤM10の重みパラメータ等が学習される。なお、識別モデル70aは、教師なし学習によって学習された学習済みモデルであってもよく、半教師あり学習によって学習された学習済みモデルであってもよい。 The identification model 70a is, for example, a trained model that has been trained by supervised learning. The identification model 70a is a model trained using the following training data. That is, there are image data showing images in which the chest, front lower abdomen, and buttocks are not exposed, and image data showing images in which at least one of the chest, front lower abdomen, and buttocks is exposed. Through learning, numerical values of the filter that define the identification model 70a, weight parameters of the fully connected layer M10, etc. are learned. Note that the identification model 70a may be a learned model learned by unsupervised learning, or may be a learned model learned by semi-supervised learning.

学習がなされたフィルタの数値および全結合レイヤM10の重みパラメータ等は、図1に示した記憶装置34に記憶される評価写像データ34cに含まれる。評価写像データ34cは、フィルタの数値および全結合レイヤM10の重みパラメータ等を含むことによって、識別モデル70aを規定する。なお、評価写像データ34cは、CNNの活性化関数を規定するデータを含んでもよい。ただし、CNNの活性化関数を規定するデータは、画像評価プログラム34aに含めてもよい。 The numerical values of the trained filter, the weight parameters of the fully connected layer M10, and the like are included in the evaluation mapping data 34c stored in the storage device 34 shown in FIG. The evaluation mapping data 34c defines the identification model 70a by including filter values, weight parameters of the fully connected layer M10, and the like. Note that the evaluation mapping data 34c may include data that defines an activation function of the CNN. However, the data defining the CNN activation function may be included in the image evaluation program 34a.

PU32は、S34の処理を完了する場合、評価変数yokの値が評価変数yngの値よりも大きいか否かを判定する(S36)。この処理は、評価変数yok,yngの値に基づき、フレームデータFDが胸部、正面下腹部、および尻部の露出がない画像を示すか否かを判定する処理である。 When completing the process of S34, the PU32 determines whether the value of the evaluation variable yok is larger than the value of the evaluation variable yng (S36). This process is a process of determining whether the frame data FD represents an image in which the chest, front lower abdomen, and buttocks are not exposed, based on the values of the evaluation variables yok and yng.

PU32は、評価変数yokの値が評価変数yngの値よりも大きいと判定する場合(S36:YES)、胸部、正面下腹部、および尻部の露出がない旨評価する(S38)。以下では、この評価を、OK判定と称する。一方、PU32は、評価変数yokの値が評価変数yngの値以下であると判定する場合(S36:NO)、胸部、正面下腹部、および尻部の少なくとも1つに露出がある旨評価する(S40)。以下では、この評価を、NG判定と称する。 When determining that the value of the evaluation variable yok is greater than the value of the evaluation variable yng (S36: YES), the PU 32 evaluates that the chest, front lower abdomen, and buttocks are not exposed (S38). Hereinafter, this evaluation will be referred to as OK determination. On the other hand, when determining that the value of the evaluation variable yok is less than or equal to the value of the evaluation variable yng (S36: NO), the PU 32 evaluates that at least one of the chest, front lower abdomen, and buttocks is exposed ( S40). Hereinafter, this evaluation will be referred to as NG determination.

なお、PU32は、フレームデータFD(i),FD(i+N),FD(i+2N)に関してS38,S40の処理を完了する場合、図3のS16の処理を完了する。
そしてPU72は、フレームデータFD(i),FD(i+N),FD(i+2N)のうちの2つ以上についてOK判定がなされたか否かを判定する(S18)。そして、PU32は、OK判定が1つ以下であると判定する場合(S18:NO)、S10の処理によって取得したCM動画データの配信を禁止する(S20)。S18の処理において否定判定されることは、CM動画データに、胸部、正面下腹部、および尻部の少なくとも1つに露出がある旨の最終的な判定がなされたことを意味する。
Note that when the PU 32 completes the processing of S38 and S40 regarding the frame data FD(i), FD(i+N), and FD(i+2N), it completes the processing of S16 in FIG. 3.
Then, the PU 72 determines whether or not two or more of the frame data FD(i), FD(i+N), and FD(i+2N) have been determined to be OK (S18). If the PU 32 determines that there is one or less OK determinations (S18: NO), the PU 32 prohibits distribution of the CM video data acquired through the process of S10 (S20). A negative determination in the process of S18 means that a final determination has been made that at least one of the chest, front lower abdomen, and buttocks is exposed in the CM video data.

一方、PU32は、OK判定が2つ以上であると判定する場合(S18:YES)、変数iに「N」を加算する(S22)。そしてPU32は、フレームデータFD(i+2N)が存在するか否かを判定する(S24)。この処理は、CM動画データの全てについてS16の処理を完了したか否かを判定する処理である。PU32は、フレームデータFD(i+2N)が存在すると判定する場合(S24:YES)、S14の処理に戻る。一方、PU32は、フレームデータFD(i+2N)が存在しないと判定する場合(S24:NO)、CM動画データを配信可能とする(S26)。すなわち、PU32は、ユーザ端末50からのリクエストに応じてCM動画データを配信する。 On the other hand, if the PU 32 determines that there are two or more OK determinations (S18: YES), it adds "N" to the variable i (S22). The PU 32 then determines whether frame data FD(i+2N) exists (S24). This process is a process for determining whether the process of S16 has been completed for all of the CM video data. If the PU 32 determines that frame data FD (i+2N) exists (S24: YES), the process returns to S14. On the other hand, when the PU 32 determines that the frame data FD (i+2N) does not exist (S24: NO), the PU 32 enables distribution of the CM video data (S26). That is, the PU 32 distributes CM video data in response to a request from the user terminal 50.

なお、PU32は、S20,S26の処理を完了する場合、図3に示した一連の処理を一旦終了する。
ここで、本実施形態の作用および効果について説明する。
Note that when the PU 32 completes the processes of S20 and S26, it temporarily ends the series of processes shown in FIG.
Here, the functions and effects of this embodiment will be explained.

PU32は、フレームデータFDを識別モデル70aに入力することによって、評価変数yok,yngの値を算出する。そして、PU32は、評価変数yok,yngの値に応じてフレームデータFDを評価する。この処理は、フレームデータFDを入力としてOK判定またはNG判定である、フレームデータFDの評価結果を出力する評価写像を利用する処理である。 The PU 32 calculates the values of the evaluation variables yok and yng by inputting the frame data FD into the identification model 70a. Then, the PU 32 evaluates the frame data FD according to the values of the evaluation variables yok and yng. This process is a process that uses an evaluation mapping that inputs the frame data FD and outputs an evaluation result of the frame data FD, which is an OK judgment or a NG judgment.

上記識別モデル70aは、学習済みモデルである。特に、識別モデル70aは、例として、中間層の層数が多いディープニューラルネットワーク(以下、DNNと記載)である。DNNは、特徴量を自動で抽出する。そのため、上記評価写像を、DNNを用いて構成する場合、その入力をフレームデータFDのみとすることが簡素である。しかし、その場合、DNNが胸部、正面下腹部、および尻部に着目して評価結果を出力するとは限らない。 The identification model 70a is a learned model. In particular, the identification model 70a is, for example, a deep neural network (hereinafter referred to as DNN) having a large number of intermediate layers. DNN automatically extracts feature amounts. Therefore, when the evaluation mapping is configured using a DNN, it is simple to input only the frame data FD. However, in that case, the DNN does not necessarily output evaluation results focusing on the chest, front lower abdomen, and buttocks.

そこで、本実施形態では、識別モデル70aを、フレームデータFDに加えて胸部、正面下腹部、および尻部のそれぞれの存在確率を示すヒートマップ60~64を入力とするモデルとした。換言すれば、評価写像の入力に、胸部、正面下腹部、および尻部のそれぞれの存在確率を示すヒートマップ60~64を加えた。これにより、ヒートマップ60~64を加えない場合と比較して、識別モデル70aにおいて抽出された特徴量を示す特徴量マップが胸部、正面下腹部、および尻部のそれぞれの特徴を表現する可能性が高まる。そのため、評価変数yok,yngの値を、胸部、正面下腹部、および尻部の少なくとも1つが露出しているか否かをより高精度に表現した値とすることができる。 Therefore, in this embodiment, the identification model 70a is a model that inputs heat maps 60 to 64 indicating the existence probability of each of the chest, front lower abdomen, and buttocks in addition to the frame data FD. In other words, heat maps 60 to 64 indicating the respective existence probabilities of the chest, front lower abdomen, and buttocks are added to the input of the evaluation map. As a result, compared to the case where the heat maps 60 to 64 are not added, there is a possibility that the feature map showing the feature values extracted in the identification model 70a expresses the respective features of the chest, front lower abdomen, and buttocks. increases. Therefore, the values of the evaluation variables yok and yng can be values that more accurately represent whether at least one of the chest, front lower abdomen, and buttocks is exposed.

なお、フレームデータFDが示す領域のうちのヒートマップ60~64によって示される胸部、正面下腹部、および尻部の存在確率が低い領域を一律、マスキングして評価写像に入力することも考えられる。しかし、その場合、胸部、正面下腹部、および尻部以外の露出部分に示される肌の色に関する情報、および人の挙動に関する情報等が省かれることとなる。しかし、それらの情報は、胸部、正面下腹部、および尻部の少なくとも1つが露出しているか否かを評価するうえで有益な情報となりうる。 It is also conceivable to uniformly mask the areas where the existence probability of the chest, front lower abdomen, and buttocks shown by the heat maps 60 to 64 among the areas shown by the frame data FD is low, and then input the masked areas to the evaluation mapping. However, in that case, information regarding the skin color shown in exposed areas other than the chest, front lower abdomen, and buttocks, information regarding human behavior, etc. will be omitted. However, such information can be useful information in evaluating whether at least one of the chest, front lower abdomen, and buttocks is exposed.

したがって、上記識別モデル70aによれば、画像中の胸部、正面下腹部、および尻部に着目する可能性を高めつつ、胸部、正面下腹部、および尻部以外の情報をも加味して評価変数yok,yngの値を高精度に算出できる。 Therefore, according to the above-mentioned identification model 70a, while increasing the possibility of focusing on the chest, front lower abdomen, and buttocks in the image, evaluation variables are The values of yok and yng can be calculated with high precision.

以上説明した本実施形態によれば、さらに以下に記載する作用および効果が得られる。
(1-1)識別モデル70aの入力に、顔部の存在確率を示すヒートマップ66を含めた。身体のうち顔部は露出している可能性が最も高い。そのため、顔部に着目することにより、その人の肌の色に着目する可能性を高めることができる。したがって、評価変数yok,yngの値を、胸部、正面下腹部、および尻部の少なくとも1つが露出しているか否かをより高精度に評価した値とすることができる。
According to the present embodiment described above, the following effects and effects can be obtained.
(1-1) A heat map 66 indicating the existence probability of a face part is included in the input of the identification model 70a. The facial part of the body is most likely to be exposed. Therefore, by focusing on the face, it is possible to increase the possibility of focusing on the person's skin color. Therefore, the values of the evaluation variables yok and yng can be values that more accurately evaluate whether or not at least one of the chest, front lower abdomen, and buttocks is exposed.

(1-2)時系列的にN個周期で隣接する3つのフレームデータFDのうちの2つ以上でOK判定される場合に、2N+1個のフレームデータの区間に問題がないとした。これにより、1つのフレームデータFDに関して誤判定された場合であっても、誤判定の影響を抑制できる。 (1-2) If OK is determined for two or more of three frame data FDs that are chronologically adjacent at N intervals, it is assumed that there is no problem in the section of 2N+1 frame data. Thereby, even if an erroneous determination is made regarding one frame data FD, the influence of the erroneous determination can be suppressed.

<第2の実施形態>
以下、第2の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Second embodiment>
The second embodiment will be described below with reference to the drawings, focusing on the differences from the first embodiment.

図6に、本実施形態にかかる画像評価装置30によって実行される、上記基準に沿った評価に基づいてCM動画データがユーザ端末50によって選択的に表示されることを支援する処理の手順を示す。図6に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図6において、図3に示した処理に対応する処理については、便宜上、同一のステップ番号を付与してその説明を省略する。 FIG. 6 shows the procedure of a process executed by the image evaluation device 30 according to the present embodiment to support selective display of CM video data by the user terminal 50 based on evaluation in accordance with the above criteria. . The process shown in FIG. 6 is realized by the PU 32 repeatedly executing the image evaluation program 34a stored in the storage device 34, for example, at a predetermined period. In addition, in FIG. 6, for convenience, the same step numbers are given to the processes corresponding to the processes shown in FIG. 3, and the description thereof will be omitted.

図6に示すように、PU32は、S18の処理において否定判定する場合(S18:NO)、CM動画データに制限指令を付与する(S20a)。そして、PU32は、S26の処理に移行する。 As shown in FIG. 6, when the PU 32 makes a negative determination in the process of S18 (S18: NO), it gives a restriction command to the CM video data (S20a). The PU 32 then proceeds to the process of S26.

制限指令は、次の何れかの指令である。
・ユーザ端末50においてCM動画データが再生される場合、始めに警告をする指令である。これはユーザインターフェース58が備えるディスプレイに視覚情報を表示する処理としてもよい。またたとえば、ユーザインターフェース58が備えるスピーカから音声情報を出力する処理としてもよい。
The restriction command is one of the following commands.
- When commercial video data is played back on the user terminal 50, this is a command to issue a warning at the beginning. This may be a process of displaying visual information on a display included in the user interface 58. Alternatively, for example, the process may be performed to output audio information from a speaker included in the user interface 58.

・ユーザ端末50においてCM動画データが再生される場合、所定部位が露出しているシーンが再生されるときに再生画像にマスクをする指令である。マスクをする指令は、たとえば、再生画像に対して所定画像を重畳することでマスクをする指令であってもよい。また、たとえば、マスクをする指令は、再生画像に対してぼかし等のエフェクトを適用することでマスクをする指令であってもよい。またたとえば、マスクをする指令は、露出している所定部位の領域を少なくとも含む再生画像の一部に対して所定画像を重畳することでマスクをする指令であってもよい。またたとえば、露出している所定部位の領域を少なくとも含む再生画像の一部に対してばかし等のエフェクトを適用することでマスクをする指令であってもよい。 - When commercial video data is played back on the user terminal 50, this is a command to mask the playback image when a scene in which a predetermined part is exposed is played back. The command to mask may be, for example, a command to perform masking by superimposing a predetermined image on the reproduced image. Further, for example, the command to mask may be a command to perform masking by applying an effect such as blurring to the reproduced image. For example, the command to mask may be a command to perform masking by superimposing a predetermined image on a part of the reproduced image that includes at least an exposed predetermined region. Alternatively, for example, it may be a command to mask a part of the reproduced image that includes at least an exposed predetermined region by applying an effect such as a mask.

・ユーザ端末50に対してなされる、CM動画データを再生してはいけない旨の指令である。これは、たとえばアプリケーションプログラム54aが、同指令を検知する場合、CM動画データの再生をしない設定とすることで実現できる。 - This is a command issued to the user terminal 50 to the effect that commercial video data should not be played back. This can be realized, for example, by setting the application program 54a not to reproduce the commercial video data when the application program 54a detects the command.

<第3の実施形態>
以下、第3の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Third embodiment>
The third embodiment will be described below with reference to the drawings, focusing on the differences from the first embodiment.

本実施形態では、識別モデル70aに代えて、識別モデル70bを用いる。
図7に、フレーム評価処理の詳細を示す。図7に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図7において、図4に示した処理に対応する処理については、便宜上、同一のステップ番号を付与する。
In this embodiment, the identification model 70b is used instead of the identification model 70a.
FIG. 7 shows details of the frame evaluation process. The process shown in FIG. 7 is realized by the PU 32 repeatedly executing the image evaluation program 34a stored in the storage device 34, for example, at a predetermined period. Note that in FIG. 7, the same step numbers are given to the processes corresponding to the processes shown in FIG. 4 for convenience.

図7に示す一連の処理において、PU72は、ヒートマップ60~66を生成すると(S32)、それらヒートマップ60~66を縮小する(S42)。すなわち、S32の処理において生成された「w×h」の領域数のヒートマップを「w1×h1」の領域数を有したヒートマップに縮小する。ここで、「w1<w,h1<h」である。この処理は、たとえば、「w×h」の領域数のヒートマップを「1/4」のヒートマップに縮小する場合、次のようにすればよい。すなわち、「w×h」の領域数のヒートマップの「4×4」の領域の平均値を、「w1×h1」の領域数を有したヒートマップの1つの領域の値とすればよい。 In the series of processes shown in FIG. 7, the PU 72 generates the heat maps 60 to 66 (S32) and then reduces the heat maps 60 to 66 (S42). That is, the heat map with the number of regions of "w×h" generated in the process of S32 is reduced to a heat map with the number of regions of "w1×h1". Here, "w1<w, h1<h". For example, when reducing a heat map with a number of regions of "w×h" to a heat map of "1/4", this process may be performed as follows. That is, the average value of the "4 x 4" areas of the heat map with the number of areas of "w x h" may be taken as the value of one area of the heat map with the number of areas of "w1 x h1".

次に、PU32は、縮小されたヒートマップから、「w1×h1」の領域数の係数行列MKを算出する(S44)。係数行列MKは、「w1×h1」個の領域のそれぞれに関する係数Kの値を定義する。係数Kの値は、縮小されたヒートマップにおける領域の値が閾値以上の場合に「1」よりも大きい値となる。係数Kの値は、縮小されたヒートマップにおける領域の値が閾値未満の場合に「1」となる。ここで、閾値は、「0」よりも大きく「1」未満の値である。S44の処理において生成される係数行列MKは、ヒートマップ60~66に対応した4個である。たとえば、ヒートマップ60に対応した係数行列MKは、その成分の値が「1」よりも大きい場合、その領域に胸部が存在する確率が大きいことを意味する。また、たとえば、ヒートマップ60に対応した係数行列MKは、その成分の値が「1」の場合、その領域に胸部が存在する確率が小さいことを意味する。 Next, the PU 32 calculates a coefficient matrix MK with the number of regions of “w1×h1” from the reduced heat map (S44). Coefficient matrix MK defines the value of coefficient K for each of “w1×h1” regions. The value of the coefficient K is greater than "1" when the value of the region in the reduced heat map is equal to or greater than the threshold value. The value of the coefficient K is "1" when the value of the area in the reduced heat map is less than the threshold value. Here, the threshold value is a value greater than "0" and less than "1". There are four coefficient matrices MK generated in the process of S44, which correspond to heat maps 60 to 66. For example, when the coefficient matrix MK corresponding to the heat map 60 has a value of a component greater than "1", it means that there is a high probability that a chest exists in that region. Further, for example, when the value of a component of the coefficient matrix MK corresponding to the heat map 60 is "1", it means that the probability that a chest exists in that region is small.

次に、PU72は、識別モデル70bに、フレームデータFDおよび係数行列MKを入力することによって、評価変数yok,yngの値を算出する(S34a)。
識別モデル70bは、フレームデータFDおよび係数行列MKを入力とし、評価変数yok,yngの値を出力する。ただし、識別モデル70bは、係数行列MKを最上流から入力するモデルではない。
Next, the PU 72 calculates the values of the evaluation variables yok and yng by inputting the frame data FD and the coefficient matrix MK to the identification model 70b (S34a).
The identification model 70b inputs the frame data FD and the coefficient matrix MK, and outputs the values of evaluation variables yok and yng. However, the identification model 70b is not a model in which the coefficient matrix MK is input from the most upstream side.

識別モデル70bは、特徴抽出器M20を備える。特徴抽出器M20は、フレームデータFDを入力として、フレームデータFDの特徴量を抽出する。特徴抽出器M20は、CNNを含む。この特徴量は、「h1×w1」の特徴マップ80である。特徴マップ80は、複数存在する。識別モデル70aは、積算処理M22を有する。積算処理M22は、4個の係数行列MKのそれぞれについて、特徴マップ80のいくつかとのアダマール積を算出する処理である。ここで、1つの特徴マップ80とアダマール積が算出される係数行列MKは、4個の係数行列MKのうちのいずれか1つであってよい。また、特徴抽出器M20が出力する特徴マップ80の中には、係数行列MKとのアダマール積の算出対象とされないものもある。 The identification model 70b includes a feature extractor M20. The feature extractor M20 receives the frame data FD as input and extracts the feature amount of the frame data FD. Feature extractor M20 includes a CNN. This feature amount is a feature map 80 of “h1×w1”. A plurality of feature maps 80 exist. The identification model 70a has an integration process M22. The integration process M22 is a process of calculating Hadamard products with some of the feature maps 80 for each of the four coefficient matrices MK. Here, the coefficient matrix MK for which the Hadamard product is calculated with one feature map 80 may be any one of the four coefficient matrices MK. Furthermore, some of the feature maps 80 output by the feature extractor M20 are not subject to calculation of the Hadamard product with the coefficient matrix MK.

具体的には、たとえば、「n」を自然数として、特徴マップ80の数が「5n」個の場合、ヒートマップ60~66のそれぞれに対応する係数行列MKとの積算対象となる特徴マップ80を、「n」個ずつとしてもよい。その場合、いずれの係数行列MKとの積算対象ともならない特徴マップ80が「n」個存在する。 Specifically, for example, when the number of feature maps 80 is "5n" where "n" is a natural number, the feature map 80 to be multiplied with the coefficient matrix MK corresponding to each of the heat maps 60 to 66 is , "n" pieces. In that case, there are "n" feature maps 80 that are not subject to integration with any coefficient matrix MK.

識別モデル70bは、識別ユニットM24を有する。識別ユニットM24には、積算処理M22が施された特徴マップが入力される。識別ユニットM24は、たとえば出力活性化関数がソフトマックス関数であるCNNであってもよい。 The identification model 70b has an identification unit M24. The feature map subjected to the integration process M22 is input to the identification unit M24. The identification unit M24 may be, for example, a CNN whose output activation function is a softmax function.

なお、識別モデル70bは、教師あり学習によって学習された学習済みモデルである。ここでの訓練データは、識別モデル70aによるものと同様である。本実施形態において、評価写像データ34cは、識別モデル70aの学習によって得られたパラメータを含む。ちなみに、特徴抽出器M20を規定するパラメータについては、胸部、正面下腹部、および尻部の少なくとも1つに露出があるか否かに応じた画像を示す画像データを用いた学習によって得られたものでなくてもよい。すなわち、既存の画像認識処理によって得られた特徴抽出器を転移学習によって利用してもよい。 Note that the identification model 70b is a learned model learned by supervised learning. The training data here is the same as that based on the identification model 70a. In this embodiment, the evaluation mapping data 34c includes parameters obtained by learning the discriminative model 70a. Incidentally, the parameters defining the feature extractor M20 were obtained through learning using image data representing images depending on whether or not at least one of the chest, front lower abdomen, and buttocks is exposed. It doesn't have to be. That is, a feature extractor obtained by existing image recognition processing may be used by transfer learning.

以上説明した本実施形態によれば、以下の作用および効果が得られる。
(3-1)複数個の特徴マップ80に、4個の係数行列MKのうちのいずれか1つと選択的に合成されるマップを含めた。これにより、合成後の特徴マップは、胸部、正面下腹部、尻部、および顔部のうちの対応する部分の値が増幅されるマップとなることから、対応する部分の特徴を抽出するマップとなりやすい。
According to this embodiment described above, the following actions and effects can be obtained.
(3-1) The plurality of feature maps 80 include a map that is selectively combined with any one of the four coefficient matrices MK. As a result, the combined feature map becomes a map in which the values of the corresponding parts of the chest, front lower abdomen, buttocks, and face are amplified, so it becomes a map that extracts the features of the corresponding parts. Cheap.

(3-2)複数個の特徴マップ80に、4個の係数行列MKのうちのいずれによっても補正されない特徴マップを含めた。これにより、胸部、正面下腹部、尻部、および顔部に特化しないものの胸部、正面下腹部、および尻部の少なくとも1つが露出しているか否かを判定するうえで有効な特徴を抽出するマップを生成させやすい。 (3-2) The plurality of feature maps 80 include a feature map that is not corrected by any of the four coefficient matrices MK. As a result, features that are not specific to the chest, front lower abdomen, buttocks, and face but are effective in determining whether at least one of the chest, front lower abdomen, and buttocks are exposed are extracted. Easy to generate maps.

<第4の実施形態>
以下、第4の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Fourth embodiment>
The fourth embodiment will be described below with reference to the drawings, focusing on the differences from the first embodiment.

本実施形態では、識別モデル70aに代えて、識別モデル70cを用いる。
図8に、フレーム評価処理の詳細を示す。図8に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図8において、図4に示した処理に対応する処理については、便宜上、同一のステップ番号を付与する。
In this embodiment, an identification model 70c is used instead of the identification model 70a.
FIG. 8 shows details of the frame evaluation process. The process shown in FIG. 8 is realized by the PU 32 repeatedly executing the image evaluation program 34a stored in the storage device 34, for example, at a predetermined period. Note that in FIG. 8, the same step numbers are given to the processes corresponding to the processes shown in FIG. 4 for convenience.

図8に示す一連の処理において、PU32は、まず識別モデル70cにフレームデータFDを入力することによって、評価変数yok,yngの値を算出する(S34b)。識別モデル70cは、フレームデータFDを入力することによって、評価変数yok,yngの値を出力するモデルである。識別モデル70cは、特徴抽出器M30を含む。特徴抽出器M30は、R,G,Bのそれぞれについて「w×h」からなる画像データを入力として、「w2×h2」の特徴マップ82を出力する。ここで、「w2<w,h2<h」である。特徴抽出器M30は、CNNを含む。特徴抽出器M30が一度に出力する特徴マップ82の数は、J個である。ただし、「J>2」である。 In the series of processes shown in FIG. 8, the PU 32 first calculates the values of the evaluation variables yok and yng by inputting the frame data FD to the identification model 70c (S34b). The identification model 70c is a model that outputs the values of evaluation variables yok and yng by inputting the frame data FD. Discrimination model 70c includes a feature extractor M30. The feature extractor M30 inputs image data of "w×h" for each of R, G, and B, and outputs a "w2×h2" feature map 82. Here, "w2<w, h2<h". Feature extractor M30 includes a CNN. The number of feature maps 82 that the feature extractor M30 outputs at one time is J. However, "J>2".

識別モデル70cは、全結合レイヤM32を含む。全結合レイヤM32は、J個の特徴マップ82の「w2×h2×J」個の数値を結合して2つの出力値を出力する。それら2つの出力値は、ソフトマックス関数M34に入力される。ソフトマックス関数M34は、評価変数yok,yngの値を出力する。 The identification model 70c includes a fully connected layer M32. The fully connected layer M32 combines "w2×h2×J" numerical values of the J feature maps 82 and outputs two output values. These two output values are input to the softmax function M34. The softmax function M34 outputs the values of evaluation variables yok and yng.

識別モデル70cは、例として、教師あり学習によって学習された学習済みモデルである。識別モデル70cの訓練データは、識別モデル70aの訓練データと同様である。なお、識別モデル70cは、教師なし学習によって学習された学習済みモデルであってもよく、半教師あり学習によって学習された学習済みモデルであってもよい。 The identification model 70c is, for example, a learned model learned by supervised learning. The training data for the identification model 70c is similar to the training data for the identification model 70a. Note that the identification model 70c may be a learned model learned by unsupervised learning, or may be a learned model learned by semi-supervised learning.

そして、PU32は、評価変数yokが評価変数yngよりも大きいと判定する場合(S36:YES)、最終評価処理を実行する(S50)。
図9に、最終評価処理の詳細を示す。
Then, when determining that the evaluation variable yok is larger than the evaluation variable yng (S36: YES), the PU 32 executes the final evaluation process (S50).
FIG. 9 shows details of the final evaluation process.

図9に示す一連の処理において、PU32は、評価変数yokが大きいときに識別モデル70cが着目した領域を示すアクティベーションマップを生成する(S60)。ここで、上記J個の特徴マップを、f1(x,y),f2(x,y),…,fJ(x,y)と記載する。そして、全結合レイヤM32のパラメータのうち、評価変数yokに対応するものを、wok1,wok2,…,wokJとする。ただし、「1≦x≦w2,1≦y≦h2」である。 In the series of processes shown in FIG. 9, the PU 32 generates an activation map indicating the area that the identification model 70c focuses on when the evaluation variable yok is large (S60). Here, the above J feature maps are written as f1 (x, y), f2 (x, y), ..., fJ (x, y). Among the parameters of the fully connected layer M32, those corresponding to the evaluation variable yok are assumed to be wok1, wok2, . . . , wokJ. However, "1≦x≦w2, 1≦y≦h2".

その場合、各座標(x,y)が、評価変数yokが大きいことに寄与した度合いは、
wok1・f1(x,y)+wok2・f2(x,y)+…+wokJ・fJ(x,y)
である。
In that case, the degree to which each coordinate (x, y) contributed to the large evaluation variable yok is:
wok1・f1(x,y)+wok2・f2(x,y)+…+wokJ・fJ(x,y)
It is.

PU32は、「w2×h2」の各座標(x,y)について、上記値を算出することによって、アクティベーションマップを生成する。
次にPU32は、アクティベーションマップを2値化した2値化マップMACTを生成する(S62)。ここで、PU32は、まず、アクティベーションマップが示す「w2×h2」個の値のそれぞれをロジスティックシグモイド関数に代入することによって、「w2×h2」個の値を「0」以上「1」以下の値とする。そして、PU32は、ロジスティックシグモイド関数の出力値が所定値よりも大きい場合に「1」として且つ、所定値以下の場合に「-1」とする。ここで、所定値は、「0」よりも大きく「1」よりも小さい値に設定される。なお、所定値は、「1/2」以上であってもよい。
The PU 32 generates an activation map by calculating the above values for each coordinate (x, y) of "w2×h2".
Next, the PU 32 generates a binarized map MACT by binarizing the activation map (S62). Here, the PU 32 first assigns each of the "w2 x h2" values indicated by the activation map to the logistic sigmoid function, thereby calculating the "w2 x h2" values from "0" to "1". be the value of Then, the PU 32 sets it as "1" when the output value of the logistic sigmoid function is larger than a predetermined value, and sets it as "-1" when it is less than or equal to the predetermined value. Here, the predetermined value is set to a value greater than "0" and smaller than "1". Note that the predetermined value may be "1/2" or more.

2値化マップMACTは、フレームデータFDが示す領域を縮小した「w2×h2」の領域において、OK判定に大きく寄与した領域に「1」が付与されたマップである。また、2値化マップMACTは、フレームデータFDが示す領域を縮小した「w2×h2」の領域において、OK判定にあまり寄与していない領域に「-1」が付与されたマップである。 The binarized map MACT is a map in which "1" is assigned to the region that greatly contributed to the OK determination in the "w2×h2" region obtained by reducing the region indicated by the frame data FD. Furthermore, the binarized map MACT is a map in which "-1" is assigned to an area that does not contribute much to the OK determination in the area of "w2×h2" which is a reduced area of the area indicated by the frame data FD.

次にPU32は、フレームデータFDを回帰モデルに入力する(S64)。回帰モデルは、顔部の2次元ガウス分布等の2次元分布を定義する出力がないことを除いて、S30の処理によって用いたものと同じである。次にPU32は、ヒートマップ60~64を生成する(S66)。次に、PU32は、3個のヒートマップ60~64のそれぞれを、「w2×h2」に縮小する(S68)。この処理は、S42の処理と同様である。次に、PU32は、縮小された3個のヒートマップから、1つの2値化マップMbodyを生成する(S70)。S70の処理において、PU32は、まず、3個のヒートマップのそれぞれの成分の値と閾値との大小を比較することによって3個の暫定マップを生成する。すなわち、PU32は、ヒートマップの成分の値が閾値よりも大きい場合には、暫定マップの対応する成分の値を「1」とする。また、PU32は、ヒートマップの成分の値が閾値以下の場合には、暫定マップの対応する成分の値を「-1」とする。そして、PU32は、3個の暫定マップの成分のそれぞれについて、3個の値の全てが「-1」の場合には、2値化マップMbodyの対応する値を「-1」とする。また、PU32は、3個の暫定マップの成分のそれぞれについて、3個の値の少なくとも1つが「1」の場合には、2値化マップMbodyの対応する値を「1」とする。 Next, the PU 32 inputs the frame data FD into the regression model (S64). The regression model is the same as that used in the process of S30, except that there is no output that defines a two-dimensional distribution such as a two-dimensional Gaussian distribution of the face. Next, the PU 32 generates heat maps 60 to 64 (S66). Next, the PU 32 reduces each of the three heat maps 60 to 64 to "w2×h2" (S68). This process is similar to the process at S42. Next, the PU 32 generates one binarized map Mbody from the three reduced heat maps (S70). In the process of S70, the PU 32 first generates three provisional maps by comparing the values of the respective components of the three heat maps with a threshold value. That is, when the value of the component of the heat map is larger than the threshold value, the PU 32 sets the value of the corresponding component of the provisional map to "1". Further, when the value of a component of the heat map is less than or equal to the threshold value, the PU 32 sets the value of the corresponding component of the provisional map to "-1". Then, for each of the three provisional map components, if all three values are "-1", the PU 32 sets the corresponding value of the binarized map Mbody to "-1". Furthermore, when at least one of the three values for each of the three provisional map components is "1", the PU 32 sets the corresponding value of the binarized map Mbody to "1".

2値化マップMbodyは、フレームデータFDが示す領域を縮小した「w2×h2」の領域において、胸部、正面下腹部、および尻部のいずれかの存在確率が大きい領域に「1」が付されたマップである。また、2値化マップMbodyは、フレームデータFDが示す領域を縮小した「w2×h2」の領域において、胸部、正面下腹部、および尻部の全ての存在確率が小さい領域に「-1」が付されたマップである。 In the binarized map Mbody, in the "w2 x h2" area which is the reduced area indicated by the frame data FD, "1" is assigned to the area where the existence probability of any of the chest, front lower abdomen, and buttocks is large. This is a map. Furthermore, in the binarized map Mbody, in the “w2×h2” area which is a reduced area of the area indicated by the frame data FD, “-1” is placed in the area where the existence probability of all of the chest, front lower abdomen, and buttocks is small. This is the attached map.

そしてPU32は、2値化マップMACTと2値化マップMbodyとのアダマール積を算出することによって、注視マップMATTを生成する(S72)。注視マップMATTは、評価変数yokが大きいことに寄与した領域であって且つ胸部、正面下腹部、および尻部の存在確率が大きい領域を「1」とするマップである。また、注視マップMATTは、評価変数yokが大きいことにあまり寄与していない領域であって且つ胸部、正面下腹部、および尻部の存在確率が小さい領域を「1」とするマップである。また、注視マップMATTは、評価変数yokが大きいことに寄与した領域であって且つ胸部、正面下腹部、および尻部の存在確率が小さい領域を「-1」とするマップである。また、注視マップMATTは、評価変数yokが大きいことにあまり寄与していない領域であって且つ胸部、正面下腹部、および尻部の存在確率が大きい領域を「-1」とするマップである。 Then, the PU 32 generates the gaze map MATT by calculating the Hadamard product of the binarized map MACT and the binarized map Mbody (S72). The gaze map MATT is a map that assigns "1" to regions that contribute to a large evaluation variable yok and that have a high probability of existence of the chest, front lower abdomen, and buttocks. Furthermore, the gaze map MATT is a map in which regions that do not contribute much to the large evaluation variable yok and in which the presence probability of the chest, front lower abdomen, and buttocks are small are set as "1". Furthermore, the gaze map MATT is a map that sets "-1" to regions that contribute to a large evaluation variable yok and that have a low probability of existence of the chest, front lower abdomen, and buttocks. Furthermore, the gaze map MATT is a map that sets "-1" to regions that do not contribute much to the large evaluation variable yok and have a high probability of existence of the chest, front lower abdomen, and buttocks.

次にPU32は、注視マップMATTの各成分の平均値を示す指標値(図中、GAP(MATT)と記載)が判定値gth以上であるか否かを判定する(S74)。ここで、指標値を単純平均値とする場合には、指標値は、「-1」以上であって且つ「1」以下の値である。指標値が大きいほど、胸部、正面下腹部、および尻部の存在確率が大きい領域に着目してOK判定がなされたことを意味する。なお、指標値を単純平均値とすることは必須ではない。たとえば、周囲が「-1」となる領域に囲まれた1つの領域のみ「1」となる領域については、その値を「-1」に書き替えた平均値とするなどのフィルタ処理を施してもよい。 Next, the PU 32 determines whether an index value (denoted as GAP(MATT) in the figure) indicating the average value of each component of the gaze map MATT is equal to or greater than the determination value gth (S74). Here, when the index value is a simple average value, the index value is a value greater than or equal to "-1" and less than or equal to "1". The larger the index value, the more likely the region is determined to be OK, such as the chest, front lower abdomen, and buttocks. Note that it is not essential that the index value be a simple average value. For example, for an area where only one area is ``1'' surrounded by an area where the surrounding area is ``-1'', filter processing such as rewriting the value to ``-1'' and taking the average value is performed. Good too.

PU32は、指標値が閾値gth以上であると判定する場合(S74:YES)、OK判定をする(S38)。
一方、PU32は、指標値が閾値gth未満であると判定する場合(S74:NO)、NG判定をする(S76)。そして、PU72は、その時のフレームデータFDを記憶装置34に保存する(S78)。そしてPU32は、図1に示すユーザインターフェース40を操作することによって、評価変数yokの値が大きいことの妥当性が低い旨を、人に通知する(S80)。ここでは、たとえば、ユーザインターフェース40に表示装置を備えることによって、妥当性が低い旨の視覚情報を表示してもよい。
If the PU 32 determines that the index value is equal to or greater than the threshold value gth (S74: YES), the PU 32 makes an OK determination (S38).
On the other hand, when determining that the index value is less than the threshold value gth (S74: NO), the PU 32 makes an NG determination (S76). Then, the PU 72 stores the frame data FD at that time in the storage device 34 (S78). Then, the PU 32 notifies the person that the validity of the large value of the evaluation variable yok is low by operating the user interface 40 shown in FIG. 1 (S80). Here, for example, the user interface 40 may be provided with a display device to display visual information indicating that the validity is low.

なお、PU32は、S38,S80の処理がなされる場合、図8に示すS50の処理を一旦完了する。
このように、本実施形態では、PU32は、フレームデータFDのみから評価変数yok,yngの値を算出する。ただし、PU32は、評価変数yokの値が大きい場合、直ちにはOK判定とせずに、画像のどこに着目して評価変数yokを大きい値に算出したかを分析する。そしてPU32は、画像のうちの胸部、正面下腹部、および尻部に着目して評価変数yokを大きい値に算出した場合に、OK判定をする。これにより、誤ってOK
判定がなされることを抑制できる。
Note that when the processes of S38 and S80 are performed, the PU 32 once completes the process of S50 shown in FIG.
In this manner, in this embodiment, the PU 32 calculates the values of the evaluation variables yok and yng only from the frame data FD. However, when the value of the evaluation variable yok is large, the PU 32 does not immediately determine OK, but analyzes where in the image the evaluation variable yok was calculated to be a large value. Then, the PU 32 determines OK when the evaluation variable yok is calculated to be a large value by focusing on the chest, front lower abdomen, and buttocks in the image. This allows you to accidentally
It is possible to prevent judgments from being made.

以上説明した本実施形態によれば、さらに以下の作用および効果が得られる。
(4-1)PU32は、評価変数yokの値が大きいことの妥当性が低いと判定する場合、その時のフレームデータFDを保存して且つ、人に通知した。これにより、人が最終的な判断をすることができる。そのため、胸部、正面下腹部、および尻部のいずれも露出していない場合には、NG判定を取り消して、CM動画データを配信できる。また、胸部、正面下腹部、および尻部のいずれも露出していない場合には、保存したフレームデータFDを用いて識別モデル70cを再学習させることができる。
According to this embodiment described above, the following effects and effects can be obtained.
(4-1) If the PU 32 determines that the validity of the large value of the evaluation variable yok is low, it saves the frame data FD at that time and notifies the person. This allows people to make the final decision. Therefore, if none of the chest, front lower abdomen, or buttocks are exposed, the NG determination can be canceled and the CM video data can be distributed. Furthermore, if none of the chest, front lower abdomen, or buttocks are exposed, the identification model 70c can be retrained using the saved frame data FD.

<第5の実施形態>
以下、第5の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Fifth embodiment>
The fifth embodiment will be described below with reference to the drawings, focusing on the differences from the first embodiment.

本実施形態では、識別モデル70aに代えて、識別モデル70dを用いる。識別モデル70dは、次の3つの状態を識別する。
状態1:胸部、正面下腹部、および尻部のいずれも露出していない状態である。
In this embodiment, an identification model 70d is used instead of the identification model 70a. The identification model 70d identifies the following three states.
Condition 1: None of the chest, front lower abdomen, and buttocks are exposed.

状態2:胸部のうちの図2に示す部分「3」の一部、正面下腹部のうちの図2に示す部分「10」の一部、および尻部のうちの図2に示す部分「14」の一部の少なくとも1つに限って露出している状態である。状態2は、たとえば胸部、正面下腹部、および尻部に衣類をまとっているが、その衣類がある程度露出度が大きい衣類である状態である。また、状態2は、たとえば胸部、正面下腹部、および尻部に衣類をまとっているが、その衣類がある程度透けている衣類である状態である。 State 2: A part of the chest part "3" shown in FIG. 2, a part of the front lower abdomen part "10" shown in FIG. 2, and a part of the buttocks part "14" shown in FIG. ” is exposed. State 2 is a state in which, for example, the chest, front lower abdomen, and buttocks are covered with clothing, but the clothing is highly revealing to some extent. State 2 is a state in which, for example, the chest, front lower abdomen, and buttocks are covered with clothing, but the clothing is transparent to some extent.

状態3:胸部、正面下腹部、および尻部の少なくとも1つについて、状態2以上に顕著に露出している状態である。
図10に、フレーム評価処理の詳細を示す。図10に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図10において、図4に示した処理に対応する処理については、便宜上、同一のステップ番号を付与する。
State 3: A state in which at least one of the chest, front lower abdomen, and buttocks is significantly exposed compared to state 2 or higher.
FIG. 10 shows details of the frame evaluation process. The process shown in FIG. 10 is realized by the PU 32 repeatedly executing the image evaluation program 34a stored in the storage device 34 at, for example, a predetermined period. Note that in FIG. 10, the same step numbers are given to the processes corresponding to the processes shown in FIG. 4 for convenience.

図10に示す一連の処理において、PU32は、まずフレームデータFDをセマンティックセグメンテーションモデルに入力する(S30a)。セマンティックセグメンテーションモデルは、フレームデータFDが示す「w×h」個の画素毎に、ラベル変数の値を出力するモデルである。ここで、ラベル変数は、少なくとも図2の「3~5,10~14,18」の各部分同士と、それ以外とを識別する値である。したがって、ラベル変数は、10個以上の異なる値を取り得る。 In the series of processes shown in FIG. 10, the PU 32 first inputs the frame data FD into the semantic segmentation model (S30a). The semantic segmentation model is a model that outputs the value of a label variable for each "w×h" number of pixels indicated by the frame data FD. Here, the label variable is a value that distinguishes at least each part of "3 to 5, 10 to 14, and 18" in FIG. 2 from each other. Therefore, a label variable can take on ten or more different values.

セマンティックセグメンテーションモデルは、識別モデルである。セマンティックセグメンテーションモデルは、教師あり学習によって学習された学習済みモデルである。セマンティックセグメンテーションモデルは、様々な画像データについて、予め上記各部分の画素にラベル変数の値を付与したデータを訓練データとして学習がなされたデータである。本実施形態にかかる位置情報写像データ34bには、セマンティックセグメンテーションモデルを規定するパラメータが含まれている。すなわち、たとえば、セマンティックセグメンテーションモデルがCNNを含む場合、位置情報写像データ34bには、フィルタの各値、および全結合レイヤの重みパラメータ等が含まれる。 A semantic segmentation model is a discriminative model. The semantic segmentation model is a trained model learned by supervised learning. The semantic segmentation model is data that has been trained on various image data using data in which label variable values are previously assigned to pixels of each portion as training data. The location information mapping data 34b according to this embodiment includes parameters that define a semantic segmentation model. That is, for example, when the semantic segmentation model includes CNN, the position information mapping data 34b includes each value of the filter, the weight parameter of the fully connected layer, and the like.

次に、PU32は、セマンティックセグメンテーションモデルが出力する各画素のラベル変数の値を用いて、身体情報マップを生成する(S32a)。身体情報マップは、次の6個からなる。 Next, the PU 32 generates a physical information map using the value of the label variable of each pixel output by the semantic segmentation model (S32a). The physical information map consists of the following six items.

(bm1)胸部のうちの図2に示す部分「3」が位置する部分とそれ以外とを識別するマップである。これは、たとえば、胸部のうちの図2に示す部分「3」が位置する部分を「1」として且つ、それ以外の部分を「0」とすることによって実現できる。 (bm1) This is a map that identifies the part of the chest where part "3" shown in FIG. 2 is located and the other part. This can be realized, for example, by setting the part of the chest where part "3" shown in FIG. 2 is located as "1" and setting the other parts as "0".

(bm2)正面下腹部のうちの図2に示す部分「10」が位置する部分とそれ以外とを識別するマップである。
(bm3)尻部のうちの図2に示す部分「14」が位置する部分とそれ以外とを識別するマップである。
(bm2) This is a map that identifies the portion of the front lower abdomen where the portion “10” shown in FIG. 2 is located and the other portions.
(bm3) This is a map that identifies the portion of the buttocks where the portion “14” shown in FIG. 2 is located and the other portions.

(bm4)胸部のうちの図2に示す部分「3」以外の部分とそれ以外とを識別するマップである。
(bm5)正面下腹部のうちの図2に示す部分「10」以外の部分が位置する部分とそれ以外とを識別するマップである。
(bm4) This is a map that identifies parts of the chest other than part "3" shown in FIG. 2 and other parts.
(bm5) This is a map that identifies a portion of the front lower abdomen where a portion other than the portion “10” shown in FIG. 2 is located and the other portions.

(bm6)尻部のうちの図2に示す部分「14」以外の部分が位置する部分とそれ以外とを識別するマップである。
上記(bm1)~(bm3)は、上記状態2において特に着目すべき部分の位置を示すマップデータである。一方、上記(bm4)~(bm6)は、上記状態3において特に着目すべき部分の位置を示すマップデータである。
(bm6) This is a map that identifies a portion of the buttocks where a portion other than the portion “14” shown in FIG. 2 is located and other portions.
The above (bm1) to (bm3) are map data indicating the positions of parts of particular interest in the above state 2. On the other hand, the above (bm4) to (bm6) are map data indicating the positions of parts of particular interest in the above state 3.

S30a,S32aの処理によって、フレームデータから6個の身体情報マップを出力する位置情報写像は、上記セマンティックセグメンテーションモデルに応じて規定される写像である。 The positional information mapping that outputs the six physical information maps from the frame data through the processing in S30a and S32a is a mapping defined according to the above-mentioned semantic segmentation model.

次にPU32は、上記6個の身体情報マップ84と、フレームデータFDとを、識別モデル70dに入力することによって、評価変数yok1,yok2,yngの値を算出する(S34c)。識別モデル70dは、CNNを含む。識別モデル70dに入力された6個の身体情報マップ84と、フレームデータFDとは、「a2×b2×9」の次元を有する複数個のフィルタflによって畳み込み処理がなされる。ここで、「a2」は、「w」より小さい自然数である。また、「b2」は、「h」よりも小さい自然数である。畳み込みレイヤの数は任意である。また、CNNは、プーリングレイヤを含んでもよい。また、CNNは、残差ブロックを含んでもよい。そして、CNNが出力する特徴マップは、全結合レイヤM40において結合される。全結合レイヤM40の出力は3個である。そして、それらは出力活性化関数であるソフトマックス関数M42に入力される。ソフトマックス関数M42は、3個の評価変数yok1,yok2,yngの値を出力する。 Next, the PU 32 calculates the values of the evaluation variables yok1, yok2, and yng by inputting the six physical information maps 84 and the frame data FD into the identification model 70d (S34c). The identification model 70d includes CNN. The six physical information maps 84 input to the identification model 70d and the frame data FD are subjected to convolution processing by a plurality of filters fl having dimensions of "a2 x b2 x 9". Here, "a2" is a natural number smaller than "w". Moreover, "b2" is a natural number smaller than "h". The number of convolution layers is arbitrary. Additionally, the CNN may include a pooling layer. Additionally, the CNN may include residual blocks. Then, the feature maps output by the CNN are combined in a fully connected layer M40. The fully connected layer M40 has three outputs. Then, they are input to a softmax function M42 which is an output activation function. The softmax function M42 outputs the values of three evaluation variables yok1, yok2, and yng.

識別モデル70dは、例として、教師あり学習によって学習された学習済みモデルである。識別モデル70dの学習における訓練データは、上記状態1,状態2,状態3のそれぞれの画像データである。状態1の画像データに対しては、評価変数yok1の目標変数の値を「1」とし、それ以外の目標変数の値を「0」とする。また、状態2の画像データに対しては、評価変数yok2の目標変数の値を「1」とし、それ以外の目標変数の値を「0」とする。また、状態3の画像データに対しては、評価変数yngの目標変数の値を「1」とし、それ以外の目標変数の値を「0」とする。 The identification model 70d is, for example, a learned model learned by supervised learning. The training data for learning the identification model 70d is image data of each of the states 1, 2, and 3 described above. For the image data in state 1, the value of the target variable of the evaluation variable yok1 is set to "1", and the values of the other target variables are set to "0". Furthermore, for the image data in state 2, the value of the target variable of the evaluation variable yok2 is set to "1", and the values of the other target variables are set to "0". Further, for the image data in state 3, the value of the target variable of the evaluation variable yng is set to "1", and the values of the other target variables are set to "0".

識別モデル70dの学習によって求められた各パラメータは、評価写像データ34cに含まれる。
PU32は、評価変数yok1,yok2,yngの値のうちの最大値ymaxが評価変数yok1の値であるか否かを判定する(S36a)。PU32は、最大値ymaxが評価変数yok1の値であると判定する場合(S36a:YES)、状態1であると判定する(S38a)。以下、これをOK1判定と称する。一方、PU32は、最大値ymaxが評価変数yok1の値ではないと判定する場合(S36a:NO)、最大値ymaxが評価変数yok2の値であるか否かを判定する(S36b)。PU32は、最大値ymaxが評価変数yok2の値であると判定する場合(S36b:YES)、状態2であると判定する(S38b)。以下、これをOK2判定と称する。一方、PU32は、最大値ymaxが評価変数yok2の値ではないと判定する場合(S36b:NO)、NG判定をする(S40)。
Each parameter obtained by learning the discriminative model 70d is included in the evaluation mapping data 34c.
The PU 32 determines whether the maximum value ymax among the values of the evaluation variables yok1, yok2, and yng is the value of the evaluation variable yok1 (S36a). When determining that the maximum value ymax is the value of the evaluation variable yok1 (S36a: YES), the PU32 determines that the state is 1 (S38a). Hereinafter, this will be referred to as OK1 determination. On the other hand, when determining that the maximum value ymax is not the value of the evaluation variable yok1 (S36a: NO), the PU32 determines whether the maximum value ymax is the value of the evaluation variable yok2 (S36b). When determining that the maximum value ymax is the value of the evaluation variable yok2 (S36b: YES), the PU32 determines that the state is 2 (S38b). Hereinafter, this will be referred to as OK2 determination. On the other hand, when determining that the maximum value ymax is not the value of the evaluation variable yok2 (S36b: NO), the PU32 makes an NG determination (S40).

図11に、ユーザ端末50において、ユーザが望む基準を満たす画像を表示することを支援する処理の手順を示す。図11に示す処理は、2つの処理よりなる。1つは、ユーザ端末50の記憶装置54に記憶されたアプリケーションプログラム54aをPU52が所定周期でくり返し実行することにより実現される処理である。もう1つは、画像評価装置30の記憶装置34に記憶された画像評価プログラム34aをPU32が所定周期でくり返し実行することにより実現される処理である。 FIG. 11 shows a process procedure for supporting display of an image that satisfies the user's desired criteria on the user terminal 50. The process shown in FIG. 11 consists of two processes. One is a process realized by the PU 52 repeatedly executing the application program 54a stored in the storage device 54 of the user terminal 50 at a predetermined period. The other process is realized by the PU 32 repeatedly executing the image evaluation program 34a stored in the storage device 34 of the image evaluation device 30 at a predetermined period.

図11に示すように、ユーザ端末50のPU52は、ユーザから再生を許容するCM動画の基準についての要求を受け付ける(S90)。ここで、PU52は、ユーザインターフェース58が備える表示装置に、状態1のみを許容するか、状態1および状態2を許容するかを選択可能である旨を表示する。S90の処理は、ユーザによるユーザインターフェース58への要求入力を受け付ける処理である。S90の処理を完了する場合、PU52は、通信機56を操作することによって、ユーザの識別記号であるユーザIDと、要求された基準と、を送信する(S92)。 As shown in FIG. 11, the PU 52 of the user terminal 50 receives a request from the user regarding criteria for commercial videos that are allowed to be played back (S90). Here, the PU 52 displays on the display device included in the user interface 58 that it is possible to select whether to allow only state 1 or to allow state 1 and state 2. The process of S90 is a process of accepting a request input to the user interface 58 by the user. When completing the process of S90, the PU 52 transmits the user ID, which is the user's identification symbol, and the requested criteria by operating the communication device 56 (S92).

これに対し、画像評価装置30のPU32は、ユーザIDと要求された基準とを受信する(S100)。そしてPU32は、ユーザIDと要求された基準とを記憶装置34に記憶する(S102)。そして、PU32は、CM動画データを評価する(S104)。S104の処理は、S10~S18,S22~S26に準じた処理である。ただし、ここでは、S16の処理に代えて図10の処理を実行する。また、S22~S26の処理を、NG判定がないCM動画データ中に1つでもOK2判定がある場合、OK2判定とする処理に代える。 In response, the PU 32 of the image evaluation device 30 receives the user ID and the requested criteria (S100). Then, the PU 32 stores the user ID and the requested criteria in the storage device 34 (S102). Then, the PU 32 evaluates the CM video data (S104). The process in S104 is similar to S10 to S18 and S22 to S26. However, here, the process in FIG. 10 is executed instead of the process in S16. Further, the processing in S22 to S26 is replaced with a process in which an OK2 determination is made if there is even one OK2 determination in the CM video data that does not have an NG determination.

そしてPU32は、通信機36を操作することによって、評価結果に応じて、ユーザ端末50(1),50(2),…のそれぞれに、要求された基準を満たす画像が表示可能なようにCM動画データを送信する(S106)。すなわち、PU32は、OK1判定のCM動画データについては、全てのユーザ端末50に無条件でCM動画データを送信する。一方、PU32は、OK2判定のCM動画データについては、状態2を許容するユーザのユーザ端末50に無条件でCM動画データを送信する。これに対し、状態2を許容しないユーザのユーザ端末50には、OK2判定のCM動画データの送信を禁止してもよい。またこれに代えて、PU32は、S20aの処理と同様の処理を実行してもよい。一方、PU32は、NG判定のCM動画データについては、全てのユーザのユーザ端末にその動画データを送信することを禁止してもよい。またこれに代えて、PU32は、S20aの処理を実行してもよい。なお、PU32は、S106の処理を完了する場合、図11に示す一連の処理のうちのPU32が実行する処理を一旦終了する。 Then, by operating the communication device 36, the PU 32 transmits a CM so that an image that satisfies the requested criteria can be displayed on each of the user terminals 50(1), 50(2), ... according to the evaluation result. The video data is transmitted (S106). That is, the PU 32 unconditionally transmits the CM video data determined to be OK1 to all user terminals 50 . On the other hand, the PU 32 unconditionally transmits the CM video data determined to be OK2 to the user terminal 50 of the user who allows state 2. On the other hand, the user terminal 50 of a user who does not allow state 2 may be prohibited from transmitting CM video data determined to be OK2. Alternatively, the PU 32 may perform a process similar to the process in S20a. On the other hand, the PU 32 may prohibit the transmission of CM video data judged as NG to the user terminals of all users. Alternatively, the PU 32 may execute the process of S20a. Note that when the PU 32 completes the process of S106, it temporarily ends the process executed by the PU 32 among the series of processes shown in FIG.

一方、ユーザ端末50のPU52は、画像評価装置30から送信されたCM動画データを受信する(S94)。ここで、PU52は、基準を満たすCM動画データについては無条件で再生する。また、基準を満たさないCM動画データを受信する場合、同CM動画データに付与された制限指令に応じて、警告を発するか、マスクをするか、再生を禁止するかする。 On the other hand, the PU 52 of the user terminal 50 receives the CM video data transmitted from the image evaluation device 30 (S94). Here, the PU 52 unconditionally plays back commercial video data that meets the criteria. Furthermore, when receiving commercial video data that does not meet the standards, it issues a warning, masks it, or prohibits playback, depending on the restriction command given to the commercial video data.

なお、PU52は、S94の処理を完了する場合、図11に示す一連の処理のうちのPU52が実行する処理を一旦終了する。
<対応関係>
上記実施形態における事項と、上記「課題を解決するための手段」の欄に記載した事項との対応関係は、次の通りである。以下では、「課題を解決するための手段」の欄に記載した解決手段の番号毎に、対応関係を示している。
Note that when the PU 52 completes the process of S94, it temporarily ends the process executed by the PU 52 among the series of processes shown in FIG.
<Correspondence>
The correspondence relationship between the matters in the above embodiment and the matters described in the column of "Means for solving the problem" above is as follows. Below, the correspondence relationship is shown for each solution number listed in the "Means for solving the problem" column.

[1,2,11]実行装置は、PU32に対応する。記憶装置は、記憶装置34に対応する。位置情報写像データは、位置情報写像データ34bに対応する。評価写像データは、評価写像データ34cに対応する。 [1, 2, 11] The execution device corresponds to the PU32. The storage device corresponds to the storage device 34. The position information mapping data corresponds to the position information mapping data 34b. The evaluation mapping data corresponds to evaluation mapping data 34c.

位置情報写像は、図4においては、S30,S32の処理によって実現される写像に対応する。換言すれば、フレームデータFDが入力されることによって、ヒートマップを出力する写像に対応する。位置情報写像は、図7においては、S30,S32,S42,S44の処理によって実現される写像に対応する。換言すれば、フレームデータFDが入力されることによって、係数行列MKを出力する写像に対応する。位置情報写像は、図9においては、S64~S70の処理によって実現される写像に対応する。換言すれば、フレームデータFDが入力されることによって、2値化マップMbodyを出力する写像に対応する。位置情報写像は、図10においては、S30a,S32aの処理によって実現される写像に対応する。換言すれば、フレームデータFDが入力されることによって、身体情報マップ84を出力する写像に対応する。 In FIG. 4, the position information mapping corresponds to the mapping realized by the processing in S30 and S32. In other words, inputting the frame data FD corresponds to mapping that outputs a heat map. In FIG. 7, the position information mapping corresponds to the mapping realized by the processes of S30, S32, S42, and S44. In other words, it corresponds to a mapping that outputs the coefficient matrix MK by inputting the frame data FD. In FIG. 9, the position information mapping corresponds to the mapping realized by the processing of S64 to S70. In other words, it corresponds to mapping that outputs the binarized map Mbody by inputting the frame data FD. In FIG. 10, the position information mapping corresponds to the mapping realized by the processing in S30a and S32a. In other words, inputting the frame data FD corresponds to mapping that outputs the physical information map 84.

位置情報算出処理は、図4におけるS30,S32の処理、図7のS30,S32,S42,S44の処理、図9におけるS64~S70の処理、および図10におけるS30a,S32aの処理に対応する。 The position information calculation process corresponds to the processes in S30 and S32 in FIG. 4, the processes in S30, S32, S42, and S44 in FIG. 7, the processes in S64 to S70 in FIG. 9, and the processes in S30a and S32a in FIG.

評価写像は、図4においては、S34~S40の処理によって実現される写像に対応する。換言すれば、フレームデータFDおよびヒートマップ60~66を入力としてOK判定またはNG判定を出力する写像に対応する。図7においては、S34a,S36~S40の処理によって実現される写像に対応する。換言すれば、フレームデータFDおよび係数行列MKを入力としてOK判定またはNG判定を出力する写像に対応する。図8においては、S34b,S36,S40,S60,S62,S72~S76,S38の処理によって実現される写像に対応する。換言すれば、フレームデータFDおよび2値化マップMbodyを入力としてOK判定またはNG判定を出力する写像に対応する。図10においては、S34c,S36a,S36b,S38a,S38b,S40の処理によって実現される写像に対応する。換言すれば、フレームデータFDおよび身体情報マップ84を入力としてOK1判定、OK2判定またはNG判定を出力する写像に対応する。 In FIG. 4, the evaluation mapping corresponds to the mapping realized by the processing of S34 to S40. In other words, it corresponds to a mapping that receives frame data FD and heat maps 60 to 66 as input and outputs an OK determination or NG determination. In FIG. 7, this corresponds to the mapping realized by the processing of S34a and S36 to S40. In other words, it corresponds to a mapping that receives frame data FD and coefficient matrix MK as input and outputs an OK determination or NG determination. In FIG. 8, this corresponds to the mapping realized by the processing of S34b, S36, S40, S60, S62, S72 to S76, and S38. In other words, it corresponds to mapping that inputs the frame data FD and the binarized map Mbody and outputs an OK determination or NG determination. In FIG. 10, this corresponds to the mapping realized by the processing of S34c, S36a, S36b, S38a, S38b, and S40. In other words, it corresponds to mapping that inputs the frame data FD and the physical information map 84 and outputs an OK1 determination, OK2 determination, or NG determination.

評価処理は、図3および図4の処理においては、S34~S40の処理に対応する。図7においては、S34a,S36~S40の処理に対応する。図8においては、S34b,S36,S40,S72~S76,S38の処理に対応する。図10においては、S34c,S36a,S36b,S38a,S38b,S40の処理に対応する。 The evaluation process corresponds to the processes of S34 to S40 in the processes of FIGS. 3 and 4. In FIG. 7, this corresponds to the processes of S34a and S36 to S40. In FIG. 8, this corresponds to the processes of S34b, S36, S40, S72 to S76, and S38. In FIG. 10, this corresponds to the processes of S34c, S36a, S36b, S38a, S38b, and S40.

画像データは、フレームデータFDに対応する。位置用入力データは、フレームデータFDに対応する。評価用入力データは、フレームデータFDに対応する。
[3]位置情報データは、ヒートマップ60~66と、身体情報マップ84とに対応する。評価写像は、S34~S40の処理によって実現される写像と、S34c,S36a,S36b,S38a,S38b,S40の処理によって実現される写像と、に対応する。[4]仮評価写像は、S34b,S36の処理によって実現される写像に対応する。換言すれば、1つのフレームデータFDを入力として且つ、評価変数yok,yngの値の大小比較判定結果を出力する写像に対応する。仮評価処理は、S34b,S36の処理に対応する。妥当性評価処理は、S60,S62,S72~S74の処理に対応する。[5]通知処理は、S80の処理に対応する。[6]特徴量レイヤは、特徴抽出器M20の出力レイヤに対応する。
The image data corresponds to frame data FD. The position input data corresponds to frame data FD. The evaluation input data corresponds to frame data FD.
[3] The location information data corresponds to the heat maps 60 to 66 and the physical information map 84. The evaluation mapping corresponds to the mapping realized by the processing of S34 to S40 and the mapping realized by the processing of S34c, S36a, S36b, S38a, S38b, and S40. [4] The tentative evaluation mapping corresponds to the mapping realized by the processing in S34b and S36. In other words, it corresponds to a mapping that takes one frame data FD as input and outputs the result of comparing the values of evaluation variables yok and yng. The provisional evaluation process corresponds to the processes of S34b and S36. The validity evaluation process corresponds to the processes of S60, S62, and S72 to S74. [5] The notification process corresponds to the process in S80. [6] The feature layer corresponds to the output layer of the feature extractor M20.

[7]ユーザ端末は、ユーザ端末50(1),50(2),…に対応する。提供処理は、図3のS26の処理と、図6においてS24の処理で否定判定された場合のS26の処理と、図11のS104において要求基準を満たすと判定されたときのS106の処理とに対応する。制限処理は、図3のS20の処理、図6のS20aの処理、および図11のS104において要求基準を満たさないと判定されたときのS106の処理に対応する。[8,10]指示処理は、S90,S92の処理に対応する。[9]禁止処理は、S20の処理、および図11のS104において要求基準を満たさないと判定されたときのS106の処理に対応する。制限処理は、S20aの処理、および図11のS104において要求基準を満たさないと判定されたときのS106の処理に対応する。[12]画像評価プログラムは、画像評価プログラム34aに対応する。 [7] User terminals correspond to user terminals 50(1), 50(2), . . . The provision process includes the process of S26 in FIG. 3, the process of S26 when a negative determination is made in the process of S24 in FIG. 6, and the process of S106 when it is determined that the request criteria are met in S104 of FIG. handle. The restriction process corresponds to the process of S20 in FIG. 3, the process of S20a in FIG. 6, and the process of S106 when it is determined in S104 of FIG. 11 that the required criteria are not satisfied. [8, 10] The instruction process corresponds to the processes of S90 and S92. [9] The prohibition process corresponds to the process in S20 and the process in S106 when it is determined in S104 of FIG. 11 that the required criteria are not satisfied. The restriction process corresponds to the process in S20a and the process in S106 when it is determined in S104 of FIG. 11 that the required criteria are not satisfied. [12] The image evaluation program corresponds to the image evaluation program 34a.

[13~15]提供工程は、図3のS26の処理を実行する工程と、図6においてS24の処理で否定判定された場合のS26の処理を実行する工程と、に対応する。また、提供工程は、図11のS104において要求基準を満たすと判定されたときのS106の処理を実行する工程に対応する。制限工程は、図3のS20の処理を実行する工程、図6のS20aの処理を実行する工程、および図11のS104において要求基準を満たさないと判定されたときのS106の処理を実行する工程に対応する。取得工程は、S10の処理に対応する。 [13-15] The providing step corresponds to the step of executing the process of S26 in FIG. 3, and the step of executing the process of S26 when a negative determination is made in the process of S24 in FIG. Further, the providing step corresponds to the step of executing the process of S106 when it is determined in S104 of FIG. 11 that the request criteria are met. The restriction steps are a step of executing the process of S20 in FIG. 3, a step of executing the process of S20a of FIG. 6, and a step of executing the process of S106 when it is determined in S104 of FIG. 11 that the required standard is not satisfied. corresponds to The acquisition step corresponds to the process in S10.

<その他の実施形態>
なお、本実施形態は、以下のように変更して実施することができる。本実施形態および以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
<Other embodiments>
Note that this embodiment can be implemented with the following modifications. This embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.

「所定部位について」
再生して問題がある画像であるという評価の根拠である、1以上の身体の部分(所定の部位)は、胸部、正面下腹部、および尻部に限らず、例えば図2における身体の部分の少なくとも1つを含む態様で適宜、定義されてよい。また、一の実施形態において、上記根拠は、例えば図2における1の身体の部分の一部の態様で適宜、定義されてよい。具体的には、顔部を構成する唇,眼,髪等の身体の部分の一部が上記根拠となってもよい。
"About designated parts"
The one or more body parts (predetermined parts) that are the basis for evaluating that the image is problematic when reproduced are not limited to the chest, front lower abdomen, and buttocks, but include, for example, the body parts in Figure 2. It may be appropriately defined in a manner including at least one. Further, in one embodiment, the above-mentioned basis may be appropriately defined, for example, in some aspects of one body part in FIG. 2 . Specifically, part of the body parts such as lips, eyes, and hair that constitute the face may serve as the basis.

「位置情報写像について」
・図4の処理において用いる位置情報写像としては、フレームデータFDを入力として、顔部、胸部、下腹部、および尻部のヒートマップを出力する写像に限らない。たとえば、フレームデータFDを入力として、胸部、下腹部、および尻部のヒートマップを出力する写像であってもよい。
"About location information mapping"
- The positional information mapping used in the process of FIG. 4 is not limited to mapping that inputs the frame data FD and outputs heat maps of the face, chest, lower abdomen, and buttocks. For example, it may be a mapping that receives frame data FD as input and outputs heat maps of the chest, lower abdomen, and buttocks.

・図4の処理において、ヒートマップを出力する写像を用いることは必須ではない。たとえばセマンティックセグメンテーションモデルを用いて、胸部、下腹部、および尻部のそれぞれに対応する画素を特定するマップを出力する写像を用いてもよい。 - In the process of FIG. 4, it is not essential to use a mapping that outputs a heat map. For example, a semantic segmentation model may be used to output a map that specifies pixels corresponding to each of the chest, lower abdomen, and buttocks.

・図7の処理において用いる位置情報写像としては、フレームデータFDを入力として、胸部、下腹部、尻部、および顔部のヒートマップに応じた係数行列MKを出力する写像に限らない。たとえば、フレームデータFDを入力として、胸部、下腹部、および尻部のヒートマップに応じた係数行列MKを出力する写像であってもよい。 The position information mapping used in the processing of FIG. 7 is not limited to a mapping that takes frame data FD as input and outputs a coefficient matrix MK corresponding to the heat maps of the chest, lower abdomen, buttocks, and face. For example, it may be a mapping that takes frame data FD as input and outputs a coefficient matrix MK corresponding to the heat maps of the chest, lower abdomen, and buttocks.

・図7の処理において、ヒートマップを出力する写像を用いることは必須ではない。たとえばセマンティックセグメンテーションモデルによって特定された、胸部、下腹部、尻部、および顔部のそれぞれに対応する画素に応じた係数行列を出力する写像を用いてもよい。その場合、特徴抽出器M20の出力レイヤに応じて縮小された画素領域において、胸部、下腹部、尻部、および顔部のそれぞれを示す領域の係数Kを「1」よりも大きくすればよい。 - In the process of FIG. 7, it is not essential to use a mapping that outputs a heat map. For example, a mapping may be used that outputs coefficient matrices corresponding to pixels corresponding to each of the chest, lower abdomen, buttocks, and face identified by a semantic segmentation model. In that case, in the pixel area reduced according to the output layer of the feature extractor M20, the coefficient K of the area indicating each of the chest, lower abdomen, buttocks, and face may be set larger than "1".

・図9の処理において、ヒートマップに応じた2値化マップMbodyを出力する写像を用いることは必須ではない。たとえばセマンティックセグメンテーションモデルによって特定された胸部、下腹部、および尻部のそれぞれに対応する領域に応じた2値化マップMbodyを出力する写像を用いてもよい。 - In the process of FIG. 9, it is not essential to use a mapping that outputs the binarized map Mbody according to the heat map. For example, a mapping may be used that outputs a binarized map Mbody corresponding to each region of the chest, lower abdomen, and buttocks identified by the semantic segmentation model.

・図10の処理においては、図2に示す部分「3」、部分「4,5」、部分「10」,部分「11,18」、部分「14」,部分「12,13,18」を特定する識別する身体情報マップを出力する写像を用いたが、これに限らない。たとえば、部分「3」,部分「3,4,5」、部分「10」,部分「10,11,18」、部分「14」,部分「12,13,14,18」を特定する身体情報マップを出力する写像を用いてもよい。 ・In the process of FIG. 10, the part "3", the part "4, 5", the part "10", the part "11, 18", the part "14", and the part "12, 13, 18" shown in FIG. Although a mapping that outputs a physical information map for specifying and identifying is used, the present invention is not limited to this. For example, physical information that specifies part "3", part "3, 4, 5", part "10", part "10, 11, 18", part "14", part "12, 13, 14, 18" A mapping that outputs a map may also be used.

・ヒートマップを出力する写像としては、胸部、下腹部、および尻部のそれぞれの存在確率を出力する写像に限らない。たとえば、部分「3」、部分「4,5」、部分「10」、部分「11,18」、部分「14」、部分「12,13,18」のそれぞれである確率を出力する写像であってもよい。 - The mapping that outputs the heat map is not limited to the mapping that outputs the existence probability of each of the chest, lower abdomen, and buttocks. For example, a mapping that outputs the probabilities of each of the parts "3", "4, 5", "10", "11, 18", "14", and "12, 13, 18". It's okay.

・ヒートマップを出力する写像としては、胸部、下腹部、および尻部のそれぞれ毎に、各別のマップを出力する写像に限らない。たとえば、各画素について、胸部、下腹部、および尻部のそれぞれの存在確率の最大値を出力する写像であってもよい。 - The mapping for outputting heat maps is not limited to mapping for outputting separate maps for each of the chest, lower abdomen, and buttocks. For example, it may be a mapping that outputs the maximum existence probability of each of the chest, lower abdomen, and buttocks for each pixel.

・ヒートマップを出力する写像が、胸部、下腹部、および尻部のそれぞれの存在確率を出力する写像であることは必須ではない。たとえば正面の画像であることが保証されている場合には、胸部および正面下腹部のそれぞれの存在確率に限って出力する写像であってもよい。すなわち、露出を問題とする所定部位をどこにするかに応じて、それら問題とする所定部位のそれぞれの存在確率に関するヒートマップを出力してもよい。 - It is not essential that the mapping that outputs the heat map be the mapping that outputs the existence probability of each of the chest, lower abdomen, and buttocks. For example, if it is guaranteed that the image is a frontal image, the mapping may be such that only the existence probabilities of the chest and frontal lower abdomen are output. That is, depending on the location of the predetermined region whose exposure is a problem, a heat map regarding the existence probability of each of the predetermined regions whose exposure is a problem may be output.

・ヒートマップが示す確率分布は、等方性を有した分布に限らない。異方性を有した分布は、たとえば、図4のS30の処理において用いた回帰モデルに代えて、ガウス分布のそれぞれの分散パラメータを2個または3個出力する回帰モデルを用いることによって実現できる。 - The probability distribution shown by the heat map is not limited to an isotropic distribution. The anisotropic distribution can be realized, for example, by using a regression model that outputs two or three dispersion parameters of a Gaussian distribution, instead of the regression model used in the process of S30 in FIG.

・セマンティックセグメンテーションモデルとしては、上述した3つ以上の部分を識別するモデルに限らない。たとえば正面の画像であることが保証されている場合には、胸部および正面下腹部のそれぞれとそれら以外とに限って識別するラベル変数を出力するモデルであってもよい。 - The semantic segmentation model is not limited to the model that identifies three or more parts as described above. For example, if it is guaranteed that the image is a frontal image, a model may be used that outputs label variables that identify only the chest and frontal lower abdomen, respectively, and the others.

・セマンティックセグメンテーションモデルを用いて構成される写像としては、特定する部位毎に互いに異なるマップを出力する写像に限らない。たとえば、胸部、正面下腹部、尻部、およびそれ以外等で互いに異なるラベル変数の値を有した1枚のマップを出力する写像であってもよい。 - Mappings constructed using the semantic segmentation model are not limited to mappings that output different maps for each specified region. For example, it may be a mapping that outputs one map having different label variable values for the chest, front lower abdomen, buttocks, and other regions.

・位置情報写像が、画像領域が細分化された単位領域に対して値が定められたマップを出力する写像であることは必須ではない。たとえば、胸部の代表点、下腹部の代表点、および尻部の代表点のそれぞれの座標を出力する写像であってもよい。 - It is not essential that the position information mapping is a mapping that outputs a map in which values are determined for unit areas in which the image area is subdivided. For example, it may be a mapping that outputs the respective coordinates of a representative point of the chest, a representative point of the lower abdomen, and a representative point of the buttocks.

・位置情報写像の入力となる画像データとしては、上記フレームデータFDに限らない。たとえば、R,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。 - The image data that is input to the position information mapping is not limited to the above frame data FD. For example, monochrome image data may be used instead of R, G, and B image data.

「位置用入力データについて」
・位置情報写像への入力となる位置用入力データとしては、評価対象となる画像データ自体に限らない。たとえば、評価対象とする画像データが示す各画素のうち人に関する部分を抽出して、予め定められた背景画像に埋め込んだ画像データを、位置用入力データとしてもよい。ここで、人に関する部分の抽出処理は、セマンティックセグメンテーションモデルを利用してPU32により実施する。なお、評価対象となる画像データを、位置用入力データとするための前処理としては、これに限らない。たとえば、輝度を調整する処理等であってもよい。
"About input data for position"
- Positional input data to be input to positional information mapping is not limited to the image data itself to be evaluated. For example, the position input data may be image data in which a portion related to a person is extracted from each pixel indicated by the image data to be evaluated and embedded in a predetermined background image. Here, the extraction process of the parts related to people is performed by the PU 32 using a semantic segmentation model. Note that the preprocessing for using the image data to be evaluated as positional input data is not limited to this. For example, it may be a process of adjusting brightness.

「評価写像について」
(a)評価用入力データの各画素と各画素に対応する位置情報データとが対応付けて入力される写像
・図4のS34においては、フレームデータFDと、4つのヒートマップ60~66とが入力される写像を例示した。また、図10においては、フレームデータFDと、6個の身体情報マップ84とが入力される写像を例示した。しかし、入力対象となる、各画素について身体の所定部位であるか否かの情報が付与されたマップデータは、それらに限らず、同情報が付与されたマップデータは、「位置情報写像について」の欄に記載した任意のマップデータ等であってもよい。
"About evaluation mapping"
(a) A mapping in which each pixel of the input data for evaluation and the position information data corresponding to each pixel are input in association with each other. In S34 of FIG. 4, the frame data FD and the four heat maps 60 to 66 are An example of the input mapping is shown. Further, FIG. 10 illustrates a mapping in which frame data FD and six physical information maps 84 are input. However, map data to which each pixel is attached with information as to whether it is a predetermined part of the body or not is not limited to these, and map data to which the same information is attached may be Any map data etc. described in the column may be used.

・図4のS34においては、フレームデータFDを入力したが、これに限らない。たとえばR,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。
・図4においては、CNNを用いた識別モデル70aを例示したが、これに限らない。たとえば、アテンション機構を利用するモデルであってもよい。詳しくは、たとえばTransfomerベース(トランスフォーマエンコーダを備えた)モデル等のマルチヘッドアテンション機構を利用するモデル等であってもよい。その場合、フレームデータFDおよびヒートマップ60~66を分割したパッチを適宜線形変換したベクトルを、トランスフォーマエンコーダに入力する。ここで、各パッチは、フレームデータFDの一部の画素領域と、ヒートマップ60~66の対応する領域とに関するデータとする。これによっても、評価用入力データの各画素と各画素に対応する位置情報データとを対応付けて入力することができる。
- Although the frame data FD is input in S34 of FIG. 4, the present invention is not limited to this. For example, monochrome image data may be used instead of R, G, and B image data.
- Although the identification model 70a using CNN is illustrated in FIG. 4, the invention is not limited to this. For example, a model using an attention mechanism may be used. Specifically, it may be a model that uses a multi-head attention mechanism, such as a Transformer-based (equipped with a Transformer encoder) model. In that case, vectors obtained by suitably linearly transforming the frames data FD and patches obtained by dividing the heat maps 60 to 66 are input to the transformer encoder. Here, each patch is data regarding a part of the pixel area of the frame data FD and the corresponding area of the heat maps 60 to 66. This also allows each pixel of the evaluation input data to be input in association with the position information data corresponding to each pixel.

・識別モデル70aの出力活性化関数が、ソフトマックス関数であることは必須ではない。たとえば、ロジスティックシグモイド関数としてもよい。
(b)仮評価写像について
・図8のS34bにおいては、フレームデータFDを入力とする写像を例示したが、これに限らない。たとえばR,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。
- It is not essential that the output activation function of the discrimination model 70a is a softmax function. For example, it may be a logistic sigmoid function.
(b) Regarding provisional evaluation mapping - In S34b of FIG. 8, mapping using frame data FD as input is illustrated, but the mapping is not limited to this. For example, monochrome image data may be used instead of R, G, and B image data.

・図8においては、CNNを用いた識別モデル70cを例示したが、これに限らない。たとえばアテンション機構を利用するモデルであってもよい。詳しくは、たとえばTransfomerベース(トランスフォーマエンコーダを備えた)モデル等のマルチヘッドアテンション機構を利用するモデル等であってもよい。換言すれば、評価結果に寄与した部分を特定するデータは、CNNの特徴マップに限らない。識別モデル70cとして、Transfomerベースのモデルを利用する場合、アテンションマップ、アテンションマスクに基づく注視マップMATTを用いて前述の妥当性評価を行ってもよい。 - In FIG. 8, the identification model 70c using CNN is illustrated, but the invention is not limited to this. For example, a model using an attention mechanism may be used. Specifically, it may be a model that uses a multi-head attention mechanism, such as a Transformer-based (equipped with a Transformer encoder) model. In other words, the data that identifies the portion that contributed to the evaluation result is not limited to the CNN feature map. When a Transformer-based model is used as the identification model 70c, the above-described validity evaluation may be performed using the attention map MATT based on the attention map and attention mask.

・識別モデル70cの出力活性化関数が、ソフトマックス関数であることは必須ではない。たとえば、ロジスティックシグモイド関数としてもよい。
・仮評価写像を規定する識別モデルが、位置情報写像の出力を利用しないことは必須ではない。たとえば、仮評価写像を規定する識別モデルを、識別モデル70aとしたり、識別モデル70aに関する上記変更例としたりしてもよい。またたとえば、仮評価写像を規定する識別モデルを、識別モデル70bとしたり、識別モデル70bに関する上記変更例としたりしてもよい。またたとえば、仮評価写像を規定する識別モデルを、識別モデル70dとしたり、識別モデル70dに関する上記変更例としたりしてもよい。
- It is not essential that the output activation function of the discrimination model 70c is a softmax function. For example, it may be a logistic sigmoid function.
- It is not essential that the identification model that defines the tentative evaluation mapping not use the output of the location information mapping. For example, the identification model that defines the provisional evaluation mapping may be the identification model 70a, or the above-mentioned modification of the identification model 70a may be used. Further, for example, the identification model that defines the provisional evaluation mapping may be the identification model 70b, or the above-mentioned modification example regarding the identification model 70b may be used. Further, for example, the identification model that defines the provisional evaluation mapping may be the identification model 70d, or the above-mentioned modification example regarding the identification model 70d may be used.

(c)妥当性評価処理について
・図8の処理において、S50の処理を実行する条件に、人の所定部位が含まれている旨の条件を含めてもよい。これにより、フレームデータFDが示す画像に人の所定部位が含まれない場合において適切な評価をすることができる。
(c) Regarding the validity evaluation process - In the process of FIG. 8, the condition for executing the process of S50 may include a condition that a predetermined part of the person is included. Thereby, appropriate evaluation can be performed when the image indicated by the frame data FD does not include a predetermined part of a person.

・図8の処理では、S36の処理において肯定判定された場合に限って、S50の処理を実行したが、これに限らない。たとえば、S36の処理において否定判定されたときにもS50の処理に準じた処理を実行してもよい。ここで、S50の処理に準じた処理は、たとえば次のようにして実現できる。 - In the process of FIG. 8, the process of S50 is executed only when an affirmative determination is made in the process of S36, but the process is not limited to this. For example, even when a negative determination is made in the process of S36, a process similar to the process of S50 may be executed. Here, processing similar to the processing of S50 can be realized, for example, as follows.

すなわち、PU32は、S70の処理に代えて、胸部である確率が閾値以上である2値化マップMbody(1)、正面下腹部である確率が閾値以上である2値化マップMbody(2)、尻部である確率が閾値以上である2値化マップMbody(3)を生成する。ここで、2値化マップMbody(1)は、正面下腹部である確率が閾値以上であることと尻部である確率が閾値以上であることとの論理和が真となる画素のラベル変数を「0」としたマップである。また、2値化マップMbody(2)は、胸部である確率が閾値以上であることと尻部である確率が閾値以上であることとの論理和が真となる画素のラベル変数を「0」としたマップである。また、2値化マップMbody(3)は、胸部である確率が閾値以上であることと正面下腹部である確率が閾値以上であることとの論理和が真となる画素のラベル変数を「0」としたマップである。そして、PU32は、S72の処理に代えて、2値化マップMbody(1)~(3)のそれぞれと、2値化マップMACTとのアダマール積を算出して注視マップMATT(1)~(3)を算出する。そして、PU32は、注視マップMATT(1)~(3)のそれぞれの各成分の平均値に、閾値gth以上となるものがある場合に、S36の処理が妥当であると評価する。 That is, instead of the process in S70, the PU 32 generates a binary map Mbody (1) in which the probability of being the chest is greater than or equal to the threshold, a binary map Mbody (2) in which the probability of being the front lower abdomen is greater than or equal to the threshold, A binarized map Mbody (3) whose probability of being the butt is equal to or higher than a threshold is generated. Here, the binarized map Mbody (1) is a label variable of a pixel for which the logical sum of the probability that it is the front lower abdomen is greater than or equal to the threshold and the probability that it is the buttocks is greater than or equal to the threshold is true. This is a map with "0". In addition, the binarized map Mbody (2) sets the label variable of a pixel for which the logical sum of the probability of being a chest is greater than or equal to a threshold and the probability of being a buttocks being greater than or equal to a threshold to be "0". This is the map. In addition, the binarized map Mbody (3) sets the label variable of a pixel for which the logical sum of the probability of being a chest is greater than or equal to a threshold and the probability of being a frontal lower abdomen being greater than or equal to a threshold to be true. ” This is a map with the following. Then, in place of the process in S72, the PU 32 calculates the Hadamard product of each of the binarized maps Mbody(1) to (3) and the binarized map MACT, and calculates the Hadamard product of each of the binarized maps Mbody(1) to (3) to ) is calculated. Then, the PU 32 evaluates that the process of S36 is appropriate if any of the average values of each component of the gaze maps MATT(1) to (3) is equal to or greater than the threshold value gth.

この処理は、NG判定は、胸部、下腹部、および尻部の少なくとも1つの露出によってなされるものであることに鑑みた処理である。すなわち、PU32は、NG判定したときに注視した領域が胸部、下腹部、および尻部の少なくとも1つであれば、NG判定が妥当であると評価する。 This process is performed in consideration of the fact that an NG determination is made by exposing at least one of the chest, lower abdomen, and buttocks. That is, the PU 32 evaluates that the NG determination is appropriate if the region gazed at when making the NG determination is at least one of the chest, lower abdomen, and buttocks.

・妥当性評価処理が2値化マップMbodyを生成する処理を含むことは必須ではない。たとえば、次のようにしてもよい。すなわち、PU32は、S60の処理によって生成されたアクティベーションマップのうちのS68の処理において縮小されたヒートマップが示す胸部、下腹部、および尻部を特定する。そして、PU32は、それらのそれぞれの領域の値の和と、それら以外の領域の所定の面積を有する領域の値の和との大小を比較する。なお、その場合、アクティベーションマップの各画素の値を、予めReLUまたはロジスティックシグモイド関数等を用いて変換された値とすることが望ましい。 - It is not essential that the validity evaluation process includes the process of generating the binarized map Mbody. For example, you may do the following: That is, the PU 32 identifies the chest, lower abdomen, and buttocks indicated by the heat map reduced in the process of S68 out of the activation maps generated in the process of S60. Then, the PU 32 compares the sum of the values of each of these areas with the sum of the values of other areas having a predetermined area. Note that in that case, it is desirable that the value of each pixel of the activation map be a value that has been converted in advance using ReLU, a logistic sigmoid function, or the like.

(d)特徴量レイヤが示す複数個の領域の少なくとも一部の値と位置情報データとを合成する処理
・図7のS34aの積算処理M22においては、1つの特徴マップとアダマール積がとられる係数行列MKを1個としたが、これに限らない。2個以上であってもよい。
(d) A process of synthesizing at least some values of a plurality of regions indicated by the feature layer with position information data - In the integration process M22 of S34a in FIG. 7, the coefficients from which the Hadamard product is taken with one feature map Although the number of matrix MK is one, the number is not limited to this. There may be two or more.

・図7のS34aの積算処理M22においては、係数行列MKとのアダマール積が算出される対象とならない特徴マップを設けたが、これは必須ではない。
・「位置情報写像について」の欄の記載に示唆した通り、係数行列MKは、4個に限らない。
- In the integration process M22 of S34a in FIG. 7, a feature map is provided for which the Hadamard product with the coefficient matrix MK is not calculated, but this is not essential.
- As suggested in the column "About position information mapping", the number of coefficient matrices MK is not limited to four.

・特徴量レイヤが示す複数個の領域の少なくとも一部の値と位置情報データとを合成する処理は、係数行列MKと特徴マップとの積算処理M22に限らない。たとえば、係数行列MKと特徴マップとの畳み込み処理であってもよい。 - The process of combining at least part of the values of the plurality of regions indicated by the feature amount layer and the position information data is not limited to the integration process M22 of the coefficient matrix MK and the feature map. For example, it may be a convolution process of the coefficient matrix MK and the feature map.

(e)露出度に応じた評価変数の値について
・図10には、露出度に応じた3値の互いに異なる値を取り得る評価変数の値を例示したが、これに限らない。たとえば、評価変数が4値以上の値を取り得る変数であってもよい。
(e) Regarding the value of the evaluation variable according to the degree of exposure - Although FIG. 10 illustrates the values of the evaluation variable that can take three different values depending on the degree of exposure, the present invention is not limited thereto. For example, the evaluation variable may be a variable that can take four or more values.

(f)そのほか
・識別モデル70a,70cに限らず、たとえば、識別モデル70b,70dに代えて、アテンション機構を利用するモデルを用いてもよい。詳しくは、たとえばTransfomerベース(トランスフォーマエンコーダを備えた)モデル等のマルチヘッドアテンション機構を利用するモデル等を用いてもよい。
(f) Others - Not limited to the identification models 70a and 70c, for example, a model using an attention mechanism may be used in place of the identification models 70b and 70d. Specifically, a model using a multi-head attention mechanism such as a Transformer-based model (equipped with a Transformer encoder) may be used.

・評価写像への入力となる位置情報データとしては、2次元の画像領域のそれぞれにおける所定部位に関する情報を含むデータに限らない。たとえば、「位置情報写像について」の欄に記載したように所定部位の代表点の座標であってもよい。 - The positional information data that is input to the evaluation mapping is not limited to data that includes information regarding a predetermined part in each two-dimensional image area. For example, it may be the coordinates of a representative point of a predetermined part, as described in the column "About position information mapping."

・たとえば、フレームデータFDとヒートマップ60~66とを、全結合順伝播型のNNに入力してもよい。その場合、各画素について身体の所定部位であるか否かの情報が付与されたマップデータとフレームデータFDとのそれぞれの値の、NNの重み係数による加重平均処理が第1番目のレイヤによってなされる処理としてもよい。 - For example, the frame data FD and the heat maps 60 to 66 may be input to a fully connected forward propagation type NN. In that case, the first layer performs weighted averaging processing using the weighting coefficient of NN for the respective values of the map data and frame data FD, to which each pixel is given information as to whether it belongs to a predetermined part of the body or not. It is also possible to perform processing using

「評価写像を規定するモデルの出力について」
・たとえば露出を問題とする所定部位が複数ある場合において、それら各部位ごとに、露出の有無を出力するモデルであってもよい。すなわち、たとえば、胸部、正面下腹部、および尻部の3つを所定部位とする場合、それらのそれぞれ毎に、露出の有無の判定結果を示す変数値を出力するようにしてもよい。これは、たとえば出力活性化関数を、ロジスティックシグモイド関数を所定部位の数である3個用意することによって実現できる。なお、こうした場合には、妥当性評価処理においてNG判定の妥当性を評価する場合には、上述したものに代えて次の変更をすることが望ましい。すなわち、たとえば胸部のみにNG判定がなされる場合、胸部に着目している場合に妥当と判定する処理に代えればよい。またたとえば、胸部および正面下腹部の双方でNG判定がなされる場合、胸部および正面下腹部の双方に着目している場合に妥当と判定する処理に代えればよい。
"About the output of the model that defines the evaluation map"
- For example, when there are a plurality of predetermined parts where exposure is a problem, a model may be used that outputs the presence or absence of exposure for each part. That is, for example, when three predetermined parts are the chest, the front lower abdomen, and the buttocks, a variable value indicating the determination result of the presence or absence of exposure may be output for each of them. This can be realized, for example, by preparing three output activation functions, which correspond to the number of predetermined parts, of logistic sigmoid functions. Note that in such a case, when evaluating the validity of the NG determination in the validity evaluation process, it is desirable to make the following changes instead of the ones described above. That is, for example, if only the chest is determined to be NG, the process may be replaced with a process in which the chest is determined to be appropriate. Further, for example, if an NG determination is made for both the chest and the front lower abdomen, the process may be replaced with a process that determines that it is appropriate when both the chest and the front lower abdomen are focused.

「評価用入力データについて」
・評価写像への入力となる評価用入力データとしては、評価対象となる画像データ自体に限らない。たとえば、評価対象とする画像データが示す各画素のうち人に関する部分を抽出して、予め定められた背景画像に埋め込んだ画像データを、評価用入力データとしてもよい。ここで、人に関する部分の抽出処理は、セマンティックセグメンテーションモデルを利用してPU32により実施する。なお、評価対象となる画像データを、評価用入力データとするための前処理としては、これに限らない。たとえば、輝度を調整する処理等であってもよい。
"About input data for evaluation"
- The evaluation input data that is input to the evaluation mapping is not limited to the image data itself to be evaluated. For example, the input data for evaluation may be image data in which a portion related to a person is extracted from each pixel indicated by the image data to be evaluated and embedded in a predetermined background image. Here, the extraction process of the parts related to people is performed by the PU 32 using a semantic segmentation model. Note that the preprocessing for using the image data to be evaluated as input data for evaluation is not limited to this. For example, it may be a process of adjusting brightness.

「位置情報写像データについて」
・位置情報写像データが、パラメトリックモデルにおける学習済みのパラメータのみからなることは必須ではない。たとえば、特徴抽出器を規定するデータと、サポートベクトルとからなってもよい。ここで、特徴抽出器は、CNN等、フレームデータFD等を入力として特徴ベクトルを出力する学習済みモデルである。一方、サポートベクトルは、サポートベクトル回帰の学習によって選択されたベクトルである。すなわち、訓練データが特徴抽出器に入力されることによって出力される特徴ベクトルから学習過程でサポートベクトルを抽出する。そして、特徴抽出器を規定するパラメータとサポートベクトルとを、位置情報写像データとして記憶装置34に記憶する。
"About location information mapping data"
- It is not essential that the location information mapping data consists only of learned parameters in the parametric model. For example, it may consist of data defining a feature extractor and support vectors. Here, the feature extractor is a trained model, such as a CNN, that receives frame data FD, etc. as input and outputs a feature vector. On the other hand, the support vector is a vector selected by support vector regression learning. That is, support vectors are extracted in the learning process from feature vectors output by inputting training data to a feature extractor. Then, the parameters defining the feature extractor and the support vector are stored in the storage device 34 as position information mapping data.

「評価写像データについて」
・識別モデル70a~70dに代えて、アテンション機構を利用するモデルを用いる場合、評価写像データ34cは、次のデータを含んでもよい。すなわち、評価写像データ34cは、フレームデータFDを分割した各パッチを1次元のベクトルに変換する変換行列の成分の値を含んでよい。またたとえば、評価写像データ34cは、上記1次元のベクトルに変換された各パッチを、キー、クエリ、およびバリューの各ベクトルに変換する行列の値を含んでもよい。また、たとえば、評価写像データ34cは、1次元に変換されたパッチに埋め込む位置情報のデータを含んでもよい。なお、上記変換行列および位置情報データは、学習済みのデータであってもよい。ただし、これは、必ずしも上述した学習過程において学習された値である必要はない。たとえば、上記学習過程をファインチューニングとして且つ、それ以前に行われる学習においてのみ学習された値としてもよい。
“About evaluation mapping data”
- When using a model that uses an attention mechanism instead of the identification models 70a to 70d, the evaluation mapping data 34c may include the following data. That is, the evaluation mapping data 34c may include values of components of a transformation matrix that transforms each patch obtained by dividing the frame data FD into a one-dimensional vector. Furthermore, for example, the evaluation mapping data 34c may include values of a matrix that converts each patch converted into the one-dimensional vector described above into each vector of a key, a query, and a value. Furthermore, for example, the evaluation mapping data 34c may include positional information data to be embedded in a one-dimensionally converted patch. Note that the transformation matrix and position information data may be already learned data. However, this does not necessarily have to be the value learned in the learning process described above. For example, the above learning process may be fine tuning, and the values may be learned only in the previous learning.

・評価写像データが、パラメトリックモデルにおける学習済みのパラメータのみからなることは必須ではない。たとえば、特徴抽出器を規定するデータと、サポートベクトルとからなってもよい。ここで、特徴抽出器は、CNN等、フレームデータFD等を入力として特徴ベクトルを出力する学習済みモデルである。一方、サポートベクトルは、サポートベクトルマシンの学習によって選択されたベクトルである。すなわち、訓練データが特徴抽出器に入力されることによって出力される特徴ベクトルから学習過程でサポートベクトルを抽出する。そして、特徴抽出器を規定するパラメータとサポートベクトルとを、評価写像データとして記憶装置34に記憶する。 - It is not essential that the evaluation mapping data consists only of learned parameters in the parametric model. For example, it may consist of data defining a feature extractor and support vectors. Here, the feature extractor is a trained model such as CNN that receives frame data FD and the like as input and outputs a feature vector. On the other hand, the support vector is a vector selected by learning of the support vector machine. That is, support vectors are extracted in the learning process from feature vectors output by inputting training data to a feature extractor. Then, the parameters defining the feature extractor and the support vector are stored in the storage device 34 as evaluation mapping data.

また、全結合レイヤのパラメータと、畳み込みのフィルタを構成するパラメータ等の事後分布を出力する関数を評価写像データとして記憶装置34に記憶してもよい。ここでは、たとえば識別モデル70cにおける出力活性化関数をロジスティックシグモイド関数に代える。またたとえば、上記パラメータのそれぞれについて正規分布等の事前分布を仮定する。そして学習過程においてベイズ推定によって事後分布を生成する。なお、PU32は、事後分布に基づきサンプリング法等に基づき上記パラメータの平均値を算出し、これを図8で用いたパラメータに代えればよい。なお、その場合、妥当性評価処理によって妥当ではないと評価されたデータを用いて再学習をすることによって、事後分布を更新してもよい。 Further, the parameters of the fully connected layer and the function that outputs the posterior distribution of the parameters constituting the convolution filter may be stored in the storage device 34 as evaluation mapping data. Here, for example, the output activation function in the discrimination model 70c is replaced with a logistic sigmoid function. For example, a prior distribution such as a normal distribution is assumed for each of the above parameters. Then, in the learning process, a posterior distribution is generated by Bayesian estimation. Note that the PU 32 may calculate the average value of the above-mentioned parameters based on a sampling method or the like based on the posterior distribution, and may replace this with the parameters used in FIG. 8 . In this case, the posterior distribution may be updated by performing re-learning using data that has been evaluated as not being valid by the validity evaluation process.

「評価処理について」
・評価処理が、N個の周期でサンプリングされた3個のフレームデータFDのうちの2個以上についてフレーム評価処理によってOK判定がなされる場合に、2N+1のフレーム分の画像データのOK判定としたが、これに限らない。たとえば、図8の処理の上述の変更例においては妥当性評価処理の判定結果に応じてOK判定の基準を変えてもよい。具体的には、S36の処理においてNG判定されたものの、妥当性評価処理によってNG判定が妥当ではないと判定された場合には、NG判定のなされた回数を「0.5」とカウントしてもよい。その場合、たとえばNG判定の数が「1」未満で最終的なOK判定をすることによって、妥当性評価処理の判定結果に応じてOK判定の基準を変えることができる。
"About evaluation processing"
- If the evaluation process determines OK for two or more of the three frame data FD sampled at N cycles, the image data for 2N+1 frames is determined to be OK. However, it is not limited to this. For example, in the above-described modified example of the process shown in FIG. 8, the standard for determining OK may be changed depending on the determination result of the validity evaluation process. Specifically, if an NG determination is made in the process of S36, but it is determined that the NG determination is not valid in the validity evaluation process, the number of times the NG determination is made is counted as "0.5". Good too. In that case, for example, by making a final OK determination when the number of NG determinations is less than "1", the standard for OK determination can be changed according to the determination result of the validity evaluation process.

・複数のフレームにおいてそれらの一部且つ所定数以上OK判定がなされる場合にOK判定をすることは必須ではない。たとえば、所定周期でサンプリングされたフレームデータFDの全てがフレーム評価処理によってOKとされる場合に限って、最終的なOK判定をしてもよい。なお、ここで所定周期は、フレームの周期と等しくてもよい。 - It is not essential to perform an OK determination when a predetermined number or more of a plurality of frames are determined to be OK. For example, the final OK determination may be made only when all of the frame data FD sampled at a predetermined period is determined to be OK by the frame evaluation process. Note that the predetermined cycle may be equal to the frame cycle.

「制限処理、制限工程について」
・S20aの処理としては、たとえば、再生画像のうち所定部位が露出している領域を少なくとも含む再生画像の一部に対して所定画像を重畳することでマスクをする指令であってよい。またたとえば、再生画像のうち所定部位が露出している領域を少なくとも含む再生画像の一部に対してぼかし等のエフェクトを適用することでマスクをする指令であってよい。すなわち、S20aの処理は、露出することが問題とされて且つ露出していると判定された所定部位が非表示となるような指令であればその態様に制限はない。なお、露出することが問題とされる所定部位が実際に露出している領域を少なくとも含む再生画像の一部は、たとえば、上述の2次元分布に少なくとも基づいて決定されてもよい。なお画像中に所定部位が複数存在する場合に実際に露出している領域のみをマスクするうえでは、実際に露出している領域を特定することが望ましい。これは、たとえば、識別モデルの注視領域に基づき露出している領域を特定する処理としてもよい。
“About restriction processing and restriction processes”
- The process of S20a may be, for example, a command to mask a part of the reproduced image that includes at least an area in which a predetermined part of the reproduced image is exposed by superimposing a predetermined image. Alternatively, for example, the command may be a command to mask by applying an effect such as blurring to a part of the reproduced image that includes at least an area in which a predetermined part of the reproduced image is exposed. That is, the process of S20a is not limited in its form as long as it is a command that hides a predetermined part that is determined to be exposed and is determined to be exposed. Note that the part of the reproduced image that includes at least the area in which the predetermined part whose exposure is a problem is actually exposed may be determined based on at least the above-mentioned two-dimensional distribution, for example. Note that when a plurality of predetermined parts exist in an image, in order to mask only the actually exposed regions, it is desirable to specify the actually exposed regions. This may be, for example, a process of identifying an exposed area based on the gaze area of the identification model.

・たとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかったフレームデータFDの数が所定数に満たない場合に、CM動画データの配信(送信)を禁止してもよい。その場合、PU32は、所定数の連続する複数のフレームデータFDのすべてにおいてOK判定がなされることを条件として、CM動画データの配信(送信)を行ってもよい。 - For example, the PU 32 prohibits distribution (transmission) of CM video data when the number of frame data FDs for which an OK determination has not been made among a predetermined number of consecutive frame data FDs is less than a predetermined number. It's okay. In that case, the PU 32 may distribute (transmit) the CM video data on the condition that OK determination is made for all of a predetermined number of consecutive frame data FD.

またたとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかったフレームデータFDの数が所定数である場合に、CM動画データの配信(送信)を禁止してもよい。その場合、PU32は、所定数の連続する複数のフレームデータFDの少なくとも一部においてOK判定がなされることを条件として、CM動画データの配信(送信)を行ってもよい。 For example, the PU 32 prohibits the distribution (transmission) of commercial video data when the number of frame data FDs for which an OK determination is not made is a predetermined number among a predetermined number of consecutive frame data FDs. Good too. In that case, the PU 32 may distribute (transmit) the CM video data on the condition that an OK determination is made for at least part of a predetermined number of consecutive frame data FD.

またたとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかった所定数に満たないフレームデータFDを挟んでOK判定がなされたフレームデータFDが連続する場合、CM動画データの配信(送信)を行ってもよい。 For example, among a predetermined number of consecutive frame data FDs, if there are consecutive frame data FDs that have been determined to be OK with less than the predetermined number of frame data FDs that have not been determined to be OK, the PU 32 may Video data may also be distributed (transmitted).

なお、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされた所定数に満たないフレームデータFDを挟んでOK判定がなされなかったフレームデータFDが連続する場合、CM動画データの配信(送信)を禁止してもよい。 Note that, among a predetermined number of consecutive frame data FDs, if there are consecutive frame data FDs for which an OK decision has not been made sandwiching frame data FDs that are less than the predetermined number for which an OK decision has been made, Distribution (transmission) of data may be prohibited.

・S20aの処理によってユーザ端末50において画像が表示されることを制限する処理にとって、図4に示すフレーム評価処理等によって評価がなされることは必須ではない。たとえば図7に示した処理、またはその変更例に示したフレーム評価処理等によって評価がなされる場合にS20aの処理を適用してもよい。またたとえば、図8に示した処理、またはその変更例に示したフレーム評価処理等によって評価がなされる場合にS20aの処理を適用してもよい。 - For the process of restricting the display of an image on the user terminal 50 by the process of S20a, it is not essential that the frame evaluation process shown in FIG. 4 be performed. For example, the process of S20a may be applied when evaluation is performed by the process shown in FIG. 7 or the frame evaluation process shown in the modified example thereof. Further, for example, the process of S20a may be applied when evaluation is performed by the process shown in FIG. 8 or the frame evaluation process shown in the modified example thereof.

・図11の処理において、S92,S100,S102の処理を省いてもよい。その場合、PU32は、OK2判定の場合、S106の処理において、OK2判定である旨を制限指令としてCM動画データに付与すればよい。その場合、ユーザ端末50のPU52は、S90の処理によって受け付けた基準と、制限指令とに応じてCM動画データを再生するか否か等を決定すればよい。 - In the process of FIG. 11, the processes of S92, S100, and S102 may be omitted. In that case, in the case of an OK2 determination, the PU 32 may add an OK2 determination to the CM video data as a restriction command in the process of S106. In that case, the PU 52 of the user terminal 50 may decide whether or not to reproduce the CM video data based on the criteria received in the process of S90 and the restriction command.

・たとえばNG判定がなされたフレームを削除したCM動画データをユーザ端末50に送信してもよい。これによっても、ユーザ端末50において不適切な画像が表示されることを抑制できる。 - For example, CM video data from which frames judged as NG may be deleted may be transmitted to the user terminal 50. This can also prevent inappropriate images from being displayed on the user terminal 50.

・ユーザ端末50に専用のアプリケーションプログラム54aが記憶されていることは必須ではない。たとえば、画像評価装置30から配信されたCM動画データを汎用のブラウザを利用して再生してもよい。 - It is not essential that the user terminal 50 stores the dedicated application program 54a. For example, the commercial video data distributed from the image evaluation device 30 may be played back using a general-purpose browser.

「実行装置について」
・実行装置としては、PU32に限らない。たとえば、実行装置を、ASIC、およびFPGA等の専用のハードウェア回路としてもよい。すなわち、実行装置は、以下の(a)~(c)のいずれかの構成を備える処理回路を含んでいてもよい。(a)上記処理の全てを、プログラムに従って実行する処理装置と、プログラムを記憶する記憶装置等のプログラム格納装置とを備える処理回路。(b)上記処理の一部をプログラムに従って実行する処理装置およびプログラム格納装置と、残りの処理を実行する専用のハードウェア回路(ハードウェアアクセレータ)とを備える処理回路。(c)上記処理の全てを実行する専用のハードウェア回路を備える処理回路。ここで、処理装置およびプログラム格納装置を備えたソフトウェア実行装置は、複数であってもよい。また、専用のハードウェア回路は複数であってもよい。
"About the execution device"
- The execution device is not limited to the PU32. For example, the execution device may be a dedicated hardware circuit such as an ASIC or an FPGA. That is, the execution device may include a processing circuit having any of the following configurations (a) to (c). (a) A processing circuit that includes a processing device that executes all of the above processing according to a program, and a program storage device such as a storage device that stores the program. (b) A processing circuit that includes a processing device and a program storage device that execute part of the above processing according to a program, and a dedicated hardware circuit (hardware accelerator) that executes the remaining processing. (c) A processing circuit that includes a dedicated hardware circuit that executes all of the above processing. Here, there may be a plurality of software execution devices including a processing device and a program storage device. Further, there may be a plurality of dedicated hardware circuits.

「画像評価装置について」
・画像評価装置が、画像を評価する処理と、評価結果をユーザ端末50に配信する処理との双方を行うことは必須ではない。たとえば、評価結果をユーザ端末50に配信する処理を、画像評価装置とは別の装置が実行してもよい。また、画像評価装置が業者端末10から送信された画像データを受信することも必須ではない。たとえば、業者端末10から送信された画像データを受信して且つ画像評価装置に送信する装置を別途備えてもよい。さらに、画像評価装置と業者端末10とが一体化されていてもよい。
"About the image evaluation device"
- It is not essential for the image evaluation device to perform both the process of evaluating an image and the process of distributing the evaluation results to the user terminal 50. For example, a device other than the image evaluation device may execute the process of distributing the evaluation results to the user terminal 50. Furthermore, it is not essential that the image evaluation device receives image data transmitted from the vendor terminal 10. For example, a separate device may be provided that receives image data transmitted from the vendor terminal 10 and transmits it to the image evaluation device. Furthermore, the image evaluation device and the vendor terminal 10 may be integrated.

「コンピュータについて」
・画像評価プログラム34aを実行するコンピュータとしては、画像評価装置30が備えるPU32に限らない。たとえば、画像評価プログラム34aをユーザ端末50にインストールすることによって、ユーザ端末50のPU52を画像評価プログラム34aを実行するコンピュータとしてもよい。
"About computers"
- The computer that executes the image evaluation program 34a is not limited to the PU 32 included in the image evaluation device 30. For example, by installing the image evaluation program 34a on the user terminal 50, the PU 52 of the user terminal 50 may be used as a computer that executes the image evaluation program 34a.

「そのほか」
・PU12が、PU32に含まれ得る態様の演算ユニットを含んでもよい。
・上記実施形態では、CM動画データとして、ストリーミング映像の態様でユーザ端末50に対して配信(送信)されるものを想定したが、これに限らない。たとえば、ライブストリーミングの態様のサービスでユーザ端末50に対してリアルタイムに配信(送信)されてよい。評価対象となる画像データは、CM動画データに限らない。たとえば、商品等の広告の用に供する動画に限らず、人(人物)の身体の少なくとも一部が含まれ得る動画であればその種別や異常判定の目的に制限はない。さらに、評価対象となる画像データは、たとえば任意の静止画像のデータであってもよい。
"others"
- The PU 12 may include an arithmetic unit that can be included in the PU 32.
- In the above embodiment, it is assumed that the CM video data is distributed (transmitted) to the user terminal 50 in the form of streaming video, but the present invention is not limited to this. For example, it may be distributed (transmitted) to the user terminal 50 in real time using a live streaming service. The image data to be evaluated is not limited to commercial video data. For example, there are no restrictions on the type of video or the purpose of abnormality determination, as long as the video is not limited to videos used for advertising products or the like, but can include at least part of a person's body. Further, the image data to be evaluated may be, for example, any still image data.

・PU32は、OK判定またはNG判定の根拠として扱われる、明示的に予め定められた所定部位を示す情報を、業者端末10および/またはユーザ端末50に対して、CM動画データの配信(送信)の前に通知してよい。また、PU32は、所定部位を示す情報を、業者端末10および/またはユーザ端末50に対して、CM動画データの配信(送信)中に通知してよい。また、PU32は、配信(送信)中のCM動画データのフレームデータFDについてNG判定の根拠となった所定部位を示す情報を、業者端末10および/またはユーザ端末50に対して、通知してよい。なお、ここでの「通知」とは、業者端末10および/またはユーザ端末50に対するメッセージ送信の態様であってよく、業者端末10および/またはユーザ端末50において表示中のCM動画データに重畳させる表示処理の態様であってよい。 - The PU 32 distributes (sends) the commercial video data to the vendor terminal 10 and/or the user terminal 50, with information indicating an explicitly predetermined part that is treated as the basis for an OK or NG determination. may be notified in advance. Further, the PU 32 may notify the vendor terminal 10 and/or the user terminal 50 of information indicating the predetermined region during distribution (transmission) of the CM video data. Further, the PU 32 may notify the vendor terminal 10 and/or the user terminal 50 of information indicating a predetermined portion that is the basis for the NG determination regarding the frame data FD of the commercial video data that is being distributed (transmitted). . Note that the "notification" here may be a mode of sending a message to the vendor terminal 10 and/or the user terminal 50, and a display superimposed on the commercial video data being displayed on the vendor terminal 10 and/or the user terminal 50. It may be a mode of processing.

10…業者端末
14…記憶装置
16…通信機
20…ネットワーク
30…画像評価装置
34…記憶装置
34a…画像評価プログラム
34b…位置情報写像データ
34c…評価写像データ
36…通信機
40…ユーザインターフェース
50…ユーザ端末
54…記憶装置
54a…アプリケーションプログラム
56…通信機
58…ユーザインターフェース
60~66…ヒートマップ
70a~70d…識別モデル
10...Business terminal 14...Storage device 16...Communication device 20...Network 30...Image evaluation device 34...Storage device 34a...Image evaluation program 34b...Position information mapping data 34c...Evaluation mapping data 36...Communication device 40...User interface 50... User terminal 54...Storage device 54a...Application program 56...Communication device 58...User interface 60-66...Heat map 70a-70d...Identification model

Claims (11)

実行装置、および記憶装置を備え、
前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、
前記位置情報写像データは、位置情報写像を規定するためのデータであり、
前記位置情報写像は、位置情報データを出力する写像であり、
前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、
前記評価写像データは、評価写像を規定するためのデータであり、
前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、
前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、
前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、
前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、
前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、
前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理であり、
前記評価写像は、特徴量レイヤを備え、
前記特徴量レイヤは、前記画像データが示す領域を複数個の領域に分割したそれぞれに数値を与えることによって、前記画像データの特徴量を定量化するレイヤであり、
前記評価写像は、前記特徴量レイヤが示す前記複数個の領域の少なくとも一部の値と前記位置情報データとを合成する処理を含んで前記評価結果を出力する写像である画像評価装置。
includes an execution device and a storage device,
The storage device stores position information mapping data and evaluation mapping data,
The location information mapping data is data for defining a location information mapping,
The location information mapping is a mapping that outputs location information data,
The position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated,
The evaluation mapping data is data for defining an evaluation mapping,
The evaluation mapping is a mapping that receives evaluation input data and the position information data as input and outputs an evaluation result of the image data,
The evaluation input data is data that corresponds to the image data and is data that is input to the evaluation mapping,
The execution device is configured to execute a position information generation process and an evaluation process,
The position information generation process is a process of generating the position information data by inputting position input data into the position information mapping,
The position input data is data that corresponds to the image data and is data that is input to the position information mapping,
The evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data into the evaluation mapping,
The evaluation mapping includes a feature layer,
The feature amount layer is a layer that quantifies the feature amount of the image data by dividing the region indicated by the image data into a plurality of regions and giving a numerical value to each of the regions,
The evaluation mapping is a mapping that outputs the evaluation result by including a process of combining at least some values of the plurality of regions indicated by the feature amount layer with the position information data.
実行装置、および記憶装置を備え、
前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、
前記位置情報写像データは、位置情報写像を規定するためのデータであり、
前記位置情報写像は、位置情報データを出力する写像であり、
前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、
前記評価写像データは、評価写像を規定するためのデータであり、
前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、
前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、
前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、
前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、
前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、
前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理であり、
前記評価写像は、仮評価写像を含み、
前記仮評価写像は、前記評価用入力データを入力として前記画像データの仮の評価結果を出力する写像であり、
前記評価処理は、仮評価処理と、妥当性評価処理と、を含み、
前記仮評価処理は、前記仮評価写像に前記評価用入力データを入力することによって前記仮の評価結果を出力する処理を含み、
前記妥当性評価処理は、前記位置情報データを入力として、前記画像データの示す領域のうちの前記所定部位を示す領域が前記仮の評価結果に寄与した度合いに応じて前記仮の評価結果の妥当性を評価する処理を含む画像評価装置。
includes an execution device and a storage device,
The storage device stores position information mapping data and evaluation mapping data,
The location information mapping data is data for defining a location information mapping,
The location information mapping is a mapping that outputs location information data,
The position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated,
The evaluation mapping data is data for defining an evaluation mapping,
The evaluation mapping is a mapping that receives evaluation input data and the position information data as input and outputs an evaluation result of the image data,
The evaluation input data is data that corresponds to the image data and is data that is input to the evaluation mapping,
The execution device is configured to execute a position information generation process and an evaluation process,
The position information generation process is a process of generating the position information data by inputting position input data into the position information mapping,
The position input data is data that corresponds to the image data and is data that is input to the position information mapping,
The evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data into the evaluation mapping,
The evaluation mapping includes a provisional evaluation mapping,
The provisional evaluation mapping is a mapping that receives the evaluation input data as input and outputs a provisional evaluation result of the image data,
The evaluation process includes a provisional evaluation process and a validity evaluation process,
The provisional evaluation process includes processing to output the provisional evaluation result by inputting the evaluation input data to the provisional evaluation mapping,
The validity evaluation process uses the position information data as input and determines the validity of the provisional evaluation result according to the degree to which an area indicating the predetermined part out of the area shown by the image data has contributed to the provisional evaluation result. An image evaluation device that includes processing for evaluating gender .
実行装置、および記憶装置を備え、
前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、
前記位置情報写像データは、位置情報写像を規定するためのデータであり、
前記位置情報写像は、位置情報データを出力する写像であり、
前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、
前記評価写像データは、評価写像を規定するためのデータであり、
前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、
前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、
前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、
前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、
前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、
前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理であり、
前記実行装置は、提供処理、および制限処理を実行するように構成され、
前記提供処理は、前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像をユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、
前記制限処理は、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する処理であり、
前記制限しなくてよい旨の評価は、前記ユーザ端末からの指示に基づいて、身体の露出度についての許容範囲内である旨の評価であり、
前記ユーザ端末により表示されることを制限すべき旨の評価は、前記露出度が前記許容範囲から外れる旨の評価である画像評価装置。
includes an execution device and a storage device,
The storage device stores position information mapping data and evaluation mapping data,
The location information mapping data is data for defining a location information mapping,
The location information mapping is a mapping that outputs location information data,
The position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated,
The evaluation mapping data is data for defining an evaluation mapping,
The evaluation mapping is a mapping that receives evaluation input data and the position information data as input and outputs an evaluation result of the image data,
The evaluation input data is data that corresponds to the image data and is data that is input to the evaluation mapping,
The execution device is configured to execute a position information generation process and an evaluation process,
The position information generation process is a process of generating the position information data by inputting position input data into the position information mapping,
The position input data is data that corresponds to the image data and is data that is input to the position information mapping,
The evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data into the evaluation mapping,
The execution device is configured to execute a provision process and a restriction process,
The provision process includes transmitting the image data to the user terminal so that the image represented by the image data, which has been evaluated by the evaluation process as not having to be restricted from being displayed, can be displayed on the user terminal. It is a process to
The restriction process is a process of restricting the user terminal from displaying an image indicated by the image data that has been evaluated by the evaluation process to be restricted from being displayed;
The evaluation that there is no need to restrict is an evaluation that the degree of body exposure is within a permissible range based on the instruction from the user terminal,
The image evaluation device is characterized in that the evaluation that the display by the user terminal should be restricted is an evaluation that the exposure level is outside the permissible range .
前記実行装置は、通知処理を実行するように構成され、
前記通知処理は、前記妥当性評価処理によって妥当ではないと判定される場合に、妥当ではない旨を通知する処理である請求項2に記載の画像評価装置。
The execution device is configured to execute a notification process,
The image evaluation device according to claim 2 , wherein the notification process is a process of notifying that the image is not valid when the validity evaluation process determines that the image is not valid.
前記所定部位は、人の胸部、尻部、および正面下腹部の3つの部分のうちの少なくとも1つを含む請求項1~請求項4のうち何れか一項に記載の画像評価装置。 The image evaluation device according to any one of claims 1 to 4, wherein the predetermined region includes at least one of three parts: a person's chest, buttocks, and front lower abdomen. 前記位置情報データは、前記評価用入力データを構成する各画素が前記所定部位を示すか否かの情報を付与するデータであり、
前記評価写像は、前記評価用入力データの各画素と前記各画素に対応する前記位置情報データとが対応付けて入力されることによって前記評価結果を出力する写像である請求項1~請求項4のうち何れか一項に記載の画像評価装置。
The position information data is data that provides information as to whether each pixel forming the evaluation input data indicates the predetermined region,
The evaluation mapping is a mapping that outputs the evaluation result by inputting each pixel of the evaluation input data and the position information data corresponding to each pixel in a corresponding manner. The image evaluation device according to any one of the above .
請求項1又は請求項2に記載の画像評価装置と、複数のユーザ端末と、を備える画像処理システム。 An image processing system comprising the image evaluation device according to claim 1 or 2 and a plurality of user terminals. 行装置、および記憶装置を有する画像評価装置と、複数のユーザ端末と、を備え、
前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、
前記位置情報写像データは、位置情報写像を規定するためのデータであり、
前記位置情報写像は、位置情報データを出力する写像であり、
前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、
前記評価写像データは、評価写像を規定するためのデータであり、
前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、
前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、
前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、
前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、
前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、
前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理であり、
前記実行装置は、提供処理、および制限処理を実行するように構成され、
前記提供処理は、前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、
前記制限処理は、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する処理であり、
前記ユーザ端末は、指示処理を実行するように構成され、
前記指示処理は、身体の露出度についての許容範囲を指示する処理であり、
前記制限しなくてよい旨の評価は、前記露出度が前記許容範囲内である旨の評価であり、
前記ユーザ端末により表示されることを制限すべき旨の評価は、前記露出度が前記許容範囲から外れる旨の評価である画像処理システム。
An image evaluation device having an execution device and a storage device, and a plurality of user terminals,
The storage device stores position information mapping data and evaluation mapping data,
The location information mapping data is data for defining a location information mapping,
The location information mapping is a mapping that outputs location information data,
The position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated,
The evaluation mapping data is data for defining an evaluation mapping,
The evaluation mapping is a mapping that receives evaluation input data and the position information data as input and outputs an evaluation result of the image data,
The evaluation input data is data that corresponds to the image data and is data that is input to the evaluation mapping,
The execution device is configured to execute a position information generation process and an evaluation process,
The position information generation process is a process of generating the position information data by inputting position input data into the position information mapping,
The position input data is data that corresponds to the image data and is data that is input to the position information mapping,
The evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data into the evaluation mapping,
The execution device is configured to execute a provision process and a restriction process,
The provision process includes transmitting the image data to the user terminal so that the image represented by the image data, which has been evaluated by the evaluation process as not having to be restricted from being displayed, can be displayed on the user terminal. The process of sending
The restriction process is a process of restricting the user terminal from displaying an image indicated by the image data that has been evaluated by the evaluation process to be restricted from being displayed ;
The user terminal is configured to perform instruction processing,
The instruction process is a process of instructing a permissible range for the degree of body exposure,
The evaluation that there is no need to limit is an evaluation that the degree of exposure is within the permissible range,
The image processing system is characterized in that the evaluation to the effect that display by the user terminal should be restricted is an evaluation to the effect that the exposure level is outside the permissible range .
請求項8に記載の画像処理システムにおける前記ユーザ端末。 The user terminal in the image processing system according to claim 8. 請求項1~請求項3のうち何れか一項に記載の画像評価装置における前記各処理を実行するステップを有する画像評価方法。 An image evaluation method comprising the step of executing each of the processes in the image evaluation apparatus according to any one of claims 1 to 3 . 請求項1~請求項3のうち何れか一項に記載の画像評価装置における前記各処理をコンピュータに実行させる画像評価プログラム An image evaluation program that causes a computer to execute each of the processes in the image evaluation apparatus according to any one of claims 1 to 3 .
JP2022064667A 2022-04-08 2022-04-08 Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program Active JP7455889B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022064667A JP7455889B2 (en) 2022-04-08 2022-04-08 Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022064667A JP7455889B2 (en) 2022-04-08 2022-04-08 Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program

Publications (2)

Publication Number Publication Date
JP2023154980A JP2023154980A (en) 2023-10-20
JP7455889B2 true JP7455889B2 (en) 2024-03-26

Family

ID=88373249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022064667A Active JP7455889B2 (en) 2022-04-08 2022-04-08 Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program

Country Status (1)

Country Link
JP (1) JP7455889B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012170024A (en) 2011-02-16 2012-09-06 Nikon Corp Information processing apparatus
JP2018120644A (en) 2018-05-10 2018-08-02 シャープ株式会社 Identification apparatus, identification method, and program
JP2020021148A (en) 2018-07-30 2020-02-06 トヨタ自動車株式会社 Image processing device and image processing method
JP2021086322A (en) 2019-11-26 2021-06-03 キヤノン株式会社 Image processing device, image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012170024A (en) 2011-02-16 2012-09-06 Nikon Corp Information processing apparatus
JP2018120644A (en) 2018-05-10 2018-08-02 シャープ株式会社 Identification apparatus, identification method, and program
JP2020021148A (en) 2018-07-30 2020-02-06 トヨタ自動車株式会社 Image processing device and image processing method
JP2021086322A (en) 2019-11-26 2021-06-03 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2023154980A (en) 2023-10-20

Similar Documents

Publication Publication Date Title
Wang et al. UIEC^ 2-Net: CNN-based underwater image enhancement using two color space
US11334971B2 (en) Digital image completion by learning generation and patch matching jointly
Oh et al. Blind deep S3D image quality evaluation via local to global feature aggregation
Sim et al. MaD-DLS: mean and deviation of deep and local similarity for image quality assessment
Fan et al. Stacked latent attention for multimodal reasoning
CN112766279B (en) Image feature extraction method based on combined attention mechanism
US11068746B2 (en) Image realism predictor
CN108389192A (en) Stereo-picture Comfort Evaluation method based on convolutional neural networks
Zhou et al. Blind quality estimator for 3D images based on binocular combination and extreme learning machine
Ozbulak Image colorization by capsule networks
Cai et al. Residual channel attention generative adversarial network for image super-resolution and noise reduction
Fu et al. Twice mixing: A rank learning based quality assessment approach for underwater image enhancement
CN112232914A (en) Four-stage virtual fitting method and device based on 2D image
Oh et al. Deep visual discomfort predictor for stereoscopic 3d images
Pham et al. End-to-end image patch quality assessment for image/video with compression artifacts
Kwon et al. Tailor me: An editing network for fashion attribute shape manipulation
JP7455889B2 (en) Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program
Hepburn et al. Enforcing perceptual consistency on generative adversarial networks by using the normalised laplacian pyramid distance
Oszust A regression-based family of measures for full-reference image quality assessment
CN113327212B (en) Face driving method, face driving model training device, electronic equipment and storage medium
Buzuti et al. Fréchet AutoEncoder Distance: A new approach for evaluation of Generative Adversarial Networks
JP7362924B2 (en) Data augmentation-based spatial analysis model learning device and method
JP7385046B2 (en) Color spot prediction method, device, equipment and storage medium
Wang et al. A deep learning based multi-dimensional aesthetic quality assessment method for mobile game images
Zhou et al. Multi-layer fusion network for blind stereoscopic 3D visual quality prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R150 Certificate of patent or registration of utility model

Ref document number: 7455889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150