JP7455889B2 - Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program - Google Patents
Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program Download PDFInfo
- Publication number
- JP7455889B2 JP7455889B2 JP2022064667A JP2022064667A JP7455889B2 JP 7455889 B2 JP7455889 B2 JP 7455889B2 JP 2022064667 A JP2022064667 A JP 2022064667A JP 2022064667 A JP2022064667 A JP 2022064667A JP 7455889 B2 JP7455889 B2 JP 7455889B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- evaluation
- mapping
- image
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 284
- 238000012545 processing Methods 0.000 title claims description 76
- 238000000034 method Methods 0.000 claims description 267
- 230000008569 process Effects 0.000 claims description 246
- 238000013507 mapping Methods 0.000 claims description 210
- 210000001015 abdomen Anatomy 0.000 claims description 76
- 210000001217 buttock Anatomy 0.000 claims description 71
- 238000012854 evaluation process Methods 0.000 claims description 56
- 230000000694 effects Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 description 29
- 239000011159 matrix material Substances 0.000 description 24
- 238000013527 convolutional neural network Methods 0.000 description 21
- 239000013598 vector Substances 0.000 description 19
- 230000004913 activation Effects 0.000 description 17
- 230000011218 segmentation Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 238000012549 training Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 239000006185 dispersion Substances 0.000 description 7
- 230000010354 integration Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Description
本発明は、画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法に関する。 The present invention relates to an image evaluation device, an image processing system, a user terminal, an image evaluation method, an image evaluation program, and an image display support method.
たとえば下記特許文献1には、学習済みモデルを利用して画像データの異常を検出する装置が記載されている。
For example,
発明者は、身体の所定部位の露出がある画像データを異常とすることを検討した。その場合、学習済みモデルが所定部位に注目することなく画像データの異常の有無の判定結果を出力する場合、判定精度が低くなるおそれがある。 The inventor considered that image data in which a predetermined part of the body is exposed is considered abnormal. In that case, if the learned model outputs a determination result of the presence or absence of an abnormality in image data without paying attention to a predetermined region, the determination accuracy may be lowered.
以下、上記課題を解決するための手段およびその作用効果について記載する。
1.実行装置、および記憶装置を備え、前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、前記位置情報写像データは、位置情報写像を規定するためのデータであり、前記位置情報写像は、位置情報データを出力する写像であり、前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、前記評価写像データは、評価写像を規定するためのデータであり、前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理である画像評価装置である。
Below, means for solving the above problems and their effects will be described.
1. an execution device and a storage device, the storage device stores location information mapping data and evaluation mapping data, the location information mapping data is data for defining a location information mapping, and the storage device stores location information mapping data and evaluation mapping data; The position information mapping is a mapping that outputs position information data, the position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated, and the evaluation mapping data is The evaluation mapping is data for defining an evaluation mapping, and the evaluation mapping is a mapping that inputs evaluation input data and the position information data and outputs an evaluation result of the image data, and the evaluation input data is a mapping that outputs an evaluation result of the image data. The execution device is configured to execute a position information generation process and an evaluation process, and the position information generation process It is a process of generating the position information data by inputting input data into the position information mapping, and the position input data is data that corresponds to the image data and is data that is input to the position information mapping. In the image evaluation apparatus, the evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data to the evaluation mapping.
上記構成では、評価写像に、画像データに応じた評価用入力データのみならず、位置情報データが入力される。位置情報データは、所定部位の情報を示すデータである。そのため、評価写像は、画像データ中の所定部位の位置についての情報を利用して評価結果を出力できる。そのため、位置情報データを利用しない場合と比較して、所定部位の露出等の異常をより高精度に評価できる。 In the above configuration, not only the evaluation input data corresponding to the image data but also the position information data is input to the evaluation mapping. The position information data is data indicating information on a predetermined region. Therefore, the evaluation mapping can output an evaluation result using information about the position of a predetermined part in the image data. Therefore, abnormalities such as exposure of a predetermined region can be evaluated with higher precision than when position information data is not used.
2.前記所定部位は、人の胸部、尻部、および正面下腹部の3つの部分のうちの少なくとも1つを含む上記1記載の画像評価装置である。
人の胸部、尻部、および正面下腹部の3つの部分の露出の有無は、公序良俗に反するか否かを定める上で特に重要である。そのため、上記構成では、所定部位の位置情報を利用することにより、画像データが公序良俗に反するか否かを高精度に評価できる。
2. The image evaluation device according to 1 above, wherein the predetermined region includes at least one of the following three parts: a person's chest, buttocks, and front lower abdomen.
The presence or absence of exposure of the three parts of a person's chest, buttocks, and front lower abdomen is particularly important in determining whether or not it violates public order and morals. Therefore, with the above configuration, by using the position information of the predetermined part, it is possible to evaluate with high accuracy whether or not the image data violates public order and morals.
3.前記位置情報データは、前記評価用入力データを構成する各画素が前記所定部位を示すか否かの情報を付与するデータであり、前記評価写像は、前記評価用入力データの各画素と前記各画素に対応する前記位置情報データとが対応付けて入力されることによって前記評価結果を出力する写像である上記1または2記載の画像評価装置である。 3. The position information data is data that provides information as to whether each pixel forming the evaluation input data indicates the predetermined region, and the evaluation mapping is data that provides information on whether each pixel forming the evaluation input data indicates the predetermined region, and the evaluation mapping is data that provides information on whether each pixel forming the evaluation input data indicates the predetermined region. The image evaluation device according to the above 1 or 2, wherein the image evaluation device is a mapping that outputs the evaluation result by inputting the position information data corresponding to the pixels in association with each other.
上記評価写像は、評価用入力データおよび位置情報データが互いに対応付けて評価写像に入力される。そのため、画像データの各画素のうち所定部位に対応する画素に着目しつつ評価結果を算出する確実性を高めることができる。 In the evaluation mapping, evaluation input data and position information data are input into the evaluation mapping in association with each other. Therefore, it is possible to increase the reliability of calculating an evaluation result while paying attention to a pixel corresponding to a predetermined region among each pixel of image data.
4.前記評価写像は、仮評価写像を含み、前記仮評価写像は、前記評価用入力データを入力として前記画像データの仮の評価結果を出力する写像であり、前記評価処理は、仮評価処理と、妥当性評価処理と、を含み、前記仮評価処理は、前記仮評価写像に前記評価用入力データを入力することによって前記仮の評価結果を出力する処理を含み、前記妥当性評価処理は、前記位置情報データを入力として、前記画像データの示す領域のうちの前記所定部位を示す領域が前記仮の評価結果に寄与した度合いに応じて前記仮の評価結果の妥当性を評価する処理を含む上記1~3のいずれか1つに記載の画像評価装置である。
4. The evaluation mapping includes a provisional evaluation mapping, the provisional evaluation mapping is a mapping that inputs the evaluation input data and outputs a provisional evaluation result of the image data, and the evaluation processing includes provisional evaluation processing; a validity evaluation process, the provisional evaluation process includes a process of outputting the provisional evaluation result by inputting the evaluation input data into the provisional evaluation mapping, and the validity evaluation process includes the The above-described process includes a process of taking position information data as input and evaluating the validity of the tentative evaluation result according to the degree to which a region indicating the predetermined part out of the regions indicated by the image data has contributed to the tentative evaluation result. The image evaluation device according to any one of
上記構成では、実行装置が、仮評価写像が出力する仮の評価結果に画像データが示す領域のうちの所定部位を示す領域が寄与した度合いに応じて、仮の評価結果の妥当性を評価する処理を実行する。そのため、妥当性の評価をすることなく仮評価写像の出力する仮の評価結果から最終的な評価結果を定める場合と比較すると、最終的な評価結果の精度を高めることができる。 In the above configuration, the execution device evaluates the validity of the tentative evaluation result according to the degree to which the region indicating a predetermined part of the region indicated by the image data has contributed to the tentative evaluation result output by the tentative evaluation mapping. Execute processing. Therefore, compared to the case where the final evaluation result is determined from the provisional evaluation result output by the provisional evaluation mapping without evaluating the validity, the accuracy of the final evaluation result can be improved.
5.前記実行装置は、通知処理を実行するように構成され、前記通知処理は、前記妥当性評価処理によって妥当ではないと判定される場合に、妥当ではない旨を通知する処理である上記4記載の画像評価装置である。 5. 4. The execution device is configured to execute a notification process, and the notification process is a process of notifying that it is not valid when it is determined that it is not valid by the validity evaluation process. It is an image evaluation device.
上記構成では、実行装置は、妥当性評価処理によって妥当ではないと判定する場合、その旨を通知する。そのため、仮の評価結果の妥当性について、最終的に人が判断することが可能となる。 In the above configuration, when the execution device determines that the validity evaluation process is not valid, it notifies the execution device to that effect. Therefore, it becomes possible for a person to ultimately judge the validity of the provisional evaluation results.
6.前記評価写像は、特徴量レイヤを備え、前記特徴量レイヤは、前記画像データが示す領域を複数個の領域に分割したそれぞれに数値を与えることによって、前記画像データの特徴量を定量化するレイヤであり、前記評価写像は、前記特徴量レイヤが示す前記複数個の領域の少なくとも一部の値と前記位置情報データとを合成する処理を含んで前記評価結果を出力する写像である上記1記載の画像評価装置である。 6. The evaluation mapping includes a feature layer, and the feature layer is a layer that quantifies the feature amount of the image data by dividing the region indicated by the image data into a plurality of regions and assigning a numerical value to each region. 1 above, wherein the evaluation mapping is a mapping that outputs the evaluation result including a process of combining at least some values of the plurality of regions indicated by the feature amount layer and the position information data. This is an image evaluation device.
上記構成では、実行装置が特徴量レイヤが示す複数個の領域の少なくとも一部の値と位置情報データとを合成する処理を施す。そのため、この処理の施された特徴量は、補正が施されない特徴量と比較して、所定部位により着目した特徴量となりうる。そのため、評価結果を、所定部位に確実に着目した評価結果とすることが可能となる。 In the above configuration, the execution device performs a process of synthesizing at least part of the values of the plurality of regions indicated by the feature amount layer and the position information data. Therefore, the feature amount that has been subjected to this processing can be a feature amount that focuses more on a predetermined region than the feature amount that has not been corrected. Therefore, it is possible to obtain an evaluation result that reliably focuses on a predetermined region.
7.上記1~6のいずれか1つに記載の画像評価装置における前記実行装置、および前記記憶装置と、複数のユーザ端末と、を備え、前記実行装置は、提供処理、および制限処理を実行するように構成され、前記提供処理は、前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、前記制限処理は、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する処理である画像処理システムである。
7. The image evaluation device according to any one of
上記提供処理および制限処理によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
8.前記ユーザ端末は、指示処理を実行するように構成され、前記指示処理は、身体の露出度についての許容範囲を指示する処理であり、前記制限しなくてよい旨の評価は、前記露出度が前記許容範囲内である旨の評価であり、前記ユーザ端末により表示されることを制限すべき旨の評価は、前記露出度が前記許容範囲から外れる旨の評価である上記7記載の画像処理システムである。
According to the above-mentioned provision processing and restriction processing, it is possible to appropriately support selectively displaying the image indicated by the image data on the user terminal according to the evaluation result of the evaluation processing.
8. The user terminal is configured to execute an instruction process, and the instruction process is a process for instructing a permissible range for the degree of body exposure, and the evaluation that there is no need to limit the degree of exposure means that the degree of exposure is The image processing system according to 7 above, wherein the evaluation that the degree of exposure is within the permissible range and that displaying by the user terminal should be restricted is an evaluation that the degree of exposure is outside the permissible range. It is.
上記構成では、ユーザの意思に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
9.前記制限処理は、前記ユーザ端末により表示されることを制限すべきと評価された前記画像データの前記ユーザ端末への送信を禁止する禁止処理と、前記ユーザ端末により表示されることを制限すべきと評価された前記画像データを制限指令とともに送信する制限送信処理と、の少なくとも1つの処理を含み、前記制限指令は、前記ユーザ端末において前記画像データが示す画像を警告とともに表示されるようにする指令、前記ユーザ端末において前記画像データが示す画像のうちの所定部位の露出にマスクをする指令、および前記ユーザ端末において前記画像データが示す画像を表示しないようにする指令のいずれかである上記7または8記載の画像処理システムである。
With the above configuration, it is possible to appropriately support selectively displaying an image indicated by image data on a user terminal according to the user's intention.
9. The restriction process includes a prohibition process that prohibits transmission of the image data that has been evaluated to be restricted from being displayed by the user terminal to the user terminal, and a prohibition process that prohibits the image data from being displayed by the user terminal. and a restriction transmission process of transmitting the image data evaluated as such along with a restriction command, the restriction command causing an image indicated by the image data to be displayed on the user terminal along with a warning. 7 above, which is any one of a command, a command to mask the exposure of a predetermined part of the image represented by the image data on the user terminal, and a command not to display the image represented by the image data on the user terminal. or the image processing system described in 8.
上記禁止処理によれば、ユーザ端末により表示されることを制限すべきと評価された画像データが示す画像が、ユーザ端末に表示されることを確実に抑制できる。また、上記制限送信処理によれば、以下のいずれかが可能となる。 According to the above-mentioned prohibition process, it is possible to reliably suppress the image indicated by the image data evaluated to be restricted from being displayed on the user terminal from being displayed on the user terminal. Further, according to the above-mentioned limited transmission processing, one of the following becomes possible.
・ユーザ端末により表示されることを制限すべき旨の警告がユーザ端末によってなされること。
・ユーザ端末に表示された画像中の所定部位の露出がマスクされること。
- A warning is issued by the user terminal to the effect that display on the user terminal should be restricted.
- The exposure of a predetermined part in the image displayed on the user terminal is masked.
・ユーザ端末により表示されることを制限すべきと評価された画像データが示す画像が表示されることを、ユーザ端末において禁止すること。
10.上記8記載の画像処理システムにおける前記ユーザ端末である。
- Prohibiting the user terminal from displaying an image indicated by image data that has been evaluated as being restricted from being displayed by the user terminal.
10. The user terminal in the image processing system described in 8 above.
11.上記1~6のいずれか1つに記載の画像評価装置における前記各処理を実行するステップを有する画像評価方法である。
12.上記1~6のいずれか1つに記載の画像評価装置における前記各処理をコンピュータに実行させる画像評価プログラムである。
11. An image evaluation method comprising the steps of executing each of the processes in the image evaluation apparatus according to any one of
12. This is an image evaluation program that causes a computer to execute each of the processes in the image evaluation apparatus described in any one of 1 to 6 above.
13.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末により表示される画像の候補を示す画像データのうち、上記1~6のいずれか1つに記載の画像評価装置における前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。
13. An image display support method for supporting selective display of images on a user terminal, the method comprising: selecting any one of the
上記提供工程および制限工程によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
14.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末は、指示処理を実行するように構成され、前記指示処理は、身体の露出度についての許容範囲を指示する処理であり、前記ユーザ端末により表示される画像の候補を示す画像データのうち、上記1~6のいずれか1つに記載の画像評価装置における前記評価処理によって前記露出度が前記許容範囲内である旨評価された前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記ユーザ端末により表示される画像の候補を示す画像データのうち、前記評価処理によって、前記露出度が前記許容範囲から外れると評価された前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。
According to the above-mentioned providing step and restriction step, it is possible to appropriately support selectively displaying the image indicated by the image data on the user terminal according to the evaluation result of the evaluation process.
14. An image display support method for supporting selective display of images on a user terminal, wherein the user terminal is configured to execute instruction processing, and the instruction processing includes determining a permissible degree of body exposure. This is a process of instructing a range, and the exposure degree is determined by the evaluation process in the image evaluation apparatus according to any one of 1 to 6 above among image data indicating image candidates to be displayed by the user terminal. a providing step of transmitting the image data to the user terminal so that the image indicated by the image data evaluated to be within an acceptable range can be displayed on the user terminal; and a candidate image to be displayed by the user terminal. a limiting step of restricting display of an image represented by the image data whose exposure degree is evaluated to be outside the permissible range by the evaluation process from being displayed by the user terminal. This is an image display support method.
上記方法では、ユーザの意思に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
15.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末により表示される画像の候補を示す画像データを取得する取得工程と、前記取得工程において取得された前記画像データのうち上記1~6のいずれか1つに記載の画像評価装置における前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記取得工程において取得された前記画像データのうち、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。
The above method can appropriately support selectively displaying images indicated by image data on a user terminal according to the user's intention.
15. An image display support method for supporting selective display of images on a user terminal, the method comprising: an acquisition step of acquiring image data indicating image candidates to be displayed by the user terminal; The image represented by the image data that has been evaluated by the evaluation process in the image evaluation device according to any one of the
上記提供工程および制限工程によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。 According to the above-mentioned providing step and restricting step, it is possible to appropriately support selectively displaying the image indicated by the image data on the user terminal according to the evaluation result of the evaluation process.
<第1の実施形態>
以下、第1の実施形態について図面を参照しつつ説明する。
「前提構成」
図1に、画像処理システムの全体構成を示す。
<First embodiment>
The first embodiment will be described below with reference to the drawings.
"Prerequisite configuration"
FIG. 1 shows the overall configuration of the image processing system.
複数の業者端末10(1),10(2),…は、何らかの商品を消費者に販売する業者が所持する端末である。なお、以下では、業者端末10(1),10(2),…を総括する場合、業者端末10と記載する。業者端末10は、PU12、記憶装置14、および通信機16を備えている。PU12は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。記憶装置14は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置14には、PU12が実行するプログラムが記憶されている。
The plurality of merchant terminals 10(1), 10(2), . . . are terminals owned by merchants who sell certain products to consumers. Note that hereinafter, when the vendor terminals 10(1), 10(2), . . . are collectively referred to as the
業者端末10の通信機16は、ネットワーク20を介して画像評価装置30と通信可能とされる。業者端末10は、販売したい商品に関するCM動画データを画像評価装置30に送信する。ここで、CM動画データとは、たとえば商品を広告するためのコマーシャル動画に相当する。CM動画の再生時間、フレーム数、解像度、およびデータフォーマットに制限はない。
The
画像評価装置30は、CM動画データを評価して、問題がない場合にはユーザ端末50(1),50(2),…に送信する。以下では、ユーザ端末50(1),50(2),…を総括する場合、ユーザ端末50と記載する。
The
画像評価装置30は、PU32、記憶装置34、および通信機36を備えている。PU32は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。詳しくは、PU32は、画像処理、推論処理および並列処理等の所定の処理に特化したハードウェアアクセラレータを演算ユニットとして含んでよい。また、PU32は、ホモジニアスアーキテクチャまたはヘテロジニアスアーキテクチャの態様をとる演算ユニットを含んでよい。また、PU32は、単一のチップ上にモノリシックに集積された演算ユニットを含んでよく、チップレット等の複数のチップが接続された演算ユニットを含んでよい。記憶装置34は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置34には、画像評価プログラム34a、位置情報写像データ34b、および評価写像データ34cが記憶されている。通信機36は、ネットワーク20を介して業者端末10およびユーザ端末50との通信を可能とするための機器である。
The
ユーザ端末50は、CM動画データを再生する端末である。ユーザ端末50は、CM動画が示す商品の購入操作を実行する機能を有してもよい。
ユーザ端末50は、PU52、記憶装置54、通信機56、およびユーザインターフェース58を備えている。PU52は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。PU52は、PU32に含まれ得る態様の演算ユニットを含んでもよい。記憶装置54は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置54には、アプリケーションプログラム54aが記憶されている。アプリケーションプログラム54aは、画像評価装置30から送信されるCM動画データを再生するプログラムである。通信機56は、ネットワーク20を介して画像評価装置30との通信を可能とするための機器である。ユーザインターフェース58は、表示装置等を備える。
The
The
「画像評価処理」
画像評価装置30のPU32は、業者端末10から送信されたCM動画データがユーザ端末50によって再生して問題ないデータであるか否かを評価する。
"Image evaluation processing"
The
図2は、再生して問題ないデータの定義の一例を示す。図2には、身体の部分のうち、所定部位に、マーキングがなされている。すなわち、部分「3」~「5」によって定義される胸部にマーキングがなされている。また、人体の正面視において、部分「10」、「11」、「18」によって定義される「正面下腹部」にマーキングがなされている。また、人体の背面における部分「12~14」,「18」によって定義される「尻部」にマーキングがなされている。PU32は、人の画像のうち図2にマーキングした箇所が露出した画像については、再生して問題がある画像であると評価する。
FIG. 2 shows an example of the definition of data that can be reproduced without any problem. In FIG. 2, markings are made at predetermined parts of the body. That is, markings are made on the chest defined by portions "3" to "5". Furthermore, in a front view of the human body, markings are made on the "front lower abdomen" defined by portions "10", "11", and "18". Also, markings are made on the "buttocks" defined by parts "12 to 14" and "18" on the back of the human body. The
図3に、画像評価装置30によって実行される、図2に示した基準に沿った評価に基づいてCM動画データがユーザ端末50によって選択的に表示されることを支援する処理の手順を示す。図3に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、以下では、先頭に「S」が付与された数字によって各処理のステップ番号を表現する。
FIG. 3 shows the procedure of a process executed by the
図3に示す一連の処理において、PU32は、まず、業者端末10から送信されたCM動画データを取得する(S10)。なお、ここで、「取得」は、記憶装置34に記憶されたCM動画データのうちの1つを選択的に読み出すことを意味する。この処理の前に、PU32は、通信機36を介して業者端末10から送信されたCM動画データを受信する。そして、PU32は、受信したCM動画データを記憶装置34に記憶する。
In the series of processes shown in FIG. 3, the
次にPU32は、CM動画データのフレームを指定する変数iを初期化する(S12)。この処理は、変数iを、CM動画データの先頭のフレームを指定する値とするための処理である。次に、PU32は、フレームデータFDを、N個周期で3個サンプリングする(S14)。すなわち、PU32は、フレームデータFD(i)、FD(i+N)、FD(i+2N)をサンプリングする。なお、フレームデータFD(1),FD(2),FD(3),…は、CM動画データの再生順序に従ったフレームデータFDの時系列を示す。詳しくは、フレームデータFDの後のカッコ内の数字が大きいほど、時系列的に後に再生されるフレームデータFDであることを示す。ちなみに、フレームデータFDは、レッド、グリーン、ブルーの3原色のそれぞれの輝度を示す「w×h」の画素数を有した2次元データである。ここで、「w」および「h」は自然数である。なお、以下では、上記3原色を適宜、「R,G,B」と表現する。
Next, the
そして、PU32は、フレームデータFD(i)、FD(i+N)、FD(i+2N)のそれぞれを評価するフレーム評価処理を実行する(S16)。
図4に、フレーム評価処理の詳細を示す。
Then, the
FIG. 4 shows details of the frame evaluation process.
図4に示す一連の処理において、PU32は、1つのフレームデータFDを胸部、正面下腹部、尻部、および顔部の位置情報を出力する回帰モデルに入力する(S30)。回帰モデルは、フレームデータFDが示す「w×h」の画像領域の少なくとも1部における、胸部、正面下腹部、尻部、および顔部のそれぞれの存在確率を示す2次元分布を出力するモデルである。ここで、2次元分布は、例として、2次元ガウス分布である。
In the series of processes shown in FIG. 4, the
PU32は、例として、胸部、正面下腹部、尻部、および顔部のそれぞれの存在確率に関する2次元ガウス分布が平均値を示すxy座標成分の値と、分散パラメータとを出力する。本実施形態では、2次元ガウス分布の共分散行列を、対角行列とみなす。また、本実施形態では、2つの対角成分を等しいとみなす。したがって、本実施形態の2次元ガウス分布の分散パラメータは、1個である。回帰モデルは、画像領域内において扱える上限の人数を所定数kとしている。そして、回帰モデルでは、人毎に、胸部、正面下腹部、尻部、および顔部のそれぞれの存在確率の分布を表現するガウス分布に関する、上記xy座標成分の値、および分散パラメータの値を出力する。したがって、回帰モデルは、例として、「12k」個の出力値を有する。
The
回帰モデルは、例として、教師あり学習によって学習された学習済みモデルである。
図5に、回帰モデルの訓練データを例示する。訓練データは、胸部、正面下腹部、尻部、および顔部のそれぞれの代表点の座標(xi,yi:i=1~4)と、分散パラメータの値が定義されたデータである。分散パラメータは、画像領域に占める人の大きさに応じて設定される。
The regression model is, for example, a trained model learned by supervised learning.
FIG. 5 illustrates training data for the regression model. The training data is data in which the coordinates (xi, yi: i=1 to 4) of representative points of the chest, front lower abdomen, buttocks, and face, and the values of the dispersion parameters are defined. The dispersion parameter is set depending on the size of the person occupying the image area.
なお、回帰モデルは、ニューラルネットワーク(以下、NNと記載)を含むモデルであってよい。具体的には、畳み込みニューラルネットワーク(以下、CNNと記載)としてもよい。ただし、CNNに限らない。 Note that the regression model may be a model including a neural network (hereinafter referred to as NN). Specifically, it may be a convolutional neural network (hereinafter referred to as CNN). However, it is not limited to CNN.
回帰モデルは、図1に示した記憶装置34に記憶された位置情報写像データ34bによって規定される。位置情報写像データ34bは、パラメトリックモデルである回帰モデルの学習済みのパラメータの値を含むデータである。すなわち、回帰モデルがCNNの場合、位置情報写像データ34bは、畳み込み処理に用いる各フィルタの値を含む。また、回帰モデルが全結合レイヤ等を含む場合、位置情報写像データ34bは、全結合レイヤの重みを示すパラメータの値を含む。なお、回帰モデルがNNの場合、位置情報写像データ34bは、活性化関数を規定するデータを含んでもよい。ただし、たとえば活性化関数を規定するデータは、画像評価プログラム34aに含めてもよい。なお、回帰モデルは、教師なし学習によって学習された学習済みモデルであってもよく、半教師あり学習によって学習された学習済みモデルであってもよい。
The regression model is defined by the position information mapping data 34b stored in the
図4に戻り、PU32は、S10の処理を完了する場合、回帰モデルの出力値に基づき、胸部、正面下腹部、尻部、および顔部のそれぞれに関するヒートマップを生成する(S32)。それらヒートマップは、いずれも「w×h」個の領域を有する。ヒートマップは、「w×h」個の領域のそれぞれに、存在確率に応じた値が定められたマップである。たとえば胸部のヒートマップは、胸部に対応する2次元ガウス分布の平均値の座標(x1,y1)に対応する領域において、最も大きい値が定められている。そして、座標(x1,y1)に対応する領域から離れた領域ほど、小さい値が定められている。座標(x1,y1)に対応する領域からの距離と値との関係は、分散パラメータによって規定される。
Returning to FIG. 4, when completing the process of S10, the
次にPU32は、フレームデータFDと、同フレームデータFDから生成されたヒートマップとを、識別モデル70aに入力することによって、フレームデータFDを評価する評価変数yok,yngの値を算出する(S34)。評価変数yokは、フレームデータFDが、胸部、正面下腹部、および尻部の露出がない画像を示すデータである確率を示す変数である。また、評価変数yngは、フレームデータFDが、胸部、正面下腹部、および尻部の少なくとも1つに露出がある画像を示すデータである確率を示す変数である。
Next, the
識別モデル70aは、例として、CNNを含む。識別モデル70aにおいて、R,G,Bの3つの「w×h」のデータと、胸部、正面下腹部、尻部、および顔部のそれぞれの「w×h」のヒートマップ60~66とは、1または複数のフィルタflによって、畳み込まれる。フィルタflは、「a×b×7」個の数値よりなる。ただし、「a」は、「w」より小さい自然数である。また、「b」は、「h」より小さい自然数である。この処理は、フレームデータFDを構成する各画素領域と、ヒートマップ60~66の対応する領域とが、互いに対応付けられて識別モデル70aに入力されることを意味する。
The identification model 70a includes CNN, for example. In the identification model 70a, what are the three "w x h" data of R, G, B and the "w x h"
識別モデル70aは、いくつかの畳み込みレイヤおよびプーリングレイヤ等を有する。なお、識別モデル70aのCNNは、残差ブロックを有してもよい。識別モデル70aは、下流の全結合レイヤM10において、特徴マップが結合されることによって2つの出力値が出力される。そして、出力活性化関数としての2出力のソフトマックス関数M12によって、評価変数yok,yngの値が算出される。 The identification model 70a has several convolution layers, pooling layers, etc. Note that the CNN of the identification model 70a may have a residual block. In the discriminative model 70a, two output values are output by combining the feature maps in the downstream fully connected layer M10. Then, the values of the evaluation variables yok and yng are calculated using the two-output softmax function M12 as an output activation function.
識別モデル70aは、例として、教師あり学習によって学習がなされた学習済みモデルである。識別モデル70aは、次の訓練データを用いて訓練されたモデルである。すなわち、胸部、正面下腹部、および尻部の露出がない画像を示す画像データと、胸部、正面下腹部、および尻部の少なくとも1つに露出がある画像を示す画像データとである。学習によって、識別モデル70aを規定するフィルタの数値および全結合レイヤM10の重みパラメータ等が学習される。なお、識別モデル70aは、教師なし学習によって学習された学習済みモデルであってもよく、半教師あり学習によって学習された学習済みモデルであってもよい。 The identification model 70a is, for example, a trained model that has been trained by supervised learning. The identification model 70a is a model trained using the following training data. That is, there are image data showing images in which the chest, front lower abdomen, and buttocks are not exposed, and image data showing images in which at least one of the chest, front lower abdomen, and buttocks is exposed. Through learning, numerical values of the filter that define the identification model 70a, weight parameters of the fully connected layer M10, etc. are learned. Note that the identification model 70a may be a learned model learned by unsupervised learning, or may be a learned model learned by semi-supervised learning.
学習がなされたフィルタの数値および全結合レイヤM10の重みパラメータ等は、図1に示した記憶装置34に記憶される評価写像データ34cに含まれる。評価写像データ34cは、フィルタの数値および全結合レイヤM10の重みパラメータ等を含むことによって、識別モデル70aを規定する。なお、評価写像データ34cは、CNNの活性化関数を規定するデータを含んでもよい。ただし、CNNの活性化関数を規定するデータは、画像評価プログラム34aに含めてもよい。
The numerical values of the trained filter, the weight parameters of the fully connected layer M10, and the like are included in the
PU32は、S34の処理を完了する場合、評価変数yokの値が評価変数yngの値よりも大きいか否かを判定する(S36)。この処理は、評価変数yok,yngの値に基づき、フレームデータFDが胸部、正面下腹部、および尻部の露出がない画像を示すか否かを判定する処理である。 When completing the process of S34, the PU32 determines whether the value of the evaluation variable yok is larger than the value of the evaluation variable yng (S36). This process is a process of determining whether the frame data FD represents an image in which the chest, front lower abdomen, and buttocks are not exposed, based on the values of the evaluation variables yok and yng.
PU32は、評価変数yokの値が評価変数yngの値よりも大きいと判定する場合(S36:YES)、胸部、正面下腹部、および尻部の露出がない旨評価する(S38)。以下では、この評価を、OK判定と称する。一方、PU32は、評価変数yokの値が評価変数yngの値以下であると判定する場合(S36:NO)、胸部、正面下腹部、および尻部の少なくとも1つに露出がある旨評価する(S40)。以下では、この評価を、NG判定と称する。
When determining that the value of the evaluation variable yok is greater than the value of the evaluation variable yng (S36: YES), the
なお、PU32は、フレームデータFD(i),FD(i+N),FD(i+2N)に関してS38,S40の処理を完了する場合、図3のS16の処理を完了する。
そしてPU72は、フレームデータFD(i),FD(i+N),FD(i+2N)のうちの2つ以上についてOK判定がなされたか否かを判定する(S18)。そして、PU32は、OK判定が1つ以下であると判定する場合(S18:NO)、S10の処理によって取得したCM動画データの配信を禁止する(S20)。S18の処理において否定判定されることは、CM動画データに、胸部、正面下腹部、および尻部の少なくとも1つに露出がある旨の最終的な判定がなされたことを意味する。
Note that when the
Then, the PU 72 determines whether or not two or more of the frame data FD(i), FD(i+N), and FD(i+2N) have been determined to be OK (S18). If the
一方、PU32は、OK判定が2つ以上であると判定する場合(S18:YES)、変数iに「N」を加算する(S22)。そしてPU32は、フレームデータFD(i+2N)が存在するか否かを判定する(S24)。この処理は、CM動画データの全てについてS16の処理を完了したか否かを判定する処理である。PU32は、フレームデータFD(i+2N)が存在すると判定する場合(S24:YES)、S14の処理に戻る。一方、PU32は、フレームデータFD(i+2N)が存在しないと判定する場合(S24:NO)、CM動画データを配信可能とする(S26)。すなわち、PU32は、ユーザ端末50からのリクエストに応じてCM動画データを配信する。
On the other hand, if the
なお、PU32は、S20,S26の処理を完了する場合、図3に示した一連の処理を一旦終了する。
ここで、本実施形態の作用および効果について説明する。
Note that when the
Here, the functions and effects of this embodiment will be explained.
PU32は、フレームデータFDを識別モデル70aに入力することによって、評価変数yok,yngの値を算出する。そして、PU32は、評価変数yok,yngの値に応じてフレームデータFDを評価する。この処理は、フレームデータFDを入力としてOK判定またはNG判定である、フレームデータFDの評価結果を出力する評価写像を利用する処理である。
The
上記識別モデル70aは、学習済みモデルである。特に、識別モデル70aは、例として、中間層の層数が多いディープニューラルネットワーク(以下、DNNと記載)である。DNNは、特徴量を自動で抽出する。そのため、上記評価写像を、DNNを用いて構成する場合、その入力をフレームデータFDのみとすることが簡素である。しかし、その場合、DNNが胸部、正面下腹部、および尻部に着目して評価結果を出力するとは限らない。 The identification model 70a is a learned model. In particular, the identification model 70a is, for example, a deep neural network (hereinafter referred to as DNN) having a large number of intermediate layers. DNN automatically extracts feature amounts. Therefore, when the evaluation mapping is configured using a DNN, it is simple to input only the frame data FD. However, in that case, the DNN does not necessarily output evaluation results focusing on the chest, front lower abdomen, and buttocks.
そこで、本実施形態では、識別モデル70aを、フレームデータFDに加えて胸部、正面下腹部、および尻部のそれぞれの存在確率を示すヒートマップ60~64を入力とするモデルとした。換言すれば、評価写像の入力に、胸部、正面下腹部、および尻部のそれぞれの存在確率を示すヒートマップ60~64を加えた。これにより、ヒートマップ60~64を加えない場合と比較して、識別モデル70aにおいて抽出された特徴量を示す特徴量マップが胸部、正面下腹部、および尻部のそれぞれの特徴を表現する可能性が高まる。そのため、評価変数yok,yngの値を、胸部、正面下腹部、および尻部の少なくとも1つが露出しているか否かをより高精度に表現した値とすることができる。
Therefore, in this embodiment, the identification model 70a is a model that
なお、フレームデータFDが示す領域のうちのヒートマップ60~64によって示される胸部、正面下腹部、および尻部の存在確率が低い領域を一律、マスキングして評価写像に入力することも考えられる。しかし、その場合、胸部、正面下腹部、および尻部以外の露出部分に示される肌の色に関する情報、および人の挙動に関する情報等が省かれることとなる。しかし、それらの情報は、胸部、正面下腹部、および尻部の少なくとも1つが露出しているか否かを評価するうえで有益な情報となりうる。
It is also conceivable to uniformly mask the areas where the existence probability of the chest, front lower abdomen, and buttocks shown by the
したがって、上記識別モデル70aによれば、画像中の胸部、正面下腹部、および尻部に着目する可能性を高めつつ、胸部、正面下腹部、および尻部以外の情報をも加味して評価変数yok,yngの値を高精度に算出できる。 Therefore, according to the above-mentioned identification model 70a, while increasing the possibility of focusing on the chest, front lower abdomen, and buttocks in the image, evaluation variables are The values of yok and yng can be calculated with high precision.
以上説明した本実施形態によれば、さらに以下に記載する作用および効果が得られる。
(1-1)識別モデル70aの入力に、顔部の存在確率を示すヒートマップ66を含めた。身体のうち顔部は露出している可能性が最も高い。そのため、顔部に着目することにより、その人の肌の色に着目する可能性を高めることができる。したがって、評価変数yok,yngの値を、胸部、正面下腹部、および尻部の少なくとも1つが露出しているか否かをより高精度に評価した値とすることができる。
According to the present embodiment described above, the following effects and effects can be obtained.
(1-1) A
(1-2)時系列的にN個周期で隣接する3つのフレームデータFDのうちの2つ以上でOK判定される場合に、2N+1個のフレームデータの区間に問題がないとした。これにより、1つのフレームデータFDに関して誤判定された場合であっても、誤判定の影響を抑制できる。 (1-2) If OK is determined for two or more of three frame data FDs that are chronologically adjacent at N intervals, it is assumed that there is no problem in the section of 2N+1 frame data. Thereby, even if an erroneous determination is made regarding one frame data FD, the influence of the erroneous determination can be suppressed.
<第2の実施形態>
以下、第2の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Second embodiment>
The second embodiment will be described below with reference to the drawings, focusing on the differences from the first embodiment.
図6に、本実施形態にかかる画像評価装置30によって実行される、上記基準に沿った評価に基づいてCM動画データがユーザ端末50によって選択的に表示されることを支援する処理の手順を示す。図6に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図6において、図3に示した処理に対応する処理については、便宜上、同一のステップ番号を付与してその説明を省略する。
FIG. 6 shows the procedure of a process executed by the
図6に示すように、PU32は、S18の処理において否定判定する場合(S18:NO)、CM動画データに制限指令を付与する(S20a)。そして、PU32は、S26の処理に移行する。
As shown in FIG. 6, when the
制限指令は、次の何れかの指令である。
・ユーザ端末50においてCM動画データが再生される場合、始めに警告をする指令である。これはユーザインターフェース58が備えるディスプレイに視覚情報を表示する処理としてもよい。またたとえば、ユーザインターフェース58が備えるスピーカから音声情報を出力する処理としてもよい。
The restriction command is one of the following commands.
- When commercial video data is played back on the
・ユーザ端末50においてCM動画データが再生される場合、所定部位が露出しているシーンが再生されるときに再生画像にマスクをする指令である。マスクをする指令は、たとえば、再生画像に対して所定画像を重畳することでマスクをする指令であってもよい。また、たとえば、マスクをする指令は、再生画像に対してぼかし等のエフェクトを適用することでマスクをする指令であってもよい。またたとえば、マスクをする指令は、露出している所定部位の領域を少なくとも含む再生画像の一部に対して所定画像を重畳することでマスクをする指令であってもよい。またたとえば、露出している所定部位の領域を少なくとも含む再生画像の一部に対してばかし等のエフェクトを適用することでマスクをする指令であってもよい。
- When commercial video data is played back on the
・ユーザ端末50に対してなされる、CM動画データを再生してはいけない旨の指令である。これは、たとえばアプリケーションプログラム54aが、同指令を検知する場合、CM動画データの再生をしない設定とすることで実現できる。
- This is a command issued to the
<第3の実施形態>
以下、第3の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Third embodiment>
The third embodiment will be described below with reference to the drawings, focusing on the differences from the first embodiment.
本実施形態では、識別モデル70aに代えて、識別モデル70bを用いる。
図7に、フレーム評価処理の詳細を示す。図7に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図7において、図4に示した処理に対応する処理については、便宜上、同一のステップ番号を付与する。
In this embodiment, the
FIG. 7 shows details of the frame evaluation process. The process shown in FIG. 7 is realized by the
図7に示す一連の処理において、PU72は、ヒートマップ60~66を生成すると(S32)、それらヒートマップ60~66を縮小する(S42)。すなわち、S32の処理において生成された「w×h」の領域数のヒートマップを「w1×h1」の領域数を有したヒートマップに縮小する。ここで、「w1<w,h1<h」である。この処理は、たとえば、「w×h」の領域数のヒートマップを「1/4」のヒートマップに縮小する場合、次のようにすればよい。すなわち、「w×h」の領域数のヒートマップの「4×4」の領域の平均値を、「w1×h1」の領域数を有したヒートマップの1つの領域の値とすればよい。
In the series of processes shown in FIG. 7, the PU 72 generates the
次に、PU32は、縮小されたヒートマップから、「w1×h1」の領域数の係数行列MKを算出する(S44)。係数行列MKは、「w1×h1」個の領域のそれぞれに関する係数Kの値を定義する。係数Kの値は、縮小されたヒートマップにおける領域の値が閾値以上の場合に「1」よりも大きい値となる。係数Kの値は、縮小されたヒートマップにおける領域の値が閾値未満の場合に「1」となる。ここで、閾値は、「0」よりも大きく「1」未満の値である。S44の処理において生成される係数行列MKは、ヒートマップ60~66に対応した4個である。たとえば、ヒートマップ60に対応した係数行列MKは、その成分の値が「1」よりも大きい場合、その領域に胸部が存在する確率が大きいことを意味する。また、たとえば、ヒートマップ60に対応した係数行列MKは、その成分の値が「1」の場合、その領域に胸部が存在する確率が小さいことを意味する。
Next, the
次に、PU72は、識別モデル70bに、フレームデータFDおよび係数行列MKを入力することによって、評価変数yok,yngの値を算出する(S34a)。
識別モデル70bは、フレームデータFDおよび係数行列MKを入力とし、評価変数yok,yngの値を出力する。ただし、識別モデル70bは、係数行列MKを最上流から入力するモデルではない。
Next, the PU 72 calculates the values of the evaluation variables yok and yng by inputting the frame data FD and the coefficient matrix MK to the
The
識別モデル70bは、特徴抽出器M20を備える。特徴抽出器M20は、フレームデータFDを入力として、フレームデータFDの特徴量を抽出する。特徴抽出器M20は、CNNを含む。この特徴量は、「h1×w1」の特徴マップ80である。特徴マップ80は、複数存在する。識別モデル70aは、積算処理M22を有する。積算処理M22は、4個の係数行列MKのそれぞれについて、特徴マップ80のいくつかとのアダマール積を算出する処理である。ここで、1つの特徴マップ80とアダマール積が算出される係数行列MKは、4個の係数行列MKのうちのいずれか1つであってよい。また、特徴抽出器M20が出力する特徴マップ80の中には、係数行列MKとのアダマール積の算出対象とされないものもある。
The
具体的には、たとえば、「n」を自然数として、特徴マップ80の数が「5n」個の場合、ヒートマップ60~66のそれぞれに対応する係数行列MKとの積算対象となる特徴マップ80を、「n」個ずつとしてもよい。その場合、いずれの係数行列MKとの積算対象ともならない特徴マップ80が「n」個存在する。
Specifically, for example, when the number of feature maps 80 is "5n" where "n" is a natural number, the
識別モデル70bは、識別ユニットM24を有する。識別ユニットM24には、積算処理M22が施された特徴マップが入力される。識別ユニットM24は、たとえば出力活性化関数がソフトマックス関数であるCNNであってもよい。
The
なお、識別モデル70bは、教師あり学習によって学習された学習済みモデルである。ここでの訓練データは、識別モデル70aによるものと同様である。本実施形態において、評価写像データ34cは、識別モデル70aの学習によって得られたパラメータを含む。ちなみに、特徴抽出器M20を規定するパラメータについては、胸部、正面下腹部、および尻部の少なくとも1つに露出があるか否かに応じた画像を示す画像データを用いた学習によって得られたものでなくてもよい。すなわち、既存の画像認識処理によって得られた特徴抽出器を転移学習によって利用してもよい。
Note that the
以上説明した本実施形態によれば、以下の作用および効果が得られる。
(3-1)複数個の特徴マップ80に、4個の係数行列MKのうちのいずれか1つと選択的に合成されるマップを含めた。これにより、合成後の特徴マップは、胸部、正面下腹部、尻部、および顔部のうちの対応する部分の値が増幅されるマップとなることから、対応する部分の特徴を抽出するマップとなりやすい。
According to this embodiment described above, the following actions and effects can be obtained.
(3-1) The plurality of feature maps 80 include a map that is selectively combined with any one of the four coefficient matrices MK. As a result, the combined feature map becomes a map in which the values of the corresponding parts of the chest, front lower abdomen, buttocks, and face are amplified, so it becomes a map that extracts the features of the corresponding parts. Cheap.
(3-2)複数個の特徴マップ80に、4個の係数行列MKのうちのいずれによっても補正されない特徴マップを含めた。これにより、胸部、正面下腹部、尻部、および顔部に特化しないものの胸部、正面下腹部、および尻部の少なくとも1つが露出しているか否かを判定するうえで有効な特徴を抽出するマップを生成させやすい。 (3-2) The plurality of feature maps 80 include a feature map that is not corrected by any of the four coefficient matrices MK. As a result, features that are not specific to the chest, front lower abdomen, buttocks, and face but are effective in determining whether at least one of the chest, front lower abdomen, and buttocks are exposed are extracted. Easy to generate maps.
<第4の実施形態>
以下、第4の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Fourth embodiment>
The fourth embodiment will be described below with reference to the drawings, focusing on the differences from the first embodiment.
本実施形態では、識別モデル70aに代えて、識別モデル70cを用いる。
図8に、フレーム評価処理の詳細を示す。図8に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図8において、図4に示した処理に対応する処理については、便宜上、同一のステップ番号を付与する。
In this embodiment, an
FIG. 8 shows details of the frame evaluation process. The process shown in FIG. 8 is realized by the
図8に示す一連の処理において、PU32は、まず識別モデル70cにフレームデータFDを入力することによって、評価変数yok,yngの値を算出する(S34b)。識別モデル70cは、フレームデータFDを入力することによって、評価変数yok,yngの値を出力するモデルである。識別モデル70cは、特徴抽出器M30を含む。特徴抽出器M30は、R,G,Bのそれぞれについて「w×h」からなる画像データを入力として、「w2×h2」の特徴マップ82を出力する。ここで、「w2<w,h2<h」である。特徴抽出器M30は、CNNを含む。特徴抽出器M30が一度に出力する特徴マップ82の数は、J個である。ただし、「J>2」である。
In the series of processes shown in FIG. 8, the
識別モデル70cは、全結合レイヤM32を含む。全結合レイヤM32は、J個の特徴マップ82の「w2×h2×J」個の数値を結合して2つの出力値を出力する。それら2つの出力値は、ソフトマックス関数M34に入力される。ソフトマックス関数M34は、評価変数yok,yngの値を出力する。
The
識別モデル70cは、例として、教師あり学習によって学習された学習済みモデルである。識別モデル70cの訓練データは、識別モデル70aの訓練データと同様である。なお、識別モデル70cは、教師なし学習によって学習された学習済みモデルであってもよく、半教師あり学習によって学習された学習済みモデルであってもよい。
The
そして、PU32は、評価変数yokが評価変数yngよりも大きいと判定する場合(S36:YES)、最終評価処理を実行する(S50)。
図9に、最終評価処理の詳細を示す。
Then, when determining that the evaluation variable yok is larger than the evaluation variable yng (S36: YES), the
FIG. 9 shows details of the final evaluation process.
図9に示す一連の処理において、PU32は、評価変数yokが大きいときに識別モデル70cが着目した領域を示すアクティベーションマップを生成する(S60)。ここで、上記J個の特徴マップを、f1(x,y),f2(x,y),…,fJ(x,y)と記載する。そして、全結合レイヤM32のパラメータのうち、評価変数yokに対応するものを、wok1,wok2,…,wokJとする。ただし、「1≦x≦w2,1≦y≦h2」である。
In the series of processes shown in FIG. 9, the
その場合、各座標(x,y)が、評価変数yokが大きいことに寄与した度合いは、
wok1・f1(x,y)+wok2・f2(x,y)+…+wokJ・fJ(x,y)
である。
In that case, the degree to which each coordinate (x, y) contributed to the large evaluation variable yok is:
wok1・f1(x,y)+wok2・f2(x,y)+…+wokJ・fJ(x,y)
It is.
PU32は、「w2×h2」の各座標(x,y)について、上記値を算出することによって、アクティベーションマップを生成する。
次にPU32は、アクティベーションマップを2値化した2値化マップMACTを生成する(S62)。ここで、PU32は、まず、アクティベーションマップが示す「w2×h2」個の値のそれぞれをロジスティックシグモイド関数に代入することによって、「w2×h2」個の値を「0」以上「1」以下の値とする。そして、PU32は、ロジスティックシグモイド関数の出力値が所定値よりも大きい場合に「1」として且つ、所定値以下の場合に「-1」とする。ここで、所定値は、「0」よりも大きく「1」よりも小さい値に設定される。なお、所定値は、「1/2」以上であってもよい。
The
Next, the
2値化マップMACTは、フレームデータFDが示す領域を縮小した「w2×h2」の領域において、OK判定に大きく寄与した領域に「1」が付与されたマップである。また、2値化マップMACTは、フレームデータFDが示す領域を縮小した「w2×h2」の領域において、OK判定にあまり寄与していない領域に「-1」が付与されたマップである。 The binarized map MACT is a map in which "1" is assigned to the region that greatly contributed to the OK determination in the "w2×h2" region obtained by reducing the region indicated by the frame data FD. Furthermore, the binarized map MACT is a map in which "-1" is assigned to an area that does not contribute much to the OK determination in the area of "w2×h2" which is a reduced area of the area indicated by the frame data FD.
次にPU32は、フレームデータFDを回帰モデルに入力する(S64)。回帰モデルは、顔部の2次元ガウス分布等の2次元分布を定義する出力がないことを除いて、S30の処理によって用いたものと同じである。次にPU32は、ヒートマップ60~64を生成する(S66)。次に、PU32は、3個のヒートマップ60~64のそれぞれを、「w2×h2」に縮小する(S68)。この処理は、S42の処理と同様である。次に、PU32は、縮小された3個のヒートマップから、1つの2値化マップMbodyを生成する(S70)。S70の処理において、PU32は、まず、3個のヒートマップのそれぞれの成分の値と閾値との大小を比較することによって3個の暫定マップを生成する。すなわち、PU32は、ヒートマップの成分の値が閾値よりも大きい場合には、暫定マップの対応する成分の値を「1」とする。また、PU32は、ヒートマップの成分の値が閾値以下の場合には、暫定マップの対応する成分の値を「-1」とする。そして、PU32は、3個の暫定マップの成分のそれぞれについて、3個の値の全てが「-1」の場合には、2値化マップMbodyの対応する値を「-1」とする。また、PU32は、3個の暫定マップの成分のそれぞれについて、3個の値の少なくとも1つが「1」の場合には、2値化マップMbodyの対応する値を「1」とする。
Next, the
2値化マップMbodyは、フレームデータFDが示す領域を縮小した「w2×h2」の領域において、胸部、正面下腹部、および尻部のいずれかの存在確率が大きい領域に「1」が付されたマップである。また、2値化マップMbodyは、フレームデータFDが示す領域を縮小した「w2×h2」の領域において、胸部、正面下腹部、および尻部の全ての存在確率が小さい領域に「-1」が付されたマップである。 In the binarized map Mbody, in the "w2 x h2" area which is the reduced area indicated by the frame data FD, "1" is assigned to the area where the existence probability of any of the chest, front lower abdomen, and buttocks is large. This is a map. Furthermore, in the binarized map Mbody, in the “w2×h2” area which is a reduced area of the area indicated by the frame data FD, “-1” is placed in the area where the existence probability of all of the chest, front lower abdomen, and buttocks is small. This is the attached map.
そしてPU32は、2値化マップMACTと2値化マップMbodyとのアダマール積を算出することによって、注視マップMATTを生成する(S72)。注視マップMATTは、評価変数yokが大きいことに寄与した領域であって且つ胸部、正面下腹部、および尻部の存在確率が大きい領域を「1」とするマップである。また、注視マップMATTは、評価変数yokが大きいことにあまり寄与していない領域であって且つ胸部、正面下腹部、および尻部の存在確率が小さい領域を「1」とするマップである。また、注視マップMATTは、評価変数yokが大きいことに寄与した領域であって且つ胸部、正面下腹部、および尻部の存在確率が小さい領域を「-1」とするマップである。また、注視マップMATTは、評価変数yokが大きいことにあまり寄与していない領域であって且つ胸部、正面下腹部、および尻部の存在確率が大きい領域を「-1」とするマップである。
Then, the
次にPU32は、注視マップMATTの各成分の平均値を示す指標値(図中、GAP(MATT)と記載)が判定値gth以上であるか否かを判定する(S74)。ここで、指標値を単純平均値とする場合には、指標値は、「-1」以上であって且つ「1」以下の値である。指標値が大きいほど、胸部、正面下腹部、および尻部の存在確率が大きい領域に着目してOK判定がなされたことを意味する。なお、指標値を単純平均値とすることは必須ではない。たとえば、周囲が「-1」となる領域に囲まれた1つの領域のみ「1」となる領域については、その値を「-1」に書き替えた平均値とするなどのフィルタ処理を施してもよい。
Next, the
PU32は、指標値が閾値gth以上であると判定する場合(S74:YES)、OK判定をする(S38)。
一方、PU32は、指標値が閾値gth未満であると判定する場合(S74:NO)、NG判定をする(S76)。そして、PU72は、その時のフレームデータFDを記憶装置34に保存する(S78)。そしてPU32は、図1に示すユーザインターフェース40を操作することによって、評価変数yokの値が大きいことの妥当性が低い旨を、人に通知する(S80)。ここでは、たとえば、ユーザインターフェース40に表示装置を備えることによって、妥当性が低い旨の視覚情報を表示してもよい。
If the
On the other hand, when determining that the index value is less than the threshold value gth (S74: NO), the
なお、PU32は、S38,S80の処理がなされる場合、図8に示すS50の処理を一旦完了する。
このように、本実施形態では、PU32は、フレームデータFDのみから評価変数yok,yngの値を算出する。ただし、PU32は、評価変数yokの値が大きい場合、直ちにはOK判定とせずに、画像のどこに着目して評価変数yokを大きい値に算出したかを分析する。そしてPU32は、画像のうちの胸部、正面下腹部、および尻部に着目して評価変数yokを大きい値に算出した場合に、OK判定をする。これにより、誤ってOK
判定がなされることを抑制できる。
Note that when the processes of S38 and S80 are performed, the
In this manner, in this embodiment, the
It is possible to prevent judgments from being made.
以上説明した本実施形態によれば、さらに以下の作用および効果が得られる。
(4-1)PU32は、評価変数yokの値が大きいことの妥当性が低いと判定する場合、その時のフレームデータFDを保存して且つ、人に通知した。これにより、人が最終的な判断をすることができる。そのため、胸部、正面下腹部、および尻部のいずれも露出していない場合には、NG判定を取り消して、CM動画データを配信できる。また、胸部、正面下腹部、および尻部のいずれも露出していない場合には、保存したフレームデータFDを用いて識別モデル70cを再学習させることができる。
According to this embodiment described above, the following effects and effects can be obtained.
(4-1) If the
<第5の実施形態>
以下、第5の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
<Fifth embodiment>
The fifth embodiment will be described below with reference to the drawings, focusing on the differences from the first embodiment.
本実施形態では、識別モデル70aに代えて、識別モデル70dを用いる。識別モデル70dは、次の3つの状態を識別する。
状態1:胸部、正面下腹部、および尻部のいずれも露出していない状態である。
In this embodiment, an
Condition 1: None of the chest, front lower abdomen, and buttocks are exposed.
状態2:胸部のうちの図2に示す部分「3」の一部、正面下腹部のうちの図2に示す部分「10」の一部、および尻部のうちの図2に示す部分「14」の一部の少なくとも1つに限って露出している状態である。状態2は、たとえば胸部、正面下腹部、および尻部に衣類をまとっているが、その衣類がある程度露出度が大きい衣類である状態である。また、状態2は、たとえば胸部、正面下腹部、および尻部に衣類をまとっているが、その衣類がある程度透けている衣類である状態である。
State 2: A part of the chest part "3" shown in FIG. 2, a part of the front lower abdomen part "10" shown in FIG. 2, and a part of the buttocks part "14" shown in FIG. ” is exposed.
状態3:胸部、正面下腹部、および尻部の少なくとも1つについて、状態2以上に顕著に露出している状態である。
図10に、フレーム評価処理の詳細を示す。図10に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図10において、図4に示した処理に対応する処理については、便宜上、同一のステップ番号を付与する。
State 3: A state in which at least one of the chest, front lower abdomen, and buttocks is significantly exposed compared to
FIG. 10 shows details of the frame evaluation process. The process shown in FIG. 10 is realized by the
図10に示す一連の処理において、PU32は、まずフレームデータFDをセマンティックセグメンテーションモデルに入力する(S30a)。セマンティックセグメンテーションモデルは、フレームデータFDが示す「w×h」個の画素毎に、ラベル変数の値を出力するモデルである。ここで、ラベル変数は、少なくとも図2の「3~5,10~14,18」の各部分同士と、それ以外とを識別する値である。したがって、ラベル変数は、10個以上の異なる値を取り得る。
In the series of processes shown in FIG. 10, the
セマンティックセグメンテーションモデルは、識別モデルである。セマンティックセグメンテーションモデルは、教師あり学習によって学習された学習済みモデルである。セマンティックセグメンテーションモデルは、様々な画像データについて、予め上記各部分の画素にラベル変数の値を付与したデータを訓練データとして学習がなされたデータである。本実施形態にかかる位置情報写像データ34bには、セマンティックセグメンテーションモデルを規定するパラメータが含まれている。すなわち、たとえば、セマンティックセグメンテーションモデルがCNNを含む場合、位置情報写像データ34bには、フィルタの各値、および全結合レイヤの重みパラメータ等が含まれる。 A semantic segmentation model is a discriminative model. The semantic segmentation model is a trained model learned by supervised learning. The semantic segmentation model is data that has been trained on various image data using data in which label variable values are previously assigned to pixels of each portion as training data. The location information mapping data 34b according to this embodiment includes parameters that define a semantic segmentation model. That is, for example, when the semantic segmentation model includes CNN, the position information mapping data 34b includes each value of the filter, the weight parameter of the fully connected layer, and the like.
次に、PU32は、セマンティックセグメンテーションモデルが出力する各画素のラベル変数の値を用いて、身体情報マップを生成する(S32a)。身体情報マップは、次の6個からなる。
Next, the
(bm1)胸部のうちの図2に示す部分「3」が位置する部分とそれ以外とを識別するマップである。これは、たとえば、胸部のうちの図2に示す部分「3」が位置する部分を「1」として且つ、それ以外の部分を「0」とすることによって実現できる。 (bm1) This is a map that identifies the part of the chest where part "3" shown in FIG. 2 is located and the other part. This can be realized, for example, by setting the part of the chest where part "3" shown in FIG. 2 is located as "1" and setting the other parts as "0".
(bm2)正面下腹部のうちの図2に示す部分「10」が位置する部分とそれ以外とを識別するマップである。
(bm3)尻部のうちの図2に示す部分「14」が位置する部分とそれ以外とを識別するマップである。
(bm2) This is a map that identifies the portion of the front lower abdomen where the portion “10” shown in FIG. 2 is located and the other portions.
(bm3) This is a map that identifies the portion of the buttocks where the portion “14” shown in FIG. 2 is located and the other portions.
(bm4)胸部のうちの図2に示す部分「3」以外の部分とそれ以外とを識別するマップである。
(bm5)正面下腹部のうちの図2に示す部分「10」以外の部分が位置する部分とそれ以外とを識別するマップである。
(bm4) This is a map that identifies parts of the chest other than part "3" shown in FIG. 2 and other parts.
(bm5) This is a map that identifies a portion of the front lower abdomen where a portion other than the portion “10” shown in FIG. 2 is located and the other portions.
(bm6)尻部のうちの図2に示す部分「14」以外の部分が位置する部分とそれ以外とを識別するマップである。
上記(bm1)~(bm3)は、上記状態2において特に着目すべき部分の位置を示すマップデータである。一方、上記(bm4)~(bm6)は、上記状態3において特に着目すべき部分の位置を示すマップデータである。
(bm6) This is a map that identifies a portion of the buttocks where a portion other than the portion “14” shown in FIG. 2 is located and other portions.
The above (bm1) to (bm3) are map data indicating the positions of parts of particular interest in the
S30a,S32aの処理によって、フレームデータから6個の身体情報マップを出力する位置情報写像は、上記セマンティックセグメンテーションモデルに応じて規定される写像である。 The positional information mapping that outputs the six physical information maps from the frame data through the processing in S30a and S32a is a mapping defined according to the above-mentioned semantic segmentation model.
次にPU32は、上記6個の身体情報マップ84と、フレームデータFDとを、識別モデル70dに入力することによって、評価変数yok1,yok2,yngの値を算出する(S34c)。識別モデル70dは、CNNを含む。識別モデル70dに入力された6個の身体情報マップ84と、フレームデータFDとは、「a2×b2×9」の次元を有する複数個のフィルタflによって畳み込み処理がなされる。ここで、「a2」は、「w」より小さい自然数である。また、「b2」は、「h」よりも小さい自然数である。畳み込みレイヤの数は任意である。また、CNNは、プーリングレイヤを含んでもよい。また、CNNは、残差ブロックを含んでもよい。そして、CNNが出力する特徴マップは、全結合レイヤM40において結合される。全結合レイヤM40の出力は3個である。そして、それらは出力活性化関数であるソフトマックス関数M42に入力される。ソフトマックス関数M42は、3個の評価変数yok1,yok2,yngの値を出力する。
Next, the
識別モデル70dは、例として、教師あり学習によって学習された学習済みモデルである。識別モデル70dの学習における訓練データは、上記状態1,状態2,状態3のそれぞれの画像データである。状態1の画像データに対しては、評価変数yok1の目標変数の値を「1」とし、それ以外の目標変数の値を「0」とする。また、状態2の画像データに対しては、評価変数yok2の目標変数の値を「1」とし、それ以外の目標変数の値を「0」とする。また、状態3の画像データに対しては、評価変数yngの目標変数の値を「1」とし、それ以外の目標変数の値を「0」とする。
The
識別モデル70dの学習によって求められた各パラメータは、評価写像データ34cに含まれる。
PU32は、評価変数yok1,yok2,yngの値のうちの最大値ymaxが評価変数yok1の値であるか否かを判定する(S36a)。PU32は、最大値ymaxが評価変数yok1の値であると判定する場合(S36a:YES)、状態1であると判定する(S38a)。以下、これをOK1判定と称する。一方、PU32は、最大値ymaxが評価変数yok1の値ではないと判定する場合(S36a:NO)、最大値ymaxが評価変数yok2の値であるか否かを判定する(S36b)。PU32は、最大値ymaxが評価変数yok2の値であると判定する場合(S36b:YES)、状態2であると判定する(S38b)。以下、これをOK2判定と称する。一方、PU32は、最大値ymaxが評価変数yok2の値ではないと判定する場合(S36b:NO)、NG判定をする(S40)。
Each parameter obtained by learning the
The
図11に、ユーザ端末50において、ユーザが望む基準を満たす画像を表示することを支援する処理の手順を示す。図11に示す処理は、2つの処理よりなる。1つは、ユーザ端末50の記憶装置54に記憶されたアプリケーションプログラム54aをPU52が所定周期でくり返し実行することにより実現される処理である。もう1つは、画像評価装置30の記憶装置34に記憶された画像評価プログラム34aをPU32が所定周期でくり返し実行することにより実現される処理である。
FIG. 11 shows a process procedure for supporting display of an image that satisfies the user's desired criteria on the
図11に示すように、ユーザ端末50のPU52は、ユーザから再生を許容するCM動画の基準についての要求を受け付ける(S90)。ここで、PU52は、ユーザインターフェース58が備える表示装置に、状態1のみを許容するか、状態1および状態2を許容するかを選択可能である旨を表示する。S90の処理は、ユーザによるユーザインターフェース58への要求入力を受け付ける処理である。S90の処理を完了する場合、PU52は、通信機56を操作することによって、ユーザの識別記号であるユーザIDと、要求された基準と、を送信する(S92)。
As shown in FIG. 11, the
これに対し、画像評価装置30のPU32は、ユーザIDと要求された基準とを受信する(S100)。そしてPU32は、ユーザIDと要求された基準とを記憶装置34に記憶する(S102)。そして、PU32は、CM動画データを評価する(S104)。S104の処理は、S10~S18,S22~S26に準じた処理である。ただし、ここでは、S16の処理に代えて図10の処理を実行する。また、S22~S26の処理を、NG判定がないCM動画データ中に1つでもOK2判定がある場合、OK2判定とする処理に代える。
In response, the
そしてPU32は、通信機36を操作することによって、評価結果に応じて、ユーザ端末50(1),50(2),…のそれぞれに、要求された基準を満たす画像が表示可能なようにCM動画データを送信する(S106)。すなわち、PU32は、OK1判定のCM動画データについては、全てのユーザ端末50に無条件でCM動画データを送信する。一方、PU32は、OK2判定のCM動画データについては、状態2を許容するユーザのユーザ端末50に無条件でCM動画データを送信する。これに対し、状態2を許容しないユーザのユーザ端末50には、OK2判定のCM動画データの送信を禁止してもよい。またこれに代えて、PU32は、S20aの処理と同様の処理を実行してもよい。一方、PU32は、NG判定のCM動画データについては、全てのユーザのユーザ端末にその動画データを送信することを禁止してもよい。またこれに代えて、PU32は、S20aの処理を実行してもよい。なお、PU32は、S106の処理を完了する場合、図11に示す一連の処理のうちのPU32が実行する処理を一旦終了する。
Then, by operating the
一方、ユーザ端末50のPU52は、画像評価装置30から送信されたCM動画データを受信する(S94)。ここで、PU52は、基準を満たすCM動画データについては無条件で再生する。また、基準を満たさないCM動画データを受信する場合、同CM動画データに付与された制限指令に応じて、警告を発するか、マスクをするか、再生を禁止するかする。
On the other hand, the
なお、PU52は、S94の処理を完了する場合、図11に示す一連の処理のうちのPU52が実行する処理を一旦終了する。
<対応関係>
上記実施形態における事項と、上記「課題を解決するための手段」の欄に記載した事項との対応関係は、次の通りである。以下では、「課題を解決するための手段」の欄に記載した解決手段の番号毎に、対応関係を示している。
Note that when the
<Correspondence>
The correspondence relationship between the matters in the above embodiment and the matters described in the column of "Means for solving the problem" above is as follows. Below, the correspondence relationship is shown for each solution number listed in the "Means for solving the problem" column.
[1,2,11]実行装置は、PU32に対応する。記憶装置は、記憶装置34に対応する。位置情報写像データは、位置情報写像データ34bに対応する。評価写像データは、評価写像データ34cに対応する。
[1, 2, 11] The execution device corresponds to the PU32. The storage device corresponds to the
位置情報写像は、図4においては、S30,S32の処理によって実現される写像に対応する。換言すれば、フレームデータFDが入力されることによって、ヒートマップを出力する写像に対応する。位置情報写像は、図7においては、S30,S32,S42,S44の処理によって実現される写像に対応する。換言すれば、フレームデータFDが入力されることによって、係数行列MKを出力する写像に対応する。位置情報写像は、図9においては、S64~S70の処理によって実現される写像に対応する。換言すれば、フレームデータFDが入力されることによって、2値化マップMbodyを出力する写像に対応する。位置情報写像は、図10においては、S30a,S32aの処理によって実現される写像に対応する。換言すれば、フレームデータFDが入力されることによって、身体情報マップ84を出力する写像に対応する。
In FIG. 4, the position information mapping corresponds to the mapping realized by the processing in S30 and S32. In other words, inputting the frame data FD corresponds to mapping that outputs a heat map. In FIG. 7, the position information mapping corresponds to the mapping realized by the processes of S30, S32, S42, and S44. In other words, it corresponds to a mapping that outputs the coefficient matrix MK by inputting the frame data FD. In FIG. 9, the position information mapping corresponds to the mapping realized by the processing of S64 to S70. In other words, it corresponds to mapping that outputs the binarized map Mbody by inputting the frame data FD. In FIG. 10, the position information mapping corresponds to the mapping realized by the processing in S30a and S32a. In other words, inputting the frame data FD corresponds to mapping that outputs the
位置情報算出処理は、図4におけるS30,S32の処理、図7のS30,S32,S42,S44の処理、図9におけるS64~S70の処理、および図10におけるS30a,S32aの処理に対応する。 The position information calculation process corresponds to the processes in S30 and S32 in FIG. 4, the processes in S30, S32, S42, and S44 in FIG. 7, the processes in S64 to S70 in FIG. 9, and the processes in S30a and S32a in FIG.
評価写像は、図4においては、S34~S40の処理によって実現される写像に対応する。換言すれば、フレームデータFDおよびヒートマップ60~66を入力としてOK判定またはNG判定を出力する写像に対応する。図7においては、S34a,S36~S40の処理によって実現される写像に対応する。換言すれば、フレームデータFDおよび係数行列MKを入力としてOK判定またはNG判定を出力する写像に対応する。図8においては、S34b,S36,S40,S60,S62,S72~S76,S38の処理によって実現される写像に対応する。換言すれば、フレームデータFDおよび2値化マップMbodyを入力としてOK判定またはNG判定を出力する写像に対応する。図10においては、S34c,S36a,S36b,S38a,S38b,S40の処理によって実現される写像に対応する。換言すれば、フレームデータFDおよび身体情報マップ84を入力としてOK1判定、OK2判定またはNG判定を出力する写像に対応する。
In FIG. 4, the evaluation mapping corresponds to the mapping realized by the processing of S34 to S40. In other words, it corresponds to a mapping that receives frame data FD and
評価処理は、図3および図4の処理においては、S34~S40の処理に対応する。図7においては、S34a,S36~S40の処理に対応する。図8においては、S34b,S36,S40,S72~S76,S38の処理に対応する。図10においては、S34c,S36a,S36b,S38a,S38b,S40の処理に対応する。 The evaluation process corresponds to the processes of S34 to S40 in the processes of FIGS. 3 and 4. In FIG. 7, this corresponds to the processes of S34a and S36 to S40. In FIG. 8, this corresponds to the processes of S34b, S36, S40, S72 to S76, and S38. In FIG. 10, this corresponds to the processes of S34c, S36a, S36b, S38a, S38b, and S40.
画像データは、フレームデータFDに対応する。位置用入力データは、フレームデータFDに対応する。評価用入力データは、フレームデータFDに対応する。
[3]位置情報データは、ヒートマップ60~66と、身体情報マップ84とに対応する。評価写像は、S34~S40の処理によって実現される写像と、S34c,S36a,S36b,S38a,S38b,S40の処理によって実現される写像と、に対応する。[4]仮評価写像は、S34b,S36の処理によって実現される写像に対応する。換言すれば、1つのフレームデータFDを入力として且つ、評価変数yok,yngの値の大小比較判定結果を出力する写像に対応する。仮評価処理は、S34b,S36の処理に対応する。妥当性評価処理は、S60,S62,S72~S74の処理に対応する。[5]通知処理は、S80の処理に対応する。[6]特徴量レイヤは、特徴抽出器M20の出力レイヤに対応する。
The image data corresponds to frame data FD. The position input data corresponds to frame data FD. The evaluation input data corresponds to frame data FD.
[3] The location information data corresponds to the
[7]ユーザ端末は、ユーザ端末50(1),50(2),…に対応する。提供処理は、図3のS26の処理と、図6においてS24の処理で否定判定された場合のS26の処理と、図11のS104において要求基準を満たすと判定されたときのS106の処理とに対応する。制限処理は、図3のS20の処理、図6のS20aの処理、および図11のS104において要求基準を満たさないと判定されたときのS106の処理に対応する。[8,10]指示処理は、S90,S92の処理に対応する。[9]禁止処理は、S20の処理、および図11のS104において要求基準を満たさないと判定されたときのS106の処理に対応する。制限処理は、S20aの処理、および図11のS104において要求基準を満たさないと判定されたときのS106の処理に対応する。[12]画像評価プログラムは、画像評価プログラム34aに対応する。
[7] User terminals correspond to user terminals 50(1), 50(2), . . . The provision process includes the process of S26 in FIG. 3, the process of S26 when a negative determination is made in the process of S24 in FIG. 6, and the process of S106 when it is determined that the request criteria are met in S104 of FIG. handle. The restriction process corresponds to the process of S20 in FIG. 3, the process of S20a in FIG. 6, and the process of S106 when it is determined in S104 of FIG. 11 that the required criteria are not satisfied. [8, 10] The instruction process corresponds to the processes of S90 and S92. [9] The prohibition process corresponds to the process in S20 and the process in S106 when it is determined in S104 of FIG. 11 that the required criteria are not satisfied. The restriction process corresponds to the process in S20a and the process in S106 when it is determined in S104 of FIG. 11 that the required criteria are not satisfied. [12] The image evaluation program corresponds to the
[13~15]提供工程は、図3のS26の処理を実行する工程と、図6においてS24の処理で否定判定された場合のS26の処理を実行する工程と、に対応する。また、提供工程は、図11のS104において要求基準を満たすと判定されたときのS106の処理を実行する工程に対応する。制限工程は、図3のS20の処理を実行する工程、図6のS20aの処理を実行する工程、および図11のS104において要求基準を満たさないと判定されたときのS106の処理を実行する工程に対応する。取得工程は、S10の処理に対応する。 [13-15] The providing step corresponds to the step of executing the process of S26 in FIG. 3, and the step of executing the process of S26 when a negative determination is made in the process of S24 in FIG. Further, the providing step corresponds to the step of executing the process of S106 when it is determined in S104 of FIG. 11 that the request criteria are met. The restriction steps are a step of executing the process of S20 in FIG. 3, a step of executing the process of S20a of FIG. 6, and a step of executing the process of S106 when it is determined in S104 of FIG. 11 that the required standard is not satisfied. corresponds to The acquisition step corresponds to the process in S10.
<その他の実施形態>
なお、本実施形態は、以下のように変更して実施することができる。本実施形態および以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
<Other embodiments>
Note that this embodiment can be implemented with the following modifications. This embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.
「所定部位について」
再生して問題がある画像であるという評価の根拠である、1以上の身体の部分(所定の部位)は、胸部、正面下腹部、および尻部に限らず、例えば図2における身体の部分の少なくとも1つを含む態様で適宜、定義されてよい。また、一の実施形態において、上記根拠は、例えば図2における1の身体の部分の一部の態様で適宜、定義されてよい。具体的には、顔部を構成する唇,眼,髪等の身体の部分の一部が上記根拠となってもよい。
"About designated parts"
The one or more body parts (predetermined parts) that are the basis for evaluating that the image is problematic when reproduced are not limited to the chest, front lower abdomen, and buttocks, but include, for example, the body parts in Figure 2. It may be appropriately defined in a manner including at least one. Further, in one embodiment, the above-mentioned basis may be appropriately defined, for example, in some aspects of one body part in FIG. 2 . Specifically, part of the body parts such as lips, eyes, and hair that constitute the face may serve as the basis.
「位置情報写像について」
・図4の処理において用いる位置情報写像としては、フレームデータFDを入力として、顔部、胸部、下腹部、および尻部のヒートマップを出力する写像に限らない。たとえば、フレームデータFDを入力として、胸部、下腹部、および尻部のヒートマップを出力する写像であってもよい。
"About location information mapping"
- The positional information mapping used in the process of FIG. 4 is not limited to mapping that inputs the frame data FD and outputs heat maps of the face, chest, lower abdomen, and buttocks. For example, it may be a mapping that receives frame data FD as input and outputs heat maps of the chest, lower abdomen, and buttocks.
・図4の処理において、ヒートマップを出力する写像を用いることは必須ではない。たとえばセマンティックセグメンテーションモデルを用いて、胸部、下腹部、および尻部のそれぞれに対応する画素を特定するマップを出力する写像を用いてもよい。 - In the process of FIG. 4, it is not essential to use a mapping that outputs a heat map. For example, a semantic segmentation model may be used to output a map that specifies pixels corresponding to each of the chest, lower abdomen, and buttocks.
・図7の処理において用いる位置情報写像としては、フレームデータFDを入力として、胸部、下腹部、尻部、および顔部のヒートマップに応じた係数行列MKを出力する写像に限らない。たとえば、フレームデータFDを入力として、胸部、下腹部、および尻部のヒートマップに応じた係数行列MKを出力する写像であってもよい。 The position information mapping used in the processing of FIG. 7 is not limited to a mapping that takes frame data FD as input and outputs a coefficient matrix MK corresponding to the heat maps of the chest, lower abdomen, buttocks, and face. For example, it may be a mapping that takes frame data FD as input and outputs a coefficient matrix MK corresponding to the heat maps of the chest, lower abdomen, and buttocks.
・図7の処理において、ヒートマップを出力する写像を用いることは必須ではない。たとえばセマンティックセグメンテーションモデルによって特定された、胸部、下腹部、尻部、および顔部のそれぞれに対応する画素に応じた係数行列を出力する写像を用いてもよい。その場合、特徴抽出器M20の出力レイヤに応じて縮小された画素領域において、胸部、下腹部、尻部、および顔部のそれぞれを示す領域の係数Kを「1」よりも大きくすればよい。 - In the process of FIG. 7, it is not essential to use a mapping that outputs a heat map. For example, a mapping may be used that outputs coefficient matrices corresponding to pixels corresponding to each of the chest, lower abdomen, buttocks, and face identified by a semantic segmentation model. In that case, in the pixel area reduced according to the output layer of the feature extractor M20, the coefficient K of the area indicating each of the chest, lower abdomen, buttocks, and face may be set larger than "1".
・図9の処理において、ヒートマップに応じた2値化マップMbodyを出力する写像を用いることは必須ではない。たとえばセマンティックセグメンテーションモデルによって特定された胸部、下腹部、および尻部のそれぞれに対応する領域に応じた2値化マップMbodyを出力する写像を用いてもよい。 - In the process of FIG. 9, it is not essential to use a mapping that outputs the binarized map Mbody according to the heat map. For example, a mapping may be used that outputs a binarized map Mbody corresponding to each region of the chest, lower abdomen, and buttocks identified by the semantic segmentation model.
・図10の処理においては、図2に示す部分「3」、部分「4,5」、部分「10」,部分「11,18」、部分「14」,部分「12,13,18」を特定する識別する身体情報マップを出力する写像を用いたが、これに限らない。たとえば、部分「3」,部分「3,4,5」、部分「10」,部分「10,11,18」、部分「14」,部分「12,13,14,18」を特定する身体情報マップを出力する写像を用いてもよい。 ・In the process of FIG. 10, the part "3", the part "4, 5", the part "10", the part "11, 18", the part "14", and the part "12, 13, 18" shown in FIG. Although a mapping that outputs a physical information map for specifying and identifying is used, the present invention is not limited to this. For example, physical information that specifies part "3", part "3, 4, 5", part "10", part "10, 11, 18", part "14", part "12, 13, 14, 18" A mapping that outputs a map may also be used.
・ヒートマップを出力する写像としては、胸部、下腹部、および尻部のそれぞれの存在確率を出力する写像に限らない。たとえば、部分「3」、部分「4,5」、部分「10」、部分「11,18」、部分「14」、部分「12,13,18」のそれぞれである確率を出力する写像であってもよい。 - The mapping that outputs the heat map is not limited to the mapping that outputs the existence probability of each of the chest, lower abdomen, and buttocks. For example, a mapping that outputs the probabilities of each of the parts "3", "4, 5", "10", "11, 18", "14", and "12, 13, 18". It's okay.
・ヒートマップを出力する写像としては、胸部、下腹部、および尻部のそれぞれ毎に、各別のマップを出力する写像に限らない。たとえば、各画素について、胸部、下腹部、および尻部のそれぞれの存在確率の最大値を出力する写像であってもよい。 - The mapping for outputting heat maps is not limited to mapping for outputting separate maps for each of the chest, lower abdomen, and buttocks. For example, it may be a mapping that outputs the maximum existence probability of each of the chest, lower abdomen, and buttocks for each pixel.
・ヒートマップを出力する写像が、胸部、下腹部、および尻部のそれぞれの存在確率を出力する写像であることは必須ではない。たとえば正面の画像であることが保証されている場合には、胸部および正面下腹部のそれぞれの存在確率に限って出力する写像であってもよい。すなわち、露出を問題とする所定部位をどこにするかに応じて、それら問題とする所定部位のそれぞれの存在確率に関するヒートマップを出力してもよい。 - It is not essential that the mapping that outputs the heat map be the mapping that outputs the existence probability of each of the chest, lower abdomen, and buttocks. For example, if it is guaranteed that the image is a frontal image, the mapping may be such that only the existence probabilities of the chest and frontal lower abdomen are output. That is, depending on the location of the predetermined region whose exposure is a problem, a heat map regarding the existence probability of each of the predetermined regions whose exposure is a problem may be output.
・ヒートマップが示す確率分布は、等方性を有した分布に限らない。異方性を有した分布は、たとえば、図4のS30の処理において用いた回帰モデルに代えて、ガウス分布のそれぞれの分散パラメータを2個または3個出力する回帰モデルを用いることによって実現できる。 - The probability distribution shown by the heat map is not limited to an isotropic distribution. The anisotropic distribution can be realized, for example, by using a regression model that outputs two or three dispersion parameters of a Gaussian distribution, instead of the regression model used in the process of S30 in FIG.
・セマンティックセグメンテーションモデルとしては、上述した3つ以上の部分を識別するモデルに限らない。たとえば正面の画像であることが保証されている場合には、胸部および正面下腹部のそれぞれとそれら以外とに限って識別するラベル変数を出力するモデルであってもよい。 - The semantic segmentation model is not limited to the model that identifies three or more parts as described above. For example, if it is guaranteed that the image is a frontal image, a model may be used that outputs label variables that identify only the chest and frontal lower abdomen, respectively, and the others.
・セマンティックセグメンテーションモデルを用いて構成される写像としては、特定する部位毎に互いに異なるマップを出力する写像に限らない。たとえば、胸部、正面下腹部、尻部、およびそれ以外等で互いに異なるラベル変数の値を有した1枚のマップを出力する写像であってもよい。 - Mappings constructed using the semantic segmentation model are not limited to mappings that output different maps for each specified region. For example, it may be a mapping that outputs one map having different label variable values for the chest, front lower abdomen, buttocks, and other regions.
・位置情報写像が、画像領域が細分化された単位領域に対して値が定められたマップを出力する写像であることは必須ではない。たとえば、胸部の代表点、下腹部の代表点、および尻部の代表点のそれぞれの座標を出力する写像であってもよい。 - It is not essential that the position information mapping is a mapping that outputs a map in which values are determined for unit areas in which the image area is subdivided. For example, it may be a mapping that outputs the respective coordinates of a representative point of the chest, a representative point of the lower abdomen, and a representative point of the buttocks.
・位置情報写像の入力となる画像データとしては、上記フレームデータFDに限らない。たとえば、R,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。 - The image data that is input to the position information mapping is not limited to the above frame data FD. For example, monochrome image data may be used instead of R, G, and B image data.
「位置用入力データについて」
・位置情報写像への入力となる位置用入力データとしては、評価対象となる画像データ自体に限らない。たとえば、評価対象とする画像データが示す各画素のうち人に関する部分を抽出して、予め定められた背景画像に埋め込んだ画像データを、位置用入力データとしてもよい。ここで、人に関する部分の抽出処理は、セマンティックセグメンテーションモデルを利用してPU32により実施する。なお、評価対象となる画像データを、位置用入力データとするための前処理としては、これに限らない。たとえば、輝度を調整する処理等であってもよい。
"About input data for position"
- Positional input data to be input to positional information mapping is not limited to the image data itself to be evaluated. For example, the position input data may be image data in which a portion related to a person is extracted from each pixel indicated by the image data to be evaluated and embedded in a predetermined background image. Here, the extraction process of the parts related to people is performed by the
「評価写像について」
(a)評価用入力データの各画素と各画素に対応する位置情報データとが対応付けて入力される写像
・図4のS34においては、フレームデータFDと、4つのヒートマップ60~66とが入力される写像を例示した。また、図10においては、フレームデータFDと、6個の身体情報マップ84とが入力される写像を例示した。しかし、入力対象となる、各画素について身体の所定部位であるか否かの情報が付与されたマップデータは、それらに限らず、同情報が付与されたマップデータは、「位置情報写像について」の欄に記載した任意のマップデータ等であってもよい。
"About evaluation mapping"
(a) A mapping in which each pixel of the input data for evaluation and the position information data corresponding to each pixel are input in association with each other. In S34 of FIG. 4, the frame data FD and the four
・図4のS34においては、フレームデータFDを入力したが、これに限らない。たとえばR,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。
・図4においては、CNNを用いた識別モデル70aを例示したが、これに限らない。たとえば、アテンション機構を利用するモデルであってもよい。詳しくは、たとえばTransfomerベース(トランスフォーマエンコーダを備えた)モデル等のマルチヘッドアテンション機構を利用するモデル等であってもよい。その場合、フレームデータFDおよびヒートマップ60~66を分割したパッチを適宜線形変換したベクトルを、トランスフォーマエンコーダに入力する。ここで、各パッチは、フレームデータFDの一部の画素領域と、ヒートマップ60~66の対応する領域とに関するデータとする。これによっても、評価用入力データの各画素と各画素に対応する位置情報データとを対応付けて入力することができる。
- Although the frame data FD is input in S34 of FIG. 4, the present invention is not limited to this. For example, monochrome image data may be used instead of R, G, and B image data.
- Although the identification model 70a using CNN is illustrated in FIG. 4, the invention is not limited to this. For example, a model using an attention mechanism may be used. Specifically, it may be a model that uses a multi-head attention mechanism, such as a Transformer-based (equipped with a Transformer encoder) model. In that case, vectors obtained by suitably linearly transforming the frames data FD and patches obtained by dividing the
・識別モデル70aの出力活性化関数が、ソフトマックス関数であることは必須ではない。たとえば、ロジスティックシグモイド関数としてもよい。
(b)仮評価写像について
・図8のS34bにおいては、フレームデータFDを入力とする写像を例示したが、これに限らない。たとえばR,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。
- It is not essential that the output activation function of the discrimination model 70a is a softmax function. For example, it may be a logistic sigmoid function.
(b) Regarding provisional evaluation mapping - In S34b of FIG. 8, mapping using frame data FD as input is illustrated, but the mapping is not limited to this. For example, monochrome image data may be used instead of R, G, and B image data.
・図8においては、CNNを用いた識別モデル70cを例示したが、これに限らない。たとえばアテンション機構を利用するモデルであってもよい。詳しくは、たとえばTransfomerベース(トランスフォーマエンコーダを備えた)モデル等のマルチヘッドアテンション機構を利用するモデル等であってもよい。換言すれば、評価結果に寄与した部分を特定するデータは、CNNの特徴マップに限らない。識別モデル70cとして、Transfomerベースのモデルを利用する場合、アテンションマップ、アテンションマスクに基づく注視マップMATTを用いて前述の妥当性評価を行ってもよい。
- In FIG. 8, the
・識別モデル70cの出力活性化関数が、ソフトマックス関数であることは必須ではない。たとえば、ロジスティックシグモイド関数としてもよい。
・仮評価写像を規定する識別モデルが、位置情報写像の出力を利用しないことは必須ではない。たとえば、仮評価写像を規定する識別モデルを、識別モデル70aとしたり、識別モデル70aに関する上記変更例としたりしてもよい。またたとえば、仮評価写像を規定する識別モデルを、識別モデル70bとしたり、識別モデル70bに関する上記変更例としたりしてもよい。またたとえば、仮評価写像を規定する識別モデルを、識別モデル70dとしたり、識別モデル70dに関する上記変更例としたりしてもよい。
- It is not essential that the output activation function of the
- It is not essential that the identification model that defines the tentative evaluation mapping not use the output of the location information mapping. For example, the identification model that defines the provisional evaluation mapping may be the identification model 70a, or the above-mentioned modification of the identification model 70a may be used. Further, for example, the identification model that defines the provisional evaluation mapping may be the
(c)妥当性評価処理について
・図8の処理において、S50の処理を実行する条件に、人の所定部位が含まれている旨の条件を含めてもよい。これにより、フレームデータFDが示す画像に人の所定部位が含まれない場合において適切な評価をすることができる。
(c) Regarding the validity evaluation process - In the process of FIG. 8, the condition for executing the process of S50 may include a condition that a predetermined part of the person is included. Thereby, appropriate evaluation can be performed when the image indicated by the frame data FD does not include a predetermined part of a person.
・図8の処理では、S36の処理において肯定判定された場合に限って、S50の処理を実行したが、これに限らない。たとえば、S36の処理において否定判定されたときにもS50の処理に準じた処理を実行してもよい。ここで、S50の処理に準じた処理は、たとえば次のようにして実現できる。 - In the process of FIG. 8, the process of S50 is executed only when an affirmative determination is made in the process of S36, but the process is not limited to this. For example, even when a negative determination is made in the process of S36, a process similar to the process of S50 may be executed. Here, processing similar to the processing of S50 can be realized, for example, as follows.
すなわち、PU32は、S70の処理に代えて、胸部である確率が閾値以上である2値化マップMbody(1)、正面下腹部である確率が閾値以上である2値化マップMbody(2)、尻部である確率が閾値以上である2値化マップMbody(3)を生成する。ここで、2値化マップMbody(1)は、正面下腹部である確率が閾値以上であることと尻部である確率が閾値以上であることとの論理和が真となる画素のラベル変数を「0」としたマップである。また、2値化マップMbody(2)は、胸部である確率が閾値以上であることと尻部である確率が閾値以上であることとの論理和が真となる画素のラベル変数を「0」としたマップである。また、2値化マップMbody(3)は、胸部である確率が閾値以上であることと正面下腹部である確率が閾値以上であることとの論理和が真となる画素のラベル変数を「0」としたマップである。そして、PU32は、S72の処理に代えて、2値化マップMbody(1)~(3)のそれぞれと、2値化マップMACTとのアダマール積を算出して注視マップMATT(1)~(3)を算出する。そして、PU32は、注視マップMATT(1)~(3)のそれぞれの各成分の平均値に、閾値gth以上となるものがある場合に、S36の処理が妥当であると評価する。
That is, instead of the process in S70, the
この処理は、NG判定は、胸部、下腹部、および尻部の少なくとも1つの露出によってなされるものであることに鑑みた処理である。すなわち、PU32は、NG判定したときに注視した領域が胸部、下腹部、および尻部の少なくとも1つであれば、NG判定が妥当であると評価する。
This process is performed in consideration of the fact that an NG determination is made by exposing at least one of the chest, lower abdomen, and buttocks. That is, the
・妥当性評価処理が2値化マップMbodyを生成する処理を含むことは必須ではない。たとえば、次のようにしてもよい。すなわち、PU32は、S60の処理によって生成されたアクティベーションマップのうちのS68の処理において縮小されたヒートマップが示す胸部、下腹部、および尻部を特定する。そして、PU32は、それらのそれぞれの領域の値の和と、それら以外の領域の所定の面積を有する領域の値の和との大小を比較する。なお、その場合、アクティベーションマップの各画素の値を、予めReLUまたはロジスティックシグモイド関数等を用いて変換された値とすることが望ましい。
- It is not essential that the validity evaluation process includes the process of generating the binarized map Mbody. For example, you may do the following: That is, the
(d)特徴量レイヤが示す複数個の領域の少なくとも一部の値と位置情報データとを合成する処理
・図7のS34aの積算処理M22においては、1つの特徴マップとアダマール積がとられる係数行列MKを1個としたが、これに限らない。2個以上であってもよい。
(d) A process of synthesizing at least some values of a plurality of regions indicated by the feature layer with position information data - In the integration process M22 of S34a in FIG. 7, the coefficients from which the Hadamard product is taken with one feature map Although the number of matrix MK is one, the number is not limited to this. There may be two or more.
・図7のS34aの積算処理M22においては、係数行列MKとのアダマール積が算出される対象とならない特徴マップを設けたが、これは必須ではない。
・「位置情報写像について」の欄の記載に示唆した通り、係数行列MKは、4個に限らない。
- In the integration process M22 of S34a in FIG. 7, a feature map is provided for which the Hadamard product with the coefficient matrix MK is not calculated, but this is not essential.
- As suggested in the column "About position information mapping", the number of coefficient matrices MK is not limited to four.
・特徴量レイヤが示す複数個の領域の少なくとも一部の値と位置情報データとを合成する処理は、係数行列MKと特徴マップとの積算処理M22に限らない。たとえば、係数行列MKと特徴マップとの畳み込み処理であってもよい。 - The process of combining at least part of the values of the plurality of regions indicated by the feature amount layer and the position information data is not limited to the integration process M22 of the coefficient matrix MK and the feature map. For example, it may be a convolution process of the coefficient matrix MK and the feature map.
(e)露出度に応じた評価変数の値について
・図10には、露出度に応じた3値の互いに異なる値を取り得る評価変数の値を例示したが、これに限らない。たとえば、評価変数が4値以上の値を取り得る変数であってもよい。
(e) Regarding the value of the evaluation variable according to the degree of exposure - Although FIG. 10 illustrates the values of the evaluation variable that can take three different values depending on the degree of exposure, the present invention is not limited thereto. For example, the evaluation variable may be a variable that can take four or more values.
(f)そのほか
・識別モデル70a,70cに限らず、たとえば、識別モデル70b,70dに代えて、アテンション機構を利用するモデルを用いてもよい。詳しくは、たとえばTransfomerベース(トランスフォーマエンコーダを備えた)モデル等のマルチヘッドアテンション機構を利用するモデル等を用いてもよい。
(f) Others - Not limited to the
・評価写像への入力となる位置情報データとしては、2次元の画像領域のそれぞれにおける所定部位に関する情報を含むデータに限らない。たとえば、「位置情報写像について」の欄に記載したように所定部位の代表点の座標であってもよい。 - The positional information data that is input to the evaluation mapping is not limited to data that includes information regarding a predetermined part in each two-dimensional image area. For example, it may be the coordinates of a representative point of a predetermined part, as described in the column "About position information mapping."
・たとえば、フレームデータFDとヒートマップ60~66とを、全結合順伝播型のNNに入力してもよい。その場合、各画素について身体の所定部位であるか否かの情報が付与されたマップデータとフレームデータFDとのそれぞれの値の、NNの重み係数による加重平均処理が第1番目のレイヤによってなされる処理としてもよい。
- For example, the frame data FD and the
「評価写像を規定するモデルの出力について」
・たとえば露出を問題とする所定部位が複数ある場合において、それら各部位ごとに、露出の有無を出力するモデルであってもよい。すなわち、たとえば、胸部、正面下腹部、および尻部の3つを所定部位とする場合、それらのそれぞれ毎に、露出の有無の判定結果を示す変数値を出力するようにしてもよい。これは、たとえば出力活性化関数を、ロジスティックシグモイド関数を所定部位の数である3個用意することによって実現できる。なお、こうした場合には、妥当性評価処理においてNG判定の妥当性を評価する場合には、上述したものに代えて次の変更をすることが望ましい。すなわち、たとえば胸部のみにNG判定がなされる場合、胸部に着目している場合に妥当と判定する処理に代えればよい。またたとえば、胸部および正面下腹部の双方でNG判定がなされる場合、胸部および正面下腹部の双方に着目している場合に妥当と判定する処理に代えればよい。
"About the output of the model that defines the evaluation map"
- For example, when there are a plurality of predetermined parts where exposure is a problem, a model may be used that outputs the presence or absence of exposure for each part. That is, for example, when three predetermined parts are the chest, the front lower abdomen, and the buttocks, a variable value indicating the determination result of the presence or absence of exposure may be output for each of them. This can be realized, for example, by preparing three output activation functions, which correspond to the number of predetermined parts, of logistic sigmoid functions. Note that in such a case, when evaluating the validity of the NG determination in the validity evaluation process, it is desirable to make the following changes instead of the ones described above. That is, for example, if only the chest is determined to be NG, the process may be replaced with a process in which the chest is determined to be appropriate. Further, for example, if an NG determination is made for both the chest and the front lower abdomen, the process may be replaced with a process that determines that it is appropriate when both the chest and the front lower abdomen are focused.
「評価用入力データについて」
・評価写像への入力となる評価用入力データとしては、評価対象となる画像データ自体に限らない。たとえば、評価対象とする画像データが示す各画素のうち人に関する部分を抽出して、予め定められた背景画像に埋め込んだ画像データを、評価用入力データとしてもよい。ここで、人に関する部分の抽出処理は、セマンティックセグメンテーションモデルを利用してPU32により実施する。なお、評価対象となる画像データを、評価用入力データとするための前処理としては、これに限らない。たとえば、輝度を調整する処理等であってもよい。
"About input data for evaluation"
- The evaluation input data that is input to the evaluation mapping is not limited to the image data itself to be evaluated. For example, the input data for evaluation may be image data in which a portion related to a person is extracted from each pixel indicated by the image data to be evaluated and embedded in a predetermined background image. Here, the extraction process of the parts related to people is performed by the
「位置情報写像データについて」
・位置情報写像データが、パラメトリックモデルにおける学習済みのパラメータのみからなることは必須ではない。たとえば、特徴抽出器を規定するデータと、サポートベクトルとからなってもよい。ここで、特徴抽出器は、CNN等、フレームデータFD等を入力として特徴ベクトルを出力する学習済みモデルである。一方、サポートベクトルは、サポートベクトル回帰の学習によって選択されたベクトルである。すなわち、訓練データが特徴抽出器に入力されることによって出力される特徴ベクトルから学習過程でサポートベクトルを抽出する。そして、特徴抽出器を規定するパラメータとサポートベクトルとを、位置情報写像データとして記憶装置34に記憶する。
"About location information mapping data"
- It is not essential that the location information mapping data consists only of learned parameters in the parametric model. For example, it may consist of data defining a feature extractor and support vectors. Here, the feature extractor is a trained model, such as a CNN, that receives frame data FD, etc. as input and outputs a feature vector. On the other hand, the support vector is a vector selected by support vector regression learning. That is, support vectors are extracted in the learning process from feature vectors output by inputting training data to a feature extractor. Then, the parameters defining the feature extractor and the support vector are stored in the
「評価写像データについて」
・識別モデル70a~70dに代えて、アテンション機構を利用するモデルを用いる場合、評価写像データ34cは、次のデータを含んでもよい。すなわち、評価写像データ34cは、フレームデータFDを分割した各パッチを1次元のベクトルに変換する変換行列の成分の値を含んでよい。またたとえば、評価写像データ34cは、上記1次元のベクトルに変換された各パッチを、キー、クエリ、およびバリューの各ベクトルに変換する行列の値を含んでもよい。また、たとえば、評価写像データ34cは、1次元に変換されたパッチに埋め込む位置情報のデータを含んでもよい。なお、上記変換行列および位置情報データは、学習済みのデータであってもよい。ただし、これは、必ずしも上述した学習過程において学習された値である必要はない。たとえば、上記学習過程をファインチューニングとして且つ、それ以前に行われる学習においてのみ学習された値としてもよい。
“About evaluation mapping data”
- When using a model that uses an attention mechanism instead of the identification models 70a to 70d, the
・評価写像データが、パラメトリックモデルにおける学習済みのパラメータのみからなることは必須ではない。たとえば、特徴抽出器を規定するデータと、サポートベクトルとからなってもよい。ここで、特徴抽出器は、CNN等、フレームデータFD等を入力として特徴ベクトルを出力する学習済みモデルである。一方、サポートベクトルは、サポートベクトルマシンの学習によって選択されたベクトルである。すなわち、訓練データが特徴抽出器に入力されることによって出力される特徴ベクトルから学習過程でサポートベクトルを抽出する。そして、特徴抽出器を規定するパラメータとサポートベクトルとを、評価写像データとして記憶装置34に記憶する。
- It is not essential that the evaluation mapping data consists only of learned parameters in the parametric model. For example, it may consist of data defining a feature extractor and support vectors. Here, the feature extractor is a trained model such as CNN that receives frame data FD and the like as input and outputs a feature vector. On the other hand, the support vector is a vector selected by learning of the support vector machine. That is, support vectors are extracted in the learning process from feature vectors output by inputting training data to a feature extractor. Then, the parameters defining the feature extractor and the support vector are stored in the
また、全結合レイヤのパラメータと、畳み込みのフィルタを構成するパラメータ等の事後分布を出力する関数を評価写像データとして記憶装置34に記憶してもよい。ここでは、たとえば識別モデル70cにおける出力活性化関数をロジスティックシグモイド関数に代える。またたとえば、上記パラメータのそれぞれについて正規分布等の事前分布を仮定する。そして学習過程においてベイズ推定によって事後分布を生成する。なお、PU32は、事後分布に基づきサンプリング法等に基づき上記パラメータの平均値を算出し、これを図8で用いたパラメータに代えればよい。なお、その場合、妥当性評価処理によって妥当ではないと評価されたデータを用いて再学習をすることによって、事後分布を更新してもよい。
Further, the parameters of the fully connected layer and the function that outputs the posterior distribution of the parameters constituting the convolution filter may be stored in the
「評価処理について」
・評価処理が、N個の周期でサンプリングされた3個のフレームデータFDのうちの2個以上についてフレーム評価処理によってOK判定がなされる場合に、2N+1のフレーム分の画像データのOK判定としたが、これに限らない。たとえば、図8の処理の上述の変更例においては妥当性評価処理の判定結果に応じてOK判定の基準を変えてもよい。具体的には、S36の処理においてNG判定されたものの、妥当性評価処理によってNG判定が妥当ではないと判定された場合には、NG判定のなされた回数を「0.5」とカウントしてもよい。その場合、たとえばNG判定の数が「1」未満で最終的なOK判定をすることによって、妥当性評価処理の判定結果に応じてOK判定の基準を変えることができる。
"About evaluation processing"
- If the evaluation process determines OK for two or more of the three frame data FD sampled at N cycles, the image data for 2N+1 frames is determined to be OK. However, it is not limited to this. For example, in the above-described modified example of the process shown in FIG. 8, the standard for determining OK may be changed depending on the determination result of the validity evaluation process. Specifically, if an NG determination is made in the process of S36, but it is determined that the NG determination is not valid in the validity evaluation process, the number of times the NG determination is made is counted as "0.5". Good too. In that case, for example, by making a final OK determination when the number of NG determinations is less than "1", the standard for OK determination can be changed according to the determination result of the validity evaluation process.
・複数のフレームにおいてそれらの一部且つ所定数以上OK判定がなされる場合にOK判定をすることは必須ではない。たとえば、所定周期でサンプリングされたフレームデータFDの全てがフレーム評価処理によってOKとされる場合に限って、最終的なOK判定をしてもよい。なお、ここで所定周期は、フレームの周期と等しくてもよい。 - It is not essential to perform an OK determination when a predetermined number or more of a plurality of frames are determined to be OK. For example, the final OK determination may be made only when all of the frame data FD sampled at a predetermined period is determined to be OK by the frame evaluation process. Note that the predetermined cycle may be equal to the frame cycle.
「制限処理、制限工程について」
・S20aの処理としては、たとえば、再生画像のうち所定部位が露出している領域を少なくとも含む再生画像の一部に対して所定画像を重畳することでマスクをする指令であってよい。またたとえば、再生画像のうち所定部位が露出している領域を少なくとも含む再生画像の一部に対してぼかし等のエフェクトを適用することでマスクをする指令であってよい。すなわち、S20aの処理は、露出することが問題とされて且つ露出していると判定された所定部位が非表示となるような指令であればその態様に制限はない。なお、露出することが問題とされる所定部位が実際に露出している領域を少なくとも含む再生画像の一部は、たとえば、上述の2次元分布に少なくとも基づいて決定されてもよい。なお画像中に所定部位が複数存在する場合に実際に露出している領域のみをマスクするうえでは、実際に露出している領域を特定することが望ましい。これは、たとえば、識別モデルの注視領域に基づき露出している領域を特定する処理としてもよい。
“About restriction processing and restriction processes”
- The process of S20a may be, for example, a command to mask a part of the reproduced image that includes at least an area in which a predetermined part of the reproduced image is exposed by superimposing a predetermined image. Alternatively, for example, the command may be a command to mask by applying an effect such as blurring to a part of the reproduced image that includes at least an area in which a predetermined part of the reproduced image is exposed. That is, the process of S20a is not limited in its form as long as it is a command that hides a predetermined part that is determined to be exposed and is determined to be exposed. Note that the part of the reproduced image that includes at least the area in which the predetermined part whose exposure is a problem is actually exposed may be determined based on at least the above-mentioned two-dimensional distribution, for example. Note that when a plurality of predetermined parts exist in an image, in order to mask only the actually exposed regions, it is desirable to specify the actually exposed regions. This may be, for example, a process of identifying an exposed area based on the gaze area of the identification model.
・たとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかったフレームデータFDの数が所定数に満たない場合に、CM動画データの配信(送信)を禁止してもよい。その場合、PU32は、所定数の連続する複数のフレームデータFDのすべてにおいてOK判定がなされることを条件として、CM動画データの配信(送信)を行ってもよい。
- For example, the
またたとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかったフレームデータFDの数が所定数である場合に、CM動画データの配信(送信)を禁止してもよい。その場合、PU32は、所定数の連続する複数のフレームデータFDの少なくとも一部においてOK判定がなされることを条件として、CM動画データの配信(送信)を行ってもよい。
For example, the
またたとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかった所定数に満たないフレームデータFDを挟んでOK判定がなされたフレームデータFDが連続する場合、CM動画データの配信(送信)を行ってもよい。
For example, among a predetermined number of consecutive frame data FDs, if there are consecutive frame data FDs that have been determined to be OK with less than the predetermined number of frame data FDs that have not been determined to be OK, the
なお、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされた所定数に満たないフレームデータFDを挟んでOK判定がなされなかったフレームデータFDが連続する場合、CM動画データの配信(送信)を禁止してもよい。 Note that, among a predetermined number of consecutive frame data FDs, if there are consecutive frame data FDs for which an OK decision has not been made sandwiching frame data FDs that are less than the predetermined number for which an OK decision has been made, Distribution (transmission) of data may be prohibited.
・S20aの処理によってユーザ端末50において画像が表示されることを制限する処理にとって、図4に示すフレーム評価処理等によって評価がなされることは必須ではない。たとえば図7に示した処理、またはその変更例に示したフレーム評価処理等によって評価がなされる場合にS20aの処理を適用してもよい。またたとえば、図8に示した処理、またはその変更例に示したフレーム評価処理等によって評価がなされる場合にS20aの処理を適用してもよい。
- For the process of restricting the display of an image on the
・図11の処理において、S92,S100,S102の処理を省いてもよい。その場合、PU32は、OK2判定の場合、S106の処理において、OK2判定である旨を制限指令としてCM動画データに付与すればよい。その場合、ユーザ端末50のPU52は、S90の処理によって受け付けた基準と、制限指令とに応じてCM動画データを再生するか否か等を決定すればよい。
- In the process of FIG. 11, the processes of S92, S100, and S102 may be omitted. In that case, in the case of an OK2 determination, the
・たとえばNG判定がなされたフレームを削除したCM動画データをユーザ端末50に送信してもよい。これによっても、ユーザ端末50において不適切な画像が表示されることを抑制できる。
- For example, CM video data from which frames judged as NG may be deleted may be transmitted to the
・ユーザ端末50に専用のアプリケーションプログラム54aが記憶されていることは必須ではない。たとえば、画像評価装置30から配信されたCM動画データを汎用のブラウザを利用して再生してもよい。
- It is not essential that the
「実行装置について」
・実行装置としては、PU32に限らない。たとえば、実行装置を、ASIC、およびFPGA等の専用のハードウェア回路としてもよい。すなわち、実行装置は、以下の(a)~(c)のいずれかの構成を備える処理回路を含んでいてもよい。(a)上記処理の全てを、プログラムに従って実行する処理装置と、プログラムを記憶する記憶装置等のプログラム格納装置とを備える処理回路。(b)上記処理の一部をプログラムに従って実行する処理装置およびプログラム格納装置と、残りの処理を実行する専用のハードウェア回路(ハードウェアアクセレータ)とを備える処理回路。(c)上記処理の全てを実行する専用のハードウェア回路を備える処理回路。ここで、処理装置およびプログラム格納装置を備えたソフトウェア実行装置は、複数であってもよい。また、専用のハードウェア回路は複数であってもよい。
"About the execution device"
- The execution device is not limited to the PU32. For example, the execution device may be a dedicated hardware circuit such as an ASIC or an FPGA. That is, the execution device may include a processing circuit having any of the following configurations (a) to (c). (a) A processing circuit that includes a processing device that executes all of the above processing according to a program, and a program storage device such as a storage device that stores the program. (b) A processing circuit that includes a processing device and a program storage device that execute part of the above processing according to a program, and a dedicated hardware circuit (hardware accelerator) that executes the remaining processing. (c) A processing circuit that includes a dedicated hardware circuit that executes all of the above processing. Here, there may be a plurality of software execution devices including a processing device and a program storage device. Further, there may be a plurality of dedicated hardware circuits.
「画像評価装置について」
・画像評価装置が、画像を評価する処理と、評価結果をユーザ端末50に配信する処理との双方を行うことは必須ではない。たとえば、評価結果をユーザ端末50に配信する処理を、画像評価装置とは別の装置が実行してもよい。また、画像評価装置が業者端末10から送信された画像データを受信することも必須ではない。たとえば、業者端末10から送信された画像データを受信して且つ画像評価装置に送信する装置を別途備えてもよい。さらに、画像評価装置と業者端末10とが一体化されていてもよい。
"About the image evaluation device"
- It is not essential for the image evaluation device to perform both the process of evaluating an image and the process of distributing the evaluation results to the
「コンピュータについて」
・画像評価プログラム34aを実行するコンピュータとしては、画像評価装置30が備えるPU32に限らない。たとえば、画像評価プログラム34aをユーザ端末50にインストールすることによって、ユーザ端末50のPU52を画像評価プログラム34aを実行するコンピュータとしてもよい。
"About computers"
- The computer that executes the
「そのほか」
・PU12が、PU32に含まれ得る態様の演算ユニットを含んでもよい。
・上記実施形態では、CM動画データとして、ストリーミング映像の態様でユーザ端末50に対して配信(送信)されるものを想定したが、これに限らない。たとえば、ライブストリーミングの態様のサービスでユーザ端末50に対してリアルタイムに配信(送信)されてよい。評価対象となる画像データは、CM動画データに限らない。たとえば、商品等の広告の用に供する動画に限らず、人(人物)の身体の少なくとも一部が含まれ得る動画であればその種別や異常判定の目的に制限はない。さらに、評価対象となる画像データは、たとえば任意の静止画像のデータであってもよい。
"others"
- The
- In the above embodiment, it is assumed that the CM video data is distributed (transmitted) to the
・PU32は、OK判定またはNG判定の根拠として扱われる、明示的に予め定められた所定部位を示す情報を、業者端末10および/またはユーザ端末50に対して、CM動画データの配信(送信)の前に通知してよい。また、PU32は、所定部位を示す情報を、業者端末10および/またはユーザ端末50に対して、CM動画データの配信(送信)中に通知してよい。また、PU32は、配信(送信)中のCM動画データのフレームデータFDについてNG判定の根拠となった所定部位を示す情報を、業者端末10および/またはユーザ端末50に対して、通知してよい。なお、ここでの「通知」とは、業者端末10および/またはユーザ端末50に対するメッセージ送信の態様であってよく、業者端末10および/またはユーザ端末50において表示中のCM動画データに重畳させる表示処理の態様であってよい。
- The
10…業者端末
14…記憶装置
16…通信機
20…ネットワーク
30…画像評価装置
34…記憶装置
34a…画像評価プログラム
34b…位置情報写像データ
34c…評価写像データ
36…通信機
40…ユーザインターフェース
50…ユーザ端末
54…記憶装置
54a…アプリケーションプログラム
56…通信機
58…ユーザインターフェース
60~66…ヒートマップ
70a~70d…識別モデル
10...
Claims (11)
前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、
前記位置情報写像データは、位置情報写像を規定するためのデータであり、
前記位置情報写像は、位置情報データを出力する写像であり、
前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、
前記評価写像データは、評価写像を規定するためのデータであり、
前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、
前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、
前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、
前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、
前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、
前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理であり、
前記評価写像は、特徴量レイヤを備え、
前記特徴量レイヤは、前記画像データが示す領域を複数個の領域に分割したそれぞれに数値を与えることによって、前記画像データの特徴量を定量化するレイヤであり、
前記評価写像は、前記特徴量レイヤが示す前記複数個の領域の少なくとも一部の値と前記位置情報データとを合成する処理を含んで前記評価結果を出力する写像である画像評価装置。 includes an execution device and a storage device,
The storage device stores position information mapping data and evaluation mapping data,
The location information mapping data is data for defining a location information mapping,
The location information mapping is a mapping that outputs location information data,
The position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated,
The evaluation mapping data is data for defining an evaluation mapping,
The evaluation mapping is a mapping that receives evaluation input data and the position information data as input and outputs an evaluation result of the image data,
The evaluation input data is data that corresponds to the image data and is data that is input to the evaluation mapping,
The execution device is configured to execute a position information generation process and an evaluation process,
The position information generation process is a process of generating the position information data by inputting position input data into the position information mapping,
The position input data is data that corresponds to the image data and is data that is input to the position information mapping,
The evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data into the evaluation mapping,
The evaluation mapping includes a feature layer,
The feature amount layer is a layer that quantifies the feature amount of the image data by dividing the region indicated by the image data into a plurality of regions and giving a numerical value to each of the regions,
The evaluation mapping is a mapping that outputs the evaluation result by including a process of combining at least some values of the plurality of regions indicated by the feature amount layer with the position information data.
前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、
前記位置情報写像データは、位置情報写像を規定するためのデータであり、
前記位置情報写像は、位置情報データを出力する写像であり、
前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、
前記評価写像データは、評価写像を規定するためのデータであり、
前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、
前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、
前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、
前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、
前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、
前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理であり、
前記評価写像は、仮評価写像を含み、
前記仮評価写像は、前記評価用入力データを入力として前記画像データの仮の評価結果を出力する写像であり、
前記評価処理は、仮評価処理と、妥当性評価処理と、を含み、
前記仮評価処理は、前記仮評価写像に前記評価用入力データを入力することによって前記仮の評価結果を出力する処理を含み、
前記妥当性評価処理は、前記位置情報データを入力として、前記画像データの示す領域のうちの前記所定部位を示す領域が前記仮の評価結果に寄与した度合いに応じて前記仮の評価結果の妥当性を評価する処理を含む画像評価装置。 includes an execution device and a storage device,
The storage device stores position information mapping data and evaluation mapping data,
The location information mapping data is data for defining a location information mapping,
The location information mapping is a mapping that outputs location information data,
The position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated,
The evaluation mapping data is data for defining an evaluation mapping,
The evaluation mapping is a mapping that receives evaluation input data and the position information data as input and outputs an evaluation result of the image data,
The evaluation input data is data that corresponds to the image data and is data that is input to the evaluation mapping,
The execution device is configured to execute a position information generation process and an evaluation process,
The position information generation process is a process of generating the position information data by inputting position input data into the position information mapping,
The position input data is data that corresponds to the image data and is data that is input to the position information mapping,
The evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data into the evaluation mapping,
The evaluation mapping includes a provisional evaluation mapping,
The provisional evaluation mapping is a mapping that receives the evaluation input data as input and outputs a provisional evaluation result of the image data,
The evaluation process includes a provisional evaluation process and a validity evaluation process,
The provisional evaluation process includes processing to output the provisional evaluation result by inputting the evaluation input data to the provisional evaluation mapping,
The validity evaluation process uses the position information data as input and determines the validity of the provisional evaluation result according to the degree to which an area indicating the predetermined part out of the area shown by the image data has contributed to the provisional evaluation result. An image evaluation device that includes processing for evaluating gender .
前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、
前記位置情報写像データは、位置情報写像を規定するためのデータであり、
前記位置情報写像は、位置情報データを出力する写像であり、
前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、
前記評価写像データは、評価写像を規定するためのデータであり、
前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、
前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、
前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、
前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、
前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、
前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理であり、
前記実行装置は、提供処理、および制限処理を実行するように構成され、
前記提供処理は、前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像をユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、
前記制限処理は、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する処理であり、
前記制限しなくてよい旨の評価は、前記ユーザ端末からの指示に基づいて、身体の露出度についての許容範囲内である旨の評価であり、
前記ユーザ端末により表示されることを制限すべき旨の評価は、前記露出度が前記許容範囲から外れる旨の評価である画像評価装置。 includes an execution device and a storage device,
The storage device stores position information mapping data and evaluation mapping data,
The location information mapping data is data for defining a location information mapping,
The location information mapping is a mapping that outputs location information data,
The position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated,
The evaluation mapping data is data for defining an evaluation mapping,
The evaluation mapping is a mapping that receives evaluation input data and the position information data as input and outputs an evaluation result of the image data,
The evaluation input data is data that corresponds to the image data and is data that is input to the evaluation mapping,
The execution device is configured to execute a position information generation process and an evaluation process,
The position information generation process is a process of generating the position information data by inputting position input data into the position information mapping,
The position input data is data that corresponds to the image data and is data that is input to the position information mapping,
The evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data into the evaluation mapping,
The execution device is configured to execute a provision process and a restriction process,
The provision process includes transmitting the image data to the user terminal so that the image represented by the image data, which has been evaluated by the evaluation process as not having to be restricted from being displayed, can be displayed on the user terminal. It is a process to
The restriction process is a process of restricting the user terminal from displaying an image indicated by the image data that has been evaluated by the evaluation process to be restricted from being displayed;
The evaluation that there is no need to restrict is an evaluation that the degree of body exposure is within a permissible range based on the instruction from the user terminal,
The image evaluation device is characterized in that the evaluation that the display by the user terminal should be restricted is an evaluation that the exposure level is outside the permissible range .
前記通知処理は、前記妥当性評価処理によって妥当ではないと判定される場合に、妥当ではない旨を通知する処理である請求項2に記載の画像評価装置。 The execution device is configured to execute a notification process,
The image evaluation device according to claim 2 , wherein the notification process is a process of notifying that the image is not valid when the validity evaluation process determines that the image is not valid.
前記評価写像は、前記評価用入力データの各画素と前記各画素に対応する前記位置情報データとが対応付けて入力されることによって前記評価結果を出力する写像である請求項1~請求項4のうち何れか一項に記載の画像評価装置。 The position information data is data that provides information as to whether each pixel forming the evaluation input data indicates the predetermined region,
The evaluation mapping is a mapping that outputs the evaluation result by inputting each pixel of the evaluation input data and the position information data corresponding to each pixel in a corresponding manner. The image evaluation device according to any one of the above .
前記記憶装置には、位置情報写像データと、評価写像データと、が記憶され、
前記位置情報写像データは、位置情報写像を規定するためのデータであり、
前記位置情報写像は、位置情報データを出力する写像であり、
前記位置情報データは、評価対象とする画像データが示す画像において人の所定部位の位置情報を示すデータであり、
前記評価写像データは、評価写像を規定するためのデータであり、
前記評価写像は、評価用入力データおよび前記位置情報データを入力として前記画像データの評価結果を出力する写像であり、
前記評価用入力データは、前記画像データに応じたデータであって且つ前記評価写像の入力とするデータであり、
前記実行装置は、位置情報生成処理、および評価処理を実行するように構成され、
前記位置情報生成処理は、位置用入力データを前記位置情報写像に入力することによって前記位置情報データを生成する処理であり、
前記位置用入力データは、前記画像データに応じたデータであって且つ前記位置情報写像の入力とするデータであり、
前記評価処理は、前記位置情報データおよび前記評価用入力データを前記評価写像に入力することによって、前記画像データを評価する処理であり、
前記実行装置は、提供処理、および制限処理を実行するように構成され、
前記提供処理は、前記評価処理によって表示されることを制限しなくてよい旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、
前記制限処理は、前記評価処理によって表示されることを制限すべき旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する処理であり、
前記ユーザ端末は、指示処理を実行するように構成され、
前記指示処理は、身体の露出度についての許容範囲を指示する処理であり、
前記制限しなくてよい旨の評価は、前記露出度が前記許容範囲内である旨の評価であり、
前記ユーザ端末により表示されることを制限すべき旨の評価は、前記露出度が前記許容範囲から外れる旨の評価である画像処理システム。 An image evaluation device having an execution device and a storage device, and a plurality of user terminals,
The storage device stores position information mapping data and evaluation mapping data,
The location information mapping data is data for defining a location information mapping,
The location information mapping is a mapping that outputs location information data,
The position information data is data indicating position information of a predetermined part of a person in an image shown by image data to be evaluated,
The evaluation mapping data is data for defining an evaluation mapping,
The evaluation mapping is a mapping that receives evaluation input data and the position information data as input and outputs an evaluation result of the image data,
The evaluation input data is data that corresponds to the image data and is data that is input to the evaluation mapping,
The execution device is configured to execute a position information generation process and an evaluation process,
The position information generation process is a process of generating the position information data by inputting position input data into the position information mapping,
The position input data is data that corresponds to the image data and is data that is input to the position information mapping,
The evaluation process is a process of evaluating the image data by inputting the position information data and the evaluation input data into the evaluation mapping,
The execution device is configured to execute a provision process and a restriction process,
The provision process includes transmitting the image data to the user terminal so that the image represented by the image data, which has been evaluated by the evaluation process as not having to be restricted from being displayed, can be displayed on the user terminal. The process of sending
The restriction process is a process of restricting the user terminal from displaying an image indicated by the image data that has been evaluated by the evaluation process to be restricted from being displayed ;
The user terminal is configured to perform instruction processing,
The instruction process is a process of instructing a permissible range for the degree of body exposure,
The evaluation that there is no need to limit is an evaluation that the degree of exposure is within the permissible range,
The image processing system is characterized in that the evaluation to the effect that display by the user terminal should be restricted is an evaluation to the effect that the exposure level is outside the permissible range .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022064667A JP7455889B2 (en) | 2022-04-08 | 2022-04-08 | Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022064667A JP7455889B2 (en) | 2022-04-08 | 2022-04-08 | Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023154980A JP2023154980A (en) | 2023-10-20 |
JP7455889B2 true JP7455889B2 (en) | 2024-03-26 |
Family
ID=88373249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022064667A Active JP7455889B2 (en) | 2022-04-08 | 2022-04-08 | Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7455889B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012170024A (en) | 2011-02-16 | 2012-09-06 | Nikon Corp | Information processing apparatus |
JP2018120644A (en) | 2018-05-10 | 2018-08-02 | シャープ株式会社 | Identification apparatus, identification method, and program |
JP2020021148A (en) | 2018-07-30 | 2020-02-06 | トヨタ自動車株式会社 | Image processing device and image processing method |
JP2021086322A (en) | 2019-11-26 | 2021-06-03 | キヤノン株式会社 | Image processing device, image processing method, and program |
-
2022
- 2022-04-08 JP JP2022064667A patent/JP7455889B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012170024A (en) | 2011-02-16 | 2012-09-06 | Nikon Corp | Information processing apparatus |
JP2018120644A (en) | 2018-05-10 | 2018-08-02 | シャープ株式会社 | Identification apparatus, identification method, and program |
JP2020021148A (en) | 2018-07-30 | 2020-02-06 | トヨタ自動車株式会社 | Image processing device and image processing method |
JP2021086322A (en) | 2019-11-26 | 2021-06-03 | キヤノン株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2023154980A (en) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | UIEC^ 2-Net: CNN-based underwater image enhancement using two color space | |
US11334971B2 (en) | Digital image completion by learning generation and patch matching jointly | |
Oh et al. | Blind deep S3D image quality evaluation via local to global feature aggregation | |
Sim et al. | MaD-DLS: mean and deviation of deep and local similarity for image quality assessment | |
Fan et al. | Stacked latent attention for multimodal reasoning | |
CN112766279B (en) | Image feature extraction method based on combined attention mechanism | |
US11068746B2 (en) | Image realism predictor | |
CN108389192A (en) | Stereo-picture Comfort Evaluation method based on convolutional neural networks | |
Zhou et al. | Blind quality estimator for 3D images based on binocular combination and extreme learning machine | |
Ozbulak | Image colorization by capsule networks | |
Cai et al. | Residual channel attention generative adversarial network for image super-resolution and noise reduction | |
Fu et al. | Twice mixing: A rank learning based quality assessment approach for underwater image enhancement | |
CN112232914A (en) | Four-stage virtual fitting method and device based on 2D image | |
Oh et al. | Deep visual discomfort predictor for stereoscopic 3d images | |
Pham et al. | End-to-end image patch quality assessment for image/video with compression artifacts | |
Kwon et al. | Tailor me: An editing network for fashion attribute shape manipulation | |
JP7455889B2 (en) | Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program | |
Hepburn et al. | Enforcing perceptual consistency on generative adversarial networks by using the normalised laplacian pyramid distance | |
Oszust | A regression-based family of measures for full-reference image quality assessment | |
CN113327212B (en) | Face driving method, face driving model training device, electronic equipment and storage medium | |
Buzuti et al. | Fréchet AutoEncoder Distance: A new approach for evaluation of Generative Adversarial Networks | |
JP7362924B2 (en) | Data augmentation-based spatial analysis model learning device and method | |
JP7385046B2 (en) | Color spot prediction method, device, equipment and storage medium | |
Wang et al. | A deep learning based multi-dimensional aesthetic quality assessment method for mobile game images | |
Zhou et al. | Multi-layer fusion network for blind stereoscopic 3D visual quality prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240313 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7455889 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |