JP2020197910A - 画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム - Google Patents

画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム Download PDF

Info

Publication number
JP2020197910A
JP2020197910A JP2019103698A JP2019103698A JP2020197910A JP 2020197910 A JP2020197910 A JP 2020197910A JP 2019103698 A JP2019103698 A JP 2019103698A JP 2019103698 A JP2019103698 A JP 2019103698A JP 2020197910 A JP2020197910 A JP 2020197910A
Authority
JP
Japan
Prior art keywords
image
feature vector
access management
access
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019103698A
Other languages
English (en)
Other versions
JP7224240B2 (ja
Inventor
クリンキグト,マルティン
Klinkigt Martin
チャブラ,モヒト
Chhabra Mohit
廣池 敦
Atsushi Hiroike
敦 廣池
村上 智一
Tomokazu Murakami
智一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019103698A priority Critical patent/JP7224240B2/ja
Priority to EP20169799.2A priority patent/EP3748535A1/en
Priority to US16/879,224 priority patent/US11537750B2/en
Priority to SG10202004901RA priority patent/SG10202004901RA/en
Publication of JP2020197910A publication Critical patent/JP2020197910A/ja
Application granted granted Critical
Publication of JP7224240B2 publication Critical patent/JP7224240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6263Protecting personal data, e.g. for financial or medical purposes during internet communication, e.g. revealing personal data from cookies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2113Multi-level security, e.g. mandatory access control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Bioethics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biophysics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】本発明は、アクセス要求者のアクセス権限に基づいて映像の特徴の情報量(次元)を適宜に変更することで、適切なアクセス権者に適切な範囲の情報を提供することを目的とする。【解決手段】、画像アクセス管理装置505は、対象画像へのアクセス要求を受信する場合には、アクセス管理部510は、対象画像へのアクセス要求に含まれるアクセス権限や目的に応じて、前記対象画像に対する閲覧レベルを判定し、画像生成部560は、特徴ベクトルを閲覧レベルに応じて加工することで、アクセス権限に応じた最終画像を生成し、アクセス要求への回答として提供することによって、適切なアクセス権者に適切な範囲の情報を提供することができる。【選択図】図5

Description

本発明は、画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システムに関する。
近年、IT化の進展に伴い、社会に多数のセンサーが配置され、極めて大量のデータが蓄積されている。そうした中、集積された画像データを活用する様々な方策が検討されている。特に、写真、動画、画像等の映像コンテンツが増える中、その映像に写る人物の身元を正確に特定する手段が多数開発されている。
その中で、画像におけるオブジェクトの特徴を抽出し、当該特徴に基づいて個人を特定するための機械学習を用いた手法が知られている。
例えば、米国特許出願US2018/0307899A1(特許文献1)には、「身体の1つまたは複数の部分に基づいて身体の特徴を抽出し、抽出された身体の特徴をデータベースに格納された特徴ベクトルと比較し、顔認証以外にも、抽出された身体の特徴に基づいて、個人認証又は再識別を容易にするための分類モデルを一定期間を渡って構築することを含む」技術が記載されている。
上記の特許文献1においては、映像に写る人物の身体の部分(腕、脚、胴体)の特徴を抽出し、これらの特徴を用いて機械学習システムを訓練することで、その人を特定するための分類モデルを構築することが記載されている。特許文献1に係る発明によれば、例えば人の顔が映らない映像の場合でも、その人の身元を正確に特定することができる。
一方、個人情報の保護の観点からは、身元を正確に特定した情報については、不正アクセスから適切に保護することも求められている。
米国特許出願US2018/0307899A1
しかしながら、特許文献1には、人間を身体の部分に基づいて個人を特定することが記載されているものの、解析した画像データに関する情報を適正に管理し、適切なアクセス権者に適切な範囲の情報を提供することについては考慮されていない。
そこで、本発明は、アクセス要求者のアクセス権限に基づいて映像の特徴の情報量(次元)を適宜に変更することで、適切なアクセス権者に適切な範囲の情報を提供することを目的とする。
上記の課題を解決するために、代表的な本発明の画像処理装置の一つは、画像へのアクセスを管理するための画像アクセス管理装置であって、前記画像アクセス管理装置は、特徴計算部と、アクセス管理部と、画像生成部とを備え、前記特徴計算部は、対象画像における所定領域に関する特徴ベクトルを抽出し、前記画像アクセス管理装置が、前記対象画像へのアクセス要求を受信する場合、前記アクセス管理部は、前記対象画像へのアクセス要求に含まれるアクセス権限や目的に応じて、前記対象画像に対する閲覧レベルを判定し、前記画像生成部は、前記特徴ベクトルを前記閲覧レベルに応じて加工することで、前記アクセス権限に応じた最終画像を生成し、前記アクセス要求への回答として提供する。
本発明によれば、アクセス要求者のアクセス権限に基づいて映像の特徴の情報量(次元)を適宜に変更することで、適切なアクセス権者に適切な範囲の情報を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施形態を実施するためのコンピュータシステムのブロック図である。 本発明に係る画像アクセス管理におけるニューラルネットワークによるSemantic Triplet Lossを示す図である。 本発明に係る画像アクセス管理における情報の次元削減の概念図である。 本発明に係る画像アクセス管理における情報のアクセス付与の概念を示す図である。 本発明に係る画像アクセス管理システムの構成の一例を示すブロック図である。 本発明に係る画像アクセス管理の処理の一例を示すフローチャート図である。 本発明に係る画像アクセス管理におけるニューラルネットワークによる特徴ベクトルの計算の一例を示す図ある。 本発明に係る画像アクセス管理における、特徴の意味的結合による特徴ベクトルの次元削減の一例を示す図である。 本発明に係る画像アクセス管理における、属性値変更による特徴ベクトルの次元削減の一例を示す図である。 本発明に係る画像アクセス管理における、通信ネットワークの制約による特徴ベクトルの次元削減の一例を示す図である。 本発明に係る画像アクセス管理における、特徴の意味的演算による画像生成の一例を示す図である。
以下、図面を参照して、本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(ハードウエア構成)
まず、図1を参照して、本開示の実施形態を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、画像アクセス管理アプリケーション350を格納していてもよい。ある実施形態では、画像アクセス管理アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
ある実施形態では、画像アクセス管理アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、画像アクセス管理アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
次に、図2を参照して、本発明に係る画像アクセス管理におけるニューラルネットワーク200によるSemantic Triplet Lossを示す図である。
本開示の実施形態の態様はニューラルネットワークに関する。一般に、「ニューラルネットワーク」とは、機械学習及びパターン認識などの機能を有する計算モデルである。ニューラルネットワークは、ローカル装置、サーバ/クライアント構成、分散型ネットワーク等、様々な動作環境に適用されてもよく、様々な訓練方法で訓練されてもよい。
本発明に係るニューラルネットワーク200は、例えば、Semantic Triplet Lossと呼ばれる訓練方法で訓練されているCNN(Condensed Neural Network)であってもよい。以下では、Semantic Triplet Lossについて説明する。
Semantic Triplet Loss訓練では、まず、参考となるアンカークラスが設定され、このアンカークラスの中から、代表となる1つのサンプル(サンプルA210)が選択される。このサンプルA210は、例えば、画像や映像であってもよい。その後、同じアンカークラスの中から、もう一つのサンプル(サンプルP220)が選択される。そして、サンプルA210とは異なるクラスから、別のサンプルN230が選択される。ここで、サンプルP220とは、サンプルA210に対する正のサンプルであり、サンプルN230は、サンプルA210に対する負のサンプルである。
サンプルA210,サンプルP220,及びサンプルN230が選択された後、ニューラルネットワーク200は、既存の特徴計算の手段を用いて、これらのサンプルに対応する特徴f(A)240、f(P)250、及びf(N)260を計算する。そして、ニューラルネットワーク200は、特徴f(A)240、f(P)250、及びf(N)260に基づいて、それぞれの距離d(f(A)、f(P))及びd(f(A)、f(N))を計算する(例示せず)。この距離は、例えば、当該特徴のユークリッド空間におけるL2ノルムであってもよいが、他の空間におけるノルムであってもよい。
次に、ニューラルネットワーク200は、選択された各サンプルのクラスに基づいて、それぞれのサンプルA210,サンプルP220,及びサンプルN230の意味的類似度(Semantic Similarity)を計算する。この意味的類似度は、例えば、Wordnet等のような、単語がグラフ構造で相関的に接続されているツールに基づいて計算されてもよい。このWordnetでは、ある言語におけるそれぞれの単語がノードとして表現されており、それぞれのノードが、他のノードとの類似度に比例する距離で位置される(すなわち、類似度の高い単語に該当するノードが近く、類似度が低い単語に該当するノードが遠い)。それぞれのサンプルの意味的類似度は、例えば、Wordnet上の距離に基づいて計算される。なお、この意味的類似度はWordnet以外の手段で計算されてもよい。
次に、ニューラルネットワーク200は、距離d(f(A)、f(P))及びd(f(A)、f(N))が、それぞれのサンプルの意味的類似度s(A,N)に比例しているか否かを確認する。この確認を行うためには、ニューラルネットワーク200は以下の数式1〜4のうち、1つ以上の数式を用いる。適用する数式は、例えば、訓練対象のニューラルネットワークの目標の分類精度に基づいて適宜選択されてもよい。
Figure 2020197910
この数1では、アンカークラスのサンプルA210と正のサンプルP220の距離d(f(A)、f(P))が、所定の閾値t未満になることが保障される。この所定の閾値tは、例えば、特徴fの次元に基づいて定められてもよい。
Figure 2020197910
この数2では、アンカークラスのサンプルA210と負のサンプルN230の距離d(f(A)、f(N))が、所定の閾値tより大きくなることが保障される。
Figure 2020197910
この数3では、アンカークラスのサンプルA210と負のサンプルN230の距離d(f(A)、f(N))が、所定の閾値tと、アンカークラスのサンプルA210と負のサンプルN230の意味的類似度s(A,N)との和未満になることが保障される。ここでは、「k」とは、特徴fのベクトル空間の次元に基づくスケーリング係数である。
Figure 2020197910
この数4では、アンカークラスのサンプルA210と負のサンプルN230の距離d(f(A)、f(N))が、所定の閾値tと、アンカークラスのサンプルA210と負のサンプルN230の意味的類似度s(A,N)との和より大きくなることが保障される。
特徴f(A)、f(P)、及びf(N)のいずれかが適用された数式で定められた条件を満たさない場合には、その結果がフィードバックとしてニューラルネットワークに提供される。この処理を繰り返すことで、ニューラルネットワークの分類精度が向上し、意味関係が存在するクラスを検出するように学習させることができる。
また、このように訓練されたニューラルネットワークは、入力された画像に対応する特徴ベクトルの属性値に対して「意味的演算」を行うことで、特徴ベクトルの次元を適宜に調整することができる。ここでは、「意味的演算」とは、入力データに示される人物、概念、状況、目的、行為、発言、理由等の意味的要素(Semantic Element)に基づいた計算である。例えば、「男性」を示す画像と、「王冠」を示す画像に対して意味的加算を行うことで、「王様」を示す画像を得ることができる。また、例えば、「ユニコーン」を示す画像と、「角」を示す画像に対して意味的減算を行うことで、「馬」を示す画像を得ることができる。
上述したSemantic Triplet Lossで訓練されたニューラルネットワークを用いることで、以下説明する本発明のそれぞれの態様を実施することができる。
次に、図3を参照して、本発明に係る画像アクセス管理における情報の次元削減の概念について説明する。
社会における多数のセンサーによって取得されるデータには、個人の身元を特定することができる「個人識別情報」が含まれる場合がある。このような個人識別情報の例としては、図3に示すように、例えば監視カメラで収集された映像データ355、運転免許証やパスポート等の身分証明書360、又は医療機関での診断結果等を示す医療データ370等が挙げられる。
この個人識別情報は、情報の形式、内容、解像度等によっては、含まれる情報の量が異なる。情報の量を表す1つの尺度としては、情報の「次元」がある。ここでは、情報の次元とは、ある情報に含まれる変数の数を意味する。この変数とは、その情報に関する有意義な推論を導出するために用いられる属性である。例えば、複数人が会話している様子を表す画像の場合、会話中の人の人数、服装(種類、色、ブランド)、性別、年齢、場所、周辺環境等が、その画像が示す意味に関する推論を導出するための属性である。
これらの属性は、数値として表現されてもよい。本明細書では、数値化した属性のことを「属性値」と呼ぶ。また、ある画像における領域やオブジェクトの属性を表す1つ以上の属性値を「特徴ベクトル」と呼ぶ。この特徴ベクトルは、含まれる属性値の数によって定義される。例えば図3に示す特徴ベクトル380の次元は「5」であり、特徴ベクトル390の次元は「3」である。
特徴ベクトルの次元によっては、導出可能な推論が異なる。原則として、特徴ベクトルの次元が高いほど、画像のより細かい要素に関する推論をより容易に導出することが可能である。例えば、画像に写る人物の顔に関する属性を含む、次元の高い特徴ベクトル380では、画像に写る人物の身元を特定する推論を導出することができる可能性が高い。一方、画像に写る人物の顔に関する属性を含まない、次元がより低い特徴ベクトル390では、画像に写る人物の身元を特定する推論を導出できる可能性が低い。したがって、特徴ベクトルの次元を本発明に係るニューラルネットワークによって適宜に調整することで、その特徴ベクトルから導出可能な推論を管理することができる。
個人情報の取り扱いが厳格化する中、蓄積されているデータに含まれる機密情報を適切に保護することが求められている。そこで、本発明は、情報の次元を調整することで、適切なアクセス権者に適切な範囲の情報を提供することができる。
図4を参照し、本発明に係る画像アクセス管理における情報のアクセス付与の概念について説明する。
上述したように、本発明は、アクセス要求者のアクセス権限に基づいて、画像の特徴ベクトルを調整することで適切な範囲の情報を提供することに関する。以下、アクセス要求者のアクセス権限に基づいて適切な範囲の情報へのアクセスを付与する一例を説明する。
図4に示すように、上述したニューラルネットワーク(図示せず)は、対象画像に関する特徴ベクトル410を計算する。上述したように、この特徴ベクトルには、対象画像の領域やオブジェクト等の属性を表す属性値を含む。例えば、対象画像では複数人が会話している様子が示されている場合には、特徴ベクトル410には、画像に写っている人々の性別、年齢、荷物、服装、及び活動を示す属性を含んでもよい。
対象画像に関する特徴ベクトル410が計算された後、当該特徴ベクトル410が特徴データベース420に格納される。特徴データベース420の詳細については後述する。
その後、アクセス要求者からの要求があった場合、後述するアクセス管理部は、アクセス要求者のアクセス要求に含まれるアクセス権限や目的に応じて、対象画像に対する閲覧レベルを判定する。この判定は予め設定された基準に基づいて行われてもよい。例えば、警察署、消防署、防衛省等の政府機関には、広範囲のアクセスを付与する閲覧レベルが定められ、民間企業、病院、銀行等の非政府組織からの要求には、限られた情報のみへのアクセスを付与する閲覧レベルが定められてもよい。
続いて、後述する画像生成部は、特徴データベース420に格納された特徴ベクトル410を、アクセス要求者のアクセス権限に基づいて判定した閲覧レベルに応じて加工することで、アクセス要求者のアクセス権限に応じた最終画像を生成し、アクセス要求への回答として提供する。
一例として、警察署450には、高度の閲覧レベルが定められ、民間企業460には、限られた情報へのアクセスが定められているとする。図4に示すように、警察署450からのアクセス要求があった場合、警察署450は高度の閲覧レベルが定められているため、特徴ベクトル410のすべての属性440を含む最終画像が生成され、アクセス要求への回答として提供される。
一方、マーケティング会社等の民間企業460からの要求があった場合、民間企業460は限られた情報へのアクセスが定められているため、特徴ベクトル410の特定の属性430(例えば、個人の身元を特定する識別力の低い属性)のみを含む最終画像が生成され、アクセス要求への回答として提供される。
これにより、機密情報を不正アクセスから守り、適切なアクセス権者に適切な範囲の情報を提供することができる。
なお、閲覧レベルの判定、特徴ベクトルの加工、及び最終画像の生成等の処理の詳細については後述する。
次に、図5を参照して、本発明に係る画像アクセス管理システム500の構成の一例について説明する。
図5に示すように、画像アクセス管理システム500は、画像アクセス装置505、センサ515、ネットワーク525、及びクライアント端末535A,535Bからなる。画像アクセス装置505は、ネットワーク525を介して、クライアント端末535A、535Bと接続される。また、画像アクセス管理装置505は、直接的にセンサ515と接続される。
画像アクセス管理装置505は、対象画像へのアクセスを管理するアクセス管理部510、対象画像の入力を受け付ける画像入力部520、対象画像を分割する画像分割部530、対象画像に対応する特徴ベクトルを計算する特徴計算部540、対象画像に基づいて計算された特徴ベクトルを格納する特徴データベース550、アクセス要求者のアクセス権限に応じて画像を生成する画像生成部560、特徴ベクトルの次元を調整する次元調整部570、及び生成された画像から推論を導出する推論部580からなる。
なお、画像アクセス管理装置505に含まれるそれぞれの機能部は、図1に示す画像アクセス管理アプリケーション350を構成するソフトウエアモジュールであってもよく、独立した専用ハードウェアデバイスであってもよい。また、上記の機能部は、同一のコンピューティング環境に実施されてもよく、分散されたコンピューティング環境に実施されてもよい。例えば、画像生成部560及び特徴計算部540を遠隔のサーバに実装し、それ以外の機能部をクライアント端末535A、535B等のローカルデバイスに実装する構成であってもよい。
センサ515は、自然現象や人工物の機械的・電磁気的・熱的・音響的・化学的性質に関する情報を取得し、人間や機械が扱い易い別媒体の信号に置き換える装置である。センサ515は、例えば、監視カメラ、録音装置、光センサ、赤外線センサ、超音波距離計、レーザードップラー振動速度計等、任意のセンサであってもよいが、本明細書では、センサ515を監視カメラとした場合を例として説明する。
クライアント端末535A、535Bは、画像アクセス管理装置505の特徴データベース550に格納される対象画像へのアクセス要求をネットワーク525を介して送信するクライアント端末である。これらのクライアント端末535A、535Bは、個人に利用される端末であってもよく、警察署や民間企業等の組織における端末であってもよい。これらのクライアント端末535A、535Bは、例えば、デスクトップパソコン、ノートパソコン、タブレット、スマートフォン等、任意のデバイスであってもよい。
なお、画像アクセス管理システム500に含まれる機能部や装置の機能の詳細については後述する。
次に、本発明に係る画像アクセス管理の処理600の一例について説明する。以下の処理は、アクセス要求者のアクセス権限に基づいて映像の特徴の情報量(次元)を適宜に変更することで、適切なアクセス権者に適切な範囲の情報を提供するための処理であり、例えば図5に示す画像アクセス管理システム500に含まれる装置や機能部によって実施される。
まず、ステップS610では、画像入力部(例えば、図5に示す画像入力部520)は、対象画像を取得する。ここで、「取得する」との表現は、対象画像を収集したり、入手したり、獲得したりすることを含む。この対象画像は、例えば、監視カメラなどのセンサ(例えば、図5に示すセンサ515)から取得される写真などの静止画であってもよく、動画等の映像であってもよい。その後、画像入力部はノイズ低減やぼやけ低減などの低レベル画像加工を行ってもよい。
次に、ステップS620では、画像分割部(例えば、図5に示す画像分割部530)は、取得した対象画像を複数の領域に分割する。ここで、「分割する」との表現は、対象画像を複数の領域に区画したり、仕切ったり、グループ化したりすることを含む。この画像分割処理では、対象画像は、例えば後述する図7の対象画像710のように、均等のサイズを有する格子状の領域に分割されてもよい。
以下、格子状の領域におけるそれぞれのマスは、「パッチ」と呼ぶ。パッチの大きさは、対象画像の画素数や複雑さに応じて適宜に定められてもよい。例えば、対象画像の画素数や複雑さが高い場合には、対象画像をより小さな面積を有する細かなパッチに分割することが望ましい。これは、パッチが小さいほど、パッチ内に含まれるオブジェクトの属性をより高い次元で表す特徴ベクトルが生成可能となるからである。
次に、ステップS630では、特徴計算部(例えば、図5に示す特徴計算部540)は、対象画像における1つ以上のパッチを含む領域に関する特徴ベクトルを計算する。ここで、「計算する」との表現は、特徴ベクトルを算出したり、割り出したり、予測したり、導出したりすることを含む。
具体的には、特徴計算部は、分割した対象画像におけるそれぞれのパッチに関する特徴値を計算し、計算した特徴値をCNN等のようなニューラルネットワークで処理することで、対象画像に対応する1つ以上の特徴マップを生成する。その後、特徴計算部は、特徴マップにおける所定の要素(例えば、1つのオブジェクト等)を特徴ベクトルとして抽出する。上述したように、この特徴ベクトルとは、対象画像におけるオブジェクトの属性を表す属性値からなるベクトルである。また、言い換えれば、この特徴ベクトルは、複数の特徴マップにおける特定の座標に対応する値のセットである。
そして、特徴計算部は、抽出した特徴ベクトルを特徴データベース(例えば図5に示す特徴データベース550)に保存する。この特徴データベースは、例えば、大量の画像から計算される特徴データを検索可能な形式で格納するデータベースである。特徴データベース420は、例えば、SQL等のドメイン固有言語を利用する関係データベース管理システム(RDBMS)であってもよい。
次に、ステップS640では、アクセス管理部(例えば図5に示す特徴データベース550)は、対象画像へのアクセス要求を受け付ける。ここで、受け付けるとの表現は、アクセス要求を受信したり、受容したり、受け入れたり、受領したり、取得したりすることを含む。このアクセス要求は、例えば、警察署、消防署、防衛省等の政府機関、民間企業、病院、銀行等の非政府組織、又は個人からのアクセス要求であってもよい。アクセス要求は、例えば、アクセス対象の画像を指定する識別子、画像をアクセスする目的、及びアクセス要求者の要求を検証するためのアクセス権限を含む。また、このアクセス要求は、例えば、図5のクライアント端末535A、535Bを介して入力されてもよい。
次に、ステップS650では、アクセス管理部は、受け付けたアクセス要求のアクセス要求者の閲覧レベルを判定する。ここで、「判定する」とは、閲覧レベルを判断したり、選択したり、決定したり、確定したり、分別したり、計算したり、判じたりすることを含む。この閲覧レベルは、あるアクセス要求者が対象画像に対して閲覧可能な範囲を定めるものである。
閲覧レベルは、例えば、高度の閲覧範囲を示す「1」、中度の閲覧範囲を示す「2」、及び低度の閲覧範囲を示す「3」等の3つの数字で表現される。閲覧レベルが高い(つまり、1に近い)ほど、対象画像に含まれる情報において、より次元が高いものの閲覧が許されることを示す。例えば、閲覧レベルが「1」の場合、対象画像に写る人物の性別や年齢等の、個人の身元を特定する識別力の高い属性を含む画像が閲覧可能となる。一方、閲覧レベルが「2」の場合、対象画像に写る人物の活動や服装等の、個人の身元を特定する識別力がより低い属性を含む画像が閲覧可能となる。
アクセス管理部は、例えば、アクセス要求に含まれるアクセス権限を予め作成されたアクセス管理表に照らし合わせることで、アクセス要求者の閲覧レベルを判定してもよい。このアクセス管理表は、例えば、アクセス要求者の種別(個人、政府機関、民間企業等)又は閲覧目的(犯罪防止、マーケティング調査等)ごとに、そのアクセス要求者の適切な閲覧レベルを定めるデータベースであってもよい。例えば、アクセス要求に含まれるアクセス権限が、そのアクセス要求者が警察署であり、閲覧目的が犯罪防止であること示す場合には、アクセス管理部は、アクセス管理表を参照することで、高度の閲覧範囲を付与する閲覧レベル「1」を判定してもよい。
次に、ステップS670では、画像生成部(例えば図5に示す画像生成部560)は、判定した閲覧レベルに応じて対象画像を加工することで、アクセス要求者のアクセス権限に応じた最終画像を生成する。ここで、「生成する」との表現は、最終画像を作成したり、作り出したり、創造したり、造成したりすることを含む。また、ここで説明する画像生成手段は、計算した特徴ベクトルを削減するステップと、削減した特徴ベクトルに基づく推論を導出するステップとの2つのステップを含むが、本発明はこれに限定されない。例えば、推論を導出ステップを省いた画像生成も、より多くのステップを含む画像生成も可能である。
まず、画像生成部の次元調整部(例えば図5に示す次元調整部570)は、対象画像に対応し、特徴データベースに保存されている特徴ベクトルの次元を後述する手法で調整(例えば、削減)する。ここでは、「調整する」との表現は、特徴ベクトルを削減したり、増加したりすることを含むが、以下では、特徴ベクトルを削減する加工を行う例について説明する。
また、後述するように、特徴ベクトルを調整する手段が複数存在し、どの手段を適用するかは、判定した閲覧レベルに基づいて選択されてもよい。例えば、閲覧レベルが「3」と判定された場合、次元調整部は、個人の身元を特定する識別力の高い属性が排除・ぼやかされるように、特徴ベクトルの次元を調整してもよい。一方、閲覧レベルが「1」と判定された場合、次元調整部は、対象画像の特徴ベクトルの次元を調整せずに、対象画像をそのまま最終画像として生成してもよい。
なお、特徴ベクトルの次元削減の手段については、図8〜10を参照して説明する。
特徴ベクトルの次元が調整された後、画像生成部の推論部(例えば図5に示す推論部580)は、次元が削減された特徴ベクトルに関する推論を導出する。ここで、「推論を導出する」との表現は、対象ベクトルに含まれる属性によって示される人物、概念、状況、目的、行為、発言、理由等に関する事柄から、人間が解釈できる情報を抽出することを意味する。例えば、対象画像は、複数人が会話している様子を表す画像である場合、推論部は、特徴ベクトルに基づいて、対象画像に写るオブジェクトの性別、服装、活動、場所、サイズ、色、種別等に関する推論を導出してもよい。
なお、上記の推論の正確性は、対象の特徴ベクトルの次元によって異なる。特徴ベクトルの次元が高いほど、対象画像に写るオブジェクトに関するより具体的な推論を導出することができる。その一方、特徴ベクトルが低いほど、対象画像に写るオブジェクトに関する推論の正確性が落ちる。本発明では、この正確性の低減を利用することで、アクセス要求者へ提供する情報の範囲を制限することができる。
推論が導出された後、画像生成部は、次元が調整された特徴ベクトル及び当該特徴ベクトルに基づいて導出された推論の情報を用いて、最終画像を生成する。この最終画像は、アクセス要求者のために判定された閲覧レベルに応じて次元が調整された特徴ベクトルに基づいて生成された画像であるため、当該アクセス要求者に適切な範囲の情報のみを提供するものである。その後、画像アクセス管理装置は、当該最終画像を要求への回答として、アクセス要求者に提供する。
上述の処理により、機密情報を不正アクセスから守り、適切なアクセス権者に適切な範囲の情報を提供することができる。
次に、図7を参照して、本発明に係る画像アクセス管理におけるニューラルネットワーク720による特徴ベクトル740の計算の一例について説明する。
監視カメラ(例えば、図5に示すセンサ515)から、複数人が会話している様子を表す対象画像710が取得されるとする。画像分割部(例えば、図5に示す画像分割部530)は、図7に示すように、対象画像710を均等の面積を有するパッチに分割する。
そして、特徴計算部(例えば、図5に示す特徴計算部540)は、分割した対象画像におけるそれぞれのパッチに関する特徴値を計算し、計算した特徴値をCNN等のようなニューラルネットワーク720で処理することで、対象画像に対応する1つ以上の特徴マップ730を生成する。その後、特徴計算部は、特徴マップ730における所定の領域(例えば、1つ以上のパッチ)の値を特徴ベクトル740として抽出する。
この特徴ベクトル740には、対象画像における所定の領域の属性を表す複数の属性値が含まれる。例えば、図7に示すように、所定の領域に、青いシャツを着て、黒いズボンを履いて、立って話している男性が写る場合には、これらのそれぞれの属性を表す属性値が特徴ベクトル740に含まれる。
なお、5つの属性値を含む特徴ベクトルを例として説明したが、本発明はこれに限定されず、特徴ベクトルの属性値の数は所定の領域に写るオブジェクトの複雑さによって任意の値に設定されてもよい。
次に、図8〜10を参照して、本発明に係る特徴ベクトルの次元調整(削減)の手段について説明する。
図8を参照して、本発明に係る画像アクセス管理における、特徴の意味的結合による特徴ベクトルの次元削減について説明する。
上述したように、本発明では、適切なアクセス権者に適切な範囲の情報を提供することために、次元調整部(例えば、図5に示す次元調整部570)は、対象画像から計算した特徴ベクトルの次元を削減する加工を行う。この次元削減の1つの方法では、次元調整部は、対象画像において異なる領域(パッチ)に対応する複数の特徴ベクトルの意味的平均を計算することで、次元が削減された特徴ベクトルを生成する。以下では、この次元削減の手段による一例について説明する。
まず、上述した特徴計算部(例えば、図5に示す特徴計算部540)は、対象画像810における第1のパッチに関する第1の特徴ベクトルを計算し、第2のパッチに関する第2特徴ベクトルを計算する。特徴ベクトルの計算は、例えば図7に示す特徴ベクトルの計算手段で計算されてもよい。
なお、この第1のパッチと第2のパッチは、任意のパッチであってもよいが、対象画像において相対的に近い(例えば、所定の距離閾値以内)パッチであることが望ましい。これは、対象画像におけるパッチが互いに近いほど、共通の属性に関連する確率が高く、より有意義な推論を導出することが可能な特徴ベクトルが得られるからである。
その後、次元調整部(例えば、図5に示す次元調整部570)は、第1の特徴ベクトルと、第2の特徴ベクトルとの意味的平均を計算する。この意味的平均は、例えば、上述したSemantic Triplet Lossの訓練方法で訓練されているCNNの意味的演算によって計算されてもよい。
複数の特徴ベクトルの意味的平均を計算することで、特徴ベクトルの属性に関する細かい情報が失われ、属性に関して、より大雑把な情報を有する特徴ベクトル(すなわち、次元がより低い特徴ベクトル)となる。また、以上では、2つのパッチに対応する2つの特徴ベクトルの意味的平均を計算した場合について述べたが、この処理は任意の数の特徴ベクトルに対して行われてもよく、特徴ベクトルを増やすほど、導出可能な推論がより大雑把な(つまり、次元が低い)情報となる。
例えば、2つのパッチを含む領域840に対応する特徴ベクトルの意味的平均を計算し、計算した特徴ベクトル845に関する推論を導出した場合、「3人の男性が会話中」との、性別、人数、及び活動の情報が明らかとなる推論を導出することができる。一方、6つのパッチを含む領域820に対応する特徴ベクトルの意味的平均を計算し、計算した特徴ベクトル825に関する推論を導出した場合、「複数人」との、性別や活動に関する情報が失われ、より大雑把な情報に関する推論となる。
このように、対象画像における複数のパッチに対応する特徴ベクトルの意味的平均を計算することで、個人の身元を特定する識別力の高い属性を含まない、次元が削減された特徴ベクトルを生成することができる。この次元が削減された特徴ベクトル及び当該特徴ベクトルに関する推論を用いることで、アクセス要求者に適切な範囲の情報のみを提供する最終画像を生成することができる。
次に、本発明に係る画像アクセス管理における、属性値変更による特徴ベクトルの次元削減の一例について説明する。
上述したように、本発明では、適切なアクセス権者に適切な範囲の情報を提供するために、次元調整部(例えば、図5に示す次元調整部570)は、対象画像から計算した特徴ベクトルの次元を削減する加工を行う。この次元削減の1つの方法では、次元調整部は、特徴ベクトルに含まれる特定の属性値を変更することで、次元が削減された特徴ベクトルを得ることができる。
以下では、特徴ベクトルに含まれる特定の属性値を変更するための3つの手段について説明するが、本発明は以下の手段に限定されず、これら以外の手段で特徴ベクトルの属性を変更してもよい。
特徴ベクトルの属性値を変更する手段の1つとしては、特徴ベクトルの1つ以上の属性値の代わりに、「0」を挿入することができる。例えば、図9に示すように、5つの属性値を有する特徴ベクトル910における下位の2つの属性値913を「0」に入れ替えることで、特定の属性(例えば、性別や年齢等の、個人の身元を特定する識別力の高い情報)を初期の状態に戻した特徴ベクトル912を得ることができる。
例えば、対象画像に写る人物が会話中の場合、人物の活動に対応する属性値を「0」に入れ替えることで、写る人物が何もしていないことを示す属性値を含む特徴ベクトルが得られる。
特徴ベクトルの属性値を変更する手段のもう1つとしては、特徴ベクトルの1つ以上の属性値の代わりに、ランダムな値を挿入する手段がある。例えば、図9に示すように、5つの属性値を有する特徴ベクトル910における下位の2つの属性値915をランダムな値に入れ替えることで、特定の属性を無作為な状態に設定した特徴ベクトル916を得ることができる。
例えば、対象画像に写る人物の洋服の色が赤い場合、洋服の色に対応する属性値をランダムな値にすることで、写る人物の洋服の色がランダムな色(例えば、緑)であることを示す属性値を含む特徴ベクトルが得られる。
特徴ベクトルの属性値を変更する手段のもう1つとしては、特徴ベクトルの1つ以上の属性値を削除することができる。例えば、図9に示すように、5つの属性値を有する特徴ベクトル910における下位の2つの属性値915を削除することで、特定の属性を排除した特徴ベクトル916を得ることができる。
例えば、対象画像に写る人物が荷物を持っている場合、その荷物に対応する属性値を削除することで、写る人物が荷物を持っていない状態を示す属性値を含む特徴ベクトルが得られる。
上述したように、このように次元が削減された特徴ベクトルについて導出する推論は、対象画像とは異なり、より大雑把なものとなる。例えば、元の特徴ベクトルについて「座標(X1、Y1、X2、Y2)に、青いシャツを着ている男性が話している」という推論が導出されたのに対して、次元が削減された特徴ベクトルについて導出できる推論が「座標(X1、Y1、X2、Y2)に、男性が立っている」や「座標(X1、Y1、X2、Y2)に、赤いシャツを着ている男性が話している」等となる。つまり、情報が失われたり、対象画像と異なる状態を示すものとなることが考えられる。本発明では、この情報の正確性を低減させることで、アクセス要求者へ提供する情報の範囲を制限することができる。
このように、特徴ベクトルに含まれる特定の属性値を変更することで、個人の身元を特定する識別力の高い属性等を含まない、次元が削減された特徴ベクトルを生成することができる。つまり、この次元が削減された特徴ベクトル及び当該特徴ベクトルに関する推論を用いることで、アクセス要求者に適切な範囲の情報のみを提供する最終画像を生成することができる。
次に、図10を参照して、本発明に係る画像アクセス管理における、通信ネットワークの制約による情報の次元削減の一例について説明する。
上述したように、本発明では、適切なアクセス権者に適切な範囲の情報を提供することために、次元調整部(例えば、図5に示す次元調整部570)は、対象画像から計算した特徴ベクトルの次元を削減する加工を行う。この次元削減の1つの方法では、次元調整部は、WAN、LAN,インターネット等の通信ネットワークに依存する制約を利用することで、次元が削減された特徴ベクトルを生成することができる。以下、この次元削減の方法の詳細について説明する。
画像アクセス管理装置とクライアント端末が通信ネットワークを介して接続される場合には、通信ネットワークの帯域幅、情報流量の制限、ノイズ、ファイヤーウォール等の制約によって、送信されるデータの一部が失われることがある。本発明では、このデータ損失を利用することで、特徴ベクトルの次元を削減することができる。
特徴ベクトル1000が通信チャンネル1010を介して送信される場合を例として説明する。通信チャンネル1010の帯域幅、情報流量の制限、ノイズ、ファイヤーウォール等のいずれかの制約により、特徴ベクトル1000に含まれる属性が失われたとする。その後、属性が失われた特徴ベクトル1000を受信した側(例えば、図5に示すクライアント端末535A、535B)は、失われた属性の代わりに、任意の値を挿入する。この任意の値は、例えば、「0」であってもよく、ランダムに生成された値であってもよく、さらには、残っている属性の平均値であってもよい。
次に、属性が失われた特徴ベクトル1000を受信した側が、CNN等のニューラルネットワーク1050を用いて、受信した特徴ベクトル1000の属性に対応する部分的画像1060を生成する。この部分的画像1060は、「偽」の属性値(つまり、本来の属性値とは異なる値)が含まれる特徴ベクトルに基づいて生成されるため、送信前の特徴ベクトル1000に比べて次元が削減されたものとなる。その後、生成した部分的画像1060を予め定められた背景画像1070に挿入することで、最終画像を生成することができる。
なお、以上では、特徴ベクトルの次元が通信ネットワークの制約によって無作為に削減される場合を例示したが、本発明はこれに限定されない。例えば、所定のノイズ量が特徴ベクトルに対して課されたり、特定の属性に該当するデータパケットの送信が阻止されたりするようにルーターやファイヤーウォール等の通信制御部を構成することで、アクセス要求者のアクセス権限に基づいて特徴ベクトルの次元を調整(削減)することができる。また、上記の方法では、対象画像全体ではなく、特徴ベクトルのみがネットワーク上で送信されるため、送信されるデータ量を減らす効果も得られる。
次に、図11を参照して、本発明に係る画像アクセス管理における、特徴の意味的演算による画像生成の一例について説明する。
上述したように、本発明では、Semantic Triplet Lossの訓練方法で訓練されているCNNを用いることで、特徴ベクトルの特定の属性値を変更することや、特徴ベクトルに対する意味的演算を行うことができる。また、これらの処理を用いることで、所望の属性を有する最終画像を生成することができる。以下では、所望の属性を有する最終画像を生成する手段の一例について説明する。
まず、1つの属性値のセットをもう一つの属性値のセットから減算することで、特定の属性を含まない最終画像を生成する手段について説明する。
特徴計算部(例えば、図5に示す特徴計算部540)は、スーツのジャケット等の第1の属性を有する男性等のオブジェクトを表す第1画像1100を受信する。そして、特徴計算部は、第1の属性を表す第2の画像1110を受信する。これらの画像は、例えば、ユーザに指定されてもよく、監視カメラ等のセンサから取得されてもよい。
そして、特徴計算部は、第1の画像のオブジェクト(例えば、図11のジャケットを着ている男性)に対応する第1の属性値のセット1120と、第2の画像の属性(例えば、図11のジャケット)に対応する第2の属性値のセット1130を計算する。その後、特徴計算部は、第2の画像の属性に対応する第2の属性値のセット1130を、第1の画像のオブジェクトに対応する第1の属性値のセット1120から減算することで、第3の属性値のセット1150を計算する。この第3属性値のセットは、第2の属性値のセットを第1の属性値のセットから引いた特徴ベクトルである。
そして、画像生成部(例えば、図5に示す画像生成部560)は、計算した第3属性値のセット1150に基づいて、第1の属性を有しないオブジェクトの画像を最終画像1160として生成する。例えば、図11に示すように、ジャケットに対応する第2の属性値のセット1130を、ジャケットを着ている男性に対応する第1の属性値のセット1120から減算することで、ジャケットを着ていない男性の画像が得られる。
次に、1つの属性値のセットをもう1つの属性値のセットに加算することで、特定の属性を含む最終画像を生成する手段について説明する(例示せず)。
特徴計算部は、スーツのジャケット等の第1の属性を有しない男性等のオブジェクトを表す第1画像を受信する。そして、特徴計算部は、第1の属性を表す第2の画像を受信する。これらの画像は、例えば、ユーザに指定されてもよく、監視カメラ等のセンサから取得されてもよい。
そして、特徴計算部は、第1の画像のオブジェクト(例えば、ジャケットを着ていない男性)に対応する第1の属性値のセットと、第2の画像の属性(例えば、ジャケット)に対応する第2の属性値のセットを計算する。その後、特徴計算部は、第2の画像の属性に対応する第2の属性値のセットを、第1の画像のオブジェクトに対応する第1の属性値のセットに加算することで、第3の属性値のセットを計算する。この第3属性値のセットは、第2の属性値のセットと第1の属性値のセットを足した特徴ベクトルである。
そして、画像生成部は、計算した第3属性値のセットに基づいて、第1の属性を有するオブジェクトの画像を最終画像として生成する。例えば、ジャケットに対応する第2の属性値のセットを、ジャケットを着ていない男性に対応する第1の属性値のセットに加算することで、ジャケットを着ている男性の画像が得られる。
以上説明した、意味的減算又は意味的加算による属性値の変更では、所望の属性を含む最終画像や含まない最終画像を生成することができる。また、上記では、特定の属性を挿入する例や、特定の属性を削除する例について説明したが、本発明に係る意味的演算はこれに限定されない。例えば、特定の属性の挿入や削除に加えて、オブジェクトの色、サイズ、数等、様々なパラメータを調整することができる。
このようなに生成した最終画像は、例えば、ある人物の身元を特定するためや、ある人物の身元を隠すために用いられてもよい。例えば、最終画像における属性を適宜に変更することで、最終画像に写る人物の見た目と、実際の人物の見た目との類似度を自由に調整することができる。例としては、人物の身元を隠したい場合には、髭やサングラス等を加えることで、実際の人物との見た目を異ならせることができる。一方、人物の身元を特定したい場合には、対象画像に写る人物の髭やサングラス等を削除することで、その人物の本来の姿に近い画像を生成し、この画像を既存のオブジェクト検出手段を行うように訓練されたニューラルネットワークに入力することで、特定の人物を画像中に検出することができる。
また、以上説明した手段で得られた最終画像は、例えば、ニューラルネットワークを訓練するために用いられてもよい。例えば、対象画像をグラウンドトゥルースとし、属性を変更した最終画像をソフトターゲットとすることで、ニューラルネットワークを訓練させ、分類精度を向上させることができる。
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
500 画像アクセス管理システム
505 画像アクセス管理装置
510 アクセス管理部
515 センサ
520 画像入力部
525 ネットワーク
530 画像分割部
535A、535B クライアント端末
540 特徴計算部
550 特徴データベース
560 画像生成部
570 次元調整部
580 推論部

Claims (15)

  1. 画像へのアクセスを管理するための画像アクセス管理装置であって、
    前記画像アクセス管理装置は、
    特徴計算部と、アクセス管理部と、画像生成部とを備え、
    前記特徴計算部は、
    対象画像における所定領域に関する特徴ベクトルを抽出し、
    前記画像アクセス管理装置が、前記対象画像へのアクセス要求を受信する場合、
    前記アクセス管理部は、
    前記対象画像へのアクセス要求に含まれるアクセス権限や目的に応じて、前記対象画像に対する閲覧レベルを判定し、
    前記画像生成部は、
    前記特徴ベクトルを前記閲覧レベルに応じて加工することで、前記アクセス権限に応じた最終画像を生成し、前記アクセス要求への回答として提供する、
    ことを特徴とする画像アクセス管理装置。
  2. 前記画像生成部は、
    次元調整部と、推論部を更に備え、
    前記次元調整部は、
    前記閲覧レベルに応じて、前記特徴ベクトルの情報量を削減する加工を行い、
    前記推論部は、
    情報量が削減された前記特徴ベクトルに基づいて、前記特徴ベクトルに関する推論を導出し、
    前記画像生成部は、
    情報量が削減された前記特徴ベクトルと、前記推論とに基づいて、前記最終画像を生成する、
    ことを特徴とする、請求項1に記載の画像アクセス管理装置。
  3. 前記画像アクセス管理装置は、通信ネットワークを介してクライアント端末と接続されており、
    前記次元調整部は、
    前記特徴ベクトルを前記通信ネットワークに依存する制約を利用して、前記特徴ベクトルの情報量を削減する加工を行い、
    前記クライアント端末は、
    情報量が削減された前記特徴ベクトルを受信し、ニューラルネットワークで処理することで、前記特徴ベクトルに基づいた部分的画像を生成し、
    前記部分的画像を、予め定められた背景画像に挿入することで、前記最終画像を生成する、
    ことを特徴とする、請求項2に記載の画像アクセス管理装置。
  4. 前記対象画像の所定領域は、
    少なくとも第1パッチ及び第2パッチを含み、
    前記特徴計算部は、
    前記第1パッチに関する第1特徴ベクトルを抽出し、
    前記第2パッチに関する第2特徴ベクトルを抽出し、
    前記次元調整部は、
    前記第1特徴ベクトルと、前記第2特徴ベクトルとの意味的平均を計算することで、前記第1特徴ベクトル及び第2特徴ベクトルに比べて情報量が削減された第3特徴ベクトルを生成する、
    ことを特徴とする、請求項2に記載の画像アクセス管理装置。
  5. 前記特徴ベクトルは、前記対象画像におけるオブジェクトの属性を表す1つ以上の属性値を含み、
    前記次元調整部は、
    前記属性値を変更することで、前記特徴ベクトルの情報量を削減する加工を行う、
    ことを特徴とする、請求項2に記載の画像アクセス管理装置。
  6. 前記特徴計算部は、
    第1の属性を有するオブジェクトを表す第1の画像と、前記第1の属性を表す第2の画像とを受信し、
    前記第1の画像に基づいて、前記オブジェクトに対応する第1の属性値のセットを計算し、
    前記第2の画像に基づいて、前記第1の属性に対応する第2の属性値のセットを計算し、
    前記第2の属性値のセットを、前記第1の属性値のセットから減算し、第3の属性値のセットを計算することで、前記第1の画像の属性値の変更を行い、
    前記画像生成部は、
    前記第3の属性値のセットに基づいて、前記第1の属性を有しない前記オブジェクトの画像を生成する、
    ことを特徴とする、請求項5に記載の画像アクセス管理装置。
  7. 前記特徴計算部は、
    第1の属性を有しないオブジェクトを表す第1の画像と、前記第1の属性を表す第2の画像とを受信し、
    前記第1の画像に基づいて、前記オブジェクトに対応する第1の属性値のセットを計算し、
    前記第2の画像に基づいて、前記第1の属性に対応する第2の属性値のセットを計算し、
    前記第2の属性値のセットを、前記第1の属性値のセットに加算し、第3の属性値のセットを計算することで、前記第1の画像の属性値の変更を行い、
    前記画像生成部は、
    前記第3の属性値のセットに基づいて、前記第1の属性を有する前記オブジェクトの画像を生成する、
    ことを特徴とする、請求項5に記載の画像アクセス管理装置。
  8. 画像へのアクセスを管理するための画像アクセス管理装置によって実施される画像アクセス管理方法であって、
    前記画像アクセス管理装置は、
    特徴計算部と、アクセス管理部と、画像生成部とを備え、
    前記画像アクセス管理方法は、
    前記特徴計算部によって、
    対象画像における所定領域に関する特徴ベクトルを抽出する工程と、
    前記画像アクセス管理装置が、前記対象画像へのアクセス要求を受信する場合、
    前記アクセス管理部によって、
    前記対象画像へのアクセス要求に含まれるアクセス権限や目的に応じて、前記対象画像に対する閲覧レベルを判定する工程と、
    前記画像生成部によって、
    前記特徴ベクトルを前記閲覧レベルに応じて加工することで、前記アクセス権限に応じた最終画像を生成する工程と、
    前記最終画像を前記アクセス要求の回答として提供する工程と、
    を含む画像アクセス管理方法。
  9. 前記画像生成部は、
    次元調整部と、推論部を更に備え、
    前記最終画像を生成する工程は、
    前記次元調整部によって、
    前記閲覧レベルに応じて、前記特徴ベクトルの情報量を削減する加工を行う工程と、
    前記推論部によって、
    情報量が削減された前記特徴ベクトルに基づいて、前記特徴ベクトルに関する推論を導出する工程と、
    前記画像生成部によって、
    情報量が削減された前記特徴ベクトルと、前記推論とに基づいて、前記最終画像を生成する工程と、
    を更に含む、請求項8に記載の画像アクセス管理方法。
  10. 前記画像アクセス管理装置は、通信ネットワークを介してクライアント端末と接続されており、
    前記最終画像を生成する工程は、
    前記次元調整部によって、
    前記特徴ベクトルを前記通信ネットワークに依存する制約を利用して、前記特徴ベクトルの情報量を削減する加工を行う工程と、
    前記クライアント端末によって、
    情報量が削減された前記特徴ベクトルを受信し、ニューラルネットワークで処理することで、前記特徴ベクトルに基づいた部分的画像を生成する工程と、
    前記部分的画像を、予め定められた背景画像に挿入することで、前記最終画像を生成する工程と、
    を更に含む、請求項9に記載の画像アクセス管理方法。
  11. 前記対象画像の所定領域は、
    少なくとも第1パッチ及び第2パッチを含み、
    前記画像アクセス管理方法は、
    前記特徴計算部によって、
    前記第1パッチに関する第1特徴ベクトルを抽出する工程と、
    前記第2パッチに関する第2特徴ベクトルを抽出する工程と、
    前記次元調整部によって、
    前記第1特徴ベクトルと、前記第2特徴ベクトルとの意味的平均を計算することで、前記第1特徴ベクトル及び第2特徴ベクトルに比べて情報量が削減された第3特徴ベクトルを生成する、
    を更に含む、請求項9に記載の画像アクセス管理方法。
  12. 前記特徴ベクトルは、前記対象画像におけるオブジェクトの属性を表す1つ以上の属性値を含み、
    前記画像アクセス管理方法は、
    前記次元調整部によって、
    前記属性値を変更することで、前記特徴ベクトルの情報量を削減する加工を行う工程、
    を更に含む、請求項9に記載の画像アクセス管理方法。
  13. 前記画像アクセス管理方法は、
    前記特徴計算部によって、
    第1の属性を有するオブジェクトを表す第1の画像と、前記第1の属性を表す第2の画像とを受信する工程と、
    前記第1の画像に基づいて、前記オブジェクトに対応する第1の属性値のセットを計算する工程と、
    前記第2の画像に基づいて、前記第1の属性に対応する第2の属性値のセットを計算する工程と、
    前記第2の属性値のセットを、前記第1の属性値のセットから減算し、第3の属性値のセットを計算することで、前記第1の画像の属性値の変更を行う工程と、
    前記画像生成部によって、
    前記第3の属性値のセットに基づいて、前記第1の属性を有しない前記オブジェクトの画像を生成する工程と、
    を更に含む、請求項12に記載の画像アクセス管理方法。
  14. 前記画像アクセス管理方法は、
    前記特徴計算部によって、
    第1の属性を有しないオブジェクトを表す第1の画像と、前記第1の属性を表す第2の画像とを受信する工程と、
    前記第1の画像に基づいて、前記オブジェクトに対応する第1の属性値のセットを計算する工程と、
    前記第2の画像に基づいて、前記第1の属性に対応する第2の属性値のセットを計算する工程と、
    前記第2の属性値のセットを、前記第1の属性値のセットに加算し、第3の属性値のセットを計算することで、前記第1の画像の属性値の変更を行う工程と、
    前記画像生成部は、
    前記第3の属性値のセットに基づいて、前記第1の属性を有する前記オブジェクトの画像を生成する工程と、
    を更に含む、請求項12に記載の画像アクセス管理方法。
  15. 画像へのアクセスを管理するための画像アクセス管理システムであって、
    前記画像アクセス管理システムは、
    特徴計算部と、アクセス管理部と、画像生成部とを有する画像アクセス管理装置と、
    対象画像を取得するセンサ装置と、
    前記対象画像へのアクセス要求を作成し、送信するクライアント端末と、
    を備え、
    前記画像アクセス管理装置と、前記センサ装置と、前記クライアント端末とがネットワークを介して接続されており、
    前記特徴計算部は、
    前記センサ装置から前記対象画像を取得し、前記対象画像における所定領域に関する特徴ベクトルを抽出し、
    前記画像アクセス管理装置が、前記対象画像へのアクセス要求を前記クライアント端末から受信する場合、
    前記アクセス管理部は、
    前記対象画像へのアクセス要求に含まれるアクセス権限や目的に応じて、前記対象画像に対する閲覧レベルを判定し、
    前記画像生成部は、
    前記特徴ベクトルを前記閲覧レベルに応じて加工することで、前記アクセス権限に応じた最終画像を生成し、前記クライアント端末からの前記アクセス要求への回答として提供する、
    ことを特徴とする画像アクセス管理システム。
JP2019103698A 2019-06-03 2019-06-03 画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム Active JP7224240B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019103698A JP7224240B2 (ja) 2019-06-03 2019-06-03 画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム
EP20169799.2A EP3748535A1 (en) 2019-06-03 2020-04-16 Image access management device, image access management method, and image access management system
US16/879,224 US11537750B2 (en) 2019-06-03 2020-05-20 Image access management device, image access management method, and image access management system
SG10202004901RA SG10202004901RA (en) 2019-06-03 2020-05-26 Image access management device, image access management method, and image access management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019103698A JP7224240B2 (ja) 2019-06-03 2019-06-03 画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム

Publications (2)

Publication Number Publication Date
JP2020197910A true JP2020197910A (ja) 2020-12-10
JP7224240B2 JP7224240B2 (ja) 2023-02-17

Family

ID=70292837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019103698A Active JP7224240B2 (ja) 2019-06-03 2019-06-03 画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム

Country Status (4)

Country Link
US (1) US11537750B2 (ja)
EP (1) EP3748535A1 (ja)
JP (1) JP7224240B2 (ja)
SG (1) SG10202004901RA (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494616B2 (en) * 2019-05-09 2022-11-08 Shenzhen Malong Technologies Co., Ltd. Decoupling category-wise independence and relevance with self-attention for multi-label image classification
US11704374B2 (en) * 2021-01-30 2023-07-18 Walmart Apollo, Llc Systems and methods for personalizing search engine recall and ranking using machine learning techniques
US11763135B2 (en) * 2021-03-01 2023-09-19 Robert Bosch Gmbh Concept-based adversarial generation method with steerable and diverse semantics

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213181A (ja) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International プライバシー保護画像生成装置
JP2019071050A (ja) * 2017-10-06 2019-05-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8717604B2 (en) * 2010-05-17 2014-05-06 Canon Kabushiki Kaisha Image processing system, image processing method, and program for image processing method
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US11195057B2 (en) * 2014-03-18 2021-12-07 Z Advanced Computing, Inc. System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US9553885B2 (en) * 2015-06-08 2017-01-24 Illusive Networks Ltd. System and method for creation, deployment and management of augmented attacker map
US10108850B1 (en) 2017-04-24 2018-10-23 Intel Corporation Recognition, reidentification and security enhancements using autonomous machines
US11397428B2 (en) * 2017-08-02 2022-07-26 Strong Force Iot Portfolio 2016, Llc Self-organizing systems and methods for data collection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213181A (ja) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International プライバシー保護画像生成装置
JP2019071050A (ja) * 2017-10-06 2019-05-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7224240B2 (ja) 2023-02-17
US20200380168A1 (en) 2020-12-03
SG10202004901RA (en) 2021-01-28
EP3748535A1 (en) 2020-12-09
US11537750B2 (en) 2022-12-27

Similar Documents

Publication Publication Date Title
Zhao et al. A survey on differential privacy for unstructured data content
Ross et al. Some research problems in biometrics: The future beckons
WO2021232832A1 (zh) 数据处理方法、联邦学习的训练方法及相关装置、设备
Hasan et al. Automatically detecting bystanders in photos to reduce privacy risks
CN111626319A (zh) 计算环境中可解释人工智能的误用指标
US11537750B2 (en) Image access management device, image access management method, and image access management system
CN111886842B (zh) 使用基于阈值的匹配进行远程用户身份验证
US11727717B2 (en) Data-driven, photorealistic social face-trait encoding, prediction, and manipulation using deep neural networks
JP2017506379A (ja) 無制約の媒体内の顔を識別するシステムおよび方法
Li et al. A cloud-based monitoring system via face recognition using Gabor and CS-LBP features
US11734570B1 (en) Training a network to inhibit performance of a secondary task
US20220286438A1 (en) Machine learning techniques for mitigating aggregate exposure of identifying information
WO2022188697A1 (zh) 提取生物特征的方法、装置、设备、介质及程序产品
Zhong et al. A Group-Based Personalized Model for Image Privacy Classification and Labeling.
US20190279011A1 (en) Data anonymization using neural networks
US20230237176A1 (en) Image content obfuscation using a neural network
CN114883005A (zh) 一种数据分类分级方法、装置、电子设备和存储介质
Nakamura et al. Encryption-free framework of privacy-preserving image recognition for photo-based information services
Sedik et al. An efficient cybersecurity framework for facial video forensics detection based on multimodal deep learning
TW202113685A (zh) 人臉辨識的方法及裝置
CN112041847A (zh) 提供具有隐私标签的图像
CN113762237B (zh) 文本图像处理方法、装置、设备及存储介质
Lang et al. Covert photo classification by fusing image features and visual attributes
Gati et al. Differentially Private Tensor Deep Computation for Cyber–Physical–Social Systems
Kuang et al. Anonymous identity sampling and reusable synthesis for face camouflage

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230207

R150 Certificate of patent or registration of utility model

Ref document number: 7224240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150