JP6797854B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP6797854B2
JP6797854B2 JP2018050181A JP2018050181A JP6797854B2 JP 6797854 B2 JP6797854 B2 JP 6797854B2 JP 2018050181 A JP2018050181 A JP 2018050181A JP 2018050181 A JP2018050181 A JP 2018050181A JP 6797854 B2 JP6797854 B2 JP 6797854B2
Authority
JP
Japan
Prior art keywords
data
information processing
division
unit
analyzer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018050181A
Other languages
English (en)
Other versions
JP2019160240A (ja
Inventor
琢 佐々木
琢 佐々木
啓太 三上
啓太 三上
森賀 邦広
邦広 森賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018050181A priority Critical patent/JP6797854B2/ja
Priority to US16/971,313 priority patent/US20210081821A1/en
Priority to PCT/JP2019/010714 priority patent/WO2019177130A1/ja
Publication of JP2019160240A publication Critical patent/JP2019160240A/ja
Application granted granted Critical
Publication of JP6797854B2 publication Critical patent/JP6797854B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0324Details of processing therefor
    • G10L21/034Automatic adjustment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置および情報処理方法に関する。
従来、入力されたデータの中の重要な部分(特徴部)と重要でない部分(背景)とに分ける技術がある。例えば、深層学習を用いた技術によれば、画像データの背景を無視し、特徴部だけを検出したうえで分析を行うことができる。この技術は次の2つの効果を持つ。
・精度がよい(背景≒ノイズに左右されないため)
・処理速度が速い(背景の評価をスキップできるため)
上記の技術は、例えば、監視カメラの画像または映像に写る被写体、例えば、人物や動物や移動体等の分析等に適用可能である。
また、上記のように映像または画像に写る被写体の分析を行う技術として、EDRAM(Enriched Deep Recurrent visual Attention Model)がある。このEDRAMは、入力画像または入力映像に対し、被写体部分をとらえるための枠を移動させ、枠を移動させる都度、枠により切り取られた範囲に対して分析を行う技術である。
ここで、枠の移動は、画像に対しては縦横の2方向に移動し、映像に対しては縦横に時間軸を加えた3方向に移動することにより行われる。また、画像または映像の被写体を囲うような位置に移動することにより行われる。ここで、枠により切り取られた範囲に対する分析は、例えば、被写体についての以下の分類および照合により行われる。なお、以下は、被写体が人物である場合の分類および照合の例である。
・分類:人物の属性(例えば、性別、年齢、着ている服等)を推定する
・照合:与えられた人物と同一人物か否かを判定する
なお、上記の分類には、人物の属性の推定の他、人物の動作等、人物に関する様々な情報、状態を推定することが含まれる。
また、EDRAMは、例えば、以下の4つニューラルネットワーク(NN)により構成される。
・初期化NN:最初の枠を決めるNN
・コアNN:過去に枠が何を見てきたかを「記憶」するNN
・移動NN:記憶に基づき、枠を最適な位置に移動させるNN
・分析NN:記憶に基づき、分析結果を出すNN
上記の4つのNNの関係を図12に示す。
EDRAMは、初期化NNにおいて、例えば、人物を含む画像101を取得すると、画像101の最初の枠を決め、切り取る。そして、コアNNにおいて切り取った枠(例えば、図12に示す1回目の枠)の位置を記憶し、分析NNにおいて1回目の枠内の分析を行い、分析結果を出力する(例えば、30代、女性等)。
その後、移動NNにおいて、枠を最適な位置に移動させる。例えば、移動NNは、枠の位置を、図12に示す2回目の枠の位置に移動させる。そして、コアNNにおいて、当該移動により切り取った枠(例えば、上記の2回目の枠)の位置を記憶し、分析NNにおいて2回目の枠内の分析を行い、分析結果を出力する。
その後、移動NNにおいて枠をさらに最適な位置に移動させる。例えば、移動NNは、枠の位置を、図12に示す3回目の枠の位置に移動させる。その後、コアNNにおいて、当該移動により切り取った枠(例えば、上記の3回目の枠)を記憶し、分析NNにおいて3回目の枠内の分析を行い、分析結果を出力する。
EDRAMが、このような処理を繰り返すことで、枠は徐々に絞り込まれていき、やがて枠は画像101内の人物の全身に収束する。よって、EDRAMにおいて、枠を画像内の人物の全身に収束させるためには、初期化NNにより生成される枠が人物を含んでいることが重要である。換言すると、初期化NNにおいて生成される枠(1回目の枠)が人物を含んでいないと、移動NNにおいて枠を何回絞り込んでも人物は見つかりづらい。
ここで、実験を行ったところ、EDRAMで扱う画像群がマルチスケール性を有する場合、人物を含むような枠の初期化に失敗することが多いという実験結果が得られた。このマルチスケール性とは、画像により写っている人物の大きさ(スケール)が異なる性質である。例えば、図13に示すように、画像群それぞれの人物の大きさ(スケール)が異なる場合、当該画像群はマルチスケール性を有することになる。
EDRAMで扱う画像群がマルチスケール性を有する場合、人物を含む枠の初期化に失敗し、その結果、画像中の人物の分析精度が低くなってしまうおそれがある。
このことを、図14を用いて説明する。例えば、EDRAMで扱う画像群が、すべての画像で人物のスケールがほぼ同じであるデータセットAである場合、何回か訓練すれば、EDRAMにより初期化された1回目の枠は、高確率で人物を含むものとなる。つまり、高確率で人物を含むような初期化ができる。一方、EDRAMで扱う画像群が、画像によって人物のスケールが異なるデータセットBである場合、何回訓練しても、EDRAMにより初期化された1回目の枠は、高確率で人物を含むようなものにならない。つまり、高確率で人物を含むような初期化ができない。その結果、画像中の人物の分析精度が低くなってしまうおそれがある。
なお、EDRAMで扱う画像群がマルチスケール性を有する場合に、人物を含むような枠の初期化に失敗してしまうのは、以下の理由によると考えられる。
例えば、図14のデータセットBの画像201,202,203のように、画像201,202における人物のスケールに対し、画像203における人物のスケールが小さい場合、EDRAMは、画像201,202につられて、画像203についても同じようなスケールの人物を含むような1回目の枠を生成してしまう。その結果、EDRAMは、画像203について人物とは異なる場所に1回目の枠を生成してしまうからと考えられる(符号204に示す枠参照)。
Artsiom Ablavatski, Shijian Lu, Jianfei Cai, "Enriched Deep Recurrent Visual Attention Model for Multiple Object Recognition", IEEE WACV 2017, 12 Jun 2017
上記のEDRAMのみならず、入力データから特徴部を抽出し、分析する分析装置において、入力データがマルチスケール性を有する場合、初期化された1回目の枠は特徴部を含まない可能性がある。そのため、入力データを精度よく分析することができない場合がある。そこで、本発明は、前記した問題を解決し、入力データがマルチスケール性を有する場合であっても、入力データの特徴部を精度よく分析することを目的とする。
前記した課題を解決するため、本発明は、データの特徴部を抽出し、分析を行う分析装置で用いられるデータの前処理を行う情報処理装置であって、前記データの入力を受け付ける入力部と、前記データに対する前記特徴部の占める割合を予測する予測部と、前記予測された割合に応じて、前記データに対する分割の方法を決定する分割方法決定部と、前記決定した分割の方法に基づき、前記データに対して分割を実行する分割実行部と、を備えることを特徴とする。
本発明によれば、入力データがマルチスケール性を有する場合であっても、入力データの特徴部を精度よく分析することができる。
図1は、システムの構成例を示す図である。 図2は、訓練データの一例を示す図である。 図3は、画像データの一例を示す図である。 図4は、画像データの分割の一例を説明するための図である。 図5は、システムの処理手順の一例を示すフローチャートである。 図6は、画像データの分割の一例を説明するための図である。 図7は、ウィンドウスライディング法における人物部分の検出を説明するための図である。 図8は、YOLO(You Only Look Once)における人物部分の枠決めを説明するための図である。 図9は、入力データが音声データである場合の特徴部およびスケールを説明するための図である。 図10は、入力データが時系列のセンサデータである場合の特徴部およびスケールを説明するための図である。 図11は、情報処理プログラムを実行するコンピュータの一例を示す図である。 図12は、EDRAMによる処理の一例を説明するための図である。 図13は、マルチスケール性を有する画像群の一例を示す図である。 図14は、EDRAMにおける人物を含む枠の初期化を説明するための図である。
[概要]
以下、図面を参照しながら、本発明の実施形態を説明する。まず、図1を用いて、本実施形態の情報処理装置を含むシステムの概要を説明する。
システムは、情報処理装置10と、分析装置20とを備える。情報処理装置10は、分析装置20の扱うデータ(入力データ)の前処理を行う。分析装置20は、情報処理装置10により前処理が行われた入力データの分析を行う。例えば、分析装置20は、情報処理装置10により前処理が行われた入力データの特徴部を抽出し、抽出した特徴部に対する分析を行う。
例えば、入力データが、画像データである場合、入力データの特徴部は、例えば、画像データの人物部分である。この場合、分析装置20は、情報処理装置10により前処理が行われた画像データから人物部分を抽出し、抽出した人物部分の分析(例えば、人物部分の人物の性別、年齢等の推測)を行う。この分析装置20は、例えば、前記したEDRAM等を用いて分析を行う。なお、入力データが、画像データである場合、入力データの特徴部は、人物部分以外であってもよく、例えば、動物や移動体等であってもよい。
なお、入力データは、画像データ以外にも、映像データ、テキストデータ、音声データ、時系列のセンサデータであってもよい。なお、以下の説明では、入力データが画像データである場合について説明する。
分析装置20は、例えば、上記のEDRAMにより、情報処理装置10により前処理が行われた入力データに基づく枠の初期化、それまでの枠の記憶としての蓄積、前記記憶に基づく枠の絞り込みおよび分析、枠の位置および分析に関する誤差に基づく各NNのパラメータの更新等を行う。各処理には、NNが用いられ、各NNによる処理結果は、例えば図1に示すように、順伝搬および逆伝搬する。
なお、分析装置20は、上記のEDRAM以外にも、スライディングウィンドウ法(後記)や、YOLO(You Only Look Once、後記)等により入力データから特徴部を抽出し、分析を行ってもよい。
ここで、情報処理装置10は、入力データに対する特徴部の割合を占める割合(スケール)の予測結果に基づき入力データの分割を行う。
例えば、情報処理装置10は、入力データに対する特徴部の割合(スケール)を予測し、予測したスケールが所定値以下の場合(例えば、画像データに対し特徴部となる人物部分が小さい場合)、入力データに対し所定の分割を行う。そして、情報処理装置10は、分割した入力データを分析装置20へ出力する。一方、予測したスケールが所定値以下の場合(例えば、画像データに対し特徴部となる人物部分が小さい場合)、情報収集装置10は、入力データに対する分割は行わずに分析装置20へ出力する。
これにより、分析装置20に入力されるデータそれぞれのスケールのばらつきをできるだけ低減できるので、分析装置20は入力されるデータの特徴部を精度よく分析することができる。
[構成]
引き続き、図1を用いて、情報処理装置10の構成を説明する。情報処理装置10は、入力部11と、スケール予測部(予測部)12と、分割方法決定部13と、分割実行部14と、出力部15とを備える。
入力部11は、入力データの入力を受け付ける。スケール予測部12は、入力部11により受け付けた入力データに対する特徴部の占める割合(スケール)を予測する。例えば、スケール予測部12は、入力データ(画像データ)に人物が写っているとすれば、どの程度のスケールで写っていそうか、を予測する。ここでのスケールの予測には、例えば、機械学習を用いる。この機械学習には、例えば、NNを用いる。NNは、入力データとそのスケールのペアと学習することで、未知の入力データに対してもより正確にスケールを予測することができるようになる。
ここで、図2を参照しながら、前記NNの学習に用いる訓練データの一例を説明する。例えば、訓練データとして、図2に示すように、入力データ(画像データ)と、その画像データにおける特徴部(人物部分)のスケールとを対応付けたデータセットを用意しておく。
ここでは、画像データにおける特徴部(人物部分)の占める割合(スケール、R)を、R∈[15,30](カテゴリー1:スケール「大」)、R∈[10,15](カテゴリー2:スケール「中」)、R∈[5,10](カテゴリー3:スケール「小」)の3つのカテゴリーに分けたデータセットを用意した場合の例を示している。そして、スケール予測部12は、このデータセットにフィットするようにNNのパラメータを更新し、予測対象の入力データ(画像データ)が上記のスケール「大」、スケール「中」、スケール「小」のいずれに属するかを判定することによりスケールを予測する。
例えば、入力データが、図3の符号301に示す画像データと、符号302に示す画像データとである場合を考える。この場合、スケール予測部12は、上記の機械学習の結果を用いて、符号301のように人物が小さく写っている画像データについては「スケールが小さい」と予測し、符号302のように人物が大きく写っている画像データについては「スケールが大きい」と予測する。
なお、スケール予測部12は、入力データのスケール(R)を大、中、小等にカテゴライズせず、直接、スケール(R)の値を予測してもよい。
なお、入力データが背景を含む画像データである場合、スケール予測部12を実装するNNは、画像データの特徴部の背景となる建物等の大きさ等の大きさから、入力データ(画像データ)が広角で撮られたものか、望遠で撮られたものかを判定し、その結果を正確なスケールの予測に役立てていると考えられる。
図1の分割方法決定部13は、入力データの分割の方法(分割方法)、つまり、入力データを分割するか否か、また、入力データを分割する場合、当該入力データをいくつに分割するか、どのように分割するか等を決定する。例えば、分割方法決定部13は、スケール予測部12により予測された入力データのスケールに応じて、入力データの分割が必要か否かを判定し、必要と判定した場合はさらに当該入力データをいくつに分割するか、どのように分割するか等を決定する。そして、分割方法決定部13は、当該入力データとその分割方法とを分割実行部14に出力する。一方、分割方法決定部13は、入力データに対する分割は不要と判定した場合、当該入力データを出力部15へ出力する。
例えば、分割方法決定部13は、図4に示すように、特徴部(人物部分)のスケールが所定値以下である画像データ402について、符号403に示すように4つに分割すると判定する。なお、分割方法決定部13は、入力データのスケールが小さいほど、入力データを細かく分割すると判定してもよい。例えば、スケール予測部12により予測された入力データのスケールが上記の所定値を大きく下回る場合、そのスケールの小ささに応じて、入力データをより細かく分割すると判定してもよい。そして、分割方法決定部13は、画像データ402と画像データ402の分割数の判定結果とを分割実行部14に出力する。
一方、分割方法決定部13は、図4に示すように、特徴部(人物部分)のスケールが所定値を超える画像データ401については、分割は行わないと判定する。そして、分割方法決定部13は、画像データ401を出力部15に出力する。
なお、スケール予測部12は、NNにより実現してもよい。この場合、スケール予測部12は、スケール予測部12が予測したスケールと実際のスケールとの誤差を受け取る。そして、スケール予測部12は、上記の誤差に基づき、スケール予測用いるパラメータの調整を行う。このような処理を繰り返すことで、スケール予測部12は、入力データのスケールをより正確に予測できるようになる。
図1の分割実行部14は、分割方法決定部13により決定された分割方法に基づき、入力データの分割を行う。そして、分割実行部14は、分割を行った入力データを出力部15へ出力する。例えば、分割実行部14は、図4の画像データ402を符号403に示すように4つに分割し、分割したすべての部分画像を出力部15へ出力する。
出力部15は、分割実行部14および分割方法決定部13から出力された入力データを、分析装置20へ出力する。例えば、出力部15は、分割実行部14により4つに分割された画像データ402(図4の符号403参照)と、分割方法決定部13から出力された画像データ401とを分析装置20へ出力する。
[処理手順]
次に、図5を用いてシステムの処理手順を説明する。まず、情報処理装置10の入力部11は、入力データを受け付ける(S1)。次に、スケール予測部12は、入力データのスケールを予測する(S2)。そして、分割方法決定部13は、S2で予測された入力データのスケールに基づき、当該入力データを分割するか否か、また分割する場合、どの程度細かく分割するかを決定する(S3:分割方法決定)。
S3における分割方法決定の結果、S1で受け付けた入力データを分割しないと判定された場合(S4で「分割なし」)、分割方法決定部13は、当該入力データを出力部15経由で分析装置20に出力する(S6:データ出力)。一方、S3における分割判定の結果、S1で受け付けた入力データを分割すると判定された場合(S4で「分割あり」)、分割実行部14は、分割方法決定部13による判定結果に基づき、入力データに対し所定の分割を行う(S5)。そして、分割実行部14は分割後の入力データを出力部15へ出力する。その後、出力部15は、分割後の入力データを分析装置20へ出力する(S6:データ出力)。S6の後、分析装置20は、情報処理装置10から出力されたデータに対し分析を行う(S7)。
このような情報処理装置10によれば、入力データのスケールが所定値以下の場合、スケールに応じて分割を行った上で、分析装置20に出力することもできる。これにより、入力データ群がマルチスケール性を持つ場合であっても、分析装置20に入力されるデータ群のスケールをできるだけ同じにすることができる。その結果、分析装置20は入力データにおける特徴部の分析精度を向上させることができる。
[その他の実施形態]
なお、入力データが、図6のように奥行感のある画像データである場合、分割方法決定部13は、遠景の部分は遠景の部分として、近景の部分は近景の部分として分割するような分割の方法を定めてもよい。例えば、分割方法決定部13は、図6に示す画像の奥の方は細かく(小さく)分割し、手前の方は粗く(大きく)分割するような分割の方法を定めてもよい。このようにすることで、入力データに奥行感のある画像データが含まれる場合でも、分析装置20に入力されるデータのスケールをできるだけ同じにすることができる。
また、分析装置20は、入力データから特徴部を抽出し、分析を行う装置であれば、前記したEDRAMを用いる装置に限定されない。例えば、分析装置20は、前記したスライディングウィンドウ法や、YOLO等により入力データから特徴部を抽出し、分析を行う装置であってもよい。
例えば、分析装置20が、スライディングウィンドウ法により、入力データ(例えば、画像データ)から特徴部(人物部分)を抽出する装置である場合、分析装置20は、以下のようにして、画像データから人物部分を抽出し、分析を行う。
すなわち、スライディングウィンドウ法を用いる分析装置20は、何種類かの大きさの枠(ウィンドウ)を用意しておき、この枠を画像データ上でスライドし、フルスキャンを行うことで、人物部分を検出し、抽出する。これにより、分析装置20は、例えば、図7に示す画像データ上から1人目、2人目および3人目の人物部分を検出し、抽出する。そして、分析装置20は、抽出した人物部分の分析を行う。
このスライディングウィンドウ法では、枠のサイズを調整する処理を行わないので、画像上に大きく写った人物は大きい枠でないと検出できない、また、画像上に小さく写った人物は小さい枠でないと検出できない。そして、人物部分の検出がうまくできないと、人物部分の分析精度も低下することになる。
そこで、スライディングウィンドウ法を用いる分析装置20が、上記の情報処理装置10からデータそれぞれのスケールをできるだけ同じにしたデータ(画像データ)を受け取ることで、画像データに対し、適切な大きさの枠を用意しやすくなる。その結果、分析装置20は、画像データから人物部分を検出しやすくなるので、画像データにおける人物部分の分析精度を向上させることができる。また、分析装置20は、画像データに対し様々な大きさの枠を用意する必要がなくなるので、画像データから人物部分を検出する際に要する処理負荷を低減することができる。
また、例えば、分析装置20が、YOLOにより、入力データ(例えば、画像データ)から特徴部となる人物部分を抽出し、分析を行う装置である場合、分析装置20は、以下のようにして、画像データから特徴部となる人物部分を抽出し、分析を行う。
すなわち、YOLOを用いる分析装置20は、例えば、図8に示すように、画像データをグリッドに切り、グリッドごとに人物部分を探しにいく。そして、分析装置20は、人物部分を見つけると、その人物部分に枠を合わせる。ここで、YOLOを用いる分析装置20は、画像データから人物部分を見つけ、その人物部分に枠を合せる処理がうまくいかないと、人物部分の検出がうまくいかず、その結果、人物部分の分析精度も低下することになる。
そこで、YOLOを用いる分析装置20が、上記の情報処理装置10からデータそれぞれのスケールをできるだけ同じにしたデータ(画像データ)を受け取ることで、画像データから人物部分を検出しやすくなり、その結果、画像データにおける人物部分の分析精度を向上させることができる。
また、前記したとおり、システムの扱う入力データは、画像データ以外にも、映像データ、テキストデータ、音声データ、時系列のセンサデータであってもよい。
例えば、入力データがテキストデータである場合、特徴部は、例えば、当該テキストデータにおける、特定の語句、言い回し、表現等である。したがって、情報処理装置10は、入力データがテキストデータである場合、入力データのスケールとして、例えば、テキストデータ全体の文字数に対する、上記の特徴部の文字数の占める割合を用いる。
そして、情報処理装置10は、テキストデータ全体の文字数に対する、上記の特徴部の文字数の占める割合(スケール)ができるだけ同じになるよう、必要に応じてテキストデータの分割を行い、分析装置20へ出力する。
このようにすることで、分析装置20が、テキストデータにおける、特定の語句、言い回し、表現等の分析を行う分析装置である場合に、分析精度を向上させることができる。
また、例えば、入力データが音声データである場合、特徴部は、例えば、背景ノイズのある音声データにおける人間の音声や、背景ノイズがない音声データにおける、特定の単語またはフレーズ、特定の人物の音声、特定の周波数帯域等である。したがって、情報処理装置10は、入力データが音声データである場合、入力データのスケールとして、例えば、音声データに対する、上記の人間の音声のSN比(Signal-to-Noise ratio)、または、音声データ全体の時間の長さに対する、特定の単語またはフレーズの時間の長さを用いる。また、音声データにおける特定の周波数帯域を用いる場合、情報処理装置10は、入力データのスケールとして、例えば、上記の音声データに含まれる周波数帯域ごとの出現頻度を示すヒストグラムの台全体に対する、特定の周波数帯の幅を用いる(図9参照)。
そして、情報処理装置10は、音声データ全体に対する、上記の特徴部(人間の音声のSN比、特定の単語またはフレーズの時間の長さ、特定の周波数帯域の幅)の占める割合(スケール)ができるだけ同じになるよう、必要に応じて音声データの分割を行い、分析装置20へ出力する。
このようにすることで、分析装置20が、音声データにおける、人間の音声、特定の単語またはフレーズ、特定の人物の音声、特定の周波数帯域等の分析を行う場合に、分析精度を向上させることができる。
また、入力データが時系列のセンサデータである場合、特徴部は、例えば、何らかの異常を示すセンサの値のパターン等である。一例を挙げると、センサの値自体は通常時取り入る範囲(正常範囲)だが、異常時特有のパターンを繰り返す場合がある(図10参照)。このような場合、異常を検知し、分析するため、時系列のセンサデータのうち、センサの値自体は正常の範囲だが、異常時特有のパターンを示す部分を特徴部として用いる。
したがって、情報処理装置10は、入力データが時系列のセンサデータである場合、入力データのスケールとして、例えば、時系列のセンサデータのうち、センサの値自体は正常の範囲だが、異常時特有のパターンを示す部分の波長を用いる(図10参照)。そして、情報処理装置10は、時系列のセンサデータ全体に対する、上記の特徴部(センサの値自体は正常範囲だが、異常時特有のパターンを示す部分)の波長の占める割合(スケール)ができるだけ同じになるよう、必要に応じて時系列のセンサデータの分割を行い、分析装置20へ出力する。
このようにすることで、分析装置20が、時系列のセンサデータから、異常の検知および分析を行う場合に、分析精度を向上させることができる。
また、入力データは、ビデオ映像(映像データ)であってもよい。この場合、特徴部は、例えば、ビデオ映像において人物が特定の動作をしているフレームである。そして、情報処理装置10は、ビデオ映像全体のフレーム数に対する、上記の特徴部(ビデオ映像で人物が特定の動作をしているフレーム)の占める割合(スケール)ができるだけ同じになるよう、必要に応じてビデオ映像のフレームの分割を行い、分析装置20へ出力する。
このようにすることで、分析装置20が、ビデオ映像において人物が特定の動作をしているフレームを分析する場合に、分析精度を向上させることができる。
[プログラム]
また、上記の実施形態で述べた情報処理装置10の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置を情報処理装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータ、ラック搭載型のサーバコンピュータ等が含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等がその範疇に含まれる。また、情報処理装置10を、クラウドサーバに実装してもよい。
図11を用いて、上記のプログラム(情報処理プログラム)を実行するコンピュータの一例を説明する。図11に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図11に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、上記の情報処理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。また、コンピュータ1000は、CPU1020に代えて、GPU(Graphics Processing Unit)を用いて処理を実行してもよい。
10 情報処理装置
11 入力部
12 スケール予測部
13 分割方法決定部
14 分割実行部
15 出力部
20 分析装置

Claims (8)

  1. データの特徴部を抽出し、分析を行う分析装置で用いられるデータの前処理を行う情報
    処理装置であって、
    前記データの入力を受け付ける入力部と、
    データごとに、前記データにおける特徴部の占める割合を示した訓練データを用いた機
    械学習により、前記データに対する前記特徴部の占める割合を予測する予測部と、
    前記予測された割合に応じて、前記データに対する分割の方法を決定する分割方法決定
    部と、
    前記決定した分割の方法に基づき、前記データに対して分割を実行する分割実行部と、
    を備えることを特徴とする情報処理装置。
  2. データの特徴部を抽出し、分析を行う分析装置で用いられるデータの前処理を行う情報処理装置であって、
    前記データの入力を受け付ける入力部と、
    前記データに対する前記特徴部の占める割合を予測する予測部と、
    前記データに対する前記特徴部の占める割合が所定値以下である場合、前記データに対
    して分割を行うと判定する、分割の方法を決定する分割方法決定部と、
    前記決定した分割の方法に基づき、前記データに対して分割を実行する分割実行部と、
    を備えることを特徴とする情報処理装置。
  3. データの特徴部を抽出し、分析を行う分析装置で用いられるデータの前処理を行う情報処理装置であって、
    前記データとしてテキストデータの入力を受け付ける入力部と、
    前記データに対する前記特徴部として、前記テキストデータに含まれる所定のキーワードの占める割合を予測する予測部と、
    前記予測された割合に応じて、前記データに対する分割の方法を決定する分割方法決定部と、
    前記決定した分割の方法に基づき、前記データに対して分割を実行する分割実行部と、
    を備えることを特徴とする情報処理装置。
  4. 前記分割方法決定部は、
    前記データに対する前記特徴部の占める割合が小さいほど、前記データを細かく分割すると判定する
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記データは、画像データ映像データ、音声データ、または時系列のセンサデータであり、
    前記特徴部は、前記画像データ前記映像データに写る被写体の部分、前記音声データに含まれる、人間の音声、所定の人物の音声、所定の単語を示す音声、および、所定の周波数帯域の音声のいずれかまたはこれらの組み合わせ、または前記時系列のセンサデータに含まれる所定のセンサ値のパターンである
    ことを特徴とする請求項1または2に記載の情報処理装置。
  6. データの特徴部を抽出し、分析を行う分析装置で用いられるデータの前処理を行う情報
    処理装置により実行される情報処理方法であって、
    前記データの入力を受け付けるステップと、
    データごとに、前記データにおける特徴部の占める割合を示した訓練データを用いた機
    械学習により、前記データに対する前記特徴部の占める割合を予測するステップと、
    前記予測された割合に応じて、前記データに対する分割の方法を決定するステップと、
    前記決定した分割の方法に基づき、前記データに対して分割を実行するステップと
    を含んだことを特徴とする情報処理方法。
  7. データの特徴部を抽出し、分析を行う分析装置で用いられるデータの前処理を行う情報
    処理装置により実行される情報処理方法であって、
    前記データの入力を受け付けるステップと、
    前記データに対する前記特徴部の占める割合を予測するステップと、
    前記データに対する前記特徴部の占める割合が所定値以下である場合、前記データに対
    して分割を行うと判定する、分割の方法を決定するステップと、
    前記決定した分割の方法に基づき、前記データに対して分割を実行するステップと
    を含んだことを特徴とする情報処理方法。
  8. データの特徴部を抽出し、分析を行う分析装置で用いられるデータの前処理を行う情報
    処理装置により実行される情報処理方法であって、
    前記データとしてテキストデータの入力を受け付けるステップと、
    前記データに対する前記特徴部として、前記テキストデータに含まれる所定のキーワードの占める割合を予測するステップと、
    前記予測された割合に応じて、前記データに対する分割の方法を決定するステップと、
    前記決定した分割の方法に基づき、前記データに対して分割を実行するステップと
    を含んだことを特徴とする情報処理方法。
JP2018050181A 2018-03-16 2018-03-16 情報処理装置および情報処理方法 Active JP6797854B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018050181A JP6797854B2 (ja) 2018-03-16 2018-03-16 情報処理装置および情報処理方法
US16/971,313 US20210081821A1 (en) 2018-03-16 2019-03-14 Information processing device and information processing method
PCT/JP2019/010714 WO2019177130A1 (ja) 2018-03-16 2019-03-14 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018050181A JP6797854B2 (ja) 2018-03-16 2018-03-16 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2019160240A JP2019160240A (ja) 2019-09-19
JP6797854B2 true JP6797854B2 (ja) 2020-12-09

Family

ID=67907892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018050181A Active JP6797854B2 (ja) 2018-03-16 2018-03-16 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (1) US20210081821A1 (ja)
JP (1) JP6797854B2 (ja)
WO (1) WO2019177130A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250243B2 (en) * 2019-03-26 2022-02-15 Nec Corporation Person search system based on multiple deep learning models
JP7239050B2 (ja) * 2020-02-14 2023-03-14 日本電信電話株式会社 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714925B1 (en) * 1999-05-01 2004-03-30 Barnhill Technologies, Llc System for identifying patterns in biological data using a distributed network
US7194752B1 (en) * 1999-10-19 2007-03-20 Iceberg Industries, Llc Method and apparatus for automatically recognizing input audio and/or video streams
WO2008126347A1 (ja) * 2007-03-16 2008-10-23 Panasonic Corporation 音声分析装置、音声分析方法、音声分析プログラム、及びシステム集積回路
JP4894741B2 (ja) * 2007-12-03 2012-03-14 ソニー株式会社 情報処理装置および情報処理方法、プログラム、並びに記録媒体
JP5441670B2 (ja) * 2009-12-22 2014-03-12 キヤノン株式会社 画像処理装置及びその制御方法
US9570087B2 (en) * 2013-03-15 2017-02-14 Broadcom Corporation Single channel suppression of interfering sources
US10561361B2 (en) * 2013-10-20 2020-02-18 Massachusetts Institute Of Technology Using correlation structure of speech dynamics to detect neurological changes
US11619983B2 (en) * 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US9305530B1 (en) * 2014-09-30 2016-04-05 Amazon Technologies, Inc. Text synchronization with audio
JP2015097089A (ja) * 2014-11-21 2015-05-21 株式会社Jvcケンウッド 対象物検出装置、対象物検出方法
JP6116765B1 (ja) * 2015-12-02 2017-04-19 三菱電機株式会社 物体検出装置及び物体検出方法
US10215830B2 (en) * 2015-12-16 2019-02-26 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Automated cancer detection using MRI
US11797837B2 (en) * 2017-04-24 2023-10-24 Intel Corporation Dynamic distributed training of machine learning models
US20190272375A1 (en) * 2019-03-28 2019-09-05 Intel Corporation Trust model for malware classification

Also Published As

Publication number Publication date
US20210081821A1 (en) 2021-03-18
WO2019177130A1 (ja) 2019-09-19
JP2019160240A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
WO2021203863A1 (zh) 基于人工智能的物体检测方法、装置、设备及存储介质
CN110020592B (zh) 物体检测模型训练方法、装置、计算机设备及存储介质
US20190251333A1 (en) Face detection training method and apparatus, and electronic device
KR20130095727A (ko) 비디오 내 객체들의 시맨틱 파싱
US9311729B2 (en) Information processing apparatus, information processing method, and program
CN113656582B (zh) 神经网络模型的训练方法、图像检索方法、设备和介质
CN113065614B (zh) 分类模型的训练方法和对目标对象进行分类的方法
US11170512B2 (en) Image processing apparatus and method, and image processing system
CN110059156A (zh) 基于关联词的协同检索方法、装置、设备及可读存储介质
CN109255289A (zh) 一种基于统一式生成模型的跨衰老人脸识别方法
CN113869449A (zh) 一种模型训练、图像处理方法、装置、设备及存储介质
US20170213074A1 (en) Decoy-based matching system for facial recognition
JP6797854B2 (ja) 情報処理装置および情報処理方法
US11809990B2 (en) Method apparatus and system for generating a neural network and storage medium storing instructions
CN112052816B (zh) 基于自适应图卷积对抗网络的人体行为预测方法及系统
CN113989519B (zh) 一种长尾目标检测方法及系统
CN110717407A (zh) 基于唇语密码的人脸识别方法、装置及存储介质
WO2015031350A1 (en) Systems and methods for memory utilization for object detection
CN110704678B (zh) 评估排序方法、评估排序系统、计算机装置及储存介质
CN114168788A (zh) 音频审核的处理方法、装置、设备及存储介质
EP3816996A1 (en) Information processing device, control method, and program
WO2020151530A1 (zh) 服装的计件方法、装置及设备
WO2018035768A1 (zh) 一种候选框尺度的获取方法及装置
KR20220017673A (ko) 딥러닝 기반 클래스 분류 장치 및 방법
Alizadeh et al. Automatic detection of people getting into a bus in a smart public transportation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201118

R150 Certificate of patent or registration of utility model

Ref document number: 6797854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150