JP6769859B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6769859B2
JP6769859B2 JP2016245750A JP2016245750A JP6769859B2 JP 6769859 B2 JP6769859 B2 JP 6769859B2 JP 2016245750 A JP2016245750 A JP 2016245750A JP 2016245750 A JP2016245750 A JP 2016245750A JP 6769859 B2 JP6769859 B2 JP 6769859B2
Authority
JP
Japan
Prior art keywords
information
image processing
distance image
subject
conversion function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016245750A
Other languages
English (en)
Other versions
JP2018101207A5 (ja
JP2018101207A (ja
Inventor
雄一 野中
雄一 野中
昭信 渡邊
昭信 渡邊
俊夫 上村
俊夫 上村
味松 康行
康行 味松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi LG Data Storage Inc
Original Assignee
Hitachi LG Data Storage Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi LG Data Storage Inc filed Critical Hitachi LG Data Storage Inc
Priority to JP2016245750A priority Critical patent/JP6769859B2/ja
Priority to CN201711146459.2A priority patent/CN108205656A/zh
Priority to US15/843,530 priority patent/US20180174307A1/en
Priority to EP17208596.1A priority patent/EP3336799B1/en
Publication of JP2018101207A publication Critical patent/JP2018101207A/ja
Publication of JP2018101207A5 publication Critical patent/JP2018101207A5/ja
Application granted granted Critical
Publication of JP6769859B2 publication Critical patent/JP6769859B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明は、画像処理装置及び画像処理方法に関する。
特許文献1には、「電子カルテの情報入力を容易にすることを可能にする医用情報処理システム、医用情報処理装置及び医用画像診断装置を提供する」、「医用情報処理システムは、取得手段と、抽出手段と、選択手段と、表示制御手段とを備える。取得手段は、動作取得の対象となる対象者の関節の位置情報を含む動作情報を取得する。抽出手段は、前記取得手段によって取得された対象者の動作情報における関節の位置情報に基づいて、患部を抽出する。選択手段は、前記抽出手段によって抽出された患部に関連する関連情報を選択する。表示制御手段は、前記選択手段によって選択された関連情報を表示部にて表示させるように制御する。」と記載されている。
特許文献2には、「距離画像センサによって撮像された視野角内の人物の動作を高い精度で認識することができる画像認識装置及びこの画像認識装置を備えたエレベータ装置を提供する」、「身体の一部が視野角からはみ出た距離画像からはみ出し状態の動作特徴量を抽出すると共に、このはみ出し状態の動作特徴量と視野角からの身体のはみ出し量とから身体が視野角からはみ出さない状態の動作特徴量を推定する。距離画像の視野角から人物の身体の一部がはみ出たときでも人物の身体が距離画像の視野角からはみ出さない場合の動作特徴量に近づけることができ、画像認識の信頼性を向上することができる。」と記載されている。
特開2014−130519号公報 特開2014−21816号公報
昨今、距離画像センサについて様々な分野への応用が進められている。距離画像センサはリアルタイムに3次元の位置情報を取得することが可能であり、人の行動解析への応用も試みられている。ここで距離画像を用いた人の行動解析においては、人がどのような場所にいてどのように移動したかといった被写体の全体的(俯瞰的)な動作に関する情報(全体感)と、人の手元や足下でどのような作業が行われているかといった被写体の一部の細かい動作に関する情報とを同時に把握することについてのニーズが存在するが、上記の特許文献1,2はいずれもこうしたニーズを考慮した構成について開示していない。
本発明は、被写体を撮影した距離画像を用いて、被写体の全体的な動作に関する情報と、被写体の一部の細かい動作に関する情報とを同時に把握することを可能にする、画像処理装置及び画像処理方法を提供することを目的としている。
本発明の一つは、画像処理装置であって、被写体の第1範囲を撮影した第1距離画像から、前記被写体の部位に関する情報である第1部位情報を取得する第1部位情報取得部と、前記被写体の前記第1範囲よりも狭い第2範囲を撮影した第2距離画像から、前記被写体の部位に関する情報である第2部位情報を取得する第2部位情報取得部と、前記第1部位情報及び前記第2部位情報に基づき、前記第1部位情報における第1座標系と前記第2
部位情報における第2座標系との間の座標変換を行う関数である変換関数を求める変換関数生成部と、前記変換関数に基づき、前記第1部位情報と前記第2部位情報とを同じ座標系で表した情報である合成部位情報を生成する合成部位情報生成部と、を備える。
その他、本願が開示する課題、及びその解決方法については、発明を実施するための形態の欄、及び図面により明らかにされる。
本発明によれば、被写体を撮影した距離画像を用いて、被写体の全体的な動作に関する情報と、被写体の一部の細かい動作に関する情報とを同時に把握することが可能になる。
第1実施形態の画像処理システムの構成を示す図である。 画像処理装置や判定装置を構成する情報処理装置の一例である。 第1部位情報を説明する図である。 第2部位情報を説明する図である。 変換関数の求め方を説明する図である。 合成部位情報を説明する図である。 第2実施形態の画像処理システムの構成を示す図である。 第3実施形態の画像処理システムの構成を示す図である。 第4実施形態の画像処理システムの構成を示す図である。
以下、実施形態について説明する。以下の説明において、同一の又は類似する構成について同一の符号を用いて重複した説明を省略することがある。
[第1実施形態]
図1に第1実施形態として示す画像処理システム1の概略的な構成を示している。同図に示すように、画像処理システム1は、第1距離画像取得装置11、第2距離画像取得装置12、及び画像処理装置100を含む。尚、以下の説明において、第1距離画像取得装置11や第2距離画像取得装置12のことを「距離画像取得装置」と適宜総称する。
距離画像取得装置は、被写体(対象物)について3次元の位置情報(距離情報(Depth
情報)、距離信号等)を含むデータである距離画像(depth画像、range image data)を
取得する。距離画像は、例えば、画素(ピクセル(pixel))情報(階調や色調に関する
情報等)と各画素について取得される距離情報とを含む。距離画像取得装置の例として、タイムオブフライト(TOF: Time Of Flight)カメラ、ステレオカメラ、レーザレーダ(LIDAR: Laser Imaging Detection and Ranging)、ミリ波レーダ、赤外線深度センサ、超
音波センサ等がある。
距離画像取得装置は、画像処理装置100と通信するための、有線又は無線の通信手段(LANインタフェース(Local Area Network Interface)インタフェース、USBインタフェース(Universal Serial Bus Interface)、無線通信モジュール等)を備える。距離画像取得装置は、上記通信手段を介して、圧縮形式や非圧縮形式とした距離画像を画像処理装置100に送信する。
同図に示すように、第1距離画像取得装置11は、被写体である人2の全身(全体)及びその背景を含む第1範囲の距離画像(以下、第1距離画像と称する。)を取得するように、その設置位置、撮影方向、撮影範囲等が設定されている。一方、第2距離画像取得装置12は、第1範囲よりも狭い人2の一部分(第2範囲)についての距離画像(以下、第
2距離画像と称する。)を取得するように、その設置位置、撮影方向、撮影範囲等が設定されている。第2距離画像取得装置12によって取得される第2距離画像は、人2の一部についての細かい情報を含む。第2距離画像取得装置12は人2に近接した位置に設けられ、例えば、人2が身に付けている物(ヘルメット等)等に設けられる。
画像処理装置100は情報処理装置を用いて構成され、距離画像取得装置から入力される距離画像についての各種画像処理、距離画像取得装置から送られてくる距離画像に含まれている、被写体の部位(骨格、関節、輪郭等)に関する情報(以下、部位情報と称する。)の取得、第1距離画像から取得した部位情報と第2距離画像から取得した部位情報とを合成した情報である合成部位情報の生成等を行う。
図2は画像処理装置100を構成する情報処理装置の一例である。同図に示すように、情報処理装置50は、プロセッサ51、主記憶装置52、補助記憶装置53、入力装置54、出力装置55、及び通信装置56を備える。これらはバス等の通信手段を介して互いに通信可能に接続されている。
プロセッサ51は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等を用いて構成されている。プロセッサ51が、主記憶装置52に格納されているプログラムを読み出して実行することにより、画像処理装置100の全部又は一部の機能が実現される。主記憶装置52は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性半導体メモリ(NVRAM(Non Volatile RAM))等であり、プログラムやデータを記憶する。
補助記憶装置53は、例えば、ハードディスクドライブ、SSD(Solid State Drive
)、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDメモリカードや光学式記録媒体等の記録媒体の読取/書込装置等である。補助記憶装置53に格納されているプログラムやデータは主記憶装置52に随時ロードされる。補助記憶装置53は、例えば、ネットワークストレージのように画像処理装置100とは独立した構成としてもよい。
入力装置54は、外部入力を受け付けるユーザインタフェースであり、例えば、キーボード、マウス、タッチパネル等である。出力装置55は、処理経過や処理結果等の各種情報を外部に提供するユーザインタフェースであり、例えば、画面表示装置(液晶モニタ、LCD(Liquid Crystal Display)、グラフィックカード等)、印字装置等である。尚、例えば、画像処理装置100が、外部入力を通信装置56を介して受け付ける構成としてもよい。また例えば、画像処理装置100が、処理経過や処理結果等の各種情報を通信装置56を介して外部に提供する構成としてもよい。
通信装置56は、他の装置や素子との間の通信を実現する有線方式又は無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール等である。
図1に示すように、画像処理装置100は、第1受信部13、第1部位情報取得部101、第2受信部14、第2部位情報取得部102、変換関数生成部103、及び合成部位情報生成部104の各機能を備える。これらの機能は、例えば、画像処理装置100のプロセッサ51が、主記憶装置52や補助記憶装置53に格納されているプログラムを読み出して実行することにより実現される。またこれらの機能は、例えば、画像処理装置100が備えるハードウェア(FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等)によって実現される。尚、画像処理装置1
00は、これらの機能以外に、例えば、オペレーティングシステム、デバイスドライバ、DBMS(DataBase Management System)等を備えていてもよい。
上記機能のうち、第1受信部13は、第1距離画像取得装置11から送られてくる第1距離画像を受信する。また第2受信部14は、第2距離画像取得装置12から送られてくる第2距離画像を受信する。尚、第1受信部13及び第2受信部14は、画像処理装置100とは独立した構成としてもよい。
第1部位情報取得部101は、第1距離画像取得装置11によって取得された第1距離画像から人2の部位情報を取得し、取得した内容を含む第1部位情報を生成する。第1部位情報取得部101は、例えば、骨格検出(スケルトン検出)、輪郭検出、関節検出等により第1部位情報を取得する。第1部位情報は、第1座標系で表された、部位の位置を示す情報を含む。
図3は第1部位情報の一例(イメージ図)である。同図に示すように、この第1部位情報は人2の全体(全身)の骨格情報を含む。
第2部位情報取得部102は、第2距離画像取得装置12によって取得された第2距離画像から人2の部位情報を取得し、取得した内容を含む第2部位情報を生成する。第2部位情報取得部102は、例えば、骨格検出(スケルトン検出)、輪郭検出、関節検出等により第2部位情報を取得する。第2部位情報は、第2座標系で表された、部位の位置を示す情報を含む。
図4は第2部位情報の一例(イメージ図)である。同図に示すように、例示した第2部位情報は人2の腕から手先までの骨格情報を含む。
変換関数生成部103は、第1部位情報と第2部位情報とに基づき、第1部位情報における3次元の第1座標系と第2部位情報における3次元の第2座標系との間の座標変換を行う関数である変換関数を求める。
より詳細には、変換関数生成部103は、まず第1部位情報に含まれている部位と第2部位情報に含まれている部位との対応を特定、即ち、第1部位情報に含まれている部位の一つと第2部位情報に含まれている部位の一つとが同一人の同一の部位であることを特定する。例えば、変換関数生成部103は、第1部位情報と第2部位情報とに基づき、図3の関節部位301〜304の夫々と、図4の関節部位401〜404の夫々との対応を特定、つまり同一人物の同一の関節部位であることを特定する。尚、上記特定の方法として、例えば、ICP (Iterative Closest Point)による方法、特徴点を利用する方法等がある。そして変換関数生成部103は、特定した部位を基準として、第1座標系と第2座標系との間の座標変換を行う関数である変換関数を求める。
図5とともに変換関数の求め方について説明する。同図に示すように、第1距離画像取得装置11によって取得された第1距離画像に含まれている部位は第1座標系(x1,y1,z1)で表され、一方、第2距離画像取得装置12によって取得された第2距離画像に含まれている部位は第2座標系(x2,y2,z2)で表されているものとする。この場合、変換関数は、第2座標系(x2,y2,z2)で表された位置座標を第1座標系(x1,y1,z1)の位置座標に変換する関数である。ここで例えば、図3の関節部位301(x1a,y1a,z1a)、関節部位302(x1b,y1b,z1b)、関節部位303(x1c,y1c,z1c)、関節部位304(x1d,y1d,z1d)、及び、図4の関節部位401(x2a,y2a,z2a)、関節部位402(x2b,y2b,z2b)、関節部位403(x2c,y2c,z2c)、関節部位404(x2d,
y2d,z2d)について、関節部位301は関節部位401と、関節部位302は関節部位402と、関節部位303は関節部位403と、関節部位304は関節部位404と、夫々対応すると判定した場合、変換関数生成部103は、
(x1a,y1a,z1a)=F(x2a,y2a,z2a)
(x1b,y1b,z1b)=F(x2b,y2b,z2b)
(x1c,y1c,z1c)=F(x2c,y2c,z2c)
(x1d,y1d,z1d)=F(x2d,y2d,z2d)
を満たす関数F(x,y,z)を変換関数として求める。
図1に戻り、合成部位情報生成部104は、変換関数生成部103が求めた変換関数を用いて第1部位情報と第2部位情報とを合成し、第1部位情報と第2部位情報とを同じ座標系で表した情報である合成部位情報を生成する。尚、上記の関数F(x,y,z)は第2座標系を第1座標系に変換するものであるが、合成部位情報における座標系は第1座標系及び第2座標系のいずれとしてもよい。
図6は、図3に示す第1部位情報(人2の全体(全身)の骨格情報)と図4に示す第2部位情報(人2の腕から手先までの骨格情報)とを合成して得られる合成部位情報(イメージ図)である。合成部位情報生成部104は、図3の関節部位301及び関節部位302(第1部位情報)と図4の関節部位401及び関節部位402(第2部位情報)とを接続(ジョイント)し、また図3の関節部位303及び関節部位304(第1部位情報)と
図4の関節部位403及び関節部位404(第2部位情報)とを接続(ジョイント)する
ことにより、同図に示す合成部位情報を生成する。
画像処理装置100は、例えば、第1距離画像取得装置11及び第2距離画像取得装置12の夫々から順次入力される、時系列の第1距離画像と時系列の第2距離画像とに基づき、人2の動作を示す情報を含んだ、時系列の合成部位情報を生成する。
尚、合成部位情報を生成(変換関数を生成)するのに十分な数、第1部位情報に含まれている部位と第2部位情報に含まれている部位との対応をとることができない場合は合成部位情報を生成することができないが、その場合は例えば、合成部位情報生成部104が、第1部位情報及び第2部位情報のうちのいずれかを合成部位情報として生成するようにする。そのようにすることで画像処理装置100から合成部位情報が常に出力されるようにすることができる。尚、その場合、画像処理装置100が、第1部位情報及び第2部位情報のうちのいずれか一方を優先して出力するようにしてもよい。
以上に説明したように、本実施形態の画像処理システム1によれば、第1距離画像取得装置11により取得された第1距離画像に含まれている情報、及び、第2距離画像取得装置12により取得された第2距離画像に含まれている情報、の双方を含む情報を一つの合成部位情報として生成することができる。これにより、例えば、人2の全体的な動作に関する3人称視点の骨格情報と人2の手先の細かい動作に関する1人称視点の骨格情報との双方を含む情報を、同じ座標系で表された一つのデータとして同時に提供することができる。このため、例えば、人2がどのような場所にいてどのように移動したかといった人2の全体的(俯瞰的)な動作に関する情報(全体感)と、人2の手元や足下でどのような作業が行われているかといった人2の一部の細かい動作に関する情報とを同時に把握することが可能になる。
また本実施形態の画像処理システム1では、個々の距離画像取得装置の役割が限定されている(第1距離画像取得装置11については専ら人2の全体的な動作に関する情報を取得し、第2距離画像取得装置12については専ら人2の手先の細かい動作に関する情報を取得する)ため、個々の距離画像取得装置として必ずしも高性能もの(高解像度のものや
画角の広いもの等)を用いる必要がなく、画像処理システム1を低コストで実現することができる。また個々の距離画像取得装置に高い解像度が要求されないことで画像処理システム1が取り扱う情報量が抑えられ、処理負荷の低減や処理の高速化を図ることができる。
尚、第1距離画像取得装置11及び第2距離画像取得装置12の設置態様(設置位置、撮影方向、撮影範囲)は必ずしも以上に示したものに限定されない。例えば、第1距離画像取得装置11及び第2距離画像取得装置12の双方又は一方が移動体に設置されるとしてもよい。また第1距離画像取得装置11及び第2距離画像取得装置12の夫々の役割が時間帯によって切り変わるとしてもよい。
また以上では、第2距離画像取得装置12が人2の手元の細かい動作に関する情報を取得する場合を例としたが、第2距離画像取得装置12が、例えば、足元等の人2の他の部分の細かい動作に関する情報を取得するようにしてもよく、本実施形態の画像処理システム1は様々な場面に広く適用することができる。
[第2実施形態]
図7に第2実施形態として示す画像処理システム1の構成を示している。第2実施形態の画像処理システム1は、第1実施形態の画像処理システム1と同様の構成を備えるとともに、画像処理装置100が出力する合成部位情報に基づき人2の動作の特定や人2の動作が正常か否かを判定する判定装置200を更に備える。判定装置200は、例えば、図2に示した情報処理装置50と同様のハードウェアを用いて構成される。尚、判定装置200を画像処理装置100の一部として構成してもよい。第2実施形態の画像処理システム1の他の構成については第1実施形態の画像処理システム1と同様である。
同図に示すように、判定装置200は、動作分析部201及び動作モデル記憶部202の各機能を備える。これらの機能は、例えば、判定装置200のプロセッサが、判定装置200の主記憶装置や補助記憶装置に格納されているプログラムを読み出して実行することにより実現される。またこれらの機能は、例えば、判定装置200が備えるハードウェア(FPGA、ASIC等)によって実現される。尚、判定装置200は、これらの機能以外に、例えば、オペレーティングシステム、デバイスドライバ、DBMS等を備えていてもよい。
上記機能のうち、動作モデル記憶部202は、人が行う動作を時系列の部位情報として表した情報である動作モデルを記憶する。
動作分析部201には画像処理装置100によって生成された合成部位情報が入力される。動作分析部201は、画像処理装置100から入力される合成部位情報と動作モデル記憶部202が記憶する動作モデルとに基づき、人2の動作の特定や人2の動作が正常か否かの判定を行い、その結果を処理結果として出力する。
例えば、動作モデル記憶部202は、人が作業を行っている際の動作を時系列の骨格情報により表した動作モデルを記憶する。そして動作分析部201が、合成部位情報から取得される特徴量を動作モデルと比較することにより人2が行っている作業を特定し、特定した結果を処理結果として出力する。
また例えば、動作モデル記憶部202は、機械学習等によって生成された、人が正常に作業を行っている際の動作を時系列の骨格情報として表した動作モデル(以下、正常モデルと称する。)と、当該正常モデルによって人2が行っている作業が正常か否かの判定に用いる閾値とを記憶する。そして動作分析部201は、正常モデルと閾値とに基づき、合
成部位情報から取得される特徴量を正常モデルと比較することにより、人2が行っている作業が正常か否かを判定し、判定結果を処理結果として出力する。尚、人2が行っている作業が正常でないと判定したとき、判定装置200が本人や周辺に存在する人等に警告を出力(警告表示、音声警報等)するようにしてもよい。
第2実施形態の画像処理システム1によれば、人2の全体的な動作に関する情報と人2の一部の細かい動作に関する情報とを含む合成部位情報に基づき、人2の動作の特定や人2の動作が正常か否かの判定を精度よく行うことができる。例えば、工場等において作業員が行っている作業(作業員がどの機材の前でどのような姿勢で作業しているか等)を精度よく特定することができる。また例えば、作業員が行っている作業が正常か否か(作業員が危険な行動をとっていないか等)を精度よく判定することができる。例えば、作業員が逸脱した動作をしているか、作業に遅れが生じているかといった情報を得ることができる。また例えば、介護施設や病院等において、被介護者や患者の動作を精度よく特定することができる。また例えば、被介護者や患者の動作(例えば、ベッドから起き上がる動作、食事しているときの動作等)が正常か否かを精度よく判定することができる。また例えば、顧客が出入りする店舗等において、顧客の動作を精度よく特定することができ、顧客の行動解析(どのような商品に興味を示しているか等)を詳細に行うことができる。また例えば、顧客の動作が正常か否か(不審な行動をとっていないか等)を精度よく判定することができる。
尚、以上では、距離画像取得装置が2つ(第1距離画像取得装置11及び第2距離画像取得装置12)である場合を示したが、より多くの距離画像取得装置を用いてもよい。例えば、人2を複数の方向(正面側、背面側等)から撮影するようにすればより高い精度で人2の動作を把握することができ、人2の動作が正常か否かをより高い精度で判定することができる。またこの場合、合成部位情報には、設置位置、撮影方向、撮影範囲等が異なる複数の距離画像処理装置から送られてくる距離画像から取得される情報が含まれているため、特徴量を多様な観点から細かく設定することができ、人2の動作の特定や人2の動作が正常か否かの判定を精度よく行うことができる。
[第3実施形態]
図8に第3実施形態として示す画像処理システム1の構成を示している。第3実施形態の画像処理システム1は、第2実施形態の画像処理システム1の構成を基本としている。第3実施形態の画像処理システム1の第1距離画像取得装置11は、床面から所定の高さで立設された固定器具3の上端付近に固定されている。第3実施形態の画像処理装置100は、第2実施形態の画像処理装置100の構成に加えて、更に設置状態情報記憶部105を備える。また第3実施形態の画像処理装置100の変換関数生成部103には、人2に取り付けられた3次元センサ19から送られてくる計測値(又は計測信号)が入力される。3次元センサ19は、例えば、傾斜センサ、加速度センサ、ジャイロセンサ、方位センサのうちの少なくともいずれかを含み、第2距離画像取得装置12の撮影方向を示す情報(以下、第2設置状態情報と称する。)を取得して上記計測値を画像処理装置100に送信する。3次元センサ19は、第2距離画像取得装置12の状態を計測可能なように、例えば、人2が直接装備(例えば、ヘルメットに装着)した状態で設置されている。尚、第3実施形態の画像処理システム1のその他の構成については第2実施形態の画像処理システム1と同様である。
設置状態情報記憶部105は、固定器具3に設置されている第1距離画像取得装置11の設置状態(高さ、撮影方向、水平方向に対する角度等)を示す情報(以下、第1設置状態情報と称する。)を記憶する。
変換関数生成部103は、例えば、設置状態情報記憶部105が記憶する設置状態情報
と3次元センサ701から入力される情報とを比較することで、第1距離画像取得装置11の撮影方向と第2距離画像取得装置12の撮影方向との差を求め、求めた値(差)を用いて変換関数を算出する。
このように、第3実施形態の画像処理システム1は、距離画像取得部の設置状態を示す情報を予め記憶しているので変換関数を効率よく求めることができる。このため、合成部位情報を効率よく生成することができる。
尚、例えば、距離画像取得装置に広角レンズや望遠レンズを設けてもよい。これにより距離画像取得装置の設置の自由度が向上する。尚、この場合、変換関数生成部103がレンズ倍率差をパラメータの一つとして変換関数を生成するようにする。
以上では、第2距離画像取得装置12を人2に装着するようにしたが、第2距離画像取得装置12についても第1距離画像取得装置11と同様に床面から所定の高さで立設された固定器具に固定するようにしてもよい。この場合、例えば、第1距離画像取得装置11及び第2距離画像取得装置12の相対角度を事前に測定して変換関数を予め求めておき、設置状態情報記憶部105がこれを記憶しておく。これにより変換関数生成部103による変換関数の算出処理を省略することができ、合成部位情報を効率よく生成することができる。
[第4実施形態]
図9に第実施形態として示す画像処理システム1の構成を示している。第実施形態の画像処理システム1においては、画像処理装置100が、第1受信部13、第2受信部14、第1マーカ位置情報取得部106、第2マーカ位置情報取得部107、変換関数生成部103、合成距離画像生成部108、及び部位情報生成部109を備える。このうち第1受信部13及び第2受信部14の構成は第2実施形態と同様である。また第実施形態の画像処理システム1の判定装置200の構成も第2実施形態と同様である。また第実施形態と同様、第1距離画像取得装置11は床面から所定の高さで立設された固定器具3の上端付近に固定されている。第実施形態として示す画像処理システム1は、人2の周囲の所定位置に固定設置された一つ以上のマーカ7を含む。
第1マーカ位置情報取得部106は、第1距離画像取得装置11が取得した第1距離画像から、第1距離画像における3次元座標系でのマーカ7の位置を示す情報(以下、第1マーカ位置情報と称する。)を取得する。
第2マーカ位置情報取得部107は、第2距離画像取得装置12が取得した第2距離画像から、第2距離画像における3次元座標系でのマーカ7の位置を示す情報(以下、第2マーカ位置情報と称する。)を取得する。
変換関数生成部103は、第1マーカ位置情報と第2マーカ位置情報とに基づき変換関数を求める。ここで第1実施形態では、第1距離画像に含まれている部位(関節部位)と第2距離画像に含まれている部位(関節部位)との対応を特定することにより変換関数を求めたが、第4実施形態においては、変換関数生成部103が、部位(関節部位)の位置情報の代わりに、第1距離画像及び第2距離画像の双方に共通に含まれているマーカ7の位置情報を基準として変換関数を求める。従って、第4実施形態では第1実施形態のように部位の対応を特定する必要がなく、変換関数生成部103は変換関数を効率よく求めることができる。
尚、第1実施形態では、人2の体の部位(関節部位)を基準として変換関数を求めているため、人2の動きが大きいと誤差が大きくなる。しかし第4実施形態の場合は設置位置
が変化しないマーカ7の位置を基準として変換関数を求めるため、人2の動きが大きくても精度よく変換関数を求めることができる。尚、例えば、設置するマーカ7の数を増やし、例えば、各マーカ7に基づき求めた変換関数のパラメータの平均を採用するようにすれば変換関数の精度を更に向上することができる。
合成距離画像生成部108は、求めた変換関数を用い、第1受信部13から入力される第1距離画像と第2受信部14から入力される第2距離画像とを同じ座標系(例えば、第1距離画像における3次元座標系又は第2距離画像における3次元座標系)で表されたデータとして合成した情報(以下、合成距離画像と称する。)を生成する。
尚、合成距離画像の生成に際し、例えば、合成距離画像生成部108が、第1距離画像と第2距離画像とを画素単位で比較し、分解能の高い(例えば、より近接した位置から撮影することにより取得された)画素を優先的に採用するようにしてもよい。これにより、例えば、第2距離画像取得装置12に含まれている人2の詳細な情報と第1距離画像取得装置11に含まれている人2の全体の情報との双方を含んだ合成距離画像を生成することができる。
また合成距離画像の生成に際し、例えば、第1距離画像及び第2距離画像のいずれか一方にのみマーカ7の情報が含まれている場合、マーカ7の情報が含まれている距離画像を採用するようにしてもよい。これにより例えば、人2がマーカ7から離れた位置に移動した場合でも画像処理装置100は合成距離画像を出力し続けることができる。
部位情報生成部109は、合成距離画像について人2の部位の検出を行い、人2の部位に関する情報(以下、部位情報と称する。)を生成し、生成した部位情報を判定装置200に入力する。尚、判定装置200の構成及び機能は第2実施形態の判定装置200と同様である。
以上に説明したように、第4実施形態の画像処理システム1によれば、マーカ7の位置を基準として変換関数を精度よく求めることができる。また画像処理装置100(部位情報生成部109)は、1つの合成距離画像を対象として部位情報を検出するので効率よく部位情報を生成することができる。
以上、本発明のいくつかの実施形態について説明したが、本発明はこれらの実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また上記実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また上記の各構成、機能部、処理部、処理手段等は、それらの一部又は全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、又はI
Cカード、SDカード、DVD等の記録媒体に置くことができる。
また上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。例えば、実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
また以上に説明した画像処理システム1の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、画像処理システム1が備えるハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。
また前述したデータベースの構成(スキーマ(Schema)等)は、リソースの効率的な利用、処理効率向上、アクセス効率向上、検索効率向上等の観点から柔軟に変更し得る。
また距離画像取得装置として、例えば、デジタルスチルカメラや監視カメラ等を用い、距離画像取得装置によって取得される画像について画像処理を行って被写体までの距離や骨格情報を推定する方法を用いてもよい。この場合は2次元の画像信号が対象となるので演算負荷を低く抑えることができる。
また以上では被写体が人2である場合について説明したが、被写体は、例えば、動物や無生物等であってもよい。
1 画像処理システム、2 人、3 固定器具、7 マーカ、11 第1距離画像取得装置、12 第2距離画像取得装置、13 第1受信部、14 第2受信部、15 3次元センサ、50 情報処理装置、100 画像処理装置、101 第1部位情報取得部、102 第2部位情報取得部、103 変換関数生成部、104 合成部位情報生成部、105 設置状態情報記憶部、106 第1マーカ位置情報取得部、107 第2マーカ位置情報取得部、108 合成距離画像生成部、109 部位情報生成部、200 判定装置、201 動作分析部、202 動作モデル記憶部、301〜304 関節部位、401〜404 関節部位、501〜502 関節部位

Claims (11)

  1. 被写体の第1範囲を撮影した第1距離画像から、前記被写体の部位に関する情報である第1部位情報を取得する第1部位情報取得部と、
    前記被写体の前記第1範囲よりも狭い第2範囲を撮影した第2距離画像から、前記被写体の部位に関する情報である第2部位情報を取得する第2部位情報取得部と、
    前記第1部位情報及び前記第2部位情報に基づき、前記第1部位情報における第1座標系と前記第2部位情報における第2座標系との間の座標変換を行う関数である変換関数を求める変換関数生成部と、
    前記変換関数に基づき、前記第1部位情報と前記第2部位情報とを同じ座標系で表した情報である合成部位情報を生成する合成部位情報生成部と、
    を備え
    前記変換関数生成部は、前記第1距離画像を取得する距離画像取得装置の設置状態を示す第1設置状態情報、及び前記第2距離画像を取得する距離画像取得装置の設置状態を示す第2設置状態情報を取得し、前記第1設置状態情報及び前記第2設置状態情報に基づき、前記変換関数を求める、
    画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記被写体は人であり、前記第1範囲は前記人の全身を含む範囲であり、前記第2範囲は前記人の一部を含む範囲である、
    画像処理装置。
  3. 請求項1又は2に記載の画像処理装置であって、
    前記変換関数生成部は、前記第1部位情報に含まれている部位と前記第2部位情報に含まれている部位との対応を特定し、特定した部位を基準として前記変換関数を求める、
    画像処理装置。
  4. 請求項1又は2に記載の画像処理装置であって、
    前記変換関数生成部は、前記被写体に設けられている3次元センサから前記第2設置状態情報を取得する、
    画像処理装置。
  5. 請求項に記載の画像処理装置であって、
    前記第1設置状態情報及び前記第2設置状態情報のうちの少なくとも何れかを記憶する設置状態情報記憶部、
    を更に備える、画像処理装置。
  6. 請求項1又は2に記載の画像処理装置であって、
    前記被写体が行う動作を時系列の部位情報として表した動作モデルを記憶する動作モデル記憶部と、
    前記合成部位情報を前記動作モデルと比較することにより、前記被写体の動作を特定する動作分析部と、
    を更に備える画像処理装置。
  7. 請求項1又は2に記載の画像処理装置であって、
    前記被写体が行う正常な動作を時系列の部位情報として表した動作モデルである正常モデルを記憶する動作モデル記憶部と、
    前記合成部位情報を前記正常モデルと比較することにより、前記被写体の動作が正常か否かを判定する動作分析部と、
    を更に備える画像処理装置。
  8. 請求項1又は2に記載の画像処理装置であって、
    第1距離画像取得装置から送られてくる前記第1距離画像を受信する第1受信部と、
    第2距離画像取得装置から送られてくる前記第2距離画像を受信する第2受信部と、
    を更に備える画像処理装置。
  9. 情報処理装置が、
    被写体の第1範囲を撮影した第1距離画像から、前記被写体の部位に関する情報である第1部位情報を取得するステップ、
    前記被写体の前記第1範囲よりも狭い第2範囲を撮影した第2距離画像から、前記被写体の部位に関する情報である第2部位情報を取得するステップ、
    前記第1部位情報及び前記第2部位情報に基づき、前記第1部位情報における第1座標系と前記第2部位情報における第2座標系との間の座標変換を行う関数である変換関数を求めるステップ
    記変換関数に基づき、前記第1部位情報と前記第2部位情報とを同じ座標系で表した情報である合成部位情報を生成するステップ、及び、
    前記第1距離画像を取得する距離画像取得装置の設置状態を示す第1設置状態情報、及び前記第2距離画像を取得する距離画像取得装置の設置状態を示す第2設置状態情報を取得し、前記第1設置状態情報及び前記第2設置状態情報に基づき、前記変換関数を求めるステップ、
    を実行する、画像処理方法。
  10. 請求項9に記載の画像処理方法であって、
    前記被写体は人であり、前記第1範囲は前記人の全身を含む範囲であり、前記第2範囲は前記人の一部を含む範囲である、
    画像処理方法。
  11. 請求項9又は10に記載の画像処理方法であって、
    前記情報処理装置が、前記第1部位情報に含まれている部位と前記第2部位情報に含まれている部位との対応を特定し、特定した部位を基準として前記変換関数を求めるステップ、
    を更に含む、画像処理方法。
JP2016245750A 2016-12-19 2016-12-19 画像処理装置及び画像処理方法 Active JP6769859B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016245750A JP6769859B2 (ja) 2016-12-19 2016-12-19 画像処理装置及び画像処理方法
CN201711146459.2A CN108205656A (zh) 2016-12-19 2017-11-17 图像处理装置及图像处理方法
US15/843,530 US20180174307A1 (en) 2016-12-19 2017-12-15 Image processing apparatus and image processing method
EP17208596.1A EP3336799B1 (en) 2016-12-19 2017-12-19 Image processing apparatus and image processing method combining views of the same subject taken at different ranges

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245750A JP6769859B2 (ja) 2016-12-19 2016-12-19 画像処理装置及び画像処理方法

Publications (3)

Publication Number Publication Date
JP2018101207A JP2018101207A (ja) 2018-06-28
JP2018101207A5 JP2018101207A5 (ja) 2019-05-30
JP6769859B2 true JP6769859B2 (ja) 2020-10-14

Family

ID=60923280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245750A Active JP6769859B2 (ja) 2016-12-19 2016-12-19 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US20180174307A1 (ja)
EP (1) EP3336799B1 (ja)
JP (1) JP6769859B2 (ja)
CN (1) CN108205656A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
CN110290352A (zh) * 2019-06-28 2019-09-27 Oppo广东移动通信有限公司 监控方法及装置、电子设备以及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311868A (ja) * 2004-04-23 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
JP4748199B2 (ja) * 2008-09-30 2011-08-17 ソニー株式会社 静脈撮像装置および静脈撮像方法
JP5412692B2 (ja) * 2011-10-04 2014-02-12 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
CN104285441B (zh) * 2012-05-22 2018-01-05 三菱电机株式会社 图像处理装置
JP5877135B2 (ja) 2012-07-20 2016-03-02 株式会社日立製作所 画像認識装置及びエレベータ装置
JP2014130519A (ja) 2012-12-28 2014-07-10 Toshiba Corp 医用情報処理システム、医用情報処理装置及び医用画像診断装置
WO2014154839A1 (en) * 2013-03-27 2014-10-02 Mindmaze S.A. High-definition 3d camera device
KR20160096473A (ko) * 2015-02-05 2016-08-16 한국전자통신연구원 동작 평가 시스템 및 방법
CN104794446B (zh) * 2015-04-22 2017-12-12 中南民族大学 基于合成描述子的人体动作识别方法及系统

Also Published As

Publication number Publication date
EP3336799B1 (en) 2020-02-12
EP3336799A3 (en) 2018-10-31
EP3336799A2 (en) 2018-06-20
CN108205656A (zh) 2018-06-26
US20180174307A1 (en) 2018-06-21
JP2018101207A (ja) 2018-06-28

Similar Documents

Publication Publication Date Title
JP5380789B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
EP2531980B1 (en) Depth camera compatibility
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
US11107270B2 (en) Medical scene model
JP5251987B2 (ja) 人判定装置、方法およびプログラム
JP2012008867A (ja) 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム
US20080316203A1 (en) Information processing method and apparatus for specifying point in three-dimensional space
CN105284108A (zh) 影像监视系统、监视装置
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP6728865B2 (ja) 手上げ検出装置及び手上げ検出プログラム
JP2010204805A (ja) 周辺監視装置および該方法
US20120114174A1 (en) Voxel map generator and method thereof
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6769859B2 (ja) 画像処理装置及び画像処理方法
JP7266599B2 (ja) 患者の身体運動を検知するためのデバイス、システム及び方法
US20210327160A1 (en) Authoring device, authoring method, and storage medium storing authoring program
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
US20200388078A1 (en) Apparatus for positioning processing between image in real world and image in virtual world, information processing method, and storage medium
JP3862402B2 (ja) 3次元モデル生成装置および3次元モデル生成プログラムを記録したコンピュータ読取可能な記録媒体
US20210402616A1 (en) Information processing apparatus, information processing method, mobile robot, and non-transitory computer-readable storage medium
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
JP7040627B2 (ja) 算出装置、情報処理方法およびプログラム
KR101316387B1 (ko) 비전 센싱과 거리측정 센싱을 이용한 오브젝트 인식 방법
Girão et al. Real-time multi-view grid map-based spatial representation for mixed reality applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200924

R150 Certificate of patent or registration of utility model

Ref document number: 6769859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150