JP2018084951A - 行動解析装置及び行動解析方法 - Google Patents

行動解析装置及び行動解析方法 Download PDF

Info

Publication number
JP2018084951A
JP2018084951A JP2016227579A JP2016227579A JP2018084951A JP 2018084951 A JP2018084951 A JP 2018084951A JP 2016227579 A JP2016227579 A JP 2016227579A JP 2016227579 A JP2016227579 A JP 2016227579A JP 2018084951 A JP2018084951 A JP 2018084951A
Authority
JP
Japan
Prior art keywords
frame
person
behavior analysis
image
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016227579A
Other languages
English (en)
Inventor
俊夫 上村
Toshio Kamimura
俊夫 上村
雄一 野中
Yuichi Nonaka
雄一 野中
昭信 渡邊
Akinobu Watanabe
昭信 渡邊
味松 康行
Yasuyuki Ajimatsu
康行 味松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016227579A priority Critical patent/JP2018084951A/ja
Priority to US15/473,875 priority patent/US10489921B2/en
Priority to CN201710207113.2A priority patent/CN108108653A/zh
Publication of JP2018084951A publication Critical patent/JP2018084951A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

【課題】カメラで取得した画像を用いた行動解析技術において、取得画像からの人物のフレームアウト防止技術を提供する。
【解決手段】所定の画角で人物を含む撮影画像を取得する画像取得部と、撮影画像から動体である人物の存在する領域である人物画像領域を抽出する人物画像抽出部と、人物画像領域から人物骨格を検出する人物骨格検出部と、人物骨格から人物行動を解析する人物行動解析部と、を有している行動解析装置100において、人物画像領域と、人物骨格と、のいずれかを用いて、所定の画角外への人物のフレームアウトの発生状態あるいはフレームアウトが予知される状態にあるか否かフレームアウトを判定するフレームアウト判定部と、フレームアウトの発生が有るか、フレームアウトの予知が有る場合に、判定を人物に通知するフレームアウト通知部と、を備える。
【選択図】図1

Description

本発明は、行動解析装置及び行動解析方法に関する。
本技術分野の背景技術として、特開平09−251542号公報(特許文献1)がある。この公報には、段落[0005]に、「本発明は、操作人物の位置状態や動作状態などを自動的に把握し、操作人物の位置状態や動作状態などに応じて、ユーザフレンドリな操作方法の案内や誤りの忠告などを行なうことが可能となる人物動作解析方式を提供する」こと、段落[0008]に、「人物の操作により複数のステップからなる所定の処理を順次行なう機器を操作する人物の上半身を含む画像を連続的に入力する画像入力手段と、・・・、操作人物の位置状態と動作状態を解析する解析手段と、この解析手段の解析結果と前記機器から得られる実際の処理状態とから、操作人物が正規の処理手順とは異なる処理動作をし、そのまま立ち去ったことを検知する処理誤り検知手段と、この処理誤り検知手段が人物が立ち去ったことを検知したとき、処理未完了である旨を案内する案内手段と、前記処理誤り検知手段が人物が立ち去ったことを検知したとき、人物が立ち去った方向と再び人物が接近してきた方向を検知し、両方向を比較することにより同一人物であるか否かを判断して、その判断結果に応じた案内を行なうよう前記案内手段を制御する制御手段とを具備している。」と記載がある。
特開平09−251542号公報
上記特許文献1に記載された技術では、現金自動入出金装置や券売機などの社会システム機器において、カメラ画像等で解析した操作人物の状態と操作内容に応じて、操作誤りの忠告を行うことを想定されている。しかし、特許文献1に記載された技術では、製造現場等の作業者の行動解析装置等に関して、カメラ設置制約がある環境において取得画像からの人物のフレームアウト防止に関する考慮はなされていない。そのため、カメラを介した取得画像からの被写人物のフレームアウト発生による人物姿勢検出あるいは行動解析の精度が低下してしまうおそれがある。
本発明の課題は、カメラで取得した画像を用いた行動解析技術において、取得画像からの人物のフレームアウト防止技術を提供することである。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明の一態様に係る行動解析装置は、所定の画角で人物を含む撮影画像を取得する画像取得部と、上記撮影画像から動体である人物の存在する領域である人物画像領域を抽出する人物画像抽出部と、上記人物画像領域から人物骨格を検出する人物骨格検出部と、上記人物骨格から人物行動を解析する人物行動解析部と、を有している行動解析装置であって、上記人物画像領域と、上記人物骨格と、のいずれかを用いて、上記所定の画角外への上記人物のフレームアウトの発生状態あるいはフレームアウトが予知される状態にあるか否かフレームアウトを判定するフレームアウト判定部と、上記フレームアウトの発生が有るか、上記フレームアウトの予知が有る場合に、上記判定を上記人物に通知するフレームアウト通知部と、を備える。
本発明によれば、カメラ取得画像を用いた行動解析技術において、カメラ取得画像外への人物のフレームアウト防止技術を提供できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第一の実施形態に係る行動解析システムの構成を示す図である。 第一の実施形態に係る行動解析装置のハードウェア構成を示す図である。 撮影処理の動作フローを示す図である。 第一の実施形態に係る人物画像のフレームアウト発生の判定例を示す図である。 第一の実施形態に係る人物画像のフレームアウト予知の判定例を示す図である。 第一の実施形態に係る人物画像のフレームアウト予知の別の判定例を示す図である。 第一の実施形態に係る人物骨格のフレームアウト発生の判定例を示す図である。 第一の実施形態に係る人物骨格のフレームアウト予知の判定例を示す図である。 第一の実施形態に係る人物骨格のフレームアウト予知の別の判定例を示す図である。
以下、本発明に係る一つの実施の形態を図面に基づいて説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aよりなる」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。
一般に、カメラを用いて製造現場の作業者の行動解析を行う装置では、コストパフォーマンスの関係から、カメラ設置に際して様々な制約がある。その制約とは、例えば、(1)設置コスト低減のため、設置数は1[個/人]となる、(2)現場機材等映り込みのない設置位置の自由度確保のため、カメラ向きは真下となる、(3)現場天井より低い位置にしか設置できないため、カメラ高さは2.5[m]程度の場合が有る、(4)カメラコスト低減のため、視野角70度程度の普及品のカメラが採用されることが多い、等が考えられる。
このようなカメラ設置の制約により、カメラ視野内の作業動作中の作業者全体を映像上に留めるためのクリアランスが小さくなる場合があり、正常作業であっても、作業者の作業位置や腕動作の小さなズレで、カメラ画角からの人物のフレームアウトが発生してしまう場合がある。
図1は、第一の実施形態に係る行動解析システムの構成を示す図である。行動解析システム10は、撮像装置1Aおよび撮像装置1B(以降、撮像装置1Aと撮像装置1Bとを特別に区別しない場合には撮像装置1と表記)と、出力装置2Aおよび出力装置2B(以降、出力装置2Aと出力装置2Bとを特別に区別しない場合には出力装置2と表記)と、行動解析装置100と、を含んで構成される。
なお、撮像装置1、出力装置2、行動解析装置100は、それぞれネットワーク3を介して通信可能に接続され、行動解析装置100と撮像装置1、行動解析装置100と出力装置2は、互いに通信を行うことができる。また、撮像装置1、出力装置2は、それぞれ2台が図示されているが、これに限られず、それぞれ1台あるいは複数台あってもよい。
ネットワーク3は、例えば、インターネット等の公衆網やLAN(Local Area Netowork)、WAN(Wide Area Netowork)である。さらに、ネットワーク3は、USB(Universal Serial Bus)やHDMI(High−Definition Multimedia Interface)等の他の一般的な通信手段でもよい。
撮像装置1は、距離画像カメラやステレオカメラ等であって、望ましくは画素ごとに深度(被写体までの距離)の情報を有する撮影画像を取得する。そして、撮像装置1は、取得した撮影画像を行動解析装置100へ送信する。
出力装置2は、作業者単位に割り当てられたディスプレイ装置、ディスプレイ機能を有するヘッドセット、またはディスプレイに限られず前後左右が区別可能に配置された複数のランプ、音声出力を行うスピーカー等である。出力装置2は、行動解析装置100からの出力指示を受け付けて、出力を行う。出力指示が音声出力指示である場合には、出力装置2はディスプレイ装置、ヘッドセット、あるいはスピーカーから音声を出力し、出力指示が表示出力指示である場合には、出力装置2はディスプレイ装置、ヘッドセットから映像情報を出力する。出力指示がランプの点灯指示である場合には、出力装置2はランプを当該点灯指示に従った方向を示すように表示する。
行動解析装置100は、例えば、物理的なコンピュータハードウェアであるサーバ計算機である。行動解析装置100は、撮像装置1、出力装置2と通信可能に接続されており、撮像装置1から撮影画像を取得し、出力装置2に対しては出力情報を送信可能である。
行動解析装置100は、制御部110と、記憶部120と、通信部130と、出力制御部140と、を備える。制御部110には、画像取得部111と、人物画像抽出部112と、人物骨格検出部113と、フレームアウト判定部114と、通知部115と、人物行動解析部116と、が含まれる。記憶部120には、所定のデータ構造を有する複数の静止画から成る動画を記憶する映像記憶部121が含まれる。
画像取得部111は、所定の画角を有して作業者等の人物を含む撮影画像を取得する。具体的には、画像取得部111は、撮像装置1から撮影画像を受信することで、撮影画像を取得する。しかしこれに限られず、画像取得部111は、他のサーバー装置等からネットワークを介してストリーム形式で動画を取得するものであってもよい。
人物画像抽出部112は、撮影画像から、背景と区別して、動体である人物の存在する領域である人物画像領域を抽出する。
人物骨格検出部113は、人物画像を用いて、人物の姿勢を示す人物骨格を検出する。
フレームアウト判定部114は、人物画像領域または人物骨格のいずれかまたは両方を用いて、所定の画角外への人物のフレームアウトが発生する状態にあるか否か、あるいはフレームアウトが予知される状態にあるか否か、フレームアウトを判定する。
通知部115は、フレームアウトが発生する状態にある場合、あるいはフレームアウトが予知される状態に有る場合に、フレームアウトあるいは予知の情報を作業者等の人物に通知するために所定の警告や注意喚起の表示および音声を出力する。
人物行動解析部116は、人物骨格を用いて、人物の行動を解析する。
画像取得部111、人物画像抽出部112、人物骨格検出部113、人物行動解析部116は、公知の技術的特徴を備える処理部であり、本実施形態特有の処理特徴を有するものではないため、それぞれの処理の詳細についての説明は省略する。概要を説明すると、画像取得部111は、距離画像カメラやステレオカメラ等で構成した距離画像を取得するものである。人物画像抽出部112は、距離画像の時間的遷移に対する動体抽出手段等で構成した人物画像を取得するものである。人物骨格検出部113は、人物の距離画像の機械学習手段等で構成した人物の骨格を検出するものである。人物行動解析部116は、人物骨格の時間的遷移の機械学習手段等で構成した人物の行動を解析する。
また、映像記憶部121は、例えば、複数の静止画を時間的遷移に沿って再生順を定められた動画や、その他インターレース等の所定の形式で記録された動画を所定のファイル形式で記憶管理する。
通信部130は、撮像装置1、出力装置2のそれぞれとネットワーク3を介してデジタルデータを通信する。
出力制御部140は、出力装置2に対して出力の種類(表示あるいは音声またはその両方)に応じて出力を制御する。
上述のように、本実施形態においては、撮像装置1、出力装置2、行動解析装置100がそれぞれ独立した別の装置として構成されているが、一つの物理的なコンピュータハードウェアである計算機に各装置の機能が実装されていても良いことは言うまでもない。
図2は、行動解析装置100のハードウェア構成を示す図である。行動解析装置100は、例えば、NIC(Network Interface Card)等の通信装置101と、メモリ等の主記憶装置102と、キーボードやマウス等の入力装置103と、CPU(Central Processing Unit)等の演算装置104と、ハードディスクやSSD(Solid State Drive)等の外部記憶装置105と、ディスプレイやスピーカー等への出力を制御する出力制御装置106と、これらをつなぐバス107と、を含んで構成される。
通信装置101は、ネットワークケーブルを介して有線通信を行う有線の通信装置、又はアンテナを介して無線通信を行う無線通信装置である。通信装置101は、ネットワーク3に接続される他の装置との通信を行う。
主記憶装置102は、例えばRAM(Random Access Memory)などのメモリである。
入力装置103は、キーボードやマウス等のポインティングデバイス、タッチパネル、あるいは音声入力装置であるマイク等を含む入力情報を受け付ける装置である。
外部記憶装置105は、デジタル情報を記憶可能な、いわゆるハードディスクやSSD、あるいはフラッシュメモリなどの不揮発性記憶装置である。
上記した画像取得部111と、人物画像抽出部112と、人物骨格検出部113と、フレームアウト判定部114と、通知部115と、人物行動解析部116とは、演算装置104に処理を行わせるプログラムによって実現される。このプログラムは、主記憶装置102、または外部記憶装置105内に記憶され、実行にあたって主記憶装置102上にロードされ、演算装置104により実行される。
また、記憶部120に格納されるテーブルは、主記憶装置102及び外部記憶装置105により実現される。
また、インターネットやLAN等に通信可能に接続する通信部130は通信装置101により実現される。また、出力制御部140は、出力制御装置106により実現される。
以上が、本実施形態における行動解析装置100のハードウェア構成例である。しかし、これに限らず、その他のハードウェアを用いて構成されるものであってもよい。例えば、インターネットを介して演算処理を分散処理する装置であってもよい。
なお、行動解析装置100は、図示しないが、OS(Operating System)、ミドルウェア、アプリケーションなどの公知の要素を有し、特にディスプレイなどの入出力装置にGUI画面を表示するための既存の処理機能を備える。
[動作の説明]次に、本実施形態における行動解析装置100の動作を説明する。
図3は、撮影処理の動作フローを示す図である。撮影処理は、行動解析装置100が撮像画像から所定の画像処理を行い、被写体のフレームアウトが発生した場合あるいは発生が予知される状態になった場合には、被写体に移動等の注意喚起を促す処理である。この撮影処理は、所定の時間ごと(例えば、5秒ごと)に開始され、直近の時間(例えば、5秒)に取得された撮影画像を対象として処理を行う。
まず、画像取得部111は、人物が写り込んだ撮影画像を取得する(ステップS001)。
そして、人物画像抽出部112は、撮影画像から人物画像の領域を抽出する(ステップS002)。
そして、人物骨格検出部113は、人物画像から人物骨格を特定する(ステップS003)。
そして、人物行動解析部116は、人物骨格から人物行動を解析する(ステップS004)。
次に、フレームアウト判定部114は、人物がフレームアウトするおそれがあるか否かを判定する(ステップS005)。フレームアウトのおそれが無い場合(ステップS005にて「No」の場合)には、フレームアウト判定部114は、撮影処理を終了させる。
フレームアウトのおそれがある場合(ステップS005にて「Yes」の場合)には、通知部115は、フレームアウトの方向と、フレームアウト有りの旨を人物に通知する(ステップS006)。そして、通知部115は、撮影処理を終了させる。
以上が、撮影処理の動作フローである。撮影処理によれば、カメラで取得した画像を用いた行動解析技術において、取得画像からの人物のフレームアウトを防止することができる。
上記の撮影処理のステップS005において、フレームアウト判定部114は、人物のフレームアウトのおそれを判定していたが、これにはいくつかの実施例を想定することができる。その実施例について述べるが、これに限られるものではなく、他の実施例であってもよいことは言うまでもない。
図4は、第一の実施形態に係る人物画像のフレームアウト発生の判定例を示す図である。第一の実施形態に係る人物画像のフレームアウト発生の判定においては、フレームアウト判定部114は、フレームアウト判定の処理内容として、人物画像が撮影画像210の最外郭の画素に存在する場合に、フレームアウトの発生があると判定する。また、この場合に、通知部115は、「左フレームアウト発生有り、直ちに正規の位置へ移動下さい」のように、撮像画像に対してフレームアウトが検出された画素が配された方向に基づいて、フレームアウトの方向と、フレームアウト発生の事実、および改善のための行動を通知する。
ここで、図4の例においては、撮影画像210は、四角形で表された1画素が横方向32画素、縦方向に24画素分並んだものであり、「×」表記のある画素は、撮影画像210の最外郭の画素を示すものである。また、人物画像220A、220Bは、人物の真上からみた撮影画像から人物画像を抽出したものであり、色の濃さは、撮影位置からの距離の大きさ(深度)を模擬しているものとする。なお、撮影画像210内の画素数は、横方向32画素、縦方向24画素に限るものでないことは明らかである。例えば、横方向に640画素、縦方向に480画素等であってもよい。
ここで、人物画像220Aおよび人物画像220Bは、いずれも最外郭の画素に左肘が写り込んでいるため、最外郭の画素に人物画像が存在し、フレームアウト発生と判定される。
図5は、第一の実施形態に係る人物画像のフレームアウト予知の判定例を示す図である。第一の実施形態に係る人物画像のフレームアウト予知の判定においては、フレームアウト判定部114は、フレームアウト判定の処理内容として、人物画像が撮影画像310の最外郭から所定の距離にある画素に存在する場合に、フレームアウトが予知される状態に有ると判定する。また、この場合に、通知部115は、「左フレームアウト予知有り、正規の位置を意識して下さい」のように、撮像画像に対してフレームアウトが予知される状態が検出された画素が配された方向に基づいて、フレームアウトの方向と、フレームアウト予知、および改善のための行動を通知する。
ここで、図5の例においては、撮影画像310は、四角形で表された1画素が横方向32画素、縦方向に24画素分並んだものであり、「×」表記のある画素は、撮影画像310の最外郭の画素を示すものである。また、斜線表記のある画素は、撮影画像310の最外郭から内側に向かって所定の距離にある画素を示すものである。また、人物画像320A、320Bは、人物の真上からみた撮影画像から人物画像を抽出したものであり、色の濃さは、撮影位置からの距離の大きさ(深度)を模擬しているものとする。なお、撮影画像310内の画素数は、横方向32画素、縦方向24画素に限るものでないことは明らかである。例えば、横方向に640画素、縦方向に480画素等であってもよい。
ここで、人物画像320Aおよび人物画像320Bは、いずれも最外郭から内側に向かって所定の距離にある画素に左肘が写り込んでいるため、最外郭から内側に向かって所定の距離にある画素に人物画像が存在し、フレームアウト発生が予知される状態にあると判定される。
図6は、第一の実施形態に係る人物画像のフレームアウト予知の別の判定例を示す図である。第一の実施形態に係る人物画像のフレームアウト予知の別の判定においては、フレームアウト判定部114は、フレームアウト判定の処理内容として、人物画像の重心位置430が撮影画像410の中心付近にある所定の領域(例えば、撮影画像410の中心画素を中心とする横方向8画素、縦方向6画素の矩形)の画素に存在しない場合に、フレームアウトが予知される状態に有ると判定する。また、この場合に、通知部115は、「左フレームアウト予知有り、正規の位置を意識して下さい」のように、撮像画像に対してフレームアウトが予知される状態が検出された画素が配された方向に基づいて、フレームアウトの方向と、フレームアウト予知、および改善のための行動を通知する。
ここで、図6の例においては、撮影画像410は、四角形で表された1画素が横方向32画素、縦方向に24画素分並んだものであり、「×」表記のある画素は、撮影画像410の最外郭の画素を示すものである。また、斜線表記のある画素は、撮影画像410の中心付近の所定の領域にある画素を示すものである。また、人物画像420は、人物の真上からみた撮影画像から人物画像を抽出したものであり、色の濃さは、撮影位置からの距離の大きさ(深度)を模擬しているものとする。なお、撮影画像410内の画素数は、横方向32画素、縦方向24画素に限るものでないことは明らかである。例えば、横方向に640画素、縦方向に480画素等であってもよい。
ここで、人物画像420は、撮影画像410の中心付近の所定の領域にある画素に人物画像420の重心位置430が写り込んでいないため、フレームアウト発生が予知される状態にあると判定される。
図7は、第一の実施形態に係る人物骨格のフレームアウト発生の判定例を示す図である。第一の実施形態に係る人物骨格のフレームアウト発生の判定においては、フレームアウト判定部114は、フレームアウト判定の処理内容として、人物骨格が撮影画像510の最外郭の画素に存在する場合に、フレームアウトの発生があると判定する。また、この場合に、通知部115は、「左フレームアウト発生有り、直ちに正規の位置へ移動下さい」のように、撮像画像に対してフレームアウトが検出された画素が配された方向に基づいて、フレームアウトの方向と、フレームアウト発生の事実、および改善のための行動を通知する。
ここで、図7の例においては、撮影画像510は、四角形で表された1画素が横方向32画素、縦方向に24画素分並んだものであり、「×」表記のある画素は、撮影画像510の最外郭の画素を示すものである。また、人物画像520A、520Bは、人物の真上からみた撮影画像から人物画像を抽出したものであり、色の濃さは、撮影位置からの距離の大きさ(深度)を模擬しているものとする。また、人物骨格540A、540Bは、それぞれ人物画像520A、520Bを用いて所定のアルゴリズムで推定された人物骨格を、関節を繋ぐエッジ(直線)と関節を示すノード(点)で示すことで、骨格の形状を示す情報である。なお、撮影画像510内の画素数は、横方向32画素、縦方向24画素に限るものでないことは明らかである。例えば、横方向に640画素、縦方向に480画素等であってもよい。
ここで、撮影画像510は、いずれも最外郭の画素に人物骨格の一部となる左肘が写り込んでいるため、最外郭の画素に人物画像が存在し、フレームアウト発生と判定される。
図8は、第一の実施形態に係る人物骨格のフレームアウト予知の判定例を示す図である。第一の実施形態に係る人物骨格のフレームアウト予知の判定においては、フレームアウト判定部114は、フレームアウト判定の処理内容として、人物画像が撮影画像610の最外郭から所定の距離にある画素に存在する場合に、フレームアウトが予知される状態に有ると判定する。また、この場合に、通知部115は、「左フレームアウト予知有り、正規の位置を意識して下さい」のように、撮像画像に対してフレームアウトが予知される状態が検出された画素が配された方向に基づいて、フレームアウトの方向と、フレームアウト予知、および改善のための行動を通知する。
ここで、図8の例においては、撮影画像610は、四角形で表された1画素が横方向32画素、縦方向に24画素分並んだものであり、「×」表記のある画素は、撮影画像610の最外郭の画素を示すものである。また、斜線表記のある画素は、撮影画像610の最外郭の内側に所定の距離にある画素を示すものである。また、人物画像620A、620Bは、人物の真上からみた撮影画像から人物画像を抽出したものであり、色の濃さは、撮影位置からの距離の大きさ(深度)を模擬しているものとする。また、人物骨格640A、640Bは、それぞれ人物画像620A、620Bを用いて所定のアルゴリズムで推定された人物骨格を、関節を繋ぐエッジ(直線)と関節を示すノード(点)で示すことで、骨格の形状を示す情報である。なお、撮影画像610内の画素数は、横方向32画素、縦方向24画素に限るものでないことは明らかである。例えば、横方向に640画素、縦方向に480画素等であってもよい。
ここで、人物画像620Aおよび人物画像620Bは、いずれも最外郭の内側に所定の距離にある画素に左肘が写り込んでいるため、最外郭から内側に向かって所定の距離にある画素に人物骨格が存在し、フレームアウト発生が予知される状態にあると判定される。
図9は、第一の実施形態に係る人物骨格のフレームアウト予知の別の判定例を示す図である。第一の実施形態に係る人物骨格のフレームアウト予知の別の判定においては、フレームアウト判定部114は、フレームアウト判定の処理内容として、人物骨格の重心位置750が撮影画像710の中心付近にある所定の領域(例えば、撮影画像710の中心画素を中心とする横方向8画素、縦方向6画素の矩形)の画素に存在しない場合に、フレームアウトが予知される状態に有ると判定する。また、この場合に、通知部115は、「左フレームアウト予知有り、正規の位置を意識して下さい」のように、撮像画像に対してフレームアウトが予知される状態が検出された画素が配された方向に基づいて、フレームアウトの方向と、フレームアウト予知、および改善のための行動を通知する。
ここで、図9の例においては、撮影画像710は、四角形で表された1画素が横方向32画素、縦方向に24画素分並んだものであり、「×」表記のある画素は、撮影画像710の最外郭の画素を示すものである。また、斜線表記のある画素は、撮影画像710の中心付近の所定の領域にある画素を示すものである。また、人物画像720は、人物の真上からみた撮影画像から人物画像を抽出したものであり、色の濃さは、撮影位置からの距離の大きさ(深度)を模擬しているものとする。また、人物骨格740は、人物画像720を用いて所定のアルゴリズムで推定された人物骨格を、関節を繋ぐエッジ(直線)と関節を示すノード(点)で示すことで、骨格の形状を示す情報である。なお、撮影画像710内の画素数は、横方向32画素、縦方向24画素に限るものでないことは明らかである。例えば、横方向に640画素、縦方向に480画素等であってもよい。
ここで、図9の例では、撮影画像710の中心付近の所定の領域にある画素に人物骨格740の重心位置750が写り込んでいないため、フレームアウト発生が予知される状態にあると判定される。
本実施形態に係る行動解析装置100が奏する技術的効果の例は、以下のとおりであるが、これに限られず、技術的特徴により奏することが容易に想定される効果についても、奏することができることは言うまでもない。まず、カメラ画角外への人物のフレームアウト発生の予知を事前に対象人物へ通知できるので、人物のフレームアウト発生を防止することが可能となる。また、フレームアウトの発生も対象人物へ即座に通知できるため、フレームアウト発生を最小限に留めることが可能となる。これにより、人物骨格検出や人物行動解析の性能を向上できる。
以上、実施形態に係る行動解析装置100について具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、フレームアウトの発生を判定する条件として、人物行動解析を行う上で重要とされる頭、腕、手等の人物骨格の一部あるいは全部が撮影画像に含まれない場合にフレームアウトが発生したと判定するようにしても良い。その場合、フレームアウト判定部114は、人物骨格あるいは人物画像に対して人体の部位認識を行い、頭、腕、手等の認識範囲を決定し、時系列に沿って当該部位ごとの一部あるいは全部が撮影画像から消失した際にフレームアウトが発生したと判定する。このようにすることで、人物行動解析に必要な画像情報を得られない可能性が高い場合に限り警告を行うことが可能となり、作業者に対する不要な警告を減らし、作業者に与えるストレスを軽減することができる。
また例えば、上記のフレームアウト判定部114は、人物画像の重心位置あるいは人物骨格の重心位置が、撮影画像の中心付近の所定の領域にある画素に写り込んでいない場合にフレームアウト発生が予知される状態にあると判定するものであったが、これに限られず、人物画像の中心位置あるいは人物骨格の中心位置(すなわち、人物画像あるいは人物骨格が含まれる矩形領域の対角線の中点となる中心位置)が撮影画像の中心付近の所定の領域にある画素に写り込んでいない場合にフレームアウト発生が予知される状態にあると判定するものであってもよい。このようにすることで、行動解析装置100の演算に係る負荷を減らし、並列処理性能を高めることが可能となる。
また例えば、上記のフレームアウト判定部114と通知部115とは、フレームアウトの方向を特定して通知しているが、これに限られず、方向を特定せずに通知するようにしてもよい。このようにすることで、行動解析装置100の演算に係る負荷を減らし、並列処理性能を高めることが可能となる。
また例えば、上記の実施形態においては、出力装置2は、ディスプレイを想定しているが、これの例として、装着者の視界の一部または全部を覆いつつ、装着者の視界を一定程度確保するために半透明のディスプレイを用いて、AR(Augmented Reality:拡張現実)により現実の視界に重畳させるようにして通知を行うものとしてもよい。その際には、撮像装置1が得た画像に重畳させて、フレームアウトから復帰するための移動方向や移動量を直観的に示すベクトル等を表示するようにしてもよい。このようにすることで、作業者へより細やかな指針を与えることができる。
また例えば、上記の実施形態においては、撮像装置1は、作業者の頭上から鉛直方向下向きにカメラの画角が向けられていたが、これに限られず、例えば作業者の左右上方から斜め下向き、あるいは左右水平方向で作業者に向けられていてもよい。このようにすることで、作業者までの深度が所定の距離よりも近い場合、あるいは所定の距離よりも遠い場合に、作業者とカメラとの距離を適正に取るよう深度情報から算出して移動量を案内できるため、行動解析装置100の演算に係る負荷を減らし、並列処理性能を高めることが可能となる。
なお、上記した実施形態では本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
また、上記した各構成、機能、処理部等は、それらの一部又は全部を、例えば別の装置で実行してネットワークを介して統合処理する等により分散システムで実現してもよい。
また、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。
以上、本発明について、実施形態を中心に説明した。
1A,1B・・・撮像装置、2A,2B・・・出力装置、3・・・ネットワーク、10・・・行動解析システム、100・・・行動解析装置、110・・・制御部、111・・・画像取得部、112・・・人物画像抽出部、113・・・人物骨格検出部、114・・・フレームアウト判定部、115・・・通知部、116・・・人物行動解析部、120・・・記憶部、121・・・映像記憶部、130・・・通信部、140・・・出力制御部

Claims (20)

  1. 所定の画角で人物を含む撮影画像を取得する画像取得部と、
    前記撮影画像から動体である人物の存在する領域である人物画像領域を抽出する人物画像抽出部と、
    前記人物画像領域から人物骨格を検出する人物骨格検出部と、
    前記人物骨格から人物行動を解析する人物行動解析部と、
    を有している行動解析装置において、
    前記人物画像領域と、前記人物骨格と、のいずれかを用いて、前記所定の画角外への前記人物のフレームアウトの発生状態あるいはフレームアウトが予知される状態にあるか否かフレームアウトを判定するフレームアウト判定部と、
    前記フレームアウトの発生が有るか、前記フレームアウトの予知が有る場合に、前記判定を前記人物に通知するフレームアウト通知部と、
    を備えることを特徴とする行動解析装置。
  2. 請求項1に記載の行動解析装置において、
    前記フレームアウト判定部は、前記人物画像領域の一部が前記撮影画像の最外郭に存在する場合に、フレームアウトの発生状態に有ると判定する、
    ことを特徴とする行動解析装置。
  3. 請求項1に記載の行動解析装置において、
    前記フレームアウト判定部は、前記人物画像領域が前記撮影画像の最外郭に存在せず、かつ、前記人物画像領域の一部が前記撮影画像の最外郭から内側に向かって所定の範囲に存在する場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析装置。
  4. 請求項1に記載の行動解析装置において、
    前記フレームアウト判定部は、前記人物画像領域の重心が前記撮影画像の中心から所定の範囲内に存在しない場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析装置。
  5. 請求項1に記載の行動解析装置において、
    前記フレームアウト判定部は、前記人物骨格の一部が前記撮影画像の最外郭に存在する場合に、フレームアウトの発生状態に有ると判定する、
    ことを特徴とする行動解析装置。
  6. 請求項1に記載の行動解析装置において、
    前記フレームアウト判定部は、前記人物骨格が前記撮影画像の最外郭に存在せず、かつ、前記人物骨格の一部が前記撮影画像の最外郭から内側に向かって所定の範囲に存在する場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析装置。
  7. 請求項1に記載の行動解析装置において、
    前記フレームアウト判定部は、前記人物骨格の重心が前記撮影画像の中心から所定の範囲内に存在しない場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析装置。
  8. 請求項1に記載の行動解析装置において、
    前記フレームアウト判定部は、前記人物骨格のうち行動解析に必要な人物骨格の一部が前記撮影画像内に存在しない場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析装置。
  9. 請求項1に記載の行動解析装置において、
    前記フレームアウト判定部は、前記所定の画角外への前記人物のフレームアウト方向を検出し、
    前記フレームアウト通知部は、前記フレームアウトの発生状態あるいはフレームアウトが予知される状態に有る場合に、前記フレームアウト方向を前記人物に通知する、
    ことを特徴とする行動解析装置。
  10. 請求項1に記載の行動解析装置において、
    前記画像取得部は、画素ごとの深度を取得し、
    前記フレームアウト判定部は、さらに、前記深度が所定の範囲内に無い場合に前記人物のフレームアウトの発生状態にあるとの判定を行う、
    ことを特徴とする行動解析装置。
  11. 制御部を備える行動解析装置の行動解析方法であって、
    前記制御部は、
    所定の画角で人物を含む撮影画像を取得する画像取得ステップと、
    前記撮影画像から動体である人物の存在する領域である人物画像領域を抽出する人物画像抽出ステップと、
    前記人物画像領域から人物骨格を検出する人物骨格検出ステップと、
    前記人物骨格から人物行動を解析する人物行動解析ステップと、
    を有している行動解析方法において、
    前記人物画像領域と、前記人物骨格と、のいずれかを用いて、前記所定の画角外への前記人物のフレームアウトの発生状態あるいはフレームアウトが予知される状態に有るか否かフレームアウトを判定するフレームアウト判定ステップと、
    前記フレームアウトの発生が有るか、前記フレームアウトの予知が有る場合に、前記判定を前記人物に通知するフレームアウト通知ステップと、
    を実施することを特徴とする行動解析方法。
  12. 請求項11に記載の行動解析方法において、
    前記フレームアウト判定ステップでは、前記人物画像領域の一部が前記撮影画像の最外郭に存在する場合に、フレームアウトの発生状態に有ると判定する、
    ことを特徴とする行動解析方法。
  13. 請求項11に記載の行動解析方法において、
    前記フレームアウト判定ステップでは、前記人物画像領域が前記撮影画像の最外郭に存在せず、かつ、前記人物画像領域の一部が前記撮影画像の最外郭から内側に向かって所定の範囲に存在する場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析方法。
  14. 請求項11に記載の行動解析方法において、
    前記フレームアウト判定ステップは、前記人物画像領域の重心が前記撮影画像の中心付近から所定の範囲内に存在しない場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析方法。
  15. 請求項11に記載の行動解析方法において、
    前記フレームアウト判定ステップでは、前記人物骨格の一部が前記撮影画像の最外郭に存在する場合に、フレームアウトの発生状態に有ると判定する、
    ことを特徴とする行動解析方法。
  16. 請求項11に記載の行動解析方法において、
    前記フレームアウト判定ステップでは、前記人物骨格が前記撮影画像の最外郭に存在せず、かつ、前記人物骨格の一部が前記撮影画像の最外郭から内側の所定の範囲に存在する場合、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析方法。
  17. 請求項11に記載の行動解析方法において、
    前記フレームアウト判定ステップでは、前記人物骨格の重心が前記撮影画像の中心から所定の範囲内に存在しない場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析方法。
  18. 請求項11に記載の行動解析方法において、
    前記フレームアウト判定ステップでは、前記人物骨格のうち行動解析に必要な人物骨格の一部が前記撮影画像内に存在しない場合に、フレームアウトが予知される状態に有ると判定する、
    ことを特徴とする行動解析方法。
  19. 請求項11に記載の行動解析方法において、
    前記フレームアウト判定ステップでは、前記所定の画角外への前記人物のフレームアウト方向を検出し、
    前記フレームアウト通知ステップでは、前記フレームアウトの発生状態あるいはフレームアウトが予知される状態に有る場合に、前記フレームアウト方向を前記人物に通知する、
    ことを特徴とする行動解析方法。
  20. 請求項11に記載の行動解析方法において、
    前記画像取得ステップでは、画素ごとの深度を取得し、
    前記フレームアウト判定ステップでは、さらに、前記深度が所定の範囲内に無い場合に前記人物のフレームアウトの発生状態にあるとの判定を行う、
    ことを特徴とする行動解析方法。
JP2016227579A 2016-11-24 2016-11-24 行動解析装置及び行動解析方法 Pending JP2018084951A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016227579A JP2018084951A (ja) 2016-11-24 2016-11-24 行動解析装置及び行動解析方法
US15/473,875 US10489921B2 (en) 2016-11-24 2017-03-30 Behavior analysis apparatus and behavior analysis method
CN201710207113.2A CN108108653A (zh) 2016-11-24 2017-03-31 行为分析装置和行为分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016227579A JP2018084951A (ja) 2016-11-24 2016-11-24 行動解析装置及び行動解析方法

Publications (1)

Publication Number Publication Date
JP2018084951A true JP2018084951A (ja) 2018-05-31

Family

ID=62147123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016227579A Pending JP2018084951A (ja) 2016-11-24 2016-11-24 行動解析装置及び行動解析方法

Country Status (3)

Country Link
US (1) US10489921B2 (ja)
JP (1) JP2018084951A (ja)
CN (1) CN108108653A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7408731B1 (ja) 2022-07-06 2024-01-05 東芝テリー株式会社 行動検知方法、行動検知装置、行動検知システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7271915B2 (ja) * 2018-11-22 2023-05-12 コニカミノルタ株式会社 画像処理プログラムおよび画像処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009531935A (ja) * 2006-03-27 2009-09-03 アイキュー ビジョン テクノロジーズ リミテッド 画像中の人物における位置決め指示との適合性を判定する機器、システム、及び方法
JP2012170046A (ja) * 2010-11-02 2012-09-06 Olympus Corp 画像処理装置、それを備えた画像表示装置及び撮像装置、画像処理方法、並びに画像処理プログラム
JP2013539565A (ja) * 2010-06-22 2013-10-24 マイクロソフト コーポレーション ユーザー追跡フィードバック

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251542A (ja) 1996-03-15 1997-09-22 Toshiba Corp 人物動作解析方式
JP2009100454A (ja) * 2007-09-26 2009-05-07 Victor Co Of Japan Ltd 移動物体追尾制御装置
US8267781B2 (en) * 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US9113143B2 (en) * 2012-06-29 2015-08-18 Behavioral Recognition Systems, Inc. Detecting and responding to an out-of-focus camera in a video analytics system
JP2014077668A (ja) * 2012-10-09 2014-05-01 Optex Co Ltd 寸法計測装置および寸法計測方法
JP6640460B2 (ja) * 2015-03-30 2020-02-05 富士フイルム株式会社 画像撮影装置、画像撮影方法、プログラムおよび記録媒体
CN105184274B (zh) * 2015-09-21 2016-08-24 魏运 一种基于深度图像获取客流速度和密度参数的方法
JP6833483B2 (ja) * 2015-12-08 2021-02-24 キヤノン株式会社 被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置
US10659676B2 (en) * 2015-12-08 2020-05-19 Canon Kabushiki Kaisha Method and apparatus for tracking a moving subject image based on reliability of the tracking state
CN106127148B (zh) * 2016-06-21 2019-03-12 日立电梯(广州)自动扶梯有限公司 一种基于机器视觉的手扶电梯乘客异常行为检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009531935A (ja) * 2006-03-27 2009-09-03 アイキュー ビジョン テクノロジーズ リミテッド 画像中の人物における位置決め指示との適合性を判定する機器、システム、及び方法
JP2013539565A (ja) * 2010-06-22 2013-10-24 マイクロソフト コーポレーション ユーザー追跡フィードバック
JP2012170046A (ja) * 2010-11-02 2012-09-06 Olympus Corp 画像処理装置、それを備えた画像表示装置及び撮像装置、画像処理方法、並びに画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
グェン ゴック ティエン、青木 恭太: ""カラー映像と距離映像を併用した体動計測"", 情報処理学会 研究報告 オーディオビジュアル複合情報処理(AVM), vol. Vol.2014-AVM-85, No.6, JPN6020017908, 25 July 2014 (2014-07-25), JP, pages 1 - 6, ISSN: 0004274979 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7408731B1 (ja) 2022-07-06 2024-01-05 東芝テリー株式会社 行動検知方法、行動検知装置、行動検知システム

Also Published As

Publication number Publication date
US20180144482A1 (en) 2018-05-24
CN108108653A (zh) 2018-06-01
US10489921B2 (en) 2019-11-26

Similar Documents

Publication Publication Date Title
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
KR101467663B1 (ko) 영상 모니터링 시스템에서 영상 제공 방법 및 시스템
JP2015222881A (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
US20130021433A1 (en) Overview configuration and control method for ptz cameras
BR112013007715B1 (pt) Aparelho de processamento de informação
JP5525495B2 (ja) 映像監視装置、映像監視方法およびプログラム
WO2016199736A1 (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP7043601B2 (ja) 環境モデルを生成するための方法および装置ならびに記憶媒体
KR102474729B1 (ko) 모니터링 장치
US10368035B2 (en) Monitoring system, monitoring method, and monitoring program
WO2014182898A1 (en) User interface for effective video surveillance
JP2012238293A (ja) 入力装置
US10962738B2 (en) Information processing apparatus and information processing method to calibrate line-of-sight of a user
JP6270488B2 (ja) オペレータ監視制御装置およびオペレータ監視制御方法
JP2018084951A (ja) 行動解析装置及び行動解析方法
JP5574551B2 (ja) 画像処理装置および画像処理方法
US10289200B2 (en) Force indication of a boundary
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム
KR102099239B1 (ko) 모니터링 방법
JP2021005873A (ja) 3次元空間において音像を定位し、制御するための方法及びシステム
CN111373741B (zh) 医疗安全系统
JP6515975B2 (ja) モバイル監視装置、モバイル監視システム、プログラム、及び制御方法
WO2012132641A1 (ja) 電子機器
CN114677163A (zh) 一种广告交互方法、装置、介质及设备
KR20080045319A (ko) 마우스 이외의 입력수단과 마우스 커서의 연동제어방법 및 그 제어시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200825