JP7208713B2 - 画像解析装置および画像解析方法 - Google Patents

画像解析装置および画像解析方法 Download PDF

Info

Publication number
JP7208713B2
JP7208713B2 JP2018023407A JP2018023407A JP7208713B2 JP 7208713 B2 JP7208713 B2 JP 7208713B2 JP 2018023407 A JP2018023407 A JP 2018023407A JP 2018023407 A JP2018023407 A JP 2018023407A JP 7208713 B2 JP7208713 B2 JP 7208713B2
Authority
JP
Japan
Prior art keywords
human body
models
image
model
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018023407A
Other languages
English (en)
Other versions
JP2019139588A5 (ja
JP2019139588A (ja
Inventor
弥志 河林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018023407A priority Critical patent/JP7208713B2/ja
Priority to US16/255,541 priority patent/US10949713B2/en
Publication of JP2019139588A publication Critical patent/JP2019139588A/ja
Publication of JP2019139588A5 publication Critical patent/JP2019139588A5/ja
Application granted granted Critical
Publication of JP7208713B2 publication Critical patent/JP7208713B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像解析装置および画像解析方法に関する。
動画像や静止画像のなかから物体を検出する処理が知られている(例えば、特許文献1参照)。しかしながら、このような物体検出処理は時間がかかる。これは、複数の物体モデルでテンプレートマッチングを行っているからである。精度を向上させるには、より多くの物体モデルが必要となるが、テンプレートマッチングを行う回数が増えるため処理速度が低下してしまう。つまり、精度と速度はトレードオフとなる。
特開2010-191939号公報
撮像装置の設置環境が決まれば、検出される物体モデルはおのずと決まる。例えば、俯角が高い画角だと撮り下ろしの物体モデル、俯角が低い画角だと正面に近いモデルで検出される。その特徴を活かし、不要な物体モデルを検出対象から外すことで高速化することは可能である。しかしながら、稀に想定する物体モデルではないモデルで検出されることがあり、ある物体モデルを一律に削除することが適切でない場合がある。また、検出される物体モデルの傾向は設置環境によって異なる。
一方で、ユーザごとに設置環境やユースケースは異なり、精度を重視するか速度を重視するかも異なる。そこで、ユーザが物体モデルを用いた物体検出の状況を見て、求められる精度と速度とのバランスの観点から、物体モデルの要否を判断し取捨選択できると、ユースケースごとに精度と速度とをチューニングすることが可能となる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、物体モデルを用いた物体検出の結果をユーザに分かりやすく提示し、物体検出に用いる物体モデルのユーザによる変更を支援できる技術の提供にある。
本発明のある態様は画像解析装置に関する。この画像解析装置は、複数の異なる物体モデルを用いて、画像から物体を検出した物体検出処理の処理結果を取得する取得手段と、複数の異なる物体モデルのそれぞれを表す情報と、前記複数の異なる物体モデルのそれぞれに係る前記処理結果と、を表示する画面をディスプレイに表示させる表示制御手段と、を備え、前記表示制御手段は、前記画像から検出された物体の合計数に対する、前記物体モデルのそれぞれを用いて前記画像から検出された物体の数に基づいて算出される検出割合を、前記複数の異なる物体モデルのそれぞれに係る前記処理結果として表示させ、前記処理結果は、前記物体モデルのそれぞれについて前記物体検出処理に要した処理時間の合計に対する、前記物体モデルのそれぞれについて前記物体検出処理に要した処理時間に基づいて算出される処理時間の割合を示す情報を含むことを特徴とする。
本発明によれば、物体モデルを用いた物体検出の結果をユーザに分かりやすく提示し、物体検出に用いる物体モデルのユーザによる変更を支援できる。
第1の実施の形態に係るシステムのシステム構成及びハードウエア構成の一例を示す模式図。 図1の撮像装置およびクライアント装置の機能および構成を示すブロック図。 クライアント装置が撮像装置から取得した撮像画像の一例を示す図。 図2のクライアント装置における一連の処理の流れを示すフローチャート。 図4の人体モデルの設定ステップにおける一連の処理の流れを示すフローチャート。 人体モデルの設定ステップにおいて最初に表示されるモデル設定画面の代表画面図。 更新されたモデル設定画面の代表画面図。 正面見下ろし人体モデルおよび横顔人体モデルに対応する二つのチェックボックスをオフにして再検出ボタンをクリックした後に表示されるモデル設定画面の代表画面図。 第2の実施の形態に係る人体モデルの設定ステップにおける一連の処理の流れを示すフローチャート。 図9の通知生成処理における一連の処理の流れを示すフローチャート。 通知を含む更新されたモデル設定画面の代表画面図。 第1変形例に係るモデル設定画面の代表画面図。 第2変形例に係るモデル設定画面の代表画面図。
以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。
実施の形態では、カメラの画像からの物体の検出において、複数の異なる物体モデルごとにかかった処理時間の割合と検出数の割合とを算出し、モデル設定画面に表示させる。該モデル設定画面において、表示された複数の物体モデルから検出に用いる物体モデルをユーザに選択させる。モデル設定画面の表示によってユーザは、ある物体モデルが全体のなかでどの程度検出に寄与し、どの程度の処理時間がかかっているかを知ることができる。そして、表示された検出数の割合と処理時間の割合とによって、ユーザはどの物体モデルを検出に用いるかを自己の要求に合わせて選択することができる。
<第1の実施の形態>
第1の実施の形態では、検出する物体を人体とする。本実施の形態に係る画像解析装置は、動画像をモニタリングし解析する。画像解析装置は、撮像装置により得られた動画像に対して人体検出を行い、人体モデルごとにかかった処理時間の割合と検出数の割合とを算出し、モデル設定画面に表示させる。該モデル設定画面において、表示された複数の人体モデルから検出に用いる人体モデルをユーザに選択させる。
図1は、本実施の形態に係るシステムのシステム構成及びハードウエア構成の一例を示す模式図である。撮像装置110は例えばネットワークカメラや監視カメラであり、現実世界の所定の位置、例えば天井やエントランスや外壁など、に設置される。撮像装置110は撮像を行う。他の実施の形態では、撮像装置110はスマートフォンやタブレットやラップトップPCなどの携帯端末に組み込まれた撮像デバイスであってもよい。画像解析装置としてのクライアント装置120は、撮像装置110の駆動、撮像装置110で撮像された画像(以下、撮像画像とも称す)の表示を行う。入力装置130は、マウスやキーボード等から構成され、クライアント装置120へのユーザ入力を行うために用いられる。表示装置140は、ディスプレイ等から構成され、クライアント装置120が生成した画像の表示を行う。図1ではクライアント装置120と表示装置140とを各々独立した装置として示したが、クライアント装置120と表示装置140とを一体化して構成してもよい。また、入力装置130と表示装置140とを一体化して構成してもよいし、クライアント装置120と入力装置130と表示装置140とを一体化して構成してもよい。
ネットワーク150は撮像装置110とクライアント装置120とを接続する。ネットワーク150は例えばローカルネットワーク等であり、通信規格を満たす複数のルータ、スイッチ、ケーブル等から構成される。本実施の形態においては撮像装置110、クライアント装置120間の通信を可能とするものであればその通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。また、クライアント装置120に接続される撮像装置110の数は1台に限られず、複数台であってもよい。
撮像装置110のハードウエア構成について説明する。撮像装置110は、ハードウエア構成として、撮像部11と、CPU12と、メモリ13と、通信I/F14と、を含む。撮像部11は、撮像素子と撮像素子上に設けられた被写体の光学系とを有し、CPU12の制御に基づき光学系の光軸と撮像素子との交点を撮像中心として撮像素子上に撮像を行う。撮像素子は、CMOS(ComplementaryMetal-Oxide Semiconductor)やCCD(Charged Coupled Device)等であってもよい。CPU12は、撮像装置110の全体を制御する。メモリ13は、プログラムや撮像部11で撮像された画像、CPU12が処理を実行する際に利用するデータ等を記憶する。通信I/F14は、CPU12の制御に基づきネットワーク150を介したクライアント装置120との通信を制御する。CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することにより、撮像装置110の機能等が実現される。
次に、クライアント装置120のハードウエア構成について説明する。クライアント装置120は、ハードウエア構成として、メモリ21と、CPU22と、通信I/F23と、入力I/F24と、表示I/F25と、を含む。CPU22は、クライアント装置120の全体を制御する。メモリ21は、プログラムや撮像装置110から送信された撮像画像、CPU22が処理を実行する際に利用するデータ等を記憶する。通信I/F23は、CPU22の制御に基づきネットワーク150を介した撮像装置110との通信を制御する。入力I/F24は、クライアント装置120と入力装置130とを接続し、入力装置130からの情報の入力を制御する。表示I/F25は、クライアント装置120と表示装置140とを接続し、表示装置140への情報の出力を制御する。CPU22がメモリ21に記憶されたプログラムに基づき処理を実行することにより、クライアント装置120の機能及び後述するフローチャートの処理等が実現される。但し、クライアント装置120のハードウエア構成は、図1に示されるものに限定されない。例えば、クライアント装置120は、通知装置の一例であるスピーカ等の音声出力装置を有していてもよい。クライアント装置120が音声出力装置をハードウエア構成として有する場合、通知処理の一例は、警告等の音声の出力処理である。
図2は、図1の撮像装置110およびクライアント装置120の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。
撮像装置110は、撮像部11と、信号処理部112と、駆動制御部113と、通信制御部114と、を含む。信号処理部112は、撮像部11によって撮像された画像の信号の処理を行う。例えば、信号処理部112は、撮像部11によって撮像された画像の符号化を行う。信号処理部112は、符号化方式として、例えば、JPEG(Joint Photographic Experts Group)を用いることができる。又は、信号処理部112は、符号化方式として、H.264/MPEG-4 AVCを用いることができる。又は、信号処理部112は、符号化方式として、HEVC(High Efficiency Video Coding符号化方式)を用いることができる。但し符号化方式はこれらに限らない。また、信号処理部112は、複数の符号化方式の中から符号化方式を選択して符号化を行うようにしても良い。駆動制御部113は、撮像部11の撮像方向、及び画角を変更させる制御を行う。本実施の形態では、撮像部11は、パン方向、チルト方向に撮像方向を変更でき、かつ、撮像画角を変更することができる場合について説明するが、これに限らない。撮像装置110は、パン方向、チルト方向に撮像方向を変更する機能を有さなくてもよいし、画角を変更する機能を有さなくてもよい。通信制御部114は、信号処理部112で処理された撮像画像をクライアント装置120に送信する。更に通信制御部114は、クライアント装置120から撮像装置110に対する制御命令を受信する。
クライアント装置120は、制御部121と、通信制御部123と、情報取得部124と、表示制御部125と、を含む。制御部121は、クライアント装置120を制御する。通信制御部123は、撮像画像を撮像装置110から取得する。情報取得部124は、入力装置130に対してなされたユーザ入力を受け付ける、または入力装置130より入力情報を取得する。表示制御部125は、画像(例えば、動画像、映像、静止画像)を生成して表示装置140へ出力し、後述する表示処理を表示装置140に実行させる。表示装置140は表示という形でユーザへの通知を行うので、通知装置の一例と理解されてもよい。
図3は、クライアント装置120が撮像装置110から取得した撮像画像200の一例を示す図である。撮像画像200には複数の人体201が同時に撮像されている。
図2に戻り、クライアント装置120の制御部121は、用いる人体モデルを設定する必要がある場合、撮像装置110から取得した撮像画像に対し人体検出を行い、人体モデルごとにかかった処理時間の割合と検出数の割合とを算出して表示装置140に表示させる。クライアント装置120は、表示された複数の人体モデルから検出に用いる人体モデルをユーザに選択させる。これにより、リアルタイムのライブ映像に対して人体検出を行い、人体モデルごとに処理時間の割合と検出数の割合とを表示し、表示された複数の人体モデルから検出に用いる人体モデルを選択させることができる。
なお、他の実施の形態では、クライアント装置120は、撮像装置110内に保存されている動画を取得し、各フレームに対し人体検出を行い、人体モデルごとに処理時間の割合と検出数の割合とを算出して表示装置140に表示させてもよい。あるいはまた、クライアント装置120内に保存されている動画の各フレームに対して人体検出を行い、人体モデルごとに処理時間の割合と検出数の割合とを算出して表示装置140に表示させてもよい。あるいはまた、クライアント装置120は、録画サーバ等にアクセスし、録画サーバ内に保存されている動画の各フレームに対して人体検出を行い、人体モデルごとに処理時間の割合と検出数の割合とを算出して表示装置140に表示させてもよい。
図4は、図2のクライアント装置120における一連の処理の流れを示すフローチャートである。制御部121は、人体検出に用いる人体モデルの設定を行う(S41)。制御部121は、その時点で使用するものとして設定されている少なくともひとつの人体モデルを用いて、撮像画像から人体を検出する。表示制御部125は、選択可能な人体モデルと検出結果とを対応付けて表示するモデル設定画面を表示装置140に表示させる。情報取得部124はユーザによる人体モデルの選択結果を取得し、制御部121は選択された人体モデルを、以降の人体検出において用いられる人体モデルとして新たに設定する。ステップS41のさらなる詳細は後述する。
通信制御部123は、ネットワーク150を介して撮像装置110から、撮像画像を取得する(S42)。制御部121は、ステップS41で設定された人体モデルを用いて、ステップS42で取得された撮像画像から人体を検出する(S43)。制御部121は、ステップS43における検出結果に対する所定の処理を行う(S44)。所定の処理は、例えば、検出結果をユーザに示すための画面の生成や、検出結果に基づく人体の数のカウントなどの統計処理である。
制御部121は、人体モデルを再設定するための指示をユーザから受け付けた場合(S45のYES)、処理をステップS41に戻す。そのような指示が無い場合(S45のNO)、制御部121は終了指示の有無を確認する(S46)。終了指示があれば(S46のYES)処理は終了し、無ければ(S46のNO)処理はステップS42に戻る。このように、クライアント装置120は、撮像装置110から取得した撮像画像に対して人体検出を行い、その検出結果を含むモデル設定画面を提供することで、ユーザによる人体モデルの初期設定を支援することができる。また、クライアント装置120は、撮像装置110から取得した撮像画像に対して引き続き人体検出を行いながら、必要に応じて人体モデルを設定し直すことを可能とすることで、ユーザ利便性を高めることができる。
図5は、図4の人体モデルの設定ステップS41における一連の処理の流れを示すフローチャートである。ステップS41では、クライアント装置120は、人体検出において、人体モデルごとに処理時間の割合と検出数の割合とを表示装置140に表示させ、表示された複数の人体モデルから検出に用いる人体モデルを少なくともひとつユーザに選択させる。
制御部121は、ネットワーク150を介して撮像装置110から撮像画像を取得する(S400)。表示制御部125は、ステップS400で取得された撮像画像を用いてモデル設定画面300を生成し、表示装置140に表示させる(S420)
図6は、人体モデルの設定ステップにおいて最初に表示されるモデル設定画面300の代表画面図である。モデル設定画面300は、クライアント装置120に登録されている全てのまたは一部の人体モデルのそれぞれを表す情報とその人体モデルに係る検出結果とを対応付けて表示する。なお、この段階では人体検出は行われていないので、検出結果に実質的な情報は含まれていない。すなわち、割合の数値は空欄となっている。モデル設定画面300は、人体検出に用いられるべき人体モデルをユーザが選択可能に構成される。
モデル設定画面300は、対象画像表示領域301と、選択受付領域302と、モデル表示領域303と、割合表示領域304と、を有する。対象画像表示領域301には、ステップS400で取得された撮像画像(図6の例では撮像画像200)が表示される。ユーザは、対象画像表示領域301に表示される撮像画像200を操作(拡大、縮小、切り出し、回転、移動、トリミング等)することで、人体検出を行う検出エリアを設定してもよい。選択受付領域302は、クライアント装置120に登録されている人体モデルごとに使用・不使用の別の指定をユーザから受け付けることができるように構成され、例えば人体モデルごとにチェックボックスを含む。チェックボックスをオン・オフすることで、対応する人体モデルを人体検出に用いるか否かを切り替えることができる。モデル表示領域303は、登録されている人体モデルごとにユーザがその人体モデル自体を識別できるように構成され、例えば人体モデルごとに模式図(どのような人体モデルであるかを表示する絵)やアイコンや名前を含む。割合表示領域304は登録されている人体モデルごとに検出結果として割合を表示する。割合表示領域304については後述する。選択受付領域302とモデル表示領域303と割合表示領域304とは表形式になっており、ひとつの人体モデルに対して選択受付領域302のチェックボックスとモデル表示領域303の名前と割合表示領域304の割合とが対応付けて表示される。
図6の例において、選択受付領域302に含まれるチェックボックスはデフォルトで全てオンになっている。ユーザは、対象画像表示領域301に表示される撮像画像200を検出対象として視認し、もし不要な人体モデルがあれば選択受付領域302において不要な人体モデルに対応するチェックボックスをオフにし(チェックを外し)、検出実行ボタン305をクリックする。
図5に戻り、制御部121は、検出に用いられるものとして設定されている人体モデルを取得する(S401)。制御部121は、検出実行ボタン305に対するクリックを検出すると、選択受付領域302のチェックボックスがONとなっている人体モデルを、検出に用いる人体モデルとして取得する。図6の状態で検出実行ボタン305がクリックされたならば、正面顔、正面上半身、正面見下ろし、横顔の全ての人体モデルについてチェックボックスがONとなっているので、その全ての人体モデルを用いて人体検出が行われる。
なお、正面顔、正面上半身、正面見下ろし、横顔の人体モデルは同じ人体を異なる視点から撮像することに対応する。本実施の形態では、正面顔、正面上半身、正面見下ろし、横顔の四つの人体モデルを採用する場合を説明するが、別の実施の形態では他の人体モデルを用いてもよいし、正面顔、正面上半身、正面見下ろし、横顔のいずれかまたは全てを用いなくてもよい。
制御部121は、ステップS401で取得された人体モデルを用いて、対象画像表示領域301に表示された撮像画像200から人体を検出する(S402)。ステップS402において、例えば特開2014-199506号公報に記載されるような公知の人体検出方法が用いられてもよい。制御部121は、ステップS401で取得された人体モデルのそれぞれとのマッチング処理を撮像画像200に対して行い、人体を検出する。この時、制御部121は、ネットワーク150を介して別の端末に、人体検出の結果を送信してもよいし、表示装置140に表示させてもよい。
制御部121は、ステップS401で取得された人体モデルのそれぞれについて、ステップS402の人体検出において該人体モデルを用いた検出にかかった時間(以下、処理時間とも称す)を算出する(S403)。制御部121は、ステップS401で取得された人体モデルのそれぞれについて、撮像画像200から該人体モデルとのマッチングにより検出された人体の数(以下、検出数とも称す)を算出する(S404)。制御部121は、処理時間を全ての人体モデルに亘って合計し、合計時間を算出する(S405)。制御部121は、検出数を全ての人体モデルに亘って合計し、合計を求める(S406)。制御部121は、ステップS401で取得された人体モデルのそれぞれについて、ステップS405で算出された合計時間に対するステップS403で算出された該人体モデルの処理時間の割合を算出する(S407)。処理時間の割合は、例えば、処理時間/合計時間で求められる。制御部121は、ステップS401で取得された人体モデルのそれぞれについて、ステップS406で算出された合計の数に対するステップS404で算出された該人体モデルの検出数の割合を算出する(S408)。検出数の割合は、例えば、検出数/合計の数、で求められる。
表示制御部125は、人体検出の結果により更新されたモデル設定画面500を表示装置140に表示させる(S409)。特にモデル設定画面500はステップS407およびS408で求められた割合を人体モデルごとに表示する。
図7は、更新されたモデル設定画面500の代表画面図である。図6に示されるモデル設定画面300と比べると、更新されたモデル設定画面500は検出実行ボタン305の代わりに再検出ボタン501および設定終了ボタン502を有する。また、割合表示領域304の表示内容に検出結果が反映されている。具体的には、割合表示領域304は、人体モデルごとに、ステップS407で算出された処理時間の割合とステップS408で算出された検出数の割合とを表示する。
正面見下ろし人体モデルの検出数の割合(5%)および横顔人体モデルの検出数の割合(0%)を見ると、それらの人体モデルの検出数の割合が比較的低く、したがってそれらの人体モデルの検出数への寄与が低いことが分かる。また、正面見下ろし人体モデルの処理時間の割合(20%)および横顔人体モデルの処理時間の割合(10%)を見ると、それらの人体モデルの処理時間の割合が検出数の割合より高いことが分かる。すなわち、それらの人体モデルについては、検出数の割には処理時間がかかっていることが分かる。
そこで、本実施の形態では、ユーザは正面見下ろし人体モデルおよび横顔人体モデルについて効率が悪く不要であると判断し、それらの人体モデルを人体検出用の人体モデルから除くための指示を入力する。具体的には、ユーザは入力装置130を用いて、正面見下ろし人体モデルおよび横顔人体モデルに対応する選択受付領域302のチェックボックスをクリックすることでオフにする。他の実施の形態では他の人体モデルに対応するチェックボックスをオフにしてもよいし、正面見下ろし人体モデルおよび横顔人体モデルをオフにせず残してもよい。チェックボックスをオフにした後、ユーザは再検出ボタン501をクリックする。
図5に戻り、制御部121は、人体検出に用いられるべき人体モデルに変更があったか否かを判定する(S410)。制御部121は、モデル設定画面500を介して人体モデルの選択をユーザから受け付ける。具体的には、制御部121は、再検出ボタン501に対するクリックを検出すると、そのとき選択受付領域302のチェックボックスがONとなっている人体モデルを、検出に用いる人体モデルとして取得する。モデル設定画面500においてユーザが選択受付領域302のチェックボックスを更新した場合は制御部121は用いられるべき人体モデルに更新があったと判定する(S410のYES)。更新があったと判定された場合、制御部121は、モデル設定画面500においてユーザにより選択された人体モデルを、以降の人体検出において用いられる人体モデルとして設定する(S411)。例えば、図7に示される状態のモデル設定画面500に対して、正面見下ろし人体モデルおよび横顔人体モデルに対応する二つのチェックボックスをオフにして再検出ボタン501をクリックしたとする。この場合、正面顔、正面上半身の二つの人体モデルについてチェックボックスがONとなっているので、以降の人体検出においてその二つの人体モデルが用いられるようモデル設定が変更される。ステップS411の後、またはステップS410において更新があったと判定されなかった場合(S410のNO)、制御部121は繰り返し処理を終了するか判定する(S412)。処理を終了しないと判定された場合(S412のNO)、処理はステップS402に戻る。
図8は、正面見下ろし人体モデルおよび横顔人体モデルに対応する二つのチェックボックスをオフにして再検出ボタン501をクリックした後に表示されるモデル設定画面600の代表画面図である。モデル設定画面600は、正面見下ろし人体モデルおよび横顔人体モデルに対応する二つのチェックボックスをオフにして再検出ボタン501をクリックした後のステップS409で表示される。モデル設定画面600の選択受付領域302では、正面見下ろし人体モデルおよび横顔人体モデルに対応する二つのチェックボックスはオフとなっている。
本実施の形態に係る画像解析装置によると、人体検出に用いる人体モデルをユーザがユースシーンに合わせて適切に選択しやすくなり、精度と速度とのバランスを簡単に調整できるようになる。また、人体モデルごとに用いるか否かを設定できるので、設定の自由度が高い。
本実施の形態ではモデル設定画面300、500、600を介してユーザに人体モデルを設定させる場合を説明するが、他の実施の形態では、他の方法でユーザに設定させてもよい。本実施の形態では、各人体モデルのオン/オフを選択するためにチェックボックスを用いる場合を説明したが、他の実施の形態では他の方法でユーザに選択させてもよい。本実施の形態では、チェックボックスがオンであるとき対応する人体モデルが人体検出に用いられるものとして設定される場合を説明したが、これに限られない。特に、逆、すなわち、チェックボックスがオンであるとき対応する人体モデルが人体検出に用いられないものとして設定されてもよい。あるいはまた、ある人体モデルの検出または非検出のみを選択させる手段を用いてもよい。非検出にする人体モデルをラジオボタンで選択させるのはその一例である。
本実施の形態では、撮像画像200から人体モデルとのマッチングにより検出された人体の数を示す情報として検出数の割合を採用する場合を説明したが、これに限られず、検出数そのものや段階的表示(例えば、五段階表示、ヒートマップ等)が採用されてもよい。また、本実施の形態では、人体モデルを用いた検出にかかった時間を示す情報として処理時間の割合を採用する場合について説明したが、これに限られず、処理時間そのものや段階的表示が採用されてもよい。
本実施の形態では、検出数の割合および処理時間の割合を数値で表示する場合について説明したが、これに限られず、例えば濃淡画像として表示してもよく、または割合に応じて表示色を変更してもよい。
<第2の実施の形態>
第1の実施の形態では、人体モデルごとに処理時間の割合と検出数の割合とが表示され、ユーザは人体モデルごとの割合を見て、どの人体モデルを人体検出に用いるかを選択している。これは、ユーザによるよりきめ細かな判断を可能とする一方、全ての人体モデルの処理時間の割合と検出数の割合とを見る必要があり、ユーザの負担となる虞がある。そこで、第2の実施の形態では、人体モデルごとの検出数の割合を用いてユーザに通知を行う。
第2の実施の形態に係るクライアント装置は、人体モデルに係る検出結果が所定の排除候補基準を満たす場合、該人体モデルを特定可能な態様でユーザに通知を行う。ここでは、人体モデルごとに設定された閾値を検出数の割合が下回る場合に排除候補基準が満たされるが、他の基準が用いられてもよい。例えば、検出数の割合の統計値と閾値とが比較されてもよいし、検出数自体が閾値と比較されてもよい。あるいはまた、検出数の割合と処理時間の割合とに基づく基準が用いられてもよい。例えば、検出数の割合が第1閾値より小さければ通知を行うが、例外処理として、処理時間の割合が第2閾値より小さければ、検出数の割合が第1閾値より小さくても通知を行わなくてもよい。
図9は、第2の実施の形態に係る人体モデルの設定ステップにおける一連の処理の流れを示すフローチャートである。本実施の形態に係るクライアント装置の制御部121は、ステップS401で取得された人体モデルのそれぞれについて検出数の割合を算出する(S408)。制御部121は、ステップS408で算出された検出数の割合が閾値よりも小さい場合に通知を生成するための通知生成処理を行う(S421)。表示制御部125は、人体検出の結果により更新され、かつ、生成された通知を含むモデル設定画面を表示装置140に表示させる(S422)。
図10は、図9の通知生成処理S421における一連の処理の流れを示すフローチャートである。制御部121は、ステップS401で取得された人体モデルのうち、閾値比較の対象としてまだ選択されていない人体モデルをひとつ選択する(S425)。制御部121は、ステップS425で選択された人体モデルに対して設定されている、検出数の割合の閾値を取得する(S426)。閾値は、グラフィカルユーザインタフェースを介したユーザ入力により設定されてもよい。本実施の形態では、人体モデルに依らず閾値を一律5%とする。他の実施の形態では閾値は他の値でもよく、人体モデルごとに異なっていてもよい。
制御部121は、ステップS425で選択された人体モデルについてステップS408で算出された検出数の割合と、ステップS426で取得された閾値と、を比較する(S427)。検出数の割合が閾値を下回っている場合(S427のYES)、制御部121は、モデル設定画面に含める通知すなわちダイアログを生成する(S428)。該ダイアログは、選択された人体モデルの検出数が少ないことを示す。なお、本実施の形態では、ダイアログを用いてユーザに通知する場合を説明するが、他の実施の形態では他の方法を用いて通知してもよい。本実施の形態では、ユーザへの通知を即時的に行う場合を説明するが、他の実施の形態では通知までの時間を設定してもよい。本実施の形態では、人体モデルごとの検出数の割合が人体モデルごとに設定されている閾値を下回っている場合にユーザに通知したが、他の実施の形態では別の条件判定が採用されてもよい。
制御部121は、未選択の人体モデルがあるか否かを判定する(S429)。未選択の人体モデルがあれば(S429のYES)、処理はステップS425に戻り、無ければ(S429のNO)処理はステップS422に進む。
図11は、通知を含む更新されたモデル設定画面800の代表画面図である。モデル設定画面800では、通知対象の人体モデル(横顔人体モデル)を特定可能な態様でダイアログ801が表示されており、その他の表示は図7に示されるモデル設定画面500と同等である。図11に記載の例では、横顔人体モデルのみ検出数の割合が閾値を下回っているので、横顔人体モデルに対してのみダイアログ801が表示される。
本実施の形態に係るクライアント装置によると、第1の実施の形態に係るクライアント装置120により奏される作用効果と同様の作用効果が奏される。加えて、ダイアログ801を表示することで、ユーザがより迅速に検出数の低い人体モデルを特定することができる。
第1および第2の実施の形態では検出する物体が人体である場合を説明したが、これに限られず、人体以外の物体、例えば車両や動物を検出する場合にもそれらの実施の形態に係る技術的思想を適用できる。
以上、実施の形態に係るクライアント装置の構成と動作について説明した。これらの実施の形態は例示であり、その各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
図7に示される更新されたモデル設定画面500の変形例を説明する。図12は、第1変形例に係るモデル設定画面520の代表画面図である。モデル設定画面520では、所定の強調表示基準を満たした人体モデルが強調表示される。強調表示基準は上述の排除候補基準に準じる。図12の例では、正面見下ろし人体モデルおよび横顔人体モデルについて、検出数の割合が10%よりも小さいので、それらの人体モデルが斜線により強調表示されている。強調表示の態様としては、他に、色を変える、濃淡を変える等がある。本例によると、ユーザはより迅速に検出数の低い人体モデルを特定することができる。
図13は、第2変形例に係るモデル設定画面530の代表画面図である。モデル設定画面530は、割合表示領域304の代わりに表示種類531を有する。表示種類531は、人体モデルごとに対応するマークの種類を表示する。図13の例では、表示種類531は、正面顔人体モデルで検出された人体には実線の囲みが付与され、正面上半身人体モデルで検出された人体には破線の囲みが付与され、正面見下ろし人体モデルで検出された人体には一点鎖線の囲みが付与され、横顔人体モデルで検出された人体には二点鎖線の囲みが付与されることを示す。対象画像表示領域301は、人体検出の結果に基づくマーク532を撮像画像200に重畳して表示する。本例によると、ユーザは、人体モデルごとの人体検出の結果を迅速に把握することができる。また、ユーザはマーク532により人体モデルの適用状況を把握することができ、用いる人体モデルの選択を適用状況に応じて適切に行うことができる。
他の変形例では、図11に示されるモデル設定画面800において、通知の対象となっている人体モデルを用いて検出された人体が撮像画像200にあれば、対象画像表示領域301においてその人体を強調表示するか、その人体にマークを付してもよい。あるいはまた、ダイアログ801に人体モデルのオン/オフを切り替えるためのボタンを追加してもよい。
撮像装置110の機能や構成は、CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することにより実現されるソフトウエア構成として撮像装置に実装されてもよい。また、撮像装置110の機能や構成の一部又は全てはハードウエア構成として撮像装置110に実装されてもよい。同様に、クライアント装置120の機能や構成はCPU22がメモリ21に記憶されたプログラムに基づき処理を実行することにより実現されるソフトウエア構成としてクライアント装置120に実装されてもよい。また、クライアント装置120の機能や構成の一部又は全てはハードウエア構成としてクライアント装置120に実装されてもよい。また、上述したクライアント装置や撮像装置のハードウエア構成は一例であり、例えば、CPUやメモリ、通信I/F等は複数備えられてもよい。
<その他の実施例>
本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110 撮像装置、 112 信号処理部、 113 駆動制御部、 114 通信制御部、 120 クライアント装置、 121 制御部、 123 通信制御部、 124 情報取得部、 125 表示制御部、 130 入力装置、 140 表示装置、 150 ネットワーク。

Claims (9)

  1. 複数の異なる物体モデルを用いて、画像から物体を検出した物体検出処理の処理結果を取得する取得手段と、
    前記複数の異なる物体モデルのそれぞれを表す情報と、前記複数の異なる物体モデルのそれぞれに係る前記処理結果と、を表示する画面をディスプレイに表示させる表示制御手段と、を備え、
    前記表示制御手段は、前記画像から検出された物体の合計数に対する、前記物体モデルのそれぞれを用いて前記画像から検出された物体の数に基づいて算出される検出割合を、前記複数の異なる物体モデルのそれぞれに係る前記処理結果として表示させ
    前記処理結果は、前記物体モデルのそれぞれについて前記物体検出処理に要した処理時間の合計に対する、前記物体モデルのそれぞれについて前記物体検出処理に要した処理時間に基づいて算出される処理時間の割合を示す情報を含むことを特徴とする画像解析装置。
  2. ユーザによる前記物体モデルの選択を受け付ける受付手段と、
    前記ユーザによって選択された前記物体モデルに基づいて、前記物体検出処理に用いる前記物体モデルを決定する決定手段と、をさらに備える請求項1に記載の画像解析装置。
  3. 前記決定手段によって決定された前記物体モデルを用いて前記物体検出処理を実行する物体検出手段をさらに備える請求項2に記載の画像解析装置。
  4. 前記複数の異なる物体モデルは、同じ物体を異なる視点から撮像することによって生成されたモデルである請求項1から3のいずれか一項に記載の画像解析装置。
  5. 前記複数の異なる物体モデルのそれぞれに係る前記処理結果に基づいて、所定の条件を満たさない前記処理結果に対応する前記物体モデルを通知する通知手段をさらに備える請求項1からのいずれか一項に記載の画像解析装置。
  6. 所定の位置に設置された撮像装置から前記画像を取得する画像取得手段をさらに備える請求項1からのいずれか一項に記載の画像解析装置。
  7. 前記複数の異なる物体モデルは、複数の異なる人体モデルである請求項1からのいずれか一項に記載の画像解析装置。
  8. コンピュータを請求項1乃至のいずれか一項に記載の装置の各手段として機能させるためのプログラム。
  9. 画像解析装置が行う画像解析方法であって、
    複数の異なる物体モデルを用いて、画像から物体を検出した物体検出処理の処理結果を取得する取得工程と、
    前記複数の異なる物体モデルのそれぞれを表す情報と、前記複数の異なる物体モデルのそれぞれに係る前記処理結果と、を表示する画面をディスプレイに表示させる表示制御工程と、を含み、
    前記表示制御工程は、前記画像から検出された物体の合計数に対する、前記物体モデルのそれぞれを用いて前記画像から検出された物体の数に基づいて算出される検出割合を、前記複数の異なる物体モデルのそれぞれに係る前記処理結果として表示させ
    前記処理結果は、前記物体モデルのそれぞれについて前記物体検出処理に要した処理時間の合計に対する、前記物体モデルのそれぞれについて前記物体検出処理に要した処理時間に基づいて算出される処理時間の割合を示す情報を含むことを特徴とする画像解析方法。
JP2018023407A 2018-02-13 2018-02-13 画像解析装置および画像解析方法 Active JP7208713B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018023407A JP7208713B2 (ja) 2018-02-13 2018-02-13 画像解析装置および画像解析方法
US16/255,541 US10949713B2 (en) 2018-02-13 2019-01-23 Image analyzing device with object detection using selectable object model and image analyzing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018023407A JP7208713B2 (ja) 2018-02-13 2018-02-13 画像解析装置および画像解析方法

Publications (3)

Publication Number Publication Date
JP2019139588A JP2019139588A (ja) 2019-08-22
JP2019139588A5 JP2019139588A5 (ja) 2021-04-01
JP7208713B2 true JP7208713B2 (ja) 2023-01-19

Family

ID=67541701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018023407A Active JP7208713B2 (ja) 2018-02-13 2018-02-13 画像解析装置および画像解析方法

Country Status (2)

Country Link
US (1) US10949713B2 (ja)
JP (1) JP7208713B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11575837B2 (en) * 2020-04-27 2023-02-07 Canon Kabushiki Kaisha Method, apparatus and computer program for generating and displaying a heatmap based on video surveillance data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265390A (ja) 2006-02-28 2007-10-11 Sanyo Electric Co Ltd 物体検出装置
JP2008234509A (ja) 2007-03-23 2008-10-02 Fujifilm Corp 画像評価装置および方法並びにプログラム
JP2013030078A (ja) 2011-07-29 2013-02-07 Secom Co Ltd 顔画像認証装置
WO2013175608A1 (ja) 2012-05-24 2013-11-28 株式会社日立製作所 画像解析装置、画像解析システム、画像解析方法
JP2015138449A (ja) 2014-01-23 2015-07-30 キヤノン株式会社 個人認証装置、個人認証方法及びプログラム
JP2018128736A (ja) 2017-02-06 2018-08-16 グローリー株式会社 顔認証システム、顔認証方法、及び顔認証プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5509773B2 (ja) 2009-01-21 2014-06-04 オムロン株式会社 パラメータ決定支援装置およびパラメータ決定支援プログラム
DE102009055127A1 (de) * 2009-12-22 2011-06-30 Robert Bosch GmbH, 70469 Vorrichtung und Verfahren zum Überwachen von Videoobjekten
JP5178797B2 (ja) * 2010-09-13 2013-04-10 キヤノン株式会社 表示制御装置及び表示制御方法
JP5726646B2 (ja) * 2011-06-10 2015-06-03 株式会社東芝 画像処理装置、方法、及びプログラム
JP2013005002A (ja) * 2011-06-13 2013-01-07 Eastman Kodak Co 撮像装置
US8958912B2 (en) * 2012-06-21 2015-02-17 Rethink Robotics, Inc. Training and operating industrial robots
JP2014199506A (ja) 2013-03-29 2014-10-23 キヤノン株式会社 物体検出装置、物体検出方法及びプログラム
US9542626B2 (en) * 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
WO2015186341A1 (ja) * 2014-06-03 2015-12-10 日本電気株式会社 画像処理システム、画像処理方法及びプログラム記憶媒体
US20150362989A1 (en) * 2014-06-17 2015-12-17 Amazon Technologies, Inc. Dynamic template selection for object detection and tracking
IL236114A (en) * 2014-12-07 2016-04-21 Yoav Grauer Improved object recognition in the reimbursement-based imaging unit
JP6655878B2 (ja) * 2015-03-02 2020-03-04 キヤノン株式会社 画像認識方法及び装置、プログラム
US11103773B2 (en) * 2018-07-27 2021-08-31 Yogesh Rathod Displaying virtual objects based on recognition of real world object and identification of real world object associated location or geofence

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265390A (ja) 2006-02-28 2007-10-11 Sanyo Electric Co Ltd 物体検出装置
JP2008234509A (ja) 2007-03-23 2008-10-02 Fujifilm Corp 画像評価装置および方法並びにプログラム
JP2013030078A (ja) 2011-07-29 2013-02-07 Secom Co Ltd 顔画像認証装置
WO2013175608A1 (ja) 2012-05-24 2013-11-28 株式会社日立製作所 画像解析装置、画像解析システム、画像解析方法
JP2015138449A (ja) 2014-01-23 2015-07-30 キヤノン株式会社 個人認証装置、個人認証方法及びプログラム
JP2018128736A (ja) 2017-02-06 2018-08-16 グローリー株式会社 顔認証システム、顔認証方法、及び顔認証プログラム

Also Published As

Publication number Publication date
US10949713B2 (en) 2021-03-16
JP2019139588A (ja) 2019-08-22
US20190251391A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
CN107273849B (zh) 显示控制装置及显示控制方法
CN111107276B (zh) 信息处理设备及其控制方法、存储介质以及摄像系统
JP7197981B2 (ja) カメラ、端末装置、カメラの制御方法、端末装置の制御方法、およびプログラム
KR20120119920A (ko) 뎁스 맵 생성을 이용하는 방법 및 장치
JP6938270B2 (ja) 情報処理装置および情報処理方法
CN108965656B (zh) 显示控制设备、显示控制方法和存储介质
JP6622650B2 (ja) 情報処理装置及びその制御方法、撮影システム
CN110177246B (zh) 信息处理设备、摄像设备、信息处理方法和存储介质
US9955081B2 (en) Imaging apparatus capable of adjusting imaging range to include target region, control method of imaging apparatus, and storage medium storing program therefor
JP2012048476A (ja) 画像処理装置
JP2016096481A (ja) 制御装置、撮像システム、制御方法、及び、プログラム
CN108376243B (zh) 信息处理设备和摄像设备及其控制方法以及记录介质
JP7371076B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7123545B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7208713B2 (ja) 画像解析装置および画像解析方法
JP2013065971A (ja) 撮像装置、撮像装置の制御方法
KR102107137B1 (ko) 팬틸트줌 카메라를 이용한 이벤트 감지방법 및 장치
US20200412974A1 (en) Information processing apparatus, system, control method of information processing apparatus, and non-transitory computer-readable storage medium
JP5954535B2 (ja) 画像選択装置、画像選択方法及びプログラム
JP6452738B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7195782B2 (ja) 情報処理装置、制御方法及びプログラム
JP6501749B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20190080179A1 (en) Monitoring system and terminal device
JP2019125058A (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP7353864B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム、撮像システム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R151 Written notification of patent or utility model registration

Ref document number: 7208713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151