JP5523027B2 - 情報送信装置及び情報送信方法 - Google Patents

情報送信装置及び情報送信方法 Download PDF

Info

Publication number
JP5523027B2
JP5523027B2 JP2009202690A JP2009202690A JP5523027B2 JP 5523027 B2 JP5523027 B2 JP 5523027B2 JP 2009202690 A JP2009202690 A JP 2009202690A JP 2009202690 A JP2009202690 A JP 2009202690A JP 5523027 B2 JP5523027 B2 JP 5523027B2
Authority
JP
Japan
Prior art keywords
information
attribute information
processing device
network
receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009202690A
Other languages
English (en)
Other versions
JP2011055270A (ja
JP2011055270A5 (ja
Inventor
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009202690A priority Critical patent/JP5523027B2/ja
Priority to US12/872,847 priority patent/US20110050901A1/en
Publication of JP2011055270A publication Critical patent/JP2011055270A/ja
Publication of JP2011055270A5 publication Critical patent/JP2011055270A5/ja
Application granted granted Critical
Publication of JP5523027B2 publication Critical patent/JP5523027B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20052Discrete cosine transform [DCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Description

本発明は、情報送信装置及び情報送信方法に関する。
モニタリングシステムにおいてネットワークカメラの導入が進んでいる。典型的なモニタリングシステムは、複数のネットワークカメラと、カメラ映像を録画する録画装置と、ライブ乃至は録画映像を再生するビューワーと、から構成される。ネットワークカメラは、画像処理により映像中の異常を検出する機能を持ち、異常が発生すると録画装置やビューワーに通知する。ビューワーは、異常通知を受信すると警告を表示する。また録画装置は、異常の種別や時刻を記録し、後から異常を検索し、異常発生時の映像を再生する。これらの異常映像の検索を高速に行うために、映像と同時に異常状態や物体の有無等の情報をメタデータとして記録する技術がある。
監視装置において、移動物体の位置や外接矩形等属性情報を映像と共に記録し、再生時において移動物体の外接矩形を映像に重畳して表示する方式が開示されている(特許文献1)。また、移動物体情報をメタデータとして配信する技術がある(特許文献2)。
一方、ネットワーク経由でデバイスの状態取得や制御を行う標準規格であるUPnPにおいて、制御端末であるコントロールポイントから制御対象であるデバイスの属性を変化させたり、逆に属性の変化情報を取得したりする技術が開示されている。ここで、UPnPとは、Universal Plug and Playの略である。
特許第03461190号公報 特開2002―262296号公報
映像中の物体検出、異常状態解析、通報等の一連の処理を、複数のカメラや処理装置で分担して行う場合、システムを構成する機器間で大量のデータが送受信される。カメラで検出される物体情報は、例えば位置、速度、外接矩形があるが、更に、物体の境界領域情報やその他の特徴情報までを含めると大量の情報となる。しかしながら、必要とされる物体情報は用途や機器構成によって異なり、カメラにおいて検出された物体情報の全てが必要とされるわけではない。しかるに従来の方式ではカメラで検出された物体情報を全て処理装置側に送信していたため、カメラ、ネットワーク、処理装置において無駄が多く、負荷が大きかった。この問題に対しては、UPnPのようにカメラ・処理装置間で送受信する物体属性情報を指定する方式が一見有効である。しかしながら、映像処理の用途では状態更新の同期が保証される必要があるため、個々の状態更新通知を非同期で行うUPnP方式では問題が解決されない。
本発明はこのような問題点に鑑みなされたもので、処理の高速化及びネットワークにかかる負荷を低減することを目的とする。
そこで、本発明の情報送信装置は、画像中の物体の属性情報を検出する検出手段と、前記検出手段で検出された物体の属性情報を、ネットワークを介して通信可能な処理装置に送信する送信手段と、前記ネットワークを介して通信可能な処理装置より、前記送信手段で送信すべき属性情報に関する要求として前記処理装置の種別を受信する受信手段と、前記受信手段で受信された前記種別に基づいて前記処理装置に送信する前記属性情報を決定する制御手段とを有し、前記制御手段は、前記種別がビューワーである場合、検出された物体の外接矩形を前記処理装置に送信することを決定する。
本発明によれば、処理の高速化及びネットワークにかかる負荷を低減することができる。
ネットワークシステムのシステム構成の一例を示す図である。 ネットワークカメラのハードウェア構成の一例を示す図である。 ネットワークカメラの機能構成の一例を示す図である。 表示装置の機能構成の一例を示す図である。 表示装置における物体情報の表示の一例を示す図である。 物体検出に関する処理の一例を示すフローチャートである。 ネットワークカメラから配信されるメタデータの一例を示す図である。 判別条件の設定パラメータの一例を示す図である。 解析処理に関する設定の変更を説明するための図である。 シーンメタデータの指定を説明するための図である。 シーンメタデータをXML形式で表現した一例を示す図(その1)である。 ネットワークカメラと処理装置(表示装置)との間の通信手順の一例を示す図である。 録画装置の一例を示す図である。 録画装置における物体識別結果の表示の一例を示す図である。 シーンメタデータをXML形式で表現した一例を示す図(その2)である。
以下、本発明の実施形態について図面に基づいて説明する。
<第1の実施形態>
本実施形態では、映像中の物体情報等のメタデータを処理装置に配信するネットワークカメラ(コンピュータ)と、前記メタデータを受信して解析処理や表示処理等を行う処理装置(コンピュータ)と、からなるネットワークシステムを用いて説明を行なう。ネットワークカメラは、処理装置で行う処理の種別等に応じてメタデータの配信内容を変更する。なお、メタデータは、属性情報の一例である。
本実施形態におけるネットワークシステムの典型的なシステム構成を図1に示す。図1は、ネットワークシステムのシステム構成の一例を示す図である。図1に示されるように、ネットワークシステムでは、ネットワークカメラ100、警報装置210、表示装置220、録画装置230がネットワーク経由で通信可能に接続されている。警報装置210、表示装置220、録画装置230は、処理装置の一例である。
ネットワークカメラ100は、物体を検出する機能や検出した物体の状態を簡易判別する機能を持つ。ネットワークカメラ100からは映像に加えて物体情報を含む各種情報がメタデータとして配信される。ネットワークカメラ100は、メタデータを後述するように映像に添付するか、若しくは映像とは別ストリームで配信する。映像やメタデータは警報装置210、表示装置220、録画装置230等の処理装置が受信する。これら処理装置は受信した映像とメタデータとを利用して、映像への物体枠の重畳表示や、物体の種別判定、認証等の処理を行う。
次に本実施形態におけるネットワークカメラ100のハードウェア構成の一例を図2に示す。図2は、ネットワークカメラのハードウェア構成の一例を示す図である。
図2に示されるように、ネットワークカメラ100は、CPU10と、記憶装置11と、ネットワークインターフェース12と、撮像装置13と、雲台装置14と、を含む。なお、後述するように、撮像装置13と、雲台装置14と、をあわせて撮像装置、雲台装置110ともいう。
CPU10は、バス等を介して接続された他の構成要素を制御する。例えば、CPU10は、雲台装置14及び撮像装置13を制御し、物体を撮像する。記憶装置11は、RAM及び/又はROM及び/又はHDD等であって、撮像装置13で撮像された画像や、後述する処理に必要な情報及びデータ、プログラム等を記憶する。ネットワークインターフェース12は、ネットワークカメラ100をネットワークに接続する。CPU10は、ネットワークインターフェース12を介して例えば、画像等を送信したり、要求を受信したりする。
なお、本実施形態では、図2に示されるようなネットワークカメラ100を用いて説明を行なうが、図2を例えば、撮像装置、雲台装置110と、それ以外の部分(CPU10、記憶装置11、ネットワークインターフェース12)と、に分けてもよい。このように分ける構成とした場合、撮像装置、雲台装置110は、ネットワークカメラ、それ以外の部分(CPU10、記憶装置11、ネットワークインターフェース12)は、サーバー装置とすることもできる。このような構成の場合、ネットワークカメラとサーバー装置とは、所定のインターフェースを介して接続され、サーバー装置が、ネットワークカメラで撮像された画像等に基づき、後述するメタデータを作成し、例えば画像にメタデータを添付し、処理装置に送信する。このような構成の場合、情報送信装置は、例えば、サーバー装置に対応する。図2の構成の場合は、情報送信装置は、例えば、ネットワークカメラ100に対応する。
CPU10が、記憶装置11に記憶されているプログラムに基づき処理を実行することによって、後述するネットワークカメラ100の機能及び後述するフローチャートに係る処理等が実現される。
次に本実施形態におけるネットワークカメラ100(又は上述したサーバー装置)の機能構成の一例を図3に示す。図3は、ネットワークカメラの機能構成の一例を示す図である。
表示装置220からのパン、チルト、ズーム制御要求は、通信I/F部131経由で制御要求受信部132が受信し、撮影制御部121に渡される。そして撮影制御部121は、撮像装置、雲台装置110を制御する。一方、映像は撮影制御部121経由で、映像入力部122によって取得され、映像符号化部123において符号化される。ここで符号化方式としてはJPEGやMPEG−2、MPEG−4、H.264等の方式がある。
一方、入力映像は物体検出部127にも送信され、物体検出部127が映像中(画像中)の物体を検出する。次に解析処理部128において物体の状態を判別し、状態判別情報を出力する。解析処理部128は複数同時に平行して処理を行うことも可能である。物体検出部127で検出される物体情報は、例えば位置、面積、外接矩形、存在時間、静止度、領域マスク等である。また解析処理部128で解析された結果の状態判別情報は、例えば入場、退場、置き去り、持ち去り、通過等である。制御要求受信部132は、検出したい物体情報、解析したい状態判別情報の設定に関する要求を受信し、解析制御部130で前記要求を解析し、変更内容を解読して、検出したい物体情報、解析したい状態判別情報の設定を変更する。
物体情報と状態判別情報とは符号化部129で符号化される。符号化部129で符号化された物体情報と状態判別情報とは映像付加情報生成部124で例えば符号化した映像に付加され、映像送信制御部126から通信I/F部131を通じて表示装置220等の処理装置に配信される。処理装置からは、パン・チルトの制御要求や、解析処理部128等の設定変更要求、映像配信設定要求等の様々な要求が送信される。これは例えば、HTTPのGETメソッドや、SOAPを用いて送受信することが可能である。ここで通信I/F部131は、主としてTCP/IPを担当する。そして、制御要求受信部132は、HTTPやSOAPの構文解析(パージング)を担当する。また、カメラ制御要求に対する返信は、状態送信制御部125経由で返信される。
次に本実施形態の表示装置220の機能構成を図4に示す。なお、表示装置220のハードウェア構成は、例えば、CPU、記憶装置、ディスプレイ等を含み、CPUが、記憶装置に記憶されたプログラムに基づき、処理を実行することにより、以下に示す表示装置220の機能等が実現される。
図4は、表示装置の機能構成の一例を示す図である。表示装置220は、ネットワークカメラ100から受信した物体情報を表示する機能を持つ。図4において表示装置220は、通信I/F部221、映像受信部222、メタデータ解読部223、シーン情報表示部224を機能構成として含む。
図5は、表示装置における物体情報の表示の一例を示す図である。図5は画面上の1つのウィンドウを表したものであり、ウィンドウ枠400と、映像表示領域410とから構成される。映像表示領域410に表示されている映像上には置き去り検知イベント発生を示す枠412が示されている。
本実施形態における置き去り検知は、ネットワークカメラ100における物体検出部127の物体検出(物体抽出)と、解析処理部128の検出された物体の状態解析(状態判別)と、の二段階から構成される。物体検出に関する処理を図6に示す。図6は、物体検出に関する処理の一例を示すフローチャートである。
事前に知識のない物体領域を検出するためには、背景差分用いられることが多い。背景差分とは、現在の映像を過去の映像から生成した背景モデルと比較することによって物体を検出する手法である。本実施形態ではJPEGで用いるような、ブロック単位の離散コサイン変換後のDCT成分から求めた複数の特徴量を、背景モデルに利用する。特徴量としては、DCT計数の絶対値和や、隣接フレーム間の対応成分の差分和等があるが、本実施形態は特定の特徴量に依存するものではない。またブロック単位で背景モデルを持つ手法の他にも画素単位の濃度分布を持つ手法(例えば特開平10−255036号公報)もあり、本実施形態では何れの手法も利用が可能である。
以下、説明の簡略化のため、CPU10を主語に説明を行なう。
図6において、背景更新処理の開始後、CPU10は、S501で画像の取得を行い、次にS510で周波数成分(DCT係数)を生成する。次にCPU10は、S511で周波数成分から特徴量(画像特徴量)を抽出する。CPU10は、S512においてS511で抽出した複数の特徴量が既存の背景モデルと合致するかを判別する。
背景の変化に対応するため、背景モデルは複数の状態を持つ。この状態をモードと称する。各モードは前述した複数の特徴量を背景の一状態として保持する。原画像との比較は特徴量ベクトルの差分演算によって行われる。CPU10は、S512では既存モードと比較して、類似モードが存在する場合はY分岐し、S514で対応するモードの特徴量を更新する。これは新規特徴量と、既存特徴量と、を一定比率で混合することによる。
CPU10は、S513において類似モードが存在しない場合には、N分岐し、S515に進んで影のブロックかどうかを判別する。CPU10は、特徴量のうち、既存モードと比較して輝度に起因する特徴量成分のみが変化していないことによって前記判別を行なうことができる。CPU10は、S515で影ブロックと判定された場合には、何もしない(S516)。CPU10は、影ブロックではないと判定した場合にはN分岐し、S517に進んで新規モードを生成する。CPU10は、S514、S516、S517終了後、S518に進み、全てのブロックで処理が終了後、S520に進んで物体の抽出処理を行う。
S521からS526までは物体抽出処理である。CPU10は、S521で各ブロックにおいて、複数のモードのうち前景モードが存在するかどうかを判別する。次にCPU10は、S522で前景ブロックの統合処理を行い、連結した領域を得る。次にCPU10は、S523で小領域をノイズとして除去する。最後にCPU10は、S524、S525で全ての物体に対して、物体情報の抽出を行い、物体抽出処理を終了する。
図6の方式によれば、背景モデルを逐次更新しながら安定して物体情報を抽出することができる。
図7は、ネットワークカメラから配信されるメタデータの一例を示す図である。ここに示すメタデータは、物体情報や、物体の状態判別情報、イベント情報等のシーン情報を含むため、シーンメタデータと称する。図7には説明のために便宜上付与したID、メタデータの配信指定の際に用いる識別子、内容の説明、データの例を表記してある。
シーン情報は、フレーム情報と、個別の物体情報と、物体の領域マスク情報と、から構成される。フレーム情報は、ID番号10から15までであり、フレーム番号、フレーム時刻、物体データの次元(縦横ブロック数)、イベントマスクから構成される。ID10は、フレーム情報をまとめて配信する際に指定する識別子である。イベントとは、物体の状態を示す属性値がある一定の条件にあてはまることを示すものであり、置き去り、持ち去り、出現等がある。イベントマスクとは当該フレームにおいて、前記イベントがあるかどうかをビット単位で示すものである。
次に物体情報は、ID20から28までであり、個々の物体単位のデータを表現する。情報としてはイベントマスク、サイズ、外接矩形、代表点、存在時間、静止時間、動きがある。ID20は、物体情報をまとめて配信する際に指定する識別子である。ID22からID28までは物体ごとにデータが存在する。代表点(ID25)は、物体の位置を表す点であり、重心点でもよい。また後述するように物体領域のマスク情報が1ブロック1ビットで表現されている場合、マスク情報から個別の物体領域を特定するために、領域探索の開始点として利用される。存在時間(ID26)は、物体を構成する前景ブロックが新規に作成されてからの経過時間であり、属するブロックの平均値乃至は中央値を用いる。静止時間(ID27)は、存在時間のうち物体を構成する前景ブロックが前景として判別された時間の割合である。動き(ID28)は、物体の速度を示し、例えば、前フレームにおける近接物体との関連付けによって求めることができる。
次に物体の詳細情報として、ID40から43までに示す物体領域マスクデータがある。物体の詳細情報は、物体領域をブロック単位のマスクとして表現したものである。ID40は、マスク情報の配信を指定する際に使用する識別子である。マスク情報には個別物体領域の境界情報は記録されず、個々の物体の境界を特定するためには各物体の代表点(ID25)をもとに領域分割を行う。この方式の利点は物体ごとにマスクにラベル情報がないためデータ量が少ないことである。一方で物体間に重複がある場合は正確な境界領域が特定できない。ID42は、圧縮方式であり、非圧縮や、ランレングス符号化等の可逆圧縮方式を示す。またID43は、物体マスクの本体であり、通常1ブロック1ビットである。もちろんラベル情報を付与して1ブロック1バイトとしてもよい。この場合、領域分割処理は不要となる。
イベントマスク情報(状態判別情報)(ID15、ID22)について説明する。ID15は、フレーム中に置き去りや持ち去り等のイベントが含まれるかどうかを示すものである。またID22は、当該物体が置き去りや持ち去り等の状態にあるかどうかを示すものである。何れも複数のイベントが存在する場合、対応するビットの論理和で表現される。置き去りや持ち去りの判別結果は、図3の解析処理部128の処理結果を用いる。
次に、図8及び図9を用いて、解析処理部128の処理方法と解析処理に関する設定の方法とを説明する。解析処理部128は、物体の属性値が判別条件に合致するかどうかを判別する。図8は、判別条件の設定パラメータの一例を示す図である。図8には説明ために付与したID、設定値名、内容の説明、値(設定値)の例を示している。パラメータには、ルール名(ID00、ID01)、有効フラグ(ID03)、検出領域(ID20〜24)がある。また、上限と下限とが設定されるものとして、領域被覆率(ID05、ID06)、物体重複率(ID07、ID08)、面積(ID09、ID10)、存在時間(ID11、ID12)、静止時間(ID13、ID14)がある。更に、上限と下限とが設定されるものとして、フレーム内の物体数(ID15、ID16)、がある。検出領域は多角形で表現される。
領域被覆率と領域重複率とは、何れも検出領域と物体領域とが重複する面積を分子とする割合である。領域被覆率は、検出領域面積に対する前記重複面積の割合である。一方、領域重複率は、物体面積に対する前記重複面積の割合である。上記の二つを用いることによって、置き去りと持ち去りとの区別が可能である。即ち、検出領域を持ち去り対象物体の周囲に設定することにより、持ち去り発生時に領域被覆率と領域重複比率との両方が共に所定の値より高い値になる。なお、領域は矩形に限定されず、多角形での設定が可能である。
図9は、解析処理に関する設定の変更を説明するための図である。図9は置き去りイベントの設定画面の例である。600は、アプリケーションのウィンドウであり、映像表示610と、設定部620と、からなる。検出対象領域は、映像表示610において多角形611で表現され、頂点Pを追加・削除・変更することにより形状を自由に指定することができる。ユーザーは、設定部620を操作し、置き去り検知物体の面積の最小値621と、静止時間の最小値622とを設定する。ここで、面積の最小値621は図8において、ID09面積下限値に対応する。静止時間の最小値622は図8において、ID13静止時間下限値に対応する。また領域内の置き去り物体を検出するため、ユーザーは、ID05の領域被覆比率の下限値を、設定画面等を操作して設定する。ここで他の設定値は規定の値でよく、全ての設定値を変更する必要は無い。
図9に示される画面は、例えば表示装置220等の処理装置に表示される。図9等の画面を介して処理装置で設定されたパラメータの設定値は、HTTPのGETメソッドを用いてネットワークカメラ100に渡すことができる。
なお、物体がうろつき状態かどうかを判別するためには、存在時間と静止時間とを用いる。即ち、CPU10は、所定の面積以上の物体において、存在時間が所定の時間より長く、静止時間が所定の時間より短い場合はうろつき状態と判別することができる。
次に配信するシーンメタデータの指定方法について、図10を用いて説明する。図10は、シーンメタデータの指定を説明するための図である。この指定は設定の一種でるため、図10ではID、設定値名、説明、指定方法及び値の例を示している。図7で説明したように、シーンメタデータにはフレーム情報、物体情報、物体領域マスク情報がある。これらに対し、各処理装置のユーザーは、処理装置210、220、230側で行う後処理に応じて、各処理装置の設定画面(又は指定画面)等を介して配信内容を指定する。
まず個別データで設定する方法がある。これは処理装置が、例えば、M_ObjSize,M_ObjRect,等の指定により、シーン情報を個別に指定する方法である。
CPU10は、指定された個別のシーン情報に基づいて、前記指定に係る処理装置に対して送信するシーンメタデータを変更し、変更したシーンメタデータを送信する。
次にカテゴリで指定する方法がある。これは処理装置が、M_FrameInfo,M_ObjectInfo,M_ObjectMaskInfo,のように、個別のシーンデータをまとめたカテゴリ単位で指定する方式である。
CPU10は、指定された個別のシーンデータをまとめたカテゴリに基づいて、前記指定に係る処理装置に対して送信するシーンメタデータを変更し、変更したシーンメタデータを送信する。
更にクライアントタイプによる指定方法がある。これはデータを受信するクライアント、即ち処理装置の種別によって配信するデータを決定するものである。処理装置は、クライアントタイプとして、ビューワー(M_ClientViewer)、録画サーバー(M_ClientRecorder)、画像解析装置(M_CilentAanlizer)、等の指定を行う。
CPU10は、指定されたクライアントタイプに基づいて、前記指定に係る処理装置に対して送信するシーンメタデータを変更し、変更したシーンメタデータを送信する。
例えばビューワーと指定した場合、物体単位でのイベントマスクと外接矩形とがあれば、表示装置220は、図5のような表示を行なうことができる。例えば、クライアントタイプと、送信するシーンメタデータとの対応情報は、新規のクライアントタイプを作成するのに合わせて事前にネットワークカメラ100に登録しておくものとする。
上述した設定(指定)は、イベント判別処理と同様にHTTPのGETメソッドを用いて、各処理装置からネットワークカメラ100に設定することができる。また、ネットワークカメラ100が、メタデータ配信の途中であっても、上述した設定を動的に変更することができる。
次にシーンメタデータの配信方法について述べる。シーンメタデータはXML形式で表現して映像とは別に送る方式や、バイナリ表現して映像に添付して送る方式がある。前者の方式は映像とシーンメタデータを別のフレームレートで送信できるという利点がある。一方で後者の方式はJPEG等の符号化方式に有効であり、シーンメタデータとの同期が容易であるという利点がある。
図11は、シーンメタデータをXML形式で表現した一例を示す図(その1)である。図7のシーンメタデータのうち、フレーム情報と、2つの物体情報と、を表現した例である。これは図5のようなビューワーへの配信を想定しており、受信側で置き去り物体を矩形で表示することができる。一方、バイナリ表現の場合は、バイナリXMLとして送信することもできるし、図7に示すデータが順に並ぶ独自表現とすることもできる。
図12は、ネットワークカメラと処理装置(表示装置)との間の通信手順の一例を示す図である。
図12においてネットワークカメラ100は、S602で初期化処理を実行後、リクエストの到着を待つ。一方で表示装置220は、S601で初期化処理を実行後、S603でネットワークカメラ100との接続要求を行う。接続要求には、ユーザー名やパスワードが含まれる。ネットワークカメラ100は、接続要求を受信すると、S604で接続要求に含まれるユーザー名やパスワードに基づき認証処理を行い、S606で接続許可を行う。その結果、表示装置220側で、接続の確立が確認される(S607)。
続いてS609で表示装置220からは、イベント判別ルールの設定要求として、設定値(送信内容(配信内容)を指定する値)が送信される。これに対してネットワークカメラ100は、設定値を受信し(S610)、設定値に基づいてS612でイベント判別ルール(判別条件の設定パラメータ等)の設定処理を行う。これにより配信するシーンメタデータが決定される。
以上の準備が終了すると、S614で物体検出・解析処理が開始され、S616で映像の送信が始まる。ここではシーン情報はJPEGヘッダに添付して送信する例を示す。S617で表示装置220は映像を受信し、S619でシーンメタデータ(又はシーン情報)を解読する(処理実行)。そしてS621で図5に示したように、置き去り物体の枠を表示したり、置き去りイベントを表示したりする。
以上説明した手法によれば、映像中の物体情報やイベント情報等のシーンメタデータを配信するネットワークカメラと、シーンメタデータを受信して各種処理を行う処理装置とからなるシステムにおいて、処理装置の後処理等に応じて配信するメタデータを変更する。その結果不要な処理を省くことが可能となり、ネットワークカメラ、及び、処理装置の高速化や、ネットワーク帯域への負荷を軽減することができる。
<第2の実施形態>
第2の実施形態としては、データ受信側の処理装置が検出物体の識別や認証を行う場合、ネットワークカメラ100から送信するシーンメタデータに物体マスクデータを加えて送信する。これにより、処理装置が行う認識処理の負荷を軽減できる。本実施形態のシステム構成は第1の実施形態と同じであるため、説明を省略し、以下、第1の実施形態と異なる部分を中心に説明する。
本実施形態における受信側の処理装置の構成例を図13に示す。なお、録画装置230のハードウェア構成は、例えば、CPU、記憶装置、ディスプレイ等を含み、CPUが、記憶装置に記憶されたプログラムに基づき、処理を実行することにより、以下に示す録画装置230の機能等が実現される。
図13は、録画装置の一例を示す図である。録画装置230は、通信I/F部231、映像受信部232、シーンメタデータ解読部233、物体識別処理部234、物体情報データベース235、照合結果表示部236、から構成される。
録画装置230は、複数のネットワークカメラからの映像を受信し、映像中に特定の物体が存在するかどうかを判別する機能を持つ。一般に物体の識別には、画像や画像から抽出した特徴量の照合(マッチング)による方法が用いられる。識別機能を受信装置側に持つ利点は、物体情報のデータベースは容量が大きいため、制限のある組み込み環境では、十分な容量を確保できないからである。識別処理の例としては、検出された静止物体の種類(箱、バッグ、ペットボトル、衣類、玩具、傘、雑誌等)を識別する機能がある。これにより箱、バッグ、ペットボトルのような危険物が含まれる可能性が高いものを優先して警告することができる。
図14は、録画装置における物体識別結果の表示の一例を示す図である。図14は録画アプリケーションの例であり、400は一つのウィンドウである。映像表示領域410に表示されている映像中に置き去り物体(枠412で示される物体)が検出され、物体の認識結果450が表示される。タイムライン440は、過去のイベント発生時刻を表示するものである。右端が現在時刻であり、時間の経過と共に表示イベントが右から左にむかってシフトする。ユーザーが現在又は過去の時刻を指定すると、録画装置230は、選択中カメラの録画映像を指定時刻から再生する。イベントには、システムの起動・停止、録画の開始・停止、外部センサー入力状態の変化、動き検知状態の変化、物体の登場、退場、置き去り、持ち去り等がある。なお、図においてイベント441は矩形で表示されているが、矩形以外の図形で表記することもできる。
ここでネットワークカメラ100は、シーンメタデータとして、第1の実施形態に加えて、物体の領域マスク情報を送信する。これにより物体識別処理部234において、物体の存在する部分に関してのみ識別処理を行うことで、録画装置230の処理負荷を軽減することができる。物体形状が正確な矩形となることは稀なため、領域マスク情報と共に送信した方がより負荷の軽減につながる。
本実施形態において録画装置230は、シーンメタデータの送信要求として、図10においてデータカテゴリーとして、物体データ(M_ObjInfo)と物体マスクデータ(M_OjbMaskInfo)とを指定する。これにより、図7における物体情報のうち、ID21から28の物体データと、ID42,43の物体マスクデータと、が配信される。また事前にネットワークカメラ100側に受信装置の種別と送信するシーンデータとの対応表を設けておく。そして、録画装置230が、図10のクライアントタイプによる指定でレコーダー(M_ClientRecorder)を指定することにより、物体マスク情報をネットワークカメラ100に配信させることもできる。配信されるシーンメタデータのフォーマットは、第1の実施形態と同様にXML形式でもよいし、バイナリ方式でもよい。図15は、シーンメタデータをXML形式で表現した一例を示す図(その2)である。本実施形態では、シーンメタデータに、第1の実施形態における図11に加えて<object_mask>タグが新たに加わり、物体マスクデータが配信される。
<第3の実施形態>
第3の実施形態としては、処理装置側で物体の追尾や人物の行動解析を行いたい場合、ネットワークカメラ100から物体の速度情報や物体のマスク情報を送信すると効率がよい。行動解析を行う場合、人物の追尾による軌跡の抽出が必要である。これは異なるフレーム間で検出した人物の対応付けであり、そのためには速度情報(M_ObjMotion)が有効である。また人物画像のテンプレートマッチングによる対応付け手法が採用されることもあり、この場合、物体領域のマスク情報(M_ObjeMaskInfo)を利用してマッチングを効率よく行うことができる。これらのメタデータの配信指定は、第1の実施形態で述べたように、メタデータの個別指定、カテゴリ指定、受信クライアントタイプによる指定が可能である。クライアントタイプによる指定の場合、行動解析を行う受信装置をM_ClientAnalizerとして表記し、配信するシーンメタデータの組と共に事前に登録する。
更に別の処理装置としては、ネットワークカメラにて顔検出と顔認証とを行い、認証できなかった場合、処理装置側のデータベースで認証を行うことも可能である。この場合、顔の位置、サイズ、角度等を示すメタデータを新規に設けて配信する。処理装置側ではローカルに保持する顔特徴データベースに照合して、人物を特定する。この場合、ネットワークカメラ100は、新規に顔メタデータのカテゴリ、M_FaceInfoを設ける。そして、ネットワークカメラ100は、顔の枠、M_FaceRect(左上、右下点の座標)、上下、左右、面内回転角度、M_FacePitch、M_FaceYaw、M_FaceRole、等の顔検出情報を配信する。この場合のシーンメタデータの指定方法としては、第1の実施形態と同様に、メタデータを個別に指定する方法、カテゴリで指定する方法、クライアントタイプと必要なメタデータの種類を事前に登録する手法を採用することができる。クライアントタイプによる指定の場合、顔認証を行う受信装置として、M_ClientFaceIdentificator等と登録する。
以上述べた方法によれば、人物の行動解析を行う場合や、顔検出及び顔認証を行う場合等のクライアント側の処理内容に応じて、ネットワークカメラ100からシーンメタデータを配信する。これにより、クライアント側の処理を効率的に行うことができ、結果として多数の対象の処理や、高解像度対応、複数カメラ対応が可能になる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、処理の高速化及びネットワークにかかる負荷を低減することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
100 ネットワークカメラ

Claims (6)

  1. 画像中の物体の属性情報を検出する検出手段と、
    前記検出手段で検出された物体の属性情報を、ネットワークを介して通信可能な処理装置に送信する送信手段と、
    前記ネットワークを介して通信可能な処理装置より、前記送信手段で送信すべき属性情報に関する要求として前記処理装置の種別を受信する受信手段と、
    前記受信手段で受信された前記種別に基づいて前記処理装置に送信する前記属性情報を決定する制御手段とを有し、
    前記制御手段は、前記種別がビューワーである場合、検出された物体の外接矩形を前記処理装置に送信することを決定する情報送信装置。
  2. 画像中の物体の属性情報を検出する検出手段と、
    前記検出手段で検出された物体の属性情報を、ネットワークを介して通信可能な処理装置に送信する送信手段と、
    前記ネットワークを介して通信可能な処理装置より、前記送信手段で送信すべき属性情報に関する要求として前記処理装置の種別を受信する受信手段と、
    前記受信手段で受信された前記種別に基づいて前記処理装置に送信する前記属性情報を決定する制御手段とを有し、
    前記制御手段は、前記種別が行動解析を行う装置である場合、検出された物体の速度情報を前記処理装置に送信することを決定する情報送信装置。
  3. 情報送信装置が実行する情報送信方法であって、
    画像中の物体の属性情報を検出する検出ステップと、
    前記検出ステップで検出された物体の属性情報に関する要求として処理装置の種別を、ネットワークを介して通信可能な処理装置より受信する受信ステップと、
    前記受信ステップで受信された前記種別に基づいて前記ネットワークを介して通信可能な処理装置に送信する前記属性情報を決定する制御ステップと、
    前記決定された属性情報を前記処理装置に送信する送信ステップとを含み、
    前記制御ステップでは、前記種別がビューワーである場合、検出された物体の外接矩形を前記処理装置に送信することを決定する情報送信方法。
  4. 情報送信装置が実行する情報送信方法であって、
    画像中の物体の属性情報を検出する検出ステップと、
    前記検出ステップで検出された物体の属性情報に関する要求として処理装置の種別を、ネットワークを介して通信可能な処理装置より受信する受信ステップと、
    前記受信ステップで受信された前記種別に基づいて前記ネットワークを介して通信可能な処理装置に送信する前記属性情報を決定する制御ステップと、
    前記決定された属性情報を前記処理装置に送信する送信ステップとを含み、
    前記制御ステップでは、前記種別が行動解析を行う装置である場合、検出された物体の速度情報を前記処理装置に送信することを決定する情報送信方法。
  5. コンピュータを、
    画像中の物体の属性情報を検出する検出手段と、
    前記検出手段で検出された物体の属性情報を、ネットワークを介して通信可能な処理装置に送信する送信手段と、
    前記ネットワークを介して通信可能な処理装置より、前記送信手段で送信すべき属性情報に関する要求として前記処理装置の種別を受信する受信手段と、
    前記受信手段で受信された前記種別に基づいて前記処理装置に送信する前記属性情報を決定する制御手段として機能させ、
    前記制御手段は、前記種別がビューワーである場合、検出された物体の外接矩形を前記処理装置に送信することを決定するプログラム。
  6. コンピュータを、
    画像中の物体の属性情報を検出する検出手段と、
    前記検出手段で検出された物体の属性情報を、ネットワークを介して通信可能な処理装置に送信する送信手段と、
    前記ネットワークを介して通信可能な処理装置より、前記送信手段で送信すべき属性情報に関する要求として前記処理装置の種別を受信する受信手段と、
    前記受信手段で受信された前記種別に基づいて前記処理装置に送信する前記属性情報を決定する制御手段として機能させ、
    前記制御手段は、前記種別が行動解析を行う装置である場合、検出された物体の速度情報を前記処理装置に送信することを決定するプログラム。
JP2009202690A 2009-09-02 2009-09-02 情報送信装置及び情報送信方法 Active JP5523027B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009202690A JP5523027B2 (ja) 2009-09-02 2009-09-02 情報送信装置及び情報送信方法
US12/872,847 US20110050901A1 (en) 2009-09-02 2010-08-31 Transmission apparatus and processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009202690A JP5523027B2 (ja) 2009-09-02 2009-09-02 情報送信装置及び情報送信方法

Publications (3)

Publication Number Publication Date
JP2011055270A JP2011055270A (ja) 2011-03-17
JP2011055270A5 JP2011055270A5 (ja) 2012-10-11
JP5523027B2 true JP5523027B2 (ja) 2014-06-18

Family

ID=43624321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009202690A Active JP5523027B2 (ja) 2009-09-02 2009-09-02 情報送信装置及び情報送信方法

Country Status (2)

Country Link
US (1) US20110050901A1 (ja)
JP (1) JP5523027B2 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5397014B2 (ja) * 2009-05-21 2014-01-22 ソニー株式会社 監視システム、撮像装置、解析装置及び監視方法
KR101703931B1 (ko) * 2011-05-24 2017-02-07 한화테크윈 주식회사 감시 시스템
JP6024952B2 (ja) * 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
JP6059239B2 (ja) * 2012-09-28 2017-01-11 オリンパス株式会社 撮影機器、撮影システム、撮影方法及び撮影制御プログラム
WO2014065127A1 (ja) * 2012-10-22 2014-05-01 ソニー株式会社 情報処理端末、撮像機、情報処理方法、プログラム、および遠隔撮像システム
JP6103948B2 (ja) * 2013-01-17 2017-03-29 キヤノン株式会社 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム
US9020190B2 (en) * 2013-01-31 2015-04-28 International Business Machines Corporation Attribute-based alert ranking for alert adjudication
EP2993907A4 (en) * 2013-04-30 2016-12-21 Sony Corp INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
JP6316023B2 (ja) * 2013-05-17 2018-04-25 キヤノン株式会社 カメラシステム及びカメラ制御装置
JP6327816B2 (ja) * 2013-09-13 2018-05-23 キヤノン株式会社 送信装置、受信装置、送受信システム、送信装置の制御方法、受信装置の制御方法、送受信システムの制御方法、及びプログラム
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9213903B1 (en) 2014-07-07 2015-12-15 Google Inc. Method and system for cluster-based video monitoring and event categorization
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9449229B1 (en) 2014-07-07 2016-09-20 Google Inc. Systems and methods for categorizing motion event candidates
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
JP6435550B2 (ja) * 2014-08-29 2018-12-12 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
JP6241796B2 (ja) 2015-12-25 2017-12-06 パナソニックIpマネジメント株式会社 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法
US9710934B1 (en) 2015-12-29 2017-07-18 Sony Corporation Apparatus and method for shadow generation of embedded objects
JP6390860B2 (ja) * 2016-01-25 2018-09-19 パナソニックIpマネジメント株式会社 置去り物体監視装置およびこれを備えた置去り物体監視システムならびに置去り物体監視方法
CN106027962B (zh) * 2016-05-24 2019-06-11 浙江宇视科技有限公司 视频监控的覆盖率计算方法及装置、布点方法及系统
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10582119B2 (en) * 2017-07-26 2020-03-03 Sony Corporation Image processing method and device for composite selfie image composition for remote users
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
JP6532043B2 (ja) * 2017-10-26 2019-06-19 パナソニックIpマネジメント株式会社 置去り物監視装置およびこれを備えた置去り物監視システムならびに置去り物監視方法
JP7073120B2 (ja) * 2018-01-26 2022-05-23 キヤノン株式会社 映像送信装置、情報処理装置、システム、情報処理方法及びプログラム
JP7176719B2 (ja) * 2018-06-11 2022-11-22 日本電気通信システム株式会社 検出装置、検出システム、検出方法及びプログラム
JP6545342B1 (ja) * 2018-10-15 2019-07-17 株式会社フォトロン 異常検知装置及び異常検知プログラム
CN110312099A (zh) * 2019-05-31 2019-10-08 中徽绿管家科技(北京)有限公司 一种可视化园林施工现场监控系统
WO2024047794A1 (ja) * 2022-08-31 2024-03-07 日本電気株式会社 映像処理システム、映像処理装置及び映像処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0715453B1 (en) * 1994-11-28 2014-03-26 Canon Kabushiki Kaisha Camera controller
US7116357B1 (en) * 1995-03-20 2006-10-03 Canon Kabushiki Kaisha Camera monitoring system
JP2002165210A (ja) * 2000-08-04 2002-06-07 Matsushita Electric Ind Co Ltd データ送信端末及びデータ送受信装置
JP4140202B2 (ja) * 2001-02-28 2008-08-27 三菱電機株式会社 移動物体検出装置
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
JP3880495B2 (ja) * 2002-09-25 2007-02-14 キヤノン株式会社 撮像装置の制御方法及び画像配信装置
US20040114176A1 (en) * 2002-12-17 2004-06-17 International Business Machines Corporation Editing and browsing images for virtual cameras
US20040196369A1 (en) * 2003-03-07 2004-10-07 Canon Kabushiki Kaisha Monitoring system
US7129855B2 (en) * 2003-09-26 2006-10-31 Openpeak Inc. Device control system, method, and apparatus
EP2955662B1 (en) * 2003-07-18 2018-04-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP2005151147A (ja) * 2003-11-14 2005-06-09 Toshiba Corp 再生装置及び再生方法
JP2005301513A (ja) * 2004-04-08 2005-10-27 Fujitsu Ltd プログラム内蔵デバイス
JP2006042188A (ja) * 2004-07-29 2006-02-09 Soten:Kk 通話録音・確認システム
JP4498104B2 (ja) * 2004-11-16 2010-07-07 キヤノン株式会社 監視装置、その制御方法、およびプログラム
JP2007201742A (ja) * 2006-01-25 2007-08-09 Ntt Software Corp コンテンツ配信システム
JP4363421B2 (ja) * 2006-06-30 2009-11-11 ソニー株式会社 監視システム、監視システム用サーバ及び監視方法
JP4453684B2 (ja) * 2006-06-30 2010-04-21 ソニー株式会社 監視システム、監視装置、検索方法及び検索プログラム
JP5389778B2 (ja) * 2007-03-29 2014-01-15 コーニンクレッカ フィリップス エヌ ヴェ 論理的アドレスを用いるネットワーク化された制御システム
JP4389956B2 (ja) * 2007-04-04 2009-12-24 ソニー株式会社 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム
JP5136170B2 (ja) * 2007-04-20 2013-02-06 ソニー株式会社 データ通信システム、携帯電子機器、サーバ装置、およびデータ通信方法
JP2009104599A (ja) * 2007-10-04 2009-05-14 Toshiba Corp 顔認証装置、顔認証方法、及び顔認証システム

Also Published As

Publication number Publication date
JP2011055270A (ja) 2011-03-17
US20110050901A1 (en) 2011-03-03

Similar Documents

Publication Publication Date Title
JP5523027B2 (ja) 情報送信装置及び情報送信方法
CN102045543B (zh) 图像处理装置及图像处理方法
TWI435279B (zh) 監控系統,影像擷取裝置,分析裝置及監控方法
JP5358083B2 (ja) 人物画像検索装置及び画像検索装置
US11670147B2 (en) Method and apparatus for conducting surveillance
EP1185106A1 (en) Method of image feature encoding and method of image search
JP2005312018A (ja) 監視システム、撮像制御装置、撮像設定装置、制御方法、及びプログラム
KR102133207B1 (ko) 통신장치, 통신 제어방법 및 통신 시스템
US11688079B2 (en) Digital representation of multi-sensor data stream
WO2018122895A1 (ja) 映像処理装置、映像処理方法、映像処理プログラム、及び映像監視システム
JP6203188B2 (ja) 類似画像検索装置
KR20210104979A (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
JP5693147B2 (ja) 撮影妨害検知方法、妨害検知装置及び監視カメラシステム
JP7084795B2 (ja) 画像処理装置、画像提供装置、それらの制御方法及びプログラム
JP2017068627A (ja) 画像処理端末及び画像処理サーバ
CA3057924A1 (en) System and method to optimize the size of a video recording or video transmission by identifying and recording a region of interest in a higher definition than the rest of the image that is saved or transmitted in a lower definition format
JP2015073191A (ja) 画像処理システムおよびその制御方法
EP3454254A1 (en) Image processing apparatus, image providing apparatus, control methods thereof, and program
CN101959033B (zh) 广播接收装置
JP6261191B2 (ja) 表示制御装置、表示制御方法、プログラム
JP6184133B2 (ja) 撮像装置
US10194087B2 (en) Transmission apparatus, setting apparatus, transmission method, reception method, and storage medium
CN114153214B (zh) 一种mr/ar/vr留言和创作场景控制方法、移动终端与可读存储介质
JP2023178007A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
KR20180046044A (ko) 전방위 영상 표시 장치 및 그 표시 방법

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140408

R151 Written notification of patent or utility model registration

Ref document number: 5523027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151