JP2009171415A - 画像分類システム及び方法 - Google Patents

画像分類システム及び方法 Download PDF

Info

Publication number
JP2009171415A
JP2009171415A JP2008009214A JP2008009214A JP2009171415A JP 2009171415 A JP2009171415 A JP 2009171415A JP 2008009214 A JP2008009214 A JP 2008009214A JP 2008009214 A JP2008009214 A JP 2008009214A JP 2009171415 A JP2009171415 A JP 2009171415A
Authority
JP
Japan
Prior art keywords
subject
camera
information
identifier
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008009214A
Other languages
English (en)
Inventor
Kiwamu Yoshioka
究 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2008009214A priority Critical patent/JP2009171415A/ja
Publication of JP2009171415A publication Critical patent/JP2009171415A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】複数の画像のうちから特定の被写体が撮影された画像だけを分類することができる画像分類システム及び方法を提供する。
【解決手段】少なくとも1つのカメラと、カメラを識別するカメラ識別子とカメラの撮影可能範囲とをそのときの時刻と共に含むカメラ情報を発生するカメラ情報発生手段と、カメラによってよって撮影される被写体毎に被写体を識別する被写体識別子と被写体の位置情報とをそのときの時刻と共に含む被写体情報を発生する被写体情報発生手段と、カメラによって撮影された画像データを受信してその受信画像データを識別する画像識別子と、受信画像データの撮影時刻と、カメラ識別子とを含む撮影情報を発生する撮影情報発生手段と、カメラ情報と被写体情報と撮影情報とに応じて同一時刻に撮影可能範囲内に被写体の位置が存在する被写体についての被写体識別子と画像識別子との対応関係を検出する情報検出手段と、を備える。
【選択図】図1

Description

本発明は、複数の画像を分類する画像分類システム及び画像分類方法に関する。
従来の画像分類装置としては、複数の撮像装置を備え、それら撮像装置の位置、方向及びフォーカス等の状態が例えば、撮影者であるカメラマンの操作等により変化するときに、各撮像装置が捉えている空間領域を計算し、その計算結果に基づいて撮像装置からの画像を分類する装置がある(特許文献1参照)。
この特許文献1に示された方法は、画像認識を援用した被写体による画像の分類という手法(特許文献2参照)に比べて、画像認識による負荷を伴わないという点で改善されている。
特開2007−13939号公報 特開2004−356984号公報
しかしながら、特許文献1に示された方法は、「撮像装置が捉えている空間領域」により画像を分類するものであり、被写体そのものにより分類するものではない。そのため、特に、被写体と「撮像装置が捉えている空間領域」との対応がとりにくいような場合ではうまく働かない。
例えば、野球中継においてカメラマンが打球を捉えるように、撮像装置、すなわちカメラをパニング・フォーカシング等の操作を行う場合には、カメラの位置情報、角度情報及びフォーカス情報から得られる「撮像装置が捉えている空間領域」が、ある程度「被写体」に一致する。この場合には、「撮像装置が捉えている空間領域」による分類は被写体による分類に近いものとして機能する。
ところが、スポーツ中継でも、例えば、市民参加型のマラソンでは、カメラは多数配置されているが、カメラマンに特定の被写体としてとりたてて認識されていない参加者が多数存在するような場合も考えられる。このようなスポーツ中継では、不特定多数の被写体に向かって向けられたカメラが、参加者の走行区間に向けて多数設営されることになる。
このような場合でも、特定の参加者、例えば、X氏を撮影した画像をつないだ中継画像を視聴したいというニーズが存在するが、X氏を特別に意識したカメラワークがなされていなければ、現状そのようなことは出来ない。
そこで、本発明の目的は、複数の画像のうちから特定の被写体が撮影された画像だけを分類することができる画像分類システム及び方法を提供することである。
本発明の画像分類システムは、少なくとも1つのカメラと、前記カメラを識別するカメラ識別子と前記カメラの撮影可能範囲とをそのときの時刻と共に含むカメラ情報を発生するカメラ情報発生手段と、前記カメラによってよって撮影される被写体毎に被写体を識別する被写体識別子と被写体の位置情報とをそのときの時刻と共に含む被写体情報を発生する被写体情報発生手段と、前記カメラによって撮影された画像データを受信してその受信画像データを識別する画像識別子と、前記受信画像データの撮影時刻と、前記カメラ識別子とを含む撮影情報を発生する撮影情報発生手段と、前記カメラ情報と前記被写体情報と前記撮影情報とに応じて同一時刻に前記撮影可能範囲内に前記被写体の位置が存在する被写体についての前記被写体識別子と前記画像識別子との対応関係を検出する情報検出手段と、を備えたことを特徴としている。
本発明の画像分類方法は、カメラを識別するカメラ識別子と前記カメラの撮影可能範囲とをそのときの時刻と共に含むカメラ情報を発生し、前記カメラによってよって撮影される被写体毎に被写体を識別する被写体識別子と被写体の位置情報とをそのときの時刻共に含む被写体情報を発生し、前記カメラによって撮影された画像データを受信してその受信画像データを識別する画像識別子と、前記受信画像データの撮影時刻と、前記カメラ識別子とを含む撮影情報を発生し、前記カメラ情報と前記被写体情報と前記撮影情報とに応じて同一時刻に前記撮影可能範囲内に前記被写体の位置が存在する被写体についての前記被写体識別子と前記画像識別子との対応関係を検出することを特徴としている。
かかる本発明の画像分類システム及び方法によれば、カメラ情報と被写体情報と撮影情報とに応じて同一時刻に撮影可能範囲内に被写体の位置が存在する被写体についての被写体識別子と画像識別子との対応関係を検出するので、カメラから出力される各画像とその画像各々に写された被写体との対応関係が時刻毎に得られる。よって、被写体毎に画像が分類されることになる。この結果、特定の被写体を示す被写体識別子を指定すれば、その対応関係から特定の被写体が写された画像を容易に得ることができる。
以下、本発明の実施例を図面を参照しつつ詳細に説明する。
図1は本発明が適用された画像分類システムを示している。この画像分類システムは、カメラ2、RFIDリーダ5、動画受信サーバ6、情報統合サーバ7、動画蓄積サーバ8及びDBサーバ9を備えている。
カメラ2は被写体1を撮影する。カメラ2としては静止画用及び動画用のいずれでも良いが、この実施例では動画用である。また、カメラ2はシステム内に複数存在しても良い。被写体1についても複数存在しても良い。なお、後述する図2にはカメラ2としてカメラ201〜203が示され、被写体1として被写体101〜104が示されている。
被写体1には被写体RFIDタグ3が、またカメラ2にはカメラRFIDタグ4が物理的に固着され、或いは備えられている。被写体RFIDタグ3は被写体1を識別する被写体ID(被写体識別子)をデータとして保存し、その被写体IDを示す無線信号を発する。カメラRFIDタグ4はカメラ2を識別するカメラID(カメラ識別子)をデータとして保存し、そのカメラIDを示す無線信号を発する。被写体ID及びカメラIDは少なくともシステム内で重複することなく割り当てられたものである。
RFIDリーダ5は、被写体RFIDタグ3及びカメラRFIDタグ4各々に記録された情報をそれらが発する無線信号を受信して読み取る。RFIDリーダ5と被写体RFIDタグ3及びカメラRFIDタグ4各々との間は数メートル離れていても良い。また、RFIDリーダ5はシステム内に複数あっても良い。
RFIDリーダ5は取得した情報を情報統合サーバ7にリアルタイムで送出する。被写体RFIDタグ3についての送出情報T1は被写体ID、被写体の位置及び時刻であり、カメラRFIDタグ4についての送出情報T2はカメラID、カメラの撮影可能範囲及び時刻である。時刻は例えば、予め定められた時間間隔の時刻である。
被写体の位置はRFIDリーダ5の設置位置をそのまま被写体1の存在位置とするか、無線信号のレベルに応じてRFIDリーダ5と被写体RFIDタグ3の距離を推測してRFIDリーダ5の設置位置からの位置を判定する。カメラの撮影可能範囲はカメラの位置から決定されるが、カメラの向き等のその他の情報を用いても良い。
動画受信サーバ6は、カメラ2を含む複数のカメラからの情報を受信する。カメラからの情報はカメラID、動画像ストリーム、時刻のデータからなる。動画受信サーバ6は受信した動画像ストリームデータをリアルタイムで動画蓄積サーバ8に保存させる。動画受信サーバ6は動画像ストリームIDと動画像ストリームデータとからなる情報T3を動画蓄積サーバ8に送出する。その動画ストリームデータは時刻情報を伴い、例えば、MPEG2或いはH.264等の画像圧縮方式のデータである。動画像ストリームIDは動画ストリームデータを特定する識別データである。
また、動画受信サーバ6は、カメラID、動画像ストリームID及び時刻からなる情報T4をリアルタイムで情報統合サーバ7に送出する。
情報統合サーバ7は、RFIDリーダ5から送られてくる情報と、動画受信サーバ6から受け取った情報を統合する。情報統合サーバ7によって統合された情報はDBサーバ9に書き込まれる。
動画蓄積サーバ8は動画受信サーバ6から情報T3が供給される毎にその情報T3中の動画像ストリームIDと動画像ストリームデータとを対応させて保存する。
情報統合サーバ7は、RFIDリーダ5から送られてくる情報と、動画受信サーバ6から受け取った情報を統合する。情報統合サーバ7によって統合された情報はDBサーバ9に保存される。
ここで、マラソン大会においてランナーが被写体となる場合について説明すると、図2に示すようにマラソンコースA上に被写体101〜104が存在するとする。これらの被写体101〜104は上記の被写体RFIDタグ3が備えられている。RFIDリーダ5として複数のRFIDリーダ501,502が備えられている。また、マラソンコースAに沿って複数のカメラ201〜203が異なる位置に配置されているが、これらのカメラ201〜203は固定ではないので、被写体の移動に応じてマラソンコースAに沿った別の場所に移動して配置され得る。
カメラ201〜203各々の位置だけでマラソンコースA上の撮影可能範囲が決まるものとする。すなわち、カメラの位置が分かれば、カメラの撮影可能範囲はその位置の前後aの区間であると一義的に定まる(ここで、aは、カメラ固有の定数である)。図2ではカメラ202はマラソンコースAのxの位置に配置されているので、撮影可能範囲はx=x−a〜x=x+aの範囲である。このカメラ202の撮影可能範囲x〜xには被写体102,103が含まれる。実際には撮影可能範囲はカメラを向ける方向や画角その他の要素に依存する場合もあり得る。
図1のシステムには、図3に示すように、更に、配信APサーバ10及びクライアント端末11が備えられる。配信APサーバ10はクライアント端末11からの要求に応じて、動画蓄積サーバ8及びDBサーバ9各々の蓄積情報を検索及び取得し、必要に応じて加工した上でクライアント端末11に送出する。情報の送信プロトコルは、例えば、クライアントからの要求の送信、動画情報以外の情報の送信はHTTPで、動画情報の送信はRTPである。
上記した構成のシステムにおいては、カメラ2を含むカメラによって被写体1を含む被写体が撮影されると、情報統合サーバ7にはRFIDリーダ5から送出された情報T1,T2と、動画受信サーバ6から送出された情報T4とが供給される。情報統合サーバ7は供給された情報T1,T2,T4に応じて情報統合動作を行う。
情報統合サーバ7による情報統合動作においては、図4に示すように、供給された情報T1,T2,T4の中から同一時刻の情報T1,T2,T4が選択され(ステップS1)、選択情報T2中の撮影可能範囲が取得される(ステップS2)。選択情報T1のうちのから、ステップS2で取得した撮影可能範囲内に含まれる被写体の位置を備えたT1が検出される(ステップS3)。このステップS3の検出結果に基づいて、被写体毎に被写体ID、カメラID及び時刻からなる情報T5が作成される(ステップS4)。更に、ステップS1の選択情報T4中から情報T5のカメラIDと一致するカメラIDを有するT4が検出され(ステップS5)、その検出T4中の動画像ストリームIDと情報T5とを用いて情報T6が作成される(ステップS6)。情報T6は被写体ID、動画像ストリームID及び時刻からなる。情報T6は情報統合サーバ7からDBサーバ9に送出され(ステップS7)、DBサーバ9に保存される。
この情報統合サーバ7による情報統合動作においては同一時刻毎にステップS1〜S6が実行され、それの結果、情報T1,T2,T4に基づいた情報T6が作成され、それがDBサーバ9に保存される。DBサーバ9に保存された情報T6は被写体ID毎の被写体IDが割り当てられた被写体が画像中に含まれている各時刻の動画像ストリームデータを示すことになり、動画像が被写体単位で分類されたことになる。
DBサーバ9に保存された情報T6中の動画像ストリームIDは、動画蓄積サーバ8から動画ストリームデータを取得するために利用可能となる。被写体IDが分かれば、その被写体IDが割り当てられた被写体が撮影された各時刻における動画ストリームデータを特定することができる。
次に、クライアント端末11が特定の被写体が撮影された部分の動画像ストリームデータを取得する場合のシステムの動作について説明する。
図5に示すように、クライアント端末11は、特定の被写体に割り当てられた被写体IDを配信APサーバ10に送信する(ステップS11)。これは被写体IDの指定である。
配信APサーバ10は、クライアント端末11から被写体IDを受信すると、その被写体IDを含む問い合わせをDBサーバ9に対して行う(ステップS12)。
DBサーバ9では配信APサーバ10からの問い合わせを受信すると、その問い合わせ中の被写体IDを含む情報T6が検索される(ステップS13)。ステップS13では検索結果の被写体IDを含む情報T6が示す時刻のうちの最も古い時刻が検出される。その検出された時刻は開始時刻として配信APサーバ10に供給される(ステップS14)。
配信APサーバ10は、開始時刻を時刻カウンタ(図示せず)にセットし(ステップS15)、時刻カウンタの時刻と被写体IDとを含む問い合わせをDBサーバ9に対して行う(ステップS16)。DBサーバ9ではその問い合わせの時刻及び被写体IDを含む情報T6から動画像ストリームIDを読み出して(ステップS17)、その読み出し動画像ストリームIDを配信APサーバ10に供給する(ステップS18)。
ステップS15で時刻カウンタに開始時刻をセットすると、時刻カウンタはその開始時刻から自動的に実時間と同じタイミングでカウントアップ動作する。カウントアップ毎にステップS16の問い合わせは行われるので、DBサーバ9ではその問い合わせに応答してステップS17,S18が実行される。カウントアップの単位増加量は、例えば、1分であるが、これに限定されない。
配信APサーバ10は、ステップS16の問い合わせに対して得られた動画像ストリームIDを用いて動画蓄積サーバ8に動画像ストリームデータを要求する(ステップS19)。
動画蓄積サーバ8は動画像ストリームデータの要求に応答して、動画像ストリームIDに対応する動画像ストリームデータを読み出して(ステップS20)、それを配信APサーバ10に出力する(ステップS21)。配信APサーバ10は供給された時刻カウンタが示す時刻の動画像ストリームデータをクライアント端末11に送信する(ステップS22)。
このように、時刻カウンタのカウントアップ毎にステップS16の問い合わせがDBサーバ9に対して行われ、その結果、ステップS18の動画像ストリームIDの送信があると、その動画像ストリームIDを用いて動画蓄積サーバ8に動画像ストリームデータが要求される。よって、ステップS16〜S18の部分の動作はステップS19〜S22の部分の動作と共に平行して進行する。
また、DBサーバ9から送信された動画像ストリームIDが切り替わった場合にはステップS20で読み出される動画像ストリームデータが切り替わる。すなわち、今までとは異なる動画像ストリームが用いられることになる。
クライアント端末11は、配信APサーバ10から送信された動画像ストリームデータを順次受信してそれを再生する(ステップS24)。これによりクライアント端末11の図示しない表示器に動画像ストリームデータによる特定の被写体が存在する動画像が表示される。
以上のように、クライアント端末から被写体IDを指定すれば、その被写体の動画像をクライアント端末では視聴し続けることができる。また、PC(パソコン)やSTB(セットトップボックス)等のクライアント端末から、今までのTV放送よりもパーソナライズされたコンテンツを視聴したいというニーズに対応することができる。
なお、ステップS17においては、時刻によって複数のカメラが特定の被写体を捉えたために複数の動画像ストリームIDが得られる場合が考えられる。この場合には、例えば、適切なアルゴリズムで代表的なストリームを選び出して送出したり、或いはマルチアングルの動画像情報として送出する(例えば、Synchronized Multimedia Integration Language (SMIL)を使用して、複数のストリームデータを1つのデータにまとめた上で送出する)といった方法を用いることができる。また、動画像ストリームIDが得られない時刻の場合には例えば、ステップS23に移行して次の時刻での動画像ストリームIDの読み出し動作を行えば良い。
上記の実施例においては、動画像ストリームデータが動画蓄積サーバ8に一旦蓄積保存されるものとしたが、蓄積保存は必ずしも必要ではない。実施例で説明したアルゴリズムは、リアルタイムで実行することが可能であり、動画蓄積サーバ8はカメラ2等の複数のカメラからの映像を単に中継するだけでも良い。
RFIDタグ3,4から送出される情報はIDとその所在の情報のみに限定する必要はない。例えば、カメラRFIDタグであれば、画角が可変である場合の画角情報、カメラの向きなどの情報を送出しても良い。これにより、RFIDリーダ5におけるカメラの撮影可能範囲の計算をより正確なものにすることができる。また、RFID技術を使わず、GPS等の他の技術を利用しても良い。
上記した実施例においては、RFIDリーダ5は固定して設置されていることを前提に説明したが、移動するような形態も考えられる。この場合、RFIDリーダ5の位置を取得するために、例えば、GPS受信機をRFIDリーダ5内に備え、位置の計算の際にGPS受信機から得られる情報を利用しても良い。また、移動自在なカメラにRFIDリーダを備えても良い。この場合は、RFIDリーダの位置はカメラの位置と等しくなり、カメラにRFIDタグを設ける必要はなくなる。RFIDリーダは被写体のRFIDタグを読み取ることに専念することになる。
カメラが動画像ではなくて静止画像を撮影するものとなっている場合には、被写体IDや撮影時刻で選択された静止画像の集合をクライアント端末に提示するような応用が考えられる。
動画像或いは静止画像は、音声を伴っていても良い。その場合には、カメラ2にはマイクロフォンが装備され、動画蓄積サーバ8は動画像ストリームデータに音声データを含めて記録することになる。
本発明の実施例を示すブロック図である。 図1のシステムがマラソンコースでの設置例を示す図である。 図1のシステムの配信APサーバ及びクライアント端末を示すブロック図である。 図1のシステムの情報統合動作を示すフローチャートである。 クライアント端末へのストリームデータ配信動作を示すシーケンス図である。
符号の説明
2,201,202,203 カメラ
5,501,502 RFIDリーダ
6 動画受信サーバ
7 情報統合サーバ
8 動画蓄積サーバ
10 配信APサーバ
11 クライアント端末

Claims (6)

  1. 少なくとも1つのカメラと、
    前記カメラを識別するカメラ識別子と前記カメラの撮影可能範囲とをそのときの時刻と共に含むカメラ情報を発生するカメラ情報発生手段と、
    前記カメラによってよって撮影される被写体毎に被写体を識別する被写体識別子と被写体の位置情報とをそのときの時刻と共に含む被写体情報を発生する被写体情報発生手段と、
    前記カメラによって撮影された画像データを受信してその受信画像データを識別する画像識別子と、前記受信画像データの撮影時刻と、前記カメラ識別子とを含む撮影情報を発生する撮影情報発生手段と、
    前記カメラ情報と前記被写体情報と前記撮影情報とに応じて同一時刻に前記撮影可能範囲内に前記被写体の位置が存在する被写体についての前記被写体識別子と前記画像識別子との対応関係を検出する情報検出手段と、を備えたことを特徴とする画像分類システム。
  2. 前記情報検出手段は、前記カメラ情報と前記被写体情報とに応じて同一時刻に前記撮影可能範囲内に前記被写体の位置が存在するか否かを判別する判別手段と、
    同一時刻に前記撮影可能範囲内に前記被写体の位置が存在する場合にはその時刻を撮影時間としてその判別に用いた前記カメラ情報中のカメラ識別子と前記撮影情報とに応じて時刻毎の前記被写体識別子と前記画像識別子との対応関係を示す対応関係情報を作成してデータベースとして保存する手段と、を備えることを特徴とする請求項1記載の画像分類システム。
  3. 特定の被写体の前記被写体識別子を指定する指定手段と、
    前記受信画像データを前記画像識別子に対応させて蓄積する画像蓄積手段と、
    前記情報検出手段によって検出された前記被写体識別子と前記画像識別子との対応関係に応じて前記指定手段によって指定された前記被写体識別子に対応した前記画像識別子を得て、その得た前記画像識別子に応じて前記画像蓄積手段から前記受信画像データを選択する画像選択手段と、を備えたことを特徴とする請求項1記載の画像分類システム。
  4. 前記カメラ情報発生手段は、前記カメラに設けられ前記カメラ識別子を示すカメラ無線信号を発するカメラRFIDタグと、
    前記カメラ無線信号を受信して前記カメラ無線信号に基づいて前記カメラ情報を発生するRFIDリーダと、を含むことを特徴とする請求項1記載の画像分類システム。
  5. 前記被写体情報発生手段は、前記被写体に設けられ前記被写体識別子を示す被写体無線信号を発する被写体RFIDタグと、
    前記被写体無線信号を受信して前記被写体無線信号に基づいて前記被写体情報を発生するRFIDリーダと、を含むことを特徴とする請求項1記載の画像分類システム。
  6. カメラを識別するカメラ識別子と前記カメラの撮影可能範囲とをそのときの時刻と共に含むカメラ情報を発生し、
    前記カメラによってよって撮影される被写体毎に被写体を識別する被写体識別子と被写体の位置情報とをそのときの時刻共に含む被写体情報を発生し、
    前記カメラによって撮影された画像データを受信してその受信画像データを識別する画像識別子と、前記受信画像データの撮影時刻と、前記カメラ識別子とを含む撮影情報を発生し、
    前記カメラ情報と前記被写体情報と前記撮影情報とに応じて同一時刻に前記撮影可能範囲内に前記被写体の位置が存在する被写体についての前記被写体識別子と前記画像識別子との対応関係を検出することを特徴とする画像分類方法。
JP2008009214A 2008-01-18 2008-01-18 画像分類システム及び方法 Pending JP2009171415A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008009214A JP2009171415A (ja) 2008-01-18 2008-01-18 画像分類システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008009214A JP2009171415A (ja) 2008-01-18 2008-01-18 画像分類システム及び方法

Publications (1)

Publication Number Publication Date
JP2009171415A true JP2009171415A (ja) 2009-07-30

Family

ID=40972065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008009214A Pending JP2009171415A (ja) 2008-01-18 2008-01-18 画像分類システム及び方法

Country Status (1)

Country Link
JP (1) JP2009171415A (ja)

Similar Documents

Publication Publication Date Title
KR101680714B1 (ko) 실시간 동영상 제공 방법, 장치, 서버, 단말기기, 프로그램 및 기록매체
US9940969B2 (en) Audio/video methods and systems
US10110850B1 (en) Systems and methods for directing content generation using a first-person point-of-view device
KR100883632B1 (ko) 고해상도 카메라를 이용한 지능형 영상 감시 시스템 및 그 방법
US20090316955A1 (en) Image processing system, image processing method, and computer program
JP2004320242A (ja) 移動通信システム、移動通信端末、及びプログラム。
JP2008035095A (ja) 監視装置、監視システム、監視方法及びプログラム
JP2008199557A (ja) ストリーム同期再生システム、ストリーム同期再生装置、同期再生方法、及び同期再生用プログラム
KR102650650B1 (ko) 영상 관리 시스템 및 영상 관리 방법
KR101621822B1 (ko) 하이브리드 이미지 전송 기반의 방범겸용 차량번호 인식 장치, 그리고 이를 이용한 차량번호 인식 및 제공 방법
JP4325541B2 (ja) 画像処理装置、再生画像処理装置、画像処理方法及び再生画像処理装置
JP4165615B2 (ja) 画像表示装置、画像表示方法、プログラム、及び記録媒体
JP2005130462A (ja) 表示装置、及びプログラム
JP2010245856A (ja) 映像編集装置
KR20150019230A (ko) 복수의 카메라를 이용한 객체 추적 방법 및 장치
CN108881119B (zh) 一种视频浓缩的方法、装置和系统
KR102167276B1 (ko) 복수의 동영상 처리를 위한 장치 및 방법
JP2011087257A (ja) 半導体集積回路及び撮像装置
JP5003666B2 (ja) 撮像装置、撮像方法、画像信号再生装置および画像信号再生方法
KR20130062489A (ko) 객체추적 시스템 및 그 운영방법
JP2009171415A (ja) 画像分類システム及び方法
US20140009588A1 (en) Video display apparatus and video display method
KR101615243B1 (ko) 지능형 방범 영상 감시장치 및 영상 감시방법
JP2011101161A (ja) 撮像装置、その制御方法、再生装置およびプログラム
JP4019108B2 (ja) 撮影装置