JP6357595B2 - 情報伝送システム、情報受信装置、およびコンピュータプログラム - Google Patents

情報伝送システム、情報受信装置、およびコンピュータプログラム Download PDF

Info

Publication number
JP6357595B2
JP6357595B2 JP2017564647A JP2017564647A JP6357595B2 JP 6357595 B2 JP6357595 B2 JP 6357595B2 JP 2017564647 A JP2017564647 A JP 2017564647A JP 2017564647 A JP2017564647 A JP 2017564647A JP 6357595 B2 JP6357595 B2 JP 6357595B2
Authority
JP
Japan
Prior art keywords
information
person
image
avatar
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017564647A
Other languages
English (en)
Other versions
JPWO2017155126A1 (ja
Inventor
寛紀 山内
寛紀 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JAPAN IMAGE ANALYSIS ASSOCIATION
Original Assignee
JAPAN IMAGE ANALYSIS ASSOCIATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JAPAN IMAGE ANALYSIS ASSOCIATION filed Critical JAPAN IMAGE ANALYSIS ASSOCIATION
Publication of JPWO2017155126A1 publication Critical patent/JPWO2017155126A1/ja
Application granted granted Critical
Publication of JP6357595B2 publication Critical patent/JP6357595B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、カメラで取得された映像情報を伝送するシステムに関する。
近年、防犯等の目的で、ショッピングセンターや街頭等の様々な場所に監視カメラが設置されている。これらのカメラで撮影された映像は、ネットワークを介して遠隔地の集中監視センター等にリアルタイムで送られ、モニタに表示される。
従来、このようなカメラの映像を伝送する際には、ネットワークの通信帯域を有効に利用するために、図10に示すように、撮影された映像信号を、映像圧縮装置により所定の規格(例えば、H.264またはMPEG2等)にしたがって圧縮してから伝送する。そして、伝送先において、映像復号装置により、受信した映像信号を当該規格にしたがって復号する。このような監視カメラの映像信号の圧縮と復号を利用した発明は、例えば下記の特許文献1等に開示されている。また、特許文献2には、画像中の人物と背景とを画像認識装置で個別のオブジェクトに分解し、変換画像選択部でオブジェクト毎に他の画像へ変換して送信できるようにする技術が開示されている。
特開2007− 60022号公報
しかしながら、上述のような画像圧縮技術を利用したとしても、データの圧縮率には限界があるので、例えば複数台の監視カメラからの映像をリアルタイムに伝送する場合には、依然として幅広い帯域が必要になるという課題がある。
本発明は、このような課題を鑑み、カメラからの映像を伝送する際に、ネットワークの通信帯域の有効利用を可能とする技術を提供する。
上記の目的を達成するために、本発明にかかる情報伝送システムは、
少なくとも1台のカメラで写した映像内の被写体である人物の画像を、人体の部位に相当する複数のパーツに分割し、各パーツから特徴点を抽出する特徴点を抽出して特徴情報として出力する特徴点抽出部と、
カメラの撮影範囲における被写体の座標情報を取得する座標情報付加部と、
特徴情報および座標情報をネットワークへ送出する情報送信部と、
ネットワークから特徴情報および座標情報を受け取る情報受信部と、
特徴情報に基づいて被写体のアバター画像を生成する動態生成部であって、アバター画像のデータを、身長や体形を標準に設定したときの複数のパーツに対応したアバター断片に分割して記憶するアバター画像データ記憶手段を備え、人物の対応するパーツについて抽出された身長及び体形を含む特徴点の情報に基づいてアバター画像のアバター断片を補正した後、その補正後のアバター断片を統合してアバター画像を生成する動態生成部と、
カメラの撮影範囲の背景を表す背景画像に、座標情報に基づいてアバター画像を合成することにより、合成画像を生成する画像合成部と、を備えたことを特徴とする。
この構成によれば、被写体から抽出した特徴点の特徴情報と、カメラの撮影範囲における被写体の座標情報とがネットワークへ送出される。そして、この特徴情報に基づいて被写体のアバター画像が生成され、前記座標情報に基づいて、カメラの撮影範囲の背景を表す画像に、当該アバター画像が合成される。これにより、カメラの映像信号を送ることなく、受信側で、背景画像とアバター画像とによって合成画像が生成されるので、カメラの映像信号を送る場合に比較して、ネットワークの通信帯域を有効に利用することが可能となる。また、被写体の実映像の代わりにアバター画像が用いられるので、不特定多数の人物を撮影する場面においても、プライバシーを侵害するおそれがないという利点がある。さらに、各パーツから特徴点を抽出するようにしたので、人物の各部位の特徴点を有効的に検出することができる。そして、アバター画像のデータを、身長や体形を標準に設定したときの複数のパーツに対応したアバター断片に分割してアバター画像データ記憶手段に記憶させた形で用意しておき、人物の対応するパーツについて抽出された身長及び体形を含む特徴点の情報に基づいて、そのアバター断片を補正した後、その補正後のアバター断片を統合してアバター画像を生成ように構成できる。このようにすると、アバター断片(すなわち、人物の部位)ごとに特徴点を反映した補正をきめ細かく行うことができ、かつ、身長や体形を標準に設定したときのアバター画像のデータを用意すればよいので、アバター全体の画像データを特徴別に多数用意する必要がなくなり、データ容量の削減を図ることができるようになる。
上記本発明の情報伝送システムにおいて座標情報付加部は、撮影画面上に現れる被写体をなす人物の接地点として識別される位置を撮影接地位置とし、当該撮影設置位置に現れる人物画像領域の撮影画面上の高さを人物撮影高さとして、座標情報付加部は、被写体が人物である場合の実空間における歩行面を高さ方向の基準として、カメラの撮影画面上に設定されるカメラ二次元座標系における平面座標点と実空間三次元座標系における歩行面上の空間座標点との変換関係と、カメラ二次元座標系における撮影接地位置毎の人物の撮影高さと実空間座標系での当該人物の実高さとの変換関係とを含む位置・高さ変換関係情報を取得する位置・高さ変換関係情報取得手段と、撮影画面上にて人物画像の撮影接地位置及び撮影高さを特定する撮影接地位置・高さ特定手段と、特定されたそれら撮影接地位置座標及び撮影高さの情報を、位置・高さ変換関係情報に基づいて実空間における人物の接地位置座標である実接地位置座標情報と実空間における人物の高さを情報である実人物高さ情報とに変換・生成する実人物座標・高さ情報生成手段とを備えたものとすることができる。また、動態生成部は、生成された実人物高さ情報に基づいてアバター画像の高さ寸法を決定するアバター高さ決定手段を備え、画像合成部は、実接地位置座標情報に基づいて背景画像へのアバター画像の合成位置を決定するアバター合成位置決定手段を備えたものとすることができる。
三次元空間内の立体をカメラ映像から特定したい場合、映像は二次元データであるから、一般の立体の空間的な状態を1台のカメラ映像で特定することは原理的にできない。しかし、この発明が対象とする被写体はカメラ撮影される平面上のエリア内を動き回る人物であり、上記構成によれば、その空間幾何学的な移動特性を考慮することで、単独のカメラ映像上の人物画像領域の情報から実空間内の人物位置と高さとを容易に特定可能である。すなわち、撮影対象となるエリアの人物の空間的な存在範囲は、床面や地面など、高さ方向(仮に実空間直交座標系のz軸方向とする)位置が一定の水平面(同様にx−y平面である)にほぼ限られており、その接地点(足元位置)のz座標は常に一定(例えば0)とみなしえる。つまり、エリア内を歩行する人物の接地点の座標は実質的にx−yの二次元系で記述でき、カメラ二次元座標系とも一義的な対応付けが可能となる。カメラ二次元座標系は実空間三次元座標系が射影変換されたものに相当し、カメラから隔たった被写体ほど寸法が縮小されて投影される。この変換は数学的には行列で記述されるが、床面上ないし地面上の実空間座標系での予め知れた種々の位置に高さが既知の基準体を配置してカメラで撮影すれば、その基準体画像の撮影画面上での位置と高さを、実空間上の位置及び実寸と比較することにより、カメラ画面上の人物の位置と高さを実空間上の位置と高さに変換する情報である位置・高さ変換関係情報を得ることができる。これを用いることにより動態生成部は、背景画像上に合成するべきアバター画像の高さを容易に決定でき、画像合成部は、背景画像へのアバター画像の合成位置を合理的かつ容易に決定することができる。
次に、本発明の情報伝送システムは、特徴点抽出部が被写体の動きまたは向きを解析して動作解析情報として出力し、情報送信部は人物属性情報をネットワークへ送出し、画像合成部が動作解析情報に基づいて前記アバター画像の動きまたは向きを調整するものとして構成できる。これによれば、撮影された時点の被写体の動きや向きに基づいてアバター画像の動きや向きが調整されるので、例えば被写体の動く速度や動く方向を、アバター画像に反映させることができる。
この場合、カメラは動画撮影可能なものであり、座標情報付加部は撮影された動画のフレーム別に被写体をなす人物の座標情報を取得するものであり、特徴点抽出部は、人物の座標情報のフレーム間の移動軌跡情報を動作解析情報として出力するものとして構成しておくとよい。現在のフレームに対し、これに先行するフレームの移動軌跡情報を解析すれば、現在のフレームに至る人物画像の動きを把握することが特に容易となる。
例えば、人物は、横歩きや後ずさりなどのイレギュラーな動きをしない限り、顔や胴体が前を向くように歩行動作するのが通常なので、人物画像の代表点(例えば接地点)の移動軌跡が判明していれば、歩行動作に応じた体の向きを逐次把握することができる。そこで、画像合成部は上記の移動軌跡情報に基づいて、背景画像上に合成するアバター画像の向きを調整するように構成できる。
この場合、動態生成部は、カメラからの視点による当該人物の見え方が反映されるように、実空間における人物の移動方向に応じて異なる表現形態のアバター画像を生成ように構成できる。カメラ視点に対し人物の歩行方向が変化する場合、その歩行方向によるカメラへの映り方(角度)に応じてアバター画像を変化させることで、アバター画像の表現のリアリティーを増すことができる。
例えば、動態生成部は、実空間における人物の予め定められた複数の移動方向別に表現形態が互いに異なる複数の二次元アバター画像データを記憶する方向別二次元アバター画像データ記憶手段を備え、先行するフレームについて取得されている移動軌跡情報に基づいて人物の移動方向を推定するとともに、方向別の二次元アバター画像データから、推定された移動方向に適合するものを選択するものであり、画像合成部は、選択された二次元アバター画像データに基づくアバター画像を背景画像と合成するものとして構成できる。アバター化する人物の移動方向を、上記のように決められた複数の方向から選択するようにしておき、かつアバター画像データを二次元描画データとして構成しておくことで、用意するアバター画像データの容量を大幅に削減することができる。
一方、動態生成部は、アバター画像のデータを三次元アバター画像データとして記憶する三次元アバター画像データ記憶手段を備え、該三次元アバター画像データに基づいて三次元アバターオブジェクトを生成するとともに、先行するフレームについて取得されている移動軌跡情報に基づいて人物の移動方向を推定するとともに、推定された移動方向を向くように該三次元アバターオブジェクトの実空間上への配置方向を決定するものであり、画像合成部は、配置方向が決定された実空間上の三次元アバターオブジェクトを背景画像の二次元座標系に射影変換することにより二次元アバター画像データを生成し、該二次元アバター画像データに基づくアバター画像を背景画像と合成するように構成することもできる。この場合はアバター画像データが三次元化されることでデータ容量は増すが、アバター画像の背景画像への貼り込み方向は無段階化でき、一層リアリティーのある表現が可能となる。
また、画像合成部は、移動軌跡情報に基づいて人物の動線を表す画像を生成することも可能である。この構成によれば、特定の被写体が背景画像上でどのように動いたかを視覚的に把握することが容易となる。例えば、防犯目的等に有効活用することができほか、展示会場や公共施設等において個々の人物が関心を集める場所がどこにあるかを、動線画像の統計傾向分析により明確にできるなど、種々の利点を享受できる。
次に、本発明の情報伝送システムは、特徴点抽出部が被写体の人物属性を解析して人物属性情報として出力し、情報送信部が人物属性情報をネットワークへ送出するものとして構成できる。この構成によれば、受信側で、この人物属性情報を用いて様々な分析・統計処理等を行うことができる。
この場合、動態生成部はアバター画像を、人物属性情報を反映したものとして生成ように構成できる。これにより、対応する人物の属性をアバター画像に変換された後も容易に把握することができる。これは、例えば防犯目的の使用を考える場合、肖像権などのプライバシー侵害を回避しつつ被疑者の特定に貢献することにもつながるし、防犯を目的としないビューイング等においても、撮影エリアを行きかう人々の属性をアバター画像によりより単純化ないし強調することができ、画像上での傾向把握を容易にできる利点がある。人物属性情報は、具体的には、人物の性別を反映した性別情報と人物の年齢を反映した年齢情報とを含むものとして構成できるが、これらに限定されるものではなく、例えば顔の風貌などから明確に把握可能なものに限られるものの、国籍(例えば、日本人か、欧米人か)なども属性の一つとしてとらえることができる。
また、特徴点抽出部は、被写体の人物の外観を解析して外観特徴情報として出力するものとすることもでき、情報送信部は、外観特徴情報をネットワークへ送出するように構成できる。被写体の外観は、人物属性に次いで個々の人物の特定につながる重要な情報であり、分析・統計処理においては有益である。そして、動態生成部はアバター画像を、外観特徴情報を反映したものとして生成するように構成することで、アバター画像に変換された後の、対応する人物の特徴把握を一層踏み込んで行うことができる。
人物の外観の特徴を最も反映する要素として髪、着衣、持ち物などを例示できる。この場合、外観特徴情報は人物の頭髪の形態及び色彩の一方又は双方を反映した頭髪情報と、人物の着衣の形態及び色彩の一方又は双方を反映した着衣情報と、人物の持ち物の形態及び色彩の一方又は双方を反映した持ち物情報の1以上のものを含むものとして構成できる。これらは、性別や年齢層などの属性の把握補助に貢献し、例えば顔の特徴だけでは年齢等の把握が困難な場合に、これらの特徴情報を合わせて考慮することでより正確な属性把握が可能になる。例えば、着衣や持ち物は年齢層別の流行なども反映するから、10台後半と20台半ばなど、世代の接近した人物の属性を明確化する上で有用である。
また、防犯等を目的とする場合は、人物の体形(肥満、小太り、やせ形、中肉中背、足の長短など)も有用な情報である。この場合、外観特徴情報は人物の体形を反映した体形情報を含むものとして構成できる。
さらに、近年は、歩容(歩き方の特徴)も人物を特定する情報として有用である。この場合、外観特徴情報は人物の歩容を反映した歩容情報を含むものとして構成できる。歩容を特定する情報は、例えば歩幅(あるいは、歩行速度と連動した動きの周波数)、腕の振り角、歩行速度、歩行時の上半身角度や上下方向の揺れなどであり、その1種又は2種以上を組み合わせて使用できる。
動態生成部は、人物歩行動作を細分化したコマデータからなるアバターアニメーションデータを使用するものとして構成でき、背景画像上でアバター画像を歩行動作するアニメーションとしてリアルに表現できる。この場合、動態生成部にて、コマデータの各コマを歩容情報に基づいて補正する画像補正処理を行い、画像合成部はアバター画像を、補正後のコマデータに基づき歩容特徴を反映させたアニメーション形態で背景画像に合成するものとして構成できる。アバターアニメーションデータの各コマの補正処理により、対応する人物の歩容情報反映したアバター画像の動きを容易に実現できる。
また、撮影監視したいエリアが広い場合、1台のカメラでは視野が届かない、あるいは遠方で画像が小さくなり特徴把握できない、という場合が生じる。この場合は、撮影範囲は実空間座標を共有する形で複数のカメラによりカバーすることができる。各カメラは共通のエリアに対し異なるカメラ座標系で撮影を行うが、共同監視するエリアの実空間を同一座標系にて張っておくと、のちに各カメラの撮影情報を統合したい場合に、前述した手法により人物の座標を、その共通の実空間(例えば、GPSなどで取得できるグローバル座標系など)上に変換する処理を行うだけで直ちに統合処理も完了する利点がある。このとき、異なるカメラの視野感を同一人物が移動する場合、その画像の人物の同一性の判定をカメラ間で受け渡す必要が生じるが、この場合、上記の属性情報や外観特徴情報の一致度に応じて人物の同一性を判定するように構成すれば、特定の人物の追跡や、同一人物に同一アバター画像を使用する、といった判断にも容易に利用できる。
また、画像合成部は、複数のカメラの撮影範囲を含む俯瞰画像として合成画像を生成するように構成できる。これによれば、複数のカメラの撮影範囲の全体を一目で把握することができる。
特に、複数カメラでないとカバーできないエリアについて、上記のような俯瞰画像を得るためには、座標情報付加部を次のように構成するとよい。すなわち、複数のカメラの撮影画面上に現れる人物の接地点として識別される位置を撮影接地位置とし、当該撮影設置位置に現れる人物画像領域の撮影画面上の高さを人物撮影高さとして、座標情報付加部は、被写体が人物である場合の実空間における歩行面を高さ方向の基準として、カメラの撮影画面上に設定されるカメラ二次元座標系における平面座標と、実空間三次元座標系における歩行面上の空間座標点との変換関係と、カメラ二次元座標系における撮影接地位置毎の人物の撮影高さと実空間座標系での当該人物の実高さとの変換関係とを含む位置・高さ変換関係情報を取得する位置・高さ変換関係情報取得手段と、撮影画面上にて人物画像の撮影接地位置及び撮影高さを特定する撮影接地位置・高さ特定手段と、特定されたそれら撮影接地位置座標及び撮影高さの情報を、位置・高さ変換関係情報に基づいて実空間における人物の接地位置座標である実接地位置座標情報と実空間における人物の高さを情報である実人物高さ情報とに変換・生成する実人物座標・高さ情報生成手段とを備えたものとして、座標情報付加部を構成する。動態生成部は、生成された実人物高さ情報に基づいてアバター画像の高さ寸法を決定するアバター高さ決定手段を備え、画像合成部は、実空間座標系における複数のカメラが撮影した人物の実接地位置座標情報を俯瞰画像の視点にて座標変換しつつ該俯瞰画像へのアバター画像の合成位置を決定するアバター合成位置決定手段を備えるものとして構成する。
これは、位置・高さ変換関係情報をカメラ側に付随させることで、撮影画面上の人物領域の位置と高さ情報を実空間座標系に変換する前述の構成を応用したものである。人物の画像情報を一旦実空間上の位置・寸法情報に変換してしまえば、俯瞰視点の背景画像にアバター画像を合成したい場合も、その俯瞰背景画像と実空間との変換関係を予め用意しておくことで、俯瞰視点の背景画像上へもアバター画像の合成を容易に行うことができる。
次に、本発明の情報受信装置は、
少なくとも1台のカメラで写した映像内の被写体である人物の画像を人体の部位に相当する複数のパーツに分割し各パーツからから抽出された特徴点を表す特徴情報と、カメラの撮影範囲における被写体の座標情報とを、ネットワークを介して受け取る情報受信部と、
特徴情報に基づいて被写体のアバター画像を生成する動態生成部であって、アバター画像のデータを、身長や体形を標準に設定したときの複数のパーツに対応したアバター断片に分割して記憶するアバター画像データ記憶手段を備え、人物の対応するパーツについて抽出された身長及び体形を含む特徴点の情報に基づいてアバター画像のアバター断片を補正した後、その補正後のアバター断片を統合してアバター画像を生成する動態生成部と、
カメラの撮影範囲の背景を表す画像に、座標情報に基づいてアバター画像を合成することにより、合成画像を生成する画像合成部と、を備えたことを特徴とする。
また、本発明の情報受信側に適用されるコンピュータプログラムは、
少なくとも1台のカメラで写した映像内の被写体である人物の画像を人体の部位に相当する複数のパーツに分割し各パーツからから抽出された特徴点を表す特徴情報と、カメラの撮影範囲における被写体の座標情報とを、ネットワークを介して受け取る情報受信処理と、
特徴情報に基づいて被写体のアバター画像を生成する動態生成部であって、アバター画像のデータを、身長や体形を標準に設定したときの複数のパーツに対応したアバター断片に分割して記憶するアバター画像データ記憶手段を備え、人物の対応するパーツについて抽出された身長及び体形を含む特徴点の情報に基づいてアバター画像のアバター断片を補正した後、その補正後のアバター断片を統合してアバター画像を生成する動態生成処理と、
カメラの撮影範囲の背景を表す画像に、座標情報に基づいてアバター画像を合成することにより、合成画像を生成する画像合成処理とをコンピュータに実行させるものである。
本発明によれば、カメラからの映像を伝送する際に、ネットワークの通信帯域の有効利用を妨げない伝送方式を提供できる。
本発明の第1の実施形態にかかる情報伝送システムの概略構成を示すブロック図。 特徴点抽出部の処理手順を示すフローチャート。 特徴点抽出部が人体を各パーツに分けて特徴を抽出する様子を示す模式図。 特徴点抽出部が人物属性情報を抽出する処理の流れを示すフローチャート。 カメラの撮影範囲に設定された座標系の一例を示す模式図。 背景画像にアバター画像が合成された表示例を示す模式図。 本発明の応用例を示す模式図。 送信側のカメラの連続性が無い場合におけるアバターの表現例を示す模式図。 第2の実施形態にかかる情報伝送システムの概略構成を示すブロック図。 従来の伝送方式を示す模式図。 人物画像領域の差分抽出の概念を説明する図。 背景画像の概念図。 座標情報付加処理の説明図。 図13に続く説明図。 レンズ歪補正の説明図。 座標情報付加処理の流れを示すフローチャート。 画面上の人物画像領域の抽出状態の一例を示す図。 人物画像領域の高さhを、変換係数αを用いて実身長Hに変換する説明図。 人物領域検出処理の流れを示すフローチャート。 歩容特徴情報の抽出概念を示す図。 移動軌跡情報の抽出概念を示す図。 受信部側の情報蓄積の概念を示す図。 アバター画像データベースの概念を示す図。 アバター画像の方向決定に用いる人物移動方向の概念を示す図。 アバター断片図形データの例を示す図。 アバター断片図形を合成してアバター画像を得る例を示す説明図。 アバター画像データをアバターアニメーションデータとして構成する例を示す図。 アバター断片画像データを二次元のベクトル図形データとして構成する例を示す図。 受信部側処理の流れを示すフローチャート。 新規アバター作成処理の流れを示すフローチャート。 アバター背景合成処理の流れを示すフローチャート。 統合モード表示処理の流れを示すフローチャート。 統合表示モードにおける平面視表示形態の一例を示す図。 同じく俯瞰視表示形態の一例を示す図。 三次元アバター画像を表示する例を示す画像。
以下、図面を参照しながら、本発明の具体的な実施形態について詳しく説明する。
(実施の形態1)
まず、図1を参照しながら、本発明の第1の実施形態にかかる情報伝送システム1の構成と動作の概略について説明する。図1は、情報伝送システム1の概略構成を示すブロック図である。情報伝送システム1は、情報伝送システム送信部12(情報送信装置)と、情報伝送システム受信部13(情報受信装置)とを有している。情報伝送システム送信部12と、情報伝送システム受信部13とは、ネットワーク15を介して接続されている。ネットワーク15は、例えばインターネットなどの公共ネットワークであるが、ローカルネットワークなどのプライベートネットワークであっても良い。
情報伝送システム送信部12は、様々な場所に設置された複数のカメラ11(11a,11b・・・)から映像信号を受信し、送信前処理(後に詳述する。)を行ってからネットワーク15へ送出する。なお、図1においては、カメラ11を2台のみ図示しているが、カメラの台数は任意である。カメラ11と情報伝送システム送信部12との間の通信は、有線通信であっても良いし、無線通信であっても良い。
また、情報伝送システム受信部13は、情報伝送システム送信部12からネットワーク15を介して送信された映像信号を受信し、受信後処理(後に詳述する。)を行ってから、モニタ14へ表示させたり、必要に応じて映像記録装置(図示せず)へ録画したりする。
情報伝送システム送信部12は、座標情報付加部121、特徴点抽出部122、複数カメラ連携部123、および、情報送信部124を備えている。座標情報付加部121および特徴点抽出部122は、一つのカメラ11に対して一組ずつ設けられている。例えば、
図1においては、カメラ11aに対して座標情報付加部121aおよび特徴点抽出部122aが設けられ、カメラ11bに対して座標情報付加部121bおよび特徴点抽出部122bが設けられている。
特徴点抽出部122は、カメラ11で撮影された映像信号から人物領域を検出し、さらに、それぞれの人物の外観(例えば、着衣、髪型、体形、持ち物等)についての特徴を抽出する。座標情報付加部121は、カメラ11で撮影されるエリア内の人物の位置を、座標情報として検出する。
ここで、情報伝送システム1は、カメラで撮影した映像信号をそのまま圧縮して伝送する従来の情報伝送システムとは異なり、特徴点抽出部122で得られた特徴情報と座標情報付加部121で得られた座標情報のみを、ネットワーク15を介して伝送する。そして、この特徴情報と座標情報とを受け取った情報伝送システム受信部13側では、それぞれのカメラ11の撮影範囲の背景画像を予め記録しておき、前記の特徴情報に基づいて個々の人物を的確に表すアバターの画像を生成し、前記の座標情報にしたがって、背景画像の適宜の位置にアバター画像を合成する。このようにすることで、撮影された映像信号をそのまま圧縮して伝送する場合と比較して、伝送されるデータ量が少なくて済むので、ネットワークの通信帯域を有効に利用することができる。
なお、情報伝送システム1は、複数のカメラ11と接続されているので、前述のように、カメラ11のそれぞれについて座標情報付加部121および特徴点抽出部122を備えている。このため、複数カメラ連携部123は、座標情報付加部121で得られた座標情報と、特徴点抽出部122で得られた特徴情報とに、複数のカメラ11のうちいずれのカメラの映像信号から得られた情報であるかを示すタグ情報を付与して、情報送信部124へ送る。情報送信部124は、複数カメラ連携部123から得た情報を所定の規格で符号化し、ネットワーク15へ送出する。
情報伝送システム受信部13は、情報受信部131、動態生成部132、および、画像合成部133を備えている。情報受信部131は、ネットワーク15から受信した情報を復号化し、動態生成部132へ送る。動態生成部132は、受信した情報に含まれる特徴情報に基づいて、撮影された人物を表すアバターの画像を生成する。動態生成部132で生成されたアバター画像は、座標情報と共に画像合成部133へ送られる。画像合成部133は、アバター画像と座標情報とに基づいて、それぞれのカメラ11の撮影範囲の背景画像とアバター画像との合成画像を生成し、モニタ14へ表示させる。このとき、どのカメラ11の映像信号から得られた情報であるかを示す前記のタグ情報は、背景画像を特定するために用いられる。
次に、座標情報付加部121の処理について説明する。座標情報付加部121は、それぞれのカメラ11の撮影範囲に対して設定された座標系において、人物がいる位置の座標を特定する。例えば図5に示すように、一つのカメラ11の撮影範囲において、x−y座標系51を設定する。座標情報付加部121は、このx−y座標系51において、特徴点抽出部122が特定した人物領域の座標を検出する。ここで検出された座標は、当該人物のいる位置を表す座標情報として、特徴情報と共に情報伝送システム受信部13へ送られる。
三次元空間内の立体をカメラ映像から特定したい場合、映像は二次元データであるから、一般の立体の空間的な状態を1台のカメラ映像で特定することは原理的にできない。しかし、本発明が対象とする被写体はカメラ11が撮影するエリア内を動き回る人物であり、その空間幾何学的な移動特性を考慮することで、図5に示す単独のカメラ11の画面上の人物画像領域PAの情報から実空間内の人物位置と高さを特定可能である。すなわち、撮影対象となるエリアの人物の空間的な存在範囲は、床面や地面、図5の場合は人物が歩行する路面RSなどであり、要するに高さ方向(z軸方向)の位置が一定の水平面にほぼ限られている点に着目する。この路面RSは、直交座標系にてz軸座標が常に0のx−y平面であり、該路面RS上を歩行する人物の接地点の座標は実質的にx−yの二次元で記述でき、三次元空間内の点でありながら、撮影画面に設定されるカメラ二次元座標系と一義的な対応付けが可能となる。
他方、カメラ二次元座標系は実空間三次元座標系が射影変換されたものに相当し、カメラ光軸方向に隔たった被写体ほど寸法が縮小されて投影される。これは数学的には射影変換行列で記述されるが、実空間座標系での予め知れた種々の位置に基準体を配置してカメラで撮影すれば、その基準体画像の撮影画面上での位置と高さを実空間上の基準体の位置及び実寸と比較することにより、カメラ上の人物の映像位置・高さを実空間上の位置・高さに変換する位置・高さ変換関係情報を得ることができる。その具体例を図13〜図15の説明図及び図16のフローチャートを用いて説明する。
すなわち、カメラの撮影視野SAにおいて、路面RS上に高さが既知の基準体SCを前後左右の種々の位置に配置し撮影を行う。図16のS501では、その基準体の高さHを入力する。すると撮影画面SA上では、これは同一の基準体に由来したものであるにもかかわらず、カメラ11からの距離に応じて異なる寸法の基準体画像SCIとなって現れるので、これを抽出する(S502)。これらの基準体画像SCIは全て同じ路面RS(すなわち、x−y平面(z=0))上にあるので、その下端を表す点(基準点)p1〜p3は実空間においてすべてz=0の接地点である。そこで、この基準点p1〜p3を画面上に設定されたカメラ二次元座標系であるξ−η座標系にて読み取り、基準点の画面座標データp(ξ,η)として記憶する(S503)。なお、画面上のどのエリアが路面RSを表すかについては、路側縁REや路面上の白線WLなどの画像を参考にすることができる。
次に、撮影画面上の映像はカメラレンズの歪の影響を受けるので、実空間の厳密な射影変換画像とはなっておらず、視野内の位置に応じて画像にゆがみが生じていることがある。図15の左に示すように、そのひずみは画面の端に近い領域ほど大きく座標系も非線形化する。例えば、広角レンズなど視野角の大きいレンズでは外向きに凸状の歪となり、逆に望遠レンズなど視野角の小さいレンズでは凹状の歪となる。そこで、この歪を解消し、直交平面座標系の点となるように変換補正を行う(S504)。この時の補正係数は、例えば図13において、画面上に現れている白線WLなど、実空間上で直線であることが予めわかっている図形の形状が直線化するような最適化演算によって定めることができる。なお、この補正により画面の端ほど歪み解消に伴い寸法は伸長するから、補正後の画面形状SA’は元の画面SAの外にはみ出すこととなる。
次いで、図14に示すように、基準体SCの実空間系での座標を決定する。例えば、測量による場合は、カメラ11から路面に設置した基準体SCまでの距離dと、カメラから基準体を見込む線と基準線(例えば、x軸方向)とのなす角度θを測定すれば、
x=d・cosθ
y=d・sinθ
として基準体SCの接地点の実空間座標P(x,y,0)を求めることができる。他方、衛星測位システム(GPS)により座標を直接特定してもよい。なお、ここで用いられる実空間座標系は、それぞれのカメラの撮影範囲内に設定される独立した座標系であっても良いし、衛星測位システム(GPS)から提供されるグローバル座標系と連動していても良い。ただし、後述するが、複数のカメラの撮影範囲を統合して一つの空間を生成する場合は、それぞれのカメラの座標系を連結する必要があり、複数カメラが連携撮影するエリアに対し、統合的な実空間座標を張っておくことが望ましい。また、x−y座標系51を設定する際に、例えばLEDライト等を用いて、キャリブレーションを行うことが望ましい。
次に、基準体画像SCIの画面上の高さhを読み取る(S506)。基準体SCの実高さHは既知なので、基準体画像SCIの高さhを実高さHに変換する係数
α=H/h
を計算し(S507)、画面座標データp(ξ,η)と実空間座標データP(x,y,0)と互いに対応付て記憶する(S508)。以上の処理をすべての基準体SCについて繰り返したのち(S509→S501)、路面RS上にて実測していない主要点でのp,P,αの組を補う処理を行う。この処理は補間データを取得するステップとして行ってもよいし、得られているp,Pの組から射影変換行列の要素を定める処理として行ってもよい。そして、これらの情報が位置・高さ変換関係情報を構成することとなる。
なお、図13に示すように、座標情報の取得には、基準体SCに代えて人物SPを用いてもよい。この場合、被写体となる人物の身長を入力し、その人物がカメラの四隅などを歩くことでカメラ画角と位置情報を学習取得するキャリブレーション方式などを用いてもよい。
次に、特徴点抽出部122による特徴点抽出処理の内容について、図2および図3を参照しながら詳しく説明する。図2は、特徴点抽出部122の処理手順を示すフローチャートである。図3は、特徴点抽出部122が人体を各パーツに分けて特徴を抽出する様子を示す模式図である。
特徴点抽出部122は、対応するカメラ11から所定数のフレームの映像信号を入力すると、図11に示すようにフレームFM間の差分を取ることにより、映像信号に映り込んでいる動物体MOを検出する(図2のステップS11)。具体的には、先行するフレームの画像領域MO’と後続のフレームの画像領域MOとは、画像領域が動物体であればフレーム間で位置や形状が変化するが背景は変化しないので、両フレーム間の画像差分をとれば動物体の画像領域MOを抽出することができる。一方、動物体が存在しない状態で撮影すれば、図12に示すように背景画像BPが得られる。この背景画像BPはカメラごとに撮影され、図1の受信部13に送信されて該受信部13をなすコンピュータがアクセス可能な記憶装置135(本実施形態では外部記憶装置ないし別のコンピュータにて構成された情報蓄積・統計処理部)に格納される。
次に、特徴点抽出部122は、ステップS11で検出した動物体の画像に対して、セグメンテーション、エッジ検出、パターンマッチング等を行うことによって人物領域を抽出し、その動物体が人物か否かを判断する(ステップS12)。なお、映像信号からの動物体検出処理や人物抽出処理については、様々な手法を用いることができ、特定の手法に限定されない。また、映像信号から検出された動物体のうち、そのサイズが比較的小さいものはノイズである可能性が高いので人物ではないと判断し、比較的大きいサイズの領域については人物であるものと判断しても良い。
そして、この人物領域の抽出に随伴して、人物の位置座標と身長を特定する処理がなされる。以下、図17及び図18の説明図と、図19のフローチャートを用いて説明する。まず、図17に示すように、検出された人物領域PAの下端縁位置を接地点pとしてみなし、その画面上の座標p(ξ,η)を読み取り(S1201)、前述の位置・高さ変換関係情報を参照し、物の姿勢により人物領域の高さ方向寸法は変化するので、最も直立状態に近いと思われる人物領域の画像を全そのフレーム内を検索して特定する(S1203)。例えば、歩行中の人物については、両足を開いている姿勢よりは、先に踏み出した足に対し後方に位置する反対側の足を次に踏み出す過程で、先に踏み出したほうの足にほぼ重なるときが直立姿勢に最も近いから、そのようになる画像フレーム上での人物領域を用いて領域の高さhを画面上で測定する(S1204)。そして、図18に示すように、前述の位置・高さ変換関係情報に含まれる変換係数αを用いてこれを実身長Hに変換する(S1205)。
また、特徴点抽出部122は、さらに、各部位の動作を解析する処理(ステップS15)を行うことが好ましい。例えば、頭p1については、頭の動作(動きや向き)が検出される。人体の部位のうち、認識が最も容易であるのは頭であると言われている。最初に頭p1を抽出することで頭の向きが分かれば、他の部位の状態や動く方向等を特定し易い。また、例えば、頭が右を向いている場合、後述のパーツ化において、左手や左足は隠れていて見えない可能性があるという推定を働かせることも可能となる。
例えば、歩行中の人物の動作であれば、動作は歩容情報として解析取得される。この場合、胴体p2の動作としては、例えば、図20に示すように、上半身角度ψなどの姿勢や猫背か否か等が検出される。右手p3・左手p4の動作は、例えば、手の振り各λ等として検出される。右足p5・左足p6の動作としては、例えば、歩速、歩幅WL、ひざ曲げ角などが検出される。ここで検出された歩容等の動作解析情報は、動作解析情報として情報伝送システム受信部13へ送られ、当該人物を表すアバターの動きや向きに反映される。
また、動作の解析情報として重要なのは、人物の移動方向である。図21に示すように、撮影された動画のフレーム別に人物の座標情報P1、P2、・・・Pnが特定された場合、その座標情報P1、P2、・・・Pnの組は当該人物のフレーム間の移動軌跡情報を構成することとなる。そして、隣接するフレーム間の座標Pn、Pn-1の位置ベクトルVn、Vn-1の差Vn−Vn-1は位置Pnでの人物の移動方向を表す指標として使用でき、後述のアバター画像の方向決定にも有効活用される。
次に、特徴点抽出部122は、ステップS12で抽出された人物領域P(図3の(a)参照)を、頭p1、胴体p2、右手p3、左手p4、右足p5、左足p6の6部位(図3の(b)参照)にパーツ化する(ステップS13)。そして、パーツ化された6部位のそれぞれについて、外観的な特徴の解析を行う(ステップS14)。例えば、頭p1については、髪型、髪色、帽子の有無等が特徴点として抽出される。胴体p2については、体形、着衣の形、着衣の色、リュックサックなどの特定の持物の有無等が特徴点として抽出される。右手p3・左手p4についての特徴点は、例えば、体形、着衣の形(あるいは種別)、着衣の色、持物等である。右足p5・左足p6についての特徴点は、例えば、体形、着衣の形(あるいは種別)、着衣の色、靴等である。
なお、パーツ化する際のパーツの数は、6つに限定されない。処理負荷を軽減する目的で、例えば、頭、上半身、および下半身、の3部位に分割することも考えられる。その逆に、よりリアルなアバターを生成するために、6つよりも多い数のパーツに分割することも考えられる。また、ここに挙げた特徴点はあくまでも例示であり、様々な要素を特徴点として抽出すればよい。また、例えば、上述の説明では、髪型と髪色や、着衣の形と着衣の色とを、それぞれ独立した特徴点として抽出するものとしているが、「髪色」および「着衣の色」は、「髪型」および「着衣の形」の付加的データとして扱っても良い。抽出されたパーツごとの特徴点は、特徴データとして出力され、情報伝送システム受信部13へ送られる。
抽出される特徴点(特徴データ)のバリエーションは、後述の通り、情報伝送システム受信部13で生成される当該人物のアバターにおいて、各部位の構成要素(部分画像)のバリエーションに対応する。例えば、髪型の特徴点として「長髪」が抽出された場合は、アバターの頭髪として「長髪」の部分画像が使用される。また、例えば、胴体の横幅が太い人物の場合は、アバターの胴体の部分画像として太い胴体が用いられる。
なお、ステップS11およびS12により、一つのカメラ11の撮影範囲において複数の人物領域が抽出された場合は、ステップS13〜S15の処理は、それぞれの人物領域に対して行われる。そして、得られた特徴情報と動作情報は、個々の人物領域を特定するタグ情報と共に、複数カメラ連携部123へ送られる。
また、特徴点抽出部122が、人物の年齢や性別等の、人物をある程度特定する情報(人物属性情報)をさらに抽出するようにしてもよい。この場合、図4に示すように、特徴点抽出部122は、パーツ化された部位の画像から抽出される特徴量に基づいて、当該人物の年齢や性別を判別する(ステップS23)。例えば、頭p1を捕捉できれば、顔認識技術を利用して、年齢や性別を判別することが可能である。
なお、年齢は、1歳きざみの年齢データとして出力しても良いし、例えば「20歳台」のように年齢ゾーンを表すデータとして出力しても良い。また、ここでは、人物属性情報として性別と年齢を例示したが、人物をある程度特定する情報としては、これ以外に任意の情報を利用できる。例えば、「大人」と「子供」を判別することも考えられる。
上記の場合は、人物を一意に特定するのではなく性別や年齢等で属性付けをするのに対して、顔等の画像と人物の個人情報(氏名等)とが予め登録された人物データベースを利用できる場合には、必要に応じて、頭p1の画像と人物データベースに登録されている顔画像とを照合することにより、個人を一意に特定することも可能である(ステップS24)。これにより、例えば、
(1)犯人逮捕などを目的とする場合は1対1照合
(2)迷子探しなどを目的とする場合は着衣年齢による照合
(3)マーケティング活用などを目的とする場合は大まかな年齢推定のための照合
といった個人識別が可能となる。
次に、図1に戻り、情報伝送システム受信部13においては、情報受信部131が、ネットワーク15から情報を受信して復号化する。復号化された情報には、上述したように、複数のカメラ11(カメラ11a,11b・・・)の映像信号から得られた情報(特徴情報および座標情報)が含まれており、情報蓄積・統計処理部135に記憶・蓄積される。図22は蓄積されている情報の例を示し、前述の特徴情報の一致度から同一と判断される人物に検出IDが振られ、受信の時刻と日付、人物の実空間座標による位置(x座標及びy座標)、歩き方(歩容)、体格、身長、頭髪の色、上半身の着衣の色、下半身の着衣の色、顔の特徴情報、性別、年齢などの抽出データと対応付けて順次記憶されておる。また、日付やID部分は#1、#2等に省略して表現しているが、上半身及び下半身の服装の種別(形態)、帽子の有無、持ち物などの情報も対応付けられている。さらに、歩容のデータは、歩幅WL、腕振り角λ、上半身角ψ、膝曲げ角δ、一歩周期τなどを含むものとなっている。
以下、受信部側の処理について説明する。
動態生成部132は、受け取った特徴情報に基づいて、各人物のアバター画像を生成する。すなわち、特徴情報には、前述したように、人物のパーツごとの特徴を表す特徴データが含まれている。動態生成部132は、この特徴データのそれぞれに対応するアバターの部分画像を予め記憶したデータベース(図1の情報蓄積・統計処理部135内に形成されているものとするが、ネットワーク上の別の記憶装置やサーバであってもよい)にアクセス可能である。例えば、ある人物の頭p1の特徴データとして「長髪」が含まれる場合は、長髪の部分画像を上記データベースから取得する。動態生成部132は、人物の各パーツの特徴データに基づいてアバターの部分画像を組み合わせることにより、当該人物のアバター画像を生成する。
図23は、そのデータベースの構築例を概念的に示すものである。このデータベースには、身長や体形を標準に設定したときの上半身及び下半身の着衣、髪型、持ち物等からなる、アバター構成要素となるアバター断片図形データが含まれている。アバター構成要素ごとに各アバター断片図形データは、カメラからの視点による人物の見え方(カメラに対する向き)が反映されるように、実空間における人物の移動方向に応じて異なる表現形態に構成されている。本実施形態では、図24に示すように、カメラ11に対する人物Pの向きを8方向(J1〜J8)に定め、図3で説明した人体パーツp1〜p6に対応する形で分割されたアバター断片図形データ(上半身着衣ではp2〜p4、下半身着衣ではp5、p6)が、該8方向における見え方に対応して各々8通り(v1〜v8:引数はJ1〜J8に対応)ずつ用意されている。また、靴や頭髪、持物は分割されないが、これも8通りずつ用意されている。
図25の左は、図24における方向v7が指定されたときのアバター断片図形データの選択例を、同じく右は方向v1が指定されたときのアバター断片図形データの選択例を示すものである。上半身についてはTシャツが、下半身についてはジーンズが選択され、図23のデータから、方向v7及びv1に対応するものがそれぞれ選択されている。図26はそれらを合成して得られるアバター画像AV7及びAV1である。なお、顔については、抽出された顔特徴情報を反映した輪郭や人相のものをその都度方向別に合成するようにしているが、性別や年齢に応じて標準的な顔(ないし頭部)の画像を用意しておいてもよい。
また、アバター画像データ(あるいはアバター断片図形データ)は、図27に示すように、物歩行動作を細分化したコマデータの集合からなるアバターアニメーションデータとして構成されている。図27の例では、右足を踏み出して着地するまでの複数コマ(ここではAFM1〜4の4コマ)と、左足を踏み出して着地するまでの4コマ(AFM5〜8)の2歩分1周期を8コマのアニメーションで表現している。図23に示すように、少なくとも下半身着衣と上半身着衣については、アバター断片図形データの種別ごとにこの8コマのデータが用意されている。
そして、各アバター断片の画像データは、図28に示すように、二次元のベクトル図形データとして構成されている。該ベクトル図形データは図形外形線を特定する頂点座標をベクトルで周回連結したものであり、一次変換変形処理を施すと、頂点座標もその一次変換を表す行列演算に従って移動し、移動後の点を再びベクトル連結することで、図形の拡大や縮小、回転などの変形処理を簡単に実行することができる。そして、そのベクトルで囲まれた図形の内部はベクトル線を基準とした内外判断により着色領域が特定され、指定の色にて領域内の画素をラスタライジングすることにより、図22の特徴情報が規定する色情報を最終的なアバター画像VDRに容易に反映させることができる。
図29は、受信部側の処理の流れを示すフローチャートである。
まず、ネットワークを介して送られてくる人物IDと動作情報(座標点)及び特徴情報を受信する(S601)。次に、受信した座標情報Pを、複数のカメラが共有する実空間座標上にプロットする(S602)。そして、前後のフレームにおける人物の座標Pの位置変化から人物の歩行方向ベクトルを演算するとともに、図24の8つの方向J1〜J8から、その歩行方向ベクトルの向きに最も近いものを選択してアバター画像の配置方向として決定する(S603)。
別のカメラの視野から着目しているカメラの視野に初めて入ってきた人物については、すでにID特定されてアバター画像を作成済みの場合があるから、受信したIDに対応するアバターの作成履歴を検索する(S604)。S605でアバター作成の履歴がない場合は、時刻・位置・特徴が、予め定められた条件で一致する人物がデータベース上にあるかどうかを検索する(S606)。S607で該当人物がなければ新規アバター画像の作成処理となる(S610)。
図30は、新規アバター作成処理の詳細を示すもので、S601で特徴データに含まれる髪型、服装、持ち物及びそれらの色を特定する。次に、S6102で、特定された特徴に対応するアバター断片図形のうち、決定されたアバター画像配置方向(J1〜J8のいずれか)に対応するもの(図23のv1〜v8のいずれか)を読み出す。次に、S6103では、特徴データに含まれる身長・体形・歩容情報によりアバター断片図形を補正し、S6104で指定された色にアバター断片図形を着色する。最後にS6105で各アバター断片を合成することによりアバター画像データが完成する。
図29に戻り、S605でアバター作成の履歴があった場合はS609に進み、対応するIDのアバター画像データをデータベースから読みだして再利用する。一方、S607で該当人物があった場合は、受信した人物IDを該当する人物のIDで更新し、S609に進んで同様の処理となる。
動態生成部132で生成された各人物のアバター画像は、それぞれの人物の座標情報と共に、画像合成部133へ送られ、アバター・背景合成処理となる(S611)。画像合成部133は、それぞれのカメラ11の撮影範囲の背景画像を予め記憶したデータベース(情報蓄積・統計処理部135内)にアクセス可能である。画像合成部133は、それぞれのカメラ11の背景画像を上記データベースから取得し、動態生成部132で生成されたアバター画像と合成する。合成画像はモニタ14へ出力される。このときに、アバター画像を配置する位置は、当該アバターの人物の座標情報に基づく。また、画像合成部133は、特徴点抽出部122で得られた動作解析情報(人物の動きや向きを表すデータ)に基づいて、アバターの向きを変えたり、アバターが動く速さを調整したりすることができる。なお、情報伝送システム送信部12からの伝送を、特徴点抽出部122および座標情報付加部121や、動態生成部132および画像合成部133が処理可能な範囲で、できるだけ高いフレームレートで行うことにより、カメラ11の映像信号をほぼリアルタイムにモニタ14へ表示させることができる。
図31は、アバター背景・合成処理の流れを示すものである。まず、S61101では、特定されたID及び方向に対応するアバター画像データを読み出す。このアバター画像データはアニメーションを構成するコマデータの集合であり(図27)、移動する座標点Pの速度と歩幅に合わせて、アバターアニメーションンのコマを動画再生のフレームに割り振る(S61102)。
合成映像の表示形態であるが、この実施形態では、カメラ11の撮影画面と同じ視野での表示モード(カメラ実映像モード)と、複数カメラの統合表示モードのいずれかを選択できるようになっている。このモード選択は、図1にて情報伝送システム受信部13に接続された入力部(キーボードやタッチパネルで構成される)により切り替えが可能である。カメラ実映像モードが選択された場合はS61104に進み、同時表示するすべてのアバターの位置座標P(x, y, 0)を、対応するカメラの実空間視野領域にプロットする。S61105では、プロットされた位置座標Pとともに実空間視野領域を、対応するカメラの座標系に射影変換する。
ここで、位置座標Pの決定に使用したカメラ二次元座標系は、すでに説明したごとく、レンズ歪を考慮して、図15左の状態から右の状態へと一旦補正されている。この場合、補正前の座標系で視野の全体が出力画面に収まるようになっていたものが、補正後は視野の端の領域がモニタ(図1:符号14)の画面からはみ出ており、単純に射影変換しただけでは、カメラの撮影画像を直接見る場合と比較して、歪補正した分だけ画像が変化して違和感を生じるほか、視野の端に写り込んでいた人物のアバター画像を表示できなくなる場合もある。そこで、図31のS61106では、射影変換画像に元のレンズ歪の影響を復活させるための逆歪補正を施し、視野の形状を元に戻す。これにより、上記の不具合は解消されることとなる。
そして、S61107では、マッピングされた人物座標位置Pとともに、射影変換及び歪逆補正を経てカメラ二次元座標系に戻された出力平面上に、選択されている背景映像を重ね合わせ(S61107)、変換後の(カメラ二次元座標系による)各位置pに、上記のごとく寸法及び向きを調整されたアバター画像データを貼付け、合成する。
なお、図1のモニタ14の画面は、分割することにより複数のカメラ11の映像信号を同時に表示しても良いし、モニタ14の画面を切り替え操作することにより、複数のカメラ11のうちのいずれかの映像信号のみを表示するようにしても良い。
一方、S61104で統合表示モードが選択されている場合はS1000に進み、統合モードでの表示を行う。図32はその詳細を示すフローチャートであり、S1001では、同時表示するすべてのアバターの位置P(x, y, 0)及び方向を、複数カメラが共有する実空間にプロットする。そして、S1002では、前後のフレームにおける人物位置座標Pを重ね合わせて動線軌跡データを作成する。本実施形態では、図33のような平面視による表示形態と、図34のような俯瞰視による表示形態のいずれかから選択できるようになっている。
平面視を選択した場合はS1004に進み、図33に示すように、予め用意された平面視背景画像PBPを貼付ける。そして、アバター画像AVを、平面視背景画像上にプロットし表示する。この場合、平面視用のアバター画像を別に用意してもよいし、アバターを横方向に表示して特徴情報を把握しやすくしてもよい。そして、動線表示が指定され場合は、前述の動線軌跡データに基づいて、対応するアバター画像AVの動線画像MLを表示する。
一方、S1003で俯瞰視を選択した場合はS1006に進み、俯瞰角度及び方向に応じてアバターの実空間位置、方向及び動線データを射影変換し、S100で俯瞰視の場合の背景画像を重ね合わせる。背景画像については、俯瞰視用の撮影画像を用意して用いてもよいし、三次元背景画像データ(例えば三次元コンピュータグラフィックス(CG)データ)を用意して射影変換により俯瞰視化してもよい。S1008で、射影変換後のアバターの方向に対応するアバター画像を読み出し、図34に示すように、俯瞰視背景画像PBPS上に貼付けアバター画像AVSを貼りつける。この場合も、動線表示が指定され場合は、前述の動線軌跡データに基づいて、対応するアバター画像AVSの動線画像MLSを表示する。
なお、アバター画像データは三次元アバター画像データを用い、アバター画像を、図35に示すように、三次元CG画像として表示するようにしてもよい。この場合、アバター画像は最初から三次元化されたアバターオブジェクトとして用意されるので、指定された方向への配置や回転も三次元的に自由に設定できる。この場合、画像合成部133(図1)は、配置方向が決定された実空間上の三次元のアバターオブジェクトを背景画像の二次元座標系に射影変換することにより二次元アバター画像データを生成し、該二次元アバター画像データに基づくアバター画像を背景画像と合成する処理を行う。
以上説明したごとく、カメラ11の映像信号から人物の特徴点と位置座標とを抽出し、抽出されたデータのみを伝送することにより、従来のように映像信号をそのまま圧縮して伝送する場合に比べて、ネットワーク15の帯域を有効に利用することができる。また、モニタ14に人物の映像がそのまま映されるのではなく、擬人化(アバター化)された状態で表示するので、街頭の防犯カメラのように不特定多数の人物を撮影する場合に、プライバシーを侵害しないという利点がある。例えば、図5に示した撮影画像中の人物は、図6に示すようなアバターとしてモニタ14に表示される。また、それぞれのアバターは、映像から抽出された特徴情報に基づいて、それぞれの人物の特徴を表すデザインになっているので、どのような人物が撮影範囲内にいるのかを把握することができる。
また、上述の実施形態において、カメラ11の映像信号から人物の特徴情報や座標情報を取得し、さらには、その人物の動きや向きを表す動作解析情報や、年齢・性別等の人物属性情報を取得する例を説明した。このような情報を利用して、様々な応用例が考えられる。例えば、図7に示すように、上記の情報を画像合成部133において処理加工し、モニタ14に複数の画面を表示するようにしても良い。図7の例では、モニタ14に、実映像空間画面81、特徴量再現画面82、統計空間画面83、動線解析空間画面84、個人識別空間画面85が並べて表示されている。或いは、アバターを見ながら必要に応じて実映像をストリーミングするといった方法でもよい。また送信側で顔を認識した時にその顔のキャプチャーを送信側で録画しておき、受信側からの要求でアバターと紐付された顔画像を受信側の要求により受け取ることができるように構成してもよい。
実映像空間画面81は、複数のカメラ11からの映像信号を、人物をアバターに置き換えた状態で表示する画面である。図7の例では、実映像空間画面81は4つに分割され、
4台のカメラ11からの映像信号を同時に表示しているが、カメラの台数はこれに限定されない。
特徴量再現画面82は、複数台のカメラ11からの映像を表示する画面であり、人物がアバターに置き換えられ、かつ、背景画像もグラフィック表示にしたものである。なお、
図7の例では、複数台のカメラ11からの映像を三次元的に統合して、特徴量再現画面82が生成されている。すなわち、複数個所に設置された複数台のカメラで撮影した映像を組み合わせて、俯瞰画像として特徴量再現画面82を構成する。例えば、図7に例示した特徴量再現画面82は、駅構内(ホームと改札口周辺)とその周辺の店舗の様子を表す画面である。この例では、例えば、駅のホームの設置カメラ、改札口周辺の設置カメラ、および、複数の店舗のそれぞれに設置されたカメラ、からそれぞれ取得された映像信号を用いる。一台のカメラでこの全ての領域を撮影することは不可能であるが、複数個所に設置された複数台のカメラで撮影された映像を三次元的に組み合わせることにより、このような俯瞰画像的な画面を構成することができる。
また、カメラの映像信号から抽出された動作解析情報には、人物の向きや動いている方向についての情報が含まれている。この情報を利用して、実際の人物の向きに合うようにアバターを配置することにより、特徴量再現画面82において群衆の動きが把握しやすくなるという利点がある。このような特徴量再現画面82を構成することにより、複数個所に設置されたカメラの映像を統合的に見ることができ、より広い範囲の状況をリアルタイムに監視することが可能になる。また、実映像空間画面81と同様に、人物がアバターに置き換えられているので、プライバシーを侵害しないという利点がある。また、それぞれのアバターは、映像から抽出された特徴情報に基づいて、それぞれの人物の特徴を表すデザインになっているので、どのような人物が撮影範囲内にいるのかを把握することが可能である。
統計空間画面83は、様々な統計結果を表示する画面である。例えば、あるカメラの撮影範囲内にいる人の数の推移をグラフで表すことができる。あるいは、人物属性情報に基づいて、撮影範囲内にいる人を、性別や年代別にグラフで表しても良い。また、析空間画面84は、ある人物(アバター)に着目して、その人物がカメラの撮影範囲でどのように移動したかを動線で表示するものである。これは、ある人物(アバター)の座標情報を時系列で取得することにより可能である。さらに、個人識別空間画面85は、撮影範囲にいる人物の人物属性情報を表示する。図7の例では、それぞれの人物のアバター画像の顔部分と、性別と年齢とが表示されている。
また、実映像空間画面81、特徴量再現画面82、統計空間画面83、および動線解析空間84は、GUI(グラフィカルユーザインタフェース)機能を有していることが好ましい。例えば、この特徴量再現画面82において、表示されているアバターの一つを、マウス等のポインティングデバイスを用いて選択すると(図7では、アバター82a)、このアバターで表されている人物の人物属性情報が、個人識別空間画面85でハイライト表示される。この例では、アバター82aの人物属性情報である「男、35歳」が、個人識別空間画面85においてハイライト表示されている。また、これとは逆に、個人識別空間画面85において、いずれかの人物属性情報を選択すると、特徴量再現画面82において、選択された人物属性情報に対応するアバター画像がハイライト表示されるようにしても良い。また、特徴量再現画面82においていずれかのアバターを選択すると、そのアバターの移動経路が、動線解析空間画面84に表示されるようにしても良い。
図8は、送信側のカメラの連続性が無い場合におけるアバターの表現例を示す模式図である。本実施形態では送信側のカメラの連続性が無い場合、受信側でアバターの確認ができない場合も想定しなければならない。その対処法としては、例えば図8(A)に示す統合レイヤーの図に示すように、カメラAでとらえた特徴量を通行先にあるカメラBで確認できた時に受信アバターに着色する、一方、図8(B)に示すように、受信側でアバターの確認ができない時は受信アバターを着色しない状態のアバター(デフォルトアバター)のままにして、両者を区別して表現しつつ、いずれの場合もカメラ間の動作は移動速度により計算し特徴量再現空間などに三次元画像を投射するという方法が考えられる。
このように、カメラの映像信号から抽出された特徴情報、座標情報、人物属性情報、動作解析情報等を情報伝送システム受信部13側で様々に用いることにより、統合的な防犯カメラシステム等を実現することが可能になる。
(実施の形態2)
本発明の実施の形態2にかかる情報伝送システム2について説明する。なお、(実施の形態1)で説明した構成と同様の機能を有する構成については、同じ参照符号を付記し、
重複した説明は行わない。
図9は、情報伝送システム2の概略構成を示すブロック図である。図9に示すように、
情報伝送システム2は、カメラ11が一台である点において、複数のカメラ11a,11b・・・を備えた情報伝送システム1(第1の実施形態)と異なっている。このため、情報伝送システム2は、座標情報付加部121と特徴点抽出部122とを一組だけ備え、複数カメラ連携部123を備えていない。なお、座標情報付加部121および特徴点抽出部122、ならびに他の処理部の動作については、第1の実施形態と同様である。このように、一台のカメラ11の映像信号のみから情報を抽出して伝送するシステムも、本発明の一実施形態に含まれる。
また、上述の実施の形態1において、情報伝送システム送信部12および情報伝送システム受信部13のそれぞれは、独立した装置(カメラコントローラ)またはコンピュータやサーバとして実現することができる。ブロック図に表された座標情報付加部121等の各部は、これらの装置において、メモリに記録されたプログラムをプロセッサが実行することにより、実現することができる。また、実施の形態2の情報伝送システム送信部22は、カメラ11と一体化された装置として実現することもできる。
また、このように、ハードウエアとして本発明を実施する形態の他に、汎用のコンピュータやサーバで実行されるプログラムまたはこれを記録した媒体としても、本発明を実施することができる。
1、2 情報伝送システム
11 カメラ
12 情報伝送システム送信部
13 情報伝送システム受信部
14 モニタ
15 ネットワーク
121 座標情報付加部
122 特徴点抽出部
123 複数カメラ連携部
124 情報送信部
131 情報受信部
132 動態生成部
133 画像合成部

Claims (22)

  1. 少なくとも1台のカメラで写した映像内の被写体である人物の画像を、人体の部位に相当する複数のパーツに分割し、各パーツから特徴点を抽出して特徴情報として出力する特徴点抽出部と、
    前記カメラの撮影範囲における被写体の座標情報を取得する座標情報付加部と、
    前記特徴情報および前記座標情報をネットワークへ送出する情報送信部と、
    前記ネットワークから前記特徴情報および前記座標情報を受け取る情報受信部と、
    前記特徴情報に基づいて被写体のアバター画像を生成する動態生成部であって、前記アバター画像のデータを、身長や体形を標準に設定したときの複数の前記パーツに対応したアバター断片に分割して記憶するアバター画像データ記憶手段を備え、前記人物の対応する前記パーツについて抽出された身長及び体形を含む前記特徴点の情報に基づいて前記アバター画像の前記アバター断片を補正した後、その補正後のアバター断片を統合して前記アバター画像を生成する動態生成部と、
    前記カメラの撮影範囲の背景を表す背景画像に、前記座標情報に基づいて前記アバター画像を合成することにより、合成画像を生成する画像合成部とを備えたことを特徴とする情報伝送システム。
  2. 前記座標情報付加部は、撮影画面上に現れる前記被写体をなす人物の接地点として識別される位置を撮影接地位置とし、当該撮影接地位置に現れる人物画像領域の撮影画面上の高さを人物撮影高さとして、前記座標情報付加部は、被写体が人物である場合の実空間における歩行面を高さ方向の基準として、前記カメラの撮影画面上に設定されるカメラ二次元座標系における平面座標点と、実空間三次元座標系における前記歩行面上の空間座標点との変換関係と、前記カメラ二次元座標系における前記撮影接地位置毎の前記人物の撮影高さと前記実空間座標系での当該人物の実高さとの変換関係とを含む位置・高さ変換関係情報を取得する位置・高さ変換関係情報取得手段と、前記撮影画面上にて前記人物画像の前記撮影接地位置及び撮影高さを特定する撮影接地位置・高さ特定手段と、特定されたそれら撮影接地位置座標及び撮影高さの情報を、前記位置・高さ変換関係情報に基づいて前記実空間における前記人物の接地位置座標である実接地位置座標情報と前記実空間における人物の高さを情報である実人物高さ情報とに変換・生成する実人物座標・高さ情報生成手段とを備え、
    前記動態生成部は、生成された前記実人物高さ情報に基づいて前記アバター画像の高さ寸法を決定するアバター高さ決定手段を備え、
    前記画像合成部は、前記実接地位置座標情報に基づいて前記背景画像への前記アバター画像の合成位置を決定するアバター合成位置決定手段を備える請求項1記載の情報伝送システム。
  3. 前記特徴点抽出部が、さらに、前記被写体の動きまたは向きを解析して動作解析情報として出力し、
    前記情報送信部が、さらに、前記人物属性情報をネットワークへ送出し、
    前記画像合成部が、前記動作解析情報に基づいて前記アバター画像の動きまたは向きを調整する請求項2に記載の情報伝送システム。
  4. 前記カメラは動画撮影可能なものであり、
    前記座標情報付加部は撮影された動画のフレーム別に前記被写体をなす人物の座標情報を取得するものであり、
    前記特徴点抽出部は、前記人物の前記座標情報の前記フレーム間の移動軌跡情報を前記動作解析情報として出力するものである請求項3記載の情報伝送システム。
  5. 前記画像合成部は前記移動軌跡情報に基づいて、前記背景画像上に合成する前記アバター画像の向きを調整するものである請求項4記載の情報伝送システム。
  6. 前記動態生成部は、前記カメラからの視点による当該人物の見え方が反映されるように、前記実空間における前記人物の移動方向に応じて異なる表現形態のアバター画像を生成するものである請求項5記載の情報伝送システム。
  7. 前記動態生成部は、前記実空間における前記人物の、予め定められた複数の移動方向別に前記表現形態が互いに異なる複数の二次元アバター画像データを記憶する方向別二次元アバター画像データ記憶手段を備え、前記先行する前記フレームについて取得されている前記移動軌跡情報に基づいて前記人物の移動方向を推定するとともに、方向別の前記二次元アバター画像データから、推定された前記移動方向に適合するものを選択するものであり、
    前記画像合成部は、選択された二次元アバター画像データに基づくアバター画像を前記背景画像と合成する請求項6記載の情報伝送システム。
  8. 前記動態生成部は、前記アバター画像のデータを三次元アバター画像データとして記憶する三次元アバター画像データ記憶手段を備え、該三次元アバター画像データに基づいて三次元アバターオブジェクトを生成するとともに、前記先行する前記フレームについて取得されている前記移動軌跡情報に基づいて前記人物の移動方向を推定し、推定された前記移動方向を向くように前記三次元アバターオブジェクトの前記実空間上への配置方向を決定するものであり、
    前記画像合成部は、配置方向が決定された前記実空間上の前記三次元アバターオブジェクトを前記背景画像の二次元座標系に射影変換することにより二次元アバター画像データを生成し、該二次元アバター画像データに基づくアバター画像を前記背景画像と合成する請求項6記載の情報伝送システム。
  9. 前記画像合成部が、前記移動軌跡情報に基づいて前記人物の動線を表す画像を生成する請求項4ないし請求項8のいずれか1項に記載の情報伝送システム。
  10. 前記特徴点抽出部は、前記被写体の人物属性を解析して人物属性情報として出力するものであり、
    前記情報送信部は、前記人物属性情報を前記ネットワークへ送出するものである請求項1ないし請求項9のいずれか1項に記載の情報伝送システム。
  11. 前記動態生成部は前記アバター画像を、前記人物属性情報を反映したものとして生成する請求項10記載の情報伝送システム。
  12. 前記人物属性情報は前記人物の性別を反映した性別情報と前記人物の年齢を反映した年齢情報とを含むものである請求項10又は請求項11に記載の情報伝送システム。
  13. 前記特徴点抽出部は、前記被写体の人物の外観を解析して外観特徴情報として出力するものであり、
    前記情報送信部は、前記外観特徴情報を前記ネットワークへ送出するものである請求項1ないし請求項12のいずれか1項に記載の情報伝送システム。
  14. 前記動態生成部は前記アバター画像を、前記外観特徴情報を反映したものとして生成する請求項13記載の情報伝送システム。
  15. 前記外観特徴情報は前記人物の頭髪の形態及び色彩の一方又は双方を反映した頭髪情報と、前記人物の着衣の形態及び色彩の一方又は双方を反映した着衣情報と、前記人物の持ち物の形態及び色彩の一方又は双方を反映した持ち物情報の1以上のものを含むものである請求項14記載の情報伝送システム。
  16. 前記外観特徴情報は前記人物の体形を反映した体形情報を含むものである請求項14又は請求項15記載の情報伝送システム。
  17. 前記外観特徴情報は前記人物の歩容を反映した歩容情報を含むものである請求項14ないし請求項16のいずれか1項に記載の情報伝送システム。
  18. 前記動態生成部は、人物歩行動作を細分化したコマデータの集合からなるアバターアニメーションデータを使用するものであり、前記コマデータの各コマを前記歩容情報に基づいて補正する画像補正処理を行い、
    前記画像合成部は前記アバター画像を、補正後の前記コマデータに基づき前記歩容特徴を反映させた動画形態で前記背景画像に合成する請求項17記載の情報伝送システム。
  19. 前記画像合成部が、複数の前記カメラの撮影範囲を含む俯瞰画像として前記合成画像を生成する請求項1ないし請求項18のいずれか記載の情報伝送システム。
  20. 前記撮影範囲は実空間座標を共有する形で複数の前記カメラによりカバーされてなり、
    前記座標情報付加部は、複数の前記カメラの撮影画面上に現れる人物の接地点として識別される位置を撮影接地位置とし、当該撮影接地位置に現れる人物画像領域の撮影画面上の高さを人物撮影高さとして、前記座標情報付加部は、被写体が人物である場合の実空間における歩行面を高さ方向の基準として、前記カメラの撮影画面上に設定されるカメラ二次元座標系における平面座標と前記実空間の三次元座標系である実空間座標系における前記歩行面上の空間座標点との変換関係と、前記カメラ二次元座標系における前記撮影接地位置毎の前記人物の撮影高さと前記実空間座標系での当該人物の実高さとの変換関係とを含む位置・高さ変換関係情報を取得する位置・高さ変換関係情報取得手段と、前記撮影画面上にて前記人物画像の前記撮影接地位置及び撮影高さを特定する撮影接地位置・高さ特定手段と、特定されたそれら撮影接地位置座標及び撮影高さの情報を、前記位置・高さ変換関係情報に基づいて前記実空間における前記人物の接地位置座標である実接地位置座標情報と前記実空間における人物の高さを情報である実人物高さ情報とに変換・生成する実人物座標・高さ情報生成手段とを備え、
    前記動態生成部は、生成された前記実人物高さ情報に基づいて前記アバター画像の高さ寸法を決定するアバター高さ決定手段を備え、
    前記画像合成部は、前記実空間座標系における複数の前記カメラが撮影した前記人物の前記実接地位置座標情報を前記俯瞰画像の視点にて座標変換しつつ該俯瞰画像への前記アバター画像の合成位置を決定するアバター合成位置決定手段を備える請求項19に記載の情報伝送システム。
  21. 少なくとも1台のカメラで写した映像内の被写体である人物の画像を人体の部位に相当する複数のパーツに分割し各パーツからから抽出された特徴点を表す特徴情報と、前記カメラの撮影範囲における被写体の座標情報とを、ネットワークを介して受け取る情報受信部と、
    前記特徴情報に基づいて被写体のアバター画像を生成する動態生成部であって、前記アバター画像のデータを、身長や体形を標準に設定したときの複数の前記パーツに対応したアバター断片に分割して記憶するアバター画像データ記憶手段を備え、前記人物の対応する前記パーツについて抽出された身長及び体形を含む前記特徴点の情報に基づいて前記アバター画像の前記アバター断片を補正した後、その補正後のアバター断片を統合して前記アバター画像を生成する動態生成部と、
    前記カメラの撮影範囲の背景を表す画像に、前記座標情報に基づいて前記アバター画像を合成することにより、合成画像を生成する画像合成部とを備えたことを特徴とする情報受信装置。
  22. 少なくとも1台のカメラで写した映像内の被写体である人物の画像を人体の部位に相当する複数のパーツに分割し各パーツからから抽出された特徴点を表す特徴情報と、前記カメラの撮影範囲における被写体の座標情報とを、ネットワークを介して受け取る情報受信処理と、
    前記特徴情報に基づいて被写体のアバター画像を生成する動態生成部であって、前記アバター画像のデータを、身長や体形を標準に設定したときの複数の前記パーツに対応したアバター断片に分割して記憶するアバター画像データ記憶手段を備え、前記人物の対応する前記パーツについて抽出された身長及び体形を含む前記特徴点の情報に基づいて前記アバター画像の前記アバター断片を補正した後、その補正後のアバター断片を統合して前記アバター画像を生成する動態生成処理と、
    前記カメラの撮影範囲の背景を表す画像に、前記座標情報に基づいて前記アバター画像を合成することにより、合成画像を生成する画像合成処理とをコンピュータに実行させるコンピュータプログラム。
JP2017564647A 2016-03-08 2017-03-08 情報伝送システム、情報受信装置、およびコンピュータプログラム Expired - Fee Related JP6357595B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016044793 2016-03-08
JP2016044793 2016-03-08
PCT/JP2017/010290 WO2017155126A1 (ja) 2016-03-08 2017-03-08 情報伝送システム、情報送信装置、情報受信装置、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2017155126A1 JPWO2017155126A1 (ja) 2018-06-14
JP6357595B2 true JP6357595B2 (ja) 2018-07-11

Family

ID=59790440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017564647A Expired - Fee Related JP6357595B2 (ja) 2016-03-08 2017-03-08 情報伝送システム、情報受信装置、およびコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP6357595B2 (ja)
WO (1) WO2017155126A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017141454A1 (ja) * 2016-05-13 2017-08-24 株式会社日立製作所 混雑解析装置、混雑解析方法および混雑解析プログラム
CN110619807B (zh) * 2018-06-20 2022-12-02 北京京东尚科信息技术有限公司 生成全局热力图的方法和装置
JP7127592B2 (ja) * 2019-03-27 2022-08-30 オムロン株式会社 報知システム
CN111274910B (zh) * 2020-01-16 2024-01-30 腾讯科技(深圳)有限公司 场景互动方法、装置及电子设备
JP7439556B2 (ja) * 2020-02-14 2024-02-28 オムロン株式会社 画像処理装置、画像センサ、画像処理装置の制御方法
JP7017596B2 (ja) * 2020-03-17 2022-02-08 本田技研工業株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP7319637B1 (ja) 2022-05-30 2023-08-02 株式会社セルシス 情報処理システム、情報処理方法および情報処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3835771B2 (ja) * 1996-03-15 2006-10-18 株式会社東芝 コミュニケーション装置及びコミュニケーション方法
JP5040844B2 (ja) * 2008-07-31 2012-10-03 カシオ計算機株式会社 撮影装置、撮影方法及びプログラム
JP5783629B2 (ja) * 2011-07-08 2015-09-24 株式会社ドワンゴ 映像表示システム、映像表示方法、映像表示制御プログラム、動作情報送信プログラム
JP5834193B2 (ja) * 2014-02-05 2015-12-16 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP6531341B2 (ja) * 2014-03-10 2019-06-19 ソニー株式会社 情報処理装置、サーバ、記憶媒体、および制御方法
JP6312512B2 (ja) * 2014-04-23 2018-04-18 博司 佐久田 遠隔見守りシステム

Also Published As

Publication number Publication date
JPWO2017155126A1 (ja) 2018-06-14
WO2017155126A1 (ja) 2017-09-14

Similar Documents

Publication Publication Date Title
JP6357595B2 (ja) 情報伝送システム、情報受信装置、およびコンピュータプログラム
US10757373B2 (en) Method and system for providing at least one image captured by a scene camera of a vehicle
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
US10855936B2 (en) Skeleton-based effects and background replacement
JP2019009752A (ja) 画像処理装置
CN110515452B (zh) 图像处理方法、装置、存储介质和计算机设备
JP4473754B2 (ja) 仮想試着装置
JP3512992B2 (ja) 画像処理装置および画像処理方法
US7304649B2 (en) Object region data describing method and object region data creating apparatus
US20190208177A1 (en) Three-dimensional model generating device and three-dimensional model generating method
US20160342861A1 (en) Method for Training Classifiers to Detect Objects Represented in Images of Target Environments
JPH0877356A (ja) 三次元多眼画像の処理方法及び処理装置
CN105556508A (zh) 虚拟镜子的装置、系统和方法
US11494963B2 (en) Methods and systems for generating a resolved threedimensional (R3D) avatar
JP4695275B2 (ja) 動画像生成システム
CN107016730A (zh) 一种虚拟现实与真实场景融合的装置
Cui et al. Fusing surveillance videos and three‐dimensional scene: A mixed reality system
JP2002056392A (ja) 物体領域情報記述方法、物体領域情報生成装置、及び物体領域情報記述プログラム
GB2571307A (en) 3D skeleton reconstruction from images using volumic probability data
Diaz et al. Region dependent mesh refinement for volumetric video workflows
Malerczyk et al. 3D reconstruction of sports events for digital TV
US11076097B2 (en) Method for street view service and apparatus for performing same method
Sankaranarayanan et al. Modeling and visualization of human activities for multicamera networks
Yang et al. Ego-downward and ambient video based person location association
WO2023145478A1 (ja) データ処理装置およびデータ処理方法、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171211

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180112

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180503

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6357595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees