JP6419749B2 - 撮影システムおよび画像や映像の表示方法 - Google Patents

撮影システムおよび画像や映像の表示方法 Download PDF

Info

Publication number
JP6419749B2
JP6419749B2 JP2016075843A JP2016075843A JP6419749B2 JP 6419749 B2 JP6419749 B2 JP 6419749B2 JP 2016075843 A JP2016075843 A JP 2016075843A JP 2016075843 A JP2016075843 A JP 2016075843A JP 6419749 B2 JP6419749 B2 JP 6419749B2
Authority
JP
Japan
Prior art keywords
image
privacy
unit
unmanned
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016075843A
Other languages
English (en)
Other versions
JP2017188771A (ja
Inventor
拓也 生澤
拓也 生澤
功 竹安
功 竹安
雅哉 江藤
雅哉 江藤
藤野 剛
剛 藤野
小山 徳章
徳章 小山
昭行 谷沢
昭行 谷沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016075843A priority Critical patent/JP6419749B2/ja
Publication of JP2017188771A publication Critical patent/JP2017188771A/ja
Application granted granted Critical
Publication of JP6419749B2 publication Critical patent/JP6419749B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明の実施形態は、撮影対象内にプライバシー情報が含まれ得る撮影システムおよび画像や映像の表示方法に関する。
公共施設や人が集まる場所で撮影された画像や映像内には、プライバシー情報に属する人物の顔や体形そしてその所有物や服装が含まれる場合が多い。そしてその画像や映像に対して不特定多数者の閲覧が可能な場合は特に、個人のプライバシー保護を配慮する必要が有る。
所で上記画像や映像内の人物の顔や服装の特徴から、個人の特定やその人物の所属団体の特定が可能となる。従って個人や所属団体のプライバシー保護の観点から、撮影された画像や映像からの人物特定や所属団体の特定を困難にする技術が求められている。
特開2009−194687号公報 特開2004−62560号公報
撮影された画像や映像に処理を施してプライバシー保護する技術として特許文献1では、画像内の顔の場所を検出し、顔又はその背景の画像領域にモザイク・ぼかし・塗り潰し等のプライバシーマスク処理を施している。また特許文献2でも画像内の顔の場所を検出し、顔画像部のみにモザイク処理を施すと共に、顔以外の服装や所持品では鮮明な画像表示を行っている。
そしていずれの先行技術でも、顔画像位置の検出技術が共通に採用されている。ここで一般的に用いられる顔画面位置検出技術では、撮影された画像や映像内の顔のパーツ(目、鼻、口、眉毛、耳など)形状間の配置関係を利用する場合が多い。
すると上記顔画像位置検出技術では、例えば前面に配置された障害物で顔の一部が隠された場合には顔画像と認識されず、顔の一部が鮮明画像の状態で表示される危険性が有る。従って上述した従来技術では、画像や映像の内容に拠ってはプライバシー保護機能が不充分な場合が発生する。
そのため撮影された画像や映像の内容に拠らず、安定したプライバシー保護を可能とする撮影システムおよび画像や映像の表示方法の提供が求められる。
本実施形態における撮影システムとしては、撮影された原画像内のプライバシー情報に関係する領域をプライバシー加工し、プライバシー情報を含まない無人画像領域とで合成して表示もしくは送信する。
また本実施形態における画像や映像の表示方法としては、撮影された原画像内のプライバシー情報に関係する領域内はプライバシー加工後の画像を表示し、無人画像領域内は原画像を表示する。
そしてその結果として、顔の一部しか表示されない原画像領域内もプライバシー情報に関係する領域内と認識され、プライバシー加工された画像が表示される。
従来技術の課題例説明図。 撮影された原画像内の領域説明図。 無人画像の生成方法の一例説明図。 プライバシー情報に関係する領域抽出法の一例説明図。 プライバシー加工された画像の生成方法一例の説明図。 本実施形態で表示または送信される画像の表示形態例説明図。 プライバシー情報に関係する領域内の動きを表現した応用例説明図。 プライバシー情報に関係する領域内の重なり部を表現した応用例。 プライバシー情報に関係する領域内で体範囲の色を変更した応用例。 本実施形態における撮影システム内構成の説明図。 通信経路を経由した本実施形態における撮影システム説明図。 通信経路を経由した撮影システムの応用例説明図。 撮影システム内で実行されるプログラム内アーキテクチャ説明図。 無人画像を生成する流れを示すフローチャート説明図。 送信/表示する画像の生成までを示すフローチャート説明図。 移動情報履歴に関する管理情報の一例を示すデータ構造説明図。 画像履歴に関する管理情報の一例を示すデータ構造説明図。 混雑履歴に関する管理情報の一例を示すデータ構造説明図。
以下、図面を参照しながら実施形態を説明する。従来技術を用いて画像に対してプライバシー保護をした場合の問題点に付いて、上記に説明した。さらに図1を用い、上述した問題点を具体的に説明する。
図1(a)は、撮影された原画像の例10を示す。ここでは撮影された原画像10内に、人物2、4、6が表示されている。特に撮影された原画像内人物4が持つ棒などの障害物(棒など)の影響で、撮影された原画像内人物6の顔の一部が隠されている。
撮影された原画像10(図1(a))に対して人物範囲検出22を行った結果を、図1(b)に示す。ここで人物範囲検出22を行った部分を四角枠で示している。
従来技術のように顔画面位置検出技術のみを用いて人物範囲検出22を行うと、撮影された原画像内人物6の顔の一部が隠されているため、撮影された原画像内人物6は人物として認識されない。
プライバシー加工(画像に対するプライバシー保護対策)の一例として、人物として認識された検出範囲にぼかし加工24を施した後の画像を図1(c)に示す。上記のように撮影された原画像内人物6が人物として認識されないため、その人の顔画像が鮮明に表示されてしまう。従って従来技術のように顔画面位置検出技術のみを用いたプライバシー保護対策では不充分となる事が分かる。
撮影された画像や映像を本実施形態では複数領域に分割し、その中の特定の領域に対してプライバシー加工を施す。なお本実施形態に対する説明の便宜上、以下では画像に特化した説明を行う。しかし本実施形態では下記に限らず、映像に関しても同様な実施形態が適用されても良い。本実施形態における領域毎の定義を、図2を用いて説明する。
図2に示す撮影された原画像30に対し、プライバシー情報が含まれない領域を無人画像領域34と呼ぶ。他方では撮影された原画像30内で個人もしくは団体のプライバシー情報に関係する画像が含まれる領域をプライバシー情報に関係する領域38と呼ぶ。図2の例では、原画像30内に4人の人物が映っている。この4人の人物が表示された領域(画像内領域)と彼らに関係した物品(所持品など)や生物(例えば運搬中の植物やペットなどの動物)が表示された領域をプライバシー情報に関係する領域38と呼び、無人画像領域34と分離識別する。
ここでプライバシー情報に関係する領域38内に含まれる人物とは、直近での特定可能な個人に限らず、不特定多数者も含まれる。仮に撮影直後は個人の特定が不可能な不特定多数者でも、この画像をネットワーク経由で別の不特定多数者に閲覧された時に個人を特定される危険性が有る。
また任意な人物や組織・団体の全ての帰属品が撮影/表示された領域を、本実施形態でのプライバシー情報に関係する領域38に含めても良い。例えば原画像30に映らない人物の帰属品(携行品や所有物)が一時的に撮影現場に放置されて原画像30内に映った領域も、プライバシー情報に関係する領域38に含めても良い。なぜなら親しい人が鞄や帽子、メガネなどの愛用品を見れば所有者(帰属相手)の予想が付き、プライバシー情報に関係する。
所でプライバシー情報に関係する任意な組織や団体の帰属品として国旗や旗章、徽章に限らず、そこに所属する人物の着用品(服や帽子、靴など)や所持品(組織・団特有の鞄や携行品など)も含まれる。
上記の無人画像領域34には、
(1)無人状態で撮影された同一撮影現場の画像領域
(2)所定時間内で変化しない画像領域
(3)人物やその帰属品と認識/推定されない画像領域
などの特徴が有る。ここで上記の所定時間とは、1分から1ヶ月の範囲内、望ましくは1時間から1週間の範囲内を意味する。無人状態での撮影現場でも、ポスターの貼り替えや無料雑誌設置場所での在庫変化などで撮影された原画像30が変化する。従ってそれらの画像変化期間を考慮して、上記所定時間の範囲が決まる。
一方では撮影された原画像30内で上記の無人画像領域34に含まれない全ての領域を、プライバシー情報に関する領域38と見なしても良い。
本実施形態ではプライバシー情報が含まれない無人画像32(図3(c)を用いて後述)を事前に生成する。そしてその無人画像32を参照して、撮影された原画像30内のプライバシー情報に関係する領域38を抽出する。それに拠り原画像内人物2、4、6の一部が重なる(顔の一部が隠される)状況が生じても、プライバシー加工後の画像内では顔(の一部)が鮮明に表示される事が無い。すなわち上記の表示方法を採用する事で、撮影された画像や映像の内容に拠らずに安定したプライバシー保護が可能となる。
本実施形態では上述した無人画像領域34の特徴を利用し、図3(c)に示す無人画像32を生成する。すなわち上記(1)の特徴である“同一撮影現場での無人状態を撮影”する方法として例えば、夜中とか夜明け前などの人通りの無い時間帯で現場を撮影し、無人画像32を取得しても良い。
また他の無人画像32生成方法として、原画像30の撮影時刻に近い時間帯に無人画像32を生成する方法に付いて図3を用いて説明する。まず始めに上記(2)に記載した“所定時間内で変化しない”特徴のみを利用して無人画像32を生成する方法例を示す。
図3(a)は人通りがある時間帯に撮影された原画像30を示している。人通りがある時間帯に撮影されたため、原画像30内には4人の移動人物42、44,46,48が映っている。ここで図3(a)のみの原画像30では、移動人物42,44,46,48の後ろに隠れている無人画像32の情報(図3(c)に示す画像)は得られない。
次に、それよりも少し後に撮影された原画像36を図3(b)に示す。図3(a)に対して図3(b)では移動人物42,44,46,48がそれぞれ移動した後で撮影されるため、図3(a)内では隠されていた(無人画像32に対応した)部分の画像が見えている。その特徴を利用して、移動人物42,44,46,48が居無い時の無人画像32(図3(c))の生成が可能となる。
所で図3(a)と図3(b)の原画像30と36間で異なる画像が表示された(すなわち両者間で画素値の差の絶対値が大きい)領域内には、“移動人物42,44,46,48のプライバシー情報に関係する画像”と“無人画像32内の移動人物42,44,46,48の裏に隠された画像”のいずれかが映っている。図3には図示して無いが、図3(b)よりも更に後に撮影された原画像も利用すると“無人画像32内の移動人物42,44,46,48の裏に隠された画像”のみが抽出し易い。
すなわち撮影時刻を互いにずらして収集した3枚の原画像内の2枚の共通画素位置では、無人画像32の一部が映っている場合が多い。従って画素位置毎に画素値の多数決を取ると、無人画像32に対応した画像の抽出確率が向上する。
ここでは撮影時刻が互いに異なる3枚の原画像を用いて無人画像32を生成する方法を説明した。しかしそれに限らず、4枚以上の原画像を用いて無人画像32を生成しても良い。そして4枚以上の原画像を用いる事で、無人画像32内の画素の抽出精度が向上する効果が有る。
所で図3に示した無人画像32の生成方法では、移動人物42,44,46,48の中で極端に移動速度の遅い人物が含まれている場合に完全な無人画像32が得られない場合が生じる。この様な場合には移動人物42,44,46,48の影に隠れた部分に対して画像補間処理を行う事で、生成された無人画像32の精度を向上させても良い。
今までは撮影時刻が異なる複数の原画像30、36を用いて無人画像32を生成する方法を説明した。しかし本実施形態ではそれに限らず、例えば図2に示す1枚のみの原画像30に対して画像解析を行い、人物やその帰属品あるいは動物が含まれないと推定される領域を無人画像領域34と判定しても良い。
また図3に示した無人画像32の生成方法において、必ずしも原画像30を撮影するカメラ(図8の撮像部112)は撮影現場に固定される必要は無い。例えば移動可能なカメラ(撮像部112)を用いて無人画像32を生成しても良い。ここで移動可能なカメラ(撮像部112)で無人画像32を生成する場合には、撮影現場で特定時間の間だけ移動可能なカメラ(撮像部112)を手で保持する事になる。最近は移動可能なカメラ(撮像部112)内に手振れ補正機能が備わっているため、カメラ(撮像部112)が多少揺れていても静止した画像を正確に収集することが可能となる。
原画像30を撮影する現場内で、ポスターの張り替えや特定設備の設置/除去などレイアウト変更が激しい場所が有る。その場所で無人画像32生成時刻と原画像30を撮影時刻との乖離が激しい場合、張り替えられたポスターや配置換えした特定設備などに関する不要な画像までもプライバシー情報に関係する領域38と誤検知される可能性が高い。従って図3に示した無人画像32生成方法を採用する事で、無人画像32生成時刻と原画像30を撮影時刻との時間間隔を短くできる効果が有る。
標準的にはポスターなどは1〜2週間で張り替えられる場合が多いので、上記の時間間隔を1週間以内に設定する事が望ましい。またポスターを張り替える曜日や特定設備のレイアウト変更を実施する曜日は場所に拠り異なる。従って上記の時間間隔を1週間以内に設定しても、無人画像32生成日の翌日にポスターやレイアウトの変更が行われる危険性が高い。多くの場合、ポスターの張り替えやレイアウト変更は混雑時に行われる可能性が低い。従って無人画像32生成時刻と原画像30を撮影時刻との時間間隔を1日以下に設定しても良い。しかし所定の柱や壁に持ち帰り自由なパンフレット設置場所が存在する場合には、上記時間間隔を1日以下に設定してもプライバシー情報に関係する領域38の誤検知が生じ易い。従ってこのような場所では、上記時間間隔を2時間以下に設定するのが望ましい。
無人画像32の他の生成方法として、前述した(3)の“画像内の人物領域や人物の帰属品領域を推定”する技術を組み合わせても良い。上述したように図3(a)と図3(b)の原画像30と36間で異なる画像が表示された領域内には、“移動人物42,44,46,48のプライバシー情報に関係する画像”と“無人画像32内の移動人物42,44,46,48の裏に隠された画像”のいずれかが映っている。そして画像解析技術を利用して、無人画像32に含まれる画像成分を選択しても良い。
すなわち人物や動物の画像には、(頭部と胴体、足(や手)から構成される)共通した形状が含まれる。また鞄やリュックサックなどの特定人物の帰属品も(直方体や台形柱などの)特徴的な形状を有する。従って上記の人物や動物、あるいはその帰属品に特徴的な形状が含まれない画像を無人画像32に含まれる画像成分と推定して選択しても良い。
上述したように本実施形態では、無人画像32に対する複数の生成方法が許容される。また本実施形態では唯一の無人画像32を生成するだけで無く、上述した複数の生成方法で同時に複数の無人画像32を生成しても良い。
上記方法で生成した無人画像32を参照して、プライバシー情報に関係する領域38を抽出する方法を図4Aに示す。最も簡単な抽出方法として、撮影された原画像30(図4A(a))と無人画像32(図4A(b))との間の差分(図4A(c))を算出しても良い。またそれに限らず無人画像32を参照する方法として、両者の画像に対して何らかの編集を行った後に比較しても良いし、両者の比較時に何らかの演算処理を施しても良い。
さらに図4Aに対する他の応用例として本実施形態では、原画像30内の領域毎にプライバシー情報に関係する確率を算出し、その算出結果に基付いてプライバシー情報に関係する領域38を抽出しても良い。例えば後述するように図8の人物確率分布計測部160内では、プライバシー情報に関係する領域38内での特徴的な形状や時間変化を抽出し、抽出された領域毎に人物確率の値を算出する。
これと同じように図4A(a)の原画像30(及び図3(b)の少し後に撮影された原画像36)内の全ての領域から特徴的な形状や時間変化(図5(b)の移動情報88)を抽出する。次にパターンマッチング手法などで、人間や動物の体形あるいは(鞄やリュックサックなどの)人物の帰属品形状との一致度を検出してプライバシー情報に関係する確率を算出する。またそれと並行して時間変化に応じた輪郭形状変化(移動情報88あるいはその詳細情報)と予め記憶したライブラリーデータとの一致度を検出してプライバシー情報に関係する確率に加味する。更に顔面内構成部品(目や鼻、口、髪、耳)の形状間の配置関係を調べて顔面との一致度を調べてプライバシー情報に関係する確率に加味しても良い。
このように算出したプライバシー情報に関係する確率が所定の判定値を超える領域をプライバシー情報に関係する領域38と見なして抽出しても良い。ここで所定の判定値を50%(望ましくは70%)に設定すると、プライバシー情報に関係する領域38に対する高い抽出精度が確保できる。
このプライバシー情報に関係する確率の算出と算出結果の判定及びプライバシー情報に関係する領域38の抽出を、上記の人物確率分布計測部160内で行っても良い。
このように抽出されたプライバシー情報に関係する領域38を用いてプライバシー加工された画像40の生成方法を図4Bに示す。すなわち撮影された原画像30(図4B(a))の中で、プライバシー情報に関係する領域38(図4B(b))に該当する領域のみにプライバシー加工を施す(図4B(c))。
図4B(c)ではプライバシー加工された画像40として、ぼかし処理が施されている。しかしそれに限らず他のプライバシー加工方法として、モザイク処理、塗りつぶし、形状変化、色調変化、濃度変化などの変化を加えても良いし、全く異なる画像に変換(置換)しても良い。
例えば形状変化によりプライバシー加工する具体例として、例えばマッチ棒のように横方向の幅のみを狭くしても良い。例えば混雑場所では移動人物42〜48間が重なり、プライバシー加工後の画像の閲覧者に取って撮影された人数の把握が難しい場合が有る。そのような混雑場所を撮影した原画像30に対してプライバシー情報に関する領域38の横方向の幅のみを狭くする事で、閲覧者が人数を把握し易い効果が有る。また本実施形態では無人画像32自体は加工されないため、プライバシー情報に関する領域38の横方向の幅のみを狭くしても閲覧者に与える違和感を最小限にできる効果も有る。
図6を用いて後述するように本実施形態では、プライバシー情報に関する領域38内で人物が映っている領域のみを予測抽出できる。そのため人物が映っている領域に対する画像の変換(置換)例として、人物を猫やパンダなどの動物あるいは自動車や飛行機などの他の画像に変換(置換)しても良い。プライバシー加工後の画像に対する不特定多数の閲覧者が撮影現場の混雑状況のみに興味が有る場合、プライバシー加工された人物画像は余り興味を持たない。一方猫やパンダなどの小動物の画像に興味を抱く女性や自動車や飛行機などのメカニカルに興味を抱く少年は多い。従って上記のように画像変換(置換)する事で、閲覧者に好感を与えると共に興味を持って貰える効果が生じる。
上記の閲覧者に表示もしくは送信する画像の作成方法を図4Cに示す。図4Bを用いて上述した方法で得られたプライバシー加工された画像40(図4C(a))を事前に収集された無人画像32(図4C(b))に重ねる事で図4C(c)に示す画像を生成できる。この場合には無人画像32の上部層(手前側)にプライバシー加工された画像40を重ねる。このように重ねる操作の段階でプライバシー加工された画像40自体にある程度の透明度を持たせて背景の無人画像32が見えるようにさせても良い。例えば撮影現場が移動人物42〜48で非常に混雑している場合、背景の無人画像32が見え辛く、閲覧者にとって撮影現場の識別が難しくなる。上記のように透明度を持たせて背景の無人画像32が見えると、どんなに混雑しても閲覧者が撮影現場を識別し易くなる効果が生じる。
上記に説明した本実施形態での画像の表示方法に対する応用例を図5〜図7を用いて説明する。
プライバシー情報に関係する領域38に対するプライバシー加工方法として上記のモザイク処理、ぼかし、塗りつぶし、形状変化、色調変化、濃度変化や画像変換(置換)に限らず、プライバシー情報に関係する領域38自体の移動情報も同時に持たせる方法を図5に示す。
図5(a)の原画像例82内では、左側の人物が左から右に向かって移動し、右側の人物がしゃがむ(すなわち下に沈む)行動を行っている。この場合には時系列的に原画像82を収集し、時間のずれに応じたプライバシー情報に関係する領域38の移動を検出して人物の移動方向を抽出できる。
上記の方法で抽出した移動情報例88を図5(b)内の矢印で示す。そしてその移動情報88を用いて原画像82全体をプライバシー加工した例52を図5(c)に示す。この図5(c)の例では、移動情報88を用いる前のプライバシー加工方法として“ぼかし”を掛けている。しかしそれに限らず、上述した任意の方法でプライバシー加工を行っても良い。
上記のプライバシー加工に上記の移動情報88を加味する方法として図5(c)の例では、所定時間前に撮影したプライバシー情報に関係する領域38内の画像を重ねて表示している。また重ねて表示する時の透明度にグラデーションを掛け、移動方向が見や易い工夫もなされている。すなわち図5(c)に示すように、撮影した画像の古い順に透明度を高くする事で、移動人物の移動方向が見易くなっている。
さらに図5(c)から分かるように、重ねて表示した所定時間前の人物位置との“ずれ量”に拠り、移動速度を表現しても良い。すなわち左側人物では“ずれ量”が大きく、比較的高速で移動している様子が分かる。一方では右側人物の“ずれ量”は小さく、ゆっくり移動している様子が分かる。
このように過去に撮影した画像の一部を重ね表示する事で人物の移動方向と移動速度が表現でき、人物の移動状況を閲覧者(不特定多数者)が容易に把握できる効果が有る。所で移動人物の移動方向と移動速度の表示方法として上記に限らず、任意の他の方法を使用しても良い。例えば移動の速度と方向を、長さの異なる矢印で示しても良い。
また移動人物の移動速度に応じて、移動人物を表示する色を変化させても良い。一般的に青系色よりも赤系色の方が目立つ特徴が有る。従って移動速度が速くなるに応じて、変換色を青系色から赤系色に変えても良い。また移動する方向に応じて変換色を濃く表現しても良い。このように色変化や濃度変化で移動人物の移動方向と移動速度を変化させた場合には、過去に撮影した画像の一部を重ね表示する必要が無くなり、プライバシー情報に関係する領域38を狭く表現できる効果が有る。
所で図5(d)は、図4Aで説明した方法で抽出されたプライバシー情報に関係する領域例54を示す。また図5(e)は、図3で説明した方法で生成した無人画像56の例を示す。そして図5(d)を利用して図5(c)と図5(b)を合成して生成した図が図5(f)に相当する。この図5(f)で生成された画像が送信/表示する画像58として不特定多数者に閲覧される。
例えば撮影現場が混雑状態に有り、複数人物が重なった状態でプライバシー情報に関係する領域38が構成されている場合の表示例を図6に示す。すなわち図6(a)が示す原画像例84では、右側で2名の人物が重なって撮影されている。この原画像84をプライバシー加工すると図6(b)の全体をプライバシー加工した例62に示すように、全体的に均一にぼけた画像が生成される。但し図示して無いが、プライバシー加工の強さ(たとえば“ボケ量”の強さ)が異なる複数のプライバシー加工後の画像62を準備しておく。
所で図8の人物確率分布計測部160を用いて後述するように、抽出されたプライバシー情報に関係する領域64内での領域毎の人物らしさの確率を推定算出する。その結果として図6(c)に示すように、プライバシー情報に関係する領域64内で異なる人物確率分布に対応した領域分割がなされる。ここでは右側で重なって撮影された2名の中で後ろ側の人物の体形輪郭の一部(あるいは顔面の一部)が、前側の人物で隠されている。その結果として後ろ側の人物が映っている領域内では、人物確率が低くなっていると見なす。
図6(c)の情報を用い、図6(b)で得られた複数のプライバシー加工後の画像62と図6(d)に示す無人画像66と重ねた結果を図6(e)に示す。図6(e)で表示するように、プライバシー情報に関係する領域64内で人物らしさ(人物確率)が低い領域の透明度を高めるとともに、プライバシー加工の強度(例えば“ぼかし量”)を大きくさせる。
このようにプライバシー情報に関係する領域64内の人物らしさ(人物確率)の低い領域の透明度を上げるもしくは非表示とする(あるいはプライバシー加工の強度を大きくさせる)事で、不必要な画像領域の表示を制限できる。その結果としてプライバシー情報に関係する領域64内の人物らしい(人物確率の高い)領域の表示を相対的に際立たせ、不特定多数の閲覧者に対して見易い画像を提供できる効果が生まれる。
特に図6(e)の画像と従来技術を使用して得られる図1(c)とを比較すると明らかなように本実施形態の表示方法を利用すると、障害物などにより一部が隠された人物に対するプライバシー保護機能(図1(c)では顔が鮮明に表示されるのに比べ、図6(e)では非表示状態となっている)が格段に改善される。
図7ではプライバシー情報に関係する領域74内の領域位置により表示方法(プライバシー加工方法)を変える応用例を示している。
不特定多数者に特定人物の画像が公開された場合、その特定人物の顔(頭部)を認識されて個人特定される危険性が高い。そのため顔(頭部)の表示領域にプライバシー加工(モザイク、塗りつぶし、ぼかし、色変換、濃度変換、形状変換や別画像への置換等)を施すことで、個人特定が困難となる。
一方では、顔を除いた体の表示領域を認識する事で、その人物が所属する組織や団体が特定され易い特徴が有る。例えば中学生や高校生が着用している制服の形状や色から、部活動から帰宅途中の生徒が通う中学校名や高校名が推察できる。従って撮影された原画像86内で例えば服の色もしくは形状を変える事で、その人物が所属する組織や団体の特定を困難にする。
上記状況に対応して後述する図8内の頭範囲検出部152と体範囲検出部154を利用し、図7(c)で抽出されたプライバシー情報に関係する領域74内の頭範囲と体範囲を個別に自動認識しても良い。その認識結果に基付き図7(b)や(e)では、服の色や形状を変化させている。
本実施形態における原画像86に対するプライバシー加工方法では、モザイク、塗りつぶし、ぼかし、色変換、濃度変換、透明度変化、形状変換や別画像への置換など多種多様な加工方法を許容する。そして図7(e)に示す応用例では、同一人物内の(顔面を含む)頭部と頭部以外の体領域内の少なくとも一部(例えば着衣部など)で異なる方法によってプライバシー加工された画像が送信または表示される。ここで頭部以外の体(もしくは着衣部などの体の一部)と異なるプライバシー加工を施す“頭部”とは、必ずしも頭部全体の必要は無く、例えば顔面や髪形など頭部の一部でも良い。更に異なるプライバシー加工例として、例えば“ぼかし量”を変えるなどのプライバシー加工の強度を変えても良い。
上記の頭部と頭部以外の体領域(の少なくとも一部)で異なるプライバシー加工を行う具体例を以下に説明する。頭部(あるいは顔面や髪形など頭部の一部)の領域に行うプライバシー加工例として、強力にモザイクやぼかし、塗りつぶしを行って個人特定を難しくしても良いし、また頭部のみを猫や犬などの動物の頭または乗り物に変換して女性や子供の閲覧者に好感を与えても良い。一方頭部以外の体領域(の少なくとも一部)に行うプライバシー加工例としては、モザイクやぼかし、塗りつぶしなどの処理を軽度に行うと共に、着衣部や帽子の色や形状を変化させて所属組織や団体の特定を困難にしても良い。
上記のように個人特定を困難にするために頭部(または顔面や髪形)に施す最適なプライバシー加工方法と、その人物が所属する組織や団体の特定を困難にするために頭部以外の体(の一部)に施す最適なプライバシー加工方法は異なる場合が多い。従って図7(e)に示す送信または表示する画像では、頭部(または顔面や髪形)と頭部以外の体(の一部)でのプライバシー加工方法を個別に最適化している。その結果として個人特定と組織・団体の特定を同時に困難にし、プライバシー保護機能を高める効果が生まれる。
上述した本実施形態のおける画像や映像の表示方法について、再度まとめて記載する。撮影された原画像30(図2)と送信/表示する画像例68、78(図6(e)、図7(e))は共に、プライバシー情報を含まない無人画像領域34、66、76とプライバシー情報に関係する領域38、64、74に領域分割(分離)できる。そしてプライバシー情報に関係する領域38、64、74内でプライバシー加工された後の画像例68、78が送信/表示される。
ここで事前に生成された無人画像領域32(図3(c))を参照して、撮影された原画像30内のプライバシー情報に関係する領域38が抽出される。その結果として、人物の顏の一部しか映っていない画像に対しても安定にプライバシー加工が行われる効果が有る。上記の説明を別の角度から眺めると、本実施形態のおける送信/表示する画像例68、78内にはプライバシー情報を含まない無人画像領域66、76とプライバシー加工後の画像領域を含んでいると言える。また前記プライバシー加工後の画像領域内にはプライバシー情報が含まれ、更に前記プライバシー情報として人物の顏の一部が含まれ得ると言える。
今まで説明した図2〜図7の表示方法を実現する撮影システムの構造を図8に示す。撮像部(カメラ)112で撮影された原画像30は、画像加工部104内で加工生成された後、画像送信部120から表示部122へ向けて送信される。また上記の画像加工部104内に、無人画像生成部130とプライバシー加工部116及び画像合成部118が含まれる。
上記無人画像生成部130内では、撮影された原画像30を用いてプライバシー情報を含まない無人画像32(図3(c))を生成する。一方でプライバシー加工部116は撮影された原画像30内のプライバシー情報に関係する領域38(図2)の中に存在する画像に対してプライバシー加工を行う。また、画像合成部118では、前記プライバシー加工部116で生成されたプライバシー加工された画像40(図4B(c))と前記無人画像32とを合成する。
図3を参照しながら、図8の撮影システム内で無人画像32を生成する方法の説明を行う。撮影現場で得られる原画像30は、撮像部(カメラ)112によって撮影される。そしてその原画像30は画像/画像取得部114を経由して画像蓄積部132に転送された後、画像履歴保存部134内に保存される。
無人画像生成部130では画像履歴保存部134内に保存された原画像30(図3(a))と、それより後に撮影された原画像36(図3(b))と比較する。そして無人画像32(図3(c))内の原画像30の人物42〜48の後ろに隠れた領域を抽出する。前述したように、無人画像生成部130内で使用する画像は図3(a)と図3(b)に示した2枚の画像だけでなく、その時間的な前後に撮影された複数枚の画像を用いて無人画像32を生成することができる。また動きが遅い移動人物のために無人画像32の一部が生成できない場合には、自動補間処理を実施する。
所で前述したように前記無人画像生成部130では、作成方法の異なる無人画像(1)32−1と無人画像(2)32−2を同時に生成しても良い。その具体例としては、画像合成部118に転送される無人画像(1)32−1は(夜中とか夜明け前などの)人通りの無い時間帯で現場を撮影して取得される。一方では頭範囲抽出部152や体範囲抽出部154、人物確率分布制御部160で使用される無人画像(2)32−2は、人通りがある時間帯に撮影された原画像30、36(図3での説明内容参照)から生成される。このように同時に作成方法の異なる複数の無人画像(1)32−1と無人画像(2)32−2を作成し、使用目的に応じて最適な無人画像(1)32−1と無人画像(2)32−2を送信する事で非常に精度と表現力の高い画像を送信/表示できる効果が生まれる。
すなわち送信/表示する画像68内ではプライバシー保護の観点から、鮮明な人物が表示される事は強く禁止される。また人通りの無い時間帯で現場を撮影して無人画像(1)32−1を取得する段階で、無人画像(1)32−1内に人物が映らない状況を撮影者が確認できる。従ってその無人画像(1)32−1を使用して作成した送信/表示する画像68内でプライバシー情報に関係する画像を含ま無い状況を保証できる。
一方で人通りの無い時間帯で取得した無人画像(1)32−1と原画像30(図4A(a))との間での撮影時刻の乖離が激しいと、撮影時刻の違いによって発生した不必要な影などの影響で、プライバシー情報に関係する領域38(図4(c))の抽出精度が低下する。そのため頭範囲抽出部152や体範囲抽出部154、人物確率分布制御部160で使用される無人画像(2)32−2の撮影時刻は、原画像30の撮影時刻に近い方がプライバシー情報に関係する領域38のの抽出精度が向上する。
上記の無人画像(2)32−1を参照して、無人画像生成部130から出力される撮像部112から画像取得部114を経て転送される原画像30内のプライバシー情報に関係する領域38を抽出する(図4Aを用いた説明内容参照)。
さらに図6の応用例の場合には、プライバシー情報に関係する領域38内の領域毎に人物らしさ(人物確率)を評価し、人物らしい(人物確率が高い)領域と人物らしくない(人物確率が低い)領域間でプライバシー加工方法を変化させる。そのために必要な人物確率が、人物確率分布計測部160内で算出される。
前記人物確率分布計測部160内では、プライバシー情報に関係する領域38内での領域毎の形状とその時間変化(に基付く形状変化)を利用して人物確率が算出される。すなわち直立状態の人物は、最上部に頭、次に胸、腹、足の順番に配置されている。従って前記人間の体形とプライバシー情報に関係する領域38内の各領域の外形をパターンマッチング手法を用いて一致度を算出する。すなわち人間の体形に形状を有した領域では、人物確率が高いと見なす。一方で人物は両足を動かして移動すると共に両腕を動かして移動する。従ってプライバシー情報に関係する領域38の輪郭形状の時間変化に応じた変化状態が足の動きや手の動きに合致した領域では、人物確率が高いと見なす。他方で形状変化しないまま移動する領域に関しては、鞄などの人物の所有物や車と見なし、人物確率の値を小さくする。
プライバシー加工の方法としては、ぼかし、モザイク、塗りつぶし、他の生き物への形状変化や縦横比率を変化させる形状変化、もしくは形状変化、色彩変化、明度変化等を行うが前記プライバシー加工部116で行うプライバシー情報に関係する領域の加工は一種類ではなく、複数種類のプライバシー加工方法が使用できる。そして、図4Cで説明したように、画像合成部118でプライバシー加工された画像40と無人画像32が合成される。この画像合成に先立ち、人物確率分布計測部160内でプライバシー情報に関係する領域38内の領域毎の人物確率が算出される。そしてその領域毎に算出された人物確率値に基づき、前記複数種類のプライバシー加工された画像40の中から最適画像が選択されて合成される。その結果として、人物らしさに応じて異なるプライバシー加工された画像(図6(e))が表示される。
頭範囲検出部152では、抽出されたプライバシー情報に関係する領域38内での特徴的な形状の抽出がなされる。人物の頭部は顔面領域と髪形領域から構成される。また上記顔面領域内では目や鼻、口、眉毛(と耳)がそれぞれ固有の形状を形成しながら所定位置に配置される。これらの各領域の配置状況をパターンマッチング手法などを用いて抽出する事で、プライバシー情報に関係する領域38内での頭部の範囲を検出する。
例えば図3(b)の移動人物44など小さく映った人物では顔面内での目や鼻、口、眉毛(と耳)の配置関係の解析は難しい。このような場合には縦に細長い人体形状を抽出し、その上部が頭部に該当すると推定しても良い。
体範囲検出部154でも同様に、抽出されたプライバシー情報に関係する領域38内での特徴的な形状の抽出がなされる。そして予め準備した人体形状との間のパターンマッチング処理等により、人体領域を推定する。
このように頭範囲検出部152と体範囲検出部154で推定(検出)された頭部とこの頭部以外の体領域を抽出する。そしてその抽出結果を利用して頭部と頭部以外の体領域で異なるプライバシー加工を施す(図7(e))。
図5(f)に示す人の動きを表現する画像58は、画像履歴保存部134及び移動情報抽出部136、移動情報の履歴保存部138、移動情報集計部140を利用して作成する。画像取得部114から画像蓄積部132を経て蓄積された画像は、画像履歴保存部134に逐次保存される。
画像履歴保存部134に保存される画像履歴に関する管理情報の一例を図15に示す。個々の画像は図15内の画像の欄内に保存される。またこの画像を撮影した撮像部(カメラ)112の識別情報(カメラID)と撮影時刻が管理情報の一部として記録される。
移動情報抽出部136では、画像履歴保存部134から得られる過去に取得した画像と現在取得された原画像82とを比較する。そこで得られた差分情報が移動情報88(図5(b))として、移動情報の履歴保存部138内に逐次保存される。
移動情報の履歴保存部138内に保存される移動情報88の履歴に関する管理情報の一例を図14に示す。移動情報88の元になる原画像82を撮影した撮像部(カメラ)112の識別情報(カメラID)が記載されている。また移動情報抽出部136内で移動情報88が算出された時刻情報が、計測時刻として記録される。
図5(b)に示すように、移動情報88は変位ベクトル情報として管理される。すなわち過去に取得した画像と現在取得された原画像82とを比較結果得られる差分情報(移動情報88)において、差分が発生した画素位置が“画像内領域座標”(変位ベクトルの始点座標)として管理される。また移動量が変位ベクトルの長さ、移動方向が変位ベクトルの向きで表される。従って変位ベクトルの終点(先端)位置を表す座標が、“移動ベクトル”の座標として記録される。
そして移動情報集計部140内で移動情報の履歴保存部138内に保存された移動情報88を集計し、その結果に基付いてプライバシー加工部116内で人物の移動を表現してプライバシー加工した画像52(図5(c))を生成する。
上記一連の処理結果で得られた送信/表示される画像58、68、78は、画像送信部120から表示部(パソコン、スマートフォン、電子掲示板など)122に転送され、表示部上で表示される。
本実施形態における撮影システム102では内部にデータ処理/データベース管理部106を有し、プライバシー情報(や人物通行)に関係するデータの蓄積/統計処理が同時並行できる。このように表示部122に送信/表示される画像58、68、78を表示して不特定多数者に閲覧可能にするだけでなく、同時に撮像部(カメラ)112で撮影した原画像30を利用したデータ処理/データベース管理が行える。このように撮像部(カメラ)112で撮影した原画像30を複数目的に利用できるため、原画像30の利用効率を向上させる効果が有る。
具体的には人物確率分布計測部160で算出した画像内の領域毎の人物確率を利用し、撮影した原画像30内に映った人数を人数集計部162内で推定する。その結果は混雑履歴保存部164内に逐次保存され、混雑状況統計処理システム168内で統計処理されて撮影現場内での混雑状況の時間変化が分かる。
この混雑履歴保存部164内に保存された混雑履歴に関する管理情報の一例を図16に示す。混雑履歴情報の元になる原画像82を撮影した撮像部(カメラ)112の識別情報が、カメラIDとして記載されている。また人数集計部162内で推定して得られた混雑履歴情報の算出日時情報が、計測時刻として記録される。また図14内の画像内領域座標と同様に、原画像82内で特に混雑した場所が座標で記録されるとともに、その場所での混雑状況が混雑値として記録される。ここで前記の混雑値は、座標で指定された対象領域の人数や人口密度などを表している。
図8では撮像部(カメラ)112と画像加工部104が近接して描かれている。しかしそれに限らず図9のように、撮像器(カメラ)252と送信/表示する画像を生成するコンピュータ256が離れた位置に配置されても良い。
撮像器(カメラ)252内部は撮像部264と撮影した画像を一時保管する半導体メモリ部266、通信部262から構成されている。また上記通信部262は有線または無線回線を通じてインターネット200に接続され、撮像部264で撮影された原画像30がインターネット200を経由してコンピュータ256内の通信部272に有線または無線回線を通じて送信される。なお撮像器(カメラ)252とコンピュータ256間の原画像30送信にはインターネット200の回線を使用する代わりに専用のネットワーク回線を使用しても良い。
送信/表示する画像68を生成するコンピュータ256は、大形コンピュータに限らず中形の汎用コンピュータやパーソナルコンピュータで有っても良い。撮像器(カメラ)252から転送された原画像30は一時的にメモリ部276内に保存される。そしてメモリ部276から表示部274に表示された原画像30は、入力部278を操作して送信/表示する画像68が生成される。ここでこれらの一連の処理は制御部270で行われる。すなわち図8の画像加工部104やデータ処理/データベース管理部106内の処理は、制御部270で実行されるプログラムにそって進められる。
コンピュータ256内の処理で作成された送信/表示する画像68は、インターネット200を経由してウェブ・サーバ202内のデータベース226内に保存される。そして不特定多数者が閲覧用に使用する携帯端末250はインターネット200を経由し、上記ウェブ・サーバ202から送信/表示する画像68の閲覧を行う。 また携帯端末250が送信/表示する画像68の閲覧を行うためのアクセス先は上記に限らず、所定のデータベース228を持つデータベースサーバ204でも良い。
本実施形態では送信/表示する画像68に限らず、無人画像32もウェブ・サーバ202内のデータベース226あるいはデータベースサーバ204内のデータベース228内に事前に送信しても良い。携帯端末250の表示部284内に表示される表示切替指定領域288をユーザが操作する事で、上記表示部284に表示させる画像を無人画像32に切り替える事が可能となる。携帯端末250を使用するユーザの一部は撮影現場の混雑状況に興味が有り、プライバシー保護された混雑状況の画像を閲覧する。しかし携帯端末250を使用するユーザに拠っては、背景の景色を表示する無人画像32に興味を示す場合が有る。このように送信/表示する画像68と共に無人画像32を予め送信する事で、多様なユーザに対応した多様な画像を表示できる効果が有る。
本実施形態の他の応用例として、図10に示すように、図8の画像加工部104やデータ処理/データベース管理部106に対応した処理を実行する制御部240と撮像部(カメラ部)246を携帯端末206内に共に内蔵させても良い。この場合には原画像30の撮影と送信/表示する画像68の作成を同一の携帯端末206内で行っても良い。
この場合には図8の画像加工部104内での機能の一部をグラフィクスコントローラ248に持たせても良い。しかし画像加工部104に示す大部分は制御部240(およびグラフィクスコントローラ248)内で実行するプログラム(ソフトウェア)で実行される。
図10の携帯端末206において、高速な画像処理に関係する撮像部(カメラ部)246とグラフィクスコントローラ248、半導体メモリ部236、制御部240間は高速転送用のノースブリッジ242で接続する。一方表示部234や通信部232などの比較的低速でのデータ転送を許容する部分での接続には、サウスブリッジ244を使用する。
上記携帯端末206内で作成した送信/表示する画像68や無人画像32を閲覧する場合には、図9と同様に通信部222と表示部224が内蔵された携帯端末210を使用しても良い。またそれに限らず、ルーター208を経由して固定据え置き形のインターネット接続テレビ212やパソコン214、電子掲示板216に表示させても良い。
図9の制御部270や図10の制御部240(あるいはグラフィクスコントローラ248)内で実行するプログラム(ソフトウェア)の基本アーキテクチャを図11に示す。
図8の撮像部(カメラ)112を用いた撮影制御と画像送信部120内での外部への通信制御は、携帯端末制御用メインプログラム(クラス)308が担う。ここで図9のコンピュータ256に内蔵された制御部270内でプログラム実行する場合は、携帯端末制御用メインプログラム(クラス)308に相当するメインプログラム(クラス)を使用する。
この携帯端末制御用メインプログラム(クラス)308内の下位プログラム(サブプログラムやメソッド)に位置するカメラコントロールサブプログラム/メソッド(カメラコントローラ)316が、撮像部(カメラ部)246の制御を行う。
またここで撮影された原画像30を半導体メモリ部236内に一時保存する場合には、メモリコントロールサブプログラム/メソッド(メモリコントローラ)318を使用する。図10で既に説明した撮影システム応用例では、撮影された原画像30は携帯端末206内の半導体メモリ部236内に一時保存される。一方では図9の撮影システムにおける撮影された原画像30の一時保存先は、コンピュータ256内のメモリ部276となる。従ってこの場合には、前記メモリコントロールサブプログラム/メソッド(メモリコントローラ)318と後述する専用のメモリメモリコントロールサブプログラム/メソッド(専用メモリコントローラ)は、コンピュータ256内のメモリ部276を制御(ドライブ)する。
図8内の画像加工部104とデータ処理/データベース管理部106内の機能は、プライバシー保護対応画像編集用サブプログラム/メソッド300が担う。すなわち携帯端末制御用メインプログラム(クラス)308内で呼び出すプライバシー保護対応制御サブプログラム/メソッド(プライバシー保護コマンダ)314から専用API(Application Programming Interface)304を使用して、上記のプライバシー保護対応画像編集用サブプログラム/メソッド300に対して所定の処理指示を出す。
一方で上記プライバシー保護対応画像編集用サブプログラム/メソッド300内ではインタープリタサブプログラム/メソッド(インタープリタ)324が上記の専用API304を用いたコマンドを受けて、指示コマンド内容を解釈する。そしてその結果を基にプライバシー保護対応統合プログラム/クラス(インテグレータ)330が、上記プライバシー保護対応画像編集用サブプログラム/メソッド300内で設定された各サブプログラム/メソッドを呼び出して上記の指示に沿った実行処理を行う。
ここで図8の画像履歴保存部134と移動情報の履歴保存部138、混雑履歴保存部164内に保存される情報は、半導体メモリ部236内の異なる領域内にそれぞれ保存される。このように本実施形態では半導体メモリ部236へのアクセスを頻繁に行うため、上記専用の半導体メモリ部236へのアクセス制御を担うメモリメモリコントロールサブプログラム/メソッド(専用メモリコントローラ)328を各サブプログラム/メソッドの直下に配置している。これにより各サブプログラム/メソッド内での半導体メモリ部236へのアクセス制御の高速化が図れる効果が有る。
所で図11内の無人画像作成用サブプログラム/メソッド(バックグラウンドジェネレータ)332は、図8内の画像蓄積部132、画像履歴保存部134、無人画像生成部130の機能を担う。ここでこの無人画像作成用サブプログラム/メソッド(バックグラウンドジェネレータ)332内の詳細な実行フローは図12内の右側に記載したフローチャートに対応する。
また図11内の移動情報抽出/管理用サブプログラム/メソッド(ムービングパートイクストラクタ)334は、図8内の画像履歴保存部134、移動情報抽出部136、移動情報の履歴保存部138、移動情報集計部140の機能を担う。そしてこの移動情報抽出/管理用サブプログラム/メソッド(ムービングパートイクストラクタ)334内の詳細な実行フローは、図12内の左側に記載したフローチャートに対応する。
更に図11内の送信/表示用画像生成用サブプログラム/メソッド(プライバシープロテクタ)336は、図8内の頭範囲検出部152、体範囲検出部154、人物確率分布計測部160、プライバシー加工部116、画像合成部118の各機能を担う。またこの送信/表示用画像生成用サブプログラム/メソッド(プライバシープロテクタ)336内の詳細な実行フローは、図13に示すフローチャートに対応する。
そして図11内のプライバシー情報(や人物通行)に関係するデータの蓄積/統計処理の制御用サブプログラム/メソッド(データマネージャ)338は、図8内のデータ処理/データベース管理部106内の機能を担う。このプライバシー情報(や人物通行)に関係するデータの蓄積/統計処理の制御用サブプログラム/メソッド(データマネージャ)338内の詳細なフローチャートは、図13内左側に記載された画素毎に人物が映っている度合いを計算するStep38と、人物範囲内の人数を計算するStep51および混雑情報を保存するStep52が対応する。
図9の制御部270内あるいは図10の制御部240内(およびグラフィクスコントローラ248内の一部)で実行するプログラムのフローチャートを図12に示す。Step1で撮影システムを開始すると、Step3の撮影システムが終了するまで、画像取得(Step2)が続く。
そして無人画像の生成開始の指示が来ると(Step11)、Step2で取得した画像を画像履歴保存部134(図8:Step13に対応)内へ適宜保存する(Step12)。その後のStep14で画像履歴保存部134から適宜保存した画像を適宜読み出し、無人画像32の生成が終了するとStep15の終了処理を実行する。
このStep14での無人画像生成方法として例1では、夜間など人の居ない時間帯に撮影した画像を使用する。また他の例2では、一定時間ごとの画像から動きの無い部分を合成して生成しても良い。
次に図5(f)に示す送信/表示する画像58内に人物の移動情報を表示する場合にはStep21に示すように、移動情報生成開始の指示を受ける。すると過去の画像と比較し、画像内の動きを計算し(Step22)、その結果を移動情報の履歴保存部138(図8:Step23に対応)内へ適宜保存する。その後にStep24で一定時間分の移動情報を集計し、その結果得られた移動情報88を移動情報の履歴保存部138内へ保存する。そして移動情報の生成処理が完了すると、その終了処理を行う(Step25)。
上記のStep24における一定時間分の移動情報の具体的な集計方法として例1では、移動情報の平均を取っても良い。また他の例2では、画像内の場所(領域)毎に人物の移動方向を学習させ、その結果を使用しても良い。
図13に、本実施形態における送信/表示する画像50、58、68、78の生成手順を示す。Step31で撮影システムの開始指示を受けると、Step45の撮影システム終了直前の受信側で表示するStep44までの一連のループ処理が任意の間隔で繰り返される(Step32)。
上記のループ処理の中で画像取得(Step33)直後に、画素毎に体が映っている度合いの計算(Step34)と画素毎に頭が映っている度合いの計算(Step35)、画素毎に人物が映っている度合いの計算(Step38)が同時並行的に実行される。
上記処理の具体的方法を示す例1では、無人画像と現在の画像の画素値の差の絶対値が大きいほど人物である度合いが大きい(確率が高い)と見なしても良い。
また他の具体的方法を示す例2では、予め人物(頭部や体)が映っている画像を複数学習しておき、現在の画像の中から学習結果と近いものが映っている範囲が人物(あるいは頭部や体)の度合いが大きい(確率が高い)と見なしても良い。
さらに他の例3では、上記説明した例1や例2などの複数の手法を並行して実施し、それぞれ得られた度合い(確率)の合計値や平均値などで人物である度合い(確率)を判定しても良い。
図5を用いて前述したように人物の移動速度に応じて体(または着衣や携帯品)の色を変更したい場合(Step36)には、図12内で生成した移動情報88とStep34で得られた画素毎に体が映っている度合いの計算結果を使用する。
このStep36での人物の移動速度に応じて体(または着衣や携帯品)の色を変更する具体的な例1として、移動している人物(全体または着衣部など体の一部)をグレースケールに表示し、移動速度に応じて濃度(黒の度合い)を変化させても良い。
また他の例2として、移動している人物と止まっている人物別に色を変化させても良い。
更に図7を用いて前述したように顔面領域内(顔範囲)のみに“ぼかし”を掛けたり(プライバシー加工する)画像全体に“ぼかし”を掛ける(プライバシー加工する)場合には(Step37)、図12内で生成した移動情報88とStep35で得られた画素毎に頭が映っている度合いの計算結果を使用する。
更に図5で説明したように人物の移動方向も表示する他の方法としてStep37で、移動方向に合わせて“ぼかし”を掛けても良い。
そしてStep37で得られたプライバシー加工後の映像と図12内で得られた無人画像32をStep39で合成する。更に図6を用いて前述したように画像内で人物確率が異なる領域毎に異なるプライバシー加工を施す場合にはStep41に記載したように、人物である度合い(確率)に応じて“ぼかし加工”済画像と無人画像32の画素値を加重平均してプライバシー情報に関係する領域38内での透明度を変化させても良い。
その後に送信/表示する画像を生成し(Step42)、生成した画像を送信する(Step43)。
また撮影した原画像30を用いて例えば撮影現場の混雑状況の時間変化の統計を取るなどのデータの蓄積/処理(あるいはデータベース管理とそのデータを用いた統計処理)の例を以下に説明する。
Step33で取得した原画像30に対して、Step38では人物が映っている度合い(人物確率)を画素毎に計算する。そして算出された人物が映っている度合い(人物確率)が所定の判定値(例えば50%または70%)を超えた部分では、原画像30内に人物が映っていると判定(推定)する。
次にその人物が映っていると判定された画素を集計し、原画像30内に映っている人数を算出する(Step51)。一般的に同一人物が複数画素間に跨って映る場合が多い。従って人物が映っている度合い(人物確率)が所定の判定値(例えば50%または70%)を超えた画素間の連続性を判断して複数人物間の切り分け領域を推定し、原画像30内の人数を予測する。
このStep51で得られた同一原画像30内に映った人物数(人数)を混雑履歴保存部164内に順次保存する(Step52)。この混雑履歴保存部164内に保存される情報は図16を用いて既に説明したように、人数算出時刻(計測時刻)毎の混雑値が記録される。
その後で図8の混雑状況統計処理システム168が混雑履歴保存部164内の混雑履歴情報(図16)を統計処理し、撮影現場の混雑状況と混雑場所に対する時間変化状況を分析しても良い。
上記した実施形態の説明では、プライバシー加工する対象は、すべての人物であるかのごとく説明した。しかし、上記したシステムは、必要に応じて特定の人物に関しては、プライバシー加工することなく、該特定の人物を鮮明な画像のまま提供することも可能である。例えば現場において、撮像信号が、緊急時のレポートに利用される場合、或いは、ニュースに利用されるような場合、レポーターやアナウンサーの画像は鮮明であっても構わない。このような必要性が生じた場合は、例えば図8に示した画像取得部114から出力される原画像30が、パーソナルコンピュータ等256の表示部274に入力され、オペレータにより確認される。オペレータは、特定の人物の画像の例えば顔或いは身体全体を例えば表示部274上で指定する。指定方法としては、例えば入力部278の一部であるマウスのポインタにより枠を描画して、特定人物の画像の例えば顔或いは体全体を囲み、決定操作を行う。これにより、頭範囲検出部152及び又は体範囲検出部154が、特定人物を検出(顔認識処理を行うと好ましい)した場合には、当該人物に関しては、プライバシー加工をしないように、プライバシー加工部116に制御情報を伝送する。なお特定人物の検出方法としては、説明した方法に限らず各種の方法が可能である。例えば特定人物が特定の識別しやすい衣裳や帽子を着用し、頭範囲検出部152及び又は体範囲検出部154が、該衣裳や帽子を検出できるようにしてもよい。
いくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
2、4、6 撮影された原画像内人物
10 原画像の例
12、14 撮影された原画像内で検出された人物範囲を示す領域
22 人物範囲検出
24 検出範囲にぼかし加工
30 原画像
32 無人画像
34 無人画像領域
36 少し後に撮影された原画像
38 プライバシー情報に関係する領域
40 プライバシー加工された画像
42、44、46、48 移動人物
50 送信/表示する画像
52、62、72 全体をプライバシー加工した例
54、64、74 プライバシー情報に関係する領域例
56、66、76 無人画像例
58 送信/表示画像
68、78 送信/表示する画像例
82 原画像例
84、86 原画像例
88 移動情報例
102 撮影システム
104 画像加工部
106 データ処理/データベース管理部
112 撮像部(カメラ)
114 画像取得部
116 プライバシー加工部
118 画像合成部
120 画像送信部
122 表示部(パソコン、スマートフォン、電子掲示板など)
130 無人画像生成部
132 画像蓄積部
134 画像履歴保存部
136 移動情報抽出部
138 移動情報の履歴保存部
140 移動情報集計部
152 頭範囲検出部
154 体範囲検出部
160 人物確率分布計測部
162 人数集計部
164 混雑履歴保存部
168 混雑状況統計処理システム
200 インターネット
202 ウェブ・サーバ
204 データベースサーバ
206、210、250 携帯端末
208 ルーター
212 インターネット接続テレビ
214 パソコン
216 電子掲示板
222、232、262、272 通信部
224、234、274、284 表示部
236、266 半導体メモリ部
240、270 制御部
242 ノースブリッジ
244 サウスブリッジ
246 撮像部(カメラ部)
248 グラフィックスコントローラ
252 撮像機(カメラ)
256 コンピュータ
264 撮像部
274、284 表示部
276 メモリ部
278 入力部
288 表示切替指定領域
300 プライバシー保護対応画像編集用サブプログラム/メソッド
304 専用API
308 携帯端末制御用メインプログラム(クラス)
314 プライバシー保護対応制御サブプログラム/メソッド(プライバシー保護コマンダ)
316 カメラコントロールサブプログラム/メソッド(カメラコントローラ)
318 メモリコントロールサブプログラム/メソッド(メモリコントローラ)
324 インタープリタサブプログラム/メソッド(インタープリタ)
328 専用のメモリメモリコントロールサブプログラム/メソッド(専用メモリコントローラ)
330 プライバシー保護対応統合プログラム/クラス(インテグレータ)
332 無人画像作成用サブプログラム/メソッド(バックグラウンドジェネレータ)
334 移動情報抽出/管理用サブプログラム/メソッド(ムービングパートイクストラクタ)
336 送信/表示用画像生成用サブプログラム/メソッド(プライバシープロテクタ)
338 プライバシー情報(や人物通行)に関係するデータの蓄積/統計処理の制御用サブプログラム/メソッド(データマネージャ)。

Claims (6)

  1. 撮影された複数のフレームの画像もしくは複数のフレームの映像の中からプライバシー情報を除いて、前記プライバシー情報を含まない無人画像を生成する無人画像生成部と、
    撮影された原画像の中でプライバシー情報に関係する領域に関してプライバシー加工するプライバシー加工部と、
    前記プライバシー加工部で生成されたプライバシー加工後の画像と前記無人画像とを合成する画像合成部と、
    前記無人画像、前記プライバシー加工後の画像、並びに前記無人画像と前記プライバシー加工後の画像を合成した合成画像を記憶した記憶部と、
    表示部を有する装置からの切替え要求に応じて、前記無人画像を前記表示部を有する装置に送信する、又は前記合成画像を前記表示部を有する装置に送信する送信手段と、を有する
    撮影システム。
  2. 前記無人画像生成部は、
    前記撮影された前記複数のフレームの画像もしくは前記複数のフレームの映像のフレーム間の差の情報を用いて、若しくは前記フレーム間の同じ画素位置の画素値の多数決を用いての何れかにより、前記無人画像を生成する、請求項1記載の撮影システム。
  3. 前記無人画像生成部は、所定時間帯に前記撮影された前記複数のフレームの画像もしくは前記複数のフレームの映像のフレーム間の差の情報を用いる、請求項1記載の撮影システム。
  4. 前記表示部を有する装置は、前記送信手段から離れた位置にあるパーソナルコンピュータ、又はスマートフォン、又は電子掲示板である請求項1記載の撮影システム。
  5. 撮像部で撮影された画像を処理する画像加工部において、
    前記撮影された画像の中のプライバシー情報に関係する領域に関してプライバシー加工して生成したプライバシー加工後の画像と、前記プライバシー情報を含まない無人画像とを生成するとともに、画像合成部により前記プライバシー加工後の画像と前記無人画像とを合成した合成画像を生成し、少なくとも前記合成画像を画像送信部から送信する、画像表示方法で有り、
    前記無人画像の生成は、前記撮影された複数のフレームの画像もしくは複数のフレームの映像の中からプライバシー情報を除いて、前記プライバシー情報を含まない前記無人画像を生成し、
    表示部を有する装置からの切替え要求に応じて、前記画像送信部が前記無人画像を前記表示部を有する装置に送信するか、又は前記合成画像を前記表示部を有する装置に送信して、前記表示部に前記送信した画像を表示させる画像や映像の表示方法
  6. 前記画像送信部は、前記無人画像をパーソナルコンピュータ、又はスマートフォン、又は電子掲示板に送信する請求項5記載の画像や映像の表示方法
JP2016075843A 2016-04-05 2016-04-05 撮影システムおよび画像や映像の表示方法 Active JP6419749B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016075843A JP6419749B2 (ja) 2016-04-05 2016-04-05 撮影システムおよび画像や映像の表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016075843A JP6419749B2 (ja) 2016-04-05 2016-04-05 撮影システムおよび画像や映像の表示方法

Publications (2)

Publication Number Publication Date
JP2017188771A JP2017188771A (ja) 2017-10-12
JP6419749B2 true JP6419749B2 (ja) 2018-11-07

Family

ID=60046577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016075843A Active JP6419749B2 (ja) 2016-04-05 2016-04-05 撮影システムおよび画像や映像の表示方法

Country Status (1)

Country Link
JP (1) JP6419749B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6879878B2 (ja) 2017-09-28 2021-06-02 三菱重工業株式会社 溶射ノズル、及びプラズマ溶射装置
JP6789601B2 (ja) * 2017-10-26 2020-11-25 Kddi株式会社 所定画像領域をマスクした撮影映像を学習映像として選択する学習映像選択装置、プログラム及び方法
JP7237499B2 (ja) * 2018-09-19 2023-03-13 株式会社東芝 画像センサ、センシング方法、制御システム及びプログラム
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
CN111179299A (zh) * 2018-11-09 2020-05-19 珠海格力电器股份有限公司 一种图像处理方法及装置
JP7387981B2 (ja) * 2018-11-15 2023-11-29 日本電気株式会社 画像処理装置、画像処理方法、プログラム
JP2021117515A (ja) 2020-01-22 2021-08-10 富士通株式会社 情報処理プログラム、情報処理方法、及び情報処理装置
JP7283404B2 (ja) 2020-01-22 2023-05-30 富士通株式会社 情報処理プログラム、情報処理方法、及び情報処理装置
CN115943626A (zh) * 2020-06-10 2023-04-07 麦克赛尔株式会社 看护监视装置以及看护监视方法
CN113486693A (zh) * 2020-09-09 2021-10-08 青岛海信电子产业控股股份有限公司 一种视频处理的方法及设备
JP7561008B2 (ja) 2020-11-11 2024-10-03 株式会社Nttドコモ 学習支援装置
JPWO2023037549A1 (ja) * 2021-09-13 2023-03-16
WO2024195126A1 (ja) * 2023-03-23 2024-09-26 日本電気株式会社 画像処理装置、画像処理方法及び非一時的なコンピュータ可読媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701356B2 (ja) * 2006-02-08 2011-06-15 株式会社国際電気通信基礎技術研究所 プライバシー保護画像生成装置
JP5159381B2 (ja) * 2008-03-19 2013-03-06 セコム株式会社 画像配信システム
JP2013066016A (ja) * 2011-09-16 2013-04-11 Univ Of Electro-Communications 輪郭抽出システム、輪郭抽出装置及び輪郭抽出プログラム
JP5707562B1 (ja) * 2014-05-23 2015-04-30 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
WO2016002152A1 (ja) * 2014-06-30 2016-01-07 日本電気株式会社 個人情報に配慮した画像処理システム、画像処理方法及びプログラム記憶媒体

Also Published As

Publication number Publication date
JP2017188771A (ja) 2017-10-12

Similar Documents

Publication Publication Date Title
JP6419749B2 (ja) 撮影システムおよび画像や映像の表示方法
US11373354B2 (en) Techniques for rendering three-dimensional animated graphics from video
CN113810587B (zh) 一种图像处理方法及装置
CN109716398B (zh) 图像处理设备、图像生成方法和存储介质
JP6599436B2 (ja) ユーザ選択可能な新規ビューを生成するためのシステムおよび方法
JP5569990B2 (ja) 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP6397581B2 (ja) 混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム
CN103731583B (zh) 用于拍照智能化合成、打印处理方法
KR102097781B1 (ko) 객체 정보 제공 장치 및 방법
CN105556508A (zh) 虚拟镜子的装置、系统和方法
CN107341435A (zh) 视频图像的处理方法、装置和终端设备
JP2019009752A (ja) 画像処理装置
US20120170800A1 (en) Systems and methods for continuous physics simulation from discrete video acquisition
US8682031B2 (en) Image processing device, camera, image processing method, and program
JP2004145448A (ja) 端末装置、サーバ装置および画像加工方法
CN108388882A (zh) 基于全局-局部rgb-d多模态的手势识别方法
US11288854B2 (en) Information processing apparatus and information processing method
CN102694969A (zh) 图像处理装置和图像处理方法
CN110827193A (zh) 基于多通道特征的全景视频显著性检测方法
KR102382247B1 (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP2019135810A (ja) 画像処理装置、画像処理方法およびプログラム
JP7084795B2 (ja) 画像処理装置、画像提供装置、それらの制御方法及びプログラム
KR20160091119A (ko) 영상 기반 인물 특성 추정 장치 및 방법
JP6544970B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP3860560B2 (ja) 表示インタフェース方法および装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181010

R150 Certificate of patent or registration of utility model

Ref document number: 6419749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150