JP5077097B2 - 映像処理システム - Google Patents

映像処理システム Download PDF

Info

Publication number
JP5077097B2
JP5077097B2 JP2008167308A JP2008167308A JP5077097B2 JP 5077097 B2 JP5077097 B2 JP 5077097B2 JP 2008167308 A JP2008167308 A JP 2008167308A JP 2008167308 A JP2008167308 A JP 2008167308A JP 5077097 B2 JP5077097 B2 JP 5077097B2
Authority
JP
Japan
Prior art keywords
marker
video
unit
information
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008167308A
Other languages
English (en)
Other versions
JP2010011017A (ja
Inventor
寛之 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2008167308A priority Critical patent/JP5077097B2/ja
Publication of JP2010011017A publication Critical patent/JP2010011017A/ja
Application granted granted Critical
Publication of JP5077097B2 publication Critical patent/JP5077097B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、映像処理システムに関するものである。
従来、撮影対象物標識システムに関し、『携帯端末の撮影画像上に被写体に関連する情報を表示する際に、撮影画像上での被写体の位置を、短時間で容易にかつ正確に算出することができる撮影対象物標識システムを提供する。』ことを目的とした技術として、『画像入力手段102と、被写体指定手段103と、撮影画像上のマーカーの座標を計測するマーカー座標計測手段105と、被写体とマーカーの3次元座標を格納する標識情報格納手段104と、複数のマーカーの3次元座標および撮影画像上の座標を用いて3次元座標が撮影画像上に射影された座標を演算する座標変換式を求める座標変換パラメータ演算手段106と、撮影画像上の被写体の座標を演算する座標演算手段107と、被写体の位置を描画する画像出力手段108とを備える。』というものが提案されている(特許文献1)。
また、カメラ旋回システムに関し、『カメラ装置の撮像禁止箇所を設定出来ると共に旋回動作により、該当箇所に達した場合、撮像出力を回避処理出来る監視用カメラ旋回システムの提案』を目的とした技術として、『カメラ装置1と、モニタ4と、水平駆動部などの旋回駆動手段と撮像禁止位置を検出する禁止位置検出手段とを有する旋回装置2と、操作入力手段と旋回装置を遠隔制御する手段と映像信号をディジタル画像信号に変換する手段と撮像禁止区域データとして記憶する手段と旋回位置データと禁止区域データとを比較してカメラが撮像禁止区域を撮像しているかの比較判断手段とカメラ装置1が撮像禁止区域を撮像している場合出力画像信号に撮像禁止区域の画像が含まれないようにする画像切替重畳手段とを有する旋回制御装置3とで構成する。』というものが提案されている(特許文献2)。
特開2007−164383号公報(要約) 特開2000−156855号公報(要約)
テレコミュニケーションの普及、カメラによる監視など、生活の中でカメラによって映像を撮られる機会が増えており、今後もそのような機会は増加すると考えられる。
このような状況の中、見せたくないものまでカメラに撮られてしまうといったプライバシーの侵害、あるいは機密事項の映像的な流出などの課題がある。
このような見られたくないものをカメラの撮影範囲から取り除くことは、対象が移動不可能なものであったり、移動コストが高かったり、対象の数が多かったりといった理由から、困難である場合がある。
カメラによる撮影を排除すれば、「見せたくないものを見せずに済む」が、これでは「見せたいものを見せる」ことができなくなってしまう。
上記特許文献1に記載の技術では、被写体の3次元位置データを得るために複数のマーカーを用いて計測を行うが、マーカー自体には意味のある情報は含まれておらず、被写体の位置計測のための計測点であるに過ぎない。
上記特許文献2に記載の技術では、撮像禁止位置を指定する情報があらかじめ提供されるわけではなく、カメラ装置1とは別に禁止位置検出手段を設けて撮像禁止位置を検出する必要がある。
即ち、上記特許文献1〜2に記載の技術では、撮像した映像のうち、他者に見せる部分と見せない部分を積極的に区別するための情報が提供されないため、映像を撮像するかしないかといった2者択一的な対応しか取ることができない。
そのため、映像を撮像した後に、他者に見せる部分と見せない部分を指定することのできる映像処理システムが望まれていた。
本発明に係る映像処理システムは、映像を撮像し、かつ撮像範囲を変更可能な撮像手段と、前記映像の所定領域を指定する情報を表す形態を有するマーカを当該映像の中から識別するマーカ識別部と、前記撮像手段により撮像された映像の中で前記マーカが識別されると、前記マーカの形態が表す情報に基づいて映像加工を行う映像処理部と、を備えるものであって、前記撮像手段の撮像可能範囲を表す範囲情報を保持する状態情報保持部を備え、前記状態情報保持部は、前記範囲情報と前記マーカの形態が表す情報に基づき、前記撮像手段が撮像可能な全ての撮像範囲について、当該映像の加工を行う領域とその加工方法を前記撮像範囲の座標平面と対応付ける映像マスクマップを作成し、前記マーカが指定する領域が、前記撮像手段が撮像している撮像範囲から外れている際は、前記映像処理部は、前記マーカの形態が表す情報が指定する領域、前記範囲情報が指定する領域の座標、および前記映像マスクマップに基づき、前記撮像範囲の外における前記マーカの位置を演算により求め、そのマーカ位置を基準として、前記撮像手段が撮像している撮像範囲の中で当該映像の加工を行うべき領域を求め、その領域について当該映像の加工を行うものである。
本発明に係る映像処理システムによれば、マーカの形態が表す情報が指定する領域のみを加工するので、撮像手段が撮像した映像のうち、見せたい部分のみを他者に見せることが可能となる。
実施の形態1.
図1は、本発明の実施の形態1に係る映像処理システムの構成図である。ここでは、ネットワークカメラを用いた2拠点間のテレコミュニケーションの場面を想定する。
この2拠点間は、カメラとディスプレイによって視覚的に、マイクとスピーカによって聴覚的に接続され、各拠点のユーザは視覚・聴覚情報を基にコミュニケーションを行っているものとする。
以下、本実施の形態1に係る映像処理システムが想定している環境と、その基本的な映像処理方法を説明し、その後に図1の構成の説明を行う。
テレコミュニケーションを行っている拠点の一方が自宅などである場合、プライベートな物が多数存在する場をカメラで撮られることには抵抗があり、自分および特定の物以外は見せたくない、見せる必要がない、といった要求がある。
そこで、カメラが撮像した映像全体にマスクをかけ、見せたい部分のみマスクを外した上で映像を相手側に提示する。
具体的には、見せる範囲の形状・広さといった情報を表す形態を有するマーカを見せたい物に取り付けておき、カメラが撮像した映像の中でそのマーカが識別されると、マーカの形態が表す情報に基づき映像加工を行い、「見せたいものだけを見せる」機能を実現する。
双方の拠点に設置されているカメラは、それぞれが相手の拠点のカメラを操作(視野、ズームの変更)することが可能であり、カメラの視野、即ち撮像範囲は一定ではない。
そのため、カメラの姿勢が変更されて撮像範囲が変わると、マーカがカメラの撮像範囲外に出てしまっているにも関わらず、見せたい物(またはその一部)は未だカメラの撮像範囲内に留まっている、という状況が起こり得る。
このとき、マーカがカメラの撮像範囲外に出てしまっているため、そのマーカにより映像加工を指示することができず、見せたい物を見せることができなくなってしまう。
このような状況下でも見せたい物だけを見せることができるように、カメラの撮像範囲と、識別したマーカとの位置関係をあらかじめ記憶しておき、マーカがカメラの撮像範囲外に出てしまっても、記憶しておいたマーカ位置に基づき映像加工を行う。これについては、後述の図4で補足説明する。
以上、本実施の形態1に係る映像処理システムが想定している環境と、その基本的な映像処理方法を説明した。次に、図1の各構成について説明する。始めに拠点1の各構成部について、次に拠点2の各構成部について説明する。
図1において、拠点1にはコンピュータ等で構成された映像端末100が設置されている。映像端末100は、データベース110、マーカ識別部120、状態情報保持部130、操作部140、映像処理部150、映像出力部160を備える。
データベース110は、以下の(データ1)〜(データ2)で説明するようなデータを保持する機能部である。データベース110は、HDD(Hard Disk Drive)等の記憶装置にデータファイル等を格納して構成することができる。
(データ1):マーカの特徴データ
カメラ部220が撮像した映像内に存在するマーカをマーカ識別部120が識別するために必要なデータである。例えば、マーカの形状、模様、サイズ、波形、点滅パターン、周期などの、マーカの形態的特徴を表すデータが挙げられる。マーカについては後に改めて説明する。
(データ2):映像加工処理内容の定義データ
カメラ部220が撮像した映像を映像処理部150が加工する際の加工処理の内容を定義するデータである。例えば、以下のようなものが挙げられる。
・加工処理を施す範囲
・加工する形状
・マーカ座標と加工処理を施す範囲との位置関係
・加工手法(マスク解除、マスク処理、ぼかし、モザイクなど)
・加工を行うための素材データ(テクスチャ、動画像など)
マーカ識別部120は、カメラ部220が撮像した映像を走査し、その映像内にデータベース110内の(データ1)で定義されているマーカが存在しているか否かを判断して識別する機能部である。マーカの識別方法は、例えば以下の(識別方法1)〜(識別方法2)のようなものが挙げられる。
(識別方法1):模様パターンを用いたマーカの識別
マーカ識別部120は、カメラ部220が撮像した映像から、データベース110内の(データ1)で定義されている模様パターンに合致する輪郭部分を抽出し、パターンマッチングを行うことでマーカを識別する。
映像加工を行う際の基準となる基準座標は、認識された模様パターンの領域の重心などにするとよい。
(識別方法2):発光マーカの識別
マーカ識別部120は、カメラ部220が撮像した映像から、データベース110内の(データ1)で定義されている所定周期の発光パターンに合致する部分を検知し、マッチングを行う。
この発光マーカを2個以上1組で使用し、映像加工を行う際の基準となる基準座標は、識別された複数マーカの重心座標にするとよい。
状態情報保持部130は、以下の(データ3)〜(データ4)で説明するようなデータを保持する機能部である。状態情報保持部130は、この(データ3)〜(データ4)を用いて、カメラ部220の全視野範囲(撮像可能な全範囲)のマスクマッピングデータを作成し、保持する。マスクマッピングデータについては下記に述べる。
(データ3):カメラ部220が撮像している範囲を示すデータ
状態情報保持部130は、カメラ部220より、カメラ部220の姿勢(パン・チルト角)、ズーム倍率などの、カメラ部220がその時点で撮像している範囲を示すデータを受信して保持する。
また、操作部140よりカメラ部220の姿勢等の変更指示入力があった場合は、その内容をカメラ部220に送信するとともに、保持する。カメラ部220は、その指示を受信して撮像範囲を変更する。
(データ4):マーカ識別部120の識別結果データ
状態情報保持部130は、カメラ部220が撮像した映像からマーカ識別部120がマーカを識別した結果を保持する。具体的には、以下のようなものが挙げられる。
・マーカの固有ID(マーカは個別化できるため、固有IDを用いて管理可能)
・認識したマーカの画面上の座標
・マーカが持つ情報とデータベース110内の(データ2)を照らし合わせた結果
(マスクマッピングデータ)
カメラ部220の全視野範囲の中のどの部分にどのような加工処理を施すかを画面座標上にマッピングしたデータである。
状態情報保持部130は、上述の(データ3)と(データ4)を照合することで、カメラ部220の全視野範囲の中のどの部分にマーカが存在しているかを特定する。
次に、状態情報保持部130は、マーカが持つ情報とデータベース110内の(データ2)を用いて、マーカを起点とした範囲にどのような加工処理を施すかを決定する。
カメラ部220の姿勢変更などによってマーカ識別部120が新たなマーカを識別すると、状態情報保持部130はマスクマッピングデータを更新する。
操作部140は、例えばキーボード、マウス、GUI(Graphical User Interface)などの操作入力手段で構成され、ユーザの指示入力を映像端末100に伝える機能部である。
ユーザは、操作部140より、カメラ部220の姿勢変更などの指示入力を行い、カメラ部220の撮影可能範囲を変更する。指示入力の内容は、状態情報保持部130を介してカメラ部220に出力される。カメラ部220は、その指示を受信して撮像範囲を変更する。
また、ユーザは操作部140より、データベース110が保持する上述の(データ1)〜(データ2)の内容を入力し、データベース110が保持する各データを更新または新規登録することができる。
映像処理部150は、状態情報保持部130が作成した上述のマスクマッピングデータを用いて、カメラ部220が撮像した映像を加工処理する。
マスクマッピングデータは、カメラ部220の全視野範囲について、どの部分にどのような加工処理を施すかを画面座標上にマッピングしたデータなので、映像処理部150は、マスクマッピングデータと(データ3)を組み合わせ、カメラ部220の全視野範囲の中の任意の領域を加工することができる。
即ち、マスクマッピングデータは、どの部分にマーカ領域が存在するかの座標情報を保持しているので、マーカがカメラ部220の視野範囲外に出てしまっても、カメラ部220の全視野範囲(撮像可能な全範囲)について、マークが視野範囲内に存在しているか否かを問わず、映像加工処理を施すべき領域を判断することができるのである。これについては、後述の図4で補足説明する。
映像出力部160は、映像処理部150が加工処理した後の映像を出力する。具体的には、映像端末100が備えるディスプレイデバイスで画面表示等をするとよい。
以上、拠点1の各構成部について説明した。
次に、拠点2の各構成部について説明する。
拠点2には、マーカ210とカメラ部220が設置されている。
マーカ210は、拠点2のユーザが拠点1のユーザに見せたい物に取り付けてその物を他の物と区別するための識別物である。マーカ210の具体例としては、例えば以下の(マーカ例1)〜(マーカ例2)のようなものが挙げられる。
(マーカ例1):模様パターンを用いたマーカ
マーカ210の物理的な形状や模様パターンをデータベース110の(データ1)としてあらかじめ登録しておく。
状態情報保持部130は、(データ1)が規定する形状や模様パターンを用いて、カメラ部220が撮像した映像中に存在するマーカ210を識別する。また、(データ2)が規定する形状を用いて、映像加工を行う範囲を識別する。
映像加工を行う範囲は、カメラ部220が撮像した映像中のマーカ210の範囲に依拠するので、マーカ210のサイズに応じて映像加工範囲を可変することもできる。例えば、カメラ部220のズームに応じて映像加工範囲も変化する。
(マーカ例2):発光マーカ
マーカ210を、一定周期で特定パターンの発光を行う物で構成する。例えばLED(Light Emitting Diode)を用いて構成することができる。発光の周期とパターンは、データベース110の(データ1)としてあらかじめ登録しておく。
2個以上の発光マーカを1組で使用し、マーカ同士の位置関係をあらかじめデータベース110に登録しておく。
映像加工を行う範囲は、カメラ部220が撮像した映像中の発光マーカの組が存在する範囲に依拠するので、発光マーカの位置関係に応じて映像加工範囲を可変することもできる。例えば、カメラ部220のズームに応じて映像加工範囲も変化する。
カメラ部220は、例えばネットワークカメラで構成され、カメラ部220が存在する周囲の空間の映像を撮像してマーカ識別部120に送信する。
カメラ部220は、姿勢変更機能やズーム機能といった、視野範囲を変更する機能を備える。カメラ部220の姿勢(パン・チルト角)やズーム倍率などの情報は、カメラ部220より状態情報保持部130に送信される。
また、カメラ部220は、操作部140に入力され、状態情報保持部130より送信された視野範囲変更指示を受信し、その指示に基づき姿勢やズーム倍率を変更する。初期化処理時やキャリブレーション時などは、操作部140から指示があるか否かに関わらず、状態情報保持部130に姿勢やズーム倍率の情報を送信する。
以上、拠点2の各構成部について説明した。
次に、マーカ210に基づき「見せたい物だけを見せる」具体例について説明する。
図2は、マーカ210を取り付けて見せたい物だけを見せる例を示す図である。ここでは、黒板で算数の問題の解き方を説明している場面を例にとる。講師は、答えを見せたい問題のみマーカ210を取り付け、見せたくない問題にはマーカ210を取り付けない。
図2(a)は図1の拠点2に存在する講師側の実際の環境を示す図であり、映像処理部150が映像加工処理を行う前の撮像映像に相当する。
図2(b)は図1の拠点1に存在する生徒側で表示される映像を示す図であり、映像処理部150が映像加工処理を行った後の映像に相当する。
拠点2の講師は、黒板に記載した問題のうち、拠点1の生徒に答えを見せたい問題の上方に、円形で網目模様のマーカ210を取り付ける。
なお、データベース110には、(データ1)および(データ2)として以下のような情報をあらかじめ格納しておく。
(データ1):マーカの特徴データ
マーカ210は、円形で網目模様である。
(データ2):映像加工処理の定義データ
マーカ210の中心を円の頂部として、マーカ210の直径の10倍の直径を有する円形領域のマスクを解除する。その他の領域はマスクをかけて映像を非表示にする。なお、図2(b)ではマーカ210を表示したままにしているが、マーカ210の形態はあらかじめ判明しているため、マーカ210を画面から消去するよう加工することもできる。
状態情報保持部130は、データベース110に格納されている上記(データ1)、(データ2)、およびマスクマッピングデータに基づき、図2(b)に相当するマスクマッピングデータを作成する。映像処理部150は、このマスクマッピングデータに基づき、図2(a)のような映像を図2(b)のように加工処理する。
拠点1の生徒は、拠点2の講師がマーカ210を置いた問題の答えのみを見ることができる。
なお、マーカ210は、他のマーカと区別するため、マーカ210自身が何らかの情報を表現していることが好ましい。
即ち、マーカ210が備える特性として好ましいのは、形状、模様、点滅パターンなどのように、マーカ210の形態的特徴を用いてマーカ210固有の情報を表現することができるものである。
マーカ210固有の情報を表現することができるものであれば、その他の特性を用いてマーカ210を構成してもよい。
以上、マーカ210に基づき「見せたい物だけを見せる」具体例について説明した。
次に、本実施の形態1に係る映像処理システムの動作フローを説明する。
図3は、本実施の形態1に係る映像処理システムの動作フローである。以下、図3の各ステップについて説明する。
(S301)
本実施の形態1に係る映像処理システムの初期化処理が実行される。具体的には、以下のような処理が行われる。
(a)カメラ部220は、カメラ姿勢のキャリブレーションを行う。
(b)カメラ部220は、撮像可能な範囲を走査する。
(c)マーカ識別部120は、マーカ210を識別する。
(d)状態情報保持部130は、初期マスクマップデータを作成する。
(e)状態情報保持部130は、初期化処理で取得した各データを更新する。
(f)映像処理部150は、初期マスクマップデータおよび初期のカメラ部220の姿勢データから、初期映像の加工処理を行う。
(S302)
拠点1と拠点2の間でテレコミュニケーションが開始される。
(S303)
テレコミュニケーションが継続される間は、以下のステップが繰り返される。
(S304)
映像出力部160は、映像処理部150が加工処理した映像で、出力映像を表示する。
(S305)
カメラ部220は、周辺の映像を撮像し、マーカ識別部120に送信する。
また、カメラ部220は、このときのカメラ姿勢やズーム倍率等を、状態情報保持部130に送信する。
(S306)
マーカ識別部120は、カメラ部220が撮像した映像の中に、データベース110内の(データ1)で定義されているマーカが存在しているか否か、走査を行う。
(S307)
マーカ識別部120は、ステップS306でマーカを識別したか否かを判定する。識別した場合はステップS308へ進み、識別しなかった場合はステップS310へ進む。
(S308)
状態情報保持部130は、ステップS305、S307、S311の結果に基づき、先に説明した(データ3)〜(データ4)、マスクマッピングデータを更新する。
(S309)
状態情報保持部130は、ステップS311で(データ3)に相当する内容の指示入力が行われ、ステップS308で(データ3)の内容が更新された場合には、カメラ部220にその指示内容を送信する。
カメラ部220は、その指示に基づきカメラ姿勢やズーム倍率等を変更する。
(S310)
映像処理部150は、ステップS308で更新されたマスクマッピングデータを用いてステップS305でカメラ部220が送信した映像を加工処理する。
(S311)
操作部140より、(データ3)に相当する内容の指示入力が行われた場合は、割込み処理が発生する。状態情報保持部130は、その指示入力に基づき、(データ3)の内容を更新する。
以上、本実施の形態1に係る映像処理システムの動作フローを説明した。
以上の説明では、マーカ210が指定する領域以外はマスクをかけるものとしたが、マーカ210の数が多い場合は、処理の便宜上、マーカ210が指定する領域はマスクをかけ、それ以外の領域は通常表示するように、処理内容を変更してもよい。
図4は、マーカ210がカメラ部220の視野範囲外に出ている例を示す図である。ここでは、図2と同様に黒板で問題を説明する例を用いた。
図4(a)は、マーカ210がカメラ部220の視野範囲内にある場合の例である。この場合は、状態情報保持部130は、カメラ部220が撮像した映像内に存在するマーカ210を認識してマスクマッピングデータを作成すればよい。
図4(b)は、図4(a)の状態の後、カメラ部220が姿勢を変更する等により、マーカ210がカメラ部220の視野範囲内に存在しなくなった場合の例である。
同図の状態では、映像加工範囲を求める基準となるマーカ210が視野範囲外に出ているにも関わらず、加工処理を施すべき範囲の一部が視野範囲内に残っている。
この場合、状態情報保持部130は、カメラ部220が撮像した映像内にマーカ210を識別することができないので、映像処理を施すべき領域がいずれであるのか、そのままでは分からない。
そこで、状態情報保持部130は、図4(a)の時点でマーカ210の位置座標とカメラ部220の姿勢等のデータを保持しておき、カメラ部220の姿勢が変更されて映像外に出てしまった際は、マーカ210の位置座標を演算により求める。
このような処理は、マスクマッピングデータをカメラ部220の全視野範囲(撮像可能な全範囲)について作成していることにより、可能となる。
上記処理により、状態情報保持部130は、マーカ210が視野範囲内に存在しなくなってしまった後でも、映像加工を施すべき領域を判断することができる。
以上のように、本実施の形態1によれば、マーカ210が指定する領域に映像加工処理を施すことにより、カメラ部220が撮像した映像のうち、ユーザが見せたい物のみを見せることができる。
また、本実施の形態1では、状態情報保持部130は、カメラ部220の全視野範囲(姿勢やズーム倍率を変更して撮像可能な全範囲)についてマスクマッピングデータをあらかじめ作成しておき、映像処理部150はこれを使用して映像加工を行う。
これにより、状態情報保持部130は、図4(b)で説明したようにマーカ210がカメラ部220の視野範囲外に出てしまっても、マーカ210が存在している位置座標を演算により求め、その位置を起点として映像加工範囲を求めることができる。
実施の形態2.
実施の形態1では、カメラ部220の全視野範囲にマスクをかけ、マーカ210を取り付けた部分のマスクを解除することで、ユーザが見せたい物のみを見せることを実現する構成と動作例を説明した。
この動作手順によれば、マーカ210周辺の、データベース110内(データ2)で定義される領域は、マスクが解除されて実映像が表示される。
しかし、ユーザがマーカ210を取り付けて見せたい物の背後に見せたくない物が存在している場合、その物が表示されてしまう。
そこで、本発明の実施の形態2では、見せたい物のみでなく見せたくない物にもマーカ210を取り付け、下記(式1)に示す「見せたい領域A」と「見せたくない領域B」の部分集合演算を行って、その領域のマスクを解除する。
Figure 0005077097
図5は、本実施の形態2に係る映像処理システムの構成図である。
本実施の形態2に係る映像処理システムは、実施の形態1の図1で説明した構成に加え、マーカ識別部120と状態情報保持部130の間に新たに領域演算部170を備える。その他の構成は図1と概ね同様であるため、以下では相違点を中心に説明する。
データベース110は、実施の形態1で説明した(データ2)の内容として、新たに加工処理の優先度に関する情報を保持する。例えば優先度を5段階の数値で表現し、(高5−>1低)といったように表す。
また、1つのマーカに対して複数の加工処理範囲、および加工処理範囲毎の優先度を保持するようにしてもよい。
優先度に関する情報の具体例として、例えば以下のようなものが挙げられる。
(優先度の例1)
マーカ210の中心位置を中心とする半径Aの真円領域は、優先度5でマスク解除。
(優先度の例2)
マーカ210の中心位置を中心とする半径B(B>A)の真円領域は、優先度2でマスク解除。
領域演算部170は、マーカ識別部120の識別結果、およびデータベース110内の(データ2)に基づく映像加工範囲が重複した場合、上述の優先度を加味して映像加工範囲の部分集合演算を行う。具体的な演算例は、次の図6で説明する。
図6は、領域演算部170が行う部分集合演算例を説明する図である。ここでは、マーカa、b、cの3つのマーカが存在し、それぞれ以下のようにデータベース110内(データ1)で定義されているものとする。
(マーカa):座標αを中心とした半径Aの真円領域を優先度5でマスク解除
(マーカb):座標αを中心とした半径B(B>A)の真円領域を優先度1でマスク解除
(マーカc):座標βを中心とした半径C(C>(B−A))の真円領域を優先度3でマスク設定
上記定義によれば、マーカcによるマスク設定はマーカbによるマスク解除を上書きするが、さらにそのマスク設定をマーカaによるマスク解除が上書きすることになる。
したがって、領域演算部170の部分集合演算は、下記(式2)で示すようになる。
Figure 0005077097
以上、本実施の形態2に係る映像処理システムの構成について説明した。
次に、本実施の形態2に係る映像処理システムの動作フローを説明する。
図7は、本実施の形態2に係る映像処理システムの動作フローである。以下、図7の各ステップについて説明する。
(S701)〜(S706)
図3のステップS301〜S306と同様であるため、説明を省略する。
(S707)
マーカ識別部120は、ステップS706でマーカを識別したか否かを判定する。識別した場合はステップS708へ進み、識別しなかった場合はステップS711へ進む。
(S708)
領域演算部170は、マーカ識別部120の処理結果、およびデータベース110内の(データ2)に基づき、映像加工領域に重複が発生するか否かを判断する。重複が発生する場合は、図6で例示したような部分集合演算を行い、その結果を状態保持部130に出力する。
(S709)
状態保持部130は、ステップS705、S707、S708、S712の結果、およびデータベース110が保持しているデータに基づき、先に説明した(データ3)〜(データ4)、映像加工領域、マスクマッピングデータを更新する。
(S710)〜(S712)
図3のステップS309〜S311と同様であるため、説明を省略する。
以上、本実施の形態2に係る映像処理システムの動作フローを説明した。
以上のように、本実施の形態2では、ユーザは見せたい物には見せることを許可する旨の情報を表すマーカを取り付け、見せたくない物には見せることを拒否する旨の情報を表すマーカを取り付ける。
また、領域演算部170は、各マーカに対応する映像加工領域の優先度を考慮した部分集合演算を行い、状態情報保持部130はその結果に基づきマスクマッピングデータを作成する。
これにより、ユーザが見せたい物の背後等に見せたくない物が存在している場合でも、見せる物と見せない物を区別して相手方に映像提示することができる。
実施の形態3.
実施の形態2において、ユーザが見せたくない物には、見せることを拒否する旨の情報を表すマーカを取り付けることを説明した。
一方、「見せるか見せないか」という二者択一的な処理の中間的な処理として、「映像は見せたくないがその場所に存在している旨のみを見せたい」という消極的な表示を行いたい場合がある。
この場合は、その中間表示を行いたい物に、以下の(a)〜(c)のいずれかで規定されるような情報を表すマーカを取り付けるとともに、データベース110内の(データ1)〜(データ2)にそのマーカの内容を定義しておく。
映像処理部150は、このマーカが規定する加工内容にしたがって映像加工を行う。
(a)映像加工の内容は、完全非表示ではなく、ぼかし表示とする。
(b)該当物は非表示にするが、その物を示唆する情報として、代わりにその物の名称を表示する文字列を表示する。
(c)上記(a)(b)を組み合わせる。即ち、該当物をぼかし表示にするとともに、その物の名称を表す文字列を表示する。
以上のように、本実施の形態3によれば、「見せるか見せないか」という二者択一的な処理の中間的な処理として、消極的な映像表示を行うことができる。
実施の形態4.
本発明の実施の形態4では、実施の形態1〜3で説明した構成と動作の変形例について説明する。ここでは、カメラ部220を介したプレゼンテーション、あるいは予備校のサテライト授業のような場面を想定する。
なお、本実施の形態4に係る映像処理システムの構成は、実施の形態1〜3で説明したものと概ね同様であるため、以下では相違点を中心に説明する。
実施の形態1〜3では、マーカ210は見せたい物や見せたくない物に取り付けることを説明したが、映像加工を行うためには、マーカ210が指定する領域が区別できれば足りるので、必ずしもマーカ210を固定的に設置する必要はない。
そこで、本実施の形態4では、カメラ部220を用いて説明等を行っている説明者が、マーカ210に相当する指し棒のような指示手段を用いて、見せたい領域の周辺を物理的に指し示すものとする。
図8は、本実施の形態4において、拠点2側の説明者が、マーカ210を備えた指し棒を用いて説明を行っている様子を示す図である。ここでは、図2と同様に黒板で問題を説明する例を用いた。
図8(a)は、拠点2側で実際に説明を行っている様子を示す図である。説明者は、先端にマーカ210が取り付けられている指し棒を、拠点1側の生徒に見せたい問題の上方に当てている。
これにより、実質的にマーカ210を該当する問題の上方に取り付けているのと同様の状態となり、図2と同様の処理効果を発揮することができる。
図8(b)は、拠点1側で生徒が視聴する映像を示す図である。指し棒が映像に写り込んでいる点を除き、図2(b)と同様の映像加工効果を発揮できていることが分かる。
指し棒が写りこむのが邪魔であれば、映像加工範囲の定義を変更すればよい。
以上のように、本実施の形態4によれば、実施の形態1〜3と同様の構成の下、マーカ210に相当する指示手段を用いて映像加工を行う領域を物理的に指し示すことにより、見ている映像に付加情報を重畳する映像加工を施し、AR(Augmented Reality:拡張現実感)効果を実現することができる。
また、本実施の形態4において、マーカ210のマスクの種類やマーカ210の組み合わせによって、様々なAR効果を作り出すことができる。
実施の形態5.
図9は、実施の形態4と同様の構成において、見せたい領域、ぼかす領域、見せたくない領域が混在している例を示す図である。
図9において、星型のマーカと三日月型のマーカは、完全に見せることを指示するためのマーカである。新月型のマーカは、完全に隠すことを指示するためのマーカである。
三日月型と新月型のマーカは黒板に取り付けるタイプ、星型のマーカは指し棒で指し示すタイプのマーカである。
また、マーカで指示していない領域は、薄くぼかしをかけることとする。
三日月形と新月型のマーカが指定する領域は、マーカ中心から向かって右側の楕円領域である。星型のマーカが指定する領域は、図8のマーカ210と同様である。
図9(b)の状態では、三日月形と星型のマーカが指定する領域は、マスクが完全に解除され、周辺の映像を見ることができる。新月型のマーカが指定する領域は、全く見ることができない。
また、新月型マーカと星型マーカが重複している領域(最左の問題の回答部分)では、新月型マーカの優先順位が星型マーカよりも高いため、モザイクがかけられ、やはり全く見ることができない。
その他の部分は、うっすらとぼかし処理がかかっており、わずかに見ることができる。
このように、複数のマーカ種類を組み合わせ、かつ各マーカに優先順位を付けておくことにより、様々な情報表現が可能となる。
実施の形態6.
以上の実施の形態1〜5では、拠点1側にデータベース110等の映像加工を行うための機能部が存在することを説明したが、これらの機能部を全て拠点1側に設けておき、拠点1では操作部140と映像出力部160のみ備えるように構成してもよい。
この構成は、加工処理済の映像を拠点2より送信したい場合に有効である。
実施の形態7.
以上の実施の形態1〜6では、拠点2から拠点1へ宛てて映像を送信する例を説明したが、テレコミュニケーションのように双方向の通信を行う状況下では、拠点1と拠点2の双方に同等の構成を備えておき、双方の拠点が同等の映像加工処理を行うことができるように構成してもよい。
実施の形態1に係る映像処理システムの構成図である。 マーカ210を取り付けて見せたい物だけを見せる例を示す図である。 実施の形態1に係る映像処理システムの動作フローである。 マーカ210がカメラ部220の視野範囲外に出ている例を示す図である。 実施の形態2に係る映像処理システムの構成図である。 領域演算部170が行う部分集合演算例を説明する図である。 実施の形態2に係る映像処理システムの動作フローである。 実施の形態4において、拠点2側の説明者が、マーカ210を備えた指し棒を用いて説明を行っている様子を示す図である。 実施の形態4と同様の構成において、見せたい領域、ぼかす領域、見せたくない領域が混在している例を示す図である。
符号の説明
100 映像端末、110 データベース、120 マーカ識別部、130 状態情報保持部、140 操作部、150 映像処理部、160 映像出力部、170 領域演算部、210 マーカ、220 カメラ部。

Claims (11)

  1. 映像を撮像し、かつ撮像範囲を変更可能な撮像手段と、
    前記映像の所定領域を指定する情報を表す形態を有するマーカを当該映像の中から識別するマーカ識別部と、
    前記撮像手段により撮像された映像の中で前記マーカが識別されると、前記マーカの形態が表す情報に基づいて映像加工を行う映像処理部と、を備える映像処理システムであって、
    前記撮像手段の撮像可能範囲を表す範囲情報を保持する状態情報保持部を備え、
    前記状態情報保持部は、
    前記範囲情報と前記マーカの形態が表す情報に基づき、
    前記撮像手段が撮像可能な全ての撮像範囲について、
    当該映像の加工を行う領域とその加工方法を前記撮像範囲の座標平面と対応付ける映像マスクマップを作成し、
    前記マーカが指定する領域が、
    前記撮像手段が撮像している撮像範囲から外れている際は、
    前記映像処理部は、
    前記マーカの形態が表す情報が指定する領域、前記範囲情報が指定する領域の座標、および前記映像マスクマップに基づき、
    前記撮像範囲の外における前記マーカの位置を演算により求め、
    そのマーカ位置を基準として、
    前記撮像手段が撮像している撮像範囲の中で当該映像の加工を行うべき領域を求め、
    その領域について当該映像の加工を行う
    ことを特徴とする映像処理システム。
  2. 映像を撮像し、かつ撮像範囲を変更可能な撮像手段と、
    前記映像の所定領域を指定する情報を表す形態を有するマーカを当該映像の中から識別するマーカ識別部と、
    前記撮像手段により撮像された映像の中で前記マーカが識別されると、前記マーカの形態が表す情報に基づいて映像加工を行う映像処理部と、を備える映像処理システムであって、
    複数の前記マークが指定する領域が重なった際に重なった領域の部分集合演算を実行して映像加工を行うべき領域を求める領域演算部を備え、
    前記映像処理部は、その結果に基づき前記映像の加工を行う
    ことを特徴とする映像処理システム。
  3. 前記マーカは、
    前記映像処理部が前記映像の加工を行う範囲とその加工内容を指定する情報を表す形態を有する
    ことを特徴とする請求項1または請求項2記載の映像処理システム。
  4. 前記マーカの形態を表す情報と、
    前記映像処理部が前記マーカを用いて前記映像の加工を行う方法を定義した情報と、
    を格納したデータベースを備え、
    前記マーカ識別部は、
    前記データベースが格納している前記マーカの形態を表す情報と、
    前記撮像手段が撮像した映像と、
    を比較することにより、
    前記マーカを当該映像の中から識別する
    ことを特徴とする請求項1ないし請求項3のいずれかに記載の映像処理システム。
  5. 前記撮像手段の撮像可能範囲を表す範囲情報を保持する状態情報保持部を備えた
    ことを特徴とする請求項2又は請求項2に従属する請求項3または請求項4記載の映像処理システム。
  6. 前記状態情報保持部は、
    前記範囲情報と前記マーカの形態が表す情報に基づき、
    前記撮像手段が撮像可能な全ての撮像範囲について、
    当該映像の加工を行う領域とその加工方法を前記撮像範囲の座標平面と対応付ける映像マスクマップを作成する
    ことを特徴とする請求項5記載の映像処理システム。
  7. 前記映像処理部は、
    前記映像マスクマップを前記映像に適用して当該映像の加工を行う
    ことを特徴とする請求項6記載の映像処理システム。
  8. 前記マーカは、
    前記映像の加工を行う際の優先度を指定する情報を表す形態を有し、
    前記領域演算部は、
    複数の前記マークが指定する領域が重なった際には、
    前記優先度が高い前記マーカに対応する領域の映像加工処理が優先的に行われるように前記部分集合演算を実行し、
    前記映像処理部は、その結果に基づき前記映像の加工を行う
    ことを特徴とする請求項2又は請求項2に従属する請求項3ないし請求項7記載の映像処理システム。
  9. 前記マーカは、
    前記映像を表示すべき領域を指定する情報を表す形態を有し、
    前記映像処理部は、
    前記映像を非表示加工する一方で、
    前記マーカの形態が表す情報が指定する領域の非表示を解除する
    ことを特徴とする請求項1ないし請求項8のいずれかに記載の映像処理システム。
  10. 前記マーカは、
    前記映像を非表示にすべき領域を指定する情報を表す形態を有し、
    前記映像処理部は、
    前記映像のうち前記マーカの形態が表す情報が指定する領域を非表示加工する
    ことを特徴とする請求項1ないし請求項8のいずれかに記載の映像処理システム。
  11. 前記マーカは、
    前記映像を非表示にすべき領域を指定する情報と、
    その領域内の映像内容を示唆する示唆情報と、
    を表す形態を有し、
    前記映像処理部は、
    前記映像のうち前記マーカの形態が表す情報が指定する領域を非表示加工するとともに、
    その領域周辺に前記示唆情報の内容を表示するよう前記映像を加工する
    ことを特徴とする請求項1ないし請求項8のいずれかに記載の映像処理システム。
JP2008167308A 2008-06-26 2008-06-26 映像処理システム Expired - Fee Related JP5077097B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008167308A JP5077097B2 (ja) 2008-06-26 2008-06-26 映像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008167308A JP5077097B2 (ja) 2008-06-26 2008-06-26 映像処理システム

Publications (2)

Publication Number Publication Date
JP2010011017A JP2010011017A (ja) 2010-01-14
JP5077097B2 true JP5077097B2 (ja) 2012-11-21

Family

ID=41590987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008167308A Expired - Fee Related JP5077097B2 (ja) 2008-06-26 2008-06-26 映像処理システム

Country Status (1)

Country Link
JP (1) JP5077097B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5653105B2 (ja) * 2010-07-21 2015-01-14 キヤノン株式会社 映像処理システム、映像処理方法及びプログラム
JP5691632B2 (ja) * 2011-02-24 2015-04-01 株式会社大林組 画像合成方法
JP6306822B2 (ja) * 2013-02-18 2018-04-04 株式会社エヌ・ティ・ティ・データ 画像処理装置、画像処理方法、および画像処理プログラム
JP6827758B2 (ja) 2016-10-12 2021-02-10 東芝映像ソリューション株式会社 移動式アシスト装置及び移動式アシスト方法
JP7176775B2 (ja) * 2020-03-19 2022-11-22 Necフィールディング株式会社 映像制御装置、映像制御システム、映像制御方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4378785B2 (ja) * 1999-03-19 2009-12-09 コニカミノルタホールディングス株式会社 画像処理機能を備えた画像入力装置
JP4434524B2 (ja) * 2001-07-19 2010-03-17 キヤノン株式会社 画像形成装置
JP2004048674A (ja) * 2002-05-24 2004-02-12 Olympus Corp 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ

Also Published As

Publication number Publication date
JP2010011017A (ja) 2010-01-14

Similar Documents

Publication Publication Date Title
CN105183408B (zh) 信息处理系统和显示控制方法
ES2558255T3 (es) Anotación automatizada de una vista
KR101871764B1 (ko) 가상현실 기반의 시설관리 플랫폼 구축 시스템
US10264207B2 (en) Method and system for creating virtual message onto a moving object and searching the same
JP5077097B2 (ja) 映像処理システム
WO2017051592A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP1850251A3 (en) Image viewer
JP2010219825A (ja) 三次元計測用画像撮影装置
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
JP2011239361A (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
CN104427282B (zh) 信息处理装置,信息处理方法和程序
JP2022059013A (ja) 情報処理装置、認識支援方法およびコンピュータプログラム
JP2017138947A (ja) 飛行高度制御装置、無人飛行体、飛行高度制御方法及び飛行高度制御プログラム
JP6380647B2 (ja) 情報提供方法、情報提供プログラム、情報提供装置、情報処理装置及び情報提供システム
JP2012054891A (ja) 画像処理装置、方法及びプログラム
JP2012185591A (ja) 画像処理装置、情報提供システム及びプログラム
KR20160138823A (ko) 증강현실 이용한 전통장터 정보 제공 방법
JP2014164572A (ja) 情報処理装置およびプログラム
CN113920221A (zh) 信息处理装置、信息处理方法及计算机可读介质
US20190281257A1 (en) Video monitoring apparatus for displaying event information
KR20110119179A (ko) 파노라마 이미지의 갱신 방법 및 이를 이용한 지역 검색 서비스 방법
JP2017016553A (ja) 写真管理装置、写真管理システム、および、写真管理方法
JP2016029591A (ja) 情報処理装置、情報処理方法およびプログラム
JP4478047B2 (ja) 情報提示装置及び情報提示方法とそのプログラム
WO2023224036A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120813

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5077097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees