JP2014056434A - Projection device, projection system, and program - Google Patents
Projection device, projection system, and program Download PDFInfo
- Publication number
- JP2014056434A JP2014056434A JP2012200896A JP2012200896A JP2014056434A JP 2014056434 A JP2014056434 A JP 2014056434A JP 2012200896 A JP2012200896 A JP 2012200896A JP 2012200896 A JP2012200896 A JP 2012200896A JP 2014056434 A JP2014056434 A JP 2014056434A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- projection
- unit
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、投影装置、投影システム及びプログラムに関する。 The present invention relates to a projection apparatus, a projection system, and a program.
投影装置を電柱等に設置し、道路標識等のコンテンツを路面に投影する技術(以下「街灯プロジェクタ」という。)が知られている。例えば、特許文献1には、矢印や数字等を路面に投影する交通情報システムが開示されている。特許文献1の交通情報システムは、投影画像により、道路を走行する自動車等の運転者に、交通情報を提供している。
A technique (hereinafter referred to as “streetlight projector”) that projects a content such as a road sign on a road surface by installing a projection device on a utility pole or the like is known. For example,
しかしながら、従来の街灯プロジェクタは、路面環境の変化や、周囲の明るさの変化に応じて、投影画像を変化させることができなかった。 However, the conventional street lamp projector cannot change the projected image in accordance with the change in the road surface environment or the change in the surrounding brightness.
本発明は、上記に鑑みてなされたものであって、撮影環境の変化に応じて、投影されるコンテンツを変更することができる投影装置、投影システム及びプログラムを提供することを目的にする。 The present invention has been made in view of the above, and an object of the present invention is to provide a projection device, a projection system, and a program that can change the content to be projected in accordance with a change in the shooting environment.
上述した課題を解決し、目的を達成するために、本発明の投影装置は、投影画像を投影面に投影する投影部と、前記投影面を撮影して画像を取得する撮影部と、時刻Tの前記画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の前記画像のエッジである第2エッジとを抽出するエッジ抽出部と、前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、前記投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部とを備え、前記投影部は、選択された前記コンテンツが配置された前記投影画像を投影面に投影する。 In order to solve the above-described problems and achieve the object, the projection apparatus of the present invention includes a projection unit that projects a projection image onto a projection surface, a photographing unit that photographs the projection surface and acquires an image, and a time T An edge extracting unit that extracts a first edge that is an edge of the image and a second edge that is an edge of the image at time TT ′ T ′ before time T, the first edge, and the first edge An edge difference recognition unit for recognizing an edge difference image representing a difference image from two edges, and one or more classified images extracted by classifying edges included in the edge difference image, and arranged in the projected image A selection unit that selects the content that is similar to or matches the extracted classified image from the candidates, and the projection unit projects the projection image on which the selected content is arranged onto a projection plane.
また、本発明の投影システムは、投影画像を投影面に投影する投影部と、前記投影面を撮影して画像を取得する撮影部と、時刻Tの前記画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の前記画像のエッジである第2エッジとを抽出するエッジ抽出部と、前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、前記投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部とを備え、前記投影部は、選択された前記コンテンツが配置された前記投影画像を投影面に投影する。 In addition, the projection system of the present invention includes a projection unit that projects a projection image onto a projection surface, a photographing unit that photographs the projection surface to acquire an image, a first edge that is an edge of the image at time T, An edge extraction unit that extracts a second edge that is an edge of the image at time TT ′ T ′ before time T, and an edge difference image that represents an image of a difference between the first edge and the second edge An edge difference recognizing unit for recognizing the image, and extracting one or more classified images by classifying the edges included in the edge difference image, similar to the extracted classified image from content candidates to be arranged in the projection image Or a selection unit that selects the matching content, and the projection unit projects the projection image on which the selected content is arranged onto a projection plane.
また、本発明のプログラムは、コンピュータを、時刻Tの画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の画像のエッジである第2エッジとを抽出するエッジ抽出部と、前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部として機能させる。 Further, the program of the present invention causes the computer to extract a first edge that is an edge of an image at time T and a second edge that is an edge of an image at time TT ′ T ′ before time T. An extraction unit, an edge difference recognition unit that recognizes an edge difference image that represents an image of a difference between the first edge and the second edge, and one or more classified images by classifying the edges included in the edge difference image Is extracted, and functions as a selection unit that selects the content that is similar to or matches the extracted classified image from the content candidates to be arranged in the projection image.
本発明によれば、撮影環境の変化に応じて、投影されるコンテンツを変更することができる投影装置、投影システム及びプログラムを提供することができるという効果を奏する。 According to the present invention, there is an effect that it is possible to provide a projection device, a projection system, and a program that can change the content to be projected according to a change in the shooting environment.
以下に添付図面を参照して、投影装置、投影システム及びプログラムの実施の形態を詳細に説明する。 Exemplary embodiments of a projection apparatus, a projection system, and a program will be described below in detail with reference to the accompanying drawings.
(第1の実施の形態)
図1は、本実施の形態の投影装置1の構成の一例を示すブロック図である。また、図2は、本実施の形態の投影装置1における画像処理フローの一例を示す図である。本実施の形態の投影装置1は、撮影部2、認識部3、選択部4、補正部5、及び投影部6を備える。
(First embodiment)
FIG. 1 is a block diagram showing an example of the configuration of the
撮影部2は、投影部6により投影される投影画像の投影面を撮影し、画像を取得する。取得された画像は、時系列のフレームの画像として、撮影部2に記憶される。認識部3は、撮影部2により撮影された画像から、時刻Tの画像のエッジを抽出した画像と、時刻TのT’前の時刻T−T’の画像のエッジを抽出した画像の差分を表すエッジ差分画像と、画像の輝度の変化を認識する。エッジ差分画像の認識方法と、画像の輝度の変化の認識方法の詳細については後述する。
The
選択部4は、エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、投影画像に配置するコンテンツの候補から、抽出された分類画像に類似または一致するコンテンツを選択する。コンテンツの選択方法の詳細については後述する。補正部5は、エッジ差分画像と、画像の輝度の変化に基づいて、投影画像を補正する。投影画像の補正方法の詳細については後述する。投影部6は、補正された投影画像を路面に投影する。
The
図3は、本実施の形態の投影装置1を電柱に設置した場合の一例を示す図である。本実施の形態の投影装置1は、撮影部2により得られる画像に応じて、投影部6により投影される投影画像が変更される。
FIG. 3 is a diagram illustrating an example when the
図4は、本実施の形態の投影装置1の認識部3の構成の一例を示すブロック図である。本実施の形態の認識部3は、エッジ認識部30、及び輝度認識部35を備える。エッジ認識部30は、動物体抽出部31、エッジ抽出部32、エッジ頻度算出部33、及びエッジ差分認識部34を備える。輝度認識部35は、平均輝度算出部36、及び差分値取得部37を備える。
FIG. 4 is a block diagram illustrating an example of the configuration of the
動物体抽出部31は、nフレーム目の画像の輝度と、n+1フレーム目の画像の輝度を比較して、物体が移動した領域を構成する画素(以下「動物体画素」という。)を抽出する。動物体抽出部31は、時刻Tの画像の前後Nフレームの画像の輝度を比較して、時刻Tの画像の動物体画素を抽出する。また、動物体抽出部31は、時刻TのT’前の時刻T−T’の画像の前後Nフレームの画像の輝度を比較して、時刻T−T’の画像の動物体画素を抽出する。
The moving
図5Aは、本実施の形態の投影装置1の撮影部2により撮影されたnフレーム目の画像の一例を示す図である。図6Aは、本実施の形態の投影装置1の撮影部2により撮影されたn+1フレーム目の画像の一例を示す図である。動物体抽出部31は、図5Aの画像(nフレーム目の画像)と図6Aの画像(n+1フレーム目の画像)の輝度を比較し、輝度が類似している領域を認識する。動物体抽出部31は、輝度が類似している領域の画像内の位置が変わっていれば、当該領域を動物体領域であると認識する。
FIG. 5A is a diagram illustrating an example of an n-th frame image captured by the
類似領域を検出する手法としては、ピラミッド画像生成による粗密検索や、ブロックマッチング手法であるSSD(Sum of Squared Difference)、及びSAD(Sum of Absolute Difference)が適用できる。 As a method for detecting a similar region, coarse / fine search by pyramid image generation, SSD (Sum of Squared Difference), which is a block matching method, and SAD (Sum of Absolute Difference) are applicable.
図5Bは、図5Aにより示される画像の動物体領域を示す図である。図6Bは、図6Aにより示される画像の動物体領域を示す図である。動物体抽出部31は、動物体領域を構成する画素を、動物体画素として認識する。
FIG. 5B is a diagram showing a moving object region of the image shown in FIG. 5A. FIG. 6B is a diagram showing a moving object region of the image shown in FIG. 6A. The moving
動物体抽出部31は、動物体画素をフラグ情報により管理してもよい。すなわち、(x,y)座標の画素が動物体画素であるならば、(x,y)座標の画素のフラグを1とし、動物体画素でないならば、フラグを0として管理してもよい。
The moving
また、動物体抽出部31は、動物体領域が移動した方向を示すオプティカルフローを算出する。動物体抽出部31は、nフレーム目の画像の動物体領域と、n+1フレーム目の画像の動物体領域を、オプティカルフロー方向につないだ領域についても、動物体画素を抽出する。
In addition, the moving
図7は、図5Bと図6Bの動物体領域をオプティカルベクトル方向につなげた領域を示す図である。図7の例では、動物体領域の境界線の斜線箇所を含む画素が存在する。動物体抽出部31が、当該斜線箇所を含む画素を、どのような場合に動物体画素として認識するかは、投影装置1の設定により適宜定めてよい。例えば、動物体抽出部31は、動物体領域の境界線の斜線箇所を含む画素については、領域と画素との重なりの部分の面積が、画素の面積の50%以上を占めているときに、当該画素のフラグを1にすることにより、動物体画素であることを認識してもよい。
FIG. 7 is a diagram showing a region in which the moving object regions of FIGS. 5B and 6B are connected in the optical vector direction. In the example of FIG. 7, there are pixels including the hatched portion of the boundary line of the moving object region. In what case the moving
動物体抽出部31は、時刻Tの画像における動物体画素を、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を使用して抽出する。すなわち、2N組の連続する2つのフレームの画像について動物体画素を抽出する。
The moving
なお、Nの値は、投影装置1のユーザが、投影装置1の設定を変更することにより、適宜決定できるようにしてもよい。例えば、N=10であれば、動物体抽出部31は、時刻Tの画像における動物体画素を、時刻Tの画像と、時刻Tの画像の前の10フレーム分の画像と、時刻Tの画像の後の10フレーム分の画像を使用して抽出する。
Note that the value of N may be appropriately determined by the user of the
図4に戻り、エッジ抽出部32は、時刻Tの画像のエッジ画素を、動物体画素を除く、(x,y)座標の画素について抽出する。画像のエッジ抽出手法については、既によく知られている。例えば、エッジ抽出部32は、Sobelフィルタを用いて、画像の縦線方向のエッジの抽出と、画像の横線方向のエッジを抽出する。
Returning to FIG. 4, the
ここで、Sobelフィルタについて説明する。
(1)は、画像内の縦方向のエッジを抽出するために、画像右方向(水平方向)に作用させるフィルタである。(2)は、画像内の横方向のエッジを抽出するために、画像下方向(垂直方向)に作用させるフィルタである。 (1) is a filter that acts in the right direction (horizontal direction) of the image in order to extract vertical edges in the image. (2) is a filter that acts in the downward direction (vertical direction) of the image in order to extract the horizontal edge in the image.
ここで、(x,y)座標の画素に、(1)のフィルタを作用させる場合について説明する。(x,y)座標の画素の輝度をg(x,y)とすると、(1)のフィルタを作用させた後の(x,y)座標の画素の輝度fh(x,y)は、(3)により求められる。
(x,y)座標の画素に、(2)のフィルタを作用させる場合についても、(1)のフィルタを作用させる場合と同様である。fv(x,y)を(2)のフィルタを作用させた後の(x,y)座標の画素の輝度とすると、両方のフィルタを作用させた場合の(x,y)座標の画素の輝度fvh(x,y)は、(4)により求められる。
エッジ抽出部32は、(4)により、縦方向と横方向のエッジが強調された画像を得ることができる。なお、エッジ抽出部32は、Sobelフィルタ以外のフィルタを利用して、画像のエッジ抽出をしてもよい。例えば、エッジ抽出部32は、Cannyフィルタ等を使用してエッジ抽出をしてもよい。
The
エッジ頻度算出部33は、時刻Tの画像の(x,y)座標の画素が、エッジ画素として検出された頻度を表すエッジ頻度img_edge(x,y)を、時刻Tの画像と、時刻Tの前後Nフレームの画像により、(5)により算出する。ただし、edgen(x,y)は、nフレーム目の画像の(x,y)座標の画素がエッジであるならば1、エッジでなければ0とする。
同様に、エッジ頻度算出部33は、時刻TのT’前の時刻T−T’の画像の(x,y)座標の画素が、エッジ画素として検出された頻度を表すエッジ頻度img_edge’((x,y)を、(5)と同様にして算出する。
Similarly, the edge
エッジ差分認識部34は、時刻Tの画像のエッジ差分画素を認識する。具体的には、エッジ差分認識部34は、時刻Tのimg_edge(x,y)、及び時刻TのT’前の時刻T−T’のimg_edge’(x,y)について、sub_edge(x,y)=abs(img_edge(x,y)−img_edge’(x,y))が、所定の閾値以上である場合に、(x,y)座標の画素がエッジ差分画素であると認識する。
The edge
エッジ差分認識部34は、エッジ差分画素により表されるエッジ差分画像を認識する。ここで、エッジ差分画像について、具体例を用いて説明する。図8は、路面環境の変化により、路面に描かれた道路標示が視認できなくなった場合の一例を示す図である。図8の例は、路面に雪が積もり、路面に描かれた「止まれ」が視認できなくなっている。
The edge
図9は、本実施の形態の投影装置1の撮影部2により撮影された時刻T−T’の画像の一例を示す図である。図9の時刻TのT’前の時刻T−T’の画像では、路面に雪が積もっていない。エッジ抽出部32、及びエッジ頻度算出部33により、時刻T−T’における画像の(x,y)座標の画素のエッジ頻度img_edge’(x,y)が算出される。
FIG. 9 is a diagram illustrating an example of an image at time T-T ′ captured by the
なお、時刻TのT’前の時刻T−T’は、投影装置1の設定により、任意に設定してよい。例えば、時刻T−T’は、時刻Tの1時間前でも24時間前でもよいし、或いは、1週間前や1ヶ月前等に設定してもよい。
Note that the time T-T ′ before T ′ of the time T may be arbitrarily set according to the setting of the
図10は、本実施の形態の投影装置1の撮影部2により撮影された時刻Tの画像の一例を示す図である。図10の時刻Tの画像では、路面に雪が積もっている。エッジ抽出部32、及びエッジ頻度算出部33により、時刻Tにおける画像の(x,y)座標の画素のエッジ頻度img_edge(x,y)が算出される。
FIG. 10 is a diagram illustrating an example of an image at time T photographed by the photographing
時刻Tの画像の(x,y)座標の画素のエッジ頻度img_edge(x,y)の最大値は、エッジ頻度の定義より1である。また、(x,y)座標の画素のエッジ頻度img_edge(x,y)の最小値は、エッジ頻度の定義より0である。理解を容易にするため、一番簡単な例として、時刻Tの画像と、時刻Tの画像の前後Nフレームが全て同じ画像であり、動物体領域がない場合を考える。このとき、時刻Tの任意の(x,y)座標の画素のエッジ頻度img_edge(x,y)は、0又は1である。この場合に、画像内の全ての画素でエッジ頻度img_edge(x,y)を考えると、図9の画像のエッジ(輪郭)のみが浮き上がった画像(以下「エッジ画像」という。)ができる。 The maximum value of the edge frequency img_edge (x, y) of the pixel at the (x, y) coordinate of the image at time T is 1 according to the definition of the edge frequency. Further, the minimum value of the edge frequency img_edge (x, y) of the pixel at the (x, y) coordinate is 0 according to the definition of the edge frequency. In order to facilitate understanding, the simplest example is a case where the image at time T and the N frames before and after the image at time T are all the same image and there is no moving object region. At this time, the edge frequency img_edge (x, y) of the pixel at an arbitrary (x, y) coordinate at time T is 0 or 1. In this case, when the edge frequency img_edge (x, y) is considered for all the pixels in the image, an image in which only the edge (outline) of the image in FIG. 9 is raised (hereinafter referred to as “edge image”) can be formed.
時刻T−T’の画像の(x,y)座標の画素のエッジ頻度img_edge’(x,y)についても同様である。 The same applies to the edge frequency img_edge '(x, y) of the pixel at the (x, y) coordinate of the image at time T-T'.
エッジ差分認識部34は、sub_edge(x,y)=abs(img_edge(x,y)−img_edge’(x,y))が、所定の閾値以上である場合に、エッジ差分画素であると認識する。エッジ差分画素の定義により、エッジ差分画素は、2つの時刻の画像の(x,y)座標の画素が、一方の時刻では、エッジ画素であるが、他方の時刻では、エッジ画素ではないことを示す。エッジ差分画素を、画像内の全ての(x,y)座標の画素で考えると、エッジ差分画像となる。図11は、本実施の形態の投影装置1の認識部3により生成されたエッジ差分画像の一例を示す図である。図11の例は、図9の画像に対応するエッジ画像と、図10の画像に対応するエッジ画像の差分が、エッジ差分画像として現れている。
The edge
本実施の形態の投影装置1は、エッジ差分画像を取得する過程で、動物体領域を除去することにより、路面変化による画像のエッジ差分だけを取得することができる。
The
また、本実施の形態の投影装置1は、エッジ差分画像を取得する過程で、複数の画像から算出されたエッジ頻度を考慮することで、1枚の画像の情報からエッジ差分画像を取得する場合に比べ、路面変化による画像のエッジ差分の取得精度を上げることができる。
Further, in the process of acquiring the edge difference image, the
なお、エッジ差分認識部34は、時刻Tの画像と時刻T−T’の画像のエッジ差分画像を、上述のエッジ頻度の差分ではなく、時刻Tの画像のエッジ画素で表される画像と時刻T−T’の画像のエッジ画素で表される画像の差分により取得してもよい。
Note that the edge
図4に戻り、平均輝度算出部36は、時刻Tの画像の平均輝度を、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を使用して、(6)により算出する。ただし、meann=(nフレーム目の画像の動物体画素でない画素の輝度の和)/(nフレーム目の画像の動物体画素を除いた画素数)とする。
差分値取得部37は、(時刻TのT’前の時刻T−T’の画像のNmean’)−(時刻Tの画像のNmean)により、差分値を取得する。
The difference
図12は、本実施の形態の投影装置1の投影部6の投影範囲の路面の状態が明るい場合を示す図である。また、図13は、本実施の形態の投影装置1の投影部6の投影範囲の路面の状態が暗い場合を示す図である。時刻TのT’前の路面の状態が図12の状態であり、時刻Tの路面の状態が図13の状態であるとする。このとき、差分値取得部37により取得される差分値は、正の値となる。
FIG. 12 is a diagram illustrating a case where the road surface state in the projection range of the
なお、差分値の取得方法は、(時刻Tの画像のNmean)−(時刻TのT’前の時刻T−T’の画像のNmean’)であってもよい。差分値取得部37により取得された差分値は、後述する補正部5の輝度調整部50により利用される。
The difference value acquisition method may be (Nmean of the image at time T) − (Nmean ′ of the image at time T-T ′ before T ′ at time T). The difference value acquired by the difference
図14は、本実施の形態の投影装置1の選択部4の構成の一例を示すブロック図である。本実施の形態の選択部4は、クラスタリング部40、多角形生成部41、最多輝度特定部42、コンテンツ記憶部43、コンテンツ選択部44、及び位置決定部45を備える。
FIG. 14 is a block diagram illustrating an example of the configuration of the
クラスタリング部40は、エッジ差分認識部34により得られたエッジ差分画像を、クラスタリング手法を利用して、分類画像に分類する。図15は、本実施の形態の投影装置1のクラスタリング手法の一例を示す図である。クラスタリング部40は、エッジ差分画素を中心として、所定の半径内の領域(以下「近傍」という。)と、他のエッジ差分画素の近傍が、所定の距離内にあるか否かにより、エッジ差分画素をクラスタリングする。例えば、第1のエッジ差分画素の近傍と、第2のエッジ画素の近傍が重なっていれば、第1のエッジ差分画素と第2のエッジ差分画素は、同一のクラスタに含まれるとしてもよい。分類画像は、同一クラスタに含まれるエッジ差分画素によって生成される画像である。
The
多角形生成部41は、分類画像の頂点を線分で結ぶことにより、分類画像を被覆する多角形を生成する。図16は、本実施の形態の投影装置1の多角形生成部41が生成した多角形の一例を示す図である。
The
なお、同一のクラスタに2つ以上のコンテンツが含まれる可能性がある場合には、クラスタリングの後に、デローニ三角形分割等の処理を行うことにより、更に詳細に、ある一定距離内のエッジ画素のみを考慮するようにしてもよい。 If there is a possibility that two or more contents are included in the same cluster, by performing processing such as Delaunay triangulation after clustering, only edge pixels within a certain distance can be obtained in more detail. You may make it consider.
図14に戻り、最多輝度特定部42は、多角形生成部41により生成された多角形に含まれる画素の輝度ヒストグラムを求める。最多輝度特定部42は、当該輝度ヒストグラムにおいて、出願頻度が最も多い輝度(以下「最多輝度」という。)を特定する。
Returning to FIG. 14, the most frequent
図17は、本実施の形態の投影装置1の最多輝度特定部42が生成する輝度ヒストグラムの一例を示す図である。図17の例では、輝度の値が253であるときに、輝度ヒストグラムが最大になる。したがって、図17の例では、最多輝度の値は、253である。
FIG. 17 is a diagram illustrating an example of a brightness histogram generated by the most-
なお、輝度ヒストグラムは、R(Red)、G(Green)、及びB(Blue)毎に判断してもよい。 Note that the luminance histogram may be determined for each of R (Red), G (Green), and B (Blue).
図14に戻り、コンテンツ記憶部43は、投影部6により投影される投影画像内に配置するコンテンツを記憶する。当該コンテンツは、文字、数字、記号、及び図形等を表す画像である。コンテンツ選択部44は、分類画像と最多輝度とに基づいて、コンテンツ記憶部43からコンテンツを選択する。図18は、本実施の形態の投影装置1のコンテンツ選択方法の一例を示す図である。コンテンツ選択部44は、分類画像の形状(パターンマッチング)と、分類画像の最多輝度(色マッチング)により、コンテンツ記憶部43からコンテンツを選択する。
Returning to FIG. 14, the
なお、コンテンツ選択部44は、分類画像の形状(パターンマッチング)と、分類画像の最多輝度(色マッチング)のうち、いずれか一方の方法によってコンテンツを選択してもよい。
Note that the
図14に戻り、位置決定部45は、コンテンツ選択部44により選択されたコンテンツの投影画像内の位置を決定する。位置決定部45は、当該コンテンツと、エッジ差分画像とのパターンマッチングを行い、当該コンテンツの投影画像内の位置(座標や、コンテンツの向き等)を決定する。位置決定部45によるパターンマッチングは、POC(Phase Only Correlation)等のパターンマッチング手法により行う。なお、位置決定部45によるパターンマッチング手法は、POCに限られない。
Returning to FIG. 14, the
図20は、本実施の形態の投影装置1の補正部5の構成の一例を示すブロック図である。本実施の形態の補正部5は、輝度調整部50、及びコンテンツ配置部51を備える。
FIG. 20 is a block diagram illustrating an example of the configuration of the
輝度調整部50は、投影画像の全画素の輝度に、輝度認識部35の差分値取得部37で取得された差分値を加算(又は減算)する補正を行う。これにより、朝方、夕方、日中、及び夜間等の明るさの違いや、晴れ、曇り、雨、及び霧等の天候による明るさの違いによって、投影画像の輝度を変更することができる。投影装置1の周囲が明るくなった場合には、投影画像の輝度を下げることにより、省電力効果がある。投影装置1の周囲が暗くなった場合には、投影画像の輝度を上げることにより、投影面の視認性を向上させる効果がある。
The
コンテンツ配置部51は、輝度が補正された当該画像に、コンテンツを重畳する。
The
図21は、本実施の形態の投影装置1の投影部6により、路面にコンテンツが投影された場合の一例を示す図である。図21の例は、路面に「止」が投影されている。図21の例は、雪により視認できなくなった道路標示「止まれ」の「止」の部分を、視認できるようにしている。
FIG. 21 is a diagram illustrating an example when content is projected onto a road surface by the
なお、図21の例では、説明のために簡略しているため、1つのコンテンツ「止」のみを投影している。しかしながら、投影装置1は、図11のエッジ差分画像と、自身の投影画像範囲に重なる路面上の白線部分も、同時に投影してもよい。すなわち、投影装置1は、複数のコンテンツを同時に投影してもよい。
In the example of FIG. 21, only one content “stop” is projected because it is simplified for explanation. However, the
なお、本実施の形態の投影装置1の認識部3、選択部4、及び補正部5は、ソフトウェアにより実現してもよい。また、IC(Integrated Circuit)等のハードウェアにより実現してもよい。また、ソフトウェア及びハードウェアを併用して実現してもよい。
Note that the
以上が、本実施の形態の投影装置1の構成の説明である。次に、本実施の形態の投影装置1の動作方法を、フローチャートを用いて説明する。
The above is the description of the configuration of the
図22は、本実施の形態の投影装置1の動物体画素抽出方法の一例を説明するためのフローチャートである。
FIG. 22 is a flowchart for explaining an example of the moving object pixel extraction method of the
動物体抽出部31は、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を、撮影部2から取得する(ステップS1)。
The moving
動物体抽出部31は、nフレーム目の画像の輝度と、n+1フレーム目の画像の輝度を比較して、物体が移動した領域を構成する画素を表す動物体画素を認識する(ステップS2)。動物体抽出部31は、輝度が類似している領域の画像内の位置が変わっていれば、当該領域を動物体領域であると認識する。
The moving
動物体抽出部31は、ステップS2により認識された動物体画素にフラグ(以下「動物体フラグ」という。)を付与する(ステップS3)。
The moving
動物体抽出部31は、nフレーム目の画像の動物体領域と、n+1フレーム目の画像の動物体領域に基づいて、動物体領域が移動した方向を示すオプティカルフローを計算する(ステップS4)。
The moving
動物体抽出部31は、nフレーム目の画像の動物体領域と、n+1フレーム目の画像の動物体領域を、オプティカルフロー方向につないだ領域(以下「オプティカルフロー領域」という。)を作成する(ステップS5)。動物体抽出部31は、オプティカルフロー領域に動物体フラグを付与する(ステップS6)。
The moving
動物体抽出部31は、全フレーム(2N+1フレーム)の画像を処理したか否かを判定する(ステップS7)。全フレームを処理した場合は、動物体抽出部31は、動物体画素の抽出を終了する(ステップS7、Yes)。全フレームを処理していない場合は、ステップS2に戻る(ステップS7、No)。
The moving
図23は、本実施の形態の投影装置1のエッジ画素抽出方法の一例を説明するためのフローチャートである。
FIG. 23 is a flowchart for explaining an example of the edge pixel extraction method of the
エッジ抽出部32は、エッジ画素抽出対象の画像から画素を1つ選択する(ステップS11)。
The
エッジ抽出部32は、ステップS11により選択された画素について、エッジ抽出に使用されるフィルタサイズのブロック画像を生成する(ステップS12)。例えば、フィルタのサイズが、3×3の大きさであれば、エッジ抽出部32は、9つの画素から構成される正方形のブロック画像を生成する。
The
エッジ抽出部32は、ブロック画像内に動物体フラグを有する画素があるか否かを判定する(ステップS13)。動物体フラグを有する画素がある場合は、ステップS18に進む(ステップS13、Yes)。動物体フラグを有する画素がない場合は、ステップS14に進む。
The
エッジ抽出部32は、ステップS11により選択された画素に対して、エッジ抽出を行う(ステップS14)。エッジ抽出部32は、当該選択された画素がエッジ画素であるか否かを判定する(ステップS15)。エッジ画素である場合(ステップS15、Yes)は、エッジ抽出部32は、当該選択された画素のエッジフラグを1にする(ステップS16)。エッジ画素でない場合(ステップS15、No)は、エッジ抽出部32は、当該選択された画素のエッジフラグを0にする(ステップS16)。
The
エッジ抽出部32は、画像内の全ての画素を選択したか否かを判定する(ステップS18)。全ての画素を選択した場合は、当該画像のエッジ画素の抽出を終了する(ステップS18、Yes)。全ての画素を選択していない場合は、ステップS11に戻る(ステップS18、No)。
The
図24は、本実施の形態の投影装置1のエッジ差分画像生成方法の一例を説明するためのフローチャートである。
FIG. 24 is a flowchart for explaining an example of the edge difference image generation method of the
エッジ抽出部32は、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像のエッジ画素を抽出する(ステップS21)。エッジ抽出部32は、時刻TのT’前の時刻T−T’の画像と、時刻T−T’の画像の前後Nフレームの画像のエッジ画素を抽出する(ステップS22)。
The
エッジ頻度算出部33は、時刻Tの画像の(x,y)座標の画素が、エッジ画素として検出された頻度を表すエッジ頻度img_edge(x,y)を、時刻Tの画像と、時刻Tの前後Nフレームの画像から算出する(ステップS23)。エッジ頻度算出部33は、時刻TのT’前の時刻T−T’の画像の(x,y)座標の画素が、エッジ画素として検出された頻度を表すエッジ頻度img_edge’(x,y)を、時刻T’の画像と、時刻T’の前後Nフレームの画像から算出する(ステップS24)。
The edge
エッジ差分認識部34は、時刻Tのimg_edge(x,y)と、時刻TのT’前の時刻T−T’のimg_edge’(x,y)の差分を、sub_edge(x,y)=abs(img_edge(x,y)−img_edge’(x,y))により算出する(ステップS25)。
The edge
エッジ差分認識部34は、エッジ頻度の差分sub_edge(x,y)が、所定の閾値以上であるか否かを判定する(ステップS26)。所定の閾値以上である場合(ステップS26、Yes)は、エッジ差分認識部34は、(x,y)座標の画素が、エッジ差分画素であると認識する(ステップS27)。所定の閾値より小さい場合(ステップS26、No)は、エッジ差分認識部34は、(x,y)座標の画素が、エッジ差分画素ではないと認識する(ステップS28)。
The edge
エッジ差分認識部34は、全ての(x,y)座標のエッジ差分画素により表されるエッジ差分画像を認識する(ステップS29)。
The edge
図25は、本実施の形態の投影装置1のコンテンツの選択方法の一例を説明するためのフローチャートである。
FIG. 25 is a flowchart for explaining an example of a content selection method of the
クラスタリング部40は、エッジ差分認識部34により得られたエッジ差分画像を、クラスタリング手法を利用して、分類画像に分類する(ステップS31)。クラスタリング部40は、エッジ差分画素の近傍と、他のエッジ差分画素の近傍が、所定の距離内にあるか否かにより、エッジ差分画素をクラスタリングする。分類画像は、同一クラスタに含まれるエッジ差分画素によって生成される画像である。
The
多角形生成部41は、分類画像の頂点を線分で結ぶことにより、分類画像を被覆する多角形を生成する(ステップS32)。
The
最多輝度特定部42は、多角形生成部41により生成された多角形に含まれる画素の輝度ヒストグラムを計算する(ステップS33)。最多輝度特定部42は、当該輝度ヒストグラムにおいて、出願頻度が最も多い輝度を表す最多輝度を特定する。
The most frequent
コンテンツ選択部44は、分類画像の形状(パターンマッチング)と、分類画像の最多輝度(色マッチング)により、コンテンツ記憶部43からコンテンツを選択する(ステップS34)。
The
位置決定部45は、コンテンツ選択部44により選択されたコンテンツの投影画像内の位置を決定する(ステップS35)。位置決定部45は、当該コンテンツと、エッジ差分画像とのパターンマッチングを、POC等のパターンマッチング手法により行う。位置決定部45は、パターンマッチング手法の結果に基づいて、当該コンテンツの投影画像内の位置(座標や、コンテンツの向き等)を決定する。
The
図26は、本実施の形態の投影装置1の平均輝度(Nmean)算出方法の一例を説明するためのフローチャートである。
FIG. 26 is a flowchart for explaining an example of an average luminance (Nmean) calculation method of the
平均輝度算出部36は、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を、撮影部2から取得する(ステップS41)。平均輝度算出部36は、ステップS41で取得した画像から、nフレーム目の画像を選択する(ステップS42)。平均輝度算出部36は、meann=(nフレーム目の画像の動物体画素でない画素の輝度の和)/(nフレーム目の画像の動物体画素を除いた画素数)を算出する(ステップS43)。
The average
平均輝度算出部36は、ステップS41で取得した全フレーム(2N+1個のフレーム)の画像のmeannを算出したか否かを判定する(ステップS44)。全フレームの画像のmeannを算出していない場合は、ステップS42に戻る(ステップS44、No)全フレームの画像のmeannを算出した場合は、ステップS45に進む(ステップS44、Yes)。
The average
平均輝度算出部36は、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像のmeannの平均により、時刻Tの画像の平均輝度Nmeanを算出する(ステップS45)。
The average
図27は、本実施の形態の投影装置1の投影画像の輝度調整方法の一例を説明するためのフローチャートである。
FIG. 27 is a flowchart for explaining an example of the brightness adjustment method of the projection image of the
差分値取得部37は、(時刻Tの画像のNmean)−(時刻TのT’前の時刻T−T’の画像のNmean’)により、差分値を取得する(ステップS51)。
The difference
差分値取得部37は、(時刻Tの画像のNmean)>(時刻TのT’前の時刻T−T’の画像のNmean’)であるか否かを判定する(ステップS52)。(時刻Tの画像のNmean)>(時刻TのT’前の時刻T−T’の画像のNmean’)である場合(ステップS52、Yes)は、輝度調整部50は、時刻Tの画像の全画素の輝度値からNmean−Nmean’だけ輝度値を引く(ステップS53)。(時刻Tの画像のNmean)≦(時刻TのT’前の時刻T−T’の画像のNmean’)である場合(ステップS52、No)は、ステップS54に進む。
The difference
差分値取得部37は、(時刻Tの画像のNmean)<(時刻TのT’前の時刻T−T’の画像のNmean’)であるか否かを判定する(ステップS54)。(時刻Tの画像のNmean)<(時刻TのT’前の時刻T−T’の画像のNmean’)である場合(ステップS54、Yes)は、輝度調整部50は、時刻Tの画像の全画素の輝度値にNmean−Nmean’だけ輝度値を加える(ステップS54)。(時刻Tの画像のNmean)<(時刻TのT’前の時刻T−T’の画像のNmean’)でない場合(ステップS54、No)は、ステップS56に進む。
The difference
コンテンツ配置部51は、時刻Tの画像に対する輝度補正に基づいた輝度値を有する投影画像に、コンテンツを重畳する(ステップS56)。
The
次に、本実施の形態の投影装置1のハードウェア構成について説明する。図28は、本実施の形態の投影装置1のハードウェア構成の一例を示す図である。本実施の形態の投影装置1は、プロジェクタ70、撮影装置71、制御装置72、主記憶装置73、補助記憶装置74、及び通信装置75を備える。
Next, the hardware configuration of the
プロジェクタ70は、投影面に画像を投影する。例えば、図1の投影部6がプロジェクタ70に相当する。撮影装置71は、当該投影面の状態を撮影する。例えば、図1の撮影部2が撮影装置71に相当する。撮影装置71は、カメラ等である。制御装置72は、投影装置1の動作を制御する。例えば、図1の認識部3、選択部4、及び補正部5は、制御装置72により実現される。制御装置72は、CPU(Central Processing Unit)等である。主記憶装置73は、ROM(Read Only Memory)やRAM(Random Access Memory)等である。補助記憶装置74は、HDD(Hard Disk Drive)や、光学ドライブ等である。通信装置75は、投影装置1が、無線や有線の通信手段によりネットワークに接続するための装置である。
The
本実施の形態の投影装置1で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。
A program executed by the
また、本実施の形態の投影装置1で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施の形態の投影装置1で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
Further, the program executed by the
また、本実施の形態の投影装置1のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
In addition, the program of the
本実施の形態の投影装置1で実行されるプログラムは、上述した各部(認識部3、選択部4、及び補正部5)を含むモジュール構成となっており、実際のハードウェアとしては制御装置72が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置73上にロードされ、認識部3、選択部4、及び補正部5が主記憶装置73上に生成されるようになっている。
The program executed by the
本実施の形態の投影装置1によれば、投影面の変化や、周囲の明るさの変化に応じて、投影されるコンテンツや、投影画像の輝度を変更することができる。
According to the
次に、本実施の形態の変形例について説明する。 Next, a modification of the present embodiment will be described.
上述の第1の実施の形態の説明では、投影装置1の認識部3は、撮影部2により撮影された画像を、そのまま使用して、エッジ差分画像を認識した。しかしながら、一般に、撮影部2を配置する位置によっては、道路平面は射影的に歪んだ状態で撮影される。この歪みが大きい場合には、認識部3によるマッチング精度が悪化する恐れがある。
In the description of the first embodiment described above, the
投影装置1は、撮影部2により撮影された画像に、射影変換をかけてから、認識部3によってエッジ差分画像を認識してもよい。図29は、第1の実施の形態の投影装置1の撮影部2により撮影された画像に、射影変換を行う場合の一例を示す図である。
The
例えば、投影装置1は、画像上の道路の白線のエッジ情報を用いて、白線のエッジが水平になるように射影変換をかける。すなわち、投影装置1は、道路を鳥瞰図としてみることのできる射影変換行列を保存しておく。投影装置1は、撮影部2により取得した画像に、射影変換行列をかけた後に、エッジ差分画像を認識する。
For example, the
また、上述の第1の実施の形態の説明では、投影装置1は、視認できなくなった道路標示と同一の道路標示を、路面に投影している。しかしながら、投影する画像に含まれるコンテンツは、視認できなくなった道路標示と同一でなくてもよい。図30は、第1の実施の形態の投影装置1の投影部6が、投影するコンテンツを変更した場合の一例を示す図である。図30の例では、視認できなくなった道路標示「止まれ」ではなく、道路標識(一時停止の規制標識)を投影している。
In the description of the first embodiment described above, the
また、上述の第1の実施の形態の説明では、投影装置1は、2次元情報のみを扱ったが、道路上の3次元形状を取得してもよい。3次元情報の取得方法については、プロジェクタとカメラを利用したステレオ法が知られている。投影装置1は、3次元情報を認識することにより、道路の陥没等による路面の変化を認識することができる。
In the description of the first embodiment described above, the
(第2の実施の形態)
図31は、第2の実施の形態の投影システム80の構成の一例を示すブロック図である。本実施の形態の投影システム80は、プロジェクタ81、及び演算装置82を備える。プロジェクタ81は、撮影部2、投影部6、及び通信部7を備える。演算装置82は、認識部3、選択部4、補正部5、及び通信部8を備える。
(Second Embodiment)
FIG. 31 is a block diagram illustrating an example of the configuration of the projection system 80 according to the second embodiment. The projection system 80 according to the present embodiment includes a
撮影部2、認識部3、選択部4、補正部5、及び投影部6については、第1の実施の形態と同様であるため、説明を省略する。通信部7、及び通信部8は、プロジェクタ81と演算装置82の間のデータを、無線又は有線による通信手段により送受信する。
Since the
本実施の形態の投影システム80によれば、画像の取得と投影を行う装置と、演算処理を行う認識部3、選択部4、及び補正部5を分離することができる。これにより、複数のプロジェクタ81で、一台の演算装置82を共有するといった運用も可能となる。演算装置82は、コンピュータ等の情報処理装置であってもよい。
According to the projection system 80 of the present embodiment, it is possible to separate the image acquisition and projection apparatus from the
(第3の実施の形態)
図32は、第3の実施の形態の投影システム80を説明するための図である。本実施の形態の投影システム80は、撮影部2a、撮影部2b、撮影部2c、投影部6a、投影部6b、及び投影部6cを備える。
(Third embodiment)
FIG. 32 is a diagram for explaining a projection system 80 according to the third embodiment. The projection system 80 according to the present embodiment includes an
投影部6a、投影部6b、及び投影部6cは、投影画像内に、各々の投影範囲を識別するためのマーカーを含める。投影システム80は、撮影部2a、撮影部2b、及び撮影部2cにより撮影された画像に含まれるマーカーによって、隣接する投影部6の投影範囲を認識する。これにより、投影システム80は、複数の投影部6が投影画像を投影することによる投影画像の重複等を防ぐことができる。なお、撮影部2、及び投影部6の台数は3台に限らず、任意の台数でよい。
The
本実施の形態の投影システム80によれば、複数の投影装置1が連携して、複数のコンテンツを含む画像を、路面に投影することができる。
According to the projection system 80 of the present embodiment, a plurality of
1 投影装置
2,2a〜2c 撮影部
4 選択部
5 補正部
6,6a〜6c 投影部
7 通信部
8 通信部
30 エッジ認識部
31 動物体抽出部
32 エッジ抽出部
33 エッジ頻度算出部
34 エッジ差分認識部
35 輝度認識部
36 平均輝度算出部
37 差分値取得部
40 クラスタリング部
41 多角形生成部
42 最多輝度特定部
43 コンテンツ記憶部
44 コンテンツ選択部
45 位置決定部
50 輝度調整部
51 コンテンツ配置部
70 プロジェクタ
71 撮影装置
72 制御装置
73 主記憶装置
74 補助記憶装置
75 通信装置
80 投影システム
81 プロジェクタ
82 演算装置
DESCRIPTION OF
Claims (8)
前記投影面を撮影して画像を取得する撮影部と、
時刻Tの前記画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の前記画像のエッジである第2エッジとを抽出するエッジ抽出部と、
前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、
前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、前記投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部とを備え、
前記投影部は、選択された前記コンテンツが配置された前記投影画像を前記投影面に投影する
投影装置。 A projection unit that projects a projection image onto a projection plane;
A photographing unit for photographing the projection plane to obtain an image;
An edge extraction unit that extracts a first edge that is an edge of the image at time T and a second edge that is an edge of the image at time TT ′ T ′ before time T;
An edge difference recognition unit for recognizing an edge difference image representing an image of a difference between the first edge and the second edge;
Selection of extracting one or more classified images by classifying edges included in the edge difference image, and selecting the content that is similar to or matches the extracted classified image from candidate content to be arranged in the projection image With
The projection unit projects the projection image on which the selected content is arranged onto the projection plane.
前記エッジ抽出部は、前記動物体画素を除いた前記画像からエッジを抽出する
請求項1に記載の投影装置。 The luminance of the image in the N frames before and after the image at time T is compared, and the moving object pixel representing the pixel constituting the region where the object of the image at time T has moved is extracted, and the image at time TT ′ is extracted. A moving object extracting unit that compares the luminance of the image in the N frames before and after the image and extracts the moving object pixel of the image at the time TT ′;
The projection device according to claim 1, wherein the edge extraction unit extracts an edge from the image excluding the moving object pixel.
前記エッジ差分認識部は、
前記時刻Tのエッジ頻度と、前記時刻T−T’のエッジ頻度の差分が、所定の閾値以上の画素で表されるエッジ差分画像を認識する
請求項1又は2に記載の投影装置。 An edge frequency representing the frequency at which pixels of the image at the time T are detected as the edge is calculated from the image at the time T and images of N frames before and after the image at the time T, and the image at the time TT ′. An edge frequency calculating unit that calculates an edge frequency representing a frequency at which the pixel of the pixel is detected as the edge from an image at time TT ′ and images of N frames before and after the image at time TT ′;
The edge difference recognition unit
The projection apparatus according to claim 1, wherein an edge difference image in which a difference between the edge frequency at the time T and the edge frequency at the time TT ′ is represented by pixels having a predetermined threshold value or more is recognized.
前記分類画像を被覆する多角形を生成する多角形生成部と、
前記多角形に含まれる画素の輝度ヒストグラムから、最多輝度を特定する最多輝度特定部と
を更に備え、
前記選択部は、更に、前記最多輝度が、前記分類画像の輝度に類似または一致する前記コンテンツを選択する
請求項1乃至3のいずれか1項に記載の投影装置。 The selection unit includes:
A polygon generating unit that generates a polygon covering the classified image;
A maximum brightness specifying unit for specifying the maximum brightness from the brightness histogram of the pixels included in the polygon; and
The projection device according to any one of claims 1 to 3, wherein the selection unit further selects the content in which the maximum luminance is similar to or coincides with the luminance of the classified image.
(時刻T−T’の画像のNmean’)−(時刻Tの画像のNmean)により、差分値を取得する差分値取得部と
前記選択されたコンテンツを配置する前の投影画像の全画素の輝度に、前記差分値を加算することにより、前記投影画像の輝度を調整する輝度調整部と
を更に備える請求項1乃至4のいずれか1項に記載の投影装置。 Using the average brightness Nmean of the image at time T and the image at time T and the images of N frames before and after the image at time T, mean n = (nth frame image from n = 0 to n = 2N) The sum of the luminances of the non-animal pixels) / (the number of pixels excluding the animal pixels in the nth frame image),
(Nmean ′ of image at time TT ′) − (Nmean of image at time T) −Difference value acquisition unit for acquiring a difference value and luminance of all pixels of the projection image before the selected content is arranged The projection apparatus according to claim 1, further comprising: a luminance adjustment unit that adjusts the luminance of the projection image by adding the difference value.
請求項1乃至5のいずれか1項に記載の投影装置。 The said selection part classifies the said edge according to whether the vicinity of the pixel which comprises the said edge, and the vicinity of the pixel which comprises the other said edge are in a predetermined range. The projection apparatus according to Item 1.
前記投影面を撮影して画像を取得する撮影部と、
時刻Tの前記画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の前記画像のエッジである第2エッジとを抽出するエッジ抽出部と、
前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、
前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、前記投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部とを備え、
前記投影部は、選択された前記コンテンツが配置された前記投影画像を前記投影面に投影する
投影システム。 A projection unit that projects a projection image onto a projection plane;
A photographing unit for photographing the projection plane to obtain an image;
An edge extraction unit that extracts a first edge that is an edge of the image at time T and a second edge that is an edge of the image at time TT ′ T ′ before time T;
An edge difference recognition unit for recognizing an edge difference image representing an image of a difference between the first edge and the second edge;
Selection of extracting one or more classified images by classifying edges included in the edge difference image, and selecting the content that is similar to or matches the extracted classified image from candidate content to be arranged in the projection image With
The projection unit projects the projection image on which the selected content is arranged onto the projection plane.
時刻Tの画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の画像のエッジである第2エッジとを抽出するエッジ抽出部と、
前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、
前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部と
して機能させるためのプログラム。 Computer
An edge extraction unit that extracts a first edge that is an edge of an image at time T and a second edge that is an edge of an image at time TT ′ T ′ before time T;
An edge difference recognition unit for recognizing an edge difference image representing an image of a difference between the first edge and the second edge;
A selection unit that extracts one or more classified images by classifying edges included in the edge difference image, and selects the content that is similar to or coincides with the extracted classified image from candidate content to be arranged in the projected image Program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012200896A JP2014056434A (en) | 2012-09-12 | 2012-09-12 | Projection device, projection system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012200896A JP2014056434A (en) | 2012-09-12 | 2012-09-12 | Projection device, projection system, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014056434A true JP2014056434A (en) | 2014-03-27 |
Family
ID=50613693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012200896A Ceased JP2014056434A (en) | 2012-09-12 | 2012-09-12 | Projection device, projection system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014056434A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020250658A1 (en) * | 2019-06-12 | 2020-12-17 | 株式会社小糸製作所 | Infractructure for traffic |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6479886A (en) * | 1987-09-21 | 1989-03-24 | Nec Corp | Pattern recognizing system |
JP2006525590A (en) * | 2003-05-07 | 2006-11-09 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Traffic information system that conveys information to the driver |
-
2012
- 2012-09-12 JP JP2012200896A patent/JP2014056434A/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6479886A (en) * | 1987-09-21 | 1989-03-24 | Nec Corp | Pattern recognizing system |
JP2006525590A (en) * | 2003-05-07 | 2006-11-09 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Traffic information system that conveys information to the driver |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020250658A1 (en) * | 2019-06-12 | 2020-12-17 | 株式会社小糸製作所 | Infractructure for traffic |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10185879B2 (en) | Image processing device | |
JP5747549B2 (en) | Signal detector and program | |
KR101758684B1 (en) | Apparatus and method for tracking object | |
JP6371553B2 (en) | Video display device and video display system | |
KR102089343B1 (en) | Around view monitoring system and calibration method for around view cameras | |
JP6501257B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP2013203374A (en) | Display device for vehicle, control method therefor, and program | |
WO2019082797A1 (en) | Reconfiguration method and reconfiguration device | |
JP2018124890A (en) | Image processing apparatus, image processing method, and image processing program | |
KR20190030870A (en) | Image composition apparatus using virtual chroma-key background, method and computer program | |
KR101699014B1 (en) | Method for detecting object using stereo camera and apparatus thereof | |
CN114627175A (en) | Image processing method, intelligent terminal and computer readable storage medium | |
JP6091727B1 (en) | Image processing apparatus, image processing method, and program | |
CN108965646A (en) | Image processing apparatus, image processing method and storage medium | |
JP4882577B2 (en) | Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program | |
US9569674B2 (en) | Movement amount estimation device, movement amount estimation method, and computer-readable recording medium storing movement amount estimation program | |
JP5338762B2 (en) | White balance coefficient calculation device and program | |
JP2020095621A (en) | Image processing device and image processing method | |
JP2011170568A (en) | Device and method for detecting obstacle | |
KR101726692B1 (en) | Apparatus and method for extracting object | |
JP2014056434A (en) | Projection device, projection system, and program | |
JP6316154B2 (en) | Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method | |
JP2017174380A (en) | Recognition device, method for recognizing object, program, and storage medium | |
Itu et al. | An efficient obstacle awareness application for android mobile devices | |
JP2011150594A (en) | Image processor and image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160628 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160727 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170104 |
|
A045 | Written measure of dismissal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20170530 |