JP2014056434A - Projection device, projection system, and program - Google Patents

Projection device, projection system, and program Download PDF

Info

Publication number
JP2014056434A
JP2014056434A JP2012200896A JP2012200896A JP2014056434A JP 2014056434 A JP2014056434 A JP 2014056434A JP 2012200896 A JP2012200896 A JP 2012200896A JP 2012200896 A JP2012200896 A JP 2012200896A JP 2014056434 A JP2014056434 A JP 2014056434A
Authority
JP
Japan
Prior art keywords
image
edge
projection
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2012200896A
Other languages
Japanese (ja)
Inventor
Shinichi Sumiyoshi
信一 住吉
Fumihiro Hasegawa
史裕 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012200896A priority Critical patent/JP2014056434A/en
Publication of JP2014056434A publication Critical patent/JP2014056434A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projection device, a projection system and a program capable of changing a projected content according to a change of an imaging environment.SOLUTION: A projection device of the present invention comprises: a projection part which projects a projection image on a projection surface; an imaging part which acquires an image by imaging the projection surface; an edge extraction part which extracts a first edge which is an edge of the image at time T, and a second edge which is an edge of the image at time T-T' which is the time T' before T; an edge difference recognition part which recognizes an edge difference image representing an image of the difference between the first edge and the second edge; and a selection part which extracts one or more classification images by classifying an edge included in the edge difference image, and selects a content similar to or identical with the extracted classification image from content candidates arranged on the projection image. The projection part projects a projection image having the selected content arranged on the projection surface.

Description

本発明は、投影装置、投影システム及びプログラムに関する。   The present invention relates to a projection apparatus, a projection system, and a program.

投影装置を電柱等に設置し、道路標識等のコンテンツを路面に投影する技術(以下「街灯プロジェクタ」という。)が知られている。例えば、特許文献1には、矢印や数字等を路面に投影する交通情報システムが開示されている。特許文献1の交通情報システムは、投影画像により、道路を走行する自動車等の運転者に、交通情報を提供している。   A technique (hereinafter referred to as “streetlight projector”) that projects a content such as a road sign on a road surface by installing a projection device on a utility pole or the like is known. For example, Patent Document 1 discloses a traffic information system that projects arrows, numbers, and the like onto a road surface. The traffic information system of Patent Document 1 provides traffic information to a driver such as an automobile traveling on a road by using a projection image.

しかしながら、従来の街灯プロジェクタは、路面環境の変化や、周囲の明るさの変化に応じて、投影画像を変化させることができなかった。   However, the conventional street lamp projector cannot change the projected image in accordance with the change in the road surface environment or the change in the surrounding brightness.

本発明は、上記に鑑みてなされたものであって、撮影環境の変化に応じて、投影されるコンテンツを変更することができる投影装置、投影システム及びプログラムを提供することを目的にする。   The present invention has been made in view of the above, and an object of the present invention is to provide a projection device, a projection system, and a program that can change the content to be projected in accordance with a change in the shooting environment.

上述した課題を解決し、目的を達成するために、本発明の投影装置は、投影画像を投影面に投影する投影部と、前記投影面を撮影して画像を取得する撮影部と、時刻Tの前記画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の前記画像のエッジである第2エッジとを抽出するエッジ抽出部と、前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、前記投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部とを備え、前記投影部は、選択された前記コンテンツが配置された前記投影画像を投影面に投影する。   In order to solve the above-described problems and achieve the object, the projection apparatus of the present invention includes a projection unit that projects a projection image onto a projection surface, a photographing unit that photographs the projection surface and acquires an image, and a time T An edge extracting unit that extracts a first edge that is an edge of the image and a second edge that is an edge of the image at time TT ′ T ′ before time T, the first edge, and the first edge An edge difference recognition unit for recognizing an edge difference image representing a difference image from two edges, and one or more classified images extracted by classifying edges included in the edge difference image, and arranged in the projected image A selection unit that selects the content that is similar to or matches the extracted classified image from the candidates, and the projection unit projects the projection image on which the selected content is arranged onto a projection plane.

また、本発明の投影システムは、投影画像を投影面に投影する投影部と、前記投影面を撮影して画像を取得する撮影部と、時刻Tの前記画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の前記画像のエッジである第2エッジとを抽出するエッジ抽出部と、前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、前記投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部とを備え、前記投影部は、選択された前記コンテンツが配置された前記投影画像を投影面に投影する。   In addition, the projection system of the present invention includes a projection unit that projects a projection image onto a projection surface, a photographing unit that photographs the projection surface to acquire an image, a first edge that is an edge of the image at time T, An edge extraction unit that extracts a second edge that is an edge of the image at time TT ′ T ′ before time T, and an edge difference image that represents an image of a difference between the first edge and the second edge An edge difference recognizing unit for recognizing the image, and extracting one or more classified images by classifying the edges included in the edge difference image, similar to the extracted classified image from content candidates to be arranged in the projection image Or a selection unit that selects the matching content, and the projection unit projects the projection image on which the selected content is arranged onto a projection plane.

また、本発明のプログラムは、コンピュータを、時刻Tの画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の画像のエッジである第2エッジとを抽出するエッジ抽出部と、前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部として機能させる。   Further, the program of the present invention causes the computer to extract a first edge that is an edge of an image at time T and a second edge that is an edge of an image at time TT ′ T ′ before time T. An extraction unit, an edge difference recognition unit that recognizes an edge difference image that represents an image of a difference between the first edge and the second edge, and one or more classified images by classifying the edges included in the edge difference image Is extracted, and functions as a selection unit that selects the content that is similar to or matches the extracted classified image from the content candidates to be arranged in the projection image.

本発明によれば、撮影環境の変化に応じて、投影されるコンテンツを変更することができる投影装置、投影システム及びプログラムを提供することができるという効果を奏する。   According to the present invention, there is an effect that it is possible to provide a projection device, a projection system, and a program that can change the content to be projected according to a change in the shooting environment.

図1は、第1の実施の形態の投影装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of the configuration of the projection apparatus according to the first embodiment. 図2は、第1の実施の形態の投影装置における画像処理フローの一例を示す図である。FIG. 2 is a diagram illustrating an example of an image processing flow in the projection apparatus according to the first embodiment. 図3は、第1の実施の形態の投影装置を電柱に設置した場合の一例を示す図である。FIG. 3 is a diagram illustrating an example when the projection apparatus according to the first embodiment is installed on a utility pole. 図4は、第1の実施の形態の投影装置の認識部の構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of the configuration of the recognition unit of the projection apparatus according to the first embodiment. 図5Aは、第1の実施の形態の投影装置の撮影部により撮影されたnフレーム目の画像の一例を示す図である。FIG. 5A is a diagram illustrating an example of an nth frame image captured by the imaging unit of the projection apparatus according to the first embodiment. 図5Bは、図5Aにより示される画像の動物体領域を示す図である。FIG. 5B is a diagram showing a moving object region of the image shown in FIG. 5A. 図6Aは、第1の実施の形態の投影装置の撮影部により撮影されたn+1フレーム目の画像の一例を示す図である。FIG. 6A is a diagram illustrating an example of an image of the (n + 1) th frame photographed by the photographing unit of the projection apparatus according to the first embodiment. 図6Bは、図6Aにより示される画像の動物体領域を示す図である。FIG. 6B is a diagram showing a moving object region of the image shown in FIG. 6A. 図7は、図5Bと図6Bの動物体領域をオプティカルベクトル方向につなげた領域を示す図である。FIG. 7 is a diagram showing a region in which the moving object regions of FIGS. 5B and 6B are connected in the optical vector direction. 図8は、路面環境の変化により、路面に描かれた道路標示が視認できなくなった場合の一例を示す図である。FIG. 8 is a diagram illustrating an example when the road marking drawn on the road surface becomes invisible due to a change in the road surface environment. 図9は、第1の実施の形態の投影装置の投影部により撮影された時刻T−T’の画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of an image at time T-T ′ taken by the projection unit of the projection apparatus according to the first embodiment. 図10は、第1の実施の形態の投影装置の投影部により撮影された時刻Tの画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of an image at time T captured by the projection unit of the projection apparatus according to the first embodiment. 図11は、第1の実施の形態の投影装置の認識部により生成されたエッジ差分画像の一例を示す図である。FIG. 11 is a diagram illustrating an example of an edge difference image generated by the recognition unit of the projection apparatus according to the first embodiment. 図12は、第1の実施の形態の投影装置の投影部の投影範囲の路面の状態が明るい場合を示す図である。FIG. 12 is a diagram illustrating a case where the road surface state in the projection range of the projection unit of the projection apparatus according to the first embodiment is bright. 図13は、第1の実施の形態の投影装置の投影部の投影範囲の路面の状態が暗い場合を示す図である。FIG. 13 is a diagram illustrating a case where the road surface state in the projection range of the projection unit of the projection apparatus according to the first embodiment is dark. 図14は、第1の実施の形態の投影装置の選択部の構成の一例を示すブロック図である。FIG. 14 is a block diagram illustrating an example of the configuration of the selection unit of the projection apparatus according to the first embodiment. 図15は、第1の実施の形態の投影装置のクラスタリング手法の一例を示す図である。FIG. 15 is a diagram illustrating an example of a clustering method of the projection apparatus according to the first embodiment. 図16は、第1の実施の形態の投影装置の多角形生成部が生成した多角形の一例を示す図である。FIG. 16 is a diagram illustrating an example of a polygon generated by the polygon generation unit of the projection apparatus according to the first embodiment. 図17は、第1の実施の形態の投影装置の最多輝度特定部が生成する輝度ヒストグラムの一例を示す図である。FIG. 17 is a diagram illustrating an example of a luminance histogram generated by the most frequent luminance specifying unit of the projection apparatus according to the first embodiment. 図18は、第1の実施の形態の投影装置のコンテンツ選択方法の一例を示す図である。FIG. 18 is a diagram illustrating an example of a content selection method of the projection apparatus according to the first embodiment. 図19は、第1の実施の形態の投影装置の位置決定部が、コンテンツの位置を決定する場合の一例を示す図である。FIG. 19 is a diagram illustrating an example when the position determination unit of the projection apparatus according to the first embodiment determines the position of the content. 図20は、第1の実施の形態の投影装置の補正部の構成の一例を示すブロック図である。FIG. 20 is a block diagram illustrating an example of the configuration of the correction unit of the projection apparatus according to the first embodiment. 図21は、第1の実施の形態の投影装置の投影部により、路面にコンテンツが投影された場合の一例を示す図である。FIG. 21 is a diagram illustrating an example when content is projected onto a road surface by the projection unit of the projection apparatus according to the first embodiment. 図22は、第1の実施の形態の投影装置の動物体画素抽出方法の一例を説明するためのフローチャートである。FIG. 22 is a flowchart for explaining an example of the moving object pixel extraction method of the projection apparatus according to the first embodiment. 図23は、第1の実施の形態の投影装置のエッジ画素抽出方法の一例を説明するためのフローチャートである。FIG. 23 is a flowchart for explaining an example of the edge pixel extraction method of the projection apparatus according to the first embodiment. 図24は、第1の実施の形態の投影装置のエッジ差分画像生成方法の一例を説明するためのフローチャートである。FIG. 24 is a flowchart for explaining an example of the edge difference image generation method of the projection apparatus according to the first embodiment. 図25は、第1の実施の形態の投影装置のコンテンツの選択方法の一例を説明するためのフローチャートである。FIG. 25 is a flowchart for explaining an example of a content selection method of the projection apparatus according to the first embodiment. 図26は、第1の実施の形態の投影装置の平均輝度(Nmean)算出方法の一例を説明するためのフローチャートである。FIG. 26 is a flowchart for explaining an example of an average luminance (Nmean) calculation method of the projection apparatus according to the first embodiment. 図27は、第1の実施の形態の投影装置の投影画像の輝度調整方法の一例を説明するためのフローチャートである。FIG. 27 is a flowchart for explaining an example of the brightness adjustment method of the projection image of the projection apparatus according to the first embodiment. 図28は、第1の実施の形態の投影装置のハードウェア構成の一例を示す図である。FIG. 28 is a diagram illustrating an example of a hardware configuration of the projection apparatus according to the first embodiment. 図29は、第1の実施の形態の投影装置の撮影部により撮影された画像に、射影変換を行う場合の一例を示す図である。FIG. 29 is a diagram illustrating an example when projective transformation is performed on an image photographed by the photographing unit of the projection apparatus according to the first embodiment. 図30は、第1の実施の形態の投影装置の投影部が、投影するコンテンツを変更した場合の一例を示す図である。FIG. 30 is a diagram illustrating an example where the projection unit of the projection apparatus according to the first embodiment changes the content to be projected. 図31は、第2の実施の形態の投影システムの構成の一例を示すブロック図である。FIG. 31 is a block diagram illustrating an example of the configuration of the projection system according to the second embodiment. 図32は、第3の実施の形態の投影システムを説明するための図である。FIG. 32 is a diagram for explaining the projection system according to the third embodiment.

以下に添付図面を参照して、投影装置、投影システム及びプログラムの実施の形態を詳細に説明する。   Exemplary embodiments of a projection apparatus, a projection system, and a program will be described below in detail with reference to the accompanying drawings.

(第1の実施の形態)
図1は、本実施の形態の投影装置1の構成の一例を示すブロック図である。また、図2は、本実施の形態の投影装置1における画像処理フローの一例を示す図である。本実施の形態の投影装置1は、撮影部2、認識部3、選択部4、補正部5、及び投影部6を備える。
(First embodiment)
FIG. 1 is a block diagram showing an example of the configuration of the projection apparatus 1 according to the present embodiment. FIG. 2 is a diagram illustrating an example of an image processing flow in the projection apparatus 1 according to the present embodiment. The projection apparatus 1 according to the present embodiment includes an imaging unit 2, a recognition unit 3, a selection unit 4, a correction unit 5, and a projection unit 6.

撮影部2は、投影部6により投影される投影画像の投影面を撮影し、画像を取得する。取得された画像は、時系列のフレームの画像として、撮影部2に記憶される。認識部3は、撮影部2により撮影された画像から、時刻Tの画像のエッジを抽出した画像と、時刻TのT’前の時刻T−T’の画像のエッジを抽出した画像の差分を表すエッジ差分画像と、画像の輝度の変化を認識する。エッジ差分画像の認識方法と、画像の輝度の変化の認識方法の詳細については後述する。   The imaging unit 2 captures the projection plane of the projection image projected by the projection unit 6 and acquires an image. The acquired image is stored in the photographing unit 2 as a time-series frame image. The recognizing unit 3 obtains a difference between an image obtained by extracting the edge of the image at the time T from the image taken by the photographing unit 2 and an image obtained by extracting the edge of the image at the time TT ′ T ′ before the time T. Recognize the edge difference image to be represented and the change in luminance of the image. The details of the edge difference image recognition method and the image brightness change recognition method will be described later.

選択部4は、エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、投影画像に配置するコンテンツの候補から、抽出された分類画像に類似または一致するコンテンツを選択する。コンテンツの選択方法の詳細については後述する。補正部5は、エッジ差分画像と、画像の輝度の変化に基づいて、投影画像を補正する。投影画像の補正方法の詳細については後述する。投影部6は、補正された投影画像を路面に投影する。   The selection unit 4 extracts one or more classified images by classifying the edges included in the edge difference image, and selects content that is similar to or matches the extracted classified image from the content candidates to be arranged in the projection image. . Details of the content selection method will be described later. The correction unit 5 corrects the projection image based on the edge difference image and the change in luminance of the image. Details of the projection image correction method will be described later. The projection unit 6 projects the corrected projection image on the road surface.

図3は、本実施の形態の投影装置1を電柱に設置した場合の一例を示す図である。本実施の形態の投影装置1は、撮影部2により得られる画像に応じて、投影部6により投影される投影画像が変更される。   FIG. 3 is a diagram illustrating an example when the projection apparatus 1 of the present embodiment is installed on a utility pole. In the projection apparatus 1 according to the present embodiment, the projection image projected by the projection unit 6 is changed according to the image obtained by the imaging unit 2.

図4は、本実施の形態の投影装置1の認識部3の構成の一例を示すブロック図である。本実施の形態の認識部3は、エッジ認識部30、及び輝度認識部35を備える。エッジ認識部30は、動物体抽出部31、エッジ抽出部32、エッジ頻度算出部33、及びエッジ差分認識部34を備える。輝度認識部35は、平均輝度算出部36、及び差分値取得部37を備える。   FIG. 4 is a block diagram illustrating an example of the configuration of the recognition unit 3 of the projection apparatus 1 according to the present embodiment. The recognition unit 3 according to the present embodiment includes an edge recognition unit 30 and a luminance recognition unit 35. The edge recognition unit 30 includes a moving object extraction unit 31, an edge extraction unit 32, an edge frequency calculation unit 33, and an edge difference recognition unit 34. The luminance recognition unit 35 includes an average luminance calculation unit 36 and a difference value acquisition unit 37.

動物体抽出部31は、nフレーム目の画像の輝度と、n+1フレーム目の画像の輝度を比較して、物体が移動した領域を構成する画素(以下「動物体画素」という。)を抽出する。動物体抽出部31は、時刻Tの画像の前後Nフレームの画像の輝度を比較して、時刻Tの画像の動物体画素を抽出する。また、動物体抽出部31は、時刻TのT’前の時刻T−T’の画像の前後Nフレームの画像の輝度を比較して、時刻T−T’の画像の動物体画素を抽出する。   The moving object extraction unit 31 compares the luminance of the image of the nth frame with the luminance of the image of the (n + 1) th frame, and extracts a pixel (hereinafter referred to as “animal body pixel”) that constitutes a region where the object has moved. . The moving object extraction unit 31 extracts the moving object pixels of the image at time T by comparing the luminances of the N frames before and after the image at time T. In addition, the moving object extraction unit 31 extracts the moving object pixels of the image at the time TT ′ by comparing the luminances of the images of the N frames before and after the image at the time TT ′ before the time T ′. .

図5Aは、本実施の形態の投影装置1の撮影部2により撮影されたnフレーム目の画像の一例を示す図である。図6Aは、本実施の形態の投影装置1の撮影部2により撮影されたn+1フレーム目の画像の一例を示す図である。動物体抽出部31は、図5Aの画像(nフレーム目の画像)と図6Aの画像(n+1フレーム目の画像)の輝度を比較し、輝度が類似している領域を認識する。動物体抽出部31は、輝度が類似している領域の画像内の位置が変わっていれば、当該領域を動物体領域であると認識する。   FIG. 5A is a diagram illustrating an example of an n-th frame image captured by the imaging unit 2 of the projection apparatus 1 according to the present embodiment. FIG. 6A is a diagram illustrating an example of an (n + 1) th frame image captured by the imaging unit 2 of the projection apparatus 1 according to the present embodiment. The moving object extraction unit 31 compares the luminance of the image of FIG. 5A (image of the nth frame) and the image of FIG. 6A (image of the (n + 1) th frame), and recognizes a region where the luminance is similar. If the position in the image of the area | region where brightness | luminance is similar has changed, the moving body extraction part 31 will recognize the said area | region as a moving body area | region.

類似領域を検出する手法としては、ピラミッド画像生成による粗密検索や、ブロックマッチング手法であるSSD(Sum of Squared Difference)、及びSAD(Sum of Absolute Difference)が適用できる。   As a method for detecting a similar region, coarse / fine search by pyramid image generation, SSD (Sum of Squared Difference), which is a block matching method, and SAD (Sum of Absolute Difference) are applicable.

図5Bは、図5Aにより示される画像の動物体領域を示す図である。図6Bは、図6Aにより示される画像の動物体領域を示す図である。動物体抽出部31は、動物体領域を構成する画素を、動物体画素として認識する。   FIG. 5B is a diagram showing a moving object region of the image shown in FIG. 5A. FIG. 6B is a diagram showing a moving object region of the image shown in FIG. 6A. The moving object extraction unit 31 recognizes pixels constituting the moving object region as moving object pixels.

動物体抽出部31は、動物体画素をフラグ情報により管理してもよい。すなわち、(x,y)座標の画素が動物体画素であるならば、(x,y)座標の画素のフラグを1とし、動物体画素でないならば、フラグを0として管理してもよい。   The moving object extraction unit 31 may manage moving object pixels based on flag information. That is, if the pixel at the (x, y) coordinate is a moving object pixel, the flag of the pixel at the (x, y) coordinate may be set to 1, and if not, the flag may be managed as 0.

また、動物体抽出部31は、動物体領域が移動した方向を示すオプティカルフローを算出する。動物体抽出部31は、nフレーム目の画像の動物体領域と、n+1フレーム目の画像の動物体領域を、オプティカルフロー方向につないだ領域についても、動物体画素を抽出する。   In addition, the moving object extraction unit 31 calculates an optical flow indicating the direction in which the moving object region has moved. The moving object extraction unit 31 also extracts moving object pixels for a region in which the moving object region of the nth frame image and the moving object region of the (n + 1) th frame image are connected in the optical flow direction.

図7は、図5Bと図6Bの動物体領域をオプティカルベクトル方向につなげた領域を示す図である。図7の例では、動物体領域の境界線の斜線箇所を含む画素が存在する。動物体抽出部31が、当該斜線箇所を含む画素を、どのような場合に動物体画素として認識するかは、投影装置1の設定により適宜定めてよい。例えば、動物体抽出部31は、動物体領域の境界線の斜線箇所を含む画素については、領域と画素との重なりの部分の面積が、画素の面積の50%以上を占めているときに、当該画素のフラグを1にすることにより、動物体画素であることを認識してもよい。   FIG. 7 is a diagram showing a region in which the moving object regions of FIGS. 5B and 6B are connected in the optical vector direction. In the example of FIG. 7, there are pixels including the hatched portion of the boundary line of the moving object region. In what case the moving object extraction unit 31 recognizes a pixel including the hatched portion as a moving object pixel may be appropriately determined by the setting of the projection device 1. For example, the moving object extraction unit 31 has, when the area including the hatched portion of the boundary line of the moving object region occupies 50% or more of the area of the pixel, It may be recognized that the pixel is a moving object pixel by setting the flag of the pixel to 1.

動物体抽出部31は、時刻Tの画像における動物体画素を、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を使用して抽出する。すなわち、2N組の連続する2つのフレームの画像について動物体画素を抽出する。   The moving object extraction unit 31 extracts moving object pixels in the image at time T using the image at time T and images of N frames before and after the image at time T. That is, moving object pixels are extracted from 2N sets of two consecutive frames of images.

なお、Nの値は、投影装置1のユーザが、投影装置1の設定を変更することにより、適宜決定できるようにしてもよい。例えば、N=10であれば、動物体抽出部31は、時刻Tの画像における動物体画素を、時刻Tの画像と、時刻Tの画像の前の10フレーム分の画像と、時刻Tの画像の後の10フレーム分の画像を使用して抽出する。   Note that the value of N may be appropriately determined by the user of the projection apparatus 1 by changing the setting of the projection apparatus 1. For example, if N = 10, the moving object extraction unit 31 calculates moving object pixels in the image at time T, the image at time T, the image for 10 frames before the image at time T, and the image at time T. The image is extracted using the image for the last 10 frames.

図4に戻り、エッジ抽出部32は、時刻Tの画像のエッジ画素を、動物体画素を除く、(x,y)座標の画素について抽出する。画像のエッジ抽出手法については、既によく知られている。例えば、エッジ抽出部32は、Sobelフィルタを用いて、画像の縦線方向のエッジの抽出と、画像の横線方向のエッジを抽出する。   Returning to FIG. 4, the edge extraction unit 32 extracts edge pixels of the image at time T with respect to pixels of (x, y) coordinates excluding moving object pixels. An image edge extraction method is already well known. For example, the edge extraction unit 32 uses the Sobel filter to extract an edge in the vertical line direction of the image and an edge in the horizontal line direction of the image.

ここで、Sobelフィルタについて説明する。

Figure 2014056434
Figure 2014056434
Here, the Sobel filter will be described.
Figure 2014056434
Figure 2014056434

(1)は、画像内の縦方向のエッジを抽出するために、画像右方向(水平方向)に作用させるフィルタである。(2)は、画像内の横方向のエッジを抽出するために、画像下方向(垂直方向)に作用させるフィルタである。   (1) is a filter that acts in the right direction (horizontal direction) of the image in order to extract vertical edges in the image. (2) is a filter that acts in the downward direction (vertical direction) of the image in order to extract the horizontal edge in the image.

ここで、(x,y)座標の画素に、(1)のフィルタを作用させる場合について説明する。(x,y)座標の画素の輝度をg(x,y)とすると、(1)のフィルタを作用させた後の(x,y)座標の画素の輝度f(x,y)は、(3)により求められる。

Figure 2014056434
Here, a case where the filter of (1) is applied to the pixel at the (x, y) coordinate will be described. If the luminance of the pixel at the (x, y) coordinate is g (x, y), the luminance f h (x, y) of the pixel at the (x, y) coordinate after the filter of (1) is applied is It is calculated by (3).
Figure 2014056434

(x,y)座標の画素に、(2)のフィルタを作用させる場合についても、(1)のフィルタを作用させる場合と同様である。f(x,y)を(2)のフィルタを作用させた後の(x,y)座標の画素の輝度とすると、両方のフィルタを作用させた場合の(x,y)座標の画素の輝度fvh(x,y)は、(4)により求められる。

Figure 2014056434
The case where the filter (2) is applied to the pixel at the (x, y) coordinate is the same as the case where the filter (1) is applied. If f v (x, y) is the luminance of the pixel at the (x, y) coordinate after the filter of (2) is applied, the pixel of the (x, y) coordinate when both filters are applied The luminance f vh (x, y) is obtained by (4).
Figure 2014056434

エッジ抽出部32は、(4)により、縦方向と横方向のエッジが強調された画像を得ることができる。なお、エッジ抽出部32は、Sobelフィルタ以外のフィルタを利用して、画像のエッジ抽出をしてもよい。例えば、エッジ抽出部32は、Cannyフィルタ等を使用してエッジ抽出をしてもよい。   The edge extraction unit 32 can obtain an image in which vertical and horizontal edges are emphasized by (4). Note that the edge extraction unit 32 may extract an edge of an image using a filter other than the Sobel filter. For example, the edge extraction unit 32 may perform edge extraction using a Canny filter or the like.

エッジ頻度算出部33は、時刻Tの画像の(x,y)座標の画素が、エッジ画素として検出された頻度を表すエッジ頻度img_edge(x,y)を、時刻Tの画像と、時刻Tの前後Nフレームの画像により、(5)により算出する。ただし、edge(x,y)は、nフレーム目の画像の(x,y)座標の画素がエッジであるならば1、エッジでなければ0とする。

Figure 2014056434
The edge frequency calculation unit 33 obtains an edge frequency img_edge (x, y) representing the frequency at which the pixel at the (x, y) coordinate of the image at time T is detected as an edge pixel, the image at time T, and the image at time T. Based on the images of N frames before and after, the calculation is performed according to (5). However, edge n (x, y) is 1 if the pixel at the (x, y) coordinate of the nth frame image is an edge, and 0 if it is not an edge.
Figure 2014056434

同様に、エッジ頻度算出部33は、時刻TのT’前の時刻T−T’の画像の(x,y)座標の画素が、エッジ画素として検出された頻度を表すエッジ頻度img_edge’((x,y)を、(5)と同様にして算出する。   Similarly, the edge frequency calculation unit 33 uses the edge frequency img_edge ′ (((), which represents the frequency at which the pixel at the (x, y) coordinate of the image at time TT ′ T ′ before time T is detected as an edge pixel. x, y) is calculated in the same manner as (5).

エッジ差分認識部34は、時刻Tの画像のエッジ差分画素を認識する。具体的には、エッジ差分認識部34は、時刻Tのimg_edge(x,y)、及び時刻TのT’前の時刻T−T’のimg_edge’(x,y)について、sub_edge(x,y)=abs(img_edge(x,y)−img_edge’(x,y))が、所定の閾値以上である場合に、(x,y)座標の画素がエッジ差分画素であると認識する。   The edge difference recognition unit 34 recognizes an edge difference pixel of the image at time T. Specifically, the edge difference recognition unit 34 sub_edge (x, y) for img_edge (x, y) at time T and img_edge ′ (x, y) at time TT ′ T ′ before time T. ) = Abs (img_edge (x, y) −img_edge ′ (x, y)) is greater than or equal to a predetermined threshold, it is recognized that the pixel at the (x, y) coordinate is an edge difference pixel.

エッジ差分認識部34は、エッジ差分画素により表されるエッジ差分画像を認識する。ここで、エッジ差分画像について、具体例を用いて説明する。図8は、路面環境の変化により、路面に描かれた道路標示が視認できなくなった場合の一例を示す図である。図8の例は、路面に雪が積もり、路面に描かれた「止まれ」が視認できなくなっている。   The edge difference recognition unit 34 recognizes an edge difference image represented by edge difference pixels. Here, the edge difference image will be described using a specific example. FIG. 8 is a diagram illustrating an example when the road marking drawn on the road surface becomes invisible due to a change in the road surface environment. In the example of FIG. 8, snow has accumulated on the road surface, and “stop” drawn on the road surface cannot be visually recognized.

図9は、本実施の形態の投影装置1の撮影部2により撮影された時刻T−T’の画像の一例を示す図である。図9の時刻TのT’前の時刻T−T’の画像では、路面に雪が積もっていない。エッジ抽出部32、及びエッジ頻度算出部33により、時刻T−T’における画像の(x,y)座標の画素のエッジ頻度img_edge’(x,y)が算出される。   FIG. 9 is a diagram illustrating an example of an image at time T-T ′ captured by the imaging unit 2 of the projection apparatus 1 according to the present embodiment. In the image at time T-T ′ before T ′ of time T in FIG. 9, snow is not accumulated on the road surface. The edge extraction unit 32 and the edge frequency calculation unit 33 calculate the edge frequency img_edge ′ (x, y) of the pixel at the (x, y) coordinate of the image at time T-T ′.

なお、時刻TのT’前の時刻T−T’は、投影装置1の設定により、任意に設定してよい。例えば、時刻T−T’は、時刻Tの1時間前でも24時間前でもよいし、或いは、1週間前や1ヶ月前等に設定してもよい。   Note that the time T-T ′ before T ′ of the time T may be arbitrarily set according to the setting of the projection apparatus 1. For example, the time T-T ′ may be one hour before or 24 hours before the time T, or may be set one week before, one month before, or the like.

図10は、本実施の形態の投影装置1の撮影部2により撮影された時刻Tの画像の一例を示す図である。図10の時刻Tの画像では、路面に雪が積もっている。エッジ抽出部32、及びエッジ頻度算出部33により、時刻Tにおける画像の(x,y)座標の画素のエッジ頻度img_edge(x,y)が算出される。   FIG. 10 is a diagram illustrating an example of an image at time T photographed by the photographing unit 2 of the projection apparatus 1 according to the present embodiment. In the image at time T in FIG. 10, snow has accumulated on the road surface. The edge extraction unit 32 and the edge frequency calculation unit 33 calculate the edge frequency img_edge (x, y) of the pixel at the (x, y) coordinate of the image at time T.

時刻Tの画像の(x,y)座標の画素のエッジ頻度img_edge(x,y)の最大値は、エッジ頻度の定義より1である。また、(x,y)座標の画素のエッジ頻度img_edge(x,y)の最小値は、エッジ頻度の定義より0である。理解を容易にするため、一番簡単な例として、時刻Tの画像と、時刻Tの画像の前後Nフレームが全て同じ画像であり、動物体領域がない場合を考える。このとき、時刻Tの任意の(x,y)座標の画素のエッジ頻度img_edge(x,y)は、0又は1である。この場合に、画像内の全ての画素でエッジ頻度img_edge(x,y)を考えると、図9の画像のエッジ(輪郭)のみが浮き上がった画像(以下「エッジ画像」という。)ができる。   The maximum value of the edge frequency img_edge (x, y) of the pixel at the (x, y) coordinate of the image at time T is 1 according to the definition of the edge frequency. Further, the minimum value of the edge frequency img_edge (x, y) of the pixel at the (x, y) coordinate is 0 according to the definition of the edge frequency. In order to facilitate understanding, the simplest example is a case where the image at time T and the N frames before and after the image at time T are all the same image and there is no moving object region. At this time, the edge frequency img_edge (x, y) of the pixel at an arbitrary (x, y) coordinate at time T is 0 or 1. In this case, when the edge frequency img_edge (x, y) is considered for all the pixels in the image, an image in which only the edge (outline) of the image in FIG. 9 is raised (hereinafter referred to as “edge image”) can be formed.

時刻T−T’の画像の(x,y)座標の画素のエッジ頻度img_edge’(x,y)についても同様である。   The same applies to the edge frequency img_edge '(x, y) of the pixel at the (x, y) coordinate of the image at time T-T'.

エッジ差分認識部34は、sub_edge(x,y)=abs(img_edge(x,y)−img_edge’(x,y))が、所定の閾値以上である場合に、エッジ差分画素であると認識する。エッジ差分画素の定義により、エッジ差分画素は、2つの時刻の画像の(x,y)座標の画素が、一方の時刻では、エッジ画素であるが、他方の時刻では、エッジ画素ではないことを示す。エッジ差分画素を、画像内の全ての(x,y)座標の画素で考えると、エッジ差分画像となる。図11は、本実施の形態の投影装置1の認識部3により生成されたエッジ差分画像の一例を示す図である。図11の例は、図9の画像に対応するエッジ画像と、図10の画像に対応するエッジ画像の差分が、エッジ差分画像として現れている。   The edge difference recognition unit 34 recognizes an edge difference pixel when sub_edge (x, y) = abs (img_edge (x, y) −img_edge ′ (x, y)) is equal to or larger than a predetermined threshold. . By definition of an edge difference pixel, an edge difference pixel means that a pixel of (x, y) coordinates of an image at two times is an edge pixel at one time, but is not an edge pixel at the other time. Show. When the edge difference pixel is considered with all pixels of (x, y) coordinates in the image, an edge difference image is obtained. FIG. 11 is a diagram illustrating an example of an edge difference image generated by the recognition unit 3 of the projection apparatus 1 according to the present embodiment. In the example of FIG. 11, the difference between the edge image corresponding to the image of FIG. 9 and the edge image corresponding to the image of FIG. 10 appears as an edge difference image.

本実施の形態の投影装置1は、エッジ差分画像を取得する過程で、動物体領域を除去することにより、路面変化による画像のエッジ差分だけを取得することができる。   The projection apparatus 1 according to the present embodiment can acquire only the edge difference of the image due to the road surface change by removing the moving object region in the process of acquiring the edge difference image.

また、本実施の形態の投影装置1は、エッジ差分画像を取得する過程で、複数の画像から算出されたエッジ頻度を考慮することで、1枚の画像の情報からエッジ差分画像を取得する場合に比べ、路面変化による画像のエッジ差分の取得精度を上げることができる。   Further, in the process of acquiring the edge difference image, the projection apparatus 1 according to the present embodiment considers the edge frequency calculated from a plurality of images and acquires the edge difference image from the information of one image. As compared with the above, it is possible to improve the accuracy of obtaining the edge difference of the image due to the road surface change.

なお、エッジ差分認識部34は、時刻Tの画像と時刻T−T’の画像のエッジ差分画像を、上述のエッジ頻度の差分ではなく、時刻Tの画像のエッジ画素で表される画像と時刻T−T’の画像のエッジ画素で表される画像の差分により取得してもよい。   Note that the edge difference recognizing unit 34 determines that the edge difference image between the image at time T and the image at time TT ′ is not an edge frequency difference described above, but an image and time represented by edge pixels of the image at time T. You may acquire by the difference of the image represented by the edge pixel of the image of TT '.

図4に戻り、平均輝度算出部36は、時刻Tの画像の平均輝度を、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を使用して、(6)により算出する。ただし、mean=(nフレーム目の画像の動物体画素でない画素の輝度の和)/(nフレーム目の画像の動物体画素を除いた画素数)とする。

Figure 2014056434
Returning to FIG. 4, the average luminance calculation unit 36 calculates the average luminance of the image at time T using (6) using the image at time T and images of N frames before and after the image at time T. However, mean n = (sum of luminances of pixels that are not moving body pixels in the nth frame image) / (number of pixels excluding moving body pixels in the nth frame image).
Figure 2014056434

差分値取得部37は、(時刻TのT’前の時刻T−T’の画像のNmean’)−(時刻Tの画像のNmean)により、差分値を取得する。   The difference value acquisition unit 37 acquires the difference value by (Nmean ′ of the image at time T-T ′ before T ′ of time T) − (Nmean of the image at time T).

図12は、本実施の形態の投影装置1の投影部6の投影範囲の路面の状態が明るい場合を示す図である。また、図13は、本実施の形態の投影装置1の投影部6の投影範囲の路面の状態が暗い場合を示す図である。時刻TのT’前の路面の状態が図12の状態であり、時刻Tの路面の状態が図13の状態であるとする。このとき、差分値取得部37により取得される差分値は、正の値となる。   FIG. 12 is a diagram illustrating a case where the road surface state in the projection range of the projection unit 6 of the projection apparatus 1 according to the present embodiment is bright. FIG. 13 is a diagram illustrating a case where the road surface state in the projection range of the projection unit 6 of the projection apparatus 1 according to the present embodiment is dark. Assume that the state of the road surface before T ′ at time T is the state of FIG. 12, and the state of the road surface at time T is the state of FIG. At this time, the difference value acquired by the difference value acquisition unit 37 is a positive value.

なお、差分値の取得方法は、(時刻Tの画像のNmean)−(時刻TのT’前の時刻T−T’の画像のNmean’)であってもよい。差分値取得部37により取得された差分値は、後述する補正部5の輝度調整部50により利用される。   The difference value acquisition method may be (Nmean of the image at time T) − (Nmean ′ of the image at time T-T ′ before T ′ at time T). The difference value acquired by the difference value acquisition unit 37 is used by the luminance adjustment unit 50 of the correction unit 5 described later.

図14は、本実施の形態の投影装置1の選択部4の構成の一例を示すブロック図である。本実施の形態の選択部4は、クラスタリング部40、多角形生成部41、最多輝度特定部42、コンテンツ記憶部43、コンテンツ選択部44、及び位置決定部45を備える。   FIG. 14 is a block diagram illustrating an example of the configuration of the selection unit 4 of the projection apparatus 1 according to the present embodiment. The selection unit 4 according to the present embodiment includes a clustering unit 40, a polygon generation unit 41, a maximum luminance specification unit 42, a content storage unit 43, a content selection unit 44, and a position determination unit 45.

クラスタリング部40は、エッジ差分認識部34により得られたエッジ差分画像を、クラスタリング手法を利用して、分類画像に分類する。図15は、本実施の形態の投影装置1のクラスタリング手法の一例を示す図である。クラスタリング部40は、エッジ差分画素を中心として、所定の半径内の領域(以下「近傍」という。)と、他のエッジ差分画素の近傍が、所定の距離内にあるか否かにより、エッジ差分画素をクラスタリングする。例えば、第1のエッジ差分画素の近傍と、第2のエッジ画素の近傍が重なっていれば、第1のエッジ差分画素と第2のエッジ差分画素は、同一のクラスタに含まれるとしてもよい。分類画像は、同一クラスタに含まれるエッジ差分画素によって生成される画像である。   The clustering unit 40 classifies the edge difference image obtained by the edge difference recognition unit 34 into a classification image using a clustering method. FIG. 15 is a diagram illustrating an example of a clustering method of the projection apparatus 1 according to the present embodiment. The clustering unit 40 determines whether an edge difference is determined based on whether or not a region within a predetermined radius (hereinafter referred to as “neighboring”) centered on the edge difference pixel and the vicinity of another edge difference pixel are within a predetermined distance. Cluster pixels. For example, if the vicinity of the first edge difference pixel and the vicinity of the second edge pixel overlap, the first edge difference pixel and the second edge difference pixel may be included in the same cluster. The classification image is an image generated by edge difference pixels included in the same cluster.

多角形生成部41は、分類画像の頂点を線分で結ぶことにより、分類画像を被覆する多角形を生成する。図16は、本実施の形態の投影装置1の多角形生成部41が生成した多角形の一例を示す図である。   The polygon generation unit 41 generates a polygon that covers the classified image by connecting the vertices of the classified image with line segments. FIG. 16 is a diagram illustrating an example of a polygon generated by the polygon generation unit 41 of the projection apparatus 1 according to the present embodiment.

なお、同一のクラスタに2つ以上のコンテンツが含まれる可能性がある場合には、クラスタリングの後に、デローニ三角形分割等の処理を行うことにより、更に詳細に、ある一定距離内のエッジ画素のみを考慮するようにしてもよい。   If there is a possibility that two or more contents are included in the same cluster, by performing processing such as Delaunay triangulation after clustering, only edge pixels within a certain distance can be obtained in more detail. You may make it consider.

図14に戻り、最多輝度特定部42は、多角形生成部41により生成された多角形に含まれる画素の輝度ヒストグラムを求める。最多輝度特定部42は、当該輝度ヒストグラムにおいて、出願頻度が最も多い輝度(以下「最多輝度」という。)を特定する。   Returning to FIG. 14, the most frequent luminance specifying unit 42 obtains a luminance histogram of the pixels included in the polygon generated by the polygon generating unit 41. The most frequent luminance specifying unit 42 identifies the most frequently applied luminance (hereinafter referred to as “most frequent luminance”) in the luminance histogram.

図17は、本実施の形態の投影装置1の最多輝度特定部42が生成する輝度ヒストグラムの一例を示す図である。図17の例では、輝度の値が253であるときに、輝度ヒストグラムが最大になる。したがって、図17の例では、最多輝度の値は、253である。   FIG. 17 is a diagram illustrating an example of a brightness histogram generated by the most-brightness specifying unit 42 of the projection apparatus 1 according to the present embodiment. In the example of FIG. 17, the luminance histogram is maximized when the luminance value is 253. Therefore, in the example of FIG.

なお、輝度ヒストグラムは、R(Red)、G(Green)、及びB(Blue)毎に判断してもよい。   Note that the luminance histogram may be determined for each of R (Red), G (Green), and B (Blue).

図14に戻り、コンテンツ記憶部43は、投影部6により投影される投影画像内に配置するコンテンツを記憶する。当該コンテンツは、文字、数字、記号、及び図形等を表す画像である。コンテンツ選択部44は、分類画像と最多輝度とに基づいて、コンテンツ記憶部43からコンテンツを選択する。図18は、本実施の形態の投影装置1のコンテンツ選択方法の一例を示す図である。コンテンツ選択部44は、分類画像の形状(パターンマッチング)と、分類画像の最多輝度(色マッチング)により、コンテンツ記憶部43からコンテンツを選択する。   Returning to FIG. 14, the content storage unit 43 stores the content to be arranged in the projection image projected by the projection unit 6. The content is an image representing characters, numbers, symbols, graphics, and the like. The content selection unit 44 selects content from the content storage unit 43 based on the classified image and the maximum luminance. FIG. 18 is a diagram illustrating an example of a content selection method of the projection apparatus 1 according to the present embodiment. The content selection unit 44 selects content from the content storage unit 43 based on the shape of the classified image (pattern matching) and the maximum luminance of the classified image (color matching).

なお、コンテンツ選択部44は、分類画像の形状(パターンマッチング)と、分類画像の最多輝度(色マッチング)のうち、いずれか一方の方法によってコンテンツを選択してもよい。   Note that the content selection unit 44 may select content by any one of the classification image shape (pattern matching) and the maximum luminance (color matching) of the classification image.

図14に戻り、位置決定部45は、コンテンツ選択部44により選択されたコンテンツの投影画像内の位置を決定する。位置決定部45は、当該コンテンツと、エッジ差分画像とのパターンマッチングを行い、当該コンテンツの投影画像内の位置(座標や、コンテンツの向き等)を決定する。位置決定部45によるパターンマッチングは、POC(Phase Only Correlation)等のパターンマッチング手法により行う。なお、位置決定部45によるパターンマッチング手法は、POCに限られない。   Returning to FIG. 14, the position determination unit 45 determines the position in the projection image of the content selected by the content selection unit 44. The position determination unit 45 performs pattern matching between the content and the edge difference image, and determines the position (coordinates, content orientation, etc.) of the content in the projected image. The pattern matching by the position determination unit 45 is performed by a pattern matching method such as POC (Phase Only Correlation). Note that the pattern matching method by the position determination unit 45 is not limited to POC.

図20は、本実施の形態の投影装置1の補正部5の構成の一例を示すブロック図である。本実施の形態の補正部5は、輝度調整部50、及びコンテンツ配置部51を備える。   FIG. 20 is a block diagram illustrating an example of the configuration of the correction unit 5 of the projection apparatus 1 according to the present embodiment. The correction unit 5 according to the present embodiment includes a luminance adjustment unit 50 and a content arrangement unit 51.

輝度調整部50は、投影画像の全画素の輝度に、輝度認識部35の差分値取得部37で取得された差分値を加算(又は減算)する補正を行う。これにより、朝方、夕方、日中、及び夜間等の明るさの違いや、晴れ、曇り、雨、及び霧等の天候による明るさの違いによって、投影画像の輝度を変更することができる。投影装置1の周囲が明るくなった場合には、投影画像の輝度を下げることにより、省電力効果がある。投影装置1の周囲が暗くなった場合には、投影画像の輝度を上げることにより、投影面の視認性を向上させる効果がある。   The luminance adjustment unit 50 performs correction to add (or subtract) the difference value acquired by the difference value acquisition unit 37 of the luminance recognition unit 35 to the luminance of all pixels of the projection image. Thereby, the brightness | luminance of a projection image can be changed with the difference in brightness by morning, evening, daytime, nighttime, etc., and the brightness difference by weather, such as sunny, cloudy, rain, and fog. When the surroundings of the projection device 1 become bright, there is a power saving effect by reducing the brightness of the projection image. When the periphery of the projection apparatus 1 becomes dark, there is an effect of improving the visibility of the projection surface by increasing the brightness of the projection image.

コンテンツ配置部51は、輝度が補正された当該画像に、コンテンツを重畳する。   The content placement unit 51 superimposes the content on the image whose luminance has been corrected.

図21は、本実施の形態の投影装置1の投影部6により、路面にコンテンツが投影された場合の一例を示す図である。図21の例は、路面に「止」が投影されている。図21の例は、雪により視認できなくなった道路標示「止まれ」の「止」の部分を、視認できるようにしている。   FIG. 21 is a diagram illustrating an example when content is projected onto a road surface by the projection unit 6 of the projection apparatus 1 according to the present embodiment. In the example of FIG. 21, “stop” is projected on the road surface. In the example of FIG. 21, the “stop” portion of the road marking “stop” that has become invisible due to snow is made visible.

なお、図21の例では、説明のために簡略しているため、1つのコンテンツ「止」のみを投影している。しかしながら、投影装置1は、図11のエッジ差分画像と、自身の投影画像範囲に重なる路面上の白線部分も、同時に投影してもよい。すなわち、投影装置1は、複数のコンテンツを同時に投影してもよい。   In the example of FIG. 21, only one content “stop” is projected because it is simplified for explanation. However, the projection apparatus 1 may simultaneously project the edge difference image of FIG. 11 and the white line portion on the road surface that overlaps the projection image range of the projection device 1. That is, the projection apparatus 1 may project a plurality of contents at the same time.

なお、本実施の形態の投影装置1の認識部3、選択部4、及び補正部5は、ソフトウェアにより実現してもよい。また、IC(Integrated Circuit)等のハードウェアにより実現してもよい。また、ソフトウェア及びハードウェアを併用して実現してもよい。   Note that the recognition unit 3, the selection unit 4, and the correction unit 5 of the projection apparatus 1 according to the present embodiment may be realized by software. Moreover, you may implement | achieve by hardware, such as IC (Integrated Circuit). Moreover, you may implement | achieve combining software and hardware.

以上が、本実施の形態の投影装置1の構成の説明である。次に、本実施の形態の投影装置1の動作方法を、フローチャートを用いて説明する。   The above is the description of the configuration of the projection apparatus 1 according to the present embodiment. Next, an operation method of the projection apparatus 1 of the present embodiment will be described using a flowchart.

図22は、本実施の形態の投影装置1の動物体画素抽出方法の一例を説明するためのフローチャートである。   FIG. 22 is a flowchart for explaining an example of the moving object pixel extraction method of the projection apparatus 1 according to the present embodiment.

動物体抽出部31は、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を、撮影部2から取得する(ステップS1)。   The moving object extraction unit 31 acquires an image at time T and images of N frames before and after the image at time T from the imaging unit 2 (step S1).

動物体抽出部31は、nフレーム目の画像の輝度と、n+1フレーム目の画像の輝度を比較して、物体が移動した領域を構成する画素を表す動物体画素を認識する(ステップS2)。動物体抽出部31は、輝度が類似している領域の画像内の位置が変わっていれば、当該領域を動物体領域であると認識する。   The moving object extraction unit 31 compares the luminance of the nth frame image with the luminance of the (n + 1) th frame image, and recognizes a moving object pixel representing a pixel constituting a region where the object has moved (step S2). If the position in the image of the area | region where brightness | luminance is similar has changed, the moving body extraction part 31 will recognize the said area | region as a moving body area | region.

動物体抽出部31は、ステップS2により認識された動物体画素にフラグ(以下「動物体フラグ」という。)を付与する(ステップS3)。   The moving object extraction unit 31 assigns a flag (hereinafter referred to as “moving object flag”) to the moving object pixel recognized in step S2 (step S3).

動物体抽出部31は、nフレーム目の画像の動物体領域と、n+1フレーム目の画像の動物体領域に基づいて、動物体領域が移動した方向を示すオプティカルフローを計算する(ステップS4)。   The moving object extraction unit 31 calculates an optical flow indicating the moving direction of the moving object area based on the moving object area of the nth frame image and the moving object area of the (n + 1) th frame image (step S4).

動物体抽出部31は、nフレーム目の画像の動物体領域と、n+1フレーム目の画像の動物体領域を、オプティカルフロー方向につないだ領域(以下「オプティカルフロー領域」という。)を作成する(ステップS5)。動物体抽出部31は、オプティカルフロー領域に動物体フラグを付与する(ステップS6)。   The moving object extraction unit 31 creates an area (hereinafter referred to as “optical flow area”) in which the moving object area of the nth frame image and the moving object area of the (n + 1) th frame image are connected in the optical flow direction (hereinafter referred to as “optical flow area”). Step S5). The moving object extraction unit 31 assigns a moving object flag to the optical flow area (step S6).

動物体抽出部31は、全フレーム(2N+1フレーム)の画像を処理したか否かを判定する(ステップS7)。全フレームを処理した場合は、動物体抽出部31は、動物体画素の抽出を終了する(ステップS7、Yes)。全フレームを処理していない場合は、ステップS2に戻る(ステップS7、No)。   The moving object extraction unit 31 determines whether images of all frames (2N + 1 frames) have been processed (step S7). When all the frames have been processed, the moving object extraction unit 31 ends the extraction of moving object pixels (step S7, Yes). If all the frames have not been processed, the process returns to step S2 (No in step S7).

図23は、本実施の形態の投影装置1のエッジ画素抽出方法の一例を説明するためのフローチャートである。   FIG. 23 is a flowchart for explaining an example of the edge pixel extraction method of the projection apparatus 1 according to the present embodiment.

エッジ抽出部32は、エッジ画素抽出対象の画像から画素を1つ選択する(ステップS11)。   The edge extraction unit 32 selects one pixel from the image to be subjected to edge pixel extraction (step S11).

エッジ抽出部32は、ステップS11により選択された画素について、エッジ抽出に使用されるフィルタサイズのブロック画像を生成する(ステップS12)。例えば、フィルタのサイズが、3×3の大きさであれば、エッジ抽出部32は、9つの画素から構成される正方形のブロック画像を生成する。   The edge extraction unit 32 generates a block image having a filter size used for edge extraction for the pixel selected in step S11 (step S12). For example, if the size of the filter is 3 × 3, the edge extraction unit 32 generates a square block image composed of nine pixels.

エッジ抽出部32は、ブロック画像内に動物体フラグを有する画素があるか否かを判定する(ステップS13)。動物体フラグを有する画素がある場合は、ステップS18に進む(ステップS13、Yes)。動物体フラグを有する画素がない場合は、ステップS14に進む。   The edge extraction unit 32 determines whether there is a pixel having a moving object flag in the block image (step S13). If there is a pixel having the moving object flag, the process proceeds to step S18 (step S13, Yes). If there is no pixel having the moving object flag, the process proceeds to step S14.

エッジ抽出部32は、ステップS11により選択された画素に対して、エッジ抽出を行う(ステップS14)。エッジ抽出部32は、当該選択された画素がエッジ画素であるか否かを判定する(ステップS15)。エッジ画素である場合(ステップS15、Yes)は、エッジ抽出部32は、当該選択された画素のエッジフラグを1にする(ステップS16)。エッジ画素でない場合(ステップS15、No)は、エッジ抽出部32は、当該選択された画素のエッジフラグを0にする(ステップS16)。   The edge extraction unit 32 performs edge extraction on the pixel selected in step S11 (step S14). The edge extraction unit 32 determines whether or not the selected pixel is an edge pixel (step S15). If the pixel is an edge pixel (step S15, Yes), the edge extraction unit 32 sets the edge flag of the selected pixel to 1 (step S16). When it is not an edge pixel (step S15, No), the edge extraction unit 32 sets the edge flag of the selected pixel to 0 (step S16).

エッジ抽出部32は、画像内の全ての画素を選択したか否かを判定する(ステップS18)。全ての画素を選択した場合は、当該画像のエッジ画素の抽出を終了する(ステップS18、Yes)。全ての画素を選択していない場合は、ステップS11に戻る(ステップS18、No)。   The edge extraction unit 32 determines whether or not all the pixels in the image have been selected (step S18). When all the pixels have been selected, the extraction of the edge pixels of the image is finished (Step S18, Yes). If all the pixels have not been selected, the process returns to step S11 (step S18, No).

図24は、本実施の形態の投影装置1のエッジ差分画像生成方法の一例を説明するためのフローチャートである。   FIG. 24 is a flowchart for explaining an example of the edge difference image generation method of the projection apparatus 1 according to the present embodiment.

エッジ抽出部32は、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像のエッジ画素を抽出する(ステップS21)。エッジ抽出部32は、時刻TのT’前の時刻T−T’の画像と、時刻T−T’の画像の前後Nフレームの画像のエッジ画素を抽出する(ステップS22)。   The edge extraction unit 32 extracts edge pixels of the image at time T and the images of N frames before and after the image at time T (step S21). The edge extraction unit 32 extracts the edge pixels of the image at time T-T ′ before T ′ of time T and the images of N frames before and after the image at time T-T ′ (step S22).

エッジ頻度算出部33は、時刻Tの画像の(x,y)座標の画素が、エッジ画素として検出された頻度を表すエッジ頻度img_edge(x,y)を、時刻Tの画像と、時刻Tの前後Nフレームの画像から算出する(ステップS23)。エッジ頻度算出部33は、時刻TのT’前の時刻T−T’の画像の(x,y)座標の画素が、エッジ画素として検出された頻度を表すエッジ頻度img_edge’(x,y)を、時刻T’の画像と、時刻T’の前後Nフレームの画像から算出する(ステップS24)。   The edge frequency calculation unit 33 obtains an edge frequency img_edge (x, y) representing the frequency at which the pixel at the (x, y) coordinate of the image at time T is detected as an edge pixel, the image at time T, and the image at time T. Calculation is performed from the images of N frames before and after (step S23). The edge frequency calculation unit 33 uses the edge frequency img_edge ′ (x, y) representing the frequency at which the pixel at the (x, y) coordinate of the image at time TT ′ T ′ before time T is detected as an edge pixel. Is calculated from the image at time T ′ and the images of N frames before and after time T ′ (step S24).

エッジ差分認識部34は、時刻Tのimg_edge(x,y)と、時刻TのT’前の時刻T−T’のimg_edge’(x,y)の差分を、sub_edge(x,y)=abs(img_edge(x,y)−img_edge’(x,y))により算出する(ステップS25)。   The edge difference recognition unit 34 calculates the difference between img_edge (x, y) at time T and img_edge '(x, y) at time TT ′ T ′ before time T as sub_edge (x, y) = abs. (Img_edge (x, y) −img_edge ′ (x, y)) is calculated (step S25).

エッジ差分認識部34は、エッジ頻度の差分sub_edge(x,y)が、所定の閾値以上であるか否かを判定する(ステップS26)。所定の閾値以上である場合(ステップS26、Yes)は、エッジ差分認識部34は、(x,y)座標の画素が、エッジ差分画素であると認識する(ステップS27)。所定の閾値より小さい場合(ステップS26、No)は、エッジ差分認識部34は、(x,y)座標の画素が、エッジ差分画素ではないと認識する(ステップS28)。   The edge difference recognition unit 34 determines whether or not the edge frequency difference sub_edge (x, y) is equal to or greater than a predetermined threshold (step S26). When it is equal to or greater than the predetermined threshold (step S26, Yes), the edge difference recognition unit 34 recognizes that the pixel at the (x, y) coordinate is an edge difference pixel (step S27). When it is smaller than the predetermined threshold (No at Step S26), the edge difference recognition unit 34 recognizes that the pixel at the (x, y) coordinate is not an edge difference pixel (Step S28).

エッジ差分認識部34は、全ての(x,y)座標のエッジ差分画素により表されるエッジ差分画像を認識する(ステップS29)。   The edge difference recognition unit 34 recognizes an edge difference image represented by all (x, y) coordinate edge difference pixels (step S29).

図25は、本実施の形態の投影装置1のコンテンツの選択方法の一例を説明するためのフローチャートである。   FIG. 25 is a flowchart for explaining an example of a content selection method of the projection apparatus 1 according to the present embodiment.

クラスタリング部40は、エッジ差分認識部34により得られたエッジ差分画像を、クラスタリング手法を利用して、分類画像に分類する(ステップS31)。クラスタリング部40は、エッジ差分画素の近傍と、他のエッジ差分画素の近傍が、所定の距離内にあるか否かにより、エッジ差分画素をクラスタリングする。分類画像は、同一クラスタに含まれるエッジ差分画素によって生成される画像である。   The clustering unit 40 classifies the edge difference image obtained by the edge difference recognition unit 34 into a classification image using a clustering method (step S31). The clustering unit 40 clusters the edge difference pixels depending on whether or not the vicinity of the edge difference pixel and the vicinity of other edge difference pixels are within a predetermined distance. The classification image is an image generated by edge difference pixels included in the same cluster.

多角形生成部41は、分類画像の頂点を線分で結ぶことにより、分類画像を被覆する多角形を生成する(ステップS32)。   The polygon generation unit 41 generates a polygon covering the classified image by connecting the vertices of the classified image with line segments (step S32).

最多輝度特定部42は、多角形生成部41により生成された多角形に含まれる画素の輝度ヒストグラムを計算する(ステップS33)。最多輝度特定部42は、当該輝度ヒストグラムにおいて、出願頻度が最も多い輝度を表す最多輝度を特定する。   The most frequent luminance specifying unit 42 calculates a luminance histogram of pixels included in the polygon generated by the polygon generating unit 41 (step S33). The most-brightness specifying unit 42 specifies the most-brightness representing the brightness having the highest filing frequency in the brightness histogram.

コンテンツ選択部44は、分類画像の形状(パターンマッチング)と、分類画像の最多輝度(色マッチング)により、コンテンツ記憶部43からコンテンツを選択する(ステップS34)。   The content selection unit 44 selects content from the content storage unit 43 based on the shape (pattern matching) of the classified image and the maximum luminance (color matching) of the classified image (step S34).

位置決定部45は、コンテンツ選択部44により選択されたコンテンツの投影画像内の位置を決定する(ステップS35)。位置決定部45は、当該コンテンツと、エッジ差分画像とのパターンマッチングを、POC等のパターンマッチング手法により行う。位置決定部45は、パターンマッチング手法の結果に基づいて、当該コンテンツの投影画像内の位置(座標や、コンテンツの向き等)を決定する。   The position determination unit 45 determines the position in the projected image of the content selected by the content selection unit 44 (step S35). The position determination unit 45 performs pattern matching between the content and the edge difference image using a pattern matching method such as POC. The position determination unit 45 determines the position (coordinates, content direction, etc.) in the projected image of the content based on the result of the pattern matching method.

図26は、本実施の形態の投影装置1の平均輝度(Nmean)算出方法の一例を説明するためのフローチャートである。   FIG. 26 is a flowchart for explaining an example of an average luminance (Nmean) calculation method of the projection apparatus 1 according to the present embodiment.

平均輝度算出部36は、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を、撮影部2から取得する(ステップS41)。平均輝度算出部36は、ステップS41で取得した画像から、nフレーム目の画像を選択する(ステップS42)。平均輝度算出部36は、mean=(nフレーム目の画像の動物体画素でない画素の輝度の和)/(nフレーム目の画像の動物体画素を除いた画素数)を算出する(ステップS43)。 The average luminance calculation unit 36 acquires the image at time T and the images of N frames before and after the image at time T from the photographing unit 2 (step S41). The average luminance calculation unit 36 selects the nth frame image from the images acquired in step S41 (step S42). The average luminance calculation unit 36 calculates mean n = (sum of luminances of pixels that are not moving body pixels in the nth frame image) / (number of pixels excluding moving body pixels in the nth frame image) (step S43). ).

平均輝度算出部36は、ステップS41で取得した全フレーム(2N+1個のフレーム)の画像のmeanを算出したか否かを判定する(ステップS44)。全フレームの画像のmeanを算出していない場合は、ステップS42に戻る(ステップS44、No)全フレームの画像のmeanを算出した場合は、ステップS45に進む(ステップS44、Yes)。 The average luminance calculation unit 36 determines whether or not the mean n of the images of all the frames (2N + 1 frames) acquired in step S41 has been calculated (step S44). If the mean n of the image of all frames has not been calculated, the process returns to step S42 (No in step S44). If the mean n of the image of all frames has been calculated, the process proceeds to step S45 (step S44, Yes).

平均輝度算出部36は、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像のmeanの平均により、時刻Tの画像の平均輝度Nmeanを算出する(ステップS45)。 The average luminance calculating unit 36 calculates the average luminance Nmean of the image at time T based on the average of the mean n of the image at time T and the images of N frames before and after the image at time T (step S45).

図27は、本実施の形態の投影装置1の投影画像の輝度調整方法の一例を説明するためのフローチャートである。   FIG. 27 is a flowchart for explaining an example of the brightness adjustment method of the projection image of the projection apparatus 1 according to the present embodiment.

差分値取得部37は、(時刻Tの画像のNmean)−(時刻TのT’前の時刻T−T’の画像のNmean’)により、差分値を取得する(ステップS51)。   The difference value acquisition unit 37 acquires the difference value by (Nmean of the image at time T) − (Nmean ′ of the image at time T-T ′ before T ′ at time T) (step S51).

差分値取得部37は、(時刻Tの画像のNmean)>(時刻TのT’前の時刻T−T’の画像のNmean’)であるか否かを判定する(ステップS52)。(時刻Tの画像のNmean)>(時刻TのT’前の時刻T−T’の画像のNmean’)である場合(ステップS52、Yes)は、輝度調整部50は、時刻Tの画像の全画素の輝度値からNmean−Nmean’だけ輝度値を引く(ステップS53)。(時刻Tの画像のNmean)≦(時刻TのT’前の時刻T−T’の画像のNmean’)である場合(ステップS52、No)は、ステップS54に進む。   The difference value acquisition unit 37 determines whether or not (Nmean of the image at time T)> (Nmean 'of the image at time T-T ′ before T ′ at time T) (step S52). If (Nmean of the image at time T)> (Nmean 'of the image at time TT ′ T ′ before time T) (step S52, Yes), the luminance adjustment unit 50 determines that the image at time T The luminance value is subtracted by Nmean−Nmean ′ from the luminance values of all the pixels (step S53). If (Nmean of the image at time T) ≦ (Nmean ′ of the image at time T-T ′ before T ′ of time T) (No in step S52), the process proceeds to step S54.

差分値取得部37は、(時刻Tの画像のNmean)<(時刻TのT’前の時刻T−T’の画像のNmean’)であるか否かを判定する(ステップS54)。(時刻Tの画像のNmean)<(時刻TのT’前の時刻T−T’の画像のNmean’)である場合(ステップS54、Yes)は、輝度調整部50は、時刻Tの画像の全画素の輝度値にNmean−Nmean’だけ輝度値を加える(ステップS54)。(時刻Tの画像のNmean)<(時刻TのT’前の時刻T−T’の画像のNmean’)でない場合(ステップS54、No)は、ステップS56に進む。   The difference value acquisition unit 37 determines whether or not (Nmean of the image at time T) <(Nmean 'of the image at time T−T ′ before T ′ at time T) (step S54). If (Nmean of the image at time T) <(Nmean ′ of the image at time TT ′ T ′ before time T) (Yes in step S54), the luminance adjustment unit 50 determines that the image at time T The brightness value is added to the brightness values of all pixels by Nmean−Nmean ′ (step S54). If not (Nmean of the image at time T) <(Nmean 'of the image at time T-T ′ before T ′ before time T) (No in step S54), the process proceeds to step S56.

コンテンツ配置部51は、時刻Tの画像に対する輝度補正に基づいた輝度値を有する投影画像に、コンテンツを重畳する(ステップS56)。   The content placement unit 51 superimposes the content on the projected image having the brightness value based on the brightness correction for the image at time T (step S56).

次に、本実施の形態の投影装置1のハードウェア構成について説明する。図28は、本実施の形態の投影装置1のハードウェア構成の一例を示す図である。本実施の形態の投影装置1は、プロジェクタ70、撮影装置71、制御装置72、主記憶装置73、補助記憶装置74、及び通信装置75を備える。   Next, the hardware configuration of the projection apparatus 1 according to the present embodiment will be described. FIG. 28 is a diagram illustrating an example of a hardware configuration of the projection apparatus 1 according to the present embodiment. The projection device 1 according to the present embodiment includes a projector 70, a photographing device 71, a control device 72, a main storage device 73, an auxiliary storage device 74, and a communication device 75.

プロジェクタ70は、投影面に画像を投影する。例えば、図1の投影部6がプロジェクタ70に相当する。撮影装置71は、当該投影面の状態を撮影する。例えば、図1の撮影部2が撮影装置71に相当する。撮影装置71は、カメラ等である。制御装置72は、投影装置1の動作を制御する。例えば、図1の認識部3、選択部4、及び補正部5は、制御装置72により実現される。制御装置72は、CPU(Central Processing Unit)等である。主記憶装置73は、ROM(Read Only Memory)やRAM(Random Access Memory)等である。補助記憶装置74は、HDD(Hard Disk Drive)や、光学ドライブ等である。通信装置75は、投影装置1が、無線や有線の通信手段によりネットワークに接続するための装置である。   The projector 70 projects an image on the projection surface. For example, the projection unit 6 in FIG. The imaging device 71 images the state of the projection plane. For example, the imaging unit 2 in FIG. 1 corresponds to the imaging device 71. The imaging device 71 is a camera or the like. The control device 72 controls the operation of the projection device 1. For example, the recognition unit 3, the selection unit 4, and the correction unit 5 in FIG. 1 are realized by the control device 72. The control device 72 is a CPU (Central Processing Unit) or the like. The main storage device 73 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The auxiliary storage device 74 is an HDD (Hard Disk Drive), an optical drive, or the like. The communication device 75 is a device for the projection device 1 to connect to a network by wireless or wired communication means.

本実施の形態の投影装置1で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。   A program executed by the projection apparatus 1 according to the present embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). Recorded on a readable recording medium and provided as a computer program product.

また、本実施の形態の投影装置1で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施の形態の投影装置1で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Further, the program executed by the projection apparatus 1 according to the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program executed by the projection apparatus 1 of the present embodiment may be configured to be provided or distributed via a network such as the Internet.

また、本実施の形態の投影装置1のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。   In addition, the program of the projection apparatus 1 of the present embodiment may be configured to be provided by being incorporated in advance in a ROM or the like.

本実施の形態の投影装置1で実行されるプログラムは、上述した各部(認識部3、選択部4、及び補正部5)を含むモジュール構成となっており、実際のハードウェアとしては制御装置72が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置73上にロードされ、認識部3、選択部4、及び補正部5が主記憶装置73上に生成されるようになっている。   The program executed by the projection apparatus 1 according to the present embodiment has a module configuration including the above-described units (the recognition unit 3, the selection unit 4, and the correction unit 5), and the actual hardware includes the control device 72. When the program is read from the storage medium and executed, each unit is loaded onto the main storage device 73, and the recognition unit 3, the selection unit 4, and the correction unit 5 are generated on the main storage device 73. ing.

本実施の形態の投影装置1によれば、投影面の変化や、周囲の明るさの変化に応じて、投影されるコンテンツや、投影画像の輝度を変更することができる。   According to the projection device 1 of the present embodiment, the projected content and the brightness of the projection image can be changed according to the change in the projection plane and the change in ambient brightness.

次に、本実施の形態の変形例について説明する。   Next, a modification of the present embodiment will be described.

上述の第1の実施の形態の説明では、投影装置1の認識部3は、撮影部2により撮影された画像を、そのまま使用して、エッジ差分画像を認識した。しかしながら、一般に、撮影部2を配置する位置によっては、道路平面は射影的に歪んだ状態で撮影される。この歪みが大きい場合には、認識部3によるマッチング精度が悪化する恐れがある。   In the description of the first embodiment described above, the recognition unit 3 of the projection apparatus 1 recognizes the edge difference image using the image captured by the imaging unit 2 as it is. However, in general, depending on the position where the photographing unit 2 is arranged, the road plane is photographed in a projectively distorted state. When this distortion is large, the matching accuracy by the recognition unit 3 may be deteriorated.

投影装置1は、撮影部2により撮影された画像に、射影変換をかけてから、認識部3によってエッジ差分画像を認識してもよい。図29は、第1の実施の形態の投影装置1の撮影部2により撮影された画像に、射影変換を行う場合の一例を示す図である。   The projection apparatus 1 may recognize the edge difference image by the recognition unit 3 after performing projective transformation on the image captured by the imaging unit 2. FIG. 29 is a diagram illustrating an example when projective transformation is performed on an image photographed by the photographing unit 2 of the projection apparatus 1 according to the first embodiment.

例えば、投影装置1は、画像上の道路の白線のエッジ情報を用いて、白線のエッジが水平になるように射影変換をかける。すなわち、投影装置1は、道路を鳥瞰図としてみることのできる射影変換行列を保存しておく。投影装置1は、撮影部2により取得した画像に、射影変換行列をかけた後に、エッジ差分画像を認識する。   For example, the projection apparatus 1 performs projective transformation using the edge information of the white line of the road on the image so that the edge of the white line becomes horizontal. That is, the projection apparatus 1 stores a projective transformation matrix that allows a road to be viewed as a bird's eye view. The projection apparatus 1 recognizes an edge difference image after applying a projective transformation matrix to the image acquired by the imaging unit 2.

また、上述の第1の実施の形態の説明では、投影装置1は、視認できなくなった道路標示と同一の道路標示を、路面に投影している。しかしながら、投影する画像に含まれるコンテンツは、視認できなくなった道路標示と同一でなくてもよい。図30は、第1の実施の形態の投影装置1の投影部6が、投影するコンテンツを変更した場合の一例を示す図である。図30の例では、視認できなくなった道路標示「止まれ」ではなく、道路標識(一時停止の規制標識)を投影している。   In the description of the first embodiment described above, the projection device 1 projects the same road marking as the road marking that is no longer visible on the road surface. However, the content included in the projected image may not be the same as the road marking that is no longer visible. FIG. 30 is a diagram illustrating an example when the projection unit 6 of the projection apparatus 1 according to the first embodiment changes the content to be projected. In the example of FIG. 30, a road sign (temporary stop restriction sign) is projected instead of the road sign “stop” that is no longer visible.

また、上述の第1の実施の形態の説明では、投影装置1は、2次元情報のみを扱ったが、道路上の3次元形状を取得してもよい。3次元情報の取得方法については、プロジェクタとカメラを利用したステレオ法が知られている。投影装置1は、3次元情報を認識することにより、道路の陥没等による路面の変化を認識することができる。   In the description of the first embodiment described above, the projection apparatus 1 handles only two-dimensional information, but may acquire a three-dimensional shape on a road. As a method for acquiring three-dimensional information, a stereo method using a projector and a camera is known. By recognizing the three-dimensional information, the projection device 1 can recognize a change in the road surface due to a road depression or the like.

(第2の実施の形態)
図31は、第2の実施の形態の投影システム80の構成の一例を示すブロック図である。本実施の形態の投影システム80は、プロジェクタ81、及び演算装置82を備える。プロジェクタ81は、撮影部2、投影部6、及び通信部7を備える。演算装置82は、認識部3、選択部4、補正部5、及び通信部8を備える。
(Second Embodiment)
FIG. 31 is a block diagram illustrating an example of the configuration of the projection system 80 according to the second embodiment. The projection system 80 according to the present embodiment includes a projector 81 and a calculation device 82. The projector 81 includes the photographing unit 2, the projecting unit 6, and the communication unit 7. The arithmetic device 82 includes a recognition unit 3, a selection unit 4, a correction unit 5, and a communication unit 8.

撮影部2、認識部3、選択部4、補正部5、及び投影部6については、第1の実施の形態と同様であるため、説明を省略する。通信部7、及び通信部8は、プロジェクタ81と演算装置82の間のデータを、無線又は有線による通信手段により送受信する。   Since the imaging unit 2, the recognition unit 3, the selection unit 4, the correction unit 5, and the projection unit 6 are the same as those in the first embodiment, description thereof is omitted. The communication unit 7 and the communication unit 8 transmit and receive data between the projector 81 and the arithmetic device 82 by wireless or wired communication means.

本実施の形態の投影システム80によれば、画像の取得と投影を行う装置と、演算処理を行う認識部3、選択部4、及び補正部5を分離することができる。これにより、複数のプロジェクタ81で、一台の演算装置82を共有するといった運用も可能となる。演算装置82は、コンピュータ等の情報処理装置であってもよい。   According to the projection system 80 of the present embodiment, it is possible to separate the image acquisition and projection apparatus from the recognition unit 3, the selection unit 4, and the correction unit 5 that perform arithmetic processing. Accordingly, it is possible to operate such that a plurality of projectors 81 share one arithmetic device 82. The computing device 82 may be an information processing device such as a computer.

(第3の実施の形態)
図32は、第3の実施の形態の投影システム80を説明するための図である。本実施の形態の投影システム80は、撮影部2a、撮影部2b、撮影部2c、投影部6a、投影部6b、及び投影部6cを備える。
(Third embodiment)
FIG. 32 is a diagram for explaining a projection system 80 according to the third embodiment. The projection system 80 according to the present embodiment includes an imaging unit 2a, an imaging unit 2b, an imaging unit 2c, a projection unit 6a, a projection unit 6b, and a projection unit 6c.

投影部6a、投影部6b、及び投影部6cは、投影画像内に、各々の投影範囲を識別するためのマーカーを含める。投影システム80は、撮影部2a、撮影部2b、及び撮影部2cにより撮影された画像に含まれるマーカーによって、隣接する投影部6の投影範囲を認識する。これにより、投影システム80は、複数の投影部6が投影画像を投影することによる投影画像の重複等を防ぐことができる。なお、撮影部2、及び投影部6の台数は3台に限らず、任意の台数でよい。   The projection unit 6a, the projection unit 6b, and the projection unit 6c include a marker for identifying each projection range in the projection image. The projection system 80 recognizes the projection range of the adjacent projection unit 6 by using markers included in the images captured by the imaging unit 2a, the imaging unit 2b, and the imaging unit 2c. Thereby, the projection system 80 can prevent duplication of projection images and the like due to the projection units 6 projecting projection images. The number of photographing units 2 and projection units 6 is not limited to three, and may be any number.

本実施の形態の投影システム80によれば、複数の投影装置1が連携して、複数のコンテンツを含む画像を、路面に投影することができる。   According to the projection system 80 of the present embodiment, a plurality of projection apparatuses 1 can cooperate to project an image including a plurality of contents onto a road surface.

1 投影装置
2,2a〜2c 撮影部
4 選択部
5 補正部
6,6a〜6c 投影部
7 通信部
8 通信部
30 エッジ認識部
31 動物体抽出部
32 エッジ抽出部
33 エッジ頻度算出部
34 エッジ差分認識部
35 輝度認識部
36 平均輝度算出部
37 差分値取得部
40 クラスタリング部
41 多角形生成部
42 最多輝度特定部
43 コンテンツ記憶部
44 コンテンツ選択部
45 位置決定部
50 輝度調整部
51 コンテンツ配置部
70 プロジェクタ
71 撮影装置
72 制御装置
73 主記憶装置
74 補助記憶装置
75 通信装置
80 投影システム
81 プロジェクタ
82 演算装置
DESCRIPTION OF SYMBOLS 1 Projection device 2, 2a-2c Image pick-up part 4 Selection part 5 Correction | amendment part 6, 6a-6c Projection part 7 Communication part 8 Communication part 30 Edge recognition part 31 Moving object extraction part 32 Edge extraction part 33 Edge frequency calculation part 34 Edge difference Recognizing unit 35 Brightness recognizing unit 36 Average luminance calculating unit 37 Difference value acquiring unit 40 Clustering unit 41 Polygon generating unit 42 Maximum luminance specifying unit 43 Content storage unit 44 Content selecting unit 45 Position determining unit 50 Brightness adjusting unit 51 Content arranging unit 70 Projector 71 Imaging device 72 Control device 73 Main storage device 74 Auxiliary storage device 75 Communication device 80 Projection system 81 Projector 82 Computing device

特表2006−525590号公報JP-T-2006-525590

Claims (8)

投影画像を投影面に投影する投影部と、
前記投影面を撮影して画像を取得する撮影部と、
時刻Tの前記画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の前記画像のエッジである第2エッジとを抽出するエッジ抽出部と、
前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、
前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、前記投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部とを備え、
前記投影部は、選択された前記コンテンツが配置された前記投影画像を前記投影面に投影する
投影装置。
A projection unit that projects a projection image onto a projection plane;
A photographing unit for photographing the projection plane to obtain an image;
An edge extraction unit that extracts a first edge that is an edge of the image at time T and a second edge that is an edge of the image at time TT ′ T ′ before time T;
An edge difference recognition unit for recognizing an edge difference image representing an image of a difference between the first edge and the second edge;
Selection of extracting one or more classified images by classifying edges included in the edge difference image, and selecting the content that is similar to or matches the extracted classified image from candidate content to be arranged in the projection image With
The projection unit projects the projection image on which the selected content is arranged onto the projection plane.
前記時刻Tの画像の前後Nフレームの前記画像の輝度を比較して、前記時刻Tの画像の物体が移動した領域を構成する画素を表す動物体画素を抽出し、前記時刻T−T’の前記画像の前後Nフレームの前記画像の輝度を比較して、前記時刻T−T’の画像の前記動物体画素を抽出する動物体抽出部を更に備え、
前記エッジ抽出部は、前記動物体画素を除いた前記画像からエッジを抽出する
請求項1に記載の投影装置。
The luminance of the image in the N frames before and after the image at time T is compared, and the moving object pixel representing the pixel constituting the region where the object of the image at time T has moved is extracted, and the image at time TT ′ is extracted. A moving object extracting unit that compares the luminance of the image in the N frames before and after the image and extracts the moving object pixel of the image at the time TT ′;
The projection device according to claim 1, wherein the edge extraction unit extracts an edge from the image excluding the moving object pixel.
前記時刻Tの画像の画素が、前記エッジとして検出された頻度を表すエッジ頻度を、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像により算出し、前記時刻T−T’の画像の画素が、前記エッジとして検出された頻度を表すエッジ頻度を、時刻T−T’の画像と、時刻T−T’の画像の前後Nフレームの画像により算出するエッジ頻度算出部を更に備え、
前記エッジ差分認識部は、
前記時刻Tのエッジ頻度と、前記時刻T−T’のエッジ頻度の差分が、所定の閾値以上の画素で表されるエッジ差分画像を認識する
請求項1又は2に記載の投影装置。
An edge frequency representing the frequency at which pixels of the image at the time T are detected as the edge is calculated from the image at the time T and images of N frames before and after the image at the time T, and the image at the time TT ′. An edge frequency calculating unit that calculates an edge frequency representing a frequency at which the pixel of the pixel is detected as the edge from an image at time TT ′ and images of N frames before and after the image at time TT ′;
The edge difference recognition unit
The projection apparatus according to claim 1, wherein an edge difference image in which a difference between the edge frequency at the time T and the edge frequency at the time TT ′ is represented by pixels having a predetermined threshold value or more is recognized.
前記選択部は、
前記分類画像を被覆する多角形を生成する多角形生成部と、
前記多角形に含まれる画素の輝度ヒストグラムから、最多輝度を特定する最多輝度特定部と
を更に備え、
前記選択部は、更に、前記最多輝度が、前記分類画像の輝度に類似または一致する前記コンテンツを選択する
請求項1乃至3のいずれか1項に記載の投影装置。
The selection unit includes:
A polygon generating unit that generates a polygon covering the classified image;
A maximum brightness specifying unit for specifying the maximum brightness from the brightness histogram of the pixels included in the polygon; and
The projection device according to any one of claims 1 to 3, wherein the selection unit further selects the content in which the maximum luminance is similar to or coincides with the luminance of the classified image.
時刻Tの画像の平均輝度Nmeanを、時刻Tの画像と、時刻Tの画像の前後Nフレームの画像を使用して、n=0から、n=2Nまでのmean=(nフレーム目の画像の動物体画素でない画素の輝度の和)/(nフレーム目の画像の動物体画素を除いた画素数)の平均により算出し、
(時刻T−T’の画像のNmean’)−(時刻Tの画像のNmean)により、差分値を取得する差分値取得部と
前記選択されたコンテンツを配置する前の投影画像の全画素の輝度に、前記差分値を加算することにより、前記投影画像の輝度を調整する輝度調整部と
を更に備える請求項1乃至4のいずれか1項に記載の投影装置。
Using the average brightness Nmean of the image at time T and the image at time T and the images of N frames before and after the image at time T, mean n = (nth frame image from n = 0 to n = 2N) The sum of the luminances of the non-animal pixels) / (the number of pixels excluding the animal pixels in the nth frame image),
(Nmean ′ of image at time TT ′) − (Nmean of image at time T) −Difference value acquisition unit for acquiring a difference value and luminance of all pixels of the projection image before the selected content is arranged The projection apparatus according to claim 1, further comprising: a luminance adjustment unit that adjusts the luminance of the projection image by adding the difference value.
前記選択部は、前記エッジを構成する画素の近傍と、他の前記エッジを構成する画素の近傍とが所定の範囲内にあるか否かにより前記エッジを分類する
請求項1乃至5のいずれか1項に記載の投影装置。
The said selection part classifies the said edge according to whether the vicinity of the pixel which comprises the said edge, and the vicinity of the pixel which comprises the other said edge are in a predetermined range. The projection apparatus according to Item 1.
投影画像を投影面に投影する投影部と、
前記投影面を撮影して画像を取得する撮影部と、
時刻Tの前記画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の前記画像のエッジである第2エッジとを抽出するエッジ抽出部と、
前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、
前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、前記投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部とを備え、
前記投影部は、選択された前記コンテンツが配置された前記投影画像を前記投影面に投影する
投影システム。
A projection unit that projects a projection image onto a projection plane;
A photographing unit for photographing the projection plane to obtain an image;
An edge extraction unit that extracts a first edge that is an edge of the image at time T and a second edge that is an edge of the image at time TT ′ T ′ before time T;
An edge difference recognition unit for recognizing an edge difference image representing an image of a difference between the first edge and the second edge;
Selection of extracting one or more classified images by classifying edges included in the edge difference image, and selecting the content that is similar to or matches the extracted classified image from candidate content to be arranged in the projection image With
The projection unit projects the projection image on which the selected content is arranged onto the projection plane.
コンピュータを、
時刻Tの画像のエッジである第1エッジと、時刻TのT’前の時刻T−T’の画像のエッジである第2エッジとを抽出するエッジ抽出部と、
前記第1エッジと前記第2エッジとの差分の画像を表すエッジ差分画像を認識するエッジ差分認識部と、
前記エッジ差分画像に含まれるエッジを分類することにより1以上の分類画像を抽出し、投影画像に配置するコンテンツの候補から、抽出された前記分類画像に類似または一致する前記コンテンツを選択する選択部と
して機能させるためのプログラム。
Computer
An edge extraction unit that extracts a first edge that is an edge of an image at time T and a second edge that is an edge of an image at time TT ′ T ′ before time T;
An edge difference recognition unit for recognizing an edge difference image representing an image of a difference between the first edge and the second edge;
A selection unit that extracts one or more classified images by classifying edges included in the edge difference image, and selects the content that is similar to or coincides with the extracted classified image from candidate content to be arranged in the projected image Program to function as
JP2012200896A 2012-09-12 2012-09-12 Projection device, projection system, and program Ceased JP2014056434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012200896A JP2014056434A (en) 2012-09-12 2012-09-12 Projection device, projection system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012200896A JP2014056434A (en) 2012-09-12 2012-09-12 Projection device, projection system, and program

Publications (1)

Publication Number Publication Date
JP2014056434A true JP2014056434A (en) 2014-03-27

Family

ID=50613693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012200896A Ceased JP2014056434A (en) 2012-09-12 2012-09-12 Projection device, projection system, and program

Country Status (1)

Country Link
JP (1) JP2014056434A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250658A1 (en) * 2019-06-12 2020-12-17 株式会社小糸製作所 Infractructure for traffic

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6479886A (en) * 1987-09-21 1989-03-24 Nec Corp Pattern recognizing system
JP2006525590A (en) * 2003-05-07 2006-11-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Traffic information system that conveys information to the driver

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6479886A (en) * 1987-09-21 1989-03-24 Nec Corp Pattern recognizing system
JP2006525590A (en) * 2003-05-07 2006-11-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Traffic information system that conveys information to the driver

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250658A1 (en) * 2019-06-12 2020-12-17 株式会社小糸製作所 Infractructure for traffic

Similar Documents

Publication Publication Date Title
US10185879B2 (en) Image processing device
JP5747549B2 (en) Signal detector and program
KR101758684B1 (en) Apparatus and method for tracking object
JP6371553B2 (en) Video display device and video display system
KR102089343B1 (en) Around view monitoring system and calibration method for around view cameras
JP6501257B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2013203374A (en) Display device for vehicle, control method therefor, and program
WO2019082797A1 (en) Reconfiguration method and reconfiguration device
JP2018124890A (en) Image processing apparatus, image processing method, and image processing program
KR20190030870A (en) Image composition apparatus using virtual chroma-key background, method and computer program
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
CN114627175A (en) Image processing method, intelligent terminal and computer readable storage medium
JP6091727B1 (en) Image processing apparatus, image processing method, and program
CN108965646A (en) Image processing apparatus, image processing method and storage medium
JP4882577B2 (en) Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program
US9569674B2 (en) Movement amount estimation device, movement amount estimation method, and computer-readable recording medium storing movement amount estimation program
JP5338762B2 (en) White balance coefficient calculation device and program
JP2020095621A (en) Image processing device and image processing method
JP2011170568A (en) Device and method for detecting obstacle
KR101726692B1 (en) Apparatus and method for extracting object
JP2014056434A (en) Projection device, projection system, and program
JP6316154B2 (en) Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method
JP2017174380A (en) Recognition device, method for recognizing object, program, and storage medium
Itu et al. An efficient obstacle awareness application for android mobile devices
JP2011150594A (en) Image processor and image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170104

A045 Written measure of dismissal of application

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20170530