JP2020113102A - Projection image specification device, diagram projection system, method for specifying projection image, and program - Google Patents

Projection image specification device, diagram projection system, method for specifying projection image, and program Download PDF

Info

Publication number
JP2020113102A
JP2020113102A JP2019004197A JP2019004197A JP2020113102A JP 2020113102 A JP2020113102 A JP 2020113102A JP 2019004197 A JP2019004197 A JP 2019004197A JP 2019004197 A JP2019004197 A JP 2019004197A JP 2020113102 A JP2020113102 A JP 2020113102A
Authority
JP
Japan
Prior art keywords
projection
area
user
image
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019004197A
Other languages
Japanese (ja)
Other versions
JP7255842B2 (en
Inventor
裕一郎 江連
Yuichiro Ezure
裕一郎 江連
伊藤 哲也
Tetsuya Ito
哲也 伊藤
典彦 鎌田
Norihiko Kamata
典彦 鎌田
貴宏 長谷川
Takahiro Hasegawa
貴宏 長谷川
睦 伊藤
Mutsumi Ito
睦 伊藤
咲子 大神
Sakiko Ogami
咲子 大神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2019004197A priority Critical patent/JP7255842B2/en
Publication of JP2020113102A publication Critical patent/JP2020113102A/en
Priority to JP2023040760A priority patent/JP2023099364A/en
Application granted granted Critical
Publication of JP7255842B2 publication Critical patent/JP7255842B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide specification means for easily specifying an image to be projected to a projector.SOLUTION: A projection image specification device is connected to a projector capable of projecting a predetermined range and an imaging device capable of imaging a projection-possible range of the projector. The projection image specification device includes: a diagram recognition unit for recognizing a diagram drawing operation by a user on the basis of an image taken by the imaging device; and a projection control unit for instructing the projector to project a diagram based on the diagram drawing operation.SELECTED DRAWING: Figure 6

Description

本発明は、投影像指定装置、図形投影システム、投影像指定方法及びプログラムに関する。 The present invention relates to a projection image designation device, a graphic projection system, a projection image designation method, and a program.

特許文献1に、映像自動監視システムの監視エリアの設定を行う装置が開示されている。同文献によると、この装置は、3点のマーカーを等間隔で監視エリアの一辺に設置し、これを監視カメラ20で撮影して、画像処理部12で検出することで、監視エリアを設定する。 Patent Document 1 discloses an apparatus for setting a monitoring area of an automatic video monitoring system. According to this document, this device sets three markers at equal intervals on one side of the monitoring area, photographs them with the monitoring camera 20, and detects them with the image processing unit 12 to set the monitoring area. ..

特許文献2には、操作が簡単であり、交通事故現場での計測作業を極力短時間にできるとともに、事故現場において現場見取図を容易に作成できるという位置計測作図装置が開示されている。同文献によると、この位置計測作図装置は、撮影手段で撮影した所望の位置の画像を表示する。そして、この位置計測作図装置は、その画像上で、所望の位置に設置されたマーカーの座標を検出することで、現場見取図を作成する。 Patent Document 2 discloses a position measurement drawing device that is easy to operate, can perform measurement work at a traffic accident site in a shortest time, and can easily create a site sketch at the accident site. According to the document, the position measuring/plotting device displays an image at a desired position photographed by the photographing means. Then, the position measurement drawing device creates a site sketch by detecting the coordinates of the marker placed at a desired position on the image.

特開2001−204007号公報JP, 2001-204007, A 特開平2−281380号公報JP-A-2-281380

以下の分析は、本発明によって与えられたものである。プロジェクター装置に代表される投影装置を用いて、特定の形状の像を投影したいというニーズがある。例えば、部屋や通路にプロジェクターを設置して、任意の色の像を提示することで、注意喚起や空間の演出を行うことができる。また、端的には、建物内の通路に、センターラインや横断歩道の形状の像を投影することで、場内の交通を随時整理することが可能となる。 The following analysis is given by the present invention. There is a need to project an image of a specific shape using a projection device typified by a projector device. For example, by installing a projector in a room or aisle and presenting an image of an arbitrary color, attention can be given or a space effect can be produced. In short, by projecting an image of the shape of a center line or a pedestrian crossing on the passage in the building, it becomes possible to organize the traffic in the hall at any time.

本発明は、投影装置に投影させる像の簡便な指定方法の提供に貢献できる投影像指定装置、図形投影システム、投影像指定方法及びプログラムを提供することを目的とする。 It is an object of the present invention to provide a projection image designating device, a graphic projection system, a projection image designating method, and a program that can contribute to the provision of a simple designating method of an image projected on a projection device.

第1の視点によれば、所定の範囲を投影可能な投影装置と、前記投影装置の投影可能な範囲を撮影可能な撮影装置と、に接続され、前記撮影装置にて撮影された画像に基づいて、ユーザーによる図形の描画操作を認識する図形認識部と、前記投影装置に対して、前記図形の描画操作に基づいた図形の投影を指示する投影制御部と、を備えた投影像指定装置が提供される。 According to the first aspect, a projection device capable of projecting a predetermined range and a photographing device capable of photographing the projectable range of the projection device are connected, and based on an image photographed by the photographing device. And a projection control unit for recognizing a drawing operation of a user by a user, and a projection control unit for instructing the projection device to project a drawing based on the drawing operation of the drawing. Provided.

第2の視点によれば、所定の範囲を投影可能な投影装置と、前記投影装置の投影可能な範囲を撮影可能な撮影装置と、前記撮影装置にて撮影された画像に基づいて、前記ユーザーによる図形の描画操作を認識する図形認識部と、前記投影装置に対して、前記図形の描画操作に基づいた図形の投影を指示する投影制御部と、を備えた投影像指定装置と、を含む図形投影システムが提供される。 According to the second aspect, the projection device capable of projecting a predetermined range, the photographing device capable of photographing the projectable range of the projection device, and the user based on the image photographed by the photographing device. And a projection control unit that instructs the projection device to project a graphic based on the graphic drawing operation. A graphic projection system is provided.

第3の視点によれば、所定の範囲を投影可能な投影装置と、前記投影装置の投影可能な範囲を撮影可能な撮影装置と、に接続されたコンピュータが、前記撮影装置にて撮影された画像に基づいて、前記ユーザーによる図形の描画操作を認識するステップと、前記投影装置に対して、前記認識した前記ユーザーによる図形の描画操作に基づいた図形の投影を指示するステップと、を備えた投影像指定方法が提供される。本方法は、ユーザーから図形の描画操作を受け付けて、図形の投影を指示する投影像指定装置という、特定の機械に結びつけられている。 According to the third aspect, a computer connected to the projection device capable of projecting a predetermined range and the photographing device capable of photographing the projectable range of the projection device is photographed by the photographing device. A step of recognizing a graphic drawing operation by the user based on the image; and a step of instructing the projection device to project a graphic based on the recognized graphic drawing operation by the user. A projection image designation method is provided. This method is tied to a specific machine, which is a projection image designation device that receives a drawing operation of a graphic from a user and instructs projection of the graphic.

第4の視点によれば、上記した投影像指定装置の機能を実現するためのプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。 According to the fourth aspect, a program for realizing the function of the above-described projection image designation device is provided. It should be noted that this program can be recorded in a computer-readable (non-transitary) storage medium. That is, the present invention can be embodied as a computer program product.

本発明によれば、簡便に、投影装置に投影させる像の指定を行うことが可能となる。 According to the present invention, it is possible to easily specify an image to be projected on the projection device.

本発明の一実施形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of this invention. 本発明の一実施形態の動作を説明するための図である。It is a figure for demonstrating operation|movement of one Embodiment of this invention. 本発明の一実施形態の動作を説明するための図である。It is a figure for demonstrating operation|movement of one Embodiment of this invention. 本発明の一実施形態の動作を説明するための図である。It is a figure for demonstrating operation|movement of one Embodiment of this invention. 本発明の一実施形態の動作を説明するための図である。It is a figure for demonstrating operation|movement of one Embodiment of this invention. 本発明の一実施形態の動作を説明するための図である。It is a figure for demonstrating operation|movement of one Embodiment of this invention. 本発明の第1の実施形態の領域提示システムの構成を示す図である。It is a figure which shows the structure of the area|region presentation system of the 1st Embodiment of this invention. 本発明の第1の実施形態の領域提示システムが保持する領域データの一例を示す図である。It is a figure which shows an example of the area|region data which the area|region presentation system of the 1st Embodiment of this invention hold|maintains. 本発明の第1の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 1st Embodiment of this invention. 本発明の第1の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 1st Embodiment of this invention. 本発明の第1の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 1st Embodiment of this invention. 本発明の第1の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 1st Embodiment of this invention. 本発明の第1の実施形態の領域提示システムの効果を説明するための図である。It is a figure for demonstrating the effect of the area|region presentation system of the 1st Embodiment of this invention. 本発明の第2の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 2nd Embodiment of this invention. 本発明の第3の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 3rd Embodiment of this invention. 本発明の第3の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 3rd Embodiment of this invention. 本発明の第4の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 4th Embodiment of this invention. 本発明の第4の実施形態の領域提示システムの動作を説明するための図である。It is a figure for demonstrating operation|movement of the area|region presentation system of the 4th Embodiment of this invention. 本発明の領域提示システムを構成するコンピュータの構成を示す図である。It is a figure which shows the structure of the computer which comprises the area|region presentation system of this invention.

はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、図中の各ブロックの入出力の接続点には、ポート又はインタフェースがあるが図示省略する。また、以下の説明において、「A及び/又はB」は、A及びBの少なくともいずれかという意味で用いる。 First, an outline of one embodiment of the present invention will be described with reference to the drawings. The reference numerals in the drawings attached to this outline are added to the respective elements for convenience as an example for facilitating understanding, and are not intended to limit the present invention to the illustrated modes. Further, the connecting lines between blocks in the drawings and the like referred to in the following description include both bidirectional and unidirectional. The unidirectional arrows schematically show the flow of main signals (data), and do not exclude bidirectionality. Also, although there are ports or interfaces at the input/output connection points of each block in the figure, they are not shown. Further, in the following description, “A and/or B” is used to mean at least one of A and B.

本発明は、その一実施形態において、図1に示すように、所定の範囲を投影可能な投影装置12と、前記投影装置12の投影可能な範囲を撮影可能な撮影装置11と、に接続された投影像指定装置20にて実現できる。この投影像指定装置20は、撮影装置11にて撮影された画像に基づいて、ユーザーによる図形の描画操作を認識する図形認識部21と、投影装置12に対して、前記図形の描画操作に基づいた図形の投影を指示する投影制御部22と、を備える。 In one embodiment thereof, the present invention is connected to a projection device 12 capable of projecting a predetermined range and a photographing device 11 capable of photographing the projectable range of the projection device 12, as shown in FIG. It can be realized by the projected image designation device 20. The projection image designating apparatus 20 is configured to recognize a drawing operation of a figure by a user on the basis of an image captured by the image capturing apparatus 11 and a projection apparatus 12 based on the drawing operation of the figure. A projection control unit 22 for instructing the projection of the figure.

上記投影像指定装置20の動作について図2〜図6を参照して説明する。まず、ユーザーUが図2に示すように、投影装置12に投影させたい形状の頂点にマーカーMを配置する。ここでは、ユーザーは、3つのマーカーを用いて三角形を描画するものとして説明する。 The operation of the projection image designating device 20 will be described with reference to FIGS. First, as shown in FIG. 2, the user U places the marker M at the apex of the shape that the projection device 12 wants to project. Here, it is assumed that the user draws a triangle using three markers.

次に撮影装置11は、ユーザーが並べたマーカーMを含む領域を撮影する。投影像指定装置20の図形認識部21は、撮影装置11にて撮影された画像に基づいて、ユーザーによる図形の描画操作を認識する。図3の例では、図形認識部21は、マーカーMによって構成された三角形を認識する。図形認識部21は、認識した内容を投影制御部22に渡す。 Next, the image capturing device 11 captures an image of the area including the markers M arranged by the user. The figure recognition unit 21 of the projection image designating apparatus 20 recognizes the drawing operation of the figure by the user based on the image photographed by the photographing apparatus 11. In the example of FIG. 3, the figure recognition unit 21 recognizes a triangle formed by the markers M. The figure recognition unit 21 passes the recognized contents to the projection control unit 22.

次に、投影制御部22は、投影装置12に対して、前記図形の描画操作に基づいた三角形の投影を指示する。これにより、図4に示すように、3つのマーカーMを頂点とする三角形TR1が投影されることになる。 Next, the projection control unit 22 instructs the projection device 12 to project a triangle based on the drawing operation of the graphic. As a result, as shown in FIG. 4, the triangle TR1 having the three markers M as vertices is projected.

より望ましい形態において、前記投影像指定装置20は、ユーザーからマーカーMの移動による修正操作を受け付ける。例えば、図5に示すように、ユーザーが右端のマーカーMを右側に動かしたものとする。 In a more desirable form, the projection image designating device 20 receives a correction operation by moving the marker M from the user. For example, as shown in FIG. 5, it is assumed that the user moves the rightmost marker M to the right.

投影像指定装置20の図形認識部21は、撮影装置11にて撮影された画像に基づいて、ユーザーによる図形の修正操作を認識する。最終的に、投影制御部22は、図形認識部21により認識された内容に基づいて図6に示す三角形TR2を投影する。この三角形TR2は、右端のマーカーMを更に右側に動かしたことによって、図4の三角形TR1よりも面積が広くなっている。 The figure recognition unit 21 of the projected image designating apparatus 20 recognizes a user's operation of correcting a figure based on the image captured by the image capturing apparatus 11. Finally, the projection control unit 22 projects the triangle TR2 shown in FIG. 6 based on the content recognized by the graphic recognition unit 21. This triangle TR2 has a larger area than the triangle TR1 of FIG. 4 by moving the marker M at the right end further to the right.

なお、ユーザーからマーカーMの移動による修正操作を受け付ける期間を限定してもよい。例えば、投影後の一定期間だけ修正操作を受け付けるようにしてもよい。また、ユーザーから所定のジェスチャーや通信装置による修正要求操作を受け付けたタイミングで、図形認識部21に認識を行わせることでもよい。さらに、投影像指定装置20に備えられたボタンなどに、修正要求機能を割り当て、その操作(押下)により、マーカー移動の期間開始や期間終了を指定する構成も採用可能である。 It should be noted that the period for accepting the correction operation by moving the marker M from the user may be limited. For example, the correction operation may be accepted only for a certain period after the projection. Further, the figure recognition unit 21 may be made to recognize at the timing when a predetermined gesture or a correction request operation by the communication device is received from the user. Further, it is also possible to adopt a configuration in which a correction request function is assigned to a button or the like provided in the projection image designating device 20 and the operation starts (presses) to specify the start or end of the marker movement period.

以上のように、本実施形態によれば、簡単な操作で投影装置12に、意図した形状の図形等を投影させることが可能となる。なお、図2〜図6の例では、ユーザーが三角形の形状になるようにマーカーMを配置しているが、投影像指定装置20が認識可能な形状は三角形に限られない。例えば、n個のマーカーMを用いて表現されたn個の頂点を持つ多角形を認識させることもできる。また、2個のマーカーを用いて、任意の直線を認識し、投影させることもできる。さらに、マーカーMの種別(形、色)を変えることで、図形認識部21のその違いを認識させ、通常の多角形の角のみならず、アールの付いた角等を使い分けられるようにしてもよい。また、図4〜図6の例では、マーカーの位置を基準に、マーカーを含む図形を認識するものとして説明したが、マーカーの位置と、認識する図形の関係は、別途ルールにて定めることができる。例えば、マーカーの内側を図形として認識してもよい。 As described above, according to the present embodiment, it is possible to cause the projection device 12 to project a graphic or the like having an intended shape by a simple operation. Note that, in the examples of FIGS. 2 to 6, the user arranges the markers M so as to have a triangular shape, but the shape that the projection image designation device 20 can recognize is not limited to the triangular shape. For example, it is possible to recognize a polygon having n vertices expressed by using n markers M. It is also possible to recognize and project an arbitrary straight line by using two markers. Further, by changing the type (shape, color) of the marker M, the difference of the figure recognition unit 21 can be recognized, so that not only the usual polygonal corner but also the rounded corner can be used properly. Good. In addition, in the examples of FIGS. 4 to 6, it has been described that the figure including the marker is recognized on the basis of the position of the marker, but the relationship between the position of the marker and the figure to be recognized can be determined by a separate rule. it can. For example, the inside of the marker may be recognized as a figure.

[第1の実施形態]
続いて、本発明の第1の実施形態について図面を参照して詳細に説明する。図7は、本発明の第1の実施形態の領域提示システムの構成を示す図である。図7を参照すると、領域認識部101と、投影制御部102と、領域記憶部103と、監視部104と、投影部106と、撮影部107とを備えた構成が示されている。
[First Embodiment]
Subsequently, a first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 7: is a figure which shows the structure of the area|region presentation system of the 1st Embodiment of this invention. Referring to FIG. 7, there is shown a configuration including a region recognition unit 101, a projection control unit 102, a region storage unit 103, a monitoring unit 104, a projection unit 106, and a photographing unit 107.

投影制御部102は、1台以上の投影装置によって構成された投影部106を用いて、領域記憶部103に登録された領域データを用いて領域の投影を行う。前記投影装置としてはDLP(登録商標)方式、LCD方式(透過型液晶方式)、LCoS方式(反射型液晶方式)などを用いたものを用いることができる。なお、DLPは、Digital Light Processingの略である。また、LCDは、Liquid Crystal Display、LCoSは、Liquid Crystal on Siliconの略である。また、投影制御部102は、上記した投影制御部22に相当する。 The projection control unit 102 projects the area using the area data registered in the area storage unit 103, using the projection unit 106 configured by one or more projection devices. As the projection device, one using a DLP (registered trademark) system, an LCD system (transmissive liquid crystal system), an LCoS system (reflective liquid crystal system), or the like can be used. DLP is an abbreviation for Digital Light Processing. LCD is an abbreviation for Liquid Crystal Display, and LCoS is an abbreviation for Liquid Crystal on Silicon. The projection control unit 102 corresponds to the projection control unit 22 described above.

もちろん、投影制御部102は、複数の投影装置によって構成された投影部106を制御して投影を行うものとしてもよい。 Of course, the projection control unit 102 may control the projection unit 106 including a plurality of projection devices to perform projection.

撮影部107は、投影部106の投影可能領域をカバーする領域を撮影可能な1台以上のカメラなどによって構成される。撮影部107は、投影部106の出力座標とほぼ同一の座標にて被写体の位置を特定できるように、投影部106と近接して並列に配置されていることが好ましい。この撮影部107にて撮影された画像は、領域認識部101と、監視部104に入力される。なお、投影部106の投影可能領域と撮影部107の撮影領域(カバーする領域)は同じでなくてもよい。 The image capturing unit 107 includes one or more cameras that can capture an area that covers the projectable area of the projection unit 106. It is preferable that the image capturing unit 107 is arranged in parallel with and close to the projecting unit 106 so that the position of the subject can be specified at coordinates substantially the same as the output coordinates of the projecting unit 106. The image captured by the image capturing unit 107 is input to the area recognition unit 101 and the monitoring unit 104. The projectable area of the projection unit 106 and the shooting area (covering area) of the shooting unit 107 do not have to be the same.

領域認識部101は、撮影部107にて撮影された画像に基づいて、ユーザーによる領域の設定操作を認識する。そして、領域認識部101は、前記ユーザーによって設定された領域の情報を領域記憶部103の領域データに追加又は反映する。従って、領域認識部101は、上記した図形認識部21に相当する。なお、撮影部107が複数設けられている場合、領域認識部101は、複数の撮影部107から画像を取得して、ユーザーによる領域の設定操作を認識することになる。 The area recognition unit 101 recognizes a user's area setting operation based on the image captured by the imaging unit 107. Then, the area recognition unit 101 adds or reflects the information on the area set by the user to the area data of the area storage unit 103. Therefore, the area recognition unit 101 corresponds to the above-described figure recognition unit 21. When a plurality of image capturing units 107 are provided, the region recognition unit 101 acquires images from the plurality of image capturing units 107 and recognizes the user's region setting operation.

領域記憶部103は、投影制御部102に投影させる領域のデータを保持する。図8は、領域記憶部103が保持する領域データの一例を示す図である。図8の例では、ID#1の領域は、(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)、(x5,y5)の5点の内側の領域を示している。同様に、ID#3の領域は、(x6,y6)、(x7,y7)、(x8,y8)の3点の内側の領域を示している。これらの座標としては、投影装置が一般的な投影用スクリーンに投影する際の座標と同じものを使用することができる。なお、これらの領域の表現形態はあくまで一例であり、例えば、これらの座標に代えて、各領域のノードとなる点の物理的な位置(緯度経度、必要に応じて高さ)を用いて領域を管理してもよい。 The area storage unit 103 holds data of an area to be projected by the projection control unit 102. FIG. 8 is a diagram showing an example of area data stored in the area storage unit 103. In the example of FIG. 8, the area of ID#1 is the area inside the five points (x1, y1), (x2, y2), (x3, y3), (x4, y4), and (x5, y5). Showing. Similarly, the area of ID#3 is an area inside three points of (x6, y6), (x7, y7), and (x8, y8). As these coordinates, the same coordinates as those used when the projection device projects on a general projection screen can be used. Note that the representation form of these areas is merely an example, and instead of these coordinates, for example, the physical position (latitude/longitude, height if necessary) of a point that becomes a node of each area is used. May be managed.

監視部104は、撮影部107にて撮影された画像から、投影制御部102に投影された領域に近づく人、車両、ロボット、動物等(以下、これらを総称して「侵入者又は侵入物」という。)を認識し、その動きを検出する。そして、監視部104は、これらの「侵入者又は侵入物」の領域への侵入を検出したときに所定の警告動作や注意喚起動作を実施する。 The monitoring unit 104 includes a person, a vehicle, a robot, an animal, etc. who approach the area projected by the projection control unit 102 from the image captured by the imaging unit 107 (hereinafter, these are collectively referred to as “intruder or intruder”). ,) and detect the movement. Then, the monitoring unit 104 implements a predetermined warning operation and a caution activation operation when detecting the invasion of these “intruders or intruders” into the area.

続いて、本実施形態の動作について図面を参照して詳細に説明する。図9は、本発明の第1の実施形態の領域提示システム100の動作を説明するための図である。領域提示システム100の撮影部107が撮影を開始した状態において、ユーザーが図9の左図に示すように、クレーンの周囲に、マーカーとして用いるコーン(トラフィックコーン)を配置したものとする。 Next, the operation of this embodiment will be described in detail with reference to the drawings. FIG. 9: is a figure for demonstrating operation|movement of the area|region presentation system 100 of the 1st Embodiment of this invention. It is assumed that the user arranges a cone (traffic cone) used as a marker around the crane, as shown in the left diagram of FIG. 9, in a state where the image capturing unit 107 of the area presentation system 100 has started capturing.

領域提示システム100の領域認識部101は、撮影部107にて撮影された画像からコーンの位置を特定し、領域データを作成して領域記憶部103に登録する。ここでは、図9の右図のように5つの座標が特定されたものとする。これにより、図8の領域ID#1に相当する領域データが生成される。 The area recognition unit 101 of the area presentation system 100 identifies the position of the cone from the image captured by the imaging unit 107, creates area data, and registers the area data in the area storage unit 103. Here, it is assumed that five coordinates are specified as shown in the right diagram of FIG. As a result, area data corresponding to the area ID #1 in FIG. 8 is generated.

これにより、投影制御部102は、領域記憶部103から読みだした領域データに基づいて、図10に示すように領域Z1を提示することが可能となる。以降、この領域Z1への侵入者を監視部104にて監視、警告することで、この領域Z1を危険領域として監視することが可能となる。 As a result, the projection control unit 102 can present the area Z1 as shown in FIG. 10 based on the area data read from the area storage unit 103. After that, by monitoring and warning the intruder in the area Z1 by the monitoring unit 104, the area Z1 can be monitored as a dangerous area.

上記した領域は2つ以上設定することも可能である。例えば、図11の左図に示すように、ユーザーが危険領域の外側に、コーン(トラフィックコーン)を配置したものとする。 It is also possible to set two or more areas described above. For example, it is assumed that the user has placed a cone (traffic cone) outside the danger area as shown in the left diagram of FIG. 11.

領域提示システム100の領域認識部101は、図11の右図に示すように、撮影部107にて撮影された画像から新たに追加されたコーンの位置を特定し、領域データを作成して領域記憶部103に登録する。これにより、図8の領域ID#2に相当する領域データが生成される。 As shown in the right diagram of FIG. 11, the area recognition unit 101 of the area presentation system 100 specifies the position of the newly added cone from the image captured by the imaging unit 107, creates area data, and creates the area. Register in the storage unit 103. As a result, area data corresponding to the area ID #2 in FIG. 8 is generated.

これにより、投影制御部102は、領域記憶部103から読みだした領域データに基づいて、図12に示すように領域Z2を提示することが可能となる。以降、この領域Z2への侵入者を監視部104にて監視する。例えば、この領域Z2への侵入者を検出したときに、警告ではなく、注意喚起動作を行わせることで、この領域Z2をグレーゾーンとして機能させることが可能となる。 As a result, the projection control unit 102 can present the area Z2 as shown in FIG. 12 based on the area data read from the area storage unit 103. After that, the monitoring unit 104 monitors an intruder in the area Z2. For example, when an intruder is detected in the area Z2, a warning activating operation is performed instead of a warning so that the area Z2 can function as a gray zone.

領域Z1、Z2を修正する場合、以下の2つの方法を採ることができる。その1つは、図5、図6に示したように、コーン(トラフィックコーン)を移動し、領域提示システム100の領域認識部101に再認識させる方法である。もう1つの方法は、すべてのコーン(トラフィックコーン)を再配置し、領域提示システム100の領域認識部101に再認識させる方法である。いずれの場合も投影制御部102によって投影された領域を見ながら領域の修正を行うことができるので、領域の修正作業を効率よく行うことができる。 When correcting the regions Z1 and Z2, the following two methods can be adopted. One of them is a method of moving a cone (traffic cone) and causing the area recognition unit 101 of the area presentation system 100 to re-recognize it, as shown in FIGS. 5 and 6. The other method is to rearrange all cones (traffic cones) and cause the area recognition unit 101 of the area presentation system 100 to re-recognize them. In either case, since the area can be corrected while looking at the area projected by the projection control unit 102, the area correction work can be performed efficiently.

以上、説明したとおり、本実施形態の領域提示システム100によれば、投影装置に投影させる領域の設定を効率よく行うことが可能となる。その理由は、投影制御部102によって領域を提示しつつ、コーン(トラフィックコーン)を配置することで領域を設定できる簡便なユーザーインタフェースを提供したことにある。 As described above, according to the area presentation system 100 of the present embodiment, it is possible to efficiently set the area to be projected by the projection device. The reason is to provide a simple user interface in which the area can be set by arranging a cone (traffic cone) while presenting the area by the projection control unit 102.

図13は、背景技術に示した撮影画像から点a2を指定する方法に対する本発明の優位性(効果)を説明するための図である。図13の左図は、背景技術に示した撮影画像から、ポインタPを用いて点a2を指定している状態示す。しかしながら、この方法では、図13の右図に示すように、カメラの位置から点a2と同一直線上にある点a3を選択したのかそうでないのかの判断が難しくなってしまう。一方、本発明によれば、図3に示すように、実際に、マーカーを配置し、これをカメラで撮影し認識する構成を採っているので、意図した範囲を特定できないという問題が解消されることになる。 FIG. 13 is a diagram for explaining the superiority (effect) of the present invention with respect to the method of designating the point a2 from the captured image shown in the background art. The left diagram of FIG. 13 shows a state in which the point a2 is designated using the pointer P from the captured image shown in the background art. However, according to this method, as shown in the right diagram of FIG. 13, it becomes difficult to determine whether the point a3 on the same straight line as the point a2 is selected from the position of the camera or not. On the other hand, according to the present invention, as shown in FIG. 3, since the marker is actually arranged, and the marker is photographed and recognized by the camera, the problem that the intended range cannot be specified is solved. It will be.

なお、上記した実施形態では、コーン(トラフィックコーン)をカメラにて撮影することで領域を指定する例を挙げて説明したが、マーカーは、コーン(トラフィックコーン)に限定されない。領域認識部101による認識が好ましく行われるものであればよく、任意の形状の標識板や発光体等をマーカーとして利用することができる。また、領域認識部101がマーカーの認識に用いる装置はカメラに限定されない。例えば、マーカーとの距離と方位を特定可能な距離センサ等を用いて、マーカーの位置を特定してもよい。また例えば、マーカー自体にGPS(Global Positioning System)等の位置測定手段を持たせておき、その位置情報を受信する構成も採用可能である。この場合、領域提示システム100は、位置情報の受信手段を備えることになる。 In addition, in the above-described embodiment, the example in which the area is specified by photographing the cone (traffic cone) with the camera has been described, but the marker is not limited to the cone (traffic cone). Anything can be used as long as it can be recognized by the area recognition unit 101, and a marker plate or illuminant of any shape can be used as a marker. Further, the device used by the area recognition unit 101 to recognize the marker is not limited to the camera. For example, the position of the marker may be specified by using a distance sensor or the like that can specify the distance and direction to the marker. Further, for example, it is possible to adopt a configuration in which the marker itself is provided with a position measuring means such as GPS (Global Positioning System) and the position information is received. In this case, the area presentation system 100 includes a position information receiving unit.

[第2の実施形態]
続いて、領域認識部101における領域の認識方法に変更を加えた第2の実施形態について図面を参照して詳細に説明する。本発明の第2の実施形態は、第1の実施形態と同様の構成にて実現できるので、以下、その動作上の相違点を中心に説明する。図14は、本発明の第2の実施形態の領域提示システム100の動作を説明するための図である。領域提示システム100の撮影部107が撮影を開始した状態において、ユーザーが図14の左図に示すように、コーンを移動させて、クレーンの周囲に、領域を描いたものとする。
[Second Embodiment]
Next, a second embodiment in which the area recognition method in the area recognition unit 101 is modified will be described in detail with reference to the drawings. The second embodiment of the present invention can be realized with the same configuration as that of the first embodiment, and therefore the differences in operation will be mainly described below. FIG. 14: is a figure for demonstrating operation|movement of the area|region presentation system 100 of the 2nd Embodiment of this invention. It is assumed that the user moves the cone and draws a region around the crane as shown in the left diagram of FIG. 14 in a state where the image capturing unit 107 of the region presentation system 100 starts capturing.

領域提示システム100の領域認識部101は、撮影部107にて撮影された画像からコーンの移動軌跡を特定し、この移動軌跡によって囲われた領域に対応する領域データを作成して領域記憶部103に登録する。例えば、ユーザーが第1の実施形態と同様の五角形を描くことで、第1の実施形態と同様に、5つの座標を特定させることができる。これにより、図8の領域ID#1に相当する領域データが生成される。もちろん、ユーザーがコーンを移動し、フリーハンドで不定形の領域を描いてもよい。その場合は、マーカーの軌跡の座標を持つ領域データを作成して領域記憶部103に登録すればよい。 The area recognition unit 101 of the area presentation system 100 identifies the movement path of the cone from the image captured by the imaging unit 107, creates area data corresponding to the area surrounded by this movement path, and stores the area storage unit 103. Register with. For example, by drawing a pentagon similar to that in the first embodiment, the user can specify five coordinates as in the first embodiment. As a result, area data corresponding to the area ID #1 in FIG. 8 is generated. Of course, the user may move the cone to draw a free-form amorphous area. In that case, area data having coordinates of the locus of the marker may be created and registered in the area storage unit 103.

以上、説明したように、本実施形態によれば、1つのマーカーで領域を指定可能な構成を得ることができる。もちろん、本実施形態においても、投影制御部102によって投影された領域を見ながら領域の修正を行うことができるので、領域の修正作業を効率よく行うことができる。 As described above, according to the present embodiment, it is possible to obtain a configuration in which the area can be designated by one marker. Of course, also in this embodiment, since the area can be corrected while observing the area projected by the projection control unit 102, the area correction work can be efficiently performed.

[第3の実施形態]
続いて、マーカーとして投影したマーカー(仮想マーカー)を用いるようにした第3の実施形態について図面を参照して詳細に説明する。本発明の第3の実施形態は、第1の実施形態と同様の構成にて実現できるので、以下、その動作上の相違点を中心に説明する。図15は、本発明の第3の実施形態の領域提示システム100の動作を説明するための図である。撮影部107が撮影を開始した状態において、ユーザーが所定のジェスチャーを行うと、図15の左図に示すように、仮想マーカーが表示される。仮想マーカーの表示形態は、一度に複数の仮想マーカーを表示する形態であってもよいし、ユーザーのジェスチャーに応じて、ユーザーの指定位置に1つずつ仮想マーカーを表示する形態であってもよい。
[Third Embodiment]
Next, a third embodiment in which projected markers (virtual markers) are used as markers will be described in detail with reference to the drawings. The third embodiment of the present invention can be realized with the same configuration as that of the first embodiment, and therefore the differences in operation will be mainly described below. FIG. 15: is a figure for demonstrating operation|movement of the area|region presentation system 100 of the 3rd Embodiment of this invention. When the user performs a predetermined gesture while the image capturing unit 107 has started capturing, virtual markers are displayed as shown in the left diagram of FIG. The display form of the virtual markers may be a form in which a plurality of virtual markers are displayed at one time, or may be a form in which one virtual marker is displayed at a position designated by the user according to the gesture of the user. ..

そして、領域提示システム100は、投影部106と撮影部107とを用いて、ユーザーの(第2の)ジェスチャーにより、これら仮想マーカーの位置修正インタフェースを提供する。例えば、領域提示システム100は、投影部106と撮影部107とを用いて、図16に示すように、仮想マーカーのドラグ&ドロップ操作にて、仮想マーカーの移動を受け付ける。そして、最終的に、ユーザーが図16の右図に示すように、点(x2,y2)を、点(x2a,y2a)に移動させた領域が特定されることになる。 Then, the area presentation system 100 provides a position correction interface for these virtual markers by the user's (second) gesture using the projection unit 106 and the imaging unit 107. For example, the area presentation system 100 receives the movement of the virtual marker by dragging and dropping the virtual marker using the projection unit 106 and the imaging unit 107, as illustrated in FIG. 16. Then, finally, as shown in the right diagram of FIG. 16, the area where the user has moved the point (x2, y2) to the point (x2a, y2a) is specified.

以上、説明したように、本実施形態によれば、物理的なマーカーを用意しなくても、領域を指定可能な構成を得ることができる。もちろん、本実施形態においても、投影制御部102によって投影された領域を見ながら領域の修正を行うことができるので、領域の修正作業を効率よく行うことができる。また、本実施形態においても、第2の実施形態と同様に、仮想マーカーの移動軌跡を認識して領域を認識する方法も採用可能である。 As described above, according to the present embodiment, it is possible to obtain a configuration capable of designating an area without preparing a physical marker. Of course, also in this embodiment, since the area can be corrected while observing the area projected by the projection control unit 102, the area correction work can be efficiently performed. Also in the present embodiment, as in the second embodiment, a method of recognizing the movement locus of the virtual marker and recognizing the region can be adopted.

[第4の実施形態]
続いて、作成した領域の結合、分割をなしうるようにした第4の実施形態について図面を参照して詳細に説明する。本発明の第4の実施形態は、第1の実施形態と同様の構成にて実現できるので、以下、その動作上の相違点を中心に説明する。図17は、本発明の第4の実施形態の領域提示システム100の動作を説明するための図である。例えば、図17に示すように、2つの危険領域Z3、Z4が作成済みであるものとする。その状態でユーザーが所定の領域結合操作を行うと、領域提示システム100は、図17の右図に示すように、危険領域Z3、Z4を結合して危険領域Z5を作成する。
[Fourth Embodiment]
Next, a fourth embodiment in which the created areas can be combined and divided will be described in detail with reference to the drawings. The fourth embodiment of the present invention can be realized with the same configuration as that of the first embodiment, and therefore the differences in operation will be mainly described below. FIG. 17: is a figure for demonstrating operation|movement of the area|region presentation system 100 of the 4th Embodiment of this invention. For example, as shown in FIG. 17, it is assumed that two dangerous areas Z3 and Z4 have been created. When the user performs a predetermined area combining operation in that state, the area presentation system 100 creates a dangerous area Z5 by combining the dangerous areas Z3 and Z4 as shown in the right diagram of FIG.

図18は、本発明の第4の実施形態の領域提示システム100の別の動作を説明するための図である。例えば、図18に示すように、危険領域Z5が作成済みであるものとする。その状態でユーザーが投影部106の前に立つと、ユーザーが陰になり、図18に示すように危険領域Z5は2つに分割される。その状態で、ユーザーが所定のジェスチャーを行うと、領域提示システム100は、図18の右図に示すように、危険領域Z5を、危険領域Z5−1、Z5−2に分割する。 FIG. 18: is a figure for demonstrating another operation|movement of the area|region presentation system 100 of the 4th Embodiment of this invention. For example, as shown in FIG. 18, it is assumed that the dangerous area Z5 has already been created. When the user stands in front of the projection unit 106 in that state, the user is hidden and the dangerous area Z5 is divided into two as shown in FIG. In that state, when the user makes a predetermined gesture, the area presentation system 100 divides the dangerous area Z5 into dangerous areas Z5-1 and Z5-2 as shown in the right diagram of FIG. 18.

以上、説明したように、本実施形態によれば、マーカーの移動を行わなくても、領域の形状を変更可能な構成を得ることができる。さらに、ユーザーの所定のジェスチャーにより、領域提示システム100が、四角形、三角形、円等の基本的な領域図形を提示するようにしてもよい。このようにすることで、これらの図形の結合と分割により、任意の形状の領域を作成する構成が得られる。 As described above, according to the present embodiment, it is possible to obtain a configuration in which the shape of the region can be changed without moving the marker. Further, the region presentation system 100 may present a basic region figure such as a quadrangle, a triangle, and a circle by a predetermined gesture of the user. By doing so, a configuration for creating a region having an arbitrary shape can be obtained by combining and dividing these figures.

以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示した装置構成、各要素の構成、データの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。 Although the respective embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and further modifications, replacements, and adjustments can be made without departing from the basic technical idea of the present invention. Can be added. For example, the device configuration, the configuration of each element, and the expression form of data shown in each drawing are examples for helping understanding of the present invention, and are not limited to the configurations shown in these drawings.

上記した各実施形態では、本発明を領域提示システム100の領域の指定に用いた例を挙げて説明したが、同様の構成にて、投影により建物内のラインや模様等の任意の投影像を指定する用途に適用することができる。例えば、建物内のラインを投影する場合、領域提示システム100にマーカー等によって描かれた線を認識させて、投影すればよい。 In each of the above-described embodiments, the present invention has been described by way of an example in which the area presentation system 100 is used to specify an area. However, with the same configuration, an arbitrary projected image such as a line or a pattern in a building is projected by projection. It can be applied to specified uses. For example, when projecting a line in a building, the region presentation system 100 may recognize a line drawn by a marker or the like and project the line.

また、上記した第1〜第4の実施形態に示した手順は、領域提示システム100として機能するコンピュータ(図19の9000)に、領域提示システム100としての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図19のCPU(Central Processing Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図19のCPU9010にて、領域認識プログラムや投影制御プログラムを実行し、その補助記憶装置9040等に保持された各計算パラメーターの更新処理を実施させればよい。 The procedures shown in the above-described first to fourth embodiments can be realized by a program that causes a computer (9000 in FIG. 19) functioning as the area presentation system 100 to realize the function as the area presentation system 100. .. Such a computer is exemplified by the configuration including the CPU (Central Processing Unit) 9010, the communication interface 9020, the memory 9030, and the auxiliary storage device 9040 of FIG. That is, the CPU 9010 in FIG. 19 may execute the area recognition program and the projection control program to update the calculation parameters held in the auxiliary storage device 9040 and the like.

即ち、上記した各実施形態に示した領域提示システム100の各部(処理手段、機能)は、領域提示システム100に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。 That is, each unit (processing unit, function) of the area presentation system 100 shown in each of the above-described embodiments is a computer that causes the processor mounted in the area presentation system 100 to execute the above-described processing using its hardware. It can be realized by a program.

最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による投影像指定装置参照)
[第2の形態]
上記した投影像指定装置が認識する前記ユーザーによる図形の描画操作は、
前記ユーザーによる3以上のマーカーの設置操作であり、
前記投影制御部は、前記3以上のマーカーによって区切られる領域を投影する構成を採ることができる。
[第3の形態]
上記した投影像指定装置が認識する前記ユーザーによる図形の描画操作は、
前記ユーザーがマーカーを移動させて領域を囲う操作であり、
前記投影制御部は、前記マーカーの軌跡によって指定された領域を投影する構成を採ることができる。
[第4の形態]
上記した投影像指定装置において、
前記マーカーとして、前記投影装置によって投影された仮想マーカーを用いる構成を採ることができる。
[第5の形態]
上記した投影像指定装置において、
前記図形認識部は、前記ユーザーのジェスチャーによる、前記投影装置によって投影された仮想マーカーに対する操作を認識する構成を採ることができる。
[第6の形態]
上記した投影像指定装置において、
前記図形認識部は、前記ユーザーのジェスチャーとして、前記仮想マーカーの設置、前記仮想マーカーの移動、領域の切断又は領域の結合の少なくとも1つ以上を認識可能な構成を採ることができる。
[第7の形態]
上記した投影像指定装置において、
前記図形認識部は、前記投影された図形を参照したユーザーによる図形の修正操作を認識し、
前記投影制御部は、前記投影装置に対して、前記図形の修正操作を反映した図形の投影を指示する構成を採ることができる。
[第8の形態]
(上記第2の視点による図形投影システム参照)
[第9の形態]
(上記第3の視点による投影像指定方法参照)
[第10の形態]
(上記第4の視点によるプログラム参照)
なお、上記第8〜第10の形態は、第1の形態と同様に、第2〜第7の形態に展開することが可能である。
Finally, the preferred forms of the invention are summarized.
[First form]
(Refer to the above-mentioned projection image designation device from the first viewpoint)
[Second mode]
The drawing operation of the figure by the user recognized by the above-mentioned projection image designation device is
It is a setting operation of three or more markers by the user,
The projection control unit may be configured to project an area delimited by the three or more markers.
[Third form]
The drawing operation of the figure by the user recognized by the above-mentioned projection image designation device is
An operation in which the user moves the marker to enclose the area,
The projection control unit may be configured to project an area designated by the locus of the marker.
[Fourth form]
In the projection image designating device described above,
A configuration using a virtual marker projected by the projection device can be adopted as the marker.
[Fifth form]
In the projection image designating device described above,
The figure recognition unit may be configured to recognize an operation performed on the virtual marker projected by the projection device by a gesture of the user.
[Sixth form]
In the projection image designating device described above,
The figure recognition unit may be configured to be capable of recognizing, as the gesture of the user, at least one of installation of the virtual marker, movement of the virtual marker, cutting of a region, and joining of regions.
[Seventh form]
In the projection image designating device described above,
The figure recognition unit recognizes a figure correction operation by a user who refers to the projected figure,
The projection control unit may be configured to instruct the projection device to project a graphic that reflects the correction operation of the graphic.
[Eighth mode]
(Refer to the figure projection system from the above second viewpoint)
[Ninth mode]
(Refer to the projection image designation method from the third viewpoint above)
[Tenth form]
(Refer to the program from the fourth viewpoint above)
The eighth to tenth modes can be expanded to the second to seventh modes, like the first mode.

なお、上記の特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。 It should be noted that the disclosures of the above patent documents are incorporated herein by reference. Modifications and adjustments of the exemplary embodiments and examples are possible within the scope of the overall disclosure (including claims) of the present invention and based on the basic technical concept of the invention. Further, within the framework of the disclosure of the present invention, various combinations or selections (parts) of various disclosed elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) (Including targeted deletion) is possible. That is, it goes without saying that the present invention includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including the claims and the technical idea. In particular, with regard to the numerical range described in this specification, any numerical value or small range included in the range should be construed as being specifically described even if not otherwise specified.

11 撮影装置
12 投影装置
20 投影像指定装置
21 図形認識部
22 投影制御部
100 領域提示システム
101 領域認識部
102 投影制御部
103 領域記憶部
104 監視部
106 投影部
107 撮影部
9000 コンピュータ
9010 CPU
9020 通信インタフェース
9030 メモリ
9040 補助記憶装置
M マーカー
TR1、TR2 三角形
U ユーザー
Z1〜Z5、Z5−1、Z5−2 領域
11 Imaging Device 12 Projection Device 20 Projection Image Designation Device 21 Graphic Recognition Unit 22 Projection Control Unit 100 Region Presentation System 101 Region Recognition Unit 102 Projection Control Unit 103 Region Storage Unit 104 Monitoring Unit 106 Projection Unit 107 Imaging Unit 9000 Computer 9010 CPU
9020 communication interface 9030 memory 9040 auxiliary storage device M marker TR1, TR2 triangle U user Z1-Z5, Z5-1, Z5-2 area

Claims (10)

所定の範囲を投影可能な投影装置と、前記投影装置の投影可能な範囲を撮影可能な撮影装置と、に接続され、
前記撮影装置にて撮影された画像に基づいて、ユーザーによる図形の描画操作を認識する図形認識部と、
前記投影装置に対して、前記図形の描画操作に基づいた図形の投影を指示する投影制御部と、
を備えた投影像指定装置。
Connected to a projection device capable of projecting a predetermined range, and a photographing device capable of photographing the projectable range of the projection device,
A figure recognition unit for recognizing a drawing operation by a user based on an image taken by the imaging device;
A projection control unit for instructing the projection device to project a figure based on the drawing operation of the figure;
Projection image designation device equipped with.
前記ユーザーによる図形の描画操作は、
前記ユーザーによる3以上のマーカーの設置操作であり、
前記投影制御部は、前記3以上のマーカーによって区切られる領域を投影する請求項1の投影像指定装置。
The drawing operation by the user is
It is a setting operation of three or more markers by the user,
The projection image designation device according to claim 1, wherein the projection control unit projects an area delimited by the three or more markers.
前記ユーザーによる図形の描画操作は、
前記ユーザーがマーカーを移動させて領域を囲う操作であり、
前記投影制御部は、前記マーカーの軌跡によって指定された領域を投影する請求項1又は2の投影像指定装置。
The drawing operation by the user is
An operation in which the user moves the marker to enclose the area,
The projection image designating device according to claim 1, wherein the projection control unit projects a region designated by the locus of the marker.
前記マーカーが、前記投影装置によって投影された仮想マーカーである請求項2又は3の投影像指定装置。 The projection image designation device according to claim 2, wherein the marker is a virtual marker projected by the projection device. 前記図形認識部は、前記ユーザーのジェスチャーによる、前記投影装置によって投影された仮想マーカーに対する操作を認識する請求項4の投影像指定装置。 The projection image designation device according to claim 4, wherein the figure recognition unit recognizes an operation performed on the virtual marker projected by the projection device by a gesture of the user. 前記図形認識部は、前記ユーザーのジェスチャーとして、前記仮想マーカーの設置、前記仮想マーカーの移動、領域の切断又は領域の結合の少なくとも1つ以上を認識可能である請求項5の投影像指定装置。 The projection image designation device according to claim 5, wherein the figure recognition unit is capable of recognizing, as the gesture of the user, at least one of installation of the virtual marker, movement of the virtual marker, cutting of a region, and joining of regions. 前記図形認識部は、前記投影された図形を参照したユーザーによる図形の修正操作を認識し、
前記投影制御部は、前記投影装置に対して、前記図形の修正操作を反映した図形の投影を指示する請求項1から6いずれか一の投影像指定装置。
The figure recognition unit recognizes a correction operation of a figure by a user who refers to the projected figure,
7. The projection image designation device according to claim 1, wherein the projection control unit instructs the projection device to project a graphic that reflects the correction operation of the graphic.
所定の範囲を投影可能な投影装置と、
前記投影装置の投影可能な範囲を撮影可能な撮影装置と、
前記撮影装置にて撮影された画像に基づいて、ユーザーによる図形の描画操作を認識する図形認識部と、
前記投影装置に対して、前記図形の描画操作に基づいた図形の投影を指示する投影制御部と、を備えた投影像指定装置と、
を含む図形投影システム。
A projection device capable of projecting a predetermined range,
A photographing device capable of photographing the projectable range of the projection device;
A figure recognition unit for recognizing a drawing operation by a user based on an image taken by the imaging device;
A projection image designating device comprising: a projection control unit for instructing the projection device to project a graphic based on the drawing operation of the graphic;
Figure projection system including.
所定の範囲を投影可能な投影装置と、前記投影装置の投影可能な範囲を撮影可能な撮影装置と、に接続されたコンピュータが、
前記撮影装置にて撮影された画像に基づいて、ユーザーによる図形の描画操作を認識するステップと、
前記投影装置に対して、前記認識した前記ユーザーによる図形の描画操作に基づいた図形の投影を指示するステップと、
を備えた投影像指定方法。
A computer connected to a projection device capable of projecting a predetermined range and a photographing device capable of photographing the projectable range of the projection device,
Recognizing a drawing operation of the user by the user based on the image photographed by the photographing device,
Instructing the projection device to project a figure based on the recognized drawing operation of the figure by the user,
Projection image designation method with.
所定の範囲を投影可能な投影装置と、前記投影装置の投影可能な範囲を撮影可能な撮影装置と、に接続されたコンピュータに、
前記撮影装置にて撮影された画像に基づいて、ユーザーによる図形の描画操作を認識する処理と、
前記投影装置に対して、前記認識した前記ユーザーによる図形の描画操作に基づいた図形の投影を指示する処理と、
を実行させるプログラム。
A computer connected to a projection device capable of projecting a predetermined range and a photographing device capable of photographing the projectable range of the projection device,
A process of recognizing a drawing operation of a user by a user based on an image taken by the imaging device;
A process of instructing the projection device to project a figure based on the recognized drawing operation of the figure by the user;
A program to execute.
JP2019004197A 2019-01-15 2019-01-15 PROJECTION IMAGE SPECIFICATION DEVICE, GRAPHIC PROJECTION SYSTEM, PROJECTION IMAGE SPECIFICATION METHOD AND PROGRAM Active JP7255842B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019004197A JP7255842B2 (en) 2019-01-15 2019-01-15 PROJECTION IMAGE SPECIFICATION DEVICE, GRAPHIC PROJECTION SYSTEM, PROJECTION IMAGE SPECIFICATION METHOD AND PROGRAM
JP2023040760A JP2023099364A (en) 2019-01-15 2023-03-15 Designation device, system, designation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019004197A JP7255842B2 (en) 2019-01-15 2019-01-15 PROJECTION IMAGE SPECIFICATION DEVICE, GRAPHIC PROJECTION SYSTEM, PROJECTION IMAGE SPECIFICATION METHOD AND PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023040760A Division JP2023099364A (en) 2019-01-15 2023-03-15 Designation device, system, designation method, and program

Publications (2)

Publication Number Publication Date
JP2020113102A true JP2020113102A (en) 2020-07-27
JP7255842B2 JP7255842B2 (en) 2023-04-11

Family

ID=71667089

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019004197A Active JP7255842B2 (en) 2019-01-15 2019-01-15 PROJECTION IMAGE SPECIFICATION DEVICE, GRAPHIC PROJECTION SYSTEM, PROJECTION IMAGE SPECIFICATION METHOD AND PROGRAM
JP2023040760A Pending JP2023099364A (en) 2019-01-15 2023-03-15 Designation device, system, designation method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023040760A Pending JP2023099364A (en) 2019-01-15 2023-03-15 Designation device, system, designation method, and program

Country Status (1)

Country Link
JP (2) JP7255842B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275327A (en) * 2003-09-19 2005-10-06 Fuji Electric Systems Co Ltd Projection display device
JP2012256270A (en) * 2011-06-10 2012-12-27 Sony Corp Information processor, program, and information processing method
JP2013175216A (en) * 2013-04-17 2013-09-05 Casio Comput Co Ltd Electronic apparatus and program
JP2014149614A (en) * 2013-01-31 2014-08-21 Toshiba Corp Electronic apparatus and handwritten document processing method
JP2018074528A (en) * 2016-11-02 2018-05-10 キヤノン株式会社 Information processing system and component apparatus thereof, and method for monitoring real space
JP2018072495A (en) * 2016-10-27 2018-05-10 セイコーエプソン株式会社 Projector, projection system, and detection light irradiation unit

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275327A (en) * 2003-09-19 2005-10-06 Fuji Electric Systems Co Ltd Projection display device
JP2012256270A (en) * 2011-06-10 2012-12-27 Sony Corp Information processor, program, and information processing method
JP2014149614A (en) * 2013-01-31 2014-08-21 Toshiba Corp Electronic apparatus and handwritten document processing method
JP2013175216A (en) * 2013-04-17 2013-09-05 Casio Comput Co Ltd Electronic apparatus and program
JP2018072495A (en) * 2016-10-27 2018-05-10 セイコーエプソン株式会社 Projector, projection system, and detection light irradiation unit
JP2018074528A (en) * 2016-11-02 2018-05-10 キヤノン株式会社 Information processing system and component apparatus thereof, and method for monitoring real space

Also Published As

Publication number Publication date
JP2023099364A (en) 2023-07-12
JP7255842B2 (en) 2023-04-11

Similar Documents

Publication Publication Date Title
TWI663876B (en) Image processing device, image processing method, non-transitory computer readable recording medium and photographing assist equipment for image processing device
JP5885714B2 (en) Image forming system and output instruction program
EP1694072A1 (en) Surveillance system for masking privacy zone and method of setting mask zone
JP6429545B2 (en) Control device and control method
JP6429640B2 (en) Communication system used in remote communication
JP6711137B2 (en) Display control program, display control method, and display control device
JP2016092693A (en) Imaging apparatus, imaging apparatus control method, and program
EP3048790A1 (en) Video monitoring system and video display method
JP2017079400A (en) Display system, information processing method, and program
JP6886670B2 (en) Construction site terminals, construction site systems, and programs
JP5517705B2 (en) Projection device
JP2020113102A (en) Projection image specification device, diagram projection system, method for specifying projection image, and program
JP5963571B2 (en) Image display device and surveillance camera system
JP6882147B2 (en) Operation guidance system
US20220264062A1 (en) Display method, information processing device, and non-transitory computer-readable storage medium storing program
JP2004165790A (en) Camera control system
JP2018174468A (en) Video display unit, and control method, and program therefor
JP6986214B2 (en) Display system and display device
JPWO2018123022A1 (en) Computer program, display device, head-mounted display device, marker
WO2023224031A1 (en) Information processing method, information processing device, and information processing program
US20230125097A1 (en) Photography support device and method, and computer-readable storage medium
WO2023224036A1 (en) Information processing method, information processing device, and information processing program
JP6133252B2 (en) Image providing system and program
JP6465029B2 (en) Information processing apparatus, imaging apparatus, imaging system, information processing apparatus control method, imaging apparatus control method, and program
JP2014131211A (en) Imaging apparatus and image monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R151 Written notification of patent or utility model registration

Ref document number: 7255842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151