JP7494573B2 - Image processing device, image processing system, image processing method and program - Google Patents

Image processing device, image processing system, image processing method and program Download PDF

Info

Publication number
JP7494573B2
JP7494573B2 JP2020094123A JP2020094123A JP7494573B2 JP 7494573 B2 JP7494573 B2 JP 7494573B2 JP 2020094123 A JP2020094123 A JP 2020094123A JP 2020094123 A JP2020094123 A JP 2020094123A JP 7494573 B2 JP7494573 B2 JP 7494573B2
Authority
JP
Japan
Prior art keywords
image
image processing
unit
processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020094123A
Other languages
Japanese (ja)
Other versions
JP2021190826A (en
Inventor
英邦 安中
芳和 後藤
健一郎 森田
智慎 相川
英樹 城
佑哉 秋本
貴文 武田
達也 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020094123A priority Critical patent/JP7494573B2/en
Publication of JP2021190826A publication Critical patent/JP2021190826A/en
Application granted granted Critical
Publication of JP7494573B2 publication Critical patent/JP7494573B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an image processing system, an image processing method, and a program.

複数の広角レンズまたは魚眼レンズを用いて全方位を撮影する撮像装置が知られている。このような撮像装置を用いて撮影を行う際に見せたくない箇所が映り込んでしまう場合があり、撮像画像に対して事後的に画像処理を行うことによって、見せたくない箇所の画像を除去する技術が知られている。 Image capture devices that use multiple wide-angle or fisheye lenses to capture images in all directions are known. When capturing images using such an image capture device, there are cases where parts that you do not want to show are captured in the image. A technique is known that performs post-processing on the captured image to remove the images of the parts that you do not want to show.

例えば、特許文献1には、全周囲画像から平面画像を生成する際の切り出し範囲を設定する際に、全周囲画像の不要領を検知し、検知された不要領域を除外して切り出し範囲を指定する内容が記載されている。 For example, Patent Document 1 describes a method for setting a cropping range when generating a planar image from a panoramic image by detecting unnecessary areas in the panoramic image and excluding the detected unnecessary areas to specify the cropping range.

しかしながら、従来の方法では、画像に示される不要領域等の処理対象の領域が、撮像装置が撮影する被写体の状況に応じて変化する場合、処理対象の領域を精度良く設定することができないという課題があった。 However, with conventional methods, when the area to be processed, such as an unnecessary area shown in an image, changes depending on the condition of the subject captured by the imaging device, there is an issue in that the area to be processed cannot be set with high accuracy.

上述した課題を解決すべく、請求項1に係る発明は、撮像画像の入力を受ける画像入力手段と、入力された前記撮像画像に示される所定パターンの位置を算出する算出手段と、算出された複数の所定パターンの位置に基づいて形成される特定の形状を補完する頂点を推定する推定手段と、算出された複数の所定パターンの位置、および推定された前記頂点に基づいて、処理対象の領域を設定する領域設定手段と、設定された前記領域に対して画像処理を行う画像処理手段と、入力された前記撮像画像における所定パターンの位置を示す位置情報を記憶する記憶手段と、を備え、前記領域設定手段は、算出された複数の所定パターンの位置と、記憶された前記位置情報の少なくとも一部とに基づいて、前記領域を設定する、画像処理装置である。 In order to solve the above-mentioned problems, the invention of claim 1 is an image processing device comprising an image input means for receiving an input of an image, a calculation means for calculating the position of a predetermined pattern shown in the input image, an estimation means for estimating vertices that complement a specific shape formed based on the calculated positions of a plurality of predetermined patterns, an area setting means for setting an area to be processed based on the calculated positions of a plurality of predetermined patterns and the estimated vertices, an image processing means for performing image processing on the set area , and a storage means for storing position information indicating the position of the predetermined pattern in the input image, wherein the area setting means sets the area based on the calculated positions of the plurality of predetermined patterns and at least a part of the stored position information .

本発明によれば、撮像画像に対する画像処理の対象となる領域の認識精度を向上させることができるという効果を奏する。 The present invention has the effect of improving the accuracy of recognition of areas that are subject to image processing on captured images.

実施形態に係る画像処理システムの一例を示す図である。FIG. 1 is a diagram illustrating an example of an image processing system according to an embodiment. 実施形態に係るマスク処理領域を設定するための構成の一例を説明するための図である。10A and 10B are diagrams for explaining an example of a configuration for setting a mask processing region according to the embodiment; 実施形態に係るマスク処理領域を設定するための構成の別の例を説明するための図である。13 is a diagram for explaining another example of the configuration for setting a mask processing region according to the embodiment. FIG. (A)~(D)実施形態に係る画像処理システムにおけるマスク処理の一例を説明するための概略図である。5A to 5D are schematic diagrams for explaining an example of mask processing in the image processing system according to the embodiment. 実施形態に係る撮像装置のハードウエア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of an imaging apparatus according to an embodiment. (A)は、全天球画像の生成における各画像のデータ構造および画像処理のデータフローの一例を示す概念図であり、(B)は、全天球画像のデータ構造の一例を平面で示した概念図であり、(C)は、全天球画像のデータ構造の一例を球面で示した概念図である。1A is a conceptual diagram illustrating an example of a data structure of each image and a data flow of image processing in generating a celestial sphere image; FIG. 1B is a conceptual diagram illustrating an example of the data structure of the celestial sphere image in a plan view; and FIG. 1C is a conceptual diagram illustrating an example of the data structure of the celestial sphere image in a spherical view. 実施形態に係る撮像装置の機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of an imaging apparatus according to an embodiment. 実施形態に係る位置情報管理テーブルの一例を示す概念図である。FIG. 4 is a conceptual diagram illustrating an example of a position information management table according to the embodiment. 実施形態に係る撮像装置における基準フォーマットを用いたマスク処理の一例を示すフローチャートである。11 is a flowchart illustrating an example of mask processing using a reference format in the imaging device according to the embodiment. 実施形態に係る基準フォーマットの一例を示す概略図である。FIG. 2 is a schematic diagram illustrating an example of a reference format according to the embodiment. 実施形態に係る撮像装置におけるマスク処理領域の設定処理の一例を示すフローチャートである。10 is a flowchart showing an example of a process for setting a mask processing region in the imaging device according to the embodiment. 実施形態に係るマスク処理領域の設定処理について説明するための概略図である。11A and 11B are schematic diagrams for explaining a process of setting a mask processing region according to the embodiment. (A)は実施形態に係る撮像装置によって撮像された撮像画像の一例を示す図であり、(B)は実施形態に係る撮像装置によってマスク処理された処理画像の一例を示す図である。FIG. 2A is a diagram showing an example of a captured image captured by the imaging device according to the embodiment, and FIG. 2B is a diagram showing an example of a processed image that has been subjected to mask processing by the imaging device according to the embodiment. 実施形態に係る撮像装置によってマスク処理された処理画像の別の例を示す図である。FIG. 13 is a diagram showing another example of a processed image that has been subjected to a mask process by the imaging device according to the embodiment. (A)(B)実施形態に係る画像処理システムにおけるマスク処理の一例を説明するための概略図である。5A and 5B are schematic diagrams for explaining an example of mask processing in the image processing system according to the embodiment. 実施形態に係る撮像装置における位置情報を用いたマスク処理の一例を示すフローチャートである。11 is a flowchart illustrating an example of a mask process using position information in the imaging device according to the embodiment. 実施形態に係る所定パターンの検出位置の一例を示す概略図である。5 is a schematic diagram showing an example of a detection position of a predetermined pattern according to the embodiment; FIG. 実施形態の変形例に係る画像処理システムの概略の一例を説明するための図である。FIG. 13 is a diagram for explaining an example of an outline of an image processing system according to a modified example of an embodiment. 実施形態の変形例に係るPCのハードウエア構成の一例を示す図である。FIG. 13 is a diagram illustrating an example of a hardware configuration of a PC according to a modified example of the embodiment. 実施形態の変形例に係る画像処理システムの機能構成の一例を示す図である。FIG. 13 is a diagram illustrating an example of a functional configuration of an image processing system according to a modified example of an embodiment. 実施形態の変形例に係る画像処理システムにおける撮像装置に対するマスク処理の一例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example of a mask process for an imaging device in an image processing system according to a modified example of an embodiment.

以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。 Below, we will explain the mode for implementing the invention with reference to the drawings. Note that in the explanation of the drawings, the same elements are given the same reference numerals, and duplicate explanations will be omitted.

●実施形態●
●システム構成
図1は、実施形態に係る画像処理システムの一例を示す図である。図1に示す画像処理システムは、撮像装置10によって撮影空間における被写体が撮像された撮像画像に対する画像処理を行うシステムである。
●Embodiment●
System Configuration Fig. 1 is a diagram showing an example of an image processing system according to an embodiment of the present invention. The image processing system shown in Fig. 1 is a system for performing image processing on a captured image obtained by capturing an image of a subject in a shooting space by an image capturing device 10.

撮像装置10は、工場またはサーバールーム等の撮影空間内における被写体を撮影する。この撮影空間には、撮影対象となる被写体と秘匿対象となる対象物が存在する。撮像装置10は、撮影空間の被写体が撮影し、撮影された撮像画像に対して秘匿対象の対象物を秘匿するためのマスク処理を行う画像処理装置である。 The imaging device 10 captures an image of a subject in a shooting space such as a factory or a server room. In this shooting space, there are subjects to be photographed and objects to be concealed. The imaging device 10 is an image processing device that photographs a subject in the shooting space and performs masking processing on the captured image to conceal the objects to be concealed.

撮像装置10は、撮影空間の被写体を撮影して撮像画像を取得することができるデジタルカメラである。撮像装置10は、例えば、全天球(360°)パノラマ画像を得るための特殊なデジタルカメラである。なお、撮像装置10は、一般的なデジタルカメラ(一眼レフカメラ、コンパクトデジタルカメラ等)であってもよい。本実施形態では、撮像装置10が全天球パノラマ画像を得るためのデジタルカメラ(特殊撮像装置)として説明を行う。なお、撮像画像は、動画であっても静止画であってもよく、動画と静止画の両方であってもよい。また、撮像画像は、画像とともに音声を含んでもよい。また、撮像装置10は、固定されていてもよいし、撮影者または移動式のロボットに保持されて移動しながら撮影が行われてもよい。 The imaging device 10 is a digital camera that can capture an image by capturing an object in a capture space. The imaging device 10 is, for example, a special digital camera for capturing a 360° panoramic image. The imaging device 10 may be a general digital camera (such as a single-lens reflex camera or a compact digital camera). In this embodiment, the imaging device 10 is described as a digital camera (special imaging device) for capturing a 360° panoramic image. The captured image may be a video or a still image, or may be both a video and a still image. The captured image may include sound together with the image. The imaging device 10 may be fixed, or may be held by a photographer or a mobile robot and capture images while moving.

ここで、図2および図3を用いて、処理対象の領域であるマスク処理領域を設定するための構成について説明する。図2は、実施形態に係るマスク処理領域を設定するための構成の一例を説明するための図である。 Here, a configuration for setting a mask processing area, which is an area to be processed, will be described with reference to Figs. 2 and 3. Fig. 2 is a diagram for explaining an example of a configuration for setting a mask processing area according to an embodiment.

図2は、LED装置30A~30Eを用いて、対象物Jを秘匿するための構成を示す。図1に示されているように、撮影空間内には、撮影者が画像中に写り込ませたくないと考えている被写体(対象物J)が存在する。この場合、図2に示されているように、保護すべき対象物Jの周辺に、三次元的に複数のLED装置30A~30H(以下区別する必要がないときは、LED装置30と称する)が配置される。図2に示す例では、八つのLED装置30A~30Hが配置されている。 Figure 2 shows a configuration for concealing object J using LED devices 30A-30E. As shown in Figure 1, a subject (object J) that the photographer does not want to appear in the image exists within the shooting space. In this case, as shown in Figure 2, multiple LED devices 30A-30H (hereinafter referred to as LED device 30 when there is no need to distinguish between them) are arranged three-dimensionally around object J to be protected. In the example shown in Figure 2, eight LED devices 30A-30H are arranged.

LED装置30A~30Hは、所定パターンとして色の輝点35A~35Hをそれぞれ発生される。この輝点35A~35Hは、マスク処理領域を指定するためのパターンとなる。LED装置30は、所定の色の輝点を発生させる発光装置の一例であり、自動マスク処理機能を利用しようとする撮影者等が、マスク処理領域を事前指定するために配置するデバイスである。所定パターンは、種々の電子機器で採用されている赤や緑等の単色のランプと区別できるパターンであることが望ましく、光強度(点滅)パターン、輝点の色、複数の輝点の配置またはこれらの組み合わせで構成され得る。 The LED devices 30A-30H generate bright spots 35A-35H of a color as a predetermined pattern, respectively. These bright spots 35A-35H become a pattern for specifying a mask processing area. The LED device 30 is an example of a light-emitting device that generates bright spots of a predetermined color, and is a device that is placed by a photographer who intends to use the automatic mask processing function to specify a mask processing area in advance. It is desirable for the predetermined pattern to be a pattern that can be distinguished from single-color lamps such as red or green that are used in various electronic devices, and may be configured as a light intensity (blinking) pattern, a color of a bright spot, an arrangement of multiple bright spots, or a combination of these.

LED装置30は、撮像装置10の視野内に配置され、所定パターンを発生させるパターン発生手段の一例である。パターン発生手段は、1または複数の輝点を発光する発光装置であればよい。発光装置は、LED装置30のほか、例えば、ワイヤーやメッシュにLED等の発光素子が取り付けられたワイヤーライトおよびメッシュライト等であってもよい。また、パターン発生手段は、図2に示されているようなスタンド型および天吊型であってもよいし、バッチ型であってもよい。 The LED device 30 is an example of a pattern generating means that is placed within the field of view of the imaging device 10 and generates a predetermined pattern. The pattern generating means may be a light emitting device that emits one or more bright spots. In addition to the LED device 30, the light emitting device may be, for example, a wire light or mesh light in which a light emitting element such as an LED is attached to a wire or mesh. The pattern generating means may be a stand type or ceiling type as shown in FIG. 2, or a patch type.

撮像装置10は、撮像画像中の複数のLED装置30A~30Hの発光部位に対応する輝点35A~35Hの中心位置の座標値を算出する。撮像画像が動画である場合、連続する画像間で同じ座標の画素値を比較すると、点滅しているLED装置30に対応する座標において、点灯している場合と消灯している場合で画素値に違いが生じる。撮像装置10は、輝点35の光強度(点滅)パターンのように、画素値の変化をチェックすることで、画像上における点滅しているLED装置30に対応する位置を検出できる。 The imaging device 10 calculates the coordinate values of the central positions of bright spots 35A-35H that correspond to the light-emitting sites of multiple LED devices 30A-30H in the captured image. If the captured image is a video, comparing pixel values at the same coordinates between successive images will result in a difference in pixel values at coordinates corresponding to a blinking LED device 30 depending on whether it is on or off. The imaging device 10 can detect the position in the image that corresponds to the blinking LED device 30 by checking changes in pixel values, such as the light intensity (blinking) pattern of the bright spots 35.

また、撮像装置10は、点灯したLED装置30が写っている画像と消灯したLED装置30が写っている画像の出現パターンからLEDの点滅パターンを識別することができる。撮像装置10は、特定の点滅パターンを撮像装置10に記録しておくことで、特定の点滅パターンをパターン発生手段によって発生された所定パターンであることを検出することができる。 The imaging device 10 can also identify the LED blinking pattern from the appearance pattern of an image showing a lit LED device 30 and an image showing an unlit LED device 30. By recording a specific blinking pattern in the imaging device 10, the imaging device 10 can detect that the specific blinking pattern is a predetermined pattern generated by the pattern generating means.

図3は、実施形態に係るマスク処理領域を設定するための構成の別の例を説明するための図である。図3に示す例は、領域を識別するための所定パターンを発生させるパターン発生手段として、LED装置30に変えてQRコード(登録商標)40A~40H(以下区別する必要がないときは、QRコード40と称する)等の画像が印刷または表示された媒体を用いる構成である。撮像装置10は、複数のQRコード40A~40Hのそれぞれの識別子となる特定の文字情報を登録し、QRコード40A~40Hを読み取ることで、所定パターンを検出することができる。QRコード40は、印刷または表示された媒体として設置される。なお、撮像装置10が撮影中に移動または向きの変更が行われることも想定されるため、複数の視点から認識可能なようにQRコード40を読み取り可能な面は、複数あることが望ましい。 Figure 3 is a diagram for explaining another example of a configuration for setting a mask processing region according to the embodiment. The example shown in Figure 3 is a configuration in which a medium on which an image such as QR codes (registered trademark) 40A to 40H (hereinafter referred to as QR code 40 when there is no need to distinguish between them) is used instead of the LED device 30 as a pattern generating means for generating a predetermined pattern for identifying the region. The imaging device 10 can detect the predetermined pattern by registering specific character information that serves as an identifier for each of the multiple QR codes 40A to 40H and reading the QR codes 40A to 40H. The QR code 40 is installed as a printed or displayed medium. It is assumed that the imaging device 10 will move or change its orientation during shooting, so it is desirable to have multiple surfaces on which the QR code 40 can be read so that it can be recognized from multiple viewpoints.

図3に示されている所定パターンとしての画像は、QRコードに限られず、一次元コード、二次元コードまたは特定の画像であってもよい。一次元コードは、いわゆるバーコードである。二次元コードは、例えば、マトリックス式およびスタック式のものがあり、QRコードのほか、DataMatrix(DataCode)、MaxiCodeまたはPDF417等である。また、特定の画像は、所定パターンを識別可能な数字、符号、記号またはイラスト等を含む画像である。なお、所定パターンとして画像を用いる場合、撮像装置10による撮像画像は、動画である必要なく、静止画であってもよい。 The image as the predetermined pattern shown in FIG. 3 is not limited to a QR code, but may be a one-dimensional code, a two-dimensional code, or a specific image. The one-dimensional code is a so-called barcode. The two-dimensional code may be, for example, a matrix type or a stack type, and may be, in addition to the QR code, DataMatrix (DataCode), MaxiCode, or PDF417. The specific image is an image that includes numbers, codes, symbols, illustrations, or the like that can identify the predetermined pattern. Note that when an image is used as the predetermined pattern, the image captured by the imaging device 10 does not need to be a video and may be a still image.

このように、画像処理システムにおいて、撮影者または撮影される被写体の管理者(部屋の住人や撮影者による撮影を受け入れる工場等の拠点の責任者)は、上述した所定パターンが撮像画像に映り込むように、自身が隠したいと考えている被写体の周辺に、所定パターンを発生させるパターン発生手段を物理的および立体的に配置する。これによって、撮影者または管理者等は、撮影前に、自身が撮影対象から除外したい領域を事前に指定することができる。なお、以下の説明において、所定パターンがLED装置30により発生する輝点35である例を説明するが、所定パターンは、図3に示されているような画像であってもよい。 In this way, in the image processing system, the photographer or the manager of the subject being photographed (the person in charge of the facility such as the resident of the room or the factory that accepts the photographer's photographs) physically and three-dimensionally arranges a pattern generating means that generates a predetermined pattern around the subject that the photographer wishes to conceal, so that the above-mentioned predetermined pattern appears in the captured image. This allows the photographer or manager to specify in advance, before photographing, the area that he or she wishes to exclude from the subject being photographed. Note that in the following explanation, an example will be given in which the predetermined pattern is bright spots 35 generated by the LED device 30, but the predetermined pattern may also be an image such as that shown in FIG. 3.

●概略
ここで、図4を用いて、実施形態に係る画像処理システムにおける画像処理を概略的に説明する。図4は、実施形態に係る画像処理システムにおけるマスク処理の一例を説明するための概略図である。なお、図4は、実施形態に係る画像処理システムにおける画像処理の概略を簡略的に説明したものであり、画像処理システムが実現する機能等の詳細は、後述する図面等を用いて説明する。
Overview Here, image processing in the image processing system according to the embodiment will be explained in outline with reference to Fig. 4. Fig. 4 is a schematic diagram for explaining an example of mask processing in the image processing system according to the embodiment. Note that Fig. 4 is a simplified explanation of the outline of image processing in the image processing system according to the embodiment, and details of functions and the like realized by the image processing system will be explained with reference to drawings and the like described later.

図4(A)は、図2に示されているように、対象物Jの周辺にパターン発生手段としての複数のLED装置30が配置されている状況を示す。例えば、撮像装置10で撮影された撮像画像を遠隔地に送ることで、工場やサーバールームの現地の映像を遠隔で確認する用途が考えられる。特に、動画で撮影しながら撮影者が現場を歩いて撮影して回るという方法が考えられる。このとき、特定の位置にある設備(例えば、対象物X)は、機密性が高いため、LED装置30等のパターン発生手段を対象物Xの周囲に配置し、撮像画像中の輝点35等の所定パターンで囲まれた対象物Jの画像に対して画像処理を施す仕組みが考えられる。 Figure 4 (A) shows a situation where multiple LED devices 30 are arranged as pattern generating means around object J, as shown in Figure 2. For example, a possible use is to send the captured image captured by the imaging device 10 to a remote location, allowing remote confirmation of on-site footage of a factory or server room. In particular, a method is conceivable in which the photographer walks around the site while taking video footage. In this case, since equipment in a specific location (e.g. object X) is highly confidential, a possible mechanism is to arrange pattern generating means such as LED devices 30 around object X, and perform image processing on the image of object J surrounded by a predetermined pattern such as bright spots 35 in the captured image.

しかしながら、図4(A)に示されているように、障害物Xによって、配置されたLED装置30のうちの一つが隠されてしまう場合がある。LED装置30の一つが隠れてしまうと、図4(B)に示されているように、撮像装置10は、隠されたLED装置30により発生される輝点35を検知できなくなり、対象物Jが処理対象の領域から外れてしまい、意図した領域を隠すことができなくなってしまう。 However, as shown in FIG. 4(A), there are cases where one of the arranged LED devices 30 is hidden by an obstacle X. When one of the LED devices 30 is hidden, as shown in FIG. 4(B), the imaging device 10 is unable to detect the bright spot 35 generated by the hidden LED device 30, the object J falls outside the area to be processed, and the intended area cannot be hidden.

そこで、撮像装置10は、図4(C)に示されているように、検出された複数の輝点35(この場合、6点)の形状から、処理対象の領域を形成するために不足する頂点を推定する。そして、撮像装置10は、図4(D)に示されているように、検出された複数の輝点35と推定された頂点により設定されたマスク処理領域を施す。 Therefore, as shown in FIG. 4(C), the imaging device 10 estimates the vertices that are missing to form the area to be processed from the shapes of the detected multiple bright points 35 (six points in this case). Then, as shown in FIG. 4(D), the imaging device 10 applies a mask processing area set by the detected multiple bright points 35 and the estimated vertices.

従来の撮像画像から特定の画像を隠す方法では、隠したい領域を撮像装置が撮影する撮影空間に応じて事前に指定することができないとともに、画像処理の対象となる処理領域を撮影時にリアルタイムに設定することができなかった。特に、図4(B)に示されているように、処理対象の領域を識別するための所定パターンと撮像装置10との間に障害物X等が存在する場合、処理対象の領域を正確に識別できなくなり、隠したい領域を隠すことができなかった。 In conventional methods for hiding a specific image from a captured image, it is not possible to specify in advance the area to be hidden according to the shooting space captured by the imaging device, and it is not possible to set the processing area to be the subject of image processing in real time during shooting. In particular, as shown in FIG. 4(B), when an obstacle X or the like is present between the imaging device 10 and a predetermined pattern for identifying the area to be processed, it becomes impossible to accurately identify the area to be processed, and it is not possible to hide the area to be hidden.

そこで、撮像装置10は、LED装置30等のパターン発生手段を用いて立体的に囲われた隠したい領域を認識する際に、その一部が何らかの理由で撮影されなかった場合であっても、処理対象の領域の形状を推定することで、隠すべき領域を正しく認識することができ、処理対象の領域に対するマスク処理の精度を向上させることができる。 Therefore, when the imaging device 10 uses a pattern generating means such as the LED device 30 to recognize a three-dimensionally enclosed area to be concealed, even if part of the area is not captured for some reason, the imaging device 10 can correctly recognize the area to be concealed by estimating the shape of the area to be processed, thereby improving the accuracy of mask processing for the area to be processed.

●ハードウエア構成
次に、図5を用いて、撮像装置10のハードウエア構成を説明する。図5は、実施形態に係る撮像装置のハードウエア構成の一例を示す図である。なお、図5に示すハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。以下では、撮像装置10は、二つの撮像素子を使用した全天球(全方位)撮像装置とするが、撮像素子は二つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置10と同じ機能を有するようにしてもよい。
●Hardware Configuration Next, the hardware configuration of the imaging device 10 will be described with reference to FIG. 5. FIG. 5 is a diagram showing an example of the hardware configuration of the imaging device according to the embodiment. Note that components may be added or deleted from the hardware configuration shown in FIG. 5 as necessary. In the following, the imaging device 10 is assumed to be an all-sphere (omnidirectional) imaging device using two imaging elements, but the number of imaging elements may be two or more. In addition, the imaging device does not necessarily have to be a device dedicated to omnidirectional imaging, and a normal digital camera, smartphone, or the like may be provided with substantially the same functions as the imaging device 10 by attaching an omnidirectional imaging unit to the device.

図5に示されているように、撮像装置10は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、入出力I/F(Interface)116、近距離通信回路117、近距離通信回路117のアンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120およびネットワークI/F121によって構成されている。 As shown in FIG. 5, the imaging device 10 is composed of an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, an SRAM (Static Random Access Memory) 113, a DRAM (Dynamic Random Access Memory) 114, an operation unit 115, an input/output I/F (Interface) 116, a short-range communication circuit 117, an antenna 117a of the short-range communication circuit 117, an electronic compass 118, a gyro sensor 119, an acceleration sensor 120, and a network I/F 121.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102b(以下区別する必要のないときは、レンズ102と称する。)と、各レンズに対応させて設けられている二つの撮像素子103a,103bを備えている。撮像素子103a,103bは、レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の画像センサ、この画像センサの水平または垂直同期信号や画素クロック等を生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータ等が設定されるレジスタ群等を有している。 Of these, the imaging unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b (hereinafter referred to as lenses 102 when there is no need to distinguish between them) each having an angle of view of 180° or more for forming a hemispherical image, and two imaging elements 103a and 103b provided corresponding to each lens. The imaging elements 103a and 103b include an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor that converts the optical image by the lenses 102a and 102b into image data of an electrical signal and outputs it, a timing generation circuit that generates horizontal or vertical synchronization signals and pixel clocks for the image sensors, and a group of registers in which various commands and parameters required for the operation of the imaging elements are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、それぞれ撮像制御ユニット105とシリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105および音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、入出力I/F116、近距離通信回路117、電子コンパス118、ジャイロセンサ119、加速度センサ120およびネットワークI/F121等も接続される。 The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I/F bus. Meanwhile, the imaging elements 103a and 103b of the imaging unit 101 are each connected to the imaging control unit 105 via a serial I/F bus (such as an I2C bus). The image processing unit 104, the imaging control unit 105, and the sound processing unit 109 are connected to the CPU 111 via the bus 110. In addition, the ROM 112, the SRAM 113, the DRAM 114, the operation unit 115, the input/output I/F 116, the short-range communication circuit 117, the electronic compass 118, the gyro sensor 119, the acceleration sensor 120, and the network I/F 121 are also connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒射影画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image sensors 103a and 103b via a parallel I/F bus, performs a predetermined process on each piece of image data, and then synthesizes the image data to create equirectangular projection image data.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The imaging control unit 105 generally sets commands and the like in the registers of the imaging elements 103a and 103b using the I2C bus, with the imaging control unit 105 acting as a master device and the imaging elements 103a and 103b acting as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to retrieve status data and the like from the registers of the imaging elements 103a and 103b, and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置10によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 The imaging control unit 105 also instructs the imaging elements 103a and 103b to output image data when the shutter button on the operation unit 115 is pressed. Some imaging devices 10 have a preview display function or a function corresponding to video display on a display. In this case, the image data is output from the imaging elements 103a and 103b continuously at a predetermined frame rate (frames/minute).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置10には表示部(ディスプレイ)が設けられていないが、表示部を設けてもよい。マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 As described below, the imaging control unit 105 also functions as a synchronization control means that cooperates with the CPU 111 to synchronize the output timing of image data from the imaging elements 103a and 103b. In this embodiment, the imaging device 10 is not provided with a display unit, but a display unit may be provided. The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 via the I/F bus and performs predetermined processing on the sound data.

CPU111は、撮像装置10の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113およびDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 111 controls the overall operation of the imaging device 10 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and DRAM 114 are work memories that store programs executed by the CPU 111 and data in the middle of processing. In particular, the DRAM 114 stores image data in the middle of processing by the image processing unit 104 and data of a processed equirectangular projection image.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネル等の総称である。ユーザは操作部115を操作することで、種々の撮影モードや撮影条件等を入力する。 The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that combines display and operation functions, etc. The user operates the operation unit 115 to input various shooting modes, shooting conditions, etc.

入出力I/F116は、SDカード等の外付けのメディアまたはパーソナルコンピュータ等とのインターフェース回路(USB(Universal Serial Bus)I/F等)の総称である。入出力I/F116は、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、入出力I/F116を介して外付けのメディアに記録されたり、必要に応じて入出力I/F116を介して外部端末(装置)に送信されたりする。 The input/output I/F 116 is a general term for an interface circuit (such as a USB (Universal Serial Bus) I/F) with an external medium such as an SD card or a personal computer. The input/output I/F 116 may be wireless or wired. The data of the equirectangular projection image stored in the DRAM 114 is recorded on an external medium via the input/output I/F 116, or transmitted to an external terminal (device) via the input/output I/F 116 as necessary.

近距離通信回路117は、撮像装置10に設けられたアンテナ117aを介して、NFC(Near Field Communication)、Bluetooth(登録商標)またはWi-Fi(登録商標)等の近距離無線通信技術によって、外部端末(装置)と通信を行う。近距離通信回路117は、正距円筒射影画像のデータを、外部端末(装置)に送信することができる。 The short-range communication circuit 117 communicates with an external terminal (device) by short-range wireless communication technology such as NFC (Near Field Communication), Bluetooth (registered trademark), or Wi-Fi (registered trademark) via an antenna 117a provided in the imaging device 10. The short-range communication circuit 117 can transmit data of the equirectangular projection image to the external terminal (device).

電子コンパス118は、地球の磁気から撮像装置10の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時および画像データのデータ容量の各データも含まれている。また、ジャイロセンサ119は、撮像装置10の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。さらに、加速度センサ120は、三軸方向の加速度を検出するセンサである。撮像装置10は、加速度センサ120が検出した加速度に基づいて、自装置(撮像装置10)の姿勢(重力方向に対する角度)を算出する。撮像装置10は、加速度センサ120を設けることによって、画像補正の精度が向上する。ネットワークI/F121は、ルータ等を介して、インターネット等の通信ネットワークを利用したデータ通信を行うためのインターフェースである。 The electronic compass 118 calculates the direction of the imaging device 10 from the earth's magnetism and outputs direction information. This direction information is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of the captured image. The related information also includes the shooting date and time of the image and the data capacity of the image data. The gyro sensor 119 is a sensor that detects angle changes (roll angle, pitch angle, yaw angle) accompanying the movement of the imaging device 10. The angle change is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of the captured image. The acceleration sensor 120 is a sensor that detects acceleration in three axial directions. The imaging device 10 calculates the attitude (angle with respect to the direction of gravity) of its own device (imaging device 10) based on the acceleration detected by the acceleration sensor 120. The imaging device 10 improves the accuracy of image correction by providing the acceleration sensor 120. The network I/F 121 is an interface for performing data communication using a communication network such as the Internet via a router or the like.

○全天球画像
ここで、図6を用いて、全天球画像の生成および生成される全天球画像について説明する。図6(A)は、全天球画像の生成における各画像のデータ構造および画像処理のデータフローの一例を示す概念図である。まず、撮像素子103a,103b各々で直接撮像される画像は、全天球のうちの概ね半球を視野に収めた画像である。レンズ102に入射した光は、所定の射影方式に従って撮像素子103の受光領域に結像される。ここで撮像される画像は、受光領域が平面エリアを成す二次元の撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また、典型的には、得られる画像は、図6(A)において「部分画像A」および「部分画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む魚眼レンズ画像として構成される。
○Spherical Image Here, the generation of a celestial sphere image and the generated celestial sphere image will be described with reference to FIG. 6. FIG. 6(A) is a conceptual diagram showing an example of the data structure of each image and the data flow of image processing in the generation of a celestial sphere image. First, the images directly captured by each of the image capture elements 103a and 103b are images that cover approximately a hemisphere of the celestial sphere in their field of view. Light incident on the lens 102 is imaged on the light receiving area of the image capture element 103 according to a predetermined projection method. The image captured here is captured by a two-dimensional image capture element whose light receiving area forms a planar area, and becomes image data expressed in a planar coordinate system. Typically, the obtained image is configured as a fisheye lens image including the entire image circle onto which each shooting range is projected, as shown by "partial image A" and "partial image B" in FIG. 6(A).

これら複数の撮像素子103a,103bで撮像された複数の部分画像が、歪み補正および合成処理されて、一つの全天球画像が構成される。歪み補正および合成処理では、平面画像として構成される各部分画像から、まず、相補的な各半球部分を含む各画像が生成される。そして、各半球部分を含む二つの画像が、重複領域のマッチングに基づいて位置合わせ(スティッチング処理)され、画像合成され、全天球全体を含む全天球画像が生成される。各半球部分の画像には他の画像との重複領域が含まれるが、画像合成においては、適宜、自然なつなぎ目となるように重複領域についてブレンディングが行われる。 The partial images captured by the imaging elements 103a and 103b are corrected for distortion and synthesized to form a single spherical image. In the distortion correction and synthesis process, first, images including complementary hemispherical portions are generated from each partial image configured as a planar image. Then, the two images including the hemispherical portions are aligned (stitched) based on matching of overlapping areas, and the images are synthesized to generate a spherical image including the entire celestial sphere. Each hemispherical image includes an overlapping area with another image, but in the image synthesis, the overlapping areas are appropriately blended to create natural seams.

図6(B)は、全天球画像のデータ構造の一例を平面で示した概念図であり、図6(C)は、全天球画像のデータ構造の一例を球面で示した概念図である。図6(B)に示すように、全天球画像の画像データは、所定の軸に対してなされる垂直角度φと、所定の軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。垂直角度φは、0度~180度(または-90度~+90度)の範囲となり、水平角度θは、0度~360度(または-180度~+180度)の範囲となる。 Fig. 6(B) is a conceptual diagram showing an example of the data structure of a celestial sphere image in a plane, and Fig. 6(C) is a conceptual diagram showing an example of the data structure of a celestial sphere image in a spherical surface. As shown in Fig. 6(B), image data of the celestial sphere image is expressed as an array of pixel values whose coordinates are a vertical angle φ made with respect to a predetermined axis and a horizontal angle θ corresponding to a rotation angle around the predetermined axis. The vertical angle φ is in the range of 0 degrees to 180 degrees (or -90 degrees to +90 degrees), and the horizontal angle θ is in the range of 0 degrees to 360 degrees (or -180 degrees to +180 degrees).

全天球フォーマットの各座標値(θ,φ)は、図6(C)に示すように、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上に対応付けられる。魚眼レンズで撮影された部分画像の平面座標と、全天球画像の球面上の座標とは、所定の変換テーブルにて対応づけされる。変換テーブルは、それぞれのレンズ光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成されたデータであり、部分画像を全天球画像へ変換するデータである。 As shown in FIG. 6C, each coordinate value (θ, φ) in the omnidirectional format is associated with each point on a sphere that represents all directions centered on the shooting point, and the all directions are associated with the omnidirectional image. The planar coordinates of the partial image captured with the fisheye lens and the coordinates on the spherical surface of the omnidirectional image are associated with each other in a predetermined conversion table. The conversion table is data that is created in advance by a manufacturer or the like according to a predetermined projection model based on the design data of each lens optical system, and is data that converts the partial image into a omnidirectional image.

また、全天球画像に対しては、電子コンパス118、ジャイロセンサ119および加速度センサ120からの情報を利用して、適宜、天頂補正および回転補正のいずれかまたは両方が行われる場合がある。ここで、天頂補正とは、実際には重力方向に対し中心軸が傾いた状態で撮影された全天球画像を、あたかも中心軸が重力方向に一致した状態で撮影されたかのような全天球画像に補正する処理(Roll方向およびPitch方向の補正)をいう。回転補正とは、天頂補正により重力方向に中心軸が一致するように補正された全天球画像において、さらに、重力方向周りの基準から回転をかける処理(Yaw方向の補正)をいう。 In addition, the omnidirectional image may be subjected to either or both of zenith correction and rotation correction as appropriate, using information from electronic compass 118, gyro sensor 119, and acceleration sensor 120. Zenith correction here refers to a process of correcting a omnidirectional image that was actually taken with its central axis tilted relative to the direction of gravity to an omnidirectional image that appears as if it was taken with its central axis aligned with the direction of gravity (correction in the Roll and Pitch directions). Rotation correction refers to a process of further rotating the omnidirectional image that has been corrected by zenith correction so that its central axis is aligned with the direction of gravity, from a reference around the direction of gravity (correction in the Yaw direction).

以下の説明において、撮像装置10が全天球画像を取得する構成を説明するが、マスク処理機能の対象は、通常のカメラで撮影される画像であってもよい。また、上述した天頂補正および回転補正は、撮像画像が画像入力部15に入力される前に実施されるものとして説明するが、マスク処理を施された後に行われる構成であってもよい。さらに、上述した撮像装置10は、広角画像を取得可能な撮像装置の一例であり、全天球画像は、広角画像の一例である。ここで、広角画像は、一般には広角レンズを用いて撮影された画像であり、人間の目で感じるよりも広い範囲を撮影することができるレンズで撮影されたものである。また、一般的に35mmフィルム換算で35mm以下の焦点距離のレンズで、撮影された画像を意味する。 In the following description, a configuration in which the imaging device 10 acquires a celestial sphere image will be described, but the target of the mask processing function may be an image captured by a normal camera. In addition, the above-mentioned zenith correction and rotation correction will be described as being performed before the captured image is input to the image input unit 15, but they may be performed after the mask processing has been applied. Furthermore, the above-mentioned imaging device 10 is an example of an imaging device capable of acquiring a wide-angle image, and a celestial sphere image is an example of a wide-angle image. Here, a wide-angle image is generally an image captured using a wide-angle lens, and is captured with a lens that can capture a wider range than the human eye can sense. Also, it generally means an image captured with a lens with a focal length of 35 mm or less in 35 mm film equivalent.

また、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD-R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、Blu-ray(登録商標) Disc(ブルーレイディスク)、SDカードまたはUSBメモリ等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内または国外へ提供されることができる。例えば、撮像装置10は、本発明に係るプログラムが実行されることで本発明に係る画像処理方法を実現する。 The above programs may be recorded in the form of installable or executable files on a computer-readable recording medium and distributed. Examples of recording media include CD-Rs (Compact Disc Recordable), DVDs (Digital Versatile Disks), Blu-ray (registered trademark) Discs, SD cards, and USB memories. The recording media may be provided domestically or internationally as a program product. For example, the imaging device 10 realizes the image processing method according to the present invention by executing the program according to the present invention.

●機能構成
次に、図7および図8を用いて、実施形態に係る撮像装置10の機能構成について説明する。図7は、実施形態に係る撮像装置の機能構成の一例を示す図である。なお、図7では、後述の処理または動作に関連しているものが示されている。
Functional Configuration Next, the functional configuration of the imaging device 10 according to the embodiment will be described with reference to Fig. 7 and Fig. 8. Fig. 7 is a diagram showing an example of the functional configuration of the imaging device according to the embodiment. Note that Fig. 7 shows items related to the processing or operation described below.

撮像装置10は、通信部11、受付部12、表示制御部13、撮像処理部14、画像入力部15、マスク種別決定部16、検出部17、算出部18、判断部19、推定部21、領域設定部22、画像処理部23、画像出力部24および記憶・読出部29を有している。これら各部は、図4に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能または手段である。また、撮像装置10は、図4に示されているROM112、SRAM113およびDRAM114によって構築される記憶部1000を有している。 The imaging device 10 has a communication unit 11, a reception unit 12, a display control unit 13, an imaging processing unit 14, an image input unit 15, a mask type determination unit 16, a detection unit 17, a calculation unit 18, a judgment unit 19, an estimation unit 21, a region setting unit 22, an image processing unit 23, an image output unit 24, and a storage/readout unit 29. Each of these units is a function or means realized when any of the components shown in FIG. 4 operates in response to an instruction from the CPU 111 in accordance with a program for the imaging device that is expanded from the SRAM 113 onto the DRAM 114. The imaging device 10 also has a storage unit 1000 constructed by the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG. 4.

通信部11は、主に、CPU111の処理によって実現され、他の装置または端末と各種データまたは情報の通信を行う。通信部11は、例えば、ネットワークI/F121を用いて、他の装置または端末との間で、通信ネットワークを介したデータ通信を行う。また、通信部11は、例えば、入出力I/F116を用いて、他の装置または端末との間で、各種ケーブル等を介したデータ通信を行う。さらに、通信部11は、例えば、近距離通信回路117を用いて、他の装置または端末との間で、近距離無線通信技術によるデータ通信を行う。 The communication unit 11 is mainly realized by the processing of the CPU 111, and communicates various data or information with other devices or terminals. The communication unit 11, for example, uses the network I/F 121 to perform data communication with other devices or terminals via a communication network. The communication unit 11 also uses, for example, the input/output I/F 116 to perform data communication with other devices or terminals via various cables, etc. The communication unit 11 also uses, for example, the short-range communication circuit 117 to perform data communication with other devices or terminals via short-range wireless communication technology.

受付部12は、主に、操作部115に対するCPU111の処理によって実現され、利用者から各種の選択または入力を受け付ける。表示制御部13は、主に、CPU111の処理によって実現され、各種画像を表示させる。表示制御部13は、例えば、ライブビュー(撮影状態をリアルタイムで確認可能としながら撮影する機能)における画像表示を行う。表示制御部13は、ライブビュー中、HDMI(登録商標)やMiracast(登録商標)等の規格で有線または無線のインターフェースで接続された外部のディスプレイまたは自身の表示手段への表示を制御する。表示制御部13は、ライブビュー画面において、入力される画像の表示に対し、自動で検知されたマスク処理領域を重畳して表示することができる。なお、全天球画像の表示方法は、特に限定されるものではなく、全天球画像をそのまま二次元の平面画像として表示してもよいし、全天球画像を球体オブジェクトに貼り付けて、仮想カメラから球体オブジェクトを観察した場合の投影画像として表示してもよい。撮影者は、保護すべき被写体にマスク処理が施されていることをライブビューの画像上で確認することができる。 The reception unit 12 is mainly realized by the processing of the CPU 111 on the operation unit 115, and receives various selections or inputs from the user. The display control unit 13 is mainly realized by the processing of the CPU 111, and displays various images. For example, the display control unit 13 performs image display in live view (a function for shooting while making it possible to check the shooting state in real time). During live view, the display control unit 13 controls display on an external display connected by a wired or wireless interface according to a standard such as HDMI (registered trademark) or Miracast (registered trademark) or on its own display means. The display control unit 13 can display an automatically detected mask processing area superimposed on the display of an input image on the live view screen. Note that the method of displaying the omnidirectional image is not particularly limited, and the omnidirectional image may be displayed as it is as a two-dimensional flat image, or the omnidirectional image may be pasted on a spherical object and displayed as a projected image when the spherical object is observed from a virtual camera. The photographer can confirm on the live view image that the subject to be protected has been masked.

撮像処理部14は、主に、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108および音処理ユニット109に対するCPU111の処理によって実現され、風景等の被写体を撮像し、撮影画像データを取得する。撮像処理部14は、撮像処理を実行し、全天球画像(例えば、正距円筒射影画像)のデータを生成し、画像入力部15に全天球画像データを入力する。撮像処理部14によって撮像される全天球画像は、単一フレームの静止画であってもよいし、連続的な複数フレームからなる動画であってもよい。また、撮像処理部14は、シャッターボタン等の操作部115の押下等により撮影指示が行われた後の本番の撮像画像を出力するほか、撮影指示前の映像確認のためのリアルタイム画像を出力することができる。 The imaging processing unit 14 is mainly realized by the processing of the CPU 111 on the imaging unit 101, the image processing unit 104, the imaging control unit 105, the microphone 108, and the sound processing unit 109, and captures a subject such as a landscape and acquires captured image data. The imaging processing unit 14 executes imaging processing, generates data of a celestial sphere image (for example, an equirectangular projection image), and inputs the celestial sphere image data to the image input unit 15. The celestial sphere image captured by the imaging processing unit 14 may be a single frame still image or a video consisting of multiple continuous frames. The imaging processing unit 14 outputs an actual captured image after a shooting instruction is given by pressing the operation unit 115 such as a shutter button, and can also output a real-time image for video confirmation before a shooting instruction is given.

画像入力部15は、主に、CPU111の処理によって実現され、処理対象となる撮像画像の入力を受ける。マスク処理の対象となる撮像画像は、全天球画像である。静止画の場合は、所定の時点で撮像された1フレーム分の画像が画像入力部15に入力される。また、動画の場合は、複数のフレーム各々の画像が画像入力部15に順次入力される。また、静止画撮影の場合に、撮影前の画像確認のために複数のフレーム各々の画像が画像入力部15に順次入力されてもよい。 The image input unit 15 is mainly realized by the processing of the CPU 111, and receives input of a captured image to be processed. The captured image to be subjected to mask processing is a spherical image. In the case of a still image, one frame of an image captured at a predetermined time point is input to the image input unit 15. In the case of a moving image, each image of a plurality of frames is input sequentially to the image input unit 15. In the case of still image shooting, each image of a plurality of frames may be input sequentially to the image input unit 15 in order to check the image before shooting.

マスク種別決定部16は、主に、CPU111の処理によって実現され、マスク処理領域に対して適用する画像処理の種別を決定する。 The mask type determination unit 16 is mainly realized by the processing of the CPU 111, and determines the type of image processing to apply to the mask processing area.

検出部17は、CPU111の処理によって実現され、画像入力部15によって入力された撮像画像に示される、LED装置30またはQRコード40等のパターン発生手段によって発生された所定パターンを検出する。検出対象としての所定パターンは、例えば、撮像画像が静止画の場合、画像中の一次元コード、二次元コードもしくは特定の画像または輝点のパターンが挙げられる。輝点のパターンは、例えば、輝点の色および複数の輝点の配置を単独でまたは組み合わせで用いることができる。なお、輝点のパターンには、所定の色を有する単一の輝点が含まれるものとする。また、撮像画像が動画の場合、検出対象となる所定パターンは、各フレームの画像中の一次元コード、二次元コードもしくは特定の画像または輝点のパターンのほか、複数のフレームにわたる画像列中の輝点の時間的パターンを含む。ここで、輝点の時間的パターンは、複数のフレームにわたる輝点の所定周波数の光強度(点滅)パターン、輝点の色、複数の輝点の配置またはこれらの組み合わせで構成される。輝点の配置は、例えば、「○」、「×」、「□」、「▽」などの所定の図形に図形化されたものとすることができる。 The detection unit 17 is realized by the processing of the CPU 111, and detects a predetermined pattern generated by a pattern generating means such as the LED device 30 or the QR code 40, which is shown in the captured image input by the image input unit 15. For example, when the captured image is a still image, the predetermined pattern to be detected can be a one-dimensional code, a two-dimensional code, or a specific image or a pattern of bright spots in the image. For example, the color of the bright spots and the arrangement of multiple bright spots can be used alone or in combination as the pattern of the bright spots. Note that the pattern of the bright spots includes a single bright spot having a predetermined color. Furthermore, when the captured image is a moving image, the predetermined pattern to be detected includes a one-dimensional code, a two-dimensional code, or a specific image or pattern of bright spots in the image of each frame, as well as a temporal pattern of bright spots in an image sequence spanning multiple frames. Here, the temporal pattern of the bright spots is composed of a light intensity (blinking) pattern of a predetermined frequency of the bright spots across multiple frames, the color of the bright spots, the arrangement of multiple bright spots, or a combination of these. The arrangement of the bright spots can be graphically represented in a predetermined shape such as "○", "×", "□", or "▽".

画像または画像列中の一次元コード、二次元コードおよび特定の画像、並びに輝点およびその輝点の時間的パターンの認識方法は、これまで知られた如何なる技術を用いることができる。また、全天球画像中で画像認識のため、撮像装置10は、前処理として、必要に応じて、画像中の一次元コードおよび二次元コードに対応する領域に対し、歪みを補正する処理を行ってもよい。 Any known technology can be used to recognize one-dimensional codes, two-dimensional codes, and specific images, as well as bright spots and their temporal patterns in an image or image sequence. In addition, in order to recognize images in a spherical image, the imaging device 10 may perform a process of correcting distortion in areas in the image that correspond to one-dimensional codes and two-dimensional codes, as preprocessing, if necessary.

算出部18は、CPU111の処理によって実現され、検出部17によって検出された所定パターンの位置を算出する。算出部18は、例えば、画像中の所定パターンの位置を、全天球画像フォーマット上の座標値として算出する。所定パターンの位置は、複数のフレームにわたり追跡されて対応付けが算出されてもよい。判断部19は、CPU111の処理によって実現され、各種判断を行う。 The calculation unit 18 is realized by the processing of the CPU 111, and calculates the position of the predetermined pattern detected by the detection unit 17. The calculation unit 18 calculates, for example, the position of the predetermined pattern in the image as a coordinate value on a spherical image format. The position of the predetermined pattern may be tracked across multiple frames to calculate the correspondence. The determination unit 19 is realized by the processing of the CPU 111, and performs various determinations.

推定部21は、CPU111の処理によって実現され、検出部17によって検出された複数の所定パターンの位置に基づいて形成される特定の形状を補完する頂点を推定する。推定部21は、検出された複数の所定パターンを用いて決定された特定の形状を形成するために、不足する頂点を推定する。 The estimation unit 21 is realized by the processing of the CPU 111, and estimates vertices that complete a specific shape formed based on the positions of the multiple predetermined patterns detected by the detection unit 17. The estimation unit 21 estimates missing vertices to form a specific shape determined using the multiple detected predetermined patterns.

領域設定部22は、CPU111の処理によって実現され、検出部17によって検出された所定パターンの位置および推定部21によって推定された頂点に基づいて、対象の画像に対するマスク処理領域(処理対象の領域)を設定する。ここで、マスク処理領域は、少なくとも複数の所定パターンの位置および推定された頂点の座標値を結んで画定される多角形を包含する領域、または、少なくとも複数の所定パターンの位置および推定された頂点の座標値を点としてこれらの点の凸包(与えられた点をすべて包含する最小の凸多角形)を包含する領域を含む。なお、マスク処理領域は、複数の所定パターンの位置および推定された頂点の座標を結ぶ多角形または凸包自体として設定されてもよいし、その多角形領域に対して所定のマージンが設けられた任意の図形(多角形のほかに円や楕円などの任意の閉曲線で構成される図形を含む)であってもよい。マスク処理領域は、例えば、全天球画像フォーマット上の座標値(曲線等の場合はパラメータを含んでいてもよい。)の配列として求められる。領域設定部22は、所定パターンおよび推定された頂点が画定する「面」として自動認識されて、その面に対してマスク処理領域を設定する。 The region setting unit 22 is realized by the processing of the CPU 111, and sets a mask processing region (region to be processed) for the target image based on the position of the predetermined pattern detected by the detection unit 17 and the vertices estimated by the estimation unit 21. Here, the mask processing region includes a region that includes a polygon defined by connecting at least the positions of the predetermined patterns and the coordinate values of the estimated vertices, or a region that includes at least the positions of the predetermined patterns and the convex hull of the points (the smallest convex polygon that includes all given points) with the coordinate values of the estimated vertices as points. Note that the mask processing region may be set as a polygon or convex hull itself that connects the positions of the predetermined patterns and the coordinates of the estimated vertices, or may be any figure (including figures formed of any closed curve such as a circle or ellipse in addition to polygons) with a predetermined margin provided for the polygonal region. The mask processing region is obtained, for example, as an array of coordinate values (parameters may be included in the case of a curve or the like) on the spherical image format. The region setting unit 22 automatically recognizes the "surface" defined by the predetermined pattern and the estimated vertices, and sets the mask processing region for that surface.

また、領域設定部22は、所定パターンおよび推定された頂点が画定する「面」として自動認識されて、その面に対してマスク処理領域を設定する。なお、検出部17によって検出される所定パターンの数は、少なくとも面を規定することができる三つ以上であることが好ましいが、所定のマージンとともに任意の二次元図形を描くことができる限り、必ずしも三つ以上に限定されるものではない。 The area setting unit 22 automatically recognizes the "surface" defined by the specified pattern and the estimated vertices, and sets a mask processing area for that surface. Note that the number of specified patterns detected by the detection unit 17 is preferably at least three or more, which is sufficient to define a surface, but is not necessarily limited to three or more, as long as it is possible to draw any two-dimensional figure with a specified margin.

全天球画像は、水平方向360度の範囲を含んでおり、全天球画像の両端部は相互に接続されている。そのため、マスク処理領域が端部をまたぐ場合があり、マスク処理領域は、全天球画像の両端部で分離して設定されてもよい。この場合、領域設定部22は、マスク処理領域と端部境界との交点が求め、それぞれの側で求めた交点を含むマスク処理領域を設定する。 The omnidirectional image includes a range of 360 degrees in the horizontal direction, and both ends of the omnidirectional image are connected to each other. Therefore, the mask processing area may straddle the end, and the mask processing area may be set separately at both ends of the omnidirectional image. In this case, the area setting unit 22 determines the intersection between the mask processing area and the end boundary, and sets the mask processing area including the intersection determined on each side.

ここで、検出部17は、所定パターンの座標値に加えて、検出された所定パターンが属するグループを判別することもできる。この場合、領域設定部22は、識別したグループ構成に基づいて、異なるマスク処理領域を設定することができる。例えば、上述した所定パターンは、一次元コード、二次元コードや輝点のパターン等で情報を符号化できるので、符号化された情報(例えば、識別子)によって複数のグループを表現することができる。そして、領域設定部22は、識別された一以上のグループのそれぞれに対して、一つのマスク処理領域が設定することができる。 Here, in addition to the coordinate values of the specific pattern, the detection unit 17 can also determine the group to which the detected specific pattern belongs. In this case, the region setting unit 22 can set different mask processing regions based on the identified group configuration. For example, the above-mentioned specific pattern can encode information using a one-dimensional code, a two-dimensional code, a bright spot pattern, or the like, so that multiple groups can be represented by encoded information (e.g., an identifier). Then, the region setting unit 22 can set one mask processing region for each of the one or more identified groups.

画像処理部23は、CPU111の処理によって実現され、画像入力部15により入力された撮像画像中のマスク処理領域に対応する領域に対し画像処理を行う。画像処理は、画像中のマスク処理領域にある画像情報を、復元不可能に削除もしくは劣化させるマスク処理である。マスク処理としては、ぼかし、所定の色もしくは画像パターン(チェッカーパターン、ストライプ、ノイズパターン(砂嵐)、スタンプ等)での塗りつぶし、モザイク処理、および二次元もしくは三次元の図形オブジェクトでの上書きのうちの少なくとも一つのマスク処理である。マスク処理は、例えば、全天球画像フォーマット上のマスク処理領域に対応する全天球画像の画像領域に対して適用される。 The image processing unit 23 is realized by the processing of the CPU 111, and performs image processing on an area corresponding to the mask processing area in the captured image input by the image input unit 15. The image processing is a masking process that irretrievably deletes or deteriorates image information in the masking process area in the image. The masking process is at least one of blurring, filling with a predetermined color or image pattern (checkered pattern, stripes, noise pattern (sandstorm), stamp, etc.), mosaic processing, and overwriting with a two-dimensional or three-dimensional graphic object. The masking process is applied to, for example, an image area of the omnidirectional image that corresponds to the masking process area on the omnidirectional image format.

画像出力部24は、主に、CPU111の処理によって実現され、画像処理部23によって処理された処理画像を出力する。 The image output unit 24 is mainly realized by the processing of the CPU 111, and outputs the processed image processed by the image processing unit 23.

記憶・読出部29は、主に、CPU111の処理によって実現され、記憶部1000に、各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。また、記憶部1000は、撮像処理部14によって取得された撮像画像データまたは画像処理部23によって処理された処理画像データを記憶している。なお、記憶部1000に記憶されている画像データは、記憶されてから所定の時間経過した場合に削除される構成であってもよいし、他の装置または端末へ送信されたデータが削除される構成であってもよい。 The storage/readout unit 29 is mainly realized by the processing of the CPU 111, and stores various data (or information) in the storage unit 1000 and reads various data (or information) from the storage unit 1000. The storage unit 1000 also stores captured image data acquired by the imaging processing unit 14 or processed image data processed by the image processing unit 23. The image data stored in the storage unit 1000 may be configured to be deleted when a predetermined time has passed since it was stored, or data transmitted to another device or terminal may be deleted.

○位置情報管理テーブル
図8は、実施形態に係る位置情報管理テーブルの一例を示す概念図である。位置情報管理テーブルは、検出された所定パターンの位置を示す位置情報を管理するためのテーブルである。記憶部1000には、図8に示されているような位置情報管理テーブルによって構成されている位置情報管理DB1001が構築されている。この位置情報管理テーブルには、過去に画像入力部15に入力された画像(フレーム)において検出された複数の所定パターンの位置が記憶されている。位置情報管理テーブルでは、追跡により同一のものとして認識される領域ごとに、複数の所定パターンの位置を示す座標が管理されている。
Position Information Management Table FIG. 8 is a conceptual diagram showing an example of a position information management table according to an embodiment. The position information management table is a table for managing position information indicating the position of a detected predetermined pattern. A position information management DB 1001 configured by a position information management table as shown in FIG. 8 is constructed in the storage unit 1000. This position information management table stores the positions of multiple predetermined patterns detected in an image (frame) previously input to the image input unit 15. In the position information management table, coordinates indicating the positions of multiple predetermined patterns are managed for each area recognized as the same by tracking.

●実施形態の処理または動作
○基準フォーマットを用いたマスク処理
次に、図9乃至図17を用いて、実施形態に係る画像処理システムの処理または動作について説明する。まず、図9乃至図14を用いて、マスク処理領域を設定するための基準フォーマットを用いたマスク処理について説明する。図9は、実施形態に係る撮像装置における基準フォーマットを用いたマスク処理の一例を示すフローチャートである。なお、図9に示されている処理は、処理対象の画像が動画である場合の処理であり、先頭のフレームから最終フレームまで各フレームに対して、処理を繰り返す。
●Processing or Operation of the Embodiment ○Mask Processing Using a Reference Format Next, the processing or operation of the image processing system according to the embodiment will be described with reference to Figs. 9 to 17. First, the mask processing using a reference format for setting a mask processing region will be described with reference to Figs. 9 to 14. Fig. 9 is a flowchart showing an example of mask processing using a reference format in an imaging device according to the embodiment. Note that the processing shown in Fig. 9 is processing when the image to be processed is a moving image, and the processing is repeated for each frame from the first frame to the last frame.

まず、撮像装置10の撮像処理部14は、所定の領域に対する撮像処理を開始する(ステップS11)。具体的には、撮影者がシャッターボタン等の入力手段を押下することで受付部12は、撮影開始要求を受け付ける。そして、撮像処理部14は、受付部12によって受け付けられた撮影開始要求に応答して、撮像処理を開始する。 First, the imaging processing unit 14 of the imaging device 10 starts imaging processing for a predetermined area (step S11). Specifically, the photographer presses an input means such as a shutter button, and the reception unit 12 receives a request to start imaging. Then, in response to the request to start imaging received by the reception unit 12, the imaging processing unit 14 starts imaging processing.

次に、マスク種別決定部16は、ステップS11の撮像処理によって取得された撮像画像に適用するマスク種別を決定する(ステップS12)。マスク種別は、例えば、ぼかしもしくはモザイク処理等のマスク処理領域に適用する画像処理の種類、並びにマスク処理領域を識別するための既定の形状である。既定の形状は、マスク処理を適用する領域の形状を決定するためのものであり、例えば、直方体、三角錐等の三次元の立体形状である。この既定の形状は、LED装置30等のパターン発生手段の配置形状に対応する。マスク種別は、ステップS11における撮影開始に先立って、撮影者等から指示され、設定値としてレジスタ等に記憶されているものとする。マスク種別決定部16は、記憶された設定値を読み出して適用するマスク種別を決定する。 Next, the mask type determination unit 16 determines the mask type to be applied to the captured image acquired by the imaging process in step S11 (step S12). The mask type is, for example, the type of image processing to be applied to the mask processing area, such as blurring or mosaic processing, and a predefined shape for identifying the mask processing area. The predefined shape is for determining the shape of the area to which mask processing is applied, and is, for example, a three-dimensional solid shape such as a rectangular parallelepiped or a triangular pyramid. This predefined shape corresponds to the arrangement shape of the pattern generating means, such as the LED device 30. The mask type is specified by the photographer or the like prior to the start of imaging in step S11, and is stored as a setting value in a register or the like. The mask type determination unit 16 reads out the stored setting value to determine the mask type to be applied.

次に、画像入力部15は、撮像処理部14による撮像処理によって取得された撮像画像の現在のフレームの画像の入力を受けて、処理対象となる画像を取得する(ステップS13)。なお、撮影時やライブビュー時ではなく、保存済みの静止画または動画を対象としてマスク処理を行う場合、画像入力部15は、記憶部1000から読み出された画像の入力を受けて、処理対象となる画像を取得してもよい。 Next, the image input unit 15 receives an input of the image of the current frame of the captured image acquired by the imaging processing by the imaging processing unit 14, and acquires the image to be processed (step S13). Note that when performing mask processing on a stored still image or video, rather than during shooting or live view, the image input unit 15 may receive an input of an image read out from the storage unit 1000, and acquire the image to be processed.

次に、検出部17は、画像入力部15によって取得された処理対象となるフレームの画像に示されている所定パターンを検出する(ステップS14)。上述したように、全天球画像を撮影しようとする撮影者または撮影される被写体の管理者は、隠したい被写体の周辺に、所定パターンを発生させるパターン発生手段を事前に配置する。検出部17は、被写体の周辺が撮影された画像中の所定パターンを検出する。そして、算出部18は、検出部17によって検出された所定パターンの位置を算出する(ステップS15)。パターン発生手段が図2に示されているようなLED装置30の場合、算出部18は、各LED装置30の発光部位に対応する輝点35の中心位置の座標値を、所定パターンの位置として算出する。 Next, the detection unit 17 detects a predetermined pattern shown in the image of the frame to be processed acquired by the image input unit 15 (step S14). As described above, the photographer who intends to capture a spherical image or the manager of the subject to be captured places a pattern generating means for generating a predetermined pattern around the subject to be hidden in advance. The detection unit 17 detects the predetermined pattern in the image capturing the periphery of the subject. Then, the calculation unit 18 calculates the position of the predetermined pattern detected by the detection unit 17 (step S15). When the pattern generating means is an LED device 30 as shown in FIG. 2, the calculation unit 18 calculates the coordinate value of the center position of the bright spot 35 corresponding to the light-emitting portion of each LED device 30 as the position of the predetermined pattern.

次に、撮像装置10は、算出部18によって算出された所定パターンの位置に基づいて、マスク処理領域の設定処理を実行する(ステップS16)。ここで、図10乃至図12を用いて、ステップS16の処理の詳細を説明する。 Next, the imaging device 10 executes a process of setting a mask processing area based on the position of the predetermined pattern calculated by the calculation unit 18 (step S16). Here, the process of step S16 will be described in detail with reference to Figs. 10 to 12.

まず、図10を用いて、マスク種別決定部16によって決定される既定の形状を示す基準フォーマットについて説明する。図10は、実施形態に係る基準フォーマットの一例を示す概略図である。マスク処理領域を識別するために配置されたパターン発生手段により発生される所定パターンは、撮像装置10による撮影位置や撮影方向によって、撮像画像での映り方が異なる。そこで、撮像装置10は、図10に示されているように、既定の形状を示す基準フォーマットとして、同一の形状を異なる角度から捉えた複数のフォーマット(フォーマットA~フォーマットD)を予め記憶しておく。図10は、既定の形状として直方体形状が選択された場合の基準フォーマットの例である。撮像装置10は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットを用いて、後述のマスク処理領域の設定処理を実行する。なお、既定の形状を示す基準フォーマットの数および内容は、図10に示す例に限られない。基準フォーマットは、既定の形状ごとに異なるフォーマットを有している。 First, the standard format indicating the default shape determined by the mask type determination unit 16 will be described with reference to FIG. 10. FIG. 10 is a schematic diagram showing an example of the standard format according to the embodiment. The predetermined pattern generated by the pattern generating means arranged to identify the mask processing area appears differently in the captured image depending on the shooting position and shooting direction of the imaging device 10. Therefore, as shown in FIG. 10, the imaging device 10 stores in advance a plurality of formats (format A to format D) in which the same shape is captured from different angles as standard formats indicating the default shape. FIG. 10 is an example of the standard format when a rectangular parallelepiped shape is selected as the default shape. The imaging device 10 executes the setting process of the mask processing area described later using the standard format corresponding to the default shape determined by the mask type determination unit 16. Note that the number and contents of the standard formats indicating the default shape are not limited to the example shown in FIG. 10. The standard format has a different format for each default shape.

図11は、実施形態に係る撮像装置におけるマスク処理領域の設定処理の一例を示すフローチャートである。図11は、マスク種別として決定された既定の形状が直方体である場合の例を示す。判断部19は、検出部17によって検出された所定パターンの数および算出部18によって算出された所定パターンの位置に応じて、予め記憶された基準フォーマットの種類を示す特定の形状を決定する。 Fig. 11 is a flowchart showing an example of a process for setting a mask processing area in an imaging device according to an embodiment. Fig. 11 shows an example in which the default shape determined as the mask type is a rectangular parallelepiped. The determination unit 19 determines a specific shape indicating the type of pre-stored standard format according to the number of predetermined patterns detected by the detection unit 17 and the positions of the predetermined patterns calculated by the calculation unit 18.

まず、判断部19は、7点の所定パターンが検出されたと判断する場合(ステップS161のYES)、処理をステップS162へ移行させる。そして、判断部19は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットのうち、図10に示すフォーマットD(斜め7点)を特定の形状として決定する(ステップS162)。一方で、判断部19は、検出された所定パターンが7点でないと判断する場合(ステップS161のNO)、処理をステップS163へ移行させる。 First, if the judgment unit 19 judges that a seven-point predetermined pattern has been detected (YES in step S161), it shifts the process to step S162. Then, the judgment unit 19 determines format D (seven diagonal points) shown in FIG. 10 as the specific shape from among the reference formats corresponding to the default shape determined by the mask type determination unit 16 (step S162). On the other hand, if the judgment unit 19 judges that the detected predetermined pattern is not seven points (NO in step S161), it shifts the process to step S163.

次に、判断部19は、6点の所定パターンが検出されたと判断する場合(ステップS163のYES)、処理をステップS164へ移行させる。そして、判断部19は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットのうち、図10に示すフォーマットB(横斜め6点)が該当すると判断する場合(ステップS164のYES)、フォーマットB(横斜め6点)を特定の形状として決定し、処理をステップS175へ移行させる。一方で、判断部19は、フォーマットB(横斜め6点)が該当しないと判断する場合(ステップS164のNO)、処理をステップS165へ移行させる。 Next, if the judgment unit 19 judges that a six-point predetermined pattern has been detected (YES in step S163), it shifts the process to step S164. Then, if the judgment unit 19 judges that, among the standard formats corresponding to the default shape determined by the mask type determination unit 16, format B (six points diagonally horizontally) shown in FIG. 10 is applicable (YES in step S164), it determines format B (six points diagonally horizontally) as the specific shape and shifts the process to step S175. On the other hand, if the judgment unit 19 judges that format B (six points diagonally horizontally) is not applicable (NO in step S164), it shifts the process to step S165.

ステップS165において、判断部19は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットのうち、図10に示すフォーマットC(縦斜め6点)が該当すると判断する場合(ステップS165のYES)、フォーマットC(縦斜め6点)を特定の形状として決定し、処理をステップS175へ移行させる。一方で、判断部19は、フォーマットC(縦斜め6点)が該当しないと判断する場合(ステップS165のNO)、処理をステップS166へ移行させる。 In step S165, if the determination unit 19 determines that format C (six vertical diagonal points) shown in FIG. 10 is applicable among the reference formats corresponding to the default shape determined by the mask type determination unit 16 (YES in step S165), it determines format C (six vertical diagonal points) as the specific shape and transitions the process to step S175. On the other hand, if the determination unit 19 determines that format C (six vertical diagonal points) is not applicable (NO in step S165), it transitions the process to step S166.

ステップS166において、判断部19は、判断部19は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットのうち、図10に示すフォーマットD(斜め7点)を特定の形状として決定する。そして、ステップS167において、推定部21は、決定された特定の形状であるフォーマットD(斜め7点)を形成するために補完する頂点を推定する(ステップS174)。 In step S166, the determination unit 19 determines format D (seven diagonal points) shown in FIG. 10 as a specific shape from among the reference formats corresponding to the default shape determined by the mask type determination unit 16. Then, in step S167, the estimation unit 21 estimates the vertices to be complemented to form format D (seven diagonal points), which is the determined specific shape (step S174).

図12は、実施形態に係る特定の形状を補完する頂点の推定処理について説明するための概略図である。ステップS174において、所定パターンは、図12に示されているように、フォーマットDの七つの頂点のうち、一つが隠れた状態である。ここでは、頂点Cが障害物によって隠された状態を考える。また、全天球画像は正距円筒図法で表現され、撮像装置10が直立の姿勢で撮影されたとする。 FIG. 12 is a schematic diagram for explaining the process of estimating vertices that complement a specific shape according to the embodiment. In step S174, the predetermined pattern is in a state in which one of the seven vertices of format D is hidden as shown in FIG. 12. Here, a state in which vertex C is hidden by an obstacle is considered. In addition, it is assumed that the omnidirectional image is expressed using equirectangular projection and is captured with the imaging device 10 in an upright position.

この場合、三次元空間で水平方向に位置する点Aと点Bは、正距円筒図法で表現される全天球画像において横方向に位置する。また、三次元空間で垂直方向に位置する点Bと点Dは、正距円筒図法で表現される全天球画像において縦方向に位置する。このとき、全天球画像において横方向の二辺(ACおよびEF)と、縦方向の二辺(BDとFH)が検出される。 In this case, points A and B, which are located horizontally in three-dimensional space, are located horizontally in the omnidirectional image represented by equirectangular projection. Points B and D, which are located vertically in three-dimensional space, are located vertically in the omnidirectional image represented by equirectangular projection. At this time, two horizontal sides (AC and EF) and two vertical sides (BD and FH) are detected in the omnidirectional image.

隠された点Cは、点Aの縦方向の位置にあるので、辺ACの長さと点Aと点Cの上下関係がわかれば点Cの位置を求めることができる。ここで上面ABFEと下面CDHGは、それぞれの面を構成する頂点が同程度の高さにある場合、点Aと他の点の高さによって点Aと点Cの上下関係がわかる。全天球画像において、頂点位置の奥行きを算出できるので、辺ACの長さも算出することができる。このように、推定部21は、判断部19によってフォーマットDの形状と検出された所定パターンの位置関係に基づいて、補完すべき頂点である点Cの位置を推定することができる。 Since the hidden point C is located at a position vertical to point A, the position of point C can be found by knowing the length of side AC and the vertical relationship between points A and C. Here, for the upper surface ABFE and the lower surface CDHG, if the vertices constituting each surface are at approximately the same height, the vertical relationship between points A and C can be found from the height of point A and other points. Since the depth of the vertex position can be calculated in a spherical image, the length of side AC can also be calculated. In this way, the estimation unit 21 can estimate the position of point C, which is the vertex to be complemented, based on the positional relationship between the shape of format D and the specified pattern detected by the determination unit 19.

なお、図12に示した特定の形状を補完する頂点の推定方法は、上記のような直方体形状に対する方法に限られず、他の形状に対応する基準フォーマットを用いる方法であってもよい。また、特定の形状を補完する頂点の推定方法には、図12に示されている例のほか、既存の幾何学的な算出方法を適用することができる。 The method of estimating vertices that complement the specific shape shown in FIG. 12 is not limited to the method for a rectangular parallelepiped shape as described above, but may be a method that uses a standard format that corresponds to other shapes. In addition to the example shown in FIG. 12, existing geometric calculation methods can be applied to the method of estimating vertices that complement the specific shape.

図11に戻り、ステップS163において、判断部19は、検出された所定パターンが6点でないと判断する場合(ステップS163のNO)、処理をステップS167へ移行させる。次に、判断部19は、5点の所定パターンが検出されたと判断する場合(ステップS167のYES)、処理をステップS168へ移行させる。判断部19は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットのうち、図10に示すフォーマットB(横斜め6点)が該当すると判断する場合(ステップS168のYES)、フォーマットB(横斜め6点)を特定の形状として決定し、処理をステップS174へ移行させる。そして、推定部21は、決定された特定の形状であるフォーマットB(横斜め6点)を形成するために補完する頂点を推定する(ステップS174)。ここでの推定部21による処理は、図12で説明した内容と同等の処理が行われ、フォーマットB(横斜め6点)を形成するために不足する頂点の位置を推定する。 Returning to FIG. 11, in step S163, if the judgment unit 19 judges that the detected predetermined pattern is not six points (NO in step S163), the process proceeds to step S167. Next, if the judgment unit 19 judges that the detected predetermined pattern is five points (YES in step S167), the process proceeds to step S168. If the judgment unit 19 judges that the format B (six points diagonally horizontally) shown in FIG. 10 corresponds to the standard format corresponding to the predetermined shape determined by the mask type determination unit 16 (YES in step S168), the judgment unit 19 determines the format B (six points diagonally horizontally) as the specific shape and proceeds to step S174. Then, the estimation unit 21 estimates the vertices to be supplemented to form the determined specific shape, format B (six points diagonally horizontally) (step S174). The process by the estimation unit 21 here is equivalent to the process described in FIG. 12, and estimates the positions of the vertices that are missing to form format B (six points diagonally horizontally).

一方で、判断部19は、フォーマットB(横斜め6点)が該当しないと判断する場合(ステップS168のNO)、処理をステップS169へ移行させる。ステップS169において、判断部19は、判断部19は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットのうち、図10に示すフォーマットC(縦斜め6点)を特定の形状として決定する。そして、推定部21は、決定された特定の形状であるフォーマットC(縦斜め6点)を形成するために補完する頂点を推定する(ステップS174)。ここでの推定部21による処理は、図12で説明した内容と同等の処理が行われ、フォーマットC(縦斜め6点)を形成するために不足する頂点の位置を推定する。 On the other hand, if the determination unit 19 determines that format B (six points diagonally horizontally) does not apply (NO in step S168), the process proceeds to step S169. In step S169, the determination unit 19 determines format C (six points diagonally vertically) shown in FIG. 10 as the specific shape from among the reference formats corresponding to the default shape determined by the mask type determination unit 16. The estimation unit 21 then estimates the vertices to be supplemented to form format C (six points diagonally vertically), which is the determined specific shape (step S174). The process by the estimation unit 21 here is equivalent to the process described in FIG. 12, and estimates the positions of the vertices that are missing to form format C (six points diagonally vertically).

ステップS167において、判断部19は、検出された所定パターンが5点でないと判断する場合(ステップS167のNO)、処理をステップS170へ移行させる。次に、判断部19は、4点の所定パターンが検出されたと判断する場合(ステップS170のYES)、処理をステップS171へ移行させる。判断部19は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットのうち、図10に示すフォーマットA(正面4点)を特定の形状として決定する。一方で、ステップS170において、判断部19は、検出された所定パターンが4点でないと判断する場合(ステップS170のNO)、処理をステップS172へ移行させる。ステップS172において、判断部19は、3点の所定パターンが検出されたと判断する場合(ステップS172のYES)、処理をステップS173へ移行させる。ステップS173において、判断部19は、マスク種別決定部16によって決定された既定の形状に対応する基準フォーマットのうち、図10に示すフォーマットA(正面4点)を特定の形状として決定する。そして、推定部21は、決定された特定の形状であるフォーマットA(正面4点)を形成するために補完する頂点を推定する(ステップS174)。ここでの推定部21による処理は、図12で説明した内容と同等の処理が行われ、フォーマットA(正面4点)を形成するために不足する頂点の位置を推定する。 In step S167, if the judgment unit 19 judges that the detected predetermined pattern is not five points (NO in step S167), the process proceeds to step S170. Next, if the judgment unit 19 judges that a four-point predetermined pattern is detected (YES in step S170), the process proceeds to step S171. The judgment unit 19 determines the format A (four points on the front) shown in FIG. 10 as a specific shape among the standard formats corresponding to the default shape determined by the mask type determination unit 16. On the other hand, in step S170, if the judgment unit 19 judges that the detected predetermined pattern is not four points (NO in step S170), the process proceeds to step S172. In step S172, if the judgment unit 19 judges that a three-point predetermined pattern is detected (YES in step S172), the process proceeds to step S173. In step S173, the determination unit 19 determines format A (four front points) shown in FIG. 10 as a specific shape from among the reference formats corresponding to the default shape determined by the mask type determination unit 16. Then, the estimation unit 21 estimates vertices to be supplemented to form format A (four front points), which is the determined specific shape (step S174). The processing by the estimation unit 21 here is equivalent to the processing described in FIG. 12, and estimates the positions of vertices that are missing to form format A (four front points).

一方で、ステップS172において、判断部19は、検出された所定パターンが3点でないと判断する場合(ステップS172のNO)、検出された所定パターンを用いて設定可能な領域が存在しないため、処理を終了する。 On the other hand, in step S172, if the judgment unit 19 judges that the detected predetermined pattern is not three points (NO in step S172), the process ends because there is no area that can be set using the detected predetermined pattern.

そして、領域設定部22は、検出された所定パターンの位置およびステップS174で推定された頂点によって形成される特定の形状を、マスク処理領域として設定する(ステップS175)。このように、撮像装置10は、所定パターンの数と位置関係から所定パターンの映り方の異なる基準フォーマットに対応する特定の形状を決定し、決定した特定の形状を補完する頂点を推定することで、例えば、障害物等により所定パターンが隠れた箇所がある場合においても、所望のマスク処理領域を精度良く設定することができる。 Then, the area setting unit 22 sets the specific shape formed by the position of the detected predetermined pattern and the vertices estimated in step S174 as the mask processing area (step S175). In this way, the imaging device 10 determines a specific shape corresponding to a standard format in which the predetermined pattern is captured differently from the number and positional relationship of the predetermined pattern, and estimates the vertices that complement the determined specific shape, thereby enabling the desired mask processing area to be set with high accuracy, for example, even when there are areas where the predetermined pattern is hidden by an obstacle or the like.

図9に戻り、画像処理部23は、画像入力部15によって取得された撮像画像に対するマスク処理を実行する(ステップS17)。画像処理部23は、ステップS16で設定されたマスク処理領域に対して、ステップS12で決定されたマスク種別のマスク処理を行う。具体的には、画像処理部23は、領域設定部22によって設定されたマスク処理領域の形状の面に対して、マスク処理を行う。画像処理部23は、例えば、フォーマットA(正面4点)の形状の場合には、4点を結ぶ一面に対してマスク処理を行い、フォーマットB(横斜め6点)の場合には、左面と右面の二面に対してマスク処理を行う。同様に、画像処理部23は、フォーマットC(縦斜め6点)の場合には、上面と下面の二面に対してマスク処理を行い、フォーマットD(斜め7点)の場合には、左面と右面と上面の三面に対してマスク処理を行う。 Returning to FIG. 9, the image processing unit 23 performs mask processing on the captured image acquired by the image input unit 15 (step S17). The image processing unit 23 performs mask processing of the mask type determined in step S12 on the mask processing area set in step S16. Specifically, the image processing unit 23 performs mask processing on the surfaces of the shape of the mask processing area set by the area setting unit 22. For example, in the case of a shape of format A (four points on the front), the image processing unit 23 performs mask processing on one surface connecting the four points, and in the case of format B (six points diagonally horizontally), the image processing unit 23 performs mask processing on two surfaces, the left and right surfaces. Similarly, in the case of format C (six points diagonally vertically), the image processing unit 23 performs mask processing on two surfaces, the top and bottom surfaces, and in the case of format D (seven points diagonally), the image processing unit 23 performs mask processing on three surfaces, the left, right and top surfaces.

そして、画像出力部24は、画像処理部23で処理された処理画像を出力する(ステップS18)。具体的には、画像出力部24は、例えば、表示制御部13に対して処理画像を出力し、表示制御部13によって処理画像をディスプレイに表示させる。また、画像出力部24は、例えば、記憶・読出部29に対して処理画像を出力し、記憶・読出部29によって処理画像を記憶させる。さらに、画像出力部24は、通信部11に対して処理画像を出力し、通信部11によって外部装置に対して処理画像を送信する。なお、画像出力部24による処理画像の出力は、上記のいずれかの処理が行われればよい。撮像装置10は、例えば、動画撮影時には、記憶・読出部29を出力先として処理画像を記憶させ、動画撮影中に画像確認を行う場合は、表示制御部13を出力先として処理画像を表示させるような構成であってもよい。 Then, the image output unit 24 outputs the processed image processed by the image processing unit 23 (step S18). Specifically, the image output unit 24 outputs the processed image to, for example, the display control unit 13, and causes the display control unit 13 to display the processed image on the display. The image output unit 24 also outputs the processed image to, for example, the storage/readout unit 29, and causes the storage/readout unit 29 to store the processed image. Furthermore, the image output unit 24 outputs the processed image to the communication unit 11, and transmits the processed image to an external device via the communication unit 11. Note that the output of the processed image by the image output unit 24 may be any of the above processes. For example, the imaging device 10 may be configured to store the processed image to the storage/readout unit 29 as the output destination when shooting a video, and to display the processed image to the display control unit 13 as the output destination when checking the image during video shooting.

ここで、図13および図14を用いて、撮像装置10によって取得された撮像画像および処理画像について説明する。図13(A)は、実施形態に係る撮像装置によって撮像された撮像画像の一例を示す図である。図13(A)に示されている撮像画像200は、処理対象の対象物Jの周辺に、パターン発生手段としての複数のLED装置30およびそれぞれのLED装置30から発生する所定パターンとしての輝点35が含まれている。また、撮像画像200は、所定パターンの一部(例えば、輝点35C)が障害物Xによって隠れている状態である。 Now, the captured image and processed image acquired by the imaging device 10 will be described with reference to Figs. 13 and 14. Fig. 13(A) is a diagram showing an example of a captured image captured by the imaging device according to the embodiment. The captured image 200 shown in Fig. 13(A) includes a plurality of LED devices 30 as pattern generating means and bright spots 35 as a predetermined pattern generated from each LED device 30 around the object J to be processed. Also, the captured image 200 shows a state in which a part of the predetermined pattern (for example, bright spot 35C) is hidden by an obstacle X.

図13(B)は、実施形態に係る撮像装置によってマスク処理された処理画像の一例を示す図である。図13(B)に示されている処理画像300は、上述のマスク処理によって、マスク処理領域に対する画像処理が行われた状態である。図13(B)の例は、マスク処理領域の頂点の座標を結ぶ多角形の領域の内部に対して黒塗りのマスク処理が適用された場合を例示する。処理画像300は、複数のLED装置30の発光部位に対応する輝点35の中心位置を結んで画定されるマスク処理領域の面が黒塗りされ、マスク処理領域の内部にある対象物Jの画像情報が除去されている。このように、撮像装置10は、入力された撮像画像中に存在する複数の所定パターンの位置を結んで画定される領域がマスク処理された処理画像を出力する。撮像装置10は、マスク処理領域に含まれる面に沿って、ぼかしやモザイク処理等のマスク処理を施すことで、撮影画像から隠したい対象を隠すことができる。 13B is a diagram showing an example of a processed image masked by the imaging device according to the embodiment. The processed image 300 shown in FIG. 13B is a state in which image processing has been performed on the mask processing area by the above-mentioned mask processing. The example of FIG. 13B illustrates a case in which black-painted mask processing is applied to the inside of a polygonal area connecting the coordinates of the vertices of the mask processing area. In the processed image 300, the surface of the mask processing area defined by connecting the center positions of the bright spots 35 corresponding to the light-emitting parts of the multiple LED devices 30 is painted black, and image information of the object J inside the mask processing area is removed. In this way, the imaging device 10 outputs a processed image in which the area defined by connecting the positions of multiple predetermined patterns present in the input captured image has been masked. The imaging device 10 can hide an object to be hidden from the captured image by applying mask processing such as blurring or mosaic processing along the surface included in the mask processing area.

図14は、実施形態に係る撮像装置によってマスク処理された処理画像の別の例を示す図である。図14に示されている処理画像350は、マスク処理領域の頂点の座標を結ぶ多角形の領域の外部に対して黒塗りのマスク処理が行われた状態である。処理画像350のように、画像処理部23は、撮像画像200における、領域設定部22によって設定されたマスク処理領域の外部の領域に対してマスク処理を行う構成であってもよい。なお、図13(B)および図14に示されてるようなマスク処理の適用方法については、図9のステップS12におけるマスク種別を決定する際に選択される構成であってもよい。 Fig. 14 is a diagram showing another example of a processed image that has been subjected to mask processing by the imaging device according to the embodiment. The processed image 350 shown in Fig. 14 is in a state in which a black mask processing has been performed on the outside of the polygonal area connecting the coordinates of the vertices of the mask processing area. As in the processed image 350, the image processing unit 23 may be configured to perform mask processing on the area in the captured image 200 that is outside the mask processing area set by the area setting unit 22. Note that the method of applying the mask processing as shown in Figs. 13(B) and 14 may be a configuration that is selected when determining the mask type in step S12 of Fig. 9.

そして、撮像装置10は、処理対象の画像が最終フレームである場合(ステップS19のYES)、処理を終了する。一方で、撮像装置10は、処理対象の画像が最終フレームでない場合(ステップS19のNO)、ステップS12からの処理を繰り返す。以上、動画撮影時の処理フローについて説明したが、撮像画像が静止画である場合には、ステップS109の処理を行わずに処理を終了してもよい。 Then, if the image to be processed is the final frame (YES in step S19), the imaging device 10 ends the process. On the other hand, if the image to be processed is not the final frame (NO in step S19), the imaging device 10 repeats the process from step S12. Although the processing flow when shooting a video has been described above, if the captured image is a still image, the process may end without performing the process in step S109.

このように、撮像装置10は、撮像画像に示されている所定パターンを検出し、検出された所定パターンの数および位置に基づいて決定された基準フォーマットに対応する特定の形状を決定する。そして、撮像装置10は、決定された特定の形状を補完する頂点を推定し、検出された所定パターンの位置および推定された頂点を用いて設定される処理対象の領域に対してマスク処理を行う。これにより、撮像装置10は、処理対象の領域を識別するための所定パターンの一部が撮像画像に映らなかった場合においても、予め記憶された基準フォーマットの形状から不足する頂点を推定することで、処理対象の領域の認識精度を向上させることができる。 In this way, the imaging device 10 detects the predetermined pattern shown in the captured image, and determines a specific shape corresponding to the standard format determined based on the number and positions of the detected predetermined patterns. The imaging device 10 then estimates vertices that complement the determined specific shape, and performs mask processing on the area to be processed that is set using the positions of the detected predetermined patterns and the estimated vertices. As a result, even if part of the predetermined pattern for identifying the area to be processed is not shown in the captured image, the imaging device 10 can improve the recognition accuracy of the area to be processed by estimating the missing vertices from the shape of the pre-stored standard format.

ここで、上述の説明では、撮像画像に示されている一つのマスク処理領域に対するマスク処理が行われる例を示したが、撮像装置10は、複数の領域に対してマスク処理を行う構成であってもよい。この場合、検出部17は、例えば、LED装置30の輝点35の色の違いを識別子として検出することで、異なるパターンの所定パターンを検出する。そして、領域設定部22は、それぞれ所定の条件を満たす識別子を有するパターンを含んで構成されるグループ(領域)に対して、異なるマスク処理領域を設定する。ここで、所定の条件は、検出されたパターンが同一の識別子であること、または所定の数値範囲内の識別子であること等である。なお、パターンを識別するための識別子は、輝点35の色の違いに限られず、輝点35の点滅パターンの違いやQRコード40等の画像に埋め込まれた符号化情報であってもよい。これにより、実施形態に係る画像処理システムは、撮像装置10によって検出可能な所定パターンとして異なるパターンを設けることで、複数の処理対象の領域に対するマスク処理を行うことができる。 In the above description, an example in which mask processing is performed on one mask processing area shown in the captured image has been shown, but the imaging device 10 may be configured to perform mask processing on multiple areas. In this case, the detection unit 17 detects different predetermined patterns by detecting, for example, differences in the colors of the bright spots 35 of the LED device 30 as identifiers. Then, the area setting unit 22 sets different mask processing areas for groups (areas) that include patterns having identifiers that satisfy a predetermined condition. Here, the predetermined condition is that the detected patterns have the same identifier, or that the identifier is within a predetermined numerical range. Note that the identifier for identifying the pattern is not limited to differences in the colors of the bright spots 35, but may also be differences in the blinking patterns of the bright spots 35 or coded information embedded in an image such as a QR code 40. As a result, the image processing system according to the embodiment can perform mask processing on multiple processing target areas by providing different patterns as predetermined patterns that can be detected by the imaging device 10.

○位置情報を用いたマスク処理
続いて、図15乃至図17を用いて、記憶された所定パターンの位置情報を用いたマスク処理について説明する。図15は、実施形態に係る画像処理システムにおけるマスク処理の一例を説明するための概略図である。図15(A)に示されているように、処理対象の領域を識別するための所定パターン(例えば、LED装置30によって発生される輝点35)が、人の移動等によって一時的に隠れた状態を示す。この場合、撮像装置10は、過去の撮影時に取得して記憶された所定パターンの位置を示す位置情報を用いて、隠れた所定パターンの位置を推定する。そして、撮像装置10は、上述の例と同様に、推定された所定パターンの位置を用いて処理対象の領域を設定し、図15(B)に示されているように、処理対象の領域に対するマスク処理を施す。
Masking using position information Next, masking using the position information of the stored predetermined pattern will be described with reference to Figs. 15 to 17. Fig. 15 is a schematic diagram for explaining an example of masking in the image processing system according to the embodiment. As shown in Fig. 15(A), a predetermined pattern (e.g., a bright spot 35 generated by the LED device 30) for identifying the area to be processed is temporarily hidden due to the movement of a person or the like. In this case, the imaging device 10 estimates the position of the hidden predetermined pattern using position information indicating the position of the predetermined pattern acquired and stored during past shooting. Then, the imaging device 10 sets the area to be processed using the estimated position of the predetermined pattern, as in the above example, and performs masking on the area to be processed as shown in Fig. 15(B).

これにより、撮像装置10は、動画撮影時のような連続的な処理が行われる場合において、所定パターンの位置情報を記憶しておくことで、一時的に所定パターンが隠れた場合であっても、記憶された位置情報の少なくとも一部を用いて補完する頂点を推定することで、処理対象の領域をより安定的に決定することができる。 As a result, when continuous processing is performed, such as when shooting video, the imaging device 10 stores the position information of a specific pattern, and even if the specific pattern is temporarily hidden, the imaging device 10 can more stably determine the area to be processed by estimating the vertices to be complemented using at least a portion of the stored position information.

図16は、実施形態に係る撮像装置における位置情報を用いたマスク処理の一例を示すフローチャートである。なお、ステップS31~ステップS35の処理は、図9に示されているステップS11~ステップS15の処理と同様であるため、説明を省略する。 Figure 16 is a flowchart showing an example of mask processing using position information in an imaging device according to an embodiment. Note that the processing from step S31 to step S35 is similar to the processing from step S11 to step S15 shown in Figure 9, and therefore a description thereof will be omitted.

ステップS36において、撮像装置10は、所定パターンの位置を示す位置情報が位置情報管理DB1001(図8参照)に記憶されている場合(ステップS36のYES)、処理をステップS37へ移行させる。判断部19は、位置情報管理DB1001に記憶された位置情報と、検出部17によって検出された所定パターンの位置を比較する(ステップS37)。この場合、判断部19は、記憶された位置情報の数と検出された所定パターンの数を比較する。そして、推定部21は、ステップS37での比較結果に応じて、特定の形状を形成するために補完する頂点を推定する(ステップS38)。推定部21は、所定パターンの数が記憶された位置情報よりも少ない場合、記憶された位置情報のうち検出された所定パターンの位置から最も遠い点を、補完する頂点として推定する。これは、動画撮影時に、短い時間間隔で所定パターンの検出を繰り返すため、画像上の位置が直前の処理から大きく変わることがないためである。図17は、実施形態に係る所定パターンの検出位置の一例を示す概略図である。図17の例において、図8に示されている位置情報と比較すると、点Fが図17に示す検出位置から最も遠いため、推定部21は、点Fを補完する頂点として推定する。 In step S36, if the position information indicating the position of the predetermined pattern is stored in the position information management DB 1001 (see FIG. 8) (YES in step S36), the imaging device 10 shifts the process to step S37. The determination unit 19 compares the position information stored in the position information management DB 1001 with the position of the predetermined pattern detected by the detection unit 17 (step S37). In this case, the determination unit 19 compares the number of stored position information with the number of detected predetermined patterns. Then, the estimation unit 21 estimates the vertices to be complemented to form a specific shape according to the comparison result in step S37 (step S38). If the number of predetermined patterns is less than the stored position information, the estimation unit 21 estimates the point of the stored position information that is farthest from the position of the detected predetermined pattern as the vertex to be complemented. This is because the detection of the predetermined pattern is repeated at short time intervals during video shooting, so that the position on the image does not change significantly from the previous process. FIG. 17 is a schematic diagram showing an example of the detection position of the predetermined pattern according to the embodiment. In the example of Figure 17, when compared with the position information shown in Figure 8, point F is the furthest from the detection position shown in Figure 17, so the estimation unit 21 estimates point F as the complementary vertex.

そして、領域設定部22は、検出部17によって検出された所定パターンの位置と、ステップS38において推定された頂点とを用いて、マスク処理領域を設定する(ステップS39)。そして、画像処理部23は、設定されたマスク処理領域に対するマスク処理を行う(ステップS40)。さらに、画像出力部24は、マスク処理された処理画像を出力する(ステップS41)。マスク処理および処理画像の出力処理については、上述で説明した例と同様である。 Then, the area setting unit 22 sets a mask processing area using the position of the predetermined pattern detected by the detection unit 17 and the vertices estimated in step S38 (step S39). The image processing unit 23 then performs mask processing on the set mask processing area (step S40). Furthermore, the image output unit 24 outputs the processed image that has been masked (step S41). The mask processing and the output processing of the processed image are the same as in the example described above.

次に、記憶・読出部29は、算出された所定パターンの位置を示す位置情報を位置情報管理DB1001に記憶する(ステップS41)。撮像装置10は、ステップS41で記憶された位置情報を、次フレームの処理に用いる。そして、撮像装置10は、処理対象の画像が最終フレームである場合(ステップS42のYES)、処理を終了する。一方で、撮像装置10は、処理対象の画像が最終フレームでない場合(ステップS42のNO)、ステップS32からの処理を繰り返す。 Next, the storage/readout unit 29 stores the position information indicating the calculated position of the predetermined pattern in the position information management DB 1001 (step S41). The imaging device 10 uses the position information stored in step S41 for processing the next frame. Then, if the image to be processed is the final frame (YES in step S42), the imaging device 10 ends the processing. On the other hand, if the image to be processed is not the final frame (NO in step S42), the imaging device 10 repeats the processing from step S32.

一方で、ステップS36において、撮像装置10は、所定パターンの位置を示す位置情報が位置情報管理DB1001に記憶されていない場合(ステップS36のNO)、処理をステップS39へ移行させる。この場合、撮像装置10は、位置情報が記憶されておらず、過去の処理における情報を利用できないため、検出部17によって検出された所定パターンの位置のみを用いて、ステップS39以降の処理を行う。なお、撮像装置10は、位置情報が記憶されていない場合、上述の基準フォーマットを用いたマスク処理領域の設定処理(例えば、図11の処理)を行う構成であってもよい。 On the other hand, in step S36, if the position information indicating the position of the specified pattern is not stored in the position information management DB 1001 (NO in step S36), the imaging device 10 transitions the process to step S39. In this case, since the imaging device 10 does not store position information and cannot use information from previous processing, the imaging device 10 performs processing from step S39 onwards using only the position of the specified pattern detected by the detection unit 17. Note that, when position information is not stored, the imaging device 10 may be configured to perform processing to set a mask processing area using the above-mentioned standard format (for example, the processing of FIG. 11).

このように、撮像装置10は、撮像装置10を移動させた場合や物体が動いて撮像装置10の視界を遮った場合等の所定パターンが一時的に視野内で認識できなくなる場合においても、一度検出した所定パターンの位置を記憶し、過去の情報を利用して撮影視野の方向の動きを推測して、検出できない所定パターンの位置を推定することで、一時的な所定パターンの消失に対応することができる。 In this way, even if the specified pattern temporarily becomes unrecognizable within the field of view, such as when the imaging device 10 is moved or an object moves and blocks the field of view of the imaging device 10, the imaging device 10 can respond to the temporary disappearance of the specified pattern by storing the position of the specified pattern once detected and using past information to infer the directional movement of the imaging field of view and estimate the position of the undetectable specified pattern.

●実施形態の効果
以上説明したように、実施形態に係る画像処理システムは、画像中の事前指定されたマスク処理領域を認識して画像に対しマスク処理を適用することで、処理対象の領域に対するマスク処理の精度を向上させることができる。
Effect of the embodiment As described above, the image processing system according to the embodiment can improve the accuracy of mask processing for the area to be processed by recognizing a pre-specified mask processing area in an image and applying mask processing to the image.

なお、上述の説明において、撮像装置10によって取得された全天球画像が画像入力部15に入力されるものとして説明したが、上記マスク処理は、撮影者が撮影方向を調整することで望ましくないものを撮影範囲から容易に除外できる通常のカメラとは異なる、撮像装置10等によって取得された広角画像(全天球画像、半球画像、パノラマ画像)に対して、特に好適に適用することができる。特に、撮像装置10による撮影では、広範囲が撮影範囲となり、保護したい被写体を撮影範囲から除外することが容易ではなく、また、保護した被写体も、広範囲に分散し得るためである。全天球画像に対して上述のマスク処理を適用することにより、撮影者は安心して、全天球画像の撮影を行うことができるようになる。しかしながら、上述したマスク処理自体は、通常の画角のカメラで撮影された画像に対しても同様に適用してもよい。 In the above description, the omnidirectional image acquired by the imaging device 10 is input to the image input unit 15. However, the above masking process can be particularly suitably applied to wide-angle images (omnidirectional images, hemispherical images, panoramic images) acquired by the imaging device 10, which are different from normal cameras in which the photographer can easily remove undesirable objects from the shooting range by adjusting the shooting direction. In particular, when shooting with the imaging device 10, a wide range is the shooting range, and it is not easy to remove a subject to be protected from the shooting range, and the protected subject may also be dispersed over a wide range. By applying the above masking process to the omnidirectional image, the photographer can shoot the omnidirectional image with peace of mind. However, the above masking process itself may also be applied to images shot with a camera with a normal angle of view.

また、処理対象の観点からは、人の顔や身体のように、事前に保護すべき対象の特徴が明確である場合は、顔認識、身体認識または他の物体認識技術により認識できる。しかしながら、保護したい対象の特徴を事前に定義することが困難な場合がある。例えば、全天球画像を用いたツアーにより工場内の様子を案内するコンテンツの場合、工場内には多種多様な被写体が存在し得るところ、そのような被写体を事前に認識可能とすることは一般に難しい。そこで、本実施形態によるマスク処理は、保護したい対象の特徴を事前に定義することが難しい対象に対して特に好適に適用することができる。 Also, from the perspective of the processing target, when the characteristics of the target to be protected are clear in advance, such as a human face or body, they can be recognized by face recognition, body recognition, or other object recognition technology. However, it may be difficult to define in advance the characteristics of the target to be protected. For example, in the case of content that provides a tour of the inside of a factory using spherical images, there may be a wide variety of subjects within the factory, and it is generally difficult to recognize such subjects in advance. Therefore, the masking process according to this embodiment can be particularly suitably applied to targets whose characteristics are difficult to define in advance.

さらに、監視カメラのように設置位置が固定されている定点カメラ(カメラの向きが可変な場合も含む。)の場合、画像上の所定の座標範囲に対しマスクを指定することが容易であるところ、本実施形態によるマスク処理は、手持ちカメラや三脚で固定されるカメラのように設置位置が不定の撮像装置により撮像された画像に対して特に好適に適用することができる。 Furthermore, in the case of a fixed camera (including cases where the camera orientation is variable) with a fixed installation position such as a surveillance camera, it is easy to specify a mask for a specific coordinate range on the image, and the masking process according to this embodiment is particularly suitable for images captured by an imaging device with an indefinite installation position such as a handheld camera or a camera fixed on a tripod.

また、本実施形態によるマスク処理は、撮像装置10を用いてリアルタイム配信を行う際にも好適に適用することができる。特に配信している際は、撮像装置10を持って動く可能性があるところ、マスク処理を用いることで、立体的な領域を隠すことができるようになり、安心してリアルタイム配信を行うことができるようになる。 The masking process according to this embodiment can also be suitably applied when performing real-time distribution using the imaging device 10. In particular, when distributing, there is a possibility that the imaging device 10 will be moved, and by using the masking process, it becomes possible to hide three-dimensional areas, allowing real-time distribution to be performed with peace of mind.

●実施形態の変形例●
次に、実施形態の変形例に係る画像処理システムについて説明する。なお、上記実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。実施形態の変形例に係る画像処理システムは、撮像装置10aによって取得された撮像画像に対するマスク処理を、撮像装置10aに接続されたPC50によって実行するシステムである。
Modifications of the embodiment
Next, an image processing system according to a modified example of the embodiment will be described. The same configurations and functions as those of the above embodiment will be denoted by the same reference numerals, and the description thereof will be omitted. The image processing system according to the modified example of the embodiment is a system in which a mask process for a captured image acquired by an imaging device 10a is executed by a PC 50 connected to the imaging device 10a.

●システム構成
図18は、実施形態の変形例に係る画像処理システムの概略の一例を説明するための図である。図18に示されているように、実施形態の変形例に係る画像処理システムは、撮像装置10aに接続されたPC50を含んで構成される。
System Configuration Fig. 18 is a diagram for explaining an example of an outline of an image processing system according to a modified embodiment. As shown in Fig. 18, the image processing system according to the modified embodiment includes a PC 50 connected to an imaging device 10a.

PC50は、撮像画像に対する画像処理を行う利用者が使用する画像処理装置である。PC50には、全天球画像等の処理対象の画像を編集するための編集用アプリケーションプログラム、または撮像装置10aを制御するための制御用アプリケーションプログラムがインストールされている。また、PC50は、USB、HDMI(High-Definition Multimedia Interface)等のケーブルを介して撮像装置10に接続される。 The PC 50 is an image processing device used by a user to perform image processing on captured images. An editing application program for editing an image to be processed, such as a spherical image, or a control application program for controlling the imaging device 10a is installed in the PC 50. The PC 50 is also connected to the imaging device 10 via a cable such as a USB or a High-Definition Multimedia Interface (HDMI).

撮像装置10aとPC50は、上記ケーブルを用いずに、Bluetooth、NFCまたはWi-Fi等の近距離無線通信技術を利用して無線通信してもよい。また、撮像装置10aとPC50は、インターネット、移動体通信網、LAN(Local Area Network)等の通信ネットワークを介して通信され、PC50は、撮像装置10aと別拠点に位置する構成であってもよい。この場合、通信ネットワークには、有線通信だけでなく、4G(4th Generation)、5G(5th Generation)、LTE(Long Term Evolution)、Wi-FiまたはWiMAX(Worldwide Interoperability for Microwave Access)等の無線通信によって構築される箇所が含まれいてもよい。また、通信ネットワークには、ブロックチェーンによって構築されたネットワークが含まれていてもよい。 The imaging device 10a and the PC 50 may communicate wirelessly using a short-range wireless communication technology such as Bluetooth, NFC, or Wi-Fi without using the above-mentioned cable. The imaging device 10a and the PC 50 may also communicate via a communication network such as the Internet, a mobile communication network, or a LAN (Local Area Network), and the PC 50 may be located at a different location from the imaging device 10a. In this case, the communication network may include not only wired communication, but also parts built by wireless communication such as 4G (4th Generation), 5G (5th Generation), LTE (Long Term Evolution), Wi-Fi, or WiMAX (Worldwide Interoperability for Microwave Access). The communication network may also include a network built by blockchain.

なお、PC50は、スマートフォンまたはタブレット端末等であってもよい。また、PC50は、単一のコンピュータによって構築されてもよいし、各部(機能、手段または記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。 The PC 50 may be a smartphone or a tablet terminal. The PC 50 may be constructed by a single computer, or may be constructed by multiple computers in which each unit (function, means, or storage unit) is divided and assigned arbitrarily.

●ハードウエア構成
図19は、実施形態の変形例に係るPCのハードウエア構成の一例を示す図である。PC50は、コンピュータによって構築されており、図19に示されているように、CPU501、ROM502、RAM(Random Access Memory)503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、およびメディアI/F516を備えている。
●Hardware configuration Fig. 19 is a diagram showing an example of the hardware configuration of a PC according to a modified embodiment. The PC 50 is constructed by a computer, and as shown in Fig. 19, includes a CPU 501, a ROM 502, a RAM (Random Access Memory) 503, a HD (Hard Disk) 504, a HDD (Hard Disk Drive) controller 505, a display 506, an external device connection I/F 508, a network I/F 509, a bus line 510, a keyboard 511, a pointing device 512, a DVD-RW (Digital Versatile Disk Rewritable) drive 514, and a media I/F 516.

これらのうち、CPU501は、PC50全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出しまたは書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。ディスプレイ506は、表示部の一例である。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、撮像装置10等である。ネットワークI/F509は、通信ネットワークを利用してデータ通信をするためのインターフェースである。バスライン510は、図19に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Of these, the CPU 501 controls the operation of the entire PC 50. The ROM 502 stores programs such as IPL used to drive the CPU 501. The RAM 503 is used as a work area for the CPU 501. The HD 504 stores various data such as programs. The HDD controller 505 controls the reading or writing of various data from the HD 504 according to the control of the CPU 501. The display 506 displays various information such as a cursor, menu, window, character, or image. The display 506 is an example of a display unit. The external device connection I/F 508 is an interface for connecting various external devices. In this case, the external device is, for example, the imaging device 10. The network I/F 509 is an interface for data communication using a communication network. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG. 19.

また、キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出しまたは書き込みを制御する。なお、DVD-RWに限らず、DVD-RやBlu-ray Disc等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出しまたは書き込み(記憶)を制御する。 The keyboard 511 is a type of input means equipped with multiple keys for inputting characters, numbers, various instructions, etc. The pointing device 512 is a type of input means for selecting and executing various instructions, selecting a processing target, moving the cursor, etc. The DVD-RW drive 514 controls the reading and writing of various data from the DVD-RW 513, which is an example of a removable recording medium. Note that the medium is not limited to a DVD-RW, and may be a DVD-R or Blu-ray Disc, etc. The media I/F 516 controls the reading and writing (storing) of data from the recording medium 515, such as a flash memory.

なお、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD-R、DVD、Blu-ray Disc、SDカード、USBメモリ等が挙げられる。また、記録媒体は、プログラム製品として、国内または国外へ提供されることができる。例えば、PC50は、本発明に係るプログラムが実行されることで本発明に係る画像処理方法を実現する。 The above programs may be distributed by recording them on a computer-readable recording medium in the form of an installable or executable file. Examples of recording media include CD-Rs, DVDs, Blu-ray Discs, SD cards, and USB memories. The recording media may also be provided domestically or internationally as a program product. For example, the PC 50 realizes the image processing method according to the present invention by executing the program according to the present invention.

●機能構成
図20は、実施形態の変形例に係る画像処理システムの機能構成の一例を示す図である。撮像装置10aは、通信部11、受付部12、表示制御部13、撮像処理部14および記憶・読出部29を有している。これら各部は、図7に示されている撮像装置10の各部と同様の機能を有する。
Functional Configuration Fig. 20 is a diagram showing an example of the functional configuration of an image processing system according to a modified example of the embodiment. The imaging device 10a has a communication unit 11, a reception unit 12, a display control unit 13, an imaging processing unit 14, and a storage/readout unit 29. Each of these units has the same function as each unit of the imaging device 10 shown in Fig. 7.

PC50は、通信部51、受付部52、表示制御部53、マスク種別決定部54、検出部55、算出部56、判断部57、推定部58、領域設定部59、画像処理部61および記憶・読出部69を有している。これら各部は、図19に示されている各構成要素のいずれかが、RAM503上に展開されたPC用プログラムに従ったCPU501からの命令によって動作することで実現される機能、または機能する手段である。また、PC50は、図19に示されているROM502、HD504または記録メディア515によって構築される記憶部5000を有している。記憶部5000には、図8に示されているような位置情報管理テーブルによって構成されている位置情報管理DB5001が構築されている。 The PC 50 has a communication unit 51, a reception unit 52, a display control unit 53, a mask type determination unit 54, a detection unit 55, a calculation unit 56, a judgment unit 57, an estimation unit 58, a region setting unit 59, an image processing unit 61, and a storage/readout unit 69. Each of these units is a function or a means for performing a function that is realized when any of the components shown in FIG. 19 operates in response to an instruction from the CPU 501 according to a PC program deployed on the RAM 503. The PC 50 also has a storage unit 5000 constructed from the ROM 502, HD 504, or recording media 515 shown in FIG. 19. A location information management DB 5001 is constructed in the storage unit 5000 and is configured from a location information management table such as that shown in FIG. 8.

通信部51は、主に、主に、CPU501の処理によって実現され、撮像装置10aと各種データまたは情報の通信を行う。通信部51は、例えば、ネットワークI/F509を用いて、撮像装置10aとの間で、通信ネットワークを介したデータ通信を行う。また、通信部51は、例えば、外部機器接続I/F508を用いて、撮像装置10aとの間で、各種ケーブル等を介したデータ通信を行う。 The communication unit 51 is mainly realized by the processing of the CPU 501, and communicates various data or information with the imaging device 10a. The communication unit 51 uses, for example, the network I/F 509 to perform data communication with the imaging device 10a via a communication network. The communication unit 51 also uses, for example, the external device connection I/F 508 to perform data communication with the imaging device 10a via various cables, etc.

受付部52は、主に、キーボード511またはポインティングデバイス512に対するCPU501の処理によって実現され、利用者から各種の選択または入力を受け付ける。表示制御部53は、主に、CPU501の処理によって実現され、ディスプレイ506に、各種画像を表示させる。受付部52および表示制御部53は、それぞれ図7に示されている撮像装置10の受付部12および表示制御部13と同様の機能を有する。 The reception unit 52 is mainly realized by the processing of the CPU 501 on the keyboard 511 or the pointing device 512, and receives various selections or inputs from the user. The display control unit 53 is mainly realized by the processing of the CPU 501, and causes various images to be displayed on the display 506. The reception unit 52 and the display control unit 53 have the same functions as the reception unit 12 and the display control unit 13 of the imaging device 10 shown in FIG. 7, respectively.

マスク種別決定部54、検出部55、算出部56、判断部57、推定部58、領域設定部59および画像処理部61は、それぞれCPU501の処理によって実現され、図7に示されている撮像装置10のマスク種別決定部16、検出部17、算出部18、判断部19、推定部21、領域設定部22、画像処理部23と同様の機能を有する。記憶・読出部69は、主に、CPU501の処理によって実現され、記憶部5000に、各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。また、記憶部5000は、撮像装置10aから取得された撮像画像データまたは画像処理部61によって処理された処理画像データを記憶している。なお、記憶部5000に記憶されている画像データは、記憶されてから所定の時間経過した場合に削除される構成であってもよいし、他の装置または端末へ送信されたデータが削除される構成であってもよい。 The mask type determination unit 54, the detection unit 55, the calculation unit 56, the judgment unit 57, the estimation unit 58, the region setting unit 59, and the image processing unit 61 are each realized by the processing of the CPU 501, and have the same functions as the mask type determination unit 16, the detection unit 17, the calculation unit 18, the judgment unit 19, the estimation unit 21, the region setting unit 22, and the image processing unit 23 of the imaging device 10 shown in FIG. 7. The storage/reading unit 69 is mainly realized by the processing of the CPU 501, and stores various data (or information) in the storage unit 5000 and reads various data (or information) from the storage unit 5000. The storage unit 5000 also stores captured image data acquired from the imaging device 10a or processed image data processed by the image processing unit 61. Note that the image data stored in the storage unit 5000 may be deleted when a predetermined time has passed since it was stored, or data transmitted to another device or terminal may be deleted.

●実施形態の変形例の処理または動作
次に、図21を用いて、実施形態の変形例に係る画像処理システムの処理または動作について説明する。図21は、実施形態の変形例に係る画像処理システムにおける撮像装置に対するマスク処理の一例を示すシーケンス図である。
Processing or operation of the modified example of the embodiment Next, processing or operation of the image processing system according to the modified example of the embodiment will be described with reference to Fig. 21. Fig. 21 is a sequence diagram showing an example of mask processing for an imaging device in the image processing system according to the modified example of the embodiment.

まず、撮像装置10aの撮像処理部14は、所定の領域に対する撮像処理を開始する(ステップS51)。具体的には、撮影者がシャッターボタン等の入力手段を押下することで受付部12は、撮影開始要求を受け付ける。そして、撮像処理部14は、受付部12によって受け付けられた撮影開始要求に応答して、撮像処理を開始する。次に、撮像装置10aの通信部11は、ステップS51の撮像処理で取得された撮像画像データを、PC50に対して送信する(ステップS52)。これにより、PC50の通信部51は、撮像装置10aから送信された撮像画像データを受信し、処理対象の画像の入力を受ける。 First, the imaging processing unit 14 of the imaging device 10a starts imaging processing for a specified area (step S51). Specifically, the photographer presses an input means such as a shutter button, and the reception unit 12 receives a request to start imaging. Then, in response to the request to start imaging received by the reception unit 12, the imaging processing unit 14 starts imaging processing. Next, the communication unit 11 of the imaging device 10a transmits the captured image data acquired in the imaging processing of step S51 to the PC 50 (step S52). As a result, the communication unit 51 of the PC 50 receives the captured image data transmitted from the imaging device 10a and receives input of the image to be processed.

PC50は、通信部51によって入力された画像に対する画像処理を行う(ステップS53)。ステップS53における画像処理は、図9または図16に示されている処理と同様のマスク処理である。特に、PC50の表示制御部53は、ステップS53における画像処理中に、入力された撮影画像をディスプレイ506に表示させることで、PC50の利用者に撮影画像の状態を確認させてもよい。また、PC50の受付部52は、ディスプレイ506に表示された撮影画像または処理画像に対する処理内容の選択が受け付けられてもよい。この場合、受付部52は、例えば、図9および図15に示されているマスク種別の決定処理において、利用者によるマスク種別の選択を受け付けてもよいし、マスク処理が施された処理画像に対するマスク種別の修正の選択が受け付けられてもよい。 The PC 50 performs image processing on the image input by the communication unit 51 (step S53). The image processing in step S53 is a mask processing similar to the processing shown in FIG. 9 or FIG. 16. In particular, the display control unit 53 of the PC 50 may display the input photographed image on the display 506 during the image processing in step S53, thereby allowing the user of the PC 50 to check the state of the photographed image. The reception unit 52 of the PC 50 may also receive a selection of processing contents for the photographed image or processed image displayed on the display 506. In this case, the reception unit 52 may receive a selection of a mask type by the user in the mask type determination processing shown in FIG. 9 and FIG. 15, for example, or may receive a selection of a correction of the mask type for the processed image that has been subjected to mask processing.

このように、実施形態の変形例に係る画像処理システムは、PC50を用いて撮像装置10aにより取得された画像に対する画像処理を行うことで、撮影画像をリアルタイムで確認することができるとともに、撮影画像または処理画像を確認しながらマスク処理の修正等を行うことができる。 In this way, the image processing system according to the modified embodiment uses the PC 50 to perform image processing on the image acquired by the imaging device 10a, making it possible to check the captured image in real time and to perform corrections to the mask processing while checking the captured image or the processed image.

●まとめ●
以上説明したように、本発明の一実施形態に係る画像処理装置(例えば、撮像装置10またはPC50)は、撮像画像の入力を受け、入力された撮像画像に示される所定パターン(例えば、輝点35またはQRコード40)の位置を算出する。そして、画像処理装置は、算出された複数の所定パターンの位置に基づいて形成される特定の形状を補完する頂点を推定し、算出された複数の所定パターンの位置、および推定された頂点に基づいて、処理対象の領域(例えば、マスク処理領域)を設定し、設定された領域に対して画像処理(例えば、マスク処理)を行う。これにより、実施形態に係る画像処理装置は、撮像画像に対する画像処理の対象となる領域の認識精度を向上させることができるとともに、処理対象の領域に対するマスク処理の精度を向上させることができる。
●Summary●
As described above, an image processing device (e.g., the imaging device 10 or the PC 50) according to an embodiment of the present invention receives an input of a captured image and calculates the position of a predetermined pattern (e.g., the bright spot 35 or the QR code 40) shown in the input captured image. The image processing device then estimates vertices that complement a specific shape formed based on the calculated positions of the plurality of predetermined patterns, sets a processing target area (e.g., a mask processing area) based on the calculated positions of the plurality of predetermined patterns and the estimated vertices, and performs image processing (e.g., mask processing) on the set area. In this way, the image processing device according to the embodiment can improve the recognition accuracy of the area that is the target of image processing on the captured image, and can also improve the accuracy of mask processing on the processing target area.

また、本発明の一実施形態に係る画像処理装置(例えば、撮像装置10またはPC50)は、算出された複数の所定パターン(例えば、輝点35またはQRコード40)の位置に基づいて特定の形状を決定し、決定された特定の形状を形成するために不足する頂点を推定する。これにより、実施形態に係る画像処理装置は、処理対象の領域を識別するための所定パターンの一部が撮像画像に映らなかった場合においても、算出された所定パターンの位置から決定される特定の形状に不足する頂点を推定することで、処理対象の領域の認識精度を向上させることができる。 Furthermore, an image processing device according to one embodiment of the present invention (e.g., the imaging device 10 or the PC 50) determines a specific shape based on the calculated positions of a plurality of predetermined patterns (e.g., the bright spot 35 or the QR code 40), and estimates the vertices that are missing to form the determined specific shape. As a result, the image processing device according to the embodiment can improve the recognition accuracy of the area to be processed by estimating the vertices that are missing from the specific shape determined from the calculated positions of the predetermined pattern, even if part of the predetermined pattern for identifying the area to be processed is not captured in the captured image.

さらに、本発明の一実施形態に係る画像処理装置(例えば、撮像装置10またはPC50)は、入力された撮像画像における所定パターン(例えば、輝点35またはQRコード40)の位置を示す位置情報を記憶し、算出された複数の所定パターンの位置と、記憶された位置情報の少なくとも一部とに基づいて、処理対象の領域(例えば、マスク処理領域)を設定する。これにより、実施形態に係る画像処理装置は、撮像装置10を移動させた場合や物体が動いて撮像装置10の視界を遮った場合等の所定パターンが一時的に視野内で認識できなくなる場合においても、一度検出した所定パターンの位置を記憶し、過去の情報を利用して撮影視野の方向の動きを推測して、検出できない所定パターンの位置を推定することで、一時的な所定パターンの消失に対応することができる。 Furthermore, an image processing device according to an embodiment of the present invention (e.g., the imaging device 10 or the PC 50) stores position information indicating the position of a predetermined pattern (e.g., the bright spot 35 or the QR code 40) in an input captured image, and sets a processing target area (e.g., a mask processing area) based on the calculated positions of the multiple predetermined patterns and at least a part of the stored position information. As a result, even if a predetermined pattern cannot be recognized temporarily within the field of view, such as when the imaging device 10 is moved or an object moves and blocks the field of view of the imaging device 10, the image processing device according to the embodiment can respond to the temporary disappearance of the predetermined pattern by storing the position of the predetermined pattern once detected and using past information to infer the directional movement of the shooting field of view and estimate the position of the undetectable predetermined pattern.

また、本発明の一実施形態に係る画像処理装置(例えば、撮像装置10またはPC50)は、算出された複数の所定パターン(例えば、輝点35またはQRコード40)の位置および推定された頂点によって形成される少なくとも一つの面を含む処理対象の領域(例えば、マスク処理領域)を設定し、設定された領域に含まれる面に対して画像処理(例えば、マスク処理)を行う。これにより、実施形態に係る画像処理装置は、処理対象の領域に含まれる面に沿ってマスク処理を施すことで、隠したい立体的な領域に対するマスク処理を行うことができる。 Furthermore, an image processing device (e.g., imaging device 10 or PC 50) according to one embodiment of the present invention sets a processing target area (e.g., mask processing area) that includes at least one surface formed by the calculated positions of a plurality of predetermined patterns (e.g., bright spots 35 or QR codes 40) and the estimated vertices, and performs image processing (e.g., mask processing) on the surface included in the set area. In this way, the image processing device according to the embodiment can perform mask processing on a three-dimensional area that is to be hidden by performing mask processing along the surface included in the processing target area.

さらに、本発明の一実施形態に係る画像処理装置(例えば、撮像装置10またはPC50)において、複数の所定パターン(例えば、輝点35またはQRコード40)は、異なるパターンを含む。そして、画像処理装置は、所定パターンとともに、パターンを識別する識別子を検出し、所定の条件を満たす識別子を有する複数のグループに対して、異なる領域を設定する。これにより、実施形態に係る画像処理装置は、所定パターンとして異なるパターンを検出することで、複数の処理対象の領域に対するマスク処理を行うことができる。 Furthermore, in an image processing device (e.g., the imaging device 10 or the PC 50) according to one embodiment of the present invention, the multiple predetermined patterns (e.g., the bright spots 35 or the QR codes 40) include different patterns. The image processing device then detects an identifier that identifies the pattern along with the predetermined pattern, and sets different areas for multiple groups having identifiers that satisfy predetermined conditions. In this way, the image processing device according to the embodiment can perform mask processing on multiple areas to be processed by detecting different patterns as the predetermined pattern.

また、本発明の一実施形態に係る画像処理装置(例えば、PC50)は、入力された撮像画像をディスプレイ506(表示部の一例)に表示させ、処理対象の領域(例えば、マスク処理領域)に対する画像処理(例えば、マスク処理)の種別の選択を受け付ける。これにより、実施形態に係る画像処理装置は、撮影画像をリアルタイムで確認することができるとともに、撮影画像または処理画像を確認しながら処理の修正等を行うことができる。 In addition, the image processing device (e.g., PC 50) according to one embodiment of the present invention displays the input captured image on the display 506 (an example of a display unit) and accepts the selection of a type of image processing (e.g., mask processing) for the area to be processed (e.g., mask processing area). This allows the image processing device according to the embodiment to check the captured image in real time, and to make corrections to the processing while checking the captured image or the processed image.

さらに、本発明の一実施形態に係る画像処理システムは、画像処理装置(例えば、撮像装置10またはPC50)と、撮像手段の視野内に配置され、所定パターンを発生させる複数のパターン発生手段(例えば、LED装置30またはQRコード40等の画像が印刷もしくは表示された媒体)と、を備える。これにより、実施形態に係る画像処理システムは、撮影前に撮影対象から除外したい領域を、パターン発生手段の配置によって事前に指定することができる。 Furthermore, the image processing system according to one embodiment of the present invention includes an image processing device (e.g., the imaging device 10 or the PC 50), and a plurality of pattern generating means (e.g., an LED device 30 or a medium on which an image such as a QR code 40 is printed or displayed) that are arranged within the field of view of the imaging means and generate a predetermined pattern. As a result, the image processing system according to the embodiment can specify in advance, by arranging the pattern generating means, an area to be excluded from the subject to be photographed before photographing.

●補足●
上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPUおよび従来の回路モジュール等のデバイスを含むものとする。
●Additional Information●
Each function of the above-described embodiment can be realized by one or more processing circuits. Here, the "processing circuit" in the present embodiment includes a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, and devices such as an ASIC (Application Specific Integrated Circuit), a DSP (digital signal processor), an FPGA (field programmable gate array), a SOC (System on a chip), a GPU, and a conventional circuit module designed to execute each function described above.

また、上記で説明した実施形態の各種テーブルは、機械学習の学習効果によって生成されたものでもよく、関連づけられている各項目のデータを機械学習にて分類付けすることで、テーブルを使用しなくてもよい。ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり,コンピュータが,データ識別等の判断に必要なアルゴリズムを,事前に取り込まれる学習データから自律的に生成し,新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。 The various tables in the above-described embodiments may be generated by the learning effect of machine learning, and by classifying the data of each associated item by machine learning, tables may not be used. Here, machine learning is a technology for enabling a computer to acquire human-like learning capabilities, and refers to a technology in which a computer autonomously generates algorithms required for judgments such as data identification from learning data that is previously loaded, and applies these to new data to make predictions. The learning method for machine learning may be any of supervised learning, unsupervised learning, semi-supervised learning, reinforcement learning, and deep learning, or may be a combination of these learning methods, and any learning method for machine learning may be used.

これまで本発明の一実施形態に係る画像処理装置、画像処理システム、画像処理方法およびプログラムについて説明してきたが、本発明は上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 So far, we have described an image processing device, an image processing system, an image processing method, and a program according to one embodiment of the present invention, but the present invention is not limited to the above-described embodiment, and can be modified within the scope of what a person skilled in the art can imagine, such as adding, modifying, or deleting other embodiments, and any aspect is within the scope of the present invention as long as it achieves the functions and effects of the present invention.

10 撮像装置(画像処理装置の一例)
14 撮像処理部(撮像手段の一例)
15 画像入力部(画像入力手段の一例)
17 検出部(検出手段の一例)
18 算出部(算出手段の一例)
19 判断部(決定手段の一例)
21 推定部(推定手段の一例)
22 領域設定部(領域設定手段の一例)
23 画像処理部(画像処理手段の一例)
30 LED装置(パターン発生手段の一例)
40 QRコード(パターン発生手段の一例)
50 PC(画像処理装置の一例)
51 通信部(画像入力手段の一例)
52 受付部(受付手段の一例)
53 表示制御部(表示制御手段の一例)
55 検出部(検出手段の一例)
57 判断部(決定手段の一例)
58 推定部(推定手段の一例)
59 領域設定部(領域設定手段の一例)
61 画像処理部(画像処理手段の一例)
506 ディスプレイ(表示部の一例)
1000 記憶部(記憶手段の一例)
5000 記憶部(記憶手段の一例)
10 Imaging device (an example of an image processing device)
14 Imaging processing unit (an example of an imaging means)
15 Image input unit (an example of an image input means)
17 Detection unit (an example of a detection means)
18 Calculation unit (an example of a calculation means)
19 Judgment unit (an example of a decision means)
21 Estimation unit (an example of an estimation means)
22 Region setting unit (an example of a region setting means)
23 Image processing unit (an example of an image processing means)
30 LED device (an example of a pattern generating means)
40 QR code (an example of a pattern generating means)
50 PC (an example of an image processing device)
51 Communication unit (an example of an image input means)
52 Reception unit (an example of a reception means)
53 Display control unit (an example of a display control means)
55 Detection unit (an example of a detection means)
57 Judgment unit (an example of a decision means)
58 Estimation unit (an example of an estimation means)
59 Region setting unit (an example of a region setting means)
61 Image processing unit (an example of an image processing means)
506 Display (an example of a display unit)
1000 Storage unit (an example of a storage means)
5000 Memory unit (an example of a memory means)

特開2016-133908号公報JP 2016-133908 A

Claims (14)

撮像画像の入力を受ける画像入力手段と、
入力された前記撮像画像に示される所定パターンの位置を算出する算出手段と、
算出された複数の所定パターンの位置に基づいて形成される特定の形状を補完する頂点を推定する推定手段と、
算出された複数の所定パターンの位置、および推定された前記頂点に基づいて、処理対象の領域を設定する領域設定手段と、
設定された前記領域に対して画像処理を行う画像処理手段と、
入力された前記撮像画像における所定パターンの位置を示す位置情報を記憶する記憶手段と、
を備え、
前記領域設定手段は、算出された複数の所定パターンの位置と、記憶された前記位置情報の少なくとも一部とに基づいて、前記領域を設定する、画像処理装置。
an image input means for receiving an input of a captured image;
A calculation means for calculating a position of a predetermined pattern shown in the input captured image;
an estimation means for estimating vertices that complement a specific shape formed based on the calculated positions of the plurality of predetermined patterns;
a region setting means for setting a processing target region based on the calculated positions of a plurality of predetermined patterns and the estimated vertices;
an image processing means for performing image processing on the set area;
a storage means for storing position information indicating a position of a predetermined pattern in the input captured image;
Equipped with
The area setting means sets the area based on the calculated positions of a plurality of predetermined patterns and at least a part of the stored position information.
請求項1に記載の画像処理装置であって、更に、
算出された複数の所定パターンの位置に基づいて、前記特定の形状を決定する決定手段を備え、
前記推定手段は、決定された前記特定の形状を形成するために不足する頂点を推定する画像処理装置。
2. The image processing device according to claim 1, further comprising:
a determining means for determining the specific shape based on the calculated positions of a plurality of predetermined patterns;
The estimation means is an image processing device that estimates vertices that are missing for forming the determined specific shape.
前記領域設定手段は、算出された複数の所定パターンの位置および推定された前記頂点によって形成される少なくとも一つの面を含む前記領域を設定し、
前記画像処理手段は、設定された前記領域に含まれる面に対して画像処理を行う請求項1又は2に記載の画像処理装置。
the area setting means sets the area including at least one surface formed by the calculated positions of the plurality of predetermined patterns and the estimated vertices;
3. The image processing apparatus according to claim 1 , wherein the image processing means performs image processing on a surface included in the set area.
前記所定パターンは、一次元コード、二次元コードもしくは特定の画像、または輝点のパターンもしくは複数の画像にわたる輝点の時間的パターンである請求項1乃至のいずれか一項に記載の画像処理装置。 The image processing device according to claim 1 , wherein the predetermined pattern is a one-dimensional code, a two-dimensional code, or a specific image, or a pattern of bright spots or a temporal pattern of bright spots across a plurality of images. 前記領域は、前記複数の所定パターンの位置および前記頂点を結んで画定される多角形を包含する領域、または前記複数の所定パターンの位置および前記頂点の凸包を包含する領域を含む請求項1乃至のいずれか一項に記載の画像処理装置。 5 . The image processing device according to claim 1 , wherein the region includes a region that includes a polygon defined by connecting the positions of the plurality of predetermined patterns and the vertices, or a region that includes a convex hull of the positions of the plurality of predetermined patterns and the vertices. 前記画像処理は、ぼかし、所定の色もしくは画像パターンでの塗りつぶし、モザイク処理および図形オブジェクトでの上書きのうちの少なくとも一つのマスク処理である請求項1乃至のいずれか一項に記載の画像処理装置。 The image processing device according to claim 1 , wherein the image processing is at least one of mask processing including blurring, filling with a predetermined color or image pattern, mosaic processing, and overwriting with a graphic object. 入力された前記撮像画像は、全天球画像である請求項1乃至のいずれか一項に記載の画像処理装置。 The image processing device according to claim 1 , wherein the input captured image is a spherical image. 前記複数の所定パターンは、異なるパターンを含み、更に、
入力された前記撮像画像に示される所定パターンを検出する検出手段を備え、
前記検出手段は、パターンを識別する識別子を検出し、
前記領域設定手段は、所定の条件を満たす識別子を有する複数のグループに対して、異なる領域を設定する請求項1乃至のいずれか一項に記載の画像処理装置。
The plurality of predetermined patterns includes different patterns, and further
a detection means for detecting a predetermined pattern shown in the input captured image,
The detection means detects an identifier that identifies a pattern,
The image processing device according to claim 1 , wherein the region setting means sets different regions for a plurality of groups having identifiers that satisfy a predetermined condition.
請求項1乃至のいずれか一項に記載の画像処理装置であって、更に、
前記撮像画像を取得する撮像手段を備え、
前記画像入力手段は、取得された前記撮像画像を入力する画像処理装置。
The image processing device according to any one of claims 1 to 8 , further comprising:
an imaging means for acquiring the captured image,
The image input means is an image processing device that inputs the captured image.
請求項1乃至のいずれか一項に記載の画像処理装置であって、更に、
入力された前記撮像画像を表示部に表示させる表示制御手段と、
前記領域に対する画像処理の種別の選択を受け付ける受付手段と、
を備える画像処理装置。
The image processing device according to any one of claims 1 to 8 , further comprising:
A display control means for displaying the input captured image on a display unit;
A reception means for receiving a selection of a type of image processing for the area;
An image processing device comprising:
請求項1乃至のいずれか一項に記載の画像処理装置を備える画像処理システムであって、
前記撮像画像を取得する撮像手段と、
前記撮像手段の視野内に配置され、前記所定パターンを発生させる複数のパターン発生手段と、
を備える画像処理システム。
An image processing system comprising the image processing device according to any one of claims 1 to 8 ,
An imaging means for acquiring the captured image;
a plurality of pattern generating means arranged within a field of view of the imaging means and configured to generate the predetermined patterns;
An image processing system comprising:
前記パターン発生手段は、輝点を発光する発光装置、または一次元コード、二次元コードもしくは特定の画像が印刷もしくは表示された媒体である請求項11に記載の画像処理システム。 12. The image processing system according to claim 11 , wherein the pattern generating means is a light emitting device that emits a bright spot, or a medium on which a one-dimensional code, a two-dimensional code, or a specific image is printed or displayed. 画像処理装置が実行する画像処理方法であって、
撮像画像の入力を受ける画像入力ステップと、
入力された前記撮像画像に示される所定パターンの位置を算出する算出ステップと、
算出された複数の所定パターンの位置に基づいて形成される特定の形状を補完する頂点を推定する推定ステップと、
算出された複数の所定パターンの位置、および推定された前記頂点に基づいて、処理対象の領域を設定する領域設定ステップと、
設定された前記領域に対して画像処理を行う画像処理ステップと、
入力された前記撮像画像における所定パターンの位置を示す位置情報を記憶する記憶ステップと、
を実行し、
前記領域設定ステップは、算出された複数の所定パターンの位置と、記憶された前記位置情報の少なくとも一部とに基づいて、前記領域を設定する、画像処理方法。
An image processing method executed by an image processing device, comprising:
an image input step of receiving an input of a captured image;
A calculation step of calculating a position of a predetermined pattern shown in the input captured image;
an estimation step of estimating vertices that complement a specific shape formed based on the calculated positions of the plurality of predetermined patterns;
a region setting step of setting a processing target region based on the calculated positions of the plurality of predetermined patterns and the estimated vertices;
an image processing step for performing image processing on the set area;
a storage step of storing position information indicating a position of a predetermined pattern in the input captured image;
Run
The image processing method , wherein the area setting step sets the area based on the calculated positions of a plurality of predetermined patterns and at least a part of the stored position information.
画像処理装置に、
撮像画像の入力を受ける画像入力ステップと、
入力された前記撮像画像に示される所定パターンの位置を算出する算出ステップと、
算出された複数の所定パターンの位置に基づいて形成される特定の形状を補完する頂点を推定する推定ステップと、
算出された複数の所定パターンの位置、および推定された前記頂点に基づいて、処理対象の領域を設定する領域設定ステップと、
設定された前記領域に対して画像処理を行う画像処理ステップと、
入力された前記撮像画像における所定パターンの位置を示す位置情報を記憶する記憶ステップと、
を実行させ、
前記領域設定ステップは、算出された複数の所定パターンの位置と、記憶された前記位置情報の少なくとも一部とに基づいて、前記領域を設定する、プログラム。
The image processing device includes:
an image input step of receiving an input of a captured image;
a calculation step of calculating a position of a predetermined pattern shown in the input captured image;
an estimation step of estimating vertices that complement a specific shape formed based on the calculated positions of the plurality of predetermined patterns;
a region setting step of setting a processing target region based on the calculated positions of the plurality of predetermined patterns and the estimated vertices;
an image processing step for performing image processing on the set area;
a storage step of storing position information indicating a position of a predetermined pattern in the input captured image;
Run the command,
The area setting step sets the area based on the calculated positions of a plurality of predetermined patterns and at least a part of the stored position information.
JP2020094123A 2020-05-29 2020-05-29 Image processing device, image processing system, image processing method and program Active JP7494573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020094123A JP7494573B2 (en) 2020-05-29 2020-05-29 Image processing device, image processing system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020094123A JP7494573B2 (en) 2020-05-29 2020-05-29 Image processing device, image processing system, image processing method and program

Publications (2)

Publication Number Publication Date
JP2021190826A JP2021190826A (en) 2021-12-13
JP7494573B2 true JP7494573B2 (en) 2024-06-04

Family

ID=78847546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020094123A Active JP7494573B2 (en) 2020-05-29 2020-05-29 Image processing device, image processing system, image processing method and program

Country Status (1)

Country Link
JP (1) JP7494573B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023077527A (en) * 2021-11-25 2023-06-06 株式会社大一商会 game machine

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250601A (en) 2012-05-30 2013-12-12 Seiko Epson Corp Intrusion detection device, robot system, intrusion detection method, and intrusion detection program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250601A (en) 2012-05-30 2013-12-12 Seiko Epson Corp Intrusion detection device, robot system, intrusion detection method, and intrusion detection program

Also Published As

Publication number Publication date
JP2021190826A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
JP6948175B2 (en) Image processing device and its control method
CN101542538B (en) Method and system for modeling light
JP6220486B1 (en) 3D model generation system, 3D model generation method, and program
US11004267B2 (en) Information processing apparatus, information processing method, and storage medium for generating a virtual viewpoint image
KR20180015120A (en) Automated three-dimensional model generation
WO2019035155A1 (en) Image processing system, image processing method, and program
JP2010109783A (en) Electronic camera
CN109668545B (en) Positioning method, positioner and positioning system for head-mounted display device
KR20150012274A (en) Operating a computing device by detecting rounded objects in image
CN113240615B (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN108985263B (en) Data acquisition method and device, electronic equipment and computer readable medium
US10845188B2 (en) Motion capture from a mobile self-tracking device
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
US20160156844A1 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
JP2021523488A (en) Methods for calculating spatial coordinates of regions of interest, systems and non-transient computer-readable recording media
JP7494573B2 (en) Image processing device, image processing system, image processing method and program
CN110737326A (en) Virtual object display method and device, terminal equipment and storage medium
TWI696147B (en) Method and system for rendering a panoramic image
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2021129293A (en) Image processing apparatus, image processing system, image processing method, and program
KR101237975B1 (en) Image processing apparatus
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
CN117173756A (en) Augmented reality AR system, computer equipment and storage medium
JP4505616B2 (en) Eigenspace learning device, eigenspace learning method, and eigenspace program
JP6859763B2 (en) Program, information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230227

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240506

R150 Certificate of patent or registration of utility model

Ref document number: 7494573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150