JP2019057849A - Program, information processing apparatus, and image processing system - Google Patents

Program, information processing apparatus, and image processing system Download PDF

Info

Publication number
JP2019057849A
JP2019057849A JP2017181828A JP2017181828A JP2019057849A JP 2019057849 A JP2019057849 A JP 2019057849A JP 2017181828 A JP2017181828 A JP 2017181828A JP 2017181828 A JP2017181828 A JP 2017181828A JP 2019057849 A JP2019057849 A JP 2019057849A
Authority
JP
Japan
Prior art keywords
image
output
input image
similarity
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017181828A
Other languages
Japanese (ja)
Other versions
JP7124281B2 (en
Inventor
陽子 杉浦
Yoko Sugiura
陽子 杉浦
荒木 禎史
Sadafumi Araki
禎史 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017181828A priority Critical patent/JP7124281B2/en
Publication of JP2019057849A publication Critical patent/JP2019057849A/en
Application granted granted Critical
Publication of JP7124281B2 publication Critical patent/JP7124281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a program for allowing update of an image to be output during imaging.SOLUTION: There is provided a program for causing an information processing apparatus to function as image acquisition means that acquires an image picked up by an imaging device as an input image; subject image determination means that determines whether the input image acquired by the image acquisition means is an image of a subject; determination means that, when the input image is determined to be the image of the subject, determines to output the input image, and when the input image is determined not to be the image of the subject, determines to output an output image output to the outside; and output means that outputs the input image or the output image according to a result of determination made by the determination means.SELECTED DRAWING: Figure 3

Description

本発明は、プログラム、情報処理装置、及び、画像処理システムに関する。   The present invention relates to a program, an information processing apparatus, and an image processing system.

同じ場所から同じ方向を撮像装置が周期的に撮像して、撮像範囲の現在の状況をリアルタイムに提供するサービスがある。監視カメラや消費者の行動調査などでは人物などの動体の動向が観測対象になるが、人物などの動体以外の背景が観測対象となる場合も少なくない。   There is a service in which an imaging device periodically captures the same direction from the same place and provides the current state of the imaging range in real time. In surveillance cameras and consumer behavior surveys, the trend of moving objects such as people is the object of observation, but the background other than moving objects such as persons is often the object of observation.

背景が観測対象となるケースの一例として、EC(Electronic Commerce)サイト向けに実店舗の商品棚の画像をリアルタイムに、ユーザである商品の購入者等の端末装置に配信することが検討されている。ECサイトのユーザは実際の商品棚を端末装置で見ることができるため、通信販売でありながら臨場感のある買い物を楽しむことができる。しかし、実店舗の内部が撮像された画像には商品棚の前にいる来客者が写っている場合が少なくない。来客者が写っている画像をそのまま提供することはプライバシーの保護に欠け、また、商品が来客者で隠れた画像が端末装置に提供されるとユーザが商品を閲覧できなくなる。   As an example of a case where the background is an object of observation, it is considered to distribute an image of a product shelf in an actual store to a terminal device such as a product purchaser who is a user for an EC (Electronic Commerce) site in real time. . Since the user of the EC site can see the actual product shelves with the terminal device, he / she can enjoy shopping with a sense of reality even though it is mail order. However, there are many cases where a customer in front of a product shelf is shown in an image of the inside of an actual store. Providing an image showing a visitor as it is lacks privacy protection, and if an image in which the product is hidden by the visitor is provided to the terminal device, the user cannot view the product.

そこで、撮像された画像から背景以外の動体を除去する技術が知られている(例えば、特許文献1参照。)。特許文献1には、動体が映されたフレームを検出する動体検出部と、動体が検出されなくなった検出後フレームと検出後フレームより前の動体が検出された各検出フレームとを比較していくことによって、検出フレームから画情報が描画された検出フレームを更新フレームとして特定し、描画された画情報の領域を特定する描画フレーム特定部と、検出フレームを検出フレームの前のフレームで置き換え、検出フレームが画情報の描画された更新フレームである場合、対応する画情報の領域を検出後フレームの対応する領域の画像に重畳する合成処理部と、を備えた映像編集装置が開示されている。   Therefore, a technique for removing moving objects other than the background from the captured image is known (for example, see Patent Document 1). In Patent Document 1, a moving object detection unit that detects a frame in which a moving object is displayed is compared with a detected frame in which a moving object is no longer detected and each detection frame in which a moving object before the detected frame is detected. Thus, the detection frame in which the image information is drawn from the detection frame is specified as the update frame, the drawing frame specifying unit for specifying the area of the drawn image information, and the detection frame is replaced with the frame before the detection frame, and the detection is performed. There is disclosed a video editing apparatus including a synthesis processing unit that superimposes a corresponding image information area on an image in a corresponding area of a detected frame when the frame is an update frame in which the image information is drawn.

しかながら、従来の技術は、ある程度の期間の時系列の画像から動体を除去する技術であるため、撮像しながら出力する画像を更新することができないという問題があった。例えば、従来の技術は、動体が検出されなくなった検出後フレームが検出された時点から過去にさかのぼって動体の消去や画情報の描画の合成処理を行う方式であるため、人物がいなくなるまでホワイトボードなどに手書きされた画情報が表示されない。   However, since the conventional technique is a technique that removes moving objects from a time-series image for a certain period, there is a problem in that an image output while imaging cannot be updated. For example, the conventional technology is a method of performing a process of erasing a moving object and drawing image information from the time when a post-detection frame in which a moving object is no longer detected is detected. Handwritten image information is not displayed.

本発明は、上記課題に鑑み、撮像しながら出力する画像を更新することができるプログラムを提供することを目的とする。   An object of this invention is to provide the program which can update the image output, imaging in view of the said subject.

本発明は、情報処理装置を、撮像装置が撮像した画像を入力画像として取得する画像取得手段と、前記画像取得手段が取得した前記入力画像が被写体の画像か否かを判断する被写体画像判断手段と、前記入力画像が被写体の画像であると判断した場合に、前記入力画像を出力すると判断し、被写体の画像でないと判断した場合に外部に出力された出力画像を出力すると判断する判断手段と、前記判断手段の判断結果に応じて、前記入力画像又は前記出力画像を出力する出力手段、として機能させるためのプログラムを提供する。   The present invention relates to an information processing device, an image acquisition unit that acquires an image captured by an imaging device as an input image, and a subject image determination unit that determines whether the input image acquired by the image acquisition unit is an image of a subject. And determining means for determining that the input image is to be output when it is determined that the input image is an image of a subject, and for outputting an output image output to the outside when it is determined that the input image is not an image of a subject. A program for functioning as an output unit that outputs the input image or the output image according to the determination result of the determination unit is provided.

撮像しながら出力する画像を更新することができるプログラムを提供することができる。   It is possible to provide a program that can update an output image while imaging.

時系列に撮像された商品棚の画像と動体の除去処理を説明する図の一例である。It is an example of the figure explaining the removal process of the image of the goods shelf imaged in time series, and a moving body. 周期的に撮像された画像がどのように変化するかを説明する図の一例である。It is an example of the figure explaining how the image imaged periodically changes. 時系列の入力画像とその中から出力される出力画像を説明する図の一例である。It is an example of the figure explaining the time series input image and the output image output from it. 画像処理システムの概略構成図の一例である。1 is an example of a schematic configuration diagram of an image processing system. 店舗のイメージと撮像装置の配置例の一例を説明する図である。It is a figure explaining an example of arrangement of a store image and an imaging device. 撮像装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an imaging device. 無線通信機能を有したクレードルの場合の通信端末のハードウェア構成図の一例である。It is an example of the hardware block diagram of the communication terminal in the case of the cradle with a wireless communication function. 画像管理装置及び端末装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an image management apparatus and a terminal device. 画像処理システムが有する、撮像装置、通信端末、画像管理装置、及び端末装置の各機能ブロック図の一例である。It is an example of each functional block diagram of an imaging device, a communication terminal, an image management device, and a terminal device that the image processing system has. 分割後の画像の大きさを説明する図の一例である。It is an example of the figure explaining the magnitude | size of the image after a division | segmentation. 類似度に基づく出力画像の決定方法について説明する図の一例である。It is an example of the figure explaining the determination method of the output image based on similarity. 画像処理システムが画像を提供する全体的な手順を示すシーケンス図の一例である。It is an example of the sequence diagram which shows the whole procedure in which an image processing system provides an image. 端末装置が表示した店舗一覧画面の一例を示す図である。It is a figure which shows an example of the shop list screen which the terminal device displayed. 端末装置が表示した商品画面の一例を示す図である。It is a figure which shows an example of the goods screen which the terminal device displayed. 画像管理装置が出力画像を決定する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which an image management apparatus determines an output image. 画像処理システムが解決する不都合を説明する図の一例である。It is an example of the figure explaining the inconvenience which an image processing system solves. 類似度に基づく出力画像の決定方法について説明する図の一例である(実施例2)。FIG. 10 is an example of a diagram illustrating a method for determining an output image based on similarity (second embodiment). 類似度に基づく出力画像の決定方法について説明する図の一例である(実施例2)。FIG. 10 is an example of a diagram illustrating a method for determining an output image based on similarity (second embodiment). 画像処理システムが出力画像を更新する手順を説明するフローチャート図の一例である(実施例2)。FIG. 10 is an example of a flowchart for explaining a procedure for updating an output image by the image processing system (second embodiment); 画像処理システムが有する、撮像装置、通信端末、画像管理装置、及び端末装置の各機能ブロック図の一例である(実施例3)。FIG. 10 is an example of a functional block diagram of an imaging device, a communication terminal, an image management device, and a terminal device included in an image processing system (third embodiment). 拡張処理を説明する図の一例である。It is an example of the figure explaining an expansion process. 8近傍拡張処理の好適例を説明する図の一例である。It is an example of the figure explaining the suitable example of 8 neighborhood expansion processing. 拡張処理部が分割後の画像に対し拡張処理を行うフローチャート図の一例である。It is an example of the flowchart figure which an expansion process part performs an expansion process with respect to the image after a division | segmentation. 画像処理システムが有する、撮像装置、通信端末、画像管理装置、及び端末装置の各機能ブロック図の一例である(実施例4)。FIG. 10 is an example of a functional block diagram of an imaging device, a communication terminal, an image management device, and a terminal device included in an image processing system (Example 4). 学習モデルを用いた出力画像の決定方法について説明する図の一例である。It is an example of the figure explaining the determination method of the output image using a learning model. 学習モデルが入力画像を破棄する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which a learning model discards an input image. 学習モデルを用いた出力画像の決定方法について説明する図の一例である。It is an example of the figure explaining the determination method of the output image using a learning model. 画像管理装置が出力画像を決定する手順を示すフローチャート図の一例である(実施例4)。FIG. 10 is an example of a flowchart illustrating a procedure for determining an output image by an image management apparatus (Example 4).

以下、本発明を実施するための形態について図面を参照しながら実施例を挙げて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<画像から動体を除去する画像処理の比較例>
本実施形態を説明するに当たって、画像から動体を除去する動体除去の比較例を説明する。
<Comparative example of image processing for removing moving objects from an image>
In describing this embodiment, a comparative example of moving object removal for removing a moving object from an image will be described.

図1は、時系列に撮像された商品棚81の画像と動体の除去処理を説明する図の一例である。撮像装置は商品棚の少なくとも一部を撮像する位置に配置され、周期的に商品棚を撮像している。このように同じ場所で撮像装置1が撮像することを定点観測という場合がある。撮像の時間間隔は、商品棚が変化した場合にいつまでも古い画像を提供することなく早期に画像を提供できる時間間隔であり、商品が売れる早さなどを考慮して決定される。このような映像配信をリアルタイム配信又はライブ配信などという。また、時間間隔の決定に当たっては、ネットワークの帯域や画像処理等の処理負荷が考慮される。時間間隔は短い方が、リアルタイム性が増すが、それほど短時間に商品棚は変化しない場合、処理負荷も増大してしまう。以上から、あくまで一例として本実施形態では時間間隔を1秒とするが、30フレーム/secのように短い時間間隔で撮像してもよいし、2〜10フレーム/secで撮像してもよいし、1分以上を時間間隔としてもよい。   FIG. 1 is an example of a diagram illustrating an image of a product shelf 81 captured in time series and a moving object removal process. The imaging device is arranged at a position for imaging at least a part of the product shelf, and periodically images the product shelf. In this way, imaging by the imaging apparatus 1 at the same place may be referred to as fixed point observation. The imaging time interval is a time interval at which an image can be provided early without providing an old image indefinitely when the product shelf changes, and is determined in consideration of the speed with which the product can be sold. Such video distribution is called real-time distribution or live distribution. In determining the time interval, network bandwidth and processing load such as image processing are taken into consideration. The shorter the time interval, the greater the real-time property, but if the product shelf does not change in such a short time, the processing load also increases. From the above, as an example, in this embodiment, the time interval is 1 second. However, the image may be captured at a short time interval such as 30 frames / sec, or may be captured at 2-10 frames / sec. One minute or more may be set as the time interval.

図1(a)は時系列に撮像された商品棚81の画像を示す。画像83_1、画像83_2、画像83_4及び画像83_5には変化がないが、画像83_3には人物82が写っている。画像処理システムが画像83_3を提供する際、人物82を除去するが、人物82を除去する方法としては、過去の所定時間の画像の画素ごとに平均を取って平均画像を作成する方法が考えられる。人物82の滞留時間を1秒、所定時間を例えば30秒とすると画像83_3が平均画像に与える影響は1/30になるので、人物82が写っていない平均画像が得られる。   Fig.1 (a) shows the image of the goods shelf 81 imaged in time series. There is no change in the image 83_1, the image 83_2, the image 83_4, and the image 83_5, but the person 82 is shown in the image 83_3. When the image processing system provides the image 83_3, the person 82 is removed. As a method for removing the person 82, an average image is created by taking an average for each pixel of the image for a predetermined time in the past. . If the staying time of the person 82 is 1 second and the predetermined time is 30 seconds, for example, the influence of the image 83_3 on the average image is 1/30, so an average image in which the person 82 is not shown is obtained.

しかしながら、店舗内の人物82は単に通過する場合よりも商品を物色するために同じ商品棚81の前で少なくとも数秒は滞留する。このため、平均画像に半透明の人物82が写ってしまう。図1(b)はこの半透明の人物82が写っている平均画像84を模式的に示す図である。より具体的には、人物82が写っている画像の比率が多くなるにつれて時間と共に徐々に半透明の人物82が濃くなり、また、比率が少なくなるにつれて時間と共に徐々に半透明の人物82が薄くなっていく。平均に用いる画像の数を多くすれば人物82を除去できるが、商品の変化が画像に反映されるのも遅くなってしまう。   However, the person 82 in the store stays for at least a few seconds in front of the same merchandise shelf 81 to color the merchandise rather than simply passing through. For this reason, the translucent person 82 appears in the average image. FIG. 1B schematically shows an average image 84 in which the translucent person 82 is shown. More specifically, the translucent person 82 gradually becomes darker with time as the ratio of images in which the person 82 is captured increases, and the translucent person 82 gradually becomes thinner with time as the ratio decreases. It will become. If the number of images used for the average is increased, the person 82 can be removed, but the change of the product is also reflected in the image later.

このように、平均画像による動体の除去は、平均画像の母数となる画像数に比べ人物82が写っている画像の数が少なければ有効な場合があるが、商品を物色する人物82が写る店舗内では好適でない場合がある。   As described above, the removal of moving objects by the average image may be effective if the number of images in which the person 82 is captured is smaller than the number of images that is a parameter of the average image, but the person 82 who looks at the product is captured. It may not be suitable in the store.

<本実施形態が着目する画像の変化例>
そこで、本実施形態では実際に出力した出力画像と撮像された入力画像を比較して人物82のような動体を検出し、動体が検出された場合は動体が検出されていない過去の出力画像を出力する動体除去方法で動体を除去する。出力画像とはユーザに提供される画像又は表示される画像であり、入力画像とは撮像された画像である。
<Example of Image Change Focused on by this Embodiment>
Therefore, in the present embodiment, a moving object such as the person 82 is detected by comparing the actually output output image and the captured input image. If a moving object is detected, a past output image in which no moving object is detected is detected. The moving object is removed by the moving object removing method to be output. An output image is an image provided to a user or an image to be displayed, and an input image is a captured image.

図2は、周期的に撮像された画像がどのように変化するかを説明する図の一例であり、図3は、時系列の入力画像とその中から出力される出力画像を説明する図の一例である。図2では、ドリンク類が置かれた商品棚81が周期的に撮像された画像の変化を示す。なお、画像はブロックに分割された状態で処理されるが、ブロックへの分割については後述する。   FIG. 2 is an example of a diagram illustrating how an image captured periodically changes, and FIG. 3 is a diagram illustrating a time-series input image and an output image output from the time-series input image. It is an example. FIG. 2 shows a change in an image in which the product shelf 81 on which drinks are placed is periodically imaged. The image is processed in a state of being divided into blocks, and the division into blocks will be described later.

図2では時間の経過に対する出力画像と入力画像の類似度(0〜1の値を取り値が大きいほど類似度が高い)85とその時の画像例を示す。   FIG. 2 shows the degree of similarity between the output image and the input image with respect to the passage of time (takes a value of 0 to 1 and the higher the value, the higher the degree of similarity) 85 and an image example at that time.

時刻t:商品棚81が撮像され、商品が写った入力画像86(以下、時刻t〜tを付して区別する)が得られる。出力画像は入力画像86_tである。 Time t 0 : The product shelf 81 is imaged, and an input image 86 in which the product is reflected (hereinafter, distinguished by attaching time t 0 to t n ) is obtained. The output image is the input image 86_t 0.

時刻t:商品が写った入力画像86_tが得られるが、直前の入力画像86_tに対し変化がなく類似度はほぼ1である。出力画像は入力画像86_tである。 Time t 1 : An input image 86_t 1 showing a product is obtained, but there is no change with respect to the immediately preceding input image 86_t 0 and the similarity is almost 1. The output image is the input image 86_t 1.

時刻t:人物82が撮像範囲に入っため、人物82が写った入力画像86_tが得られる。また、類似度が大きく低下したため、時刻t1の出力画像は更新されない。この処理については図3で説明する。 Time t 2: Because the person 82 enters the imaging range, the input image 86_T 2 a person 82 is reflected is obtained. Also, since the similarity is greatly reduced, the output image at time t1 is not updated. This process will be described with reference to FIG.

時刻t:引き続き人物82が撮像されているため人物82が写った入力画像86_tが得られる。また、類似度が大きく低下したため、時刻t1の出力画像は更新されない。 Time t 3 : Since the person 82 is continuously imaged, an input image 86_t 3 in which the person 82 is captured is obtained. Also, since the similarity is greatly reduced, the output image at time t1 is not updated.

時刻t:引き続き人物82が撮像されているため人物82が写った入力画像86_tが得られる。また、類似度が大きく低下したため、時刻tの出力画像は更新されない。 Time t 4 : Since the person 82 is continuously imaged, an input image 86_t 4 in which the person 82 is captured is obtained. Further, since the degree of similarity is greatly reduced, the output image at time t 1 is not updated.

時刻t:撮像される人物82の部位が変動しても引き続き人物82が撮像されているため、人物82が写った入力画像86_tが得られる。類似度は変動するが低下したままであり、時刻tの出力画像は更新されない。 Time t 5 : Since the person 82 is continuously imaged even if the part of the person 82 to be imaged changes, an input image 86_t 5 in which the person 82 is captured is obtained. Similarity varies but remains lowered, the output image at time t 1 is not updated.

時刻t:人物82が撮像範囲から立ち去ると商品棚81が写った入力画像86_tが撮像される。類似度が高くなるため、出力画像は入力画像86_tに更新される。しかし、時刻tで商品が1つなくなっているため、類似度はわずかに1より小さくなる。 Time t 6 : When the person 82 leaves the imaging range, an input image 86_t 6 in which the product shelf 81 is captured is captured. Since the degree of similarity is high, the output image is updated to the input image 86_t 6. However, since there is no product at time t 6 , the similarity is slightly less than 1.

図3(a)は時間に対する類似度85を示し、図3(b)は入力画像86_t〜86_tを示し、図3(c)は出力画像87(以下、時刻t〜tを付して区別する)を示す。本実施形態の画像処理システムが提供したい画像は商品棚81であるため、人物82が写っている入力画像86_t〜86_tは除去すべきである。除去すべき画像であることは類似度85が閾値未満であることから判断される。 3A shows the similarity 85 with respect to time, FIG. 3B shows the input images 86_t 0 to 86_t 6 , and FIG. 3C shows the output image 87 (hereinafter, times t 0 to t n are attached). To distinguish). Since the image desired to be provided by the image processing system of the present embodiment is the product shelf 81, the input images 86_t 2 to 86_t 4 in which the person 82 is shown should be removed. The image to be removed is determined from the similarity 85 being less than the threshold.

画像処理システムは除去した入力画像86_t〜86_tの代わりに過去の出力画像を提供する。過去の出力画像は一例として最も新しい出力画像である(類似度が閾値以上の最も新しい出力画像87_tである。)。 The image processing system provides a past output image instead of the removed input images 86_t 2 to 86_t 4 . The past output image is, for example, the newest output image (the newest output image 87_t 1 whose similarity is equal to or greater than a threshold value).

このように本実施形態の画像処理システムはある入力画像に人物82が写っていたら人物82が写っていない過去の出力画像を出力する。したがって、人物82などの動体が写っている入力画像を除去して背景である商品棚81の画像を提供することができる。動体が写っている間は動体が検出される前の出力画像が表示されるので、閲覧者が商品を閲覧できないということがない。商品棚81の商品が取り出されて商品棚81の画像に変化が生じても類似度の低下はわずかなので、商品が減った商品棚の入力画像で出力画像を更新できる。   As described above, the image processing system according to the present embodiment outputs a past output image in which the person 82 is not captured if the person 82 is captured in a certain input image. Therefore, it is possible to provide an image of the commodity shelf 81 as a background by removing an input image in which a moving object such as a person 82 is captured. Since the output image before the moving object is detected is displayed while the moving object is captured, the viewer cannot browse the product. Even if the product on the product shelf 81 is taken out and the image on the product shelf 81 is changed, the decrease in the similarity is slight, so that the output image can be updated with the input image of the product shelf with the reduced number of products.

<用語について>
入力画像とは、出力されるか否かに関係なく情報処理装置に入力された画像をいう。撮像装置から受信した画像だけでなく、記憶媒体に記憶された画像でもよい。
<Terminology>
An input image refers to an image input to the information processing apparatus regardless of whether it is output. Not only the image received from the imaging device but also an image stored in a storage medium may be used.

出力画像とは外部に出力された画像であり、入力画像の全部又は一部が出力画像となる。出力先はディスプレイなどの表示装置の他、ネットワークを介して接続された情報処理装置、又は、記憶媒体でもよい。出力手段が出力することには、表示装置への出力、外部の装置への送信、及び、記憶媒体への記憶が含まれる。   An output image is an image output to the outside, and all or part of the input image becomes an output image. The output destination may be a display device such as a display, an information processing device connected via a network, or a storage medium. The output by the output means includes output to a display device, transmission to an external device, and storage in a storage medium.

動体とは、移動する機能を備えるものをいう。例えば、人間、動物、車・自転車移動体、カート(手押し車)、などがある。また、人間の移動に伴い移動するものも動体である。例えば、手提げ鞄も動体であり、人間が把持するドリンクも動体である。一方、商品としてのドリンクは移動する機能がなく人間が把持していないので動体でない。   A moving object means a thing provided with the function to move. For example, there are humans, animals, vehicles and bicycles, carts (carts). A moving object is a moving object that moves as a person moves. For example, a hand bag is a moving object, and a drink held by a human is also a moving object. On the other hand, drinks as commodities are not moving because they do not have a function to move and are not held by humans.

被写体とは写し取られる対象をいう。何が被写体であるかは撮像の目的によって決まり、変更され得る。被写体と撮像装置の間にあるものを動体と称してもよい。また、被写体は撮影対象とも呼ばれる。   A subject is an object to be copied. What is the subject depends on the purpose of imaging and can be changed. What is between the subject and the imaging device may be referred to as a moving object. The subject is also called a subject to be photographed.

背景画像とは、商品棚の画像又は動体が写っていない画像をいう。また、被写体は商品棚といった背景画像に含まれるものでもよく、背景画像が被写体を写した画像となってもよい。   A background image refers to an image of a product shelf or an image in which no moving object is shown. The subject may be included in a background image such as a product shelf, or the background image may be an image of the subject.

<システム構成例>
図4は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、端末装置7を有している。撮像装置1は設置者Xにより店舗内に設置されている。端末装置7は閲覧者Yにより操作される。
<System configuration example>
FIG. 4 is an example of a schematic configuration diagram of the image processing system 200. The image processing system 200 includes an image management device 5, an imaging device 1, a communication terminal 3, and a terminal device 7 connected via a communication network 9. The imaging device 1 is installed in the store by the installer X. The terminal device 7 is operated by the viewer Y.

通信ネットワーク9は、店舗内や閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。通信端末3や端末装置7がLANを介さずに直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。また、通信ネットワークにはWANやインターネットが含まれる。通信ネットワークは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。   The communication network 9 is constructed to include at least one of the LAN of the company to which the store Y or the viewer Y belongs, the provider network of the provider that connects the LAN to the Internet, and the line provided by the line operator. Yes. When the communication terminal 3 or the terminal device 7 is directly connected to the line telephone network or the mobile phone network without going through the LAN, it can be connected to the provider network without going through the LAN. The communication network includes a WAN and the Internet. The communication network may be constructed by either wired or wireless, and wired and wireless may be combined.

撮像装置1は、一般的な画角のカメラ(例えば、焦点距離で35mm)でもよいし一度の撮像で周囲360度を撮像し全天球画像を作成するカメラでもよい。一般的な画角と周囲360度との間の画角を撮像するカメラでもよい。ただし、画角が大きいほど少ない数の撮像装置1で広い範囲をカバーできる。   The imaging device 1 may be a camera with a general angle of view (for example, a focal length of 35 mm), or a camera that captures 360 degrees around and captures an omnidirectional image. A camera that captures an angle of view between a general angle of view and 360 degrees around may also be used. However, a wider range can be covered with a smaller number of imaging devices 1 as the angle of view increases.

撮像装置1はデジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は周期的に周囲360度を撮像する。必ずしも周期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。また、時間帯によって撮像する時間間隔を変更してもよい。例えば、商品が売れやすい時間帯(来客者が多い時間帯)は短くして、商品が売れにくい時間帯(来客者が少ない時間帯)は長くする。   The imaging device 1 may be called a digital still camera or a digital video camera. Further, when the communication terminal 3 has a camera, the communication terminal 3 can be a digital camera. In the present embodiment, in order to make the explanation easy to understand, the imaging apparatus 1 will be described as a digital camera for obtaining an omnidirectional image. The imaging device 1 periodically images around 360 degrees. The image management apparatus 5 may not necessarily be periodic, may take images irregularly, may be taken by an operation of the installer X, or may be requested from the image management apparatus 5 by the viewer Y requesting the image management apparatus 5. You may take an image with the command. Moreover, you may change the time interval imaged according to a time slot | zone. For example, the time period during which the product is easy to sell (the time period when there are many visitors) is shortened, and the time period when the product is difficult to sell (the time period when there are few visitors) is lengthened.

なお、撮像装置1は、視線方向が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。   Note that the imaging apparatus 1 may automatically capture several scenes with different line-of-sight directions and create a spherical image by combining a plurality of image data.

撮像装置1は定点観測の対象となる被写体がある場所に配置される。図4では店舗内に配置されているが一例に過ぎない。ECサイト以外の動体除去の利用シーンについては後述する。撮像装置1の数は配置場所によって様々である。一般的に、見通しのよい配置場所では少ない数でよいし、見通しの悪い配置場所では多くなる。   The imaging device 1 is arranged at a place where there is a subject to be fixed point observed. Although FIG. 4 is arranged in the store, it is only an example. The use scene for moving object removal other than the EC site will be described later. The number of the imaging devices 1 varies depending on the arrangement location. In general, a small number is sufficient for an arrangement place with a good view, and a large number is provided for an arrangement place with a poor view.

通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。   The communication terminal 3 has a communication function for connecting to the communication network 9 instead of the imaging device 1. The communication terminal 3 is a cradle for supplying power to the imaging apparatus 1 and fixing it to a store. The cradle refers to an expansion device that expands the function of the imaging device 1. The communication terminal 3 has an interface for connecting to the imaging device 1, and thus the imaging device 1 can use the function of the communication terminal 3. The communication terminal 3 performs data communication with the imaging device 1 via this interface. Then, data communication is performed with the image management apparatus 5 via the wireless router 9a and the communication network 9.

なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。   Note that when the imaging device 1 has a function of directly performing data communication with the wireless router 9a and the communication network 9, the communication terminal 3 may be omitted. Or the imaging device 1 and the communication terminal 3 may be comprised integrally.

画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び端末装置7とデータ通信を行なうことができる。画像管理装置5は画像から動体を除去する画像処理を行い、この画像をWebページとして端末装置7に提供する。したがって、画像管理装置5はWebサーバとして動作する。このWebページは、例えば店舗の商品を販売するECサイトのWebページとして利用されてよい。Webページに店舗のライブ映像が含まれるため臨場感のあるショッピングが可能になる。また、Webページは店舗内の商品棚81を監視する監視用のWebページでもよい。管理者は商品棚81の商品が少ないことを確認して補充したり、商品棚81の商品が乱れていることを確認して整列させたりすることができる。   The image management device 5 is an information processing device that functions as a server, for example, and can perform data communication with the communication terminal 3 and the terminal device 7 via the communication network 9. The image management device 5 performs image processing for removing moving objects from the image, and provides the image to the terminal device 7 as a Web page. Therefore, the image management apparatus 5 operates as a Web server. This web page may be used, for example, as a web page of an EC site that sells merchandise at a store. Since the live video of the store is included in the Web page, shopping with a sense of reality becomes possible. The web page may be a monitoring web page for monitoring the product shelf 81 in the store. The administrator can confirm that the products on the product shelf 81 are few and replenish them, or can confirm that the products on the product shelf 81 are disturbed and align them.

全天球画像が撮像される場合、画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことで全天球画像から正距円筒画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。   When an omnidirectional image is captured, OpenGL ES (API: Application Interface for 3D graphics) is installed in the image management apparatus 5. By calling OpenGL ES, an equirectangular image can be created from the omnidirectional image, or a thumbnail image of a part of the omnidirectional image (predetermined area image) can be created.

なお、画像管理装置5にはクラウドコンピューティングが適用されていてよい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。   Note that cloud computing may be applied to the image management apparatus 5. Although there is no strict definition of the physical configuration of cloud computing, the configuration of the information processing device is configured by dynamically connecting and disconnecting resources such as the CPU, RAM, and storage that make up the information processing device according to the load. In addition, a configuration in which the installation location is flexibly changed is known. In cloud computing, the image management apparatus 5 is generally virtualized. One information processing apparatus can provide a function as a plurality of image management apparatuses 5 by virtualization, or a plurality of information processing apparatuses can provide a function as one image management apparatus 5 by virtualization. . Note that the image management apparatus 5 can be provided not by cloud computing but by a single information processing apparatus.

端末装置7は、画像管理装置5から動体が除去された画像を含むWebページを取得して表示する情報処理装置である。例えば、PC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。端末装置7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。   The terminal device 7 is an information processing device that acquires and displays a Web page including an image from which a moving object has been removed from the image management device 5. For example, a PC (Personal Computer) performs data communication with the image management apparatus 5 via the communication network 9. The terminal device 7 may be a notebook PC, a tablet terminal, a PC, a PDA (Personal Digital Assistant), an electronic blackboard, a video conference terminal, a wearable PC, a game machine, a mobile phone, a car navigation system, a smartphone, or the like. Moreover, it is not restricted to these.

撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。ECサイトと通信する端末装置7は、一般の消費者が生活する場所に配置されるか、又は、一般の諸費者により携帯されてもよい。店舗を監視する端末装置7は、各店舗を統括する本社、店長の自宅、事務室、商品の配送者等に配置されるか、又は、管理者により携帯されてもよい。   The imaging device 1, the communication terminal 3, and the wireless router 9a are installed at predetermined positions by the installer X at each sales base such as a store. The terminal device 7 that communicates with the EC site may be arranged in a place where a general consumer lives or may be carried by a general consumer. The terminal device 7 that monitors a store may be arranged at a head office that supervises each store, the store manager's home, an office, a merchandise distributor, or the like, or may be carried by an administrator.

<店舗のイメージと撮像装置の配置例>
図5は、店舗2のイメージと撮像装置1の配置例の一例である。一般の店舗2では通路を挟んで商品棚81が並べられている。壁際には冷蔵庫の機能がある商品棚81にドリンク類が陳列されている場合が多い。撮像装置1は全ての商品棚81の全ての商品が撮像範囲に入るように数及び配置が決定されてもよいし、所定の1つ以上の商品が撮像範囲に入るように数及び配置が決定されてもよい。撮像装置1が全天球画像を撮像する場合、一般的な画角の撮像装置1よりも少ない数で所望の商品を撮像できる。図5では壁から1つ手前の商品棚81の上部に撮像装置1が配置されている。撮像装置1は天井に配置されてもよいし、商品棚81の中段に配置されてもよい。
<Example of store image and imaging device arrangement>
FIG. 5 is an example of an arrangement of the image of the store 2 and the imaging device 1. In a general store 2, product shelves 81 are arranged across a passage. In many cases, drinks are displayed on a product shelf 81 having a refrigerator function near the wall. The number and arrangement of the imaging device 1 may be determined so that all the products on all the product shelves 81 are in the imaging range, or the number and arrangement are determined so that one or more predetermined products are in the imaging range. May be. When the imaging device 1 captures an omnidirectional image, a desired product can be captured with a smaller number than the imaging device 1 having a general angle of view. In FIG. 5, the imaging device 1 is arranged on the upper part of the product shelf 81 just before the wall. The imaging device 1 may be arranged on the ceiling or in the middle of the product shelf 81.

<実施形態のハードウェア構成>
次に、図6〜図8を用いて、本実施形態の撮像装置1、通信端末3,端末装置7及び画像管理装置5のハードウェア構成を説明する。
<Hardware Configuration of Embodiment>
Next, the hardware configuration of the imaging device 1, the communication terminal 3, the terminal device 7, and the image management device 5 according to the present embodiment will be described with reference to FIGS.

<<撮像装置>>
図6は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した撮像装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
<< Imaging device >>
FIG. 6 is an example of a hardware configuration diagram of the imaging apparatus 1. Hereinafter, the imaging apparatus 1 is an imaging apparatus using two imaging elements, but the number of imaging elements may be three or more. Further, it is not always necessary to use an apparatus dedicated to omnidirectional imaging, and it may have substantially the same function as the imaging apparatus 1 by attaching a retrofit omnidirectional imaging unit to a normal digital camera, smartphone, or the like. .

図6に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。   As shown in FIG. 6, the imaging apparatus 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory). ) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, and antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among these, the imaging unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 103a and 103b are provided. The image sensors 103a and 103b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by a fisheye lens into image data of an electric signal and output the image data. A timing generation circuit for generating a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。   The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 103 a and 103 b of the imaging unit 101 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 105. The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Further, ROM 112, SRAM 113, DRAM 114, operation unit 115, network I / F 116, communication unit 117, and electronic compass 118 are connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒図のデータを作成する。   The image processing unit 104 takes in the image data output from the image sensors 103a and 103b through the parallel I / F bus, performs predetermined processing on the respective image data, and then combines these image data. Create equirectangular data.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   In general, the imaging control unit 105 sets a command or the like in a register group of the imaging elements 103a and 103b using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture status data of the register groups of the imaging elements 103a and 103b and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some imaging devices 1 may have a preview display function using a display or a function corresponding to moving image display. In this case, output of image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frame / min).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。   Further, as will be described later, the imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the imaging device 1 is not provided with a display unit, but may be provided with a display unit.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。   The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒図のデータを記憶する。   The CPU 111 controls the overall operation of the imaging apparatus 1 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed equirectangular figure data.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。   The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user inputs various imaging modes, imaging conditions, and the like by operating the operation buttons.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶された正距円筒図のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。   The network I / F 116 is a generic name for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. Further, the network I / F 116 may be a network interface regardless of wireless or wired. The data of the equirectangular figure stored in the DRAM 114 is recorded on an external medium via the network I / F 116, or the communication terminal 3 via the network I / F 116 which becomes a network I / F as necessary. Or sent to an external device.

通信部117は、撮像装置1に設けられたアンテナ117aを介して、Wi-Fi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、正距円筒図のデータを通信端末3の外部装置に送信することができる。   The communication unit 117 is connected to an external device such as the communication terminal 3 through an antenna 117a provided in the imaging device 1 by a remote radio technology such as Wi-Fi (wireless fidelity), NFC, or LTE (Long Term Evolution). Communicate. The communication unit 117 can also transmit the equirectangular cylindrical data to the external device of the communication terminal 3.

電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。   The electronic compass 118 calculates the azimuth and tilt (Roll rotation angle) of the imaging device 1 from the earth's magnetism, and outputs azimuth / tilt information. This azimuth / tilt information is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image. The related information includes each data of the image capturing date and time and the data capacity of the image data.

<<通信端末>>
次に、図7を用いて、通信端末3のハードウェア構成を説明する。なお、図7は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
<< Communication terminal >>
Next, the hardware configuration of the communication terminal 3 will be described with reference to FIG. FIG. 7 is a hardware configuration diagram of the communication terminal 3 in the case of a cradle having a wireless communication function.

図7に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi-Fi(登録商標)、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。   As shown in FIG. 7, the communication terminal 3 includes a CPU 301 that controls the operation of the entire communication terminal 3, a ROM 302 that stores basic input / output programs, and a RAM (Random Access Memory) 304 that is used as a work area for the CPU 301. , Wi-Fi (registered trademark), NFC, LTE, etc., a communication unit 305 for data communication, a USB I / F 303 for wired communication with the imaging device 1, and an RTC (Real Time Clock) 306 for holding calendar and time information have.

また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。   In addition, a bus line 310 such as an address bus or a data bus for electrically connecting the above-described units is provided.

なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。   The ROM 302 stores an operating system (OS) executed by the CPU 301, other programs, and various data.

通信部305は、アンテナ305aを利用して無線通信信号により、無線ルータ9a等と通信を行う。   The communication unit 305 communicates with the wireless router 9a and the like by a wireless communication signal using the antenna 305a.

図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。   In addition to the figure, a GPS receiving unit is provided that receives GPS signals including position information (latitude, longitude, and altitude) of the communication terminal 3 by a GPS (Global Positioning Systems) satellite or IMES (Indoor Messaging System) as an indoor GPS. It may be.

<<画像管理装置、端末装置>>
図8を用いて、画像管理装置5及びノートPCの場合の端末装置7のハードウェア構成を説明する。なお、図8は、画像管理装置5及び端末装置7のハードウェア構成図である。画像管理装置5及び端末装置7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。端末装置7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
<< Image management device, terminal device >>
The hardware configuration of the terminal device 7 in the case of the image management device 5 and the notebook PC will be described with reference to FIG. FIG. 8 is a hardware configuration diagram of the image management device 5 and the terminal device 7. Since both the image management device 5 and the terminal device 7 are computers, the configuration of the image management device 5 will be described below. It is assumed that the configuration of the terminal device 7 is the same as that of the image management device 5, and even if there is a difference, there is no problem with the description of the present embodiment.

画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図8に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。   The image management apparatus 5 includes a CPU 501 that controls the operation of the entire image management apparatus 5, a ROM 502 that stores a program used to drive the CPU 501 such as an IPL, and a RAM 503 that is used as a work area for the CPU 501. Also, an HD 504 that stores various data such as a program for the image management apparatus 5 and an HDD (Hard Disk Drive) 505 that controls reading or writing of various data to the HD 504 according to the control of the CPU 501. In addition, it has a media drive 507 for controlling reading or writing (storage) of data with respect to a recording medium 506 such as a flash memory, and a display 508 for displaying various information such as a cursor, menu, window, character, or image. The display 508 is preferably equipped with a touch panel. In addition, a network I / F 509 for data communication using the communication network 9, a keyboard 511 having a plurality of keys for inputting characters, numerical values, and various instructions, selection and execution of various instructions, and a processing target A mouse 512 for selecting, moving a cursor, and the like is included. Further, it has a CD-ROM drive 514 that controls reading or writing of various data with respect to a CD-ROM (Compact Disc Read Only Memory) 513 as an example of a removable recording medium. Further, as shown in FIG. 8, a bus line 510 such as an address bus or a data bus is provided for electrically connecting the above components.

<画像処理システムの機能について>
図9は、本実施形態の画像処理システム200が有する、撮像装置1、通信端末3、画像管理装置5、及び端末装置7の各機能ブロック図である。
<Functions of image processing system>
FIG. 9 is a functional block diagram of the imaging device 1, the communication terminal 3, the image management device 5, and the terminal device 7 included in the image processing system 200 of the present embodiment.

<<撮像装置の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図6に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置1用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of imaging device >>
The imaging apparatus 1 includes a reception unit 12, an imaging unit 13, a sound collection unit 14, a connection unit 15, and a storage / readout unit 19. Each of these units is a function realized by any of the constituent elements shown in FIG. 6 being operated by a command from the CPU 111 according to the program for the imaging device 1 developed from the SRAM 113 onto the DRAM 114, or Means.

また、撮像装置1は、図6に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置1用のプログラム及び端末IDが記憶されている。   In addition, the imaging apparatus 1 includes a storage unit 1000 configured by one or more of the ROM 112, the SRAM 113, and the DRAM 114 illustrated in FIG. The storage unit 1000 stores a program for the imaging device 1 and a terminal ID.

撮像装置1の受付部12は、ユーザ(図4では、設置者X)から撮像装置1に対する操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ周期的に周囲を撮像する。周期の間隔は、設置者Xが撮像装置1に設定する。あるいは、本社の管理者である閲覧者Yが画像管理装置5を介して設定してもよい。   The receiving unit 12 of the imaging device 1 receives an operation input to the imaging device 1 from a user (installer X in FIG. 4). Note that the imaging device 1 automatically and periodically captures the surroundings without an operation for imaging by the installer X. The installation interval X is set in the imaging apparatus 1 by the installer X. Alternatively, the viewer Y who is an administrator of the head office may set the image via the image management apparatus 5.

撮像部13は、周囲を撮像して画像データを作成する。本実施形態では周囲360度が写っている全天球画像の画像データを作成するが、一般的な画角の画像データであってもよい。   The imaging unit 13 images the surroundings and creates image data. In the present embodiment, image data of an omnidirectional image in which 360 degrees around is created is created, but image data having a general angle of view may be used.

集音部14は、撮像装置1の周囲の音を集音して音声データに変換する。音声データが端末装置7に送信される場合、閲覧者Yはより臨場感がある状態でECサイトから商品を購入できる。なお、音声データにプライバシー性が高い情報が含まれる可能性があるため、音声データが送信されなくてもよい。   The sound collecting unit 14 collects sounds around the imaging device 1 and converts them into sound data. When the audio data is transmitted to the terminal device 7, the viewer Y can purchase a product from the EC site in a more realistic state. Note that since voice data may contain information with high privacy, the voice data may not be transmitted.

接続部15は、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。電力はACアダプターなど別の電源から供給されてもよい。また、撮像装置1と通信端末3は無線で通信してもよい。   The connection unit 15 receives power supply from the communication terminal 3 and performs data communication with the communication terminal 3. The power may be supplied from another power source such as an AC adapter. Further, the imaging device 1 and the communication terminal 3 may communicate wirelessly.

記憶・読出部19は、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。   The storage / reading unit 19 stores various data in the storage unit 1000 and reads various data from the storage unit 1000. In the following description, the description “via the storage / reading unit 19” may be omitted even when the imaging apparatus 1 reads / writes data from / from the storage unit 1000.

<<通信端末の機能構成>>
通信端末3は、送受信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図7に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末3用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of communication terminal >>
The communication terminal 3 includes a transmission / reception unit 31, a reception unit 32, a connection unit 33, and a storage / reading unit 39. Each of these units is a function realized by any one of the constituent elements shown in FIG. 7 being operated by a command from the CPU 301 according to the program for the communication terminal 3 expanded from the ROM 302 to the RAM 304, or Means.

また、通信端末3は、図7に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末3用のプログラムが記憶されている。   Further, the communication terminal 3 includes a storage unit 3000 constructed by the ROM 302 and the RAM 304 shown in FIG. The storage unit 3000 stores a program for the communication terminal 3.

(通信端末の各機能構成)
通信端末3の送受信部31は、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「送受信部31を介して」という記載を省略する場合がある。
(Functional configuration of communication terminal)
The transmission / reception unit 31 of the communication terminal 3 transmits / receives various data to / from the image management apparatus 5 via the wireless router 9 a and the communication network 9. In the following description, even when the communication terminal 3 communicates with the image management apparatus 5, the description “via the transmission / reception unit 31” may be omitted.

接続部33は、撮像装置1に電力供給すると共に、データ通信を行う。撮像装置1と通信端末3は無線で通信してもよい。通信端末3にはACアダプターなどから電力が供給される。   The connection unit 33 supplies power to the imaging device 1 and performs data communication. The imaging device 1 and the communication terminal 3 may communicate wirelessly. The communication terminal 3 is supplied with power from an AC adapter or the like.

記憶・読出部39は、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。   The storage / reading unit 39 stores various data in the storage unit 3000 and reads various data from the storage unit 3000. Hereinafter, even when the communication terminal 3 reads / writes data from / from the storage unit 3000, the description “through the storage / reading unit 39” may be omitted.

<<画像管理装置の機能構成>>
画像管理装置5は、送受信部51、画像分割部52、類似度算出部53、画面作成部54、判断部55、画像合成部56、及び記憶・読出部59を有している。これら各部は、図8に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置5用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of image management device >>
The image management apparatus 5 includes a transmission / reception unit 51, an image division unit 52, a similarity calculation unit 53, a screen creation unit 54, a determination unit 55, an image composition unit 56, and a storage / readout unit 59. Each of these units is a function realized by any one of the constituent elements shown in FIG. 8 operating according to a command from the CPU 501 according to the program for the image management apparatus 5 expanded from the HD 504 onto the RAM 503. Or means.

また、画像管理装置5は、図8に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、店舗管理DB5001及び分割数DB5002が構築されている。以下、各データベースについて説明する。   Further, the image management apparatus 5 includes a storage unit 5000 constructed by the RAM 503 and the HD 504 shown in FIG. In the storage unit 5000, a store management DB 5001 and a division number DB 5002 are constructed. Hereinafter, each database will be described.

Figure 2019057849
表1は、店舗管理DB5001に記憶される各情報をテーブル状に示す店舗管理テーブルを示す。店舗管理テーブルには、店舗ID、店舗名、住所、拠点レイアウトマップ、端末IDと商品、及び、画角の各項目が対応付けて記憶されている。また、店舗管理テーブルの1つの行をレコードという場合がある。
Figure 2019057849
Table 1 shows a store management table that shows each piece of information stored in the store management DB 5001 in the form of a table. In the store management table, store ID, store name, address, base layout map, terminal ID, product, and angle of view are stored in association with each other. One row of the store management table may be referred to as a record.

店舗IDは、店舗2を識別するための識別情報の一例である。店舗IDは店舗2に対し重複しないように付与される。店舗IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。なお、IDはIdentificationの略であり識別子や識別情報という意味である。IDは複数の対象から、ある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち1つ以上の組み合わせをいう。以下のIDについても同様である。   The store ID is an example of identification information for identifying the store 2. The store ID is assigned to store 2 so as not to overlap. An example of a store ID is a combination of numbers and alphabets that do not overlap. Note that ID is an abbreviation of Identification and means an identifier or identification information. ID refers to a name, a code, a character string, a numerical value, or a combination of one or more of these used to uniquely distinguish a specific target from a plurality of targets. The same applies to the following IDs.

店舗名は、店舗2の名称であり、主に閲覧者Yが店舗2を判別するために使用される。住所は店舗2の所在を示す。住所は画像処理システム200が地図上に店舗2の位置を表示する際に使用される。必要に応じて住所は緯度と経度に変換される。   The store name is the name of the store 2 and is mainly used by the viewer Y to determine the store 2. The address indicates the location of the store 2. The address is used when the image processing system 200 displays the position of the store 2 on the map. Addresses are converted to latitude and longitude as needed.

店舗レイアウトマップには、各店舗のレイアウトを示す画像データなどのファイル名が登録される。店舗レイアウトマップにより店舗2における撮像装置1の位置、及び、商品などの位置が2次元座標で特定される。   In the store layout map, file names such as image data indicating the layout of each store are registered. The position of the imaging device 1 in the store 2 and the position of the product etc. are specified by two-dimensional coordinates by the store layout map.

端末IDと商品の項目は撮像装置1と商品を対応付ける項目である。店舗レイアウトマップで商品が選択された場合に、商品に対応付けられている店舗内の撮像装置1を画像管理装置5が特定するために使用される。端末IDは、撮像装置1を識別するための識別情報である。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの店舗2には1つ以上の撮像装置1(端末ID)が設置されており、商品の位置が店舗レイアウトマップに登録されている。商品と端末IDは1対1に対応するとは限らず、1つの端末IDに複数の商品が対応付けられる場合がある。   The item of terminal ID and product is an item that associates the imaging device 1 with the product. When the product is selected on the store layout map, the image management device 5 is used for specifying the imaging device 1 in the store associated with the product. The terminal ID is identification information for identifying the imaging device 1. The terminal ID is, for example, a serial number, a serial number, a numerical value that does not overlap with the model number, an IP address, a MAC address, or the like of the imaging apparatus 1, but is not limited thereto. As shown in Table 1, one store 2 is provided with one or more imaging devices 1 (terminal IDs), and the positions of products are registered in the store layout map. The product and the terminal ID do not always correspond one-to-one, and a plurality of products may be associated with one terminal ID.

画角は、被写体である商品が写っている画角である。全天球画像には周囲の360度が写っているため、同一種の商品が写っている範囲は全天球画像の一部である。このため、商品に対応付けて画角が登録されている。画角のうちH1、V1は緯度と経度であり、同一種の商品の領域の中央の座標を示す。α1は同一種の商品の領域を画角で指定する。画角は同じ種類の商品の領域を指定する座標情報である。なお、1対の対角頂点で同一種の商品の領域を指定してもよい。画像処理システム200は全天球画像のこの画角の範囲を指定して端末装置7に送信するので、端末装置7は全天球画像を受信した直後から所定の商品の商品棚の画像を表示できる。   The angle of view is an angle of view in which the product that is the subject is shown. Since the 360-degree surrounding is shown in the omnidirectional image, the range in which the same type of product is shown is a part of the omnidirectional image. For this reason, the angle of view is registered in association with the product. Among the angles of view, H1 and V1 are latitude and longitude, and indicate the coordinates of the center of the product area of the same type. α1 designates an area of the same type of product with an angle of view. The angle of view is coordinate information that specifies an area of the same type of product. In addition, you may designate the area | region of the same kind of goods with a pair of diagonal vertex. Since the image processing system 200 designates the range of the angle of view of the omnidirectional image and transmits it to the terminal device 7, the terminal device 7 displays a product shelf image of a predetermined product immediately after receiving the omnidirectional image. it can.

Figure 2019057849
表2は、分割数DB5002に記憶される各情報をテーブル状に示す分割数テーブルを示す。分割数テーブルには全天球画像が分割される際、どのくらいの大きさに分割されるが登録されている。分割数テーブルは画角、分割数、及び、商品の各項目を有する。画角と商品は表1の店舗管理テーブルと同じものである。分割数は画角で指定される領域を縦と横それぞれ何個に分割するかを示す。表2では縦と横の分割数は同じであるが異ならせてもよい。分割数が多いほど分割後の画像の大きさは小さくなる。分割数で分割後の画像の大きさを指定するのでなく分割後の画像の大きさそのものを指定してもよい。
Figure 2019057849
Table 2 shows a division number table that shows each piece of information stored in the division number DB 5002 in a table form. In the division number table, the size of the celestial sphere image when it is divided is registered. The division number table has items of an angle of view, the number of divisions, and a product. The angle of view and the product are the same as the store management table in Table 1. The number of divisions indicates the number of vertical and horizontal divisions of the area specified by the angle of view. In Table 2, the vertical and horizontal division numbers are the same, but may be different. The larger the number of divisions, the smaller the size of the image after division. Instead of specifying the size of the divided image by the number of divisions, the size of the divided image itself may be specified.

商品ごとに分割後の画像の大きさが決定されることで、動体及び商品棚の変化を画像管理装置5が区別しやすくなり、全天球画像から動体を除去しやすくなる。詳細を図10にて説明する。なお、必ずしも商品ごとに分割後の画像の大きさを変更する必要はなく、分割後の画像の大きさは商品の種類が異なっても同じでよい。   By determining the size of the image after division for each product, the image management device 5 can easily distinguish changes in moving objects and product shelves, and the moving objects can be easily removed from the omnidirectional image. Details will be described with reference to FIG. Note that it is not always necessary to change the size of the divided image for each product, and the size of the divided image may be the same regardless of the type of product.

(画像管理装置の各機能構成)
画像管理装置5の送受信部51は、通信ネットワーク9を介して通信端末3、又は端末装置7と各種データの送受信を行う。なお、以下では、画像管理装置5が端末装置7と通信する場合でも、「送受信部51を介して」という記載を省略する場合がある。
(Each functional configuration of the image management device)
The transmission / reception unit 51 of the image management device 5 transmits / receives various data to / from the communication terminal 3 or the terminal device 7 via the communication network 9. Hereinafter, even when the image management device 5 communicates with the terminal device 7, the description “through the transmission / reception unit 51” may be omitted.

画像分割部52は、全天球画像を所定の大きさのブロックに分割する。ブロックに分割することで1枚の全天球画像に動体が全く写らないことがなくても動体を除去できる。したがって、来客者数が少ない店舗2の全天球画像は分割されなくてもよい場合がある。また、撮像装置1が撮像する画像が全天球画像でなく一般的な画角である場合、分割されなくてもよい場合がある。ブロックへの分割については図10にて説明する。   The image dividing unit 52 divides the omnidirectional image into blocks having a predetermined size. By dividing the block, it is possible to remove the moving object even if the moving object does not appear at all in one omnidirectional image. Therefore, the omnidirectional image of the store 2 with a small number of visitors may not be divided. In addition, when the image captured by the imaging apparatus 1 is not an omnidirectional image but a general angle of view, it may not be divided. The division into blocks will be described with reference to FIG.

類似度算出部53はブロックに分割された各画像について、上記した出力画像と入力画像の類似度を算出する。詳細は後述する。なお、類似度を算出するため、類似度算出部53は端末装置7に送信された出力画像を保持しておく。   The similarity calculation unit 53 calculates the similarity between the output image and the input image for each image divided into blocks. Details will be described later. In order to calculate the similarity, the similarity calculation unit 53 holds the output image transmitted to the terminal device 7.

判断部55は、類似度が閾値以上か否かを判断することで、出力画像を更新するか否かを決定する。すなわち、入力画像が被写体の画像かどうかを判断する。類似度が閾値上の場合、出力画像を現在の入力画像で更新すると決定し、類似度が閾値未満の場合、1周期前の出力画像をそのまま出力すると決定する。   The determination unit 55 determines whether or not to update the output image by determining whether or not the similarity is greater than or equal to a threshold value. That is, it is determined whether the input image is a subject image. When the similarity is above the threshold, it is determined to update the output image with the current input image, and when the similarity is less than the threshold, it is determined to output the output image one cycle before.

画像合成部56は、判断部55が出力画像に決定した分割後の画像を合成して元の全天球画像を生成する。画面作成部54は、画像データを端末装置7に送信する際に、HTMLデータ(又はXHTMLデータ)、JavaScript(登録商標)及びCSS(Cascade Style Sheet)などで端末装置7が全天球画像を表示するためのWebページを作成する。端末装置7はWebページを解析して画面を表示するため、Webページは画面情報になる。なお、本実施形態でWebページと称した場合、Webアプリにより適宜構築されるWebページが含まれるものとする。Webアプリとは、Webブラウザ上で動作するスクリプト言語(たとえばJavaScript(登録商標))によるプログラムとWebサーバ側のプログラムが協調することによって動作し、Webブラウザ上で使用されるソフトウェア又はその仕組みを言う。   The image composition unit 56 synthesizes the divided images determined by the determination unit 55 as the output image to generate the original omnidirectional image. When the screen creation unit 54 transmits image data to the terminal device 7, the terminal device 7 displays the spherical image using HTML data (or XHTML data), JavaScript (registered trademark), CSS (Cascade Style Sheet), or the like. Create a Web page to do this. Since the terminal device 7 analyzes the Web page and displays the screen, the Web page becomes screen information. Note that, when referred to as a web page in the present embodiment, it is assumed that a web page appropriately constructed by a web application is included. A web application refers to software used on a web browser or a mechanism thereof, which operates when a program in a script language (for example, JavaScript (registered trademark)) that operates on a web browser and a program on the web server side cooperate. .

記憶・読出部59は、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。   The storage / reading unit 59 stores various data in the storage unit 5000 and reads various data from the storage unit 5000. Hereinafter, even when the image management apparatus 5 reads and writes from the storage unit 5000, the description “through the storage / reading unit 59” may be omitted.

<端末装置の機能構成>
端末装置7は、送受信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図8に示されている各構成要素のいずれかが、HD504からRAM503上に展開された端末装置7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of terminal device>
The terminal device 7 includes a transmission / reception unit 71, a reception unit 72, a display control unit 73, and a storage / readout unit 79. Each of these units is a function realized by any one of the constituent elements shown in FIG. 8 being operated by a command from the CPU 501 according to the program for the terminal device 7 developed on the RAM 503 from the HD 504 or Means.

また、端末装置7は、図8に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には端末装置7用のプログラムが記憶されている。端末装置7用のプログラムは、例えばブラウザソフトウェアであるが、ブラウザソフトウェアのような通信機能を備えたアプリケーションソフトウェアでもよい。   Further, the terminal device 7 includes a storage unit 7000 constructed by the RAM 503 and the HD 504 shown in FIG. The storage unit 7000 stores a program for the terminal device 7. The program for the terminal device 7 is, for example, browser software, but may be application software having a communication function such as browser software.

(端末装置の各機能構成)
端末装置7の送受信部71は、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、端末装置7が画像管理装置5と通信する場合でも、「送受信部71を介して」という記載を省略する場合がある。
(Each functional configuration of terminal equipment)
The transmission / reception unit 71 of the terminal device 7 transmits / receives various data to / from the image management device 5 via the communication network 9. Hereinafter, even when the terminal device 7 communicates with the image management device 5, the description “through the transmission / reception unit 71” may be omitted.

受付部72は、ユーザ(図4では、閲覧者Y)からの操作入力を受け付ける。本実施形態では、商品棚81(撮像装置1)の選択、閲覧者Yが購入する商品の選択、個数の受け付け、画像の回転、及び、商品が写っている画像の拡大や縮小などを受け付ける。   The accepting unit 72 accepts an operation input from a user (browser Y in FIG. 4). In the present embodiment, selection of the product shelf 81 (imaging device 1), selection of the product purchased by the viewer Y, reception of the number, rotation of the image, enlargement or reduction of the image in which the product is reflected, and the like are received.

表示制御部73は、画像管理装置5から送信された画面情報を解釈して端末装置7のディスプレイ508に各種画面を表示させるための制御を行なう。   The display control unit 73 performs control for interpreting the screen information transmitted from the image management device 5 and displaying various screens on the display 508 of the terminal device 7.

記憶・読出部79は、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、端末装置7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。   The storage / reading unit 79 stores various data in the storage unit 7000 and reads various data from the storage unit 7000. Hereinafter, even when the terminal device 7 reads / writes data from / from the storage unit 7000, the description “through the storage / reading unit 79” may be omitted.

<画像の分割>
全天球画像は画角が広いため店舗内に動体があれば写してしまう可能性がある。店舗2への来客頻度が高い場合、動体が写っている全天球画像の頻度も多くなる。ある画像に人物82が写っていたら人物82が写っていない過去の全天球画像を出力する動体除去方法では、全く人物82が写っていない全天球画像が来客頻度に応じて過去のものになるため、時間的に古い商品棚81が表示されてしまう。このため、本実施形態では、全天球画像をブロック状に分割してから動体除去を行う。ブロックに分割すれば1つのブロックに動体が写る頻度が小さくなりそれほど古くない商品棚81の画像を出力できる。
<Image division>
Since the omnidirectional image has a wide angle of view, it may be copied if there is a moving object in the store. When the visitor frequency to the store 2 is high, the frequency of the omnidirectional image in which the moving object is reflected also increases. In the moving object removal method of outputting a past omnidirectional image in which a person 82 is not reflected in a certain image, the omnidirectional image in which the person 82 is not reflected at all is changed to a past one according to the visitor frequency. Therefore, the old product shelf 81 is displayed in time. For this reason, in this embodiment, moving object removal is performed after the omnidirectional image is divided into blocks. If divided into blocks, the frequency of moving objects appearing in one block is reduced, and an image of the product shelf 81 that is not so old can be output.

図10を用いて分割後の画像の大きさについて説明する。図10は分割後の画像の大きさを説明する図の一例である。分割後の画像の大きさは商品(図10ではドリンク)の大きさと動体の大きさを考慮して決定される。   The size of the divided image will be described with reference to FIG. FIG. 10 is an example of a diagram illustrating the size of the divided image. The size of the divided image is determined in consideration of the size of the product (drink in FIG. 10) and the size of the moving object.

図10(a)に示すように分割後の画像の大きさを商品と同程度にした場合を考える。分割後の画像の大きさを点線91で示す。本実施形態では動体が写っている場合には過去の出力画像を出力し、商品棚81の商品が減少又は増大した場合には入力画像を出力したい。しかし、分割後の画像の大きさと商品の大きさが同程度であると、動体が写っている場合も商品が減少又は増大した場合も類似度が低くなるおそれがあり区別がつかない。   Consider a case where the size of an image after division is set to be approximately the same as that of a product as shown in FIG. The size of the divided image is indicated by a dotted line 91. In the present embodiment, it is desired to output a past output image when a moving object is shown, and to output an input image when the number of items on the item shelf 81 decreases or increases. However, if the size of the image after the division and the size of the product are approximately the same, the degree of similarity may be lowered both when a moving object is captured and when the product is reduced or increased, and thus cannot be distinguished.

次に、図10(b)に示すように分割後の画像の大きさを動体よりも大きくした場合を考える。分割後の画像の大きさを点線91で示す。分割後の画像に動体が写っている場合、類似度は低下するが、商品の数が減少又は増大した場合も類似度が低くなるため区別がつかないおそれがある。例えば、分割後の画像の一部に人体が重なると、商品の減少時の類似度と近くなり、区別がつかない。   Next, consider a case where the size of the divided image is larger than that of the moving object as shown in FIG. The size of the divided image is indicated by a dotted line 91. When a moving object is shown in the divided image, the similarity is lowered. However, even when the number of products is reduced or increased, the similarity is lowered and there is a possibility that the similarity cannot be distinguished. For example, if the human body overlaps a part of the divided image, it becomes close to the degree of similarity when the product is reduced, and cannot be distinguished.

以上から、分割後の画像の大きさは少なくとも商品よりも大きく、動体の大きさ以下であることが好ましい。更に、好ましくは、分割後の画像の大きさは商品の大きさの数倍以上であり、かつ、動体により完全に覆い隠される程度である。こうすることで、動体が写っている分割後の画像の類似度は十分に低くなり、商品の数が減少又は増大した場合の類似度はそれよりも高くなるので、両者を判別しやすくなる。表2の分割数テーブルは両者を判別しやすくなるように分割数が決定されている。本実施形態ではあくまで一例であるが、商品が4つ程度入る大きさに全天球画像を分割する。   From the above, it is preferable that the size of the image after the division is at least larger than the product and not more than the size of the moving object. Furthermore, the size of the image after division is preferably several times the size of the product and is completely covered by the moving object. By doing so, the similarity of the divided image in which the moving object is captured is sufficiently low, and the similarity when the number of products is reduced or increased is higher than that, so it is easy to distinguish both. In the division number table of Table 2, the division number is determined so that both can be easily distinguished. Although the present embodiment is merely an example, the omnidirectional image is divided into sizes into which about four products are included.

<類似度>
類似度は分割後の画像と画像がどのくらい似ているかに関する指標である。一致度や相関度と称してもよい。
<Similarity>
The similarity is an index relating to how similar the image after the division is. It may be referred to as the degree of coincidence or the degree of correlation.

Figure 2019057849
式(1)のRは相互相関係数であり、Iは例えば入力画像、Tは出力画像であり、(i、j)は画素位置を示す。Nは横方向の画素数であり、Mは縦方向の画素数である。相互相関係数Rは1が最大で0が最小である。相互相関係数Rが大きいほど類似していることを意味する。
Figure 2019057849
In Equation (1), R is a cross-correlation coefficient, I is, for example, an input image, T is an output image, and (i, j) indicates a pixel position. N is the number of pixels in the horizontal direction, and M is the number of pixels in the vertical direction. The cross correlation coefficient R has a maximum of 1 and a minimum of 0. It means that it is so similar that the cross correlation coefficient R is large.

更に、入力画像の画素値の平均を入力画像から減じ、出力画像の画素値の平均を出力画像から減じて式(1)と同様の計算を行ってもよい。これにより、入力画像の明るさが変動しても類似度を安定的に計算することができる。   Further, the calculation similar to the equation (1) may be performed by subtracting the average pixel value of the input image from the input image and subtracting the average pixel value of the output image from the output image. As a result, the similarity can be stably calculated even if the brightness of the input image varies.

また、画素値の差の絶対値の合計であるSAD(Sum of Absolute Difference)、輝度値の差の二乗の合計であるSSD(Sum of Squared Difference)、を用いてもよい。しかしながら、SAD又はSSDでは商品の数に変化がないのに照明や日差しによる明るさの変化で値が大きくなる傾向がある。このため、類似度は相互相関係数により求めることが好適である。ただし、店舗内では照明が常時点灯されているため明るさの変化は少なく、SAD又はSSDが利用されてもよい。   Further, SAD (Sum of Absolute Difference) that is the sum of absolute values of pixel value differences and SSD (Sum of Squared Difference) that is the sum of squares of differences of luminance values may be used. However, although there is no change in the number of products in SAD or SSD, the value tends to increase due to changes in brightness due to illumination or sunlight. For this reason, it is preferable to obtain the similarity by a cross-correlation coefficient. However, since the lighting is always on in the store, there is little change in brightness, and SAD or SSD may be used.

なお、人の顔を認識する技術が知られており、動体が人物82であるとすると、画像管理装置5がこの技術を使って動体を検出することも考えられる。しかし、撮像装置1が商品棚81を撮像する際、人は背後から撮像されるので顔が写らない。このため、人物82の顔の検出は困難であり、本実施形態の動体の検出には向いていない。   If a technique for recognizing a human face is known and the moving object is a person 82, the image management apparatus 5 may detect the moving object using this technique. However, when the imaging device 1 images the product shelf 81, a person is imaged from behind, so no face is captured. For this reason, it is difficult to detect the face of the person 82 and it is not suitable for the detection of the moving object of the present embodiment.

<出力画像の決定>
図11を用いて、類似度に基づく出力画像の決定方法について説明する。図11(a)は類似度を示し、図11(b)は入力画像を示し、図11(c)は出力画像を示す。判断部55は、出力画像と入力画像の類似度が閾値以上かどうかの判断を繰り返す。
<Determination of output image>
A method for determining an output image based on the similarity will be described with reference to FIG. 11A shows the similarity, FIG. 11B shows the input image, and FIG. 11C shows the output image. The determination unit 55 repeats the determination of whether the similarity between the output image and the input image is greater than or equal to a threshold value.

時刻t:撮像装置1が全天球画像を初めて撮像した場合は、入力画像86_tがそのまま出力画像である。 Time t 0 : When the imaging device 1 captures the omnidirectional image for the first time, the input image 86 — t 0 is the output image as it is.

時刻t:商品棚81の商品に変化がないので、入力画像86_tと時刻tの出力画像87_tの類似度は高く閾値以上となる。判断部55は時刻tの入力画像86_tを出力画像87_tに決定する。 Time t 1: Since there is no change in the product of the shelves 81, the similarity of the output image 87_T 0 of the input image 86_T 1 and time t 0 becomes higher threshold or more. Determination unit 55 determines the input image 86_T 1 at time t 1 in the output image 87_t 1.

時刻t:人物82が写ったため、入力画像86_tと時刻tの出力画像87_tの類似度は閾値未満となる。判断部55は時刻tの出力画像87_tをそのまま出力画像に決定する。 Time t 2: for the person 82 is captured, the similarity of the output image 87_T 1 of the input image 86_T 2 and time t 1 is less than the threshold value. Determination unit 55 determines the output image 87_T 1 at time t 1 as the output image.

時刻t〜t:引き続き人物82が写っているため、入力画像86_t〜86_tと1周期前の出力画像87_t〜87_tの類似度は閾値未満となる。判断部55は1周期前の出力画像87_t〜87_tをそのまま出力画像に決定する。 Time t 3 to t 5 : Since the person 82 continues to be captured, the similarity between the input images 86_t 3 to 86_t 5 and the output images 87_t 2 to 87_t 4 one cycle before is less than the threshold. The determination unit 55 determines the output images 87_t 2 to 87_t 4 one cycle before as output images.

時刻t:人物82が商品を取って商品棚81の前から立ち去ったため、入力画像86_tには商品棚81が写るが商品が1つ少なくっている。このため、時刻t6の入力画像と時刻tの出力画像の類似度は、商品に全く変更がない状況よりも小さくなり人物82が写っている場合よりも大きくなる。以下、この類似度と「中程度の類似度」という。中程度の類似度は閾値以上なので、判断部55は時刻t6の入力画像86_tを出力画像に決定する。 Time t 6 : Since the person 82 picks up the product and leaves from the front of the product shelf 81, the product shelf 81 is shown in the input image 86 — t 6 , but the product is reduced by one. Therefore, the similarity of the output image of the input image and the time t 5 the time t6 is greater than if it person 82 captured smaller than circumstances without completely changes to a product. Hereinafter, this similarity is referred to as “medium similarity”. Since similarity moderate a higher threshold, determination unit 55 determines the input image 86_T 6 of time t6 to the output image.

時刻t:その後、商品の数に変更がないとすると、時刻tの出力画像87_tと時刻tの入力画像86_tの類似度が高くなるので(類似度はほぼ1)、判断部55は時刻tの入力画像86_tを出力画像に決定する。 Time t n: Then, when there is no change in the number of products, because the similarity of the input image 86_T n of output image 87_T 6 and time t n of time t 6 is high (similarity approximately 1), the determination unit 55 determines an input image 86_t n at time t n as an output image.

時刻t〜tの出力画像を見ると分かるように、入力画像から動体が検出された場合、出力画像87_t〜87_tは過去の出力画像87_tがそのまま出力画像になるので、閲覧者Yはほぼリアルタイムに(数秒程度の遅れで)端末装置7が表示する商品を閲覧できる。また、店舗2の人物82のプライバシーを守ることができる。 As can be seen from the output images at times t 2 to t 5 , when a moving object is detected from the input image, the output images 87_t 2 to 87_t 5 become the output images of the past output images 87_t 1 as they are. Y can browse the product displayed by the terminal device 7 almost in real time (with a delay of several seconds). Further, the privacy of the person 82 in the store 2 can be protected.

類似度算出部53と判断部55は分割後の画像ごとに類似度の算出と出力画像の決定を行う。そして、全ての分割後の画像で出力画像を決定すると、画像合成部56が分割された画像を1つの全天球画像に合成する。   The similarity calculation unit 53 and the determination unit 55 calculate the similarity and determine the output image for each divided image. When the output image is determined from all the divided images, the image combining unit 56 combines the divided images into one omnidirectional image.

<動作手順>
図12は画像処理システム200が画像を提供する全体的な手順を示すシーケンス図の一例である。図12では閲覧者Yが画像管理装置5をECサイトとして利用するシーンが想定されている。
<Operation procedure>
FIG. 12 is an example of a sequence diagram illustrating an overall procedure in which the image processing system 200 provides an image. In FIG. 12, a scene is assumed in which the viewer Y uses the image management apparatus 5 as an EC site.

S12-1:端末装置7は画像管理装置5にログインする。一般的なECサイトでは閲覧者が会員登録しており、ログインすることで閲覧者Yに関する情報(住所、電話番号、メールアドレス等)が特定される。なお、ログインせずに閲覧者Yが商品を購入することも可能であるが、この場合、閲覧者Yは住所等を入力する必要がある。   S12-1: The terminal device 7 logs into the image management device 5. In a general EC site, a viewer is registered as a member, and information related to the viewer Y (address, telephone number, e-mail address, etc.) is specified by logging in. Although it is possible for the viewer Y to purchase a product without logging in, in this case, the viewer Y needs to input an address or the like.

S12-2:ログインした端末装置7に対し画像管理装置5の画面作成部54は、閲覧者Yの住所から閲覧者Yの近くの店舗2の一覧を含む店舗一覧画面を作成する。画面作成部54は予め登録されている閲覧者Yの住所又は端末装置7から送信された端末装置7の位置情報と店舗管理テーブルの住所を比較して、例えば、最寄りの店舗2を含む10店舗程度を特定する。そして、地図上に店舗2の位置を明示する店舗一覧画面を作成する。画像管理装置5の送受信部51は店舗一覧画面を端末装置7に送信する。店舗一覧画面の一例を図13に示す。   S12-2: For the logged-in terminal device 7, the screen creation unit 54 of the image management device 5 creates a store list screen including a list of stores 2 near the viewer Y from the address of the viewer Y. The screen creation unit 54 compares the address of the viewer Y registered in advance or the location information of the terminal device 7 transmitted from the terminal device 7 with the address of the store management table, for example, 10 stores including the nearest store 2 Specify the degree. And the store list screen which specifies the position of the store 2 on a map is created. The transmission / reception unit 51 of the image management device 5 transmits a store list screen to the terminal device 7. An example of the store list screen is shown in FIG.

S12-3:端末装置7の送受信部71は店舗一覧画面を受信し、表示制御部73が店舗一覧画面をディスプレイ508に表示する。閲覧者Yが商品を購入したい店舗2を選択すると受付部が商品の選択を受け付ける。   S12-3: The transmission / reception unit 71 of the terminal device 7 receives the store list screen, and the display control unit 73 displays the store list screen on the display 508. When the viewer Y selects a store 2 where he / she wants to purchase a product, the reception unit receives the selection of the product.

S12-4:端末装置7の送受信部71は店舗2を特定するための店舗IDを画像管理装置5に送信する。画像管理装置5の送受信部51は店舗IDを受信する。これにより、店舗2を特定できたので、画像管理装置5はこの店舗2の商品画面を端末装置7に送信できるようになる。   S12-4: The transmission / reception unit 71 of the terminal device 7 transmits a store ID for specifying the store 2 to the image management device 5. The transmission / reception unit 51 of the image management apparatus 5 receives the store ID. Thereby, since the store 2 can be specified, the image management device 5 can transmit the product screen of the store 2 to the terminal device 7.

S12-5:店舗2の撮像装置1は一例として周期的に周囲を撮像する。   S12-5: The imaging device 1 in the store 2 periodically images the surroundings as an example.

S12-6:撮像装置1は通信端末3を介して全天球画像、店舗ID及び装置IDを画像管理装置5に送信する。説明の便宜上、図12では通信端末3が省略されている。また、店舗内の全ての撮像装置1がそれぞれ全天球画像を送信する。   S12-6: The imaging device 1 transmits the omnidirectional image, the store ID, and the device ID to the image management device 5 through the communication terminal 3. For convenience of explanation, the communication terminal 3 is omitted in FIG. In addition, all the imaging devices 1 in the store each transmit an omnidirectional image.

S12-7:画像管理装置5の送受信部51は全天球画像、店舗ID及び装置IDを受信し、類似度算出部53及び判断部55が出力画像を決定する。この処理については図15を用いて説明する。   S12-7: The transmission / reception unit 51 of the image management device 5 receives the omnidirectional image, the store ID, and the device ID, and the similarity calculation unit 53 and the determination unit 55 determine the output image. This process will be described with reference to FIG.

S12-8:画像管理装置5の送受信部51は全天球画像を含む商品画面を端末装置7に送信する。商品画面の一例を図14に示す。   S12-8: The transmission / reception unit 51 of the image management device 5 transmits the product screen including the omnidirectional image to the terminal device 7. An example of the product screen is shown in FIG.

S12-9:端末装置7の送受信部71は商品画面を受信して、表示制御部73は商品画面をディスプレイ508に表示する。閲覧者Yが商品画面で購入したい商品の商品棚81を選択すると受付部72が商品棚81の選択を受け付ける。   S12-9: The transmission / reception unit 71 of the terminal device 7 receives the product screen, and the display control unit 73 displays the product screen on the display 508. When the browsing person Y selects the product shelf 81 of the product to be purchased on the product screen, the reception unit 72 receives the selection of the product shelf 81.

S12-10:端末装置7の送受信部71は商品棚81に対応付けられた端末IDを画像管理装置5に送信する。これにより、画像管理装置5は撮像装置1を特定してこの撮像装置1が撮像した全天球画像を端末装置7に送信できるようになる。   S12-10: The transmission / reception unit 71 of the terminal device 7 transmits the terminal ID associated with the product shelf 81 to the image management device 5. As a result, the image management device 5 can identify the imaging device 1 and transmit the omnidirectional image captured by the imaging device 1 to the terminal device 7.

S12-11:画像管理装置5の送受信部51は端末IDで特定される撮像装置1が送信した全天球画像を画角と共に端末装置7に送信する。全天球画像には周囲360度が撮像されているので、この画角は商品が撮像されている範囲を指定するために使用される。端末装置7の表示制御部73はこの画角で指定される範囲をディスプレイ508に表示する。   S12-11: The transmission / reception unit 51 of the image management device 5 transmits the omnidirectional image transmitted by the imaging device 1 specified by the terminal ID to the terminal device 7 together with the angle of view. Since 360-degree surroundings are captured in the omnidirectional image, this angle of view is used to specify the range in which the product is captured. The display control unit 73 of the terminal device 7 displays the range specified by this angle of view on the display 508.

なお、ステップS12−10の全天球画像の送信タイミングは一例であって、端末装置7から端末IDが送信されたかどうかに関係なく、出力画像の決定が終わった全天球画像を遅滞なく画像管理装置5が端末装置7に送信してもよい。ステップS12−10のように端末IDで指定された撮像装置1の全天球画像のみが送信される場合は、通信負荷を低減できる。出力画像の決定が終わった全天球画像を遅滞なく画像管理装置5が端末装置7に送信する場合は、閲覧者Yが商品棚81(全天球画像)を選択した時に短時間で全天球画像を切り替えることができる。   Note that the transmission timing of the omnidirectional image in step S12-10 is an example, and the omnidirectional image for which the determination of the output image has been completed is performed without delay regardless of whether the terminal ID is transmitted from the terminal device 7. The management device 5 may transmit to the terminal device 7. When only the omnidirectional image of the imaging device 1 designated by the terminal ID is transmitted as in step S12-10, the communication load can be reduced. When the image management device 5 transmits the omnidirectional image for which the output image has been determined to the terminal device 7 without delay, when the viewer Y selects the product shelf 81 (the omnidirectional image), Sphere image can be switched.

<画面例>
図13は端末装置7が表示した店舗一覧画面601の一例を示す。店舗一覧画面601は、地図表示欄602、検索欄603、店舗情報欄604、及び、決定ボタン605を有している。地図表示欄602は、閲覧者Yを中心とする地図を表示する欄であり、閲覧者の周囲にある店舗2を表示する。店舗2の数は予め決まっていてもよいし、閲覧者Yが設定してもよい。閲覧者Yは地図を拡大又は縮小することができ、より多くの店舗2を表示させたり、店舗2までのより詳細な経路を確認したりできる。
<Screen example>
FIG. 13 shows an example of the store list screen 601 displayed by the terminal device 7. The store list screen 601 has a map display column 602, a search column 603, a store information column 604, and a decision button 605. The map display column 602 is a column that displays a map centered on the viewer Y, and displays stores 2 around the viewer. The number of stores 2 may be determined in advance or may be set by the viewer Y. The viewer Y can enlarge or reduce the map, display more stores 2, and confirm more detailed routes to the stores 2.

検索欄603は更に入力欄603aと検索ボタン603bを有する。入力欄603aは店舗名や場所を閲覧者Yが入力するための欄であり、検索ボタン603bは検索要求を画像管理装置5に端末装置7が送信するためのボタンである。店舗2が検索されると地図表示欄602も更新され、検索にヒットした店舗2を中心とする地図が表示される。   The search field 603 further has an input field 603a and a search button 603b. The input column 603a is a column for the viewer Y to input the store name and location, and the search button 603b is a button for the terminal device 7 to transmit a search request to the image management device 5. When the store 2 is searched, the map display field 602 is also updated, and a map centering on the store 2 that has been hit by the search is displayed.

店舗情報欄604は、選択中の店舗2の詳細な情報を表示するための欄である。送信直後の店舗一覧画面601では最寄り又は最期に利用した店舗2の詳細な情報が表示される。閲覧者Yはマウスやタッチパネルなどのポインティングデバイスで地図表示欄602から任意の店舗2を選択できる。決定ボタン605は、選択中の店舗2の画像を表示する旨を端末装置7が画像管理装置5に送信するためのボタンである。このように閲覧者Yは任意の店舗2を選択して、商品を選択できる。   The store information column 604 is a column for displaying detailed information of the selected store 2. On the store list screen 601 immediately after transmission, detailed information of the store 2 used nearest or last is displayed. The viewer Y can select an arbitrary store 2 from the map display field 602 with a pointing device such as a mouse or a touch panel. The decision button 605 is a button for the terminal device 7 to transmit to the image management device 5 that the image of the selected store 2 is displayed. Thus, the viewer Y can select an arbitrary store 2 and select a product.

地図表示欄602に代わって又は地図表示欄602と共に店舗2のリストをテキストデータで表示してもよい。   Instead of the map display field 602 or together with the map display field 602, the list of stores 2 may be displayed as text data.

図14は、端末装置7が表示した商品画面611の一例を示す。商品画面611は、店舗レイアウトマップ欄612、商品画像欄613、カート614、及び、レジに進むボタン615を有している。店舗レイアウトマップ欄612には、店舗レイアウトマップが表示される。店舗レイアウトマップ欄612は店内のどこにどの商品があるかというマップを簡略化して表示する。例えば、商品棚アイコン612aに商品のカテゴリーが表示されており、各商品棚アイコン612aはポインティングデバイス618による選択を受け付けるボタンを兼用している。表1の店舗管理テーブルに示したように各商品棚アイコン612aは撮像装置1の端末IDと対応付けられており(リンクされている又は埋め込まれている)、商品棚アイコン612aが選択されると撮像装置1の端末IDが特定される。選択中の商品棚アイコン612aは反転表示される。   FIG. 14 shows an example of the product screen 611 displayed by the terminal device 7. The product screen 611 includes a store layout map field 612, a product image field 613, a cart 614, and a button 615 for proceeding to a cash register. In the store layout map field 612, a store layout map is displayed. The store layout map field 612 displays a simplified map of where and what products are in the store. For example, a product category is displayed on the product shelf icon 612a, and each product shelf icon 612a also serves as a button for accepting selection by the pointing device 618. As shown in the store management table of Table 1, each merchandise shelf icon 612a is associated with the terminal ID of the imaging device 1 (linked or embedded), and when the merchandise shelf icon 612a is selected. The terminal ID of the imaging device 1 is specified. The currently selected merchandise shelf icon 612a is highlighted.

商品画像欄613には、店舗レイアウトマップで選択された商品棚アイコン612aに対応付けられた撮像装置1の全天球画像が表示される。表示された直後の画角は画像管理装置5から指定されるが、閲覧者Yは全天球画像を回転させ任意の方向を表示させることができる。全天球画像には、1つの商品(商品のカテゴリーでなく個別の1商品)が占める領域ごとに領域に写っている商品の商品名とその価格が対応付けられている。領域は画角により特定される。端末装置7の受付部72はポインティングデバイス618のクリック(又はタップ)を受け付けると、受け付けた領域に対応付けられた商品とその価格を表示制御部73がポップアップ画像617で表示する。単なるマウスオーバーによりポップアップ画像617を表示してもよい。   In the product image column 613, the omnidirectional image of the imaging device 1 associated with the product shelf icon 612a selected in the store layout map is displayed. Although the angle of view immediately after the display is designated by the image management device 5, the viewer Y can rotate the omnidirectional image to display an arbitrary direction. In the omnidirectional image, the product name and the price of the product shown in the region are associated with each region occupied by one product (one individual product, not a product category). The area is specified by the angle of view. When the accepting unit 72 of the terminal device 7 accepts a click (or tap) of the pointing device 618, the display control unit 73 displays a product associated with the accepted region and its price as a pop-up image 617. The pop-up image 617 may be displayed by a simple mouse over.

閲覧者Yは所望の商品かどうかを確認して、所望の商品であればポインティングデバイス618をカート614にドラッグ&ドロップする。受付部72は商品がカート614にドラッグ&ドロップされたことを検出し、カート614に商品を対応付ける。カート614に対するクリック(又はタップ)等の操作により、表示制御部73がカート614に入っている商品のリスト、価格、及び、合計金額等を表示する。   The viewer Y checks whether or not the product is a desired product, and drags and drops the pointing device 618 to the cart 614 if the product is the desired product. The receiving unit 72 detects that the product has been dragged and dropped onto the cart 614, and associates the product with the cart 614. By an operation such as clicking (or tapping) on the cart 614, the display control unit 73 displays a list of products in the cart 614, a price, a total amount, and the like.

レジに進むボタン615はカートの商品を決済する画面に遷移するためのボタンである。閲覧者Yはこの画面で商品の配送先を設定したり合計金額を支払ったりすることができる。   A button 615 for proceeding to the cash register is a button for transitioning to a screen for settlement of the cart merchandise. The viewer Y can set the delivery destination of the product or pay the total amount on this screen.

<出力画像の決定>
図15は、画像管理装置5が出力画像を決定する手順を示すフローチャート図の一例である。図15の処理は撮像装置1が1つの全天球画像を撮像し、画像管理装置5に送信するごとにスタートする。
<Determination of output image>
FIG. 15 is an example of a flowchart illustrating a procedure in which the image management apparatus 5 determines an output image. The process of FIG. 15 starts every time the imaging apparatus 1 captures one omnidirectional image and transmits it to the image management apparatus 5.

まず、画像分割部52が全天球画像を分割する(ステップS15−1)。画像分割部52は分割数テーブルを参照し、画角に対応付けられた分割数で全天球画像を分割する。分割数テーブルに登録されていない画角については予め決まった大きさに分割する。また、全天球画像の全体を分割する必要はない。店舗2の天井や撮像装置1の真下付近には動体が存在しないと考えてよいためである。したがって、画像分割部52は天井や撮像装置1の真下付近の画角を分割しなくてもよい。   First, the image dividing unit 52 divides the omnidirectional image (step S15-1). The image dividing unit 52 refers to the division number table and divides the omnidirectional image by the division number associated with the angle of view. An angle of view that is not registered in the division number table is divided into predetermined sizes. Further, it is not necessary to divide the entire omnidirectional image. This is because it may be considered that there is no moving object near the ceiling of the store 2 or just below the imaging device 1. Therefore, the image dividing unit 52 does not have to divide the angle of view near the ceiling or the imaging device 1.

次に、類似度算出部53は分割後の画像ごとに1周期前の出力画像と現在の入力画像の類似度を算出する(ステップS15−2)。   Next, the similarity calculation unit 53 calculates the similarity between the output image one cycle before and the current input image for each divided image (step S15-2).

そして、判断部55が1周期前の出力画像と現在の入力画像の類似度が閾値以上か否かを判断する(ステップS15−3)。   Then, the determination unit 55 determines whether or not the similarity between the output image one cycle before and the current input image is equal to or greater than a threshold value (step S15-3).

類似度が閾値以上の場合、判断部55は出力画像を入力画像で更新する(ステップS15−4)。類似度が閾値未満の場合、判断部55は1周期前の出力画像をそのまま出力画像として出力すると決定する(ステップS15−5)。   If the similarity is equal to or greater than the threshold value, the determination unit 55 updates the output image with the input image (step S15-4). If the degree of similarity is less than the threshold value, the determination unit 55 determines to output the output image one cycle before as an output image (step S15-5).

そして、判断部55は全ての分割後の画像の処理が終わったか否かを判断する(ステップS15−6)。動体が写る可能性がない画角に対応する分割後の画像については出力画像を決定することなく、出力画像を入力画像で更新すればよい。これにより、出力画像の決定に要する時間を短縮できる。   Then, the determination unit 55 determines whether or not all the divided images have been processed (step S15-6). For the divided image corresponding to the angle of view where there is no possibility of moving objects, the output image may be updated with the input image without determining the output image. Thereby, the time required for determining the output image can be shortened.

全ての分割後の画像の処理が終わると、判断部55によるブロックごとの判断結果に応じて、画像合成部56は入力画像又は出力画像を合成して1つの全天球画像を生成する(ステップS15−7)。画面作成部54は全天球画像を含むWebページを、送受信部51を介して端末装置7に送信する。あるいは全天球画像のみを端末装置7に送信する。端末装置7の表示制御部73は動体が除去された全天球画像をディスプレイ508に表示することができる。   When all the divided images have been processed, the image composition unit 56 synthesizes the input image or the output image according to the determination result for each block by the determination unit 55 to generate one omnidirectional image (Step S1). S15-7). The screen creation unit 54 transmits a Web page including the omnidirectional image to the terminal device 7 via the transmission / reception unit 51. Alternatively, only the omnidirectional image is transmitted to the terminal device 7. The display control unit 73 of the terminal device 7 can display the omnidirectional image from which the moving object is removed on the display 508.

<まとめ>
以上説明したように、本実施形態の画像処理システム200は、ある時刻の画像に人物82が写っていたら人物82が写っていない過去の全天球画像を出力するので、人物82などの動体を除去して商品棚81の画像を提供することができる。動体が写っている間は動体が検出される前の出力画像が表示されるので、閲覧者が商品を閲覧できないということがない。商品棚81の商品が取り出されて商品棚81の画像に変化が生じても類似度の低下はわずかなので、商品棚81の入力画像で出力画像を更新できる。
<Summary>
As described above, the image processing system 200 according to the present embodiment outputs a past omnidirectional image in which the person 82 is not captured if the person 82 is captured in an image at a certain time. The image of the product shelf 81 can be provided by removing. Since the output image before the moving object is detected is displayed while the moving object is captured, the viewer cannot browse the product. Even if the product on the product shelf 81 is taken out and the image on the product shelf 81 is changed, the decrease in the similarity is slight, so that the output image can be updated with the input image on the product shelf 81.

本実施例では動体の一部が分割後の画像に写っていてもこれを検出することで、入力画像で出力画像を更新しない画像処理システム200について説明する。本実施例において、実施例1において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。   In the present embodiment, an image processing system 200 that does not update an output image with an input image by detecting even a part of a moving object in an image after division will be described. In the present embodiment, the constituent elements denoted by the same reference numerals in the first embodiment perform similar functions, and therefore, only the main constituent elements of the present embodiment may be mainly described.

図16は、本実施例の画像処理システム200が解決する不都合を説明する図の一例である。図16(a)はある周期の出力画像であり、図16(b)と図16(c)は時間的に後の入力画像である。   FIG. 16 is an example of a diagram for explaining inconveniences solved by the image processing system 200 of the present embodiment. FIG. 16A shows an output image having a certain period, and FIGS. 16B and 16C show input images after time.

図16(b)では商品が1つ減っているため、実施例1で説明したように類似度が中程度になる。類似度が中程度であるため、判断部55は図16(a)の出力画像を図16(b)の入力画像で更新すると判断する。これに対し、図16(c)では人物82の一部(例えば指)が写っているため、同じように類似度が中程度になる。類似度が中程度であるため、判断部55は図16(a)の出力画像を図16(c)の入力画像で置き換えると判断する。しかし、人物82の一部が写っているため閲覧者には違和感を与えてしまう。   In FIG. 16B, since the number of products is reduced by one, the degree of similarity becomes medium as described in the first embodiment. Since the degree of similarity is medium, the determination unit 55 determines to update the output image in FIG. 16A with the input image in FIG. On the other hand, in FIG. 16C, since a part of the person 82 (for example, a finger) is shown, the similarity is similarly medium. Since the degree of similarity is medium, the determination unit 55 determines to replace the output image in FIG. 16A with the input image in FIG. However, since a part of the person 82 is shown, the viewer feels uncomfortable.

このような不都合に対応するため、本実施例では図16(c)のような入力画像を人物82が写っていると判断できる画像処理システム200について説明する。   In order to deal with such an inconvenience, the present embodiment describes an image processing system 200 that can determine that a person 82 is reflected in an input image as shown in FIG.

<出力画像の決定>
図17を用いて、本実施例における類似度に基づく出力画像の決定方法について説明する。図17(a)は類似度を示し、図17(b)は入力画像を示し、図17(c)は出力画像を示す。判断部55は、出力画像と入力画像の類似度が閾値以上かどうかの判断を繰り返す。
<Determination of output image>
The output image determination method based on the similarity in this embodiment will be described with reference to FIG. FIG. 17A shows the similarity, FIG. 17B shows the input image, and FIG. 17C shows the output image. The determination unit 55 repeats the determination of whether the similarity between the output image and the input image is greater than or equal to a threshold value.

時刻t:撮像装置1が全天球画像を初めて撮像した場合は、入力画像86_tがそのまま出力画像である。 Time t 0 : When the imaging device 1 captures the omnidirectional image for the first time, the input image 86 — t 0 is the output image as it is.

時刻t:商品棚81の商品に変化がないので、入力画像86_tと時刻tの出力画像87_tの類似度は高く閾値以上となる。本実施例では類似度が中程度以上の場合、判断部55が所定数の周期前の入力画像と現在の入力画像の類似度を算出する。図17では2周期前と4周期前の入力画像と、現在の入力画像86_tとの類似度がそれぞれ算出されている。そして類似度が高い場合、商品棚81の変化であると判断して、判断部55は時刻tの入力画像86_tを出力画像87_tに決定する。 Time t 1: Since there is no change in the product of the shelves 81, the similarity of the output image 87_T 0 of the input image 86_T 1 and time t 0 becomes higher threshold or more. In this embodiment, when the degree of similarity is medium or higher, the determination unit 55 calculates the degree of similarity between the input image before a predetermined number of cycles and the current input image. In FIG. 17, the degrees of similarity between the input image two cycles before and four cycles before and the current input image 86_t 1 are calculated. And if the degree of similarity is high, it is determined that the change in the shelf 81, the determination unit 55 determines the input image 86_T 1 at time t 1 in the output image 87_t 1.

時刻t:人物82が写ったため、入力画像86_tと時刻tの出力画像87_tの類似度は閾値未満となる。判断部55は時刻tの出力画像87_tをそのまま出力画像に決定する。 Time t 2: for the person 82 is captured, the similarity of the output image 87_T 1 of the input image 86_T 2 and time t 1 is less than the threshold value. Determination unit 55 determines the output image 87_T 1 at time t 1 as the output image.

時刻t〜t:引き続き人物82が写っているため、入力画像86_t〜86_tと1周期前の出力画像87_t〜87_tの類似度は閾値未満となる。判断部55は1周期前の出力画像87_t〜87_tをそのまま出力画像に決定する。 Time t 3 to t 5 : Since the person 82 continues to be captured, the similarity between the input images 86_t 3 to 86_t 5 and the output images 87_t 2 to 87_t 4 one cycle before is less than the threshold. The determination unit 55 determines the output images 87_t 2 to 87_t 4 one cycle before as output images.

時刻t:人物82が商品を取って商品棚81の前から立ち去ったため、入力画像には商品棚81が写るが商品が1つ少なくっている。このため、時刻tの入力画像86_tと時刻tの出力画像87_tの類似度は、中程度となる。類似度が中程度以上の場合、類似度算出部53は2周期前と4周期前の入力画像86_t、86_tと、現在の入力画像86_tとの類似度をそれぞれ算出する。出力画像と入力画像の類似度が閾値以上なのに、過去の入力画像と現在の入力画像との類似度が低い場合、商品棚81の変化か人体の一部が写っているのか判断できないと考え、判断部55は1周期前の時刻t5の出力画像87_tをそのまま出力画像に決定する。 Time t 6 : Since the person 82 picks up the product and leaves from the front of the product shelf 81, the product shelf 81 is shown in the input image, but the product is reduced by one. Therefore, the similarity of the output image 87_T 5 of the input image 86_T 6 and time t 5 the time t 6 becomes moderate. When the degree of similarity is medium or higher, the degree-of-similarity calculation unit 53 calculates the degree of similarity between the input images 86_t 2 and 86_t 4 two cycles before and four cycles before and the current input image 86_t 6 , respectively. If the similarity between the output image and the input image is equal to or greater than the threshold value, but the similarity between the past input image and the current input image is low, it cannot be determined whether the change in the product shelf 81 or a part of the human body is reflected, determination unit 55 determines the output image 87_T 5 time t5 of 1 cycle before it the output image.

時刻tn:その後、商品の数に変更がないとすると、時刻t6の出力画像87_tと時刻tnの入力画像86_tの類似度が中程度以上になるので、判断部55は2周期前と4周期前の入力画像と、現在の入力画像86_tとの類似度をそれぞれ算出する。人物82が立ち去った後のタイミングになると、時刻tnの入力画像86_tと2周期前と4周期前の入力画像との類似度が高いので(ほぼ一致するので)、判断部55は現在の入力画像86_tを出力画像に決定する。したがって、入力画像がしばらく変化しなかった場合には、出力画像と入力画像の中程度以上の変化を背景の変化と判断して、出力画像を入力画像86_tで更新できる。 Time tn: If there is no change in the number of products thereafter, the similarity between the output image 87_t 6 at time t6 and the input image 86_t n at time tn becomes medium or higher. and the previous cycle of the input image, calculates the respective current input image 86_T n and similarity to. When it is time after the person 82 went away, because of the high input image 86_T n and similarity between two periods before and four cycles before the input image at time tn (because almost coincide), determination unit 55 the current input determining the image 86_T n in the output image. Therefore, when the input image was not a while changes, the change of more than moderate output image and the input image it is determined that the change in the background, can update the output image in the input image 86_t n.

本実施例の動体除去方法によれば、時刻t6で出力画像87_tが現在の入力画像86_tで更新されないため、商品棚が実際に変化していても端末装置7に送信されるタイミングが遅れてしまう。しかし、商品棚81が変化していないのに人体の一部が写っているために商品棚81の変化であると誤判断して、人体の一部が写っている現在の入力画像で出力画像を更新することを抑制できる。 According to the moving object removal method of the present embodiment, since the output image 87_t 5 is not updated with the current input image 86_t 6 at time t6, the timing to be transmitted to the terminal device 7 is delayed even if the product shelf has actually changed. End up. However, since a part of the human body is reflected even though the commodity shelf 81 has not changed, it is erroneously determined that the commodity shelf 81 has changed, and the output image is the current input image in which a part of the human body is reflected. Can be suppressed.

図18を用いて補足する。図18は図17と同様の図であるが、時刻tの入力画像86_tが図17と異なっている。 Supplementary description will be made with reference to FIG. Figure 18 is a view similar to FIG. 17, the input image 86_T 6 at time t 6 is different from FIG. 17.

時刻t:人物82が商品棚81の前から立ち去ったが、商品を取らなかった。しかし、現在の入力画像86_tには人体の一部が写っている。このため、時刻tの入力画像86_tと時刻tの出力画像87_tの類似度は、中程度となる。類似度が中程度以上の場合、類似度算出部53は2周期前と4周期前の入力画像86_t、86_tと、現在の入力画像86_tとの類似度がそれぞれ算出する。 Time t 6 : The person 82 has left the front of the merchandise shelf 81 but has not taken the merchandise. However, it is reflected part of the human body to the current input image 86_t 6. Therefore, the similarity of the output image 87_T 5 of the input image 86_T 6 and time t 5 the time t 6 becomes moderate. When the degree of similarity is medium or higher, the degree-of-similarity calculation unit 53 calculates the degree of similarity between the input images 86_t 2 and 86_t 4 two cycles before and four cycles before and the current input image 86_t 6 , respectively.

類似度が低いので、判断部55は1周期前の時刻t5の出力画像87_tをそのまま出力画像に決定する。したがって、人体の一部が写っているが入力画像と1周期前の出力画像との類似度が中程度になっても、人体の一部が写っている現在の入力画像で出力画像を更新することを抑制できる。 Since the degree of similarity is low, the determination unit 55 determines the output image 87_T 5 time t5 of 1 cycle before it the output image. Therefore, even if a part of the human body is shown, the output image is updated with the current input image showing a part of the human body even if the similarity between the input image and the output image of the previous cycle becomes medium. This can be suppressed.

図18から理解されるように、2周期前と4周期前の入力画像と現在の入力画像とが比較されるのは、現在の入力画像に人体の一部が写っている場合は、人間の移動速度から考えて数秒前(所定時間前)の入力画像にも人体が写っている可能性が高いためである。毎秒1枚の画像が撮像される場合、2周期前と4周期前は2秒前と4秒前に相当する。撮像装置1の撮像周期が変わった場合、一例として2秒前と4秒前の入力画像が抽出されればよい。したがって、2周期前と4周期前というタイミングは一例であり、人間の移動速度から考えられる所定時間前の入力画像と現在の入力画像が比較されればよい。例えば、1周期前と3周期前、3秒前と5秒前等でもよい。   As understood from FIG. 18, the input images before 2 cycles and 4 cycles before are compared with the current input image when a part of the human body is shown in the current input image. This is because there is a high possibility that the human body is reflected in the input image several seconds before (predetermined time) in view of the moving speed. When one image is captured per second, 2 cycles before and 4 cycles before correspond to 2 seconds before and 4 seconds before. When the imaging cycle of the imaging device 1 is changed, as an example, input images of 2 seconds before and 4 seconds before may be extracted. Therefore, the timing of two cycles before and four cycles before is an example, and it is only necessary to compare the input image before a predetermined time considered from the moving speed of the human and the current input image. For example, it may be 1 cycle before, 3 cycles before, 3 seconds before, 5 seconds before, etc.

2周期前と4周期前の2つのタイミングで比較するのは、過去に人体が写っていなかったことをより確実に確認するためであり、2周期前又は4周期前のいずれか一方のタイミングで比較してもよい。どちらかの入力画像と現在の入力画像との類似度が低ければ、現在の入力画像に人体の一部が写っている可能性があるためである。   The reason for comparing the two timings before and two cycles before is to confirm more reliably that the human body has not been captured in the past, and at either one of the timings before or after two cycles. You may compare. This is because if the similarity between one of the input images and the current input image is low, a part of the human body may be reflected in the current input image.

1周期前〜5周期前の入力画像のうち1つと現在の入力画像との類似度を算出してもよいし、1周期前〜5周期前の入力画像のうち2つ以上(1秒周期の場合は最大で5つ)の入力画像と現在の入力画像との類似度を算出してもよい。複数の入力画像と現在の入力画像の類似度が算出された場合、すべての類似度が閾値以上かどうか判断される。   The degree of similarity between one of the input images from one cycle before to five cycles before and the current input image may be calculated, or two or more of the input images from one cycle before to five cycles before (one second cycle) In this case, the similarity between a maximum of five input images and the current input image may be calculated. When the similarity between a plurality of input images and the current input image is calculated, it is determined whether all the similarities are equal to or greater than a threshold value.

<動作手順>
図19は、本実施例の画像処理システム200が出力画像を更新する手順を説明するフローチャート図の一例である。図19の説明では図15との相違を説明する。まず、ステップS19−1とS19−2の処理は図15のステップS15−1、S15−2と同様でよい。
<Operation procedure>
FIG. 19 is an example of a flowchart for explaining a procedure in which the image processing system 200 of the present embodiment updates the output image. In the description of FIG. 19, differences from FIG. 15 will be described. First, the processes of steps S19-1 and S19-2 may be the same as steps S15-1 and S15-2 of FIG.

ステップS19−3で判断部55は類似度が閾値x以上か否かを判断する(ステップS19−3)。閾値xは商品棚81に変化がある場合又は人体の一部が写っている場合の類似度よりも低い閾値である。閾値xは図15のステップS15−3の閾値と同程度になる。   In step S19-3, the determination unit 55 determines whether the similarity is greater than or equal to a threshold value x (step S19-3). The threshold value x is a threshold value lower than the similarity when there is a change in the product shelf 81 or when a part of the human body is shown. The threshold value x is approximately the same as the threshold value in step S15-3 in FIG.

ステップS19−3の判断がYesの場合、類似度算出部53は2周期前と4周期前の入力画像と現在の入力画像の類似度を算出する(ステップS19−4)。すなわち、数秒前の動体が写っている可能性がある入力画像と現在の入力画像との類似度が算出される。   When the determination in step S19-3 is Yes, the similarity calculation unit 53 calculates the similarity between the input image two cycles before and four cycles before and the current input image (step S19-4). That is, the degree of similarity between an input image that may include a moving object several seconds ago and the current input image is calculated.

判断部55は2周期前の入力画像と現在の入力画像との類似度が閾値y以上かどうか、及び、4周期前の入力画像と現在の入力画像との類似度が閾値y以上かどうかを判断する(ステップS19−5)。   The determination unit 55 determines whether the similarity between the input image two cycles before and the current input image is greater than or equal to the threshold y, and whether the similarity between the input image four cycles before and the current input image is greater than or equal to the threshold y. Judgment is made (step S19-5).

ステップS19−5でYesと判断された場合、過去の入力画像に動体が写っていないので、判断部55は出力画像を現在の入力画像で更新すると判断する(S19−6)。これにより、商品棚81に変化が合った場合には変化後の入力画像で出力画像を更新できる。   If it is determined Yes in step S19-5, since no moving object is shown in the past input image, the determination unit 55 determines to update the output image with the current input image (S19-6). Thereby, when a change is matched with the goods shelf 81, an output image can be updated with the input image after a change.

ステップS19−5でNoと判断された場合、過去の入力画像に動体が写っている可能性があるため、現在の入力画像に人体の一部が写っているのか商品棚の変化なのかを判断できないとして、判断部55は1周期前の出力画像をそのまま出力画像に決定する(S19−7)。これにより、現在の入力画像に人体の一部が写っている場合には、出力画像を更新することを回避できる。   If it is determined No in step S19-5, there is a possibility that a moving object is reflected in the past input image, and therefore it is determined whether a part of the human body is reflected in the current input image or a change in the product shelf. The determination unit 55 determines that the output image of the previous cycle is the output image as it is (S19-7). Thereby, when a part of human body is reflected in the current input image, it is possible to avoid updating the output image.

なお、閾値yは数秒前の入力画像と一致することを検出したいため(商品棚81が写っており変化がない)、最大の類似度である1に近い値となる。したがって、閾値yは閾値xよりも大きい。これにより、入力画像が変化しない場合には出力画像を入力画像で更新できる。   Note that the threshold y is a value close to 1, which is the maximum similarity, because it is desired to detect that the input image matches the input image several seconds ago (the product shelf 81 is shown and has no change). Therefore, the threshold value y is larger than the threshold value x. Thereby, when the input image does not change, the output image can be updated with the input image.

ステップS19−8とS19−9の処理は図15のステップS15−6とS15−7と同じでよい。   The processing in steps S19-8 and S19-9 may be the same as steps S15-6 and S15-7 in FIG.

以上説明したように、本実施例の画像処理システム200は、現在の入力画像と過去の入力画像を比較することで、動体の一部が分割後の画像に写っていてもこれを検出して出力画像を更新することを抑制できる。   As described above, the image processing system 200 according to the present embodiment detects even if a part of the moving object appears in the divided image by comparing the current input image with the past input image. Updating the output image can be suppressed.

本実施例では、分割後の画像に動体が写っているか否かの判断の後、出力画像を更新しないと判断した旨を周りに拡張する拡張処理を施すことで動体が一部だけ写った入力画像で出力画像を更新することをより確実に抑制する画像処理システム200について説明する。   In this embodiment, after determining whether or not a moving object is shown in the divided image, an input process in which only a part of the moving object is shown is performed by performing an extension process that extends that the output image is determined not to be updated. An image processing system 200 that more reliably suppresses updating an output image with an image will be described.

図20は、本実施例の画像処理システム200が有する、撮像装置1、通信端末3、画像管理装置5、及び端末装置7の各機能ブロック図である。なお、図20の説明において、図9と同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。   FIG. 20 is a functional block diagram of the imaging device 1, the communication terminal 3, the image management device 5, and the terminal device 7 included in the image processing system 200 of the present embodiment. In the description of FIG. 20, the constituent elements denoted by the same reference numerals as those in FIG. 9 perform the same function, and therefore, only the main constituent elements of the present embodiment may be mainly described.

本実施例の画像管理装置5は拡張処理部57を有している。拡張処理部57は動体が検出された分割後の画像に隣接した分割後の画像でも動体が検出されたとみなす処理を行う。すなわち、動体が検出された分割後の画像の範囲を拡張する。   The image management apparatus 5 according to the present exemplary embodiment includes an extension processing unit 57. The extension processing unit 57 performs processing that regards that the moving object is detected even in the divided image adjacent to the divided image in which the moving object is detected. That is, the range of the divided image in which the moving object is detected is expanded.

<拡張処理>
図21は拡張処理を説明する図の一例である。図21においてマスは分割後の画像を現し、「1」の画像は動体が検出された分割後の画像を現し、「0」は動体が検出されていない分割後の画像を現す。まず、図21(a)は実施例1,2により動体の検出処理が行われた9つの分割後の画像を示す。図21(a)では中央の画像でのみ動体が検出されている。
<Extended processing>
FIG. 21 is an example of a diagram illustrating the extension process. In FIG. 21, the square represents the image after division, the image “1” represents the image after division where the moving object is detected, and “0” represents the image after division where the moving object is not detected. First, FIG. 21A shows nine divided images that have been subjected to moving object detection processing according to the first and second embodiments. In FIG. 21A, the moving object is detected only in the center image.

図21(b)は動体が検出された分割後の画像の上下左右に隣接した画像への動体が検出された旨の拡張を説明する図である。図21(b)では中央の画像の上下左右に隣接した画像に「1」が設定されている。このような拡張処理を4近傍拡張処理という。   FIG. 21B is a diagram for explaining the extension that a moving object has been detected in images adjacent to the top, bottom, left, and right of the divided image from which a moving object has been detected. In FIG. 21B, “1” is set to the image adjacent to the center image in the vertical and horizontal directions. Such an extension process is called a 4-neighbor extension process.

図21(c)は動体が検出された分割後の画像の上下左右及び斜めに隣接した画像への動体が検出された旨の拡張を説明する図である。図21(c)では中央の画像の上下左右及び斜めに隣接した画像に「1」が設定されている。このような拡張処理を8近傍拡張処理という。   FIG. 21C is a diagram for explaining the extension that the moving object is detected in the vertically adjacent image and the diagonally adjacent image of the divided image where the moving object is detected. In FIG. 21C, “1” is set to an image adjacent to the center image vertically and horizontally and diagonally. Such an extension process is called an 8-neighbor extension process.

図22は8近傍拡張処理の好適例を説明する図の一例である。図22(a)に示すように、例えば、人体の頭部が9つの分割後の画像の中央に写っているものとする。中央、左下、下中央及び右下の画像からは動体が検出されると考えられる。図22(b)に示すように、4近傍拡張処理では上下左右の画像に人体が写っていると見なすことができるが、斜め上の画像にも人体の一部が写っている。右上及び左上の画像にわずかにだけ人体が写っている場合、実施例2の判断方法でも出力画像が更新されるおそれがある。   FIG. 22 is an example of a diagram illustrating a preferred example of the 8-neighbor expansion process. As shown in FIG. 22A, for example, it is assumed that the head of a human body is reflected in the center of nine divided images. It is considered that a moving object is detected from the images at the center, the lower left, the lower center, and the lower right. As shown in FIG. 22B, in the 4-neighbor expansion process, it can be considered that the human body is shown in the upper, lower, left, and right images, but a part of the human body is also shown in the obliquely upper image. When the human body is slightly shown in the upper right and upper left images, the output image may be updated even by the determination method of the second embodiment.

これに対し、図22(c)に示すように、8近傍拡張処理では右上及び左上の画像に人体の一部が写っていたと見なすことができるので、動体が写っている入力画像で出力画像を更新することを抑制できる。   On the other hand, as shown in FIG. 22 (c), in the 8-neighbor expansion process, it can be considered that a part of the human body is shown in the upper right and upper left images, so that the output image is represented by the input image showing the moving object. Updates can be suppressed.

したがって、8近傍拡張処理が有効であることが分かるが、動体の形状等によっては4近傍拡張処理を採用してもよい。   Therefore, it can be seen that the 8-neighbor expansion process is effective, but the 4-neighbor expansion process may be employed depending on the shape of the moving object.

図23は、拡張処理部57が分割後の画像に対し拡張処理を行うフローチャート図の一例である。図23の処理では図19との相違を主に説明する。   FIG. 23 is an example of a flowchart in which the extension processing unit 57 performs the extension process on the divided image. In the process of FIG. 23, differences from FIG. 19 will be mainly described.

図23の処理ではステップS23−1〜S23−4が追加されている。ステップS23−1では、拡張処理部57が、分割後の画像を1つ決定する(ステップS23−1)。分割後の画像の決定方法は任意でよい。   In the process of FIG. 23, steps S23-1 to S23-4 are added. In step S23-1, the extension processing unit 57 determines one image after division (step S23-1). The method for determining the divided image may be arbitrary.

次に、着目している分割後の画像に動体が検出されているか否かを判断する(ステップS23−2)。   Next, it is determined whether or not a moving object has been detected in the divided image of interest (step S23-2).

ステップS23−2の判断がYesの場合、拡張処理部57は上下左右及び斜めの画像で動体が検出されたとみなす(ステップS23−3)。ステップS23−2の判断がNoの場合、拡張処理部57は拡張処理を行わない。   When the determination in step S23-2 is Yes, the extension processing unit 57 considers that a moving object has been detected in the up / down / left / right and diagonal images (step S23-3). If the determination in step S23-2 is No, the extension processing unit 57 does not perform the extension process.

拡張処理部57は全ての分割後の画像で終了したか否かを判断し(ステップS23−4)、終了した場合は分割後の画像を合成する(S19−9)。   The extension processing unit 57 determines whether or not the processing has been completed for all the divided images (step S23-4). If the processing has been completed, the expanded processing unit 57 combines the divided images (S19-9).

なお、ステップS23−2において、動体が検出されたとみなされた分割後の画像はYesと判断されないことに注意されたい。これにより、動体が検出されたとみなされた分割後の画像と隣接する分割後の画像が連鎖的に、動体が検出されたとみなされることを回避できる。   It should be noted that in step S23-2, the divided image that is considered to have detected a moving object is not determined to be Yes. Thereby, it can be avoided that the divided image adjacent to the divided image where the moving object is detected and the adjacent divided image are considered to be detected in a chain.

本実施例によれば、出力画像を更新しないと判断した分割後の画像を近傍に拡張することで、人物82の一部が写っているが過去の入力画像との類似度が閾値y以上となった場合でも出力画像が更新されないので、動体が一部だけ写った入力画像で出力画像を更新することを抑制することができる。   According to the present embodiment, by dividing the divided image that is determined not to update the output image to the vicinity, a part of the person 82 is shown, but the similarity with the past input image is equal to or greater than the threshold value y. Even in such a case, the output image is not updated, so that it is possible to prevent the output image from being updated with an input image in which only a part of the moving object is shown.

本実施例では人体が写っている画像を機械的に学習しておき学習モデル58を構築し、学習モデル58により入力画像に人物が写っているか否かを判断する画像処理システム200について説明する。   In the present embodiment, an image processing system 200 that mechanically learns an image showing a human body, constructs a learning model 58, and determines whether or not a person is shown in an input image using the learning model 58 will be described.

図24は、本実施例の画像処理システム200が有する、撮像装置1、通信端末3、画像管理装置5、及び端末装置7の各機能ブロック図である。なお、図24の説明において、図9と同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。   FIG. 24 is a functional block diagram of the imaging device 1, the communication terminal 3, the image management device 5, and the terminal device 7 included in the image processing system 200 of the present embodiment. In the description of FIG. 24, the components denoted by the same reference numerals as those in FIG. 9 perform the same functions, and therefore, only the main components of the present embodiment may be mainly described.

本実施例の画像管理装置5は学習モデル58を有している。学習モデル58は、動体が写っている画像又は写っていない画像の学習結果を保持しており、入力された画像に対し動体の有無を出力する。学習モデル58は入力画像に動体が写っているか否か(又は、確度、確率、又は確からしさ等)を出力する。入力画像から抽出した特徴量を使用してもよい。学習装置は予め、ディープラーニング、サポートベクターマシン、ニューラルネットワーク、ランダムフォレストなどのアルゴリズムでトレーニング用の入力画像に人物が写っているか否を学習することで学習モデル58を構築する。学習モデル58にはこの学習結果が保持されており、入力画像に動体が写っているか否か(被写体の画像かどうか)を判断する判断部として機能する。   The image management apparatus 5 of this embodiment has a learning model 58. The learning model 58 holds a learning result of an image in which a moving object is captured or an image in which a moving object is not captured, and outputs the presence / absence of a moving object with respect to the input image. The learning model 58 outputs whether or not a moving object is shown in the input image (or accuracy, probability, probability, etc.). You may use the feature-value extracted from the input image. The learning apparatus constructs a learning model 58 by learning in advance whether or not a person is shown in the input image for training using an algorithm such as deep learning, support vector machine, neural network, or random forest. This learning result is held in the learning model 58, and functions as a determination unit that determines whether or not a moving object is shown in the input image (whether it is an image of a subject).

<学習モデルを用いた判断について>
1.学習モデルのみで入力画像を破棄
図25を用いて、学習モデル58を用いた出力画像の決定方法について説明する。図25(a)は入力画像を示し、図25(b)は出力画像を示す。判断部55は、学習モデル58を単独で使って動体が写っているか否かに基づいて出力画像を決定する。
<Judgment using learning model>
1. Discarding Input Image with Learning Model Only A method for determining an output image using the learning model 58 will be described with reference to FIG. FIG. 25A shows an input image, and FIG. 25B shows an output image. The determination unit 55 determines an output image based on whether or not a moving object is captured using the learning model 58 alone.

時刻t:入力画像86_tが撮像されると、学習モデル58に入力される。学習モデル58は人物が写っていないと判断する。時刻tでは出力画像がないため判断部55は入力画像86_tを出力すると判断する。 Time t 0: When the input image 86_t 0 is captured, it is input to the learning model 58. The learning model 58 determines that no person is captured. Since there is no output image at time t 0 , the determination unit 55 determines to output the input image 86_t 0 .

時刻t:入力画像86_tが撮像されると、学習モデル58に入力される。学習モデル58は人物が写っていないと判断するので、時刻tの入力画像86_tを出力画像87_tに決定する。 Time t 1: the input image 86_T 1 is imaged is inputted to the learning model 58. Since it is determined that the learning model 58 is not photographed a person, to determine the input image 86_t 1 of time t 1 to the output image 87_t 1.

時刻t:入力画像86_tには人物82が写ったため、学習モデル58は人物が写っていると判断し、入力画像86_tを破棄し、時刻tの出力画像87_tをそのまま出力画像に決定する。 Time t 2 : Since the person 82 is captured in the input image 86_t 2 , the learning model 58 determines that the person is captured, discards the input image 86_t 2, and uses the output image 87_t 1 at time t 1 as an output image as it is. decide.

時刻t〜t:引き続き人物82が写っているため、学習モデル58は人物が写っていると判断する。このため、1周期前の出力画像87_t〜87_tをそのまま出力画像に決定する。 Time t 3 to t 5 : Since the person 82 continues to be captured, the learning model 58 determines that the person is captured. Therefore, the output images 87_t 2 to 87_t 4 one cycle before are determined as output images as they are.

時刻t:人物82が商品を取って商品棚81の前から立ち去ったため、入力画像には商品棚81が写るが商品が1つ少なくっている。学習モデル58は人物が写っていないと判断するので、時刻tの入力画像86_tを出力画像87_tに決定する。 Time t 6 : Since the person 82 picks up the product and leaves from the front of the product shelf 81, the product shelf 81 is shown in the input image, but the product is reduced by one. Since it is determined that the learning model 58 is not photographed a person, to determine the input image 86_t 6 of the time t 6 to the output image 87_t 6.

このように、学習モデル58を使用することで学習モデル58の精度で人物が写っている入力画像を破棄できる。   In this way, by using the learning model 58, it is possible to discard an input image in which a person is captured with the accuracy of the learning model 58.

図26は、学習モデルが入力画像を破棄する手順を示すフローチャート図の一例である。図26の処理は入力画像が撮像されるごとに繰り返し実行される。まず、入力画像がブロックに分割される(S15−1)。   FIG. 26 is an example of a flowchart illustrating a procedure for the learning model to discard the input image. The process in FIG. 26 is repeatedly executed every time an input image is captured. First, the input image is divided into blocks (S15-1).

学習モデルは入力画像に動体が写っているか否かを判断する(S26−1)。入力画像に動体が写っていない場合、学習モデルは出力画像を入力画像で更新する(S26−2)。   The learning model determines whether or not a moving object is shown in the input image (S26-1). If no moving object is shown in the input image, the learning model updates the output image with the input image (S26-2).

入力画像に動体が写っている場合、学習モデルは1周期前の出力画像を出力する(S26−3)。   If a moving object is shown in the input image, the learning model outputs an output image one cycle before (S26-3).

そして、学習モデル58は全ての分割後の画像の処理が終わったか否かを判断する(S15−6)。全ての分割後の画像の処理が終わっていなければステップS26−1からの処理を繰り返し、全ての分割後の画像の処理が終わった場合は分割後の画像を合成する(S15−7)。   Then, the learning model 58 determines whether or not all the divided images have been processed (S15-6). If all the divided images have not been processed, the processing from step S26-1 is repeated. If all the divided images have been processed, the divided images are synthesized (S15-7).

2.学習モデルで破棄されなかった入力画像と出力画像の類似度により入力画像を破棄
図27を用いて、学習モデル58を用いた出力画像の決定方法について説明する。図27(a)は入力画像を示し、図27(b)は出力画像を示す。判断部55は、学習モデル58を使うと共に、出力画像と入力画像の類似度が閾値以上かどうかに基づいて出力画像を決定する。
2. The input image is discarded based on the similarity between the input image and the output image that are not discarded in the learning model. A method for determining the output image using the learning model 58 will be described with reference to FIG. FIG. 27A shows an input image, and FIG. 27B shows an output image. The determination unit 55 uses the learning model 58 and determines an output image based on whether the similarity between the output image and the input image is equal to or greater than a threshold value.

時刻t:入力画像86_tが撮像されると、学習モデル58に入力される。学習モデル58は人物が写っていないと判断する。時刻tでは出力画像がないため判断部55は入力画像86_tを出力すると判断する。 Time t 0: When the input image 86_t 0 is captured, it is input to the learning model 58. The learning model 58 determines that no person is captured. Since there is no output image at time t 0 , the determination unit 55 determines to output the input image 86_t 0 .

時刻t:入力画像86_tが撮像されると、学習モデル58に入力される。学習モデル58は人物が写っていないと判断する。次に、類似度算出部53は出力画像87_tと入力画像86_tの類似度を算出する。商品棚81の商品に変化がないので、入力画像86_tと出力画像87_tの類似度は高く閾値以上となる。類似度が閾値以上の場合、判断部55は時刻tの入力画像86_tを出力画像87_tに決定する。 Time t 1: the input image 86_T 1 is imaged is inputted to the learning model 58. The learning model 58 determines that no person is captured. Then, the similarity calculation unit 53 calculates the degree of similarity between the input image 86_T 1 and the output image 87_t 0. Since there is no change in the product of the shelves 81, the similarity of the input image 86_T 1 and the output image 87_T 0 becomes higher threshold or more. When the similarity is equal to or larger than the threshold, the determination unit 55 determines the input image 86_T 1 at time t 1 in the output image 87_t 1.

時刻t:入力画像86_tには人物82が写ったため、学習モデル58は人物が写っていると判断する。判断部55は入力画像86_tを破棄し、時刻tの出力画像87_tをそのまま出力画像に決定する。 Time t 2: Since the input image 86_T 2 has captured a person 82, learning model 58 determines that the person is captured. Determining unit 55 discards an input image 86_t 2, to determine the output image 87_T 1 at time t 1 as the output image.

時刻t〜t:引き続き人物82が写っているため、学習モデル58は人物が写っていると判断する。判断部55は1周期前の出力画像87_t〜87_tをそのまま出力画像に決定する。 Time t 3 to t 5 : Since the person 82 continues to be captured, the learning model 58 determines that the person is captured. The determination unit 55 determines the output images 87_t 2 to 87_t 4 one cycle before as output images.

時刻t:人物82が商品を取って商品棚81の前から立ち去ったため、入力画像には商品棚81が写るが商品が1つ少なくっている。まず、学習モデル58は人物が写っていないと判断する。時刻tの入力画像86_tと時刻tの出力画像87_tの類似度は、中程度となる。類似度が中程度(閾値以上)の場合、判断部55は時刻tの入力画像86_tを出力画像87_tに決定する。 Time t 6 : Since the person 82 picks up the product and leaves from the front of the product shelf 81, the product shelf 81 is shown in the input image, but the product is reduced by one. First, the learning model 58 determines that no person is captured. Similarity of the output image 87_T 5 of the input image 86_T 6 and time t 5 the time t 6 becomes moderate. For moderate similarity (or threshold), the determination unit 55 determines the input image 86_T 6 at time t 6 to the output image 87_t 6.

このように、学習モデル58を使用することで学習モデル58の精度で人物が写っている入力画像を破棄できる。人物が写っていないと学習モデル58が判断した入力画像に対し、類似度算出部53が類似度を算出するので、実際には人物が写っている入力画像を破棄することができる。   In this way, by using the learning model 58, it is possible to discard an input image in which a person is captured with the accuracy of the learning model 58. Since the similarity calculation unit 53 calculates the similarity with respect to the input image determined by the learning model 58 that the person is not captured, the input image in which the person is actually captured can be discarded.

<動作手順>
図28は、画像管理装置5が出力画像を決定する手順を示すフローチャート図の一例である。図28の説明では主に図15との相違を説明する。
<Operation procedure>
FIG. 28 is an example of a flowchart illustrating a procedure in which the image management apparatus 5 determines an output image. In the description of FIG. 28, differences from FIG. 15 will be mainly described.

まず、画像分割部52が全天球画像を分割する(ステップS15−1)。   First, the image dividing unit 52 divides the omnidirectional image (step S15-1).

次に、学習モデル58が分割された画像に人物が写っているか否かを判断する(S26−1)。人物が写っていると判断された場合、処理はステップS15−5に進み、判断部55は1周期前の出力画像をそのまま出力画像として出力すると決定する(ステップS15−5)。   Next, it is determined whether or not a person is shown in the image obtained by dividing the learning model 58 (S26-1). If it is determined that a person is captured, the process proceeds to step S15-5, and the determination unit 55 determines to output the output image one cycle before as an output image (step S15-5).

人物が写っていないと判断された場合、処理はステップS26−1に進み、学習モデル58は分割後の画像1つずつについて動体が写っているか否かを判断する(ステップS26−1)。以降の処理は図15と同様でよい。   If it is determined that no person is captured, the process proceeds to step S26-1 and the learning model 58 determines whether a moving object is captured for each of the divided images (step S26-1). The subsequent processing may be the same as in FIG.

<まとめ>
したがって、本実施例の画像処理システム200によれば、学習モデル58を利用するので学習モデル58の精度が高ければ人物が写っている入力画像を高精度に検出できる。人物が写っていると学習モデル58が判断した画像には商品棚が更新された画像は含まれないので、人物が写っていないと学習モデル58が判断した画像は商品棚が更新された画像又は更新されていない画像になる。商品棚が更新されている場合は出力画像を早期に入力画像で更新したい場合には、閾値を小さくすることで人体が写っている可能性が低い状況で早期に出力画像を更新できる。
<Summary>
Therefore, according to the image processing system 200 of the present embodiment, since the learning model 58 is used, an input image in which a person is captured can be detected with high accuracy if the accuracy of the learning model 58 is high. Since the image determined by the learning model 58 that the person is captured does not include the image in which the product shelf is updated, the image determined by the learning model 58 that the person is not captured is the image in which the product shelf is updated or The image is not updated. When the product shelf has been updated, if it is desired to update the output image with the input image at an early stage, the output image can be updated at an early stage in a situation where there is a low possibility that a human body is shown by reducing the threshold value.

また、学習モデル58を用いた処理は実施例1だけでなく実施例2,3のいずれとも組み合わせて適用できる。いずれの実施例と組み合わせる場合でも、入力画像に対し人物が写っているか否かを最初に学習モデル58が判断すればよい。実施例3において人物が写っていると学習モデル58が判断した場合、人物が存在するブロックを中心に拡張処理部57が拡張処理を行う。   Further, the process using the learning model 58 can be applied in combination with any one of the second and third embodiments as well as the first embodiment. In combination with any of the embodiments, the learning model 58 may first determine whether or not a person is shown in the input image. In the third embodiment, when the learning model 58 determines that a person is captured, the extension processing unit 57 performs extension processing around the block where the person exists.

また、本実施例では、入力画像と出力画像の類似度が算出される前に人物が写っているか否かを学習モデル58が判断したが、入力画像と出力画像の類似度の算出の後に、人物が写っているか否かを学習モデル58が判断してもよい。類似度が閾値よりも高いため、判断部55が出力画像を入力画像で更新すると判断しても、人体の一部が写っている場合に入力画像を破棄できる。すなわち、商品棚の更新に対しては出力画像を入力画像で更新する必要があるため、閾値(実施例2では閾値x)を大きくすることに限界があるが、本実施例では早期に出力画像を更新するために閾値が低くなり人体が写っている入力画像があっても、学習モデル58がこれを検出して人物が写っている入力画像を破棄できる。   In this embodiment, the learning model 58 determines whether or not a person is captured before the similarity between the input image and the output image is calculated. After the similarity between the input image and the output image is calculated, The learning model 58 may determine whether a person is shown. Since the similarity is higher than the threshold value, even if the determination unit 55 determines to update the output image with the input image, the input image can be discarded when a part of the human body is captured. In other words, since it is necessary to update the output image with the input image for updating the product shelf, there is a limit to increasing the threshold value (threshold value x in the second embodiment). Even if there is an input image in which the threshold value is low and the human body is captured, the learning model 58 can detect this and discard the input image in which the person is captured.

本実施例では画像処理システム200の変形例について説明する。   In this embodiment, a modification of the image processing system 200 will be described.

<動体除去を行う装置について>
実施例1〜3では画像管理装置5が動体除去を行ったが、動体除去は撮像装置1、通信端末3、無線ルータ9a、又は、端末装置7のどの装置が行ってもよい。また、店舗側に存在するコンピュータ又はマイクロサーバのような情報処理装置が行ってもよい。また、図4には記載がないが通信ネットワーク9を介して接続された動体除去の専用の情報処理装置が動体を除去してもよい。
<Device for moving object removal>
In the first to third embodiments, the image management apparatus 5 performs moving body removal. However, the moving body removal may be performed by any one of the imaging apparatus 1, the communication terminal 3, the wireless router 9a, or the terminal apparatus 7. In addition, an information processing apparatus such as a computer or a microserver present on the store side may perform the process. Further, although not shown in FIG. 4, a dedicated information processing apparatus for moving object removal connected via the communication network 9 may remove the moving object.

また、図4では端末装置7が画像管理装置5から動体除去された全天球画像を取得しているが、端末装置7は撮像装置1から直接、全天球画像を取得してもよい。この場合も、撮像装置1、通信端末3、無線ルータ、又は端末装置7のどの装置が動体除去を行ってもよい。また、撮像装置1と端末装置7が直接、接続されていてもよい。また、端末装置7と撮像装置1が一体に構成されていてもよい。   In FIG. 4, the terminal device 7 acquires the omnidirectional image from which the moving object is removed from the image management device 5, but the terminal device 7 may acquire the omnidirectional image directly from the imaging device 1. In this case as well, any device of the imaging device 1, the communication terminal 3, the wireless router, or the terminal device 7 may perform moving object removal. Moreover, the imaging device 1 and the terminal device 7 may be directly connected. Further, the terminal device 7 and the imaging device 1 may be configured integrally.

また、端末装置7と撮像装置1とが一体の場合、端末装置7が画像管理装置5に全天球画像を送信し、動体が除去された全天球画像を画像管理装置5から取得してもよい。   When the terminal device 7 and the imaging device 1 are integrated, the terminal device 7 transmits an omnidirectional image to the image management device 5 and acquires the omnidirectional image from which the moving object is removed from the image management device 5. Also good.

<店舗以外の利用シーン>
会議や講義等で使用されるホワイトボード又は電子黒板に表示された情報を、複数の端末装置7で共有するために、撮像装置1がホワイトボード又は電子黒板を撮像する場合がある。撮像時に筆記者が写る場合があるが、本実施形態で説明した動体除去により筆記者を除外すると共に、ホワイトボード又は電子黒板に表示された情報の変化を検出して出力画像を更新できる。
<Use scenes other than stores>
In order to share information displayed on a whiteboard or an electronic blackboard used in a meeting or a lecture with a plurality of terminal devices 7, the imaging device 1 may image the whiteboard or the electronic blackboard. In some cases, the writer may be shown at the time of imaging, but the writer can be excluded by moving object removal described in the present embodiment, and the output image can be updated by detecting a change in information displayed on the whiteboard or the electronic blackboard.

また、ライブカメラについても好適に利用することができる。ライブカメラとは、遠隔地の映像をユーザのいる場所から監視するために遠隔地に設置され、映像を周期的に撮像する撮像装置1である。例えば、天候の観測地や観光地に設置され、全天球画像に環境客等が写っている場合に画像管理装置5が動体を除去できる。屋外だけでなく博物館などの屋内に撮像装置1が配置されてもよい。   Moreover, it can utilize suitably also about a live camera. The live camera is an image pickup apparatus 1 that is installed in a remote place to monitor a remote place image from a place where the user is present and periodically picks up the image. For example, the image management apparatus 5 can remove moving objects when installed in a weather observation spot or a sightseeing spot and an environmental customer or the like is reflected in the spherical image. The imaging device 1 may be arranged not only outdoors but indoors such as a museum.

また、物流倉庫等に配置された撮像装置1の画像を解析して画像管理装置5が商品の補充を行う在庫管理にも、本実施形態の動体除去方法を適用できる。物流倉庫では商品をピックアップしたり補充したりする作業員が働いているため、全天球画像に写る場合があるが、本実施形態により全天球画像から作業員を除去し、更に、商品の減少による全天球画像の変化を出力画像として出力できる。   The moving object removal method of the present embodiment can also be applied to inventory management in which the image management device 5 replenishes merchandise by analyzing an image of the imaging device 1 disposed in a distribution warehouse or the like. In the distribution warehouse, there are workers who pick up and replenish products, so it may appear in the omnidirectional image, but this embodiment removes workers from the omnidirectional image, and further, The change of the omnidirectional image due to the decrease can be output as an output image.

また、工場のラインを撮像装置1で撮像し、画像管理装置5がラインの異常を検知する異常監視にも本実施形態の動体除去方法を適用できる。工場のラインでは作業員が組み立て等を行っているが、本実施形態により全天球画像から作業員を除去し、更に、ライン上の製品の変化による全天球画像の変化を出力画像として出力できる。   The moving object removal method of this embodiment can also be applied to abnormality monitoring in which a factory line is imaged by the imaging apparatus 1 and the image management apparatus 5 detects a line abnormality. In the factory line, workers are assembling, etc., but this embodiment removes workers from the omnidirectional image and outputs the change in the omnidirectional image due to the change in the product on the line as an output image. it can.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、本実施形態では同じ場所から周囲360度(同じ方向を撮像するのと同じ効果)を撮像する定点観測を例に説明したが、撮像装置1は固定されていなくてもよい。例えばユーザが把持する状態でも撮像は可能である。また、撮像装置1がゆっくりと移動する場合、背景の変化による類似度は中程度以上になるので、入力画像で出力画像を更新できる。   For example, in the present embodiment, the fixed point observation for imaging 360 degrees around the same place (the same effect as imaging in the same direction) has been described as an example, but the imaging device 1 may not be fixed. For example, it is possible to take an image even in a state where the user is holding. In addition, when the imaging apparatus 1 moves slowly, the similarity due to the change in the background becomes medium or higher, so that the output image can be updated with the input image.

また、端末装置7が表示した全天球画像が時系列に記憶されてもよい。これにより、商品棚の商品がどのように変化したのか商品棚だけの変化を再生できる。商品棚の他、天候の変化を記録する場合などでも有効である。   Further, the omnidirectional image displayed by the terminal device 7 may be stored in time series. Thereby, it is possible to reproduce the change in the product shelf as to how the product in the product shelf has changed. This is also effective when recording weather changes in addition to product shelves.

また、以上の実施例で示した図9、図20などの構成例は、画像処理システム200の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。画像処理システム200は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。   9 and 20 shown in the above embodiments are divided according to main functions in order to facilitate understanding of the processing of the image processing system 200. However, the present invention is not limited by the way of dividing or the name of each processing unit. The image processing system 200 can also be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

また、画像管理装置5の機能が複数のサーバ装置に分散されていてもよいし、画像処理システム200が複数の画像管理装置5を有していてもよい。   Further, the functions of the image management apparatus 5 may be distributed to a plurality of server apparatuses, or the image processing system 200 may have a plurality of image management apparatuses 5.

また、送受信部51は画像取得手段の一例であり、類似度算出部53は類似度算出手段の一例であり、判断部55と学習モデル58は判断手段の一例であり、判断部55と学習モデル58は被写体画像判断手段の一例であり、画像分割部52は画像分割手段の一例として、拡張処理部57は処理手段の一例であり、表示制御部73と送受信部51は出力手段の一例である。閾値xは第一の閾値の一例であり、閾値yは第二の閾値の一例であり、入力画像と出力画像の類似度は第一の類似度の一例であり、現在の入力画像と過去の入力画像の類似度は第二の類似度の一例である。   The transmission / reception unit 51 is an example of an image acquisition unit, the similarity calculation unit 53 is an example of a similarity calculation unit, the determination unit 55 and the learning model 58 are examples of a determination unit, and the determination unit 55 and the learning model 58 is an example of a subject image determination unit, the image division unit 52 is an example of an image division unit, the expansion processing unit 57 is an example of a processing unit, and the display control unit 73 and the transmission / reception unit 51 are examples of an output unit. . The threshold x is an example of the first threshold, the threshold y is an example of the second threshold, the similarity between the input image and the output image is an example of the first similarity, and the current input image and the past The similarity of the input image is an example of the second similarity.

1 撮像装置
3 通信端末
5 画像管理装置
7 端末装置
81 商品棚
82 人物
86 入力画像
87 出力画像
200 画像処理システム
DESCRIPTION OF SYMBOLS 1 Imaging device 3 Communication terminal 5 Image management device 7 Terminal device 81 Product shelf 82 Person 86 Input image 87 Output image 200 Image processing system

特許5493709号公報Japanese Patent No. 5493709

Claims (15)

情報処理装置を、
撮像装置が撮像した画像を入力画像として取得する画像取得手段と、
前記画像取得手段が取得した前記入力画像が被写体の画像か否かを判断する被写体画像判断手段と、
前記入力画像が被写体の画像であると判断した場合に、前記入力画像を出力すると判断し、被写体の画像でないと判断した場合に外部に出力された出力画像を出力すると判断する判断手段と、
前記判断手段の判断結果に応じて、前記入力画像又は前記出力画像を出力する出力手段、として機能させるためのプログラム。
Information processing device
Image acquisition means for acquiring an image captured by the imaging device as an input image;
Subject image determination means for determining whether the input image acquired by the image acquisition means is an image of a subject;
A determination unit that determines that the input image is output when it is determined that the input image is an image of a subject, and that outputs an output image that is output to the outside when it is determined that the input image is not an image of the subject;
A program for functioning as an output unit that outputs the input image or the output image according to a determination result of the determination unit.
前記情報処理装置を、
前記画像取得手段が取得した前記入力画像と外部に出力された前記出力画像の第一の類似度を算出する類似度算出手段として機能させ、
前記第一の類似度が第一の閾値以上の場合、前記被写体画像判断手段は、前記入力画像が前記被写体の画像であると判断し、前記第一の類似度が第一の閾値未満の場合、前記入力画像を被写体の画像でないと判断する請求項1に記載のプログラム。
The information processing apparatus;
Function as a similarity calculation means for calculating a first similarity between the input image acquired by the image acquisition means and the output image output to the outside,
When the first similarity is greater than or equal to a first threshold, the subject image determination means determines that the input image is an image of the subject, and the first similarity is less than the first threshold The program according to claim 1, wherein the input image is determined not to be an image of a subject.
情報処理装置を、動体が写っている画像又は写っていない画像を予め学習して画像における動体の有無を出力する学習モデルとして機能させ、
前記画像取得手段が取得した前記入力画像に動体が写っていると前記学習モデルが判断しない場合、前記被写体画像判断手段は前記入力画像を被写体の画像と判断し、前記入力画像に動体が写っていると前記学習モデルが判断した場合、前記被写体画像判断手段は前記入力画像を被写体の画像でないと判断する請求項1に記載のプログラム。
The information processing apparatus functions as a learning model that learns in advance an image in which a moving object is captured or an image in which a moving object is not captured and outputs the presence or absence of the moving object in the image,
If the learning model does not determine that a moving object is included in the input image acquired by the image acquisition unit, the subject image determination unit determines that the input image is a subject image, and the moving object appears in the input image. The program according to claim 1, wherein the subject image determination unit determines that the input image is not a subject image when the learning model determines that the input image is present.
前記第一の類似度が第一の閾値以上の場合、
前記類似度算出手段は、前記画像取得手段が取得した現在の入力画像と、前記現在の入力画像よりも過去の入力画像との第二の類似度を算出し、
前記判断手段は、前記第二の類似度が第二の閾値以上の場合、現在の前記入力画像を出力すると判断し、前記第二の類似度が第二の閾値未満の場合、外部に出力した前記出力画像を出力すると判断する請求項2に記載のプログラム。
If the first similarity is greater than or equal to a first threshold,
The similarity calculation means calculates a second similarity between the current input image acquired by the image acquisition means and a past input image than the current input image,
The determination means determines that the current input image is output when the second similarity is greater than or equal to a second threshold value, and outputs to the outside when the second similarity is less than the second threshold value. The program according to claim 2, wherein it is determined that the output image is output.
前記画像取得手段が取得した前記入力画像に動体が写っていると前記学習モデルが判断しない場合、前記情報処理装置を、前記画像取得手段が取得した前記入力画像と外部に出力された出力画像の第一の類似度を算出する類似度算出手段として機能させ、
前記第一の類似度が第一の閾値以上の場合、
前記類似度算出手段は、前記画像取得手段が取得した現在の入力画像と、前記現在の入力画像よりも過去の入力画像との第二の類似度を算出し、
前記判断手段は、前記第二の類似度が第二の閾値以上の場合、現在の前記入力画像を出力すると判断し、前記第二の類似度が第二の閾値未満の場合、外部に出力した前記出力画像を出力すると判断する請求項3に記載のプログラム。
When the learning model does not determine that a moving object is reflected in the input image acquired by the image acquisition unit, the information processing apparatus is configured to connect the input image acquired by the image acquisition unit and the output image output to the outside. Function as a similarity calculation means for calculating the first similarity,
If the first similarity is greater than or equal to a first threshold,
The similarity calculation means calculates a second similarity between the current input image acquired by the image acquisition means and a past input image than the current input image,
The determination means determines that the current input image is output when the second similarity is greater than or equal to a second threshold value, and outputs to the outside when the second similarity is less than the second threshold value. The program according to claim 3, wherein it is determined that the output image is output.
前記判断手段は、前記第一の類似度が第一の閾値未満の場合、又は、前記第二の類似度が第二の閾値未満の場合、
前記撮像装置が撮像する被写体と前記撮像装置の間に存在する場合に前記被写体よりも手前に写る動体が、前記画像取得手段が取得した現在の前記入力画像に写っていると判断する請求項4又は5に記載のプログラム。
When the first similarity is less than a first threshold, or when the second similarity is less than a second threshold,
5. It is determined that a moving object that appears in front of the subject when the image capturing device exists between the subject to be imaged and the image capturing device is reflected in the current input image acquired by the image acquisition unit. Or the program of 5.
前記類似度算出手段は、動体の移動速度に基づいて決定された所定時間前の入力画像と、前記画像取得手段が取得した現在の前記入力画像との前記第二の類似度を算出する請求項4〜6のいずれか1項に記載のプログラム。   The similarity calculation unit calculates the second similarity between an input image determined a predetermined time ago based on a moving speed of a moving object and the current input image acquired by the image acquisition unit. The program according to any one of 4 to 6. 前記第二の閾値は前記第一の閾値よりも大きいことを特徴とする請求項4〜7のいずれか1項に記載のプログラム。   The program according to any one of claims 4 to 7, wherein the second threshold value is larger than the first threshold value. 前記情報処理装置を、前記画像取得手段が取得した前記入力画像をブロックに分割する画像分割手段として機能させ、
前記類似度算出手段は、ブロックに分割された前記入力画像と出力された前記出力画像のブロックごとの前記第一の類似度を算出し、
前記判断手段はブロックごとに、現在の前記入力画像を出力するか、又は、外部に出力された前記出力画像を出力するかを判断する請求項2又は4〜8のいずれか1項に記載のプログラム。
Causing the information processing apparatus to function as an image dividing unit that divides the input image acquired by the image acquiring unit into blocks;
The similarity calculation means calculates the first similarity for each block of the input image divided into blocks and the output image output,
9. The determination unit according to claim 2, wherein the determination unit determines whether to output the current input image or to output the output image output to the outside for each block. program.
前記画像分割手段は、前記撮像装置が撮像する画像の座標情報に対応付けて前記ブロックの大きさに関する情報が対応付けられた大きさ情報を参照し、
前記画像取得手段が取得した前記入力画像をブロックに分割する請求項9に記載のプログラム。
The image dividing means refers to size information in which information relating to the size of the block is associated with coordinate information of an image captured by the imaging device,
The program according to claim 9, wherein the input image acquired by the image acquisition unit is divided into blocks.
前記ブロックの大きさは、前記撮像装置が撮像する被写体よりも大きく、前記被写体をと前記撮像装置の間に存在する場合に前記被写体よりも手前に写る動体よりも小さいことを特徴とする請求項9又は10に記載のプログラム。   The size of the block is larger than a subject imaged by the imaging device, and smaller than a moving object that appears in front of the subject when the subject exists between the imaging device and the subject. The program according to 9 or 10. 前記情報処理装置を、更に、外部に出力すると前記判断手段が判断したブロックに隣接した各ブロックについても前記出力画像を外部に出力すると判断する処理手段として機能させることを特徴とする請求項9〜11のいずれか1項に記載のプログラム。   The information processing apparatus is further caused to function as a processing unit that determines that the output image is output to the outside for each block adjacent to the block that is determined by the determination unit when the information processing device is output to the outside. 12. The program according to any one of 11 above. 前記処理手段は、外部に出力すると前記判断手段が判断したブロックの8近傍に隣接した各ブロックについて前記出力画像を外部に出力すると判断する請求項12に記載のプログラム。   13. The program according to claim 12, wherein the processing unit determines that the output image is output to the outside for each block adjacent to the vicinity of 8 blocks determined by the determination unit to output to the outside. 撮像装置が撮像した画像を入力画像として取得する画像取得手段と、
前記画像取得手段が取得した前記入力画像が被写体の画像か否かを判断する被写体画像判断手段と、
前記入力画像を被写体の画像と判断した場合に、前記入力画像を出力すると判断し、被写体の画像でないと判断した場合に外部に出力された出力画像を出力すると判断する判断手段と、
前記判断手段の判断結果に応じて、前記入力画像又は前記出力画像を出力する出力手段と、を有することを特徴とする情報処理装置。
Image acquisition means for acquiring an image captured by the imaging device as an input image;
Subject image determination means for determining whether the input image acquired by the image acquisition means is an image of a subject;
A determination unit that determines that the input image is output when the input image is determined to be an image of a subject, and that determines that an output image output to the outside is output when it is determined that the input image is not an image of the subject;
An information processing apparatus comprising: an output unit configured to output the input image or the output image according to a determination result of the determination unit.
周囲を周期的に撮像する撮像装置と、1つ以上の情報処理装置とを有する画像処理システムであって、
撮像装置が撮像した画像を入力画像として取得する画像取得手段と、
前記画像取得手段が取得した前記入力画像が被写体の画像か否かを判断する被写体画像判断手段と、
前記入力画像を被写体の画像と判断した場合に、前記入力画像を出力すると判断し、被写体の画像でないと判断した場合に外部に出力された出力画像を出力すると判断する判断手段と、
前記判断手段の判断結果に応じて、前記入力画像又は前記出力画像を出力する出力手段と、を有することを特徴とする画像処理システム。
An image processing system having an imaging device that periodically images the surroundings and one or more information processing devices,
Image acquisition means for acquiring an image captured by the imaging device as an input image;
Subject image determination means for determining whether the input image acquired by the image acquisition means is an image of a subject;
A determination unit that determines that the input image is output when the input image is determined to be an image of a subject, and that determines that an output image output to the outside is output when it is determined that the input image is not an image of the subject;
An image processing system comprising: an output unit that outputs the input image or the output image according to a determination result of the determination unit.
JP2017181828A 2017-09-21 2017-09-21 Program, information processing device, image processing system Active JP7124281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017181828A JP7124281B2 (en) 2017-09-21 2017-09-21 Program, information processing device, image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017181828A JP7124281B2 (en) 2017-09-21 2017-09-21 Program, information processing device, image processing system

Publications (2)

Publication Number Publication Date
JP2019057849A true JP2019057849A (en) 2019-04-11
JP7124281B2 JP7124281B2 (en) 2022-08-24

Family

ID=66106583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017181828A Active JP7124281B2 (en) 2017-09-21 2017-09-21 Program, information processing device, image processing system

Country Status (1)

Country Link
JP (1) JP7124281B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177085A1 (en) * 2020-03-05 2021-09-10 ソニーセミコンダクタソリューションズ株式会社 Information processing device, and information processing method
WO2022024366A1 (en) * 2020-07-31 2022-02-03 日本電気株式会社 Training data generation device, training data generation system, training data generation method, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048468A (en) * 2004-08-06 2006-02-16 Nomura Research Institute Ltd Image processing system, image processing program, and image processing method
JP2008009576A (en) * 2006-06-28 2008-01-17 Fujifilm Corp Human body area extraction method and device, and program
JP2010130128A (en) * 2008-11-26 2010-06-10 Hoya Corp Image capturing apparatus and method
JP2013255076A (en) * 2012-06-06 2013-12-19 Panasonic Corp Image processing apparatus, image processing method, and image processing program
JP2016071502A (en) * 2014-09-29 2016-05-09 セコム株式会社 Target identification device
JP2016157336A (en) * 2015-02-25 2016-09-01 キヤノン株式会社 Image processing apparatus, image processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048468A (en) * 2004-08-06 2006-02-16 Nomura Research Institute Ltd Image processing system, image processing program, and image processing method
JP2008009576A (en) * 2006-06-28 2008-01-17 Fujifilm Corp Human body area extraction method and device, and program
JP2010130128A (en) * 2008-11-26 2010-06-10 Hoya Corp Image capturing apparatus and method
JP2013255076A (en) * 2012-06-06 2013-12-19 Panasonic Corp Image processing apparatus, image processing method, and image processing program
JP2016071502A (en) * 2014-09-29 2016-05-09 セコム株式会社 Target identification device
JP2016157336A (en) * 2015-02-25 2016-09-01 キヤノン株式会社 Image processing apparatus, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177085A1 (en) * 2020-03-05 2021-09-10 ソニーセミコンダクタソリューションズ株式会社 Information processing device, and information processing method
WO2022024366A1 (en) * 2020-07-31 2022-02-03 日本電気株式会社 Training data generation device, training data generation system, training data generation method, and recording medium

Also Published As

Publication number Publication date
JP7124281B2 (en) 2022-08-24

Similar Documents

Publication Publication Date Title
US11509825B2 (en) Image management system, image management method, and computer program product
US10277836B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP6627861B2 (en) Image processing system, image processing method, and program
US10264207B2 (en) Method and system for creating virtual message onto a moving object and searching the same
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
WO2013145566A1 (en) Information processing apparatus, information processing method, and program
JP2017135659A (en) Image management system, image management method, image communication system and program
US10204272B2 (en) Method and system for remote management of location-based spatial object
CN102547105A (en) Method of generating and reproducing moving image data and photographing apparatus using the same
JP6046874B1 (en) Information processing apparatus, information processing method, and program
JP6852293B2 (en) Image processing system, information processing device, information terminal, program
JP6721004B2 (en) Image management system and image management method
JP6686547B2 (en) Image processing system, program, image processing method
US10606886B2 (en) Method and system for remote management of virtual message for a moving object
JP7124281B2 (en) Program, information processing device, image processing system
JP6617547B2 (en) Image management system, image management method, and program
JP2022013427A (en) Information processing apparatus, image generation method, and program
JP2017182681A (en) Image processing system, information processing device, and program
JP7364757B1 (en) Information processing system, information processing method, program, storage medium, and information processing device
JP2024038563A (en) Image processing device, image processing method, program and recording medium
JP2024033277A (en) Communication systems, information processing systems, video playback methods, programs
KR20220013235A (en) Method for performing a video calling, display device for performing the same method, and computer readable medium storing a program for performing the same method
KR101572349B1 (en) Voting system and object presence system using computing device and operatiog method thereof
JP2021125145A (en) Information processing apparatus, image processing system, and program
JP2020154071A (en) Display control device, display control method, program and display control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R151 Written notification of patent or utility model registration

Ref document number: 7124281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151