JP2021026399A - Image output device and image output method - Google Patents

Image output device and image output method Download PDF

Info

Publication number
JP2021026399A
JP2021026399A JP2019142431A JP2019142431A JP2021026399A JP 2021026399 A JP2021026399 A JP 2021026399A JP 2019142431 A JP2019142431 A JP 2019142431A JP 2019142431 A JP2019142431 A JP 2019142431A JP 2021026399 A JP2021026399 A JP 2021026399A
Authority
JP
Japan
Prior art keywords
image
unit
captured
output device
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019142431A
Other languages
Japanese (ja)
Other versions
JP6788710B1 (en
Inventor
拓也 入澤
Takuya Irisawa
拓也 入澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ecomott Inc
Original Assignee
Ecomott Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ecomott Inc filed Critical Ecomott Inc
Priority to JP2019142431A priority Critical patent/JP6788710B1/en
Application granted granted Critical
Publication of JP6788710B1 publication Critical patent/JP6788710B1/en
Publication of JP2021026399A publication Critical patent/JP2021026399A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To protect privacy of human present in places such as a shop as well as provide an image indicating the situation of the place.SOLUTION: An image output device 1 comprises: a storage part 12 storing a reference image indicative of layout corresponding to the layout of places included in an imaging range by an imaging apparatus; an acquisition part 111 acquiring a picked-up image captured by the imaging apparatus; an identification part 113 identifying, on the basis of the picked-up image acquired by the acquisition part 111, a human position in which a human is present in the picked-up image; and an output part 115 superposing the human position identified by the identification part 113 with the reference image and outputting it.SELECTED DRAWING: Figure 2

Description

本発明は、店舗等の場所の状況を示す画像を出力する画像出力装置及び画像出力方法に関する。 The present invention relates to an image output device and an image output method that output an image showing the situation of a place such as a store.

特許文献1には、店舗内の撮像画像を解析してテーブル及び椅子の数及び位置を検出するとともに、顧客の有無を検出することによって、空席情報を提供するシステムが開示されている。 Patent Document 1 discloses a system that provides vacant seat information by analyzing a captured image in a store to detect the number and position of tables and chairs and detecting the presence or absence of customers.

国際公開第2018/116359号International Publication No. 2018/116359

特許文献1に記載されたシステムは、撮像画像上に空席を示すアイコンを重畳して表示する。撮像画像には、店舗内の顧客が写っている可能性がある。そのため、空席を示すアイコンを重畳した撮像画像を不特定の相手に公開することは、プライバシー保護の観点から好ましくないという問題がある。 The system described in Patent Document 1 superimposes and displays an icon indicating a vacant seat on a captured image. The captured image may show customers in the store. Therefore, there is a problem that it is not preferable from the viewpoint of privacy protection to publish the captured image on which the icon indicating the vacant seat is superimposed to an unspecified party.

本発明はこれらの点に鑑みてなされたものであり、店舗等の場所にいる人間のプライバシーを保護しながら、該場所の状況を示す画像を提供できるようにすることを目的とする。 The present invention has been made in view of these points, and an object of the present invention is to be able to provide an image showing the situation of a place such as a store while protecting the privacy of a person.

本発明の第1の態様の画像出力装置は、撮像装置による撮像範囲に含まれる場所のレイアウトに対応するレイアウトを表す基準画像を記憶する記憶部と、前記撮像装置が撮像した撮像画像を取得する取得部と、前記取得部が取得した前記撮像画像に基づいて、前記撮像画像の中で人間がいる人間位置を特定する特定部と、前記基準画像に、前記特定部が特定した前記人間位置を示す図形を重畳して出力する出力部と、を有する。 The image output device of the first aspect of the present invention acquires a storage unit that stores a reference image representing a layout corresponding to the layout of a place included in the image pickup range by the image pickup device, and an image captured by the image pickup device. The acquisition unit, the specific unit that identifies the human position in the captured image based on the captured image acquired by the acquisition unit, and the human position specified by the specific unit in the reference image. It has an output unit that superimposes and outputs the indicated figures.

前記特定部は、前記撮像画像に基づいて、前記撮像画像の中で座席がある座席位置を特定し、前記出力部は、前記人間位置を示す第1図形と、前記座席位置を示す、前記第1図形とは異なる第2図形とを、前記基準画像に重畳して出力してもよい。 The specific unit specifies a seat position where a seat is located in the captured image based on the captured image, and the output unit indicates the first figure showing the human position and the seat position. A second figure different from the first figure may be superimposed on the reference image and output.

前記特定部は、過去に特定した前記人間位置に基づいて、前記撮像画像の中で座席がある座席位置を特定し、前記出力部は、前記人間位置を示す第1図形と、前記座席位置を示す、前記第1図形とは異なる第2図形とを前記基準画像に重畳して出力してもよい。 The specific unit identifies the seat position where the seat is located in the captured image based on the human position specified in the past, and the output unit displays the first figure showing the human position and the seat position. A second figure different from the first figure shown may be superimposed on the reference image and output.

前記特定部は、前記撮像画像に基づいて、前記人間の属性を特定し、前記出力部は、前記属性に基づいて、前記人間位置を示す前記図形の表示態様を変化させてもよい。 The specific unit may specify the human attribute based on the captured image, and the output unit may change the display mode of the figure indicating the human position based on the attribute.

前記出力部は、前記特定部が特定した前記人間の人数が変化した場合に、前記基準画像に前記図形を重畳して出力してもよい。 The output unit may superimpose the figure on the reference image and output the figure when the number of humans specified by the specific unit changes.

前記出力部は、前記撮像装置が設置されている場所に予め関連付けられた情報端末へ、前記基準画像に前記図形を重畳して送信してもよい。 The output unit may superimpose the figure on the reference image and transmit it to an information terminal associated with a place where the image pickup apparatus is installed in advance.

前記画像出力装置は、情報端末から閲覧要求を受信する受信部をさらに有し、前記出力部は、前記閲覧要求を送信した前記情報端末へ、前記基準画像に前記図形を重畳して送信してもよい。 The image output device further includes a receiving unit that receives a browsing request from an information terminal, and the output unit transmits the reference image by superimposing the graphic on the information terminal that has transmitted the browsing request. May be good.

前記取得部は、前記受信部が前記閲覧要求を受信した場合に、前記撮像装置から前記撮像画像を取得してもよい。 The acquisition unit may acquire the captured image from the imaging device when the receiving unit receives the viewing request.

前記画像出力装置は、前記撮像画像に対して、前記撮像装置が設置されている場所の構造物を抽出する加工をすることによって、前記基準画像を生成する生成部をさらに有してもよい。 The image output device may further have a generation unit that generates the reference image by processing the captured image to extract a structure at a place where the image pickup device is installed.

前記記憶部は、所定の期間内に前記撮像装置が撮像した撮像画像を、前記基準画像として予め記憶してもよい。 The storage unit may store in advance the captured image captured by the imaging device as the reference image within a predetermined period.

本発明の第2の態様の画像出力方法は、プロセッサが実行する、撮像装置による撮像範囲に含まれる場所のレイアウトに対応するレイアウトを表す基準画像を記憶部に記憶させるステップと、前記撮像装置が撮像した撮像画像を取得するステップと、前記取得するステップが取得した前記撮像画像に基づいて、前記撮像画像の中で人間がいる人間位置を特定するステップと、前記基準画像に、前記特定するステップが特定した前記人間位置を示す図形を重畳して出力するステップと、を有する。 The image output method of the second aspect of the present invention includes a step of storing a reference image representing a layout corresponding to the layout of a place included in the image pickup range by the image pickup apparatus in the storage unit, which is executed by the processor, and the image pickup apparatus. A step of acquiring an captured image, a step of specifying a human position in the captured image based on the captured image acquired by the acquisition step, and a step of specifying the reference image. It has a step of superimposing and outputting a figure indicating the human position specified by.

本発明によれば、店舗等の場所にいる人間のプライバシーを保護しながら、該場所の状況を示す画像を提供できるという効果を奏する。 According to the present invention, it is possible to provide an image showing the situation of a place such as a store while protecting the privacy of a person in the place.

実施形態に係る画像出力システムの模式図である。It is a schematic diagram of the image output system which concerns on embodiment. 実施形態に係る画像出力システムのブロック図である。It is a block diagram of the image output system which concerns on embodiment. 撮像装置が設置されている店舗を説明するための模式図である。It is a schematic diagram for demonstrating the store where the image pickup apparatus is installed. 例示的な基準画像を示す図である。It is a figure which shows an exemplary reference image. 例示的な撮像画像を示す図である。It is a figure which shows an exemplary captured image. 登録画面及びメッセージ画面を表示部上に表示している情報端末の正面図である。It is a front view of the information terminal which displays the registration screen and the message screen on the display part. 例示的な状況画像を示す図である。It is a figure which shows an exemplary situation image. 実施形態に係る画像出力システムが実行する画像出力方法のシーケンス図である。It is a sequence diagram of the image output method executed by the image output system which concerns on embodiment.

[画像出力システムSの概要]
図1は、本実施形態に係る画像出力システムSの模式図である。画像出力システムSは、画像出力装置1と、撮像装置2と、情報端末3とを含む。画像出力システムSは、その他のサーバ、端末等の機器を含んでもよい。
[Overview of image output system S]
FIG. 1 is a schematic diagram of an image output system S according to the present embodiment. The image output system S includes an image output device 1, an image pickup device 2, and an information terminal 3. The image output system S may include other devices such as servers and terminals.

画像出力装置1は、撮像装置2が撮像した撮像画像に基づいて、店舗等の場所の状況を示す画像を出力するコンピュータである。画像出力装置1は、インターネット、ローカルエリアネットワーク等のネットワークを介して、撮像装置2及び情報端末3と通信可能である。 The image output device 1 is a computer that outputs an image showing the situation of a place such as a store based on the captured image captured by the image pickup device 2. The image output device 1 can communicate with the image pickup device 2 and the information terminal 3 via a network such as the Internet or a local area network.

撮像装置2は、店舗等の場所に設けられており、所定の撮像範囲を撮像する1つ以上の撮像部を含む装置である。撮像装置2の撮像範囲(すなわち撮像の向き及び拡大倍率)は変更可能であってもよい。撮像装置2は、撮像部を用いて撮像した撮像画像を、画像出力装置1へ送信する。 The image pickup device 2 is a device provided in a place such as a store and includes one or more image pickup units that capture a predetermined imaging range. The imaging range of the imaging device 2 (that is, the orientation and magnification of imaging) may be changeable. The image pickup device 2 transmits the captured image captured by the image pickup unit to the image output device 1.

情報端末3は、ユーザの操作を受け付けるとともに、様々な情報を表示する通信端末である。ユーザは、例えば店舗の顧客又は従業員である。情報端末3は、例えばスマートフォン、タブレット端末等の携帯端末、又はパーソナルコンピュータである。情報端末3は、ユーザによる操作を受け付け可能なタッチパネル等の操作部と、情報を表示可能な液晶ディスプレイ等の表示部とを有する。 The information terminal 3 is a communication terminal that accepts user operations and displays various information. The user is, for example, a customer or employee of a store. The information terminal 3 is, for example, a mobile terminal such as a smartphone or a tablet terminal, or a personal computer. The information terminal 3 has an operation unit such as a touch panel capable of accepting an operation by a user, and a display unit such as a liquid crystal display capable of displaying information.

本実施形態に係る画像出力システムSが画像を出力する処理の概要を以下に説明する。画像出力装置1は、撮像装置2による撮像範囲に含まれる場所のレイアウト(配置)に対応するレイアウトを表す基準画像を、予め記憶部に記憶させる。基準画像は、店舗等におけるテーブルや椅子等の設備のレイアウトと同一の又は近似したレイアウトを表す画像である。 The outline of the process of outputting an image by the image output system S according to the present embodiment will be described below. The image output device 1 stores in advance a reference image representing a layout corresponding to the layout (arrangement) of a place included in the image pickup range by the image pickup device 2. The reference image is an image showing a layout that is the same as or similar to the layout of equipment such as tables and chairs in a store or the like.

次に画像出力装置1は、撮像装置2が撮像した撮像画像を取得する。画像出力装置1は、撮像画像の中で人間がいる位置である人間位置を特定する。人間位置を特定するために、画像出力装置1は、既知の画像認識技術(人物検出技術)を用いる。 Next, the image output device 1 acquires the captured image captured by the image pickup device 2. The image output device 1 identifies the human position, which is the position where the human is in the captured image. In order to identify the human position, the image output device 1 uses a known image recognition technique (person detection technique).

そして画像出力装置1は、記憶部に記憶された基準画像に、特定した人間位置を示す図形を重畳することによって、店舗等の場所の状況を示す状況画像を生成し、生成した状況画像を情報端末3に出力する。人間位置を示す図形は、例えば円形、楕円形、矩形等の所定の形状を有するアイコンである。 Then, the image output device 1 generates a situation image showing the situation of a place such as a store by superimposing a figure showing a specified human position on the reference image stored in the storage unit, and information the generated situation image. Output to terminal 3. The figure indicating the human position is an icon having a predetermined shape such as a circle, an ellipse, or a rectangle.

このような構成により、画像出力装置1は、実際の店舗等の場所のレイアウトと同一の又は近似したレイアウトの基準画像上に、人間の有無を示す情報を出力する。そのため、画像出力装置1は、店舗等の場所において、該場所にいる人間のプライバシーを保護しながら、該場所における状況を示す情報(例えば空席の割合や混雑の度合い)を、情報端末3を有するユーザに提供できる。 With such a configuration, the image output device 1 outputs information indicating the presence or absence of a human being on a reference image having a layout that is the same as or similar to the layout of a place such as an actual store. Therefore, the image output device 1 has the information terminal 3 in a place such as a store, while protecting the privacy of the person in the place, information indicating the situation in the place (for example, the ratio of vacant seats and the degree of congestion). Can be provided to users.

[画像出力システムSの構成]
図2は、本実施形態に係る画像出力システムSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に分かれて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of image output system S]
FIG. 2 is a block diagram of the image output system S according to the present embodiment. In FIG. 2, the arrows indicate the main data flows, and there may be data flows not shown in FIG. In FIG. 2, each block shows a functional unit configuration, not a hardware (device) unit configuration. Therefore, the block shown in FIG. 2 may be mounted in a single device, or may be mounted separately in a plurality of devices. Data transfer between blocks may be performed via any means such as a data bus, a network, or a portable storage medium.

画像出力装置1は、制御部11と、記憶部12とを有する。制御部11は、取得部111と、生成部112と、特定部113と、受信部114と、出力部115とを有する。記憶部12は、基準画像記憶部121を有する。 The image output device 1 has a control unit 11 and a storage unit 12. The control unit 11 includes an acquisition unit 111, a generation unit 112, a specific unit 113, a reception unit 114, and an output unit 115. The storage unit 12 has a reference image storage unit 121.

記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部12は、制御部11が実行するプログラムを予め記憶している。記憶部12は、画像出力装置1の外部に設けられてもよく、その場合にネットワークを介して制御部11との間でデータの授受を行ってもよい。基準画像記憶部121は、撮像装置2による撮像範囲に含まれる場所のレイアウトに対応するレイアウトを表す基準画像を記憶する。基準画像記憶部121は、記憶部12上の記憶領域であってもよく、あるいは記憶部12上で構成されたデータベースであってもよい。 The storage unit 12 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, and the like. The storage unit 12 stores in advance the program executed by the control unit 11. The storage unit 12 may be provided outside the image output device 1, and in that case, data may be exchanged with the control unit 11 via a network. The reference image storage unit 121 stores a reference image representing a layout corresponding to the layout of a place included in the imaging range by the imaging device 2. The reference image storage unit 121 may be a storage area on the storage unit 12, or may be a database configured on the storage unit 12.

制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部12に記憶されたプログラムを実行することにより、取得部111、生成部112、特定部113、受信部114及び出力部115として機能する。制御部11の機能の少なくとも一部は電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、制御部11がネットワーク経由で実行されるプログラムを実行することによって実現されてもよい。 The control unit 11 is, for example, a processor such as a CPU (Central Processing Unit), and by executing a program stored in the storage unit 12, the acquisition unit 111, the generation unit 112, the specific unit 113, the reception unit 114, and the output unit Functions as 115. At least a part of the function of the control unit 11 may be executed by an electric circuit. Further, at least a part of the functions of the control unit 11 may be realized by the control unit 11 executing a program executed via the network.

本実施形態に係る画像出力システムSは、図2に示す具体的な構成に限定されない。画像出力装置1、撮像装置2及び情報端末3は、それぞれ1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。また、画像出力装置1及び撮像装置2は一体化されてもよい。画像出力装置1は、単一のコンピュータによって構成されてもよく、互いに連携する複数のサーバによって構成されてもよく、コンピュータ資源の集合であるクラウドによって構成されてもよい。 The image output system S according to the present embodiment is not limited to the specific configuration shown in FIG. The image output device 1, the image pickup device 2, and the information terminal 3 are not limited to one device each, and may be configured by connecting two or more physically separated devices by wire or wirelessly. Further, the image output device 1 and the image pickup device 2 may be integrated. The image output device 1 may be configured by a single computer, may be configured by a plurality of servers that cooperate with each other, or may be configured by a cloud that is a collection of computer resources.

[画像出力方法の説明]
以下、本実施形態に係る画像出力システムSが実行する画像出力方法を詳細に説明する。図3は、撮像装置2が設置されている店舗を説明するための模式図である。撮像装置2は、店舗内で顧客又は従業員が座る又は立つ位置を含む撮像範囲を撮像できるように配置される。図3の例では、飲食店の中に、撮像装置2が設置されている。1つの場所に、複数の撮像装置2が設けられてもよい。
[Explanation of image output method]
Hereinafter, the image output method executed by the image output system S according to the present embodiment will be described in detail. FIG. 3 is a schematic diagram for explaining a store in which the image pickup apparatus 2 is installed. The image pickup device 2 is arranged so that the image pickup range including the position where the customer or the employee sits or stands in the store can be imaged. In the example of FIG. 3, the image pickup device 2 is installed in the restaurant. A plurality of image pickup devices 2 may be provided at one place.

まず、画像出力装置1が基準画像を生成する処理を説明する。画像出力装置1において、取得部111は、撮像装置2に対して撮像指示を送信する。取得部111は、撮像装置2が撮像した撮像画像を取得する。 First, a process in which the image output device 1 generates a reference image will be described. In the image output device 1, the acquisition unit 111 transmits an image pickup instruction to the image pickup device 2. The acquisition unit 111 acquires the captured image captured by the imaging device 2.

生成部112は、取得部111が取得した撮像画像に対して、所定の画像処理を行うことによって、撮像装置2による撮像範囲に含まれる場所のレイアウト(配置)に対応するレイアウトを表す基準画像を生成し、基準画像記憶部121に記憶させる。基準画像が表す範囲は、撮像装置2による撮像範囲と同一である。 The generation unit 112 performs predetermined image processing on the captured image acquired by the acquisition unit 111 to generate a reference image representing a layout corresponding to the layout (arrangement) of the location included in the imaging range by the imaging device 2. It is generated and stored in the reference image storage unit 121. The range represented by the reference image is the same as the range captured by the imaging device 2.

図4は、例示的な基準画像Aを示す図である。基準画像Aは、個人を特定可能な情報を含んでおらず、店舗内のテーブル等の構造物の概形を表している。生成部112は、撮像画像に対して、撮像装置2が設置されている場所の構造物を抽出する加工(例えば、撮像画像中の構造物の輪郭線のみを残す加工)をすることによって、基準画像を生成する。これにより、生成部112は、撮像画像から顧客等の個人を特定可能な情報を除去し、店舗内のレイアウトを表す基準画像を生成できる。 FIG. 4 is a diagram showing an exemplary reference image A. The reference image A does not include personally identifiable information and represents an outline of a structure such as a table in a store. The generation unit 112 refers to the captured image by performing a process of extracting a structure at a place where the image pickup device 2 is installed (for example, a process of leaving only the outline of the structure in the captured image). Generate an image. As a result, the generation unit 112 can remove information that can identify an individual such as a customer from the captured image and generate a reference image showing the layout in the store.

別の方法として、生成部112は、店舗の閉店時間等、店舗内に顧客がいない期間に撮像された撮像画像を、基準画像として用いてもよい。この場合に、生成部112は、店舗内に顧客がいない所定の期間内に、撮像指示を撮像装置2へ送信する。生成部112は、撮像画像を撮像装置2から取得し、基準画像として基準画像記憶部121に記憶させる。これにより、生成部112は、撮像画像を加工することなく、顧客等の個人を特定可能な情報が含まれていない状態における店舗内のレイアウトを表す基準画像を生成できる。 As another method, the generation unit 112 may use the captured image captured during the period when there are no customers in the store, such as the closing time of the store, as the reference image. In this case, the generation unit 112 transmits an imaging instruction to the imaging device 2 within a predetermined period in which there are no customers in the store. The generation unit 112 acquires the captured image from the image pickup device 2 and stores it in the reference image storage unit 121 as a reference image. As a result, the generation unit 112 can generate a reference image representing the layout in the store in a state in which information that can identify an individual such as a customer is not included, without processing the captured image.

基準画像記憶部121は、画像出力装置1の外部で生成された、撮像装置2による撮像範囲に含まれる場所のレイアウトに対応するレイアウトを表す基準画像(例えば手作業で生成された基準画像)を予め記憶してもよい。この場合には、画像出力装置1において生成部112が基準画像を生成する必要がない。 The reference image storage unit 121 generates a reference image (for example, a manually generated reference image) that is generated outside the image output device 1 and represents a layout corresponding to the layout of a place included in the image pickup range by the image pickup device 2. It may be stored in advance. In this case, it is not necessary for the generation unit 112 to generate the reference image in the image output device 1.

次に、画像出力装置1が撮像画像の中で人間の位置を特定する処理を説明する。画像出力装置1は、上述の基準画像が基準画像記憶部121に記憶されていることを条件として、状況画像を出力する処理を行う。 Next, the process by which the image output device 1 identifies the position of a human in the captured image will be described. The image output device 1 performs a process of outputting a situation image on condition that the above-mentioned reference image is stored in the reference image storage unit 121.

画像出力装置1において、取得部111は、撮像装置2が撮像した撮像画像を取得する。取得部111は、所定の時間間隔で、又は所定の時刻に、撮像装置2に撮像指示を送信することによって、撮像画像を取得する。また、取得部111は、後述の受信部114が情報端末3から閲覧要求を受信したことを契機として撮像装置2に撮像指示を送信することによって、撮像画像を取得してもよい。 In the image output device 1, the acquisition unit 111 acquires the captured image captured by the image pickup device 2. The acquisition unit 111 acquires an captured image by transmitting an imaging instruction to the imaging device 2 at a predetermined time interval or at a predetermined time. Further, the acquisition unit 111 may acquire an captured image by transmitting an imaging instruction to the imaging device 2 when the receiving unit 114 described later receives a viewing request from the information terminal 3.

また、取得部111は、撮像装置2が所定の時間間隔で又は所定の時刻に自動的に撮像した撮像画像を取得してもよい。また、取得部111は、予め設定された店舗の開店日及び開店時間に自動的に撮像画像を取得してもよい。また、取得部111は、撮像装置2が赤外線センサ等によって人間を検知したことを契機として自動的に撮像した撮像画像を取得してもよい。 In addition, the acquisition unit 111 may acquire captured images automatically captured by the imaging device 2 at predetermined time intervals or at predetermined times. In addition, the acquisition unit 111 may automatically acquire the captured image on the opening date and opening time of the store set in advance. Further, the acquisition unit 111 may acquire the captured image automatically captured when the image pickup device 2 detects a human by an infrared sensor or the like.

特定部113は、取得部111が取得した撮像画像に基づいて、撮像画像の中で人間がいる人間位置を特定する。例えば特定部113は、撮像画像に対して既知の画像認識技術(人物検出技術)を適用することによって、撮像画像に含まれている人間を検出し、人間を検出した座標の範囲を、人間位置として特定する。また、記憶部12に空席状況を判定する必要のある範囲(例えばカウンターの外側、テーブルの周囲等)を予め記憶しておき、特定部113は、該範囲内のみにおいて人間位置を特定してもよい。これにより、画像出力装置1は、空席状況を判定する必要のある範囲に人間がいるかを判定することができる。 The identification unit 113 identifies the position of a human being in the captured image based on the captured image acquired by the acquisition unit 111. For example, the specific unit 113 detects a human being included in the captured image by applying a known image recognition technology (person detection technology) to the captured image, and sets the range of coordinates in which the human is detected to the human position. Identify as. Further, even if the storage unit 12 stores in advance a range in which it is necessary to determine the vacancy status (for example, the outside of the counter, the periphery of the table, etc.), and the specific unit 113 specifies the human position only within that range. Good. As a result, the image output device 1 can determine whether or not there is a human being in the range where it is necessary to determine the vacancy status.

図5は、例示的な撮像画像Bを示す図である。図5は、特定部113が撮像画像Bの中で特定した人間位置を破線で表している。図5においては、撮像画像Bの中で、2人の顧客と、1人の従業員とが検出されている。 FIG. 5 is a diagram showing an exemplary captured image B. In FIG. 5, the human position specified by the specific unit 113 in the captured image B is represented by a broken line. In FIG. 5, two customers and one employee are detected in the captured image B.

さらに特定部113は、撮像画像において検出した1人以上の人間それぞれの属性を特定してもよい。人間の属性は、例えば性別や年齢等、人間の概略的な特徴を示す情報である。この場合に、特定部113は、画像認識技術において人間を属性ごとに区別して検出することによって、人間の属性を特定する。これにより、画像出力装置1は、どのような性別や年齢の人間が店舗にいるかの情報を含む状況画像を出力することができる。 Further, the identification unit 113 may specify the attributes of each of one or more humans detected in the captured image. Human attributes are information that indicates the general characteristics of humans, such as gender and age. In this case, the identification unit 113 identifies the human attribute by detecting the human by distinguishing each attribute in the image recognition technology. As a result, the image output device 1 can output a situation image including information on what kind of gender and age a person is in the store.

また、特定部113は、撮像画像において検出した人間が従業員であるか否かを、人間の属性として特定してもよい。この場合に、記憶部12に従業員の服装(ユニフォーム)を予め記憶しておき、特定部113は、画像認識技術において人間が従業員の服装を着用していることを検出した場合に、人間が従業員であると特定する。また、記憶部12に従業員が位置し得る範囲(例えばカウンターの内側、レジの前等)を予め記憶しておき、特定部113は、人間の位置が該範囲内である場合に、該人間が従業員であると特定してもよい。これにより、画像出力装置1は、従業員が適切に配置されているかを分析するための情報を含む状況画像を出力することができる。 Further, the identification unit 113 may specify whether or not the person detected in the captured image is an employee as a human attribute. In this case, the employee's clothes (uniform) are stored in the storage unit 12 in advance, and the specific unit 113 detects that the human being is wearing the employee's clothes in the image recognition technology. Identifies that is an employee. Further, a range in which an employee can be located (for example, inside a counter, in front of a cash register, etc.) is stored in advance in the storage unit 12, and the specific unit 113 stores the person when the position of the person is within the range. May be identified as an employee. As a result, the image output device 1 can output a situation image including information for analyzing whether or not the employees are properly arranged.

さらに特定部113は、撮像画像の中で座席がある座席位置を特定してもよい。この場合に、特定部113は、撮像画像に対して既知の画像認識技術(物体検出技術)を適用することによって、撮像画像に含まれている座席(例えば椅子やソファ)を検出し、座席を検出した座標の範囲を、座席位置として特定する。 Further, the specific unit 113 may specify the seat position where the seat is located in the captured image. In this case, the specific unit 113 detects a seat (for example, a chair or a sofa) included in the captured image by applying a known image recognition technique (object detection technique) to the captured image, and sets the seat. The range of detected coordinates is specified as the seat position.

特定部113が撮像画像に基づいて人間位置、人間の属性及び座席位置を特定する方法は、上述の具体的な方法に限られず、その他の方法であってもよい。例えば特定部113は、過去に特定した人間位置に基づいて、座席位置を特定してもよい。この場合に、特定部113は、異なる複数の撮像画像において特定した人間位置を集計する。そして特定部113は、複数の撮像画像の中で所定回数以上特定された人間位置の下方における所定の大きさの座標の範囲を、座席位置として特定する。このように、特定部113は、人間が頻繁にいる位置に座席があると推定することにより、座席の検出処理を行うことなく座席の位置を推定できる。 The method in which the specific unit 113 specifies the human position, the human attribute, and the seat position based on the captured image is not limited to the above-mentioned specific method, and may be another method. For example, the specific unit 113 may specify the seat position based on the human position specified in the past. In this case, the specific unit 113 aggregates the human positions specified in a plurality of different captured images. Then, the identification unit 113 specifies a range of coordinates of a predetermined size below the human position specified more than a predetermined number of times in a plurality of captured images as a seat position. In this way, the specific unit 113 can estimate the position of the seat without performing the seat detection process by estimating that the seat is located at a position where humans are frequently present.

次に、画像出力装置1が状況画像を出力する処理を説明する。情報端末3において、顧客であるユーザは、撮像装置2が設置されている場所(店舗)を登録するための操作を行う。図6(a)は、情報端末3が店舗を登録するための登録画面を表示部上に表示している情報端末3の正面図である。登録画面は、例えばメッセージサービス、SNS(Social Networking Service)等のアプリケーションソフトウェアによって提供される。 Next, a process in which the image output device 1 outputs a situation image will be described. In the information terminal 3, the user who is a customer performs an operation for registering a place (store) where the image pickup apparatus 2 is installed. FIG. 6A is a front view of the information terminal 3 displaying the registration screen for the information terminal 3 to register the store on the display unit. The registration screen is provided by application software such as a message service or SNS (Social Networking Service).

ユーザが登録画面上で店舗を登録するための操作(例えば所定のボタンの押下)を行うと、情報端末3は、店舗を識別するための店舗IDと、情報端末3を識別するための端末IDとを、画像出力装置1へ送信する。画像出力装置1において、受信部114は、情報端末3から受信した店舗ID及び端末IDを関連付けて記憶部12に記憶させる。店舗ID及び端末IDの関連付けは、画像出力装置1の外部に設けられたデータベースや、画像出力装置1とは異なるメッセージサービスやSNSの管理装置によって行われてもよい。これにより、情報端末3は、撮像装置2が設置されている場所に予め関連付けられる。 When the user performs an operation for registering a store on the registration screen (for example, pressing a predetermined button), the information terminal 3 has a store ID for identifying the store and a terminal ID for identifying the information terminal 3. Is transmitted to the image output device 1. In the image output device 1, the receiving unit 114 stores the store ID and the terminal ID received from the information terminal 3 in the storage unit 12 in association with each other. The association between the store ID and the terminal ID may be performed by a database provided outside the image output device 1, a message service different from the image output device 1, or an SNS management device. As a result, the information terminal 3 is associated with the place where the image pickup apparatus 2 is installed in advance.

店舗の登録を行った後に、情報端末3において、顧客であるユーザは、登録した店舗の状況画像の閲覧要求を送信するための操作を行う。図6(b)は、情報端末3が店舗との間でメッセージを送受信するためのメッセージ画面を表示部上に表示している情報端末3の正面図である。メッセージ画面は、例えばメッセージサービス、SNS等のアプリケーションソフトウェアによって提供される。 After registering the store, on the information terminal 3, the user who is a customer performs an operation for transmitting a viewing request of the status image of the registered store. FIG. 6B is a front view of the information terminal 3 displaying a message screen for the information terminal 3 to send and receive a message to and from the store on the display unit. The message screen is provided by application software such as a message service or SNS.

ユーザがメッセージ画面上で閲覧要求を送信するための操作(例えば「空席」等の所定のキーワードを含むメッセージの入力)を行うと、情報端末3は、端末IDを含む閲覧要求を、画像出力装置1へ送信する。その後、情報端末3は、後述の出力部115が出力する状況画像Cを受信し、表示部上に表示する。 When the user performs an operation for transmitting a browsing request on the message screen (for example, inputting a message including a predetermined keyword such as "vacant seat"), the information terminal 3 sends the browsing request including the terminal ID to the image output device. Send to 1. After that, the information terminal 3 receives the situation image C output by the output unit 115 described later and displays it on the display unit.

画像出力装置1において、受信部114は、情報端末3から閲覧要求を受信する。受信部114が閲覧要求を受信した場合に、出力部115は、基準画像記憶部121に記憶された基準画像に、特定部113が特定した人間位置を示す図形を重畳することによって、店舗の状況を示す状況画像を生成する。そして出力部115は、生成した状況画像を、閲覧要求を送信した情報端末3へ送信する。 In the image output device 1, the receiving unit 114 receives a browsing request from the information terminal 3. When the receiving unit 114 receives the browsing request, the output unit 115 superimposes a figure indicating the human position specified by the specific unit 113 on the reference image stored in the reference image storage unit 121 to display the situation of the store. Generate a situation image showing. Then, the output unit 115 transmits the generated situation image to the information terminal 3 that has transmitted the viewing request.

図7(a)、図7(b)は、例示的な状況画像Cを示す図である。図7(a)の例では、状況画像Cは、基準画像Aに重畳された、特定部113が特定した人間位置を示す図形C1を含む。例えば図形C1は、円形、楕円形、矩形等の所定の形状を有するアイコンである。これにより、ユーザは、店舗内にいる人間の数及び配置を、個人を特定することなく知ることができる。 7 (a) and 7 (b) are diagrams showing an exemplary situation image C. In the example of FIG. 7A, the situation image C includes the graphic C1 superimposed on the reference image A and showing the human position specified by the specific unit 113. For example, the figure C1 is an icon having a predetermined shape such as a circle, an ellipse, or a rectangle. As a result, the user can know the number and arrangement of people in the store without identifying an individual.

図7(b)の例では、状況画像Cは、基準画像Aに重畳された、特定部113が特定した人間位置を示す第1図形C1と、特定部113が特定した座席位置を示す、第1図形C1とは異なる第2図形C2とを含む。出力部115は、第1図形C1と第2図形C2とを、互いに異なる表示態様(例えば異なる形状)で出力する。これにより、ユーザは、店舗内にいる人間の位置と、店舗内の座席の位置とを一見して知ることができる。 In the example of FIG. 7B, the situation image C shows the first figure C1 superimposing on the reference image A indicating the human position specified by the specific unit 113, and the seat position specified by the specific unit 113. A second figure C2 different from the first figure C1 is included. The output unit 115 outputs the first figure C1 and the second figure C2 in different display modes (for example, different shapes). As a result, the user can know at a glance the position of a person in the store and the position of a seat in the store.

さらに出力部115は、特定部113が特定した人間の属性に応じて、第1図形C1の表示態様(例えば色)を変化させる。例えば出力部115は、人間が従業員である場合と顧客である場合とで異なる色の第1図形C1を出力し、また人間の性別及び年齢層ごとに異なる色の第1図形C1を出力する。これにより、ユーザは、店舗内にどのような人間がいるかを容易に把握することができる。 Further, the output unit 115 changes the display mode (for example, color) of the first figure C1 according to the human attribute specified by the specific unit 113. For example, the output unit 115 outputs the first figure C1 having a different color depending on whether the person is an employee or a customer, and outputs the first figure C1 having a different color depending on the gender and age group of the person. .. As a result, the user can easily grasp what kind of person is in the store.

受信部114が閲覧要求を受信していない場合であっても、予め設定された店舗の開店日及び開店時間になった場合、特定部113が特定した人間の数が変化した場合、あるいは画像出力装置1において所定の操作が行われた場合に、出力部115は、店舗の状況画像Cを生成し、店舗に関連付けられた1つ又は複数の情報端末3(すなわち店舗を登録した情報端末3)へ送信してもよい。これにより、ユーザが情報端末3を用いていちいち閲覧要求を送信する操作を行わなくても、画像出力装置1は、店舗の状況画像Cを、店舗に予め関連付けられた情報端末3へ送信することができる。 Even if the receiving unit 114 does not receive the browsing request, the store opening date and opening time set in advance, the number of people specified by the specific unit 113 changes, or the image output. When a predetermined operation is performed in the device 1, the output unit 115 generates a store situation image C, and one or more information terminals 3 associated with the store (that is, the information terminal 3 in which the store is registered). You may send to. As a result, the image output device 1 transmits the store status image C to the information terminal 3 associated with the store in advance, without the user performing an operation of transmitting the browsing request using the information terminal 3. Can be done.

また、受信部114が前回ユーザから閲覧要求を受信した際の空席率や混雑度を記憶部12が記憶しておき、その後所定時間内に空席率や混雑度が変化した場合に、出力部115は状況画像Cを該ユーザの情報端末3へ送信してもよい。その際に、出力部115は、状況画像Cに加えて、「○名様の空席が出ました」のような文字列を含むメッセージを送信してもよい。これにより、画像出力装置1は、例えばユーザが閲覧要求を送信した際に空席がない場合であっても、自動的に空席状況の変動をユーザに通知し、ユーザの来店を促すことができる。 Further, when the storage unit 12 stores the vacant seat rate and the degree of congestion when the receiving unit 114 receives the browsing request from the user last time, and then the vacant seat rate and the degree of congestion change within a predetermined time, the output unit 115 May transmit the situation image C to the user's information terminal 3. At that time, the output unit 115 may transmit a message including a character string such as "A vacant seat for ○ people has appeared" in addition to the situation image C. As a result, the image output device 1 can automatically notify the user of changes in the vacant seat status and encourage the user to come to the store even if there are no vacant seats when the user sends a browsing request, for example.

出力部115は、第1の情報端末3においてユーザが店舗へ入店したことを示す操作を行った場合に、第1の情報端末3とは異なる第2の情報端末3へ、状況画像Cを送信してもよい。第2の情報端末3は、例えばメッセージサービス、SNS等によって、第1の情報端末3に予め関連付けられている端末である。これにより、画像出力装置1は、店舗に入店したユーザの友人等に、店舗の状況を通知し、来店を促すことができる。 When the output unit 115 performs an operation indicating that the user has entered the store on the first information terminal 3, the output unit 115 transmits the situation image C to the second information terminal 3 different from the first information terminal 3. You may send it. The second information terminal 3 is a terminal that is previously associated with the first information terminal 3 by, for example, a message service, SNS, or the like. As a result, the image output device 1 can notify the friend of the user who has entered the store of the situation of the store and urge them to come to the store.

出力部115は、状況画像Cに加えて、空席率又は空席数を出力してもよい。この場合に、出力部115は、特定部113が特定した座席(座席位置)の数と、特定部113が特定した人間(人間位置)の数とに基づいて、空席率又は空席数を算出し、情報端末3へ送信する。このとき出力部115は、特定部113が特定した従業員でない人間の数を用いて空席率又は空席数を算出してもよい。情報端末3は、図6(b)に示すように、状況画像Cとともに空席率又は空席数を表示部上に表示する。これにより、画像出力装置1は、状況画像Cに加えて、空席の割合を数値としてユーザに通知することができる。 The output unit 115 may output the vacant seat rate or the number of vacant seats in addition to the situation image C. In this case, the output unit 115 calculates the vacancy rate or the number of vacant seats based on the number of seats (seat positions) specified by the specific unit 113 and the number of humans (human positions) specified by the specific unit 113. , Send to the information terminal 3. At this time, the output unit 115 may calculate the vacancy rate or the number of vacant seats using the number of non-employees specified by the specific unit 113. As shown in FIG. 6B, the information terminal 3 displays the vacancy rate or the number of vacant seats on the display unit together with the situation image C. As a result, the image output device 1 can notify the user of the ratio of vacant seats as a numerical value in addition to the situation image C.

また、記憶部12に基準画像の中でカウンター席の範囲、テーブル席の範囲等を予め記憶しておき、出力部115は、カウンター席やテーブル席ごとに空席数を出力してもよい。これにより、画像出力装置1は、席ごとにどのくらいの空席数があるかをユーザに通知することができる。 Further, the storage unit 12 may store the range of counter seats, the range of table seats, and the like in advance in the reference image, and the output unit 115 may output the number of vacant seats for each counter seat or table seat. As a result, the image output device 1 can notify the user how many seats are available for each seat.

出力部115は、状況画像Cに加えて、店舗の従業員又は管理者が設定したメッセージを、情報端末3へ送信してもよい。メッセージは、例えば空席が多い場合に「○時までビールが100円」のような文字列を含む。また、店舗の従業員又は管理者は、メッセージを表示可能な期間を設定してもよい。情報端末3は、表示部において、状況画像Cの周辺又は状況画像Cの上に、受信したメッセージを表示する。受信したメッセージに表示可能な期間が設定されている場合には、情報端末3は、該メッセージを該期間内にのみ表示する。これにより、画像出力装置1は、状況画像Cだけでなく店舗からのメッセージをユーザに通知することができる。 In addition to the situation image C, the output unit 115 may transmit a message set by a store employee or manager to the information terminal 3. The message includes a character string such as "Beer is 100 yen until XX" when there are many vacant seats. In addition, the store employee or manager may set a period during which the message can be displayed. The information terminal 3 displays the received message on the periphery of the situation image C or on the situation image C on the display unit. When a displayable period is set for the received message, the information terminal 3 displays the message only within the period. As a result, the image output device 1 can notify the user of a message from the store as well as the situation image C.

さらに画像出力装置1は、メッセージサービス、SNS等の管理装置を介して、情報端末3との間でメッセージの授受を行ってもよい。例えばユーザがメッセージ画面上で「予約」というキーワードを含むメッセージを入力すると、情報端末3は、入力されたメッセージを、画像出力装置1へ送信する。画像出力装置1において、受信部114が「予約」というキーワードを含むメッセージを受信すると、出力部115は、「時間、人数を入力してください」というメッセージを、情報端末3へ送信する。 Further, the image output device 1 may send and receive messages to and from the information terminal 3 via a management device such as a message service or SNS. For example, when the user inputs a message including the keyword "reservation" on the message screen, the information terminal 3 transmits the input message to the image output device 1. When the receiving unit 114 receives the message including the keyword "reserved" in the image output device 1, the output unit 115 transmits the message "Please input the time and the number of people" to the information terminal 3.

その後、受信部114が時間及び人数を含むメッセージを受信し、店舗の従業員又は管理者が予約を承諾するための操作を行うと、出力部115は、「予約完了」というメッセージを、情報端末3へ送信する。一方、店舗が満席である場合等に店舗の従業員又は管理者が予約を承諾しないための操作を行うと、出力部115は、状況画像Cの送信を中止し、あるいは「満席」というメッセージを状況画像Cに重畳して情報端末3へ送信する。これにより、画像出力装置1は、状況画像Cをユーザに通知するだけでなく、ユーザとの間で予約等を目的としたメッセージの授受を行うことができる。 After that, when the receiving unit 114 receives the message including the time and the number of people and the store employee or the manager performs an operation for accepting the reservation, the output unit 115 sends a message "reservation completed" to the information terminal. Send to 3. On the other hand, when the store employee or the manager performs an operation for not accepting the reservation when the store is full, the output unit 115 stops the transmission of the situation image C or displays a message "full". It is superimposed on the situation image C and transmitted to the information terminal 3. As a result, the image output device 1 can not only notify the user of the situation image C, but also exchange a message with the user for the purpose of making a reservation or the like.

さらに画像出力装置1は、複数の店舗の中から、ユーザが指定した条件を満たす店舗の状況画像Cを、ユーザが有する情報端末3へ送信してもよい。例えばユーザがメッセージ画面上で場所、人数、店舗のカテゴリ等を示す条件を入力すると、情報端末3は、入力された条件を、画像出力装置1へ送信する。画像出力装置1において、受信部114が条件を受信すると、出力部115は、条件の場所(例えば銀座)の周辺で条件のカテゴリ(例えば居酒屋)に合致する複数の店舗の空席数を取得し、取得した空席数が条件の人数以上である1つ又は複数の店舗を抽出する。そして出力部115は、抽出した1つ又は複数の店舗の状況画像Cを、情報端末3へ送信する。これにより、画像出力装置1は、ユーザが指定した条件を満たす店舗の状況を、ユーザに通知することができる。 Further, the image output device 1 may transmit the situation image C of the store satisfying the condition specified by the user from among the plurality of stores to the information terminal 3 owned by the user. For example, when the user inputs a condition indicating a place, the number of people, a store category, or the like on the message screen, the information terminal 3 transmits the input condition to the image output device 1. When the receiving unit 114 receives the condition in the image output device 1, the output unit 115 acquires the number of vacant seats in a plurality of stores that match the condition category (for example, a bar) around the condition location (for example, Ginza). Extract one or more stores for which the number of vacant seats acquired is equal to or greater than the required number of seats. Then, the output unit 115 transmits the extracted situation image C of one or more stores to the information terminal 3. As a result, the image output device 1 can notify the user of the status of the store that satisfies the condition specified by the user.

本実施形態において、画像出力システムSは、例示的に飲食店等の店舗の状況画像を出力しているが、その他の場所にも適用できる。例えば画像出力システムSは、商品の販売店の状況画像を出力することによって、販売店の混雑度をユーザに通知できる。また、例えばホテル、旅館、シェアオフィス等の施設の状況画像を出力することによって、施設内の部屋、トイレ、浴室等の空き状況をユーザに通知できる。このように、本実施形態に係る画像出力システムSは、人間が出入りする任意の場所を対象として、場所の状況を示す状況画像を出力することができる。 In the present embodiment, the image output system S outputs a situation image of a store such as a restaurant as an example, but it can also be applied to other places. For example, the image output system S can notify the user of the degree of congestion of the store by outputting a status image of the store of the product. Further, for example, by outputting a status image of a facility such as a hotel, an inn, or a shared office, it is possible to notify the user of the availability of rooms, toilets, bathrooms, and the like in the facility. As described above, the image output system S according to the present embodiment can output a situation image showing the situation of the place to any place where a person enters and exits.

[画像出力方法のシーケンス]
図8は、本実施形態に係る画像出力システムSが実行する画像出力方法のシーケンス図である。画像出力装置1において、取得部111は、撮像装置2に対して撮像指示を送信する。取得部111は、撮像装置2が撮像した撮像画像を取得する。生成部112は、取得部111が取得した撮像画像に対して、所定の画像処理を行うことによって、撮像装置2による撮像範囲に含まれる場所のレイアウトに対応するレイアウトを表す基準画像を生成し、基準画像記憶部121に記憶させる(S11)。
[Sequence of image output method]
FIG. 8 is a sequence diagram of an image output method executed by the image output system S according to the present embodiment. In the image output device 1, the acquisition unit 111 transmits an image pickup instruction to the image pickup device 2. The acquisition unit 111 acquires the captured image captured by the imaging device 2. The generation unit 112 generates a reference image representing a layout corresponding to the layout of a place included in the image pickup range by the image pickup apparatus 2 by performing predetermined image processing on the image captured image acquired by the acquisition unit 111. It is stored in the reference image storage unit 121 (S11).

画像出力装置1において、取得部111は、撮像装置2が撮像した撮像画像を取得する(S12)。特定部113は、取得部111が取得した撮像画像に基づいて、撮像画像の中で人間がいる人間位置を特定する(S13)。 In the image output device 1, the acquisition unit 111 acquires the captured image captured by the image pickup device 2 (S12). The identification unit 113 identifies the position of a human being in the captured image based on the captured image acquired by the acquisition unit 111 (S13).

情報端末3において、顧客であるユーザは、撮像装置2が設置されている場所(店舗)を登録するための操作を行う(S14)。ユーザが情報端末3を用いて所定の操作を行うと、情報端末3は、店舗を識別するための店舗IDと、情報端末3を識別するための端末IDとを、画像出力装置1へ送信する。画像出力装置1において、受信部114は、情報端末3から受信した店舗ID及び端末IDを関連付けて記憶部12に記憶させる。これにより、情報端末3は、撮像装置2が設置されている場所に予め関連付けられる。 In the information terminal 3, the user who is a customer performs an operation for registering a place (store) where the image pickup apparatus 2 is installed (S14). When the user performs a predetermined operation using the information terminal 3, the information terminal 3 transmits a store ID for identifying the store and a terminal ID for identifying the information terminal 3 to the image output device 1. .. In the image output device 1, the receiving unit 114 stores the store ID and the terminal ID received from the information terminal 3 in the storage unit 12 in association with each other. As a result, the information terminal 3 is associated with the place where the image pickup apparatus 2 is installed in advance.

情報端末3において、顧客であるユーザは、登録した店舗の状況画像の閲覧要求を送信するための操作を行う(S15)。ユーザが情報端末3を用いて所定の操作を行うと、情報端末3は、端末IDを含む閲覧要求を、画像出力装置1へ送信する。ステップS12〜S13とステップS14〜S15とは、並行して行われてもよく、逆の順序で行われてもよい。 In the information terminal 3, the user who is a customer performs an operation for transmitting a viewing request for a status image of the registered store (S15). When the user performs a predetermined operation using the information terminal 3, the information terminal 3 transmits a browsing request including the terminal ID to the image output device 1. Steps S12 to S13 and steps S14 to S15 may be performed in parallel, or may be performed in the reverse order.

画像出力装置1において、受信部114は、情報端末3から閲覧要求を受信する。受信部114が閲覧要求を受信した場合に、出力部115は、基準画像記憶部121に記憶された基準画像に、特定部113が特定した人間位置を示す図形を重畳することによって、店舗の状況を示す状況画像を生成する(S16)。ここで出力部115は、人間の属性や座席位置を示す情報を含む状況画像を生成してもよい。そして出力部115は、生成した状況画像を、閲覧要求を送信した情報端末3へ送信する(S17)。情報端末3は、画像出力装置1が送信した状況画像を、表示部上に表示する(S18)。 In the image output device 1, the receiving unit 114 receives a browsing request from the information terminal 3. When the receiving unit 114 receives the browsing request, the output unit 115 superimposes a figure indicating the human position specified by the specific unit 113 on the reference image stored in the reference image storage unit 121 to display the situation of the store. A situation image showing the above is generated (S16). Here, the output unit 115 may generate a situation image including information indicating human attributes and seat positions. Then, the output unit 115 transmits the generated situation image to the information terminal 3 that has transmitted the viewing request (S17). The information terminal 3 displays the situation image transmitted by the image output device 1 on the display unit (S18).

[実施形態の効果]
本実施形態に係る画像出力システムSにおいて、画像出力装置1は、実際の店舗等の場所のレイアウトに対応するレイアウトの基準画像上に、人間の有無を示す情報を重畳して出力する。そのため、画像出力装置1は、店舗等の場所において、該場所にいる人間のプライバシーを保護しながら、該場所における状況を示す情報を、情報端末3を有するユーザに提供できる。
[Effect of Embodiment]
In the image output system S according to the present embodiment, the image output device 1 superimposes and outputs information indicating the presence or absence of a human being on a reference image of a layout corresponding to the layout of a place such as an actual store. Therefore, the image output device 1 can provide information indicating the situation at the place to the user who has the information terminal 3 while protecting the privacy of the person at the place such as a store.

また、基準画像の範囲と撮像画像の範囲とが同一であるため、画像出力装置1は、撮像画像で特定された人間位置を、基準画像上にそのまま投影できる。そのため、撮像装置2による撮像範囲を店内のマップと対応付ける作業が不要であるため、画像出力システムSを店舗等の場所に容易に導入することができる。 Further, since the range of the reference image and the range of the captured image are the same, the image output device 1 can project the human position specified in the captured image as it is on the reference image. Therefore, since it is not necessary to associate the image pickup range with the image pickup device 2 with the map in the store, the image output system S can be easily introduced in a place such as a store.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. is there. For example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment.

画像出力装置1及び情報端末3のプロセッサは、図8に示す画像出力方法に含まれる各ステップ(工程)の主体となる。すなわち、画像出力装置1及び情報端末3のプロセッサは、図8に示す画像出力方法を実行するためのプログラムを記憶部から読み出し、該プログラムを実行して画像出力システムSの各部を制御することによって、図8に示す画像出力方法を実行する。図8に示す画像出力方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。 The processors of the image output device 1 and the information terminal 3 are the main constituents of each step included in the image output method shown in FIG. That is, the processors of the image output device 1 and the information terminal 3 read a program for executing the image output method shown in FIG. 8 from the storage unit, and execute the program to control each unit of the image output system S. , The image output method shown in FIG. 8 is executed. Some of the steps included in the image output method shown in FIG. 8 may be omitted, the order between the steps may be changed, and a plurality of steps may be performed in parallel.

S 画像出力システム
1 画像出力装置
2 撮像装置
3 情報端末
11 制御部
111 取得部
112 生成部
113 特定部
114 受信部
115 出力部
12 記憶部
121 基準画像記憶部
S Image output system 1 Image output device 2 Image pickup device 3 Information terminal 11 Control unit 111 Acquisition unit 112 Generation unit 113 Specific unit 114 Reception unit 115 Output unit 12 Storage unit 121 Reference image storage unit

Claims (11)

撮像装置による撮像範囲に含まれる場所のレイアウトに対応するレイアウトを表す基準画像を記憶する記憶部と、
前記撮像装置が撮像した撮像画像を取得する取得部と、
前記取得部が取得した前記撮像画像に基づいて、前記撮像画像の中で人間がいる人間位置を特定する特定部と、
前記基準画像に、前記特定部が特定した前記人間位置を示す図形を重畳して出力する出力部と、
を有する、画像出力装置。
A storage unit that stores a reference image representing a layout corresponding to the layout of a place included in the imaging range of the imaging device, and a storage unit.
An acquisition unit that acquires an image captured by the image pickup device, and
Based on the captured image acquired by the acquisition unit, a specific unit that identifies a human position in the captured image and a specific unit that identifies a human position in the captured image.
An output unit that superimposes and outputs a figure indicating the human position specified by the specific unit on the reference image, and
An image output device.
前記特定部は、前記撮像画像に基づいて、前記撮像画像の中で座席がある座席位置を特定し、
前記出力部は、前記人間位置を示す第1図形と、前記座席位置を示す、前記第1図形とは異なる第2図形とを、前記基準画像に重畳して出力する、請求項1に記載の画像出力装置。
Based on the captured image, the specific unit identifies the seat position where the seat is located in the captured image.
The output unit according to claim 1, wherein the output unit outputs a first figure showing the human position and a second figure showing the seat position, which is different from the first figure, superimposed on the reference image. Image output device.
前記特定部は、過去に特定した前記人間位置に基づいて、前記撮像画像の中で座席がある座席位置を特定し、
前記出力部は、前記人間位置を示す第1図形と、前記座席位置を示す、前記第1図形とは異なる第2図形とを前記基準画像に重畳して出力する、請求項1に記載の画像出力装置。
The specific unit identifies the seat position where the seat is located in the captured image based on the human position specified in the past.
The image according to claim 1, wherein the output unit outputs a first figure showing the human position and a second figure showing the seat position, which is different from the first figure, superimposed on the reference image. Output device.
前記特定部は、前記撮像画像に基づいて、前記人間の属性を特定し、
前記出力部は、前記属性に基づいて、前記人間位置を示す前記図形の表示態様を変化させる、請求項1から3のいずれか一項に記載の画像出力装置。
The specific unit identifies the human attribute based on the captured image, and determines the human attribute.
The image output device according to any one of claims 1 to 3, wherein the output unit changes the display mode of the figure indicating the human position based on the attribute.
前記出力部は、前記特定部が特定した前記人間の人数が変化した場合に、前記基準画像に前記図形を重畳して出力する、請求項1から4のいずれか一項に記載の画像出力装置。 The image output device according to any one of claims 1 to 4, wherein the output unit outputs the graphic superimposed on the reference image when the number of humans specified by the specific unit changes. .. 前記出力部は、前記撮像装置が設置されている場所に予め関連付けられた情報端末へ、前記基準画像に前記図形を重畳して送信する、請求項1から5のいずれか一項に記載の画像出力装置。 The image according to any one of claims 1 to 5, wherein the output unit transmits the figure by superimposing the figure on the reference image to an information terminal associated with a place where the image pickup device is installed in advance. Output device. 情報端末から閲覧要求を受信する受信部をさらに有し、
前記出力部は、前記閲覧要求を送信した前記情報端末へ、前記基準画像に前記図形を重畳して送信する、請求項1から5のいずれか一項に記載の画像出力装置。
It also has a receiver that receives browsing requests from information terminals.
The image output device according to any one of claims 1 to 5, wherein the output unit transmits the figure by superimposing the figure on the reference image to the information terminal that has transmitted the viewing request.
前記取得部は、前記受信部が前記閲覧要求を受信した場合に、前記撮像装置から前記撮像画像を取得する、請求項7に記載の画像出力装置。 The image output device according to claim 7, wherein the acquisition unit acquires the captured image from the image pickup device when the reception unit receives the viewing request. 前記撮像画像に対して、前記撮像装置が設置されている場所の構造物を抽出する加工をすることによって、前記基準画像を生成する生成部をさらに有する、請求項1から8のいずれか一項に記載の画像出力装置。 Any one of claims 1 to 8, further comprising a generating unit that generates the reference image by processing the captured image to extract a structure at a place where the imaging device is installed. The image output device described in 1. 前記記憶部は、所定の期間内に前記撮像装置が撮像した撮像画像を、前記基準画像として予め記憶する、請求項1から8のいずれか一項に記載の画像出力装置。 The image output device according to any one of claims 1 to 8, wherein the storage unit stores in advance an image captured by the image pickup device as the reference image within a predetermined period. プロセッサが実行する、
撮像装置による撮像範囲に含まれる場所のレイアウトに対応するレイアウトを表す基準画像を記憶部に記憶させるステップと、
前記撮像装置が撮像した撮像画像を取得するステップと、
前記取得するステップが取得した前記撮像画像に基づいて、前記撮像画像の中で人間がいる人間位置を特定するステップと、
前記基準画像に、前記特定するステップが特定した前記人間位置を示す図形を重畳して出力するステップと、
を有する、画像出力方法。
The processor runs,
A step of storing a reference image representing a layout corresponding to the layout of a place included in the imaging range by the imaging device in the storage unit, and
The step of acquiring the captured image captured by the imaging device, and
Based on the captured image acquired by the acquired step, a step of identifying a human position in the captured image and a step of identifying a human position in the captured image.
A step of superimposing and outputting a figure indicating the human position specified by the specific step on the reference image, and
An image output method having.
JP2019142431A 2019-08-01 2019-08-01 Image output device and image output method Active JP6788710B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019142431A JP6788710B1 (en) 2019-08-01 2019-08-01 Image output device and image output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019142431A JP6788710B1 (en) 2019-08-01 2019-08-01 Image output device and image output method

Publications (2)

Publication Number Publication Date
JP6788710B1 JP6788710B1 (en) 2020-11-25
JP2021026399A true JP2021026399A (en) 2021-02-22

Family

ID=73455283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019142431A Active JP6788710B1 (en) 2019-08-01 2019-08-01 Image output device and image output method

Country Status (1)

Country Link
JP (1) JP6788710B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220357721A1 (en) * 2021-05-10 2022-11-10 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot
CN113792674B (en) * 2021-09-17 2024-03-26 支付宝(杭州)信息技术有限公司 Method and device for determining empty rate and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018181222A (en) * 2017-04-21 2018-11-15 パナソニックIpマネジメント株式会社 Stay status display system and stay status display method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018181222A (en) * 2017-04-21 2018-11-15 パナソニックIpマネジメント株式会社 Stay status display system and stay status display method

Also Published As

Publication number Publication date
JP6788710B1 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
JP5875167B1 (en) Information management apparatus and information management method
US20220346683A1 (en) Information processing system and information processing method
JP6441509B2 (en) Computer system, store information providing method and program
JP6505615B2 (en) INFORMATION MANAGEMENT DEVICE AND INFORMATION MANAGEMENT METHOD
JP6788710B1 (en) Image output device and image output method
US20180293641A1 (en) Order Processing System, Order Processing Method
CN111542863A (en) Order information display method and order system
JP2022000794A (en) Information processing device and control method
US20190311387A1 (en) Computer system, vacant seat detecting method, and program
JP6589062B2 (en) Vacant seat management system, vacant seat management method and program
US10115094B2 (en) Visual customer identification
JP2018151720A (en) Vacant seat detection program, vacant seat detection device, and vacant seat detection method
JP3211316U (en) Information provision system
JP2015026101A (en) Sales support device, method and computer program
CN113990419A (en) Physical examination display method and device, storage medium and virtual reality wearable equipment
JP2020106907A (en) Notification device and notification method
WO2022219798A1 (en) Customer serving assistance device, customer serving assistance method, and program
JP7185887B2 (en) Product ordering system
EP3352089A1 (en) Information processing device, information processing method, program and information processing system
JP7303360B1 (en) Information processing device and information processing method
JP5951667B2 (en) Server apparatus and program
Kahl et al. A privacy-aware shopping scenario
JP2022061003A (en) Information providing apparatus, information providing method, and information providing program
JP3199683U (en) Safety inspection management system
JP2020052270A (en) Display device and display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200302

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200302

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201030

R150 Certificate of patent or registration of utility model

Ref document number: 6788710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250