JP6959197B2 - Garbage separation support system, terminal device, garbage separation support method, and program - Google Patents

Garbage separation support system, terminal device, garbage separation support method, and program Download PDF

Info

Publication number
JP6959197B2
JP6959197B2 JP2018151500A JP2018151500A JP6959197B2 JP 6959197 B2 JP6959197 B2 JP 6959197B2 JP 2018151500 A JP2018151500 A JP 2018151500A JP 2018151500 A JP2018151500 A JP 2018151500A JP 6959197 B2 JP6959197 B2 JP 6959197B2
Authority
JP
Japan
Prior art keywords
image
garbage
information
terminal device
dust
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018151500A
Other languages
Japanese (ja)
Other versions
JP2020027407A (en
Inventor
雄也 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018151500A priority Critical patent/JP6959197B2/en
Publication of JP2020027407A publication Critical patent/JP2020027407A/en
Application granted granted Critical
Publication of JP6959197B2 publication Critical patent/JP6959197B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Refuse Collection And Transfer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明の実施形態は、ゴミ分別支援システム、端末装置、ゴミ分別支援方法、及びプログラムに関する。 Embodiments of the present invention relate to a garbage separation support system, a terminal device, a garbage separation support method, and a program.

廃棄するゴミの分別情報を、ゴミを廃棄しようとしている自治体における分別情報に応じて特定し、かつそれを回収する容器まで指定する技術が知られている(例えば、特許文献1参照)。この技術では、端末は、自治体を特定する情報をサーバに送信することにより、サーバに存在する自治体情報の一覧と自治体別ゴミ分別情報の一覧と回収協力店情報の一覧から該当する自治体の自治体ゴミ分別情報を取得し、取得した自治体ゴミ分別情報と廃棄しようとしている商品の商品分別情報とを照合することによりゴミの分別方法を簡単に特定する。さらに、この技術では、端末に保持してある回収容器ゴミ分別情報の一覧から該当するゴミを回収する容器を特定し、分別作業の負荷軽減と分別精度の向上を実現する。 There is known a technique for specifying the waste separation information to be discarded according to the separation information in the local government that is trying to dispose of the waste, and also specifying the container for collecting the waste (see, for example, Patent Document 1). In this technology, the terminal sends information that identifies the local government to the server, and from the list of local government information existing on the server, the list of garbage separation information by local government, and the list of collection cooperating store information, the local government garbage of the corresponding local government. By acquiring the separation information and collating the acquired municipal waste separation information with the product separation information of the product to be disposed of, the garbage separation method can be easily specified. Further, in this technology, the container for collecting the corresponding garbage is specified from the list of the collection container garbage separation information held in the terminal, and the load of the separation work is reduced and the separation accuracy is improved.

特開2005−173961号公報Japanese Unexamined Patent Publication No. 2005-173961

従来の技術では、ユーザが端末を操作し、廃棄するゴミの属性情報を入力すると、廃棄すべきゴミ箱の情報が得られる。しかし、ゴミを捨てるときに端末を操作してゴミの属性情報を入力しなければ、廃棄すべきゴミ箱の情報を得ることができない。また、仮にペットボトルを廃棄する場合に、ラベルはプラ製容器包装、本体は資源ゴミ、キャップは容器包装プラスチックなど、一つの商品が複数の分別対象に分離され、分離された分別対象の処分先ゴミ箱が別れてしまう場合がある。そのため、廃棄するゴミの分別方法を、文章や図解で説明することが複雑となる場合がある。
本発明は、上記問題を解決すべくなされたもので、その目的は、ゴミの分別の利便性を向上できるゴミ分別支援システム、端末装置、ゴミ分別支援方法、及びプログラムを提供することにある。
In the conventional technology, when the user operates the terminal and inputs the attribute information of the garbage to be discarded, the information of the garbage can to be discarded can be obtained. However, unless the terminal is operated and the attribute information of the garbage is input when the garbage is thrown away, the information of the trash can to be discarded cannot be obtained. In addition, when disposing of PET bottles, one product is separated into multiple sorting targets, such as plastic containers and packaging for labels, resource waste for the main body, and plastic containers and packaging for caps, and the disposal destinations for the separated sorting targets. The trash can may break up. Therefore, it may be complicated to explain the method of separating the waste to be discarded with sentences and illustrations.
The present invention has been made to solve the above problems, and an object of the present invention is to provide a garbage separation support system, a terminal device, a garbage separation support method, and a program capable of improving the convenience of garbage separation.

(1)本発明の一態様は、端末装置と、サーバとを備えるゴミ分別支援システムであって、前記端末装置は、ゴミの画像情報を取得する画像入力部と、自端末装置の位置を測位する位置測位部と、前記画像入力部が取得した前記ゴミの前記画像情報と、前記位置測位部が測位した前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成する制御部と、前記制御部が作成した前記ゴミ分別判定要求を前記サーバへ送信し、送信した前記ゴミ分別判定要求に対する応答信号であるゴミ分別応答を受信する通信部と、前記通信部が受信した前記ゴミ分別応答に含まれるゴミの分別方法を示す画像情報を取得し、取得した前記ゴミの分別方法を示す画像情報に基づいて、ゴミの分別方法を示す画像と、前記画像入力部が取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示する画像出力部とを備え、前記サーバは、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミの前記画像情報と、前記自端末装置の前記位置情報とを取得し、取得した前記ゴミの前記画像情報に基づいて、前記ゴミの画像の特徴量を抽出し、抽出した前記ゴミの画像の前記特徴量に該当する前記ゴミの分別名称を、ゴミの画像の特徴量と該ゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから取得し、取得した前記ゴミの前記分別名称と前記自端末装置の前記位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得し、取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得し、取得した前記ゴミの前記分別方法を示す画像情報を含む前記ゴミ分別応答を作成する画像認識部と、前記画像認識部が作成した前記ゴミ分別応答を、前記端末装置へ送信するサーバ通信部とを備え、前記画像入力部は、前記ゴミ箱の前記画像情報を取得し、前記制御部は、前記ゴミ箱の前記画像情報をさらに含む前記ゴミ分別判定要求を作成し、前記画像認識部は、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミ箱の前記画像情報をさらに取得し、取得した前記ゴミ箱の前記画像情報と、前記自端末装置の前記位置情報とに基づいて、前記ゴミ箱の位置情報を取得し、取得した前記ゴミの前記分別名称と前記ゴミ箱の前記位置情報とに基づいて、前記ゴミの前記分別方法を示す情報を取得する、ゴミ分別支援システムである。
)本発明の一態様は、上記(1)に記載のゴミ分別支援システムにおいて、前記端末装置は、前記自端末装置の向きを検出する姿勢検出部を備え、前記画像出力部は、前記姿勢検出部が検出した前記向きを示す情報に基づいて、前記画像入力部が取得した前記ゴミ箱の前記画像情報から得られる前記画像に合成する前記ゴミの前記分別方法を示す画像の位置を補正する。
)本発明の一態様は、上記(1)又は上記(2)に記載のゴミ分別支援システムにおいて、前記画像認識部は、取得した前記ゴミの前記画像情報と前記自端末装置の前記位置情報とに基づいて、前記自端末装置の位置から所定の範囲のゴミ箱の位置情報を取得し、前記サーバ通信部は、前記画像認識部が取得した前記ゴミ箱の前記位置情報さらに含む前記ゴミ分別応答を作成する。
)本発明の一態様は、ゴミの画像情報とゴミ箱の画像情報とを取得する画像入力部と、自端末装置の位置を測位する位置測位部と、前記画像入力部が取得した前記ゴミの前記画像情報に基づいて、前記ゴミの画像の特徴量を抽出し、抽出した前記ゴミの画像の前記特徴量に該当する前記ゴミの分別名称を、ゴミの画像の特徴量と該ゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから取得し、取得した前記ゴミの前記分別名称とゴミ箱の画像情報と前記位置測位部が測位した前記自端末装置の位置情報とに基づいて取得される前記ゴミ箱の位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得し、取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得する画像認識部と、前記画像認識部が取得した前記ゴミの前記分別方法を示す前記画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、前記画像入力部が取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示する画像出力部とを備える、端末装置である。
)本発明の一態様は、端末装置と、サーバとを備えるゴミ分別支援システムが実行するゴミ分別支援方法であって、前記端末装置が、ゴミの画像情報とゴミ箱の画像情報とを取得するステップと、前記端末装置が、自端末装置の位置を測位するステップと、前記端末装置が、前記ゴミの前記画像情報と、前記ゴミ箱の前記画像情報と、前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成するステップと、前記端末装置が、前記ゴミ分別判定要求を前記サーバへ送信するステップと、前記サーバが、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミの前記画像情報と、前記ゴミ箱の前記画像情報と、前記自端末装置の前記位置情報とを取得するステップと、前記サーバが、前記ゴミの前記画像情報に基づいて、前記ゴミの画像の特徴量を抽出し、抽出した前記ゴミの画像の前記特徴量に該当する前記ゴミの分別名称を、ゴミの画像の特徴量と該ゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから取得するステップと、前記サーバが、前記ゴミの分別名称と、前記ゴミ箱の前記画像情報と前記自端末装置の前記位置情報とに基づいて取得される前記ゴミ箱の位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得するステップと、前記サーバが、前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得するステップと、前記サーバが、前記ゴミの前記分別方法を示す前記画像情報を含むゴミ分別応答を作成するステップと、前記サーバが、前記ゴミ分別応答を、前記端末装置へ送信するステップと、前記端末装置が、前記サーバが送信した前記ゴミ分別応答を受信するステップと、前記端末装置が、前記ゴミ分別応答に含まれる前記ゴミの前記分別方法を示す前記画像情報を取得し、取得した前記ゴミの前記分別方法を示す前記画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、取得したゴミ箱の画像情報から得られる前記ゴミの前記画像とを合成して表示するステップとを有する、ゴミ分別支援方法である。
)本発明の一態様は、端末装置と通信を行うサーバのコンピュータに、前記端末装置が送信したゴミ分別判定要求に含まれるゴミの画像情報と、ゴミ箱の前記画像情報と、前記端末装置の位置情報とを取得するステップと、取得した前記ゴミの前記画像情報に基づいて、前記ゴミの画像の特徴量を抽出し、抽出した前記ゴミの画像の前記特徴量に該当する前記ゴミの分別名称を、ゴミの画像の特徴量と該ゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから取得するステップと、取得した前記ゴミの前記分別名称と、前記ゴミ箱の前記画像情報と前記端末装置の前記位置情報とに基づいて取得される前記ゴミ箱の位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得するステップと、取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得するステップと、前記ゴミの前記分別方法を示す前記画像情報を含むゴミ分別応答を作成し、作成した前記ゴミ分別応答を、前記端末装置へ送信するステップとを実行させる、プログラムである。
(1) One aspect of the present invention is a garbage separation support system including a terminal device and a server, in which the terminal device positions an image input unit for acquiring image information of dust and the own terminal device. A signal that includes the positioning unit, the image information of the dust acquired by the image input unit, and the position information of the own terminal device positioned by the positioning unit, and requests a determination of separation of the dust. A control unit that creates a certain garbage separation determination request, and a communication unit that transmits the garbage separation determination request created by the control unit to the server and receives a garbage separation response that is a response signal to the transmitted garbage separation determination request. And, based on the image information indicating the dust separation method included in the dust separation response received by the communication unit and the image information indicating the acquired dust separation method, the image showing the dust separation method and the image. The server includes an image output unit that synthesizes and displays the image of the garbage box obtained from the image information of the garbage box acquired by the image input unit, and the server responds to the garbage separation determination request transmitted by the terminal device. The image information of the included dust and the position information of the own terminal device are acquired, and the feature amount of the image of the dust is extracted based on the acquired image information of the dust, and the extracted dust is extracted. The garbage separation name corresponding to the feature amount of the image is acquired from a database stored in association with the feature amount of the garbage image and the garbage separation name shown in the garbage image, and the acquired garbage Based on the sorting name and the position information of the own terminal device, information indicating the dust sorting method is acquired, and based on the acquired information indicating the dust sorting method, the dust sorting method. An image recognition unit that acquires image information indicating the above and creates the dust separation response including the image information indicating the acquisition method of the dust, and the terminal device that creates the dust separation response created by the image recognition unit. The image input unit acquires the image information of the garbage box, and the control unit creates the garbage separation determination request including the image information of the garbage box. The image recognition unit further acquires the image information of the garbage box included in the garbage separation determination request transmitted by the terminal device, and obtains the image information of the garbage box and the position information of the own terminal device. Based on this, the position information of the garbage box is acquired, and based on the acquired sorting name of the garbage and the position information of the garbage box, information indicating the sorting method of the garbage is acquired. You, a garbage separation support system.
( 2 ) One aspect of the present invention is the dust separation support system according to (1) above, wherein the terminal device includes an attitude detection unit that detects the orientation of the own terminal device, and the image output unit is the image output unit. Based on the information indicating the orientation detected by the posture detection unit, the position of the image indicating the method of separating the dust to be combined with the image obtained from the image information of the dust box acquired by the image input unit is corrected. ..
( 3 ) One aspect of the present invention is the dust separation support system according to the above (1) or ( 2) , wherein the image recognition unit uses the acquired image information of the dust and the position of the own terminal device. Based on the information, the position information of the trash can in a predetermined range is acquired from the position of the own terminal device, and the server communication unit further includes the position information of the trash can acquired by the image recognition unit. To create.
( 4 ) One aspect of the present invention includes an image input unit that acquires image information of dust and image information of a dust box, a positioning unit that positions the position of the own terminal device, and the dust acquired by the image input unit. Based on the image information of the above, the feature amount of the dust image is extracted, and the sorting name of the dust corresponding to the feature amount of the extracted dust image is given to the feature amount of the dust image and the image of the dust. Based on the separated name of the garbage, the image information of the garbage box, and the position information of the own terminal device positioned by the positioning unit, which is acquired from the database stored in association with the garbage sorting name indicated by. Based on the acquired position information of the garbage box, information indicating the method for separating the garbage is acquired, and based on the acquired information indicating the method for separating the garbage, image information indicating the method for separating the garbage is obtained. Based on the image recognition unit that acquires the above and the image information that indicates the separation method of the dust acquired by the image recognition unit, the image showing the separation method of the dust and the garbage box acquired by the image input unit. It is a terminal device including an image output unit that synthesizes and displays the image of the garbage box obtained from the image information.
( 5 ) One aspect of the present invention is a garbage separation support method executed by a garbage separation support system including a terminal device and a server, and the terminal device acquires image information of garbage and image information of a garbage box. Steps to be performed, a step in which the terminal device determines the position of the own terminal device, and the terminal device obtains the image information of the garbage, the image information of the garbage box, and the position information of the own terminal device. A step of creating a garbage separation determination request, which is a signal requesting the determination of garbage separation, a step of the terminal device transmitting the garbage separation determination request to the server, and a step of the server sending the garbage separation determination request to the server. The step of acquiring the image information of the garbage, the image information of the garbage box, and the position information of the own terminal device included in the garbage separation determination request transmitted by the server, and the server of the garbage. Based on the image information, the feature amount of the dust image is extracted, and the classification name of the dust corresponding to the feature amount of the extracted dust image is shown by the feature amount of the dust image and the dust image. obtaining from a database that stores in association with the sorting names of garbage to be the server, and fractionation name of the waste, it is obtained on the basis of the said positional information of the image information and the own terminal device of the trash The step of acquiring the information indicating the garbage sorting method based on the position information of the garbage box, and the server showing the garbage sorting method based on the information indicating the garbage sorting method. A step of acquiring image information, a step of the server creating a garbage separation response including the image information indicating the method of separating the garbage, and a step of the server transmitting the garbage separation response to the terminal device. The terminal device acquires the step of receiving the dust separation response transmitted by the server, and the terminal device acquires the image information indicating the method of separating the dust included in the dust separation response. A step of synthesizing and displaying an image showing the method of separating the garbage and the image of the garbage obtained from the acquired image information of the garbage box based on the image information indicating the acquired method of separating the garbage. It is a garbage separation support method that has.
( 6 ) One aspect of the present invention is the image information of the garbage included in the garbage separation determination request transmitted by the terminal device, the image information of the garbage box, and the terminal device to the computer of the server communicating with the terminal device. Based on the step of acquiring the position information of the dust and the image information of the acquired dust, the feature amount of the dust image is extracted, and the dust corresponding to the feature amount of the extracted dust image is separated. A step of acquiring a name from a database that stores a feature amount of a garbage image and a garbage sorting name indicated by the garbage image in association with each other, the obtained sorting name of the garbage, and the image information of the garbage box. And the step of acquiring the information indicating the garbage sorting method based on the position information of the garbage box acquired based on the position information of the terminal device and the information indicating the acquired garbage sorting method. Based on the above, a step of acquiring image information indicating the method for separating the garbage and a garbage separation response including the image information indicating the method for separating the garbage are created, and the created garbage separation response is transmitted to the terminal. It is a program that executes a step of transmitting to a device.

本発明によれば、ゴミの分別の利便性を向上できるゴミ分別支援システム、端末装置、ゴミ分別支援方法、及びプログラムを提供できる。 According to the present invention, it is possible to provide a garbage separation support system, a terminal device, a garbage separation support method, and a program that can improve the convenience of garbage separation.

本発明の実施形態のゴミ分別支援システムの一例を示す図である。It is a figure which shows an example of the garbage separation support system of embodiment of this invention. 本発明の実施形態のゴミ分別支援システムを構成するサーバのハードウェア構成と、端末装置のハードウェア構成との一例を示す図である。It is a figure which shows an example of the hardware composition of the server which comprises the garbage separation support system of embodiment of this invention, and the hardware composition of a terminal apparatus. 本発明の実施形態のゴミ分別支援システムを構成するサーバと、端末装置とを示すブロック図である。It is a block diagram which shows the server which comprises the garbage separation support system of embodiment of this invention, and the terminal apparatus. 本発明の実施形態のゴミ分別支援システムの動作の一例を示すシーケンスチャートである。It is a sequence chart which shows an example of the operation of the garbage separation support system of embodiment of this invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure which shows an example of the operation of the garbage separation support system of embodiment of this invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure which shows an example of the operation of the garbage separation support system of embodiment of this invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure which shows an example of the operation of the garbage separation support system of embodiment of this invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure which shows an example of the operation of the garbage separation support system of embodiment of this invention. 本発明の実施形態のゴミ分別支援システムの動作の一例を示す図である。It is a figure which shows an example of the operation of the garbage separation support system of embodiment of this invention. 本発明の実施形態のゴミ分別支援システムを構成する端末装置を示すブロック図である。It is a block diagram which shows the terminal apparatus which comprises the garbage separation support system of embodiment of this invention.

次に、本実施形態のゴミ分別支援システム、端末装置、ゴミ分別支援方法、及びプログラムを、図面を参照しつつ説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づく」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づく」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Next, the garbage separation support system, the terminal device, the garbage separation support method, and the program of the present embodiment will be described with reference to the drawings. The embodiments described below are merely examples, and the embodiments to which the present invention is applied are not limited to the following embodiments. In all the drawings for explaining the embodiment, the same reference numerals are used for those having the same function, and the repeated description will be omitted.
Further, "based on XX" in the present application means "based on at least XX", and includes a case where it is based on another element in addition to XX. Further, "based on XX" is not limited to the case where XX is used directly, but also includes the case where XX is calculated or processed. "XX" is an arbitrary element (for example, arbitrary information).

(実施形態)
(ゴミ分別支援システム)
図1に示すように、本実施形態のゴミ分別支援システム3は、サーバ1と、端末装置2とを備える。サーバ1と端末装置2との間は、携帯電話網、インターネットなどのネットワーク4を介して接続される。観光地、空港などの外国人が多い公共施設にゴミ箱5が設置される。訪日客などの観光客は、端末装置2にインストールされているゴミ分別アプリを起動する。ゴミ分別アプリが起動することによって、端末装置2は、「分別対象のゴミとゴミ箱とを撮影してください」などのゴミとゴミ箱との撮影(撮像)を促すメッセージを表示する。
端末装置2のユーザ(観光客)は、端末装置2に表示されたメッセージにしたがって、ゴミとゴミ箱とを撮影する。ユーザが撮影することによって、端末装置2は、ゴミの画像情報と、ゴミ箱の画像情報とを生成する。端末装置2は、端末装置2の識別情報と、端末装置2の位置情報と、生成したゴミの画像情報と、ゴミ箱の画像情報とを含むゴミ分別判定要求を作成し、作成したゴミ分別判定要求を、サーバ1へ送信する。
(Embodiment)
(Garbage separation support system)
As shown in FIG. 1, the garbage separation support system 3 of the present embodiment includes a server 1 and a terminal device 2. The server 1 and the terminal device 2 are connected via a network 4 such as a mobile phone network or the Internet. Trash cans 5 are installed in public facilities such as tourist spots and airports where many foreigners live. Tourists such as visitors to Japan activate the garbage separation application installed in the terminal device 2. When the garbage separation application is activated, the terminal device 2 displays a message prompting the user to take a picture (imaging) of the garbage and the trash can, such as "Please take a picture of the garbage and the trash can to be separated".
The user (tourist) of the terminal device 2 photographs the garbage and the trash can according to the message displayed on the terminal device 2. When the user takes a picture, the terminal device 2 generates the image information of the garbage and the image information of the garbage box. The terminal device 2 creates a garbage separation determination request including the identification information of the terminal device 2, the position information of the terminal device 2, the generated image information of the garbage, and the image information of the trash can, and the created garbage separation determination request. Is transmitted to the server 1.

サーバ1は、端末装置2が送信したゴミ分別判定要求に含まれるゴミの画像情報に基づいて、ゴミの分別名称などの属性を識別し、ゴミ箱の画像情報に基づいて、ゴミ箱の構成を識別し、ゴミの属性の識別結果とゴミ箱の構成の識別結果とに基づいて、ゴミの分別方法の説明文と、ゴミの分別方法を説明するための情報(以下「ゴミ分別方法説明情報」という)を取得する。ゴミの分別方法は、ゴミ箱5が設置された地域のルールにしたがったものである。サーバ1は、取得したゴミ分別方法説明情報を含み、端末装置2をあて先とするゴミ分別応答を作成し、作成したゴミ分別応答を、端末装置2へ送信する。端末装置2は、サーバ1が送信したゴミ分別応答を受信し、受信したゴミ分別応答に含まれるゴミ分別方法説明情報に基づいて、拡張現実技術(AR: Augmented Reality)により、端末装置2が備える撮像部が撮影したゴミ箱の画像に、ゴミの分別方法を合成して表示する。
図1に示される例では、ゴミ箱5は、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53との3個の分別ゴミ箱を含む。可燃ゴミ箱51、不燃ゴミ箱52、資源ゴミ箱53などの複数の分別ゴミ箱の各々には、互いに異なる色、文字などの識別情報が割り当てられている。例えば、複数の分別ゴミ箱の各々に、互いに異なる色が割り当てられている場合には、一例として、可燃ゴミ箱51の筐体は赤色で塗装され、不燃ゴミ箱52の筐体は青色で塗装され、資源ゴミ箱53の筐体は緑色で塗装される。
ゴミ箱5を設置した場合に、設置者は、ゴミ箱5の画像情報、文字情報などのゴミ箱の特徴が判別できる情報と、そのゴミ箱5の構成を示す情報(以下「ゴミ箱構成情報」という)を、サーバ1に入力する。以下、ゴミ箱の特徴が判別できる情報の一例として、ゴミ箱5の画像情報を使用した場合について説明を続ける。サーバ1は、ゴミ箱5の画像情報に基づいて、ゴミ箱5の画像の特徴量を導出し、導出したゴミ箱5の画像の特徴量と、ゴミ箱構成情報とを関連付けて記憶する。具体的には、設置者は、サーバ1を操作することによって、ゴミ箱5の画像情報を入力し、入力したゴミ箱5の画像の特徴量を認識させる。設置者は、ゴミ箱構成情報を入力し、サーバ1に、ゴミ箱5の画像の特徴量と、ゴミ箱構成情報とを関連付けて、記憶させる。ゴミ箱構成情報の一例は、各分別ゴミ箱が、可燃ゴミ、不燃ゴミ、資源ゴミのいずれかに該当するかを示す情報である。ここで、可燃ゴミとは燃やせるゴミのことであり、具体的には、生ゴミ、紙くず、繊維くず、プラスチック類、ゴムや皮革などがあげられる。不燃ゴミとは燃やせないゴミのことであり、具体的には、金属、ガラス、陶磁器を原材料とした製品があげられる。資源ゴミとは一般に再資源化が可能なゴミであり、主に缶、ペットボトル、瓶、紙類、電池、金属塊などがあげられる。サーバ1は、ゴミ箱5の画像の特徴量とゴミ箱構成情報とを関連付けて記憶する。
The server 1 identifies attributes such as the garbage separation name based on the garbage image information included in the garbage separation determination request transmitted by the terminal device 2, and identifies the configuration of the trash can based on the image information of the trash can. , Based on the identification result of the garbage attribute and the identification result of the composition of the trash can, the explanation of the garbage separation method and the information for explaining the garbage separation method (hereinafter referred to as "garbage separation method explanation information") are provided. get. The method of separating garbage follows the rules of the area where the trash can 5 is installed. The server 1 includes the acquired garbage separation method explanatory information, creates a garbage separation response destined for the terminal device 2, and transmits the created garbage separation response to the terminal device 2. The terminal device 2 receives the garbage separation response transmitted by the server 1, and is provided with the terminal device 2 by augmented reality technology (AR) based on the garbage separation method explanatory information included in the received garbage separation response. The dust separation method is combined and displayed with the image of the dust bin taken by the image pickup unit.
In the example shown in FIG. 1, the trash can 5 includes three separate trash cans, a combustible trash can 51, a non-combustible trash can 52, and a resource trash can 53. Identification information such as different colors and characters is assigned to each of the plurality of separated trash cans such as the combustible trash can 51, the non-combustible trash can 52, and the resource trash can 53. For example, when different colors are assigned to each of the plurality of sorting trash cans, as an example, the housing of the combustible trash can 51 is painted in red, the housing of the non-combustible trash can 52 is painted in blue, and resources are used. The housing of the trash can 53 is painted green.
When the trash can 5 is installed, the installer provides information such as image information and text information of the trash can 5 that can identify the characteristics of the trash can and information indicating the configuration of the trash can 5 (hereinafter referred to as "trash can configuration information"). Input to server 1. Hereinafter, the case where the image information of the trash can 5 is used as an example of the information that can determine the characteristics of the trash can will be described. The server 1 derives the feature amount of the image of the trash can 5 based on the image information of the trash can 5, and stores the feature amount of the derived image of the trash can 5 and the trash box configuration information in association with each other. Specifically, the installer inputs the image information of the trash can 5 by operating the server 1 and causes the installer to recognize the feature amount of the input image of the trash can 5. The installer inputs the trash can configuration information, and stores the feature amount of the image of the trash can 5 and the trash can configuration information in association with each other in the server 1. An example of the trash can configuration information is information indicating whether each separated trash can corresponds to any of combustible waste, non-combustible waste, and recyclable waste. Here, combustible garbage is combustible garbage, and specific examples thereof include raw garbage, paper waste, fiber waste, plastics, rubber and leather. Non-burnable garbage is non-burnable garbage, and specific examples thereof include products made of metal, glass, and ceramics. Recyclable waste is generally recyclable waste, and mainly includes cans, PET bottles, bottles, papers, batteries, and metal ingots. The server 1 stores the feature amount of the image of the trash can 5 and the trash can configuration information in association with each other.

ゴミ分別支援システムが実際に使用される場合について説明する。ゴミを捨てようとする者(以下「ユーザ」という)は、端末装置2を操作することによって、ゴミ分別アプリを起動する。ゴミ分別アプリが起動することによって、端末装置2は、ゴミとゴミ箱との撮影を促すメッセージを表示する。端末装置2のユーザは、端末装置2に表示されたメッセージにしたがって、ゴミとゴミ箱とを撮影する。ユーザが撮影することによって、端末装置2は、ゴミの画像情報と、ゴミ箱の画像情報とを生成する。端末装置2は、生成したゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の識別情報と、端末装置2の位置情報とを含むゴミ分別判定要求を作成し、作成したゴミ分別判定要求を、サーバ1へ送信する。サーバ1は、端末装置2が送信したゴミ分別判定要求を受信し、受信したゴミ分別判定要求に含まれるゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の識別情報と、端末装置2の位置情報とを取得する。サーバ1は、取得したゴミの画像情報に基づいて、ゴミの画像からゴミの画像の特徴量を抽出する。サーバ1は、取得したゴミ箱の画像情報に基づいて、ゴミ箱の画像から、ゴミ箱の画像の特徴量を抽出する。
サーバ1は、抽出したゴミの画像の特徴量を示す情報に基づいて、ゴミの画像の特徴量とそのゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから、そのゴミの画像の特徴量に該当するゴミの分別名称を検索する。また、サーバ1は、抽出したゴミ箱の画像の特徴量を示す情報に基づいて、ゴミ箱の画像の特徴量とそのゴミ箱の構成情報とを関連付けて記憶したデータベースから、そのゴミ箱の画像の特徴量に該当するゴミ箱の構成情報を示す情報を取得する。また、サーバ1は、取得した端末装置2の位置情報と、端末装置の向きを示す情報とに基づいて、ゴミ箱5の位置を推定する。サーバ1は、ゴミ箱5の位置の推定結果に基づいて、地域を示す情報と、その地域でのゴミの分別方法とを関連付けて記憶するデータベースから、そのゴミ箱5の位置の推定結果に該当する地域を示す情報に関連付けて記憶されているゴミの分別方法を示す情報を取得する。
さらに、サーバ1は、取得したゴミの分別方法を示す情報に基づいて、ゴミの分別方法を示す情報と、そのゴミ分別方法説明情報を関連付けて記憶したデータベースから、そのゴミの分別方法を示す情報に該当するゴミ分別方法説明情報を取得する。サーバ1は、取得したゴミ分別方法説明情報を含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末装置2へ送信する。
端末装置2は、サーバ1が送信したゴミ分別応答を受信し、受信したゴミ分別応答に基づいて、端末装置2のユーザに、ゴミ箱5を撮像させる。端末装置2は、ゴミ分別応答に含まれるゴミ分別方法説明情報に基づいて、拡張現実技術により、端末装置2が撮像したゴミ箱5に、ゴミ分別方法説明情報を合成して表示する。以下、ゴミ分別支援システムを構成するサーバ1と、端末装置2とについて、説明する。
The case where the garbage separation support system is actually used will be described. A person who intends to dispose of garbage (hereinafter referred to as "user") activates a garbage separation application by operating the terminal device 2. When the garbage separation application is activated, the terminal device 2 displays a message prompting the photographer to take a picture of the garbage and the trash can. The user of the terminal device 2 photographs the garbage and the trash can according to the message displayed on the terminal device 2. When the user takes a picture, the terminal device 2 generates the image information of the garbage and the image information of the garbage box. The terminal device 2 requests a garbage separation determination including the generated garbage image information, the garbage box image information, the information indicating the orientation of the terminal device 2, the identification information of the terminal device 2, and the position information of the terminal device 2. Is created, and the created garbage separation determination request is transmitted to the server 1. The server 1 receives the garbage separation determination request transmitted by the terminal device 2, and receives the garbage image information included in the received garbage separation determination request, the image information of the trash can, the information indicating the orientation of the terminal device 2, and the terminal. The identification information of the device 2 and the position information of the terminal device 2 are acquired. The server 1 extracts the feature amount of the dust image from the dust image based on the acquired dust image information. The server 1 extracts the feature amount of the image of the trash can from the image of the trash can based on the acquired image information of the trash can.
The server 1 stores the garbage image from a database that stores the feature amount of the garbage image and the garbage classification name shown by the garbage image in association with each other based on the information indicating the feature amount of the extracted garbage image. Search for the separated name of garbage that corresponds to the feature amount of. Further, the server 1 converts the feature amount of the image of the trash can into the feature amount of the image of the trash can from the database stored in association with the feature amount of the image of the trash can and the configuration information of the trash can based on the information indicating the feature amount of the extracted image of the trash can. Acquire information indicating the configuration information of the corresponding trash can. Further, the server 1 estimates the position of the trash can 5 based on the acquired position information of the terminal device 2 and the information indicating the orientation of the terminal device. Based on the estimation result of the position of the trash can 5, the server 1 stores the information indicating the area in association with the method of separating the garbage in the area, and the area corresponding to the estimation result of the position of the trash can 5 from the database. Acquires the information indicating the garbage separation method stored in association with the information indicating.
Further, the server 1 displays information indicating the garbage separation method from a database that stores information indicating the garbage separation method in association with the information indicating the garbage separation method based on the acquired information indicating the garbage separation method. Obtain information on how to separate garbage that corresponds to. The server 1 creates a garbage separation response including the acquired information on how to separate the garbage, and transmits the created garbage separation response to the terminal device 2.
The terminal device 2 receives the garbage separation response transmitted by the server 1, and causes the user of the terminal device 2 to take an image of the trash can 5 based on the received garbage separation response. The terminal device 2 synthesizes and displays the garbage separation method explanatory information in the trash can 5 imaged by the terminal device 2 by the augmented reality technology based on the garbage separation method explanatory information included in the garbage separation response. Hereinafter, the server 1 and the terminal device 2 that constitute the garbage separation support system will be described.

(ゴミ分別支援システムのハードウェア構成)
図2を参照して、ゴミ分別支援システム3を構成するサーバ1のハードウェア構成と端末装置2のハードウェア構成とについて順次説明する。サーバ1は、CPU152と、メモリ154と、不揮発性メモリ156と、操作部162と、通信I/F166と、内部バス150とを備えている。CPU152は、例えば不揮発性メモリ156に格納されるプログラム1562を実行し、メモリ154をワークメモリとして使用して、サーバ1の各部を制御する。メモリ154は、半導体素子を利用した揮発性のメモリなどのRAMによって構成され、CPU152のワークメモリとして使用される。不揮発性メモリ156は、例えばROM等によって構成される。不揮発性メモリ156には、CPU152によって実行されるプログラム1562と、端末情報1563と、ゴミ別特徴量1564と、ゴミ箱別特徴量1565と、地域別分別情報1566と、分別方法説明情報1567とが格納される。端末情報1563と、ゴミ別特徴量1564と、ゴミ箱別特徴量1565と、地域別分別情報1566と、分別方法説明情報1567とについては、後述する。
操作部162は、ゴミ箱5の設置者などの操作を受け付ける入力デバイスである。具体的には、設置者は、操作部162を操作することによって、ゴミ箱5の画像情報と、ゴミ箱構成情報とを入力する。通信I/F166は、外部機器や、ネットワーク4に接続された端末装置2などと通信して、データの送受信を行うためのインターフェースである。具体的には、通信I/F166は、ワイファイ(登録商標)等の無線通信技術で無線通信を行う無線デバイスによって構成される。また、通信I/F166は、有線LAN等の通信技術で通信を行うデバイスによって構成されてもよい。内部バス150は、CPU152、メモリ154、不揮発性メモリ156、操作部162、及び通信I/F166を互いに接続する。内部バス150に接続される各部は、内部バス150を介して互いにデータのやり取りを行うことができるようにされている。
(Hardware configuration of garbage separation support system)
With reference to FIG. 2, the hardware configuration of the server 1 and the hardware configuration of the terminal device 2 constituting the garbage separation support system 3 will be sequentially described. The server 1 includes a CPU 152, a memory 154, a non-volatile memory 156, an operation unit 162, a communication I / F 166, and an internal bus 150. The CPU 152 executes, for example, a program 1562 stored in the non-volatile memory 156, and uses the memory 154 as a work memory to control each part of the server 1. The memory 154 is composed of a RAM such as a volatile memory using a semiconductor element, and is used as a work memory of the CPU 152. The non-volatile memory 156 is composed of, for example, a ROM or the like. The non-volatile memory 156 stores a program 1562 executed by the CPU 152, terminal information 1563, garbage-specific feature amount 1564, garbage box-specific feature amount 1565, area-specific sorting information 1566, and sorting method explanation information 1567. Will be done. The terminal information 1563, the feature amount 1564 for each garbage, the feature amount 1565 for each trash can, the sorting information 1566 for each area, and the sorting method explanatory information 1567 will be described later.
The operation unit 162 is an input device that accepts operations by the installer of the trash can 5. Specifically, the installer inputs the image information of the trash can 5 and the trash can configuration information by operating the operation unit 162. The communication I / F 166 is an interface for transmitting and receiving data by communicating with an external device, a terminal device 2 connected to the network 4, and the like. Specifically, the communication I / F 166 is composed of a wireless device that performs wireless communication by wireless communication technology such as Wi-Fi (registered trademark). Further, the communication I / F 166 may be configured by a device that communicates by a communication technology such as a wired LAN. The internal bus 150 connects the CPU 152, the memory 154, the non-volatile memory 156, the operation unit 162, and the communication I / F 166 to each other. Each part connected to the internal bus 150 can exchange data with each other via the internal bus 150.

端末装置2は、CPU252と、メモリ254と、測位部255と、不揮発性メモリ256と、操作部257と、表示部258と、撮像部259と、センサ260と、通信I/F266と、内部バス250とを備えている。CPU252は、例えば不揮発性メモリ256に格納されるプログラム2562を実行し、メモリ254をワークメモリとして使用して、端末装置2の各部を制御する。メモリ254は、半導体素子を利用した揮発性のメモリなどのRAMによって構成され、CPU252のワークメモリとして使用される。不揮発性メモリ256は、例えばROM等によって構成される。不揮発性メモリ256には、CPU252によって実行されるプログラム2562が格納される。測位部255は、例えば、GPS衛星を用いた位置測位、又は携帯電話網の基地局を用いた位置測位などを用いて、端末装置2の位置を測位する。操作部257は、例えば、タッチパネルなどによって構成され、表示部258に表示される画面に対するタッチ操作を検出し、タッチ操作の検出結果を、CPU252へ出力する。タッチ操作には、ゴミ分別アプリを起動する操作などが含まれる。表示部258は、例えば、タッチパネルによって構成され、ゴミとゴミ箱との撮影を促すメッセージを表示する。撮像部259は、例えば、カメラによって構成され、外部の風景の静止画と動画とを撮像する。センサ260は、加速度センサ、地磁気センサなどによって構成され、端末装置2の向きを検出する。
通信I/F266は、外部機器や、ネットワーク4に接続されたサーバ1などと通信して、データの送受信を行うためのインターフェースである。具体的には、通信I/F266は、ワイファイ(登録商標)等の無線通信技術で無線通信を行う無線デバイスによって構成される。また、通信I/F266は、有線LAN等の通信技術で通信を行うデバイスによって構成されてもよい。内部バス250は、CPU252、メモリ254、測位部255、不揮発性メモリ256、操作部257、表示部258、撮像部259、センサ260、通信I/F266を互いに接続する。内部バス250に接続される各部は、内部バス250を介して互いにデータのやり取りを行うことができるようにされている。
The terminal device 2 includes a CPU 252, a memory 254, a positioning unit 255, a non-volatile memory 256, an operation unit 257, a display unit 258, an imaging unit 259, a sensor 260, a communication I / F 266, and an internal bus. It has 250 and. The CPU 252 executes, for example, a program 2562 stored in the non-volatile memory 256, and uses the memory 254 as a work memory to control each part of the terminal device 2. The memory 254 is composed of a RAM such as a volatile memory using a semiconductor element, and is used as a work memory of the CPU 252. The non-volatile memory 256 is composed of, for example, a ROM or the like. The non-volatile memory 256 stores a program 2562 executed by the CPU 252. The positioning unit 255 positions the terminal device 2 by using, for example, positioning using a GPS satellite or positioning using a base station of a mobile phone network. The operation unit 257 is configured by, for example, a touch panel or the like, detects a touch operation on the screen displayed on the display unit 258, and outputs the detection result of the touch operation to the CPU 252. Touch operations include operations such as launching a garbage separation application. The display unit 258 is composed of, for example, a touch panel, and displays a message urging the photograph of the dust and the trash can. The image pickup unit 259 is composed of, for example, a camera, and captures a still image and a moving image of an external landscape. The sensor 260 is composed of an acceleration sensor, a geomagnetic sensor, and the like, and detects the orientation of the terminal device 2.
The communication I / F 266 is an interface for transmitting and receiving data by communicating with an external device, a server 1 connected to the network 4, and the like. Specifically, the communication I / F 266 is composed of a wireless device that performs wireless communication by wireless communication technology such as Wi-Fi (registered trademark). Further, the communication I / F 266 may be configured by a device that communicates with a communication technology such as a wired LAN. The internal bus 250 connects the CPU 252, the memory 254, the positioning unit 255, the non-volatile memory 256, the operation unit 257, the display unit 258, the image pickup unit 259, the sensor 260, and the communication I / F 266 to each other. Each part connected to the internal bus 250 can exchange data with each other via the internal bus 250.

(本実施形態に係るゴミ分別支援システムの機能構成)
図3に示すように、サーバ1は、サーバ通信部101と、端末識別部102と、端末情報記憶部103と、画像認識部104と、ゴミ別特徴量記憶部105と、ゴミ箱別特徴量記憶部106と、地域別分別情報記憶部107と、分別方法説明情報記憶部108とを有している。これらの各部は、図2に示されている各構成要素のいずれかが、不揮発性メモリ156からメモリ154上に展開されたプログラム1562を実行するCPU152からの命令によって動作することで実現される機能である。
図2及び図3を用いて、サーバ1の各機能構成について詳細に説明する。サーバ1のサーバ通信部101は、CPU152からの命令、及び通信I/F166によって実現される。サーバ通信部101は、端末装置2などの他の装置との間でセッションが構築された後、各種データの送受信を行う。具体的には、サーバ通信部101は、端末装置2が送信したゴミ分別判定要求を受信し、受信したゴミ分別判定要求を、端末識別部102へ出力する。ゴミ分別判定要求には、端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の向きを示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とが含まれる。ここで、端末装置2の識別情報は、端末装置2のIPアドレス、MACアドレスなどである。以下、端末装置2の識別情報が、端末装置2のIPアドレスである場合について、説明を続ける。サーバ1と端末装置2とは、端末装置2のIPアドレスを使用して、相互に通信する。端末装置2の位置情報は、例えば、GPS衛星を用いた位置測位、又は携帯電話網の基地局を用いた位置測位などにより取得した、端末装置2の利用場所を表す情報である。
端末装置2の向きを示す情報は、端末装置2のセンサ260が検出した端末装置2の傾きを示す情報と方角を示す情報とを含む。端末装置2の向きを示す情報と、端末装置2の位置情報とによって、ゴミ箱5の位置が推定される。ゴミの画像情報は、端末装置2が撮像した分別対象のゴミの画像情報である。ゴミ箱の画像情報は、ユーザがゴミを廃棄しようとしているゴミ箱の画像情報である。また、サーバ通信部101は、画像認識部104が出力したゴミ分別応答を取得し、取得したゴミ分別応答を、端末装置2へ、送信する。
(Functional configuration of the garbage separation support system according to this embodiment)
As shown in FIG. 3, the server 1 includes a server communication unit 101, a terminal identification unit 102, a terminal information storage unit 103, an image recognition unit 104, a garbage-specific feature amount storage unit 105, and a garbage box-specific feature amount storage. It has a section 106, a regional sorting information storage section 107, and a sorting method explanation information storage section 108. Each of these parts has a function realized by operating any of the components shown in FIG. 2 by an instruction from the CPU 152 that executes the program 1562 expanded from the non-volatile memory 156 to the memory 154. Is.
Each functional configuration of the server 1 will be described in detail with reference to FIGS. 2 and 3. The server communication unit 101 of the server 1 is realized by an instruction from the CPU 152 and communication I / F 166. The server communication unit 101 transmits and receives various data after a session is established with another device such as the terminal device 2. Specifically, the server communication unit 101 receives the garbage separation determination request transmitted by the terminal device 2, and outputs the received garbage separation determination request to the terminal identification unit 102. The garbage separation determination request includes identification information of the terminal device 2, position information of the terminal device 2, information indicating the orientation of the terminal device 2, image information of the garbage, and image information of the trash can. Here, the identification information of the terminal device 2 is an IP address, a MAC address, or the like of the terminal device 2. Hereinafter, the case where the identification information of the terminal device 2 is the IP address of the terminal device 2 will be described. The server 1 and the terminal device 2 communicate with each other using the IP address of the terminal device 2. The position information of the terminal device 2 is information indicating a place of use of the terminal device 2 acquired by, for example, positioning using a GPS satellite or positioning using a base station of a mobile phone network.
The information indicating the orientation of the terminal device 2 includes information indicating the inclination of the terminal device 2 detected by the sensor 260 of the terminal device 2 and information indicating the direction. The position of the trash can 5 is estimated from the information indicating the orientation of the terminal device 2 and the position information of the terminal device 2. The dust image information is the dust image information to be sorted, which is captured by the terminal device 2. The image information of the trash can is the image information of the trash can in which the user is about to dispose of the trash. Further, the server communication unit 101 acquires the dust separation response output by the image recognition unit 104, and transmits the acquired dust separation response to the terminal device 2.

端末識別部102は、CPU152からの命令によって実現される。端末識別部102は、サーバ通信部101が出力したゴミ分別判定要求を取得する。端末識別部102は、取得したゴミ分別判定要求に含まれる端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の向きを示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とを取得する。端末識別部102は、取得した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の姿勢を示す情報とを、端末情報記憶部103に出力する。また、端末識別部102は、取得した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の向きを示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とを画像認識部104へ出力する。
端末情報記憶部103は、不揮発性メモリ156の端末情報1563によって実現される。端末情報記憶部103は、データベースであり、端末識別部102が出力した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の姿勢を示す情報とを取得し、取得した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の姿勢を示す情報とを関連付けて記憶する。端末情報記憶部103に記憶された情報は、サーバ1と端末装置2とが相互接続するために使用される。
画像認識部104は、CPU152からの命令によって実現される。画像認識部104は、端末識別部102が出力した端末装置2の識別情報と、端末装置2の位置情報と、端末装置2の向きを示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とを取得する。画像認識部104は、取得したゴミの画像情報と、ゴミ箱の画像情報とに基づいて、ゴミの画像と、ゴミ箱の画像とに対して、画像処理技術などを活用し、画像解析を行うことによって、特徴量を抽出する。
画像認識部104は、ゴミ別特徴量記憶部105に検索させることによって、抽出したゴミの画像の特徴量と関連付けて記憶されている分別名称を示す情報を取得する。画像認識部104は、ゴミ別特徴量記憶部105に、ペットボトルや缶など詳細な分別名称まで取得させる。画像認識部104は、ゴミ別特徴量記憶部105が出力した画像の被写体のゴミが該当する分別名称を示す情報を取得する。また、画像認識部104は、画像の被写体のゴミの画像の特徴量と一致するゴミの画像の特徴量がない場合は、ゴミ別特徴量記憶部105から、該当する対象がないことを示す情報を取得する。画像認識部104は、ゴミ箱別特徴量記憶部106に検索させることによって抽出させたゴミ箱の画像の特徴量と一致するゴミ箱の構成情報を取得させる。画像認識部104は、ゴミ箱別特徴量記憶部106が出力したゴミ箱の構成情報を取得する。また、画像認識部104は、画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がない場合は、ゴミ箱別特徴量記憶部106から、該当する対象がないことを示す情報を取得する。
The terminal identification unit 102 is realized by an instruction from the CPU 152. The terminal identification unit 102 acquires the garbage separation determination request output by the server communication unit 101. The terminal identification unit 102 includes the identification information of the terminal device 2 included in the acquired garbage separation determination request, the position information of the terminal device 2, the information indicating the direction of the terminal device 2, the image information of the garbage, and the image of the garbage box. Get information and. The terminal identification unit 102 outputs the acquired identification information of the terminal device 2, the position information of the terminal device 2, and the information indicating the posture of the terminal device 2 to the terminal information storage unit 103. Further, the terminal identification unit 102 image-recognizes the acquired identification information of the terminal device 2, the position information of the terminal device 2, the information indicating the orientation of the terminal device 2, the image information of the garbage, and the image information of the garbage box. Output to unit 104.
The terminal information storage unit 103 is realized by the terminal information 1563 of the non-volatile memory 156. The terminal information storage unit 103 is a database, and acquires and acquires the identification information of the terminal device 2 output by the terminal identification unit 102, the position information of the terminal device 2, and the information indicating the posture of the terminal device 2, and the acquired terminal. The identification information of the device 2, the position information of the terminal device 2, and the information indicating the posture of the terminal device 2 are stored in association with each other. The information stored in the terminal information storage unit 103 is used for interconnecting the server 1 and the terminal device 2.
The image recognition unit 104 is realized by a command from the CPU 152. The image recognition unit 104 includes the identification information of the terminal device 2 output by the terminal identification unit 102, the position information of the terminal device 2, the information indicating the orientation of the terminal device 2, the image information of the garbage, and the image information of the garbage box. To get. The image recognition unit 104 uses image processing technology or the like to analyze the image of the garbage and the image of the garbage box based on the acquired image information of the garbage and the image information of the garbage box. , Extract the feature quantity.
The image recognition unit 104 acquires information indicating the separated name stored in association with the feature amount of the extracted dust image by having the dust-specific feature amount storage unit 105 search. The image recognition unit 104 causes the garbage-specific feature amount storage unit 105 to acquire detailed sorting names such as PET bottles and cans. The image recognition unit 104 acquires information indicating a sorting name corresponding to the dust of the subject of the image output by the dust-specific feature amount storage unit 105. Further, when the image recognition unit 104 does not have the feature amount of the dust image that matches the feature amount of the dust image of the subject of the image, the information indicating from the dust-specific feature amount storage unit 105 that there is no corresponding target. To get. The image recognition unit 104 causes the trash can-specific feature amount storage unit 106 to acquire the trash can configuration information that matches the feature amount of the extracted trash can image. The image recognition unit 104 acquires the configuration information of the trash can output by the feature amount storage unit 106 for each trash can. Further, when the image recognition unit 104 does not have the feature amount of the image of the trash can that matches the feature amount of the image of the trash can of the subject of the image, the information indicating that there is no corresponding target from the feature amount storage unit 106 for each trash can. To get.

画像認識部104は、端末装置2の位置情報と、端末装置2の向きを示す情報とに基づいて、ゴミ箱5が設置された場所を推定する。画像認識部104は、ゴミの分別名称を示す情報を取得した場合に、地域別分別情報記憶部107に検索させることによって、取得したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに関連付けて記憶されている地域別の分別情報を取得させる。画像認識部104は、地域別分別情報記憶部107が出力した地域別分別情報を取得する。また、画像認識部104は、地域別分別情報がない場合は、地域別分別情報記憶部107から、該当する対象がないことを示す情報を取得する。画像認識部104は、地域別の分別情報を取得した場合に、分別方法説明情報記憶部108に検索させることによって、取得した地域別の分別情報に関連付けて記憶されているゴミ分別方法説明情報を取得させる。画像認識部104は、分別方法説明情報記憶部108が出力したゴミ分別方法説明情報を取得する。また、画像認識部104は、ゴミ分別方法説明情報がない場合は、分別方法説明情報記憶部108から、該当する対象がないことを示す情報を取得する。
画像認識部104は、分別方法説明情報記憶部108が出力したゴミ分別方法説明情報を取得した場合には、取得したゴミ分別方法説明情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。また、画像認識部104は、ゴミ別特徴量記憶部105が出力した画像の被写体のゴミの画像の特徴量と一致するゴミの画像の特徴量がないことを示す情報を取得した場合には、分別名称がないことを示す情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。また、画像認識部104は、ゴミ箱別特徴量記憶部106が出力した画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報を取得した場合には、画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。また、画像認識部104は、地域別分別情報記憶部107が出力した地域別分別情報がないことを示す情報を取得した場合、地域別分別情報がないことを示す情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。また、画像認識部104は、分別方法説明情報記憶部108が出力したゴミ分別方法説明情報がないことを示す情報を取得した場合、ゴミ分別方法説明情報がないことを示す情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。
The image recognition unit 104 estimates the location where the trash can 5 is installed based on the position information of the terminal device 2 and the information indicating the orientation of the terminal device 2. When the image recognition unit 104 acquires information indicating the garbage separation name, the image recognition unit 104 causes the area-specific separation information storage unit 107 to search for the acquired garbage separation name and the estimation result of the place where the trash can 5 is installed. Get the separated information for each region that is stored in association with. The image recognition unit 104 acquires the regional classification information output by the regional classification information storage unit 107. Further, when there is no regional classification information, the image recognition unit 104 acquires information indicating that there is no corresponding target from the regional classification information storage unit 107. When the image recognition unit 104 acquires the sorting information for each region, the image recognition unit 104 causes the sorting method explanation information storage unit 108 to search for the garbage separation method explanation information stored in association with the acquired sorting information for each region. Get it. The image recognition unit 104 acquires the garbage separation method explanation information output by the separation method explanation information storage unit 108. Further, when there is no garbage separation method explanation information, the image recognition unit 104 acquires information indicating that there is no corresponding target from the separation method explanation information storage unit 108.
When the image recognition unit 104 acquires the garbage separation method explanation information output by the separation method explanation information storage unit 108, the image recognition unit 104 sends a garbage separation response including the acquired garbage separation method explanation information and the identification information of the terminal device 2. The created garbage separation response is output to the server communication unit 101 via the terminal identification unit 102. Further, when the image recognition unit 104 acquires information indicating that there is no feature amount of the dust image that matches the feature amount of the dust image of the subject of the image output by the feature amount storage unit 105 for each dust, the image recognition unit 104 obtains information indicating that there is no feature amount of the dust image. A garbage separation response including information indicating that there is no separation name and identification information of the terminal device 2 is created, and the created garbage separation response is output to the server communication unit 101 via the terminal identification unit 102. Further, when the image recognition unit 104 acquires information indicating that there is no feature amount of the image of the trash can that matches the feature amount of the image of the trash can of the subject of the image output by the feature amount storage unit 106 for each trash can, the image recognition unit 104 obtains information. A garbage separation response including information indicating that there is no feature amount of the image of the trash can that matches the feature amount of the image of the trash can of the subject of the image and the identification information of the terminal device 2 is created, and the created garbage separation response is displayed. It is output to the server communication unit 101 via the terminal identification unit 102. Further, when the image recognition unit 104 acquires the information indicating that there is no regional sorting information output by the regional sorting information storage unit 107, the information indicating that there is no regional sorting information and the identification of the terminal device 2 A garbage separation response including information is created, and the created garbage separation response is output to the server communication unit 101 via the terminal identification unit 102. Further, when the image recognition unit 104 acquires the information indicating that there is no garbage separation method explanation information output by the separation method explanation information storage unit 108, the information indicating that there is no garbage separation method explanation information and the terminal device 2 A garbage separation response including the identification information of the above is created, and the created garbage separation response is output to the server communication unit 101 via the terminal identification unit 102.

ゴミ別特徴量記憶部105は、不揮発性メモリ156のゴミ別特徴量1564によって実現される。ゴミ別特徴量記憶部105は、ゴミの分別名称と、そのゴミの画像の特徴量とを関連付けて記憶したデータベースである。ゴミ別特徴量記憶部105は、画像認識部104が出力したゴミの画像の特徴量に基づいて、画像の被写体のゴミがどの分別名称に該当するゴミであるかを検索する。ゴミ別特徴量記憶部105は、画像の被写体のゴミに該当する分別名称がある場合にはその分別名称を示す情報を、画像認識部104へ出力し、画像の被写体のゴミの画像の特徴量がない場合にはゴミの画像の特徴量がないことを示す情報を、画像認識部104へ出力する。
ゴミ箱別特徴量記憶部106は、不揮発性メモリ156のゴミ箱別特徴量1565によって実現される。ゴミ箱別特徴量記憶部106は、ゴミ箱の構成情報と、ゴミ箱の画像の特徴量とを関連付けて記憶したデータベースである。ゴミ箱別特徴量記憶部106は、画像認識部104が出力したゴミ箱の画像の特徴量に基づいて、画像の被写体のゴミ箱の構成情報を検索する。ゴミ箱別特徴量記憶部106は、画像の被写体のゴミ箱の画像の特徴量に該当するゴミ箱の構成情報がある場合にはそのゴミ箱の構成情報を示す情報を、画像認識部104へ出力し、画像の被写体のゴミ箱の画像の特徴量がない場合にはゴミ箱の画像の特徴量がないことを示す情報を、画像認識部104へ出力する。
地域別分別情報記憶部107は、不揮発性メモリ156の地域別分別情報1566によって実現される。地域別分別情報記憶部107は、地域ごとのゴミの分別方法を記憶したデータベースである。具体的には、地域別分別情報記憶部107は、地域の緯度の範囲と経度の範囲を示す情報と、ゴミの分別名称を示す情報と、そのゴミのゴミ分別方法を示す情報とを関連付けて記憶する。地域別分別情報記憶部107は、画像認識部104が出力したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とを取得し、取得したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに基づいて、ゴミの分別方法を示す情報を検索する。地域別分別情報記憶部107は、取得したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに該当するゴミの分別方法がある場合にはそのゴミの分別方法を示す情報を、画像認識部104へ出力し、取得したゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに該当するゴミの分別方法がない場合にはゴミの分別方法がないことを示す情報を、画像認識部104へ出力する。
このように構成することによって、地域別分別情報記憶部107は、ゴミ箱5が設置された場所の推定結果に基づいて、ゴミ箱5がある地域のゴミの分別情報を検索することができる。分別方法説明情報記憶部108は、不揮発性メモリ156の分別方法説明情報1567によって実現される。分別方法説明情報記憶部108は、ゴミの分別方法を示す情報と、ゴミ分別方法説明情報とを関連付けて記憶したデータベースである。ここで、ゴミ分別方法説明情報のゴミの分別方法を説明するための情報の一例は、アニメーション表示である。分別方法説明情報記憶部108は、画像認識部104が出力したゴミの分別方法を示す情報を取得し、取得したゴミの分別方法を示す情報に基づいて、ゴミ分別方法説明情報を検索する。
The dust-specific feature amount storage unit 105 is realized by the dust-specific feature amount 1564 of the non-volatile memory 156. The garbage-specific feature amount storage unit 105 is a database that stores the garbage separation name and the feature amount of the garbage image in association with each other. The dust-specific feature amount storage unit 105 searches for which classification name the dust of the subject of the image corresponds to, based on the feature amount of the dust image output by the image recognition unit 104. If there is a sorting name corresponding to the dust of the subject of the image, the feature amount storage unit 105 for each dust outputs information indicating the sorting name to the image recognition unit 104, and outputs the feature amount of the dust of the subject of the image to the image. If there is no dust image, information indicating that there is no feature amount of the dust image is output to the image recognition unit 104.
The feature amount storage unit 106 for each trash can is realized by the feature amount 1565 for each trash can of the non-volatile memory 156. The feature amount storage unit 106 for each trash can is a database that stores the configuration information of the trash can and the feature amount of the image of the trash can in association with each other. The feature amount storage unit 106 for each trash can searches for the configuration information of the trash can of the subject of the image based on the feature amount of the image of the trash can output by the image recognition unit 104. The feature amount storage unit 106 for each trash box outputs, if there is trash box configuration information corresponding to the feature amount of the image of the trash box of the subject of the image, the information indicating the trash box configuration information to the image recognition unit 104, and outputs the image. When there is no feature amount of the image of the trash box of the subject, information indicating that there is no feature amount of the image of the trash box is output to the image recognition unit 104.
The regional classification information storage unit 107 is realized by the regional classification information 1566 of the non-volatile memory 156. The regional sorting information storage unit 107 is a database that stores the garbage sorting method for each region. Specifically, the regional classification information storage unit 107 associates information indicating the latitude range and longitude range of the region with information indicating the garbage separation name and information indicating the garbage separation method of the garbage. Remember. The regional sorting information storage unit 107 acquires the garbage sorting name output by the image recognition unit 104 and the estimation result of the place where the trash can 5 is installed, and the acquired garbage sorting name and the trash can 5 are installed. Search for information that indicates how to separate garbage based on the estimation results of the location. The regional sorting information storage unit 107 provides information indicating the garbage sorting method, if there is a garbage sorting method corresponding to the acquired garbage sorting name and the estimation result of the place where the trash can 5 is installed. If there is no garbage separation method corresponding to the acquired garbage separation name and the estimation result of the place where the trash can 5 is installed, the information is output to the image recognition unit 104 to indicate that there is no garbage separation method. , Is output to the image recognition unit 104.
With this configuration, the area-specific sorting information storage unit 107 can search for garbage separation information in the area where the trash can 5 is located, based on the estimation result of the place where the trash can 5 is installed. The sorting method explanation information storage unit 108 is realized by the sorting method explanation information 1567 of the non-volatile memory 156. The sorting method explanatory information storage unit 108 is a database that stores information indicating a garbage sorting method in association with garbage sorting method explanatory information. Here, an example of the information for explaining the garbage separation method of the garbage separation method explanatory information is an animation display. The sorting method explanatory information storage unit 108 acquires the information indicating the dust sorting method output by the image recognition unit 104, and searches for the garbage sorting method explanatory information based on the information indicating the acquired dust sorting method.

端末装置2は、画像入力部201と、制御部202と、画像認識部203と、姿勢検出部204と、位置測定部205と、通信部206と、画像出力部207とを有している。画像入力部201は、CPU252からの命令、及び撮像部259によって実現される。画像入力部201は、端末装置2に搭載されている撮像部259が撮像することによって得られる動画の映像情報と静止画の画像情報とのいずれか一方又は両方が入力されることによって、動画の映像情報と静止画の画像情報とのいずれか一方又は両方を取得する。本実施形態では、撮像部259が、ゴミと、ゴミ箱とを撮像することによって、ゴミの画像情報と、ゴミ箱の画像情報とを、生成する場合について説明を続ける。画像入力部201は、取得した画像情報を、制御部202へ出力する。
制御部202は、CPU252からの命令によって実現される。制御部202は、端末装置2の動作全般の制御と、管理とを行う。制御部202は、画像入力部201が出力したゴミの画像情報と、ゴミ箱の画像情報とを取得する。また、制御部202は、位置測定部205が出力した端末装置2の位置情報を取得する。また、制御部202は、姿勢検出部204が出力した端末装置2の向きを示す情報を取得する。制御部202は、取得したゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の識別情報と、端末装置2の位置情報とを含み、サーバ1を宛先とするゴミ分別判定要求を作成し、作成したゴミ分別判定要求を、通信部206へ出力する。また、制御部202は、通信部206が出力したゴミ分別応答を取得し、取得したゴミ分別応答に含まれるゴミ分別方法説明情報と、分別名称がないことを示す情報と、ゴミ箱の画像の特徴量がないことを示す情報と、地域別分別情報がないことを示す情報と、ゴミ分別方法説明情報がないことを示す情報とのいずれかを取得する。制御部202は、ゴミ分別方法説明情報を取得した場合にはそのゴミ分別説明情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。制御部202は、ゴミ分別方法説明情報を合成した画像情報を、画像出力部207へ出力する。制御部202は、ゴミ分別方法説明情報以外の情報を取得した場合にはその情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。
制御部202は、ゴミ分別方法説明情報以外の情報を合成した画像情報を、画像出力部207へ出力する。具体的には、制御部202は、ゴミ分別方法説明情報を合成する場合には、画像認識部203に、画像入力部201が取得したゴミ箱5の画像から、ゴミ箱5の画像の特徴量を抽出させる。また、制御部202は、姿勢検出部204に、端末装置2の向きを検出させる。制御部202は、画像認識部203に抽出させたゴミ箱5の画像の特徴量に基づいて、ゴミ分別方法説明情報が、ゴミ箱5などの対象物の画像に重なって表示されるように、ゴミ分別方法説明情報を表示する位置を調整する。また、制御部202は、姿勢検出部204に検出させた端末装置2の向きに基づいて、ゴミ分別方法説明情報が、ゴミ箱5などの対象物の画像に重なって表示されるように、ゴミ分別方法説明情報を表示する位置を調整する。
画像認識部203は、CPU252からの命令によって実現される。画像認識部203は、画像入力部201が取得した画像情報に対して、画像処理技術を用いて、画像の特徴量を抽出する。画像認識部203は、制御部202が、ゴミ分別方法説明情報を、拡張現実技術を用いて、画像に、リアルタイムで合成する場合に、抽出した画像の特徴量を制御部202へ出力する。
The terminal device 2 includes an image input unit 201, a control unit 202, an image recognition unit 203, a posture detection unit 204, a position measurement unit 205, a communication unit 206, and an image output unit 207. The image input unit 201 is realized by a command from the CPU 252 and an image pickup unit 259. The image input unit 201 receives one or both of the video information of the moving image obtained by the image capturing unit 259 mounted on the terminal device 2 and the image information of the still image of the moving image. Acquire either one or both of the video information and the image information of the still image. In the present embodiment, the case where the image pickup unit 259 generates the image information of the dust and the image information of the trash can by imaging the dust and the trash can will be described. The image input unit 201 outputs the acquired image information to the control unit 202.
The control unit 202 is realized by an instruction from the CPU 252. The control unit 202 controls and manages the overall operation of the terminal device 2. The control unit 202 acquires the image information of the dust output by the image input unit 201 and the image information of the trash can. Further, the control unit 202 acquires the position information of the terminal device 2 output by the position measurement unit 205. Further, the control unit 202 acquires the information indicating the direction of the terminal device 2 output by the attitude detection unit 204. The control unit 202 includes the acquired image information of the garbage, the image information of the trash can, the identification information of the terminal device 2, and the position information of the terminal device 2, and creates a garbage separation determination request destined for the server 1. , The created garbage separation determination request is output to the communication unit 206. Further, the control unit 202 acquires the garbage separation response output by the communication unit 206, and the garbage separation method explanatory information included in the acquired garbage separation response, the information indicating that there is no separation name, and the features of the image of the trash can. Obtain either information indicating that there is no amount, information indicating that there is no regional sorting information, or information indicating that there is no garbage separation method explanation information. When the control unit 202 acquires the dust separation method explanatory information, the control unit 202 processes the dust separation explanatory information by using the augmented reality technology, and obtains the image information acquired by the image input unit 201 by image processing. It is combined with the image to be created in real time. The control unit 202 outputs the image information obtained by synthesizing the dust separation method explanatory information to the image output unit 207. When the control unit 202 acquires information other than the garbage separation method explanatory information, the control unit 202 obtains the information by processing the information by using the augmented reality technology, and by performing image processing on the image information acquired by the image input unit 201. It is combined with the image to be created in real time.
The control unit 202 outputs the image information obtained by synthesizing the information other than the information for explaining the dust separation method to the image output unit 207. Specifically, when synthesizing the garbage separation method explanatory information, the control unit 202 extracts the feature amount of the image of the trash can 5 from the image of the trash can 5 acquired by the image input unit 201 to the image recognition unit 203. Let me. Further, the control unit 202 causes the posture detection unit 204 to detect the orientation of the terminal device 2. The control unit 202 separates garbage based on the feature amount of the image of the trash can 5 extracted by the image recognition unit 203 so that the garbage separation method explanatory information is displayed so as to overlap the image of the object such as the trash can 5. Method Description Adjust the position where the information is displayed. Further, the control unit 202 separates dust based on the orientation of the terminal device 2 detected by the posture detection unit 204 so that the dust separation method explanatory information is displayed so as to overlap the image of the object such as the trash can 5. Method Description Adjust the position where the information is displayed.
The image recognition unit 203 is realized by a command from the CPU 252. The image recognition unit 203 extracts the feature amount of the image from the image information acquired by the image input unit 201 by using the image processing technique. The image recognition unit 203 outputs the feature amount of the extracted image to the control unit 202 when the control unit 202 synthesizes the dust separation method explanatory information into the image in real time by using the augmented reality technology.

姿勢検出部204は、CPU252からの命令、及びセンサ260によって実現される。姿勢検出部204は、端末装置2の向きを検出する。具体的には、姿勢検出部204は、端末装置2の傾きを示す情報と方角を示す情報とを取得し、取得した傾きを示す情報と方角を示す情報とを、制御部202へ出力する。制御部202は、姿勢検出部204が出力した傾きを示す情報と方角を示す情報とを取得し、取得した傾きを示す情報と方角を示す情報とを、ゴミ分別判定要求に含める。また、姿勢検出部204は、傾きを示す情報と方角を示す情報とを使用して、ゴミ分別方法説明情報を、拡張現実技術を用いて、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。このように構成することによって、ゴミ分別方法説明情報を、拡張現実技術を用いて、画像に、合成するときの位置精度を向上させることができる。位置測定部205は、CPU252からの命令、及び測位部255によって実現される。位置測定部205は、端末装置2が利用されている場所を特定する。位置測定部205は、測位部255によって、端末装置2の絶対位置情報を測定する。システムの絶対位置情報の一例は、経度と緯度とで示される。位置測定部205は、端末装置2の位置情報を、制御部202へ出力する。通信部206は、CPU252からの命令、及び通信I/F166によって実現される。通信部206は、制御部202が出力したゴミ分別判定要求を取得し、取得したゴミ分別判定要求を、ネットワーク4を経由して、サーバ1へ送信する。また、通信部206は、サーバ1が送信したゴミ分別応答を受信し、受信したゴミ分別応答を、制御部202へ出力する。画像出力部207は、CPU252からの命令、及び表示部258によって実現される。画像出力部207は、制御部202が出力したゴミ分別方法説明情報を合成した画像情報取得し、取得したゴミ分別方法説明情報を合成した画像情報を、表示部258に表示する。 The posture detection unit 204 is realized by a command from the CPU 252 and a sensor 260. The posture detection unit 204 detects the orientation of the terminal device 2. Specifically, the posture detection unit 204 acquires the information indicating the inclination and the information indicating the direction of the terminal device 2, and outputs the acquired information indicating the inclination and the information indicating the direction to the control unit 202. The control unit 202 acquires the information indicating the inclination and the information indicating the direction output by the attitude detection unit 204, and includes the acquired information indicating the inclination and the information indicating the direction in the garbage separation determination request. Further, the attitude detection unit 204 uses the information indicating the inclination and the information indicating the direction to perform image processing on the dust separation method explanatory information and the image information acquired by the image input unit 201 using the augmented reality technology. It is combined with the obtained image in real time. With this configuration, it is possible to improve the position accuracy when synthesizing the garbage separation method explanatory information into an image by using augmented reality technology. The position measurement unit 205 is realized by a command from the CPU 252 and a positioning unit 255. The position measuring unit 205 identifies the place where the terminal device 2 is used. The position measurement unit 205 measures the absolute position information of the terminal device 2 by the positioning unit 255. An example of absolute location information for a system is indicated by longitude and latitude. The position measurement unit 205 outputs the position information of the terminal device 2 to the control unit 202. The communication unit 206 is realized by a command from the CPU 252 and a communication I / F 166. The communication unit 206 acquires the garbage separation determination request output by the control unit 202, and transmits the acquired garbage separation determination request to the server 1 via the network 4. Further, the communication unit 206 receives the garbage separation response transmitted by the server 1 and outputs the received garbage separation response to the control unit 202. The image output unit 207 is realized by a command from the CPU 252 and a display unit 258. The image output unit 207 acquires the image information obtained by synthesizing the dust separation method explanatory information output by the control unit 202, and displays the image information combined with the acquired dust separation method explanatory information on the display unit 258.

(ゴミ分別支援システムの動作)
図4を参照して、本発明の実施形態のゴミ分別支援システムの動作の一例について説明する。図4に示される例では、ゴミと、ゴミ箱5とを、端末装置2で撮像し、撮像することによって得られたゴミの画像と、ゴミ箱5の画像とに基づいて、ゴミの分別方法を示す情報を取得する。
(ステップS10)
端末装置2のユーザは、操作部257を操作することによって、ゴミ分別アプリを起動させる。
(ステップS11)
端末装置2では、ゴミ分別アプリが起動することによって、表示部258に、ゴミの撮像を促すメッセージが表示される。
(ステップS12)
ユーザは、表示部258に表示されたメッセージを参照し、操作部257に対して、ゴミを撮像する操作を行う。図5に示されるように、表示部258には、撮像するゴミの一例として、ペットボトルPが表示されている。画像入力部201は、撮像部259にゴミを撮像させる。画像入力部201は、ゴミを撮像することによって得られたゴミの画像情報を制御部202へ出力する。図4に戻り説明を続ける。
(ステップS13)
ユーザは、操作部257に対して、ゴミ箱を撮像する操作を行う。図6に示されるように、表示部258には、撮像するゴミ箱5の一例として、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53との3個の分別ゴミ箱を含むゴミ箱5が示されている。画像入力部201は、撮像部259にゴミ箱を撮像させる。画像入力部201は、ゴミ箱を撮像することによって得られたゴミ箱の画像情報を、制御部202へ出力する。図4に戻り説明を続ける。
(ステップS14)
姿勢検出部204は、センサ260が検出した加速度、地磁気などに基づいて、端末装置2の向きを示す情報を取得し、取得した端末装置2の位置情報を、制御部202へ出力する。
(ステップS15)
位置測定部205は、測位部255が検出した位置情報を取得し、取得した端末装置2の位置情報を、制御部202へ出力する。
(ステップS16)
制御部202は、画像入力部201が出力したゴミの画像情報と、ゴミ箱の画像情報とを取得し、姿勢検出部204が出力した端末装置2の向きを示す情報を取得し、位置測定部205が出力した端末装置2の位置情報を取得する。制御部202は、取得したゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを含むゴミ分別判定要求を作成し、作成したゴミ分別判定要求を、通信部206へ出力する。
(ステップS17)
通信部206は、制御部202が出力したゴミ分別判定要求を取得し、取得したゴミ分別判定要求を、サーバ1へ送信する。
(ステップS18)
サーバ通信部101は、端末装置2が送信したゴミ分別判定要求を受信し、受信したゴミ分別判定要求を、端末識別部102へ出力する。端末識別部102は、サーバ通信部101が出力したゴミ分別判定要求を取得し、取得したゴミ分別判定要求に含まれるゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを取得する。端末識別部102は、取得した端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを関連付けて、端末情報記憶部103に記憶する。また、端末識別部102は、取得したゴミの画像情報と、ゴミ箱の画像情報と、端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを画像認識部104へ出力する。
(ステップS19)
画像認識部104は、端末識別部102が出力したゴミの画像情報と、ゴミ箱5の画像情報と、端末装置2の向きを示す情報と、端末装置2の位置情報と、端末装置2の識別情報とを取得し、取得したゴミの画像情報に基づいて、ゴミの画像の特徴量を抽出する。
(ステップS20)
画像認識部104は、取得したゴミ箱の画像情報に基づいて、ゴミ箱の画像の特徴量を抽出する。
(Operation of garbage separation support system)
An example of the operation of the garbage separation support system according to the embodiment of the present invention will be described with reference to FIG. In the example shown in FIG. 4, a method of separating dust is shown based on an image of dust obtained by imaging the dust and the trash can 5 with the terminal device 2 and imaging the dust, and an image of the trash can 5. Get information.
(Step S10)
The user of the terminal device 2 activates the garbage separation application by operating the operation unit 257.
(Step S11)
In the terminal device 2, when the dust separation application is activated, a message prompting the image of dust is displayed on the display unit 258.
(Step S12)
The user refers to the message displayed on the display unit 258 and performs an operation of capturing dust on the operation unit 257. As shown in FIG. 5, a PET bottle P is displayed on the display unit 258 as an example of dust to be imaged. The image input unit 201 causes the image pickup unit 259 to take an image of dust. The image input unit 201 outputs the image information of the dust obtained by imaging the dust to the control unit 202. The explanation will be continued by returning to FIG.
(Step S13)
The user performs an operation of imaging the trash can on the operation unit 257. As shown in FIG. 6, the display unit 258 shows a trash can 5 including three separate trash cans, a combustible trash can 51, a non-combustible trash can 52, and a resource trash can 53, as an example of the trash can 5 to be imaged. There is. The image input unit 201 causes the image pickup unit 259 to take an image of the trash can. The image input unit 201 outputs the image information of the trash can obtained by imaging the trash can to the control unit 202. The explanation will be continued by returning to FIG.
(Step S14)
The attitude detection unit 204 acquires information indicating the direction of the terminal device 2 based on the acceleration, geomagnetism, etc. detected by the sensor 260, and outputs the acquired position information of the terminal device 2 to the control unit 202.
(Step S15)
The position measurement unit 205 acquires the position information detected by the positioning unit 255, and outputs the acquired position information of the terminal device 2 to the control unit 202.
(Step S16)
The control unit 202 acquires the image information of the dust output by the image input unit 201 and the image information of the trash can, acquires the information indicating the direction of the terminal device 2 output by the attitude detection unit 204, and obtains the position measurement unit 205. Acquires the position information of the terminal device 2 output by. The control unit 202 requests a garbage separation determination including the acquired garbage image information, the trash can image information, the information indicating the orientation of the terminal device 2, the position information of the terminal device 2, and the identification information of the terminal device 2. Is created, and the created garbage separation determination request is output to the communication unit 206.
(Step S17)
The communication unit 206 acquires the garbage separation determination request output by the control unit 202, and transmits the acquired garbage separation determination request to the server 1.
(Step S18)
The server communication unit 101 receives the garbage separation determination request transmitted by the terminal device 2, and outputs the received garbage separation determination request to the terminal identification unit 102. The terminal identification unit 102 acquires the garbage separation determination request output by the server communication unit 101, and the image information of the garbage included in the acquired garbage separation determination request, the image information of the trash can, and the information indicating the orientation of the terminal device 2. And the position information of the terminal device 2 and the identification information of the terminal device 2 are acquired. The terminal identification unit 102 associates the acquired information indicating the orientation of the terminal device 2, the position information of the terminal device 2, and the identification information of the terminal device 2 with each other, and stores the information in the terminal information storage unit 103. Further, the terminal identification unit 102 image-recognizes the acquired image information of the dust, the image information of the trash can, the information indicating the orientation of the terminal device 2, the position information of the terminal device 2, and the identification information of the terminal device 2. Output to unit 104.
(Step S19)
The image recognition unit 104 includes image information of dust output by the terminal identification unit 102, image information of the garbage box 5, information indicating the orientation of the terminal device 2, position information of the terminal device 2, and identification information of the terminal device 2. And are acquired, and the feature amount of the dust image is extracted based on the acquired dust image information.
(Step S20)
The image recognition unit 104 extracts the feature amount of the image of the trash can based on the acquired image information of the trash can.

(ステップS21)
画像認識部104は、ゴミ別特徴量記憶部105に検索させることによって、抽出したゴミの画像の特徴量に該当するゴミの分別名称を示す情報を取得する。
(ステップS22)
画像認識部104は、ゴミ箱別特徴量記憶部106に検索させることによって、抽出させたゴミ箱の画像の特徴量に該当するゴミ箱の構成情報を取得させる。
(ステップS23)
画像認識部104は、端末装置2の位置情報と、端末装置2の向きを示す情報とに基づいて、ゴミ箱5が設置された場所を推定する。画像認識部104は、地域別分別情報記憶部107に検索させることによって、識別させたゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに関連付けて記憶されている地域別の分別情報を取得させる。地域別分別情報記憶部107は、識別させた分別名称と、ゴミ箱5が設置された場所の推定結果とに該当する地域別分別情報がある場合には、その該当する地域別分別情報を、画像認識部104へ出力する。
(ステップS24)
画像認識部104は、分別方法説明情報記憶部108に検索させることによって、取得した地域別の分別情報に関連付けて記憶されているゴミ分別方法説明情報を取得させる。分別方法説明情報記憶部108は、取得した地域別の分別情報に関連付けて記憶されているゴミ分別方法説明情報に該当するゴミ分別方法説明情報がある場合には、その該当するゴミ分別方法説明情報を、画像認識部104へ出力する。
(ステップS25)
画像認識部104は、分別方法説明情報記憶部108が出力したゴミ分別方法説明情報を取得した場合、取得したゴミ分別方法説明情報と、端末装置2の識別情報とを含むゴミ分別応答を作成し、作成したゴミ分別応答を、端末識別部102を経由して、サーバ通信部101へ出力する。
(ステップS26)
サーバ通信部101は、作成したゴミ分別応答を、端末装置2へ送信する。
(ステップS27)
通信部206は、サーバ1が送信したゴミ分別応答を受信し、受信したゴミ分別応答を、制御部202へ出力する。
(ステップS28)
制御部202は、通信部206が出力したゴミ分別応答を取得し、取得したゴミ分別応答に含まれるゴミ分別方法説明情報を取得する。制御部202は、取得したゴミ分別方法説明情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。図7に示されるように、端末装置2の表示部258に、画像入力部201が取得したゴミ箱5の画像情報を画像処理することによって得られるゴミ箱5の画像に、ペットボトルPIが表示される。ここで、ペットボトルPIには、ラベルRaIが取り付けられている。図8に示されるように、端末装置2の表示部258に表示されているペットボトルPIが表示されている状態で、ラベルRaIが外されている。図9に示されるように、端末装置2の表示部258に表示されているペットボトルPIと、ラベルRaIとの各々について、端末装置2の表示部258に表示されているゴミ箱5Iの3個の分別ゴミ箱のうち、いずれの分別ゴミ箱に捨てるべきかを矢印などの指示画像で表示している。具体的には、ペットボトルPIについては資源ゴミ箱53に捨てるよう、ラベルRaIについては不燃ゴミ箱52に捨てるように表示されている。
(Step S21)
The image recognition unit 104 acquires information indicating the sorting name of the dust corresponding to the feature amount of the extracted dust image by having the dust-specific feature amount storage unit 105 search.
(Step S22)
The image recognition unit 104 causes the trash can-specific feature amount storage unit 106 to search for the trash can configuration information corresponding to the feature amount of the extracted trash can image.
(Step S23)
The image recognition unit 104 estimates the location where the trash can 5 is installed based on the position information of the terminal device 2 and the information indicating the orientation of the terminal device 2. The image recognition unit 104 causes the area-specific separation information storage unit 107 to search for the identified garbage separation name and the area-specific separation stored in association with the estimation result of the place where the trash can 5 is installed. Get information. If there is regional sorting information corresponding to the identified sorting name and the estimation result of the place where the trash can 5 is installed, the regional sorting information storage unit 107 displays the corresponding regional sorting information as an image. Output to the recognition unit 104.
(Step S24)
The image recognition unit 104 causes the sorting method explanation information storage unit 108 to acquire the garbage separation method explanation information stored in association with the acquired sorting information for each region. If there is garbage separation method explanation information corresponding to the garbage separation method explanation information stored in association with the acquired area-specific separation information, the sorting method explanation information storage unit 108 corresponds to the garbage separation method explanation information. Is output to the image recognition unit 104.
(Step S25)
When the image recognition unit 104 acquires the garbage separation method explanation information output by the separation method explanation information storage unit 108, the image recognition unit 104 creates a garbage separation response including the acquired garbage separation method explanation information and the identification information of the terminal device 2. The created garbage separation response is output to the server communication unit 101 via the terminal identification unit 102.
(Step S26)
The server communication unit 101 transmits the created garbage separation response to the terminal device 2.
(Step S27)
The communication unit 206 receives the garbage separation response transmitted by the server 1 and outputs the received garbage separation response to the control unit 202.
(Step S28)
The control unit 202 acquires the garbage separation response output by the communication unit 206, and acquires the garbage separation method explanatory information included in the acquired garbage separation response. The control unit 202 processes the acquired dust separation method explanatory information using the augmented reality technology, and synthesizes the image information acquired by the image input unit 201 into the image obtained by the image processing in real time. As shown in FIG. 7, the PET bottle PI is displayed on the display unit 258 of the terminal device 2 in the image of the trash can 5 obtained by performing image processing on the image information of the trash can 5 acquired by the image input unit 201. .. Here, the label RaI is attached to the PET bottle PI. As shown in FIG. 8, the label RaI is removed while the PET bottle PI displayed on the display unit 258 of the terminal device 2 is displayed. As shown in FIG. 9, for each of the PET bottle PI displayed on the display unit 258 of the terminal device 2 and the label RaI, the three trash cans 5I displayed on the display unit 258 of the terminal device 2 Of the sorted trash cans, which of the sorted trash cans should be thrown away is indicated by an instruction image such as an arrow. Specifically, it is indicated that the PET bottle PI should be thrown into the resource trash can 53 and the label RaI should be thrown into the non-combustible trash can 52.

前述した実施形態では、ゴミ箱5が、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53との3個の分別ゴミ箱を含む場合について説明したが、この例に限られない。例えば、ゴミ箱5は、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53とのうちの少なくとも1個を含んで構成されてもよい。また、ゴミ箱5は、可燃ゴミ箱51と、不燃ゴミ箱52と、資源ゴミ箱53との3個に限らず、4以上の構成、例えば、雑誌、空き缶、空き瓶などのゴミ箱を含んで構成されてもよい。
前述した実施形態では、端末装置2によって、ゴミと、ゴミ箱とが撮像される場合について説明したが、この例に限られない。例えば、ユーザは、端末装置2を操作することによって、ゴミ箱5が満杯である場合に、そのゴミ箱5を撮像してもよい。サーバ1は、端末装置2が送信したゴミ箱の画像情報に基づいて、ゴミ箱5の状態を推定し、ゴミ箱5の状態の推定結果を示す情報を含む状態通知情報を作成し、作成した状態通知情報を外部装置へ送信してもよい。このように構成することによって、外部装置に通知された状態通知情報に基づいて、ゴミ箱5のゴミの回収などの所定の処理を行うことができる。ゴミ箱5のゴミの回収の効率を向上できるとともに、ゴミ箱5の衛生環境を向上できる。また、端末装置2にゴミ箱の構成情報を予め設定し、設定されたゴミ箱の構成情報と同様の構成であるゴミ箱については、ゴミ箱の撮像を省略させてもよい。つまり、ゴミの画像情報に基づいて、上述した処理が行われてもよい。このように構成することによって、ユーザにゴミ箱を撮像させる手間をなくすことができるとともに、サーバ1の処理を削減できる。
前述した実施形態において、端末装置2に、ゴミの画像情報とゴミ箱の画像情報とゴミ分別方法説明情報とを関連付けて記憶する記憶部を備えてもよい。そして、制御部202は、画像入力部201から入力されたゴミの画像情報と、ゴミ箱の画像情報と関連付けて記憶されているゴミ分別方法説明情報を、記憶部から取得し、取得したゴミ分別方法説明情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。このように構成することによって、端末装置2から、サーバ1へゴミの分別方法を問い合わせる処理を省略できるため、ゴミと、ゴミ箱とを撮像してから、端末装置2からゴミの分別方法が出力されるまでの時間を短縮できる。
前述した実施形態において、画像認識部104は、取得したゴミの画像情報と端末装置2の位置情報とに基づいて、端末装置2の位置から所定の範囲のゴミ箱の位置情報を取得し、取得したゴミ箱の位置情報をさらに含むゴミ分別応答を作成してもよい。このように構成することによって、ユーザに近傍のゴミ箱を知らせることができる。
本実施形態のゴミ分別判定システムによれば、拡張現実技術を応用し、廃棄対象のゴミとゴミ箱とを撮像部で撮影することにより、端末装置2の表示画面にゴミの分別方法が、ゴミ分別方法説明情報によって、表示される。分別方法が、文章とアニメーションとによって表示されるため、ゴミの分別に不慣れな外国人、異なる地域から訪れた観光客に対しても、十分に分別方法を理解させることができる。
In the above-described embodiment, the case where the trash can 5 includes three separate trash cans of a combustible trash can 51, a non-combustible trash can 52, and a resource trash can 53 has been described, but the present invention is not limited to this example. For example, the trash can 5 may include at least one of a combustible trash can 51, a non-combustible trash can 52, and a resource trash can 53. Further, the trash can 5 is not limited to three trash cans 51, a non-combustible trash can 52, and a resource trash can 53, and may include four or more trash cans such as magazines, empty cans, and empty bottles. good.
In the above-described embodiment, the case where the dust and the trash can are imaged by the terminal device 2 has been described, but the present invention is not limited to this example. For example, the user may operate the terminal device 2 to take an image of the trash can 5 when the trash can 5 is full. The server 1 estimates the state of the trash can 5 based on the image information of the trash can transmitted by the terminal device 2, creates the state notification information including the information indicating the estimation result of the state of the trash can 5, and creates the state notification information. May be transmitted to an external device. With this configuration, predetermined processing such as collection of dust in the trash can 5 can be performed based on the status notification information notified to the external device. The efficiency of collecting the garbage in the trash can 5 can be improved, and the sanitary environment of the trash can 5 can be improved. Further, the configuration information of the trash can may be set in advance in the terminal device 2, and the imaging of the trash can may be omitted for the trash can having the same configuration as the set configuration information of the trash can. That is, the above-mentioned processing may be performed based on the image information of dust. With such a configuration, it is possible to eliminate the trouble of having the user take an image of the trash can, and it is possible to reduce the processing of the server 1.
In the above-described embodiment, the terminal device 2 may be provided with a storage unit that stores the image information of the garbage, the image information of the garbage box, and the information for explaining the garbage separation method in association with each other. Then, the control unit 202 acquires the garbage separation method explanatory information stored in association with the image information of the garbage input from the image input unit 201 and the image information of the garbage box from the storage unit, and the acquired garbage separation method. By processing the explanatory information using the augmented reality technique, the image information acquired by the image input unit 201 is combined with the image obtained by the image processing in real time. With this configuration, the process of inquiring the server 1 about the garbage separation method from the terminal device 2 can be omitted. Therefore, after the dust and the trash can are imaged, the garbage separation method is output from the terminal device 2. The time to complete can be shortened.
In the above-described embodiment, the image recognition unit 104 acquires and acquires the position information of the trash can in a predetermined range from the position of the terminal device 2 based on the acquired image information of the dust and the position information of the terminal device 2. You may create a garbage separation response that further includes the location information of the trash can. With this configuration, the user can be notified of the nearby trash can.
According to the garbage separation determination system of the present embodiment, by applying the extended reality technology and taking a picture of the garbage to be discarded and the garbage can with the image pickup unit, the garbage separation method on the display screen of the terminal device 2 is the garbage separation method. Displayed by method description information. Since the sorting method is displayed by sentences and animation, foreigners who are not accustomed to sorting garbage and tourists from different areas can fully understand the sorting method.

(変形例)
前述した実施形態では、ゴミ分別支援システム3が、サーバ1と、端末装置2とを含む場合について説明したが、この例に限られない。例えば、サーバ1の機能が、端末装置2aに含まれるように構成してもよい。図10に示されるように、端末装置2aは、画像入力部201と、制御部202aと、画像認識部203と、姿勢検出部204と、位置測定部205と、通信部206と、画像出力部207と、画像認識部204aと、ゴミ別特徴量記憶部205aと、ゴミ箱別特徴量記憶部206aと、地域別分別情報記憶部207aと、分別方法説明情報記憶部208aとを有している。端末装置2aのハードウェア構成は、図2を適用できる。これらの各部は、図2に示されている各構成要素のいずれかが、不揮発性メモリ256からメモリ254上に展開されたプログラム2562を実行するCPU252からの命令によって動作することで実現される機能である。
制御部202aは、CPU252からの命令によって実現される。制御部202aは、端末装置2aの動作全般の制御と、管理とを行う。制御部202aは、画像入力部201が出力した画像情報を取得する。また、制御部202aは、位置測定部205が出力した端末装置2aの位置情報を取得する。また、制御部202aは、姿勢検出部204が出力した端末装置2aの向きを示す情報を取得する。制御部202aは、取得した画像情報と、端末装置2aの位置情報と、端末装置2aの向きを示す情報とを、画像認識部204aに出力する。
また、制御部202aは、画像認識部204aが出力したゴミ分別方法説明情報と、分別名称がないことを示す情報と、ゴミ箱の画像の特徴量がないことを示す情報と、地域別分別情報がないことを示す情報と、ゴミ分別方法説明情報がないことを示す情報とのいずれかを取得する。制御部202aは、ゴミ分別方法説明情報を取得した場合にはそのゴミ分別説明情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。制御部202aは、ゴミ分別方法説明情報を合成した画像情報を、画像出力部207へ出力する。制御部202aは、ゴミ分別方法説明情報以外の情報を取得した場合にはその情報を、拡張現実技術を用いて処理することによって、画像入力部201が取得した画像情報を画像処理することによって得られる画像に、リアルタイムで合成する。制御部202aは、ゴミ分別方法説明情報以外の情報を合成した画像情報を、画像出力部207へ出力する。具体的には、制御部202aは、画像認識部203に、画像入力部201が取得した画像から、特徴量を抽出させる。また、制御部202aは、姿勢検出部204に、端末装置2aの向きを検出させる。制御部202aは、画像認識部203に抽出させた特徴量に基づいて、ゴミ分別方法説明情報が、ゴミ箱5などの対象物の画像に重なって表示されるように、ゴミ分別方法説明情報を表示する位置を設定する。また、制御部202aは、姿勢検出部204に検出させた端末装置2aの向きに基づいて、ゴミ分別方法説明情報が、ゴミ箱5などの対象物の画像に重なって表示されるように、ゴミ分別方法説明情報を表示する位置を設定する。
(Modification example)
In the above-described embodiment, the case where the garbage separation support system 3 includes the server 1 and the terminal device 2 has been described, but the present invention is not limited to this example. For example, the function of the server 1 may be configured to be included in the terminal device 2a. As shown in FIG. 10, the terminal device 2a includes an image input unit 201, a control unit 202a, an image recognition unit 203, an attitude detection unit 204, a position measurement unit 205, a communication unit 206, and an image output unit. It has an image recognition unit 204a, a garbage-specific feature amount storage unit 205a, a trash can-specific feature amount storage unit 206a, an area-specific sorting information storage unit 207a, and a sorting method explanation information storage unit 208a. FIG. 2 can be applied to the hardware configuration of the terminal device 2a. Each of these parts has a function realized by operating any of the components shown in FIG. 2 by an instruction from the CPU 252 that executes the program 2562 expanded from the non-volatile memory 256 to the memory 254. Is.
The control unit 202a is realized by an instruction from the CPU 252. The control unit 202a controls and manages the overall operation of the terminal device 2a. The control unit 202a acquires the image information output by the image input unit 201. Further, the control unit 202a acquires the position information of the terminal device 2a output by the position measurement unit 205. Further, the control unit 202a acquires the information indicating the direction of the terminal device 2a output by the attitude detection unit 204. The control unit 202a outputs the acquired image information, the position information of the terminal device 2a, and the information indicating the orientation of the terminal device 2a to the image recognition unit 204a.
Further, the control unit 202a has information on the garbage separation method output by the image recognition unit 204a, information indicating that there is no separation name, information indicating that there is no feature amount of the image of the garbage box, and information on sorting by region. Acquire either the information indicating that there is no garbage separation method or the information indicating that there is no garbage separation method explanation information. When the control unit 202a acquires the dust separation method explanatory information, the control unit 202a processes the dust separation explanatory information by using the augmented reality technology, and obtains the image information acquired by the image input unit 201 by image processing. It is combined with the image to be created in real time. The control unit 202a outputs the image information obtained by synthesizing the dust separation method explanatory information to the image output unit 207. When the control unit 202a acquires information other than the information for explaining the dust separation method, the control unit 202a processes the information by using the augmented reality technology, and obtains the image information acquired by the image input unit 201 by image processing. It is combined with the image to be created in real time. The control unit 202a outputs the image information obtained by synthesizing the information other than the information for explaining the dust separation method to the image output unit 207. Specifically, the control unit 202a causes the image recognition unit 203 to extract the feature amount from the image acquired by the image input unit 201. Further, the control unit 202a causes the posture detection unit 204 to detect the orientation of the terminal device 2a. The control unit 202a displays the garbage separation method explanation information so that the garbage separation method explanation information is displayed so as to overlap the image of the object such as the trash can 5 based on the feature amount extracted by the image recognition unit 203. Set the position to do. Further, the control unit 202a separates dust based on the orientation of the terminal device 2a detected by the posture detection unit 204 so that the dust separation method explanatory information is displayed so as to overlap the image of the object such as the trash can 5. Method Description Set the position to display the information.

画像認識部204aは、CPU252からの命令によって実現される。画像認識部204aは、端末識別部102が出力した端末装置2aの位置情報と、端末装置2aの姿勢を示す情報と、ゴミの画像情報と、ゴミ箱の画像情報とを取得する。画像認識部204aは、取得したゴミの画像情報と、ゴミ箱の画像情報とに基づいて、ゴミの画像と、ゴミ箱の画像とに対して、画像処理技術などを活用し、画像解析を行うことによって、特徴量を抽出する。画像認識部204aは、ゴミ別特徴量記憶部205aに検索させることによって、抽出したゴミの画像の特徴量と関連付けて記憶されている分別名称を示す情報を取得する。画像認識部204aは、ゴミ別特徴量記憶部205aに、ペットボトルや缶など詳細な分別名称まで取得させる。画像認識部204aは、ゴミ別特徴量記憶部205aが出力した画像の被写体のゴミが該当する分別名称を示す情報を取得する。また、画像認識部204aは、ゴミ別特徴量記憶部105から、画像の被写体のゴミの画像の特徴量と一致するゴミの画像の特徴量がないことを示す情報を取得する。画像認識部204aは、ゴミ箱別特徴量記憶部206aに検索させることによって抽出させたゴミ箱の画像の特徴量と一致するゴミ箱の構成情報を取得させる。画像認識部204aは、ゴミ箱別特徴量記憶部206aが出力した、ゴミ箱の構成情報を取得する。画像認識部204aは、ゴミ箱別特徴量記憶部206aから、画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報を取得する。
画像認識部204aは、端末装置2aの位置情報と、端末装置2aの向きを示す情報とに基づいて、ゴミ箱5が設置された場所を推定する。画像認識部204aは、地域別分別情報記憶部207aに検索させることによって、識別させたゴミの分別名称と、ゴミ箱5が設置された場所の推定結果とに関連付けて記憶されている地域別の分別情報を取得させる。画像認識部204aは、地域別分別情報記憶部207aが出力した地域別分別情報を取得する。画像認識部204aは、地域別分別情報記憶部207aから、地域別分別情報がないことを示す情報を取得する。画像認識部204aは、分別方法説明情報記憶部208aに検索させることによって、取得した地域別の分別情報に関連付けて記憶されているゴミ分別方法説明情報を取得させる。画像認識部204aは、分別方法説明情報記憶部208aが出力したゴミ分別方法説明情報を取得する。画像認識部204aは、分別方法説明情報記憶部208aから、ゴミ分別方法説明情報とがないことを示す情報を取得する。
The image recognition unit 204a is realized by a command from the CPU 252. The image recognition unit 204a acquires the position information of the terminal device 2a output by the terminal identification unit 102, the information indicating the posture of the terminal device 2a, the image information of the garbage, and the image information of the garbage box. The image recognition unit 204a analyzes the image of the garbage and the image of the garbage box by utilizing image processing technology or the like based on the acquired image information of the garbage and the image information of the garbage box. , Extract the feature quantity. The image recognition unit 204a acquires information indicating the separated name stored in association with the feature amount of the extracted dust image by having the dust-specific feature amount storage unit 205a search. The image recognition unit 204a causes the garbage-specific feature amount storage unit 205a to acquire detailed sorting names such as PET bottles and cans. The image recognition unit 204a acquires information indicating a sorting name corresponding to the dust of the subject of the image output by the dust-specific feature amount storage unit 205a. Further, the image recognition unit 204a acquires information from the dust-specific feature amount storage unit 105 indicating that there is no feature amount of the dust image that matches the feature amount of the dust image of the subject of the image. The image recognition unit 204a causes the trash can-specific feature amount storage unit 206a to acquire the configuration information of the trash can that matches the feature amount of the image of the trash can extracted by searching. The image recognition unit 204a acquires the configuration information of the trash can output by the feature amount storage unit 206a for each trash can. The image recognition unit 204a acquires information from the trash can-specific feature amount storage unit 206a indicating that there is no feature amount of the trash can image that matches the feature amount of the trash can image of the subject of the image.
The image recognition unit 204a estimates the location where the trash can 5 is installed based on the position information of the terminal device 2a and the information indicating the orientation of the terminal device 2a. The image recognition unit 204a causes the area-specific separation information storage unit 207a to search for the identified garbage separation name and the area-specific separation stored in association with the estimation result of the place where the trash can 5 is installed. Get information. The image recognition unit 204a acquires the regional classification information output by the regional classification information storage unit 207a. The image recognition unit 204a acquires information indicating that there is no regional classification information from the regional classification information storage unit 207a. The image recognition unit 204a causes the sorting method explanation information storage unit 208a to search for the garbage separation method explanation information stored in association with the acquired sorting information for each region. The image recognition unit 204a acquires the garbage separation method explanation information output by the separation method explanation information storage unit 208a. The image recognition unit 204a acquires information indicating that there is no garbage separation method explanation information from the separation method explanation information storage unit 208a.

画像認識部204aは、分別方法説明情報記憶部208aが出力したゴミ分別方法説明情報を取得した場合には、取得したゴミ分別方法説明情報を、制御部202aへ出力する。また、画像認識部204aは、ゴミ別特徴量記憶部205aが出力した画像の被写体のゴミの画像の特徴量と一致するゴミの画像の特徴量がないことを示す情報を取得した場合には、分別名称がないことを示す情報を、制御部202aへ出力する。また、画像認識部204aは、ゴミ箱別特徴量記憶部206aが出力した画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報を取得した場合には、画像の被写体のゴミ箱の画像の特徴量と一致するゴミ箱の画像の特徴量がないことを示す情報を、制御部202aへ出力する。また、画像認識部204aは、地域別分別情報記憶部207aが出力した地域別分別情報がないことを示す情報を取得した場合、地域別分別情報がないことを示す情報を、制御部202aへ出力する。
ゴミ別特徴量記憶部205a、ゴミ箱別特徴量記憶部206a、地域別分別情報記憶部207a、分別方法説明情報記憶部208aは、それぞれ、前述した実施形態で説明したゴミ別特徴量記憶部105、ゴミ箱別特徴量記憶部106、地域別分別情報記憶部107、分別方法説明情報記憶部108を適用できる。
変形例の端末装置2aによれば、実施形態の端末装置2と比較して、サーバ1と通信を行うことなく、ユーザに、ゴミの分別方法を通知できる。
以上、実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組合せを行うことができる。これら実施形態は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。なお、上述したゴミ分別支援システム3は、コンピュータで実現するようにしてもよい。その場合、各機能ブロックの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録する。この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、CPUが実行することで実現してもよい。ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器などのハードウェアを含むものとする。
When the image recognition unit 204a acquires the garbage separation method explanation information output by the separation method explanation information storage unit 208a, the image recognition unit 204a outputs the acquired garbage separation method explanation information to the control unit 202a. Further, when the image recognition unit 204a acquires information indicating that there is no feature amount of the dust image that matches the feature amount of the dust image of the subject of the image output by the dust-specific feature amount storage unit 205a, the image recognition unit 204a obtains information. Information indicating that there is no sorting name is output to the control unit 202a. Further, when the image recognition unit 204a acquires information indicating that there is no feature amount of the image of the trash box that matches the feature amount of the image of the trash box of the subject of the image output by the feature amount storage unit 206a for each trash box, the image recognition unit 204a obtains information. Information indicating that there is no feature amount of the image of the trash box that matches the feature amount of the image of the trash box of the subject of the image is output to the control unit 202a. Further, when the image recognition unit 204a acquires the information indicating that there is no regional classification information output by the regional classification information storage unit 207a, the image recognition unit 204a outputs the information indicating that there is no regional classification information to the control unit 202a. do.
The garbage-specific feature amount storage unit 205a, the garbage box-specific feature amount storage unit 206a, the area-specific sorting information storage unit 207a, and the sorting method explanation information storage unit 208a are the garbage-specific feature amount storage unit 105 described in the above-described embodiment, respectively. The feature amount storage unit 106 for each garbage box, the sorting information storage unit 107 for each area, and the information storage unit 108 for explaining the sorting method can be applied.
According to the terminal device 2a of the modified example, as compared with the terminal device 2 of the embodiment, the user can be notified of the garbage separation method without communicating with the server 1.
Although the embodiments have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the gist of the invention. These embodiments are included in the scope and gist of the invention, and at the same time, are included in the scope of the invention described in the claims and the equivalent scope thereof. The above-mentioned garbage separation support system 3 may be realized by a computer. In that case, a program for realizing the function of each functional block is recorded on a computer-readable recording medium. The program recorded on the recording medium may be read by the computer system and executed by the CPU. The term "computer system" as used herein includes hardware such as an OS (Operating System) and peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体のことをいう。また、「コンピュータ読み取り可能な記録媒体」は、コンピュータシステムに内蔵されるハードディスクなどの記憶装置を含む。さらに「コンピュータ読み取り可能な記録媒体」とは、短時間の間、動的にプログラムを保持するものを含んでいてもよい。短時間の間、動的にプログラムを保持するものは、例えば、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線である。
また、「コンピュータ読み取り可能な記録媒体」には、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよい。また、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上記プログラムは、プログラマブルロジックデバイスを用いて実現されるものであってもよい。プログラマブルロジックデバイスは、例えば、FPGA(Field Programmable Gate Array)である。なお、上述のゴミ分別支援システム3は内部にコンピュータを有している。そして、上述したサーバ1、端末装置2、端末装置2aの各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM. Further, the "computer-readable recording medium" includes a storage device such as a hard disk built in a computer system. Further, the "computer-readable recording medium" may include a medium that dynamically holds the program for a short period of time. What dynamically holds the program for a short period of time is, for example, a communication line when the program is transmitted via a network such as the Internet or a communication line such as a telephone line.
Further, the "computer-readable recording medium" may include a medium that holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server or a client. Further, the above program may be for realizing a part of the above-mentioned functions. Further, the above-mentioned program may be realized by combining the above-mentioned functions with a program already recorded in the computer system. Further, the above program may be realized by using a programmable logic device. The programmable logic device is, for example, an FPGA (Field Programmable Gate Array). The above-mentioned garbage separation support system 3 has a computer inside. The processing processes of the server 1, the terminal device 2, and the terminal device 2a described above are stored in a computer-readable recording medium in the form of a program, and the computer reads and executes the program to perform the above-mentioned processing. Processing is done. Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Further, this computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.
Further, the above program may be for realizing a part of the above-mentioned functions.
Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.

1…サーバ、2…端末装置、3…ゴミ分別支援システム、4…ネットワーク、5…ゴミ箱、51…可燃ゴミ箱、52…不燃ゴミ箱、53…資源ゴミ箱、101…サーバ通信部、102…端末識別部、103…端末情報記憶部、104、204a…画像認識部、105、205a…ゴミ別特徴量記憶部、106、206a…ゴミ箱別特徴量記憶部、107、207a…地域別分別情報記憶部、108、208a…分別方法説明情報記憶部、201…画像入力部、202、202a…制御部、104、203、204a…画像認識部、204…姿勢検出部、205…位置測定部、206…通信部、207…画像出力部、152、252…CPU、154、254…メモリ、156、256…不揮発性メモリ、162、257…操作部、166、266…通信I/F、255…測位部、260…センサ、258…表示部、259…撮像部 1 ... Server, 2 ... Terminal device, 3 ... Garbage separation support system, 4 ... Network, 5 ... Garbage box, 51 ... Combustible garbage box, 52 ... Non-combustible garbage box, 53 ... Resource garbage box, 101 ... Server communication unit, 102 ... Terminal identification unit , 103 ... Terminal information storage unit, 104, 204a ... Image recognition unit, 105, 205a ... Garbage-specific feature amount storage unit, 106, 206a ... Garbage box-specific feature amount storage unit, 107, 207a ... Regional sorting information storage unit, 108 , 208a ... Separation method explanation information storage unit, 201 ... image input unit, 202, 202a ... control unit, 104, 203, 204a ... image recognition unit, 204 ... attitude detection unit, 205 ... position measurement unit, 206 ... communication unit, 207 ... Image output unit, 152, 252 ... CPU, 154, 254 ... Memory, 156, 256 ... Non-volatile memory, 162, 257 ... Operation unit, 166, 266 ... Communication I / F, 255 ... Positioning unit, 260 ... Sensor 258 ... Display unit, 259 ... Imaging unit

Claims (6)

端末装置と、サーバとを備えるゴミ分別支援システムであって、
前記端末装置は、
ゴミの画像情報を取得する画像入力部と、
自端末装置の位置を測位する位置測位部と、
前記画像入力部が取得した前記ゴミの前記画像情報と、前記位置測位部が測位した前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成する制御部と、
前記制御部が作成した前記ゴミ分別判定要求を前記サーバへ送信し、送信した前記ゴミ分別判定要求に対する応答信号であるゴミ分別応答を受信する通信部と、
前記通信部が受信した前記ゴミ分別応答に含まれるゴミの分別方法を示す画像情報を取得し、取得した前記ゴミの分別方法を示す画像情報に基づいて、ゴミの分別方法を示す画像と、前記画像入力部が取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示する画像出力部とを備え、
前記サーバは、
前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミの前記画像情報と、前記自端末装置の前記位置情報とを取得し、取得した前記ゴミの前記画像情報に基づいて、前記ゴミの画像の特徴量を抽出し、抽出した前記ゴミの画像の前記特徴量に該当する前記ゴミの分別名称を、ゴミの画像の特徴量と該ゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから取得し、取得した前記ゴミの前記分別名称と前記自端末装置の前記位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得し、取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得し、取得した前記ゴミの前記分別方法を示す画像情報を含む前記ゴミ分別応答を作成する画像認識部と、
前記画像認識部が作成した前記ゴミ分別応答を、前記端末装置へ送信するサーバ通信部と
を備え
前記画像入力部は、前記ゴミ箱の前記画像情報を取得し、
前記制御部は、前記ゴミ箱の前記画像情報をさらに含む前記ゴミ分別判定要求を作成し、
前記画像認識部は、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミ箱の前記画像情報をさらに取得し、取得した前記ゴミ箱の前記画像情報と、前記自端末装置の前記位置情報とに基づいて、前記ゴミ箱の位置情報を取得し、
取得した前記ゴミの前記分別名称と前記ゴミ箱の前記位置情報とに基づいて、前記ゴミの前記分別方法を示す情報を取得する、ゴミ分別支援システム。
It is a garbage separation support system equipped with a terminal device and a server.
The terminal device is
An image input unit that acquires image information of garbage,
Positioning unit that positions the position of the own terminal device and
A dust separation determination request, which is a signal including the image information of the dust acquired by the image input unit and the position information of the own terminal device positioned by the positioning unit, is requested to determine the separation of the dust. The control unit to be created and
A communication unit that transmits the garbage separation determination request created by the control unit to the server and receives a garbage separation response that is a response signal to the transmitted garbage separation determination request.
The image information indicating the dust separation method included in the dust separation response received by the communication unit is acquired, and based on the acquired image information indicating the dust separation method, an image showing the dust separation method and the said It is provided with an image output unit that synthesizes and displays the image of the trash can obtained from the image information of the trash can acquired by the image input unit.
The server
The image information of the dust included in the dust separation determination request transmitted by the terminal device and the position information of the own terminal device are acquired, and based on the acquired image information of the dust, the dust of the dust The feature amount of the image is extracted, and the garbage separation name corresponding to the feature amount of the extracted garbage image is associated with the feature amount of the garbage image and the garbage separation name shown in the garbage image. Based on the separated name of the garbage acquired from the stored database and the position information of the own terminal device, information indicating the method of separating the garbage is acquired, and the acquired method of separating the garbage is obtained. An image recognition unit that acquires image information indicating the method for separating the dust based on the indicated information and creates the dust separation response including the acquired image information indicating the method for separating the dust.
A server communication unit that transmits the garbage separation response created by the image recognition unit to the terminal device is provided .
The image input unit acquires the image information of the trash can and obtains the image information.
The control unit creates the garbage separation determination request further including the image information of the trash can.
The image recognition unit further acquires the image information of the trash can included in the trash separation determination request transmitted by the terminal device, and obtains the image information of the trash can and the position information of the own terminal device. Based on, the position information of the trash can is acquired, and
Obtained on the basis of the said fractionation name and the position information of the trash garbage, you acquire information indicating the method of separating the waste, garbage separation support system.
前記端末装置は、
前記自端末装置の向きを検出する姿勢検出部
を備え、
前記画像出力部は、前記姿勢検出部が検出した前記向きを示す情報に基づいて、前記画像入力部が取得した前記ゴミ箱の前記画像情報から得られる前記ゴミ箱の前記画像に合成する前記ゴミの前記分別方法を示す画像の位置を補正する、請求項1に記載のゴミ分別支援システム。
The terminal device is
It is equipped with a posture detection unit that detects the orientation of the own terminal device.
The image output unit is the dust to be combined with the image of the trash can obtained from the image information of the trash can acquired by the image input unit based on the information indicating the orientation detected by the posture detection unit. The garbage sorting support system according to claim 1, which corrects the position of an image showing a sorting method.
前記画像認識部は、取得した前記ゴミの前記画像情報と前記自端末装置の前記位置情報とに基づいて、前記自端末装置の位置から所定の範囲のゴミ箱の位置情報を取得し、
前記サーバ通信部は、前記画像認識部が取得した前記ゴミ箱の前記位置情報をさらに含む前記ゴミ分別応答を作成する、請求項1又は請求項に記載のゴミ分別支援システム。
The image recognition unit acquires the position information of the trash can within a predetermined range from the position of the own terminal device based on the acquired image information of the dust and the position information of the own terminal device.
The garbage separation support system according to claim 1 or 2 , wherein the server communication unit creates the garbage separation response further including the position information of the trash can acquired by the image recognition unit.
ゴミの画像情報とゴミ箱の画像情報とを取得する画像入力部と、
自端末装置の位置を測位する位置測位部と、
前記画像入力部が取得した前記ゴミの前記画像情報に基づいて、前記ゴミの画像の特徴量を抽出し、抽出した前記ゴミの画像の前記特徴量に該当する前記ゴミの分別名称を、ゴミの画像の特徴量と該ゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから取得し、取得した前記ゴミの前記分別名称とゴミ箱の画像情報と前記位置測位部が測位した前記自端末装置の位置情報とに基づいて取得される前記ゴミ箱の位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得し、取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得する画像認識部と、
前記画像認識部が取得した前記ゴミの前記分別方法を示す前記画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、前記画像入力部が取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示する画像出力部と
を備える、端末装置。
An image input unit that acquires image information of garbage and image information of a trash can,
Positioning unit that positions the position of the own terminal device and
Based on the image information of the dust acquired by the image input unit, the feature amount of the dust image is extracted, and the sorting name of the dust corresponding to the feature amount of the extracted dust image is given to the dust. Obtained from a database that stores the feature amount of the image and the garbage sorting name indicated by the garbage image in association with each other, the obtained garbage sorting name , the garbage box image information, and the self positioned by the positioning unit. Based on the position information of the garbage box acquired based on the position information of the terminal device, information indicating the garbage sorting method is acquired, and based on the acquired information indicating the garbage sorting method, the said An image recognition unit that acquires image information indicating the method for separating dust, and
Based on the image information indicating the sorting method of the dust acquired by the image recognition unit, the image of the trash can obtained from the image showing the sorting method of the dust and the image information of the trash can acquired by the image input unit. A terminal device including an image output unit that synthesizes and displays the image.
端末装置と、サーバとを備えるゴミ分別支援システムが実行するゴミ分別支援方法であって、
前記端末装置が、ゴミの画像情報とゴミ箱の画像情報とを取得するステップと、
前記端末装置が、自端末装置の位置を測位するステップと、
前記端末装置が、前記ゴミの前記画像情報と、前記ゴミ箱の前記画像情報と、前記自端末装置の位置情報とを含み、前記ゴミの分別の判定を要求する信号であるゴミ分別判定要求を作成するステップと、
前記端末装置が、前記ゴミ分別判定要求を前記サーバへ送信するステップと、
前記サーバが、前記端末装置が送信した前記ゴミ分別判定要求に含まれる前記ゴミの前記画像情報と、前記ゴミ箱の前記画像情報と、前記自端末装置の前記位置情報とを取得するステップと、
前記サーバが、前記ゴミの前記画像情報に基づいて、前記ゴミの画像の特徴量を抽出し、抽出した前記ゴミの画像の前記特徴量に該当する前記ゴミの分別名称を、ゴミの画像の特徴量と該ゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから取得するステップと、
前記サーバが、前記ゴミの分別名称と、前記ゴミ箱の前記画像情報と前記自端末装置の前記位置情報とに基づいて取得される前記ゴミ箱の位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得するステップと、
前記サーバが、前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得するステップと、
前記サーバが、前記ゴミの前記分別方法を示す前記画像情報を含むゴミ分別応答を作成するステップと、
前記サーバが、前記ゴミ分別応答を、前記端末装置へ送信するステップと、
前記端末装置が、前記サーバが送信した前記ゴミ分別応答を受信するステップと、
前記端末装置が、前記ゴミ分別応答に含まれる前記ゴミの前記分別方法を示す前記画像情報を取得し、取得した前記ゴミの前記分別方法を示す前記画像情報に基づいて、前記ゴミの前記分別方法を示す画像と、取得したゴミ箱の画像情報から得られる前記ゴミ箱の前記画像とを合成して表示するステップと
を有する、ゴミ分別支援方法。
It is a garbage separation support method executed by a garbage separation support system equipped with a terminal device and a server.
The step in which the terminal device acquires the image information of the garbage and the image information of the garbage box,
A step in which the terminal device determines the position of the own terminal device,
The terminal device creates a garbage separation determination request which is a signal including the image information of the dust, the image information of the trash can, and the position information of the own terminal device, and which is a signal requesting the determination of the garbage separation. Steps to do and
A step in which the terminal device transmits the garbage separation determination request to the server,
A step in which the server acquires the image information of the garbage included in the garbage separation determination request transmitted by the terminal device, the image information of the trash can, and the position information of the own terminal device.
The server extracts the feature amount of the dust image based on the image information of the dust, and names the garbage separation corresponding to the feature amount of the extracted dust image as the feature of the dust image. Steps to obtain from the database that stores the amount and the garbage classification name shown in the garbage image in association with each other,
The server shows the garbage separation method based on the garbage separation name , the position information of the trash can acquired based on the image information of the trash can and the position information of the own terminal device. Steps to get information and
A step in which the server acquires image information indicating the method for separating the garbage based on the information indicating the method for separating the garbage.
A step in which the server creates a garbage separation response including the image information indicating the method for separating the garbage.
A step in which the server transmits the garbage separation response to the terminal device,
A step in which the terminal device receives the garbage separation response transmitted by the server, and
The terminal device acquires the image information indicating the method for separating the dust included in the dust separation response, and based on the image information indicating the acquired method for separating the dust, the method for separating the dust. A garbage separation support method comprising a step of synthesizing and displaying an image showing the above and the image of the trash can obtained from the acquired image information of the trash can.
端末装置と通信を行うサーバのコンピュータに、
前記端末装置が送信したゴミ分別判定要求に含まれるゴミの画像情報と、ゴミ箱の前記画像情報と、前記端末装置の位置情報とを取得するステップと、
取得した前記ゴミの前記画像情報に基づいて、前記ゴミの画像の特徴量を抽出し、抽出した前記ゴミの画像の前記特徴量に該当する前記ゴミの分別名称を、ゴミの画像の特徴量と該ゴミの画像で示されるゴミの分別名称とを関連付けて記憶したデータベースから取得するステップと、
取得した前記ゴミの前記分別名称と、前記ゴミ箱の前記画像情報と前記端末装置の前記位置情報とに基づいて取得される前記ゴミ箱の位置情報とに基づいて、前記ゴミの分別方法を示す情報を取得するステップと、
取得した前記ゴミの前記分別方法を示す情報に基づいて、前記ゴミの前記分別方法を示す画像情報を取得するステップと、
前記ゴミの前記分別方法を示す前記画像情報を含むゴミ分別応答を作成し、作成した前記ゴミ分別応答を、前記端末装置へ送信するステップと
を実行させる、プログラム。
To the computer of the server that communicates with the terminal device
A step of acquiring the image information of the garbage included in the garbage separation determination request transmitted by the terminal device, the image information of the trash can, and the position information of the terminal device.
Based on the acquired image information of the dust, the feature amount of the dust image is extracted, and the sorting name of the dust corresponding to the feature amount of the extracted dust image is referred to as the feature amount of the dust image. The steps to obtain from the database stored in association with the garbage classification name shown in the garbage image, and
Based on the acquired sorting name of the trash, the image information of the trash can, and the position information of the trash can acquired based on the position information of the terminal device, information indicating the trash sorting method is provided. Steps to get and
Based on the acquired information indicating the method for separating the garbage, a step of acquiring image information indicating the method for separating the garbage, and
A program for creating a dust separation response including the image information indicating the method for separating the dust, and executing a step of transmitting the created dust separation response to the terminal device.
JP2018151500A 2018-08-10 2018-08-10 Garbage separation support system, terminal device, garbage separation support method, and program Active JP6959197B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018151500A JP6959197B2 (en) 2018-08-10 2018-08-10 Garbage separation support system, terminal device, garbage separation support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018151500A JP6959197B2 (en) 2018-08-10 2018-08-10 Garbage separation support system, terminal device, garbage separation support method, and program

Publications (2)

Publication Number Publication Date
JP2020027407A JP2020027407A (en) 2020-02-20
JP6959197B2 true JP6959197B2 (en) 2021-11-02

Family

ID=69622199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151500A Active JP6959197B2 (en) 2018-08-10 2018-08-10 Garbage separation support system, terminal device, garbage separation support method, and program

Country Status (1)

Country Link
JP (1) JP6959197B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7318558B2 (en) 2020-02-20 2023-08-01 三菱電機株式会社 semiconductor equipment
CN111268317B (en) * 2020-03-03 2023-02-03 深圳壹账通智能科技有限公司 Garbage classification processing method and device, terminal and storage medium
WO2021205585A1 (en) * 2020-04-09 2021-10-14 株式会社日立製作所 Garbage separation support system
CN111598011A (en) * 2020-05-19 2020-08-28 科大讯飞股份有限公司 Garbage classification processing method, related equipment and readable storage medium
CN111611261B (en) * 2020-05-24 2023-09-01 山东三宏信息科技有限公司 Garbage classification and identification system based on text decoupling
CN111680645B (en) * 2020-06-11 2024-02-09 王艳琼 Garbage classification treatment method and device
CN112340273B (en) * 2020-10-30 2023-12-15 江汉大学 Active garbage classification and recycling method
CN113003036A (en) * 2021-02-26 2021-06-22 光控特斯联(重庆)信息技术有限公司 Community garbage classification method and system based on object recognition algorithm
CN113434062A (en) * 2021-06-29 2021-09-24 深圳市慧鲤科技有限公司 Content display method and device, image identification method and device and electronic equipment
CN113996543B (en) * 2021-10-09 2023-11-10 西安石油大学 Intelligent garbage sorting robot
JP7371873B2 (en) * 2021-12-01 2023-10-31 麻実 門倉 Waste history management system, waste history management method, and waste history management program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004210438A (en) * 2002-12-27 2004-07-29 Mitsubishi Electric Corp Trash separating system
JP2007066121A (en) * 2005-09-01 2007-03-15 Meidensha Corp Waste separation and collection support system
JP2010143645A (en) * 2008-12-16 2010-07-01 Hitachi Software Eng Co Ltd Trash separation information providing system
US9235819B2 (en) * 2011-11-04 2016-01-12 Canon Kabushiki Kaisha Printing system, image forming apparatus, and method
JP6604522B2 (en) * 2017-01-30 2019-11-13 京セラドキュメントソリューションズ株式会社 Image forming system, image forming apparatus, and guide program

Also Published As

Publication number Publication date
JP2020027407A (en) 2020-02-20

Similar Documents

Publication Publication Date Title
JP6959197B2 (en) Garbage separation support system, terminal device, garbage separation support method, and program
US20220270512A1 (en) Augmented Reality Panorama Systems and Methods
JP4914268B2 (en) Search service server information search method.
US20090285445A1 (en) System and Method of Translating Road Signs
US10133932B2 (en) Image processing apparatus, communication system, communication method and imaging device
US20190079704A1 (en) Information processing device and non-transitory computer readable medium
US20190082065A1 (en) Information processing device and non-transitory computer readable medium
JP2018049560A (en) Information processor, system, mobile terminal and program
US20150269782A1 (en) Augmented reality display system, augmented reality information generating apparatus, augmented reality display apparatus, and server
JP2012150629A (en) Server device, printing system and printing method
JP7221233B2 (en) Information provision system, information provision method, and program
CN109895092B (en) Information processing apparatus, information processing method, and computer readable medium
JP2005100276A (en) Information processing system, information processor, information processing method and program
JP2003319033A (en) Portable communication terminal information input system, portable communication terminal, program therefor, analysis server, and portable communication terminal information input method
CN110225455B (en) User accurate positioning method of intelligent rescue system and intelligent rescue system
US9854132B2 (en) Image processing apparatus, data registration method, and data registration program
JP2010050552A (en) Imaging apparatus
JP2009025857A (en) Portable terminal for guiding garbage separation, server, and garbage separation guidance system
JP7044914B2 (en) Information processing equipment and programs
JP2007108989A (en) Information processing system and information processing method
KR20110069993A (en) Multimedia information gio-tagging service method
JP2011039647A (en) Device and method for providing information, terminal device, information processing method, and program
JP7192276B2 (en) GENERATION OF TRAVEL DESTINATIONS AND RECOMMENDATIONS FROM SCANNED CONTENT, KIOSK SYSTEM, METHOD AND PROGRAM
JP2012150628A (en) Server device, printing system and printing method
JP2014063300A (en) Character recognition device, character recognition processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210820

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210820

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210831

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6959197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150