JP6934709B2 - Search robot - Google Patents

Search robot Download PDF

Info

Publication number
JP6934709B2
JP6934709B2 JP2016166308A JP2016166308A JP6934709B2 JP 6934709 B2 JP6934709 B2 JP 6934709B2 JP 2016166308 A JP2016166308 A JP 2016166308A JP 2016166308 A JP2016166308 A JP 2016166308A JP 6934709 B2 JP6934709 B2 JP 6934709B2
Authority
JP
Japan
Prior art keywords
search
information
target
person
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016166308A
Other languages
Japanese (ja)
Other versions
JP2018030223A (en
Inventor
英成 田中
英成 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Menicon Co Ltd
Original Assignee
Menicon Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Menicon Co Ltd filed Critical Menicon Co Ltd
Priority to JP2016166308A priority Critical patent/JP6934709B2/en
Publication of JP2018030223A publication Critical patent/JP2018030223A/en
Application granted granted Critical
Publication of JP6934709B2 publication Critical patent/JP6934709B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、住宅内で何処に置いたか忘れるなどして見失った紛失物を見つける際に、捜し物をする人を補助する機能を備えた捜し物ロボットに関するものである。 The present invention relates to a search robot having a function of assisting a person who searches for a lost object that has been lost due to forgetting where it was placed in a house.

テレビ等のリモコンや携帯電話、携帯型端末、眼鏡、補聴器、自動車等のキーなどのように、住宅内に持ち込まれる比較的に小型で移動可能な物は、使用者が無意識に置いたりして、必要な際に見当たらなくなってしまうことがある。特に近年では、各種機器のリモコン化によって住宅内のリモコン装置も多くなると共に、個人使用の携帯電話や携帯型端末が普及してきたことから、置き場所を記憶しておかなければならない対象物(検索対象物)の数も増えている。更に、社会の変化に伴って、各個人が繁忙化していることに加えて、高齢化していることで、全ての検索対象物を常に把握しておくことが一層難しくなり、各住宅内において、見当たらなくなった紛失物を探すことが必要になる人が多くなってきている。 Users may unknowingly place relatively small and movable items brought into their homes, such as remote controls for TVs, mobile phones, mobile terminals, eyeglasses, hearing aids, keys for automobiles, etc. , Sometimes you can't find it when you need it. Especially in recent years, the number of remote control devices in homes has increased due to the use of remote controls for various devices, and mobile phones and portable terminals for personal use have become widespread. The number of objects) is also increasing. Furthermore, with the changes in society, in addition to the busyness of each individual, the aging of the population makes it even more difficult to keep track of all search targets, and in each house, More and more people need to find lost items that are missing.

このような問題に対して、特許文献1に記載の発明のように、無線IDタグを利用し、予め無線IDタグを付した対象物を、IDタグ読取装置を用いて探すことも提案されている。なお、無線IDタグは、情報の書込みが可能なタグ(荷札)として、無線機能やメモリ、コントロール機能を微小のチップに納めたICタグであり、RFID(Radio Frequency IDentification)の技術名称で呼ばれているものである。 To solve such a problem, it has been proposed to use a wireless ID tag to search for an object to which a wireless ID tag has been attached in advance by using an ID tag reader, as in the invention described in Patent Document 1. There is. The wireless ID tag is an IC tag in which a wireless function, a memory, and a control function are stored in a minute chip as a tag (tag) on which information can be written, and is called by the technical name of RFID (Radio Frequency Identification). Is what you are doing.

しかしながら、無線IDタグは、IDタグ読取装置を用いて検出できる探索可能範囲が狭いことに加えて、近くに存在することは検知できても方向や距離を特定し難いために、紛失物を効率的に探すことが難しいという問題があった。 However, the wireless ID tag has a narrow searchable range that can be detected by using the ID tag reader, and even if it can be detected that it exists nearby, it is difficult to specify the direction and distance. There was a problem that it was difficult to find the target.

なお、特許文献2には、IDタグに対して音波発生器を付加することで、IDタグを付した対象物の位置をより正確に把握可能にする発明も提案されている。しかしながら、無線IDタグに音波発生器を付加しても、IDタグ読取装置を用いて検出できる探索可能範囲が狭いことに変わりはない。 In addition, Patent Document 2 also proposes an invention in which a sound wave generator is added to an ID tag so that the position of the object to which the ID tag is attached can be grasped more accurately. However, even if a sound wave generator is added to the wireless ID tag, the searchable range that can be detected by using the ID tag reader is still narrow.

また、特許文献3に示されているように、GPSシステムを利用して、紛失物を探すことも考えられる。 Further, as shown in Patent Document 3, it is conceivable to search for lost items by using a GPS system.

ところが、GPSシステムを利用するには、検索装置から発信される検索信号に応答して、衛星から受信した電波により現在位置情報を取得すると共に、取得した現在位置情報を検索装置に返信するGPS測位装置を対象物に付しておく必要がある。そのために、対象物に付しておく装置が大型で高価になってしまい、住宅内では衛星からの電波の受信環境を安定して確保し難いこととも相俟って、住宅内で紛失物を探すことに利用することが難しいのが実情であった。 However, in order to use the GPS system, in response to the search signal transmitted from the search device, the current position information is acquired by the radio wave received from the satellite, and the acquired current position information is returned to the search device by GPS positioning. It is necessary to attach the device to the object. As a result, the equipment attached to the object becomes large and expensive, and it is difficult to secure a stable reception environment for radio waves from satellites in the house. The reality was that it was difficult to use for searching.

特開2005−71193号公報Japanese Unexamined Patent Publication No. 2005-71193 特開2008−2921号公報Japanese Unexamined Patent Publication No. 2008-2921 特開2008−109442号公報Japanese Unexamined Patent Publication No. 2008-109442

本発明は上述の如き事情を背景として為されたものであって、その解決課題とするところは、住宅内で何処に置いたか忘れるなどして見失った紛失物を見つける際に、捜し物をする人を補助する機能を備えた捜し物ロボットを提供することにある。 The present invention has been made against the background of the above-mentioned circumstances, and the problem to be solved is a person who searches for a lost item when he / she finds a lost item such as forgetting where he / she placed it in a house. The purpose is to provide a hunting robot with a function to assist.

本発明の第一の態様は、捜し物ロボットが、[A]住宅内を移動可能とする移動手段と、[B]ユーザーによる検索対象物の登録処理によって検索対象物を識別する検索情報を記憶する検索情報記憶手段と、[C]前記検索情報に基づいて前記検索対象物を検索して、該検索対象物の位置情報を取得する検索手段とを、含んでおり、且つ、前記検索対象物の前記検索情報が検索画像情報とされていると共に、[F]撮像手段を備えており、前記検索手段において、該撮像手段で撮像された画像について該検索画像情報によるマッチング処理に基づいて該検索対象物を検索すると共に、該検索手段によって得られた前記検索対象物の前記位置情報を記憶する検索結果記憶手段を備えている一方、捜し物をするユーザーにより外部から入力された検索指令信号を受信する指令受信手段と、該指令受信手段で受信された前記検索指令信号により、前記検索結果記憶手段に記憶された前記検索対象物の前記位置情報を外部に報知する検索結果報知手段とを、有していることを特徴とする。 In the first aspect of the present invention, the search object robot stores [A] a means of moving in a house and [B] search information for identifying a search object by a user's registration process of the search object. The search information storage means and [C] a search means for searching the search target based on the search information and acquiring the position information of the search target are included, and the search target is included. The search information is used as search image information, and is provided with [F] imaging means. In the search means, the search target is based on a matching process based on the search image information for an image captured by the imaging means. with search objects, while provided with a search result storage means for storing the positional information of the obtained the search object by said search means, a search instruction signal input from the outside by the user to the search-and product The command receiving means for receiving and the search result notifying means for notifying the position information of the search object stored in the search result storing means to the outside by the search command signal received by the command receiving means. It is characterized by having.

本態様に係る捜し物ロボットは、検索手段(C)を備えていると共に、移動手段(A)によって住宅内を移動する。それ故、例えば捜し物をする人が検索手段を携えて住宅内を歩き回らなくとも、検索手段を備えた捜し物ロボットそのものが住宅内を移動して検索対象物を検索し得る。 The search robot according to this aspect is provided with the search means (C) and moves in the house by the moving means (A). Therefore, for example, even if the person searching for the object does not walk around the house with the search means, the search object robot itself equipped with the search means can move in the house and search for the search target.

その結果、仮に検索手段の位置から検索対象物を検索可能な距離範囲が限られていても、捜し物ロボットの移動に伴って検索手段そのものが住宅内を移動することで、捜し物をする人がわざわざ歩きまわらずとも、広い範囲で捜し物を容易に検索することが可能になる。また、本態様に係る捜し物ロボットは、画像処理としてのマッチング処理により、検索対象物を検索することが可能になる。それ故、IDタグなどを予め検索対象物に付しておく必要がないことから、IDタグを付すことが難しい物、例えば眼鏡なども、検索対象物とすることができる。また、各検索対象物毎にIDタグなどを付す必要がないことから、検索対象物を増やす場合でも、装置の付加やそれに伴う費用の負担も回避することが可能になり、複数の検索対象物を設定することも容易となる。 As a result, even if the distance range in which the search target can be searched from the position of the search means is limited, the search means itself moves in the house as the search object robot moves, so that the person searching for the object bothered. You can easily search for what you are looking for in a wide range without having to walk. In addition, the search object robot according to this aspect can search for a search target by matching processing as image processing. Therefore, since it is not necessary to attach an ID tag or the like to the search target in advance, an object for which it is difficult to attach an ID tag, such as eyeglasses, can also be a search target. In addition, since it is not necessary to attach an ID tag or the like to each search target, even when the number of search targets is increased, it is possible to avoid the additional equipment and the cost burden associated with it, and it is possible to avoid the burden of costs associated with the addition of multiple search targets. It also becomes easy to set.

本発明の第二の態様は、前記第一の態様に係る捜し物ロボットにおいて、[G]前記検索手段(C)によって得られた前記検索対象物の位置情報をタイムデータと関連付けて記憶する前記検索結果記憶手段を有しているものである。 A second aspect of the present invention is the search in which the search object robot according to the first aspect stores the position information of the search target object obtained by [G] the search means (C) in association with time data. It has a result storage means .

本態様に係る捜し物ロボットは、検索結果記憶手段(G)に記憶された検索対象物の検索結果を、例えば指令受信手段(D)で検索作動の指令を受けた際に提示することにより、直ちに直前の検索結果を提示することも可能となる。また、検索手段(C)による検索の結果、検索対象物が見つけられなかった場合でも、直近で確認し得た検索対象物の位置情報を、かかる検索結果記憶手段(G)の記憶情報から、検出時間情報と共に提示することで、過去の情報からその後の検索対象物の位置を想起させる手助けをすることも可能になる。
更にまた、前述の第一の態様において画像のマッチング処理に基づいて検索対象物を検索する場合に、検索対象物の上に物が置かれて見えない状況では検索が難しくなるが、本態様に係る捜し物ロボットにおいて、上に物が置かれる前の状況で取得された撮像画像をタイムデータと関連付けて記憶しておき、検索作動の指令を受けた際に、かかる撮像画像をタイムデータと共に提示することで、置かれた物の下に検索対象物が存在する可能性を示唆して、捜し物の手助けをすることも可能になる。
The search object robot according to this aspect immediately presents the search result of the search object stored in the search result storage means (G) when, for example, the command receiving means (D) receives a command to operate the search. It is also possible to present the last search result. Further, even if the search target is not found as a result of the search by the search means (C), the position information of the search target that can be confirmed most recently is obtained from the stored information of the search result storage means (G). By presenting it together with the detection time information, it is possible to help to recall the position of the search target after that from the past information.
Furthermore, when searching for a search object based on the image matching process in the first aspect described above, the search becomes difficult in a situation where the object is placed on the search object and cannot be seen. In the search object robot, the captured image acquired in the situation before the object is placed on the object is stored in association with the time data, and when the search operation command is received, the captured image is presented together with the time data. This also makes it possible to help the search by suggesting that the search target may exist under the placed object.

本発明の第三の態様は、前記第二の態様に係る捜し物ロボットにおいて、[H]前記住宅内を定期的又は不定期な時間間隔で巡回するように前記移動手段を作動制御する巡回移動制御手段を有していると共に、該巡回移動制御手段(H)による巡回中に、前記検索情報記憶手段(B)に記憶された前記検索情報に基づいて前記検索対象物を検索して該検索対象物の位置情報を取得し、取得した該検索対象物の位置情報をタイムデータと関連付けして前記検索結果記憶手段(G)に記憶する構成を備えているものである。 A third aspect of the present invention is the patrol movement control in which, in the search robot according to the second aspect, [H] the moving means is operated and controlled so as to patrol the inside of the house at regular or irregular time intervals. The search target is searched based on the search information stored in the search information storage means (B) during the patrol by the patrol movement control means (H) while having the means. It has a configuration in which the position information of an object is acquired, and the acquired position information of the search object is associated with time data and stored in the search result storage means (G) .

本態様に係る捜し物ロボットは、紛失物を探す必要がない状況下でも、巡回移動制御手段(H)によって巡回して検索対象物の位置情報を検索結果記憶手段(G)に記憶させておくことができる。それ故、例えば指令受信手段(D)で検索作動の指令を受けた際に、最も近い時刻における検索結果を直ちに提示することが可能となる。 The search object robot according to this aspect patrols by the patrol movement control means (H) and stores the position information of the search target object in the search result storage means (G) even in a situation where it is not necessary to search for the lost object. Can be done. Therefore, for example, when a command for a search operation is received by the command receiving means (D), the search result at the nearest time can be immediately presented.

本発明の第四の態様は、前記第一〜三の何れかの態様に係る捜し物ロボットにおいて、前記検索手段(C)における前記検索対象物の位置情報が、前記撮像手段(F)によって取得された撮像画像情報である構成を備えているものである。 In the fourth aspect of the present invention, in the search object robot according to any one of the first to third aspects, the position information of the search target object in the search means (C) is acquired by the image pickup means (F). It has a configuration that is captured image information.

本態様に係る捜し物ロボットは、捜し物が存在する位置である検索対象物の位置情報を、捜し物をしている人に対して効率的に提示することが可能になる。すなわち、捜し物の対象エリアは捜し物をする人が良く知っている住宅内であることから、特定方向に向けて撮像された撮像画像情報を提示することにより、それを見た人は、画像で指摘された場所を容易に認識することができ、当該場所に行き、限られた場所内で検索対象物を効率的に探すことが可能になる。また、このように撮像画像情報により、検索対象物の位置情報を提示することで、GPS測位システムを利用しなくても検索対象物の位置を特定して示すことが可能になる。 The search object robot according to this aspect can efficiently present the position information of the search target object, which is the position where the search object exists, to the person who is searching for the search object. In other words, since the target area of the search object is inside a house that the person searching for is familiar with, by presenting the captured image information captured in a specific direction, the person who sees it points out in the image. It is possible to easily recognize the location, go to the location, and efficiently search for the search target within the limited location. Further, by presenting the position information of the search target object by the captured image information in this way, it is possible to specify and indicate the position of the search target object without using the GPS positioning system.

本発明の第五の態様は、前記第一〜四の何れかの態様に係る捜し物ロボットにおいて、[R]前記住宅内に固定的に設置された固定撮像手段を有しており、前記検索手段(C)において、該固定撮像手段(R)で撮影された画像について前記検索画像情報によるマッチング処理に基づいて前記検索対象物を検索する構成を有するものである。 A fifth aspect of the present invention is the search robot according to any one of the first to fourth aspects, wherein [R] has a fixed image pickup means fixedly installed in the house, and the search means. In (C), the image captured by the fixed imaging means (R) is configured to search for the search target based on the matching process based on the search image information .

本態様に係る捜し物ロボットは、画像情報を利用して検索を行なうに際して、捜し物ロボットに装備して移動する撮像手段(F)に対して、固定撮像手段(R)により、撮像ポイントを増やしたり、異なる撮像位置からの撮像を可能にしたりすることで、検索効率などを向上させることが可能になる。具体的には、例えば住宅内の部屋の天井から見下ろすように撮像する固定撮像手段(R)を設けることで、死角を減らしたりすることも可能となる。 When performing a search using image information, the search object robot according to this aspect may increase the number of imaging points by using the fixed image pickup means (R) with respect to the image pickup means (F) that is equipped and moves on the search object robot. By enabling imaging from different imaging positions, it is possible to improve search efficiency and the like. Specifically, for example, by providing a fixed imaging means (R) that images images from the ceiling of a room in a house, it is possible to reduce blind spots.

本発明の第六の態様は、捜し物ロボットが、[A]住宅内を移動可能とする移動手段と、[B]検索対象物を識別する検索情報を記憶する検索情報記憶手段と、[C]前記検索情報に基づいて前記検索対象物を検索して、該検索対象物の位置情報を取得する検索手段と、[D]前記検索対象物の検索作動を指令する検索指令信号を受信する指令受信手段と、[E]該指令受信手段で受信された前記検索指令信号により、前記検索手段で取得された前記検索対象物の前記位置情報を外部に報知する検索結果報知手段と、[I]人を認識する人認識手段を備えていると共に、[J]前記検索手段(C)が、該人認識手段(I)で検出された人が前記検索対象物を携えていることを検出する携行検出手段と、[K]該人が該検索対象物の携行を止めたことが該携行検出手段(J)によって検出された際に該検索対象物の位置情報を取得する携行中止位置検出手段とを、含むことを特徴とする。 A sixth aspect of the present invention is that the search object robot can move in [A] a house, [B] a search information storage means for storing search information for identifying a search target, and [C]. A search means for searching the search target based on the search information and acquiring the position information of the search target, and [D] receiving a command for receiving a search command signal for commanding a search operation of the search target. [E] Search result notification means for notifying the position information of the search target acquired by the search means to the outside by the search command signal received by the command receiving means, and [I] person. [J] The search means (C) detects that the person detected by the person recognition means (I) is carrying the search object. The means and [K] a carrying stop position detecting means for acquiring the position information of the search target when the carrying detecting means (J) detects that the person has stopped carrying the search target. , Included.

本態様に係る捜し物ロボットは、多くのケースにおいて検索対象物の位置が変化する原因が人が携行することによるものであることを利用して、検索対象物の位置や位置変化を、より効率的に検出し、得られた位置情報を必要に応じて記憶させておくことが可能になる。 The search object robot according to this aspect makes use of the fact that the cause of the change in the position of the search object is due to being carried by a person in many cases, and makes the position and position change of the search object more efficient. It is possible to detect and store the obtained position information as needed.

本発明の第七の態様は、前記第の態様に係る捜し物ロボットにおいて、[L]前記携行検出手段(J)で検出された、前記検索対象物を携行している人を追従するように前記移動手段(A)を作動制御する人追従制御手段を有している構成を備えているものである。 A seventh aspect of the present invention is to follow a person carrying the search object detected by [L] the carrying detection means (J) in the search robot according to the sixth aspect. It has a configuration having a person-following control means for controlling the operation of the moving means (A).

本態様に係る捜し物ロボットは、人による検索対象物の移動後の位置情報を、当該検索対象物を携行している人を追従することで、より効率的に且つ高い確実性をもって、検索手段(C)により取得することが可能になる。 The search object robot according to this aspect is a search means (more efficiently and with high certainty) by following the position information after the movement of the search object by a person to the person carrying the search object. C) makes it possible to obtain.

本発明の第八の態様は、前記第六又は第七の態様に係る捜し物ロボットにおいて、前記人認識手段(I)が、[M]個人を識別して特定する個人特定手段を含んでいると共に、前記携行検出手段(J)と前記携行中止位置検出手段(K)との少なくとも一方が、[N]前記検索対象物を携行した人又は携行を中止した人を該個人特定手段(M)で特定した個人識別情報をタイムデータと関連付けて記憶する携行人記憶手段を含んで構成されているものである。 In the eighth aspect of the present invention, in the search object robot according to the sixth or seventh aspect, the person recognition means (I) includes [M] an individual identification means for identifying and identifying an individual. , At least one of the carrying detection means (J) and the carrying stop position detecting means (K) is [N] a person who carried the search target or a person who stopped carrying the search object by the personal identification means (M). It is configured to include a carrier storage means for storing the specified personal identification information in association with time data.

本態様に係る捜し物ロボットは、検索対象物を携行して場所を移動させたのが誰であるかという個人を特定する情報を提示することも可能となる。それ故、例えば指令受信手段(D)で検索作動の指令を受けた際に、最も近い時刻において当該検索対象物を移動させたのが誰であるかの情報を提示して、かかる該当者の記憶を呼び覚ますことで、紛失物を探す補助をすることなども可能になる。 The search object robot according to this aspect can also present information that identifies an individual who carried the search object and moved the place. Therefore, for example, when a command for a search operation is received by the command receiving means (D), information on who moved the search object at the nearest time is presented, and the relevant person concerned. By recalling the memory, it becomes possible to assist in finding lost items.

本発明の第九の態様は、前記第〜八の何れかの態様に係る捜し物ロボットにおいて、前記検索対象物の前記検索情報が、無線IDタグとされていると共に、前記検索手段(C)が、[O]該無線IDタグと無線通信を行なうIDタグ検知手段を含んで構成されているものである。 A ninth aspect of the present invention is that in the search object robot according to any one of the sixth to eighth aspects, the search information of the search target is a wireless ID tag, and the search means (C). [O] is configured to include an ID tag detecting means for performing wireless communication with the wireless ID tag.

本態様に係る捜し物ロボットは、無線IDタグを利用して検索対象物を探すことにより、検索の効率や確実性を向上させることが可能になる。特に無線IDタグは検索可能範囲が比較的に狭いが、移動手段(A)を備えた捜し物ロボットが住宅内を移動することから、無線IDタグを用いた検索範囲が実質的に広く確保され得る。 The search object robot according to this aspect can improve the efficiency and certainty of the search by searching for the search target using the wireless ID tag. In particular, the searchable range of the wireless ID tag is relatively narrow, but since the search robot equipped with the moving means (A) moves in the house, the search range using the wireless ID tag can be substantially secured. ..

また、無線IDタグは、一般にエリア内の存在を検出するものであるが、移動手段(A)を備えた捜し物ロボットが移動することで、複数位置から無線IDタグの存否を検出することができ、それらの検出情報を相互的に処理することで、検出対象物についてより具体的な位置情報を取得することも可能になる。なお、無線IDタグは、前記検索手段(C)において、例えば前記撮像手段(F)と併せて採用することも可能である。本発明の第十の態様は、前記第六〜九の何れかの態様に係る捜し物ロボットにおいて、[G]前記検索手段(C)によって得られた前記検索対象物の位置情報をタイムデータと関連付けて記憶する検索結果記憶手段を有している構成を備えているものである。本態様に係る捜し物ロボットは、検索結果記憶手段(G)に記憶された検索対象物の検索結果を、例えば指令受信手段(D)で検索作動の指令を受けた際に提示することにより、直ちに直前の検索結果を提示することも可能となる。また、検索手段(C)による検索の結果、検索対象物が見つけられなかった場合でも、直近で確認し得た検索対象物の位置情報を、かかる検索結果記憶手段(G)の記憶情報から、検出時間情報と共に提示することで、過去の情報からその後の検索対象物の位置を想起させる手助けをすることも可能になる。更にまた、前記第一の態様において画像のマッチング処理に基づいて検索対象物を検索する場合に、検索対象物の上に物が置かれて見えない状況では検索が難しくなるが、本態様に係る捜し物ロボットにおいて、上に物が置かれる前の状況で取得された撮像画像をタイムデータと関連付けて記憶しておき、検索作動の指令を受けた際に、かかる撮像画像をタイムデータと共に提示することで、置かれた物の下に検索対象物が存在する可能性を示唆して、捜し物の手助けをすることも可能になる。本発明の第十一の態様は、前記第十の態様に係る捜し物ロボットにおいて、[H]前記住宅内を定期的又は不定期な時間間隔で巡回するように前記移動手段を作動制御する巡回移動制御手段を有していると共に、該巡回移動制御手段(H)による巡回中に、前記検索情報記憶手段(B)に記憶された前記検索情報に基づいて前記検索対象物を検索して該検索対象物の位置情報を取得し、取得した該検索対象物の位置情報をタイムデータと関連付けして前記検索結果記憶手段(G)に記憶する構成を備えているものである。本態様に係る捜し物ロボットは、紛失物を探す必要がない状況下でも、巡回移動制御手段(H)によって巡回して検索対象物の位置情報を検索結果記憶手段(G)に記憶させておくことができる。それ故、例えば指令受信手段(D)で検索作動の指令を受けた際に、最も近い時刻における検索結果を直ちに提示することが可能となる。 Further, the wireless ID tag generally detects the existence in the area, but the existence or nonexistence of the wireless ID tag can be detected from a plurality of positions by moving the search robot equipped with the moving means (A). By mutually processing the detection information, it is possible to acquire more specific position information about the detection target. The wireless ID tag can also be used in the search means (C) in combination with, for example, the image pickup means (F). A tenth aspect of the present invention associates the position information of the search target object obtained by [G] the search means (C) with the time data in the search object robot according to any one of the sixth to ninth aspects. It is provided with a configuration having a search result storage means for storing the search results. The search object robot according to this aspect immediately presents the search result of the search object stored in the search result storage means (G) when, for example, the command receiving means (D) receives a command to operate the search. It is also possible to present the last search result. Further, even if the search target is not found as a result of the search by the search means (C), the position information of the search target that can be confirmed most recently is obtained from the stored information of the search result storage means (G). By presenting it together with the detection time information, it is possible to help to recall the position of the search target after that from the past information. Furthermore, when searching for a search target object based on the image matching process in the first aspect, the search becomes difficult in a situation where the object is placed on the search target object and cannot be seen. In the search object robot, the captured image acquired in the situation before the object is placed on the object is stored in association with the time data, and when the search operation command is received, the captured image is presented together with the time data. It is also possible to help the search by suggesting that the search target may exist under the placed object. An eleventh aspect of the present invention is the patrol movement in which, in the search robot according to the tenth aspect, [H] the moving means is operated and controlled so as to patrol the inside of the house at regular or irregular time intervals. The search target is searched based on the search information stored in the search information storage means (B) during the patrol by the patrol movement control means (H) while having the control means. It has a configuration in which the position information of an object is acquired, and the acquired position information of the search object is associated with time data and stored in the search result storage means (G). The search object robot according to this aspect patrols by the patrol movement control means (H) and stores the position information of the search target object in the search result storage means (G) even in a situation where it is not necessary to search for the lost object. Can be done. Therefore, for example, when a command for a search operation is received by the command receiving means (D), the search result at the nearest time can be immediately presented.

本発明の第十二の態様は、前記第一〜十一の何れかの態様に係る捜し物ロボットにおいて、前記指令受信手段(D)が、[P]音声認識手段を含んでいる構成を有するものである。 A twelfth aspect of the present invention is the search robot according to any one of the first to eleventh aspects, wherein the command receiving means (D) includes a [P] voice recognition means. Is.

本態様に係る捜し物ロボットは、操作者が直接に捜し物ロボットに触れることなく、音声で検索の指示をして捜し物の補助作動を行なわしめることが可能になり、利用が容易となる。 The search object robot according to this aspect can be easily used because the operator can give a search instruction by voice and perform an auxiliary operation of the search object without directly touching the search object robot.

本発明の第十三の態様は、前記第一〜十二の何れかの態様に係る捜し物ロボットにおいて、前記検索結果報知手段(E)が、[Q]モニタ手段を含んでいる構成を有するものである。 A thirteenth aspect of the present invention is the search robot according to any one of the first to twelve aspects, wherein the search result notification means (E) includes a [Q] monitor means. Is.

本態様に係る捜し物ロボットは、モニタ手段(Q)によって検察結果を人が容易に認識することが可能になる。具体的には、例えば検索結果として、検索対象物が存在する領域の撮像画像をモニタ手段(Q)に表示させたり、検索対象物が存在する領域を表す文字などをモニタ手段(Q)に表示させることで、検索結果をより効率的に認識可能とすることができる。 The search robot according to this aspect can easily recognize the prosecution result by the monitoring means (Q). Specifically, for example, as a search result, the captured image of the area where the search target exists is displayed on the monitor means (Q), or the characters representing the area where the search target exists are displayed on the monitor means (Q). By making it possible, the search result can be recognized more efficiently.

本発明の第十の態様は、前記第一〜十の何れかの態様に係る捜し物ロボットにおいて、[S]前記検索対象物までの距離を計測する距離検出手段を備えている構成を有するものである。 Fourteenth aspect of the present invention, in Sagashimono robot according to the first to thirteenth one embodiment, has a structure that includes a distance detection means for measuring the distance to [S] the search object It is a thing.

本態様に係る捜し物ロボットでは、距離検出手段(S)で検出された値を外部へ報知することにより、検索された対象物の位置をより精度良く特定して、一層効率的に捜し出すように補助することが可能になる。 In the search object robot according to this aspect, by notifying the value detected by the distance detecting means (S) to the outside, the position of the searched object can be identified more accurately and the search can be performed more efficiently. It becomes possible to do.

本発明の第十の態様は、前記第一〜十の何れかの態様に係る捜し物ロボットにおいて、[T]前記移動手段による前記住宅内での移動に際して、該住宅内での位置を検出する位置検出手段を備えている構成を有するものである。 Fifteenth aspect of the present invention, in Sagashimono robot according to any of embodiments of the first one to fourteen, when movement within the housing by [T] the moving means, detecting a position in the housing It has a configuration provided with a position detecting means for the robot.

本態様に係る捜し物ロボットでは、捜し物ロボットが自身の位置を特定することが可能になることから、例えば移動手段(A)で移動する捜し物ロボットの移動順路をより効率的となるように移動制御したり、移動できていない領域がなくなるように移動制御したりすることも可能になる。また、例えば検索結果報知手段(E)が、検索対象物の存在する位置情報として具体的な部屋の名前や、座標位置などを外部に報知することも可能になる。 In the search robot according to this aspect, since the search robot can specify its own position, for example, the movement control of the search robot moving by the moving means (A) is controlled so as to be more efficient. It is also possible to control the movement so that there is no area that cannot be moved. Further, for example, the search result notification means (E) can notify the outside of a specific room name, coordinate position, etc. as position information in which the search target exists.

本発明の第十の態様は、前記第一〜十の何れかの態様に係る捜し物ロボットにおいて、生物の擬似的な外観を備えている構成を有するものである。 The sixteenth aspect of the present invention has a configuration in which the search robot according to any one of the first to fifteenth aspects has a pseudo-appearance of a living thing.

本態様に係る捜し物ロボットでは、外観的に親しみ易くなり、住宅内を移動していても違和感を抱かせ難くなる。特にペット型ロボットとすることが出来て、生物としてのペットを飼育することが難しい場合でも、ペットと類似の環境を与えることが可能になる。また、ペット型ロボットを提供することにより、ペット産業界で問題となっている動物虐待などの問題の低減にも資することとなる。 The search robot according to this aspect becomes familiar in appearance and is less likely to give a sense of discomfort even when moving in a house. In particular, it can be a pet-type robot, and even when it is difficult to raise a pet as a living thing, it is possible to provide an environment similar to that of a pet. In addition, by providing pet-type robots, it will contribute to the reduction of problems such as animal cruelty, which is a problem in the pet industry.

上述の説明のように、本発明に従う構造とされた捜し物ロボットによれば、検索手段を備えた捜し物ロボットそのものが住宅内を移動して検索対象物を検索し得る。それ故、捜し物をする人がわざわざ各所を歩きまわらずとも、住宅内で捜し物を容易に検索することが可能になる。 As described above, according to the search object robot having a structure according to the present invention, the search object robot itself provided with the search means can move in the house and search for the search object. Therefore, it is possible to easily search for a search item in a house without having to walk around the place.

本発明の一実施形態としての捜し物ロボットの全体外観を示す斜視図。The perspective view which shows the whole appearance of the search object robot as one Embodiment of this invention. 図1に示された捜し物ロボットにおける物理的な構成を説明するための説明図。Explanatory drawing for demonstrating the physical configuration in the hunting robot shown in FIG. 図1に示された捜し物ロボットにおける機能ブロック図。The functional block diagram in the hunting robot shown in FIG. 図1に示された捜し物ロボットにおける検索対象物の登録処理の一例を説明するためのフロー図。FIG. 5 is a flow chart for explaining an example of a search target registration process in the search object robot shown in FIG. 1. 図1に示された捜し物ロボットにおいて登録される検索対象物の具体例を示す説明図。An explanatory diagram showing a specific example of a search object registered in the search object robot shown in FIG. 1. 図1に示された捜し物ロボットにおけるリアルタイムの検索処理の一例を説明するためのフロー図。FIG. 5 is a flow chart for explaining an example of real-time search processing in the search robot shown in FIG. 1. 図1に示された捜し物ロボットにおいて巡回撮像により取得された記憶画像による検索処理の一例を説明するためのフロー図。FIG. 5 is a flow chart for explaining an example of a search process using a stored image acquired by patrol imaging in the search object robot shown in FIG. 1. 図1に示された捜し物ロボットにおいて巡回撮像により取得された記憶画像による検索処理の別例を説明するためのフロー図。FIG. 5 is a flow chart for explaining another example of the search process using the stored image acquired by the patrol imaging in the search object robot shown in FIG. 1. 図1に示された捜し物ロボットにおいて人の携行に対する検索処理の一例を説明するためのフロー図。FIG. 5 is a flow chart for explaining an example of a search process for carrying a person in the search robot shown in FIG. 1. 図9に示された検索処理において人による検索対象物の携行状態を説明するための説明図。The explanatory diagram for explaining the carrying state of the search object by a person in the search process shown in FIG. 図1に示された捜し物ロボットにおいて採用可能な固定撮像手段の構成を例示する説明図。An explanatory diagram illustrating the configuration of a fixed imaging means that can be adopted in the search object robot shown in FIG. 1. 図1に示された捜し物ロボットにおいて採用可能なIDタグを付した検索対象物による検索システムの構成を例示する説明図。It is explanatory drawing which illustrates the structure of the search system by the search object with the ID tag which can be adopted in the search object robot shown in FIG.

以下、本発明の実施形態について、図面を参照しつつ、詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

先ず、図1には、本発明の一実施形態としての捜し物ロボット10が、全体外観において示されている。 First, FIG. 1 shows the search robot 10 as an embodiment of the present invention in its overall appearance.

本実施形態の捜し物ロボット10は、胴部12に対して、各2本の前脚部14,14及び後脚部16,16と、頭部18と、尾部20が設けられて、全体として猫型の外観形状を有することでペット型ロボットとされている。各構造部分は樹脂や金属などの硬質材で形成されており、必要に応じて、外表面を着色したり、布等の軟質材で覆ったり、植毛等することによって、適宜の意匠や肌触りなどが付与され得る。 The search robot 10 of the present embodiment is provided with two front leg portions 14, 14 and rear leg portions 16, 16 and a head 18 and a tail 20 for the body portion 12, and is cat-shaped as a whole. It is considered to be a pet-type robot because it has the appearance shape of. Each structural part is made of a hard material such as resin or metal, and if necessary, the outer surface can be colored, covered with a soft material such as cloth, or flocked to give it an appropriate design or feel. Can be granted.

また、胴部12や頭部18は、中空構造とされたり空洞部や内部空所が形成されることにより、捜し物処理を実行するための後述する各種の機器が装備され得るようになっている。 Further, the body portion 12 and the head portion 18 have a hollow structure or a hollow portion or an internal space is formed so that various devices described later for executing the search object processing can be equipped. ..

なお、捜し物ロボット10の外観形状や具体的構造は限定されるものでない。例えば、本実施形態の猫型に代えて同じ四足動物である犬等の外観を採用することが可能であることは勿論、疑似的なペット等の動物の外観を有しない単純なボックス形状等であっても良いし、或いは二足歩行する人型の外観を備えていても良い。 The appearance shape and specific structure of the search robot 10 are not limited. For example, it is possible to adopt the appearance of a dog or the like which is the same quadruped instead of the cat type of the present embodiment, and of course, a simple box shape or the like which does not have the appearance of an animal such as a pseudo pet or the like. It may be, or it may have a humanoid appearance of bipedal walking.

また、本実施形態では、胴部12に対して頭部18と尾部20が固定的に取り付けられているが、胴部12に対して頭部18及び/又は尾部20を可動とし、電動モータと駆動制御手段とにより、首を動かすようにして頭部18を上下や左右、回動させたり、尾を振るようにして尾部20を動かせたりしても良い。特に頭部18を、例えば略鉛直軸回りの所定角度範囲で回動可能とすれば、後述するように、頭部18に装着した撮像手段による撮像範囲を、胴部12の移動なしで広い範囲に亘って変化させることが可能になる。その結果、より効率的に撮像画像などを取得することができる。 Further, in the present embodiment, the head 18 and the tail 20 are fixedly attached to the body 12, but the head 18 and / or the tail 20 are movable with respect to the body 12 to form an electric motor. Depending on the drive control means, the head 18 may be rotated up and down, left and right by moving the neck, and the tail 20 may be moved by swinging the tail. In particular, if the head 18 can be rotated within a predetermined angle range around a substantially vertical axis, for example, the imaging range by the imaging means mounted on the head 18 can be widened without moving the body 12. It becomes possible to change over. As a result, captured images and the like can be acquired more efficiently.

各2本の前脚部14,14及び後脚部16,16は、それぞれ、第一脚部14a,16aと、第二脚部14b,16bと、足部14c,16cとを有している。第一脚部14a,16aは、それぞれ、胴部12に対して一軸回りの回動作動で屈曲可能に取り付けられて第一関節部22を構成している。第一脚部14a,16aと第二脚部14b,16bとは、互いに一軸回りの回動作動で屈曲可能に連結されて第二関節部24を構成している。更に、第二脚部14b,16bと足部14c,16cとは、互いに一軸回りの回動作動で屈曲可能に連結されて第三関節部26を構成している。 The two front leg portions 14, 14 and the rear leg portions 16, 16 each have a first leg portion 14a, 16a, a second leg portion 14b, 16b, and a foot portion 14c, 16c, respectively. The first leg portions 14a and 16a are respectively flexibly attached to the body portion 12 by a rotation operation around one axis to form the first joint portion 22. The first leg portions 14a and 16a and the second leg portions 14b and 16b are flexibly connected to each other by a rotational operation around one axis to form a second joint portion 24. Further, the second leg portions 14b and 16b and the foot portions 14c and 16c are flexibly connected to each other by a rotational operation around one axis to form a third joint portion 26.

このように外観的に四足動物を模した機械的構造を備えた本実施形態の捜し物ロボット10は、図2及び図3に示す物理的構成と機能的構成を備えている。 The search robot 10 of the present embodiment, which has a mechanical structure that visually imitates a quadruped, has the physical configuration and the functional configuration shown in FIGS. 2 and 3.

先ず、四足動物に類似した移動手段が構成されている。具体的には、各2本の前脚部14,14及び後脚部16,16における各第一〜三の関節部22,24,26には、それぞれ関節を屈曲作動させるアクチュエータとしての電動モータ30,32,34が装備されている。そして、これら各電動モータ30,32,34に対して、バッテリー36からの給電がパワーコントローラ38で制御されることにより、捜し物ロボット10が四足歩行するようになっている。 First, a means of transportation similar to a quadruped is constructed. Specifically, the first to third joints 22, 24, and 26 of each of the two front leg portions 14, 14 and the rear leg portions 16, 16 have electric motors 30 as actuators for flexing and operating the joints, respectively. , 32, 34 are equipped. Then, the power supply from the battery 36 is controlled by the power controller 38 for each of the electric motors 30, 32, and 34, so that the search robot 10 walks on four legs.

なお、パワーコントローラ38は、中央演算処理装置(CPU)40において、予め記憶手段42に記憶された移動制御プログラムに従って、各電動モータ30,32,34への給電制御を実行するようになっている。具体的には、例えば所定条件下で前進歩行の指令がCPU40からパワーコントローラ38へ出力されると、4本の脚部14,14,16,16において1つずつ順次に脚を持ち上げて前方へ送り出す作動を繰り返すことで、捜し物ロボット10を前方へ移動させるように、各脚の電動モータ30,32,34への給電制御が実行される。また、前方へ送り出す脚の歩幅を4本の脚部間で相互に異ならせることで、左右に曲がった歩行を実現したり、持ち上げた遊脚を後方へ送り出す作動を繰り返すことで後退の歩行を実現するように、パワーコントローラ38による電動モータ30,32,34の作動制御が実行されることとなる。 The power controller 38 is configured to execute power supply control to the electric motors 30, 32, and 34 in the central processing unit (CPU) 40 according to a movement control program stored in advance in the storage means 42. .. Specifically, for example, when a forward walking command is output from the CPU 40 to the power controller 38 under predetermined conditions, the four legs 14, 14, 16 and 16 sequentially lift the legs one by one to move forward. By repeating the sending operation, power supply control to the electric motors 30, 32, and 34 of each leg is executed so as to move the search object robot 10 forward. In addition, by making the stride length of the leg to be sent forward different from each other among the four legs, walking that is bent to the left and right is realized, and by repeating the operation of sending the lifted swing leg backward, walking backward is possible. The operation control of the electric motors 30, 32, and 34 by the power controller 38 is executed so as to be realized.

この際、例えば前方歩行に際して、前方に送り出す作動をする遊脚の電動モータの負荷(消費電力)が大きくなった場合には、何らかの障害物が前方に存在すると推定し、所定量の後退作動の実行後に右又は左への旋回歩行を実行するように移動制御プログラムによる歩行制御を行なわせることができる。或いは、遊脚を上方へ持ち上がる高さをより高くするように電動モータを追加作動させてから前方へ送り出すことで、前方の障害物を乗り越えたり、前方の障害物の上に乗り上げたりするように、歩行制御を行なわせることなども可能である。 At this time, for example, when the load (power consumption) of the electric motor of the swing leg that operates to send forward increases when walking forward, it is estimated that some obstacle exists in front, and a predetermined amount of backward operation is performed. The walking control by the movement control program can be performed so as to execute the turning walking to the right or the left after the execution. Alternatively, by additionally operating the electric motor so as to raise the height of the swing leg upward and then sending it forward, it is possible to overcome an obstacle in front or ride on an obstacle in front. , It is also possible to perform walking control.

また、前後の各脚部14,14,16,16の第一関節部22の回動軸をボールジョイントなどを用いて傾動可能にすると共に、傾動駆動用の電動モータを採用することで、各脚部14,16の送り出し方向を斜め前方や斜め後方に変更することも可能である。これにより、例えば実質的に移動を伴わないで方向転換する作動も可能になる。 In addition, the rotation shafts of the first joints 22 of the front and rear legs 14, 14, 16 and 16 can be tilted by using a ball joint or the like, and an electric motor for tilting drive is adopted. It is also possible to change the feeding direction of the legs 14 and 16 diagonally forward or diagonally backward. This also allows, for example, an operation to change direction substantially without movement.

次に、このような4本の脚部14,14,16,16と、複数の電動モータ30,32,34、および電動モータ30へのバッテリー36からの給電を制御して歩行作動させるパワーコントローラ38を含んで構成された移動手段44を備えた捜し物ロボット10は、捜し物作動を実行するための機構を備えている。 Next, a power controller that controls the power supply from the four legs 14, 14, 16, 16 and the plurality of electric motors 30, 32, 34, and the battery 36 to the electric motors 30 to operate walking. The hunting object robot 10 including the moving means 44 including the 38 is provided with a mechanism for executing the hunting object operation.

先ず、捜し物を検索したり、検索の結果を報知したりするのに利用される外部付加機器45として、CCDカメラなどの撮像手段46と、スピーカーなどの発音手段48と、音声入力装置としてのマイク手段50が、装備されており、適宜にインターフェースを介して、CPU40との間で電気信号としてのデータの入出力を実行可能とされている。なお、動物を模した本実施形態では、撮像手段46が眼の位置に略配置されていると共に、発音手段48が口の位置に略配置されており、マイク手段50が耳の位置に略配置されている。それら各配置位置には、必要に応じて外部への開口穴や窓等が設けられる。 First, as an external additional device 45 used for searching for a search object and notifying the search result, an imaging means 46 such as a CCD camera, a sounding means 48 such as a speaker, and a microphone as a voice input device are used. The means 50 is equipped, and it is possible to input / output data as an electric signal to / from the CPU 40 via an interface as appropriate. In the present embodiment imitating an animal, the imaging means 46 is substantially arranged at the eye position, the sounding means 48 is substantially arranged at the mouth position, and the microphone means 50 is substantially arranged at the ear position. Has been done. If necessary, opening holes and windows to the outside are provided at each of these arrangement positions.

また、本実施形態では、捜し物の検索結果を外部に報知する検索結果報知手段の一例として、モニタ手段52が、例えば胴部12の表面に露出可能な状態で、捜し物ロボット10自体に装備されている。なお、モニタ手段として、上述の撮像手段46が装備された一方の眼とは異なる方の眼において、映像を投射するプロジェクタ装置を装備させても良い。モニタ手段52には、捜し物の検索結果を、例えば所在や位置を示す画像として表示したり、所在や位置を特定する文言で表示したりすることができる。 Further, in the present embodiment, as an example of the search result notification means for notifying the search result of the search object to the outside, the monitor means 52 is equipped on the search object robot 10 itself in a state where it can be exposed on the surface of the body portion 12, for example. There is. As the monitoring means, a projector device for projecting an image may be provided in an eye different from the one eye equipped with the above-mentioned imaging means 46. The monitoring means 52 can display the search result of the searched object as, for example, an image showing the location or position, or display the search result in a wording for specifying the location or position.

尤も、検索結果報知手段は、例示の如きモニタ手段の他、捜し物の検索結果としての捜し物の所在位置を音声で報知する構成を採用することも可能である。例えば「リビングルームのテーブルの上」とか「ダイニングルームの椅子の上」というように、音声の合成及び発音用プログラムを用いて発音手段48から報知させることも可能である。 However, in addition to the monitoring means as shown in the example, the search result notification means may adopt a configuration in which the location position of the search object as the search result of the search object is notified by voice. For example, "on the table in the living room" or "on the chair in the dining room", it is possible to notify from the sounding means 48 by using a voice synthesis and sounding program.

さらに、このような外部付加機器との間で信号を送受信して、捜し物の検索や検索結果の報知などを実行する作動を制御する制御手段54と、かかる作動の実行に際して用いられる各種データを保存する記憶手段42とを、捜し物ロボット10は、備えている。なお、制御手段54は、マイクロプロセッサからなるCPU40の他、必要に応じてGPU(画像処理ユニット)等が追加されたり、MCU(マイクロコントローラ)などが採用され得る。また、記憶手段42は、一般に読み書き可能な半導体メモリが好適に採用されるが、電子データを記憶する各種記憶装置が適宜に採用可能である。 Further, a control means 54 for controlling an operation of transmitting and receiving a signal to and from such an external additional device to perform a search for a searched object, a notification of a search result, and the like, and various data used for executing the operation are stored. The hunting robot 10 is provided with a storage means 42 to be used. As the control means 54, in addition to the CPU 40 composed of a microprocessor, a GPU (image processing unit) or the like may be added as needed, or an MCU (microcontroller) or the like may be adopted. Further, as the storage means 42, a readable and writable semiconductor memory is generally preferably adopted, but various storage devices for storing electronic data can be appropriately adopted.

本実施形態の記憶手段42は、作動プログラム記憶手段60を有している。この作動プログラム記憶手段60は、歩行移動や捜し物検索などの作動を実行するために各種外部付加機器の制御処理を制御手段54に実行させるためのプログラムを記憶している。また、記憶手段42は、検索情報記憶手段62を有している。この検索情報記憶手段62は、捜し物ロボット10のユーザーが、捜し物(検索対象物)を記憶させておくものであり、本実施形態では、検索対象物の画像データを記憶するようになっている。また、記憶手段42は、撮像画像情報記憶手段64を有している。この撮像画像情報記憶手段64は、捜し物ロボット10が捜し物の検索作動を行なう際に撮像手段46で撮像した画像データを記憶するようになっている。また、記憶手段42は、検索結果記憶手段66を有している。この検索結果記憶手段66は、捜し物ロボット10が捜し物の検索作動を行なった結果、取得した検索対象物の位置情報やタイムデータなどを記憶するようになっている。また、記憶手段42は、携行人記憶手段68を有している。この携行人記憶手段68は、捜し物ロボット10が、検索情報記憶手段62に記憶された検索対象物を携行した人を検知し、当該人が当該検索対象物を手放して携行を中止した際に、それらの少なくとも一方の時点において、当該人(個人)の識別情報やタイムデータなどを記憶するようになっている。 The storage means 42 of the present embodiment has an operation program storage means 60. The operation program storage means 60 stores a program for causing the control means 54 to execute control processing of various external additional devices in order to execute operations such as walking movement and search for a search object. Further, the storage means 42 has a search information storage means 62. The search information storage means 62 stores the search object (search target object) by the user of the search object robot 10, and in the present embodiment, the image data of the search object is stored. Further, the storage means 42 has a captured image information storage means 64. The captured image information storage means 64 stores the image data captured by the image pickup means 46 when the search object robot 10 performs a search operation for the search object. Further, the storage means 42 has a search result storage means 66. The search result storage means 66 stores the position information, time data, and the like of the search target object acquired as a result of the search object robot 10 performing the search operation of the search object. Further, the storage means 42 has a carrier storage means 68. The carrier storage means 68 detects a person who carries the search object stored in the search information storage means 62 by the search object robot 10, and when the person releases the search target and stops carrying the search object, the search object storage means 68 stops carrying the search object. At least one of them, the identification information and time data of the person (individual) are stored.

さらに、本実施形態の制御手段54は、CPU40等が作動プログラム記憶手段60に記憶されたプログラムに従って作動することにより、以下の如き各機能を有する各種手段を構成し得るようになっている。即ち、制御手段54は、撮像手段46で取得した撮像画像を、検索情報記憶手段62に記憶された捜し物の画像データとマッチングによる画像処理することで、目的とする捜し物(検索対象物)を検出する検索手段80を有している。更に、かかる検索手段80は、検索情報記憶手段62に記憶された検索対象物を携行した人を検知する携行検出手段82と、当該人が検索対象物の携行を中止したことを検知して、携行を中止した位置を取得する携行中止位置検出手段84を有している。また、制御手段54は、人の存在を検知する人認識手段90を有しており、かかる人認識手段90は、更に、個人を識別して特定する個人特定手段92を有している。なお、人の存在の検知は、赤外線の検出などで行なうことも可能であるが、好適には、撮像手段46で取得した撮像画像について、予め記憶した人の画像データとの静的なマッチング処理を行なうことで、或いは人の動きの特徴との動的なマッチング処理を行なうことで、人の存在を検知するようにされる。また、個人の識別は、例えば撮像手段46で取得した撮像画像について、予め記憶した各個人の画像データとのマッチング処理を行なうことで実行することができる。 Further, the control means 54 of the present embodiment can configure various means having the following functions by operating the CPU 40 or the like according to the program stored in the operation program storage means 60. That is, the control means 54 detects the target search object (search target object) by performing image processing by matching the captured image acquired by the image pickup means 46 with the image data of the search object stored in the search information storage means 62. The search means 80 is provided. Further, the search means 80 detects that the carrying detection means 82 that detects the person carrying the search object stored in the search information storage means 62 and that the person has stopped carrying the search target, and detects that the person has stopped carrying the search target. It has a carrying stop position detecting means 84 for acquiring a carrying stop position. Further, the control means 54 has a person recognition means 90 for detecting the presence of a person, and the person recognition means 90 further has a personal identification means 92 for identifying and identifying an individual. The presence of a person can be detected by detecting infrared rays or the like, but preferably, the image captured by the imaging means 46 is statically matched with the image data of the person stored in advance. The presence of a person is detected by performing the above or by performing a dynamic matching process with the characteristics of the movement of the person. In addition, individual identification can be performed, for example, by performing matching processing on the image captured by the imaging means 46 with the image data of each individual stored in advance.

更にまた、本実施形態の制御手段54は、人追従制御手段94を有している。かかる人追従制御手段94は、人認識手段90で人の存在が検知されると共に、携行検出手段82によって当該人が予め登録された検索対象物を携行していることが検知された際に、当該人を撮像手段による画像内に捉え続けるように移動手段44を作動制御することで、当該人を追従して移動する制御を実行する。 Furthermore, the control means 54 of the present embodiment includes a human tracking control means 94. When the presence of a person is detected by the person recognition means 90 and the carrying detection means 82 detects that the person is carrying a search target registered in advance, the person tracking control means 94 is used. By controlling the operation of the moving means 44 so as to keep the person captured in the image by the imaging means, the control of following the person and moving is executed.

また、本実施形態の制御手段54は、巡回移動制御手段96を有している。かかる巡回移動制御手段96は、予め設定された時刻に達した際や予め設定された時間が経過した際、或いは外部から巡回を指令する信号が入力された際などに、移動手段44を制御して、捜し物ロボット10を住宅内の所定エリアを巡回移動させるようになっている。また、かかる巡回移動に際しては、検索手段80により、予め登録された検索対象物の検索を継続的に実行することができる。そして、巡回中に検索対象物を検出した場合には、当該検索対象物とその位置情報およびタイムデータを、検索結果記憶手段66へ入力して記憶することも可能である。 Further, the control means 54 of the present embodiment has a patrol movement control means 96. The patrol movement control means 96 controls the patrol movement control means 44 when a preset time is reached, a preset time has elapsed, or a signal for instructing patrol is input from the outside. Therefore, the search robot 10 is moved around a predetermined area in the house. Further, in such a patrol movement, the search means 80 can continuously execute the search of the search target registered in advance. When a search target is detected during the patrol, the search target, its position information, and time data can be input to the search result storage means 66 and stored.

以下、本実施形態の捜し物ロボット10におけるより具体的な捜し物の作動例を、フローチャートを参照しつつ説明する。 Hereinafter, a more specific operation example of the search object in the search object robot 10 of the present embodiment will be described with reference to the flowchart.

捜し物の検索作動を行なわせるには、先ず、検索対象物を識別する検索情報を検索情報記憶手段62に記憶させる。図4には、かかる記憶処理作動100の一例が示されている。なお、検索対象物としては、外観上で識別できるものであれば良く、図5に例示されているテレビなどの各種リモコン装置102(A)や眼鏡104(B)の他、腕時計、携帯端末、鍵付きキーホルダー、補聴器、ネックレス、指輪などが何れも対象とされ得る。そして、少なくとも一つの検索対象物が記憶されることとなり、複数種類の検索対象物を、例えば名前で区別して、検索情報記憶手段62に記憶させることができる。 In order to perform the search operation of the searched object, first, the search information for identifying the search target is stored in the search information storage means 62. FIG. 4 shows an example of such a storage processing operation 100. The search target may be any one that can be identified from the outside, and in addition to various remote control devices 102 (A) and glasses 104 (B) such as a television illustrated in FIG. 5, a wristwatch, a mobile terminal, and the like. Key chains with keys, hearing aids, necklaces, rings, etc. can all be targeted. Then, at least one search object is stored, and a plurality of types of search objects can be distinguished by, for example, a name and stored in the search information storage means 62.

図4において、例えば外部からのボタン操作などによる処理開始の指令信号が入力されることで、検索対象物の登録処理がステップS01において開始されると、ステップS02で撮像カメラ(撮像手段46)が作動を開始する。そして、ステップS03で検索対象物の名前の入力が行なわれる。かかる名前の入力は、音声によりマイク手段50を通じて入力することも可能であるし、モニタ手段52をタッチ画面として文字入力するようにしても良い。 In FIG. 4, when the process of registering the search object is started in step S01 by inputting a command signal for starting processing by, for example, operating a button from the outside, the imaging camera (imaging means 46) moves in step S02. Start operation. Then, in step S03, the name of the search target is input. The input of such a name can be input by voice through the microphone means 50, or the monitor means 52 may be used for character input as a touch screen.

名前が入力されると続くステップS04で、撮像カメラの前にかざした検索対象物が撮像カメラによって検出されて画像データが取得される。 When the name is input, in step S04 that follows, the search object held in front of the image pickup camera is detected by the image pickup camera and image data is acquired.

かかる画像データの取得前或いは取得後において、ステップS03で入力された検索対象物の名前について、既に検索情報記憶手段62に記憶されたものがあるか否かを、ステップS05で判定する。そして、未登録の新規な検索対象物である場合には、ステップS05でNOと判定されて、続くステップS06において、当該検索対象物の撮像画像のデータが、入力された名前と関連付けされて、検索情報記憶手段62に登録されて記憶情報に追加される。 Before or after the acquisition of the image data, it is determined in step S05 whether or not the name of the search object input in step S03 is already stored in the search information storage means 62. If it is a new search target that has not been registered, it is determined as NO in step S05, and in the following step S06, the data of the captured image of the search target is associated with the input name. It is registered in the search information storage means 62 and added to the stored information.

一方、検索情報記憶手段62に記憶されたものに同じ名前がある、既登録の検索対象物の場合には、ステップS05でYESと判定されて、続くステップS07において、当該名前の検索対象物に関する撮像画像の追加データとして処理するか否かを判定する。そして、外部からの音声やタッチパネルなどによる指示入力により、ステップS07において撮像画像の追加が選択されると、ステップS06に進んで、当該検索対象物の撮像画像のデータが、既に登録済みの名前と関連付けされて、2つ目以降の追加記憶情報として、検索情報記憶手段62に登録される。 On the other hand, in the case of a registered search object having the same name stored in the search information storage means 62, YES is determined in step S05, and in the following step S07, the search object having the name is related. It is determined whether or not to process as additional data of the captured image. Then, when the addition of the captured image is selected in step S07 by inputting an instruction from an external voice or a touch panel, the process proceeds to step S06, and the data of the captured image of the search target is the name already registered. It is associated and registered in the search information storage means 62 as the second and subsequent additional storage information.

そして、ステップS06において撮像画像のデータを検索情報記憶手段62に登録した後、および、ステップS07において撮像画像を既登録の名前の追加画像として登録しないと判定された場合には、ステップS08に進み、検索対象物の登録処理を終了するか否かが判定される。そして、外部からの音声やタッチパネルなどによる指示入力により、登録処理の終了が選択されると、記憶処理作動100を終了する。一方、登録処理を終了しない場合には、ステップS03に戻って、ステップS03〜S08の処理を繰り返すことにより、未登録の名前の新たな検索対象物の画像の登録処理や、既登録の名前の検索対象物の画像の追加処理を実行するようにされる。 Then, after registering the captured image data in the search information storage means 62 in step S06, and when it is determined in step S07 that the captured image is not registered as an additional image with the registered name, the process proceeds to step S08. , It is determined whether or not to end the registration process of the search target. Then, when the end of the registration process is selected by inputting an instruction from an external voice or a touch panel, the memory processing operation 100 is terminated. On the other hand, if the registration process is not completed, the process returns to step S03 and the processes of steps S03 to S08 are repeated to register an image of a new search target with an unregistered name or to register an image of an already registered name. The additional process of the image of the search target is executed.

なお、既登録の名前の検索対象物の画像の追加処理によれば、例えば図5の(A−1)と(A−2)や、(B−1)と(B−2)に示されるように、リモコン装置102(A)や眼鏡104(B)について、異なる視点から撮像された撮像画像を複数登録しておくことができる。これにより、パターンマッチングによる画像処理で検索対象物を検索する精度の向上が図られ得る。 According to the additional processing of the image of the search target with the registered name, for example, it is shown in (A-1) and (A-2) and (B-1) and (B-2) in FIG. As described above, a plurality of captured images captured from different viewpoints can be registered for the remote controller device 102 (A) and the glasses 104 (B). As a result, it is possible to improve the accuracy of searching the search target by image processing by pattern matching.

このようにして検索情報記憶手段62に検索対象物の検索情報としての画像データが登録されると、かかる画像データを用いたパターンマッチング処理によって、検索対象物を検索することができる。例えば、図6には、撮像手段46で取得される画像データによるリアルタイムの検索手段80を構成する検索処理作動110の一例が示されている。 When the image data as the search information of the search target is registered in the search information storage means 62 in this way, the search target can be searched by the pattern matching process using the image data. For example, FIG. 6 shows an example of a search processing operation 110 that constitutes a real-time search means 80 based on image data acquired by the image pickup means 46.

図6に示されているように、ステップM01における捜し物ロボット10の作動状態下において、例えば外部からの音声入力やタッチパネル、ボタン操作などによる検索処理開始の検索指令信号が入力されると、検索対象物の検索処理がステップM02において開始されて、ステップM03で撮像カメラ(撮像手段46)が作動を開始する。そして、ステップM04で撮像カメラによる撮像画像のデータを取得すると、ステップM05において、当該画像データを一時記憶のバッファに記憶させる。なお、連続的に取得される撮像画像のデータを順次に高速で処理し続けるために、バッファとしては、CPU又はMPU内に備えたメモリを利用することが望ましい。 As shown in FIG. 6, when the search command signal for starting the search process is input, for example, by voice input from the outside, touch panel, button operation, etc., under the operating state of the search object robot 10 in step M01, the search target The object search process is started in step M02, and the imaging camera (imaging means 46) starts operating in step M03. Then, when the data of the image captured by the imaging camera is acquired in step M04, the image data is stored in the temporary storage buffer in step M05. In addition, in order to continuously process the continuously acquired captured image data at high speed, it is desirable to use the memory provided in the CPU or MPU as the buffer.

続くステップM06において、バッファに記憶された撮像画像の撮像画像情報としての画像データと、検索情報記憶手段62に検索対象物の検索情報として記憶された検索画像情報としての画像データとのマッチング処理により、撮像画像中における検索対象物の有無の検索処理が実行される。 In the following step M06, by matching processing between the image data as the captured image information of the captured image stored in the buffer and the image data as the search image information stored in the search information storage means 62 as the search information of the search target. , The search process for the presence or absence of the search target in the captured image is executed.

かかる検索処理の結果、撮像画像中に検索対象物が発見されなければ、次のステップM07において、マッチング画像無し(NO)と判定され、ステップM08で、移動手段44の作動による捜し物ロボット10の所定量の歩行移動が行なわれた後に、前記ステップM04〜M07が繰り返し実行される。なお、捜し物ロボット10が首を左右に振る作動を実行可能な場合には、ステップM08における歩行移動に代えて又は加えて首振り運動を採用しても良く、異なる撮像画像を取得できる環境に変化すれば良い。 If the search target is not found in the captured image as a result of the search process, it is determined that there is no matching image (NO) in the next step M07, and in step M08, the search robot 10 is operated by the moving means 44. After a certain amount of walking movement is performed, the steps M04 to M07 are repeatedly executed. If the hunting robot 10 can perform the operation of swinging its head to the left and right, the swinging motion may be adopted instead of or in addition to the walking movement in step M08, and the environment is changed so that different captured images can be acquired. Just do it.

一方、検索処理の結果、撮像画像中に検索対象物が発見されたら、マッチング画像有り(YES)と判定され、ステップM09で、バッファに記憶した当該撮像画像をタイムデータと関連付けて検索結果記憶手段66に記憶する。本実施形態では、検索手段80によって取得される撮像画像自体が、特定の場所を特定の方向から撮像手段46によって撮像した撮像画像情報であり、そこに検索対象物が存在するものと判定されていることから、当該撮像画像そのものが検索対象物の位置情報を含むこととなる。 On the other hand, if a search target is found in the captured image as a result of the search process, it is determined that there is a matching image (YES), and in step M09, the captured image stored in the buffer is associated with the time data and the search result storage means. Store in 66. In the present embodiment, the captured image itself acquired by the search means 80 is the captured image information captured by the image pickup means 46 from a specific direction at a specific place, and it is determined that the search target exists there. Therefore, the captured image itself includes the position information of the search target object.

また、かかる検索対象物を含む撮像画像は、検索結果記憶手段66に記憶されると共に、ステップM10で、モニタ手段52に表示されて外部から視認可能とされる。これにより、捜し物ロボット10のユーザーは、モニタ手段52の画像を見ることで、捜し物の場所を認識することができるのであり、当該表示場所を集中的に探すことで、捜し物を効率的に探し出すことが可能になる。このようにして、リアルタイムの検索処理作動110が実行されて、終了する。 Further, the captured image including the search object is stored in the search result storage means 66, and is displayed on the monitor means 52 in step M10 so that it can be visually recognized from the outside. As a result, the user of the search object robot 10 can recognize the location of the search object by looking at the image of the monitor means 52, and can efficiently search for the search object by intensively searching for the display location. Becomes possible. In this way, the real-time search process operation 110 is executed and ends.

なお、捜し物ロボット10における捜し物の検索作動は、上述の如きリアルタイムに移動しつつ実行される他、捜し物の対象である検索対象物の画像データが検索情報記憶手段62に記憶されていることから、適宜に歩行移動して撮像画像とのマッチング処理を行なった結果を検索結果記憶手段66に記憶させておくことも可能である。このような事前の検索結果の情報を巧く利用することで、例えば具体的な検索対象物を指定して捜し物の指示を受けた場合に、事前の検索結果を速やかに報知することも可能になる。また、前述の如きリアルタイムでの捜し物の検索処理では、捜し物を検知できなかった場合に、事前の検索作動で検知された結果を報知することで、現在に近い過去の段階で、当該捜し物が存在していた場所をユーザーに知らしめて、ユーザーに思い起こさせるきっかけを与えることもできる。これにより、例えば捜し物を置いた上に新聞などが重ね置かれた場合にも、事前の検索作動の検知結果から、新聞で覆われた状態の捜し物について検索情報をユーザーに与えることも可能になる。 The search operation of the search object robot 10 is executed while moving in real time as described above, and the image data of the search object that is the target of the search object is stored in the search information storage means 62. It is also possible to store the result of performing the matching process with the captured image by appropriately walking and moving in the search result storage means 66. By skillfully using such information on the preliminary search results, it is possible to promptly notify the preliminary search results, for example, when a specific search target is specified and an instruction for the search object is received. Become. In addition, in the real-time search process for a searched object as described above, when the searched object cannot be detected, the result detected by the prior search operation is notified, so that the searched object exists at a stage close to the present. You can also let the user know where you were doing and give them a chance to remind you. As a result, for example, even when a newspaper or the like is placed on top of a search object, it is possible to give the user search information about the search object covered with newspaper from the detection result of the search operation in advance. ..

そのような事前の検索作動の一例が、図7に示されている。図7に示された巡回移動による検索作動を利用した捜し物の検索処理は、事前の巡回作動による撮像画像を蓄積記憶する画像データ取得処理作動120と、具体的な捜し物の指令を受けた際に予め蓄積された画像データを利用して検索処理を行なって検索結果を報知する検索処理作動122との、二つの処理作動から構成されている。 An example of such a preliminary search operation is shown in FIG. The search process for the searched object using the search operation by the patrol movement shown in FIG. 7 is performed when the image data acquisition process operation 120 for accumulating and storing the captured image by the prior patrol operation and a specific command for the searched object are received. It is composed of two processing operations, that is, a search processing operation 122 that performs a search process using the image data accumulated in advance and notifies the search result.

すなわち、図7(I)に示されているように、ステップN01で巡回による撮像画像の取得が実行されると、先ず、ステップN02において、例えば予め設定された時刻に達することなどによって自動的に巡回移動検索の指令信号が発せられたり、外部からの音声やタッチパネル等による入力で適時に巡回移動検索の指令信号が発せられると、続くステップN03において、移動手段44の作動での歩行移動による住宅内の所定エリアでの巡回作動が開始されると共に、撮像カメラ(撮像手段46)による画像データの取得が開始される。 That is, as shown in FIG. 7 (I), when the acquisition of the captured image by patrol is executed in step N01, first, in step N02, for example, when a preset time is reached, the image is automatically acquired. When the command signal for the patrol movement search is issued, or when the command signal for the patrol movement search is issued in a timely manner by inputting from an external voice or a touch panel, in the following step N03, the housing by walking movement by the operation of the moving means 44 At the same time as the patrol operation in the predetermined area is started, the acquisition of the image data by the image pickup camera (imaging means 46) is started.

そして、撮像カメラで取得される画像データは、逐次に、撮像画像情報記憶手段64に記憶されて蓄積される。なお、撮像画像情報記憶手段64に記憶される画像データは、歩行移動に際して所定距離ごとに取得したり、所定時間ごとに取得したりして、適宜に画像データ数が調節され得る。また、撮像画像情報記憶手段64の記憶画像データは、所定の時間の経過によって消去したり、所定の容量に達したら上書きすることにより、画像データの保存を調節するようにしても良い。 Then, the image data acquired by the image pickup camera is sequentially stored and accumulated in the captured image information storage means 64. The number of image data stored in the captured image information storage means 64 can be appropriately adjusted by acquiring the image data at predetermined distance intervals or at predetermined time intervals during walking movement. Further, the storage of the image data may be adjusted by erasing the stored image data of the captured image information storage means 64 with the lapse of a predetermined time or by overwriting the stored image data when the predetermined capacity is reached.

上述の如き画像データの撮像画像情報記憶手段64への記憶処理がステップN04で実行されたら、次のステップN05で、巡回移動による撮像画像の蓄積記憶の作動がタイムアップして終了したか否か判定され、所定時間の作動の間、ステップN02〜N05の処理を繰り返して、多数の画像データを撮像画像情報記憶手段64へ記憶させた後に、巡回による撮像画像の取得を終了する。なお、かかる処理作動の終了は、所定時間の経過による他、所定距離の歩行移動によって終了させるようにしても良い。 After the storage process of the image data in the captured image information storage means 64 as described above is executed in step N04, in the next step N05, whether or not the operation of accumulating and storing the captured image by the patrol movement is timed out and completed. After being determined and operating for a predetermined time, the processes of steps N02 to N05 are repeated to store a large number of image data in the captured image information storage means 64, and then the acquisition of the captured image by patrol is completed. It should be noted that the end of the processing operation may be terminated not only by the passage of a predetermined time but also by walking movement of a predetermined distance.

このような画像データ取得処理作動120が少なくとも一回実施された後、検索処理作動122が実行される。なお、画像データ取得処理作動120は、検索処理作動122が実行されなくても、所定時間をおいて繰り返し実行されて、各実行ごとに画像データが撮像画像情報記憶手段64に記憶され得る。 After the image data acquisition process operation 120 is executed at least once, the search process operation 122 is executed. The image data acquisition processing operation 120 may be repeatedly executed after a predetermined time even if the search processing operation 122 is not executed, and the image data may be stored in the captured image information storage means 64 for each execution.

検索処理作動122は、図7(II)に示されるように、ステップP01で記憶された撮像画像データによる捜し物の検索処理が実行されると、ステップP02において、例えば外部からの音声やタッチパネル等による入力により、検索対象物を具体的に特定した検索指令信号が入力されたことを契機として、捜し物の検索処理が開始される。 As shown in FIG. 7 (II), the search process operation 122 uses, for example, an external voice or a touch panel in step P02 when the search process for the searched object based on the captured image data stored in step P01 is executed. Upon input, the search process for the searched object is started when the search command signal that specifically specifies the search target is input.

先ず、ステップP03において、撮像画像情報記憶手段64から一つの撮像画像のデータを読み出してバッファに記憶する。 First, in step P03, the data of one captured image is read from the captured image information storage means 64 and stored in the buffer.

続くステップP04において、バッファに記憶された撮像画像の画像データと、検索情報記憶手段62に記憶された画像データのうちで検索指令信号で指定された特定の名前の検索対象物の画像データとのマッチング処理により、撮像画像中における検索対象物の有無の検索処理が実行される。 In the following step P04, the image data of the captured image stored in the buffer and the image data of the search object having a specific name specified by the search command signal among the image data stored in the search information storage means 62. By the matching process, the search process for the presence or absence of the search target object in the captured image is executed.

かかる検索処理の結果、撮像画像中に検索対象物が発見されたら、次のステップP05において、マッチング画像有り(YES)と判定され、ステップP06で、バッファに記憶した当該撮像画像をタイムデータと関連付けて検索結果記憶手段66に記憶すると共に、かかる検索対象物を含む撮像画像は、ステップP07で、モニタ手段52に表示されて外部から視認可能とされた後、検索処理作動122を終了する。これにより、捜し物ロボット10のユーザーは、モニタ手段52の画像を見ることで、捜し物の場所を認識することができる。 If a search target is found in the captured image as a result of the search process, it is determined in the next step P05 that there is a matching image (YES), and in step P06, the captured image stored in the buffer is associated with the time data. The captured image including the search object is stored in the search result storage means 66, and is displayed on the monitor means 52 so as to be visible from the outside in step P07, and then the search processing operation 122 is terminated. As a result, the user of the search object robot 10 can recognize the location of the search object by looking at the image of the monitor means 52.

一方、ステップP04での検索処理の結果、撮像画像中に検索対象物が発見されなければ、ステップP05で、マッチング画像無し(NO)と判定され、ステップP08に移行する。かかるステップP08において、撮像画像情報記憶手段64に記憶された全ての撮像画像の画像データとのマッチングが完了したか否かが判定され、未だマッチング処理がされていない画像データが撮像画像情報記憶手段64に残っていたら、ステップP09に進んで次の一枚の画像データを撮像画像情報記憶手段64から取得して、バッファに記憶された画像データを当該次の一枚の画像データに置換することで、ステップP03〜P05によるマッチング処理を繰り返して実行する。 On the other hand, if the search target is not found in the captured image as a result of the search process in step P04, it is determined in step P05 that there is no matching image (NO), and the process proceeds to step P08. In step P08, it is determined whether or not matching with the image data of all the captured images stored in the captured image information storage means 64 is completed, and the image data that has not yet been matched is the captured image information storage means. If it remains in 64, the process proceeds to step P09 to acquire the next image data from the captured image information storage means 64, and replace the image data stored in the buffer with the next image data. Then, the matching process according to steps P03 to P05 is repeatedly executed.

そして、繰り返されるステップP05において何れの画像データでも検索対象物が検索されず、ステップP08において全ての撮像画像データに対するマッチング処理が完了したと判定された場合には、検索対象物を探し出す有力な情報が得られなかったものとして、検索処理作動122を終了する。 Then, when the search target is not searched for any image data in the repeated step P05 and it is determined in step P08 that the matching process for all the captured image data is completed, the search target is powerful information for finding the search target. Is not obtained, and the search processing operation 122 is terminated.

このように、事前に取得して撮像画像情報記憶手段64に記憶蓄積された画像情報を利用して検索対象物の検索処理を実行することで、具体的な捜し物の指令を受けた際に、捜し物ロボット10が探し回るための移動をすることなく、単なる画像処理によって捜し物の所在について情報を与えることが可能になり、捜し物の補助作動が速やかに実行可能となる。 In this way, by executing the search process of the search target using the image information acquired in advance and stored in the captured image information storage means 64, when a specific search object command is received, The search object robot 10 can give information about the location of the search object by mere image processing without moving to search around, and the auxiliary operation of the search object can be quickly executed.

ところで、事前に取得した撮像画像を利用した検索処理の態様としては、上述の図7に例示されたものの他、例えば図8に例示される処理態様も採用可能である。 By the way, as a mode of the search process using the captured image acquired in advance, in addition to the above-described processing mode illustrated in FIG. 7, for example, the processing mode exemplified in FIG. 8 can be adopted.

図8に示された巡回移動による検索作動を利用した捜し物の検索処理は、事前の巡回作動による撮像画像による事前検索処理作動130と、具体的な捜し物の指令を受けた際に予め蓄積された事前検索結果を利用して検索結果を報知する検索報知処理作動132との、二つの処理作動から構成されている。 The search process for the searched object using the search operation by the patrol movement shown in FIG. 8 is accumulated in advance when the pre-search process operation 130 based on the captured image by the prior patrol operation and the specific search object command are received. It is composed of two processing operations, that is, a search notification processing operation 132 that notifies the search result by using the preliminary search result.

すなわち、図8(I)に示されているように、ステップQ01で巡回による検索結果情報の取得が実行されると、先ず、ステップQ02において、例えば予め設定された時刻に達することなどによって自動的に巡回移動検索の指令信号が発せられたり、外部からの音声やタッチパネル等による入力で適時に巡回移動検索の指令信号が発せられると、続くステップQ03において、移動手段44の作動での歩行移動による住宅内の所定エリアでの巡回作動が開始されると共に、撮像カメラ(撮像手段46)による画像データの取得が開始される。 That is, as shown in FIG. 8 (I), when the acquisition of the search result information by patrol is executed in step Q01, first, in step Q02, for example, when the preset time is reached, the search result information is automatically acquired. When the command signal for the patrol movement search is issued, or when the command signal for the patrol movement search is issued in a timely manner by inputting from an external voice or a touch panel, in the following step Q03, the walking movement by the operation of the moving means 44 is performed. The patrol operation in a predetermined area in the house is started, and the acquisition of image data by the image pickup camera (imaging means 46) is started.

そして、撮像カメラで画像データが取得されると、ステップQ04において、当該画像データを一時記憶のバッファに記憶させる。続くステップQ05において、バッファに記憶された撮像画像の画像データと、検索情報記憶手段62に検索対象物の検索情報として記憶された画像データとのマッチング処理により、撮像画像中における検索対象物の有無の検索処理が実行される。 Then, when the image data is acquired by the imaging camera, the image data is stored in the temporary storage buffer in step Q04. In the following step Q05, the presence or absence of the search target object in the captured image is performed by the matching process of the image data of the captured image stored in the buffer and the image data stored as the search information of the search target object in the search information storage means 62. Search process is executed.

かかる検索処理の結果、撮像画像中に検索対象物が発見されたら、ステップQ06でマッチング画像有り(YES)と判定され、ステップQ07で、バッファに記憶した当該撮像画像をタイムデータと関連付けて検索結果記憶手段66に記憶する。なお、撮像画像は、対象とされた検索対象物とも関連付けて、例えば当該検索対象物の名前と共に、検索結果記憶手段66に記憶する。その後、ステップQ08に進む。 If a search target is found in the captured image as a result of the search process, it is determined in step Q06 that there is a matching image (YES), and in step Q07, the captured image stored in the buffer is associated with the time data and the search result is obtained. It is stored in the storage means 66. The captured image is also associated with the target search target object, and is stored in the search result storage means 66 together with, for example, the name of the search target object. Then, the process proceeds to step Q08.

一方、撮像画像中に検索対象物が発見されなければ、ステップQ06において、マッチング画像無し(NO)と判定され、ステップQ07を経ることなく、ステップQ08へ進む。 On the other hand, if the search target is not found in the captured image, it is determined in step Q06 that there is no matching image (NO), and the process proceeds to step Q08 without going through step Q07.

ステップQ08では、検索情報記憶手段62に記憶された複数種類の検索対象物(例えば、眼鏡とテレビリモコン)の全てについて、検索処理の実行が完了されたか否かが判定される。そして、未だ検索されていない検索対象物がある場合には、ステップQ09で、マッチング処理させる検索対象物の画像データを、次の検索対象物のものに移行してから、ステップQ05〜Q08の検索処理の実行を繰り返す。 In step Q08, it is determined whether or not the execution of the search process is completed for all of the plurality of types of search objects (for example, glasses and the TV remote controller) stored in the search information storage means 62. Then, if there is a search target that has not been searched yet, in step Q09, the image data of the search target to be matched is transferred to that of the next search target, and then the search in steps Q05 to Q08 is performed. Repeat the execution of the process.

ステップQ08において、全ての種類の検索対象物について検索処理が実行されたと判定されたら、ステップQ10に進み、巡回移動による撮像と検索の作動がタイムアップ等で終了したか否か判定される。タイムアップ前なら、巡回作動による歩行移動しながらの撮像画像の取得を行いつつ、ステップQ04〜Q10の処理を繰り返して、逐次に撮像されて取得される多数の画像データを用いた検索対象物の検索処理作動を行なって、検索結果情報を検索結果記憶手段66へ記憶蓄積させる処理を、タイムアップに至るまで継続して実行する。 If it is determined in step Q08 that the search process has been executed for all types of search objects, the process proceeds to step Q10, and it is determined whether or not the imaging and search operations by the patrol movement have been completed due to time-up or the like. Before the time is up, the search target object using a large number of image data that are sequentially imaged and acquired by repeating the processes of steps Q04 to Q10 while acquiring the captured image while walking and moving by the patrol operation. The search processing operation is performed, and the process of storing and storing the search result information in the search result storage means 66 is continuously executed until the time is up.

このような事前検索処理作動130が少なくとも一回実施された後、検索報知処理作動132が実行される。なお、事前検索処理作動130は、検索報知処理作動132が実行されなくても、所定時間をおいて繰り返し実行されて、各実行ごとに検索結果が検索結果記憶手段64に記憶され得る。 After such a pre-search processing operation 130 is executed at least once, the search notification processing operation 132 is executed. The pre-search processing operation 130 may be repeatedly executed after a predetermined time even if the search notification processing operation 132 is not executed, and the search result may be stored in the search result storage means 64 for each execution.

検索報知処理作動132は、図8(II)に示されるように、ステップR01で記憶された撮像画像データによる捜し物の検索処理が実行されると、ステップR02において、例えば外部からの音声やタッチパネル等による入力により、検索対象物を具体的に特定した検索指令信号が入力されたことを契機として、捜し物の検索結果の報知処理が開始される。 As shown in FIG. 8 (II), when the search processing for the searched object by the captured image data stored in step R01 is executed, in step R02, for example, an external voice, a touch panel, or the like is executed. With the input of the search command signal that specifically identifies the search target, the notification processing of the search result of the search object is started.

すなわち、ステップR03において、指定された検索対象物について、検索結果記憶手段66の記憶情報のなかから、マッチングした撮像画像を選択して抽出する。 That is, in step R03, the matched captured image is selected and extracted from the stored information of the search result storage means 66 for the designated search target.

そして、ステップR04において、マッチングした撮像画像の存否が判定され、マッチングした撮像画像があった場合には、ステップR05に進んで、かかるマッチングした撮像画像を、それと関連付けられたタイムデータと共に、モニタ手段52に表示して、終了する。なお、マッチングした撮像画像が見つからなかった場合には、ステップR05を経ることなく、終了する。かかる終了に際しては、マッチングした撮像画像が見つからなかった旨を、モニタ手段52に表示しても良い。 Then, in step R04, the existence or nonexistence of the matched captured image is determined, and if there is a matched captured image, the process proceeds to step R05 to monitor the matched captured image together with the time data associated therewith. Display on 52 and finish. If the matched captured image is not found, the process ends without going through step R05. At the end of this, the monitoring means 52 may indicate that the matched captured image was not found.

このような図8に示す検索処理作動では、撮像画像を用いて各検索対象物の検索作動までが予め処理完了され得ることから、捜し物を具体的に特定した検索指令信号が入力されてから検索結果を報知するまでの検索報知処理作動132が、前述の図7に示す検索処理作動よりも一層簡略化されてより速やかに実行可能とされ得る。 In such a search processing operation shown in FIG. 8, since the processing up to the search operation of each search target can be completed in advance using the captured image, the search is performed after the search command signal specifically specifying the search object is input. The search notification processing operation 132 until the result is notified can be further simplified and executed more quickly than the search processing operation shown in FIG. 7 described above.

なお、図7に示す検索処理作動と図8に示す検索処理作動との中間的な検索処理作動も採用可能である。即ち、図7(I)に示す画像データ取得処理作動120を行なって多数の撮像画像を撮像画像情報記憶手段64へ記憶蓄積した後に、かかる撮像画像情報記憶手段64に記憶された画像データを対象として、図8(I)のステップQ04〜Q08の如き検索処理を、各画像データに対して順次に実行し、かかる検索処理で得られたマッチングした撮像画像の情報を検索結果記憶手段66に記憶させておく。そして、捜し物を具体的に特定した検索指令信号が入力された場合には、かかる検索結果記憶手段66の記憶情報を用いて、図8(II)に示す処理を実行することで、検索することが可能である。このような検索処理作動によれば、歩行移動しつつ、逐次に取得される撮像画像と検索対象物の画像情報とのマッチング処理を行なう必要がなくなり、歩行移動しつつの撮像画像の取得の後、記憶蓄積された撮像画像を用いた画像データのマッチング処理による検索作動を行なわせることができることから、CPUの負荷を分散させたり、高性能なCPUでなくとも多くの撮像画像を対象とした検索処理の実行が可能になったりする。 An intermediate search processing operation between the search processing operation shown in FIG. 7 and the search processing operation shown in FIG. 8 can also be adopted. That is, after performing the image data acquisition processing operation 120 shown in FIG. 7 (I) and storing and accumulating a large number of captured images in the captured image information storage means 64, the image data stored in the captured image information storage means 64 is targeted. As a result, the search processing as in steps Q04 to Q08 of FIG. 8 (I) is sequentially executed for each image data, and the information of the matched captured image obtained by the search processing is stored in the search result storage means 66. Let me do it. Then, when a search command signal specifically specifying the searched object is input, the search is performed by executing the process shown in FIG. 8 (II) using the stored information of the search result storage means 66. Is possible. According to such a search processing operation, it is not necessary to perform matching processing between the captured images sequentially acquired and the image information of the search target object while walking and moving, and after the acquisition of the captured images while walking and moving. Since it is possible to perform a search operation by matching images of image data using stored images, it is possible to distribute the load on the CPU and search for many captured images even if it is not a high-performance CPU. It becomes possible to execute the process.

また、本実施形態の捜し物ロボット10は、人認識手段90と人追従制御手段94を備えており、それらを利用することで、検索対象物の検出情報をより効率的に取得して記憶させておくことも可能になる。かかる検索対象物を携行する人を認識することで、検索対象物を効率的に検索する処理の一例が、図9〜10に示されている。 Further, the search object robot 10 of the present embodiment includes a human recognition means 90 and a human follow-up control means 94, and by using them, the detection information of the search target object can be acquired and stored more efficiently. It will also be possible to keep it. An example of a process of efficiently searching for a search target by recognizing a person carrying the search target is shown in FIGS. 9 to 10.

すなわち、図9中、ステップT01において、人の携行検索処理作動140が実行されると、先ず、ステップT02において、人の存否を判定する。そして、人の存在が確認された場合には、ステップT03に進み、撮像カメラ(撮像手段46)による画像データの取得が開始される。 That is, in FIG. 9, when the carrying search processing operation 140 of a person is executed in step T01, first, in step T02, the presence or absence of a person is determined. Then, when the existence of a person is confirmed, the process proceeds to step T03, and acquisition of image data by the image pickup camera (imaging means 46) is started.

なお、人の存否は、例えばマイク手段50で取得される音声信号の有無や、別途の赤外線受光素子による赤外線の動きの有無などで判定することができる。その他、例えば撮像手段46で取得された撮像画像を対象として、人認識手段90で当該画像中における人の存否を判定することも可能である。撮像画像で人の存否を認識する場合には、ステップT02に先立ってステップT03が実行されて、撮像カメラによる撮像が開始されるようにする。 The presence or absence of a person can be determined, for example, by the presence or absence of an audio signal acquired by the microphone means 50, the presence or absence of movement of infrared rays by a separate infrared light receiving element, and the like. In addition, for example, it is also possible to determine the presence or absence of a person in the image by the person recognition means 90 for the captured image acquired by the image pickup means 46. When recognizing the presence or absence of a person from the captured image, step T03 is executed prior to step T02 so that imaging by the imaging camera is started.

そして、ステップT04において撮像カメラから画像データが取得されると、ステップT05に進み、当該画像データを一時記憶のバッファに記憶させる。続くステップT06において、バッファに記憶された撮像画像の画像データと、検索情報記憶手段62に検索対象物の検索情報として記憶された画像データとのマッチング処理により、撮像画像中において、検索対象物が、画像認識された人によって携行されているか否かを、画像処理によって判定する。かかる判定は、例えば画像認識された「人」と「検索対象物」との相対的な位置関係によって行なうことができる。 Then, when the image data is acquired from the imaging camera in step T04, the process proceeds to step T05, and the image data is stored in the temporary storage buffer. In the following step T06, the image data of the captured image stored in the buffer and the image data stored as the search information of the search target in the search information storage means 62 are matched, so that the search target is displayed in the captured image. , Whether or not it is carried by an image-recognized person is determined by image processing. Such a determination can be made, for example, by the relative positional relationship between the image-recognized "person" and the "search object".

かかる判定の結果、検索対象物の人による携行が認められなかった場合には、ステップT07からNOに進んで、ステップT02〜T07を繰り返し実行することで、検索対象物の人による携行を常時確認する処理を継続する。 As a result of such determination, if the person carrying the search target is not recognized, the person carrying the search target is constantly confirmed by proceeding from step T07 to NO and repeatedly executing steps T02 to T07. Continue the process.

一方、かかる判定の結果、例えば図10に示されているように、検索対象物の一つであるリモコン装置102が人の手で把持されていると認定されたり、携行対象物の一つである眼鏡104が人の顔部分に装着されていると認定されたりすることにより、検索対象物が人142によって携行されていると判定された場合には、ステップT07からYESに進む。このようにして、携行検出手段82が構成されている。かかるステップT08では、人追従制御手段94として、当該人142の移動に追従するように、捜し物ロボット10が移動制御される。 On the other hand, as a result of such determination, for example, as shown in FIG. 10, it is recognized that the remote control device 102, which is one of the search objects, is held by a human hand, or is one of the items to be carried. If it is determined that the search object is carried by the person 142 by recognizing that the spectacles 104 are worn on the face of the person, the process proceeds from step T07 to YES. In this way, the carrying detection means 82 is configured. In step T08, the search object robot 10 is movement-controlled as the person-following control means 94 so as to follow the movement of the person 142.

なお、捜し物ロボット10における人の追従作動は、例えば人追従制御手段94により、撮像手段46で取得される撮像画面の中に対象となる人の存在が維持されるように、当該人の撮像画面内での移動方向に従って移動手段44を作動制御せしめることによって実行され得る。 It should be noted that the tracking operation of the person in the search object robot 10 is such that the presence of the target person is maintained in the imaging screen acquired by the imaging means 46 by, for example, the human tracking control means 94. It can be executed by controlling the operation of the moving means 44 according to the moving direction within.

また、かかる人の追従作動と共に連続的な撮像作動が実行されることとなり、それと並行して、ステップT09において、検索対象物102,104の人142による携行が継続しているか否かが、連続的に判定される。 Further, a continuous imaging operation is executed together with the follow-up operation of the person, and in parallel with this, in step T09, it is continuously determined whether or not the person 142 of the search target objects 102 and 104 continues to carry. Is judged.

そして、かかるステップT09において、人142が検索対象物102,104を手放したり、外したりすることで、人による携行が中止されたと判定された場合には、ステップT10に進み、当該時点において撮像手段46で撮像されて取得された撮像画像のデータを取得し、かかるデータをタイムデータと関連付けて、検索結果記憶手段66へ記憶する。このようにして、携行中止位置検出手段84が構成されている。 Then, in step T09, if it is determined that the person 142 has released or removed the search objects 102 and 104 and the carrying by the person has been stopped, the process proceeds to step T10, and the imaging means at that time. The data of the captured image captured and acquired by the 46 is acquired, the data is associated with the time data, and the data is stored in the search result storage means 66. In this way, the carrying stop position detecting means 84 is configured.

このようにして人による携行の中止が検出された際の撮像画像のデータは、該当する検索対象物102,104の検索を指定する検索指令信号が入力された際に、モニタ手段52に表示するようにされる。これにより、当該検索対象物102,104を置いた近しい時の場所や日時を、ユーザーに思い起こさせて、当該検索対象物102,104を探す有力な手がかりを与えることが可能になる。 The data of the captured image when the suspension of carrying by a person is detected in this way is displayed on the monitoring means 52 when the search command signal for designating the search of the corresponding search objects 102 and 104 is input. To be done. This makes it possible to remind the user of the location and date and time when the search target objects 102 and 104 are placed close to each other, and to give a powerful clue to search for the search target objects 102 and 104.

特に、捜し物の位置は人の携行によって変化することから、人認識手段90や人追従制御手段94などで、検索対象物を携行する人に着目して撮像することで、検索対象物の場所を効率的に検出し、その検索用の情報を記憶させておくことが可能になる。 In particular, since the position of the search object changes depending on the carrying of the person, the location of the search target can be determined by focusing on the person carrying the search target with the person recognition means 90, the person tracking control means 94, or the like. It becomes possible to detect efficiently and store the information for the search.

なお、人認識手段90において、個人を識別して特定する個人特定手段92を併せて採用することも可能である。個人特定手段92は、例えば人の外観上の特徴から、個人を特定する画像処理によって実現され得る。個人を特定して、上述の携行検出手段82または携行中止位置検出手段84の如き人の携行による検索対象物の移動を検出して記憶させると共に、個人識別情報としての個人を特定する情報もタイムデータと関連付けて記憶させ、検索結果として併せて報知することで、特定の人に対して、検索対象物を移動させたことを一層容易に思い起こさせることも可能になる。このようにして、携行人記憶手段68が構成されている。 In addition, in the person recognition means 90, it is also possible to employ the personal identification means 92 for identifying and identifying an individual. The personal identification means 92 can be realized by image processing for identifying an individual, for example, from the appearance characteristics of a person. An individual is identified, and the movement of the search target object carried by a person such as the carrying detection means 82 or the carrying stop position detecting means 84 described above is detected and stored, and the information for identifying the individual as personal identification information is also timed. By storing it in association with the data and notifying it as a search result, it is possible to more easily remind a specific person that the search target has been moved. In this way, the carrier memory means 68 is configured.

ところで、本発明の捜し物ロボット10では、上述の如き構成に対して更に付加的構成を採用することも可能である。例えば、GPS(グローバル ポジショニング システム)の受信装置を装備させることで、絶対的に位置座標を取得し、かかる位置座標を利用して、移動手段44の制御を実行したり、検索対象物の検索結果としての位置情報をより具体的に報知したりすることも可能である。 By the way, in the search object robot 10 of the present invention, it is possible to further adopt an additional configuration with respect to the configuration as described above. For example, by equipping a GPS (Global Positioning System) receiver, the position coordinates are absolutely acquired, and the position coordinates are used to control the moving means 44 or search results of the search target. It is also possible to more specifically notify the position information as.

また、図11に例示されているように、住宅150の中において、天井や壁などに固定的に設置されたカメラなどの固定撮像手段152を、付加的に備えていても良い。特に高所に設置される固定撮像手段152による撮像画像のデータを、捜し物ロボット10に装備される撮像手段46と併せて採用し、得られた撮像画像を用いて検索対象物の検索処理を実行することにより、撮像画像における死角を減少させて捜し物の検出効率をあげることができる。なお、住宅内における同じエリア内で或いは区分された異なるエリア内で、複数台の捜し物ロボット10を同時に利用することも可能であり、その場合には、複数台の捜し物ロボット10における情報を、無線送受信などによって共有化させたり、捜し物検索の作動のロードを分担処理させることなども可能である。 Further, as illustrated in FIG. 11, in the house 150, a fixed imaging means 152 such as a camera fixedly installed on a ceiling, a wall, or the like may be additionally provided. In particular, the data of the image captured by the fixed image pickup means 152 installed at a high place is adopted together with the image pickup means 46 equipped on the search object robot 10, and the search process of the search target is executed using the obtained captured image. By doing so, it is possible to reduce the blind spot in the captured image and improve the detection efficiency of the searched object. It is also possible to use a plurality of hunting robots 10 at the same time in the same area in the house or in different divided areas. In that case, the information in the plurality of hunting robots 10 can be wirelessly transmitted. It is also possible to share by sending and receiving, or to share the load of the search operation operation.

また、図11に示されているように、住宅の複数箇所に特定の電磁波などを発する基準位置発信手段154を装備すると共に、捜し物ロボット10に対して受信手段156を装備させることにより、複数の基準位置発信手段154からの相対的な位置関係をもって、捜し物ロボット10の具体的な位置を特定可能にすることも可能である。このような位置検出手段としての位置特定手段を採用すれば、捜し物ロボット10の移動制御をより効率的に実施することも可能になる。また、捜し物ロボット10を基準として検出された検索対象物の位置情報を、一層的確に報知させることも可能になる。前述のGPSは住宅内、特に鉄筋コンクリートなどの住宅内では、受信電波の状況が充分に安定して確保しがたいことから、図11の如き位置特定手段による位置制御が有利な場合もある。 Further, as shown in FIG. 11, by equipping a plurality of places in the house with reference position transmitting means 154 that emits a specific electromagnetic wave or the like and equipping the search robot 10 with receiving means 156, a plurality of receiving means 156 are provided. It is also possible to make it possible to specify the specific position of the search object robot 10 by the relative positional relationship from the reference position transmitting means 154. If the position specifying means as such a position detecting means is adopted, it is possible to more efficiently control the movement of the search object robot 10. In addition, it is possible to more accurately notify the position information of the search target object detected with the search object robot 10 as a reference. Since it is difficult to secure a sufficiently stable condition of received radio waves in a house, particularly in a house such as reinforced concrete, the above-mentioned GPS may be advantageous in position control by a position specifying means as shown in FIG.

さらに、前述の実施形態では、画像データに基づく検索処理が採用されていたが、それに代えて又は加えて、IDタグによる検索処理を採用することも可能である。例えば図12に例示されているように、検索対象物102に対して、それぞれ特定可能な無線IDタグとしてのIDタグ160を付しておく一方、捜し物ロボット10において、該IDタグ160と無線通信を行なうIDタグ検知手段162を装備させる。そして、捜し物ロボット10により、IDタグ検知手段162で検出されたIDタグ160の検出情報を、予めIDタグ情報記憶手段164に記憶された対応付け情報を用いて検索することで、目的とする検索対象物の存否や位置を検出することができる。なお、ブルートゥース(登録商標)などの無線を利用してIDタグ160を検索する際には、IDタグ160の見通しが悪いことなどで検知エリアが狭い状況でも、捜し物ロボット10が移動することから検出が可能となる。また、IDタグ160の検知可否を、捜し物ロボット10の複数位置で確認したり、捜し物ロボット10の特定方向への移動に伴うIDタグ160の検知状況の変化を検知して、それらの情報を総合的に考慮する演算処理を実行することでIDタグ160の位置を絞り込むことも可能となる。 Further, in the above-described embodiment, the search process based on the image data has been adopted, but instead of or in addition, the search process based on the ID tag can be adopted. For example, as illustrated in FIG. 12, an ID tag 160 as a identifiable wireless ID tag is attached to each of the search target objects 102, while the search object robot 10 wirelessly communicates with the ID tag 160. The ID tag detecting means 162 for performing the above is equipped. Then, the search object robot 10 searches for the detection information of the ID tag 160 detected by the ID tag detection means 162 by using the association information stored in advance in the ID tag information storage means 164, thereby performing a target search. It is possible to detect the existence and position of an object. When searching for the ID tag 160 using wireless such as Bluetooth (registered trademark), the search robot 10 moves even if the detection area is narrow due to poor visibility of the ID tag 160. Is possible. In addition, whether or not the ID tag 160 can be detected is confirmed at a plurality of positions of the search object robot 10, and changes in the detection status of the ID tag 160 due to the movement of the search object robot 10 in a specific direction are detected, and the information is integrated. It is also possible to narrow down the position of the ID tag 160 by executing the arithmetic processing to be considered.

また、このようにして検出された検索結果は、IDタグ160で特定される検索対象物の種別や位置、タイムデータなどと併せて、検索結果記憶手段66に記憶させておくことで、前述の実施形態と同様に、具体的な検索対象物を特定した捜し物の検索指令信号が入力された場合には、検索結果記憶手段66の記憶情報を利用して、該当する検索対象物の位置情報を報知することが可能となる。IDタグを用いれば、例えば新聞などで覆われた状態の捜し物も検索することが可能になる。また、本発明では、かかるIDタグとしてGPS受信ユニットを備えたものを採用することも可能であり、それによって、例えばGPSユニットで取得した位置情報に基づいて、アクティブ型IDタグがID情報と共に無線信号として捜し物ロボット10が備えるリーダーへ送信することも可能になる。 Further, the search result detected in this way is stored in the search result storage means 66 together with the type and position of the search target object specified by the ID tag 160, the time data, and the like, as described above. Similar to the embodiment, when a search command signal for a search object that specifies a specific search object is input, the position information of the corresponding search object is obtained by using the stored information of the search result storage means 66. It becomes possible to notify. By using the ID tag, it is possible to search for a search object covered with newspapers, for example. Further, in the present invention, it is also possible to adopt an ID tag provided with a GPS receiving unit, whereby, for example, based on the position information acquired by the GPS unit, the active ID tag is wirelessly provided with the ID information. It is also possible to transmit the signal as a signal to the reader included in the search robot 10.

更にまた、図2に例示されるように、捜し物ロボット10において、無線送受信手段170を装備させることもできる。かかる無線送受信手段170によれば、例えばモニタ手段52に代えて、外部のテレビ受像機に検索結果を表示させることも可能であるし、また、内蔵型の記憶手段42に代えて又は加えて外部に固定設置されたより大容量の記憶手段を採用することも可能である。なお、このような無線送受信手段170を採用することにより、前述の固定撮像手段152による撮像画像のデータを適宜に捜し物ロボット10へ送信させて、捜し物ロボット10の撮像手段46で取得されたデータと併せて処理することも容易となる。 Furthermore, as illustrated in FIG. 2, the search object robot 10 can be equipped with the wireless transmission / reception means 170. According to the wireless transmission / reception means 170, for example, the search result can be displayed on an external television receiver instead of the monitor means 52, and the search result can be displayed in place of or in addition to the built-in storage means 42. It is also possible to adopt a larger capacity storage means fixedly installed in the. By adopting such a wireless transmission / reception means 170, the data of the image captured by the fixed imaging means 152 described above is appropriately transmitted to the search object robot 10, and the data acquired by the image pickup means 46 of the search object robot 10 is used. It also becomes easy to process at the same time.

また、図2に例示されるように、捜し物ロボット10において、レーザーなどを利用した距離検出手段172を装備させることもできる。かかる距離検出手段172によれば、例えば画像認識された検索対象物までの距離を距離検出手段172で測定し、測定結果としての距離を外部に報知することで、ユーザーによる捜し物をより効率的に補助することが可能になる。 Further, as illustrated in FIG. 2, the search object robot 10 can be equipped with a distance detecting means 172 using a laser or the like. According to the distance detecting means 172, for example, the distance to the image-recognized search object is measured by the distance detecting means 172, and the distance as the measurement result is notified to the outside, so that the user can search for the object more efficiently. It becomes possible to assist.

その他、捜し物ロボット10は、4足や2足による歩行型の移動手段の他、回転式のタイヤなどによる移動手段や、クローラタイプの移動手段なども適宜に採用可能である。各種の移動手段は、捜し物ロボット10が移動する環境を考慮して、例えば段差の有無や階段の有無、障害物の程度などを考慮して、適宜に採用され得る。 In addition, the search robot 10 can appropriately adopt a walking means using four or two legs, a moving means using rotary tires, a crawler type moving means, and the like. Various means of transportation can be appropriately adopted in consideration of the environment in which the search object robot 10 moves, for example, in consideration of the presence / absence of steps, the presence / absence of stairs, the degree of obstacles, and the like.

また、本発明において採用される撮像手段や作動プログラムを含む制御手段は、特に限定されるものでなく、汎用的なものも実用レベルで採用できる。因みに、捜し物ロボット10に装備できる程度のカメラサイズで、画像データのパターンマッチングの処理の高速な実行機能を備えた処理システムが、現在の技術でも実現可能であることは、例えば既に市販されているコグネックス社(Cognex Corporation)の商品名である「インサイト マイクロ 8000シリーズ」(In−Sight Micro 8400等) を考慮すれば理解されるところである。 Further, the control means including the imaging means and the operation program adopted in the present invention is not particularly limited, and general-purpose ones can also be adopted at a practical level. By the way, it is already commercially available, for example, that a processing system having a camera size that can be equipped on the search object robot 10 and having a high-speed execution function of image data pattern matching processing can be realized even with the current technology. It can be understood by considering the "Insight Micro 8000 Series" (In-Image Micro 8400, etc.), which is the trade name of Cognex Corporation.

更にまた、画像処理分野において近年に実用化が進んでいるディープラーニングの処理技法を用いた人工知能の分野でのマッチング処理、例えば大域特徴と局所特徴の学習による画像の認識処理なども採用することが可能であり、それによって、より的確な検索対象物の検出作動が実現可能となる。
また、本発明において外部からの各種指令信号等を入力、受信するに際しては、タッチスイッチ等を用いる他、マイク手段50から入力される音声を公知の言語認識ソフト等を用いてCPU40により処理することで、外部入力を音声で認識させることも可能である。このように、本発明では、マイク手段50や音声認識ソフトで作動するCPU40等を含んで指令受信手段および音声認識手段が構成されて、利用され得る。
Furthermore, matching processing in the field of artificial intelligence using deep learning processing techniques, which have been put into practical use in recent years in the field of image processing, for example, image recognition processing by learning global features and local features, should be adopted. This makes it possible to realize a more accurate detection operation of the search target object.
Further, in the present invention, when inputting and receiving various command signals from the outside, a touch switch or the like is used, and the voice input from the microphone means 50 is processed by the CPU 40 using a known language recognition software or the like. It is also possible to recognize the external input by voice. As described above, in the present invention, the command receiving means and the voice recognition means can be configured and used including the microphone means 50, the CPU 40 operated by the voice recognition software, and the like.

さらに、具体的な検索処理は前述の実施形態に限定されるものでなく、各種の検索処理が採用され得る。例えば、記憶蓄積された撮像画像を用いた画像データのマッチング処理による検索作動を実行するに際しても、異なる日時で略同じ位置から撮像された画像を比較処理して、相違するピクセルだけを抽出することで、例えばベッドやソファー、テレビなどの略定位置に置かれた物の画像情報を除外し、動かされたリモコン装置や新たに置かれた眼鏡などの捜し物の対象とされる可能性が高い物を効率的に認識させることも可能である。そして、そのように異なる時刻で取得された撮像画像間で変化した部分を画像としてユーザーに外部表示させるだけで、捜し物の検索情報を提示することも可能であるし、更にかかる変化した部分から画像のマッチング処理によって特定の捜し物(検索対象物)の存在を確認させるようにすることも可能である。 Further, the specific search process is not limited to the above-described embodiment, and various search processes can be adopted. For example, when performing a search operation by matching image data using stored images, comparison processing of images captured from substantially the same position at different dates and times is performed to extract only different pixels. So, for example, the image information of objects placed in a fixed position such as beds, sofas, and TVs is excluded, and there is a high possibility that they will be targeted for search objects such as moved remote controls and newly placed glasses. It is also possible to make them recognize efficiently. Then, it is possible to present the search information of the searched object only by externally displaying the changed portion between the captured images acquired at different times as an image to the user, and further, the image from the changed portion. It is also possible to confirm the existence of a specific search object (search target object) by the matching process of.

また、本発明においては、捜し物ロボット10に関するユーザーへのサービスを、会員制度をもって提供することも可能であり、それによって継続した保守や管理の他、一層充実した利便性を提供することもできる。具体的には、ソフトウェアやハードウェアの点検や修理を、会員制度をもって、定期的に又は必要に応じて提供するサービスを実施することが可能である。 Further, in the present invention, it is possible to provide a service to the user regarding the search object robot 10 with a membership system, whereby it is possible to provide further enhanced convenience in addition to continuous maintenance and management. Specifically, it is possible to provide services that provide software and hardware inspections and repairs on a regular basis or as needed with a membership system.

具体的には、例えば使用してきた愛着のある捜し物ロボット10について、引っ越しや住宅立て替えなどに対応して、適合した移動手段となるようにハードウェアの一部を交換するサービスの他、使用期間に応じて次第に成長して大型化するようにハードウェアの一部又は全部を交換するサービスを提供することも可能である。また、使用してきた愛着のある捜し物ロボット10について、外観を維持しつつ制御系のCPUなどのハードウェアを交換して処理速度の向上を図ったり、ソフトウェアを変更して必要な機能を適宜に追加又は削除することで、環境等の変化に対応した都度のオリジナル化を実現することも可能である。 Specifically, for example, for the search robot 10 that has been used for a long time, in addition to the service of exchanging a part of the hardware so as to be a suitable means of transportation in response to moving or rebuilding a house, during the period of use. It is also possible to provide a service that replaces part or all of the hardware so that it grows and grows in size accordingly. In addition, for the hunting robot 10 that has been used, the processing speed can be improved by replacing hardware such as the control system CPU while maintaining the appearance, or the software can be changed to add necessary functions as appropriate. Alternatively, by deleting it, it is possible to realize the originalization each time in response to changes in the environment and the like.

或いは、会員制度をもってクラウドシステム等による記憶手段の提供を利用可能とし、例えば前述の無線送受信手段170を介して、インターネット上のサーバーシステムなどに常時接続することなども可能である。これにより、例えば移動する捜し物ロボット10で得られる撮像画像を、連続的に一週間や一ヶ月などの比較的に長期間に亘って外部の記憶手段に記憶させておくことも可能になり、外部の記憶手段に記憶した画像データを適宜に利用して、捜し物の探知を実行等させることも可能となる。 Alternatively, the membership system makes it possible to use the provision of storage means by a cloud system or the like, and for example, it is possible to always connect to a server system or the like on the Internet via the wireless transmission / reception means 170 described above. As a result, for example, the captured image obtained by the moving search robot 10 can be continuously stored in an external storage means for a relatively long period of time such as one week or one month, and is external. It is also possible to appropriately detect the searched object by appropriately using the image data stored in the storage means of the above.

なお、会員制の管理システムとしては、捜し物ロボット10のユーザー毎について、個人を特定できる氏名や住所などの情報を含む単なる会員登録だけでサービスを提供することも可能であるが、定期的又は一時的な会員料金の支払いを条件としてサービスを提供するようにしても良い。会員料金の支払いおよびサービス提供の管理システムは、例えば本出願人が特開2010−205294号公報などで提示したコンタクトレンズを提供するための会員制度であって、定期的な会員料金の支払いを要件として会員サービスを提供する管理システムなどを利用することも可能である。 As a membership-based management system, it is possible to provide a service for each user of the search robot 10 by simply registering as a member, including information such as a name and address that can identify an individual, but it is regular or temporary. The service may be provided on condition that the membership fee is paid. The membership fee payment and service provision management system is, for example, a membership system for providing contact lenses presented by the applicant in Japanese Patent Application Laid-Open No. 2010-205294, and requires regular payment of membership fees. It is also possible to use a management system that provides membership services.

その他、一々列挙はしないが、本発明は、当業者の知識に基づいて種々なる変更,修正,改良等を加えた態様において実施され得るものであり、また、そのような実施態様が、本発明の趣旨を逸脱しない限り、何れも、本発明の範囲内に含まれるものであることは、言うまでもない。
また、本発明は、もともと以下(i)〜(xv)に記載の各発明を何れも含むものであり、その構成および作用効果に関して、付記しておく。
本発明は、
(i) 住宅内を移動可能とする移動手段と、検索対象物を識別する検索情報を記憶する検索情報記憶手段と、前記検索情報に基づいて前記検索対象物を検索して、該検索対象物の位置情報を取得する検索手段と、前記検索対象物の検索作動を指令する検索指令信号を受信する指令受信手段と、該指令受信手段で受信された前記検索指令信号により、前記検索手段で取得された前記検索対象物の前記位置情報を外部に報知する検索結果報知手段とを、含むことを特徴とする捜し物ロボット、
(ii) 前記検索対象物の前記検索情報が検索画像情報とされていると共に、
撮像手段を備えており、前記検索手段において、該撮像手段で撮影された画像について該検索画像情報によるマッチング処理に基づいて該検索対象物を検索する(i)に記載の捜し物ロボット、
(iii) 前記検索手段における前記検索対象物の位置情報が、前記撮像手段によって取得された撮像画像情報である(ii)に記載の捜し物ロボット、
(iv) 前記検索手段によって得られた前記検索対象物の位置情報をタイムデータと関連付けて記憶する検索結果記憶手段を有している(i)〜(iii)の何れか一項に記載の捜し物ロボット、
(v) 前記住宅内を定期的又は不定期な時間間隔で巡回するように前記移動手段を作動制御する巡回移動制御手段を有していると共に、
該巡回移動制御手段による巡回中に、前記検索情報記憶手段に記憶された前記検索情報に基づいて前記検索対象物を検索して該検索対象物の位置情報を取得し、取得した該検索対象物の位置情報をタイムデータと関連付けして前記検索結果記憶手段に記憶する(iv)に記載の捜し物ロボット、
(vi) 人を認識する人認識手段を備えていると共に、前記検索手段が、該人認識手段で検出された人が前記検索対象物を携えていることを検出する携行検出手段と、該人が該検索対象物の携行を止めたことが該携行検出手段によって検出された際に該検索対象物の位置情報を取得する携行中止位置検出手段とを、含んでいる(i)〜(v)の何れか一項に記載の捜し物ロボット、
(vii) 前記携行検出手段で検出された、前記検索対象物を携行している人を追従するように前記移動手段を作動制御する人追従制御手段を有している(vi)に記載の捜し物ロボット、
(viii) 前記人認識手段が、個人を識別して特定する個人特定手段を含んでいると共に、前記携行検出手段と前記携行中止位置検出手段との少なくとも一方が、前記検索対象物を携行した人又は携行を中止した人を該個人特定手段で特定した個人識別情報をタイムデータと関連付けて記憶する携行人記憶手段を含んでいる(vi)又は(vii)に記載の捜し物ロボット、
(ix) 前記検索対象物の前記検索情報が、無線IDタグとされていると共に、 前記検索手段が、該無線IDタグと無線通信を行なうIDタグ検知手段を含んでいる(i)〜(viii)の何れか一項に記載の捜し物ロボット、
(x) 前記指令受信手段が音声認識手段を含んでいる(i)〜(ix)の何れか一項に記載の捜し物ロボット、
(xi) 前記検索結果報知手段がモニタ手段を含んでいる(i)〜(x)の何れか一項に記載の捜し物ロボット、
(xii) 前記検索対象物の前記検索情報が検索画像情報とされていると共に、前記住宅内に固定的に設置された固定撮像手段を有しており、前記検索手段において、該固定撮像手段で撮影された画像について該検索画像情報によるマッチング処理に基づいて該検索対象物を検索する(i)〜(xi)の何れか一項に記載の捜し物ロボット、
(xiii) 前記検索対象物までの距離を計測する距離検出手段を備えている(i)〜(xii)の何れか一項に記載の捜し物ロボット、
(xiv) 前記住宅内での位置を検出する位置検出手段を備えている(i)〜(xiii)の何れか一項に記載の捜し物ロボット、
(xv) 生物の擬似的な外観を備えている(i)〜(xiv)の何れか一項に記載の捜し物ロボット、
に関する発明を含む。
上記(i)に記載の発明では、検索手段(C)を備えていると共に、移動手段(A)によって住宅内を移動する。それ故、例えば捜し物をする人が検索手段を携えて住宅内を歩き回らなくとも、検索手段を備えた捜し物ロボットそのものが住宅内を移動して検索対象物を検索し得る。その結果、仮に検索手段の位置から検索対象物を検索可能な距離範囲が限られていても、捜し物ロボットの移動に伴って検索手段そのものが住宅内を移動することで、捜し物をする人がわざわざ歩きまわらずとも、広い範囲で捜し物を容易に検索することが可能になる。
上記(ii)に記載の発明では、画像処理としてのマッチング処理により、検索対象物を検索することが可能になる。それ故、IDタグなどを予め検索対象物に付しておく必要がないことから、IDタグを付すことが難しい物、例えば眼鏡なども、検索対象物とすることができる。また、各検索対象物毎にIDタグなどを付す必要がないことから、検索対象物を増やす場合でも、装置の付加やそれに伴う費用の負担も回避することが可能になり、複数の検索対象物を設定することも容易となる。
上記(iii)に記載の発明では、捜し物が存在する位置である検索対象物の位置情報を、捜し物をしている人に対して効率的に提示することが可能になる。すなわち、捜し物の対象エリアは捜し物をする人が良く知っている住宅内であることから、特定方向に向けて撮像された撮像画像情報を提示することにより、それを見た人は、画像で指摘された場所を容易に認識することができ、当該場所に行き、限られた場所内で検索対象物を効率的に探すことが可能になる。また、このように撮像画像情報により、検索対象物の位置情報を提示することで、GPS測位システムを利用しなくても検索対象物の位置を特定して示すことが可能になる。
上記(iv)に記載の発明では、検索結果記憶手段(G)に記憶された検索対象物の検索結果を、例えば指令受信手段(D)で検索作動の指令を受けた際に提示することにより、直ちに直前の検索結果を提示することも可能となる。また、検索手段(C)による検索の結果、検索対象物が見つけられなかった場合でも、直近で確認し得た検索対象物の位置情報を、かかる検索結果記憶手段(G)の記憶情報から、検出時間情報と共に提示することで、過去の情報からその後の検索対象物の位置を想起させる手助けをすることも可能になる。更にまた、前記(ii)の態様において画像のマッチング処理に基づいて検索対象物を検索する場合に、検索対象物の上に物が置かれて見えない状況では検索が難しくなるが、本態様に係る捜し物ロボットにおいて、上に物が置かれる前の状況で取得された撮像画像をタイムデータと関連付けて記憶しておき、検索作動の指令を受けた際に、かかる撮像画像をタイムデータと共に提示することで、置かれた物の下に検索対象物が存在する可能性を示唆して、捜し物の手助けをすることも可能になる。
上記(v)に記載の発明では、紛失物を探す必要がない状況下でも、巡回移動制御手段(H)によって巡回して検索対象物の位置情報を検索結果記憶手段(G)に記憶させておくことができる。それ故、例えば指令受信手段(D)で検索作動の指令を受けた際に、最も近い時刻における検索結果を直ちに提示することが可能となる。
上記(vi)に記載の発明では、多くのケースにおいて検索対象物の位置が変化する原因が人が携行することによるものであることを利用して、検索対象物の位置や位置変化を、より効率的に検出し、得られた位置情報を必要に応じて記憶させておくことが可能になる。
上記(vii)に記載の発明では、人による検索対象物の移動後の位置情報を、当該検索対象物を携行している人を追従することで、より効率的に且つ高い確実性をもって、検索手段(C)により取得することが可能になる。
上記(viii)に記載の発明では、検索対象物を携行して場所を移動させたのが誰であるかという個人を特定する情報を提示することも可能となる。それ故、例えば指令受信手段(D)で検索作動の指令を受けた際に、最も近い時刻において当該検索対象物を移動させたのが誰であるかの情報を提示して、かかる該当者の記憶を呼び覚ますことで、紛失物を探す補助をすることなども可能になる。
上記(ix)に記載の発明では、無線IDタグを利用して検索対象物を探すことにより、検索の効率や確実性を向上させることが可能になる。特に無線IDタグは検索可能範囲が比較的に狭いが、移動手段(A)を備えた捜し物ロボットが住宅内を移動することから、無線IDタグを用いた検索範囲が実質的に広く確保され得る。また、無線IDタグは、一般にエリア内の存在を検出するものであるが、移動手段(A)を備えた捜し物ロボットが移動することで、複数位置から無線IDタグの存否を検出することができ、それらの検出情報を相互的に処理することで、検出対象物についてより具体的な位置情報を取得することも可能になる。なお、無線IDタグは、前記検索手段(C)において、例えば前記撮像手段(F)と併せて採用することも可能である。
上記(x)に記載の発明では、操作者が直接に捜し物ロボットに触れることなく、音声で検索の指示をして捜し物の補助作動を行なわしめることが可能になり、利用が容易となる。
上記(xi)に記載の発明では、モニタ手段(Q)によって検察結果を人が容易に認識することが可能になる。具体的には、例えば検索結果として、検索対象物が存在する領域の撮像画像をモニタ手段(Q)に表示させたり、検索対象物が存在する領域を表す文字などをモニタ手段(Q)に表示させることで、検索結果をより効率的に認識可能とすることができる。
上記(xii)に記載の発明では、画像情報を利用して検索を行なうに際して、捜し物ロボットに装備して移動する撮像手段(F)に対して、固定撮像手段(R)により、撮像ポイントを増やしたり、異なる撮像位置からの撮像を可能にしたりすることで、検索効率などを向上させることが可能になる。具体的には、例えば住宅内の部屋の天井から見下ろすように撮像する固定撮像手段(R)を設けることで、死角を減らしたりすることも可能となる。
上記(xiii)に記載の発明では、距離検出手段(S)で検出された値を外部へ報知することにより、検索された対象物の位置をより精度良く特定して、一層効率的に捜し出すように補助することが可能になる。
上記(xiv)に記載の発明では、捜し物ロボットが自身の位置を特定することが可能になることから、例えば移動手段(A)で移動する捜し物ロボットの移動順路をより効率的となるように移動制御したり、移動できていない領域がなくなるように移動制御したりすることも可能になる。また、例えば検索結果報知手段(E)が、検索対象物の存在する位置情報として具体的な部屋の名前や、座標位置などを外部に報知することも可能になる。
上記(xv)に記載の発明では、本態様に係る捜し物ロボットでは、外観的に親しみ易くなり、住宅内を移動していても違和感を抱かせ難くなる。特にペット型ロボットとすることが出来て、生物としてのペットを飼育することが難しい場合でも、ペットと類似の環境を与えることが可能になる。また、ペット型ロボットを提供することにより、ペット産業界で問題となっている動物虐待などの問題の低減にも資することとなる。
In addition, although not listed one by one, the present invention can be implemented in a mode in which various changes, modifications, improvements, etc. are added based on the knowledge of those skilled in the art, and such an embodiment is the present invention. Needless to say, all of them are included in the scope of the present invention as long as they do not deviate from the gist of the present invention.
In addition, the present invention originally includes all of the inventions described in the following (i) to (xv), and the configuration and action / effect thereof will be added.
The present invention
(I) A transportation means that enables movement in a house, a search information storage means that stores search information that identifies a search target, and a search target that is searched for based on the search information, and the search target is searched for. Acquired by the search means by the search means for acquiring the position information of the search object, the command receiving means for receiving the search command signal for instructing the search operation of the search object, and the search command signal received by the command receiving means. A search object robot, which includes a search result notification means for notifying the position information of the search target to the outside.
(Ii) The search information of the search target is used as search image information, and
The search object robot according to (i), wherein the search means is provided with an image pickup means, and the search object is searched for in the search means based on a matching process based on the search image information for an image captured by the image pickup means.
(Iii) The search object robot according to (ii), wherein the position information of the search target object in the search means is the captured image information acquired by the image pickup means.
(Iv) The search object according to any one of (i) to (iii), which has a search result storage means for storing the position information of the search target object obtained by the search means in association with time data. robot,
(V) It has a patrol movement control means for operating and controlling the moving means so as to patrol the inside of the house at regular or irregular time intervals.
During the patrol by the patrol movement control means, the search target is searched based on the search information stored in the search information storage means, the position information of the search target is acquired, and the acquired search target is acquired. The search robot according to (iv), which associates the position information of the robot with the time data and stores it in the search result storage means.
(Vi) A carrying detection means for detecting that a person detected by the person recognition means is carrying the search object, and the person, as well as a person recognition means for recognizing a person. (I) to (v) include carrying stop position detecting means for acquiring the position information of the search target when it is detected by the carrying detecting means that has stopped carrying the search target. The search robot described in any one of the items,
(Vi) The search object according to (vi), which has a person tracking control means for operating and controlling the moving means so as to follow the person carrying the search object, which is detected by the carrying detection means. robot,
(Viii) A person whose personal identification means includes an individual identification means for identifying and identifying an individual, and at least one of the carrying detection means and the carrying stop position detecting means carries the search object. Alternatively, the search robot according to (vi) or (vi), which includes a carrier storage means for storing personal identification information identified by the personal identification means for a person who has stopped carrying the person in association with time data.
(Ix) The search information of the search target is a wireless ID tag, and the search means includes ID tag detecting means for wirelessly communicating with the wireless ID tag (i) to (viii). ), The search robot described in any one of the items,
(X) The search robot according to any one of (i) to (ix), wherein the command receiving means includes a voice recognition means.
(Xi) The search robot according to any one of (i) to (x), wherein the search result notification means includes a monitor means.
(Xii) The search information of the search target is used as search image information, and has a fixed imaging means fixedly installed in the house. In the search means, the fixed imaging means is used. The search robot according to any one of (i) to (xi), which searches the captured image for the search target based on the matching process based on the search image information.
(Xiii) The search robot according to any one of (i) to (xii), comprising a distance detecting means for measuring the distance to the search target.
(Xiv) The search robot according to any one of (i) to (xiii), which comprises a position detecting means for detecting a position in the house.
(Xv) The search robot according to any one of (i) to (xiv), which has a pseudo-appearance of a living thing.
Including inventions related to.
In the invention described in (i) above, the search means (C) is provided, and the moving means (A) is used to move in the house. Therefore, for example, even if the person searching for the object does not walk around the house with the search means, the search object robot itself equipped with the search means can move in the house and search for the search target. As a result, even if the distance range in which the search target can be searched from the position of the search means is limited, the search means itself moves in the house as the search object robot moves, so that the person searching for the object bothered. You can easily search for what you are looking for in a wide range without having to walk.
In the invention described in (ii) above, a search target can be searched by a matching process as an image process. Therefore, since it is not necessary to attach an ID tag or the like to the search target in advance, an object for which it is difficult to attach an ID tag, such as eyeglasses, can also be a search target. In addition, since it is not necessary to attach an ID tag or the like to each search target, even when the number of search targets is increased, it is possible to avoid the additional equipment and the cost burden associated with it, and it is possible to avoid the burden of costs associated with the addition of multiple search targets. It also becomes easy to set.
In the invention described in (iii) above, it is possible to efficiently present the position information of the search target object, which is the position where the search object exists, to the person who is searching for the search object. In other words, since the target area of the search object is inside a house that the person searching for is familiar with, by presenting the captured image information captured in a specific direction, the person who sees it points out in the image. It is possible to easily recognize the location, go to the location, and efficiently search for the search target within the limited location. Further, by presenting the position information of the search target object by the captured image information in this way, it is possible to specify and indicate the position of the search target object without using the GPS positioning system.
In the invention described in the above (iv), the search result of the search object stored in the search result storage means (G) is presented, for example, when the command receiving means (D) receives a command to operate the search. , It is also possible to immediately present the immediately preceding search result. Further, even if the search target is not found as a result of the search by the search means (C), the position information of the search target that can be confirmed most recently is obtained from the stored information of the search result storage means (G). By presenting it together with the detection time information, it is possible to help to recall the position of the search target after that from the past information. Furthermore, when searching for a search object based on the image matching process in the aspect (ii), the search becomes difficult in a situation where the object is placed on the search object and cannot be seen. In the search object robot, the captured image acquired in the situation before the object is placed on the object is stored in association with the time data, and when the search operation command is received, the captured image is presented together with the time data. This also makes it possible to help the search by suggesting that the search target may exist under the placed object.
In the invention described in the above (v), even in a situation where it is not necessary to search for a lost object, the patrol movement control means (H) patrols and stores the position information of the search target object in the search result storage means (G). Can be left. Therefore, for example, when a command for a search operation is received by the command receiving means (D), the search result at the nearest time can be immediately presented.
In the invention described in the above (vi), the position and position change of the search target object can be further changed by utilizing the fact that the cause of the change in the position of the search target object is due to carrying by a person in many cases. It becomes possible to efficiently detect and store the obtained position information as needed.
In the invention described in the above (vii), the position information after the movement of the search target by a person is searched by following the person carrying the search target, so that the search target can be searched more efficiently and with high certainty. It can be obtained by means (C).
In the invention described in the above (viii), it is also possible to present personally identifiable information as to who carried the search object and moved the place. Therefore, for example, when a command for a search operation is received by the command receiving means (D), information on who moved the search object at the nearest time is presented, and the relevant person concerned. By recalling the memory, it becomes possible to assist in finding lost items.
In the invention described in (ix) above, it is possible to improve the efficiency and certainty of the search by searching for the search target using the wireless ID tag. In particular, the searchable range of the wireless ID tag is relatively narrow, but since the search robot equipped with the moving means (A) moves in the house, the search range using the wireless ID tag can be substantially secured. .. Further, the wireless ID tag generally detects the existence in the area, but the existence or nonexistence of the wireless ID tag can be detected from a plurality of positions by moving the search robot equipped with the moving means (A). By mutually processing the detection information, it is possible to acquire more specific position information about the detection target. The wireless ID tag can also be used in the search means (C) in combination with, for example, the image pickup means (F).
According to the invention described in (x) above, the operator can give a voice instruction to search and perform an auxiliary operation of the search object without directly touching the search object robot, which facilitates use.
In the invention described in (xi) above, the monitoring means (Q) enables a person to easily recognize the prosecution result. Specifically, for example, as a search result, the captured image of the area where the search target exists is displayed on the monitor means (Q), or the characters representing the area where the search target exists are displayed on the monitor means (Q). By making it possible, the search result can be recognized more efficiently.
In the invention described in the above (xii), when a search is performed using image information, the number of imaging points is increased by the fixed imaging means (R) with respect to the imaging means (F) that is equipped and moved on the search object robot. Or, by enabling imaging from different imaging positions, it is possible to improve search efficiency and the like. Specifically, for example, by providing a fixed imaging means (R) that images images from the ceiling of a room in a house, it is possible to reduce blind spots.
In the invention described in the above (xiii), by notifying the value detected by the distance detecting means (S) to the outside, the position of the searched object can be more accurately specified and searched more efficiently. It becomes possible to assist.
In the invention described in the above (xiv), since the hunting robot can specify its own position, for example, the hunting robot moving by the moving means (A) moves so as to be more efficient. It is also possible to control the movement and control the movement so that there is no area that cannot be moved. Further, for example, the search result notification means (E) can notify the outside of a specific room name, coordinate position, etc. as position information in which the search target exists.
In the invention described in the above (xv), the search robot according to the present aspect becomes familiar in appearance and is less likely to give a sense of discomfort even when moving in a house. In particular, it can be a pet-type robot, and even when it is difficult to raise a pet as a living thing, it is possible to provide an environment similar to that of a pet. In addition, by providing pet-type robots, it will contribute to the reduction of problems such as animal cruelty, which is a problem in the pet industry.

10:捜し物ロボット、40:中央演算処理装置(CPU)、42:記憶手段、44:移動手段、45:外部付加機器、46:撮像手段、48:発音手段、50:マイク手段(指令受信手段、音声認識手段)、52:モニタ手段(検索結果報知手段)、54:制御手段、60:作動プログラム記憶手段、62:検索情報記憶手段、64:撮像画像情報記憶手段、66:検索結果記憶手段、68:携行人記憶手段、80:検索手段(携行検出手段、携行中止位置検出手段、IDタグ検知手段)、82:携行検出手段(携行人記憶手段)、84:携行中止位置検出手段(携行人記憶手段)、90:人認識手段(個人特定手段)、92:個人特定手段、94:人追従制御手段、96:巡回移動制御手段、102,104:検索対象物、142:人、150:住宅、152:固定撮像手段、154:基準位置発信手段(位置検出手段)、156:受信手段(位置検出手段)、160:IDタグ(無線IDタグ)、162:IDタグ検知手段、172:距離検出手段 10: Searching robot, 40: Central arithmetic processing device (CPU), 42: Storage means, 44: Moving means, 45: External additional device, 46: Imaging means, 48: Sounding means, 50: Microphone means (command receiving means, Voice recognition means), 52: Monitor means (search result notification means), 54: Control means, 60: Operation program storage means, 62: Search information storage means, 64: Captured image information storage means, 66: Search result storage means, 68: Carryer memory means, 80: Search means (carrying detection means, carrying stop position detecting means, ID tag detecting means), 82: Carrying detection means (carrying person memory means), 84: Carrying stop position detecting means (carrying person) (Memory means), 90: Person recognition means (person identification means), 92: Personal identification means, 94: Person follow-up control means, 96: Patrol movement control means, 102, 104: Search target, 142: Person, 150: Housing , 152: Fixed imaging means, 154: Reference position transmitting means (position detecting means), 156: Receiving means (position detecting means), 160: ID tag (wireless ID tag), 162: ID tag detecting means, 172: Distance detecting means means

Claims (16)

住宅内を移動可能とする移動手段と、
ユーザーによる検索対象物の登録処理によって検索対象物を識別する検索情報を記憶する検索情報記憶手段と、
前記検索情報に基づいて前記検索対象物を検索して、該検索対象物の位置情報を取得する検索手段と
を、含んでおり、且つ、
前記検索対象物の前記検索情報が検索画像情報とされていると共に、
撮像手段を備えており、
前記検索手段において、該撮像手段で撮像された画像について該検索画像情報によるマッチング処理に基づいて該検索対象物を検索すると共に、
該検索手段によって得られた前記検索対象物の前記位置情報を記憶する検索結果記憶手段を備えている一方、
し物をするユーザーにより外部から入力された検索指令信号を受信する指令受信手段と、
該指令受信手段で受信された前記検索指令信号により、前記検索結果記憶手段に記憶された前記検索対象物の前記位置情報を外部に報知する検索結果報知手段と
を、有していることを特徴とする捜し物ロボット。
A means of transportation that makes it possible to move inside the house,
A search information storage means for storing search information that identifies a search target by a user's registration process of the search target,
A search means for searching the search target based on the search information and acquiring the position information of the search target.
, And
The search information of the search target is regarded as search image information, and the search information is used as search image information.
Equipped with imaging means
In the search means, the search target is searched for the image captured by the image pickup means based on the matching process based on the search image information, and at the same time.
While the search result storage means for storing the position information of the search target obtained by the search means is provided.
A command receiving means for receiving a search command signal input from the outside by the user to the search-and was
It is characterized by having a search result notification means for notifying the position information of the search target stored in the search result storage means to the outside by the search command signal received by the command receiving means. Searching robot.
記検索手段によって得られた前記検索対象物の位置情報をタイムデータと関連付けて記憶する前記検索結果記憶手段を有している請求項1に記載の捜し物ロボット。 Sagashimono robot according to claim 1 which has the search result storage means for storing in association with the positional information time data obtained the search object by the previous SL retrieval means. 前記住宅内を定期的又は不定期な時間間隔で巡回するように前記移動手段を作動制御する巡回移動制御手段を有していると共に、
該巡回移動制御手段による巡回中に、前記検索情報記憶手段に記憶された前記検索情報に基づいて前記検索対象物を検索して該検索対象物の位置情報を取得し、取得した該検索対象物の位置情報をタイムデータと関連付けして前記検索結果記憶手段に記憶する請求項2に記載の捜し物ロボット。
It has a patrol movement control means that controls the operation of the moving means so as to patrol the house at regular or irregular time intervals, and also has a patrol movement control means.
During the patrol by the patrol movement control means, the search target is searched based on the search information stored in the search information storage means, the position information of the search target is acquired, and the acquired search target is acquired. The search object robot according to claim 2, wherein the position information of the robot is associated with time data and stored in the search result storage means.
前記検索手段における前記検索対象物の位置情報が、前記撮像手段によって取得された撮像画像情報である請求項1〜3の何れか一項に記載の捜し物ロボット。 The search object robot according to any one of claims 1 to 3, wherein the position information of the search target object in the search means is the captured image information acquired by the image pickup means. 記住宅内に固定的に設置された固定撮像手段を有しており、
前記検索手段において、該固定撮像手段で撮影された画像について前記検索画像情報によるマッチング処理に基づいて前記検索対象物を検索する請求項1〜の何れか一項に記載の捜し物ロボット。
Has installed a fixed imaging means fixedly before Symbol the house,
Wherein the search unit, Sagashimono robot according to any one of claim 1 to 4 for searching the search object based on images taken by the fixed imaging means to the matching processing by the search image data.
住宅内を移動可能とする移動手段と、
検索対象物を識別する検索情報を記憶する検索情報記憶手段と、
前記検索情報に基づいて前記検索対象物を検索して、該検索対象物の位置情報を取得する検索手段と、
前記検索対象物の検索作動を指令する検索指令信号を受信する指令受信手段と、
該指令受信手段で受信された前記検索指令信号により、前記検索手段で取得された前記検索対象物の前記位置情報を外部に報知する検索結果報知手段と、
人を認識する人認識手段を備えていると共に、
前記検索手段が、該人認識手段で検出された人が前記検索対象物を携えていることを検出する携行検出手段と、該人が該検索対象物の携行を止めたことが該携行検出手段によって検出された際に該検索対象物の位置情報を取得する携行中止位置検出手段と
を、含むことを特徴とする捜し物ロボット。
A means of transportation that makes it possible to move inside the house,
Search information storage means for storing search information that identifies the search target,
A search means for searching the search target based on the search information and acquiring the position information of the search target, and
A command receiving means for receiving a search command signal for commanding a search operation of the search object, and
A search result notification means for notifying the position information of the search target object acquired by the search means to the outside by the search command signal received by the command receiving means.
It has a means of recognizing people and also has a means of recognizing people.
The carrying detection means for detecting that the person detected by the person recognition means is carrying the search object, and the carrying detection means that the person stops carrying the search target. A search object robot comprising a carrying stop position detecting means for acquiring the position information of the search target object when detected by the robot.
前記携行検出手段で検出された、前記検索対象物を携行している人を追従するように前記移動手段を作動制御する人追従制御手段を有している請求項に記載の捜し物ロボット。 The search object robot according to claim 6 , further comprising a person-following control means that controls the operation of the moving means so as to follow the person carrying the search object, which is detected by the carrying detection means. 前記人認識手段が、個人を識別して特定する個人特定手段を含んでいると共に、
前記携行検出手段と前記携行中止位置検出手段との少なくとも一方が、前記検索対象物を携行した人又は携行を中止した人を該個人特定手段で特定した個人識別情報をタイムデータと関連付けて記憶する携行人記憶手段を含んでいる請求項又はに記載の捜し物ロボット。
The person recognition means includes a personal identification means for identifying and identifying an individual, and also includes a personal identification means.
At least one of the carrying detection means and the carrying stop position detecting means stores the person who carried the search object or the person who stopped carrying the person in association with the time data. The search robot according to claim 6 or 7 , which includes a carrier storage means.
前記検索対象物の前記検索情報が、無線IDタグとされていると共に、
前記検索手段が、該無線IDタグと無線通信を行なうIDタグ検知手段を含んでいる請求項〜8の何れか一項に記載の捜し物ロボット。
The search information of the search target is a wireless ID tag and is also
The search robot according to any one of claims 6 to 8, wherein the search means includes an ID tag detecting means that performs wireless communication with the wireless ID tag.
記検索手段によって得られた前記検索対象物の位置情報をタイムデータと関連付けて記憶する検索結果記憶手段を有している請求項6〜9の何れか一項に記載の捜し物ロボット。 Sagashimono robot according to any one of claims 6-9 which has a search result storage means for storing positional information of the obtained the search object by the previous SL search means in association with time data. 前記住宅内を定期的又は不定期な時間間隔で巡回するように前記移動手段を作動制御する巡回移動制御手段を有していると共に、
該巡回移動制御手段による巡回中に、前記検索情報記憶手段に記憶された前記検索情報に基づいて前記検索対象物を検索して該検索対象物の位置情報を取得し、取得した該検索対象物の位置情報をタイムデータと関連付けして前記検索結果記憶手段に記憶する請求項10に記載の捜し物ロボット。
It has a patrol movement control means that controls the operation of the moving means so as to patrol the house at regular or irregular time intervals, and also has a patrol movement control means.
During the patrol by the patrol movement control means, the search target is searched based on the search information stored in the search information storage means, the position information of the search target is acquired, and the acquired search target is acquired. The search object robot according to claim 10 , wherein the position information of the above is associated with time data and stored in the search result storage means.
前記指令受信手段が音声認識手段を含んでいる請求項1〜11の何れか一項に記載の捜し物ロボット。 The search robot according to any one of claims 1 to 11 , wherein the command receiving means includes a voice recognition means. 前記検索結果報知手段がモニタ手段を含んでいる請求項1〜12の何れか一項に記載の捜し物ロボット。 The search robot according to any one of claims 1 to 12 , wherein the search result notification means includes a monitor means. 前記検索対象物までの距離を計測する距離検出手段を備えている請求項1〜13の何れか一項に記載の捜し物ロボット。 The search object robot according to any one of claims 1 to 13 , further comprising a distance detecting means for measuring the distance to the search target. 前記移動手段による前記住宅内での移動に際して、該住宅内での位置を検出する位置検出手段を備えている請求項1〜14の何れか一項に記載の捜し物ロボット。 Wherein upon movement in said housing by the moving means, Sagashimono robot according to any one of claim 1 to 14, and a position detecting means for detecting the position in the housing. 生物の擬似的な外観を備えている請求項1〜15の何れか一項に記載の捜し物ロボット。 The search robot according to any one of claims 1 to 15 , which has a pseudo-appearance of a living thing.
JP2016166308A 2016-08-26 2016-08-26 Search robot Active JP6934709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016166308A JP6934709B2 (en) 2016-08-26 2016-08-26 Search robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016166308A JP6934709B2 (en) 2016-08-26 2016-08-26 Search robot

Publications (2)

Publication Number Publication Date
JP2018030223A JP2018030223A (en) 2018-03-01
JP6934709B2 true JP6934709B2 (en) 2021-09-15

Family

ID=61304360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016166308A Active JP6934709B2 (en) 2016-08-26 2016-08-26 Search robot

Country Status (1)

Country Link
JP (1) JP6934709B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6560405B1 (en) * 2018-06-15 2019-08-14 Mamorio株式会社 Lost and found information voice response system, method and program
CN109648586A (en) * 2019-01-18 2019-04-19 深圳市硬核智娱科技有限公司 A kind of networked entity game robot automatic tracing gun turret system
US20210401255A1 (en) * 2019-06-14 2021-12-30 Lg Electronics Inc. Artificial intelligence robot and method of operating the same
US20220365604A1 (en) * 2019-07-03 2022-11-17 Telefonaktiebolaget Lm Ericsson (Publ) Computing device and method for tracking objects
WO2022118411A1 (en) * 2020-12-02 2022-06-09 マクセル株式会社 Mobile terminal device, article management system, and article management method
CN114630280B (en) * 2020-12-14 2024-06-04 曲阜师范大学 Indoor intelligent positioning system and control method thereof
JP7481042B1 (en) 2023-02-02 2024-05-10 Necプラットフォームズ株式会社 Seat management system, seat management device, method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3702195B2 (en) * 2001-05-01 2005-10-05 シャープ株式会社 Object search device, object search method, and program for realizing the device in a computer
JP2004310370A (en) * 2003-04-04 2004-11-04 Ntt Communications Kk Portable article management method and device, and program
JP2004326437A (en) * 2003-04-24 2004-11-18 Matsushita Electric Ind Co Ltd Article managing system and method
WO2005015466A1 (en) * 2003-08-07 2005-02-17 Matsushita Electric Industrial Co., Ltd. Life assisting system and its control program
JP5040865B2 (en) * 2008-09-08 2012-10-03 日本電気株式会社 Robot control system, remote management device, remote management method and program

Also Published As

Publication number Publication date
JP2018030223A (en) 2018-03-01

Similar Documents

Publication Publication Date Title
JP6934709B2 (en) Search robot
US11350809B2 (en) Cleaning robot and method of performing task thereof
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US10024678B2 (en) Wearable clip for providing social and environmental awareness
WO2017130736A1 (en) Information processing device, information processing system, and information processing method
JP2006192563A (en) Target object detection apparatus and robot provided with the same
CN106092091B (en) E-machine equipment
CN107977625B (en) Intelligent movable equipment capable of finding object and intelligent object finding method
CN105364915B (en) Intelligent home service robot based on three-dimensional machine vision
US20040190754A1 (en) Image transmission system for a mobile robot
JP7375748B2 (en) Information processing device, information processing method, and program
CN107962573A (en) Accompany humanoid robot and robot control method
WO2017218084A1 (en) Vision-based robot control system
JP7375770B2 (en) Information processing device, information processing method, and program
JP6950192B2 (en) Information processing equipment, information processing systems and programs
KR102190743B1 (en) AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
JP2005056213A (en) System, server and method for providing information
WO2019123744A1 (en) Information processing device, information processing method, and program
JP2018094683A (en) Watching type pet robot
JP7238796B2 (en) ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM
WO2020008754A1 (en) Information processing device, optimum time estimation method, self-position estimation method, and recording medium in which program is recorded
JP4613284B2 (en) Communication robot and motion identification system using the same
US11921509B2 (en) Information processing apparatus, information processing method, and program
JP6809267B2 (en) Information processing equipment, information processing systems and programs
Kohlbrecher et al. RoboCup Rescue 2016 team description paper hector Darmstadt

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200729

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210326

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210824

R150 Certificate of patent or registration of utility model

Ref document number: 6934709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150