WO2022118411A1 - 携帯端末装置、物品管理システムおよび物品管理方法 - Google Patents

携帯端末装置、物品管理システムおよび物品管理方法 Download PDF

Info

Publication number
WO2022118411A1
WO2022118411A1 PCT/JP2020/044913 JP2020044913W WO2022118411A1 WO 2022118411 A1 WO2022118411 A1 WO 2022118411A1 JP 2020044913 W JP2020044913 W JP 2020044913W WO 2022118411 A1 WO2022118411 A1 WO 2022118411A1
Authority
WO
WIPO (PCT)
Prior art keywords
article
data
terminal device
unit
mobile terminal
Prior art date
Application number
PCT/JP2020/044913
Other languages
English (en)
French (fr)
Inventor
宏 清水
恵 藏知
康宣 橋本
和彦 吉澤
貞雄 鶴賀
進 吉田
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to PCT/JP2020/044913 priority Critical patent/WO2022118411A1/ja
Publication of WO2022118411A1 publication Critical patent/WO2022118411A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to a mobile terminal device having a function of managing parts.
  • Patent Document 1 describes an article in which an article is photographed by a plurality of cameras installed in various places in a predetermined space, and the position of the article is specified based on the position of the photographed cameras. The management system is described.
  • the portable terminal device in one embodiment includes an article data storage unit, an imaging unit, an input unit for inputting request data from a user, an output unit for outputting information to the user, and an article data control unit.
  • the article data storage unit stores a plurality of article data including the article identification data and the article location data corresponding to the article identification data
  • the imaging unit captures an image including the article
  • the article data control unit is an imaging unit. An article is specified based on the captured image, and when the location of the article changes, the change in the location of the article is recognized, the article data corresponding to the identified article is controlled to be stored in the article data storage unit, and further.
  • the article data control unit extracts and extracts the article data corresponding to the request data from a plurality of article data stored in the article data storage unit based on the request data input to the input unit. It is configured to control the output of the article data information by the output unit.
  • FIG. 1 (a) to 1 (c) are explanatory views showing an example of behavior of a user who is a target for managing the carried goods. It is a figure which shows the appearance composition example of the mobile terminal apparatus. It is a figure which shows the hardware configuration example of a mobile terminal apparatus. It is a figure which shows the functional block composition of the article management system realized by the mobile terminal apparatus. It is a figure which shows the data structure example of article data. It is a figure which shows an example of concrete article data. (A) is a flowchart showing the flow of the article data update operation in the article management system, and (b) is an image which captured the location change event.
  • (A) is a flowchart showing the flow of the article data update operation in the article management system, and (b) is an image which captured the event operation of letting go of the article.
  • (A) is an image of an event operation in which the first article is held in the hand and the second article is held in the hand, and (b) is an image in which the first article and the second article are held in the hand. It is an image which captured the event operation of letting go of both the first article and the second article from the holding state. It is an image of an event operation in which a user takes out an article from a bag or the like. It is an image of an event operation in which a user puts an article in a bag or the like.
  • (A) is a diagram showing a data structure example (format) of the intermediate article data recorded by the image recognition unit
  • (b) is a diagram showing an example of the intermediate article data.
  • It is a block diagram which shows the structure of the article data update part.
  • It is a flowchart which shows the flow of updating the article data stored in the article data storage part which is a database to the latest state.
  • It is a flowchart which shows the outline of the response operation when there is an inquiry of the location of an article from a user.
  • It is a figure which shows an example of the display by an output part.
  • the basic idea in the first embodiment is to recognize an event in which the location of an article is changed from an image captured by the image pickup unit by attaching an image pickup unit represented by a camera to a mobile terminal device that can be worn by the user. Moreover, the idea is to specify the article and inform the user of the location of the article from the information about the location when the location of the article is changed.
  • the image pickup unit is attached to the mobile terminal device that can be worn by the user, and the position of the article is specified based on the image captured by the image pickup unit.
  • the image pickup unit since the image pickup unit is provided in the mobile terminal device mounted on the user, when the user moves, the image pickup unit also moves together with the user. From this, in the basic idea, there will be no situation where the user's behavior cannot be grasped. That is, according to the basic idea, as a result of being able to grasp the user's behavior by the image pickup unit provided in the mobile terminal device, the cameras are installed in a configuration in which a plurality of cameras are installed in advance in various places in a predetermined space.
  • the essence of the basic idea in the first embodiment is to provide an image pickup unit configured to capture an image in which the location of an article is changed based on the user's movement in a mobile terminal device that can be worn by the user. It can be said that it is in preparation.
  • FIGS. 1 (a) to 1 (c) are explanatory diagrams showing an example of behavior of a user who is a target for managing the carried goods.
  • the mobile terminal device 1 operates as a glasses-type wearable terminal (HMD: Head Mount Display), for example, in a state of being attached to the user 100.
  • the mobile terminal device 1 is provided with an image pickup unit including a camera or the like.
  • FIG. 1A shows a state in which the user 100 wearing the mobile terminal device 1 and the article 2 are separated from each other at a certain place. At this location, the user 100 holds the article 2 in his hand, is in the state shown in FIG. 1 (b), and moves to another location. Then, it is assumed that the article 2 is released in another place FIG. 1 (c).
  • an image including at least the article 2 is imaged by the image pickup unit provided in the mobile terminal device 1.
  • the basic idea in the first embodiment is an event in which the location of an article is changed from an image captured by the image pickup unit based on the behavior of the user 100 as shown in FIGS. 1 (a) to 1 (c). It is realized by an article management system that recognizes and identifies an article and informs the user of the location of the article from information on the location when the location of the article is changed.
  • the article management system that embodies this basic idea.
  • the configuration in which the article management system is realized in the mobile terminal device 1 that can be worn by the user 100 will be described, but the basic idea in the first embodiment is not limited to this.
  • the above-mentioned article management system can be constructed by a distributed system including not only the mobile terminal device 1 but also other components.
  • FIG. 2 is a diagram showing an example of an external configuration of a mobile terminal device.
  • the mobile terminal device 1 is composed of a spectacle-shaped head-mounted display, and is in a form that the user can always wear and operate.
  • the mobile terminal device 1 has, for example, an image pickup unit 10 composed of a camera.
  • the image pickup unit 10 is provided on the bridge of the spectacles and is composed of a fisheye lens having an angle of view of 180 degrees or more.
  • the image pickup unit 10 provided in the mobile terminal device 1 has a configuration capable of wide-angle image pickup, and includes a wide range of places including an article held by the user and a place where the article held by the user is released. Imaging is possible.
  • a wide-angle camera not only on the bridge of the spectacles but also on the end of the temple of the spectacles, it is possible to grasp the situation (operation) in which the user handles the article in a wider range.
  • the mobile terminal device 1 is provided with a position detection unit 11.
  • the position detection unit 11 is configured to acquire position information regarding the user's current position by receiving signals from GPS, short-range wireless communication, a street corner, a beacon installed in a room, or the like.
  • the mobile terminal device 1 having such an appearance configuration is equipped with a parts management system including the image pickup unit 10 and the position detection unit 11 described above.
  • the hardware configuration of the mobile terminal device 1 that realizes the parts management system will be described below.
  • FIG. 3 is a diagram showing an example of hardware configuration of a mobile terminal device.
  • the mobile terminal device 1 has a configuration in which various hardware are connected around the bus 50. Specifically, the mobile terminal device 1 includes an image pickup unit 10 that captures the motion of a user who picks up an article and the motion of a user who releases an article, and an orientation sensor and a gyro sensor that measure the direction and position of the mobile terminal device 1. It includes a position detection unit 11 including a short-range radio, a GPS unit, and the like.
  • the portable terminal device 1 includes a storage unit 12 for storing various data, a display device (display surface) 13 for displaying images and characters to the user's eyes, a speaker 14 for outputting voice, and a user's voice. It is equipped with a microphone 15 for inputting instructions from the outside and sounds from the outside.
  • the mobile terminal device 1 includes a communication unit 16 that accesses an external environment such as a cloud and communicates with other terminal devices, a CPU 17 that controls the entire system, and a work memory for executing arithmetic processing by the CPU 17.
  • a RAM 18 is provided, and an image RAM 19 for storing image data captured by the imaging unit 10 is provided.
  • the mobile terminal device 1 has a FROM 20 which is a non-volatile memory (flash memory) storing a basic program for executing the basic operation of the system and an article management program for executing the article management system, and a push-down or touch from the user. It is provided with a key 21 that accepts operations such as.
  • the database which is a component of the article management system, may be configured to be stored in the storage unit 12, for example, or may be configured to be stored in the FROM 20 together with the article management program.
  • FIG. 4 is a diagram showing a functional block configuration of an article management system realized by the mobile terminal device 1.
  • the mobile terminal device 1 has an article data storage unit 200, an image pickup unit 201, an input unit 202, an output unit 203, and an article data control unit 250.
  • the article data control unit 250 is composed of an image recognition unit 204, an article data update unit 205, and a search unit 206, and controls the article data.
  • the function of the article data control unit 250 is realized by, for example, an article management program executed by the CPU 17, a program executed by a processor on an article management system composed of a plurality of devices, or the like. ..
  • the article data storage unit 200 is configured to store a plurality of article data, and functions as a database of article data.
  • the article data includes the article identification data and the article location data associated with the article identification data.
  • the article identification data is data for identifying an article.
  • the article identification data includes, for example, article name data relating to the name of the article and article image data relating to the shape of the article.
  • the article location data is data for identifying the location of the article.
  • This article location data includes a flag indicating whether or not the article is worn by the user, article position data regarding the position information of the article, time data regarding the time when the user wears the article or the time when the user releases the article, Includes position image data about the position of the article.
  • the position image data includes image data at the time when the user releases the article.
  • the image pickup unit 201 is configured to capture an image including an article managed by the user.
  • the image pickup unit 201 may take an image of the user's movement and the user's hand as the user handles the article.
  • the image including the user's motion and the article is an image for specifying the position of the article based on the user's motion, and the image pickup unit 201 is configured to capture such an image.
  • an article whose location has been changed, a first event operation of grasping the article by the user's hand, a second event operation of releasing the article from the user's hand, and the like are recorded. ..
  • the image pickup unit 201 acquires not only the two-dimensional image but also the three-dimensional image of the article based on the output from the distance sensor that acquires the three-dimensional shape information of the article by measuring the distance to the article. It may be configured in.
  • the image recognition unit 204 is configured to recognize the change in the location of the article and identify the article based on the image captured by the image pickup unit 201.
  • the image recognition unit 204 of the article data control unit 250 changes the location of the article by detecting the article whose location has been changed from the image captured by the image pickup unit 201, or the first event operation or the second event operation. It is configured to recognize the article, and is configured to identify the article by image analysis of the article image contained in the image.
  • the image recognition unit 204 detects a change in the location of the article (that an event operation has been performed), the image recognition unit 204 recognizes the location of the article by analyzing an image in which the change in the location of the article is recorded. It is composed of. For example, when a second event operation is performed in which an article released by the user is placed on a table, the image recognition unit 204 analyzes the image in which the second event operation is recorded from the user. It is configured to recognize that the place where the released item is placed is on the table.
  • the image recognition unit 204 needs to be configured to recognize the change in the location of the article and specify the article based on the image captured by the image pickup unit 201. It does not have to be configured to be recognizable. However, in this case, when the image recognition unit 204 detects a change in the location of the article, it is necessary to provide a position detection unit in the article management system so that the position information of the article at that time can be grasped. That is, in the article management system, the image recognition unit 204 can be configured to recognize the location of the article, or can be configured to provide a position detection unit that can grasp the position information of the article. .. Further, in the article management system, the image recognition unit 204 may be configured to recognize the location of the article, and may also be configured to provide a position detection unit capable of grasping the position information of the article. can.
  • the article data updating unit 205 of the article data control unit 250 is configured to update the article data corresponding to the article specified by the image recognition unit 204.
  • the article data updating unit 205 is configured to rewrite the location of the article based on the event of changing the location of the article detected by the image recognition unit 204.
  • the article data update unit 205 detects the first event operation in the image recognition unit 204 and the article is identified as the "article A"
  • the article data update unit 205 with respect to the article data corresponding to the "article A”. It is configured to rewrite the article data for "article A” so that the user can know that it is in a state of being worn, and also to rewrite the data regarding the location of "article A”. ..
  • the image recognition unit 204 detects the second event operation and the article is identified as the "article B"
  • the user himself / herself with respect to the article data corresponding to the "article B”. It is configured to rewrite the article data for the "article B” so that it can be seen that it is not attached to the "article B”, and it is also configured to rewrite the data regarding the location of the "article B".
  • the article management system includes the image pickup unit 201, the image recognition unit 204, and the article data update unit 205, so that the article data stored in the article data storage unit 200 can be stored based on the user's operation. It will be configured so that it can be updated to the latest state.
  • the article management system includes a system for inquiring about the location of the article in response to a request from the user, and this system is composed of an input unit 202, a search unit 206, and an output unit 203.
  • the input unit 202 is configured to input request data from the user.
  • the request data input to the input unit 202 is name data relating to the name of the inquired article for which the location is to be inquired.
  • the request data is input using the microphone 15 and the key 21 shown in FIG.
  • the search unit 206 is configured to extract article data corresponding to the request data from a plurality of article data stored in the article data storage unit 200 based on the request data input to the input unit 202. ing.
  • the search unit 206 is configured to extract article data including data that matches the article name data.
  • the output unit 203 is configured to output information grasped from the article data extracted by the search unit 206.
  • the output unit 203 is configured to output the location information of the article based on the article data extracted by the search unit 206.
  • the input unit 202, the search unit 206, and the output unit 203 are provided so that the location information of the article inquired by the user can be output based on the request data from the user. It will be configured.
  • FIG. 5 is a diagram showing an example of a data structure of article data.
  • a format such as data block 300A or data block 300B is regarded as one block, and one article data is stored in this one block. Then, the article data will increase every time a new record of the article is generated.
  • the article data stored in the data block 300A will be described as an example.
  • the article data has "article ID”, "article name”, “day / hour”, “flag”, "position”, and "image link” as items.
  • article ID items of article identification data for specifying an article
  • day / hour articles identification data indicating the location of an article. It is an item of. Therefore, the article data is configured to include the article identification data and the article location data, and the article identification data and the article location data are associated with each other.
  • the “article ID” is a basic management number in the article data storage unit 200.
  • the article name when the name of the article can be estimated is recorded.
  • day / hour the date and time when the item is picked up or released from the hand is recorded.
  • the "flag” information indicating whether the item is worn by the user or away from the user is recorded. For example, the meaning of "flag” is “yes” when the user wears it, including when it is held in the hand, and “no” when the user does not wear it.
  • the location information of the article is recorded in the "position”.
  • image link the link information to the image data storage area in which the image of the article and the captured image when the article is held or released is recorded. A moving image may be recorded together with a still image.
  • FIG. 6 is a diagram showing an example of specific article data.
  • the number “001” is used as the “article ID”
  • the “smartphone” is used as the “article name”
  • the “day / hour” is the date and time at the moment when the user holds the hand or releases the hand. 4/23/15: 32 "is recorded.
  • a “pocket” indicating that the user is in a pocket of clothes, which is one of the states worn by the user, and a “room A” indicating that the user is in a specific place away from the user's body.
  • that part is recorded in the "position”.
  • “flag” "yes” is always satisfied.
  • the "image link” includes file names (202004231532_1.jpg, 202004231532_2.jpg, 202004231532_3.mp4) that represent addresses linked to captured images at times (including before and after) when the user holds the image in his / her hand and releases it. Recorded. As described above, the article data is configured.
  • the operation of the article management system is realized by the composition of the article data update operation realized by the configuration of the image pickup unit 201, the image recognition unit 204, and the article data update unit 205, and the configuration of the input unit 202, the search unit 206, and the output unit 203. There is an inquiry response operation.
  • the article data is updated based on the location change event in which the article changes its location.
  • the location change event is, for example, an event in which a user wears an article, puts the article somewhere, or stores the article somewhere.
  • FIG. 7A is a flowchart showing the flow of the article data update operation in the article management system.
  • the mobile terminal device 1 initializes the article data storage unit 200, which is a database, after activating the article management system (S101).
  • the database is initialized in a state where there is no registered article data.
  • the database initialization method is not limited to this, and as an initial value, the article data corresponding to the article already worn by the user is registered, or the database used at the end of the previous session is inherited. You may adopt a sloppy initialization method.
  • the item data corresponding to these items can be registered in advance as initial values.
  • the article management system is activated by the mobile terminal device 1 for the first time when going out
  • the article data corresponding to the articles already worn before the article management system is activated is input to the articles. It can be managed by the management system.
  • the image pickup unit 201 captures an image including an article (S102). Then, the image recognition unit 204 recognizes the location change event based on the image captured by the image pickup unit 201, and identifies the imaged article by using the image analysis technique (S103). After that, the article data updating unit 205 updates the article data corresponding to the identified article based on the location change event recognized by the image recognition unit 204 and the identified article (S104). As described above, the article data is updated in the article management system.
  • the image in S102 may be a still image, a moving image, or both. Still images may be those that continue to be imaged at regular intervals.
  • the video may be continuously imaged and the video recording for a certain period may be stored in the buffer. Then, the location change event may be detected from the still images captured at regular intervals, and the moving image recording and the still image before and after that may be used as the target of image analysis for identifying the location where the location change event occurred and the article.
  • the image recognition unit 204 recognizes a location change event in which the article changes its location based on the image captured by the image pickup unit 201. Then, the image recognition unit 204 grasps the new location of the article from the location change event.
  • FIG. 7B is an image of a location change event in which an article A placed on a desk is stored in a chest pocket of a jacket, or vice versa.
  • the image recognition unit 204 analyzes these images and recognizes the location change event, for example, by using an image analysis technique. That is, the image recognition unit 204 recognizes what kind of article the user has changed from the location change event imaged by the image pickup unit 201. Further, the image recognition unit 204 identifies the article by using the image analysis technique for the image before the user moves the article, the image during the movement, or the image after the movement.
  • the image recognition unit 204 can also request the user to input the article name by voice input or the like.
  • the image recognition unit 204 inputs the name of the article and the location of the article by the user's voluntary utterance such as "put the handbag on the table in the living room" for the article that the user considers to be particularly important. Can also be accepted.
  • the image recognition unit 204 recognizes the location change event and identifies the article by using the image analysis technique even when handling a plurality of articles.
  • the image recognition unit 204 can always recognize what kind of article the location of the article has been changed by the user based on the image captured by the image pickup unit 201. That is, the image recognition unit 204 uses the image analysis technique to recognize the location change event and identify the article. Then, the image recognition unit 204 updates the article database together with the time when the recognition result of the location change event and the identification result of the article are recognized.
  • the mobile terminal device 1 may use an image including a user's hand and an article as an image used for analysis of a location change event.
  • the image here may be a still image, a moving image, or both.
  • the user uses his or her own hand to change the location of the article, so recognizing the location change event through monitoring the user's hand handling the article increases the certainty of recognition.
  • an event operation the operation in which the user handles the article, which leads to the change of the location of the article.
  • step S110 the mobile terminal device 1 uses the imaging unit 201 to acquire an image of a hand without an article in order to distinguish between the user's hand and the article.
  • a pre-recorded image may be used.
  • step S110 may be omitted if it can be recognized as a user's hand by image analysis.
  • the image pickup unit 201 captures an image of the event operation including the user's hand and the article (S111). Then, the image recognition unit 204 recognizes the location change event from the event operation in which the user holds or releases the article based on the image captured by the image pickup unit 201. Further, the image recognition unit 204 identifies the imaged article by comparing it with the image of the hand holding the article by using the image analysis technique (S103).
  • FIG. 8B is an image of an event operation in which the article A is held or released.
  • FIG. 9A is an image of an event operation in which the article A is held in the hand and the event operation in which the article B is held in the hand is captured.
  • FIG. 9B is an image in which the article A and the article B are held in the hand. It is an image which imaged the event operation which releases both the article A and the article B from the holding state.
  • the image recognition unit 204 analyzes these images and recognizes the event operation, for example, by using an image analysis technique. That is, the image recognition unit 204 grasps what kind of article the user is holding by hand from the event operation imaged by the image pickup unit 201, and recognizes what kind of article is held or released from the hand when and where. do. Further, the image recognition unit 204 identifies the article by using an image analysis technique for an image in which the article is in the hand, an image before the article is held in the hand, and an image after the article is released from the hand. It will be done.
  • the image recognition unit 204 can recognize the event operation by using the image analysis technique even when handling a plurality of articles, and the articles can be recognized. Can be identified.
  • FIG. 10 is an image of an event operation in which the user takes out an article from the bag or the like
  • FIG. 11 is an image of an event operation in which the user puts the article in the bag or the like.
  • the image recognition unit 204 has the article in the hand. Recognize the change in the location of the article from the image of the state in. When the article is taken in and out of the pocket of the clothes, the change in the location of the article is recognized in the same manner.
  • the mobile terminal device 1 can always recognize what kind of article the user has changed, even through the monitoring of the event operation.
  • the mobile terminal device 1 may use intermediate information about what kind of goods are in the hands of the user in data management. This information will be referred to as intermediate article data hereafter. The details of the article data management method using the intermediate article data will be described below.
  • FIG. 12A is a diagram showing a data structure example (format) of the intermediate article data P recorded by the image recognition unit 204 in association with the recognition of the event operation.
  • the intermediate article data P includes, as items, a "day / hour” indicating the date and time when the event operation was recognized, a "position” indicating the place where the event operation was recognized, and an image of this place.
  • "Position image link” indicating the link information to the image data storage area where is stored
  • "number of articles” indicating the number of articles in hand
  • "article name” indicating the name of the specified article
  • An “article image link” indicating link information to an image data storage area in which an image is stored is included.
  • FIG. 12B is a diagram showing an example of intermediate article data P.
  • the detection result by the position detection unit 11 included in the mobile terminal device 1 can be used. That is, the image recognition unit 204 can input the detection result by the position detection unit 11 and specify the “position”. For example, when outdoors, GPS can be used to measure the user's current position. On the other hand, in the case of indoors, the radio field strength of the wireless LAN or mobile communication installed in advance can be measured by using the channel of each device and the location information of the device.
  • the method of specifying the "position” indicating the place where the event operation is recognized is not limited to the above-mentioned method. Based on the peripheral image, it is also possible to specify the "position” indicating the place where the event operation is recognized.
  • the image recognition unit 204 If the image recognition unit 204 cannot specify the name of the article, the image recognition unit 204 itself can give a name and record it as dictionary data together with the image of the article.
  • the recognition result of the event operation and the time when the specific result of the article is recognized are recorded in the intermediate article data P.
  • the article data updating unit 205 updates the article data based on the intermediate article data P recorded by the image recognition unit 204.
  • FIG. 13 is a block diagram showing the configuration of the article data update unit.
  • the article data updating unit 205 has an article number change detecting unit 301 and an article data rewriting unit 302.
  • the article number change detection unit 301 is configured to detect a change in the article number grasped by the user's hand based on the intermediate article data P recorded by the image recognition unit 204.
  • the article data rewriting unit 302 is configured to rewrite the article data corresponding to the article contributing to the change in the number of articles detected by the article number change detection unit 301.
  • FIG. 14 is a flowchart showing a flow of updating the article data stored in the article data storage unit, which is a database, to the latest state.
  • the article number change detection unit 301 of the article data update unit 205 acquires the intermediate article data P recorded by the image recognition unit 204. At this time, the article number change detection unit 301 acquires the intermediate article data P0 at the time when the management is first started as the initial setting (S201). Then, for example, the intermediate article data P1 after the elapse of a predetermined period is acquired (S202).
  • the article number change detection unit 301 compares the "article number” included in the intermediate article data P0 with the "article number” included in the intermediate article data P1. Then, the article number change detection unit 301 checks whether the "article number” included in the intermediate article data P1 changes from the "article number” included in the intermediate article data P1 (S203).
  • the database is not updated and the intermediate article data P1 is newly set in the intermediate article data P0 (S206).
  • the article data rewriting unit 302 corresponds to the specified article after identifying the article contributing to the change in the number of articles detected by the article number change detection unit 301 (S204).
  • the article data to be rewritten (S205).
  • the database is updated by updating the database as shown below for each of the articles that contribute to the change, including the case where the "number of articles" changes by 2 or more.
  • the article data corresponding to this article is updated.
  • the article data rewriting unit 302 updates the article data stored in the database, and then newly sets the intermediate article data P1 to the intermediate article data P0 (S206). Then, if there is an instruction to terminate the article management system (S207), the article management system is terminated, while if there is no instruction to terminate the article management system (S207), the processing of the article management system is continued.
  • the management method using this intermediate article data is effective in the management system that temporarily holds the article in a basket or the like to change the location of the article, as in the case of holding the article in the hand.
  • the mobile terminal device 1 equipped with the article management system it is possible to construct a database consisting of article data including the location of the article picked up by the user.
  • FIG. 15 is a flowchart showing an outline of a response operation when a user inquires about the location of an article.
  • the user when the user wants to inquire about the location of an article, the user performs an input operation such as voice input by the microphone 15 shown in FIG. 3 or pressing or touching from the user by the key 21 shown in FIG.
  • the request data from the user is input to the input unit 202 of the article management system (S301).
  • the search unit 206 of the article management system extracts the article data corresponding to the request data input to the input unit 202 from the plurality of article data stored in the article data storage unit 200 which is a database (the article data). S302).
  • the output unit 203 of the article management system outputs the information grasped from the article data extracted by the search unit 206 (S303). As a result, the user can acquire information regarding the location of the inquired article.
  • FIG. 16 is a flowchart showing the flow of inquiry response operation.
  • the user makes an inquiry (request data) for an article whose location he / she wants to know by a method such as a name or name to the article management system.
  • the request data from the user is input to the input unit 202 of the article management system (S401).
  • the search unit 206 of the article management system reads out a plurality of article data stored in the article data storage unit 200, which is a database (S402).
  • the output unit 203 displays the position information of the article included in the article data (S404).
  • the search unit 206 determines whether or not all the article data stored in the database have been confirmed (S405). Then, when the search unit 206 does not find the article data matching the request data even after checking all the article data stored in the database (S405), the output unit 203 relates to the article corresponding to the user's inquiry. Information indicating that the article data is not in the database is output (S406).
  • FIGS. 17 and 18 are diagrams showing an example of display by the output unit 203.
  • the display of the location of the article by the output unit 203 can be performed by a display including a text display and an image specifying the location of the article.
  • the image is included in this way, even if the name of the place is not recorded as the article data, the user can specify the location of the article based on the situation around the article shown in the image. Can be done.
  • FIG. 19 when the article that the user is looking for is contained in another article, information on which article (bag, etc.) the user is looking for and the article (the article to which the user is looking for) are inserted. It is also possible to display where the back etc.) is. In this case, it is possible to realize the display as shown in FIG. 19 by describing which article was put in in the item of "position" of the article data and the "article ID" of the put article.
  • the map or the indoor layout diagram is displayed and the article is contained therein.
  • the location of the article may be displayed to the user by displaying a mark at the point where the is located.
  • the map and the indoor layout map those already created may be used, or the map created by the article management system itself may be used as described later.
  • the database does not have the article data corresponding to the article inquired by the user, for example, as shown in FIG. 21, it is possible to display that the inquired article cannot be found.
  • the search for the article data by the search unit 206 may be limited to the article data for which the flag is "none". This is because the item data with the flag "Yes" is held or worn in the hand. The location of such items may not be known, but it is likely that users will often search for items that they are not wearing. As a result, for example, when there is article data with duplicate article names, only the article data corresponding to the article not worn by the user is displayed, and unnecessary display is reduced.
  • the location of the article arbitrarily designated by the user is checked and the user is notified. It will be possible to present. As a result, according to the first embodiment, it becomes possible to easily grasp the location of the carried item (article) whose location is unknown.
  • the feature of the first embodiment is that the image pickup unit 201 that captures an image including the user's hand and the article is attached to the mobile terminal device 1 that is a component of the article management system and can be worn by the user.
  • the image pickup unit 201 can take an image without overlooking the user's event operation (the operation in which the user picks up or releases the article), so that the article can be grasped.
  • the user's event operation the operation in which the user picks up or releases the article
  • FIG. 22 is an example of displaying a list of articles registered in the database and not worn by the user. If the location of the article can be briefly explained in words, the name of the article may be displayed together with the location of the article.
  • This display example is effective when the name of the article cannot be specified by the image analysis technique, or when the name of the article is not registered and the method of specifying the name of the article cannot search the article data. ..
  • FIG. 22 is an example of displaying a list of only articles that the user does not wear, but a list of articles that the user wears or a list of all articles may be displayed.
  • the items that the user is looking for are likely not worn, so first look at the list of items that the user does not wear, then look at the list of items that the user is wearing.
  • the method is effective. Further, when the number of articles is small, in order to save the user's trouble, it is possible to respond according to the user's request, such as displaying a list of all articles from the beginning. Further, for an article whose article name is unknown, an image of the article may also be displayed. The image display allows the user to directly confirm the item he / she wants to find.
  • FIG. 23 is an example of displaying the article list as an image.
  • an image is displayed together with the article name.
  • the article name is not described, but the user can identify the article by looking at an image (photograph).
  • the display example shown in FIG. 23 it is possible to display only the articles that the user does not wear, display only the articles that the user wears, and display all the articles.
  • the thickness of the border may be changed so that the display of the articles worn by the user and the display of the articles not worn by the user can be distinguished.
  • only articles for which the article name cannot be specified may be displayed.
  • FIG. 24 is an example in which an article on the database is directly shown on a map so that the position of the article can be understood.
  • the article indicated by the star is displayed overlapping the position of the user.
  • items that the user does not wear are displayed with a star at the position where they are placed.
  • an article whose article name is known is displayed together with the article name.
  • an article image or an image captured when the user releases the article may be displayed at each of the star marks.
  • FIG. 25 is an example in which information on how long ago the item was picked up is also displayed. Since it is highly likely that an article obtained too old is not the target of the search, the display of such an article may be suppressed.
  • the value of the flag is further represented by the thickness of the frame line. That is, it is also possible to indicate whether or not the item is worn by the user by the thickness of the frame line.
  • the output unit 203 is configured to enable a display that guides the user to the location position of the article grasped from the article data.
  • 26 and 27 are AR (Augmented Reality) displays using a head-mounted display and the like, and when searching for an article for which the user wants to know where he / she has placed it, a display example of displaying the location of the article and guiding the user. It is a figure which shows.
  • FIG. 26 shows a display screen that tracks where the article “Wallet” is located, and is a display example after the user specifies an article that he / she wants to search.
  • the output unit 203 of the portable terminal device 1 head-mounted display
  • the portable terminal device 1 head-mounted display
  • the output unit 203 of the portable terminal device 1 superimposes and displays an arrow guiding to the place where the placed article exists based on the information indicating the place where the article is placed.
  • the place where the article is placed can be reached.
  • FIG. 27 by superimposing the arrow on the article, it is possible to confirm that the article recorded in the article data is surely placed on the table.
  • the user can use the article management system in various usage forms by devising the display method by the output unit 203. As a result, the convenience of the user can be improved.
  • the article management system includes a system for inquiring about the acquisition location of the article.
  • the article data includes data regarding the acquisition location of the article.
  • the request data input to the input unit 202 is name data relating to the name of the inquired article for which the acquisition location is to be inquired.
  • the search unit 206 is configured to extract article data including data matching the name data
  • the output unit 203 relates to the acquisition location of the article based on the article data extracted by the search unit 206. It is configured to output information.
  • the item of the item data is referred to as "original location” (Original location) and "original location (image link)" (Original location Image).
  • Original location (Original location)
  • original location image link
  • the information recorded in the "original place” is information about the place where the article was originally located, and is the name and position coordinates of the place. If the place where the article was originally located is among other articles, the article ID of the other article is also recorded.
  • the link information recorded in the "original place (image link)" is information for accessing the image of the place where the article was originally located.
  • the article data update operation based on the intermediate article data P is performed. For example, when the user picks up the article, information on the place where the article was originally located and link information to the image of the place are recorded in the "position" and "position image link” of the intermediate article data P. Then, when the number of articles increases in the database update process, the number of articles increases based on the information of the place where the article was originally recorded in the intermediate article data P and the link information to the image of the place. The "original location” and “original location (image link)" of the article data corresponding to the contributing article are newly recorded or updated.
  • FIG. 29 is a diagram showing an example in which the output unit 203 displays the original location (acquisition location) of the article.
  • the search range of the database by the search unit 206 is limited to the article data with the flag "Yes”. May be good.
  • a list may be displayed as shown in FIG. 30, for example.
  • the article includes a first article and a second article stored in the first article.
  • the article management system includes a system for collectively managing the first article and the second article, and the article data corresponding to the first article includes data for identifying the second article to be stored. Will be.
  • the article data updating unit 205 is associated with not only the article data corresponding to the specified first article but also the first article. 2
  • the article data corresponding to the article is also configured to be updated.
  • the technical idea in the third embodiment is, for example, article management in the case where an article (second article) is put in some container (bag or the like) and the place of the container (first article) may be moved. It is useful for.
  • the flag of the item contained in the container is also updated. This is because when the user wears the container, not only the container but also the articles stored in the container are worn by the user. That is, in the third embodiment, the container and the article to be put in the container are collectively managed by synchronizing the flags of the container and the article to be put in the container.
  • an item called "Stored object” for recording the article ID of the article stored in the container is added as an item of the article data corresponding to the container. ..
  • the item "stored article” in the article data corresponding to the container may be used. Record the article ID of the stored article.
  • FIG. 32 is a display example by the output unit 203. As shown in FIG. 32, when displaying the list, it is also possible to display hierarchical information including the storage relationship.
  • the item to be stored may be a container for storing another item.
  • the article management system includes a system for managing whether or not an article is stored in a place where it should be stored.
  • the article includes a first article that is an original storage place and a second article that should be stored in the first article. Then, in the article data corresponding to the first article, data for specifying the second article to be stored in the first article is registered in advance.
  • the article data corresponding to the second article includes data for specifying whether or not the second article is stored in the first article.
  • the request data input to the input unit 202 is data for inquiring about the storage status of the second component
  • the output unit 203 is data included in the article data corresponding to the second component
  • the second article is It is configured to output the storage status of the second part grasped from the data for specifying whether or not it is stored in the first article.
  • the flag of the item to be stored is set to "Yes” if it is stored in the preset original storage location during the database update operation when the item is picked up or released. In other cases, it is set to "None". That is, the flag is data for identifying whether or not the article to be stored is stored in the article which is the original storage place.
  • the storage status of whether or not the article to be stored is stored in the article that is the original storage location is, for example, as shown in FIG. 34, the state of the article to be stored for each article that is the storage location. It can be confirmed by displaying. Specifically, from FIG. 34, in the "tool box 1" which is the storage place, of the tools 1 to 3 to be stored, the tool 1 and the tool 3 are stored, while the tool 2 is stored. It turns out that there is no such thing. At this time, the current location of the unstored article (tool 2) may be displayed based on the article data corresponding to the tool 2.
  • the article management system examines the storage status of whether or not the article to be stored is stored in the article which is the original storage place, and all the articles to be stored are the original. By confirming and recording that the item is stored in the storage place, it can be used as evidence of the worker's confirmation work. At this time, even the locking operation after storage and the sealing operation of the box can be recorded as evidence.
  • This article management system makes it easy for the worker to confirm that the article to be stored is stored in the article that is the original storage place after the work is performed. Further, the article management system according to the fourth embodiment can also be applied to the packing work of goods. That is, by using the article management system according to the fourth embodiment, it is possible to facilitate the work of confirming whether or not all the articles (commodities) to be contained in the packing box are contained.
  • the article management system includes an article management system for preventing forgotten items
  • the article data storage unit 200 is further configured to store a preset list of items to be checked for forgotten items.
  • the article data includes binary data (for example, a flag) that distinguishes between a state worn by the user or a state stored in another article and a state other than that.
  • the article data update unit 205 recognizes that the article is worn by the user or is stored in another article by the image recognition unit 204
  • the binary data is input to the binary data.
  • the image recognition unit 204 recognizes that the article is in another state
  • the binary data is set to the second value.
  • the search unit 206 is listed in the list of items to be checked for lost items, triggered by either the input of request data, the arrival of time at a preset periodic time interval, or the start of the user's movement operation.
  • the first extraction unit configured to extract a plurality of article data corresponding to the articles and the article data extracted by the first extraction unit, the article data in which the binary data is the second value is selected. It has a second extraction unit configured to extract.
  • the output unit 203 is configured to output information grasped from the article data extracted by the second extraction unit.
  • the data structure of the article data in the fifth embodiment is the same as that shown in FIG. 5 showing the article data in the first embodiment, but the flag setting method is changed. That is, in the fifth embodiment, the flag is set to "Yes" when the user wears it or stores it in another article (such as a bag), while the flag is set to "No” in other cases. Set to.
  • the flag of the item stored in the bag or the like is set to "Yes" when it is stored in the bag, so that the user inevitably carries the item stored in the bag if the user does not forget to carry the bag. Because it will be. In other words, indirect management using the bag will be implemented.
  • the carrying of the bag itself is managed by the flag included in the goods data corresponding to the bag.
  • FIG. 35 shows an example in which an article whose flag is "None” is displayed when the check target is a bag, a notebook, and a PC.
  • the back and the notebook with the flag "none” are displayed, while the PC with the flag "yes” is not displayed. That is, the PC is already in the bag. The user sees this display and puts the notebook in the back. At this stage, the flag for the back only becomes “None", and if the user carries the back, there is nothing left behind.
  • the article management system in the fifth embodiment is set to the "forgotten item check mode"
  • the article management system in the first embodiment may be set to the "location search mode” and used while switching between these modes.
  • FIG. 36 is a diagram showing an example of displaying an article list in which the flag is set to "None" in the "location search mode".
  • the meaning that the flag is set to "None” in this case is that the user is away from the body, so the flag of the PC put in the bag away from the user is "None".
  • the location of the PC becomes unknown, it can be seen that such a display in the "location search mode" is useful.
  • the value of the flag included in the article data is rewritten to the definition in each mode. In this case, as a database management method, it is necessary to record which mode the database recording is based on.
  • the present invention is not limited to this, for example, the items of "first flag” and “second flag” are provided in the item of article data, and the "first flag” is referred to in the "location search mode", while the "forgotten item”.
  • a usage method of referring to the "second flag” in the "check mode” is also conceivable.
  • an easy-to-use article management system can be constructed by appropriately switching between the "forgotten item check mode" and the "location search mode".
  • FIG. 37 is a diagram showing a mobile terminal device according to the sixth embodiment.
  • the mobile terminal device 1A shown in FIG. 37 is different from the mobile terminal device 1 shown in FIG. 2 in the mounting position and specifications of the image pickup unit 10. Specifically, as shown in FIG. 37, the mobile terminal device 1A has four image pickup units 10, and these four image pickup units 10 face outward toward the four corners of the eyeglass-type mobile terminal device 1A, respectively. Arranged like this. That is, the mobile terminal device 1A composed of wearable terminal devices that can be worn by the user has a plurality of image pickup units 10.
  • Each of the four image pickup units 10 is provided with a fisheye lens having an angle of view of 180 degrees or more, so that the whole body of the user, particularly the downward direction of the mobile terminal device 1A, can be imaged.
  • a fisheye lens having an angle of view of 180 degrees or more, so that the whole body of the user, particularly the downward direction of the mobile terminal device 1A, can be imaged.
  • the horizontal angle of view may be 90 degrees, for example, the horizontal angle of view is 90.
  • a special optical system anamorphic lens having a degree and a vertical angle of view of 180 degrees may be used for the image pickup unit 10.
  • the place where the user wears the article is the lower half of the body, that is, the lower side of the mobile terminal device 1A. From this, by installing the image pickup unit 10 in the vertical direction so as to be downward from the horizontal position, it is possible to reliably image the operation of putting an article in the pocket of the trousers located in the lower body of the user. Can be done.
  • the user When the user picks up or releases the article, the user directs his / her line of sight to the article, so that the vertical angle of view is 90 degrees as in the camera including the anamorphic lens described above, and the angle of view is 90 degrees.
  • the vertical angle of view is 90 degrees as in the camera including the anamorphic lens described above, and the angle of view is 90 degrees.
  • two image pickup units 10 with a horizontal angle of view of 180 degrees, a region with a vertical angle of view of 90 degrees and a horizontal angle of view of 360 degrees (periphery excluding the sky and the ground). Since the area) can be imaged, for example, the action of putting an article in the pocket of the trousers can be imaged.
  • a touch panel type portable information terminal such as a smartphone or a tablet terminal is more suitable for input operation and high-definition display than a head-mounted display.
  • the article management system can be configured from the distributed system by including not only the mobile terminal device 1 which is a head-mounted display but also the touch panel type mobile information terminal 5 as a component of the article management system.
  • the mobile terminal device 1 is configured to be able to cooperate with the touch panel type portable information terminal 5 having at least an input unit 202 and an output unit 203.
  • FIG. 38 is a block diagram showing a functional configuration of a distributed system.
  • the distributed system is composed of a mobile terminal device 1 and a touch panel type mobile information terminal 5.
  • the mobile terminal device 1 has an image pickup unit 201, an output unit 203A, and a communication unit 207A.
  • the touch panel type portable information terminal 5 includes an article data storage unit 200, an image recognition unit 204, an article data update unit 205, an input unit 202, a search unit 206, an output unit 203B, and a communication unit 207B. Have.
  • the article management system is configured by the mobile terminal device 1 and the touch panel type mobile information terminal 5.
  • the communication unit 207A of the mobile terminal device 1 and the communication unit 207B of the touch panel type mobile information terminal 5 enable the mobile terminal device 1 and the touch panel type mobile information terminal 5 to cooperate with each other.
  • the display is performed using both the output unit 203A of the mobile terminal device 1 and the output unit 203B of the touch panel type mobile information terminal 5, and the instruction input (request data) from the user is performed.
  • the instruction input (request data) from the user is performed.
  • the components required for the mobile terminal device 1 are an image pickup unit 201, an output unit 203A, and a communication unit 207A, and article management.
  • the touch panel type mobile information terminal 5 can be configured to manage all the article data and generate the screen display image by the system.
  • the mobile terminal device 1 can construct a distributed system in which only the image pickup unit 201, the output unit 203A, the communication unit 207A, and the battery for driving them need to be provided, whereby the mobile terminal device 1 can be constructed. Can be made smaller and lighter.
  • the mobile terminal device 1 is provided with only the image pickup unit 201 that captures the user's hand, and all the displays are the screen of the touch panel type mobile information terminal 5 and the AR screen display using the image pickup unit 201. It is also possible to. In the case of this configuration, all the processing and display other than the processing performed by the image pickup unit 201 are performed by the touch panel type portable information terminal 5. As a result, the weight of the mobile terminal device 1 can be further reduced.
  • FIG. 39 is a diagram showing an example of a cooperative operation between a mobile terminal device and a touch panel type mobile information terminal in a distributed system.
  • FIG. 39 shows an example of performing an article search by an article management system.
  • the touch panel type mobile information terminal 5 identifies an article to be searched.
  • the AR display shown in FIGS. 26 and 27 guides the user to the location of the article that the user is looking for, and such an AR display is more suitable for the mobile terminal device 1. Therefore, this AR display is performed by the output unit 203A of the mobile terminal device 1. In this way, according to the distributed system, it is possible to improve the convenience of the user in the article management system by the cooperative operation utilizing the characteristics of each terminal.
  • ⁇ Second distributed system> For example, in the article management system, there is an image recognition unit 204 configured to recognize a change in the location of the article and specify the article based on the image captured by the image pickup unit 201.
  • this image recognition unit 204 processing is performed using an image analysis technique, but since artificial intelligence or the like may also be used in the image analysis technique, the processing load becomes large. Therefore, if the image recognition unit 204 is incorporated in the mobile terminal device 1, the load on the mobile terminal device 1 becomes large.
  • the article management system from a distributed system by including not only the mobile terminal device 1 which is a head-mounted display but also the server 6 as a component of the article management system.
  • the mobile terminal device 1 is configured to be able to cooperate with the server 6 having at least the image recognition unit 204.
  • An example of the configuration of this distributed system will be described below.
  • FIG. 40 is a block diagram showing a functional configuration of a distributed system.
  • the distributed system is composed of a mobile terminal device 1 and a server 6.
  • the mobile terminal device 1 has an article data storage unit 200, an image pickup unit 201, an article data update unit 205, an input unit 202, a search unit 206, an output unit 203, and a communication unit 207A. ..
  • the server 6 has an image recognition unit 204 and a communication unit 207C.
  • the article management system is configured by the mobile terminal device 1 and the server 6.
  • the communication unit 207A of the mobile terminal device 1 and the communication unit 207C of the server 6 enable the mobile terminal device 1 and the server 6 to cooperate with each other.
  • the server 6 may be connected to the mobile terminal device 1 via communication to perform a cooperative operation, and may be in various forms such as a local server, a cloud server, an edge server, and a net service. ..
  • the image recognition unit 204 of the server 6 realizes the processing using the image analysis technique, and as a result, the functions of the mobile terminal device 1 and the server 6 can be shared. As a result, it is possible to suppress an increase in the load on the mobile terminal device 1 due to the processing using the image analysis technique. Furthermore, since the load on the mobile terminal device 1 is reduced and the power consumption is reduced, the battery of the mobile terminal device 1 can be made to last longer.
  • the article management system further has a map information creating unit configured to create map information based on the image captured by the imaging unit 201.
  • the output unit 203 is configured to output the map information created by the map information creation unit.
  • FIGS. 41 and 42 are diagrams showing an example of creating a map in order to show a place where the user has let go of the article worn by the article management system.
  • the map information creation unit of the article management system creates map information in a place where GPS cannot be used, for example, indoors, based on the image captured by the image pickup unit 201 of the mobile terminal device 1 as the user 100 moves. do.
  • FIG. 41 is a diagram illustrating an operation of creating map information by the map information creating unit.
  • the solid line shows a portion of the map already created by the map information creation unit based on the image captured by the image pickup unit 201 of the mobile terminal device 1.
  • the line shown by the broken line is an area where the user 100 has not moved, and therefore is not yet reflected in the image pickup unit 201 of the mobile terminal device 1, and indicates a portion where map information cannot be created.
  • the area visible to the user 100 in the first place PS1 is a long corridor and one or more doors attached to each room. Therefore, the portion shown by the solid line in FIG. 41 is created by the map information creation unit as map information by the image captured by the image pickup unit 201 of the mobile terminal device 1 mounted on the user 100. Then, when the user 100 moves to the second place PS2, the existence of the table in the room R1 of the second place is confirmed, and the table is added to the map information.
  • equipment such as a table is added to the map information within the range of being imaged by the image pickup unit 201.
  • the map information created in this way is, for example, an article that is centered on the first place PS1 and is plotted with a vector parallel to the corridor as a reference point and a reference line, and then away from the user 100's hand. The location can be superimposed and displayed on this map to notify the user 100.
  • the article management system can automatically create map information even in a place where map data is not prepared in advance. Therefore, if the location has been moved by the user 100, the location of the article away from the user 100 can be displayed on the map even if the map data is not prepared.
  • the embodiment includes the following embodiments.
  • the mobile terminal device includes an image pickup unit that is an image including an operation of the user and an article and is configured to acquire the image for specifying the position of the article based on the operation of the user.
  • Mobile terminal device Mobile terminal device.
  • Appendix 2 A server that can be connected to the mobile terminal device described in Appendix 1.
  • the server has an image recognition unit configured to recognize an operation of the user by analyzing an image captured by the image pickup unit and to identify the article.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

ユーザは、多種多様な携行品を保有しているので、これらの携行品がどの場所にあるかを常に把握しておきたい要望がある。このため、ユーザが保有する携行品の所在場所を自動的に記録するシステムが望まれている。 そこで、ユーザが所有する携行品を手にしたり手放したりする動作を認識して、携行品の名前や画像などのデータに対応づけて携行品の所在場所データを記録する。そして、ユーザからの指示によって、携行品の所在場所データを出力する物品管理システムを構築する。

Description

携帯端末装置、物品管理システムおよび物品管理方法
 本発明は、部品を管理する機能を有する携帯端末装置に関する。
 ユーザは、財布やスマートフォン、携帯電話機、鞄などの多種多様な物品を携行することがある。このため、これらの物品がどの場所にあるかを常に把握しておきたいという要望がある。
 この要望を実現する技術として、例えば、特許文献1には、所定の空間の各所に設置された複数のカメラにより物品を撮影して、撮影したカメラの位置に基づいて物品の位置を特定する物品管理システムが記載されている。
特開2019-179524号公報
 しかしながら、特許文献1に記載された技術は、物品の位置を管理する空間が限定されており、管理したい空間の各所にカメラを設置して、物品の撮影と追跡を行う必要がある。したがって、物品の位置を管理する空間を限定することなく、ユーザが使用する物品を管理できる技術が望まれている。
 一実施の形態における携帯端末装置は、物品データ記憶部と、撮像部と、ユーザからの要求データを入力する入力部と、ユーザに情報を出力する出力部と、物品データ制御部と、を備え、物品データ記憶部は、物品特定データおよび物品特定データに対応した物品所在データを含む物品データを複数記憶し、撮像部は、物品を含む画像を撮像し、物品データ制御部は、撮像部で撮像された画像に基づいて物品を特定し、物品の所在が変化した場合、物品の所在の変化を認識し、特定した物品に対応する物品データを物品データ記憶部に記憶するよう制御し、さらに、物品データ制御部は、入力部に入力された要求データに基づいて、物品データ記憶部に記憶されている複数の物品データの中から、要求データに対応する物品データを抽出し、抽出された物品データの情報を出力部により出力する制御を行うように構成される。
 一実施の形態によれば、ユーザが使用する物品を容易に管理できる技術的思想を提供することができる。
図1(a)~(c)は、携行している物品の管理を行なう対象となるユーザの行動例を示す説明図である。 携帯端末装置の外観構成例を示す図である。 携帯端末装置のハードウェア構成例を示す図である。 携帯端末装置で実現される物品管理システムの機能ブロック構成を示す図である。 物品データのデータ構造例を示す図である。 具体的な物品データの一例を示す図である。 (a)は、物品管理システムにおける物品データの更新動作の流れを示すフローチャートであり、(b)は、所在変更イベントを撮像した画像である。 (a)は、物品管理システムにおける物品データの更新動作の流れを示すフローチャートであり、(b)は、物品を手放すイベント動作を撮像した画像である。 (a)は、手に第1物品を持っている状態で、さらに第2物品を手に持つイベント動作を撮像した画像であり、(b)は、第1物品と第2物品とを手に持った状態から第1物品と第2物品の両方を手放すイベント動作を撮像した画像である。 ユーザがバックなどの中から物品を取り出すイベント動作を撮像した画像である。 ユーザがバックなどに物品をしまうイベント動作を撮像した画像である。 (a)は、画像認識部によって記録される中間物品データのデータ構造例(フォーマット)を示す図であり、(b)は、中間物品データの一例を示す図である。 物品データ更新部の構成を示すブロック図である。 データベースである物品データ記憶部に記憶されている物品データを最新の状態に更新する流れを示すフローチャートである。 ユーザからの物品の所在の問い合わせがあったときの応答動作の概略を示すフローチャートである。 問い合わせ応答動作の流れを示すフローチャートである。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 物品データのデータ構造例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 物品データのデータ構造例を示す図である。 出力部による表示の一例を示す図である。 物品データのデータ構造例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 出力部による表示の一例を示す図である。 携帯端末装置を示す図である。 分散システムの機能構成を示すブロック図である。 分散システムにおける携帯端末装置とタッチパネル型携帯情報端末との連携動作の一例を示す図である。 分散システムの機能構成を示すブロック図である。 物品管理システムによって、ユーザが身に付けていた物品を手放した場所を示すために、地図を作成する一例を示す図である。 物品管理システムによって、ユーザが身に付けていた物品を手放した場所を示すために、地図を作成する一例を示す図である。
実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。なお、図面をわかりやすくするために平面図であってもハッチングを付す場合がある。
 (実施の形態1)
 <基本思想>
 本実施の形態1における基本思想は、ユーザに装着可能な携帯端末装置にカメラに代表される撮像部を取り付けることにより、撮像部で撮像された画像から物品の所在が変更されるイベントを認識し、かつ、物品を特定して、物品の所在が変更されたときの場所に関する情報から物品の所在をユーザに知らせるという思想である。
 例えば、ユーザではなくて、所定の空間の各所に予め複数のカメラを設置し、複数のカメラにより物品を撮影して、撮影したカメラの位置に基づいて物品の位置を特定する物品管理システムを考えることができる。
 ところが、このような物品管理システムでは、カメラを設置した空間以外にユーザが移動すると、ユーザの行動を把握できないことになる。特に、カメラの撮像可能範囲以外の場所で、物品がユーザの身から離れた場合、カメラで撮像した画像に基づいて、物品の位置を特定することが困難となる。
 これに対し、本実施の形態1における基本思想では、ユーザに装着可能な携帯端末装置に撮像部が取り付けられており、この撮像部で撮像された画像に基づいて、物品の位置を特定する。これにより、基本思想によれば、ユーザに装着されている携帯端末装置に撮像部が設けられているため、ユーザが移動すると、ユーザとともに撮像部も移動することになる。このことから、基本思想では、ユーザの行動を把握することができなくなる状況はなくなる。つまり、基本思想によれば、携帯端末装置に設けられた撮像部によって、ユーザの行動を把握することができる結果、所定の空間の各所に予め複数のカメラを設置する構成のようにカメラの設置範囲に制限されることなく、物品の位置を特定できるポテンシャルが格段に向上する。言い換えれば、基本思想によれば、ユーザの行動範囲に制限されることなく、物品の位置を特定できる利点が得られる。さらには、基本思想によれば、多数のカメラを空間の各所に設置する必要もなくなることから、物品管理システムを構築するために要するコストも削減することができる。
 このように本実施の形態1における基本思想の本質は、ユーザに装着可能な携帯端末装置において、ユーザの動作に基づいて物品の所在が変更される画像を撮像するように構成された撮像部を備える点にあると言える。
 例えば、図1(a)~図1(c)は、携行している物品の管理を行なう対象となるユーザの行動例を示す説明図である。
 携帯端末装置1は、例えば、眼鏡型のウェアラブル端末(HMD:Head Mount Display)として、ユーザ100に装着された状態で稼働している。この携帯端末装置1には、カメラなどから構成される撮像部が設けられている。
 図1(a)には、ある場所で、携帯端末装置1を装着したユーザ100と物品2とが離れている状態が示されている。この場所でユーザ100が物品2を手に持ち、図1(b)の状態になり、別の場所に移動する。そして、別の場所図1(c)にて物品2を手放したとする。
 以上の動作に対して、携帯端末装置1に設けられている撮像部によって、少なくとも物品2を含む画像が撮像される。
 本実施の形態1における基本思想は、図1(a)~図1(c)に示すようなユーザ100の行動に基づいて、撮像部で撮像された画像から物品の所在が変更されるイベントを認識し、かつ、物品を特定して、物品の所在が変更されたときの場所に関する情報から物品の所在をユーザに知らせる物品管理システムで実現される。
 以下では、この基本思想を具現化した物品管理システムについて説明する。特に、本実施の形態1では、ユーザ100が装着可能な携帯端末装置1において、物品管理システムが実現されている構成について説明するが、本実施の形態1における基本思想は、これに限らず、例えば、携帯端末装置1だけでなく他の構成要素も含む分散システムによって、上述した物品管理システムを構築することもできる。
 <携帯端末装置の外観構成>
 図2は、携帯端末装置の外観構成例を示す図である。
 図2において、本実施の形態1における携帯端末装置1は、眼鏡型のヘッドマウントディスプレイから構成されており、ユーザが常時身に付けて動作させることができる形態となっている。
 この携帯端末装置1には、例えば、カメラから構成される撮像部10を有している。具体的に、この撮像部10は、眼鏡のブリッジに設けられており、180度以上の画角をもつ魚眼レンズから構成されている。このように、携帯端末装置1に設けられた撮像部10は、広角撮像することができる構成をしており、ユーザが手に持った物品や手に持った物品を手放す場所などを含む広範囲の撮像が可能である。なお、図示はしないが、眼鏡のブリッジだけでなく、眼鏡のつる(テンプル)の端にも広角のカメラを設置することにより、より広範囲にユーザが物品を取り扱う状況(動作)を把握できる。
 また、携帯端末装置1には、位置検出部11が設けられている。この位置検出部11は、GPS、近距離無線通信、街角や室内に設置されているビーコンなどからの信号を受信することにより、ユーザの現在位置に関する位置情報を取得するように構成されている。
 このような外観構成をしている携帯端末装置1には、上述した撮像部10および位置検出部11を含む部品管理システムが搭載されている。
 以下では、部品管理システムを実現する携帯端末装置1のハードウェア構成について説明する。
 <携帯端末装置のハードウェア構成>
 図3は、携帯端末装置のハードウェア構成例を示す図である。
 図3において、携帯端末装置1は、バス50を中心として、各種のハードウェアを結びつけた構成を有している。具体的に、携帯端末装置1は、物品を手に取るユーザの動作や物品を手放すユーザの動作を撮像する撮像部10と、携帯端末装置1の方向や位置を測定する方位センサ、ジャイロセンサ、近距離無線、GPSユニットなどを含む位置検出部11を備える。
 また、携帯端末装置1は、各種データを記憶する記憶部12と、ユーザの目に画像や文字を表示するための表示デバイス(表示面)13と、音声を出力するスピーカ14と、ユーザの声による指示や外部からの音を入力するマイク15を備えている。
 さらに、携帯端末装置1は、クラウドなどの外部環境へのアクセスや他の端末装置との通信を行う通信部16と、システム全体を制御するCPU17と、CPU17による演算処理を実行するためのワークメモリとなるRAM18と、撮像部10で撮像された画像データを記憶する画像RAM19を備えている。そして、携帯端末装置1は、システムの基本動作を実行するための基本プログラムや物品管理システムを実行する物品管理プログラムを格納した不揮発性メモリ(フラッシュメモリ)であるFROM20と、ユーザからの押し下げやタッチなどの操作を受け付けるキー21を備える。
 なお、物品管理システムの構成要素であるデータベースは、例えば、記憶部12に保存されるように構成してもよいし、物品管理プログラムとともにFROM20に保存されるように構成してもよい。
 <携帯端末装置の機能ブロック構成>
 次に、物品管理システムを実現する携帯端末装置1の機能ブロック構成について説明する。図4は、携帯端末装置1で実現される物品管理システムの機能ブロック構成を示す図である。
 図4において、携帯端末装置1は、物品データ記憶部200と、撮像部201と、入力部202と、出力部203と、物品データ制御部250とを有している。さらに、物品データ制御部250は、画像認識部204と、物品データ更新部205と、検索部206から構成され、物品データに関する制御を行う。この物品データ制御部250の機能は、具体的には、例えば、CPU17によって実行される物品管理プログラムや、複数の機器から構成される物品管理システム上のプロセッサー等で実行されるプログラムで実現される。
 物品データ記憶部200は、物品データを複数記憶するように構成されており、物品データのデータベースとして機能する。物品データは、物品特定データと、この物品特定データと対応付けられた物品所在データとを含む。物品特定データとは、物品を特定するためのデータである。この物品特定データには、例えば、物品の名称に関する物品名データや物品の形状に関する物品画像データが含まれる。また、物品所在データとは、物品の所在を特定するためのデータである。この物品所在データには、物品をユーザが身に付けているか否かを示すフラグ、物品の位置情報に関する物品位置データ、物品をユーザが身に付けた時刻あるいはユーザが手放した時刻に関する時刻データ、物品の置かれた位置に関する位置画像データが含まれる。特に、位置画像データには、ユーザが物品を手放した時点の画像データが含まれる。
 次に、撮像部201は、ユーザが管理する物品を含む画像を撮像するように構成されている。撮像部201は、ユーザが物品を取り扱う動作に伴って、ユーザの動作およびユーザの手も撮像してもよい。具体的に、ユーザの動作や物品を含む画像とは、ユーザの動作に基づいて物品の位置を特定するための画像であり、撮像部201は、このような画像を撮像するように構成されている。このことから、撮像部201で撮像される画像には、所在を変更した物品や、ユーザの手で物品を掴む第1イベント動作やユーザの手から物品を放す第2イベント動作等が記録される。
 なお、撮像部201は、2次元画像だけでなく、物品までの距離を測定することにより物品の3次元形状情報を取得する距離センサからの出力に基づいて、物品の3次元画像を取得するように構成されていてもよい。
 続いて、画像認識部204は、撮像部201で撮像された画像に基づいて、物品の所在の変化を認識し、かつ、物品を特定するように構成されている。例えば、物品データ制御部250の画像認識部204は、撮像部201で撮像された画像から所在を変更した物品や、第1イベント動作や第2イベント動作を検出することによって、物品の所在の変化を認識するように構成されているとともに、画像に含まれる物品画像に対する画像解析によって、物品を特定するように構成されている。
 さらに、画像認識部204は、物品の所在の変化(イベント動作が行われたこと)を検出すると、物品の所在の変化が記録された画像を解析することによって、物品の所在場所を認識するように構成される。例えば、ユーザから手放された物品がテーブルの上に置かれたという第2イベント動作が行われた場合、画像認識部204は、第2イベント動作が記録された画像を解析することによって、ユーザから手放された物品が置かれた場所がテーブルの上であることを認識できるように構成されている。
 なお、画像認識部204は、撮像部201で撮像された画像に基づいて、物品の所在の変化を認識し、かつ、物品を特定するように構成されている必要があるが、物品の所在場所まで認識できるように構成されてなくてもよい。ただし、この場合、画像認識部204で物品の所在の変化が検出されると、そのときの物品の位置情報を把握できるように物品管理システムに位置検出部を設ける必要がある。つまり、物品管理システムでは、画像認識部204によって物品の所在場所を認識するように構成することもできるし、物品の位置情報を把握できるような位置検出部を設けるようにも構成することもできる。さらには、物品管理システムでは、画像認識部204によって物品の所在場所を認識することができるように構成するとともに、物品の位置情報を把握できるような位置検出部も設けるようにも構成することもできる。
 そして、物品データ制御部250の物品データ更新部205は、画像認識部204によって特定された物品に対応する物品データを更新するように構成されている。例えば、物品データ更新部205は、画像認識部204において検出された物品の所在を変更するイベントに基づき、物品の所在場所を書き換えるように構成される。
 あるいは、物品データ更新部205は、画像認識部204において、第1イベント動作を検出し、かつ、物品が「物品A」であると特定された場合、「物品A」に対応する物品データに対して、ユーザが身に付けている状態であることがわかるように「物品A」に対する物品データを書き換えるように構成されているとともに、「物品A」の所在場所に関するデータも書き換えるように構成される。
 一方、例えば、画像認識部204において、第2イベント動作を検出し、かつ、物品が「物品B」であると特定された場合、「物品B」に対応する物品データに対して、ユーザが身に付けていない状態であることがわかるように「物品B」に対する物品データを書き換えるように構成されているとともに、「物品B」の所在場所に関するデータも書き換えるように構成される。
 このようにして、物品管理システムにおいては、撮像部201と画像認識部204と物品データ更新部205を備えることにより、ユーザの動作に基づいて、物品データ記憶部200に記憶されている物品データを最新の状態に更新することができるように構成されていることになる。
 次に、物品管理システムは、ユーザからの要求に応じて、物品の所在を問い合わせるシステムを含んでおり、このシステムは、入力部202と検索部206と出力部203によって構成されている。
 入力部202は、ユーザからの要求データを入力するように構成されている。例えば、入力部202に入力される要求データは、所在を問い合わせたい問い合わせ物品の名称に関する名称データである。要求データは、図3に示すマイク15やキー21を使用して入力される。
 検索部206は、入力部202に入力された要求データに基づいて、物品データ記憶部200に記憶されている複数の物品データの中から、要求データに対応する物品データを抽出するように構成されている。例えば、検索部206は、物品の名称データと一致するデータを含む物品データを抽出するように構成される。
 出力部203は、検索部206によって抽出された物品データから把握される情報を出力するように構成されている。例えば、出力部203は、検索部206で抽出された物品データに基づいて、物品の所在情報を出力するように構成される。
 これにより、物品管理システムにおいては、入力部202と検索部206と出力部203を備えることにより、ユーザからの要求データに基づいて、ユーザが問い合わせた物品の所在情報を出力することができるように構成されていることになる。
 <物品データのデータ構造例>
 次に、物品データ記憶部200に記憶される物品データのデータ構造例について説明する。図5は、物品データのデータ構造例を示す図である。
 図5に示すように、データブロック300Aやデータブロック300Bのようなフォーマットを1つのブロックとし、この1つのブロックに1つの物品データが記憶される。そして、物品の記録が新たに発生するたびに物品データが増えていくことになる。
 例えば、データブロック300Aに記憶される物品データを例にして説明する。物品データは、項目として、「物品ID」、「物品名」、「日/時」、「フラグ」、「位置」、「画像リンク」を有する。
 ここで、「物品ID」や「物品名」などは、物品を特定する物品特定データの項目であり、「日/時」や「フラグ」や「位置」は、物品の所在を示す物品所在データの項目である。したがって、物品データは、物品特定データと物品所在データを含むように構成され、かつ、物品特定データと物品所在データとは、互いに対応づけられている。
 「物品ID」は、物品データ記憶部200での基本管理番号である。「物品名」には、物品の名前が推定できている場合の物品名が記録される。「日/時」には、物品を手に持った時点や手から離した時点の日時が記録される。「フラグ」には、ユーザが身に付けている物品かユーザから離れている物品かを示す情報が記録される。例えば、「フラグ」の意味は、手に持っている場合も含めてユーザが身に付けている場合が「有」で、ユーザが身に付けていない場合が「無」である。「位置」には、物品の所在情報が記録される。「画像リンク」には、物品の画像や物品を手に持ったり手放したりした時の撮像画像が保存されている画像データ保存領域へのリンク情報が記録される。静止画と共に動画も記録してよい。
 具体的な事例を挙げると、例えば、スマートフォンをテーブルの上に置いた場合は、「部屋A(位置)の中央にあるテーブルBの上(画像リンク)に、ユーザは、スマートフォン(物品名)を置いた」という情報になる。一方、例えば、スマートフォンをポケットに入れた場合は、「ユーザは、スマートフォン(物品名)をポケット(位置)に入れた」という情報になる。また、ユーザが物品を手に持っている状態では、「フラグ」=「有」、「位置」=「右手の平」という情報になる。
 図6は、具体的な物品データの一例を示す図である。
 図6において、「物品ID」として番号「001」、「物品名」として「スマートフォン」、「日/時」として、ユーザが手に持った瞬間や手から離した瞬間の日時である「2020/4/23/15:32」が記録されている。
 「フラグ」には、物品を身に付けていることを示す「有」と、物品を身に付けていないことを示す「無」のいずれかが記録される。
 「位置」として、ユーザが身に付けている状態の1つである衣服のポケットに入っていることを示す「ポケット」、ユーザの身から離れて特定の場所にあることを示す「部屋AのテーブルBの上」、他の物品の中に入っていることを示す「ハンドバック」とその物品名(ID=33)、地球上の絶対座標を示す緯度経度(座標値X、Y)、ユーザが手に持っている状態、すなわち、「位置」=「右手の平」などが記録される。他にも、身体の部位に保持している場合、「位置」には、その部位が記録される。なお、身体の部位に保持している状態(例えば、手に持っている状態、「位置」=手の平)では、必ず「フラグ」=「有」となる。
 「画像リンク」には、ユーザが手に持ったりたから離したりした時刻(前後を含む)の撮像画像にリンクするアドレスを表現するファイル名(202004231532_1.jpg、202004231532_2.jpg、202004231532_3.mp4)などが記録される。以上のようにして、物品データが構成されている。
 <物品管理システムの動作(物品データの更新動作)>
 続いて、物品管理システムの動作について説明する。物品管理システムの動作には、撮像部201と画像認識部204と物品データ更新部205の構成により実現される物品データの更新動作と、入力部202と検索部206と出力部203の構成により実現される問い合わせ応答動作がある。
 以下では、まず、物品データの更新動作について説明する。
 本実施の形態における物品管理システムでは、物品がその所在を変える所在変更イベントに基づいて、物品データを更新する。所在変更イベントとは、例えば、ユーザが物品を身に付けたり、物品をどこかに置いたり、物品をどこかに収納したりするイベントである。
 図7(a)は、物品管理システムにおける物品データの更新動作の流れを示すフローチャートである。
 図7(a)において、まず、携帯端末装置1は、物品管理システムを起動した後、データベースである物品データ記憶部200を初期化する(S101)。データベースの初期化の一例としては、登録している物品データが何もない状態にデータベースを初期化する。ただし、データベースの初期化方法は、これに限らず、初期値としてユーザが既に身に着けている物品に対応する物品データの登録を行ったり、前回のセッションの終了時に使用していたデータベースを引き継いだりする初期化方法を採用してもよい。
 また、例えば、ユーザが朝起きてから出勤するまでに身に着けるような定常的に携行する物品が決まっている場合、これらの物品に対応する物品データを予め初期値として登録することもできる。例えば、これらの物品を身に着けて、外出時に初めて携帯端末装置1で物品管理システムを起動したときに、物品管理システムを起動する前に既に身に着けている物品に対応する物品データを物品管理システムの管理対象とすることができる。
 続いて、撮像部201は、物品を含む画像を撮像する(S102)。すると、画像認識部204は、撮像部201で撮像された画像に基づいて、所在変更イベントを認識すると共に、画像解析技術を使用することにより、撮像された物品を特定する(S103)。その後、物品データ更新部205は、画像認識部204で認識された所在変更イベントと特定された物品に基づいて、特定された物品に対応する物品データを更新する(S104)。以上のようにして、物品管理システムにおいて、物品データの更新動作が行われる。
 なお、S102における画像は、静止画または動画、あるいはその両方でもよい。静止画は一定間隔で撮像し続けるものでもよい。動画を撮像し続け、一定期間の動画記録をバッファに保管してもよい。そして、一定間隔で撮像した静止画から所在変更イベントを検出し、その前後の動画記録と静止画を、所在変更イベントが起きた場所と物品の特定のための画像解析の対象としてもよい。
 具体的に画像認識部204での画像認識方法について説明する。
 画像認識部204は、撮像部201で撮像された画像に基づいて、物品がその所在を変える所在変更イベントを認識する。そして、画像認識部204は、所在変更イベントから物品の新たな所在を把握する。例えば、図7(b)は、机の上に置いてあった物品Aを上着の胸のポケットにしまった所在変更イベントあるいは、その逆の所在変更イベントを撮像した画像である。
 画像認識部204は、例えば、画像解析技術を使用することにより、これらの画像を解析して所在変更イベントを認識する。すなわち、画像認識部204は、撮像部201で撮像された所在変更イベントから、ユーザがどういう物品の所在を変更したかを認識する。また、画像認識部204による物品の特定は、ユーザが物品を移動する前の画像、移動中の画像あるいは移動後の画像に対して画像解析技術を使用することにより行われる。
 ここで、画像解析技術で物品の名称が特定できない場合、画像認識部204は、ユーザに音声入力などで物品名称の入力を求めることもできる。
 さらに、画像認識部204は、ユーザが特に重要であると考える物品については、「ハンドバックを居間のテーブルの上に置く」といったようなユーザの自発的な発声によって物品名称と物品の置き場所に関する入力を受け付けることもできる。
 なお、画像認識部204は、複数の物品を取り扱う場合にも、画像解析技術を使用することにより、所在変更イベントを認識するとともに、物品を特定する。
 以上のようにして、画像認識部204は、撮像部201で撮像された画像に基づいて、常にユーザがどのような物品の所在を変更したかを認識することができる。すなわち、画像認識部204は、画像解析技術を使用して、所在変更イベントの認識と物品の特定を実現する。そして、画像認識部204は、所在変更イベントの認識結果と物品の特定結果を認識した時刻とともに物品データベースを更新する。
 次に、携帯端末装置1は、所在変更イベントの解析に使用する画像として、特にユーザの手と物品を含んだ画像を用いてもよい。ここでの画像も静止画または動画、あるいはその両方でもよい。多くの場合、物品の所在を変更するためには、ユーザは自身の手を使うので、ユーザの手が物品を扱う動作の監視を通じて所在変更イベントを認識すると、認識の確実性が増す。以降、物品の所在変更につながるユーザが物品を扱う動作のことをイベント動作と呼ぶことにする。
 この場合のフロー図を図8(a)に示す。基本的に図7(a)と同じであり、同じ内容の処理については、同じ番号を付してある。異なるところを中心にして説明する。まず、ステップS110において、携帯端末装置1は、ユーザの手と物品とを区別するために、撮像部201を使用して物品を持っていない状態の手の画像を取得する。ただし、この手の画像は、予め記録している画像を使用してもよい。さらに、物品管理システムの稼働中において、ユーザが手袋を嵌めている場合は、手に手袋を嵌めた状態の画像を取得する。なお、片方の手しか使用しない場合を除き、通常は、両手が対象となる。また、この参照用の手の画像情報がなくても、画像解析によりユーザの手と認識できる場合は、ステップS110は省略してもよい。
 続いて、撮像部201は、ユーザの手と物品とを含むイベント動作の画像を撮像する(S111)。すると、画像認識部204は、撮像部201で撮像された画像に基づいて、ユーザが物品を手に持ったり離したりするイベント動作から所在変更イベントを認識する。さらに、画像認識部204は、画像解析技術を使用することにより、物品を持っていない状態の手の画像との比較によって、撮像された物品を特定する(S103)。
 例えば、図8(b)は、物品Aを手に持ったり手放したりするイベント動作を撮像した画像である。図9(a)は、手に物品Aを持っている状態で、さらに物品Bを手に持つイベント動作を撮像した画像であり、図9(b)は、物品Aと物品Bとを手に持った状態から物品Aと物品Bの両方を手放すイベント動作を撮像した画像である。画像認識部204は、例えば、画像解析技術を使用することにより、これらの画像を解析してイベント動作を認識する。すなわち、画像認識部204は、撮像部201で撮像されたイベント動作から、ユーザがどういう物品を手で持っているかを把握し、どういう物品をいつどこで手に持ち、あるいは、手から離したかを認識する。また、画像認識部204による物品の特定は、物品が手の中にある状態の画像、物品を手に持つ前の画像、手から離した後の画像に対して画像解析技術を使用することにより行われる。
 なお、画像認識部204は、図9(a)や図9(b)に示すように、複数の物品を取り扱う場合にも、画像解析技術を使用することにより、イベント動作を認識できるとともに、物品を特定することができる。
 さらに、図10は、ユーザがバックなどの中から物品を取り出すイベント動作を撮像した画像であり、図11は、ユーザがバックなどに物品をしまうイベント動作を撮像した画像である。これらの図10や図11の場合のように、物品を手に取る前の物品の画像、手から離した後の物品の画像を撮像できない場合は、画像認識部204は、物品が手の中にある状態を撮像した画像から物品の所在の変化を認識する。なお、服のポケットから物品を出し入れする場合も同様にして物品の所在の変化が認識される。
 以上のように、携帯端末装置1は、イベント動作の監視を通じても、常にユーザがどのような物品の所在を変更したかを認識することができる。この方法の場合、携帯端末装置1は、ユーザの手にどのような物品が所持されているかという中間的情報をデータ管理において使用してもよい。この情報のことを以後、中間物品データと呼ぶことにする。以下で中間物品データを使用した物品データの管理方法の詳細を説明する。
 図12(a)は、イベント動作の認識に伴って画像認識部204によって記録される中間物品データPのデータ構造例(フォーマット)を示す図である。
 図12(a)に示すように、中間物品データPには、項目として、イベント動作を認識した日時を示す「日/時」、イベント動作を認識した場所を示す「位置」、この場所の画像が保存されている画像データ保存領域へのリンク情報を示す「位置画像リンク」、手にある物品の数を示す「物品数」、特定した物品の名称を示す「物品名称」、特定した物品の画像が保存されている画像データ保存領域へのリンク情報を示す「物品画像リンク」が含まれる。
 図12(b)は、中間物品データPの一例を示す図である。
 図12(b)に示す中間物品データPにおいては、「日/時」が「2020/4/26/11:17」であり、「位置」が「机の上」である。また、「位置画像リンク」で示されるリンク情報は、「SSSS.jpg」、「SSSS.mp4」となっている。「物品数」は、「2」となっており、手に2個の物品があることがわかる。「物品名(1)」は、「AAAA」であり、「物品画像リンク(1)」で示されるリンク情報は、「AAAA.jpg」、「AAAA.mp4」である。同様に、「物品名(2)」は、「BBBB」であり、「物品画像リンク(2)」で示されるリンク情報は、「BBBB.jpg」、「BBBB.mp4」である。
 ここで、イベント動作を認識した場所を示す「位置」の特定方法としては、例えば、携帯端末装置1に含まれる位置検出部11(図3参照)による検出結果を利用することができる。すなわち、画像認識部204は、位置検出部11による検出結果を入力して、「位置」を特定することができる。例えば、屋外の場合は、GPSを使用してユーザの現在位置を測定することができる。一方、屋内の場合は、予め設置されている無線LANやモバイル通信の電波強度をそれぞれの機器が持つチャネルと機器の場所情報を利用して測定することができる。ただし、イベント動作を認識した場所を示す「位置」の特定方法としては、上述した方法に限らず、例えば、画像認識部204は、物品を手に持った時点や手から離した時点の手の周辺画像に基づいて、イベント動作を認識した場所を示す「位置」の特定することもできる。
 なお、画像認識部204が物品の名称を特定できない場合、画像認識部204自体が名称を付けて、物品の画像とともに辞書データとして記録することもできる。
 以上のようにして、画像認識部204では、イベント動作の認識結果と物品の特定結果が認識した時刻とともに中間物品データPに記録される。
 続いて、物品データ更新部205は、画像認識部204で記録された中間物品データPに基づいて、物品データの更新動作を行う。
 まず、中間物品データPを取り扱う場合の物品データ更新部205の構成について説明する。
 図13は、物品データ更新部の構成を示すブロック図である。
 図13において、物品データ更新部205は、物品数変化検出部301と物品データ書き換え部302を有する。物品数変化検出部301は、画像認識部204で記録された中間物品データPに基づいて、ユーザの手に掴まれた物品数の変化を検出するように構成されている。また、物品データ書き換え部302は、物品数変化検出部301で検出された物品数の変化に寄与する物品に対応する物品データを書き換えるように構成されている。
 以下では、中間物品データPに基づく物品データの更新動作を説明する。
 図14は、データベースである物品データ記憶部に記憶されている物品データを最新の状態に更新する流れを示すフローチャートである。
 図14において、まず、物品データ更新部205の物品数変化検出部301は、画像認識部204で記録された中間物品データPを取得する。このとき、物品数変化検出部301は、初期設定として、最初に管理を開始した時点における中間物品データP0を取得する(S201)。その後、例えば、所定期間経過後における中間物品データP1を取得する(S202)。
 次に、物品数変化検出部301は、中間物品データP0に含まれる「物品数」と中間物品データP1に含まれる「物品数」とを比較する。そして、物品数変化検出部301は、中間物品データP1に含まれる「物品数」が、中間物品データP1に含まれる「物品数」から変化があるかチェックする(S203)。
 「物品数」に変化がない場合には、データベースの更新動作は行わず、中間物品データP1を新たに中間物品データP0に設定する(S206)。
 一方、「物品数」に変化がある場合、物品データ書き換え部302は、物品数変化検出部301で検出された物品数の変化に寄与する物品を特定した後(S204)、特定した物品に対応する物品データを書き換える(S205)。
 具体的に、データベースの更新は、「物品数」が2以上変化する場合も含め、変化に寄与する物品のそれぞれについて、以下に示すようにして、データベースの更新動作を行う。
 (1)「物品数」が増加して、増加した物品がデータベースにない場合
 この場合、増加した物品を特定した後、この物品に対応する物品データを作成する。これにより、例えば、図5に示す項目に対応するデータが記録される。物品データの項目のうち、「位置」には、「手」あるいは左右の区別もして「右手」などと記録される。また、この場合、物品は、ユーザに身に着けられることから、「フラグ」=「有」に設定される。
 (2)「物品数」が増加して、増加した物品がデータベースにある場合
 この場合、増加した物品を特定した後、この物品に対応する物品データを更新する。このときも、物品データの項目のうち、「位置」には、「手」あるいは左右の区別もして「右手」などと記録される。また、この場合、物品は、ユーザに身に着けられることから、「フラグ」=「有」に設定される。
 (3)「物品数」が減少する場合
 この場合、減少した物品を特定した後、この物品に対応する物品データを更新する。例えば、物品データの項目のうち、「位置」には、ユーザのポケットなどに入れた(ユーザが身に着けた)と判断できる場合は、「フラグ」=「有」に設定される。それ以外の場合、特定された物品がユーザから手放されたことになるため、「フラグ」=「無」に設定される。この「位置」に関する情報が、物品を置いた場所を示す情報となる。
 このようにして、物品データ書き換え部302は、データベースに記憶されている物品データを更新した後、中間物品データP1を新たに中間物品データP0に設定する(S206)。そして、物品管理システムの終了指示があれば(S207)、物品管理システムを終了する一方、物品管理システムの終了指示がなければ(S207)、物品管理システムの処理を継続する。
 なお、物品を手に保持するのと同様に、籠等に一時的に保持して、物品の所在を変更する管理システムにおいて、この中間物品データを使用した管理方法は有効である。
 以上のようにして、物品管理システムが搭載された携帯端末装置1によれば、ユーザが手に取った物品の所在場所を含む物品データからなるデータベースを構築することができる。
 <物品管理システムの動作(問い合わせ応答動作)>
 上記では、物品管理システムのデータベースを構築する動作について説明したが、以下では、物品管理システムを活用する動作について説明する。
 具体的には、ユーザからの物品の所在の問い合わせがあったときの応答動作について説明する。
 図15は、ユーザからの物品の所在の問い合わせがあったときの応答動作の概略を示すフローチャートである。
 図15において、ユーザは、物品の所在を問い合わせたい場合、ユーザは、例えば、図3に示すマイク15による音声入力や図3に示すキー21によるユーザからの押し下げやタッチなどの入力操作を行う。これにより、ユーザからの要求データが物品管理システムの入力部202に入力される(S301)。すると、物品管理システムの検索部206は、データベースである物品データ記憶部200に記憶されている複数の物品データの中から、入力部202に入力された要求データに対応する物品データを抽出する(S302)。そして、物品管理システムの出力部203は、検索部206で抽出された物品データから把握される情報を出力する(S303)。これにより、ユーザは、問い合わせた物品の所在に関する情報を取得することができる。
 さらに、問い合わせ応答動作の一例について説明する。
 図16は、問い合わせ応答動作の流れを示すフローチャートである。
 図16において、まず、ユーザは、名称呼称などの方法で所在を知りたい物品の問い合わせ(要求データ)を物品管理システムに対して行う。これにより、ユーザからの要求データが物品管理システムの入力部202に入力される(S401)。次に、物品管理システムの検索部206は、データベースである物品データ記憶部200に記憶されている複数の物品データを読み出す(S402)。このとき、要求データに一致する物品名称を有する物品データがある場合には(S403)、出力部203からその物品データに含まれる物品の位置情報が表示される(S404)。一方、要求データに一致する物品データが見つからない場合、検索部206は、データベースに記憶されているすべての物品データを確認したか否かを判断する(S405)。そして、検索部206がデータベースに記憶されているすべての物品データを確認しても要求データに一致する物品データが見つからない場合(S405)、出力部203からは、ユーザの問い合わせに対応する物品に関する物品データがデータベースにないことを示す情報が出力される(S406)。
 以下では、出力部203による表示例について説明する。
 図17および図18は、出力部203による表示の一例を示す図である。図17および図18に示すように、例えば、出力部203による物品の場所の表示は、テキスト表示と物品の所在を特定する画像とを含む表示で行うことができる。このように画像を含む場合、場所の名称が物品データとして記録されていない場合であっても、ユーザは、画像に写っている物品の周辺の状況などに基づいて、物品の所在を特定することができる。
 また、図19に示すように、ユーザが探している物品が他の物品の中に入っている場合は、どの物品(バック等)の中に入れたかという情報と、その入れた先の物品(バック等)がどこにあるかを表示することもできる。この場合、どの物品に入れたかは、物品データの「位置」の項目で、入れた物品の「物品ID」を記載しておくことにより、図19に示すような表示を実現することができる。
 さらに、図20に示すように、物品の位置座標や屋内での位置(どの部屋にあるかなど)の情報を取得していれば、地図や屋内レイアウト図を表示した上で、その中に物品が位置する地点にマークを表示するなどして、ユーザに物品の所在を表示してもよい。ここで、地図や屋内レイアウト図は、既に作成されているものを利用してもよいし、後述するように物品管理システム自体が作成した地図を利用することもできる。
 なお、ユーザが問い合わせている物品に対応する物品データが、データベースにない場合には、例えば、図21に示すように、問い合わせ物品が見つからない旨を表示することもできる。
 ここで、検索部206による物品データの検索は、フラグが「無」である物品データに限定してもよい。なぜなら、フラグが「有」の物品データは、手に持っているか、あるいは、身に着けているからである。そのような物品の所在がわからなくなっていることもあるが、ユーザが身に着けていない物品を探すことが多いと考えられる。これにより、例えば、物品名称が重複する物品データが存在する場合、ユーザが身に着けていない物品に対応する物品データのみが表示されることになり、無駄な表示が少なくなる。
 以上のようにして、本実施の形態1によれば、ユーザの携行品の所在を管理する物品管理システムのデータベースを利用することにより、ユーザが任意に指定した物品の所在を調べて、ユーザに提示することが可能となる。この結果、本実施の形態1によれば、所在がわからなくなった携行品(物品)の所在を容易に把握することができるようになる。
 特に、本実施の形態1における特徴は、物品管理システムの構成要素で、かつ、ユーザが装着可能な携帯端末装置1にユーザの手と物品とを含む画像を撮像する撮像部201が取り付けられている点にある。これにより、本実施の形態1における物品管理システムによれば、ユーザのイベント動作(ユーザが物品を手に取ったり手放したりする動作)を見逃すことなく、撮像部201で撮像できるため、物品の把握漏れを低減した信頼性の高いデータベースを構築できる結果、このデータベースを活用して、ユーザの携行品の所在を漏れなく確実に管理することができるという顕著な効果が得られる。
 <変形例1>
 ここで、出力部203による表示の変形例について説明する。
 図22は、データベースに登録され、かつ、ユーザが身に付けていない物品のリストを表示した例である。物品の所在場所が文言で簡潔に説明できれば、物品の所在場所とともに物品の名称も表示してもよい。
 この表示例は、画像解析技術で物品の名称を特定できていない場合や、意図した名称で登録されておらず、物品の名称を特定する方法では、物品データの検索ができない場合に有効である。
 図22は、ユーザが身に付けていない物品のみのリストを表示した例であるが、ユーザが身に付けている物品のリストやすべての物品のリストを表示してもよい。ユーザが探している物品は、身に付けていない可能性が高いので、まずユーザが身に付けていない物品のリストを調べて、次に、ユーザが身に付けている物品のリストを調べるといった手法が有効である。また、物品数が少ない場合は、ユーザの手間を省くため、最初からすべての物品のリストを表示するなど、ユーザの要求に合わせた対応をすることができる。さらに、物品名称が不明の物品については、その物品の画像も併せて表示してもよい。画像表示により、ユーザは、直接的に探したい物品を確認できる。
 図23は、物品リストを画像として表示する例である。物品名称がわかる物品については、物品名称とともに画像を表示する。一方、物品名称が不明な物品の場合、物品名称は記載しないが、ユーザは、画像(写真)を見ることで、物品を特定することができる。図23に示す表示例の場合も、ユーザが身に付けていない物品のみの表示、ユーザが身に付けている物品のみの表示、すべての物品の表示が可能である。すべての物品の表示を行う場合、枠線の太さを変えることにより、ユーザが身に付けている物品の表示とユーザが身に付けていない物品の表示とを区別できるようにしてもよい。また、物品名称が特定できていない物品のみを表示してもよい。
 図24は、データベース上の物品を地図に直接示して、物品の位置がわかるように表示した例である。ユーザが物品を身に付けている場合、星印で示す物品がユーザの位置に重なって表示される。一方、ユーザが身に付けていない物品は、置いてある位置に星印で表示される。特に、物品名称のわかる物品については、物品名称とともに表示される。このとき、画面に充分な解像度があり、ユーザが視認することが可能であれば、それぞれの星印の場所に物品画像やユーザが物品を手放した時点で撮像した画像を表示してもよい。
 図25は、物品をどのくらい前に手にしたかという情報も併せて表示した例である。あまり古くに手にした物品は、検索の対象ではない可能性が高いので、そのような物品の表示を抑制してもよい。なお、図25では、さらに、フラグの値を枠線の太さで表している。すなわち、ユーザが身に付けている物品であるか否かを枠線の太さで表すこともできる。
 <変形例2>
 次に、出力部203による表示のさらなる変形例について説明する。
 本変形例2において、出力部203は、物品データから把握される物品の所在位置までユーザを誘導する表示を可能とするように構成されている。
 図26および図27は、ヘッドマウントディスプレイなどを使用したAR(Augmented Reality)表示で、ユーザがどこに置いたかを知りたい物品を探す際に、物品の所在場所を表示してユーザを誘導する表示例を示す図である。
 ここでは、物品を手放した場所をユーザに表示する例が示されている。特に、図26は、物品である「Wallet」がどこにあるかを追跡している表示画面を示しており、ユーザが探索したい物品を指定した後の表示例である。そして、携帯端末装置1(ヘッドマウントディスプレイ)の出力部203は、物品を置いた場所を示す情報に基づいて、置いた物品の存在する場所まで誘導する矢印を重畳表示する。この矢印に従ってユーザが移動したり顔を向けたりすることにより、物品が置いてある場所に到達することができる。さらに、図27に示すように、物品に対しても矢印を重畳表示することにより、物品データに記録されている物品が確かにテーブル上に置いてあることを確認することができる。
 上述した変形例1や変形例2に示すように、出力部203による表示方法を工夫することにより、ユーザは、様々な利用形態で物品管理システムを使用することができる。この結果、ユーザの利便性を向上できる。
 (実施の形態2)
 本実施の形態2では、ユーザが物品を手に取った場所を忘れた場合に、その場所を物品管理システムが搭載された携帯端末装置1が教えるという技術的思想について説明する。この技術的思想は、ユーザが手に取った物品を元通りの取得場所に戻さなければならない場合に有用である。
 本実施の形態2における技術的思想は、以下に示す構成で実現される。すなわち、物品管理システムは、物品の取得場所を問い合わせるシステムを含む。ここで、物品データには、物品の取得場所に関するデータが含まれる。さらに、入力部202に入力される要求データは、取得場所を問い合わせたい問い合わせ物品の名称に関する名称データである。そして、検索部206は、名称データと一致するデータを含む物品データを抽出するように構成され、かつ、出力部203は、検索部206で抽出された物品データに基づいて、物品の取得場所に関する情報を出力するように構成される。
 具体的に説明する。物品を手に取った場所を記録するために、図28に示すように、物品データの項目に「元の場所」(Original location)と「元の場所(画像リンク)」(Original location Image)という項目を追加する。「元の場所」に記録する情報は、物品が元あった場所に関する情報であり、場所の名称や位置座標である。その物品が元あった場所が他の物品の中である場合は、他の物品の物品IDも記録される。「元の場所(画像リンク)」に記録されるリンク情報は、物品が元あった場所の画像にアクセスする情報である。
 本実施の形態2においても、中間物品データPに基づく物品データの更新動作が行われる。例えば、ユーザが物品を手にしたとき、中間物品データPの「位置」と「位置画像リンク」に、物品が元あった場所の情報とその場所の画像へのリンク情報とが記録される。そして、データベースの更新処理において、物品数が増加する場合、中間物品データPに記録されている物品が元あった場所の情報とその場所の画像へのリンク情報に基づいて、物品数の増加に寄与する物品に対応する物品データの「元の場所」と「元の場所(画像リンク)」とを新規に記録または更新する。
 ユーザから手に取った物品の取得場所(元あった場所)に関する問い合わせがあったときの動作フローは、図16とほぼ同様であり、出力部203は、物品の現在の位置情報の代わりに、物品の元あった場所(取得場所)を表示する。例えば、図29は、出力部203によって、物品の元あった場所(取得場所)を表示する一例を示す図である。
 ここで、ユーザが物品の元あった場所を問い合わせるときは、その物品を所持していると推測できることから、検索部206によるデータベースの検索範囲は、フラグが「有」の物品データに限定してもよい。
 また、物品の名称がよくわからないときには、例えば、図30に示すように、リスト表示をしてもよい。出力部203によるリスト表示は、画像表示を活用することもできるし、テキスト表示を活用することもできる。そして、リスト表示の場合も、リストの表示範囲をフラグ=「有」の物品データに限定することもできる。
 (実施の形態3)
 本実施の形態3では、物品を一括管理する技術的思想について説明する。
 本実施の形態3における技術的思想は、以下に示す構成で実現される。すなわち、物品には、第1物品と第1物品に収納される第2物品とが含まれる。そして、物品管理システムは、第1物品と第2物品とを一括して管理するシステムを含み、第1物品に対応する物品データには、収納される第2物品を特定するためのデータが含まれる。ここで、物品データ更新部205は、画像認識部204によって特定された物品が第1物品である場合、特定された第1物品に対応する物品データだけでなく、第1物品に関連付けられた第2物品に対応する物品データも更新するように構成される。
 具体的に説明する。本実施の形態3における技術的思想は、例えば、物品(第2物品)を何かの入れ物(バックなど)に入れて、その入れ物(第1物品)の場所を動かすことがある場合の物品管理に有用である。
 例えば、ユーザが入れ物を身に付けたり、身から離したりするときに、入れ物の収納されている物品のフラグも更新する。なぜなら、ユーザが入れ物を身に付けると、入れ物だけでなく、入れ物に収納されている物品もユーザに身に付けられることに相当するからである。つまり、本実施の形態3では、入れ物と入れ物に入れられる物品のそれぞれのフラグを同期させることにより、入れ物と入れ物に入れられる物品とを一括管理する。
 このため、例えば、図31に示すように、入れ物に対応する物品データの項目として、この入れ物に収納された物品の物品IDを記録する「収納される物品」(Stored object)という項目を追加する。
 例えば、物品を手から離したときの物品データの更新動作の際、その物品が他の物品(入れ物)に収納される場合、入れ物に対応する物品データの「収納される物品」という項目に、収納された物品の物品IDを記録する。
 そして、入れ物をユーザが身に付けると、入れ物のフラグだけでなく、収納される物品のフラグも「有」に設定される。一方、入れ物をユーザが身に付けていないと、入れ物のフラグだけでなく、収納される物品のフラグも「無」に設定される。
 図32は、出力部203による表示例である。図32に示すように、リスト表示をする際、収納関係も含む階層的な情報を表示することもできる。なお、収納される物品が、さらに別の物品を収納する入れ物となってもよい。
 このようにして、入れ物に対応する物品データと、入れ物に収納される物品に対応する物品データとの関連付けを行うことができ、これによって、入れ物と収納される物品とを一括管理することができる。この結果、本実施の形態3における物品管理システムによれば、よりユーザが使いやすい物品管理システムを提供することができる。
 (実施の形態4)
 本実施の形態4では、物品が本来収納されるべき場所に収納されているか否かを管理する技術的思想について説明する。
 本実施の形態4における技術的思想は、以下に示す構成で実現される。すなわち、物品管理システムは、物品が本来収納されるべき場所に収納されているか否かを管理するシステムを含む。ここで、物品には、本来の収納場所となる第1物品と、前記第1物品に収納されるべき第2物品とが含まれる。そして、第1物品に対応する物品データには、第1物品に収納されるべき第2物品を特定するデータが予め登録される。一方、第2物品に対応する物品データには、第2物品が第1物品に収納されているか否かを特定するためのデータが含まれる。このとき、入力部202に入力される要求データは、第2部品の収納状況を問い合わせるデータであり、出力部203は、第2部品に対応する物品データに含まれるデータであって第2物品が第1物品に収納されているか否かを特定するためのデータから把握される第2部品の収納状況を出力するように構成されている。
 具体的に説明する。例えば、図33に示すように、本来の収納場所となる物品(第1物品)の物品データに「収納すべき物品」(Stored Object (
Initial))という項目を設ける。この項目には、この収納場所に収納されるべき物品(第2物品)の物品IDが記載される。なお、この収納場所となる物品と収納されるべき物品との関連付けは、収納管理に先立ってデータベースに予め登録される。
 収納されるべき物品のフラグは、物品を手に取るか手から離す際のデータベースの更新動作時に、予め設定された本来の収納場所に収納された場合に「有」に設定される一方、それ以外の場合には「無」に設定される。つまり、フラグは、収納されるべき物品が本来の収納場所である物品に収納されているか否かを特定するためのデータとなる。
 収納されるべき物品が本来の収納場所である物品に収納されているか否かの収納状況は、例えば、図34に示すように、収納場所となる物品ごとに、収納されるべき物品の状態を表示することにより確認できる。具体的に、図34から、収納場所となる「工具箱1」には、収納されるべき工具1~工具3のうち、工具1と工具3は収納されている一方、工具2は収納されていないことがわかる。このとき、工具2に対応する物品データに基づいて、未収納の物品(工具2)の現在の所在を表示するようにしてもよい。
 なお、本実施の形態4における物品管理システムによって、収納されるべき物品が本来の収納場所である物品に収納されているか否かの収納状況を調べて、すべての収納されるべき物品が本来の収納場所となる物品に収納されていることを確認して記録することにより、作業者の確認作業遂行の証拠とすることもできる。このとき、収納後の施錠操作や箱の封印操作まで証拠として記録することもできる。
 この物品管理システムによって、作業者が作業を実施した後、収納されるべき物品が本来の収納場所となる物品に収納されていることの確認が容易となる。さらに、本実施の形態4における物品管理システムは、商品の梱包作業にも応用することができる。すなわち、本実施の形態4における物品管理システムを使用することにより、梱包箱に収められるべき物品(商品)がすべて収められているか否かの確認作業を容易にすることができる。
 (実施の形態5)
 本実施の形態5では、忘れ物を防止するための物品管理システムに関する技術的思想について説明する。
 本実施の形態5における技術的思想は、以下に示す構成で実現される。すなわち、物品管理システムは、忘れ物を防止する物品管理システムを含み、物品データ記憶部200は、さらに、予め設定された忘れ物チェック対象物品のリストを記憶するように構成されている。そして、物品データは、ユーザに身に付けられている状態、または、他の物品に収納されている状態と、それ以外の状態とを区別する二値データ(例えば、フラグ)を含む。ここで、物品データ更新部205は、画像認識部204によって物品がユーザに身に付けられている状態、または、他の物品に収納されている状態にあると認識された場合、二値データを第1値に設定する一方、画像認識部204によって物品がそれ以外の状態にあると認識された場合、二値データを第2値に設定するように構成されている。さらに、検索部206は、要求データの入力と予め設定された定期的な時間間隔での時刻の到来とユーザの移動動作の開始とのいずれかをトリガとして、忘れ物チェック対象物品のリストに挙げられている物品に対応する物品データを複数抽出するように構成された第1抽出部と、第1抽出部で複数抽出された物品データの中から、二値データが第2値である物品データを抽出するように構成された第2抽出部とを有する。そして、出力部203は、第2抽出部で抽出された物品データから把握される情報を出力するように構成されている。
 具体的に説明する。本実施の形態5における物品データのデータ構造は、前記実施の形態1における物品データを示す図5と同様であるが、フラグの設定方法を変更している。つまり、本実施の形態5では、ユーザが身に付けたか、あるいは、他の物品(バックなど)に収納した場合にフラグを「有」に設定する一方、その他の場合は、フラグを「無」に設定する。
 本実施の形態5では、これからユーザが出かけるとき、あるいは、ユーザがどこかに外出して自宅などに戻るとき、予め設定したチェックを行う物品リストに基づき、フラグが「無」の物品があるかどうかをチェックする。このとき、データベースに登録したすべての物品データをチェック対象とすることもできる。ここで、バックなどに収納された物品のフラグをバックに収納した時点で「有」にするのは、ユーザがバックの携行を忘れなければ、バックに収納した物品も必然的にユーザが携行することになるからである。つまり、バックを使用した間接管理が実施されることになる。バックの携行自体は、バックに対応する物品データに含まれるフラグで管理される。
 図35は、チェック対象がバックと手帳とPCの場合において、フラグが「無」である物品が表示された一例が示されている。この図35では、バックと手帳とPCのうち、フラグが「無」のバックと手帳が表示される一方、フラグが「有」のPCは表示されない。すなわち、PCは、既にバックの中に入っている状態である。ユーザは、この表示を見て、手帳をバックに入れることになる。この段階でバックだけのフラグが「無」となり、ユーザがバックを携行すれば、忘れ物はないということになる。
 例えば、ユーザが移動する直前(家から出るときや会社から出るとき)にフラグが「無」になっている物品のリストをチェックする方法の他、定期的な時間間隔(例えば、10分間隔)にフラグが「無」に設定されている物品があることを通知することもできる。さらに、ユーザからのチェック指示がない場合においても、ユーザが移動を始めたことを自動的に検知して、チェックを開始し、フラグが「無」に設定されている物品が存在する場合に、その旨をユーザに通知することもできる。
 本実施の形態5における物品管理システムを「忘れ物チェックモード」とする一方、前記実施の形態1における物品管理システムを「所在探索モード」として、これらのモードを切り替えながら使用してもよい。
 例えば、図36は、「所在探索モード」において、フラグが「無」に設定されている物品リストを表示した例を示す図である。この場合のフラグが「無」に設定されている意味は、ユーザの身から離れていることであるから、身から離れたバックに入れてあるPCのフラグは、「無」となる。PCの所在がわからなくなったときには、このような「所在探索モード」での表示が役に立つことがわかる。なお、「忘れ物チェックモード」と「所在探索モード」とを切り換える際、物品データに含まれるフラグの値をそれぞれのモードにおける定義に書き換える。この場合、データベースの管理方法として、データベースの記録がどのモードに基づくものであるかを記録する必要がある。
 ただし、これに限らず、例えば、物品データの項目に「第1フラグ」と「第2フラグ」という項目を設けて、「所在探索モード」のときには「第1フラグ」を参照する一方、「忘れ物チェックモード」のときには「第2フラグ」を参照するという使用方法も考えられる。
 本実施の形態5によれば、忘れ物を防止することができる。さらには、「忘れ物チェックモード」と「所在探索モード」とを適宜切り換えることにより、使い勝手のよい物品管理システムを構築することができる。
 (実施の形態6)
 本実施の形態6では、携帯端末装置1であるヘッドマウントディスプレイ(ウェラブル端末装置)の変形例について説明する。
 図37は、本実施の形態6における携帯端末装置を示す図である。
 図37に示す携帯端末装置1Aは、図2に示す携帯端末装置1とは撮像部10の搭載位置と仕様が異なる。具体的に、図37に示すように、携帯端末装置1Aは、4つの撮像部10を有し、これらの4つの撮像部10が眼鏡型の携帯端末装置1Aの四隅にそれぞれ外側の方向を向くように配置される。すなわち、ユーザに装着可能なウェラブル端末装置から構成される携帯端末装置1Aは、複数の撮像部10を有する。
 4つの撮像部10は、それぞれがともに180度以上の画角を有する魚眼レンズを備えることにより、ユーザの全身、特に、携帯端末装置1Aの下方向に対して撮像可能に構成される。これにより、例えば、「スマートフォン」をズボンのポケットに入れるなどの動作まで撮像することができる結果、物品管理システムによる物品の管理を強化することができる。
 本実施の形態6における携帯端末装置1Aでは、4つの撮像部10を4方向に向けて設置しているので、水平方向の画角は90度あればよく、例えば、水平方向の画角が90度で、かつ、垂直方向の画角が180度であるような特殊な光学系(アナモルフィックレンズ:Anamorphic lens)を撮像部10に使用してもよい。また、ユーザが物品を身に付ける場所は、下半身、すなわち、携帯端末装置1Aよりも下側である場合がほとんどである。このことから、垂直方向における撮像部10の向きを水平位置よりも下方向に向けて設置することにより、確実にユーザの下半身に位置するズボンのポケットに物品を入れるという動作を確実に撮像することができる。
 なお、ユーザが物品を手に取るときや手放すとき、ユーザは、視線を物品に向けているので、上述したアナモルフィックレンズを含むカメラのような垂直方向の画角が90度で、かつ、水平方向の画角が180度の撮像部10を2基用いることによっても、垂直方向の画角が90度で、かつ、水平方向の画角が360度の領域(空と地面を除いた周辺領域)を撮像できることから、例えば、ズボンのポケットに物品を入れる動作が撮像可能となる。
 (実施の形態7)
 本実施の形態7では、分散システムを構成する例について説明する。
 <第1分散システム>
 例えば、入力操作や高精細な表示は、ヘッドマウントディスプレイよりもスマートフォンやタブレット端末などのタッチパネル型携帯情報端末の方が適している。このことから、物品管理システムの構成要素として、ヘッドマウントディスプレイである携帯端末装置1だけでなく、タッチパネル型携帯情報端末5も含むようにして、物品管理システムを分散システムから構成することもできる。この場合、携帯端末装置1は、少なくとも入力部202と出力部203とを有するタッチパネル型携帯情報端末5と連携可能に構成される。以下では、この分散システムの構成例について説明する。
 図38は、分散システムの機能構成を示すブロック図である。
 図38において、分散システムは、携帯端末装置1とタッチパネル型携帯情報端末5から構成される。そして、携帯端末装置1は、撮像部201と、出力部203Aと、通信部207Aを有している。一方、タッチパネル型携帯情報端末5は、物品データ記憶部200と、画像認識部204と、物品データ更新部205と、入力部202と、検索部206と、出力部203Bと、通信部207Bとを有している。
 このようにして、携帯端末装置1とタッチパネル型携帯情報端末5によって、物品管理システムが構成される。このとき、携帯端末装置1の通信部207Aとタッチパネル型携帯情報端末5の通信部207Bによって、携帯端末装置1とタッチパネル型携帯情報端末5とが連携可能に構成される。
 例えば、この分散システムによれば、表示は、携帯端末装置1の出力部203Aとタッチパネル型携帯情報端末5の出力部203Bの両方を使用して行うとともに、ユーザからの指示入力(要求データ)は、タッチパネル型携帯情報端末5の入力部202を使用するといった機能分担を実現できる。
 特に、携帯端末装置1とタッチパネル型携帯情報端末5との常時連携を前提とすれば、携帯端末装置1に必要な構成要素は、撮像部201と出力部203Aと通信部207Aであり、物品管理システムによる物品データの管理や画面表示イメージの生成などをタッチパネル型携帯情報端末5ですべて行うように構成することができる。この構成の場合、携帯端末装置1は、撮像部201と出力部203Aと通信部207Aとこれらを駆動するバッテリだけを備えればよいという分散システムを構築可能であり、これによって、携帯端末装置1の小型軽量化を図ることができる。
 また、例えば、携帯端末装置1には、ユーザの手先を撮像する撮像部201だけを搭載することにして、表示は、すべてタッチパネル型携帯情報端末5の画面と撮像部201を使用したAR画面表示とすることも可能である。この構成の場合、撮像部201で行われる処理以外のその他の処理や表示をすべてタッチパネル型携帯情報端末5で行うことになる。これにより、携帯端末装置1のさらなる軽量化を実現することができる。
 図39は、分散システムにおける携帯端末装置とタッチパネル型携帯情報端末との連携動作の一例を示す図である。この図39には、物品管理システムによる物品探索を行う例が示されている。
 例えば、図39において、まず、タッチパネル型携帯情報端末5で探索対象となる物品を特定する。次に、例えば、図26と図27に示したAR表示によって、ユーザが探している物品の所在場所までユーザを誘導するが、このようなAR表示は、携帯端末装置1の方が適しているので、このAR表示は、携帯端末装置1の出力部203Aで行われる。このようにして、分散システムによれば、それぞれの端末の特徴を活かした連携動作によって、物品管理システムにおけるユーザの利便性を向上することができる。
 <第2分散システム>
 例えば、物品管理システムには、撮像部201で撮像された画像に基づいて、物品の所在の変化を認識し、かつ、物品を特定するように構成された画像認識部204が存在する。この画像認識部204では、画像解析技術を使用して処理が行われるが、画像解析技術では人工知能なども使用されることがあるため、処理の負荷が大きくなる。したがって、携帯端末装置1に画像認識部204を組み込むと、携帯端末装置1の負荷が大きくなる。
 このことから、物品管理システムの構成要素として、ヘッドマウントディスプレイである携帯端末装置1だけでなく、サーバ6も含むようにして、物品管理システムを分散システムから構成することもできる。この場合、携帯端末装置1は、少なくとも画像認識部204を有するサーバ6と連携可能に構成される。以下では、この分散システムの構成例について説明する。
 図40は、分散システムの機能構成を示すブロック図である。
 図40において、分散システムは、携帯端末装置1とサーバ6から構成される。そして、携帯端末装置1は、物品データ記憶部200と、撮像部201と、物品データ更新部205と、入力部202と、検索部206と、出力部203と、通信部207Aを有している。一方、サーバ6は、画像認識部204と、通信部207Cとを有している。
 このようにして、携帯端末装置1とサーバ6によって、物品管理システムが構成される。このとき、携帯端末装置1の通信部207Aとサーバ6の通信部207Cによって、携帯端末装置1とサーバ6が連携可能に構成される。
 なお、サーバ6は、携帯端末装置1と通信を介して接続して連携動作ができればよく、形態としては、ローカルサーバ、クラウドサーバ、エッジサーバ、ネットサービス等であり、各種の形態が可能である。
 例えば、この分散システムによれば、サーバ6の画像認識部204によって、画像解析技術をした処理が実現される結果、携帯端末装置1とサーバ6との機能分担を図ることができる。これにより、画像解析技術を使用した処理に起因する携帯端末装置1での負荷の増大を抑制することができる。さらには、携帯端末装置1での負荷が軽減されて消費電力が低減されることから、携帯端末装置1のバッテリを長持ちさせることができる。
 (実施の形態8)
 本実施の形態8では、物品管理システムにおいて、ユーザが身に付けていた物品を手放した場所を示すための地図を作成する技術的思想を説明する。
 本実施の形態8における技術的思想は、以下に示す構成で実現される。すなわち、物品管理システムは、さらに、撮像部201で撮像された画像に基づいて、地図情報を作成するように構成された地図情報作成部を有する。そして、出力部203は、地図情報作成部で作成された地図情報を出力するように構成されている。
 具体的に説明する。
 図41および図42は、物品管理システムによって、ユーザが身に付けていた物品を手放した場所を示すために、地図を作成する一例を示す図である。
 物品管理システムの地図情報作成部は、ユーザ100の移動に伴って、携帯端末装置1の撮像部201に写った画像に基づいて、例えば、屋内のようなGPSを利用できない場所で地図情報を作成する。
 図41では、地図情報作成部による地図情報の作成動作を説明する図である。図41において、実線で示した線は、携帯端末装置1の撮像部201に写った画像に基づいて既に地図情報作成部が作成した地図の部分を示している。一方、破線で示した線は、ユーザ100が移動していない領域であるため、まだ携帯端末装置1の撮像部201に写っておらず、地図情報を作成できていない部分を示している。
 まず、図41において、第1の場所PS1にいるユーザ100から見える領域は、長い廊下と各部屋に1つ以上取り付けられている扉である。このため、ユーザ100に装着された携帯端末装置1の撮像部201で撮像された画像によって、図41の実線で示す部分が地図情報として地図情報作成部で作成される。そして、ユーザ100が第2の場所PS2に移動した段階で、第2の場所の部屋R1の中にあるテーブルの存在が確認されて、テーブルが地図情報に追加される。
 続いて、図42では、ユーザ100が第2の場所PS2から第3の場所PS3に移動した段階で、部屋R2の中を見渡せるので、部屋R2の中に置いてあるテーブルが地図情報に追加される。さらに、廊下の奥で、部屋R2の奥にある小エリアR3にあるテーブルも撮像部201で写される結果、地図情報作成部によって、このテーブルも地図情報に追加される。
 次に、ユーザ100が第3の場所PS3から第4の場所PS4に移動して部屋R4に入ると、撮像部201で撮像される範囲でテーブルなどの設備が地図情報に追加される。
 このようにして作成された地図情報は、例えば、第1の場所PS1を中心とし、廊下に平行したベクトルを基準点および基準線として図形化された後、ユーザ100の手元から離れている物品の所在場所をこの地図上に重畳表示してユーザ100に知らせることができるようになる。
 以上のような地図作成機能を付加された物品管理システムによれば、予め地図データが用意されていない場所においても、物品管理システムが自動的に地図情報を作成することができる。このため、ユーザ100が移動したことのある場所であれば、地図データが用意されていなくても、ユーザ100の手元から離れている物品の所在場所を地図上に表示することができる。
 以上、本発明者によってなされた発明をその実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
 前記実施の形態は、以下の形態を含む。
 (付記1)
 ユーザに装着可能な携帯端末装置であって、
 前記携帯端末装置は、前記ユーザの動作と物品とを含む画像であって、前記ユーザの動作に基づいて前記物品の位置を特定するための前記画像を撮像するように構成された撮像部を備える、携帯端末装置。
 (付記2)
 付記1に記載の前記携帯端末装置と接続可能なサーバであって、
 前記サーバは、前記撮像部で撮像された画像を解析することにより、前記ユーザの動作を認識し、かつ、前記物品を特定するように構成された画像認識部を有する、サーバ。
 1 携帯端末装置
 1A 携帯端末装置
 2 物品
 10 撮像部
 11 位置検出部
 12 記憶部
 13 表示デバイス
 14 スピーカ
 15 マイク
 16 通信部
 17 CPU
 18 RAM
 19 画像RAM
 20 FROM
 21 キー
 100 ユーザ
 200 物品データ記憶部
 201 撮像部
 202 入力部
 203 出力部
 203A 出力部
 203B 出力部
 204 画像認識部
 205 物品データ更新部
 206 検索部
 207A 通信部
 207B 通信部
 207C 通信部
 300A データブロック
 300B データブロック
 301 物品数変化検出部
 302 物品データ書き換え部
 P 中間物品データ
 PS1 第1の場所
 PS2 第2の場所
 PS3 第3の場所
 PS4 第4の場所
 R1 部屋
 R2 部屋
 R3 小エリア
 R4 部屋

Claims (20)

  1.  物品データ記憶部と、
     撮像部と、
     ユーザからの要求データを入力する入力部と、
     ユーザに情報を出力する出力部と、
     物品データ制御部と、を備え、
     前記物品データ記憶部は、物品特定データおよび前記物品特定データに対応した物品所在データを含む物品データを複数記憶し、
     前記撮像部は、物品を含む画像を撮像し、
     前記物品データ制御部は、前記撮像部で撮像された前記画像に基づいて前記物品を特定し、前記物品の所在が変化した場合、前記物品の所在の変化を認識し、特定した前記物品に対応する前記物品データを前記物品データ記憶部に記憶するよう制御し、
     さらに、前記物品データ制御部は、前記入力部に入力された前記要求データに基づいて、前記物品データ記憶部に記憶されている複数の前記物品データの中から、前記要求データに対応する前記物品データを抽出し、抽出された前記物品データの情報を前記出力部により出力するように制御を行う、携帯端末装置。
  2.  請求項1に記載の携帯端末装置において、
     前記物品を含む画像には、さらにユーザの手が含まれる、携帯端末装置。
  3.  請求項1に記載の携帯端末装置において、
     前記物品特定データには、前記物品の名称に関する物品名データ、または、
    前記物品の形状に関する物品画像データが含まれる、携帯端末装置。
  4.  請求項1に記載の携帯端末装置において、
     前記物品所在データには、前記物品を前記ユーザが身に付けているか否かを示すフラグ、前記物品の位置情報に関する物品位置データ、前記物品を前記ユーザが身に付けた時刻あるいは前記ユーザが手放した時刻に関する時刻データ、または、前記物品の置かれた位置に関する位置画像データが含まれる、携帯端末装置。
  5.  請求項4に記載の携帯端末装置において、
     前記位置画像データには、前記ユーザが前記物品を手放した時点の画像データが含まれる、携帯端末装置。
  6.  請求項2に記載の携帯端末装置において、
     前記画像には、前記ユーザの手で前記物品を掴む第1イベント動作、または、前記ユーザの手から前記物品を放す第2イベント動作が記録される、携帯端末装置。
  7.  請求項6に記載の携帯端末装置において、
     前記物品データ制御部は、前記第1イベント動作、または、前記第2イベント動作を検出することによって、前記物品の所在の変化を認識するように制御を行う、携帯端末装置。
  8.  請求項1に記載の携帯端末装置において、
     前記物品データ制御部は、前記画像に含まれる物品画像に対する画像解析によって、前記物品を特定するように制御を行う、携帯端末装置。
  9.  請求項2に記載の携帯端末装置において、
     前記物品データ制御部は、
     前記ユーザの手に掴まれた物品数の変化を検出し、
     検出された前記物品数の変化に寄与する物品に対応する物品データを書き換えるように制御を行う、携帯端末装置。
  10.  請求項1に記載の携帯端末装置において、
     前記入力部に入力される前記要求データは、所在を問い合わせたい問い合わせ物品の名称に関する名称データであり、
     前記物品データ制御部は、前記名称データと一致するデータを含む前記物品データを抽出し、抽出された物品データに基づいて、前記出力部より前記物品の所在情報を出力するように制御を行う、携帯端末装置。
  11.  請求項1に記載の携帯端末装置において、
     前記物品データには、前記物品の取得場所に関するデータが含まれ、
     前記入力部に入力される前記要求データは、取得場所を問い合わせたい問い合わせ物品の名称に関する名称データであり、
     前記物品データ制御部は、前記名称データと一致するデータを含む前記物品データを抽出し、抽出された前記物品データに基づいて、前記出力部より前記物品の取得場所に関する情報を出力するように制御を行う、携帯端末装置。
  12.  請求項1に記載の携帯端末装置において、
     前記物品には、第1物品と前記第1物品に収納される第2物品とが含まれ、
     前記第1物品に対応する前記物品データには、収納される前記第2物品を特定するためのデータが含まれ、
     前記物品データ制御部は、前記画像によって特定された前記物品が前記第1物品である場合、特定された前記第1物品に対応する前記物品データだけでなく、前記第1物品に関連付けられた前記第2物品に対応する前記物品データも更新するように制御を行う、携帯端末装置。
  13.  請求項1に記載の携帯端末装置において、
     前記物品には、本来の収納場所となる第1物品と、前記第1物品に収納されるべき第2物品とが含まれ、
     前記第1物品に対応する前記物品データには、前記第1物品に収納されるべき前記第2物品を特定するデータが予め登録され、
     前記第2物品に対応する前記物品データには、前記第2物品が前記第1物品に収納されているか否かを特定するためのデータが含まれ、
     前記入力部に入力される前記要求データは、前記第2部品の収納状況を問い合わせるデータであり、
     前記物品データ制御部は、前記第2部品に対応する前記物品データに含まれるデータであって前記第2物品が前記第1物品に収納されているか否かを特定するためのデータから把握される前記第2部品の収納状況を前記出力部より出力するように制御を行う、携帯端末装置。
  14.  請求項1に記載の携帯端末装置において、
     前記物品データ記憶部は、さらに、予め設定された忘れ物チェック対象物品のリストを記憶するように構成され、
     前記物品データは、ユーザに身に付けられている状態、または、他の物品に収納されている状態と、それ以外の状態とを区別する二値データを含み、
     前記物品データ制御部は、前記画像によって物品がユーザに身に付けられている状態、または、他の物品に収納されている状態にあると認識された場合、前記二値データを第1値に設定する一方、前記画像によって物品がそれ以外の状態にあると認識された場合、前記二値データを第2値に設定するように制御を行い、
     さらに、前記物品データ制御部は、前記要求データの入力と予め設定された定期的な時間間隔での時刻の到来と前記ユーザの移動動作の開始とのいずれかをトリガとして、前記忘れ物チェック対象物品のリストに挙げられている物品の中から、前記二値データが前記第2値である物品データの情報を前記出力部より出力するように制御を行う、携帯端末装置。
  15.  請求項1に記載の携帯端末装置において、
     前記携帯端末装置は、眼鏡型のウェラブル端末装置である、携帯端末装置。
  16.  請求項15に記載の携帯端末装置において、
     前記ウェラブル端末装置は、複数の前記撮像部を有する、携帯端末装置。
  17.  請求項1に記載の携帯端末装置において、
     前記携帯端末装置は、さらに、前記撮像部で撮像された画像に基づいて、地図情報を作成するように構成された地図情報作成部を有し、
     前記物品データ制御部は、前記地図情報作成部で作成された前記地図情報と共に前記物品データの情報を前記出力部より出力するように制御を行う、携帯端末装置。
  18.  請求項1に記載の携帯端末装置において、
     前記携帯端末装置は、前記物品データから把握される前記物品の所在位置まで前記ユーザを誘導する表示を行う、携帯端末装置。
  19.  撮像部を有する携帯端末装置を含む物品管理システムであって、
     物品データ記憶部と、
     ユーザからの要求データを入力する入力部と、
     ユーザに情報を出力する出力部と、
     物品データ制御部と、を備え、
     前記物品データ記憶部は、物品特定データおよび前記物品特定データに対応した物品所在データを含む物品データを複数記憶し、
     前記撮像部は、物品を含む画像を撮像し、
     前記物品データ制御部は、前記撮像部で撮像された前記画像に基づいて前記物品を特定し、前記物品の所在が変化した場合、前記物品の所在の変化を認識し、特定した前記物品に対応する前記物品データを前記物品データ記憶部に記憶するよう制御し、
     さらに、前記物品データ制御部は、前記入力部に入力された前記要求データに基づいて、前記物品データ記憶部に記憶されている複数の前記物品データの中から、前記要求データに対応する前記物品データを抽出し、抽出された前記物品データの情報を前記出力部により出力するように制御を行う、物品管理システム。
  20.  撮像部を有する携帯端末装置を用いた物品管理方法において、
     前記撮像部によって、物品を含む画像を撮像するステップと、
     前記撮像部で撮像された前記画像に基づいて前記物品を特定するステップと、
     前記物品の所在が変化した場合、前記物品の所在の変化を認識するステップと、
     特定した前記物品に対応する物品特定データおよび前記物品特定データに対応した物品所在データを含む物品データを物品データ記憶部に記憶するステップと、
     入力部に入力された要求データに基づいて、前記物品データ記憶部に記憶されている複数の前記物品データの中から、前記要求データに対応する前記物品データを抽出し、抽出された前記物品データの情報を出力部により出力するステップと、を有する、物品管理方法。
PCT/JP2020/044913 2020-12-02 2020-12-02 携帯端末装置、物品管理システムおよび物品管理方法 WO2022118411A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/044913 WO2022118411A1 (ja) 2020-12-02 2020-12-02 携帯端末装置、物品管理システムおよび物品管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/044913 WO2022118411A1 (ja) 2020-12-02 2020-12-02 携帯端末装置、物品管理システムおよび物品管理方法

Publications (1)

Publication Number Publication Date
WO2022118411A1 true WO2022118411A1 (ja) 2022-06-09

Family

ID=81853073

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/044913 WO2022118411A1 (ja) 2020-12-02 2020-12-02 携帯端末装置、物品管理システムおよび物品管理方法

Country Status (1)

Country Link
WO (1) WO2022118411A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002329201A (ja) * 2001-05-01 2002-11-15 Sharp Corp 物検索装置、物検索方法、およびコンピュータにおいてその装置を実現するプログラム
JP2004158950A (ja) * 2002-11-05 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> 記録映像自動生成システム,記録映像自動生成方法,記録映像自動生成プログラムおよび記録映像自動生成プログラムの記録媒体
JP2012118666A (ja) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd 三次元地図自動生成装置
JP2012236716A (ja) * 2011-04-26 2012-12-06 We Are Engineering Kk 所在情報管理システム
JP2014108892A (ja) * 2012-12-04 2014-06-12 Fujitsu Ltd 物品の配置位置管理装置、プログラム及び方法
JP2018030223A (ja) * 2016-08-26 2018-03-01 株式会社メニコン 捜し物ロボット
WO2018124168A1 (ja) * 2016-12-27 2018-07-05 株式会社Space2020 画像処理システムと画像処理装置と画像処理方法と画像処理プログラム
JP2019219706A (ja) * 2018-06-15 2019-12-26 Mamorio株式会社 遺失物情報音声回答システム、方法及びプログラム
JP2020087051A (ja) * 2018-11-28 2020-06-04 キヤノン株式会社 物品管理システム
WO2020148988A1 (ja) * 2019-01-17 2020-07-23 ソニー株式会社 情報処理装置および情報処理方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002329201A (ja) * 2001-05-01 2002-11-15 Sharp Corp 物検索装置、物検索方法、およびコンピュータにおいてその装置を実現するプログラム
JP2004158950A (ja) * 2002-11-05 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> 記録映像自動生成システム,記録映像自動生成方法,記録映像自動生成プログラムおよび記録映像自動生成プログラムの記録媒体
JP2012118666A (ja) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd 三次元地図自動生成装置
JP2012236716A (ja) * 2011-04-26 2012-12-06 We Are Engineering Kk 所在情報管理システム
JP2014108892A (ja) * 2012-12-04 2014-06-12 Fujitsu Ltd 物品の配置位置管理装置、プログラム及び方法
JP2018030223A (ja) * 2016-08-26 2018-03-01 株式会社メニコン 捜し物ロボット
WO2018124168A1 (ja) * 2016-12-27 2018-07-05 株式会社Space2020 画像処理システムと画像処理装置と画像処理方法と画像処理プログラム
JP2019219706A (ja) * 2018-06-15 2019-12-26 Mamorio株式会社 遺失物情報音声回答システム、方法及びプログラム
JP2020087051A (ja) * 2018-11-28 2020-06-04 キヤノン株式会社 物品管理システム
WO2020148988A1 (ja) * 2019-01-17 2020-07-23 ソニー株式会社 情報処理装置および情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIDODE, MASATUGU: "Wearable image input and processing", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 57, no. 3, 1 March 2003 (2003-03-01), pages 348 - 350, XP055941922, ISSN: 1342-6907 *

Similar Documents

Publication Publication Date Title
CN108615247B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
KR102414587B1 (ko) 증강 현실 데이터 제시 방법, 장치, 기기 및 저장 매체
US11127210B2 (en) Touch and social cues as inputs into a computer
CN108615248B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN110495819B (zh) 机器人的控制方法、机器人、终端、服务器及控制系统
CN110954083B (zh) 移动设备的定位
CN108596976B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN110555883A (zh) 相机姿态追踪过程的重定位方法、装置及存储介质
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
WO2019242418A1 (zh) 相机定位方法、装置、终端及存储介质
CN108710525A (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
CN109510940B (zh) 一种图像显示方法及终端设备
KR20160015972A (ko) 웨어러블 디바이스 및 그 제어 방법
CN105141942B (zh) 3d图像合成方法及装置
US10838515B1 (en) Tracking using controller cameras
CN108682037B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
US20210264677A1 (en) Information processing apparatus, information processing method, and program
CN113613028B (zh) 直播数据处理方法、装置、终端、服务器及存储介质
US11670157B2 (en) Augmented reality system
CN111104402A (zh) 查找数据的方法、装置、电子设备及介质
CN110765525A (zh) 生成场景图片的方法、装置、电子设备及介质
TWI764366B (zh) 基於光通信裝置的互動方法和系統
CN111928861B (zh) 地图构建方法及装置
WO2022118411A1 (ja) 携帯端末装置、物品管理システムおよび物品管理方法
WO2018146959A1 (ja) システム、情報処理装置、情報処理方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20964265

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20964265

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP