WO2021084903A1 - 画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラム - Google Patents

画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラム Download PDF

Info

Publication number
WO2021084903A1
WO2021084903A1 PCT/JP2020/033440 JP2020033440W WO2021084903A1 WO 2021084903 A1 WO2021084903 A1 WO 2021084903A1 JP 2020033440 W JP2020033440 W JP 2020033440W WO 2021084903 A1 WO2021084903 A1 WO 2021084903A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
wearable device
meal
camera
Prior art date
Application number
PCT/JP2020/033440
Other languages
English (en)
French (fr)
Inventor
櫨田知樹
有田栄次
Original Assignee
テルモ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社 filed Critical テルモ株式会社
Priority to EP20880529.1A priority Critical patent/EP4027349A4/en
Priority to JP2021554129A priority patent/JPWO2021084903A1/ja
Priority to CN202080072891.5A priority patent/CN114631151A/zh
Publication of WO2021084903A1 publication Critical patent/WO2021084903A1/ja
Priority to US17/730,994 priority patent/US20220254176A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects

Definitions

  • the present invention relates to an image management system, a wearable device, an image management method, and an image management program.
  • Japanese Unexamined Patent Publication No. 2019-28625 discloses an image management system that transmits a photographed image (meal image) taken by a camera of a user terminal such as a smartphone to a server and stores it in the server.
  • the captured image stored in the server is used for blood glucose control (diabetes treatment guidance, health guidance, etc.).
  • the image management system as described above, if the user terminal is forgotten to be carried or the user terminal is in the bag, it may not be possible to quickly take a picture of the meal. Further, even if the photographed image is not a meal image, the photographed image is stored in the server as it is, so that there is a possibility that health management (blood glucose control) using the meal image cannot be effectively performed.
  • health management blood glucose control
  • a first aspect of the present invention is a medical image management system including a wearable device worn by a user and an information processing server capable of communicating with the wearable device, wherein the wearable device is a subject.
  • the information processing server has a server storage unit that stores captured images received from the wearable device, and either the wearable device or the information processing server has the camera.
  • the information organizing unit has an information organizing unit that organizes the photographed images based on the determination result of the image determining unit as to whether or not the photographed image is a meal image, and the information organizing unit has the photographed image as the meal image. If the image determination unit determines that the image is not the same, the captured image is deleted, and the server storage unit retains the captured image when the image determination unit determines that the captured image is the meal image. , Image management system.
  • a second aspect of the present invention is a medical wearable device worn by a user, which comprises a camera for photographing a subject, a storage unit for storing an image captured by the camera, and the storage.
  • a determination communication unit that transmits the captured image stored in the unit to the image determination server and receives a determination result of the image determination server as to whether or not the captured image is a meal image, and a determination communication unit that is stored in the storage unit.
  • the device information organizing unit has a device information organizing unit for organizing the photographed images, and the device information organizing unit is concerned when the determination communication unit receives a determination result that the captured image is not the meal image.
  • the captured image is deleted from the storage unit, and when the determination communication unit receives the determination result that the captured image is the meal image, the captured image is transmitted to the information processing server and then deleted from the storage unit. It is a wearable device.
  • a third aspect of the present invention is a medical image management method, in which a shooting step of shooting a subject with a camera of a wearable device worn by a user and a shooting image shot in the shooting step are processed into information.
  • An image transmission step to be transmitted to the server, a storage step to store the captured image received from the wearable device in the server storage unit of the information processing server, and whether or not the captured image captured by the camera is a meal image.
  • the image determining unit determines that the captured image is not the meal image.
  • This is an image management method in which the captured image is deleted in the case where the captured image is stored in the server storage unit when the image determination unit determines that the captured image is the meal image.
  • a fourth aspect of the present invention is a medical image management method, in which a shooting step of shooting a subject with a camera of a wearable device worn by a user and a shooting image shot in the shooting step are wearable.
  • the storage step to be stored in the storage unit of the device, and the determination result of the image determination server as to whether or not the captured image stored in the storage unit is transmitted to the image determination server and the captured image is a meal image.
  • the image determination step for receiving the image and the information organizing step for organizing the captured image stored in the storage unit are included. In the information organizing step, the determination result that the captured image is not the meal image is obtained.
  • the wearable device When the wearable device receives the captured image, the captured image is deleted from the storage unit, and when the wearable device receives a determination result that the captured image is the meal image, the captured image is transmitted to the information processing server.
  • This is an image management method that deletes images after they have been created.
  • a fifth aspect of the present invention is an image management program for medical use, which processes a shooting step of shooting a subject with a camera of a wearable device worn by a user and a shooting image shot in the shooting step.
  • An image transmission step to be transmitted to the server, a storage step to store the captured image received from the wearable device in the server storage unit of the information processing server, and whether or not the captured image captured by the camera is a meal image.
  • a computer is made to execute a server information organizing step of organizing the captured images based on the determination result of the image determining unit of the above, and in the server information organizing step, the image determining unit is not the eating image.
  • Is an image management program that deletes the captured image when the determination is made, and holds the captured image in the server storage unit when the image determination unit determines that the captured image is the meal image.
  • a sixth aspect of the present invention is a medical image management program, in which a shooting step of shooting a subject with a camera of a wearable device worn by a user and a shooting image shot in the shooting step are wearable.
  • the storage step to be stored in the storage unit of the device, and the determination result of the image determination server as to whether or not the captured image stored in the storage unit is transmitted to the image determination server and the captured image is a meal image.
  • the computer is made to execute the image determination step of receiving the image and the information organizing step of organizing the captured image stored in the storage unit, and in the information organizing step, the captured image is not the meal image.
  • the wearable device receives the determination result
  • the captured image is deleted from the storage unit, and when the wearable device receives the determination result that the captured image is the meal image, the captured image is processed.
  • An image management program that is deleted after being sent to the server.
  • the camera of the wearable device when a user wears a wearable device, the camera of the wearable device can quickly take a picture of a meal. As a result, it is possible to efficiently take a picture of the meal. Further, since the photographed image is deleted from the server storage unit (storage unit) when the photographed image is not a meal image, health management using the meal image can be effectively performed.
  • the image management system 10 is a medical system for performing health management (for example, blood glucose control) using a meal image taken by a user 200 (see FIG. 11A).
  • health management for example, blood glucose control
  • the image management system 10 includes a wearable device 12, an information processing system 18 having an information processing device 14 and an information processing server 16, an image determination server 20, and a guidance device 22.
  • the wearable device 12 is configured to be worn by the user 200.
  • the wearable device 12 is configured to be removable from the wrist like a wristband, for example.
  • the wearable device 12 may be integrally provided on the eyeglasses, may be detachably configured on clothes, may be detachably configured on the neck like a necklace, or may be detachable on the head. It may be configured to be possible. That is, the wearable device 12 may be configured in any way as long as the user 200 can wear it detachably.
  • the wearable device 12 includes a device main body 24 and a first belt portion 26 and a second belt portion 28 for attaching the device main body 24 to the wrist of the user 200.
  • the device body 24 has a case 30 formed in a vertically long box shape.
  • the case 30 may have a horizontally long box shape, a box shape having a polygonal bottom surface (other than a square shape), a columnar shape, an elliptical columnar shape, or the like.
  • the first belt portion 26 is fixed to one end of the case 30 by the first fixing portion 32.
  • a plurality of locking holes 34 are formed in the first belt portion 26.
  • the plurality of locking holes 34 are arranged at equal intervals in the extending direction of the first belt portion 26.
  • a belt through hole 36 for passing the second belt portion 28 is provided at the tip portion of the first belt portion 26.
  • the second belt portion 28 is fixed to the other end of the case 30 by the second fixing portion 38.
  • a locking pin 40 that can be fitted into the locking hole 34 of the first belt portion 26 is provided.
  • the first belt portion 26 and the second belt portion 28 are locked to each other by fitting the locking pin 40 into the locking hole 34.
  • the device main body 24 includes a display unit 42, an indicator 44, a blood glucose sensor mounting unit 46, a camera 48, a light emitting unit 50, a first communication unit 52, a battery 54, a printed circuit board 56 (PCB), and two. It has an operation switch 58.
  • the display unit 42 is provided on the surface side of the case 30.
  • the display unit 42 can be composed of an LED display, an LCD display, a CRT display, a plasma display, a touch screen display, and the like, but is not limited thereto.
  • the indicator 44 is provided on the side of the case 30 where the first fixing portion 32 is located rather than the display portion 42.
  • the indicator 44 is for displaying the state of the device main body 24 and is configured as an LED indicator.
  • the blood glucose sensor mounting portion 46 is provided on the side of the case 30 where the second fixing portion 38 is located, with respect to the display portion 42.
  • a blood glucose sensor (not shown) that has taken in blood is attached to the blood glucose sensor mounting unit 46.
  • the camera 48 is for photographing the meal of the user 200.
  • the camera 48 is provided on the side of the case 30 where the first fixing portion 32 is located with respect to the display portion 42.
  • the camera 48 is configured as a pinhole camera.
  • the camera 48 is not limited to a pinhole camera, and may be a camera with a lens.
  • the light emitting unit 50 is provided at a position different from that of the camera 48 in the case 30 so as not to interfere with the shooting function of the camera 48. Specifically, the light emitting unit 50 is provided on the side of the camera 48. The light emitting unit 50 outputs a guide light L indicating the shooting direction of the camera 48 (see FIG. 11B).
  • the guide light L is visible light, but its color can be set as appropriate. The emission intensity of the guide light L may be such that it can irradiate within 1 m from the light emitting portion 50.
  • the light emitting unit 50 has, for example, a laser diode that oscillates a laser beam as a guide light L.
  • the guide light L output from the laser diode passes through the aperture formed on the mask and is output from the projection optical system toward the subject 202 (see FIGS. 11A and 11B).
  • the shape of the aperture can be set as appropriate.
  • the light oscillated from the laser diode (guide light L) illuminates a point on the subject 202.
  • the light emitting unit 50 may have a light emitting element such as an LED element.
  • the guide light L output from the light emitting unit 50 spreads toward the subject 202.
  • the light emitting element is not limited to the LED element, and may be an organic EL element, an inorganic EL element, or the like.
  • the guide light L emitted from the light emitting unit 50 also functions as AF auxiliary light of the camera 48.
  • the first communication unit 52 is housed in the case 30.
  • the first communication unit 52 constructs a wireless communication line with the server communication unit 88 (see FIG. 1) of the information processing server 16 to perform information communication.
  • LPWA is preferable as the standard of the wireless communication line between the first communication unit 52 and the server communication unit 88.
  • the standard of the wireless communication line between the first communication unit 52 and the server communication unit 88 may be, for example, Wi-Fi (registered trademark) or LTE (registered trademark).
  • the battery 54 is housed in the case 30 so as to be located closer to the display unit 42 than the first communication unit 52.
  • the battery 54 supplies power to the electronic components of the device body 24.
  • the battery 54 includes a secondary battery, a capacitor, and the like.
  • the printed circuit board 56 is housed in the case 30 so as to be located closer to the display unit 42 than the battery 54. Electronic components (not shown) are mounted on the printed circuit board 56.
  • each operation switch 58 is a push button type switch.
  • each operation switch 58 is not limited to the push button type, and may be a slide switch or the like.
  • the arrangement of the indicator 44, the blood glucose sensor mounting unit 46, the first communication unit 52, the battery 54, and the printed circuit board 56 can be changed as appropriate.
  • the number, size, shape, and position of the operation switches 58 can be appropriately set.
  • the device main body 24 of the wearable device 12 further includes a biological information measuring unit 60, a second communication unit 62, a notification unit 64, and a control unit 66.
  • the biological information measuring unit 60 measures the biological information of the user 200.
  • the biological information measuring unit 60 has an acceleration sensor 70.
  • the acceleration sensor 70 measures, for example, the number of steps of the user 200.
  • the biological information measuring unit 60 may further measure blood pressure, pulse (heartbeat), body temperature, and the like.
  • the biological information measuring unit 60 may include, for example, a heartbeat detection sensor.
  • the heartbeat detection sensor measures the heartbeat by any of an electrocardiogram method, a photoelectric pulse wave method, a blood pressure measurement method, and a heart sound projection method.
  • the information measured by the biological information measuring unit 60 is displayed on the display unit 42.
  • the display unit 42 displays the blood glucose level (glucose concentration), the amount of activity, the number of steps, the heart rate, the sleep time, and the like. Further, the display unit 42 displays the current date and time, whether or not biological information can be measured, whether or not data (for example, an image captured by the camera 48) can be transmitted, and the like. The captured image itself captured by the camera 48 is not displayed on the display unit 42.
  • the second communication unit 62 constructs a wireless communication line with the information processing device 14 to perform information communication.
  • the standard of the wireless communication line between the second communication unit 62 and the information processing device 14 is Bluetooth (registered trademark), and BLE (Bluetooth Low Energy) is particularly preferable.
  • the standard of the wireless communication line between the second communication unit 62 and the information processing device 14 may be, for example, Wi-Fi (registered trademark) or the like.
  • the second communication unit 62 may construct a wired communication line with the information processing device 14 to perform information communication.
  • the second communication unit 62 transmits, for example, biometric information (step count information, etc.) to the information processing device 14.
  • the notification unit 64 has a speaker 72 and a vibration unit 74.
  • the speaker 72 outputs sound information (voice, electronic sound, etc.).
  • the vibration unit 74 transmits the vibration to the user 200.
  • the control unit 66 is a computer including a microcomputer, has a CPU (central processing unit), a ROM as a memory, a RAM, and the like, and the CPU reads and executes a program stored in the ROM to perform various functions. It functions as a realization unit (function realization means).
  • the various function realization units can also be configured by a function realizer as hardware.
  • the control unit 66 includes a blood glucose measurement control unit 76, a light emission control unit 78, a subject determination unit 79, a camera control unit 80, a storage unit 82, a device information organizing unit 84, and a notification control unit 86.
  • the blood glucose measurement control unit 76 measures the blood glucose level (glucose concentration in plasma) of the blood taken into the blood glucose measurement sensor.
  • a continuous glucose monitor may be used for continuous acquisition of blood glucose information.
  • the blood glucose measurement control unit 76 acquires the measured value and the measurement time information from the continuous glucose monitor.
  • the light emitting control unit 78 controls the operation of the light emitting unit 50 to output the guide light L from the light emitting unit 50.
  • the subject determination unit 79 determines whether or not the subject 202 within the shooting range of the camera 48 matches or resembles a predetermined meal image.
  • the camera control unit 80 controls the operation of the camera 48.
  • the storage unit 82 stores blood glucose information (measured values and measurement dates and times acquired by the blood glucose measurement control unit 76), images taken by the camera 48, and the like.
  • the device information organizing unit 84 organizes the captured images stored in the storage unit 82.
  • the notification control unit 86 controls the operation of the notification unit 64. Specifically, the notification control unit 86 outputs sound information from the speaker 72 and vibrates the vibrating unit 74.
  • the information processing device 14 is operated by the user 200.
  • the information processing device 14 is, for example, a smartphone, a laptop, a tablet, or the like, but is not limited thereto.
  • the information processing device 14 transmits, for example, the setting instruction information and the operation instruction information of the wearable device 12 to the second communication unit 62 of the wearable device 12.
  • the information processing device 14 constructs a wireless communication line with the server communication unit 88 of the information processing server 16 to perform information communication.
  • the standard of the wireless communication line between the information processing device 14 and the server communication unit 88 is the same as the standard of the wireless communication line between the first communication unit 52 of the wearable device 12 and the server communication unit 88 of the information processing server 16. Can be used.
  • the information processing device 14 transmits, for example, biometric information or the like to the server communication unit 88.
  • the information processing server 16 has a server communication unit 88, a determination communication unit 90, and a server control unit 92.
  • the server communication unit 88 constructs a wireless communication line with the instruction device 22 to perform information communication.
  • the standard of the wireless communication line between the server communication unit 88 and the instruction device 22 shall be the same as the standard of the wireless communication line between the first communication unit 52 of the wearable device 12 and the information processing server 16. Can be done.
  • the determination communication unit 90 constructs a wireless communication line with the image determination server 20 to perform information communication.
  • the standard of the wireless communication line between the determination communication unit 90 and the image determination server 20 shall be the same as the standard of the wireless communication line between the first communication unit 52 of the wearable device 12 and the server communication unit 88. Can be done.
  • An image determination function may be added to the wearable device 12 instead of the image determination server 20. In this case, the determination communication unit 90 can be omitted.
  • the server control unit 92 includes a date / time acquisition determination unit 93, a notification request control unit 94, a server information organization unit (information organization unit) 95, a timer 96, a time determination unit 98, a server storage unit 100, and a graph creation unit 102.
  • the date / time acquisition determination unit 93 determines whether or not the meal date / time of the user 200 has been acquired.
  • the notification request control unit 94 requests the wearable device 12 to perform notification control for prompting the input of the meal date and time.
  • the server information organizing unit 95 organizes captured images stored in the server storage unit 100.
  • Timer 96 measures time.
  • the time determination unit 98 makes a predetermined time determination.
  • Blood glucose information blood glucose date and time and glucose concentration
  • captured images mean images
  • the graph creation unit 102 creates a blood glucose management graph 104 (see FIG. 8) based on the blood glucose information and the meal image stored in the server storage unit 100.
  • the guidance device 22 is a medical device operated by a medical worker (doctor, registered dietitian, etc.), and is used to control blood glucose (treatment guidance, health guidance, etc.) of the user 200.
  • the control unit 66 determines whether or not there is a shooting instruction (step S1). Specifically, the control unit 66 determines that a shooting instruction has been given when the two operation switches 58 are operated at the same time. The control unit 66 determines that there is no shooting instruction when the two operation switches 58 are not operated at the same time (for example, when only one of the operation switches 58 is operated). When the control unit 66 determines that there is no shooting instruction (step S1: NO), the process remains in step S1 until the shooting instruction is given.
  • step S1 determines that a shooting instruction has been given (step S1: YES)
  • the light emitting control unit 78 outputs the guide light L from the light emitting unit 50 (step S2).
  • the user 200 directs the guide light L toward the subject 202.
  • the camera control unit 80 takes a picture with the camera 48 (step S3). Specifically, the subject determination unit 79 determines whether or not the subject 202 within the shooting range of the camera 48 corresponds to the predetermined meal information. The subject determination unit 79 determines, for example, whether or not the subject 202 within the shooting range of the camera 48 matches or resembles a predetermined meal image.
  • the camera control unit 80 prohibits the camera 48 from shooting the subject 202 when the subject determination unit 79 determines that the subject 202 within the shooting range of the camera 48 does not correspond to the predetermined meal information. That is, since there is a high possibility that the subject 202 is not a meal, the camera control unit 80 does not take a picture of the subject 202 by the camera 48 (does not release the shutter).
  • the camera control unit 80 permits the camera 48 to shoot the subject 202 when the subject determination unit 79 determines that the subject 202 within the shooting range of the camera 48 corresponds to the predetermined meal information. That is, since there is a high possibility that the subject 202 is a meal, the camera control unit 80 takes a picture of the subject 202 by the camera 48 (releases the shutter). That is, the camera control unit 80 takes a picture of the subject 202 when the subject 202 is a meal.
  • the camera control unit 80 may output a shooting sound (for example, a shutter sound) from the speaker 72 or blink the indicator 44 when the shooting by the camera 48 is completed. By doing so, the user 200 can easily know that the shooting is completed.
  • a shooting sound for example, a shutter sound
  • the light emitting control unit 78 stops the output of the guide light L from the light emitting unit 50 (step S4). That is, when the shooting of the subject 202 is completed, the output of the guide light L is automatically stopped without operating the operation switch 58. As a result, the user 200 can more easily know that the shooting is completed.
  • the device information organizing unit 84 stores the captured image in the storage unit 82 (step S5).
  • the wearable device 12 transmits the captured image stored in the storage unit 82 to the information processing server 16 (step S6).
  • the first communication unit 52 transmits the captured image stored in the storage unit 82 to the information processing server 16.
  • the second communication unit 62 transmits the captured image stored in the storage unit 82 to the information processing device 14, and then the information processing device 14 transmits the captured image to the information processing server 16. Good. By doing so, the consumption of the battery 54 of the wearable device 12 can be suppressed as compared with the case where the first communication unit 52 directly transmits the captured image to the information processing server 16.
  • the device information organizing unit 84 deletes the captured image from the storage unit 82 (step S7).
  • the storage capacity of the storage unit 82 required to store the captured image can be reduced. After that, the operation flow of the wearable device 12 is terminated.
  • the date / time acquisition determination unit 93 determines whether or not the server communication unit 88 has received the meal date / time (step S10).
  • the meal date and time is the date and time when the user 200 actually ate (meal start date and time), and is registered in the information processing device 14 by the user 200, for example.
  • the meal date and time registered in the information processing device 14 is transmitted from the information processing device 14 to the information processing server 16.
  • the time determination unit 98 determines whether or not the elapsed time T1 from the previous meal date and time exceeds the predetermined meal interval T2. Is determined (step S11).
  • the meal interval T2 is set to, for example, 6 hours when the previous meal date and time is breakfast or lunch time, and 12 hours when the previous meal date and time is dinner time. ..
  • the meal interval T2 can be set as appropriate.
  • step S11: NO the process proceeds to step S14 described later.
  • the server communication unit 88 transmits a notification control request to the wearable device 12 (step S11: YES). Step S12).
  • the notification control unit 86 performs notification control for prompting the user 200 to register the meal date and time. Specifically, the notification control unit 86 outputs, for example, a voice "Please register the meal date and time" from the speaker 72.
  • the display unit 42 may display a figure or an image prompting the registration of the meal date and time. At this time, the notification control unit 86 may vibrate the vibrating unit 74.
  • the server communication unit 88 may transmit the notification control request to the information processing device 14.
  • the information processing device 14 when the information processing device 14 receives the notification control request, the information processing device 14 performs notification control for prompting the user 200 to register the meal date and time. Specifically, the information processing device 14 outputs, for example, a voice "Please register the meal date and time" from a speaker (not shown) of the information processing device 14. Further, instead of (or in addition to) the voice notification, the characters "Please register the meal date and time" may be displayed on the display unit (not shown) of the information processing device 14.
  • step S12 the server communication unit 88 may transmit the broadcast control request to both the wearable device 12 and the information processing device 14. In this case, notification control is performed on both the wearable device 12 and the information processing device 14. After step S12, the process returns to step S10.
  • the server control unit 92 determines that the meal date and time has been received (step S10: YES)
  • the server information organizing unit 95 stores the received meal date and time in the server storage unit 100 (step S13).
  • the server control unit 92 determines whether or not the server communication unit 88 has received the captured image (step S14).
  • the captured image is transmitted from the first communication unit 52 to the server communication unit 88 by the wearable device 12 performing the process of step S6 of FIG. 5 described above.
  • step S14 determines that the captured image has not been received (step S14: NO)
  • the process returns to step S10.
  • the server control unit 92 determines that the captured image has been received (step S14: YES)
  • the captured image is stored in the server storage unit 100 (step S15).
  • the determination communication unit 90 transmits the latest captured image stored in the server storage unit 100 to the image determination server 20 (step S16). Then, the image determination server 20 determines whether or not the captured image is an image including meal information, and if it includes meal information, determines that it is a meal image. Then, the determination result is transmitted to the determination communication unit 90. The determination communication unit 90 receives the determination result of whether or not the captured image is a meal image (step S17). In step S16, the image determination server 20 can determine whether or not the captured image includes a specific image registered in advance in the image determination server 20.
  • step S18 when the determination communication unit 90 receives a determination result that the latest captured image is neither a meal image nor a specific image (step S18: NO), the captured image is deleted from the server storage unit 100 (step). S19). As a result, the storage capacity of the server storage unit 100 required for storing the captured image can be reduced. Further, even when the wearable device 12 captures an image (for example, a voyeur image) that does not include meal information or a specific image, the captured image can be deleted from the server storage unit 100. After that, the current operation flow is terminated (see FIG. 7).
  • an image for example, a voyeur image
  • the server control unit 92 When the determination communication unit 90 receives a determination result that the latest captured image includes a meal image or a specific image (step S18: YES), as shown in FIG. 7, the server control unit 92 has the latest captured image. It is determined whether or not it is related to a meal event (step S20). Specifically, based on the determination of the server control unit 92, when the captured image includes meal information, it is registered as a meal image and classified as a meal event. When the server control unit 92 determines that the captured image does not include meal information, the captured image is classified as a special event. Alternatively, when shooting with the camera 48 of the wearable device 12, the user 200 may register in the information processing device 14 whether the event related to the shooting is a meal event or a special event.
  • the special event includes information related to blood glucose control of the user 200 other than the meal content itself. More specifically, special events include taking internal medicine, injecting insulin, fever, hypoglycemia and hyperglycemia, fatigue, presence or absence of exercise, the time when a meal is started, and the time when a meal is finished.
  • a specific figure for example, an internal medicine being taken
  • indicating a special event is registered in advance in each of the information processing device 14 and the information processing server 16.
  • any of the registered specific figures is included in the captured image at a predetermined ratio, it can be determined as a special event.
  • the processing of the information processing device 14 and the information processing server 16 can be simplified, and the user 200 can easily collect information by simply photographing a preset object with the wearable device 12. Can be recorded.
  • the information in which the user 200 manually inputs whether it is a meal event or a special event may be transmitted to the information processing device 14 and the information processing server 16.
  • step S20 determines whether or not it is the first captured image in the meal event (step S20: YES). Step S21).
  • the server control unit 92 determines that it is the first captured image in the meal event (step S21: YES)
  • the timer 96 starts measuring the meal group classification time T3 (step S22). After that, the latest photographed image is set in the first meal group (step S23).
  • the server control unit 92 determines that it is not the first captured image in the meal event (that is, the second and subsequent captured images in the meal event) (step S21: NO)
  • the time determination unit 98 It is determined whether or not the meal group classification time T3 exceeds the predetermined time T4 (step S24).
  • the predetermined time T4 is set to, for example, 30 minutes. However, the predetermined time T4 can be appropriately set and may be one hour.
  • step S24 NO
  • the latest photographed image is set in the first meal group (step S23).
  • predetermined time T4 a plurality of captured images taken in a relatively short time
  • step S24 determines that the meal group classification time T3 exceeds the predetermined time T4 (step S24: YES)
  • the latest photographed image is set in the second meal group (step S25).
  • the photographed image (meal image) acquired after a relatively long time (predetermined time T4) has elapsed since the first photographed image (meal image) of the meal event was acquired has nothing to do with the meal event. It will be nothing.
  • the process proceeds to step S27, which will be described later.
  • the graph creation unit 102 creates the blood glucose management graph 104 based on the photographed image (meal image) stored in the server storage unit 100 and the blood glucose information (step S27).
  • the blood glucose information includes the measured value and the measurement time of the glucose concentration of the sample taken into the glucose sensor.
  • the blood glucose information is measured by the wearable device 12 and then transmitted from the first communication unit 52 to the server communication unit 88.
  • the blood glucose information may be transmitted from the second communication unit 62 to the server communication unit 88 via the information processing device 14.
  • the graph creation unit 102 creates, for example, the blood glucose control graph 104 shown in FIG.
  • the blood glucose control graph 104 shows meal images P1 to P3 superimposed on the glucose concentration line 106 showing the time change of the measured value.
  • the horizontal axis represents time and the vertical axis represents the measured value (glucose concentration).
  • the meal image P1 is displayed at the time point t1
  • the meal image P2 is displayed at the time point t2
  • the meal image P3 is displayed at the time point t3.
  • icons and the like related to the attributes of the special group can be displayed at the time when the image of the special group is acquired. As a result, special events can be written together in chronological order on the blood glucose control graph 104.
  • a shooting step (step S3) of shooting the subject 202 with the camera 48 of the wearable device 12 worn by the user 200 and a shooting image shot in the shooting step are transmitted to the information processing server 16.
  • the image transmission step (step S6), the storage step (step S15) of storing the captured image received from the wearable device 12 in the server storage unit 100 of the information processing server 16, and the captured image captured by the camera 48 are meal images.
  • the captured image includes an information organizing step (steps S19 to S26) for organizing the photographed image based on the determination result of the image determination unit (image determination server 20) as to whether or not the image is present.
  • the image management method is not limited to the above-mentioned method.
  • the control unit 66 stores the captured image of the camera 48 in the storage unit 82 (after step S5). It is determined whether or not the captured image stored in 82 is a meal image or a specific image.
  • the device information organizing unit 84 (information organizing unit) deletes the latest captured image from the storage unit 82.
  • the control unit 66 performs the same processing as in steps S20 to S26 described above, and transmits the captured image to the information processing server 16. Send.
  • the present embodiment has the following effects.
  • the image management system 10 includes a wearable device 12 and an information processing server 16.
  • the wearable device 12 has a camera 48 for photographing the subject 202.
  • the information processing server 16 captures images based on a server storage unit 100 that stores captured images received from the wearable device 12 and a determination result of an image determination unit as to whether or not the captured image captured by the camera 48 is a meal image. It has an information organizing unit (device information organizing unit 84 or server information organizing unit 95) for organizing images.
  • the information organizing unit deletes the captured image when the image determination unit determines that the captured image is not a meal image, and the server storage unit 100 corresponds to the case where the image determination unit determines that the captured image is a meal image.
  • the captured image is stored in the server storage unit 100.
  • the camera 48 of the wearable device 12 can quickly take a picture of a meal. As a result, it is possible to efficiently take a picture of the meal. Further, since the photographed image is deleted when the photographed image is not the meal image, health management using the meal image can be effectively performed.
  • the image determination unit is an image determination server 20 provided separately from the wearable device 12 and the information processing server 16.
  • the information processing server 16 transmits the captured image stored in the server storage unit 100 to the image determination server 20, and determines that the information processing server 16 receives the determination result of the image determination server 20 as to whether or not the captured image is a meal image.
  • It has a communication unit 90 and a server information organizing unit 95 as an information organizing unit for organizing captured images stored in the server storage unit 100.
  • the server information organizing unit 95 deletes the captured image from the server storage unit 100
  • the server storage unit 100 deletes the captured image from the server storage unit 100.
  • the determination communication unit 90 receives the determination result that it is an image, the captured image is retained.
  • the determination communication unit 90 is located in the information processing server 16 instead of the wearable device 12, the battery 54 of the wearable device 12 is consumed as compared with the case where the determination communication unit 90 is provided in the wearable device 12. Can be suppressed.
  • the wearable device 12 has a storage unit 82 that stores captured images taken by the camera 48, and a device information organizing unit 84 that organizes captured images stored in the storage unit 82. After transmitting the captured image stored in the storage unit 82 to the information processing server 16, the device information organizing unit 84 deletes the captured image from the storage unit 82.
  • the storage capacity of the storage unit 82 required for storing the captured image can be reduced.
  • the wearable device 12 has a light emitting unit 50 that outputs a guide light L in the shooting range of the camera 48.
  • the wearable device 12 has a notification control unit 86 that performs notification control for prompting the user 200 to input a meal date and time.
  • the information processing server 16 determines the date and time acquisition determination unit 93 that determines whether or not the meal date and time of the user 200 has been acquired, and when the date and time acquisition determination unit 93 determines that the meal date and time has not been acquired, the previous meal date and time
  • the time determination unit 98 determines whether or not the elapsed time T1 from the previous meal exceeds the predetermined meal interval T2, and the time determination unit 98 determines that the elapsed time T1 from the previous meal date and time exceeds the predetermined meal interval T2.
  • the wearable device 12 has a notification request control unit 94 that requests notification control.
  • the meal date and time of the user 200 can be effectively acquired.
  • the camera control unit 80 takes a picture of the subject 202 (step S34). Then, when the shooting of the subject 202 by the camera 48 is completed, the light emitting control unit 78 stops the output of the guide light L from the light emitting unit 50 (step S35). That is, when the shooting of the subject 202 is completed, the guide light L automatically stops the output of the guide light L without operating the operation switch 58. As a result, the user 200 can easily know that the shooting is completed.
  • steps S36 to S38 are performed. Since the processes of steps S36 to S38 are the same as the processes of steps S5 to S7 of FIG. 5 described above, the description thereof will be omitted.
  • the subject determination unit 79 described above is deleted. The same applies to the wearable device 12 used in the operation flow according to the second modification described later.
  • the light emitting control unit 78 outputs a guide light L from the light emitting unit 50 when one of the two operation switches 58 is operated, and the camera control unit 80. Takes a picture of the camera 48 when the other of the two operation switches 58 is operated.
  • the user 200 can shoot the camera 48 at his / her own timing.
  • the wearable device 12 acquires the wearing position information of the wearable device 12 of the user 200 (step S40). Specifically, the user 200 inputs information on which of the left and right arms the wearable device 12 is attached to the information processing device 14. Then, since the information is transmitted from the information processing device 14 to the wearable device 12, the wearable device 12 acquires the wearing position information of the wearable device 12 of the user 200.
  • the control unit 66 determines whether or not the wearable device 12 has been rotated so that the orientation of the camera 48 changes forward and downward of the user 200 (step S42). Specifically, the control unit 66 determines the rotation direction of the wearable device 12 based on the mounting position information of the wearable device 12 acquired in step S41 and the output signal of the acceleration sensor 70.
  • step S42 determines that the wearable device 12 is not rotating so that the orientation of the camera 48 changes forward and downward of the user 200 (step S42: NO)
  • the orientation of the camera 48 is in front of the user 200. And it stays in step S42 until the wearable device 12 rotates so as to change downward.
  • step S42 determines that the wearable device 12 has rotated so that the orientation of the camera 48 changes forward and downward of the user 200 (step S42: YES)
  • the light emission control unit 78 is the light emitting unit 50.
  • the guide light L is output from (see step S43, FIGS. 11A and 11B).
  • the camera control unit 80 takes a picture of the subject 202 (step S45). Specifically, the camera control unit 80 permits shooting of the camera 48 when the direction of the camera 48 is diagonally downward, and when the direction of the camera 48 is not diagonally downward (for example, the direction of the camera 48 is diagonally upward). Case) prohibits the shooting of the camera 48.
  • step S45 NO
  • the light emitting control unit 78 controls the operation of the light emitting unit 50 so that the guide light L blinks (step S46).
  • the user 200 can be notified that the shooting of the subject 202 has not been completed.
  • the light emitting control unit 78 is not limited to the example of changing the output pattern of the guide light L, and may control the operation of the light emitting unit 50 so that the color of the guide light L changes. In this case, the process returns to step S44.
  • step S45 when the shooting of the subject 202 by the camera 48 is completed (step S45: YES), the light emitting control unit 78 stops the output of the guide light L from the light emitting unit 50 (step S47). That is, when the shooting of the subject 202 is completed, the guide light L automatically stops the output of the guide light L without operating the operation switch 58. As a result, the user 200 can easily know that the shooting is completed.
  • steps S48 to S50 are performed. Since the processes of steps S48 to S50 are the same as the processes of steps S5 to S7 of FIG. 5 described above, the description thereof will be omitted.
  • the camera control unit 80 permits the camera 48 to shoot the subject 202 when the direction of the camera 48 is obliquely downward, and the direction of the camera 48 is not obliquely downward. In this case, the camera 48 prohibits the shooting of the subject 202.
  • the shooting range can be narrowed down depending on the positional relationship between the wearable device 12 and the user 200, so that the camera 48 can be suppressed from being abused (used for voyeurism).
  • the image management system 10 may include the wearable device 12a shown in FIG. 12 instead of the wearable device 12 described above.
  • the same reference numerals are given to the same configurations as the wearable device 12 described above, and the description thereof will be omitted.
  • the device body 24a of the wearable device 12a includes a determination communication unit 110.
  • the above-mentioned determination communication unit 90 of the information processing server 16 is deleted.
  • the information processing server 16 cooperates with the instruction device 22 in the same manner as in FIG.
  • the determination communication unit 110 constructs a wireless communication line with the image determination server 20 to perform information communication.
  • the standard of the wireless communication line between the determination communication unit 110 and the image determination server 20 the same standard as the standard of the wireless communication line between the first communication unit 52 and the server communication unit 88 can be used.
  • the determination communication unit 110 transmits the captured image stored in the storage unit 82 to the image determination server 20, and receives the determination result of the image determination server 20 as to whether or not the captured image is a meal image.
  • the device information organizing unit 84 deletes the captured image from the storage unit 82, and determines that the captured image is a meal image. Is received by the determination communication unit 110, the captured image is transmitted to the information processing server 16 and then deleted from the storage unit 82.
  • step S60 to step S64 are the same as the processes from step S1 to step S5 in FIG. 5 described above, and thus the description thereof will be omitted.
  • the determination communication unit 110 transmits the captured image stored in the storage unit 82 to the image determination server 20 (step S65). Then, the image determination server 20 determines whether or not the captured image is a meal image or a specific image, and transmits the determination result to the determination communication unit 110. Then, the determination communication unit 110 receives the determination result of whether or not the captured image is a meal image (step S66).
  • step S68 when the determination communication unit 110 receives a determination result that the captured image is not a meal image (step S67: NO), it is determined whether or not the captured image includes a specific image (step S68).
  • step S68: YES the device information organizing unit 84 transmits information corresponding to the type of the specific figure included in the captured image to the information processing server 16 (step S69). After that, the device information organizing unit 84 deletes the specific image from the storage unit 82 (step S70).
  • step S70 When the captured image does not include the specific image (step S68: NO), the captured image is deleted from the storage unit 82 (step S70).
  • the device information organizing unit 84 transmits the captured image stored in the storage unit 82 to the information processing server 16. (Step S71). After that, the device information organizing unit 84 deletes the captured image from the storage unit 82 (step S70). Then, the operation flow of this time is ended.
  • the information processing server 16 performs processing according to the flowcharts of FIGS. 6 and 7 described above (however, in this case, steps S16 to S19 are not performed).
  • Such an image management method includes a shooting step (step S62) of shooting the subject 202 with the camera 48 of the wearable device 12a worn by the user 200, and a storage unit of the wearable device 12a for the shot image shot in the shooting step.
  • the storage step (step S64) to be stored in the 82 and the image determination server 20 for transmitting the photographed image stored in the storage unit 82 to the image determination server 20 and determining whether or not the photographed image is a meal image.
  • the information organizing step includes an image determination step (step S65 and step S66) for receiving the result and an information organizing step (step S70 and step S71) for organizing the captured images stored in the storage unit 82.
  • the wearable device 12a When the wearable device 12a receives the determination result that the image is not a meal image, the captured image is deleted from the storage unit 82, and the wearable device 12a receives the determination result that the captured image is a meal image. The captured image is deleted after being transmitted to the information processing server 16.
  • the wearable device 12a has the same effect as the wearable device 12 described above.
  • the information processing server 16 may request at least one of the wearable devices 12 and 12a and the information processing device 14 to control the blood glucose measurement notification that prompts the blood glucose measurement after a lapse of a certain time from the user 200 taking a picture of the meal.
  • the above embodiment is a medical image management system (10) including a wearable device (12, 12a) worn by a user (200) and an information processing server (16) capable of communicating with the wearable device.
  • the wearable device has a camera (48) for photographing a subject (202), and the information processing server has a server storage unit (100) for storing a photographed image received from the wearable device.
  • Information that any of the wearable device and the information processing server organizes the captured image based on the determination result of the image determination unit as to whether or not the captured image captured by the camera is a meal image.
  • the information organizing unit has an organizing unit (84, 95), and when the image determining unit determines that the photographed image is not the meal image, the image determining unit deletes the photographed image, and the server storage unit is said. Discloses an image management system that holds a captured image when the image determination unit determines that the captured image is the meal image.
  • the image determination unit is an image determination server (20) provided separately from the wearable device and the information processing server, and the information processing server is stored in the server storage unit.
  • the captured image is stored in the determination communication unit (90) and the server storage unit, which transmits the captured image to the image determination server and receives the determination result of the image determination server as to whether or not the captured image is a meal image.
  • It has a server information organizing unit (95) as the information organizing unit for organizing the photographed images, and the server information organizing unit determines the determination result that the captured image is not the meal image.
  • the communication unit receives the captured image
  • the captured image is deleted from the server storage unit, and the server storage unit captures the captured image when the determination communication unit receives a determination result that the captured image is the meal image.
  • the image may be retained.
  • the wearable device includes a storage unit (82) for storing the captured image captured by the camera and a device information organizing unit (84) for organizing the captured image stored in the storage unit. ), And the device information organizing unit may delete the captured image from the storage unit after transmitting the captured image stored in the storage unit to the information processing server.
  • the wearable device may have a light emitting unit (50) that outputs guide light (L) in the shooting range of the camera.
  • the wearable device has two operation units (58) that can be operated by the user and a light emission control unit (78) that controls the operation of the light emission unit, and the light emission control.
  • the unit outputs the guide light from the light emitting unit when the two operation units are operated at the same time, and the guide light is output from the light emitting unit when only one of the two operation units is operated. Does not have to be output.
  • the wearable device includes a subject determination unit (79) for determining whether or not the subject (202) within the shooting range of the camera corresponds to predetermined meal information, and the camera.
  • the camera control unit includes a camera control unit (80) that controls the operation of the subject, and the camera control unit determines that the subject does not correspond to the predetermined meal information, and the camera controls the subject. Shooting may be prohibited, and when the subject determination unit determines that the subject corresponds to the predetermined meal information, the camera may allow the subject to be photographed.
  • the wearable device includes two operation units that can be operated by the user, a light emission control unit that controls the operation of the light emitting unit, and a camera control unit that controls the operation of the camera.
  • the light emitting control unit outputs the guide light from the light emitting unit when one of the two operating units is operated
  • the camera control unit outputs the guide light from the light emitting unit
  • the camera control unit is the other of the two operating units. May be taken by the camera when is operated.
  • the wearable device has a camera control unit that controls the operation of the camera, and the camera control unit captures the subject by the camera when the direction of the camera is obliquely downward. May be permitted, and shooting of the subject by the camera may be prohibited when the direction of the camera is not obliquely downward.
  • the wearable device has a notification control unit (86) that performs notification control for prompting the user to input a meal date and time, and has the information processing server acquired the meal date and time of the user?
  • the date and time acquisition determination unit (93) that determines whether or not the meal is not acquired and the date and time acquisition determination unit determines that the meal date and time have not been acquired
  • the elapsed time (T1) from the previous meal date and time is a predetermined meal interval.
  • the wearable device has a time determination unit (98) that determines whether or not (T2) has been exceeded, and a time determination unit that determines that the elapsed time from the previous meal date and time has exceeded the predetermined meal interval.
  • the embodiment is a medical wearable device (12a) worn by a user, and includes a camera for photographing a subject, a storage unit for storing a captured image captured by the camera, and the storage unit.
  • the determination communication unit (110) and the storage unit that transmit the captured image stored in the image to the image determination server and receive the determination result of the image determination server as to whether or not the captured image is a meal image.
  • the device information organizing unit has a device information organizing unit that organizes the captured images stored in the image.
  • the determination communication unit receives the determination result that the photographed image is the meal image, the photographed image is deleted from the storage unit, and then the photographed image is transmitted to the information processing server and then the storage unit. Discloses wearable devices to remove from.
  • the wearable device may have a light emitting unit for outputting guide light to the subject.
  • the wearable device has two operation units that can be operated by the user and a light emission control unit that controls the operation of the light emitting unit.
  • the light emission control unit operates the two operation units at the same time.
  • the guide light may be output from the light emitting unit, and the guide light may not be output from the light emitting unit when only one of the two operation units is operated.
  • a subject determination unit that determines whether or not the subject within the shooting range of the camera matches or resembles a predetermined meal image
  • a camera control unit that controls the operation of the camera, and the like.
  • the camera control unit prohibits the camera from taking a picture, and the subject corresponds to the predetermined meal information.
  • photography by the camera may be permitted.
  • the wearable device has two operation units that can be operated by the user, a light emission control unit that controls the operation of the light emitting unit, and a camera control unit that controls the operation of the camera.
  • the unit outputs the guide light from the light emitting unit when one of the two operation units is operated, and the camera control unit takes a picture of the camera when the other of the two operation units is operated. May be done.
  • the above embodiment is a medical image management method, in which a shooting step of shooting a subject with a camera of a wearable device worn by a user and a shooting image shot in the shooting step are transmitted to an information processing server.
  • An image transmission step a storage step of storing the captured image received from the wearable device in the server storage unit of the information processing server, and an image determination as to whether or not the captured image captured by the camera is a meal image.
  • the server information organizing step which includes a server information organizing step of organizing the captured images based on the determination result of the unit, when the image determining unit determines that the captured image is not the meal image, the photographing is performed.
  • Discloses an image management method in which an image is deleted and the captured image is stored in the server storage unit when the image determination unit determines that the captured image is the meal image.
  • the above-described embodiment is a medical image management program, in which a shooting step of shooting a subject with a camera of a wearable device worn by a user and a storage unit of the wearable device are stored in a shooting image shot in the shooting step.
  • An image in which the storage step to be stored in the storage unit and the captured image stored in the storage unit are transmitted to the image determination server to receive the determination result of the image determination server as to whether or not the captured image is a meal image.
  • a computer is made to execute a determination step and an information organizing step for organizing the captured images stored in the storage unit, and in the information organizing step, the determination result that the captured image is not the meal image is determined.
  • the captured image is deleted from the storage unit, and when the wearable device receives the determination result that the captured image is the meal image, the captured image is transmitted to the information processing server. It discloses an image management program that will be deleted later.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Nutrition Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本発明は、画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラムに関する。画像管理システム(10)は、カメラ(48)を有するウェアラブルデバイス(12)と情報処理サーバ(16)とを備える。情報処理サーバ(16)は、ウェアラブルデバイス(12)から受信した撮影画像を記憶するサーバ記憶部(100)を有する。ウェアラブルデバイス(12)及び情報処理サーバ(16)のいずれかは、情報整理部を有する。情報整理部は、撮影画像が食事画像ではないと画像判定部が判定した場合に当該撮影画像を削除し、サーバ記憶部(100)は、前記撮影画像が食事画像であると画像判定部が判定した場合に当該撮影画像を保持する。

Description

画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラム
 本発明は、画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラムに関する。
 特開2019-28625号公報には、スマートフォン等のユーザ端末のカメラで撮影した撮影画像(食事画像)をサーバに送信するとともに当該サーバに記憶する画像管理システムが開示されている。サーバに記憶されている撮影画像は、血糖管理(糖尿病の治療指導や健康指導等)に用いられる。
 しかしながら、上述したような画像管理システムでは、ユーザ端末を携帯し忘れた場合やユーザ端末が鞄の中にある場合、食事の撮影を素早く行うことができないことがある。また、撮影画像が食事画像でない場合であっても当該撮影画像がそのままサーバに記憶されるため、食事画像を用いた健康管理(血糖管理)を効果的に行うことができないおそれがある。
 本発明は、このような課題を考慮してなされたものであり、食事の撮影を効率的に行うことができるとともに食事画像を用いた健康管理を効果的に行うことができる画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラムを提供することを目的とする。
 本発明の第1の態様は、ユーザが身に着けられるウェアラブルデバイスと、前記ウェアラブルデバイスと通信可能な情報処理サーバと、を備えた医療用の画像管理システムであって、前記ウェアラブルデバイスは、被写体を撮影するためのカメラを有し、前記情報処理サーバは、前記ウェアラブルデバイスから受信した撮影画像を記憶するサーバ記憶部を有し、前記ウェアラブルデバイス及び前記情報処理サーバのいずれかは、前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理する情報整理部を有し、前記情報整理部は、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、前記サーバ記憶部は、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を保持する、画像管理システムである。
 本発明の第2の態様は、ユーザが身に着けられる医療用のウェアラブルデバイスであって、被写体を撮影するためのカメラと、前記カメラによって撮影された撮影画像を記憶する記憶部と、前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する判定通信部と、前記記憶部に記憶されている前記撮影画像を整理するデバイス情報整理部と、を有し、前記デバイス情報整理部は、前記撮影画像が前記食事画像ではないとの判定結果を前記判定通信部が受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記判定通信部が受信した場合に当該撮影画像を情報処理サーバに送信した後で前記記憶部から削除する、ウェアラブルデバイスである。
 本発明の第3の態様は、医療用の画像管理方法であって、ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、前記撮影ステップで撮影された撮影画像を情報処理サーバに送信する画像送信ステップと、前記ウェアラブルデバイスから受信した前記撮影画像を前記情報処理サーバのサーバ記憶部に記憶する記憶ステップと、前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理するサーバ情報整理ステップと、を含み、前記サーバ情報整理ステップでは、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を前記サーバ記憶部に保持する、画像管理方法である。
 本発明の第4の態様は、医療用の画像管理方法であって、ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、前記撮影ステップで撮影された撮影画像を前記ウェアラブルデバイスの記憶部に記憶する記憶ステップと、前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する画像判定ステップと、前記記憶部に記憶されている前記撮影画像を整理する情報整理ステップと、を含み、前記情報整理ステップでは、前記撮影画像が前記食事画像ではないとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を情報処理サーバに送信した後で削除する、画像管理方法である。
 本発明の第5の態様は、医療用の画像管理プログラムであって、ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、前記撮影ステップで撮影された撮影画像を情報処理サーバに送信する画像送信ステップと、前記ウェアラブルデバイスから受信した前記撮影画像を前記情報処理サーバのサーバ記憶部に記憶する記憶ステップと、前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理するサーバ情報整理ステップと、をコンピュータに実行させ、前記サーバ情報整理ステップでは、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を前記サーバ記憶部に保持する、画像管理プログラムである。
 本発明の第6の態様は、医療用の画像管理プログラムであって、ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、前記撮影ステップで撮影された撮影画像を前記ウェアラブルデバイスの記憶部に記憶する記憶ステップと、前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する画像判定ステップと、前記記憶部に記憶されている前記撮影画像を整理する情報整理ステップと、をコンピュータに実行させ、前記情報整理ステップでは、前記撮影画像が前記食事画像ではないとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を情報処理サーバに送信した後で削除する、画像管理プログラムである。
 本発明によれば、ユーザがウェアラブルデバイスを身に着けることにより、ウェアラブルデバイスのカメラによって食事の撮影を素早く行うことができる。これにより、食事の撮影を効率的に行うことができる。また、撮影画像が食事画像ではない場合に撮影画像をサーバ記憶部(記憶部)から削除するため、食事画像を用いた健康管理を効果的に行うことができる。
本発明の一実施形態に係る画像管理システムのブロック図である。 図1のウェアラブルデバイスの斜視図である。 図3Aは、図2のウェアラブルデバイスの正面図であり、図3Bは、図3AのIIIB-IIIB線に沿った縦断面図である。 図3Bのウェアラブルデバイスを形成するデバイス本体のブロック図である。 図1のウェアラブルデバイスの動作を説明するためのフローチャートである。 図1の情報処理サーバの動作を説明するための第1のフローチャートである。 図1の情報処理サーバの動作を説明するための第2のフローチャートである。 血糖管理グラフの例である。 図1のウェアラブルデバイスの動作を説明するための第1変形例に係るフローチャートである。 図1のウェアラブルデバイスの動作を説明するための第2変形例に係るフローチャートである。 図11Aは、ウェアラブルデバイスのカメラによる被写体の撮影の第1説明図であり、図11Bは、ウェアラブルデバイスのカメラによる被写体の撮影の第2説明図である。 変形例に係るウェアラブルデバイスを説明するためのブロック図である。 図12のウェアラブルデバイスの動作を説明するためのフローチャートである。
 以下、本発明に係る画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラムについて好適な実施形態を挙げ、添付の図面を参照しながら説明する。
 本発明の一実施形態に係る画像管理システム10は、ユーザ200(図11A参照)が撮影する食事画像を用いて健康管理(例えば、血糖管理)を行うための医療用のシステムである。
 図1に示すように、画像管理システム10は、ウェアラブルデバイス12と、情報処理デバイス14及び情報処理サーバ16を有する情報処理システム18と、画像判定サーバ20と、指導用デバイス22と備える。
 図11Aに示すようにウェアラブルデバイス12は、ユーザ200が身に着けることができるように構成されている。ウェアラブルデバイス12は、例えば、リストバンドのように手首に着脱可能に構成されている。ただし、ウェアラブルデバイス12は、眼鏡に一体的に設けられてもよいし、衣服に着脱可能に構成されてもよいし、ネックレスのように首に着脱可能に構成されてもよいし、頭に着脱可能に構成されてもよい。つまり、ウェアラブルデバイス12は、ユーザ200が着脱可能に身に着けることができれば、どのように構成されてもよい。
 図2~図3Bにおいて、ウェアラブルデバイス12は、デバイス本体24と、デバイス本体24をユーザ200の手首に装着するための第1ベルト部26及び第2ベルト部28とを備える。デバイス本体24は、縦長の箱状に形成されたケース30を有する。ただし、ケース30は、横長の箱状、多角形の底面を有する箱状(四角形状以外)、円柱状、楕円柱状等であってもよい。
 図2及び図3Bに示すように、第1ベルト部26は、ケース30の一端部に対して第1固定部32によって固定されている。第1ベルト部26には、複数の係止孔34が形成されている。複数の係止孔34は、第1ベルト部26の延在方向に等間隔に並んでいる。第1ベルト部26の先端部には、第2ベルト部28を通すためのベルト通し孔36が設けられている。
 第2ベルト部28は、ケース30の他端部に対して第2固定部38によって固定されている。第2ベルト部28の先端部には、第1ベルト部26の係止孔34に嵌合可能な係止ピン40が設けられている。第1ベルト部26及び第2ベルト部28は、係止ピン40が係止孔34に嵌合することにより互いに係止される。
 図2~図3Bにおいて、デバイス本体24は、表示部42、インジケータ44、血糖センサ装着部46、カメラ48、発光部50、第1通信部52、バッテリ54、プリント基板56(PCB)、2つの操作スイッチ58を有する。
 表示部42は、ケース30の表面側に設けられている。表示部42は、LEDディスプレイ、LCDディスプレイ、CRTディスプレイ、プラズマディスプレイ、タッチスクリーンディスプレイ等で構成することができるが、これらに限定されない。
 インジケータ44は、ケース30のうち表示部42よりも第1固定部32が位置する側に設けられている。インジケータ44は、デバイス本体24の状態を表示するためのものであってLEDインジケータとして構成されている。
 血糖センサ装着部46は、ケース30のうち表示部42よりも第2固定部38が位置する側に設けられている。血糖センサ装着部46には、血液を取り込んだ図示しない血糖センサが装着される。
 カメラ48は、ユーザ200の食事を撮影するためのものである。カメラ48は、ケース30のうち表示部42よりも第1固定部32が位置する側に設けられている。カメラ48は、ピンホールカメラとして構成されている。ただし、カメラ48は、ピンホールカメラに限定されず、レンズ付きのカメラであってもよい。
 図2及び図3Aにおいて、発光部50は、カメラ48の撮影機能を妨害しないようにケース30のうちカメラ48とは異なる位置に設けられている。具体的に、発光部50は、カメラ48の側方に設けられている。発光部50は、カメラ48の撮影方向を示すガイド光Lを出力する(図11B参照)。ガイド光Lは、可視光であるが、その色は適宜設定可能である。ガイド光Lの発光強度は、発光部50から1m以内を照射することができればよい。
 発光部50は、例えば、ガイド光Lとしてのレーザ光を発振するレーザダイオードを有する。この場合、レーザダイオードから出力されたガイド光Lは、マスクに形成されたアパーチャを通り、投光光学系から被写体202(図11A及び図11B参照)に向かって出力される。アパーチャの形状は、適宜設定可能である。レーザダイオードから発振された光(ガイド光L)は、被写体202の一点を照射する。
 発光部50は、LED素子等の発光素子を有してもよい。この場合、発光部50から出力されたガイド光Lは、被写体202に向かって広がる。発光素子は、LED素子に限定されず、有機EL素子、無機EL素子等であってもよい。発光部50から発光されるガイド光Lは、カメラ48のAF補助光としても機能する。
 図3Bにおいて、第1通信部52は、ケース30内に収容されている。第1通信部52は、情報処理サーバ16のサーバ通信部88(図1参照)との間で無線通信回線を構築して情報通信を行う。第1通信部52とサーバ通信部88との間の無線通信回線の規格は、LPWAが好ましい。ただし、第1通信部52とサーバ通信部88との間の無線通信回線の規格は、例えば、Wi-Fi(登録商標)やLTE(登録商標)等であってもよい。
 バッテリ54は、第1通信部52よりも表示部42側に位置するようにケース30内に収容されている。バッテリ54は、デバイス本体24の電子部品に電力を供給する。バッテリ54は、二次電池又はキャパシタ等を含む。プリント基板56は、バッテリ54よりも表示部42側に位置するようにケース30内に収容されている。プリント基板56には、図示しない電子部品が実装されている。
 図2及び図3Aにおいて、2つの操作スイッチ58(操作部)は、カメラ48の撮影を行うためのものであって、ケース30の左右の側面に1つずつ設けられている。各操作スイッチ58は、押しボタン式のスイッチである。ただし、各操作スイッチ58は、押しボタン式のものに限定されず、スライドスイッチ等であってもよい。
 デバイス本体24において、インジケータ44、血糖センサ装着部46、第1通信部52、バッテリ54及びプリント基板56の配置は、適宜変更可能である。操作スイッチ58の数、大きさ、形状、位置は、適宜設定可能である。
 図4に示すように、ウェアラブルデバイス12のデバイス本体24は、生体情報測定部60、第2通信部62、報知部64及び制御部66をさらに有している。
 生体情報測定部60は、ユーザ200の生体情報を測定する。具体的に、生体情報測定部60は、加速度センサ70を有する。加速度センサ70は、例えば、ユーザ200の歩数等を測定する。生体情報測定部60は、血圧、脈拍(心拍)、体温等をさらに測定してもよい。この場合、生体情報測定部60は、例えば、心拍検出用センサを含んでもよい。心拍検出用センサは、心電図法、光電脈波法、血圧計測法、心音図法のいずれかの方式で心拍を測定する。
 生体情報測定部60で測定された情報は、表示部42に表示される。具体的に、表示部42には、血糖値(グルコース濃度)、活動量、歩数、心拍数、睡眠時間等が表示される。また、表示部42には、現在の日時、生体情報の測定可否、データ(例えば、カメラ48による撮影画像)の送信可否等が表示される。なお、カメラ48で撮影した撮影画像自体は、表示部42に表示されない。
 図1に示すように、第2通信部62は、情報処理デバイス14との間で無線通信回線を構築して情報通信を行う。第2通信部62と情報処理デバイス14との間の無線通信回線の規格は、Bluetooth(登録商標)であって、特に、BLE(Bluetooth Low Energy)が好ましい。ただし、第2通信部62と情報処理デバイス14との間の無線通信回線の規格は、例えば、Wi-Fi(登録商標)等であってもよい。また、第2通信部62は、情報処理デバイス14との間で有線通信回線を構築して情報通信を行ってよい。第2通信部62は、例えば、生体情報(歩数情報等)を情報処理デバイス14に送信する。
 図4において、報知部64は、スピーカ72及び振動部74を有する。スピーカ72は、音情報(音声、電子音等)を出力する。振動部74は、ユーザ200に振動を伝える。
 制御部66は、マイクロコンピュータを含む計算機であり、CPU(中央処理装置)、メモリであるROM、RAM等を有しており、CPUがROMに記憶されているプログラムを読み出し実行することで各種機能実現部(機能実現手段)として機能する。なお、各種機能実現部は、ハードウエアとしての機能実現器により構成することもできる。
 制御部66は、血糖測定制御部76、発光制御部78、被写体判定部79、カメラ制御部80、記憶部82、デバイス情報整理部84及び報知制御部86を有する。
 血糖測定制御部76は、血糖測定センサに取り込んだ血液の血糖値(血漿中のグルコース濃度)を測定する。血糖情報を連続的に取得する場合は、連続グルコースモニタを使用してもよい。この場合、血糖測定制御部76は、連続グルコースモニタから測定値と測定時刻情報を取得する。発光制御部78は、発光部50の動作を制御して発光部50からガイド光Lを出力する。被写体判定部79は、カメラ48の撮影範囲内にある被写体202が所定の食事画像と一致又は類似するか否かを判定する。カメラ制御部80は、カメラ48の動作を制御する。
 記憶部82は、血糖情報(血糖測定制御部76によって取得された測定値及び測定日時)及びカメラ48の撮影画像等を記憶する。デバイス情報整理部84は、記憶部82に記憶されている撮影画像を整理する。報知制御部86は、報知部64の動作を制御する。具体的に、報知制御部86は、スピーカ72から音情報を出力させたり、振動部74を振動させたりする。
 図1に示すように、情報処理デバイス14は、ユーザ200が操作するものである。情報処理デバイス14は、例えば、スマートフォン、ラップトップ、タブレット等であるが、これらに限定されない。情報処理デバイス14は、例えば、ウェアラブルデバイス12の第2通信部62にウェアラブルデバイス12の設定指示情報や操作指示情報を送信する。
 情報処理デバイス14は、情報処理サーバ16のサーバ通信部88との間で無線通信回線を構築して情報通信を行う。情報処理デバイス14とサーバ通信部88との間の無線通信回線の規格は、ウェアラブルデバイス12の第1通信部52と情報処理サーバ16のサーバ通信部88との間の無線通信回線の規格と同様のものを用いることができる。情報処理デバイス14は、例えば、生体情報等をサーバ通信部88に送信する。
 情報処理サーバ16は、サーバ通信部88、判定通信部90及びサーバ制御部92を有する。サーバ通信部88は、指導用デバイス22との間で無線通信回線を構築して情報通信を行う。サーバ通信部88と指導用デバイス22との間の無線通信回線の規格は、ウェアラブルデバイス12の第1通信部52と情報処理サーバ16との間の無線通信回線の規格と同様のものを用いることができる。
 判定通信部90は、画像判定サーバ20との間で無線通信回線を構築して情報通信を行う。判定通信部90と画像判定サーバ20との間の無線通信回線の規格は、ウェアラブルデバイス12の第1通信部52とサーバ通信部88との間の無線通信回線の規格と同様のものを用いることができる。なお、画像判定サーバ20の代わりに、ウェアラブルデバイス12に画像判定機能を付加してもよい。この場合、判定通信部90は省略できる。
 サーバ制御部92は、日時取得判定部93、報知要求制御部94、サーバ情報整理部(情報整理部)95、タイマ96、時間判定部98、サーバ記憶部100及びグラフ作成部102を有する。
 日時取得判定部93は、ユーザ200の食事日時を取得したか否かを判定する。報知要求制御部94は、食事日時の入力を促す報知制御をウェアラブルデバイス12に要求する。サーバ情報整理部95は、サーバ記憶部100に記憶されている撮影画像を整理する。
 タイマ96は、時間を計測する。時間判定部98は、所定の時間判定を行う。サーバ記憶部100には、血糖情報(血糖日時及びグルコース濃度)並びに撮影画像(食事画像)が記憶される。グラフ作成部102は、サーバ記憶部100に記憶されている血糖情報及び食事画像に基づいて血糖管理グラフ104(図8参照)を作成する。
 指導用デバイス22は、医療従事者(医者や管理栄養士等)が操作する医療用デバイスであって、ユーザ200の血糖管理(治療指導や健康指導等)を行うために使用される。
 次に、画像管理システム10を用いた画像管理方法について説明する。まず、ウェアラブルデバイス12の動作フローについて説明する。
 図5に示すように、まず、制御部66は、撮影指示があったか否かを判定する(ステップS1)。具体的には、制御部66は、2つの操作スイッチ58が同時に操作された場合に撮影指示があったと判定する。なお、制御部66は、2つの操作スイッチ58が同時に操作されない場合(例えば、片方の操作スイッチ58のみが操作された場合等)に撮影指示がなかったと判定する。撮影指示がなかったと制御部66が判定した場合(ステップS1:NO)、撮影指示があるまでステップS1に留まる。
 撮影指示があったと制御部66が判定した場合(ステップS1:YES)、発光制御部78は、発光部50からガイド光Lを出力する(ステップS2)。この際、ユーザ200は、ガイド光Lを被写体202に向ける。
 続いて、カメラ制御部80は、カメラ48による撮影を行う(ステップS3)。具体的に、被写体判定部79は、カメラ48の撮影範囲内に入った被写体202が所定の食事情報に該当するか否かを判定する。被写体判定部79は、例えば、カメラ48の撮影範囲内に入った被写体202が所定の食事画像に一致又は類似するか否かを判定する。
 そして、カメラ制御部80は、カメラ48の撮影範囲内に入った被写体202が所定の食事情報に該当しないと被写体判定部79が判定した場合にカメラ48による被写体202の撮影を禁止する。つまり、カメラ制御部80は、被写体202が食事ではない可能性が高いため、カメラ48による被写体202の撮影を行わない(シャッタを切らない)。
 一方、カメラ制御部80は、カメラ48の撮影範囲内に入った被写体202が所定の食事情報に該当すると被写体判定部79が判定した場合にカメラ48による被写体202の撮影を許可する。つまり、カメラ制御部80は、被写体202が食事である可能性が高いため、カメラ48による被写体202の撮影を行う(シャッタを切る)。すなわち、カメラ制御部80は、被写体202が食事である場合に、被写体202を撮影する。
 このステップS3において、カメラ制御部80は、カメラ48による撮影完了時にスピーカ72から撮影音(例えば、シャッタ音)を出力したり、インジケータ44を点滅させたりしてもよい。こうすることにより、ユーザ200は、撮影が完了したことを容易に知ることができる。
 次いで、発光制御部78は、発光部50からのガイド光Lの出力を停止する(ステップS4)。すなわち、被写体202の撮影が完了した場合には、特に操作スイッチ58を操作しなくてもガイド光Lの出力が自動的に停止する。これにより、ユーザ200は、撮影が完了したことを一層容易に知ることができる。その後、デバイス情報整理部84は、撮影画像を記憶部82に記憶する(ステップS5)。
 そして、ウェアラブルデバイス12は、記憶部82に記憶された撮影画像を情報処理サーバ16に送信する(ステップS6)。具体的に、第1通信部52は、記憶部82に記憶された撮影画像を情報処理サーバ16に送信する。このステップS6では、第2通信部62が、記憶部82に記憶された撮影画像を情報処理デバイス14に送信した後で、当該撮影画像を情報処理デバイス14が情報処理サーバ16に送信してもよい。こうすることにより、第1通信部52が撮影画像を情報処理サーバ16に直接送信する場合と比較して、ウェアラブルデバイス12のバッテリ54の消費を抑えることができる。
 続いて、デバイス情報整理部84は、撮影画像を記憶部82から削除する(ステップS7)。これにより、撮影画像を記憶するために必要な記憶部82の記憶容量を低減することができる。その後、ウェアラブルデバイス12の動作フローを終了する。
 次に、情報処理サーバ16の動作フローについて説明する。
 図6に示すように、日時取得判定部93は、サーバ通信部88が食事日時を受信したか否かを判定する(ステップS10)。食事日時は、ユーザ200が実際に食事をした日時(食事開始日時)であって、例えば、ユーザ200によって情報処理デバイス14に登録される。情報処理デバイス14に登録された食事日時は、情報処理デバイス14から情報処理サーバ16に送信される。
 食事日時を受信していないと日時取得判定部93が判定した場合(ステップS10:NO)、時間判定部98は、前回の食事日時からの経過時間T1が所定の食事間隔T2を超えたか否かを判定する(ステップS11)。ここで、食事間隔T2は、例えば、前回の食事日時が朝食又は昼食の時間である場合には6時間に設定され、前回の食事日時が夕食の時間である場合には12時間に設定される。ただし、食事間隔T2は、適宜設定可能である。
 前回の食事日時からの経過時間T1が所定の食事間隔T2に達していないと時間判定部98が判定した場合(ステップS11:NO)、後述するステップS14に進む。
 前回の食事日時からの経過時間T1が所定の食事間隔T2を超えたと時間判定部98が判定した場合(ステップS11:YES)、サーバ通信部88は、報知制御要求をウェアラブルデバイス12に送信する(ステップS12)。ウェアラブルデバイス12の第1通信部52が報知制御要求を受信すると、報知制御部86は、ユーザ200に食事日時の登録を促す報知制御を行う。具体的に、報知制御部86は、例えば、「食事日時の登録を行って下さい」という音声をスピーカ72から出力する。また、音声による報知に代えて(又は加えて)、表示部42に食事日時の登録を促す図形又は画像等を表示させてもよい。なお、この際、報知制御部86は、振動部74を振動させてもよい。
 また、ステップS12において、サーバ通信部88は、報知制御要求を情報処理デバイス14に送信してもよい。この場合、情報処理デバイス14が報知制御要求を受信すると、情報処理デバイス14は、ユーザ200に食事日時の登録を促す報知制御を行う。具体的に、情報処理デバイス14は、例えば、「食事日時の登録を行って下さい」という音声を情報処理デバイス14の図示しないスピーカから出力する。また、音声による報知に代えて(又は加えて)、情報処理デバイス14の図示しない表示部に「食事日時の登録を行って下さい」という文字を表示させてもよい。
 さらに、ステップS12において、サーバ通信部88は、報知制御要求をウェアラブルデバイス12と情報処理デバイス14との両方に送信してもよい。この場合、ウェアラブルデバイス12と情報処理デバイス14との両方において、報知制御が行われる。ステップS12の後、ステップS10に戻る。
 食事日時を受信したとサーバ制御部92が判定した場合(ステップS10:YES)、サーバ情報整理部95は、受信した食事日時をサーバ記憶部100に記憶する(ステップS13)。続いて、サーバ制御部92は、サーバ通信部88が撮影画像を受信したか否かを判定する(ステップS14)。撮影画像は、ウェアラブルデバイス12が上述した図5のステップS6の処理を行うことにより第1通信部52からサーバ通信部88に送信される。
 撮影画像を受信していないとサーバ制御部92が判定した場合(ステップS14:NO)、ステップS10に戻る。一方、撮影画像を受信したとサーバ制御部92が判定した場合(ステップS14:YES)、当該撮影画像をサーバ記憶部100に記憶する(ステップS15)。
 続いて、判定通信部90は、サーバ記憶部100に記憶されている最新の撮影画像を画像判定サーバ20に送信する(ステップS16)。そうすると、画像判定サーバ20は、当該撮影画像が食事情報を含む画像であるか否かを判定し、食事情報を含む場合、食事画像と判定する。そして、その判定結果を判定通信部90に送信する。判定通信部90は、当該撮影画像が食事画像であるか否かの判定結果を受信する(ステップS17)。なお、ステップS16において、画像判定サーバ20は、撮影画像が画像判定サーバ20に予め登録した特定画像を含むか否かを判定できる。
 次に、最新の撮影画像が食事画像、特定画像のいずれでもないとの判定結果を判定通信部90が受信した場合(ステップS18:NO)、当該撮影画像をサーバ記憶部100から削除する(ステップS19)。これにより、撮影画像を記憶するために必要なサーバ記憶部100の記憶容量を低減することができる。また、ウェアラブルデバイス12によって食事情報や特定画像を含まない画像(例えば、盗撮画像等)を撮影した場合であっても、当該撮影画像をサーバ記憶部100から削除することができる。その後、今回の動作フローを終了する(図7参照)。
 最新の撮影画像が食事画像又は特定画像を含むとの判定結果を判定通信部90が受信した場合(ステップS18:YES)、図7に示すように、サーバ制御部92は、最新の撮影画像が食事イベントに関するものであるか否かを判定する(ステップS20)。具体的には、サーバ制御部92の判定に基づき、撮影画像が食事情報を含む場合は、食事画像として登録するとともに、食事イベントに分類する。サーバ制御部92が、撮影画像は食事情報を含まないと判定した場合は、撮影画像を特殊イベントに分類する。あるいは、ユーザ200は、ウェアラブルデバイス12のカメラ48による撮影を行う際に、当該撮影に関するイベントが食事イベントであるか特殊イベントであるかを情報処理デバイス14に登録してもよい。
 特殊イベントは、食事内容そのもの以外であって、ユーザ200の血糖管理に関連する情報を含む。より具体的には、特殊イベントは、内服薬の服用、インスリンの注射、発熱、低血糖や高血糖、倦怠感、運動の有無、食事を開始した時刻、食事を終了した時刻が例として挙げられる。情報処理デバイス14及び情報処理サーバ16のそれぞれには、特殊イベントを意味する特定図形(例えば、服用中の内服薬)を予め登録しておく。撮影画像に、登録された特定図形のいずれかが、所定の比率で含まれている場合に、特殊イベントと判定することができる。これにより、情報処理デバイス14及び情報処理サーバ16の処理を簡素化することができるとともに、ユーザ200は、ウェアラブルデバイス12で、予め設定した対象物を撮影するだけで、手軽に情報を収集し、記録することができる。なお、ユーザ200が、食事イベントか特殊イベントかを手入力した情報を、情報処理デバイス14及び情報処理サーバ16に送信してもよい。
 最新の撮影画像が食事イベントに関するものであるとサーバ制御部92が判定した場合(ステップS20:YES)、サーバ制御部92は、当該食事イベントにおける最初の撮影画像であるか否かを判定する(ステップS21)。当該食事イベントにおける最初の撮影画像であるとサーバ制御部92が判定した場合(ステップS21:YES)、タイマ96は、食事グループ分類時間T3の計測を開始する(ステップS22)。その後、最新の撮影画像を第1食事グループに設定する(ステップS23)。
 一方、当該食事イベントにおける最初の撮影画像ではない(つまり、当該食事イベントにおける2枚目以降の撮影画像である)とサーバ制御部92が判定した場合(ステップS21:NO)、時間判定部98は、食事グループ分類時間T3が所定時間T4を超えたか否かを判定する(ステップS24)。ここで、所定時間T4は、例えば、30分に設定される。ただし、所定時間T4は、適宜設定可能であって、1時間であってもよい。
 食事グループ分類時間T3が所定時間T4を超えていないと時間判定部98が判定した場合(ステップS24:NO)、最新の撮影画像を第1食事グループに設定する(ステップS23)。これにより、比較的短い時間(所定時間T4)に撮影された複数枚の撮影画像を1つの食事イベントに関連づけることができる。その後、後述するステップS27に進む。
 食事グループ分類時間T3が所定時間T4を超えたと時間判定部98が判定した場合(ステップS24:YES)、最新の撮影画像を第2食事グループに設定する(ステップS25)。これにより、食事イベントにおける最初の撮影画像(食事画像)を取得してから比較的長い時間(所定時間T4)が経過した後で取得した撮影画像(食事画像)については、当該食事イベントとは関係のないものとなる。その後、後述するステップS27に進む。
 最新の撮影画像が食事イベントに関するものではない(特殊イベントに関するものである)とサーバ制御部92が判定した場合(ステップS20:NO)、サーバ情報整理部95は、最新の撮影画像を特殊グループに設定する(ステップS26)。特殊グループはユーザ200が任意に設定することができ、特殊グループごとに対応する特定図形を設定してもよい。
 その後、グラフ作成部102は、サーバ記憶部100に記憶されている撮影画像(食事画像)と血糖情報とに基づいて血糖管理グラフ104を作成する(ステップS27)。ここで、血糖情報は、グルコースセンサに取り込まれた検体のグルコース濃度の測定値と測定時間を含む。血糖情報は、ウェアラブルデバイス12で測定された後、第1通信部52からサーバ通信部88に送信される。ただし、血糖情報は、第2通信部62から情報処理デバイス14を介してサーバ通信部88に送信されてもよい。
 グラフ作成部102は、例えば、図8に示す血糖管理グラフ104を作成する。図8に示すように、この血糖管理グラフ104は、測定値の時間変化を示すグルコース濃度線106に、食事画像P1~P3を重ねて表示したものである。なお、血糖管理グラフ104において、横軸は時間を示し、縦軸は測定値(グルコース濃度)を示している。血糖管理グラフ104において、時点t1には食事画像P1が表示され、時点t2には食事画像P2が表示され、時点t3には食事画像P3が表示されている。また、特殊グループの画像が取得された時刻に、特殊グループの属性に関連するアイコン等を表示させることができる。これにより、血糖管理グラフ104上で、時系列に沿って特殊イベントを併記させることができる。
 このような画像管理方法は、ユーザ200が身に着けられるウェアラブルデバイス12のカメラ48で被写体202を撮影する撮影ステップ(ステップS3)と、撮影ステップで撮影された撮影画像を情報処理サーバ16に送信する画像送信ステップ(ステップS6)と、ウェアラブルデバイス12から受信した撮影画像を情報処理サーバ16のサーバ記憶部100に記憶する記憶ステップ(ステップS15)と、カメラ48が撮影した撮影画像が食事画像であるか否かについての画像判定部(画像判定サーバ20)の判定結果に基づいて撮影画像を整理する情報整理ステップ(ステップS19~ステップS26)と、を含み、サーバ情報整理ステップでは、撮影画像が食事画像ではないと画像判定部が判定した場合に当該撮影画像を削除し、撮影画像が食事画像であると画像判定部が判定した場合に当該撮影画像をサーバ記憶部100に保持する。
 画像管理方法は、上述した方法に限定されない。例えば、画像判定サーバ20の代わりに、ウェアラブルデバイス12に画像判定機能を付加した場合、カメラ48の撮影画像を記憶部82に記憶した後(ステップS5の後)で、制御部66は、記憶部82に記憶されている撮影画像が食事画像又は特定画像であるか否かを判定する。記憶部82に記憶されている撮影画像が食事画像及び特定画像のいずれでもない場合には、デバイス情報整理部84(情報整理部)は、最新の撮影画像を記憶部82から削除する。記憶部82に記憶されている撮影画像が食事画像又は特定画像である場合には、制御部66は、上述したステップS20~ステップS26と同様の処理を行い、当該撮影画像を情報処理サーバ16に送信する。
 この場合、本実施形態は、以下の効果を奏する。
 画像管理システム10は、ウェアラブルデバイス12と情報処理サーバ16とを備える。ウェアラブルデバイス12は、被写体202を撮影するためのカメラ48を有する。情報処理サーバ16は、ウェアラブルデバイス12から受信した撮影画像を記憶するサーバ記憶部100と、カメラ48が撮影した撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて撮影画像を整理する情報整理部(デバイス情報整理部84又はサーバ情報整理部95)とを有する。情報整理部は、撮影画像が食事画像ではないと画像判定部が判定した場合に撮影画像を削除し、サーバ記憶部100は、撮影画像が食事画像であると画像判定部が判定した場合に当該撮影画像をサーバ記憶部100に保持する。
 このような構成によれば、ユーザ200がウェアラブルデバイス12を身に着けることにより、ウェアラブルデバイス12のカメラ48によって食事の撮影を素早く行うことができる。これにより、食事の撮影を効率的に行うことができる。また、撮影画像が食事画像ではない場合に撮影画像を削除するため、食事画像を用いた健康管理を効果的に行うことができる。
 画像判定部は、ウェアラブルデバイス12及び情報処理サーバ16とは別に設けられた画像判定サーバ20である。情報処理サーバ16は、サーバ記憶部100に記憶されている撮影画像を画像判定サーバ20に送信して当該撮影画像が食事画像であるか否かについての画像判定サーバ20の判定結果を受信する判定通信部90と、サーバ記憶部100に記憶されている撮影画像を整理する情報整理部としてのサーバ情報整理部95とを有する。サーバ情報整理部95は、撮影画像が食事画像ではないとの判定結果を判定通信部90が受信した場合に当該撮影画像をサーバ記憶部100から削除し、サーバ記憶部100は、撮影画像が食事画像であるとの判定結果を判定通信部90が受信した場合に当該撮影画像を保持する。
 このような構成によれば、判定通信部90がウェアラブルデバイス12ではなく情報処理サーバ16にあるため、判定通信部90をウェアラブルデバイス12に設ける場合と比較して、ウェアラブルデバイス12のバッテリ54の消費を抑えることができる。
 ウェアラブルデバイス12は、カメラ48が撮影した撮影画像を記憶する記憶部82と、記憶部82に記憶されている撮影画像を整理するデバイス情報整理部84とを有する。デバイス情報整理部84は、記憶部82に記憶されている撮影画像を情報処理サーバ16に送信した後で、当該撮影画像を記憶部82から削除する。
 このような構成によれば、撮影画像を記憶するために必要な記憶部82の記憶容量を低減することができる。
 ウェアラブルデバイス12は、カメラ48の撮影範囲にガイド光Lを出力する発光部50を有する。
 このような構成によれば、ユーザ200は、撮影時に、被写体202(食事)に向けてガイド光Lを照射することにより、当該被写体202をカメラ48の撮影範囲内に簡単に収めることができる。
 ウェアラブルデバイス12は、ユーザ200が操作可能な2つの操作スイッチ58と、発光部50の動作を制御する発光制御部78とを有する。発光制御部78は、2つの操作スイッチ58が同時に操作された場合に発光部50からガイド光Lを出力し、2つの操作スイッチ58のうちの1つのみが操作された場合に発光部50からガイド光Lを出力しない。
 このような構成によれば、2つの操作スイッチ58のいずれかが誤って操作された場合に、発光部50からガイド光Lが出力することを防止できる。
 ウェアラブルデバイス12は、カメラ48の撮影範囲内に入った被写体202が所定の食事情報に該当するかを判定する被写体判定部79と、カメラ48の動作を制御するカメラ制御部80とを有する。カメラ制御部80は、被写体202が所定の食事情報に該当しないと被写体判定部79が判定した場合にカメラ48による当該被写体202の撮影を禁止し、被写体202が所定の食事情報に該当すると被写体判定部79が判定した場合にカメラ48による当該被写体202の撮影を許可する。
 このような構成によれば、ウェアラブルデバイス12のカメラ48によって健康管理に必要のない画像が撮影されること(例えば、盗撮等)を効果的に抑えることができる。
 ウェアラブルデバイス12は、ユーザ200に食事日時の入力を促す報知制御を行う報知制御部86を有する。情報処理サーバ16は、ユーザ200の食事日時を取得したか否かを判定する日時取得判定部93と、食事日時を取得していないと日時取得判定部93が判定した場合に、前回の食事日時からの経過時間T1が所定の食事間隔T2を超えたか否かを判定する時間判定部98と、前回の食事日時からの経過時間T1が所定の食事間隔T2を超えたと時間判定部98が判定した場合に、ウェアラブルデバイス12に報知制御を要求する報知要求制御部94とを有する。
 このような構成によれば、ユーザ200の食事日時を効果的に取得することができる。
 次に、第1変形例に係るウェアラブルデバイス12の動作フローについて説明する。図9に示すように、この場合、ユーザ200は、ウェアラブルデバイス12のカメラ48を被写体202に向けた状態で(ステップS30)、一方の操作スイッチ58を操作する(ステップS31)。そうすると、発光制御部78は、発光部50からガイド光Lを出力する(ステップS32)。
 続いて、ユーザ200が他方の操作スイッチ58を操作すると(ステップS33)、カメラ制御部80は、被写体202を撮影する(ステップS34)。そして、カメラ48による被写体202の撮影が完了すると、発光制御部78は、発光部50からのガイド光Lの出力を停止する(ステップS35)。すなわち、ガイド光Lは、被写体202の撮影が完了した場合には、特に操作スイッチ58を操作しなくてもガイド光Lの出力が自動的に停止する。これにより、ユーザ200は、撮影が完了したことを容易に知ることができる。
 その後、ステップS36~ステップS38の処理が行われる。なお、ステップS36~ステップS38の処理は、上述した図5のステップS5~ステップS7の処理と同一であるため、その説明については省略する。
 このような動作フローに用いられるウェアラブルデバイス12では、上述した被写体判定部79が削除される。後述する第2変形例に係る動作フローに用いられるウェアラブルデバイス12についても同様である。
 第1変形例に係るウェアラブルデバイス12の動作フローにおいて、発光制御部78は、2つの操作スイッチ58のうちの一方が操作された場合に発光部50からガイド光Lを出力し、カメラ制御部80は、2つの操作スイッチ58のうちの他方が操作された場合にカメラ48の撮影を行っている。
 このような構成によれば、ユーザ200が自分のタイミングでカメラ48の撮影を行うことができる。
 次に、第2変形例に係るウェアラブルデバイス12の動作フローについて説明する。図10に示すように、この場合、ウェアラブルデバイス12は、ユーザ200のウェアラブルデバイス12の装着位置情報を取得する(ステップS40)。具体的に、ユーザ200は、ウェアラブルデバイス12を左右の腕のどちらに装着したかの情報を情報処理デバイス14に入力する。そうすると、当該情報が情報処理デバイス14からウェアラブルデバイス12に送信されるため、ウェアラブルデバイス12がユーザ200のウェアラブルデバイス12の装着位置情報を取得する。
 続いて、ユーザ200は、一方の操作スイッチ58を操作する(ステップS41)。この際、制御部66は、カメラ48の向きがユーザ200の前方且つ下方に向かって変化するようにウェアラブルデバイス12が回転したか否かを判定する(ステップS42)。具体的に、制御部66は、ステップS41で取得したウェアラブルデバイス12の装着位置情報と加速度センサ70の出力信号に基づいて、ウェアラブルデバイス12の回転方向を判定する。
 カメラ48の向きがユーザ200の前方且つ下方に向かって変化するようにウェアラブルデバイス12が回転していないと制御部66が判定した場合(ステップS42:NO)、カメラ48の向きがユーザ200の前方且つ下方に向かって変化するようにウェアラブルデバイス12が回転するまでステップS42に留まる。
 一方、カメラ48の向きがユーザ200の前方且つ下方に向かって変化するようにウェアラブルデバイス12が回転したと制御部66が判定した場合(ステップS42:YES)、発光制御部78は、発光部50からガイド光Lを出力する(ステップS43、図11A及び図11B参照)。
 続いて、ユーザ200が他方の操作スイッチ58を操作すると(ステップS44)、カメラ制御部80は、被写体202を撮影する(ステップS45)。具体的に、カメラ制御部80は、カメラ48の向きが斜め下方である場合にカメラ48の撮影を許可し、カメラ48の向きが斜め下方でない場合(例えば、カメラ48の向きが斜め上方である場合)にカメラ48の撮影を禁止する。
 被写体202を撮影することができなかった場合(ステップS45:NO)、発光制御部78は、ガイド光Lが点滅するように発光部50の動作を制御する(ステップS46)。これにより、被写体202の撮影が完了していないことをユーザ200に知らせることができる。ただし、ステップS46において、発光制御部78は、ガイド光Lの出力パターンを変化させる例に限定されず、ガイド光Lの色が変化するように発光部50の動作を制御してもよい。この場合、ステップS44に戻る。
 そして、カメラ48による被写体202の撮影が完了すると(ステップS45:YES)、発光制御部78は、発光部50からのガイド光Lの出力を停止する(ステップS47)。すなわち、ガイド光Lは、被写体202の撮影が完了した場合には、特に操作スイッチ58を操作しなくてもガイド光Lの出力が自動的に停止する。これにより、ユーザ200は、撮影が完了したことを容易に知ることができる。
 その後、ステップS48~ステップS50の処理が行われる。なお、ステップS48~ステップS50の処理は、上述した図5のステップS5~ステップS7の処理と同一であるため、その説明については省略する。
 第2変形例に係るウェアラブルデバイス12の動作フローにおいて、カメラ制御部80は、カメラ48の向きが斜め下方である場合にカメラ48による被写体202の撮影を許可し、カメラ48の向きが斜め下方でない場合にカメラ48による被写体202の撮影を禁止する。
 このような構成によれば、ウェアラブルデバイス12とユーザ200との位置関係によって撮影範囲を絞ることができるため、カメラ48が悪用される(盗撮に用いられる)ことを抑えることができる。
 画像管理システム10は、上述したウェアラブルデバイス12に代えて図12に示すウェアラブルデバイス12aを備えてもよい。ウェアラブルデバイス12aの説明において、上述したウェアラブルデバイス12と同一の構成には同一の参照符号を付し、その説明を省略する。
 図12に示すように、ウェアラブルデバイス12aのデバイス本体24aは、判定通信部110を備えている。この場合、情報処理サーバ16の上述した判定通信部90は削除される。情報処理サーバ16は、図1と同様に指導用デバイス22と連携する。
 判定通信部110は、画像判定サーバ20との間で無線通信回線を構築して情報通信を行う。判定通信部110と画像判定サーバ20との間の無線通信回線の規格は、第1通信部52とサーバ通信部88との間の無線通信回線の規格と同様のものを用いることができる。
 判定通信部110は、記憶部82に記憶されている撮影画像を画像判定サーバ20に送信し、当該撮影画像が食事画像であるか否かについての画像判定サーバ20の判定結果を受信する。デバイス情報整理部84は、撮影画像が食事画像ではないとの判定結果を判定通信部110が受信した場合に当該撮影画像を記憶部82から削除し、撮影画像が食事画像であるとの判定結果を判定通信部110が受信した場合に当該撮影画像を情報処理サーバ16に送信した後で記憶部82から削除する。
 次に、ウェアラブルデバイス12aの動作フローについて説明する。図13に示すように、ステップS60~ステップS64までの処理は、上述した図5のステップS1~ステップS5までの処理と同一であるため、その説明を省略する。
 ステップS64の後、判定通信部110は、記憶部82に記憶されている撮影画像を画像判定サーバ20に送信する(ステップS65)。そうすると、画像判定サーバ20は、当該撮影画像が食事画像又は特定画像であるか否かを判定し、その判定結果を判定通信部110に送信する。そして、判定通信部110は、当該撮影画像が食事画像であるか否かの判定結果を受信する(ステップS66)。
 次に、撮影画像が食事画像ではないとの判定結果を判定通信部110が受信した場合(ステップS67:NO)、撮影画像が特定画像を含むかどうかを判定する(ステップS68)。撮影画像が特定画像を含む場合(ステップS68:YES)、デバイス情報整理部84は、撮影画像に含まれる特定図形の種類に対応した情報を情報処理サーバ16に送信する(ステップS69)。その後、デバイス情報整理部84は、該特定画像を記憶部82から削除する(ステップS70)。撮影画像に特定画像が含まれない場合(ステップS68:NO)、当該撮影画像を記憶部82から削除する(ステップS70)。これにより、撮影画像を記憶するために必要な記憶部82の記憶容量を低減するとともに、取得する特定画像に対応する情報を効率よく収集することができる。また、ウェアラブルデバイス12aによって食事画像や必要な特定画像以外の画像(例えば、盗撮画像等)を撮影した場合であっても、当該撮影画像を記憶部82から削除することができる。その後、今回の動作フローを終了する。
 撮影画像が食事画像であるとの判定結果を判定通信部110が受信した場合(ステップS67:YES)、デバイス情報整理部84は、記憶部82に記憶された撮影画像を情報処理サーバ16に送信する(ステップS71)。その後、デバイス情報整理部84は、当該撮影画像を記憶部82から削除する(ステップS70)。そして、今回の動作フローを終了する。なお、情報処理サーバ16では、上述した図6及び図7のフローチャートに従った処理が行われる(ただし、この場合、ステップS16~ステップS19については行われない)。
 このような画像管理方法は、ユーザ200が身に着けられるウェアラブルデバイス12aのカメラ48で被写体202を撮影する撮影ステップ(ステップS62)と、撮影ステップで撮影された撮影画像をウェアラブルデバイス12aの記憶部82に記憶する記憶ステップ(ステップS64)と、記憶部82に記憶されている撮影画像を画像判定サーバ20に送信して当該撮影画像が食事画像であるか否かについての画像判定サーバ20の判定結果を受信する画像判定ステップ(ステップS65及びステップS66)と、記憶部82に記憶されている撮影画像を整理する情報整理ステップ(ステップS70及びステップS71)と、を含み、情報整理ステップでは、撮影画像が食事画像ではないとの判定結果をウェアラブルデバイス12aが受信した場合に当該撮影画像を記憶部82から削除し、撮影画像が食事画像であるとの判定結果をウェアラブルデバイス12aが受信した場合に当該撮影画像を情報処理サーバ16に送信した後で削除する。
 このようなウェアラブルデバイス12aは、被写体202を撮影するためのカメラ48と、カメラ48によって撮影された撮影画像を記憶する記憶部82と、記憶部82に記憶されている撮影画像を画像判定サーバ20に送信して当該撮影画像が食事画像であるか否かについて画像判定サーバ20の判定結果を受信する判定通信部110と、記憶部82に記憶されている撮影画像を整理するデバイス情報整理部84とを有する。デバイス情報整理部84は、撮影画像が食事画像ではないとの判定結果を判定通信部110が受信した場合に当該撮影画像を記憶部82から削除し、撮影画像が食事画像であるとの判定結果を判定通信部110が受信した場合に当該撮影画像を情報処理サーバ16に送信した後で削除する。情報処理サーバ16に送信された情報は、指導用デバイス22に提供される。
 このような構成によれば、撮影画像が食事画像ではない場合に撮影画像を記憶部82から削除するため、食事画像を用いた健康管理を効果的に行うことができる。ウェアラブルデバイス12aは、上述したウェアラブルデバイス12と同様の効果を奏する。
 本発明は上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、種々の改変が可能である。
 情報処理サーバ16は、ユーザ200が食事を撮影してから一定時間経過後に血糖測定を促す血糖測定報知制御をウェアラブルデバイス12、12a及び情報処理デバイス14の少なくともいずれかに要求してもよい。
 以上の実施形態をまとめると、以下のようになる。
 上記実施形態は、ユーザ(200)が身に着けられるウェアラブルデバイス(12、12a)と、前記ウェアラブルデバイスと通信可能な情報処理サーバ(16)と、を備えた医療用の画像管理システム(10)であって、前記ウェアラブルデバイスは、被写体(202)を撮影するためのカメラ(48)を有し、前記情報処理サーバは、前記ウェアラブルデバイスから受信した撮影画像を記憶するサーバ記憶部(100)を有し、前記ウェアラブルデバイス及び前記情報処理サーバのいずれかは、前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理する情報整理部(84、95)を有し、前記情報整理部は、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、前記サーバ記憶部は、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を保持する、画像管理システムを開示している。
 上記の画像管理システムにおいて、前記画像判定部は、前記ウェアラブルデバイス及び前記情報処理サーバとは別に設けられた画像判定サーバ(20)であり、前記情報処理サーバは、前記サーバ記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する判定通信部(90)と、前記サーバ記憶部に記憶されている前記撮影画像を整理する前記情報整理部としてのサーバ情報整理部(95)と、を有し、前記サーバ情報整理部は、前記撮影画像が前記食事画像ではないとの判定結果を前記判定通信部が受信した場合に当該撮影画像を前記サーバ記憶部から削除し、前記サーバ記憶部は、前記撮影画像が前記食事画像であるとの判定結果を前記判定通信部が受信した場合に当該撮影画像を保持してもよい。
 上記の画像管理システムにおいて、前記ウェアラブルデバイスは、前記カメラが撮影した前記撮影画像を記憶する記憶部(82)と、前記記憶部に記憶されている前記撮影画像を整理するデバイス情報整理部(84)と、を有し、前記デバイス情報整理部は、前記記憶部に記憶されている前記撮影画像を前記情報処理サーバに送信した後で、当該撮影画像を前記記憶部から削除してもよい。
 上記の画像管理システムにおいて、前記ウェアラブルデバイスは、前記カメラの撮影範囲にガイド光(L)を出力する発光部(50)を有してもよい。
 上記の画像管理システムにおいて、前記ウェアラブルデバイスは、前記ユーザが操作可能な2つの操作部(58)と、前記発光部の動作を制御する発光制御部(78)と、を有し、前記発光制御部は、前記2つの操作部が同時に操作された場合に前記発光部から前記ガイド光を出力し、前記2つの操作部のうちの1つのみが操作された場合に前記発光部から前記ガイド光を出力しなくてもよい。
 上記の画像管理システムにおいて、前記ウェアラブルデバイスは、前記カメラの撮影範囲内に入った前記被写体(202)が所定の食事情報に該当するか否かを判定する被写体判定部(79)と、前記カメラの動作を制御するカメラ制御部(80)と、を有し、前記カメラ制御部は、前記被写体が前記所定の食事情報に該当しないと前記被写体判定部が判定した場合に前記カメラによる当該被写体の撮影を禁止し、前記被写体が前記所定の食事情報に該当すると前記被写体判定部が判定した場合に前記カメラによる当該被写体の撮影を許可してもよい。
 上記の画像管理システムにおいて、前記ウェアラブルデバイスは、前記ユーザが操作可能な2つの操作部と、前記発光部の動作を制御する発光制御部と、前記カメラの動作を制御するカメラ制御部と、を有し、前記発光制御部は、前記2つの操作部のうちの一方が操作された場合に前記発光部から前記ガイド光を出力し、前記カメラ制御部は、前記2つの操作部のうちの他方が操作された場合に前記カメラの撮影を行ってもよい。
 上記の画像管理システムにおいて、前記ウェアラブルデバイスは、前記カメラの動作を制御するカメラ制御部を有し、前記カメラ制御部は、前記カメラの向きが斜め下方である場合に前記カメラによる前記被写体の撮影を許可し、前記カメラの向きが斜め下方でない場合に前記カメラによる前記被写体の撮影を禁止してもよい。
 上記の画像管理システムにおいて、前記ウェアラブルデバイスは、前記ユーザに食事日時の入力を促す報知制御を行う報知制御部(86)を有し、前記情報処理サーバは、前記ユーザの食事日時を取得したか否かを判定する日時取得判定部(93)と、前記食事日時を取得していないと前記日時取得判定部が判定した場合に、前回の食事日時からの経過時間(T1)が所定の食事間隔(T2)を超えたか否かを判定する時間判定部(98)と、前回の食事日時からの前記経過時間が前記所定の食事間隔を超えたと前記時間判定部が判定した場合に、前記ウェアラブルデバイスに前記報知制御を要求する報知要求制御部(94)と、を有してもよい。
 上記実施形態は、ユーザが身に着けられる医療用のウェアラブルデバイス(12a)であって、被写体を撮影するためのカメラと、前記カメラによって撮影された撮影画像を記憶する記憶部と、前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する判定通信部(110)と、前記記憶部に記憶されている前記撮影画像を整理するデバイス情報整理部と、を有し、前記デバイス情報整理部は、前記撮影画像が前記食事画像ではないとの判定結果を前記判定通信部が受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記判定通信部が受信した場合に当該撮影画像を情報処理サーバに送信した後で前記記憶部から削除する、ウェアラブルデバイスを開示している。
 上記のウェアラブルデバイスにおいて、前記被写体にガイド光を出力するための発光部を有してもよい。
 上記のウェアラブルデバイスにおいて、前記ユーザが操作可能な2つの操作部と、前記発光部の動作を制御する発光制御部と、を有し、前記発光制御部は、前記2つの操作部が同時に操作された場合に前記発光部から前記ガイド光を出力し、前記2つの操作部のうちの1つのみが操作された場合に前記発光部から前記ガイド光を出力しなくてもよい。
 上記のウェアラブルデバイスにおいて、前記カメラの撮影範囲内に入った前記被写体が所定の食事画像に一致又は類似するか否かを判定する被写体判定部と、前記カメラの動作を制御するカメラ制御部と、を有し、前記カメラ制御部は、前記被写体が前記所定の食事情報に該当しないと前記被写体判定部が判定した場合に前記カメラの撮影を禁止し、前記被写体が前記所定の食事情報に該当すると前記被写体判定部が判定した場合に前記カメラの撮影を許可してもよい。
 上記のウェアラブルデバイスにおいて、前記ユーザが操作可能な2つの操作部と、前記発光部の動作を制御する発光制御部と、前記カメラの動作を制御するカメラ制御部と、を有し、前記発光制御部は、前記2つの操作部の一方が操作された場合に前記発光部から前記ガイド光を出力し、前記カメラ制御部は、前記2つの操作部の他方が操作された場合に前記カメラの撮影を行ってもよい。
 上記のウェアラブルデバイスにおいて、前記ユーザの手首に装着するための装着部(26、28)と、前記カメラの動作を制御するカメラ制御部と、を有し、前記カメラ制御部は、前記カメラの撮影範囲が下方に向くように前記ウェアラブルデバイスを回転させることにより前記カメラの撮影を行ってもよい。
 上記実施形態は、医療用の画像管理方法であって、ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、前記撮影ステップで撮影された撮影画像を情報処理サーバに送信する画像送信ステップと、前記ウェアラブルデバイスから受信した前記撮影画像を前記情報処理サーバのサーバ記憶部に記憶する記憶ステップと、前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理するサーバ情報整理ステップと、を含み、前記サーバ情報整理ステップでは、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を前記サーバ記憶部に保持する、画像管理方法を開示している。
 上記実施形態は、医療用の画像管理方法であって、ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、前記撮影ステップで撮影された撮影画像を前記ウェアラブルデバイスの記憶部に記憶する記憶ステップと、前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する画像判定ステップと、前記記憶部に記憶されている前記撮影画像を整理する情報整理ステップと、を含み、前記情報整理ステップでは、前記撮影画像が前記食事画像ではないとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を情報処理サーバに送信した後で削除する、画像管理方法を開示している。
 上記実施形態は、医療用の画像管理プログラムであって、ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、前記撮影ステップで撮影された撮影画像を情報処理サーバに送信する画像送信ステップと、前記ウェアラブルデバイスから受信した前記撮影画像を前記情報処理サーバのサーバ記憶部に記憶する記憶ステップと、前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理するサーバ情報整理ステップと、をコンピュータに実行させ、前記サーバ情報整理ステップでは、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を前記サーバ記憶部に保持する、画像管理プログラムを開示している。
 上記実施形態は、医療用の画像管理プログラムであって、ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、前記撮影ステップで撮影された撮影画像を前記ウェアラブルデバイスの記憶部に記憶する記憶ステップと、前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する画像判定ステップと、前記記憶部に記憶されている前記撮影画像を整理する情報整理ステップと、をコンピュータに実行させ、前記情報整理ステップでは、前記撮影画像が前記食事画像ではないとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を情報処理サーバに送信した後で削除する、画像管理プログラムを開示している。

Claims (17)

  1.  ユーザが身に着けられるウェアラブルデバイスと、前記ウェアラブルデバイスと通信可能な情報処理サーバと、を備えた医療用の画像管理システムであって、
     前記ウェアラブルデバイスは、被写体を撮影するためのカメラを有し、
     前記情報処理サーバは、前記ウェアラブルデバイスから受信した撮影画像を記憶するサーバ記憶部を有し、
     前記ウェアラブルデバイス及び前記情報処理サーバのいずれかは、前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理する情報整理部を有し、
     前記情報整理部は、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、
     前記サーバ記憶部は、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を保持する、画像管理システム。
  2.  請求項1記載の画像管理システムであって、
     前記画像判定部は、前記ウェアラブルデバイス及び前記情報処理サーバとは別に設けられた画像判定サーバであり、
     前記情報処理サーバは、
     前記サーバ記憶部に記憶されている前記撮影画像を前記画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する判定通信部と、
     前記サーバ記憶部に記憶されている前記撮影画像を整理する前記情報整理部としてのサーバ情報整理部と、を有し、
     前記サーバ情報整理部は、前記撮影画像が前記食事画像ではないとの判定結果を前記判定通信部が受信した場合に当該撮影画像を前記サーバ記憶部から削除し、
     前記サーバ記憶部は、前記撮影画像が前記食事画像であるとの判定結果を前記判定通信部が受信した場合に当該撮影画像を保持する、画像管理システム。
  3.  請求項2記載の画像管理システムであって、
     前記ウェアラブルデバイスは、
     前記カメラが撮影した前記撮影画像を記憶する記憶部と、
     前記記憶部に記憶されている前記撮影画像を整理するデバイス情報整理部と、を有し、
     前記デバイス情報整理部は、前記記憶部に記憶されている前記撮影画像を前記情報処理サーバに送信した後で、当該撮影画像を前記記憶部から削除する、画像管理システム。
  4.  請求項2又は3に記載の画像管理システムであって、
     前記ウェアラブルデバイスは、前記カメラの撮影範囲にガイド光を出力する発光部を有する、画像管理システム。
  5.  請求項4記載の画像管理システムであって、
     前記ウェアラブルデバイスは、
     前記ユーザが操作可能な2つの操作部と、
     前記発光部の動作を制御する発光制御部と、を有し、
     前記発光制御部は、前記2つの操作部が同時に操作された場合に前記発光部から前記ガイド光を出力し、前記2つの操作部のうちの1つのみが操作された場合に前記発光部から前記ガイド光を出力しない、画像管理システム。
  6.  請求項1~5のいずれか1項に記載の画像管理システムであって、
     前記ウェアラブルデバイスは、
     前記カメラの撮影範囲内に入った前記被写体が所定の食事情報に該当するか否かを判定する被写体判定部と、
     前記カメラの動作を制御するカメラ制御部と、を有し、
     前記カメラ制御部は、前記被写体が前記所定の食事情報に該当しないと前記被写体判定部が判定した場合に前記カメラによる当該被写体の撮影を禁止し、前記被写体が前記所定の食事情報に該当すると前記被写体判定部が判定した場合に前記カメラによる当該被写体の撮影を許可する、画像管理システム。
  7.  請求項1~6のいずれか1項に記載の画像管理システムであって、
     前記ウェアラブルデバイスは、前記ユーザに食事日時の入力を促す報知制御を行う報知制御部を有し、
     前記情報処理サーバは、
     前記ユーザの食事日時を取得したか否かを判定する日時取得判定部と、
     前記食事日時を取得していないと前記日時取得判定部が判定した場合に、前回の食事日時からの経過時間が所定の食事間隔を超えたか否かを判定する時間判定部と、
     前回の食事日時からの前記経過時間が前記所定の食事間隔を超えたと前記時間判定部が判定した場合に、前記ウェアラブルデバイスに前記報知制御を要求する報知要求制御部と、を有する、画像管理システム。
  8.  ユーザが身に着けられる医療用のウェアラブルデバイスであって、
     被写体を撮影するためのカメラと、
     前記カメラによって撮影された撮影画像を記憶する記憶部と、
     前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する判定通信部と、
     前記記憶部に記憶されている前記撮影画像を整理するデバイス情報整理部と、を有し、
     前記デバイス情報整理部は、前記撮影画像が前記食事画像ではないとの判定結果を前記判定通信部が受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記判定通信部が受信した場合に当該撮影画像を情報処理サーバに送信した後で前記記憶部から削除する、ウェアラブルデバイス。
  9.  請求項8記載のウェアラブルデバイスであって、
     前記被写体にガイド光を出力するための発光部を有する、ウェアラブルデバイス。
  10.  請求項9記載のウェアラブルデバイスであって、
     前記ユーザが操作可能な2つの操作部と、
     前記発光部の動作を制御する発光制御部と、を有し、
     前記発光制御部は、前記2つの操作部が同時に操作された場合に前記発光部から前記ガイド光を出力し、前記2つの操作部のうちの1つのみが操作された場合に前記発光部から前記ガイド光を出力しない、ウェアラブルデバイス。
  11.  請求項9~10のいずれか1項に記載のウェアラブルデバイスであって、
     前記カメラの撮影範囲内に入った前記被写体が所定の食事画像に一致又は類似するか否かを判定する被写体判定部と、
     前記カメラの動作を制御するカメラ制御部と、を有し、
     前記カメラ制御部は、前記被写体が前記所定の食事情報に該当しないと前記被写体判定部が判定した場合に前記カメラの撮影を禁止し、前記被写体が前記所定の食事情報に該当すると前記被写体判定部が判定した場合に前記カメラの撮影を許可する、ウェアラブルデバイス。
  12.  請求項9記載のウェアラブルデバイスであって、
     前記ユーザが操作可能な2つの操作部と、
     前記発光部の動作を制御する発光制御部と、
     前記カメラの動作を制御するカメラ制御部と、を有し、
     前記発光制御部は、前記2つの操作部の一方が操作された場合に前記発光部から前記ガイド光を出力し、
     前記カメラ制御部は、前記2つの操作部の他方が操作された場合に前記カメラの撮影を行う、ウェアラブルデバイス。
  13.  請求項8~12のいずれか1項に記載のウェアラブルデバイスであって、
     前記ユーザの手首に装着するための装着部と、
     前記カメラの動作を制御するカメラ制御部と、を有し、
     前記カメラ制御部は、前記カメラの撮影範囲が下方に向くように前記ウェアラブルデバイスを回転させることにより前記カメラの撮影を行う、ウェアラブルデバイス。
  14.  医療用の画像管理方法であって、
     ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、
     前記撮影ステップで撮影された撮影画像を情報処理サーバに送信する画像送信ステップと、
     前記ウェアラブルデバイスから受信した前記撮影画像を前記情報処理サーバのサーバ記憶部に記憶する記憶ステップと、
     前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理するサーバ情報整理ステップと、を含み、
     前記サーバ情報整理ステップでは、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を前記サーバ記憶部に保持する、画像管理方法。
  15.  医療用の画像管理方法であって、
     ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、
     前記撮影ステップで撮影された撮影画像を前記ウェアラブルデバイスの記憶部に記憶する記憶ステップと、
     前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する画像判定ステップと、
     前記記憶部に記憶されている前記撮影画像を整理する情報整理ステップと、を含み、
     前記情報整理ステップでは、前記撮影画像が前記食事画像ではないとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を情報処理サーバに送信した後で削除する、画像管理方法。
  16.  医療用の画像管理プログラムであって、
     ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、
     前記撮影ステップで撮影された撮影画像を情報処理サーバに送信する画像送信ステップと、
     前記ウェアラブルデバイスから受信した前記撮影画像を前記情報処理サーバのサーバ記憶部に記憶する記憶ステップと、
     前記カメラが撮影した前記撮影画像が食事画像であるか否かについての画像判定部の判定結果に基づいて前記撮影画像を整理するサーバ情報整理ステップと、をコンピュータに実行させ、
     前記サーバ情報整理ステップでは、前記撮影画像が前記食事画像ではないと前記画像判定部が判定した場合に当該撮影画像を削除し、前記撮影画像が前記食事画像であると前記画像判定部が判定した場合に当該撮影画像を前記サーバ記憶部に保持する、画像管理プログラム。
  17.  医療用の画像管理プログラムであって、
     ユーザが身に着けられるウェアラブルデバイスのカメラで被写体を撮影する撮影ステップと、
     前記撮影ステップで撮影された撮影画像を前記ウェアラブルデバイスの記憶部に記憶する記憶ステップと、
     前記記憶部に記憶されている前記撮影画像を画像判定サーバに送信して当該撮影画像が食事画像であるか否かについての前記画像判定サーバの判定結果を受信する画像判定ステップと、
     前記記憶部に記憶されている前記撮影画像を整理する情報整理ステップと、をコンピュータに実行させ、
     前記情報整理ステップでは、前記撮影画像が前記食事画像ではないとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を前記記憶部から削除し、前記撮影画像が前記食事画像であるとの判定結果を前記ウェアラブルデバイスが受信した場合に当該撮影画像を情報処理サーバに送信した後で削除する、画像管理プログラム。
PCT/JP2020/033440 2019-11-01 2020-09-03 画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラム WO2021084903A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20880529.1A EP4027349A4 (en) 2019-11-01 2020-09-03 IMAGE MANAGEMENT SYSTEM, WEARABLE DEVICE, IMAGE MANAGEMENT METHOD AND IMAGE MANAGEMENT PROGRAM
JP2021554129A JPWO2021084903A1 (ja) 2019-11-01 2020-09-03
CN202080072891.5A CN114631151A (zh) 2019-11-01 2020-09-03 图像管理系统、可穿戴设备、图像管理方法以及图像管理程序
US17/730,994 US20220254176A1 (en) 2019-11-01 2022-04-27 Image management system, wearable device, image management method, and image management program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-199662 2019-11-01
JP2019199662 2019-11-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/730,994 Continuation US20220254176A1 (en) 2019-11-01 2022-04-27 Image management system, wearable device, image management method, and image management program

Publications (1)

Publication Number Publication Date
WO2021084903A1 true WO2021084903A1 (ja) 2021-05-06

Family

ID=75716207

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/033440 WO2021084903A1 (ja) 2019-11-01 2020-09-03 画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラム

Country Status (5)

Country Link
US (1) US20220254176A1 (ja)
EP (1) EP4027349A4 (ja)
JP (1) JPWO2021084903A1 (ja)
CN (1) CN114631151A (ja)
WO (1) WO2021084903A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003173375A (ja) * 2001-09-28 2003-06-20 Toshiba Corp 生活管理端末装置、生活管理方法並びに生活管理システム
JP2008515505A (ja) * 2004-10-07 2008-05-15 ノボ・ノルデイスク・エー/エス 疾病の自己管理のための方法とシステム
WO2012042887A1 (ja) * 2010-09-29 2012-04-05 パナソニック株式会社 帳票読取装置
JP2017011454A (ja) * 2015-06-19 2017-01-12 京セラドキュメントソリューションズ株式会社 ウェアラブルデバイス
JP2017069984A (ja) * 2017-01-13 2017-04-06 ソニー株式会社 ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム
JP2019028625A (ja) 2017-07-27 2019-02-21 織田 聡 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7791642B2 (en) * 2004-12-13 2010-09-07 Fujifilm Corporation Image-taking apparatus
US20160232811A9 (en) * 2012-06-14 2016-08-11 Robert A. Connor Eyewear System for Monitoring and Modifying Nutritional Intake
JP6330413B2 (ja) * 2014-03-27 2018-05-30 セイコーエプソン株式会社 運動提示装置、運動提示方法及び運動提示プログラム
US10448867B2 (en) * 2014-09-05 2019-10-22 Vision Service Plan Wearable gait monitoring apparatus, systems, and related methods
KR102304744B1 (ko) * 2015-04-07 2021-09-24 엘지전자 주식회사 웨어러블 단말기 및 이와 무선 통신하는 디스플레이 장치
KR20170048073A (ko) * 2015-10-26 2017-05-08 에스케이플래닛 주식회사 사용자맞춤 식품추천 웨어러블 디바이스 및 서버
US20230368046A9 (en) * 2016-01-28 2023-11-16 Medtronic Minimed, Inc. Activation of Ancillary Sensor Systems Based on Triggers from a Wearable Gesture Sensing Device
US20180197628A1 (en) * 2017-01-11 2018-07-12 Abbott Diabetes Care Inc. Systems, devices, and methods for experiential medication dosage calculations
US10904448B2 (en) * 2017-07-13 2021-01-26 Motorola Mobility Llc Controlling flash behavior during capture of image data
WO2019021358A1 (ja) * 2017-07-25 2019-01-31 株式会社E3 食事アドバイス提供システムおよび分析装置
US10952669B2 (en) * 2017-12-22 2021-03-23 International Business Machines Corporation System for monitoring eating habit using a wearable device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003173375A (ja) * 2001-09-28 2003-06-20 Toshiba Corp 生活管理端末装置、生活管理方法並びに生活管理システム
JP2008515505A (ja) * 2004-10-07 2008-05-15 ノボ・ノルデイスク・エー/エス 疾病の自己管理のための方法とシステム
WO2012042887A1 (ja) * 2010-09-29 2012-04-05 パナソニック株式会社 帳票読取装置
JP2017011454A (ja) * 2015-06-19 2017-01-12 京セラドキュメントソリューションズ株式会社 ウェアラブルデバイス
JP2017069984A (ja) * 2017-01-13 2017-04-06 ソニー株式会社 ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム
JP2019028625A (ja) 2017-07-27 2019-02-21 織田 聡 情報処理装置、情報処理方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MATTERN FRIEDEMANN, SANTINI SILVIA, CANNY JOHN F., LANGHEINRICH MARC, REKIMOTO JUN, THOMAZ EDISON, PARNAMI AMAN, BIDWELL JONATHAN,: "Technological approaches for addressing privacy concerns when recognizing eating behaviors with wearable cameras", PROCEEDINGS OF THE 2013 ACM INTERNATIONAL JOINT CONFERENCE ON PERVASIVE AND UBIQUITOUS COMPUTING, 8 September 2013 (2013-09-08), pages 739 - 748, XP055820801, ISBN: 978-1-4503-1770-2 *
See also references of EP4027349A4

Also Published As

Publication number Publication date
CN114631151A (zh) 2022-06-14
EP4027349A1 (en) 2022-07-13
JPWO2021084903A1 (ja) 2021-05-06
EP4027349A4 (en) 2022-11-09
US20220254176A1 (en) 2022-08-11

Similar Documents

Publication Publication Date Title
US10376142B2 (en) Device and method for capturing, analyzing, and sending still and video images of the fundus during examination using an ophthalmoscope
US8317328B1 (en) Device for administering a gaze nystagmus field sobriety test
US11819272B2 (en) Retinal image capturing
EP4035587A1 (en) Handheld vision tester and calibration thereof
WO2014162549A1 (ja) 血糖管理システム
WO2009148345A2 (en) Process for monitoring the success of the administration of a fluid to a non heterogenous biological target, and system that enables the execution of said process
US11779209B2 (en) Retinal image capturing
EP2853937B1 (en) Goggle-like mobile apparatus and method for recording images of a pupil of a person
WO2021084903A1 (ja) 画像管理システム、ウェアラブルデバイス、画像管理方法及び画像管理プログラム
JP2007135870A (ja) 眼科撮影装置
JP2018079239A (ja) 推定システム、推定方法及び推定プログラム
EP2645101A2 (en) Test strip reader
JP6895143B2 (ja) イベント盛況度解析システム、サーバ、生体情報取得装置、イベント盛況度解析方法及びプログラム
JP2010170035A (ja) カメラおよびカメラシステム
KR20040089426A (ko) 진단용 카메라가 장착된 휴대용 단말기
JP2020042356A (ja) 医療情報処理プログラム、および医療情報処理システム
JP2020099508A (ja) 撮像装置および撮像装置の制御方法
JP2021096745A (ja) 情報処理装置及びプログラム
JP2019092943A (ja) リハビリシステムおよびリハビリ用けん玉
JP2019166254A (ja) 評価装置、評価方法および評価プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20880529

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021554129

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2020880529

Country of ref document: EP

Effective date: 20220408

NENP Non-entry into the national phase

Ref country code: DE