WO2022074828A1 - 情報処理装置、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2022074828A1
WO2022074828A1 PCT/JP2020/038313 JP2020038313W WO2022074828A1 WO 2022074828 A1 WO2022074828 A1 WO 2022074828A1 JP 2020038313 W JP2020038313 W JP 2020038313W WO 2022074828 A1 WO2022074828 A1 WO 2022074828A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pet
target animal
information
information processing
Prior art date
Application number
PCT/JP2020/038313
Other languages
English (en)
French (fr)
Inventor
健二 福田
直樹 澤田
優理 佐藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/038313 priority Critical patent/WO2022074828A1/ja
Priority to US18/029,610 priority patent/US20230360403A1/en
Priority to JP2022555232A priority patent/JPWO2022074828A5/ja
Publication of WO2022074828A1 publication Critical patent/WO2022074828A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to a technique for transmitting an image related to an animal.
  • Patent Document 1 describes a device that determines a pet's behavioral event from a moving image of the pet and notifies the user's communication terminal when a specific behavioral event is detected.
  • Patent Document 2 describes a system in which the state of a pet is detected by a sensor terminal, first-person speech data is generated based on the detection data, and dialogue with an owner or another user is performed using an interactive SNS. are doing.
  • One object of the present invention is to provide an information processing device that makes it easy to grasp the state of a pet from multiple aspects.
  • the information processing apparatus is Image acquisition means to acquire images of target animals, An information acquisition means for acquiring information on the state of the target animal, and Based on the image and the information, when the state of the target animal corresponds to a predetermined image transmission condition, a messaging means for transmitting an image obtained by capturing the state of the target animal is provided.
  • the information processing method is: Get an image of the target animal and Obtain information on the condition of the target animal and Based on the image and the information, when the state of the target animal corresponds to a predetermined image transmission condition, an image obtained by photographing the state of the target animal is transmitted.
  • the recording medium is: Get an image of the target animal and Obtain information on the condition of the target animal and Based on the image and the information, when the state of the target animal corresponds to a predetermined image transmission condition, a program for causing a computer to execute a process of transmitting an image obtained by capturing the state of the target animal is recorded.
  • the overall configuration of the communication system to which the information processing device is applied is shown.
  • An example of the floor plan of the owner's home is shown.
  • a display example of the image transmitted by the image transmission process is shown.
  • FIG. 1 shows an overall configuration of a communication system to which the information processing apparatus according to the present disclosure is applied.
  • the communication system 1 includes a home system 100 installed in the pet owner's home 5, a server 200, and a user terminal 300 used by the owner.
  • a pet P is staying at the owner's home 5, and a pet terminal 20 is attached to the pet P.
  • a fixed camera 15 is installed at a predetermined place in the home 5.
  • the home system 100 and the server 200 can communicate with each other by wire or wirelessly. Further, the server 200 and the owner's user terminal 300 can be wirelessly communicated with each other.
  • the home system 100 As a basic operation, the home system 100 generates message information about the pet P based on the location and behavior of the pet P (hereinafter, also referred to as "the state of the pet P"), and interactively SNS (Social Network Service). ) To the owner's user terminal 300.
  • the message information includes a text message, a stamp, and the like.
  • the server 200 sends message information such as a text message or a stamp prepared in advance corresponding to the condition. , Send to the owner's user terminal 300 using interactive SNS.
  • the owner can receive the message information according to the state of the pet P and grasp the state of the pet.
  • the generated message information may be based on the behavior, location, and state of the pet P.
  • the trigger for transmitting the message information is not particularly limited as long as it relates to the behavior, place, and state of the pet P.
  • message information may be transmitted at the request of the owner. It is also possible to have an interactive dialogue in which the pet P returns an image, a message, or a stamp in response to the transmission of the image or message from the owner. For example, when the owner sends the message "Did you eat rice?", The pet P can have a dialogue in which the image of the rice and the stamp are returned.
  • the server 200 transmits an image of the pet P to the owner's user terminal 300.
  • the server 200 uses an interactive SNS for the captured image of the pet P at that time. It is transmitted to the owner's user terminal 300 via.
  • the photographed image of the pet P may be an image of the pet P photographed, or may be an image of the pet's line of sight photographed by a camera attached to the pet P as described later.
  • the owner can see the actual state of the pet P by looking at the image of the pet P transmitted to the user terminal 300.
  • FIG. 2 shows an example of the floor plan of the owner's home 5.
  • Home 5 has an entrance, a hall, a bathroom, a toilet, a living room, a kitchen, a balcony, and the like.
  • the doors that separate each space are basically open, and pets can move freely in each space.
  • a fixed camera 15 for photographing the state of the pet P and the like is installed in each space.
  • a part of the space of the home 5 is defined as a space where the pet P cannot enter (hereinafter referred to as "no entry space").
  • the no-entry space includes a space that is dangerous to the pet P and is not allowed to enter, and a space that the pet P is mischievous and therefore is not allowed to enter.
  • the bathroom, toilet, kitchen, and balcony shown in gray are designated as no-entry spaces.
  • FIG. 3 is a block diagram showing a configuration of a home system 100 installed in the home 5.
  • the home system 100 includes a home terminal 10, a fixed camera 15, a microphone 16, an automatic feeder 17, a pet toilet 18, and a speaker 19, but the home system 100 has the above configuration. It is not necessary to include all of the above, or a part of the configuration may be used.
  • the home terminal 10 is, for example, a terminal device such as a PC, a tablet, or a smartphone, and includes a communication unit 11, a processor 12, a memory 13, and a recording medium 14.
  • the communication unit 11 communicates with an external device. Specifically, the communication unit 11 wirelessly communicates with the pet terminal 20 attached to the pet P by, for example, Bluetooth (registered trademark). Further, the communication unit 11 communicates with the server 200 by wire or wirelessly.
  • the processor 12 is a computer such as a CPU (Central Processing Unit), and controls the entire home terminal 10 by executing a program prepared in advance.
  • the processor 12 may be a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), a DSP (Demand-Side Platform), an ASIC (Application Specific Integrated Circuit), or the like.
  • the processor 12 executes an image transmission process described later by executing a program prepared in advance.
  • the memory 13 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the memory 13 stores various programs executed by the processor 12.
  • the memory 13 is also used as a working memory during execution of various processes by the processor 12.
  • the recording medium 14 is a non-volatile, non-temporary recording medium such as a disk-shaped recording medium or a semiconductor memory, and is configured to be removable from the home terminal 10.
  • the recording medium 14 records various programs executed by the processor 12.
  • the home terminal 10 transmits information or an image about the pet P to the server 200
  • the program recorded in the recording medium 14 is loaded into the memory 13 and executed by the processor 12. Further, the image taken by the fixed camera 15, the sound collected by the microphone 16, the information received from the pet terminal 20, and the like are temporarily stored in the memory 13.
  • the fixed camera 15 is installed at a predetermined position in the home 5. Basically, the required number of fixed cameras 15 are installed so as to cover the entire space where the pet P can move, and in particular, the fixed cameras 15 are installed at a position where the pet P's entry prohibited space can be photographed. To. The fixed camera 15 is always in operation, and a moving image in the shooting range is captured and transmitted to the home terminal 10.
  • the microphone 16 is installed in each space of the home 5.
  • the microphone 16 may be integrated with the fixed camera 15.
  • the microphone 16 collects the sounds generated in each space and transmits them to the home terminal 10.
  • the home terminal 10 transmits the sound collected by the microphone 16 to the server 200.
  • the automatic feeder 17 is provided in the dining space of the living room as shown in FIG.
  • the automatic feeder 17 is a device that feeds the pet P when the owner is absent.
  • the automatic feeder 17 automatically supplies food to pet tableware and the like at a preset time, and sends a notification indicating that the pet P has been fed to the home terminal 10.
  • the home terminal 10 transmits a notification from the automatic feeder 17 to the server 200. Further, the home terminal 10 transmits an image taken by the fixed camera 15 to the server 200 near the time when the notification is received.
  • the pet toilet 18 is installed in the toilet space of the living room as shown in FIG.
  • the pet toilet 18 is provided with, for example, a water supply sheet and a sensor, detects that the pet P has excreted, and notifies the home terminal 10.
  • the home terminal 10 transmits a notification from the pet toilet 18 to the server 200. Further, the home terminal 10 transmits an image taken by the fixed camera 15 to the server 200 near the time when the notification is received.
  • the speaker 19 is installed in the living room of the home 5 or a no-entry space, and outputs a warning sound or a message to the pet P. For example, if the owner records a voice that makes the pet P angry when the pet P enters the no-entry space (such as "Don't enter there.”), Even when there is no owner, the pet can be heard. The same voice can be output.
  • FIG. 4 is a block diagram showing a configuration of a pet terminal 20 attached to the pet P.
  • the pet terminal 20 is attached to the pet instead of, for example, the collar of the pet P, or is attached to the collar worn by the pet.
  • the pet terminal 20 includes a communication unit 21, a processor 22, a memory 23, a pet camera 24, an acceleration sensor 25, a barometric pressure sensor 26, a biosensor 27, and a microphone 28.
  • the communication unit 21 communicates with an external device. Specifically, the communication unit 21 wirelessly communicates with the home terminal 10 by, for example, Wi-Fi (registered trademark) or Bluetooth (registered trademark).
  • Wi-Fi registered trademark
  • Bluetooth registered trademark
  • the processor 22 is a computer such as a CPU, and controls the entire pet terminal 20 by executing a program prepared in advance.
  • the processor 12 periodically transmits the information acquired by each sensor to the home terminal 10 by executing a program prepared in advance.
  • the memory 23 is composed of a ROM, a RAM, and the like.
  • the memory 23 stores various programs executed by the processor 22.
  • the memory 23 is also used as a working memory during execution of various processes by the processor 22. Further, the memory 23 temporarily stores the information detected by each sensor.
  • the pet camera 24 is a camera for taking an image of a pet's eyes.
  • the pet camera 24 may be configured to detect the direction of the neck of the pet P to determine the shooting direction, may be mounted near the head of the pet P, and have a wide angle in front of the pet P. It may be used as a camera for shooting.
  • the pet camera 24 photographs an area including the line-of-sight direction of the pet P and transmits the captured image to the home terminal 10. As a result, the home terminal 10 can acquire an image of the pet's eyes.
  • the acceleration sensor 25 is a 3-axis accelerometer, which measures the movement of the pet P in the 3-axis direction and transmits it to the home terminal 10. Based on the output of the acceleration sensor 25, the home terminal 10 can estimate the amount of activity of the pet P and the like. Further, the barometric pressure sensor 26 measures the barometric pressure at the place of the pet P and transmits it to the home terminal 10. Based on the output of the barometric pressure sensor 26, the home terminal 10 can detect the vertical movement of the pet P, for example, a jump. Further, although not shown in FIG. 4, a gyro sensor may be used.
  • a 6-axis sensor in which a 3-axis acceleration sensor and a 3-axis gyro sensor (3-axis angular velocity sensor) are integrated may be used.
  • the sensor is not limited to the above as long as it is a sensor capable of measuring the amount of activity of an animal.
  • the biological sensor 27 is a sensor that measures the biological information of the pet P.
  • the biological sensor 27 measures the body temperature, heart rate, respiratory rate, etc. of the pet P and transmits it to the home terminal 10.
  • the home terminal 10 transmits the acquired biometric information to the server 200.
  • the microphone 28 collects the sounds around the pet P and transmits them to the home terminal 10.
  • the home terminal 10 transmits sound to the server 200.
  • the server 200 can estimate the pet's motor state, mental state, and the like based on, for example, the sound of the pet P running around and the breath sounds.
  • FIG. 5A is a block diagram showing the configuration of the server 200.
  • the server 200 transmits and receives messages by interactive SNS to and from the user terminal 300.
  • the server 200 includes a communication unit 211, a processor 212, a memory 213, a recording medium 214, and a database 215.
  • the communication unit 211 transmits / receives data to / from an external device. Specifically, the communication unit 211 transmits / receives information to / from the home terminal 10 and the owner's user terminal 300.
  • the processor 212 is a computer such as a CPU, and controls the entire server 200 by executing a program prepared in advance.
  • the processor 212 may be a GPU, FPGA, DSP, ASIC, or the like. Specifically, the processor 212 transmits the message information and the image to the user terminal 300 of the owner.
  • the memory 213 is composed of a ROM, a RAM, and the like.
  • the memory 213 is also used as a working memory during execution of various processes by the processor 212.
  • the recording medium 214 is a non-volatile, non-temporary recording medium such as a disk-shaped recording medium or a semiconductor memory, and is configured to be detachable from the server 200.
  • the recording medium 214 records various programs executed by the processor 212.
  • the database 215 stores information and images received from the home terminal 10 through the communication unit 211. That is, message information and images sent and received by users of a large number of terminals including the home terminal 10 and the user terminal 300 are stored in the database 215. Further, the database 215 stores the transmission condition of the message information for each user and the message information (for example, a predetermined message, a stamp, etc.) prepared in advance for each transmission condition.
  • the server 200 may include an input unit such as a keyboard and a mouse for an administrator or the like to give an instruction or input, and a display unit such as a liquid crystal display.
  • FIG. 5B is a block diagram showing an internal configuration of the user terminal 300 used by the owner.
  • the user terminal 300 is, for example, a smartphone, a tablet, a PC, or the like.
  • the user terminal 300 includes a communication unit 311, a processor 312, a memory 313, and a touch panel 314.
  • Communication unit 311 sends and receives data to and from an external device. Specifically, the communication unit 311 transmits / receives information to / from the server 200.
  • the processor 312 is a computer such as a CPU, and controls the entire user terminal 300 by executing a program prepared in advance.
  • the processor 312 may be a GPU, FPGA, DSP, ASIC, or the like.
  • the user terminal 300 is installed with a messaging application for interactive SNS executed by the server 200.
  • a messaging app is an app that provides the exchange of information such as text messages, stamps, and images.
  • the processor 312 receives the transmitted message information and images via the server 200 by the messaging application, and displays them on the touch panel 314. Further, the processor 312 transmits the message information input by the owner to the server 200 by the messaging application.
  • the memory 313 is composed of a ROM, a RAM, and the like.
  • the memory 313 is also used as a working memory during execution of various processes by the processor 312.
  • the touch panel 314 displays the message information received by the user terminal 300.
  • the touch panel 314 also functions as a user input device.
  • the server 200 determines the state of the pet P in the home 5 based on various information transmitted from the home terminal 10, and when the state of the pet P corresponds to a predetermined image transmission condition, the pet is used by an interactive SNS.
  • the image of P is transmitted to the owner's user terminal 300.
  • the "state" of the pet P is the place where the pet P is, the behavior of the pet P, the biological state of the pet P (health state such as fever and lack of water, emotions of emotions, excitement, depression, etc.). (Mental state, etc.) shall be included.
  • image transmission conditions will be described.
  • the image transmission condition may include that the pet P has entered the meal space.
  • the home terminal 10 detects that the pet P has entered the eating space based on the output signal of the automatic feeder 17, and notifies the server 200.
  • the server 200 transmits an image of the pet P to the user terminal 300. Since the automatic feeder 17 does not operate except for a predetermined meal time, the server 200 allows the pet P to analyze the images taken by the fixed camera 15 and the pet camera 24 transmitted from the home terminal 10. It may be determined that the person has entered the dining space. Further, a motion sensor may be installed in the dining space to detect the entry of the pet P based on the output of the motion sensor and notify the server 200.
  • the owner can receive an image of the pet P entering the meal space at the meal time and see how the pet P is eating. Also, the owner can infer that the pet P may be hungry if he receives an image of the pet P entering the dining space outside of meal time.
  • the image transmission condition may be that the pet P stays in the dining space for a predetermined time or longer.
  • the time zone in which the pet P entered or stayed in the meal space may be included in the image transmission condition.
  • the image transmission condition may be that the pet P has entered or stayed in the dining space at a predetermined time zone.
  • the server 200 can acquire an image when the pet P is eating from an image taken by the fixed camera 15 or the pet camera 24 near the time when the pet P enters or stays in the dining space.
  • the image transmission condition may include that the pet P has entered the toilet space.
  • the home terminal 10 detects that the pet P has entered the toilet space based on the output signal of the pet toilet 18, and notifies the server 200.
  • the server 200 transmits an image of the pet P to the user terminal 300.
  • the server 200 may determine that the pet P has entered the toilet space by analyzing the images taken by the fixed camera 15 and the pet camera 24 transmitted from the home terminal 10.
  • a motion sensor may be installed in the toilet space to detect the entry of the pet P based on the output of the motion sensor and notify the server 200.
  • the image transmission condition may be that the pet P stays in the toilet space for a predetermined time or longer.
  • the time zone in which the pet P entered or stayed in the toilet space may be included in the image transmission condition.
  • the image transmission condition may be that the pet P has entered or stayed in the toilet space at a predetermined time zone.
  • the server 200 acquires an image when the pet P is excreting and an image of the excrement from the image taken by the fixed camera 15 or the pet camera 24 near the time when the pet P enters or stays in the toilet space. Can be done.
  • the image transmission condition may include that the pet P has entered the no-entry space.
  • the server 200 can determine that the pet P has entered the no-entry space by analyzing the images taken by the fixed camera 15 and the pet camera 24. When the server 200 determines that the pet P has entered the no-entry space shown in gray in FIG. 2, the server 200 transmits an image of the pet P to the user terminal 300. Further, a motion sensor using infrared rays or the like may be installed in the no-entry space, and the entry of the pet P may be detected based on the output of the motion sensor and transmitted to the server 200. The method of detecting the entry of the pet P may be different for each individual prohibited space. As a result, the owner can see an image showing the state in which the pet P has entered a place where it should not enter.
  • the image transmission condition may be that the pet P stays in the prohibited space for a predetermined time or longer.
  • the time zone in which the pet P entered or stayed in the prohibited space may be included in the image transmission condition.
  • the image transmission condition may be that the pet P has entered or stayed in the prohibited space at a predetermined time zone.
  • the server 200 can acquire an image when the pet P is in the prohibited space from an image taken by the fixed camera 15 or the pet camera 24 near the time when the pet P has entered or stayed in the prohibited space.
  • the image transmission condition may include that the pet P has entered a predetermined place other than the above, or has stayed at that place for a predetermined time or longer. For example, if the pet P has a habit of waiting for the owner to return home at the front door, the server 200 may send an image of the pet P to the user terminal 300 when the pet P is at the front door.
  • the image transmission condition may be that the pet P simply comes to the entrance, but the image transmission condition may be that the pet P repeatedly comes to the entrance more than a predetermined number of times or stays at the entrance for a predetermined time or more. good.
  • the average return time of the owner (for example, 17:00 to 19:00) is set, and the pet P has come to the entrance, has come to the entrance more than a predetermined number of times, or has a predetermined time during that time.
  • Staying at the entrance may be a condition for transmitting images.
  • the server 200 can determine that the pet P is at the entrance by analyzing the images taken by the fixed camera 15 and the pet camera 24. Further, a motion sensor using infrared rays or the like may be installed at the entrance, and the presence of the pet P at the entrance may be detected based on the output of the motion sensor and notified to the server 200. This allows the owner to see an image of Pet P waiting for his return home.
  • the image transmission condition is that the pet P has come or stayed at that place. May be good. For example, if Pet P likes a sunny place on the sofa or near the balcony and has a habit of spending a long time in that place, Pet P will be assigned to that place. Staying for more than an hour may be a condition for image transmission. The owner can see the pet relaxing from the received image.
  • the server 200 periodically or at predetermined time intervals while the pet P stays at the place, or , Images may be sent multiple times at random.
  • the image transmission condition may include that the pet P has taken a specific behavior.
  • the pet P may run around the room, bark loudly, moan, vomit, and the like as image transmission conditions.
  • the server 200 causes the pet P to take the above-mentioned specific action by analyzing at least one of the output signal from the pet terminal 20 attached to the pet P and the captured image of the fixed camera 15 and the pet camera 24. It can be determined that there is.
  • the image transmission conditions may include conditions relating to the state of the pet P. That is, an image may be transmitted when the pet P corresponds to a predetermined state.
  • the server 200 uses the biological information detected by the pet terminal 20 to use the physical condition of the pet P (such as poor physical condition such as fever and hyperventilation or physical condition) and the mental state of the pet P (excited state). , Calm state, stress state, etc.) can be estimated. Further, the server 200 analyzes the sound collected by the microphone 16 of the home 5 and determines whether or not the sound corresponds to a specific sound.
  • the barking voice of pet P can be distinguished and judged.
  • the state can be estimated. Therefore, when the server 200 determines that the pet P corresponds to the preset state, the image taken by the fixed camera 15 or the pet camera 24 near that time is an image when the pet P corresponds to the predetermined state. To send. By looking at the received image, the owner can know that the pet P is in an excited state or is sick.
  • the image transmission conditions may include conditions for messages received from the owner's user terminal 300. For example, when a message including a predetermined word is received from the owner's user terminal 300, the corresponding image may be transmitted. For example, when receiving a message about a meal from the owner, such as "Did you eat lunch?" Or "Did you eat a lot?", The server 200 may send an image of the pet P during the meal to the owner's user terminal 300. ..
  • the owner can select any of the above image transmission conditions and set it on the server 200. That is, the user terminal 300 can set desired image transmission conditions by accepting an image transmission condition selection operation from the owner. For example, the owner may operate the home terminal 10, set a bath and a kitchen as a no-entry space, set a front door and a sofa as other places, and set a loud cry as an action of the pet P.
  • the owner can set the state of the pet P, which has not been set as the image transmission condition, as the message information transmission condition. That is, when the pet P is in a specific state, it can be set to send only a message without sending an image. Then, when the state of the pet P corresponds to the message information transmission condition, the home terminal 10 transmits message information such as a text message or a stamp preset for the condition. For example, when the pet P eats lunch, instead of sending an image, it may be set to send a text message "I ate lunch" prepared in advance.
  • the state of a certain pet P may be set to both the image transmission condition and the message information transmission condition.
  • both the message information such as the text message and the stamp corresponding to the state and the image of the state are both the owner's user terminal. It is sent to 300. For example, when the pet P eats lunch, both the text message "I ate lunch" and the image of the pet P during the meal are transmitted to the user terminal 300.
  • the server 200 transmits the captured image of the pet P at that time to the user terminal 300.
  • the transmitted image may be an image taken by a fixed camera 15 installed at a plurality of places in the home 5, or may be an image taken by a pet camera 24 attached to the pet P.
  • the image taken by the fixed camera 15 is an image of the pet P captured from the viewpoint of a third party, and corresponds to a scene that would be seen if the owner was at home 5.
  • the server 200 transmits one or both of the captured image of the fixed camera 15 and the captured image of the pet camera 24 to the user terminal 300 according to the setting of the owner.
  • the image to be transmitted to the user terminal 300 may be a still image, a GIF (Graphics Interchange Form) image, or a moving image of about several seconds.
  • a still image when the home terminal 10 transmits both the images taken by the fixed camera 15 and the pet camera 24, the owner can see the image of the pet P objectively and the image of the pet's eyes at the same time. You can know the state of Pet P at that time in more detail.
  • the home terminal 10 may transmit the two still images as one still image synthesized by arranging them vertically or horizontally. Depending on the messaging application running on the user terminal 300, this makes it possible to easily display the two captured images side by side on the user terminal 300.
  • FIG. 6 is a flowchart of the image transmission process executed by the server 200. This process is realized by the processor 212 shown in FIG. 5 executing a program prepared in advance.
  • the server 200 receives the output information of each sensor of the pet terminal 20 attached to the pet P from the home terminal 10 (step S11). Further, the server 200 acquires the information acquired by the fixed camera 15, the microphone 16, the automatic feeder 17, the pet toilet 18, etc. installed in the home 5 from the home terminal 10 (step S12).
  • the server 200 estimates the state of the pet P based on the information acquired in steps S11 and S12, and determines whether or not the state of the pet P corresponds to a predetermined image transmission condition (step). S13). If the state of the pet P does not correspond to the image transmission condition (step S13: No), the process returns to step S11.
  • the server 200 acquires the captured image of one or both of the fixed camera 15 and the pet camera 24 at that time (step S14).
  • the server 200 periodically receives the captured images of the fixed camera 15 and the pet camera 24, and stores a certain amount of time in the DB 215.
  • the server 200 acquires an image when the state of the pet P corresponds to the image transmission condition from the captured image stored in the DB 215.
  • the server 200 may acquire an image to be transmitted to the user terminal 300 based on the settings made in advance by the owner.
  • the server 200 transmits an image from the captured image stored in the DB 215. A still image of the fixed camera 15 and the pet camera 24 when the conditions are satisfied is cut out. Then, the server 200 transmits the acquired image to the user terminal 300 (step S15). In this way, the image of the pet P is transmitted to the user terminal 300.
  • the server 200 determines whether or not to end the image transmission process (step S16). Normally, the owner operates the user terminal 300 when going out to turn on the image transmission processing by the server 200, and turns off the image transmission processing when returning home. Therefore, the image transmission process is continued until the owner turns off the image transmission process, and when the owner turns off the image transmission process (step S16: Yes), the image transmission process ends.
  • FIG. 7 shows a display example of an image transmitted by the image transmission process.
  • the user terminal 300 of the owner displays the message information and the image transmitted from the server 200 by the interactive SNS.
  • the owner's name is "Ichiro" and the pet P's name is "John".
  • the fact that the pet P has entered the meal space is not set in the image transmission condition, but is set in the message information transmission condition, and is prepared in advance when the pet P finishes the meal. It is assumed that the message is set to be sent to the user terminal 300. Therefore, as shown in FIG. 7, the messaging application of the user terminal 300 displays the text message 301 "I ate lunch" at 13:10. Also, the owner sees this text message and replies with the text message 302 saying "I ate a lot.” Further, the server 200 sends a "read” message 303 to the message 302, and sends an image 304 that the pet P eats.
  • the messaging application of the user terminal 300 receives and displays the still image 305 of the pet camera 24 and the still image 306 of the fixed camera at 17:35.
  • Modification example (Modification 1)
  • the information acquired by various devices installed in the home 5 or the pet terminal 20 is transmitted to the server 200 as it is, and the state analysis or the like is performed based on the information received by the server 200.
  • the state of the pet P is determined by going.
  • a part of the process for determining the state of the pet may be performed by the home terminal 10 and the process result may be transmitted to the server 200.
  • the feature amount may be extracted from the image on the home terminal 10 side, and the result may be transmitted to the server 200. This makes it possible to reduce the communication load from the home terminal 10 to the server 200 and the processing load on the server 200.
  • the server 200 may transmit the image according to the character of the owner and the attribute or character of the pet. Further, when the state of the pet P satisfies the message information transmission condition and the server 200 transmits the message information to the user terminal 300, the server 200 may transmit the message information according to the character of the owner and the attribute or character of the pet. good.
  • the owner may set the image type and specific message information in advance for the image and message information according to the owner's personality and the image and message information according to the pet's attribute and personality. ..
  • the server 200 transmits the information of the pet P based on the image transmission condition and the message information transmission condition. Images and message information are transmitted to the user terminal 300.
  • the home terminal 10 of the home system may perform the function of the server 200. That is, the home terminal 10 determines whether or not the image transmission condition and the message information transmission condition are satisfied based on the information output from various devices installed at home and the pet terminal 20, and the image of the pet P or the like. It may be possible to send message information.
  • the interactive SNS messaging application is installed on the home terminal 10.
  • the home terminal 10 determines that the image transmission condition and the message information transmission condition are satisfied, the home terminal 10 transmits the image and message information of the pet P to the owner's user terminal 300 by the messaging application.
  • the transmitted image and message information of the pet P are transmitted to the user terminal 300 of the owner by the interactive SNS of the server 200.
  • the second embodiment is the same as the first embodiment except for the above points.
  • the images of the pet P transmitted to the user terminal 300 may be collected to create an image collection such as a digest album.
  • an image of the pet P transmitted to the user terminal 300 during a period specified by the owner, for example, one day, one week, or the like, is generated as one digest album.
  • the digest album is generated using the image transmitted by the server 200 to the user terminal 300.
  • the digest album may be generated using the image transmitted from the home terminal 10 to the user terminal 300.
  • the user terminal 300 may have a function of collecting received images of the pet P and creating a digest album.
  • FIG. 8 is a block diagram showing a functional configuration of the information processing apparatus according to the fourth embodiment.
  • the information processing apparatus 50 according to the fourth embodiment includes an image acquisition unit 51, an information acquisition unit 52, and a messaging unit 53.
  • the image acquisition means 51 acquires an image of the target animal.
  • the information acquisition means 52 acquires information regarding the state of the target animal. Then, when the state of the target animal corresponds to the predetermined image transmission condition based on the captured image and the acquired information, the messaging means 53 transmits the captured image of the target animal.
  • FIG. 9 is a flowchart of processing by the information processing apparatus 50.
  • the image acquisition means 51 acquires an image of the target animal (step S31).
  • the information acquisition means 52 acquires information regarding the state of the target animal (step S32).
  • the messaging means 53 determines whether or not the state of the target animal corresponds to the predetermined image transmission condition based on the captured image and the acquired information. When the state of the target animal does not correspond to the image transmission condition (step S33: No), the process ends. On the other hand, when the state of the target animal corresponds to the image transmission condition (step S33: Yes), the messaging means 53 transmits an image obtained by capturing the state of the target animal (step S34).
  • the image is transmitted when the target animal is in a state corresponding to the predetermined image transmission condition, so that the owner confirms the state of the target animal in a specific state with the image. can do.
  • the owner confirms the state of the target animal in a specific state with the image.
  • Image acquisition means to acquire images of target animals An information acquisition means for acquiring information on the state of the target animal, and When the state of the target animal corresponds to a predetermined image transmission condition based on the image and the information, a messaging means for transmitting an image obtained by capturing the state of the target animal, and a messaging means.
  • Information processing device equipped with.
  • Appendix 2 The image acquisition means acquires an image taken by a first camera attached to the target animal, and obtains an image.
  • Appendix 3 The information processing apparatus according to Appendix 2, wherein the first camera is set to capture an area including a line-of-sight direction of the target animal.
  • the image acquisition means acquires an image taken by a second camera installed in the space where the target animal stays, and obtains an image.
  • the information processing apparatus according to any one of Supplementary note 1 to 4, wherein the messaging means transmits an image taken by the second camera.
  • Appendix 7 The information processing apparatus according to Appendix 6, wherein the image transmission condition includes the target animal being in the predetermined place for a predetermined time or longer.
  • Appendix 8 The information processing apparatus according to Appendix 6 or 7, wherein the image transmission condition includes that the target animal is in the predetermined place in a predetermined time zone.
  • Appendix 10 The information according to Appendix 9, wherein the image transmission condition includes that the target animal has repeatedly performed the predetermined action a predetermined number of times, or that the target animal has continuously performed the predetermined action for a predetermined time or longer. Processing equipment.
  • Appendix 15 The information processing apparatus according to Appendix 14, wherein the messaging means transmits at least one of a message and an image according to a user's personality via the interactive SNS.
  • Appendix 16 The information processing device according to Appendix 14, wherein the messaging means transmits at least one of a message and an image according to the character of the pet via the interactive SNS.
  • Appendix 18 Get an image of the target animal and Obtain information on the condition of the target animal and An information processing method for transmitting an image obtained by photographing the target animal when the state of the target animal corresponds to a predetermined image transmission condition based on the image and the information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

情報処理装置は、画像取得手段と、情報取得手段と、メッセージング手段とを備える。画像取得手段は、対象動物の画像を撮影する。情報取得手段は、対象動物の状態に関する情報を取得する。そして、メッセージング手段は、撮影された画像及び取得された情報に基づき、対象動物の状態が予め決められた画像送信条件に該当する場合、対象動物の当該状態を撮影した画像を送信する。

Description

情報処理装置、情報処理方法、及び、記録媒体
 本発明は、動物に関連する画像を送信する技術に関する。
 飼い主が不在のときに、愛玩動物(以下、「ペット」と呼ぶ。)の状態などに関する情報を取得し、飼い主の端末装置へ送信する手法が提案されている。例えば、特許文献1は、ペットを撮影した動画像からペットの行動イベントを判定し、特定の行動イベントが検出された場合に、ユーザの通信端末へ通知する装置を記載している。また、特許文献2は、センサ端末によりペットの状態を検出し、検出データに基づいて一人称の発言データを生成し、対話型SNSを利用して飼い主や他のユーザとの対話を行うシステムを記載している。
特開2009-182400号公報 国際公開WO2016/125478号公報
 上記の特許文献では、ペットの状態を多面的に把握することが難しい。
 本発明の1つの目的は、ペットの状態を多面的に把握することを容易にする情報処理装置を提供することにある。
 上記の課題を解決するため、本発明の一つの観点では、情報処理装置は、
 対象動物を撮影した画像を取得する画像取得手段と、
 前記対象動物の状態に関する情報を取得する情報取得手段と、
 前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信するメッセージング手段と、を備える。
 本発明の他の観点では、情報処理方法は、
 対象動物を撮影した画像を取得し、
 前記対象動物の状態に関する情報を取得し、
 前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信する。
 本発明のさらに他の観点では、記録媒体は、
 対象動物を撮影した画像を取得し、
 前記対象動物の状態に関する情報を取得し、
 前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信する処理をコンピュータに実行させるプログラムを記録する。
情報処理装置を適用した通信システムの全体構成を示す。 飼い主の自宅の間取り図の一例を示す。 自宅システムの構成を示すブロック図である。 ペット端末の構成を示すブロック図である。 サーバ及びユーザ端末の構成を示すブロック図である。 画像送信処理のフローチャートである。 画像送信処理により送信された画像の表示例を示す。 第4実施形態の情報処理装置の機能構成を示すブロック図である。 第4実施形態の情報処理装置による処理のフローチャートである。
 <第1実施形態>
 [全体構成]
 図1は、本開示に係る情報処理装置を適用した通信システムの全体構成を示す。通信システム1は、ペットの飼い主の自宅5に設置された自宅システム100と、サーバ200と、飼い主の使用するユーザ端末300とを含む。飼い主の自宅5には、ペットPが滞在しており、ペットPにはペット端末20が取り付けられている。また、自宅5には所定の場所に固定カメラ15が設置されている。自宅システム100とサーバ200とは、有線又は無線により通信可能である。また、サーバ200と飼い主のユーザ端末300とは無線通信可能である。
 基本的な動作として、自宅システム100は、ペットPの場所や行動(以下、「ペットPの状態」とも呼ぶ。)に基づいて、ペットPに関するメッセージ情報を生成し、対話型SNS(Social Network Service)を介して飼い主のユーザ端末300へ送信する。ここで、メッセージ情報は、テキストメッセージやスタンプなどを含む。ペットPの状態が予め決められた条件(以下、「メッセージ情報送信条件」と呼ぶ。)に該当すると、サーバ200は、その条件に対応して予め用意されたテキストメッセージやスタンプなどのメッセージ情報を、対話型SNSを利用して飼い主のユーザ端末300へ送信する。これにより、飼い主は、ペットPの状態に応じたメッセージ情報を受信し、ペットの状態を把握することができる。
 生成されるメッセージ情報は、ペットPの行動、場所、状態に基づいていればよい。また、メッセージ情報を送信するトリガはペットPの行動、場所、状態に関するものであれば特に限定されない。例えば、飼い主の要求に基づいてメッセージ情報が送信されてもよい。また、飼い主からの画像やメッセージの送信に対して、ペットPが画像やメッセージやスタンプを返信するような、インタラクティブな対話も可能である。例えば、飼い主が「ご飯食べた?」というメッセージを送信したときに、ペットPがご飯の画像とスタンプを返信するような対話が可能である。
 さらに、本実施形態では、サーバ200は、ペットPを撮影した画像を飼い主のユーザ端末300へ送信する。具体的には、サーバ200は、ペットPの状態が予め決められた条件(以下、「画像送信条件」と呼ぶ。)に該当する場合、そのときのペットPの撮影画像を、対話型SNSを介して飼い主のユーザ端末300へ送信する。この場合、ペットPの撮影画像は、ペットPを撮影した画像であってもよく、後述するようにペットPに取り付けたカメラにより撮影したペット目線の画像であってもよい。飼い主は、ユーザ端末300に送信されたペットPの画像を見ることにより、ペットPの実際の状態を見ることができる。
 図2は、飼い主の自宅5の間取り図の一例を示す。自宅5は、玄関、ホール、浴室、トイレ、居間、キッチン、バルコニーなどを有する。各スペースを仕切るドアは基本的に解放されており、ペットは各スペースを自由に移動することができる。各スペースには、ペットPの様子などを撮影するための固定カメラ15が設置されている。自宅5のスペースのうちの一部は、ペットPが入ってはいけないスペース(以下、「進入禁止スペース」と呼ぶ。)に決められている。なお、進入禁止スペースは、ペットPにとって危険なので進入させないスペースと、ペットPが悪戯をするので進入させないスペースとを含む。図2の例では、グレーで示す浴室、トイレ、キッチン、バルコニーが進入禁止スペースに決められている。
 [自宅システム]
 図3は、自宅5に設置される自宅システム100の構成を示すブロック図である。図3の例では、自宅システム100は、自宅端末10と、固定カメラ15と、マイク16と、自動給餌器17と、ペットトイレ18と、スピーカ19とを含むが、自宅システム100は上記の構成の全てを含まなくてもよく、一部の構成でもよい。自宅端末10は、例えば、PC、タブレット、スマートフォンなどの端末装置であり、通信部11と、プロセッサ12と、メモリ13と、記録媒体14とを備える。
 通信部11は、外部装置との通信を行う。具体的に、通信部11は、例えばBluetooth(登録商標)などにより、ペットPに取り付けられたペット端末20と無線通信する。また、通信部11は、サーバ200と有線又は無線により通信する。
 プロセッサ12は、CPU(Central Processing Unit)などのコンピュータであり、予め用意されたプログラムを実行することにより、自宅端末10の全体を制御する。なお、プロセッサ12は、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)などであってもよい。プロセッサ12は、予め用意されたプログラムを実行することにより、後述する画像送信処理を実行する。
 メモリ13は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ13は、プロセッサ12により実行される各種のプログラムを記憶する。また、メモリ13は、プロセッサ12による各種の処理の実行中に作業メモリとしても使用される。
 記録媒体14は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、自宅端末10に対して着脱可能に構成される。記録媒体14は、プロセッサ12が実行する各種のプログラムを記録している。自宅端末10がサーバ200へペットPに関する情報や画像を送信する際には、記録媒体14に記録されているプログラムがメモリ13にロードされ、プロセッサ12により実行される。また、固定カメラ15が撮影した画像、マイク16が集音した音、ペット端末20から受信した情報などは、一時的にメモリ13に記憶される。
 固定カメラ15は、自宅5内の予め決められた位置に設置されている。基本的には、ペットPが移動できる全スペースをカバーするように必要な数の固定カメラ15が設置されており、特に固定カメラ15はペットPの進入禁止スペース付近を撮影可能な位置に設置される。固定カメラ15は常時動作しており、撮影範囲の動画を撮影して自宅端末10へ送信する。
 マイク16は、自宅5の各スペースに設置される。マイク16は、固定カメラ15と一体化されたものでもよい。マイク16は、各スペースにおいて生じた音を集音し、自宅端末10へ送信する。自宅端末10は、マイク16で集音された音をサーバ200へ送信する。
 自動給餌器17は、図2に示すように居間の食事スペースに設けられる。自動給餌器17は、飼い主が不在のときにペットPに餌を与える装置である。例えば、自動給餌器17は、予め設定した時刻になると、ペット用の食器などに自動的に餌を供給するとともに、ペットPに餌を与えたことを示す通知を自宅端末10へ送信する。自宅端末10は、自動給餌器17からの通知をサーバ200へ送信する。また、自宅端末10は、通知を受信した時刻付近で固定カメラ15が撮影した画像をサーバ200へ送信する。
 ペットトイレ18は、図2に示すように居間のトイレスペースに設置される。ペットトイレ18は、例えば給水シートとセンサなどを備え、ペットPが排泄したことを検出して、自宅端末10へ通知する。自宅端末10は、ペットトイレ18からの通知をサーバ200へ送信する。また、自宅端末10は、通知を受信した時刻付近で固定カメラ15が撮影した画像をサーバ200へ送信する。
 スピーカ19は、自宅5の居間や進入禁止スペースなどに設置され、ペットPに対する警告音やメッセージなどを出力する。例えば、ペットPが進入禁止スペースに入ったときに飼い主がペットPを怒る声(「そこは入っちゃだめだよ。」など)を録音しておけば、飼い主がいないときでも、ペットに対して同じ声を出力することができる。
 [ペット端末]
 図4は、ペットPに取り付けられるペット端末20の構成を示すブロック図である。ペット端末20は、例えばペットPの首輪の代わりにペットに取り付けられるか、又は、ペットが着けている首輪に対して取り付けられる。ペット端末20は、通信部21と、プロセッサ22と、メモリ23と、ペットカメラ24と、加速度センサ25と、気圧センサ26と、生体センサ27と、マイク28とを備える。
 通信部21は、外部装置との通信を行う。具体的に、通信部21は、例えばWi-Fi(登録商標)やBluetooth(登録商標)などにより自宅端末10と無線通信する。
 プロセッサ22は、CPUなどのコンピュータであり、予め用意されたプログラムを実行することにより、ペット端末20の全体を制御する。プロセッサ12は、予め用意されたプログラムを実行することにより、各センサにより取得した情報を定期的に自宅端末10へ送信する。
 メモリ23は、ROM、RAMなどにより構成される。メモリ23は、プロセッサ22により実行される各種のプログラムを記憶する。また、メモリ23は、プロセッサ22による各種の処理の実行中に作業メモリとしても使用される。さらに、メモリ23は、各センサが検出した情報を一時的に記憶する。
 ペットカメラ24は、ペット目線の画像を撮影するためのカメラである。ペットカメラ24は、例えば、ペットPの首の向きを検出して撮影方向を決定するように構成してもよく、ペットPの頭部付近に装着してもよく、ペットPの前方を広角に撮影するカメラとしてもよい。ペットカメラ24は、ペットPの視線方向を含む領域を撮影し、撮影画像を自宅端末10へ送信する。これにより、自宅端末10はペット目線の画像を取得することができる。
 加速度センサ25は、3軸の加速度センサであり、ペットPの3軸方向の運動を測定して自宅端末10へ送信する。加速度センサ25の出力に基づいて、自宅端末10は、ペットPの活動量などを推定することができる。また、気圧センサ26は、ペットPの場所の気圧を測定して自宅端末10へ送信する。気圧センサ26の出力に基づいて、自宅端末10はペットPの上下方向の動き、例えばジャンプなどを検出することができる。また、図4には図示していないが、ジャイロセンサを用いてもよい。また、3軸加速度センサと3軸ジャイロセンサ(3軸の角速度センサ)が一体となった6軸センサを用いてもよい。なお、センサは、動物の活動量を計測可能なセンサであれば、上記に限定されない。
 生体センサ27は、ペットPの生体情報を計測するセンサであり、例えば、ペットPの体温、心拍数、呼吸数などを計測して自宅端末10へ送信する。自宅端末10は、取得した生体情報をサーバ200へ送信する。
 マイク28は、ペットPの周辺の音を集音し、自宅端末10へ送信する。自宅端末10は、音をサーバ200へ送信する。サーバ200は、例えばペットPが走り回る音や呼吸音などに基づいて、ペットの運動状態や精神状態などを推定することができる。
 [サーバ]
 図5(A)は、サーバ200の構成を示すブロック図である。サーバ200は、ユーザ端末300との間において、対話型SNSによるメッセージの送受信を実行する。サーバ200は、通信部211と、プロセッサ212と、メモリ213と、記録媒体214と、データベース215と、を備える。
 通信部211は、外部装置との間でデータの送受信を行う。具体的に、通信部211は、自宅端末10、及び、飼い主のユーザ端末300との間で情報を送受信する。
 プロセッサ212は、CPUなどのコンピュータであり、予め用意されたプログラムを実行することにより、サーバ200の全体を制御する。なお、プロセッサ212は、GPU、FPGA、DSP、ASICなどであってもよい。具体的に、プロセッサ212は、メッセージ情報や画像を飼い主のユーザ端末300に送信する。
 メモリ213は、ROM、RAMなどにより構成される。メモリ213は、プロセッサ212による各種の処理の実行中に作業メモリとしても使用される。記録媒体214は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、サーバ200に対して着脱可能に構成される。記録媒体214は、プロセッサ212が実行する各種のプログラムを記録している。
 データベース215は、通信部211を通じて自宅端末10から受信した情報や画像を記憶する。即ち、自宅端末10及びユーザ端末300を含む多数の端末のユーザが送受信したメッセージ情報や画像がデータベース215に保存される。また、データベース215には、ユーザ毎に、メッセージ情報の送信条件や、送信条件毎に予め用意されたメッセージ情報(例えば、所定のメッセージ、スタンプなど)を記憶している。なお、サーバ200は、管理者などが指示や入力を行うためのキーボード、マウスなどの入力部、及び、液晶ディスプレイなどの表示部を備えていてもよい。
 [ユーザ端末]
 図5(B)は、飼い主が使用するユーザ端末300の内部構成を示すブロック図である。ユーザ端末300は、例えばスマートフォン、タブレット、PCなどである。ユーザ端末300は、通信部311と、プロセッサ312と、メモリ313と、タッチパネル314と、を備える。
 通信部311は、外部装置との間でデータの送受信を行う。具体的に、通信部311は、サーバ200との間で情報を送受信する。
 プロセッサ312は、CPUなどのコンピュータであり、予め用意されたプログラムを実行することにより、ユーザ端末300の全体を制御する。なお、プロセッサ312は、GPU、FPGA、DSP、ASICなどであってもよい。具体的に、ユーザ端末300には、サーバ200が実行する対話型SNS用のメッセージングアプリがインストールされる。メッセージングアプリとは、テキストメッセージ、スタンプ、画像などの情報の交換を提供するアプリである。プロセッサ312は、メッセージングアプリにより、送信されたメッセージ情報や画像をサーバ200を介して受信し、タッチパネル314に表示する。また、プロセッサ312は、メッセージングアプリにより、飼い主が入力したメッセージ情報をサーバ200へ送信する。
 メモリ313は、ROM、RAMなどにより構成される。メモリ313は、プロセッサ312による各種の処理の実行中に作業メモリとしても使用される。タッチパネル314は、ユーザ端末300が受信したメッセージ情報を表示する。また、タッチパネル314は、ユーザの入力装置としても機能する。
 [画像送信]
 次に、飼い主のユーザ端末300への画像送信について説明する。
 (画像送信条件)
 サーバ200は、自宅端末10から送信された各種の情報に基づいて自宅5におけるペットPの状態を判定し、ペットPの状態が予め決められた画像送信条件に該当する場合、対話型SNSによりペットPの画像を飼い主のユーザ端末300へ送信する。ここで、ペットPの「状態」とは、ペットPのいる場所、ペットPの行動、ペットPの生体状態(発熱や水分不足等の健康状態、喜怒哀楽の感情や興奮状態や鬱状態等の精神状態など)を含むものとする。以下、画像送信条件の具体例を説明する。
 (1)ペットPのいる場所に関する条件
 (A)食事スペース
 画像送信条件は、ペットPが食事スペースに入ったことを含んでもよい。自宅端末10は、自動給餌器17の出力信号に基づいて、ペットPが食事スペースに入ったことを検出し、サーバ200へ通知する。サーバ200は、ペットPが図2に示す食事スペースに入った場合、ペットPの画像をユーザ端末300へ送信する。なお、自動給餌器17は予め決められた食事時間以外には動作しないので、サーバ200は、自宅端末10から送信される固定カメラ15やペットカメラ24の撮影画像を解析することにより、ペットPが食事スペースに入ったと判定してもよい。また、食事スペースに人感センサを設置し、人感センサの出力に基づいてペットPの進入を検出してサーバ200へ通知してもよい。これにより、飼い主は、ペットPが食事時間に食事スペースに入った画像を受信し、ペットPが食事している様子を見ることができる。また、飼い主は、ペットPが食事時間以外に食事スペースに入った画像を受信した場合、ペットPはお腹が空いているかもしれないと推測することができる。
 また、ペットPが食事スペースに入ったことだけでなく、食事スペースでの滞在時間を画像送信条件に含めてもよい。即ち、ペットPが食事スペースに所定時間以上滞在したことを画像送信条件としてもよい。さらに、ペットPが食事スペースに入った又は滞在した時間帯を画像送信条件に含めてもよい。例えば、所定の時間帯にペットPが食事スペースに入ったこと又は滞在したことを画像送信条件としてもよい。
 サーバ200は、ペットPが食事スペースに入った又は滞在した時刻付近で固定カメラ15又はペットカメラ24が撮影した画像から、ペットPが食事しているときの画像を取得することができる。
 (B)トイレスペース
 画像送信条件は、ペットPがトイレスペースに入ったことを含んでもよい。自宅端末10は、ペットトイレ18の出力信号に基づいて、ペットPがトイレスペースに入ったことを検出し、サーバ200へ通知する。サーバ200は、ペットPが図2に示す食事スペースに入った場合、ペットPの画像をユーザ端末300へ送信する。また、サーバ200は、自宅端末10から送信される固定カメラ15やペットカメラ24の撮影画像を解析することにより、ペットPがトイレスペースに入ったと判定してもよい。また、トイレスペースに人感センサを設置し、人感センサの出力に基づいてペットPの進入を検出してサーバ200へ通知してもよい。
 また、ペットPがトイレスペースに入ったことだけでなく、トイレスペースでの滞在時間を画像送信条件に含めてもよい。即ち、ペットPがトイレスペースに所定時間以上滞在したことを画像送信条件としてもよい。さらに、ペットPがトイレスペースに入った又は滞在した時間帯を画像送信条件に含めてもよい。例えば、所定の時間帯にペットPがトイレスペースに入ったこと又は滞在したことを画像送信条件としてもよい。
 サーバ200は、ペットPがトイレスペースに入った又は滞在した時刻付近で固定カメラ15又はペットカメラ24が撮影した画像から、ペットPが排泄しているときの画像や排泄物の画像を取得することができる。
 (C)進入禁止スペース
 画像送信条件は、ペットPが進入禁止スペースに入ったことを含んでもよい。サーバ200は、固定カメラ15やペットカメラ24の撮影画像を解析することにより、ペットPが進入禁止スペースに入ったと判定することができる。サーバ200は、ペットPが図2にグレーで示す進入禁止スペースに入ったと判定した場合、ペットPの画像をユーザ端末300へ送信する。また、進入禁止スペースに赤外線その他を使用する人感センサを設置し、人感センサの出力に基づいてペットPの進入を検出してサーバ200へ送信してもよい。なお、ペットPの進入を検出する方法は、個々の進入禁止スペースごとに異なっていてもよい。これにより、飼い主は、ペットPが入ってはいけない場所に入った状態を示す画像を見ることができる。
 また、ペットPが禁止スペースに入ったことだけでなく、禁止スペースでの滞在時間を画像送信条件に含めてもよい。即ち、ペットPが禁止スペースに所定時間以上滞在したことを画像送信条件としてもよい。さらに、ペットPが禁止スペースに入った又は滞在した時間帯を画像送信条件に含めてもよい。例えば、所定の時間帯にペットPが禁止スペースに入ったこと又は滞在したことを画像送信条件としてもよい。
 サーバ200は、ペットPが禁止スペースに入った又は滞在した時刻付近で固定カメラ15又はペットカメラ24が撮影した画像から、ペットPが禁止スペースに入っているときの画像を取得することができる。
 (D)その他の場所
 画像送信条件は、ペットPが上記以外の所定の場所に入ったこと、又は、その場所に所定時間以上滞在したことを含んでもよい。例えば、ペットPに玄関で飼い主の帰宅を待つ習慣がある場合、サーバ200は、ペットPが玄関にいる場合にペットPの画像をユーザ端末300へ送信してもよい。この場合、ペットPが単に玄関に来たことを画像送信条件としてもよいが、ペットPが所定回数以上繰り返し玄関に来たこと、又は、玄関に所定時間以上滞在したことを画像送信条件としてもよい。また、飼い主の平均的な帰宅時間(例えば、17:00~19:00)を設定し、その時間帯においてペットPが玄関に来たこと、所定回数以上玄関に来たこと、又は、所定時間以上玄関に滞在したことを画像送信条件としてもよい。サーバ200は、固定カメラ15やペットカメラ24の撮影画像を解析することにより、ペットPが玄関にいると判定することができる。また、玄関に赤外線その他を使用する人感センサを設置し、人感センサの出力に基づいてペットPが玄関にいることを検出してサーバ200へ通知してもよい。これにより、飼い主は、ペットPが自分の帰宅を待っている画像を見ることができる。
 上記の例以外にも、ペットPの習性や習慣に基づいて、ペットが好んで滞在する場所などがある場合は、ペットPがその場所に来たこと又は滞在していることを画像送信条件としてもよい。例えば、ペットPがソファの上やバルコニーの近くの日当たりの良い場所を気に入っており、一日のうちの長い時間をその場所で過ごす習慣があるような場合には、ペットPがその場所に所定時間以上滞在したことを画像送信条件としてもよい。飼い主は、受信した画像により、ペットがリラックスしている様子を見ることができる。なお、上記のようにペットPが長く滞在する場所に来たことを画像送信条件とする場合、サーバ200は、ペットPがその場所に滞在している間、所定時間毎に定期的に、又は、ランダムに複数回画像を送信してもよい。
 (2)ペットPの行動に関する条件
 画像送信条件は、ペットPが特定の行動を起こしたことを含んでもよい。例えば、ペットPが部屋中を走りまわること、大声で吠えること、うめくように鳴くこと、嘔吐したこと、などを画像送信条件としてもよい。サーバ200は、ペットPに取り付けたペット端末20からの出力信号、及び、固定カメラ15やペットカメラ24の撮影画像の少なくとも一つを解析することにより、ペットPが上記の特定の行動を起こしていると判定することができる。
 (3)ペットPの状態に関する条件
 画像送信条件は、ペットPの状態に関する条件を含んでいてもよい。即ち、ペットPが予め決められた状態に該当する場合に、画像を送信してもよい。具体的に、サーバ200は、ペット端末20が検出した生体情報を用いて、ペットPの体の状況(発熱、過呼吸などの体調不良や身体不調など)や、ペットPの精神状態(興奮状態、落ち着いた状態、ストレス状態など)を推定することができる。また、サーバ200は、自宅5のマイク16で集音された音を分析し、特定の音に該当するか否かを判定する。例えば、ペットPの各種の鳴き声(吠える声、相手を威嚇するときの低い声、悲しいときの声、甘え声など)を予め登録しておくことにより、ペットPの鳴き声を区別して判定し、ペットPの状態を推定することができる。よって、サーバ200は、ペットPが予め設定された状態に該当すると判定した場合、その時刻付近で固定カメラ15又はペットカメラ24が撮影した画像から、ペットPが所定の状態に該当するときの画像を送信する。飼い主は、受信した画像を見ることにより、ペットPが興奮状態にあるとか、具合が悪いなどと知ることができる。
 (4)飼い主からの受信メッセージに関する条件
 画像送信条件は、飼い主のユーザ端末300から受信したメッセージに関する条件を含んでいてもよい。例えば、飼い主のユーザ端末300から、予め決められた単語を含むメッセージを受信した場合、それに対応する画像を送信することとしてもよい。例えば、飼い主から食事に関するメッセージ「お昼は食べた?」、「たくさん食べたね。」などを受信した場合、サーバ200はペットPの食事中の画像などを飼い主のユーザ端末300へ送信してもよい。
 (画像送信条件の設定)
 飼い主は、上記の画像送信条件のうちの任意のものを選択してサーバ200に設定することができる。すなわち、ユーザ端末300は、飼い主から画像送信条件の選択操作を受け付けることで、所望の画像送信条件を設定することができる。例えば、飼い主は、自宅端末10を操作し、進入禁止スペースとして風呂とキッチンを設定し、その他の場所として玄関とソファを設定し、ペットPの行動として大声で鳴くことを設定してもよい。
 また、飼い主は、画像送信条件として設定しなかったペットPの状態をメッセージ情報送信条件として設定することができる。すなわち、ペットPが特定の状態になった場合に、画像は送信せずに、メッセージのみを送信するように設定することができる。こうすると、自宅端末10は、ペットPの状態がメッセージ情報送信条件に該当する場合、その条件に対して予め設定されたテキストメッセージやスタンプなどのメッセージ情報を送信する。例えば、ペットPが昼ご飯を食べたときに、画像を送信する代わりに、予め用意したテキストメッセージ「昼ごはん食べたよ。」などを送信するように設定してもよい。
 さらには、あるペットPの状態を画像送信条件とメッセージ情報送信条件の両方に設定できるようにしてもよい。この場合、ペットPの状態が画像送信条件とメッセージ情報送信条件の両方に該当すると、その状態に対応するテキストメッセージやスタンプなどのメッセージ情報と、その状態を撮影した画像の両方が飼い主のユーザ端末300へ送信される。例えば、ペットPが昼ご飯を食べたときに、「昼ごはん食べたよ。」というテキストメッセージと、食事中のペットPの画像の両方がユーザ端末300へ送信される。
 (送信画像の設定)
 次に、飼い主のユーザ端末300へ送信する画像について説明する。サーバ200は、ペットPの状態が上記の画像送信条件に該当した場合、そのときのペットPの撮影画像をユーザ端末300へ送信する。ここで、送信される画像は、自宅5の複数個所に設置された固定カメラ15の撮影画像でもよく、ペットPに取り付けたペットカメラ24の撮影画像であってもよい。固定カメラ15の撮影画像はペットPを第三者の視点でとらえた画像であり、飼い主が自宅5にいた場合に見るであろう光景に相当する。一方、ペットカメラ24の撮影画像はペット目線の画像であるので、飼い主は、そのときのペットの状態や気持ちを推測することができる。サーバ200は、飼い主の設定に応じて、固定カメラ15の撮影画像とペットカメラ24の撮影画像の一方又は両方をユーザ端末300へ送信する。
 ユーザ端末300へ送信する画像は、静止画でもよく、GIF(Graphics Interchange Format)画像や数秒程度の動画でもよい。静止画の場合、自宅端末10は、固定カメラ15とペットカメラ24の撮影画像の両方を送信すると、飼い主はペットPを客観視した画像と、ペット目線の画像とを同時に見ることができ、そのときのペットPの様子をより詳しく知ることができる。なお、自宅端末10は固定カメラ15とペットカメラ24の撮影画像の両方を送信する場合、2つの静止画を上下又は左右に並べて合成した一枚の静止画として送信してもよい。ユーザ端末300上で動作するメッセージングアプリにもよるが、こうすると、ユーザ端末300上で2つの撮影画像を容易に並べて表示することができる。
 (画像送信処理)
 図6は、サーバ200が実行する画像送信処理のフローチャートである。この処理は、図5に示すプロセッサ212が、予め用意されたプログラムを実行することにより実現される。
 まず、サーバ200は、自宅端末10から、ペットPに取り付けられているペット端末20の各センサの出力情報を受信する(ステップS11)。また、サーバ200は、自宅5に設置されている固定カメラ15、マイク16、自動給餌器17、ペットトイレ18などが取得した情報を自宅端末10から取得する(ステップS12)。
 次に、サーバ200は、ステップS11及びS12で取得した情報に基づいて、ペットPの状態を推定し、ペットPの状態が予め決められた画像送信条件に該当するか否かを判定する(ステップS13)。ペットPの状態が画像送信条件に該当しない場合(ステップS13:No)、処理はステップS11へ戻る。
 一方、ペットPの状態が画像送信条件に該当する場合(ステップS13:Yes)、サーバ200は、そのときの固定カメラ15とペットカメラ24の一方又は両方の撮影画像を取得する(ステップS14)。サーバ200は、定期的に固定カメラ15及びペットカメラ24の撮影画像を受信し、一定時間分をDB215に記憶しておく。そして、サーバ200は、DB215に記憶されている撮影画像から、ペットPの状態が画像送信条件に該当したときの画像を取得する。この際、サーバ200は、飼い主が前もって行った設定に基づいて、ユーザ端末300へ送信する画像を取得すればよい。例えば、飼い主が固定カメラ15の静止画とペットカメラ24の静止画の両方をユーザ端末300へ送信するように設定している場合、サーバ200は、DB215に記憶されている撮影画像から、画像送信条件が具備されたときの固定カメラ15とペットカメラ24の静止画を切り出す。そして、サーバ200は、取得した画像をユーザ端末300へ送信する(ステップS15)。こうして、ユーザ端末300へペットPの画像が送信される。
 次に、サーバ200は、画像送信処理を終了するか否かを判定する(ステップS16)。通常、飼い主は外出時にユーザ端末300を操作して、サーバ200による画像送信処理をオンにし、帰宅したときに画像送信処理をオフにする。よって、飼い主が画像送信処理をオフにするまで画像送信処理が継続され、飼い主が画像送信処理をオフにすると(ステップS16:Yes)、画像送信処理は終了する。
 (送信される画像の例)
 図7は、画像送信処理により送信された画像の表示例を示す。この例では、飼い主のユーザ端末300に、対話型SNSによりサーバ200から送信されたメッセージ情報及び画像が表示されている。なお、飼い主の名前を「一郎」とし、ペットPの名前を「ジョン」とする。また、この例では、ペットPが食事スペースに入ったことは、画像送信条件には設定されていないが、メッセージ情報送信条件に設定されており、ペットPが食事を終えると、予め用意されたメッセージがユーザ端末300へ送信されるように設定されているものとする。よって、図7に示すように、ユーザ端末300のメッセージングアプリは、13:10に「昼ごはん食べたよ。」というテキストメッセージ301を表示している。また、飼い主は、このテキストメッセージを見て、「いっぱい食べたね。」というテキストメッセージ302を返信している。さらに、サーバ200はこのメッセージ302に対して「既読」メッセージ303を送信し、ペットPが食事する画像304を送信している。
 また、この例では、ペットPが17:00~19:00の間に玄関に5分以上滞在したことが画像送信条件として設定されているものとする。さらに、固定カメラ15とペットカメラ24の両方の静止画が送信されるように設定されているものとする。このため、図7に示すように、ユーザ端末300のメッセージングアプリは、17:35にペットカメラ24の静止画305と固定カメラの静止画306とを受信し、表示している。
 [変形例]
 (変形例1)
 上記の第1実施形態では、基本的に自宅5に設置された各種の装置やペット端末20により取得された情報がそのままサーバ200へ送信され、サーバ200が受信した情報に基づいて状態分析などを行ってペットPの状態を判定している。その代わりに、ペットの状態を判定するための処理の一部を自宅端末10で行い、その処理結果をサーバ200へ送信することとしてもよい。例えば、自宅端末10側で画像からの特徴量抽出などを行い、その結果をサーバ200へ送信するようにしてもよい。これにより、自宅端末10からサーバ200への通信負荷、及び、サーバ200における処理負荷を軽減することができる。
 (変形例2)
 サーバ200は、ペットPの状態が画像送信条件を具備し、ユーザ端末300へペットの画像を送信する場合、飼い主の性格や、ペットの属性又は性格に応じた画像を送信してもよい。また、サーバ200は、ペットPの状態がメッセージ情報送信条件を具備し、ユーザ端末300へメッセージ情報を送信する場合、飼い主の性格や、ペットの属性又は性格に応じたメッセージ情報を送信してもよい。この場合、飼い主の性格に応じた画像やメッセージ情報、並びに、ペットの属性や性格に応じた画像やメッセージ情報については、画像の種類や具体的なメッセージ情報を飼い主が予め設定しておけばよい。
 <第2実施形態>
 上記の第1実施形態では、自宅5に設置された各種の装置やペット端末20により取得された情報をサーバ200へ送信し、サーバ200が画像送信条件やメッセージ情報送信条件に基づいてペットPの画像やメッセージ情報をユーザ端末300へ送信している。その代わりに、サーバ200の機能を自宅システムの自宅端末10が行ってもよい。即ち、自宅端末10は、自宅に設置された各種の装置やペット端末20から出力された情報に基づいて、画像送信条件やメッセージ情報送信条件が具備されているかを判定し、ペットPの画像やメッセージ情報を送信することとしてもよい。
 この場合、自宅端末10には対話型SNSのメッセージングアプリがインストールされる。自宅端末10は、画像送信条件やメッセージ情報送信条件が具備されたと判定したときに、飼い主のユーザ端末300を宛先としてペットPの画像やメッセージ情報をメッセージングアプリにより送信する。送信されたペットPの画像やメッセージ情報は、サーバ200の対話型SNSにより、飼い主のユーザ端末300へ送信される。なお、上記の点以外は、第2実施形態は第1実施形態と同様である。
 <第3実施形態>
 上記の実施形態において、ユーザ端末300へ送信されたペットPの画像を集めてダイジェストアルバムのような画像集を作成するようにしてもよい。例えば、飼い主が指定した期間、例えば、1日、一週間などの期間においてユーザ端末300へ送信されたペットPの画像を1つのダイジェストアルバムとして生成する。具体的に、第1実施形態では、サーバ200がユーザ端末300へ送信した画像を用いてダイジェストアルバムを生成する。また、第2実施形態では、自宅端末10がユーザ端末300へ送信した画像を用いてダイジェストアルバムを生成すればよい。また、第1及び第2実施形態において、ユーザ端末300が、受信したペットPの画像を集めてダイジェストアルバムを作成する機能を備えていてもよい。
 <第4実施形態>
 図8は、第4実施形態の情報処理装置の機能構成を示すブロック図である。第4実施形態に係る情報処理装置50は、画像取得手段51と、情報取得手段52と、メッセージング手段53とを備える。画像取得手段51は、対象動物を撮影した画像を取得する。情報取得手段52は、対象動物の状態に関する情報を取得する。そして、メッセージング手段53は、撮影された画像及び取得された情報に基づき、対象動物の状態が予め決められた画像送信条件に該当する場合、対象動物の当該状態を撮影した画像を送信する。
 図9は、情報処理装置50による処理のフローチャートである。画像取得手段51は、対象動物を撮影した画像を取得する(ステップS31)。情報取得手段52は、対象動物の状態に関する情報を取得する(ステップS32)。そして、メッセージング手段53は、撮影された画像及び取得された情報に基づき、対象動物の状態が予め決められた画像送信条件に該当するか否かを判定する。対象動物の状態が画像送信条件に該当しない場合(ステップS33:No)、処理は終了する。一方、対象動物の状態が画像送信条件に該当する場合(ステップS33:Yes)、メッセージング手段53は、対象動物の当該状態を撮影した画像を送信する(ステップS34)。
 第4実施形態の情報処理装置によれば、対象動物が予め決められた画像送信条件に該当する状態にある場合の画像を送信するので、飼い主は特定の状態における対象動物の状態を画像で確認することができる。また、ペットと密にコミュニケーションをとることができるので、ペットに対して愛着がわき、ペットの飼育放棄を防止することも可能である。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 対象動物を撮影した画像を取得する画像取得手段と、
 前記対象動物の状態に関する情報を取得する情報取得手段と、
 前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信するメッセージング手段と、
 を備える情報処理装置。
 (付記2)
 前記画像取得手段は、前記対象動物に取り付けられた第1のカメラで撮影された画像を取得し、
 前記メッセージング手段は、前記第1のカメラで撮影した画像を送信する付記1に記載の情報処理装置。
 (付記3)
 前記第1のカメラは、前記対象動物の視線方向を含む領域を撮影するように設定されている付記2に記載の情報処理装置。
 (付記4)
 前記メッセージング手段は、対話型SNSを介して、飼い主の端末装置へ前記画像を送信する付記1乃至3のいずれか一項に記載の情報処理装置。
 (付記5)
 前記画像取得手段は、前記対象動物が滞在する空間に設置された第2のカメラで撮影された画像を取得し、
 前記メッセージング手段は、前記第2のカメラで撮影された画像を送信する付記1乃至4のいずれか一項に記載の情報処理装置。
 (付記6)
 前記画像送信条件は、前記対象動物が所定の場所にいることを含む付記1乃至5のいずれか一項に記載の情報処理装置。
 (付記7)
 前記画像送信条件は、前記対象動物が前記所定の場所に所定時間以上いることを含む付記6に記載の情報処理装置。
 (付記8)
 前記画像送信条件は、所定の時間帯において、前記対象動物が前記所定の場所にいることを含む付記6又は7に記載の情報処理装置。
 (付記9)
 前記画像送信条件は、前記対象動物が所定の行動を行ったことを含む付記1乃至8のいずれか一項に記載の情報処理装置。
 (付記10)
 前記画像送信条件は、前記対象動物が前記所定の行動を所定回数繰り返し行ったこと、又は、前記対象動物が前記所定の行動を所定時間以上継続して行ったことを含む付記9に記載の情報処理装置。
 (付記11)
 前記画像送信条件は、前記対象動物が所定の健康状態になったことを含む付記1乃至10のいずれか一項に記載の情報処理装置。
 (付記12)
 前記画像送信条件は、前記対象動物が所定の精神状態になったことを含む付記1乃至11のいずれか一項に記載の情報処理装置。
 (付記13)
 前記メッセージング手段は、前記対象動物の状態が予め決められたメッセージ情報送信条件に該当する場合、予め用意されたメッセージ情報を送信する付記1乃至12のいずれか一項に記載の情報処理装置。
 (付記14)
 前記メッセージング手段は、ユーザ端末から受信したメッセージの内容が前記画像送信条件を満たす場合に、対話型SNSを介して、前記受信したメッセージに応じた画像を送信し、前記受信したメッセージの内容が前記メッセージ情報送信条件を満たす場合に、前記対話型SNSを介して、前記受信したメッセージに応じたメッセージ情報を送信する付記13に記載の情報処理装置。
 (付記15)
 前記メッセージング手段は、前記対話型SNSを介して、ユーザの性格に応じたメッセージ及び画像の少なくとも一方を送信する付記14に記載の情報処理装置。
 (付記16)
 前記メッセージング手段は、前記対話型SNSを介して、ペットの性格に応じたメッセージ及び画像の少なくとも一方を送信する付記14に記載の情報処理装置。
 (付記17)
 前記情報取得手段は、前記対象動物に取り付けられたセンサ又はマイクにより取得された情報を含む付記1乃至16のいずれか一項に記載の情報処理装置。
 (付記18)
 対象動物を撮影した画像を取得し、
 前記対象動物の状態に関する情報を取得し、
 前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信する情報処理方法。
 (付記19)
 対象動物を撮影した画像を取得し、
 前記対象動物の状態に関する情報を取得し、
 前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信する処理をコンピュータに実行させるプログラムを記録した記録媒体。
 以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 10 自宅端末
 15 固定カメラ
 16 マイク
 17 自動給餌器
 18 ペットトイレ
 19 スピーカ
 20 ペット端末
 24 ペットカメラ
 27 生体センサ
 100 自宅システム
 200 サーバ
 300 ユーザ端末

Claims (19)

  1.  対象動物を撮影した画像を取得する画像取得手段と、
     前記対象動物の状態に関する情報を取得する情報取得手段と、
     前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信するメッセージング手段と、
     を備える情報処理装置。
  2.  前記画像取得手段は、前記対象動物に取り付けられた第1のカメラで撮影された画像を取得し、
     前記メッセージング手段は、前記第1のカメラで撮影した画像を送信する請求項1に記載の情報処理装置。
  3.  前記第1のカメラは、前記対象動物の視線方向を含む領域を撮影するように設定されている請求項2に記載の情報処理装置。
  4.  前記メッセージング手段は、対話型SNSを介して、飼い主の端末装置へ前記画像を送信する請求項1乃至3のいずれか一項に記載の情報処理装置。
  5.  前記画像取得手段は、前記対象動物が滞在する空間に設置された第2のカメラで撮影された画像を取得し、
     前記メッセージング手段は、前記第2のカメラで撮影された画像を送信する請求項1乃至4のいずれか一項に記載の情報処理装置。
  6.  前記画像送信条件は、前記対象動物が所定の場所にいることを含む請求項1乃至5のいずれか一項に記載の情報処理装置。
  7.  前記画像送信条件は、前記対象動物が前記所定の場所に所定時間以上いることを含む請求項6に記載の情報処理装置。
  8.  前記画像送信条件は、所定の時間帯において、前記対象動物が前記所定の場所にいることを含む請求項6又は7に記載の情報処理装置。
  9.  前記画像送信条件は、前記対象動物が所定の行動を行ったことを含む請求項1乃至8のいずれか一項に記載の情報処理装置。
  10.  前記画像送信条件は、前記対象動物が前記所定の行動を所定回数繰り返し行ったこと、又は、前記対象動物が前記所定の行動を所定時間以上継続して行ったことを含む請求項9に記載の情報処理装置。
  11.  前記画像送信条件は、前記対象動物が所定の健康状態になったことを含む請求項1乃至10のいずれか一項に記載の情報処理装置。
  12.  前記画像送信条件は、前記対象動物が所定の精神状態になったことを含む請求項1乃至11のいずれか一項に記載の情報処理装置。
  13.  前記メッセージング手段は、前記対象動物の状態が予め決められたメッセージ情報送信条件に該当する場合、予め用意されたメッセージ情報を送信する請求項1乃至12のいずれか一項に記載の情報処理装置。
  14.  前記メッセージング手段は、ユーザ端末から受信したメッセージの内容が前記画像送信条件を満たす場合に、対話型SNSを介して、前記受信したメッセージに応じた画像を送信し、前記受信したメッセージの内容が前記メッセージ情報送信条件を満たす場合に、前記対話型SNSを介して、前記受信したメッセージに応じたメッセージ情報を送信する請求項13に記載の情報処理装置。
  15.  前記メッセージング手段は、前記対話型SNSを介して、ユーザの性格に応じたメッセージ及び画像の少なくとも一方を送信する請求項14に記載の情報処理装置。
  16.  前記メッセージング手段は、前記対話型SNSを介して、ペットの性格に応じたメッセージ及び画像の少なくとも一方を送信する請求項14に記載の情報処理装置。
  17.  前記情報取得手段は、前記対象動物に取り付けられたセンサ又はマイクにより取得された情報を含む請求項1乃至16のいずれか一項に記載の情報処理装置。
  18.  対象動物を撮影した画像を取得し、
     前記対象動物の状態に関する情報を取得し、
     前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信する情報処理方法。
  19.  対象動物を撮影した画像を取得し、
     前記対象動物の状態に関する情報を取得し、
     前記画像及び前記情報に基づき、前記対象動物の状態が予め決められた画像送信条件に該当する場合、前記対象動物の当該状態を撮影した画像を送信する処理をコンピュータに実行させるプログラムを記録した記録媒体。
PCT/JP2020/038313 2020-10-09 2020-10-09 情報処理装置、情報処理方法、及び、記録媒体 WO2022074828A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/038313 WO2022074828A1 (ja) 2020-10-09 2020-10-09 情報処理装置、情報処理方法、及び、記録媒体
US18/029,610 US20230360403A1 (en) 2020-10-09 2020-10-09 Information processing device, information processing method, and recording medium
JP2022555232A JPWO2022074828A5 (ja) 2020-10-09 情報処理装置、情報処理方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/038313 WO2022074828A1 (ja) 2020-10-09 2020-10-09 情報処理装置、情報処理方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2022074828A1 true WO2022074828A1 (ja) 2022-04-14

Family

ID=81126357

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/038313 WO2022074828A1 (ja) 2020-10-09 2020-10-09 情報処理装置、情報処理方法、及び、記録媒体

Country Status (2)

Country Link
US (1) US20230360403A1 (ja)
WO (1) WO2022074828A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007189930A (ja) * 2006-01-18 2007-08-02 Sogo Keibi Hosho Co Ltd 監視システムおよび監視方法
JP2016146070A (ja) * 2015-02-06 2016-08-12 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
JP2017042085A (ja) * 2015-08-26 2017-03-02 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019106908A (ja) * 2017-12-16 2019-07-04 株式会社チャオ 動物管理システム、プログラム及びコンピュータ読み取り可能な記憶媒体
JP2019212052A (ja) * 2018-06-05 2019-12-12 シャープ株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、および、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007189930A (ja) * 2006-01-18 2007-08-02 Sogo Keibi Hosho Co Ltd 監視システムおよび監視方法
JP2016146070A (ja) * 2015-02-06 2016-08-12 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
JP2017042085A (ja) * 2015-08-26 2017-03-02 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019106908A (ja) * 2017-12-16 2019-07-04 株式会社チャオ 動物管理システム、プログラム及びコンピュータ読み取り可能な記憶媒体
JP2019212052A (ja) * 2018-06-05 2019-12-12 シャープ株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、および、プログラム

Also Published As

Publication number Publication date
JPWO2022074828A1 (ja) 2022-04-14
US20230360403A1 (en) 2023-11-09

Similar Documents

Publication Publication Date Title
KR102022893B1 (ko) 반려동물 케어 방법 및 이를 이용하는 시스템
US8305220B2 (en) Monitoring and displaying activities
KR102139922B1 (ko) 반려동물 행동 감시 케어시스템
KR101960474B1 (ko) 가축 집단 진료 예방 진단시스템
EP3525673B1 (en) Method and apparatus for determining a fall risk
CN105705009A (zh) 用于远程监视和喂养宠物的系统、方法与喂食装置
US20180054399A1 (en) Information processing apparatus, information processing method, and information processing system
JP2008131862A (ja) ペット診断システム
KR20180062049A (ko) 애완동물의 행동패턴 분석 기반의 견주와의 양방향 커뮤니케이션 시스템 및 방법
KR20180066561A (ko) 애완동물 관리 및 구조 시스템
KR20190028021A (ko) 센서 기술을 활용한 애완동물 상태 분석 방법 및 시스템
CN109348443A (zh) 一种宠物信息管理系统
JP2011044787A (ja) 動物行動管理装置、動物行動管理方法及びそのプログラム
JP2024037907A (ja) 動物共同見守りシステム
WO2022074828A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
JP2005073589A (ja) ペット管理システム、ペット管理装置、ペット管理方法
JP7290922B2 (ja) 動物撮影装置、動物状態判定システム及びプログラム
KR102434203B1 (ko) 메타버스 플랫폼 네트워킹 기반 실시간 반려동물 모니터링 및 케어를 위한 온라인 펫시터 시스템
KR102270637B1 (ko) 보호자와의 상호작용에 기반한 반려동물 행동 분석 방법
US20240048522A1 (en) Processing device, information processing method, and recording medium
WO2023144877A1 (ja) 動物管理支援装置、動物管理支援方法、及び、記録媒体
WO2022074829A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
WO2022074830A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
JP6997035B2 (ja) 情報提供システム、情報処理装置及びプログラム
WO2022201290A1 (ja) 通信システム、通信装置、通信方法、及び、記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20956775

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022555232

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20956775

Country of ref document: EP

Kind code of ref document: A1