WO2023162281A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2023162281A1
WO2023162281A1 PCT/JP2022/017921 JP2022017921W WO2023162281A1 WO 2023162281 A1 WO2023162281 A1 WO 2023162281A1 JP 2022017921 W JP2022017921 W JP 2022017921W WO 2023162281 A1 WO2023162281 A1 WO 2023162281A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
image
detection target
target image
Prior art date
Application number
PCT/JP2022/017921
Other languages
English (en)
French (fr)
Inventor
悟 滝澤
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2024502791A priority Critical patent/JPWO2023162281A1/ja
Publication of WO2023162281A1 publication Critical patent/WO2023162281A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/40Transportation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/20Information sensed or collected by the things relating to the thing itself
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring

Definitions

  • the present invention relates to an information processing device.
  • a drive recorder including a camera mounted on a vehicle and recording means for recording an image captured by the camera is known (see, for example, Patent Document 1).
  • Japanese Patent Laid-Open No. 2002-200002 discloses a determination means for determining whether or not a predetermined object is captured in an image, and an image of the predetermined target that is captured when the determination means determines that the predetermined target is captured. and a transmission means for transmitting to a server device.
  • the user selects a determination target such as cracks and ice on the road surface for determining whether or not the user desired to record the image and whether or not the image was actually captured. It is necessary to set in detail in advance. Therefore, when trying to set a determination target according to various changing shooting conditions, it is necessary to assume all kinds of situations, and it may be difficult to set the determination target in advance. Therefore, it is difficult to set a detection target according to various shooting situations, and it is difficult to confirm in real time that the detection target according to the shooting situation has been shot.
  • One example of the problem to be solved by the present invention is to set detection targets according to various shooting situations and to confirm in real time that the detection targets have been captured.
  • the invention according to claim 1 provides an information collecting unit that collects basic information including running information of a moving body and surrounding information of the moving body, an imaging unit that continuously captures images, Triggered by either the case where the basic information satisfies a predetermined condition or the case where an instruction operation is received, an image for a predetermined time period is set as an evaluation target image from among the images captured by the imaging unit.
  • an image setting unit a detection target setting unit that sets a detection target based on the trigger and the basic information related to the evaluation target image; and the detection target that is set from the evaluation target image.
  • an output unit for notifying about the fact.
  • an information collecting unit that collects basic information including running information of a moving object and surrounding information of the moving object; an evaluation target image setting unit configured to set, as evaluation target images, images for a predetermined time period from images captured by the imaging unit, triggered by either the satisfaction of the conditions or the acceptance of an instruction operation; a detection target setting unit that sets a detection target based on the trigger and the basic information related to the image; and an output unit that notifies that the detection target set from the evaluation target image does not exist. It is characterized by having
  • an information collecting unit that collects basic information including running information of a moving object and surrounding information of the moving object; an evaluation target image setting unit configured to set, as evaluation target images, images for a predetermined time period from images captured by the imaging unit, triggered by either the satisfaction of the conditions or the acceptance of an instruction operation;
  • a detection target setting unit that sets a detection target based on the trigger and the basic information related to the image, and an output unit that notifies the presence or absence of the detection target set from the evaluation target image.
  • an information processing method executed by a computer comprising: an information collecting step of collecting basic information including running information of a moving object and surrounding information of the moving object; Triggered by a photographing step and either the case where the basic information satisfies a predetermined condition or the case where an instruction operation is received, an image for a predetermined period of time is selected as an image to be evaluated from among the images photographed in the photographing step.
  • an evaluation target image setting step to be set; a detection target setting step of setting a detection target based on the trigger and the basic information related to the evaluation target image; and the detection target set from the evaluation target image.
  • the invention according to claim 12 is characterized by causing a computer to execute the information processing method according to claim 11 as an information processing program.
  • the invention according to claim 13 is characterized in that the information processing program according to claim 12 is stored in a computer-readable storage medium.
  • FIG. 1 is a schematic configuration diagram of an information processing apparatus according to a first embodiment of the present invention
  • FIG. 2 is a configuration diagram of a terminal device shown in FIG. 1
  • FIG. 2 is a configuration diagram of a server device shown in FIG. 1
  • FIG. 4A and 4B are diagrams showing types of classification performed by the scene identification unit shown in FIG. 3
  • FIG. 2 is a flow chart of the operation of the information processing apparatus shown in FIG. 1
  • FIG. 6 is a flow chart showing the detailed operation of step S500 shown in FIG. 5
  • FIG. 2 is a schematic configuration diagram of an information processing apparatus according to a second embodiment of the present invention
  • FIG. FIG. 11 is a schematic configuration diagram of an information processing apparatus according to a third embodiment of the present invention.
  • an information collection unit collects basic information including running information of a mobile body and peripheral information of the mobile body. Then, the imaging unit continuously performs imaging. Then, the evaluation target image setting unit evaluates images for a predetermined time period from the images captured by the imaging unit using either the case where the basic information satisfies a predetermined condition or the case where an instruction operation is received as a trigger. Set as target image. Then, the detection target setting unit sets the detection target based on the trigger and the basic information related to the evaluation target image. Then, the output unit notifies that the set detection object exists in the evaluation target image.
  • the detection target is set based on the trigger and the basic information related to the evaluation target image, so that the user of the information processing apparatus can save the trouble of setting the detection target in detail in advance. can be reduced. Since the presence of the object to be detected is notified by the output unit, the driver can confirm in real time that the image of the object to be detected has been acquired. Therefore, it is possible to set a detection target according to various imaging situations, such as when the basic information satisfies a predetermined condition or when an instruction operation is received, and confirm in real time that the detection target has been captured. can be done.
  • the information collection unit collects basic information including traveling information of the mobile body and peripheral information of the mobile body. Then, the imaging unit continuously performs imaging. Then, the evaluation target image setting unit evaluates images for a predetermined time period from the images captured by the imaging unit using either the case where the basic information satisfies a predetermined condition or the case where an instruction operation is received as a trigger. Set as target image. Then, the detection target setting unit sets the detection target based on the trigger and the basic information related to the evaluation target image. Then, the output unit notifies that the set detection target is not found in the evaluation target image.
  • the detection target is set based on the trigger and the basic information related to the evaluation target image, so that the user of the information processing apparatus can save the trouble of setting the detection target in detail in advance. can be reduced. Since the output section notifies that there is no detection target, the driver can confirm in real time that the image of the detection target could not be obtained. Therefore, when the basic information satisfies a predetermined condition or when an instruction operation is received, a detection target is set according to various shooting situations, and it is confirmed in real time that the detection target could not be shot. be able to. In addition, as a result, it is possible to quickly respond to the fact that the object to be detected could not be photographed.
  • the information collection unit collects basic information including traveling information of the mobile body and peripheral information of the mobile body. Then, the imaging unit continuously performs imaging. Then, the evaluation target image setting unit evaluates images for a predetermined time period from the images captured by the imaging unit using either the case where the basic information satisfies a predetermined condition or the case where an instruction operation is received as a trigger. Set as target image. Then, the detection target setting unit sets the detection target based on the trigger and the basic information related to the evaluation target image. Then, the output unit notifies the presence or absence of the detection object set in the evaluation target image.
  • the detection target is set based on the trigger and the basic information related to the evaluation target image, so that the user of the information processing apparatus can save the trouble of setting the detection target in detail in advance. can be reduced. Since the presence or absence of the detection target is notified by the output unit, the driver can confirm in real time whether or not the image of the detection target has been obtained. Therefore, when the basic information satisfies a predetermined condition or when an instruction operation is received, a detection target is set according to various shooting situations, and whether or not the detection target has been captured can be checked in real time. be able to.
  • the output unit may be composed of an audio output device that outputs audio.
  • any one of the presence of the detection target, the absence of the detection target, and the presence or absence of the detection target is output by voice. Real-time confirmation of whether or not the image of the object to be detected has been acquired without the need for the driver to stop driving or take his or her attention away from driving to check the image. can be verified.
  • the output unit can be composed of an audio output device, the present invention can be applied to a terminal that does not have an image display function.
  • the information collecting unit, the photographing unit, the evaluation target image setting unit, and the output unit may be provided in a terminal device that moves together with the mobile object.
  • the detection target setting unit may be provided in a server device that can communicate with the terminal device.
  • the evaluation target image is composed of an upload target image that can be uploaded to the server device, the upload target image is transmitted from the terminal device to the server device, and the detection target information related to the detection target is transmitted from the server device to the terminal device. may be sent. By doing so, it is possible to set the detection target on the server device side, so that the load on the terminal device side can be reduced.
  • the imaging unit, the evaluation target image setting unit, and the output unit may be provided in a terminal device that moves with the mobile object.
  • the information collecting unit and the detection target setting unit may be provided in a server device that can communicate with the terminal device.
  • the evaluation target image is composed of an upload target image that can be uploaded to the server device, the upload target image is transmitted from the terminal device to the server device, and the detection target information related to the detection target is transmitted from the server device to the terminal device. may be sent. By doing so, the basic information can be collected on the server device side, so the load on the terminal device side can be reduced.
  • the information collecting unit, the photographing unit, the evaluation target image setting unit, the detection target setting unit, and the output unit may be provided in a terminal device that moves together with the mobile object.
  • the evaluation target image may be composed of a recorded image that cannot be overwritten.
  • the instruction operation is performed by vocalization of the operator who performs the instruction operation, and the vocalization does not have to include the detection target.
  • the instruction operation that triggers the setting of the evaluation target image can be performed by the operator's vocalization. Since the utterance does not need to include the object to be detected, for example, the operator only needs to utter a simple utterance such as "Take a picture", which saves the trouble of setting the object to be detected in detail. can be reduced.
  • the travel information may include at least one of information on the acceleration of the mobile body, information on the position of the mobile body, information on the traveling direction of the mobile body, and information on parking or stopping of the mobile body.
  • the peripheral information may include at least one of time information, weather information, and traffic congestion information.
  • the detection target may include at least one of a mobile object other than a mobile object, a license plate, a person, an animal other than a person, a traffic light, a road sign, a road sign, and a predetermined landmark.
  • an image to be evaluated is set using information on its acceleration as a trigger, and a moving body other than the moving body It is possible to set a moving object that may have caused the accident or the license plate of the moving object as a detection target.
  • the output unit outputs , the presence of the desired object, the absence of the desired object, or the presence or absence of the desired object may be notified.
  • the operator who has received the notification from the output unit can be notified again about the presence or absence of the desired object. Even in such a case, it is possible to reliably confirm the presence or absence of the desired object.
  • an information processing method is an information processing method executed by a computer.
  • the information processing method collects basic information including travel information of the mobile body and peripheral information of the mobile body in the information collection step. Then, in the photographing process, photographing is continuously performed. Then, in the evaluation target image setting process, either the case where the basic information satisfies a predetermined condition or the case where an instruction operation is received is used as a trigger, and images for a predetermined time period are evaluated from among the images captured in the imaging process. Set as target image. Then, in the detection target setting step, the detection target is set based on the trigger and the basic information related to the evaluation target image.
  • a detection target can be set according to various shooting conditions such as when the basic information satisfies a predetermined condition or when an instruction operation is received, and when the detection target has been captured, the detection target can be detected. You can check in real time.
  • the information processing method described above may be executed by a computer as an information processing program.
  • a computer can be used to set a detection target according to various shooting conditions, such as when the basic information satisfies a predetermined condition or when an instruction operation is received. You can check what you have done in real time.
  • the information processing program described above may be stored in a computer-readable storage medium. By doing so, the information processing program can be distributed as a single unit in addition to being incorporated into the device, and version upgrades and the like can be easily performed.
  • FIG. 1 is a schematic configuration diagram of an information processing apparatus 100 according to a first example of the present embodiment.
  • the information processing device 100 includes a terminal device 200 and a server device 300 .
  • the terminal device 200 is, for example, a device (eg, drive recorder) that moves with a vehicle (moving body) or a device that is carried by a person (eg, smart phone).
  • the server device 300 is, for example, a device owned by an administrator who manages information obtained from the terminal device 200 and is provided so as to be able to communicate with the terminal device 200 .
  • the terminal device 200 includes an imaging unit 210, a control unit 220, a storage unit 230, an input unit 240, an output unit 250, and a communication unit 260.
  • the photographing unit 210 is composed of, for example, an exterior photographing camera (not limited to the front, but may include side and back cameras), an interior photographing camera, and the like.
  • the control unit 220 is composed of, for example, a CPU (Central Processing Unit).
  • the storage unit 230 is composed of a hard disk, memory, or the like.
  • the input unit 240 is composed of devices such as a microphone and an input button, for example.
  • the output unit 250 is configured by a device such as a speaker (an audio output device that outputs audio).
  • the communication unit 260 is composed of a communication device for transmitting and receiving information to and from another device.
  • the photographing unit 210 is provided integrally with or separately from the terminal device 200, acquires image data 400 (images) inside and outside the vehicle by continuously photographing, and temporarily stores them in the storage unit 230 in a ring buffer format. do.
  • the control unit 220 is a part that performs processing for operating the information processing apparatus 100 , and includes an information collection unit 221 and an evaluation target image setting unit 222 .
  • the information collection unit 221 performs processing for collecting basic information 500 .
  • the basic information 500 is information necessary for estimating the situation when the image capturing unit 210 captured an image, and includes travel information 600 of the moving object and peripheral information 700 of the moving object.
  • the travel information 600 includes, for example, at least one of vehicle acceleration information, vehicle position information, vehicle traveling direction information, and vehicle parking or stopping information.
  • the peripheral information 700 includes, for example, at least one of time information such as date and time, weather information, and traffic congestion status information.
  • the surrounding information 700 may include tailgate driving information about vehicles around the own vehicle.
  • the information collecting unit 221 acquires the basic information 500 in real time from, for example, a GPS (Global Positioning System) receiver, various sensors such as a gyro sensor and an acceleration sensor, or an external device that transmits weather information and traffic information. , is stored in the storage unit 230 .
  • GPS Global Positioning System
  • the evaluation target image setting unit 222 is triggered by either the case where the basic information 500 satisfies a predetermined condition or the case where the input unit 240 receives the first instruction operation s1 (instruction operation).
  • image data 400 image data for a predetermined time period including the detection of the trigger is set as an upload target image 800 (evaluation target image).
  • the evaluation target image setting unit 222 includes a trigger detection unit 2221 and an extraction unit 2222 .
  • the trigger detection unit 2221 monitors various sensors such as the gyro sensor and the acceleration sensor described above, the storage unit 230, or the storage unit 320 of the server device 300, and detects that the basic information 500 satisfies a predetermined condition.
  • a predetermined condition for example, there is a condition such as "vehicle acceleration information has changed abruptly exceeding a predetermined threshold value". This condition is satisfied, for example, when the vehicle suddenly accelerates, decelerates, or stops suddenly, or when the vehicle collides with another vehicle, or when the parked vehicle is tampered with and impact is applied to the vehicle.
  • this predetermined condition is merely an example, and can be flexibly changed according to the user's wishes. For example, ⁇ the vehicle has reached the vicinity of a particular point such as a famous sightseeing spot or a spot where many traffic accidents have occurred'' may be set as a predetermined condition, or ⁇ the weather has changed suddenly,'' or ⁇ the behavior of other vehicles has changed. Detected" or the like may be set as a predetermined condition.
  • the trigger detection unit 2221 detects that the basic information 500 satisfies the preset conditions as described above.
  • the trigger detection unit 2221 also detects that the input unit 240 has received the first instruction operation s1 (instruction operation).
  • the first instruction operation s1 refers to an operation performed by a user (operator) of the information processing apparatus 100, and in this embodiment refers to an operation performed mainly by user's vocalization.
  • This first instruction operation s1 may be a simple operation that does not specify in advance the target to be detected in detail, such as "take a picture", "start shooting", or "leave an image". That is, the utterance does not have to include the detection target 810 set by the detection target setting unit 311, which will be described later.
  • the first instruction operation s1 is not limited to voice input, and may be an input button operation, for example.
  • the detection object 810 is an object that the user of the information processing device 100 is expected to want to photograph. , humans, animals other than humans, traffic lights, road signs, road signs, and predetermined landmarks such as famous sightseeing spots and photography spots.
  • the imaging unit 210 continuously performs imaging without receiving the first instruction operation s1.
  • "Keep” means that the image data 400 related to the first instruction operation s1 is subjected to processing such as overwrite prohibition processing, upload processing, etc., so that the image data 400 is not overwritten by new image data 400. It indicates the intention of the user.
  • the extraction unit 2222 temporarily stores the Of the stored image data 400 , the image data for a predetermined period of time including the detection of the trigger is set as an upload target image 800 that can be uploaded to the server device 300 and extracted from the image data 400 .
  • the upload target image 800 is an image forming the evaluation target image in the above-described embodiment. Note that the time of the upload target image 800 may be changed dynamically according to the type of trigger detected by the trigger detection unit 2221, or may be constant regardless of the type of trigger.
  • the evaluation target image setting unit 222 selects the image data 400 for a predetermined time period including the trigger detection time from the image data 400 captured by the imaging unit 210 as the upload target image 800. (evaluation target image). Then, the evaluation target image setting unit 222 attaches the information of the trigger detected by the trigger detection unit 2221 and the basic information 500 corresponding to the time of the upload target image 800 to the extracted upload target image 800, and performs communication. Processing for transmission to the server device 300 is performed via the unit 260 .
  • the input unit 240 receives the input of the above-described first instruction operation s1 by collecting sound. Further, the input unit 240 receives input of a second instruction operation s2 (re-instruction operation) in addition to the first instruction operation s1.
  • the second instruction operation s2 is an operation performed after the first instruction operation s1. As described later, after the presence or absence of the detection target 810 is output by the output unit 250, the detection target 810 is detected. This operation is performed when the object 820 desired by the user is not desired. This second instruction operation s2 prompts the information processing apparatus 100 to re-determine whether or not the desired object 820 is shown in the upload target image 800 by the user. , Wasn't it reflected?"
  • the input unit 240 is configured to accept input by voice.
  • a configuration may be adopted in which inputs of the first instruction operation s1 and the second instruction operation s2 are received by buttons.
  • the output unit 250 outputs the presence or absence of the detection target 810 set in the upload target image 800 or the presence or absence of the detection target 810 by voice. Specifically, if the content of the detection target information 900 described later received by the communication unit 260 from the server device 300 is “there is a detection target 810”, the output unit 250 outputs “ ⁇ (detection target The object 810) has been photographed.” or the like is output. Further, if the content of the detection target information 900 is "no detection target 810", the output unit 250 outputs "the detection target 810 could not be photographed (or could not be detected)" based on the result. ” or the like is output.
  • the output unit 250 outputs "(one detection target 810) could , ⁇ (another detection object 810) could not be photographed.” and the like are output.
  • the output unit 250 outputs the detected object 810 output by voice when it is not the desired object 820 desired by the user and the input unit 240 accepts the second instruction operation s2 (re-instruction operation). ), the presence of the desired object 820 in the upload target image 800, the absence of the desired object 820, or the presence or absence of the desired object 820 is output by voice. Specifically, if the content of the desired target information 1000 received by the communication unit 260 from the server device 300 is "desired target 820 is present", the output unit 250 outputs "... (desired target The object 820) was photographed.” or the like is output.
  • the output unit 250 outputs "the desired object 820 could not be photographed (or could not be detected)" based on the result. ” or the like is output.
  • the content of the desired object information 1000 is "there is one desired object 820, but no , ⁇ (another desired object 820) could not be photographed.” and the like are output.
  • the communication unit 260 transmits the upload target image 800 extracted by the extraction unit 2222 to the server device 300 and receives detection target information 900 from the server device 300 . Further, when the input unit 240 receives the second instruction operation s2, the communication unit 260 transmits the information of the second instruction operation s2 to the server device 300 and receives the desired target information 1000 from the server device 300.
  • FIG. 1 A block diagram illustrating an exemplary computing environment in accordance with the server device 300.
  • the server device 300 includes a control unit 310, a storage unit 320, and a communication unit 330, as shown in FIG.
  • the control unit 310 is composed of, for example, a CPU (Central Processing Unit).
  • the storage unit 320 is composed of a hard disk and memory.
  • the communication unit 330 is composed of a communication device for transmitting and receiving information to and from another device.
  • the control unit 310 is a part that performs processing for operating the information processing apparatus 100 , and includes a detection target setting unit 311 , a determination unit 312 , and a re-determination unit 313 .
  • the detection target setting unit 311 is a part that sets the detection target object 810 based on the above-described trigger and the basic information 500 related to the upload target image 800. and have.
  • the photographed object identification unit 3111 analyzes the upload target image 800 and identifies the photographed object within the upload target image 800 .
  • a known technique can be used for this identification, and detailed description thereof will be omitted. may be used to identify the photographed object.
  • the scene specifying unit 3112 refers to the trigger information given to the upload target image 800 and the basic information 500 to specify the situation in which the upload target image 800 was captured, and classify the upload target image 800 into categories. As shown in FIG. 4, this category includes, for example, the following four categories.
  • the first category A is a category for manual shooting of shooting points. This first category A indicates that the image related to the upload target image 800 was shot mainly in the vicinity of famous sightseeing spots or shooting spots.
  • the trigger related to the upload target image 800 is the user's first instruction operation s1
  • the position information of the vehicle related to the upload target image 800 is POI (Point Of Interest) recorded in the storage unit 320 Interest (target object)) Classified when any POI in the database 1200 indicates the vicinity of the location information.
  • POI Point Of Interest
  • the second category B is for emergency manual photography. This second category B indicates that an image related to the upload target image 800 was manually captured by the user in an emergency, such as when the user witnessed an accident other than the own vehicle.
  • the second category B includes, for example, the POI database 1200 in which the trigger related to the upload target image 800 is the user's first instruction operation s1, and the position information of the vehicle related to the upload target image 800 is recorded in the storage unit 320. It is classified when none of the POIs indicates the vicinity of the position information indicated by the POI and the vehicle acceleration information related to the upload target image 800 does not change by exceeding a predetermined threshold.
  • the third category C is the category of automatic photography while driving.
  • the third category C indicates that the image 800 to be uploaded was automatically captured during an emergency while the vehicle is traveling, such as when an accident occurs in the own vehicle while the vehicle is traveling.
  • the trigger related to the upload target image 800 is a sudden change in the acceleration information of the vehicle that exceeds a predetermined threshold, and the vehicle is traveling from the content of the basic information 500. It is classified when it is known that
  • the fourth category D is the category for automatic photography when the vehicle is parked or stopped.
  • This fourth category D indicates that the image 800 to be uploaded is automatically captured in an emergency while the vehicle is parked or stopped, such as when the vehicle is hit by a mischief while the vehicle is parked or stopped. show.
  • the trigger related to the upload target image 800 is that the vehicle acceleration information has changed abruptly beyond a predetermined threshold, and the vehicle is parked from the contents of the basic information 500. Or it is classified when it is known that the vehicle was stopped.
  • the determination unit 3113 determines the detection object 810 from the upload target image 800 with reference to the categories classified by the scene identification unit 3112 .
  • the category of the image to be uploaded 800 is the first category A
  • it is determined that the object that the user is expected to photograph is an object existing in a famous sightseeing spot or a photographing spot, and stored.
  • Any POI in the POI database 1200 recorded in the unit 320 is determined as the detection object 810 .
  • the category of the upload target image 800 is the second category B, it is determined that the object expected to be photographed by the user is an object related to an accident other than the own vehicle.
  • a license plate of a vehicle, a person, an animal other than a person, a traffic light, a road sign, a road sign, etc. are determined as detection objects 810 .
  • the category of the upload target image 800 is the third category C
  • it is determined that the object that the user is expected to photograph is the object involved in the accident while the own vehicle is running, and A vehicle, a vehicle license plate, a person, an animal other than a person, a traffic light, a road sign, a road sign, and the like are determined as detection objects 810 .
  • the category of the upload target image 800 is the fourth category D
  • the object that the user expects to photograph is an object that exists in the vicinity of the own vehicle.
  • a person, an animal other than a person, a vehicle other than the own vehicle, a license plate of the vehicle, or the like is determined as the detection object 810 .
  • the detection object 810 is another vehicle that is moving when the vibration is detected, or another vehicle that opens and closes the door. It may be excluded as object 810 .
  • the determination unit 312 determines the presence or absence of the detection target object 810 determined by the determination unit 3113 from the upload target image 800, and transmits the result as the detection target information 900 from the server device 300 to the terminal device 200 via the communication unit 330.
  • the detection target information 900 simply indicates the presence or absence of the detection target 810, such as “detection target 810 present”, “detection target 810 absent”, “one detection target 810 present, other detection target 810 absent”, and the like. or any one of the above first category A to fourth category D may be assigned. Moreover, the number of detection targets 810 may be included.
  • the re-determination unit 313 determines whether or not the desired object 820 related to the second instruction operation s2 is included in the upload target image 800. Then, the result is transmitted from the server device 300 to the terminal device 200 via the communication unit 330 as the desired target information 1000 .
  • the desired object information 1000 simply indicates the presence or absence of the desired object 820, for example, "desired object 820 present", “desired object 820 absent", "one desired object 820 present, other desired object 820 absent", etc. or any one of the above first category A to fourth category D may be assigned. Also, the number of desired objects 820 may be included.
  • the storage unit 320 stores the upload target image 800 transmitted from the terminal device 200 .
  • the storage unit 320 also stores the image database 1100 and the POI database 1200 described above.
  • the communication unit 330 receives the upload target image 800 from the communication unit 260 of the terminal device 200 and transmits the detection target information 900 generated by the determination unit 312 to the terminal device 200 .
  • the communication unit 330 also receives the information of the second instruction operation s2 from the communication unit 260 of the terminal device 200 and transmits the desired target information 1000 generated by the re-determination unit 313 to the terminal device 200 .
  • An information processing program can be obtained by constructing the flowcharts of FIGS. 5 and 6 as a program executed by a computer having a CPU or the like. Also, this information processing program may be stored in a computer-readable storage medium.
  • the imaging unit 210 starts continuous imaging and saves the obtained image data 400 in the storage unit 230 .
  • the information collection unit 221 acquires basic information 500 from a GPS (Global Positioning System) receiver, various sensors such as a gyro sensor, an acceleration sensor, or an external device that transmits weather information and traffic information.
  • the acquired basic information 500 is stored in the storage unit 230 for each hour (step S100).
  • This step S100 is a step corresponding to the information gathering process and the imaging process in the above-described embodiment.
  • the evaluation target image setting unit 222 monitors the storage unit 230 and the input unit 240 using the trigger detection unit 2221, and determines whether or not a trigger is detected (step S200).
  • the trigger is either “that the basic information 500 satisfies a predetermined condition” or “that the input unit 240 receives the first instruction operation s1 (instruction operation)”.
  • Various conditions may be set as the predetermined condition at this time according to the user's wishes, such as "vehicle acceleration information has changed rapidly beyond a predetermined threshold".
  • the first instruction operation s1 is performed by the user's voice, and is a simple operation that does not specify the target to be detected in detail, such as "take a picture", “start shooting", or "leave an image”. Well, the utterance need not include the detection object 810 .
  • step S200 determines whether the determination result in step S200 is YES. If the determination result in step S200 is YES, the process proceeds to step S300, and if NO, the process returns to step S100.
  • step S300 the extracting unit 2222 of the evaluation target image setting unit 222 extracts the image data for a predetermined time period including the detection of the trigger from the image data 400 temporarily stored in the storage unit 230 as the upload target image 800. , and extracted from the image data 400 .
  • the time of the image to be uploaded 800 may be dynamically changed according to the type of trigger detected by the trigger detection unit 2221, or set to be constant regardless of the type of trigger. good too.
  • Step S400 the information of the trigger detected by the trigger detection unit 2221 and the basic information 500 corresponding to the time of the upload target image 800 are added.
  • Step S400 Steps S200 to S400 described above correspond to the evaluation target image setting process in the above-described embodiment.
  • step S400 ends the process proceeds to step S500.
  • step S500 a detection target 810 is set in the server device 300, and it is determined whether or not the detection target 810 is in the upload target image 800.
  • step S500 as shown in detail in FIG. Identify an object (step S501).
  • the scene identification unit 3112 refers to the trigger information given to the upload target image 800 and the basic information 500 to identify the circumstances in which the upload target image 800 was captured, and classify the upload target image 800 into categories (step S502). ).
  • the upload target image 800 is classified into a first category A, a second category B, a third category C, and a fourth category D according to the contents of the trigger and the basic information 500.
  • the trigger related to the upload target image 800 is the user's first instruction operation s1
  • the position information of the vehicle related to the upload target image 800 is a POI (Point Of Interest) recorded in the storage unit 320.
  • the upload target image 800 is classified into the first category A if it indicates the vicinity of the location information of any POI in the database 1200 .
  • the trigger related to the upload target image 800 is the user's first instruction operation s1
  • the position information of the vehicle related to the upload target image 800 is one of the POI databases 1200 recorded in the storage unit 320. If the POI does not indicate the vicinity of the location information indicated and the vehicle acceleration information related to the upload target image 800 does not change beyond a predetermined threshold, the upload target image 800 is classified into the second category. It is classified as B.
  • the trigger related to the upload target image 800 is that the information on the acceleration of the vehicle has changed abruptly exceeding a predetermined threshold, and the content of the basic information 500 indicates that the vehicle was running. If so, the upload target image 800 is classified into the third category C.
  • the trigger related to the upload target image 800 is that the information on the acceleration of the vehicle has changed abruptly exceeding a predetermined threshold, and from the content of the basic information 500, the vehicle is parked or stopped. If so, the upload target image 800 is classified into the fourth category D.
  • the determination unit 3113 determines the detection target object 810 according to the category (step S503).
  • the determining unit 3113 determines that the object that the user is expected to want to shoot is an object that exists in a famous sightseeing spot or a shooting spot.
  • one of the POI databases 1200 recorded in the storage unit 320 is determined as the detection object 810 .
  • the determining unit 3113 determines that the object expected to be photographed by the user is an object related to the accident other than the own vehicle.
  • Other vehicles, license plates of vehicles, humans, animals other than humans, traffic lights, road signs, road signs, etc. are determined as detection targets 810 .
  • the determining unit 3113 determines that the object that the user is expected to desire to be photographed is the object related to the accident while the own vehicle is traveling, A vehicle other than the own vehicle, a license plate of the vehicle, a person, an animal other than a person, a traffic light, a road sign, a road sign, etc. are determined as the detection object 810 .
  • the determination unit 3113 determines that the object that the user is expected to want to shoot is the object that exists in the vicinity of the own vehicle.
  • a person, an animal other than a person, a vehicle other than the own vehicle, a license plate of the vehicle, or the like existing in the vicinity of the vehicle is determined as the detection object 810 .
  • the steps S501 to S503 described above correspond to the detection target setting process in the above embodiment.
  • the determination unit 312 determines whether or not the detection target object 810 exists in the upload target image 800 (step S504). is transmitted from the server device 300 to the terminal device 200 via the server device 300 (step S505).
  • the content of the detection target information 900 is simply the detection target 810, such as "detection target 810 present", “detection target 810 absent", “one detection target 810 present, other detection target 810 absent", and the like. It may be information about the existence of the detection object 810, the absence of the detection object 810, or the presence or absence of the detection object 810, or any of the above-described first category A to fourth category D. There may be, or the number of detection targets 810 may be included. This completes step S500. Then, the process proceeds to step S600.
  • Step S600 is a step corresponding to the output process in the above embodiment.
  • the communication section 260 receives the detection target information 900, and the output section 250 outputs voice based on the content of the detection target information 900.
  • the output unit 250 outputs a sound such as " ⁇ (the detection target 810) was captured” based on the result. do. Further, if the content of the detection target information 900 is "there is no detection target 810", the output unit 250 outputs a sound such as "the detection target 810 could not be captured” based on the result. In addition, if the content of the detection target information 900 is "there is one detection target 810 and there is no other detection target 810", the output unit 250 outputs "(one detection target 810) could , ⁇ (another detection object 810) could not be photographed.” and the like are output. When the voice output is completed, the process proceeds to step S700.
  • step S700 the second instruction operation s2 is accepted.
  • the communication unit 260 transmits information on the second instruction operation s2 to the server device 300, and the process proceeds to step S800.
  • step S700 ends, and the operation of the information processing apparatus 100 ends.
  • the fact that the second instruction operation s2 has not been accepted may be determined based on a condition such as a predetermined reception time having passed without any input being made to the input unit 240. 250 may output a voice such as "Do you have any other instructions?" .
  • step S800 the server apparatus 300 that has received the second instruction operation s2 determines whether or not the desired target object 820 related to the second instruction operation s2 exists in the upload target image 800 in the re-determining unit 313, and the result is requested. It is transmitted to the terminal device 200 as the target information 1000 .
  • the desired object information 1000 simply indicates that the desired object 820 is present, such as "desired object 820 present", “desired object 820 absent", "one desired object 820 present, other desired object 820 absent", and the like. information about the existence of the desired object 820, the absence of the desired object 820, or the presence or absence of the desired object 820; Alternatively, it may include the number of desired objects 820 .
  • the output unit 250 When the terminal device 200 receives the desired target information 1000, the output unit 250 outputs voice based on the content of the desired target information 1000 (step S900).
  • the output unit 250 outputs a sound such as “ ⁇ (desired object 820) was captured” based on the result. do. Further, if the content of the desired object information 1000 is "no desired object 820", the output unit 250 outputs a voice such as "the desired object 820 could not be photographed” based on the result. In addition, if the content of the desired object information 1000 is "there is one desired object 820, but no , ⁇ (another desired object 820) could not be photographed.” and the like are output. Thereby, the operation of the information processing apparatus 100 is completed.
  • the detection target object 810 is set based on the trigger related to the upload target image 800 and the basic information 500. Therefore, the user of the information processing apparatus 100 sets the detection target object 810 in advance in detail. Time and effort for setting can be reduced. Since the presence of the detection target 810, the absence of the detection target 810, or the presence or absence of the detection target 810 is notified by the output unit 250, the driver cannot obtain the detection target 810. It is possible to confirm in real time whether the detection target 810 was not acquired, or whether the detection target 810 was acquired. Therefore, when the basic information 500 satisfies a predetermined condition or when the first instruction operation s1 is accepted, the detection target 810 is set according to various shooting conditions, and the detection target 810 is captured.
  • the processing cost of the information processing apparatus 100 is reduced by selectively setting the detection target 810 . Furthermore, by selectively announcing the detection target 810 in voice output to the user, it is possible to appropriately select and inform the necessary information without making the user feel annoyed.
  • the output unit 250 may be configured with a speaker (audio output device). In either case, the audio is output.
  • the driver stops driving or takes his attention away from driving to confirm the image. Whether or not the image of the detection object 810 has been acquired can be confirmed in real time without doing so.
  • the output unit 250 can be configured with a speaker, the present invention can be applied to a terminal that does not have an image display function.
  • the detection target 810 can be set on the server device 300 side, the load on the terminal device 200 side can be reduced.
  • the first instruction operation s1 that triggers the setting of the upload target image 800 can be performed by the user's utterance, and the utterance does not need to include the detection target 810. Therefore, for example, the user can , "Take a picture," etc., and the trouble of setting the detection object 810 in detail can be reduced.
  • various shooting situations can be used as triggers for setting the upload target image 800, and various detection targets 810 can be set from the upload target image 800 according to the shooting situation.
  • an upload target image 800 is set using acceleration information as a trigger, and among the upload target images 800, vehicles other than vehicles (in this case, vehicles that may have caused sudden braking), It can be said that the license plate of the vehicle is set as the object 810 to be detected.
  • the user who has received the notification from the output unit can be notified again about the presence or absence of the desired object 820 if the information on the desired object 820 is not included in the content. Therefore, even if the setting of the detection target object 810 by the detection target setting unit 311 is different from the user's desire, it is possible to reliably confirm the presence or absence of the desired target object 820 .
  • an information collection section 314 is provided in the control section 310 of the server device 300 .
  • This information collection unit 314 corresponds to the information collection unit 221 in the first embodiment. That is, in the second embodiment, unlike the first embodiment, the information collection unit 314 is implemented in the server device 300, and the basic information 500 is stored in the storage unit 320 on the server device 300 side.
  • the operation (information processing method) of the information processing apparatus 100 having this configuration will be described.
  • the operation of the information processing apparatus 100 of the present embodiment is partially different from that of the first embodiment in the apparatus in which the processing is performed, but the operation flow (steps) is the same as that of the first embodiment. Please refer to it for explanation.
  • the imaging unit 210 starts continuous imaging and saves the obtained image data 400 in the storage unit 230 .
  • the information collection unit 314 of the server device 300 accesses the terminal device 200 and transmits various sensors such as a GPS (Global Positioning System) receiver, a gyro sensor, an acceleration sensor, or weather information and traffic information.
  • the acquisition of the basic information 500 is started from an external device or the like, and the acquired basic information 500 is stored in the storage unit 320 for each hour (step S100).
  • This step S100 is a step corresponding to the information gathering process and the imaging process in the above-described embodiment.
  • the evaluation target image setting unit 222 monitors the storage unit 320 of the server device 300 and the input unit 240 of the terminal device 200 by the trigger detection unit 2221, and determines whether or not the trigger is detected (step S200). .
  • the contents of the trigger are as described above. And if the result of step S200 determination is YES, it will progress to step S300, and if it is NO, it will return to step S100.
  • step S300 the extracting unit 2222 of the evaluation target image setting unit 222 extracts the image data for a predetermined time period including the detection of the trigger from the image data 400 temporarily stored in the storage unit 230 as the upload target image 800. , and extracted from the image data 400 .
  • Step S400 the information of the trigger detected by the trigger detection unit 2221 and the basic information 500 corresponding to the time of the upload target image 800 are added.
  • Step S400 Steps S200 to S400 described above correspond to the evaluation target image setting process in the above-described embodiment.
  • step S400 ends the process proceeds to step S500.
  • step S500 a detection target 810 is set, and it is determined whether or not the detection target 810 is in the upload target image 800.
  • the photographed object identification unit 3111 analyzes the upload target image 800 using a method such as known pattern matching, and identifies the photographed object within the upload target image 800 .
  • the scene identifying unit 3112 refers to the trigger information given to the upload target image 800 and the basic information 500 to identify the situation in which the upload target image 800 was captured, and classify the upload target image 800 into categories. This category is the same as the first category A, second category B, third category C, and fourth category D of the first embodiment.
  • the determination unit 3113 determines the detection target object 810 according to the category.
  • the determination unit 312 determines whether or not the detection target object 810 exists in the upload target image 800 . to the terminal device 200.
  • the contents of the detection target information 900 are the same as in the first embodiment. This completes step S500. Then, the process proceeds to step S600.
  • Step S600 is a step corresponding to the output process in the above embodiment.
  • the communication section 260 receives the detection target information 900, and the output section 250 outputs voice based on the content of the detection target information 900.
  • FIG. The content of the voice output is the same as in the first embodiment.
  • step S700 the second instruction operation s2 is accepted.
  • step S700 if the input unit 240 accepts the second instruction operation s2 (in the case of YES), the process proceeds to step S800. If the input unit 240 does not accept the second instruction operation s2 (NO), step S700 ends, and the operation of the information processing apparatus 100 ends.
  • step S800 the re-determining unit 313 detects that the input unit 240 has received the second instruction operation s2, and determines whether or not the desired object 820 related to the second instruction operation s2 exists in the upload target image 800. , the result is transmitted to the terminal device 200 as the desired target information 1000 .
  • the contents of the desired target information 1000 are the same as in the first embodiment.
  • the output unit 250 When the terminal device 200 receives the desired target information 1000, the output unit 250 outputs audio based on the content of the desired target information 1000 (step S900).
  • the content of the voice output is the same as in the first embodiment. Thereby, the operation of the information processing apparatus 100 is completed.
  • the load on the terminal device 200 side can be reduced.
  • the information processing apparatus 100 omits the server device 300 described above, and implements the configuration of the control unit 310 of the server device 300 in the control unit 220 of the terminal device 200 . Also, the configuration provided in the storage unit 320 of the server device 300 is implemented in the storage unit 230 of the terminal device 200 . That is, the terminal device 200 configures the information processing device 100 without the server device 300 .
  • the control unit 220 includes a detection target setting unit 223, a determination unit 224, and a re-determination unit 225 in addition to the configuration of the first embodiment.
  • the detection target setting unit 223 corresponds to the detection target setting unit 311 in the server device 300 .
  • the detection target setting unit 223 includes a photographed object specifying unit 3111, a scene specifying unit 3112, and a determining unit 3113, which are not shown, as in the first embodiment.
  • the determination unit 224 corresponds to the determination unit 312 in the server device 300 .
  • the re-determination unit 225 corresponds to the re-determination unit 313 in the server device 300 . Since the configurations and operations of the detection target setting unit 223, the determination unit 224, and the re-determination unit 225 are substantially the same as those in the first embodiment, detailed description thereof will be omitted.
  • the storage unit 230 stores an image database 1100 and a POI database 1200 in addition to the configuration of the first embodiment.
  • This image database 1100 and POI database 1200 are substantially the same as those stored in the storage unit 320 of the server device 300 in the first embodiment.
  • the information collecting unit 221, the photographing unit 210, the evaluation target image setting unit 222, the detection target setting unit 223, and the output unit 250 are provided in the terminal device 200 that moves with the mobile object.
  • the extraction unit 2222 extracts the trigger from the image data 400 temporarily stored in the storage unit 230.
  • Image data for a predetermined time period including the time of detection is set as an upload target image 800 as an evaluation target image, and extracted from the image data 400 .
  • the extraction unit 2222 extracts the image data 400 temporarily stored in the storage unit 230 for a predetermined time.
  • 1300 is set as a recording image 1300 that cannot be overwritten, and is extracted from the image data 400 . In this example, this recorded image 1300 constitutes the evaluation target image in the above-described embodiment.
  • the operation of the information processing apparatus 100 of the present embodiment is partially different from that of the first embodiment in the apparatus in which the processing is performed, but the operation flow (steps) is the same as that of the first embodiment. Please refer to it for explanation.
  • steps S100 to S200 are the same as in the first embodiment, description thereof will be omitted.
  • step S300 the extracting unit 2222 of the evaluation target image setting unit 222 extracts the image data for a predetermined time including the trigger detection time from the image data 400 temporarily stored in the storage unit 230 as a recorded image that cannot be overwritten. Set to 1300 and extract from image data 400 .
  • step S400 the information of the trigger detected by the trigger detection unit 2221 and the basic information 500 corresponding to the time of the recorded image 1300 are added.
  • Steps S200 to S400 described above correspond to the evaluation target image setting process in the above-described embodiment.
  • step S400 ends the process proceeds to step S500.
  • step S500 a detection target 810 is set, and it is determined whether or not the detection target 810 is in the recorded image 1300.
  • the photographed object identification unit 3111 analyzes the recorded image 1300 using a method such as known pattern matching, and identifies the photographed object within the recorded image 1300 .
  • the scene identification unit 3112 refers to the trigger information given to the recorded image 1300 and the basic information 500 to identify the situation in which the recorded image 1300 was shot, and classify the recorded image 1300 into categories. This category is the same as the first category A, second category B, third category C, and fourth category D of the first embodiment.
  • the determination unit 3113 determines the detection target 810 according to the category.
  • the determination unit 224 determines the presence or absence of the detection target 810 in the recorded image 1300 and stores the result in the storage unit 230 as the detection target information 900 .
  • the contents of the detection target information 900 are the same as in the first embodiment. This completes step S500. Then, the process proceeds to step S600.
  • Step S600 is a step corresponding to the output process in the above embodiment.
  • the output section 250 outputs audio based on the content of the detection target information 900 stored in the storage section 230 .
  • the content of the voice output is the same as in the first embodiment.
  • step S700 the second instruction operation s2 is accepted.
  • step S700 if the input unit 240 accepts the second instruction operation s2 (in the case of YES), the process proceeds to step S800. If the input unit 240 does not accept the second instruction operation s2 (NO), step S700 ends, and the operation of the information processing apparatus 100 ends.
  • step S800 the re-determining unit 225 detects that the input unit 240 has received the second instruction operation s2, determines the presence or absence of the desired object 820 related to the second instruction operation s2 from the recorded image 1300, The result is stored in the storage unit 230 as the desired target information 1000 .
  • the contents of the desired target information 1000 are the same as in the first embodiment.
  • the output unit 250 When the desired target information 1000 is stored in the storage unit 230, the output unit 250 outputs audio based on the content of the desired target information 1000 (step S900).
  • the content of the voice output is the same as in the first embodiment. Thereby, the operation of the information processing apparatus 100 is completed.
  • the information processing device 100 can be configured by the terminal device 200 without the server device 300 or the like.
  • the output unit 250 is configured by an audio output device such as a speaker. Not limited.
  • the output unit 250 may cause an external device other than the terminal device 200 to output text.
  • the external device may be a smartphone of a user who wishes to monitor the parked vehicle, and when a trigger is detected, the detection target information 900 and the desired target information 1000 such as those output by the output unit 250 described above may be displayed.
  • the content may be configured to be displayed as a notification text on a smartphone as an external device.
  • an external device other than the terminal device 200 may be a server device of an insurance company with which a vehicle corresponding to the terminal device 200 contracts, or an administrator (for example, an administrator of a delivery vehicle) who manages a vehicle corresponding to the terminal device 200.
  • server devices may be used as output units, and the contents of the detection target information 900 and the desired target information 1000 may be displayed as notification texts.
  • the detection target 810 may be further limited using the position information at the time of image capturing. Specifically, based on the position information of the vehicle at the time of detection of the trigger and the information of the POI database 1200 recorded in the storage unit 320, it is possible to determine that there is no crosswalk or traffic light around the position of the vehicle. , pedestrian crossings and traffic lights may be excluded as detection objects 810 . As a result, it is possible to avoid the troublesome situation of intentionally reporting "no" even though it is known in advance that there is no such information, and avoid unnecessary reporting by the output unit 250.
  • the pedestrian crossing or The signal may always be determined as the detected object 810 .
  • the user can reliably recognize that "the image should have been captured but could not be captured successfully”.
  • the configuration is such that "the image of the time before the time just before the detection of the trigger is set again as the image to be evaluated”. Then, the presence or absence of the license plate is determined for the image to be evaluated that has been set again. As a result, it is possible to increase the possibility of obtaining license plate information of other vehicles that could not be captured due to the angle of view of the camera or the like.
  • the width A specific vehicle and its license plate that is performing an action considered to be tailgating, such as pulling closer or meandering, may be determined as the detection object 810 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Operations Research (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

様々な撮影状況に応じて検出対象を設定し、その検出対象が撮影できたことをリアルタイムに確認する。 情報処理装置は、情報収集部で移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する。そして、撮影部で、連続的に撮影を行う。そして、評価対象画像設定部で基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する。そして、検出対象設定部が、評価対象画像に係るトリガ及び基礎情報に基づいて検出対象物を設定する。そして、出力部が、評価対象画像の中から設定された検出対象物が有ったことについて報知する。

Description

情報処理装置
 本発明は、情報処理装置に関する。
 車両に搭載されたカメラと、カメラにより撮影された画像を記録する記録手段と、を備えたドライブレコーダーが知られている(例えば、特許文献1参照)
 特許文献1には、画像に所定の対象が撮影されているか否かを判定する判定手段と、判定手段により所定の対象が撮影されていると判定されると所定の対象が撮影された画像をサーバ装置に送信する送信手段と、を備えたドライブレコーダーが記載されている。
特開2021-002163号公報
 特許文献1に記載されているようなドライブレコーダーにおいては、例えば、路面のひび割れや凍結等、映像に残すことをユーザが希望して実際に撮影できたか否かを判定する判定対象を、ユーザが予め詳細に設定しておく必要がある。このため、変化する様々な撮影状況に応じて判定対象を設定しようとすると、あらゆる状況を想定しなければならず、予め判定対象を設定することが難しい場合がある。したがって、様々な撮影状況に応じて検出対象を設定することが難しく、撮影状況に応じた検出対象が撮影できたことをリアルタイムに確認することが難しい。
 本発明が解決しようとする課題としては、様々な撮影状況に応じて検出対象を設定し、その検出対象が撮影できたことをリアルタイムに確認することが一例として挙げられる。
 上記課題を解決するために、請求項1に記載の発明は、移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する情報収集部と、連続的に撮影を行う撮影部と、前記基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、前記撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する評価対象画像設定部と、前記評価対象画像に係る前記トリガ及び前記基礎情報に基づいて検出対象物を設定する検出対象設定部と、前記評価対象画像の中から設定された前記検出対象物が有ったことについて報知する出力部と、を備えることを特徴としている。
 請求項2に記載の発明は、移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する情報収集部と、連続的に撮影を行う撮影部と、前記基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、前記撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する評価対象画像設定部と、前記評価対象画像に係る前記トリガ及び前記基礎情報に基づいて検出対象物を設定する検出対象設定部と、前記評価対象画像の中から設定された前記検出対象物が無かったことについて報知する出力部と、を備えることを特徴としている。
 請求項3に記載の発明は、移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する情報収集部と、連続的に撮影を行う撮影部と、前記基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、前記撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する評価対象画像設定部と、前記評価対象画像に係る前記トリガ及び前記基礎情報に基づいて検出対象物を設定する検出対象設定部と、前記評価対象画像の中から設定された前記検出対象物の有無について報知する出力部と、を備えることを特徴としている。
 請求項11に記載の発明は、コンピュータで実行される情報処理方法であって、移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する情報収集工程と、連続的に撮影を行う撮影工程と、前記基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、前記撮影工程で撮影した画像の中から所定時間分の画像を、評価対象画像として設定する評価対象画像設定工程と、前記評価対象画像に係る前記トリガ及び前記基礎情報に基づいて検出対象物を設定する検出対象設定工程と、前記評価対象画像の中から設定された前記検出対象物が有ったことについて報知する出力工程と、を備えることを特徴としている。
 請求項12に記載の発明は、請求項11に記載の情報処理方法を、情報処理プログラムとしてコンピュータに実行させることを特徴としている。
 請求項13に記載の発明は、請求項12に記載の情報処理プログラムをコンピュータにより読み取り可能な記憶媒体へ格納したことを特徴としている。
本発明の第1の実施例に係る情報処理装置の概略構成図である。 図1に示された端末装置の構成図である。 図1に示されたサーバ装置の構成図である。 図3に示されたシーン特定部で行われる分類の種類を示す図である。 図1に示された情報処理装置の動作のフローチャートである。 図5に示されたステップS500の詳細な動作を示すフローチャートである。 本発明の第2の実施例に係る情報処理装置の概略構成図である。 本発明の第3の実施例に係る情報処理装置の概略構成図である。
 以下、本発明の一実施形態に係る情報処理装置を説明する。本発明の一実施形態に係る情報処理装置は、情報収集部が、移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する。そして、撮影部が、連続的に撮影を行う。そして、評価対象画像設定部が、基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する。そして、検出対象設定部が、評価対象画像に係るトリガ及び基礎情報に基づいて検出対象物を設定する。そして、出力部が、評価対象画像の中から設定された検出対象物が有ったことについて報知する。このようにすることにより、検出対象物の設定は、評価対象画像に係るトリガ及び基礎情報に基づいてなされるので、情報処理装置のユーザが、予め検出対象物を詳細に設定するための手間を削減することができる。そして、検出対象物が有ったことは出力部により報知されることから、ドライバーは、検出対象物の画像が取得できたことをリアルタイムに確認することができる。したがって、基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合等、様々な撮影状況に応じて検出対象物を設定し、その検出対象物が撮影できたことをリアルタイムに確認することができる。
 また、本発明の一実施形態に係る情報処理装置は、情報収集部が、移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する。そして、撮影部が、連続的に撮影を行う。そして、評価対象画像設定部が、基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する。そして、検出対象設定部が、評価対象画像に係るトリガ及び基礎情報に基づいて検出対象物を設定する。そして、出力部が、評価対象画像の中から設定された検出対象物が無かったことについて報知する。このようにすることにより、検出対象物の設定は、評価対象画像に係るトリガ及び基礎情報に基づいてなされるので、情報処理装置のユーザが、予め検出対象物を詳細に設定するための手間を削減することができる。そして、検出対象物が無かったことは出力部により報知されることから、ドライバーは、検出対象物の画像が取得できなかったことをリアルタイムに確認することができる。したがって、基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合等、様々な撮影状況に応じて検出対象物を設定し、その検出対象物が撮影できなかったことをリアルタイムに確認することができる。また、これにより検出対象物が撮影できなかったことに対する対応を迅速に行うことができる。
 また、本発明の一実施形態に係る情報処理装置は、情報収集部が、移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する。そして、撮影部が、連続的に撮影を行う。そして、評価対象画像設定部が、基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する。そして、検出対象設定部が、評価対象画像に係るトリガ及び基礎情報に基づいて検出対象物を設定する。そして、出力部が、評価対象画像の中から設定された検出対象物の有無について報知する。このようにすることにより、検出対象物の設定は、評価対象画像に係るトリガ及び基礎情報に基づいてなされるので、情報処理装置のユーザが、予め検出対象物を詳細に設定するための手間を削減することができる。そして、検出対象物の有無は出力部により報知されることから、ドライバーは、検出対象物の画像が取得できたか否かをリアルタイムに確認することができる。したがって、基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合等、様々な撮影状況に応じて検出対象物を設定し、その検出対象物が撮影できたか否かをリアルタイムに確認することができる。
 また、出力部は、音声による出力をする音声出力装置で構成されていてもよい。このようにすることにより、検出対象物が有ったこと、検出対象物が無かったこと、及び検出対象物の有無のいずれかは、音声出力されることとなるので、例えば、情報処理装置が画像表示機能を有しているような場合に、ドライバーは運転を中断し、又は運転から注意を逸して画像を確認する等しなくても、検出対象物の画像が取得できたか否かをリアルタイムに確認することができる。また、出力部を音声出力装置で構成できるので、画像表示機能を有さない端末にも、本発明を適用することができる。
 また、情報収集部と、撮影部と、評価対象画像設定部と、出力部とは、移動体とともに移動する端末装置に設けられていてもよい。そして、検出対象設定部は、端末装置と通信可能なサーバ装置に設けられていてもよい。そして、評価対象画像は、サーバ装置へアップロード可能なアップロード対象画像で構成され、アップロード対象画像は、端末装置からサーバ装置に送信され、検出対象物に係る検出対象情報は、サーバ装置から端末装置に送信されてもよい。このようにすることにより、検出対象物の設定をサーバ装置側で行うことができるので、端末装置側の負荷を低減することができる。
 また、撮影部と、評価対象画像設定部と、出力部とは、移動体とともに移動する端末装置に設けられていてもよい。そして、情報収集部と、検出対象設定部とは、端末装置と通信可能なサーバ装置に設けられていてもよい。そして、評価対象画像は、サーバ装置へアップロード可能なアップロード対象画像で構成され、アップロード対象画像は、端末装置からサーバ装置に送信され、検出対象物に係る検出対象情報は、サーバ装置から端末装置に送信されてもよい。このようにすることにより、基礎情報をサーバ装置側で収集することができるので、端末装置側の負荷を低減することができる。
 また、情報収集部と、撮影部と、評価対象画像設定部と、検出対象設定部と、出力部とは、移動体とともに移動する端末装置に設けられていてもよい。また、この場合、評価対象画像は、上書き不能な記録画像で構成されていてもよい。このようにすることにより、サーバ装置等を介さずに端末装置で情報処理装置を構成することができる。
 また、指示操作は、当該指示操作を行う操作者の発声によって行われ、発声には、検出対象物が含まれていなくてもよい。このようにすることにより、操作者の発声によって、評価対象画像の設定のトリガとなる指示操作を行うことができる。そして、この発声には、検出対象物が含まれていなくてよいので、例えば、操作者は、「撮影して」などとシンプルな発声をするだけでよく、検出対象物を詳細に設定する手間を削減することができる。
 また、走行情報は、移動体の加速度の情報、移動体の位置情報、移動体の進行方向の情報、及び移動体の駐車又は停車の情報のうち少なくとも1つを含んでいてよい。そして、周辺情報は、時間の情報、天候の情報、及び渋滞の状況の情報のうち少なくとも1つを含んでいてよい。また、検出対象物は、移動体以外の移動体、ナンバープレート、人、人以外の動物、信号機、道路標識、路面標識、及び予め定められたランドマークのうち少なくとも1つを含んでいてよい。このようにすることにより、様々な撮影状況を評価対象画像の設定のトリガとし、評価対象画像の中から撮影状況に応じた様々な検出対象物を設定することができる。このため、例えば、移動体が急制動を検知した場合に、その加速度の情報をトリガとして評価対象画像を設定し、その評価対象画像の中から移動体以外の移動体(この場合、急制動の原因となった可能性のある移動体)や、その移動体のナンバープレートを、検出対象物として設定する、などということができる。
 また、出力部は、出力される検出対象物が、指示操作を行う操作者の希望する希望対象物でなかった場合であって、操作者から再指示操作があった場合、評価対象画像の中から、希望対象物が有ったこと、希望対象物が無かったこと、及び希望対象物の有無のいずれかについて通知してもよい。このようにすることにより、出力部による報知を受けた操作者は希望対象物の有無について再通知を受けることができるので、検出対象設定部による検出対象物の設定が操作者の希望と異なった場合にも、確実に希望対象物の有無について確認することができる。
 また、本発明の一実施形態に係る情報処理方法は、コンピュータで実行される情報処理方法である。情報処理方法は、情報収集工程で、移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する。そして、撮影工程で、連続的に撮影を行う。そして、評価対象画像設定工程で、基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、撮影工程で撮影した画像の中から所定時間分の画像を、評価対象画像として設定する。そして、検出対象設定工程で、評価対象画像に係るトリガ及び基礎情報に基づいて検出対象物を設定する。そして、出力工程で、評価対象画像の中から設定された検出対象物が有ったことについて報知する。このようにすることにより、基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合等、様々な撮影状況に応じて検出対象物を設定し、その検出対象物が撮影できたことをリアルタイムに確認することができる。
 また、上述した情報処理方法を、情報処理プログラムとしてコンピュータにより実行させてもよい。このようにすることにより、コンピュータを用いて基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合等、様々な撮影状況に応じて検出対象物を設定し、その検出対象物が撮影できたことをリアルタイムに確認することができる。
 また、上述した情報処理プログラムを、コンピュータにより読み取り可能な記憶媒体に格納してもよい。このようにすることにより、情報処理プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行うことができる。
 図1は、本実施形態の第1の実施例に係る情報処理装置100の概略構成図である。情報処理装置100は、端末装置200と、サーバ装置300と、を備えている。端末装置200は、例えば車両(移動体)とともに移動する装置(例えば、ドライブレコーダ)や人が携帯する装置(例えば、スマートフォン)である。サーバ装置300は、例えば、端末装置200から得られる情報を管理する管理者が所有する装置であり、端末装置200と通信可能に設けられている。
 端末装置200は、図2に示すように、撮影部210と、制御部220と、記憶部230と、入力部240と、出力部250と、通信部260と、を備えている。
 撮影部210は、例えば、車外撮影カメラ(前方に限らず、側面、バックカメラが含まれてもよい)、車内撮影カメラ等で構成されている。制御部220は、例えば、CPU(Central Processing Unit)等で構成されている。記憶部230は、ハードディスクやメモリ等で構成されている。入力部240は、例えば、マイクロフォン、入力ボタン等の装置で構成されている。出力部250は、例えばスピーカ(音声による出力を行う音声出力装置)等の装置で構成されている。通信部260は、他の装置との間で情報の送受信を行うための通信装置で構成されている。
 撮影部210は、端末装置200と一体又は別体に設けられ、連続的に撮影を行うことで車両内外の画像データ400(画像)を取得し、リングバッファ形式で記憶部230に一時的に保存する。
 制御部220は、情報処理装置100を動作させるための処理を行う部分であり、情報収集部221と、評価対象画像設定部222と、を備えている。
 情報収集部221は、基礎情報500を収集する処理を行う。基礎情報500とは、撮影部210が撮影した際の状況を推測するのに必要な情報であり、移動体の走行情報600及び移動体の周辺情報700を含んでいる。走行情報600は、例えば、車両の加速度の情報、車両の位置情報、車両の進行方向の情報、及び車両の駐車又は停車の情報、のうち少なくとも1つを含んでいる。周辺情報700は、例えば、日時など時間の情報、天候の情報、及び渋滞の状況の情報、のうち少なくとも1つを含んでいる。また、周辺情報700は、自車両周辺の車両についての、あおり運転の情報を含んでいてもよい。
 情報収集部221は、基礎情報500を、例えばGPS(Global Positioning System)受信機や、ジャイロセンサ、加速度センサ等の各種センサ、又は気象情報や交通情報を発信する外部装置等からリアルアイムに取得し、記憶部230に保存する。
 評価対象画像設定部222は、基礎情報500が所定の条件を満たした場合又は入力部240が第1指示操作s1(指示操作)を受け付けた場合のいずれかをトリガとして、撮影部210が撮影した画像データ400の中からトリガの検出時を含む所定時間分の画像データを、アップロード対象画像800(評価対象画像)として設定する。この評価対象画像設定部222は、トリガ検出部2221と、抽出部2222と、を備えている。
 トリガ検出部2221は、上述のジャイロセンサ、加速度センサ等の各種センサや、記憶部230、又はサーバ装置300の記憶部320を監視して、基礎情報500が所定の条件を満たしたことを検出する。所定の条件としては、例えば「車両の加速度の情報が予め定めた閾値を超えて急激に変化した」という条件等が挙げられる。この条件は、例えば、車両が急加速、急減速、又は急停車した、又は車両が他の車両と接触した、駐停車中の車両が悪戯されるなどして当該車両に衝撃が加わった等で満たされる。
 なお、この所定の条件は、あくまでも例の1つであり、ユーザの希望に応じて柔軟に変更することができる。例えば、「車両が有名な観光スポットや交通事故多発地点といった特定の地点の近傍に到達したこと」を所定の条件としてもよいし、「天候が急変したこと」、「他車両のあおり運転挙動を検出したこと」等を所定の条件としてもよい。
 トリガ検出部2221は、基礎情報500が、予め設定した上述のような条件を満たしたことを検出する。また、トリガ検出部2221は、入力部240が第1指示操作s1(指示操作)を受け付けたことを検出する。第1指示操作s1とは、情報処理装置100のユーザ(操作者)が行う操作のことをいい、本実施例では主にユーザの発声によって行われる操作のことをいう。この第1指示操作s1は、例えば「撮影して」、「撮影開始」、「映像残して」など、検出してほしい対象を予め詳細に特定しないシンプルなものであってよい。すなわち、発声には、後述の検出対象設定部311で設定された検出対象物810が含まれていなくてよい。また、第1指示操作s1は、音声による入力に限定されず、例えば、入力ボタンによる操作であってもよい。
 検出対象物810とは、情報処理装置100のユーザが撮影を希望すると予想される対象物のことをいい、例えば、本実施例における端末装置200を備えた車両以外の移動体、車両のナンバープレート、人、人以外の動物、信号機、道路標識、路面標識、及び有名な観光スポットや撮影スポット等の予め定められたランドマークなどが挙げられる。
 なお、上述の通り、撮影部210は、第1指示操作s1を受けなくても連続的に撮影を行っていることから、ここでいうユーザの「撮影して」、「撮影開始」、「映像残して」等は、第1指示操作s1に係る画像データ400に、上書き禁止処理や、アップロード処理等の処理をすることで、当該画像データ400が新たな画像データ400に上書きされないようにするというユーザの意思を示すものである。
 抽出部2222は、「基礎情報500が所定の条件を満たしたこと」又は「入力部240が第1指示操作s1を受け付けたこと」のいずれかを検出した場合に、記憶部230に一時的に保存されている画像データ400のうちトリガの検出時を含む所定時間分の画像データをサーバ装置300へアップロード可能なアップロード対象画像800として設定し、画像データ400から抽出する。アップロード対象画像800は、上述の実施形態における評価対象画像を構成する画像である。なお、アップロード対象画像800の時間は、トリガ検出部2221が検出するトリガの種類に応じて動的に変化させてもよいし、トリガの種類に関わらず一定であってもよい。
 このように、評価対象画像設定部222は、上述のトリガを検出すると、撮影部210が撮影した画像データ400の中からトリガの検出時を含む所定時間分の画像データ400を、アップロード対象画像800(評価対象画像)として設定する。そして、評価対象画像設定部222は、抽出されたアップロード対象画像800に、トリガ検出部2221が検出したトリガの情報と、アップロード対象画像800の時間に対応する基礎情報500と、を付与し、通信部260を介して、サーバ装置300に送信する処理を行う。
 入力部240は、音声を集音することで上述の第1指示操作s1の入力を受け付ける。また、入力部240は、第1指示操作s1に加えて第2指示操作s2(再指示操作)の入力を受け付ける。
 第2指示操作s2とは、第1指示操作s1よりも後に行われる操作であり、後述のように出力部250において検出対象物810の有無が音声出力された後で、その検出対象物810がユーザの希望する希望対象物820でなかった場合に行われる操作である。この第2指示操作s2は、ユーザが、希望対象物820がアップロード対象画像800中に映っていたか否かの再判定を情報処理装置100に対して促すように「~(希望対象物820)は、映っていなかった?」などと尋ねる等することで行われる。
 なお、本実施形態では、入力部240は音声による入力を受け付ける構成としたが、例えば第1指示操作s1、及び第2指示操作s2に対応する入力ボタン等を端末装置200に設けて、当該入力ボタンによって第1指示操作s1、及び第2指示操作s2の入力を受け付ける構成としてもよい。
 出力部250は、アップロード対象画像800の中から設定された検出対象物810が有ったこと、又は検出対象物810が無かったこと、又は検出対象物810の有無について、音声による出力を行う。具体的には、出力部250は、サーバ装置300から通信部260が受信した後述の検出対象情報900の内容が「検出対象物810有り」であれば、その結果に基づいて「~(検出対象物810)が撮影できました。」等の音声を出力する。また、出力部250は、検出対象情報900の内容が「検出対象物810無し」であれば、その結果に基づいて「検出対象物810が撮影できませんでした。(又は、検出できませんでした。)」等の音声を出力する。また、出力部250は、検出対象情報900の内容が「一の検出対象物810有り、他の検出対象物810無し」であれば「~(一の検出対象物810)が撮影できましたが、~(他の検出対象物810)は撮影できませんでした。」等の音声を出力する。
 また、出力部250は、音声出力される検出対象物810がユーザの希望する希望対象物820でなかった場合であって、入力部240が第2指示操作s2を受け付けている場合(再指示操作があった場合)、アップロード対象画像800の中に希望対象物820が有ったこと、又は希望対象物820が無かったこと、又は希望対象物820の有無について、音声による出力を行う。具体的には、出力部250は、サーバ装置300から通信部260が受信した後述の希望対象情報1000の内容が「希望対象物820有り」であれば、その結果に基づいて「~(希望対象物820)が撮影できました。」等の音声を出力する。また、出力部250は、希望対象情報1000の内容が「希望対象物820無し」であれば、その結果に基づいて「希望対象物820が撮影できませんでした。(又は、検出できませんでした。)」等の音声を出力する。また、出力部250は、希望対象情報1000の内容が「一の希望対象物820有り、他の希望対象物820無し」であれば「~(一の希望対象物820)が撮影できましたが、~(他の希望対象物820)は撮影できませんでした。」等の音声を出力する。
 通信部260は、抽出部2222が抽出したアップロード対象画像800をサーバ装置300に送信し、サーバ装置300から検出対象情報900を受信する。また、通信部260は、入力部240が第2指示操作s2を受け付けた場合、第2指示操作s2の情報をサーバ装置300に送信し、サーバ装置300から希望対象情報1000を受信する。
 サーバ装置300は、図3に示したように、制御部310と、記憶部320と、通信部330と、を備えている。
 制御部310は、例えば、CPU(Central Processing Unit)等で構成されている。記憶部320は、ハードディスクやメモリで構成されている。通信部330は、他の装置との間で情報の送受信を行うための通信装置で構成されている。
 制御部310は、情報処理装置100を動作させるための処理を行う部分であり、検出対象設定部311と、判定部312と、再判定部313と、を備えている。検出対象設定部311は、アップロード対象画像800に係る上述のトリガ及び基礎情報500に基づいて検出対象物810を設定する部分であり、撮影物特定部3111と、シーン特定部3112と、決定部3113と、を備えている。
 撮影物特定部3111は、アップロード対象画像800を分析し、当該アップロード対象画像800内にある撮影物を特定する。この特定に関しては、公知の技術を用いることができ、その詳細な説明は省略するが、例えば、記憶部320に車両の撮影する画像についての画像データベース1100を保存しておき、パターンマッチング等の手法を用いて撮影物の特定を行ってもよい。
 シーン特定部3112は、アップロード対象画像800に付与されたトリガの情報及び基礎情報500を参考にして、アップロード対象画像800が撮影された状況を特定し、カテゴリごとに分類する。このカテゴリは、図4に示すように、例えば、以下の4つが挙げられる。
 第1カテゴリAは、撮影ポイント手動撮影のカテゴリである。この第1カテゴリAは、主に有名な観光スポットや撮影スポットの近傍でアップロード対象画像800に係る画像が撮影されたことを示す。第1カテゴリAは、例えば、アップロード対象画像800に係るトリガが、ユーザの第1指示操作s1であり、アップロード対象画像800に係る車両の位置情報が、記憶部320に記録されたPOI(Point Of Interest(目標物))データベース1200のうち、いずれかのPOIの位置情報の近傍を示していた場合に分類される。
 第2カテゴリBは、緊急時手動撮影のカテゴリである。この第2カテゴリBは、主にユーザが自車両以外の事故を目撃した場合など、緊急時にユーザの手動でアップロード対象画像800に係る画像が撮影されたことを示す。この第2カテゴリBは、例えば、アップロード対象画像800に係るトリガが、ユーザの第1指示操作s1であり、アップロード対象画像800に係る車両の位置情報が、記憶部320に記録されたPOIデータベース1200のうちいずれかのPOIが示す位置情報の近傍を示しておらず、かつ、アップロード対象画像800に係る車両の加速度の情報が所定の閾値を超えて変化していない場合に分類される。
 第3カテゴリCは、走行時自動撮影のカテゴリである。この第3カテゴリCは、主に走行中の自車両に事故が起きた場合など、走行中かつ緊急時に自動でアップロード対象画像800が撮影されたことを示す。この第3カテゴリCは、例えば、アップロード対象画像800に係るトリガが、車両の加速度の情報が予め定めた閾値を超えて急激に変化したことであり、かつ、基礎情報500の内容から車両が走行していたことがわかる場合に分類される。
 第4カテゴリDは、駐停車時自動撮影のカテゴリである。この第4カテゴリDは、主に駐停車中の自車両が悪戯等されることで自車両に衝撃が加わった場合など、駐停車中かつ緊急時に自動でアップロード対象画像800が撮影されたことを示す。この第4カテゴリDは、例えば、アップロード対象画像800に係るトリガが、車両の加速度の情報が予め定めた閾値を超えて急激に変化したことであり、かつ、基礎情報500の内容から車両が駐車又は停車中であったことがわかる場合に分類される。
 決定部3113は、シーン特定部3112で分類されたカテゴリを参考に、アップロード対象画像800の中から検出対象物810を決定する。
 具体的には、アップロード対象画像800のカテゴリが第1カテゴリAの場合、ユーザが撮影を希望すると予想される対象物は、有名な観光スポットや撮影スポットに存在する物であると判断し、記憶部320に記録されたPOIデータベース1200のうちいずれかのPOIを検出対象物810に決定する。
 また、アップロード対象画像800のカテゴリが第2カテゴリBの場合、ユーザが撮影を希望すると予想される対象物は、自車両以外の事故に関わる対象物であると判断し、自車両以外の車両や、車両のナンバープレート、人、人以外の動物、信号機、道路標識、路面標識等を検出対象物810に決定する。
 また、アップロード対象画像800のカテゴリが第3カテゴリCの場合、ユーザが撮影を希望すると予想される対象物は、自車両の走行中の事故に関わる対象物であると判断し、自車両以外の車両や、車両のナンバープレート、人、人以外の動物、信号機、道路標識、路面標識等を検出対象物810に決定する。
 また、アップロード対象画像800のカテゴリが第4カテゴリDの場合、ユーザが撮影を希望すると予想される対象物は、自車両の近傍に存在する対象物であると判断し、自車両の近傍に存在する人や人以外の動物、自車両以外の車両、車両のナンバープレート等を検出対象物810に決定する。この際、車両は振動検出時に動いている他車両、又はドア開閉動作のある他車両を検出対象物810とし、駐車場に停車し続けている他車両であり、ドア開閉のない他車両は検出対象物810として除外されてもよい。
 判定部312は、アップロード対象画像800の中から決定部3113で決定した検出対象物810の有無を判定し、その結果を検出対象情報900として通信部330を介してサーバ装置300から端末装置200に送信する。検出対象情報900は、例えば、「検出対象物810有り」、「検出対象物810無し」、「一の検出対象物810有り、他の検出対象物810無し」等、単に検出対象物810の有無についての情報であってもよいし、上述の第1カテゴリA~第4カテゴリDのいずれかを付与したものであってもよい。また、検出対象物810の個数を含むものであってもよい。
 再判定部313は、通信部330が端末装置200から上述の第2指示操作s2の情報を受信した場合、アップロード対象画像800の中から第2指示操作s2に係る希望対象物820の有無を判定し、その結果を希望対象情報1000として通信部330を介してサーバ装置300から端末装置200に送信する。希望対象情報1000は、例えば、「希望対象物820有り」、「希望対象物820無し」、「一の希望対象物820有り、他の希望対象物820無し」等、単に希望対象物820の有無についての情報であってもよいし、上述の第1カテゴリA~第4カテゴリDのいずれかを付与したものであってもよい。また、希望対象物820の個数を含むものであってもよい。
 記憶部320は、端末装置200から送信されたアップロード対象画像800を保存する。また、記憶部320は、上述の画像データベース1100やPOIデータベース1200を保存する。
 通信部330は、端末装置200の通信部260からアップロード対象画像800を受信し、判定部312で生成された検出対象情報900を端末装置200に送信する。また、通信部330は、端末装置200の通信部260から第2指示操作s2の情報を受信し、再判定部313で生成された希望対象情報1000を端末装置200に送信する。
 次に、上述した構成の情報処理装置100の動作(情報処理方法)を図5、6のフローチャートを参照して説明する。なお、図5、6のフローチャートをCPU等を備えたコンピュータで実行されるプログラムとして構成することで情報処理プログラムとすることができる。また、この情報処理プログラムは、コンピュータ読み取り可能な記憶媒体に格納されてもよい。
 まず、端末装置200において、撮影部210が連続的な撮影を開始し、得られた画像データ400を記憶部230に保存する。また、併せて、情報収集部221がGPS(Global Positioning System)受信機や、ジャイロセンサ、加速度センサ等の各種センサ、又は気象情報や交通情報を発信する外部装置等から、基礎情報500の取得を開始し、取得した基礎情報500を時間ごとに記憶部230に保存する(ステップS100)。このステップS100は、上述の実施形態における情報収集工程及び撮影工程に該当するステップである。
 次に、評価対象画像設定部222がトリガ検出部2221によって、記憶部230及び入力部240を監視し、トリガが検出されるか否かを判定する(ステップS200)。トリガは、上述のとおり、「基礎情報500が所定の条件を満たしたこと」又は「入力部240が第1指示操作s1(指示操作)を受け付けたこと」のいずれかとする。
 この際の所定の条件は、「車両の加速度の情報が予め定めた閾値を超えて急激に変化した」等、ユーザの希望に合わせて様々な条件を設定してよい。
 第1指示操作s1は、ユーザの発声によって行われるもので、「撮影して」、「撮影開始」、「映像残して」など、検出してほしい対象を詳細に特定しないシンプルなものであってよく、発声には、検出対象物810が含まれていなくてよい。
 そして、ステップS200の判定の結果がYESであればステップS300に進み、NOであればステップS100に戻る。
 ステップS300では、評価対象画像設定部222の抽出部2222が、記憶部230に一時的に保存されている画像データ400のうちトリガの検出時を含む所定時間分の画像データを、アップロード対象画像800に設定し、画像データ400から抽出する。なお、この際、アップロード対象画像800の時間は、トリガ検出部2221が検出するトリガの種類に応じて動的に変化させてもよいし、トリガの種類に関わらず一定となるように設定してもよい。
 そして、抽出したアップロード対象画像800に、トリガ検出部2221が検出したトリガの情報と、アップロード対象画像800の時間に対応する基礎情報500と、を付与し、通信部260を介してサーバ装置300に送信する(ステップS400)。以上のステップS200~ステップS400は、上述の実施形態における評価対象画像設定工程に該当するステップである。ステップS400が終了するとステップS500に進む。
 ステップS500では、サーバ装置300において、検出対象物810を設定し、その検出対象物810がアップロード対象画像800の中にあるか否かを判定する。このステップS500では、図6に詳細を示すように、まず、撮影物特定部3111が、公知のパターンマッチング等の手法を用いてアップロード対象画像800を分析し、当該アップロード対象画像800内にある撮影物を特定する(ステップS501)。
 次に、シーン特定部3112が、アップロード対象画像800に付与されたトリガの情報及び基礎情報500を参考にして、アップロード対象画像800が撮影された状況を特定し、カテゴリごとに分類する(ステップS502)。このステップS502では、トリガ及び基礎情報500の内容に応じてアップロード対象画像800が第1カテゴリA、第2カテゴリB、第3カテゴリC、第4カテゴリDに分類される。
 例えば、アップロード対象画像800に係るトリガが、ユーザの第1指示操作s1であり、アップロード対象画像800に係る車両の位置情報が、記憶部320に記録されたPOI(Point Of Interest(目標物))データベース1200のうち、いずれかのPOIの位置情報の近傍を示していた場合には、アップロード対象画像800は、第1カテゴリAに分類される。
 また、例えば、アップロード対象画像800に係るトリガが、ユーザの第1指示操作s1であり、アップロード対象画像800に係る車両の位置情報が、記憶部320に記録されたPOIデータベース1200のうちいずれかのPOIが示す位置情報の近傍を示しておらず、かつ、アップロード対象画像800に係る車両の加速度の情報が所定の閾値を超えて変化していない場合には、アップロード対象画像800は、第2カテゴリB分類される。
 また、例えば、アップロード対象画像800に係るトリガが、車両の加速度の情報が予め定めた閾値を超えて急激に変化したことであり、かつ、基礎情報500の内容から車両が走行していたことがわかる場合には、アップロード対象画像800は、第3カテゴリCに分類される。
 また、例えば、アップロード対象画像800に係るトリガが、車両の加速度の情報が予め定めた閾値を超えて急激に変化したことであり、かつ、基礎情報500の内容から車両が駐車又は停車中であったことがわかる場合には、アップロード対象画像800は、第4カテゴリD分類される。
 ステップS502でアップロード対象画像800が各カテゴリに分類されると、決定部3113が、当該カテゴリに応じて検出対象物810を決定する(ステップS503)。
 例えば、アップロード対象画像800のカテゴリが第1カテゴリAの場合、決定部3113は、ユーザが撮影を希望すると予想される対象物は、有名な観光スポットや撮影スポットに存在する物であると判断し、記憶部320に記録されたPOIデータベース1200のうちいずれかのPOIを検出対象物810に決定する。
 また、アップロード対象画像800のカテゴリが第2カテゴリBの場合、決定部3113は、ユーザが撮影を希望すると予想される対象物は、自車両以外の事故に関する対象物であると判断し、自車両以外の車両や、車両のナンバープレート、人、人以外の動物、信号機、道路標識、路面標識等を検出対象物810に決定する。
 また、アップロード対象画像800のカテゴリが第3カテゴリCの場合、決定部3113は、ユーザが撮影を希望すると予想される対象物は、自車両の走行中の事故に関する対象物であると判断し、自車両以外の車両や、車両のナンバープレート、人、人以外の動物、信号機、道路標識、路面標識等を検出対象物810に決定する。
 また、アップロード対象画像800のカテゴリが第4カテゴリDの場合、決定部3113は、ユーザが撮影を希望すると予想される対象物は、自車両の近傍に存在する対象物であると判断し、自車両の近傍に存在する人や人以外の動物、自車両以外の車両、車両のナンバープレート等を検出対象物810に決定する。以上のステップS501~ステップS503が、上述の実施形態における検出対象設定工程に該当するステップである。
 ステップS503で、検出対象物810が決定すると、判定部312は、アップロード対象画像800の中から検出対象物810の有無を判定し(ステップS504)、その結果を検出対象情報900として通信部330を介してサーバ装置300から端末装置200に送信する(ステップS505)。検出対象情報900の内容は、例えば、「検出対象物810有り」、「検出対象物810無し」、「一の検出対象物810有り、他の検出対象物810無し」等、単に検出対象物810が有ったこと、検出対象物810が無かったこと、検出対象物810の有無についての情報であってもよいし、上述の第1カテゴリA~第4カテゴリDのいずれかを付与したものであってもよいし、検出対象物810の個数を含むものであってもよい。これにより、ステップS500が終了する。そしてステップS600に進む。
 ステップS600は、上述の実施形態における出力工程に該当するステップである。ステップS600では、端末装置200において、通信部260が検出対象情報900を受信し、その検出対象情報900の内容に基づいて、出力部250が音声出力をする。
 例えば、出力部250は、検出対象情報900の内容が「検出対象物810有り」であれば、その結果に基づいて「~(検出対象物810)が撮影できました。」等の音声を出力する。また、出力部250は、検出対象情報900の内容が「検出対象物810無し」であれば、その結果に基づいて「検出対象物810が撮影できませんでした。」等の音声を出力する。また、出力部250は、検出対象情報900の内容が「一の検出対象物810有り、他の検出対象物810無し」であれば「~(一の検出対象物810)が撮影できましたが、~(他の検出対象物810)は撮影できませんでした。」等の音声を出力する。音声出力が完了するとステップS700に進む。
 ステップS700では、第2指示操作s2を受け付ける。このステップS700では、入力部240が第2指示操作s2を受け付けた場合(YESの場合)、通信部260が第2指示操作s2の情報をサーバ装置300に送信し、ステップS800に進む。入力部240が第2指示操作s2を受け付けなかった場合(NOの場合)、ステップS700を終了し、情報処理装置100の動作が終了する。第2指示操作s2を受け付けなかったことは、入力部240に入力がないまま予め設定した受付時間を経過した等の条件で判断してもよいし、入力部240への受付時間経過後に出力部250に「他の指示はありませんか?」などの音声を出力させて、ユーザに確認を取った後、入力部240に入力がないまま所定時間の経過をした等の条件で判断してもよい。
 ステップS800では、第2指示操作s2を受信したサーバ装置300が、再判定部313においてアップロード対象画像800の中から第2指示操作s2に係る希望対象物820の有無を判定し、その結果を希望対象情報1000として端末装置200に送信する。希望対象情報1000は、例えば、「希望対象物820有り」、「希望対象物820無し」、「一の希望対象物820有り、他の希望対象物820無し」等、単に希望対象物820が有ったこと、希望対象物820が無かったこと、希望対象物820の有無についての情報であってもよいし、上述の第1カテゴリA~第4カテゴリDのいずれかを付与したものであってもよいし、希望対象物820の個数を含むものであってもよい。
 希望対象情報1000を端末装置200が受信すると、その希望対象情報1000の内容に基づいて出力部250が音声出力をする(ステップS900)。
 例えば、出力部250は、希望対象情報1000の内容が「希望対象物820有り」であれば、その結果に基づいて「~(希望対象物820)が撮影できました。」等の音声を出力する。また、出力部250は、希望対象情報1000の内容が「希望対象物820無し」であれば、その結果に基づいて「希望対象物820が撮影できませんでした。」等の音声を出力する。また、出力部250は、希望対象情報1000の内容が「一の希望対象物820有り、他の希望対象物820無し」であれば「~(一の希望対象物820)が撮影できましたが、~(他の希望対象物820)は撮影できませんでした。」等の音声を出力する。これにより、情報処理装置100の動作が終了する。
 第1の実施例によれば、検出対象物810の設定は、アップロード対象画像800に係るトリガ及び基礎情報500に基づいてなされるので、情報処理装置100のユーザが予め検出対象物810を詳細に設定するための手間を削減することができる。そして、検出対象物810が有ったこと、検出対象物810が無かったこと、又は検出対象物810の有無は、出力部250により報知されることから、ドライバーは、検出対象物810が取得できたこと、検出対象物810が取得できなかったこと、検出対象物810の取得の有無のいずれかをリアルタイムに確認することができる。したがって、基礎情報500が所定の条件を満たした場合又は第1指示操作s1を受け付けた場合等、様々な撮影状況に応じて検出対象物810を設定し、その検出対象物810が撮影できたこと、撮影できなかったこと、又は撮影できたか否かをリアルタイムに確認することができる。また、検出対象物810が選択的に設定されることにより、情報処理装置100の処理コストが削減される。さらに、ユーザへの音声出力においても検出対象物810が選択的に報知されることにより、ユーザにわずらわしさを感じさせることなく、必要とする情報を適切に選択した報知を行うことができる。
 また、検出対象物810が撮影できなかったことをリアルタイムに確認することができることから、検出対象物810が撮影できなかったことに対する対応を迅速に行うことができる。
 また、出力部250は、スピーカ(音声出力装置)で構成してもよく、この場合、検出対象物810が有ったこと、検出対象物810が無かったこと、及び検出対象物810の有無のいずれかは、音声出力されることとなるので、例えば、情報処理装置100が画像表示機能を有しているような場合に、ドライバーは運転を中断し、又は運転から注意を逸して画像を確認する等しなくても、検出対象物810の画像が取得できたか否かをリアルタイムに確認することができる。また、出力部250をスピーカで構成できるので、画像表示機能を有さない端末にも、本発明を適用することができる。
 また、検出対象物810の設定をサーバ装置300側で行うことができるので、端末装置200側の負荷を低減することができる。
 また、ユーザの発声によって、アップロード対象画像800の設定のトリガとなる第1指示操作s1を行うことができ、その発声には、検出対象物810が含まれていなくてよいので、例えば、ユーザは、「撮影して」などとシンプルな発声をするだけでよく、検出対象物810を詳細に設定する手間を削減することができる。
 また、様々な撮影状況をアップロード対象画像800の設定のトリガとし、アップロード対象画像800の中から撮影状況に応じた様々な検出対象物810を設定することができるので、例えば、車両が急制動を検知した場合に、加速度の情報をトリガとしてアップロード対象画像800を設定し、そのアップロード対象画像800の中から車両以外の車両(この場合、急制動の原因となった可能性のある車両)や、その車両のナンバープレートを、検出対象物810として設定する、などということができる。
 また、出力部による報知を受けたユーザは、その内容に希望対象物820の情報が含まれていなかった場合に、希望対象物820の有無について再通知を受けることができる。このため、検出対象設定部311による検出対象物810の設定が、ユーザの希望と異なった場合にも、確実に希望対象物820の有無について確認することができる。
 次に、本実施形態の第2の実施例に係る情報処理装置100を、図7を参照して説明する。なお、上述した第1の実施例と同一部分には、同一符号を付して説明を省略又は簡略する。
 本実施例に係る情報処理装置100は、図7に示すように、サーバ装置300の制御部310に、情報収集部314が設けられている。この情報収集部314は、第1の実施例における情報収集部221に相当するものである。すなわち、第2の実施例では、情報収集部314をサーバ装置300に実装し、基礎情報500をサーバ装置300側の記憶部320で記憶する構成としたことが、第1の実施例と異なっている。
 この構成の情報処理装置100の動作(情報処理方法)を説明する。本実施例の情報処理装置100の動作は、処理が行われる装置が一部第1の実施例と異なるものの、動作の流れ(ステップ)は第1の実施例と同様であるため、図5を参照してその説明をする。
 まず、端末装置200において、撮影部210が連続的な撮影を開始し、得られた画像データ400を記憶部230に保存する。また、併せて、サーバ装置300の情報収集部314が、端末装置200にアクセスし、GPS(Global Positioning System)受信機や、ジャイロセンサ、加速度センサ等の各種センサ、又は気象情報や交通情報を発信する外部装置等から、基礎情報500の取得を開始し、取得した基礎情報500を時間ごとに記憶部320に保存する(ステップS100)。このステップS100は、上述の実施形態における情報収集工程及び撮影工程に該当するステップである。
 次に、評価対象画像設定部222がトリガ検出部2221によって、サーバ装置300の記憶部320及び端末装置200の入力部240を監視し、トリガが検出されるか否かを判定する(ステップS200)。トリガの内容は、上述のとおりである。そして、ステップS200判定の結果がYESであればステップS300に進み、NOであればステップS100に戻る。
 ステップS300では、評価対象画像設定部222の抽出部2222が、記憶部230に一時的に保存されている画像データ400のうちトリガの検出時を含む所定時間分の画像データを、アップロード対象画像800に設定し、画像データ400から抽出する。
 そして、抽出したアップロード対象画像800に、トリガ検出部2221が検出したトリガの情報と、アップロード対象画像800の時間に対応する基礎情報500と、を付与し、通信部260を介してサーバ装置300に送信する(ステップS400)。以上のステップS200~ステップS400は、上述の実施形態における評価対象画像設定工程に該当するステップである。ステップS400が終了するとステップS500に進む。
 ステップS500では、検出対象物810を設定し、その検出対象物810がアップロード対象画像800の中にあるか否かを判定する。ステップS500では、まず、撮影物特定部3111が、公知のパターンマッチング等の手法を用いてアップロード対象画像800を分析し、当該アップロード対象画像800内にある撮影物を特定する。次に、シーン特定部3112が、アップロード対象画像800に付与されたトリガの情報及び基礎情報500を参考にして、アップロード対象画像800が撮影された状況を特定し、カテゴリごとに分類する。このカテゴリは、第1の実施例の第1カテゴリA、第2カテゴリB、第3カテゴリC、第4カテゴリDと同様である。
 アップロード対象画像800が各カテゴリに分類されると、決定部3113が、当該カテゴリに応じて検出対象物810を決定する。次に、検出対象物810が決定すると、判定部312は、アップロード対象画像800の中から検出対象物810の有無を判定し、その結果を検出対象情報900として通信部330を介してサーバ装置300から端末装置200に送信する。検出対象情報900の内容は、第1の実施例と同様である。これにより、ステップS500が終了する。そしてステップS600に進む。
 ステップS600は、上述の実施形態における出力工程に該当するステップである。ステップS600では、端末装置200において、通信部260が検出対象情報900を受信し、その検出対象情報900の内容に基づいて、出力部250が音声出力をする。音声出力の内容は、第1の実施例と同様である。音声出力が完了するとステップS700に進む。
 ステップS700では、第2指示操作s2を受け付ける。このステップS700では、入力部240が第2指示操作s2を受け付けた場合(YESの場合)、ステップS800に進む。入力部240が第2指示操作s2を受け付けなかった場合(NOの場合)、ステップS700を終了し、情報処理装置100の動作が終了する。
 ステップS800では、再判定部313が、入力部240で第2指示操作s2を受け付けたことを検知し、アップロード対象画像800の中から第2指示操作s2に係る希望対象物820の有無を判定し、その結果を希望対象情報1000として端末装置200に送信する。希望対象情報1000の内容は、第1の実施例と同様である。
 端末装置200が希望対象情報1000を受信すると、その希望対象情報1000の内容に基づいて出力部250が音声出力をする(ステップS900)。音声出力の内容は、第1の実施例と同様である。これにより、情報処理装置100の動作が終了する。
 第2の実施例によれば、基礎情報500をサーバ装置300側で収集することができるので、端末装置200側の負荷を低減することができる。
 次に、本実施形態の第3の実施例に係る情報処理装置100を、図8を参照して説明する。なお、上述した第1の実施例と同一部分には、同一符号を付して説明を省略又は簡略する。
 本実施例にかかる情報処理装置100は、上述のサーバ装置300を省略し、サーバ装置300の制御部310が備えていた構成を、端末装置200の制御部220に実装させている。また、サーバ装置300の記憶部320が備えていた構成を、端末装置200の記憶部230に実装させている。すなわち、サーバ装置300を介さずに、端末装置200で情報処理装置100を構成している。制御部220は、第1の実施例の構成に加えて、検出対象設定部223と、判定部224と、再判定部225と、を備えている。検出対象設定部223は、サーバ装置300における検出対象設定部311に相当する。この検出対象設定部223は、図示はしないが、第1の実施例と同様に、撮影物特定部3111、シーン特定部3112、決定部3113を備えている。判定部224は、サーバ装置300における判定部312に相当する。再判定部225は、サーバ装置300における再判定部313に相当する。検出対象設定部223、判定部224、再判定部225の構成及び動作は、第1の実施例と実質的に同一であるため、その詳細な説明は省略する。
 記憶部230は、第1の実施例の構成に加えて、画像データベース1100と、POIデータベース1200と、を記憶している。この画像データベース1100と、POIデータベース1200は、第1の実施例でサーバ装置300の記憶部320に記憶されていたものと実質的に同一である。
 このように、情報収集部221と、撮影部210と、評価対象画像設定部222と、検出対象設定部223と、出力部250と、は移動体とともに移動する端末装置200に設けられている。
 なお、第1の実施例では、評価対象画像設定部222のトリガ検出部2221がトリガを検出した場合、抽出部2222が、記憶部230に一時的に保存されている画像データ400のうちトリガの検出時を含む所定時間分の画像データを、評価対象画像としてのアップロード対象画像800に設定し、画像データ400から抽出していた。しかしながら、本実施例では、サーバ装置300を用いないことから、トリガ検出部2221がトリガを検出した場合、抽出部2222は、記憶部230に一時的に保存されている画像データ400のうち所定時間分の画像データを、上書き不能な記録画像1300に設定し、画像データ400から抽出する。本実施例では、この記録画像1300が、上述の実施形態における評価対象画像を構成する。
 次に、上述した構成の情報処理装置100の動作(情報処理方法)を説明する。本実施例の情報処理装置100の動作は、処理が行われる装置が一部第1の実施例と異なるものの、動作の流れ(ステップ)は第1の実施例と同様であるため、図5を参照してその説明をする。
 ステップS100~ステップS200までは、第1の実施例と同様であるので、その説明を省略する。
 ステップS300では、評価対象画像設定部222の抽出部2222が、記憶部230に一時的に保存されている画像データ400のうちトリガ検出時を含む所定時間分の画像データを、上書き不能な記録画像1300に設定し、画像データ400から抽出する。
 そして、抽出した記録画像1300に、トリガ検出部2221が検出したトリガの情報と、記録画像1300の時間に対応する基礎情報500と、を付与する(ステップS400)。以上のステップS200~ステップS400は、上述の実施形態における評価対象画像設定工程に該当するステップである。ステップS400が終了するとステップS500に進む。
 ステップS500では、検出対象物810を設定し、その検出対象物810が記録画像1300の中にあるか否かを判定する。ステップS500では、まず、撮影物特定部3111が、公知のパターンマッチング等の手法を用いて記録画像1300を分析し、当該記録画像1300内にある撮影物を特定する。次に、シーン特定部3112が、記録画像1300に付与されたトリガの情報及び基礎情報500を参考にして、記録画像1300が撮影された状況を特定し、カテゴリごとに分類する。このカテゴリは、第1の実施例の第1カテゴリA、第2カテゴリB、第3カテゴリC、第4カテゴリDと同様である。
 記録画像1300が各カテゴリに分類されると、決定部3113が、当該カテゴリに応じて検出対象物810を決定する。次に、検出対象物810が決定すると、判定部224は、記録画像1300の中から検出対象物810の有無を判定し、その結果を検出対象情報900として記憶部230に記憶する。検出対象情報900の内容は、第1の実施例と同様である。これにより、ステップS500が終了する。そしてステップS600に進む。
 ステップS600は、上述の実施形態における出力工程に該当するステップである。ステップS600では、記憶部230に記憶された検出対象情報900の内容に基づいて、出力部250が音声出力をする。音声出力の内容は、第1の実施例と同様である。音声出力が完了するとステップS700に進む。
 ステップS700では、第2指示操作s2を受け付ける。このステップS700では、入力部240が第2指示操作s2を受け付けた場合(YESの場合)、ステップS800に進む。入力部240が第2指示操作s2を受け付けなかった場合(NOの場合)、ステップS700を終了し、情報処理装置100の動作が終了する。
 ステップS800では、再判定部225が、入力部240で第2指示操作s2を受け付けたことを検知し、記録画像1300の中から第2指示操作s2に係る希望対象物820の有無を判定し、その結果を希望対象情報1000として記憶部230に保存する。希望対象情報1000の内容は、第1の実施例と同様である。
 希望対象情報1000が記憶部230に保存されると、その希望対象情報1000の内容に基づいて出力部250が音声出力をする(ステップS900)。音声出力の内容は、第1の実施例と同様である。これにより、情報処理装置100の動作が終了する。
 第3の実施例によれば、サーバ装置300等を介さずに端末装置200で情報処理装置100を構成することができる。
 なお、本発明は、上記実施例に限定されるものではない。すなわち、当業者は従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の表示装置を具備する限り、勿論、本発明の範疇に含まれるものである。
 上述の第1の実施例、第2の実施例、及び第3の実施例では、出力部250は、スピーカ等の音声出力装置で構成したが、この出力部250は、音声出力を行う装置に限定されない。出力部250は、端末装置200以外の外部装置に、文章を出力させるものであってもよい。
 例えば、この外部装置を、駐車中の自車両の監視を希望するユーザのスマートフォンとし、トリガの検出時には、上述の出力部250が音声出力していたような検出対象情報900や希望対象情報1000の内容を、外部装置としてのスマートフォンに通知文として表示させるように構成してもよい。
 また、端末装置200以外の外部装置を、端末装置200に対応する車両が契約する保険会社のサーバ装置や、端末装置200に対応する車両を管理する管理者(例えば、配送車両の管理者等)のサーバ装置とし、これらのサーバ装置を出力部とし、検出対象情報900や希望対象情報1000の内容を通知文として表示させるように構成してもよい。
 また、決定部3113で検出対象物810を決定する際には、画像撮影時の位置情報を用いて、検出対象物810を、より限定してもよい。具体的には、トリガの検出時の車両の位置情報と、記憶部320に記録されたPOIデータベース1200の情報等に基づいて、車両の位置の周辺に横断歩道や信号が存在しないこと判断できる場合、横断歩道や信号は検出対象物810として除外する等してもよい。これにより、予め無いと分かっているのに敢えて「無い」と報知されるわずらわしい状況を避けることができ、出力部250による無駄な報知を避けることができる。
 一方、トリガの検出時の車両の位置情報と、記憶部320に記録されたPOIデータベース1200の情報等に基づいて、車両の位置の周辺に横断歩道や信号が存在すると判断できる場合、横断歩道や信号は検出対象物810として必ず決定する、としてもよい。これにより、ユーザは、「写っているはずなのにうまく撮影できなかったこと」を確実に認識することができる。
 また、情報処理装置100を、駐車中の自車両の監視に用いた場合、以下のような構成を設けてもよい。すなわち、評価対象画像設定部222について、「トリガの検出時の直前から直後までの画像を、抽出部2222が評価対象画像として抽出する」、としつつ、トリガの原因となった他車両のナンバープレートが検出できなかった場合には、「トリガの検出時の直前よりもさらにさかのぼった時間の画像を評価対象画像に設定し直す」というように構成する。そして、再度設定された評価対象画像について当該ナンバープレートの有無を判定する。これにより、カメラ画角等の都合で写らなかった他車両のナンバープレートの情報を取得する可能性を高めることができる。
 また、上述の「他車両のあおり運転挙動を検出したこと」がトリガ検出部2221の検出する所定の条件であった場合、車両及びそのナンバープレートを検出対象物810に決定する際には、幅寄せ、蛇行などのあおり運転と思われる行為を行っている特定の車両及びそのナンバープレートを、検出対象物810に決定するようにしてもよい。
s1   第1指示操作(指示操作)
100  情報処理装置
210  撮影部
221  情報収集部
222  評価対象画像設定部
311  検出対象設定部
500  基礎情報
600  走行情報
700  周辺情報
800  アップロード対象画像(評価対象画像)
810  検出対象物
250  出力部

Claims (13)

  1.  移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する情報収集部と、
     連続的に撮影を行う撮影部と、
     前記基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、前記撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する評価対象画像設定部と、
     前記評価対象画像に係る前記トリガ及び前記基礎情報に基づいて検出対象物を設定する検出対象設定部と、
     前記評価対象画像の中から設定された前記検出対象物が有ったことについて報知する出力部と、を備えることを特徴とする情報処理装置。
  2.  移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する情報収集部と、
     連続的に撮影を行う撮影部と、
     前記基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、前記撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する評価対象画像設定部と、
     前記評価対象画像に係る前記トリガ及び前記基礎情報に基づいて検出対象物を設定する検出対象設定部と、
     前記評価対象画像の中から設定された前記検出対象物が無かったことについて報知する出力部と、を備えることを特徴とする情報処理装置。
  3.  移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する情報収集部と、
     連続的に撮影を行う撮影部と、
     前記基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、前記撮影部が撮影した画像の中から所定時間分の画像を、評価対象画像として設定する評価対象画像設定部と、
     前記評価対象画像に係る前記トリガ及び前記基礎情報に基づいて検出対象物を設定する検出対象設定部と、
     前記評価対象画像の中から設定された前記検出対象物の有無について報知する出力部と、を備えることを特徴とする情報処理装置。
  4.  前記出力部は、音声による出力をする音声出力装置で構成されていることを特徴とする請求項1~3のいずれか一項に記載の情報処理装置。
  5.  前記情報収集部と、前記撮影部と、前記評価対象画像設定部と、前記出力部とは、前記移動体とともに移動する端末装置に設けられ、
    前記検出対象設定部は、前記端末装置と通信可能なサーバ装置に設けられ、
     前記評価対象画像は、前記サーバ装置へアップロード可能なアップロード対象画像で構成され、前記アップロード対象画像は、前記端末装置から前記サーバ装置に送信され、
     前記検出対象物に係る検出対象情報は、前記サーバ装置から前記端末装置に送信されることを特徴とする請求項1~3のいずれか一項に記載の情報処理装置。
  6.  前記撮影部と、前記評価対象画像設定部と、前記出力部とは、前記移動体とともに移動する端末装置に設けられ、
     前記情報収集部と、前記検出対象設定部とは、前記端末装置と通信可能なサーバ装置に設けられ、
     前記評価対象画像は、前記サーバ装置へアップロード可能なアップロード対象画像で構成され、前記アップロード対象画像は、前記端末装置から前記サーバ装置に送信され、
     前記検出対象物に係る検出対象情報は、前記サーバ装置から前記端末装置に送信されることを特徴とする請求項1~3のいずれか一項に記載の情報処理装置。
  7.  前記情報収集部と、前記撮影部と、前記評価対象画像設定部と、前記検出対象設定部と、前記出力部とは、前記移動体とともに移動する端末装置に設けられ、
     前記評価対象画像は、上書き不能な記録画像で構成されていることを特徴とする請求項1~3のいずれか一項に記載の情報処理装置。
  8.  前記指示操作は、当該指示操作を行う操作者の発声によって行われ、
     前記発声には、前記検出対象物が含まれていないことを特徴とする請求項1~3のいずれか一項に記載の情報処理装置。
  9.  前記走行情報は、前記移動体の加速度の情報、前記移動体の位置情報、前記移動体の進行方向の情報、及び前記移動体の駐車又は停車の情報のうち少なくとも1つを含み
     前記周辺情報は、時間の情報、天候の情報、及び渋滞の状況の情報のうち少なくとも1つを含み、
     前記検出対象物は、前記移動体以外の移動体、ナンバープレート、人、人以外の動物、信号機、道路標識、路面標識、及び予め定められたランドマークのうち少なくとも1つを含むことを特徴とする請求項1~3のいずれか一項に記載の情報処理装置。
  10.  前記出力部は、出力される前記検出対象物が、前記指示操作を行う操作者の希望する希望対象物でなかった場合であって、前記操作者から再指示操作があった場合、前記評価対象画像の中から、前記希望対象物が有ったこと、前記希望対象物が無かったこと、及び前記希望対象物の有無のいずれかについて通知することを特徴とする請求項1~3のいずれか一項に記載の情報処理装置。
  11.  コンピュータで実行される情報処理方法であって、
     移動体の走行情報及び移動体の周辺情報を含む基礎情報を収集する情報収集工程と、
     連続的に撮影を行う撮影工程と、
     前記基礎情報が所定の条件を満たした場合又は指示操作を受け付けた場合のいずれかをトリガとして、前記撮影工程で撮影した画像の中から所定時間分の画像を、評価対象画像として設定する評価対象画像設定工程と、
     前記評価対象画像に係る前記トリガ及び前記基礎情報に基づいて検出対象物を設定する検出対象設定工程と、
     前記評価対象画像の中から設定された前記検出対象物が有ったことについて報知する出力工程と、を備えることを特徴とする情報処理方法。
  12.  請求項11に記載の情報処理方法を、コンピュータに実行させることを特徴とする情報処理プログラム。
  13.  請求項12に記載の情報処理プログラムを格納したことを特徴とするコンピュータにより読み取り可能な記憶媒体。
PCT/JP2022/017921 2022-02-28 2022-04-15 情報処理装置 WO2023162281A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024502791A JPWO2023162281A1 (ja) 2022-02-28 2022-04-15

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-030142 2022-02-28
JP2022030142 2022-02-28

Publications (1)

Publication Number Publication Date
WO2023162281A1 true WO2023162281A1 (ja) 2023-08-31

Family

ID=87765264

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/017921 WO2023162281A1 (ja) 2022-02-28 2022-04-15 情報処理装置

Country Status (2)

Country Link
JP (1) JPWO2023162281A1 (ja)
WO (1) WO2023162281A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111762A (ja) * 2015-12-18 2017-06-22 株式会社リコー 情報処理装置、情報処理システム、および情報処理プログラム
JP2017194898A (ja) * 2016-04-22 2017-10-26 京セラドキュメントソリューションズ株式会社 観光案内システム
JP2019061514A (ja) * 2017-09-27 2019-04-18 株式会社Jvcケンウッド 車両用画像記録装置、車両用画像記録方法および車両用画像記録プログラム
JP2021002163A (ja) 2019-06-20 2021-01-07 矢崎総業株式会社 ドライブレコーダ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111762A (ja) * 2015-12-18 2017-06-22 株式会社リコー 情報処理装置、情報処理システム、および情報処理プログラム
JP2017194898A (ja) * 2016-04-22 2017-10-26 京セラドキュメントソリューションズ株式会社 観光案内システム
JP2019061514A (ja) * 2017-09-27 2019-04-18 株式会社Jvcケンウッド 車両用画像記録装置、車両用画像記録方法および車両用画像記録プログラム
JP2021002163A (ja) 2019-06-20 2021-01-07 矢崎総業株式会社 ドライブレコーダ

Also Published As

Publication number Publication date
JPWO2023162281A1 (ja) 2023-08-31

Similar Documents

Publication Publication Date Title
JP7218535B2 (ja) 交通違反車両識別システム及びサーバ
KR101810964B1 (ko) 도로에서 안전한 법 집행을 위한 드론 장치 및 그의 제어 방법
JP7070683B2 (ja) 劣化診断装置、劣化診断システム、劣化診断方法、プログラム
JP6802035B2 (ja) 画像処理装置、警告装置、画像処理システム、画像処理方法
US20180359445A1 (en) Method for Recording Vehicle Driving Information and Creating Vehicle Record by Utilizing Digital Video Shooting
JP4470992B2 (ja) 映像管理システム
JP6815262B2 (ja) 交通違反検知装置、システム、交通違反検知方法およびプログラム
CN108765990B (zh) 一种智能交通控制方法、装置、设备及系统
JP5585194B2 (ja) 事故状況記録システム
JPWO2007080921A1 (ja) 情報記録システム、情報記録装置、情報記録方法及び情報収集プログラム
JP7255582B2 (ja) 危険行為解消システム、装置、方法、及び、プログラム
JP2009069885A (ja) 状態判定装置およびプログラム
WO2018032295A1 (zh) 事故现场还原方法、装置及运动监控设备
KR20200023674A (ko) 자율주행차량 관제 시스템 및 방법
JP2006293558A (ja) 事故情報取得システム
JP7340678B2 (ja) データ収集方法およびデータ収集装置
JP7436061B2 (ja) 運転支援装置、方法及びプログラム
JP7207916B2 (ja) 車載器
US20190213876A1 (en) Image distribution device, image distribution method, and storage medium storing image distribution program
KR102132831B1 (ko) 차량용 영상 처리 장치 및 이를 이용한 정보 제공 방법
WO2023162281A1 (ja) 情報処理装置
KR102025354B1 (ko) 위험차량 경고장치 및 그 동작 방법
WO2020121627A1 (ja) 車両制御装置、車両、車両制御方法およびプログラム
JP2002190013A (ja) 画像認識による渋滞検知システム及び渋滞検知方法
JP7504945B2 (ja) 管理装置、管理方法、管理システム、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22928803

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024502791

Country of ref document: JP