WO2018083793A1 - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
WO2018083793A1
WO2018083793A1 PCT/JP2016/082950 JP2016082950W WO2018083793A1 WO 2018083793 A1 WO2018083793 A1 WO 2018083793A1 JP 2016082950 W JP2016082950 W JP 2016082950W WO 2018083793 A1 WO2018083793 A1 WO 2018083793A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
display
summary information
displayed
unit
Prior art date
Application number
PCT/JP2016/082950
Other languages
English (en)
French (fr)
Inventor
諒 川合
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2018548529A priority Critical patent/JP6740539B2/ja
Priority to PCT/JP2016/082950 priority patent/WO2018083793A1/ja
Priority to US16/347,262 priority patent/US11532160B2/en
Publication of WO2018083793A1 publication Critical patent/WO2018083793A1/ja
Priority to US16/674,082 priority patent/US20200074184A1/en
Priority to US18/074,700 priority patent/US20230103243A1/en
Priority to US18/241,760 priority patent/US20230410510A1/en
Priority to US18/243,357 priority patent/US20230419665A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an information processing apparatus, a control method, and a program.
  • the camera video is used in various scenes. For example, video monitoring is performed using video from a camera that captures a surveillance location (so-called surveillance camera).
  • Patent Document 1 discloses a technique for detecting an important scene from a monitoring video and creating a summary video in which frames other than the important scene are thinned out.
  • the present invention has been made in view of the above problems.
  • One of the objects of the present invention is to provide a technique that facilitates browsing of a plurality of moving images.
  • the information processing apparatus includes (1) a summarizing unit that acquires a moving image generated by each of a plurality of cameras, performs summary processing of the acquired moving image, and generates summary information of the acquired moving image; 2) display control means for displaying the moving image on display means; The display control unit causes the display unit to display the summary information of the moving image when the change in the display mode of the moving image on the display unit satisfies a predetermined condition.
  • the control method of the present invention is executed by a computer.
  • the control method includes (1) a summarizing step of acquiring moving images generated by each of a plurality of cameras, performing summarization processing of the acquired moving images, and generating summary information of the acquired moving images; And a display control step for displaying a moving image on the display means.
  • the display control step causes the display unit to display the summary information of the moving image when a change in the display mode of the moving image on the display unit satisfies a predetermined condition.
  • the program of the present invention causes a computer to execute each step of the control method of the present invention.
  • a technique that facilitates browsing of a plurality of moving images is provided.
  • FIG. 3 is a diagram conceptually illustrating an operation of the information processing apparatus according to the first embodiment. It is a figure which illustrates the information processor concerning Embodiment 1 with the use environment. It is a figure which illustrates the computer for implement
  • 3 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the first embodiment.
  • each block diagram represents a functional unit configuration, not a hardware unit configuration.
  • FIG. 1 is a diagram conceptually illustrating the operation of the information processing apparatus 2000 according to the first embodiment.
  • FIG. 1 is an illustration for the purpose of facilitating understanding of the operation of the information processing apparatus 2000, and the operation of the information processing apparatus 2000 is not limited by FIG.
  • the camera 10 performs imaging to generate still image data or moving image data.
  • the moving image 30 is moving image data based on the imaging result of the camera 10.
  • the moving image 30 is displayed on the display system 20.
  • the user of the information processing apparatus 2000 can browse the moving image 30.
  • the information processing device 2000 is a device that presents a monitoring video to a monitoring person.
  • the camera 10 is a surveillance camera that captures an image of a location to be monitored.
  • the user of the information processing apparatus 2000 is a monitor who monitors the monitoring location by browsing the moving image 30.
  • the information processing apparatus 2000 generates summary information of the moving image 30.
  • the summary information of the moving image 30 indicates arbitrary information obtained from the content of the moving image 30.
  • the summary information indicates a staying time, a trajectory of movement, and the like for a person shown in the moving image 30.
  • the information processing apparatus 2000 displays the summary information of the moving image 30 on the display system 20.
  • the summary information in FIG. 1 is an arrow indicating the movement trajectory of the person shown in the moving image 30.
  • the summary information of the moving image 30 is displayed when the change in the display mode of the moving image 30 in the display system 20 satisfies a predetermined condition.
  • the user of the information processing apparatus 2000 can easily grasp the contents of the past moving image 30 by looking at the summary information of the moving image 30.
  • FIG. 2 is a diagram illustrating the information processing apparatus 2000 according to the first embodiment together with the usage environment.
  • the information processing apparatus 2000 includes a summarization unit 2040 and a display control unit 2060.
  • the summarizing unit 2040 acquires the moving image 30 generated by each of the plurality of cameras 10.
  • the summary unit 2040 performs the summary process of the moving image 30 and generates summary information of the moving image 30.
  • the display control unit 2060 displays the moving image 30 on the display system 20.
  • the display control unit 2060 causes the display system 20 to display the summary information of the moving image 30 when the change in the display mode of the moving image 30 on the display system 20 satisfies the predetermined condition.
  • the moving images 30 are generated by the plurality of cameras 10, respectively.
  • a user for example, a monitor
  • the information processing apparatus 2000 browsing the moving image 30 must grasp the occurrence of an abnormality from the plurality of moving images 30.
  • a large amount of labor is required to grasp the contents of the plurality of moving images 30.
  • an important scene in the moving image 30 may be overlooked.
  • summary information in which the content of the moving image 30 is summarized is generated.
  • the summary information is displayed on the display system 20 when the change in the display mode of the moving image 30 satisfies a predetermined condition.
  • the predetermined condition is appropriately determined, the summary information of the moving image 30 can be displayed on the display system 20 at a timing when it is desirable for the user to be able to grasp the contents of the moving image 30 in a concise manner. Therefore, according to the information processing apparatus 2000 of the present embodiment, browsing of the plurality of moving images 30 is facilitated. As a result, it is possible to reduce the user's labor required for browsing the plurality of moving images 30 and prevent an important scene from being overlooked.
  • Each functional component of the information processing apparatus 2000 may be realized by hardware (eg, a hard-wired electronic circuit) that implements each functional component, or a combination of hardware and software (eg: It may be realized by a combination of an electronic circuit and a program for controlling it).
  • hardware eg, a hard-wired electronic circuit
  • software eg: It may be realized by a combination of an electronic circuit and a program for controlling it.
  • FIG. 3 is a diagram illustrating a computer 1000 for realizing the information processing apparatus 2000.
  • the computer 1000 is an arbitrary computer.
  • the computer 1000 is a Personal Computer (PC), a server machine, a tablet terminal, or a smartphone.
  • the computer 1000 may be a dedicated computer designed for realizing the information processing apparatus 2000 or a general-purpose computer.
  • the computer 1000 includes a bus 1020, a processor 1040, a memory 1060, a storage 1080, an input / output interface 1100, and a network interface 1120.
  • the bus 1020 is a data transmission path through which the processor 1040, the memory 1060, the storage 1080, the input / output interface 1100, and the network interface 1120 transmit / receive data to / from each other.
  • the method of connecting the processors 1040 and the like is not limited to bus connection.
  • the processor 1040 is an arithmetic device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the memory 106 is a main storage device realized using a RAM (Random Access Memory) or the like.
  • the storage device 1080 is an auxiliary storage device realized by using a hard disk, an SSD (Solid State Drive), a memory card, or a ROM (Read Only Memory). However, the storage device 1080 may be configured by hardware similar to the hardware configuring the main storage device such as a RAM.
  • the input / output interface 1100 is an interface for connecting the computer 1000 and an input / output device.
  • the network interface 1120 is an interface for connecting the computer 1000 to a communication network.
  • This communication network is, for example, “LAN (Local Area Network)” or “WAN (Wide Area Network)”.
  • a method of connecting the network interface 1120 to the communication network may be a wireless connection or a wired connection.
  • the computer 1000 is communicably connected to the camera 10 via a network.
  • the method of connecting the computer 1000 so as to be communicable with the camera 10 is not limited to connection via a network.
  • the computer 1000 may not be connected to the camera 10 so as to be communicable.
  • the storage 1080 stores a program module that implements each functional component (summary unit 2040 and display control unit 2060) of the information processing apparatus 2000.
  • the processor 1040 implements a function corresponding to each program module by reading each program module into the memory 1060 and executing the program module.
  • the information processing apparatus 2000 may be realized using a plurality of computers 1000.
  • the information processing apparatus 2000 can be realized by two computers: a first computer 1000 that implements the function of the summarizing unit 2040 and a second computer 1000 that implements the function of the display control unit 2060.
  • the first computer is a computer that performs processing for generating summary information.
  • the second computer is a computer that performs processing for displaying the summary information on the display system 20.
  • the second computer acquires summary information from the first computer by an arbitrary method.
  • the first computer 1000 and the second computer 1000 are realized by, for example, a PC, a server machine, a tablet terminal, or a smartphone as described above.
  • the first computer 1000 may be realized by the camera 10.
  • the camera 10 generates summary information by performing a summary process on the moving image 30 generated by itself.
  • the second computer 1000 acquires the summary information generated by the camera 10.
  • the camera 10 having the function of the summarizing unit 2040 is a camera called an intelligent camera, a network camera, an IP (Internet Protocol) camera, or the like, for example.
  • the camera 10 is an arbitrary camera that captures images and generates still image data or moving image data.
  • the moving image 30 is configured based on data generated by the camera 10.
  • the moving image 30 is moving image data generated by the camera 10.
  • the moving image 30 is composed of a sequence of a plurality of still image data generated by the camera 10.
  • the camera 10 may be a camera whose position is fixed (hereinafter referred to as a fixed camera), or may be a camera whose position is not fixed (hereinafter referred to as a moving camera).
  • the fixed camera is a camera that is fixedly installed in various places such as a wall, a pillar, or a ceiling. The place where the fixed camera is installed may be indoors or outdoors.
  • the wall or the like on which the fixed camera is installed is not limited to real estate as long as the position is fixed for a certain period of time.
  • a wall or the like on which a fixed camera is installed may be a partition or a pillar that is temporarily installed in an event venue or the like.
  • a moving body equipped with a camera that can also be used as a moving camera may be stopped at a certain place, and the camera may be used as a fixed camera.
  • the moving body is, for example, a car, a motorcycle, a robot, or a flying object (for example, a drone or an airship).
  • the moving camera is, for example, a camera that is worn by a person or attached to the moving body described above.
  • the mobile camera worn by a person is, for example, a camera held by hand (camera of a mobile terminal such as a video camera or a smartphone) or a camera (wearable camera or the like) fixed to the head or chest.
  • a camera attached to a car, a motorcycle, a robot, a flying object, or the like may be a camera attached for use as a so-called drive recorder, or separately for generating a moving image 30 to be provided to the information processing apparatus 2000. It may be an attached camera.
  • the location imaged by the camera 10 is arbitrary.
  • the camera 10 when the camera 10 is a surveillance camera, the camera 10 captures an image of a location to be monitored.
  • the location to be monitored is, for example, the route in or around the event venue, or the route between the event venue and the nearest station.
  • the place imaged by the camera 10 may be indoors or outdoors.
  • the display system 20 is configured by one or a plurality of display devices.
  • several display modes of the moving image 30 in the display system 20 will be exemplified.
  • an example in which the display system 20 is configured by one display device 22 will be described.
  • FIG. 4 is a first diagram illustrating the display mode of the moving image 30 in the display system 20.
  • the display device 22 of FIG. 4 has one display area 24 for displaying the moving image 30.
  • the display control unit 2060 displays a plurality of moving images 30 in order in the display area 24.
  • the moving image 30-1 and the moving image 30-2 are generated by the two cameras 10-1 and the target object 40-2, respectively.
  • the moving image 30 is displayed in the order of moving image 30-1, moving image 30-2, moving image 30-1, moving image 30-2,.
  • FIG. 5 is a second diagram illustrating the display mode of the moving image 30 in the display system 20.
  • a plurality of moving images 30 are simultaneously displayed on the display device 22.
  • a plurality of display areas 24 having the same size are provided on the display device 22, and different moving images 30 are displayed in the display areas 24.
  • the number of moving images 30 (the number of cameras 10) is larger than the number of display areas 24.
  • a plurality of moving images 30 are displayed in order in each display area 24.
  • the display control unit 2060 displays the two moving images 30 alternately in each display region 24.
  • FIG. 6 is a third diagram illustrating the display mode of the moving image 30 in the display system 20.
  • the display device 22 of FIG. 6 also has a plurality of display areas 24.
  • the display device 22 of FIG. 6 has two types of display areas 24 having different sizes.
  • the sizes of the display area 24-2 to the display area 24-8 are the same.
  • the size of the display area 24-1 is larger than the sizes of the other display areas 24.
  • the moving image 30 displayed in the display area 24-1 is automatically determined by the display control unit 2060, for example.
  • the display control unit 2060 displays a plurality of moving images 30 in order in the display area 24-1.
  • the moving image 30 displayed in the display area 24-1 may be selected by the user of the information processing apparatus 2000.
  • the display device 22 includes a touch panel.
  • the user performs an operation of touching any one of the display areas 24-2 to 24-8.
  • the display control unit 2060 changes the display position of the moving image 30 displayed in the touched display area 24 to the display area 24-1.
  • FIG. 7 is a fourth diagram illustrating the display mode of the moving image 30 in the display system 20.
  • FIG. 7 is the same as FIG. 6 except that a plurality of display areas 24 having a large size are provided.
  • the display system 20 may be composed of a plurality of display devices 22.
  • each of the plurality of display areas 24 in the above example is realized by one display device 22.
  • the display control unit 2060 handles each display device 22 in the same manner as the display area 24 in the above example.
  • FIG. 8 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the first embodiment.
  • the summarizing unit 2040 acquires the moving image 30 from each camera 10 (S102).
  • the summary unit 2040 generates summary information of the moving image 30 (S104).
  • the display control unit 2060 displays the summary information of the moving image 30 on the display system 20 (S108).
  • the summarizing unit 2040 acquires the moving image 30 (S102).
  • the method by which the summary unit 2040 acquires the moving image 30 is arbitrary.
  • the summary unit 2040 receives the moving image 30 transmitted from the camera 10.
  • the summary unit 2040 accesses the camera 10 and acquires the moving image 30 stored in the camera 10.
  • the camera 10 may store the moving image 30 in a storage device provided outside the camera 10.
  • the summary unit 2040 accesses the storage device and plays the moving image 30.
  • each moving image 30 generated by the plurality of cameras 10 may be stored in the same storage device, or may be stored in different storage devices.
  • the summarizing unit 2040 is a storage device (for example, the memory 1060 or the storage device 1080 in FIG. 3). ) Is stored.
  • the summary unit 2040 performs a summary process on the moving image 30 to generate summary information on the moving image 30 (S104).
  • the summary information indicates arbitrary information obtained from the content of the moving image 30.
  • the content of the summary information of the movie 30 can be grasped concisely by browsing the summary information of the movie 30 rather than viewing the movie 30 itself.
  • the content of the summary information is a concise representation of content important to the user among the content of the moving image 30.
  • the important content for the user is, for example, the characteristics of the object shown in the moving image 30.
  • the summary information indicates a feature of an object, the object is referred to as a “target object”.
  • the target object is a person.
  • the target object is the above-described arbitrary moving object.
  • the target object may be an object carried by a person or a moving object (for example, luggage such as a bag).
  • the characteristics of the target object are, for example, a residence time, a movement time, a movement speed, or a movement mode.
  • the staying time represents the length of the period during which the target object stays in the moving image 30.
  • the stay means stop or hardly moving (for example, the size of the moving range is a predetermined value or less).
  • the movement time represents the length of a period during which the target object is moving in the moving image 30.
  • the movement means not staying (for example, the size of the moving range is larger than the predetermined range).
  • the moving speed represents the moving speed (for example, average speed) of the target object during the period in which the target object is moving.
  • the movement mode represents, for example, a movement locus (whether it is moving straight or meandering).
  • the residence time indicated by the summary information may be each of a plurality of residence times, or a statistical value (total value, mode value, or average) of a plurality of residence times. Value). The same applies to the movement time, the movement speed, and the movement mode.
  • a target object to be noted can be identified and the target object can be monitored with priority. For example, when there is a person who stays for a long time in a place where a person usually does not stop, the person is acting suspiciously and is considered to be a remarkable person. In addition, when a bag or the like is left in a place where the object is not normally left, the object is suspicious and can be said to be remarkable.
  • the characteristics of the target object are not limited to the above example. Other examples of the characteristics of the target object will be described later.
  • the summary unit 2040 detects the target object from the video 30 and calculates the characteristics of the target object. For example, the summarizing unit 2040 calculates a change in the position of the target object by detecting the target object from each frame constituting the moving image 30. The summarizing unit 2040 calculates the above-described residence time, movement time, movement speed, movement mode, and the like from the change in the position of the target object. Note that when a plurality of different target objects are detected from the moving image 30, the summarizing unit 2040 calculates a feature for each of these target objects.
  • the summary unit 2040 may calculate various attribute values (hereinafter, attribute values) for the target object, and include these attribute values in the characteristics of the target object.
  • the attributes of the person include, for example, age group, gender, nationality, presence / absence of belongings, or whether or not the person has difficulty walking.
  • the person who has difficulty walking means a person who walks with assistance from an animal or another person, or a person who walks using an auxiliary tool.
  • An animal that assists those who have difficulty walking is, for example, a guide dog.
  • Auxiliary tools used by people with difficulty walking are, for example, crutches and wheelchairs.
  • the age group attribute values are various values representing the age group. For example, it is an approximate number of ages (10's or 20's) and a category (child, young man, old man, etc.) representing the age.
  • the attribute value of gender is male or female.
  • the attribute value of nationality is a value that represents the characteristics of a person based on the country where he / she was born or where he / she lives.
  • the nationality attribute value indicates either Japanese or a foreigner.
  • the nationality attribute value indicates a country classification such as Asia, Europe, or Africa.
  • the nationality attribute value may indicate the language used (Japanese, English, Chinese, etc.).
  • the attribute value of presence / absence of belongings indicates whether or not various belongings have or are used.
  • belongings include a cane, a wheelchair, a stroller, and the like.
  • the attribute value of presence / absence of a wand indicates whether or not the wand is used or whether or not the wand is used.
  • the attribute value indicating whether or not the person has difficulty walking represents whether or not the person is assisted by an animal or another person, or whether or not an assisting tool is used. For example, whether or not a certain person is difficult to walk can be determined by the presence or absence of an animal or other person who assists the person. For example, when the summary unit 2040 detects from the video 30 that a certain person A is supported by another person B, the summarizing unit 2040 determines that the person A is a person with difficulty walking. In addition, when the summary unit 2040 detects from a moving image 30 that a certain person is moving with an animal having a predetermined characteristic such as a guide dog, the summary unit 2040 determines that the person is a person with difficulty walking.
  • whether or not a certain person is a person with difficulty in walking can be determined based on whether or not an assisting device is used. For example, when a person using a predetermined tool such as a crutch or a wheelchair is detected from the moving image 30, the summarizing unit 2040 determines that the person is a person who has difficulty walking.
  • summary information indicating such person's attributes for example, an elderly person, a foreigner, a lost child, or a person who has difficulty walking can be identified and focused on that person. Can be monitored. In addition, in order to respond to such a person, it is possible to take measures such as sending an attendant to the place where the person is.
  • FIG. 9 is a diagram illustrating the summary information in a table format.
  • the table shown in FIG. Table 500 has columns of identifier 502 and feature 504.
  • the identifier 502 is an identifier of the target object.
  • a feature 504 indicates the feature of the target object specified by the identifier 502.
  • a feature 504 includes a residence time 506, a travel time 508, and the like.
  • the display control unit 2060 detects that a change in the display mode of a certain moving image 30 satisfies a predetermined condition in the display system 20 (S106).
  • a predetermined condition Various conditions can be adopted as the predetermined condition.
  • the predetermined condition some examples of the predetermined condition will be described.
  • the moving image 30-1 is the moving image 30 generated by the camera 10-1.
  • the predetermined condition is, for example, a condition that “a state in which the moving image 30 is not displayed on the display system 20 is switched to a state in which the moving image 30 is displayed on the display system 20”.
  • FIG. 10 is a first diagram illustrating the timing for displaying the summary information of the moving image 30 based on the first example of the predetermined condition.
  • the moving image 30-1 is displayed on the display system 20 from the time point t1 to the time point t2. On the other hand, the moving image 30-1 is not displayed on the display system 20 from the time point t2 to the time point t3. Then, after time t3, the moving image 30-1 is displayed on the display system 20 again.
  • the display control unit 2060 displays the summary information of the moving image 30-1 on the display system 20 at the timing when the predetermined condition is satisfied, that is, at the time point t3.
  • the summary information displayed on the display system 20 by the display control unit 2060 includes the first time point when the display mode of the moving image 30 is switched from the first display mode to the second display mode, and the display mode of the moving image 30 is the second. It is preferable that the summary information is generated for a period between the second display time point when the display mode is switched to the first display mode.
  • the first time point is a time point when the state in which the moving image 30 is displayed on the display system 20 is switched to a state in which the moving image 30 is not displayed on the display system 20, that is, a time point t ⁇ b> 2.
  • the second time point is the time point t3 when the moving image 30 is switched from the state where the moving image 30 is not displayed on the display system 20 to the state where the moving image 30 is displayed on the display system 20. That is, the summary information generated for the period between time t2 and time t3 is displayed on the display system 20.
  • the summary information of such a period By displaying the summary information of such a period on the display system 20, the period when the moving image 30-1 is not displayed on the display system 20, that is, the period when the user cannot view the moving image 30-1.
  • the summary information of the moving image 30 is displayed on the display system 20. By viewing this summary information at time t3, the user can easily grasp what was happening in the imaging range of the camera 10-1 during the period when the moving image 30-1 could not be viewed.
  • the predetermined condition is, for example, a condition that “the display system 20 switches from a state in which the moving image 30 is displayed in a relatively small size to a state in which the moving image 30 is displayed in a relatively large size”.
  • FIG. 11 is a diagram illustrating a state in which summary information of the moving image 30 is displayed based on the second example of the predetermined condition. From time t1 to time t2, the moving image 30-1 is displayed in the display area 24-1 of the display system 20. On the other hand, the moving image 30-1 is displayed in the display area 24-2 of the display system 20 between the time points t2 and t3. After time t3, the moving image 30-1 is displayed again in the display area 24-1.
  • the size of the display area 24-1 is larger than the size of the display area 24-2. Therefore, the moving image 30-1 is displayed on the display system 20 with a relatively small size from the time point t2 to the time point t3.
  • the display control unit 2060 displays the summary information of the moving image 30-1 on the display system 20 at the timing when the predetermined condition is satisfied, that is, at the time point t3.
  • the display control unit 2060 causes the display system 20 to display the summary information generated for the moving image 30 during the period from time t2 to t3.
  • the time point t2 is a time point when a condition that “a state in which the moving image 30 is displayed in a relatively large size on the display system 20 is switched to a state in which the moving image 30 is displayed in a relatively small size” is satisfied.
  • the period from the time point t2 to the time point t3 is a period during which the moving image 30-1 is displayed small on the display system 20, and thus it can be said that it is difficult for the user to view the moving image 30-1. Therefore, by viewing the summary information of the moving image 30 in such a period at the time point t3, the user can easily grasp what has occurred in the imaging range of the camera 10-1 during the period when it was difficult to view the moving image 30-1. can do.
  • the predetermined condition is, for example, “a state in which the moving image 30 is displayed at a position relatively easy to enter the user's field of view from a state in which the moving image 30 is relatively difficult to enter the user's field of view on the display system 20. It is a condition of “switch to”.
  • FIG. 12 is a diagram illustrating a state in which summary information of the moving image 30 is displayed based on the third example of the predetermined condition. From time t1 to time t2, the moving image 30-1 is displayed in the display area 24-1 of the display system 20. On the other hand, the moving image 30-1 is displayed in the display area 24-2 of the display system 20 between the time points t2 and t3. After time t3, the moving image 30-1 is displayed again in the display area 24-1.
  • the display area 24-1 is at a position where the front direction of the user intersects with the display system 20. Therefore, the display area 24-2 is farther from the position where the front direction of the user of the information processing apparatus 2000 intersects the display system 20 than the display area 24-1. Therefore, it can be said that the moving image 30-1 is more difficult for the user to view than the other period from the time point t2 to the time point t3.
  • the display control unit 2060 displays the summary information of the moving image 30-1 on the display system 20 at the timing when the predetermined condition is satisfied, that is, at the time point t3.
  • the display control unit 2060 causes the display system 20 to display the summary information generated for the moving image 30 during the period from time t2 to t3.
  • the time point t ⁇ b> 2 is “in the display system 20, the state in which the moving image 30 is displayed at a position relatively easy to enter the user's field of view is switched to the state in which the moving image 30 is displayed at a position relatively difficult to enter the user's field of view. "Is the time when the condition" is satisfied.
  • the user who sees the summary information can easily grasp what has occurred in the imaging range of the camera 10-1 during the period when it was difficult to view the moving image 30-1.
  • the above-mentioned “front direction of the user” can be, for example, the front direction of the user's face, the front direction of the user's trunk, or the user's line-of-sight direction.
  • the position of the user is fixed (for example, when the position of the chair where the user sits is fixed)
  • the relationship between each display region 24 and the position where the front direction of the user intersects the display system 20 is It can be determined in advance.
  • the summary unit 2040 may specify the front direction of the user by analyzing an image generated by a camera that captures the user. In this way, the summary unit 2040 can calculate the relationship between each display area 24 and the position where the front direction of the user intersects the display system 20.
  • the camera which images a user is provided in the vicinity of the display system 20, for example.
  • an existing method can be used as a specific method for specifying the front direction of the user's face described above.
  • each display area 24 may be associated in advance with a degree of easy entry into the user's field of view. This association information is stored in advance in a storage device accessible from the display control unit 2060.
  • the timing at which the summary information is displayed on the display system 20 may not be limited to the timing at which the display mode of the moving image 30 satisfies the predetermined condition.
  • the information processing apparatus 2000 may display the summary information of the moving image 30 on the display system 20 in response to receiving an input for selecting the moving image 30 displayed on the display system 20 from the user. .
  • the display control unit 2060 displays the summary information of the moving image 30 on the display system 20 in response to the change in the display mode of the moving image 30 satisfying the predetermined condition (S108).
  • S108 the predetermined condition
  • Various types of summary information display modes can be employed. Hereinafter, some examples of specific display modes of summary information will be described. In the following examples, the summary information is generated for the moving image 30-1 generated by the camera 10-1.
  • FIG. 13 is a first diagram illustrating a display mode of summary information.
  • the moving image 30-1 (so-called live video) generated in real time by the camera 10-1 is displayed in the display area 24 of the display system 20.
  • the summary information of the moving image 30-1 is also displayed in the display area 24.
  • the summary information of the moving image 30-1 is displayed superimposed on the live video generated by the camera 10-1.
  • the summary information in FIG. 13 shows that the target object 40 shown in the moving image 30-1 is (1) 10 seconds of stay, (2) 2 seconds of movement, (3) 13 seconds of stay, (4) 1 second of It shows that it acted in order of movement.
  • An arrow represents a trajectory of movement of the target object 40.
  • the moving image 30-1 includes a plurality of target objects 40
  • summary information for each target object 40 is displayed.
  • FIG. 14 is a second diagram illustrating the display mode of summary information.
  • live video generated by the camera 10-1 is displayed in the display area 24-1.
  • the summary information 50-1 of the moving image 30-1 is displayed not in the display area 24-1, but in the display area 24-2. That is, in this example, the display area 24 where the summary information of the moving image 30-1 is displayed is different from the display area 24 where the moving image 30-1 is displayed.
  • summary information regarding each of the plurality of target objects 40 is generated for the moving image 30-1.
  • the plurality of summary information may be displayed in one display area 24 (display area 24-2 in FIG. 14) or may be displayed in different display areas 24. In the former case, a plurality of pieces of summary information may be displayed simultaneously or sequentially.
  • the summary information of the moving image 30-1 may be displayed on the display system 20 at a timing when the moving image 30-1 is not displayed on the display system 20.
  • the display control unit 2060 displays the summary information of the moving image 30-1 on the display area 24-1 of the display device 22 for a predetermined period from the timing when the predetermined condition described above is satisfied for the moving image 30-1. Meanwhile, the display control unit 2060 does not display the moving image 30 on the display system 20. Then, after the predetermined period has elapsed, the display control unit 2060 displays the moving image 30 in the display area 24-1.
  • the summary information is represented by stationary data such as characters and figures.
  • the summary information may be generated as moving image data.
  • the summary information of the moving image 30 is generated by omitting some frames of the moving image 30.
  • the summarizing unit 2040 omits one or more frames other than the frame where the stationary object starts and the frame where the stationary object ends during the period in which the target object is stationary.
  • the summarizing unit 2040 omits one or more frames other than the frame in which the movement starts and the frame in which the movement ends with respect to the frame during the period in which the target object is moving.
  • the target object is a person
  • the summary unit 2040 generates summary information of the moving image 30 (S104). There are various timings at which the summary unit 2040 generates summary information. Some examples of the timing will be described below.
  • the summary unit 2040 repeatedly analyzes the moving image 30 at a predetermined period, and generates summary information individually for a plurality of time ranges of the moving image 30.
  • FIG. 15 is a first diagram illustrating how summary information is generated.
  • the summary unit 2040 analyzes the moving image 30 between time t1 and time t2 at time t2, and generates summary information 50-1 based on the result. Further, the summary unit 2040 analyzes the moving image 30 from the time point t2 to the time point t3 at the time point t3, and generates summary information 50-2 based on the result.
  • the target object stays for 20 seconds from time t1 to time t2, and the target object stays for 30 seconds from time t2 to time t3. Therefore, the summary unit 2040 generates summary information 50-1 indicating “stay time: 20 seconds” and summary information 50-2 indicating “stay time: 30 seconds”, respectively.
  • FIG. 16 is a diagram illustrating a state in which the display control unit 2060 selects summary information 50 to be displayed on the display system 20.
  • the display control unit 2060 causes the display system 20 to display the summary information 50 regarding the moving image 30 between the time point T1 and the time point T2.
  • the summary information 50 generated for the moving image 30 between time T1 and time T2 is summary information 50-2 and summary information 50-3. Therefore, the display control unit 2060 displays the summary information 50-2 and the summary information 50-3 on the display system 20.
  • the display control unit 2060 may further display the summary information 50-1 on the display system 20 in addition to the summary information 50-2 and the summary information 50-3.
  • the display control unit 2060 may individually display the plurality of summary information 50 on the display system 20, or a process for collecting the plurality of summary information 50 into one. (For example, statistical processing) may be performed, and one summary information 50 generated as a result may be displayed on the display system 20.
  • the generation of summary information that is performed periodically may be executed repeatedly (for example, when the information processing apparatus 2000 is activated) or may be started at a specific timing.
  • the specific timing is the above-described “first time point when the display mode of the moving image 30 is switched from the first display mode to the second display mode”. More specifically, “when video 30 is switched from a state where video 30 is displayed on display system 20 to a state where video 30 is not displayed on display system 20”, “video 30 is displayed on display system 20 in a relatively large size. From the state in which the moving image 30 is switched to a state in which the moving image 30 is displayed in a relatively small size ”or“ in the display system 20, the moving image 30 is displayed at a position relatively easy to enter the user's field of view. “30 when the screen is switched to a state where 30 is displayed at a position that is relatively difficult to enter the user's field of view”.
  • Timing 2 for generating summary information the summary unit 2040 repeatedly analyzes the moving image 30 at a predetermined cycle. However, the summary unit 2040 repeatedly updates one summary information 50 based on the analysis result of the moving image 30.
  • FIG. 17 is a first diagram illustrating how the summary information is updated.
  • the summary unit 2040 analyzes the moving image 30 between time t1 and time t2 at time t2, and generates summary information 50 based on the result. Thereafter, the summary unit 2040 analyzes the moving image 30 from the time point t2 to the time point t3 at the time point t3, and updates the summary information 50 based on the result. Assume that the residence time of the target object from time t1 to time t2 is 20 seconds, and the residence time of the target object from time t2 to time t3 is 30 seconds.
  • the summary information 50 is updated by overwriting. Therefore, the summary unit 2040 overwrites the content of the summary information 50 “residence time: 20 seconds” with the information “residence time: 30 seconds”. In addition, for example, the summary unit 2040 may perform a process of overwriting the summary information 50 with 25 seconds that is an average value of the residence time in two periods.
  • FIG. 18 is a second diagram illustrating how the summary information is updated. Except for the updating method, FIG. 18 shows the same contents as FIG.
  • the summary information 50 is updated by integrating the new analysis result with the previous analysis result. For this reason, the summary unit 2040 adds information “residence time: 30 seconds” to the summary information 50.
  • the summary unit 2040 may generate summary information to be displayed at a timing when the above-described predetermined condition (condition for displaying the summary information of the moving image 30 on the display system 20) is satisfied. In this case, for example, the summary unit 2040 generates summary information for the moving image 30 during a period from a time point a predetermined time before the timing to the timing.
  • the display control unit 2060 sets the camera 10 when the predetermined condition described above is satisfied.
  • a summary information generation request may be transmitted to the terminal.
  • the summary unit 2040 generates summary information for the moving image 30 in a period from a time point a predetermined time before the timing to the timing when the request is received. Then, the display control unit 2060 acquires summary information generated by the camera 10.
  • FIG. 1 An information processing apparatus 2000 according to the second embodiment is illustrated in FIG. 1 in the same manner as the information processing apparatus 2000 according to the first embodiment. Except for the items described below, the information processing apparatus 2000 of the second embodiment has the same functions as the information processing apparatus 2000 of the first embodiment.
  • the display control unit 2060 of the second embodiment displays a plurality of pieces of summary information generated from different moving images 30 on the display system 20, the summary information is displayed on the display system 20 in consideration of the priority of each summary information. Display.
  • FIG. 19 is a diagram illustrating an assumed environment of the information processing apparatus 2000 according to the second embodiment.
  • the summary information of the moving image 30 is displayed in a display area 24 different from the display area 24 where the moving image 30 is displayed.
  • the display system 20 has one display device 22, and the display device 22 includes three display areas 24-1 to 24-3.
  • the moving image 30-1 and the moving image 30-2 are alternately displayed in the display area 24-1, and the moving image 30-3 and the moving image 30-4 are alternately displayed in the display area 24-2.
  • Any summary information is displayed in 3. It is assumed that the priority of the summary information of the moving image 30-1 is higher than the priority of the summary information of the moving image 30-3.
  • the display control unit 2060 displays the summary information of the high-priority video 30-1 among the summary information of the video 30-1 and the summary information of the video 30-3 in the display area 24-3.
  • the display control unit 2060 may display only the summary information of the moving image 30-1 in the display region 24-3, or first display the summary information of the moving image 30-1 in the display region 24-3. Thereafter, the summary information of the moving image 30-3 may be displayed in the display area 24-3.
  • the process of displaying the summary information based on the priority is necessary when the number of summary information to be displayed is larger than the number of display areas available for displaying the summary information.
  • Such a case is not limited to the case illustrated using FIG.
  • the display system 20 has the layout shown in FIG. Then, it is assumed that the two moving images 30 are alternately displayed in each of the display areas 24-1 to 24-9. On the other hand, it is assumed that the summary information of any one moving image 30 is displayed in the display area 24-10.
  • the display control unit 2060 determines summary information to be displayed in the display area 24-10 according to the priority of the summary information to be displayed.
  • Priorities are determined for each camera 10. Then, the priority of the camera 10 is set as the priority of the summary information of the moving image 30 generated by the camera 10. For example, the priority of the summary information of the moving image 30-1 is a priority associated with the camera 10-1 that generates the moving image 30-1.
  • priority information information indicating the priority of the camera 10 is referred to as priority information.
  • FIG. 20 is a diagram illustrating priority information in a table format.
  • the table in FIG. 20 is referred to as a table 600.
  • the table 600 has a camera identifier 602 and a priority 604.
  • the camera identifier 602 represents the identifier of the camera 10.
  • a priority 604 indicates a priority associated with the camera 10.
  • Priority information (for example, table 600) is stored in advance in a storage device accessible from the display control unit 2060.
  • This storage device may be provided inside the information processing apparatus 2000 or may be provided outside the information processing apparatus 2000.
  • the priority of summary information may be determined based on the content of the summary information. For example, the display control unit 2060 treats any numerical value indicated in the summary information as the priority of the summary information. For example, when the summary information indicates the stay time of the target object, the display control unit 2060 treats the stay time value as the priority of the summary information. By doing so, the priority of the summary information of the moving image 30 with the longer residence time of the target object becomes higher.
  • the numerical value treated as the priority is not limited to the residence time.
  • the display control unit 2060 calculates the score of the summary information using a rule (for example, a function) for calculating the score of the summary information from the content of the summary information, and uses the score as the priority of the priority information. May be handled.
  • a rule for example, a function
  • FIG. 21 is a diagram illustrating the relationship between the residence time and the priority of summary information.
  • the horizontal axis represents the residence time of the person shown in the moving image 30, and the vertical axis represents the summary information score of the moving image 30.
  • the maximum score is 100.
  • the score of the summary information is maximized when the person starts to stay. And the score of summary information becomes small, so that residence time becomes long.
  • the summary information score increases at the timing when the residence time reaches the predetermined value t1. By doing so, the summary information of the person staying for a long time equal to or greater than the predetermined value is easily displayed on the display system 20.
  • the rule for calculating the score of the summary information may include a rule for increasing the score according to the occurrence of a predetermined event.
  • the predetermined event is a contact with another person.
  • FIG. 22 is a diagram illustrating the time change of the score of the summary information.
  • the rule for calculating the score of summary information is defined by a combination of (1) the rule shown in FIG. 21 and (2) a rule that increases the score according to contact with another person.
  • the staying person is in contact with another person at time t2. For this reason, the score of the summary information is increased at time t2.
  • the priority of summary information may be calculated using each score calculated from a plurality of pieces of information included in summary information.
  • the display control unit 2060 calculates the priority of the summary information using the following formula (1).
  • Equation (1) p is the priority of summary information. wi is a weight given to each piece of information i (such as residence time) included in the summary information. di is the value of information i included in the summary information. fi is a function for calculating the score of summary information for information i.
  • the display control unit 2060 may determine the display position of the summary information based on the priority of the summary information. For example, a priority is associated with each display area 24 for displaying summary information in advance. Then, the display control unit 2060 matches the summary information and the display area 24 so that the summary information with higher priority is displayed in the display area 24 with higher priority. Here, it is preferable to increase the priority of the display area 24 that is easy for the user to see.
  • the priority of the display area 24 is stored in advance in a storage device accessible from the display control unit 2060.
  • the information processing apparatus 2000 according to the second embodiment is realized by using the computer 1000 as in the first embodiment (see FIG. 4).
  • each program module stored in the storage 1080 described above further includes a program that realizes each function described in the present embodiment.
  • the information processing device 2000 determines a summary information display method based on the priority of the summary information. In this way, for example, “summary information with higher priority is easier to see for the user of the information processing apparatus 2000”. Therefore, it is possible to more reliably prevent important information from being overlooked. In addition, the convenience of the information processing apparatus 2000 is improved for the user of the information processing apparatus 2000.
  • Summarization means for acquiring a moving image generated by each of a plurality of cameras, performing summarization processing of the acquired moving image, and generating summary information of the acquired moving image
  • Display control means for displaying the moving image on the display means, The information processing apparatus, wherein the display control unit causes the display unit to display the summary information of the moving image when a change in display mode of the moving image on the display unit satisfies a predetermined condition.
  • the display control unit In response to the display control unit switching the display mode of the first moving image from the mode not displayed on the display unit to the mode displayed on the display unit, the display control unit displays the summary information of the first moving image.
  • the display control unit changes the display mode of the first moving image from the mode displayed on the display unit in the first size to the mode displayed on the display unit in the second size larger than the first size.
  • the display unit displays summary information of the first moving image.
  • the summarizing means includes a first time point when a display mode of the first moving image on the display unit is switched from a first display mode to a second display mode, and a display mode of the first moving image on the display unit is the second display mode. Causing the display means to display summary information of the first moving image generated for a period between a display mode and a second time point when the first display mode is switched; To 3.
  • the information processing apparatus according to any one of the above. 5).
  • the change in the display mode of the first moving image generated by the first camera satisfies the predetermined condition, and the display mode of the second moving image generated by the second camera satisfies the predetermined condition.
  • the display control unit causes the display unit to display the summary information having a higher priority among the summary information of the first moving image and the summary information of the second moving image.
  • the display control unit acquires the priority of the summary information of each moving image from a storage unit that stores the priority of the summary information of the moving image for each moving image.
  • the display control means calculates the priority of the summary information based on the contents of each summary information.
  • the display control unit displays the moving image and the summary information generated for the past period of the moving image in different display areas on the display unit.
  • the display control unit superimposes the summary information generated for the past period of the moving image on the moving image and causes the display unit to display the information.
  • the display control means does not display the moving picture on the display means while the summary information of the moving picture is displayed on the display means.
  • a control method executed by a computer A summarizing step of acquiring a moving image generated by each of a plurality of cameras, performing a summary process of the acquired moving image, and generating summary information of the acquired moving image;
  • a display control step of displaying the moving image on a display means The display control step causes the display unit to display the summary information of the moving image when a change in display mode of the moving image on the display unit satisfies a predetermined condition. 12
  • the summary information of the first video is 10. display on display means; The control method described in 1. 13.
  • the display mode of the first moving image is changed from a mode in which the first size is displayed on the display unit to a mode in which the display unit is displayed in a second size larger than the first size. 10.
  • display the summary information of the first moving image on the display means The control method described in 1. 14
  • the display unit displays summary information of the first moving image generated for a period from the display mode to the second time point when the display mode is switched to the first display mode.
  • Thru 13 The control method as described in any one.
  • the display control step the summary information having a higher priority is displayed on the display means among the summary information of the first moving image and the summary information of the second moving image.
  • the priority of the summary information of each moving image is acquired from storage means for storing the priority of the summary information of the moving image for each moving image. The control method described in 1. 17. 15. In the display control step, the priority of the summary information is calculated based on the content of each summary information. The control method described in 1. 18. 10.
  • the moving image and the summary information generated for the past period of the moving image are displayed in different display areas on the display means.
  • the summary information generated for the past period of the moving image is superimposed on the moving image and displayed on the display means.
  • the moving image is not displayed on the display unit while the summary information of the moving image is displayed on the display unit;

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

情報処理装置(2000)は、要約部(2040)及び表示制御部(2060)を有する。要約部(2040)は、複数のカメラ(10)それぞれによって生成される動画(30)を取得する。さらに要約部(2040)は、動画(30)の要約処理を行って、動画(30)の要約情報を生成する。表示制御部(2060)は、動画(30)をディスプレイシステム(20)に表示させる。ここで、表示制御部(2060)は、ディスプレイシステム(20)における動画(30)の表示態様の変化が所定条件を満たすことに応じて、その動画(30)の要約情報をディスプレイシステム(20)に表示させる。

Description

情報処理装置、制御方法、及びプログラム
 本発明は情報処理装置、制御方法、及びプログラムに関する。
 カメラの映像が様々なシーンで活用されている。例えば、監視場所を撮像するカメラ(いわゆる監視カメラ)の映像を使った映像監視が行われている。
 このような背景から、カメラの映像をより扱いやすいものにする技術が開発されている。例えば特許文献1は、監視映像から重要シーンを検出し、重要シーン以外のフレームを間引いた要約映像を作成する技術を開示している。
特開2012-205097号公報
 映像監視などでは、一人の人(例えば監視員)が複数の映像を見なければいけない状況がある。例えば、複数の監視場所をそれぞれ別の監視カメラで撮像している場合、監視員は、これら複数のカメラによって生成される映像を全て閲覧して、異常が発生している場所などを把握しなければならない。このような作業は、映像を見る人にとって大きな労力を要する。
 本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、複数の動画の閲覧を容易にする技術を提供することである。
 本発明の情報処理装置は、(1)複数のカメラそれぞれによって生成される動画を取得し、前記取得した動画の要約処理を行って、前記取得した動画の要約情報を生成する要約手段と、(2)前記動画を表示手段に表示させる表示制御手段と、を有する。
 前記表示制御手段は、前記表示手段における前記動画の表示態様の変化が所定条件を満たすことに応じて、その動画の前記要約情報を前記表示手段に表示させる。
 本発明の制御方法は、コンピュータによって実行される。
 当該制御方法は、(1)複数のカメラそれぞれによって生成される動画を取得し、前記取得した動画の要約処理を行って、前記取得した動画の要約情報を生成する要約ステップと、(2)前記動画を表示手段に表示させる表示制御ステップと、を有する。
 前記表示制御ステップは、前記表示手段における前記動画の表示態様の変化が所定条件を満たすことに応じて、その動画の前記要約情報を前記表示手段に表示させる。
 本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
 本発明によれば、複数の動画の閲覧を容易にする技術が提供される。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1に係る情報処理装置の動作を概念的に例示する図である。 実施形態1に係る情報処理装置をその使用環境と共に例示する図である。 情報処理装置を実現するための計算機を例示する図である。 ディスプレイシステムにおける動画の表示態様を例示する第1の図である。 ディスプレイシステムにおける動画の表示態様を例示する第2の図である。 ディスプレイシステムにおける動画の表示態様を例示する第3の図である。 ディスプレイシステムにおける動画の表示態様を例示する第4の図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 要約情報をテーブル形式で例示する図である。 所定条件の第1の例に基づいて動画の要約情報を表示させるタイミングを例示する第1の図である。 所定条件の第2の例に基づいて動画の要約情報が表示される様子を例示する図である。 所定条件の第3の例に基づいて動画の要約情報が表示される様子を例示する図である。 要約情報の表示態様を例示する第1の図である。 要約情報の表示態様を例示する第2の図である。 要約情報が生成される様子を例示する第1の図である。 表示制御部がディスプレイシステムに表示すべき要約情報を選択する様子を例示する図である。 要約情報が更新される様子を例示する第1の図である。 要約情報が更新される様子を例示する第2の図である。 実施形態2の情報処理装置の想定環境を例示する図である。 優先度情報をテーブル形式で例示する図である。 滞留時間と要約情報の優先度との関係を例示する図である。 要約情報のスコアの時間変化を例示する図である。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[実施形態1]
<情報処理装置2000の動作の概要>
 図1は、実施形態1に係る情報処理装置2000の動作を概念的に例示する図である。なお図1は、情報処理装置2000の動作の理解を容易にすることを目的とする例示のための図であり、情報処理装置2000の動作は図1によって何ら限定されない。
 カメラ10は、撮像を行って静止画像データ又は動画データを生成する。動画30は、カメラ10の撮像結果に基づく動画データである。
 ディスプレイシステム20には、動画30が表示される。これにより、情報処理装置2000のユーザは、動画30を閲覧することができる。例えば情報処理装置2000は、監視映像を監視員に提示する装置である。この場合、カメラ10は、監視対象の場所を撮像する監視カメラである。またこの場合、情報処理装置2000のユーザは、動画30を閲覧することで監視場所を監視する監視員などである。
 情報処理装置2000は、動画30の要約情報を生成する。動画30の要約情報は、動画30の内容から得られる任意の情報を示す。例えば要約情報は、動画30に写っている人について、滞留時間や移動の軌跡などを示す。
 情報処理装置2000は、動画30の要約情報をディスプレイシステム20に表示させる。図1における要約情報は、動画30に写っている人の移動の軌跡を示す矢印である。
 ここで、動画30の要約情報は、ディスプレイシステム20におけるその動画30の表示態様の変化が所定条件を満たしたことに応じて表示される。情報処理装置2000のユーザは、動画30の要約情報を見ることで、過去の動画30の内容を容易に把握することができる。
<情報処理装置2000の構成の概要>
 図2は、実施形態1に係る情報処理装置2000をその使用環境と共に例示する図である。情報処理装置2000は、要約部2040及び表示制御部2060を有する。要約部2040は、複数のカメラ10それぞれによって生成される動画30を取得する。さらに要約部2040は、動画30の要約処理を行って、動画30の要約情報を生成する。表示制御部2060は、動画30をディスプレイシステム20に表示させる。ここで、表示制御部2060は、ディスプレイシステム20における動画30の表示態様の変化が所定条件を満たすことに応じて、その動画30の要約情報をディスプレイシステム20に表示させる。
<作用・効果>
 本実施形態の情報処理装置2000では、複数のカメラ10によってそれぞれ動画30が生成される。このようなケースにおいて、動画30を閲覧する情報処理装置2000のユーザ(例えば監視員)は、複数の動画30の中から異常の発生などを把握しなければならない。しかし、複数の動画30の内容を把握する作業には大きな労力を必要とする。また、動画30の中の大事なシーンが見落とされてしまう恐れもある。
 本実施形態の情報処理装置2000によれば、動画30の内容が要約された要約情報が生成される。また、要約情報は、動画30の表示態様の変化が所定条件を満たすことに応じて、ディスプレイシステム20に表示される。ここで、上記所定条件を適切に定めれば、動画30の内容を簡潔に把握できることがユーザにとって望ましいタイミングで、動画30の要約情報をディスプレイシステム20に表示させることができる。よって、本実施形態の情報処理装置2000によれば、複数の動画30の閲覧が容易になる。その結果、複数の動画30の閲覧に要するユーザの労力の軽減や、重要なシーンが見落とされることの防止などを実現できる。
 以下、本実施形態についてさらに詳細に説明する。
<情報処理装置2000のハードウエア構成例>
 情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図3は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
 計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算装置である。メモリ106は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。ただし、ストレージデバイス1080は、RAM など、主記憶装置を構成するハードウエアと同様のハードウエアで構成されてもよい。
 入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 例えば計算機1000は、ネットワークを介して、カメラ10と通信可能に接続されている。ただし、計算機1000をカメラ10と通信可能に接続する方法は、ネットワークを介した接続に限定されない。また、計算機1000は、カメラ10と通信可能に接続されていなくてもよい。
 ストレージ1080は、情報処理装置2000の各機能構成部(要約部2040及び表示制御部2060)を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
 なお情報処理装置2000は、複数の計算機1000を用いて実現されてもよい。例えば情報処理装置2000は、要約部2040の機能を実現する第1の計算機1000、及び表示制御部2060の機能を実現する第2の計算機1000という2つの計算機によって実現されうる。この場合、第1の計算機は要約情報を生成するための処理を行う計算機である。一方、第2の計算機は、要約情報をディスプレイシステム20に表示させるための処理を行う計算機である。第2の計算機は、任意の方法により、第1の計算機から要約情報を取得する。
 第1の計算機1000と第2の計算機1000は、例えば前述したように、PC、サーバマシン、タブレット端末、又はスマートフォンなどで実現される。ただし、第1の計算機1000は、カメラ10で実現されてもよい。この場合、カメラ10は、自身で生成した動画30について要約処理を行うことで、要約情報を生成する。そして第2の計算機1000は、カメラ10によって生成された要約情報を取得する。このように要約部2040の機能を持たせるカメラ10は、例えば、インテリジェントカメラ、ネットワークカメラ、IP(Internet Protocol)カメラなどと呼ばれるカメラである。
<<カメラ10について>>
 カメラ10は、撮像を行って静止画像データ又は動画データを生成する任意のカメラである。動画30は、カメラ10によって生成されるデータに基づいて構成される。例えば動画30は、カメラ10によって生成される動画データである。その他にも例えば、動画30は、カメラ10によって生成される複数の静止画像データのシーケンスで構成される。
 カメラ10は、位置が固定されているカメラ(以下、固定カメラ)であってもよいし、位置が固定されていないカメラ(以下、移動カメラ)であってもよい。固定カメラは、例えば壁、柱、又は天井などの様々な場所に固定で設置されるカメラである。固定カメラが設置される場所は、屋内であってもよいし、屋外であってもよい。
 なお、固定カメラが設置される壁等は、ある程度の期間位置が固定されていればよく、不動産に限定されない。例えば固定カメラが設置される壁等は、イベント会場などに臨時で設置される仕切りや柱などでもよい。
 その他にも例えば、後述の移動カメラとしても利用可能なカメラが装備された移動体を或る場所で停止させ、そのカメラを固定カメラとして用いるようにしてもよい。移動体は、例えば車、バイク、ロボット、又は飛行物体(例えばドローンや飛行船)などである。
 移動カメラは、例えば、人に身につけられたり、前述した移動体などに取り付けられたりするカメラである。人に身につけられる移動カメラは、例えば、手で保持するカメラ(ビデオカメラや、スマートフォンなどの携帯端末のカメラ)、又は頭若しくは胸などに固定されるカメラ(ウェアラブルカメラなど)などである。車、バイク、ロボット、又は飛行物体などに取り付けられるカメラは、いわゆるドライブレコーダとして用いるために取り付けられているカメラであってもよいし、情報処理装置2000に提供する動画30を生成するために別途取り付けられるカメラであってもよい。
 カメラ10によって撮像される場所は任意である。例えばカメラ10が監視カメラである場合、カメラ10は、監視対象の場所を撮像する。監視対象の場所は、例えば、イベント会場の中やその周辺、又はイベント会場とその最寄り駅との間の経路などである。なお、カメラ10によって撮像される場所は、屋内であってもよいし、屋外であってもよい。
<ディスプレイシステム20について>
 ディスプレイシステム20は、1つ又は複数のディスプレイ装置によって構成される。以下、ディスプレイシステム20における動画30の表示態様をいくつか例示する。なお、以下では、ディスプレイシステム20が1つのディスプレイ装置22で構成される例について説明する。
 図4は、ディスプレイシステム20における動画30の表示態様を例示する第1の図である。図4のディスプレイ装置22は、動画30を表示するための表示領域24を1つ有する。表示制御部2060は、この表示領域24で、複数の動画30を順番に表示させる。
 例えば、2台のカメラ10-1及び対象オブジェクト40-2それぞれにより、動画30-1及び動画30-2が生成されるとする。この場合、表示領域24において、動画30-1、動画30-2、動画30-1、動画30-2、・・・という順に動画30が表示される。
 図5は、ディスプレイシステム20における動画30の表示態様を例示する第2の図である。ディスプレイ装置22には、複数の動画30が同時に表示される。具体的には、ディスプレイ装置22上に、サイズが等しい複数の表示領域24が設けられており、各表示領域24において異なる動画30が表示されている。
 このケースにおいて、動画30の数(カメラ10の数)が表示領域24の数よりも多いとする。この場合、各表示領域24において、複数の動画30が順に表示される。例えば、動画30の数が8であり、表示領域24の数が4であるとする。この場合、表示制御部2060は、各表示領域24において、2つの動画30を交互に表示させる。
 図6は、ディスプレイシステム20における動画30の表示態様を例示する第3の図である。図6のディスプレイ装置22も複数の表示領域24を有する。ただし、図6のディスプレイ装置22には、サイズの異なる2種類の表示領域24がある。表示領域24-2から表示領域24-8のサイズは、いずれも同じサイズである。一方、表示領域24-1のサイズは、他の表示領域24のサイズよりも大きい。
 表示領域24-1から領域24-8には、それぞれ異なる動画30が表示される。表示領域24-1に表示される動画30は、例えば、表示制御部2060によって自動で決定される。例えば表示制御部2060は、複数の動画30を、表示領域24-1に順番に表示させる。
 その他にも例えば、表示領域24-1に表示される動画30は、情報処理装置2000のユーザによって選択されてもよい。例えば、ディスプレイ装置22がタッチパネルを備えているとする。この場合、ユーザは、表示領域24-2から表示領域24-8のいずれかをタッチする操作を行う。この操作を受けて、表示制御部2060は、タッチされた表示領域24に表示されている動画30の表示位置を、表示領域24-1に変更する。
 図7は、ディスプレイシステム20における動画30の表示態様を例示する第4の図である。図7は、サイズが大きい表示領域24を複数有する点を除き、図6と同様である。
 ここで前述したように、ディスプレイシステム20は、複数のディスプレイ装置22で構成されてもよい。例えばこの場合、前述の例における複数の表示領域24それぞれが、1つのディスプレイ装置22で実現される。この場合、表示制御部2060は、各ディスプレイ装置22を、前述の例における表示領域24と同様に扱う。
<処理の流れ>
 図8は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。要約部2040は、各カメラ10から動画30を取得する(S102)。要約部2040は、動画30の要約情報を生成する(S104)。表示制御部2060は、動画30の表示態様の変化が所定条件を満たした場合(S106:YES)に、その動画30の要約情報をディスプレイシステム20に表示させる(S108)。
 なお後述するように、要約情報を生成するための処理(S102及びS104)が実行されるタイミングと、要約情報をディスプレイシステム20に表示させるための処理(S106及びS108)が実行されるタイミングは様々である。そのため、これらの処理は必ずしも、図8に示すようにシーケンシャルに実行される必要はない。要約情報が生成されるタイミングと要約情報が表示されるタイミングの具体的な説明は後述する。
<動画30の取得方法:S102>
 要約部2040は動画30を取得する(S102)。要約部2040が動画30を取得する方法は任意である。例えば要約部2040は、カメラ10から送信される動画30を受信する。また例えば、要約部2040は、カメラ10にアクセスし、カメラ10に記憶されている動画30を取得する。
 なお、カメラ10は、カメラ10の外部に設けられている記憶装置に動画30を記憶してもよい。この場合、要約部2040は、この記憶装置にアクセスして動画30をする。なお、複数のカメラ10によって生成された各動画30は、同一の記憶装置に記憶されてもよいし、それぞれ異なる記憶装置に記憶されてもよい。
 要約部2040の機能をカメラ10に持たせる場合(第1の計算機1000をカメラ10で実現する場合)、要約部2040は、カメラ10の内部の記憶装置(例えば図3のメモリ1060やストレージデバイス1080)に記憶されている動画30を取得する。
<要約情報の内容:S104>
 要約部2040は、動画30の要約処理を行って、動画30の要約情報を生成する(S104)。ここで、要約部2040が生成する要約情報の内容について説明する。前述したように、要約情報は、動画30の内容から得られる任意の情報を示す。ただし、要約情報の内容は、ユーザにとって、動画30自体を閲覧するよりも、その動画30の要約情報を閲覧した方が、その動画30の内容を簡潔に把握できるものであることが好適である。言い換えれば、要約情報の内容は、動画30の内容のうち、ユーザにとって重要な内容が簡潔に表されたものであることが好ましい。
 ユーザにとって重要な内容は、例えば、動画30に写っているオブジェクトの特徴である。以下、要約情報が或るオブジェクトの特徴を示している場合、そのオブジェクトを「対象オブジェクト」と表記する。
 対象オブジェクトとしては、様々な物を扱いうる。例えば対象オブジェクトは人物である。その他にも例えば、対象オブジェクトは、前述した任意の移動物体である。その他にも例えば、対象オブジェクトは、人物や移動物体などによって運搬される物(例えばカバンなどの荷物)であってもよい。
 対象オブジェクトの特徴は、例えば、滞留時間、移動時間、移動速度、又は移動の態様などである。滞留時間は、対象オブジェクトが動画30の中で滞留している期間の長さを表す。ここでいう滞留とは、停止又はほとんど動いていないこと(例えば移動範囲の大きさが所定値以下であること)を意味する。移動時間は、対象オブジェクトが動画30の中で移動している期間の長さを表す。ここでいう移動とは、滞留していないこと(例えば移動範囲の大きさが所定範囲より大きいこと)を意味する。移動速度は、対象オブジェクトが移動している期間における対象オブジェクトの移動の速度(例えば平均速度)を表す。移動の態様は、例えば、移動の軌跡(まっすぐ移動しているか又は蛇行しているかなど)を表す。
 ここで、対象オブジェクトが移動と滞留を繰り返す場合、要約情報が示す滞留時間は、複数の滞留時間それぞれであってもよいし、複数の滞留時間の統計値(合計値、最頻値、又は平均値など)であってもよい。移動時間、移動速度、及び移動の態様についても同様である。
 このような対象オブジェクトの滞留や移動の特徴を示す要約情報を用いることで、例えば、注目すべき対象オブジェクトを特定し、その対象オブジェクトを重点的に監視することができるようになる。例えば、通常は人が立ち止まらない場所に長時間滞留している人物がいる場合、その人物は怪しい行動をしており、注目すべき人物であると考えられる。また、通常は物が放置されない場所に鞄などが放置されている場合、その物は怪しい物であり、注目すべき物であると言える。
 なお、対象オブジェクトの特徴は、上述の例に限定されない。対象オブジェクトの特徴の他の例については後述する。
 要約部2040は、動画30から対象オブジェクトを検出し、その対象オブジェクトの特徴を算出する。例えば要約部2040は、動画30を構成する各フレームから対象オブジェクトを検出することで対象オブジェクトの位置の変化を算出する。そして、要約部2040は、対象オブジェクトの位置の変化から、前述した滞留時間、移動時間、移動速度、及び移動の態様などを算出する。なお、動画30から複数の異なる対象オブジェクトが検出される場合、要約部2040は、これらの対象オブジェクトそれぞれについて特徴を算出する。
 ここで、対象オブジェクトが人物である場合、要約部2040は、対象オブジェクトについて種々の属性の値(以下、属性値)を算出し、これらの属性値を対象オブジェクトの特徴に含めてもよい。人の属性は、例えば、年齢層、性別、国籍、持ち物の有無、又は歩行困難者であるか否かなどである。ここで、歩行困難者とは、動物若しくは他の人物による補助を受けて歩行する人、又は補助具を利用して歩行する人を意味する。歩行困難者を補助する動物は、例えば盲導犬である。歩行困難者が利用する補助具は、例えば松葉杖や車いすなどである。
 年齢層の属性値は、年齢層を表す種々の値である。例えば年齢の概数(10代や20代)や、年齢を表す区分(子供、若者、又は老人など)である。性別の属性値は、男性又は女性である。
 国籍の属性値は、生まれた国や住んでいる国、又はそれらの国に基づく人の特徴を表す値である。例えば国籍の属性値は、日本人と外国人のいずれかを示す。また例えば、国籍の属性値は、アジア圏、ヨーロッパ圏又はアフリカ圏といった国の区分を示す。また例えば、国籍の属性値は、使用言語(日本語、英語、又は中国語など)を示してもよい。
 持ち物の有無の属性値は、種々の持ち物について、その持ち物を持っているか否か又は使っているか否かを示す。例えば持ち物には、杖、車いす、又はベビーカーなどが該当する。例えば杖の有無の属性値は、杖を持っているか否か、又は杖を使っているか否かを表す。
 歩行困難者であるか否かの属性値は、その人物が動物若しくは他の人物による補助を受けているか否かや、補助具を利用しているか否かなどを表す。例えば或る人物が歩行困難者であるか否かは、その人物を補助する動物や他の人物の有無によって判定することができる。例えば、要約部2040は、或る人物Aが他の人物Bに支えられている様子を動画30から検出した場合、人物Aは歩行困難者であると判定する。また、要約部2040は、或る人物が盲導犬などの所定の特徴を持つ動物と一緒に移動している様子を動画30から検出した場合、その人物は歩行困難者であると判定する。
 その他にも例えば、或る人物が歩行困難者であるか否かは、補助具の利用の有無によって判定することができる。例えば要約部2040は、松葉杖や車いすなどの所定の道具を使っている人物が動画30から検出された場合、その人物は歩行困難者であると判定する。
 このような人の属性を示す要約情報を用いることで、例えば、老人や外国人、迷子の子供、又は歩行困難者など、助けを必要としている可能性がある人物を特定し、その人物に着目して監視を行うことができるようになる。また、このような人物の応対をするために、その人物がいる場所へ係員を向かわせるといった対処が可能となる。
 図9は、要約情報をテーブル形式で例示する図である。図9のテーブルをテーブル500と呼ぶ。テーブル500は、識別子502及び特徴504という列を有する。識別子502は、対象オブジェクトの識別子である。特徴504は、識別子502で特定される対象オブジェクトの特徴を示す。図9において、特徴504は、滞留時間506や移動時間508などを含む。
<要約情報を表示させるタイミング:S106>
 表示制御部2060は、ディスプレイシステム20において或る動画30の表示態様の変化が所定条件を満たしたことを検出する(S106)。この所定条件としては、様々なものを採用することができる。以下、この所定条件について、いくつか例示する。以下の説明において、動画30-1は、カメラ10-1によって生成される動画30である。
<<所定条件の例1>>
 所定条件は、例えば、「動画30がディスプレイシステム20に表示されない状態から、動画30がディスプレイシステム20に表示される状態に切り替わる」という条件である。
 図10は、所定条件の第1の例に基づいて動画30の要約情報を表示させるタイミングを例示する第1の図である。時点t1から時点t2までの間、動画30-1は、ディスプレイシステム20に表示されている。一方、時点t2から時点t3までの間、動画30-1は、ディスプレイシステム20に表示されない。そして、時点t3以降、動画30-1は、再度ディスプレイシステム20に表示される。
 表示制御部2060は、上記所定条件が満たされるタイミング、つまりは時点t3に、動画30-1の要約情報をディスプレイシステム20に表示させる。
 ここで、表示制御部2060がディスプレイシステム20に表示させる要約情報は、動画30の表示態様が第1の表示態様から第2の表示態様に切り替わる第1時点と、動画30の表示態様が第2の表示態様から第1の表示態様に切り替わる第2時点との間の期間について生成された要約情報とすることが好適である。例えば図10の例において、第1時点は、動画30がディスプレイシステム20に表示される状態から、動画30がディスプレイシステム20に表示されない状態に切り替わる時点、すなわち時点t2である。一方、第2時点は、動画30がディスプレイシステム20に表示されない状態から、動画30がディスプレイシステム20に表示される状態に切り替わる時点、すなわち時点t3である。つまり、時点t2から時点t3の間の期間について生成された要約情報をディスプレイシステム20に表示させる。
 このような期間の要約情報をディスプレイシステム20に表示させることで、動画30-1がディスプレイシステム20に表示されなかった期間、つまりは動画30-1をユーザが閲覧することができなかった期間についての動画30の要約情報がディスプレイシステム20に表示される。時点t3においてこの要約情報を見ることで、ユーザは、動画30-1を閲覧できなかった期間にカメラ10-1の撮像範囲で起こっていたことを容易に把握することができる。
<<所定条件の例2>>
 所定条件は、例えば、「ディスプレイシステム20において、動画30が比較的小さいサイズで表示される状態から、動画30が比較的大きいサイズで表示される状態に切り替わる」という条件である。
 図11は、所定条件の第2の例に基づいて動画30の要約情報が表示される様子を例示する図である。時点t1から時点t2において、動画30-1は、ディスプレイシステム20の表示領域24-1に表示されている。一方、時点t2からt3の間、動画30-1は、ディスプレイシステム20の表示領域24-2に表示されている。そして、時点t3以降、動画30-1は、再度表示領域24-1に表示される。
 ここで、表示領域24-1のサイズは、表示領域24-2のサイズよりも大きい。よって、動画30-1は、時点t2から時点t3までの間、比較的小さいサイズでディスプレイシステム20に表示される。
 表示制御部2060は、上記所定条件が満たされるタイミング、つまりは時点t3に、動画30-1の要約情報をディスプレイシステム20に表示させる。
 このケースにおいて、例えば表示制御部2060は、時点t2からt3の期間の動画30について生成された要約情報をディスプレイシステム20に表示させる。時点t2は、「ディスプレイシステム20において、動画30が比較的大きいサイズで表示される状態から、動画30が比較的小さいサイズで表示される状態に切り替わる」という条件が満たされる時点である。時点t2からt3の期間は、動画30-1がディスプレイシステム20に小さく表示される期間であるため、ユーザにとって動画30-1が閲覧しづらい期間であるといえる。よって、このような期間の動画30の要約情報を時点t3において見ることで、ユーザは、動画30-1を閲覧しづらかった期間にカメラ10-1の撮像範囲で起こっていたことを容易に把握することができる。
<<所定条件の例3>>
 所定条件は、例えば、「ディスプレイシステム20において、動画30がユーザの視界に比較的入りにくい位置に表示されるという状態から、動画30がユーザの視界に比較的入りやすい位置に表示されるという状態に切り替わる」という条件である。
 図12は、所定条件の第3の例に基づいて動画30の要約情報が表示される様子を例示する図である。時点t1から時点t2において、動画30-1は、ディスプレイシステム20の表示領域24-1に表示されている。一方、時点t2からt3の間、動画30-1は、ディスプレイシステム20の表示領域24-2に表示されている。そして、時点t3以降、動画30-1は、再度表示領域24-1に表示される。
 ここで、表示領域24-1は、ユーザの正面方向がディスプレイシステム20と交わる位置にあるとする。よって、表示領域24-2は、表示領域24-1と比較し、情報処理装置2000のユーザの正面方向がディスプレイシステム20と交わる位置から遠い。したがって、時点t2から時点t3の間、動画30-1は、その他の期間よりもユーザにとって閲覧しづらいといえる。
 表示制御部2060は、上記所定条件が満たされるタイミング、つまりは時点t3に、動画30-1の要約情報をディスプレイシステム20に表示させる。
 このケースにおいて、例えば表示制御部2060は、時点t2からt3の期間の動画30について生成された要約情報をディスプレイシステム20に表示させる。時点t2は、「ディスプレイシステム20において、動画30がユーザの視界に比較的入りやすい位置に表示されるという状態から、動画30がユーザの視界に比較的入りにくい位置に表示されるという状態に切り替わる」という条件が満たされる時点である。このように要約情報を生成することで、要約情報を見るユーザは、動画30-1を閲覧しづらかった期間にカメラ10-1の撮像範囲で起こっていたことを容易に把握することができる。
 ここで、前述した「ユーザの正面方向」は、例えば、ユーザの顔の正面方向、ユーザの胴体の正面方向、又はユーザの視線方向などとすることができる。ここで、ユーザの位置が固定されている場合(例えばユーザが座る椅子の位置が固定されている場合)、各表示領域24と、ユーザの正面方向がディスプレイシステム20に交わる位置との関係は、予め定めておくことができる。
 その他にも例えば、要約部2040は、ユーザを撮像するカメラによって生成される画像を解析することで、ユーザの正面方向を特定してもよい。こうすることで、要約部2040は、各表示領域24と、ユーザの正面方向がディスプレイシステム20に交わる位置との関係を算出することができる。なお、ユーザを撮像するカメラは、例えば、ディスプレイシステム20の付近に設けておく。ここで、前述したユーザの顔の正面方向などを特定する具体的な方法には、既存の方法を利用することができる。
 また、各表示領域24に対して、ユーザの視界に入りやすい度合いを予め対応づけておいてもよい。この対応付けの情報は、表示制御部2060からアクセス可能な記憶装置に予め記憶させておく。
<<その他の例>>
 要約情報がディスプレイシステム20に表示されるタイミングは、動画30の表示態様が所定条件を満たしたタイミングに限定されなくてもよい。例えば情報処理装置2000は、ユーザから、ディスプレイシステム20に表示されている動画30を選択する入力を受け付けたことに応じて、その動画30の要約情報をディスプレイシステム20に表示するようにしてもよい。
<要約情報の表示態様:S108>
 表示制御部2060は、動画30の表示態様の変化が所定条件を満たしたことに応じて、その動画30の要約情報をディスプレイシステム20に表示させる(S108)。要約情報の表示態様としては、様々なものを採用することができる。以下、要約情報の具体的な表示態様の例をいくつか説明する。なお、以下の各例において、要約情報は、カメラ10-1が生成する動画30-1について生成されたものである。
 図13は、要約情報の表示態様を例示する第1の図である。この例において、カメラ10-1によってリアルタイムで生成されている動画30-1(いわゆるライブ映像)は、ディスプレイシステム20の表示領域24に表示されている。そして、動画30-1の要約情報も、表示領域24に表示されている。
 より具体的には、動画30-1の要約情報は、カメラ10-1によって生成されるライブ映像に重畳されて表示されている。図13の要約情報は、動画30-1に写っている対象オブジェクト40が、(1)10秒間の滞留、(2)2秒間の移動、(3)13秒間の滞留、(4)1秒間の移動の順に行動したことを表している。また、矢印は対象オブジェクト40の移動の軌跡を表している。
 なお、動画30-1に対象オブジェクト40が複数含まれる場合、各対象オブジェクト40について要約情報が表示される。
 図14は、要約情報の表示態様を例示する第2の図である。この例において、カメラ10-1によって生成されているライブ映像は表示領域24-1に表示されている。また、動画30-1の要約情報50-1が、表示領域24-1ではなく、表示領域24-2に表示されている。つまりこの例では、動画30-1の要約情報が表示される表示領域24が、動画30-1が表示される表示領域24と異なる。
 ここで、動画30-1について、複数の対象オブジェクト40それぞれに関する要約情報が生成されているとする。この場合、これら複数の要約情報は、1つの表示領域24(図14の表示領域24-2)に表示されてもよいし、異なる表示領域24に表示されてもよい。なお、前者の場合、複数の要約情報は同時に表示されてもよいし、順番に表示されてもよい。
 なお、動画30-1の要約情報は、動画30-1がディスプレイシステム20に表示されていないタイミングでディスプレイシステム20に表示されてもよい。例えば、表示制御部2060は、動画30-1について前述した所定条件が満たされたタイミングから所定期間、動画30-1の要約情報をディスプレイ装置22の表示領域24-1に表示させる。その間、表示制御部2060は、その動画30をディスプレイシステム20に表示させない。そして、上記所定期間経過後に、表示制御部2060は、表示領域24-1に動画30を表示させる。
 なお、上述の各例において、要約情報は、文字や図形など、静止しているデータで表されている。しかし要約情報は、動画データとして生成されてもよい。この場合、例えば動画30の要約情報は、動画30の一部のフレームを省略することで生成される。例えば要約部2040は、対象オブジェクトが静止している期間について、静止が開始するフレームと静止が終了するフレーム以外のフレームを一つ以上省略する。また例えば、要約部2040は、対象オブジェクトが移動している期間のフレームについて、移動が開始するフレームと移動が終了するフレーム以外のフレームを一つ以上省略する。
 なお、動画30の一部のフレームを省略する際、対象オブジェクトの特徴的な動きが含まれるフレームについては省略しないことが好ましい。例えば対象オブジェクトが人物である場合、他の人物と接触している期間や周囲を見回している期間のフレームについては省略しないことが好ましい。
<要約情報を生成するタイミング:S104>
 要約部2040は、動画30の要約情報を生成する(S104)。要約部2040が要約情報を生成するタイミングは様々である。以下、そのタイミングについていくつか例示する。
<<要約情報を生成するタイミング1>>
 例えば要約部2040は、所定周期で繰り返し動画30の解析を行って、動画30の複数の時間範囲について個別に要約情報を生成する。図15は、要約情報が生成される様子を例示する第1の図である。この例において、要約部2040は、時点t2において、時点t1から時点t2の間の動画30の解析を行い、その結果に基づいて要約情報50-1を生成する。また、要約部2040は、時点t3において、時点t2から時点t3の間の動画30の解析を行い、その結果に基づいて要約情報50-2を生成する。
 ここで、時点t1から時点t2において対象オブジェクトは20秒間滞留しており、時点t2から時点t3において対象オブジェクトは30秒間滞留している。そこで、要約部2040は、「滞留時間:20秒」を示す要約情報50-1と、「滞留時間:30秒」を示す要約情報50-2をそれぞれ生成する。
 なお、表示制御部2060は、上述のように動画30について周期的に生成される複数の要約情報50のうち、ディスプレイシステム20に表示させるべき要約情報50を選択する。図16は、表示制御部2060がディスプレイシステム20に表示すべき要約情報50を選択する様子を例示する図である。
 この例において、表示制御部2060は、時点T1から時点T2の間の動画30に関する要約情報50をディスプレイシステム20に表示させる。時点T1から時点T2の間の動画30について生成された要約情報50は、要約情報50-2及び要約情報50-3である。そこで表示制御部2060は、要約情報50-2及び要約情報50-3をディスプレイシステム20に表示させる。
 ただし、要約情報50-1の対象となっている期間である時点t1から時点t2までの一部(時点T0から時点t2)は、時点T1から時点T2の期間と重なっている。そのため、表示制御部2060は、要約情報50-2及び要約情報50-3に加え、要約情報50-1をさらにディスプレイシステム20に表示させてもよい。
 このように複数の要約情報50が選択される場合、表示制御部2060は、複数の要約情報50を個別にディスプレイシステム20に表示させてもよいし、複数の要約情報50を一つにまとめる処理(例えば統計処理)を行い、その結果生成された1つの要約情報50をディスプレイシステム20に表示させてもよい。
 なお、周期的に行われる要約情報の生成は、常に(例えば情報処理装置2000が起動された時から)繰り返し実行されていてもよいし、特定のタイミングから実行され始めてもよい。例えばこの特定のタイミングは、前述した「動画30の表示態様が第1の表示態様から第2の表示態様に切り替わる第1時点」である。より具体的には、「動画30がディスプレイシステム20に表示される状態から、動画30がディスプレイシステム20に表示されない状態に切り替わる時点」、「ディスプレイシステム20において、動画30が比較的大きいサイズで表示される状態から、動画30が比較的小さいサイズで表示される状態に切り替わる時点」、又は「ディスプレイシステム20において、動画30がユーザの視界に比較的入りやすい位置に表示されるという状態から、動画30がユーザの視界に比較的入りにくい位置に表示されるという状態に切り替わる時点」などである。
<<要約情報を生成するタイミング2>>
 この例においても、要約部2040は、所定周期で繰り返し動画30の解析を行う。ただし、要約部2040は、動画30の解析結果に基づいて1つの要約情報50を繰り返し更新する。
 図17は、要約情報が更新される様子を例示する第1の図である。この例において、要約部2040は、時点t2において、時点t1から時点t2の間の動画30の解析を行い、その結果に基づいて要約情報50を生成する。その後、要約部2040は、時点t3において、時点t2から時点t3の間の動画30の解析を行い、その結果に基づいて、要約情報50を更新する。時点t1から時点t2における対象オブジェクトの滞留時間が20秒であり、時点t2から時点t3における対象オブジェクトの滞留時間が30秒であったとする。
 図17では、上書きによって要約情報50の更新が行われる。そのため要約部2040は、「滞留時間:20秒」という要約情報50の内容を、「滞留時間:30秒」という情報で上書きする。その他にも例えば、要約部2040は、2つの期間における滞留時間の平均値である25秒で要約情報50を上書きするといった処理を行ってもよい。
 図18は、要約情報が更新される様子を例示する第2の図である。更新の方法を除き、図18は図17と同様の内容を示す。
 図18では、以前の解析結果に新たな解析結果を統合することによって、要約情報50の更新が行われる。そのため要約部2040は、要約情報50に「滞留時間:30秒」という情報を追加している。
<<要約情報を生成するタイミング3>>
 要約部2040は、前述した所定条件(ディスプレイシステム20に動画30の要約情報を表示する条件)が満たされたタイミングで、表示すべき要約情報を生成してもよい。この場合、例えば要約部2040は、上記タイミングよりも所定時間前の時点から上記タイミングまでの期間の動画30について、要約情報を生成する。
 なお、要約部2040を実現するための第1の計算機1000がカメラ10である場合において、表示制御部2060(第2の計算機1000)は、前述した所定条件が満たされたときに、カメラ10に対して要約情報の生成のリクエストを送信してもよい。要約部2040は、例えばこのリクエストを受信したタイミングで、そのタイミングよりも所定時間前の時点からそのタイミングまでの期間の動画30について、要約情報を生成する。そして表示制御部2060は、カメラ10によって生成された要約情報を取得する。
[実施形態2]
 実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様に、図1で示される。下記で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
 実施形態2の表示制御部2060は、それぞれ異なる動画30から生成された複数の要約情報をディスプレイシステム20に表示させる場合に、各要約情報の優先度を考慮して、要約情報をディスプレイシステム20に表示させる。
 図19は、実施形態2の情報処理装置2000の想定環境を例示する図である。この例において、動画30の要約情報は、動画30が表示される表示領域24とは異なる表示領域24に表示される。より具体的には、ディスプレイシステム20がディスプレイ装置22を1つ有し、ディスプレイ装置22が3つの表示領域24-1から表示領域24-3を含む。そして、表示領域24-1には動画30-1と動画30-2が交互に表示され、表示領域24-2には動画30-3と動画30-4が交互に表示され、表示領域24-3にはいずれかの要約情報が表示される。そして、動画30-1の要約情報の優先度は、動画30-3の要約情報の優先度よりも高いとする。
 この場合において、動画30-1の表示態様の変化と動画30-3の表示態様の変化が、いずれも所定条件を満たしたとする。ここで、表示領域24-3には、動画30-1の要約情報と動画30-3の要約情報のいずれか一方のみを表示させるとする。
 そこで表示制御部2060は、動画30-1の要約情報と動画30-3の要約情報のうち、優先度が高い動画30-1の要約情報を表示領域24-3に表示させる。なおこの場合、表示制御部2060は、動画30-1の要約情報のみを表示領域24-3に表示させてもよいし、動画30-1の要約情報を先に表示領域24-3に表示させ、その後に動画30-3の要約情報を表示領域24-3に表示させてもよい。
 ここで、優先度に基づいて要約情報を表示する処理は、表示すべき要約情報の数が、要約情報の表示に利用できる表示領域の数よりも多い場合に必要となる。このようなケースは、図19を用いて例示したケースに限られない。
 例えばディスプレイシステム20が、図7に示したレイアウトを有するとする。そして、表示領域24-1から表示領域24-9それぞれでは、2つの動画30が交互に表示されるとする。これに対し、表示領域24-10では、いずれか1つの動画30の要約情報が表示されるとする。
 このケースにおいて、2つ以上の動画30の表示態様の変化がいずれも所定条件を満たすと、表示すべき要約情報の数が2つ以上になる。一方で、要約情報の表示に利用できる表示領域の数は1つである。よって、表示すべき要約情報の数が、要約情報の表示に利用できる表示領域24の数よりも多くなりうる。そこで表示制御部2060は、表示すべき要約情報の優先度に従って、表示領域24-10に表示させる要約情報を決定する。
<要約情報の優先度の定め方>
 要約情報の優先度を定める方法は様々である。以下、要約情報の優先度の定め方をいくつか例示する。
<<優先度の定め方1>>
 各カメラ10に対して優先度を定めておく。そして、カメラ10の優先度を、そのカメラ10によって生成された動画30の要約情報の優先度とする。例えば、動画30-1の要約情報の優先度は、動画30-1を生成するカメラ10-1に対応づけられている優先度となる。以下、カメラ10の優先度を示す情報を優先度情報と呼ぶ。
 図20は、優先度情報をテーブル形式で例示する図である。図20のテーブルをテーブル600と呼ぶ。テーブル600は、カメラ識別子602及び優先度604を有する。カメラ識別子602は、カメラ10の識別子を表す。優先度604は、カメラ10に対応づけられた優先度を示す。
 優先度情報(例えばテーブル600)は、予め表示制御部2060からアクセス可能な記憶装置に記憶させておく。この記憶装置は、情報処理装置2000の内部に設けられていてもよいし、情報処理装置2000の外部に設けられていてもよい。
<要約情報の優先度の定め方2>
 要約情報の優先度は、その要約情報の内容に基づいて定められてもよい。例えば表示制御部2060は、要約情報に示されている何らかの数値を、要約情報の優先度として扱う。例えば、要約情報が対象オブジェクトの滞留時間を示す場合、表示制御部2060は、滞留時間の値を要約情報の優先度として扱う。こうすることで、対象オブジェクトの滞留時間が長い動画30の要約情報ほど優先度が高くなる。ただし、優先度として扱われる数値は、滞留時間に限定されない。
 その他にも例えば、表示制御部2060は、要約情報の内容からその要約情報のスコアを算出する規則(例えば関数)を用いてその要約情報のスコアを算出し、そのスコアを優先情報の優先度として扱ってもよい。以下では、滞留時間と要約情報のスコアとを対応づける規則の一例を説明する。
 図21は、滞留時間と要約情報の優先度との関係を例示する図である。横軸は動画30に写っている人物の滞留時間、縦軸はその動画30の要約情報のスコアを示している。ここで、スコアの最大値は100である。
 この例では、人物が滞留を始めた時に要約情報のスコアが最大となっている。そして、滞留時間が長くなるほど要約情報のスコアが小さくなる。
 ただし、滞留時間が所定値t1となったタイミングで、要約情報のスコアが大きくなる。こうすることで、所定値以上の長い時間滞留している人物の要約情報がディスプレイシステム20に表示されやすくなる。
 なお、要約情報のスコアを算出する規則には、所定のイベントの発生に応じてスコアを大きくする規則が含まれてもよい。例えば所定のイベントは、他の人物との接触である。
 図22は、要約情報のスコアの時間変化を例示する図である。図22において要約情報のスコアを算出する規則は、(1)図21で示した規則、及び(2)他の人物との接触に応じてスコアを大きくする規則の組み合わせで定義される。
 この例では、滞留している人物が、時点t2において他の人と接触している。そのため、時点t2において要約情報のスコアが大きくなっている。
 要約情報の優先度は、要約情報に含まれる複数の情報から算出される各スコアを用いて算出されてもよい。例えば表示制御部2060は、以下の数式(1)を用いて、要約情報の優先度を算出する。
Figure JPOXMLDOC01-appb-M000001
 数式(1)において、p は要約情報の優先度である。wi は、要約情報に含まれる各情報i(滞留時間など)に与える重みである。di は、要約情報に含まれる情報iの値である。fi は、情報iについて要約情報のスコアを算出する関数である。
<優先度に基づく表示位置の決定>
 表示制御部2060は、要約情報の優先度に基づいて、その要約情報の表示位置を決定してもよい。例えば、要約情報を表示させる各表示領域24に対して予め優先度を対応づけておく。そして表示制御部2060は、優先度が高い要約情報ほど、より優先度が高い表示領域24に表示されるように、要約情報と表示領域24とをマッチングさせる。ここで、ユーザにとって見やすい表示領域24ほど優先度を高くすることが好適である。表示領域24の優先度は、表示制御部2060からアクセス可能な記憶装置に予め記憶させておく。
<ハードウエア構成例>
 実施形態2の情報処理装置2000は、実施形態1と同様に計算機1000を用いて実現される(図4参照)。本実施形態において、前述したストレージ1080に記憶される各プログラムモジュールには、本実施形態で説明した各機能を実現するプログラムがさらに含まれる。
<作用・効果>
 本実施形態の情報処理装置2000は、それぞれ異なる動画30について生成された要約情報をディスプレイシステム20に表示させる際に、要約情報の優先度に基づいて、要約情報の表示方法を決定する。こうすることで、例えば、「優先度が高い要約情報ほど情報処理装置2000のユーザにとって見やすくする」といったことが可能となる。よって、重要な情報が見落とされてしまうことをより確実に防ぐことができる。また、情報処理装置2000のユーザにとって、情報処理装置2000の利便性が向上する。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 複数のカメラそれぞれによって生成される動画を取得し、前記取得した動画の要約処理を行って、前記取得した動画の要約情報を生成する要約手段と、
 前記動画を表示手段に表示させる表示制御手段と、を有し、
 前記表示制御手段は、前記表示手段における前記動画の表示態様の変化が所定条件を満たすことに応じて、その動画の前記要約情報を前記表示手段に表示させる、情報処理装置。
2. 前記表示制御手段は、第1の前記動画の表示態様が、前記表示手段に表示されない態様から、前記表示手段に表示される態様に切り替わることに応じて、第1の前記動画の要約情報を前記表示手段に表示させる、1.に記載の情報処理装置。
3. 前記表示制御手段は、第1の前記動画の表示態様が、第1サイズで前記表示手段に表示される態様から、前記第1サイズよりも大きい第2サイズで前記表示手段に表示される態様に切り替わることに応じて、第1の前記動画の要約情報を前記表示手段に表示させる、1.に記載の情報処理装置。
4. 前記要約手段は、前記表示手段における第1の前記動画の表示態様が第1表示態様から第2表示態様に切り替わる第1時点と、前記表示手段における第1の前記動画の表示態様が前記第2表示態様から前記第1表示態様に切り替わる第2時点との間の期間について生成された第1の前記動画の要約情報を、前記表示手段に表示させる、1.乃至3.いずれか一つに記載の情報処理装置。
5. 第1の前記カメラによって生成される第1の前記動画の表示態様の変化が前記所定条件を満たし、なおかつ第2の前記カメラによって生成される第2の前記動画の表示態様が前記所定条件を満たす場合、前記表示制御手段は、第1の前記動画の前記要約情報及び第2の前記動画の前記要約情報のうち、優先度がより高い前記要約情報を前記表示手段に表示させる、1.乃至4.いずれか一つに記載の情報処理装置。
6. 前記表示制御手段は、前記動画ごとにその動画の要約情報の優先度を記憶する記憶手段から、各前記動画の前記要約情報の前記優先度を取得する、5.に記載の情報処理装置。
7. 前記表示制御手段は、各前記要約情報の内容に基づいてその要約情報の前記優先度を算出する、5.に記載の情報処理装置。
8. 前記表示制御手段は、前記動画と、その動画の過去の期間について生成される前記要約情報とを、前記表示手段における互いに異なる表示領域に表示させる、1.乃至7.いずれか一つに記載の情報処理装置。
9. 前記表示制御手段は、前記動画に対して、その動画の過去の期間について生成される前記要約情報を重畳して、前記表示手段に表示させる、1.乃至7.いずれか一つに記載の情報処理装置。
10. 前記表示制御手段は、前記動画の要約情報が前記表示手段に表示されている間、その動画を前記表示手段に表示させない、1.乃至8.いずれか一つに記載の情報処理装置。
11. コンピュータによって実行される制御方法であって、
 複数のカメラそれぞれによって生成される動画を取得し、前記取得した動画の要約処理を行って、前記取得した動画の要約情報を生成する要約ステップと、
 前記動画を表示手段に表示させる表示制御ステップと、を有し、
 前記表示制御ステップは、前記表示手段における前記動画の表示態様の変化が所定条件を満たすことに応じて、その動画の前記要約情報を前記表示手段に表示させる、制御方法。
12. 前記表示制御ステップにおいて、第1の前記動画の表示態様が、前記表示手段に表示されない態様から、前記表示手段に表示される態様に切り替わることに応じて、第1の前記動画の要約情報を前記表示手段に表示させる、11.に記載の制御方法。
13. 前記表示制御ステップにおいて、第1の前記動画の表示態様が、第1サイズで前記表示手段に表示される態様から、前記第1サイズよりも大きい第2サイズで前記表示手段に表示される態様に切り替わることに応じて、第1の前記動画の要約情報を前記表示手段に表示させる、11.に記載の制御方法。
14. 前記要約ステップにおいて、前記表示手段における第1の前記動画の表示態様が第1表示態様から第2表示態様に切り替わる第1時点と、前記表示手段における第1の前記動画の表示態様が前記第2表示態様から前記第1表示態様に切り替わる第2時点との間の期間について生成された第1の前記動画の要約情報を、前記表示手段に表示させる、11.乃至13.いずれか一つに記載の制御方法。
15. 第1の前記カメラによって生成される第1の前記動画の表示態様の変化が前記所定条件を満たし、なおかつ第2の前記カメラによって生成される第2の前記動画の表示態様が前記所定条件を満たす場合、前記表示制御ステップにおいて、第1の前記動画の前記要約情報及び第2の前記動画の前記要約情報のうち、優先度がより高い前記要約情報を前記表示手段に表示させる、11.乃至14.いずれか一つに記載の制御方法。
16. 前記表示制御ステップにおいて、前記動画ごとにその動画の要約情報の優先度を記憶する記憶手段から、各前記動画の前記要約情報の前記優先度を取得する、15.に記載の制御方法。
17. 前記表示制御ステップにおいて、各前記要約情報の内容に基づいてその要約情報の前記優先度を算出する、15.に記載の制御方法。
18. 前記表示制御ステップにおいて、前記動画と、その動画の過去の期間について生成される前記要約情報とを、前記表示手段における互いに異なる表示領域に表示させる、11.乃至17.いずれか一つに記載の制御方法。
19. 前記表示制御ステップにおいて、前記動画に対して、その動画の過去の期間について生成される前記要約情報を重畳して、前記表示手段に表示させる、11.乃至17.いずれか一つに記載の制御方法。
20. 前記表示制御ステップにおいて、前記動画の要約情報が前記表示手段に表示されている間、その動画を前記表示手段に表示させない、11.乃至18.いずれか一つに記載の制御方法。
21. 11.乃至20.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。

Claims (21)

  1.  複数のカメラそれぞれによって生成される動画を取得し、前記取得した動画の要約処理を行って、前記取得した動画の要約情報を生成する要約手段と、
     前記動画を表示手段に表示させる表示制御手段と、を有し、
     前記表示制御手段は、前記表示手段における前記動画の表示態様の変化が所定条件を満たすことに応じて、その動画の前記要約情報を前記表示手段に表示させる、情報処理装置。
  2.  前記表示制御手段は、第1の前記動画の表示態様が、前記表示手段に表示されない態様から、前記表示手段に表示される態様に切り替わることに応じて、第1の前記動画の要約情報を前記表示手段に表示させる、請求項1に記載の情報処理装置。
  3.  前記表示制御手段は、第1の前記動画の表示態様が、第1サイズで前記表示手段に表示される態様から、前記第1サイズよりも大きい第2サイズで前記表示手段に表示される態様に切り替わることに応じて、第1の前記動画の要約情報を前記表示手段に表示させる、請求項1に記載の情報処理装置。
  4.  前記要約手段は、前記表示手段における第1の前記動画の表示態様が第1表示態様から第2表示態様に切り替わる第1時点と、前記表示手段における第1の前記動画の表示態様が前記第2表示態様から前記第1表示態様に切り替わる第2時点との間の期間について生成された第1の前記動画の要約情報を、前記表示手段に表示させる、請求項1乃至3いずれか一項に記載の情報処理装置。
  5.  第1の前記カメラによって生成される第1の前記動画の表示態様の変化が前記所定条件を満たし、なおかつ第2の前記カメラによって生成される第2の前記動画の表示態様が前記所定条件を満たす場合、前記表示制御手段は、第1の前記動画の前記要約情報及び第2の前記動画の前記要約情報のうち、優先度がより高い前記要約情報を前記表示手段に表示させる、請求項1乃至4いずれか一項に記載の情報処理装置。
  6.  前記表示制御手段は、前記動画ごとにその動画の要約情報の優先度を記憶する記憶手段から、各前記動画の前記要約情報の前記優先度を取得する、請求項5に記載の情報処理装置。
  7.  前記表示制御手段は、各前記要約情報の内容に基づいてその要約情報の前記優先度を算出する、請求項5に記載の情報処理装置。
  8.  前記表示制御手段は、前記動画と、その動画の過去の期間について生成される前記要約情報とを、前記表示手段における互いに異なる表示領域に表示させる、請求項1乃至7いずれか一項に記載の情報処理装置。
  9.  前記表示制御手段は、前記動画に対して、その動画の過去の期間について生成される前記要約情報を重畳して、前記表示手段に表示させる、請求項1乃至7いずれか一項に記載の情報処理装置。
  10.  前記表示制御手段は、前記動画の要約情報が前記表示手段に表示されている間、その動画を前記表示手段に表示させない、請求項1乃至8いずれか一項に記載の情報処理装置。
  11.  コンピュータによって実行される制御方法であって、
     複数のカメラそれぞれによって生成される動画を取得し、前記取得した動画の要約処理を行って、前記取得した動画の要約情報を生成する要約ステップと、
     前記動画を表示手段に表示させる表示制御ステップと、を有し、
     前記表示制御ステップは、前記表示手段における前記動画の表示態様の変化が所定条件を満たすことに応じて、その動画の前記要約情報を前記表示手段に表示させる、制御方法。
  12.  前記表示制御ステップにおいて、第1の前記動画の表示態様が、前記表示手段に表示されない態様から、前記表示手段に表示される態様に切り替わることに応じて、第1の前記動画の要約情報を前記表示手段に表示させる、請求項11に記載の制御方法。
  13.  前記表示制御ステップにおいて、第1の前記動画の表示態様が、第1サイズで前記表示手段に表示される態様から、前記第1サイズよりも大きい第2サイズで前記表示手段に表示される態様に切り替わることに応じて、第1の前記動画の要約情報を前記表示手段に表示させる、請求項11に記載の制御方法。
  14.  前記要約ステップにおいて、前記表示手段における第1の前記動画の表示態様が第1表示態様から第2表示態様に切り替わる第1時点と、前記表示手段における第1の前記動画の表示態様が前記第2表示態様から前記第1表示態様に切り替わる第2時点との間の期間について生成された第1の前記動画の要約情報を、前記表示手段に表示させる、請求項11乃至13いずれか一項に記載の制御方法。
  15.  第1の前記カメラによって生成される第1の前記動画の表示態様の変化が前記所定条件を満たし、なおかつ第2の前記カメラによって生成される第2の前記動画の表示態様が前記所定条件を満たす場合、前記表示制御ステップにおいて、第1の前記動画の前記要約情報及び第2の前記動画の前記要約情報のうち、優先度がより高い前記要約情報を前記表示手段に表示させる、請求項11乃至14いずれか一項に記載の制御方法。
  16.  前記表示制御ステップにおいて、前記動画ごとにその動画の要約情報の優先度を記憶する記憶手段から、各前記動画の前記要約情報の前記優先度を取得する、請求項15に記載の制御方法。
  17.  前記表示制御ステップにおいて、各前記要約情報の内容に基づいてその要約情報の前記優先度を算出する、請求項15に記載の制御方法。
  18.  前記表示制御ステップにおいて、前記動画と、その動画の過去の期間について生成される前記要約情報とを、前記表示手段における互いに異なる表示領域に表示させる、請求項11乃至17いずれか一項に記載の制御方法。
  19.  前記表示制御ステップにおいて、前記動画に対して、その動画の過去の期間について生成される前記要約情報を重畳して、前記表示手段に表示させる、請求項11乃至17いずれか一項に記載の制御方法。
  20.  前記表示制御ステップにおいて、前記動画の要約情報が前記表示手段に表示されている間、その動画を前記表示手段に表示させない、請求項11乃至18いずれか一項に記載の制御方法。
  21.  請求項11乃至20いずれか一項に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
PCT/JP2016/082950 2016-11-07 2016-11-07 情報処理装置、制御方法、及びプログラム WO2018083793A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2018548529A JP6740539B2 (ja) 2016-11-07 2016-11-07 情報処理装置、制御方法、及びプログラム
PCT/JP2016/082950 WO2018083793A1 (ja) 2016-11-07 2016-11-07 情報処理装置、制御方法、及びプログラム
US16/347,262 US11532160B2 (en) 2016-11-07 2016-11-07 Information processing apparatus, control method, and program
US16/674,082 US20200074184A1 (en) 2016-11-07 2019-11-05 Information processing apparatus, control method, and program
US18/074,700 US20230103243A1 (en) 2016-11-07 2022-12-05 Information processing apparatus, control method, and program
US18/241,760 US20230410510A1 (en) 2016-11-07 2023-09-01 Information processing apparatus, control method, and program
US18/243,357 US20230419665A1 (en) 2016-11-07 2023-09-07 Information processing apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/082950 WO2018083793A1 (ja) 2016-11-07 2016-11-07 情報処理装置、制御方法、及びプログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/347,262 A-371-Of-International US11532160B2 (en) 2016-11-07 2016-11-07 Information processing apparatus, control method, and program
US16/674,082 Continuation US20200074184A1 (en) 2016-11-07 2019-11-05 Information processing apparatus, control method, and program

Publications (1)

Publication Number Publication Date
WO2018083793A1 true WO2018083793A1 (ja) 2018-05-11

Family

ID=62076745

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/082950 WO2018083793A1 (ja) 2016-11-07 2016-11-07 情報処理装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (5) US11532160B2 (ja)
JP (1) JP6740539B2 (ja)
WO (1) WO2018083793A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064878A (ja) * 2019-10-15 2021-04-22 水ing株式会社 水道施設を点検するシステム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10796163B2 (en) * 2014-03-07 2020-10-06 Eagle Eye Networks, Inc. Surveillance video activity summary system and access method of operation (VASSAM)
US10740446B2 (en) * 2017-08-24 2020-08-11 International Business Machines Corporation Methods and systems for remote sensing device control based on facial information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308042A (ja) * 1999-04-21 2000-11-02 Nippon Telegr & Teleph Corp <Ntt> 監視映像表示装置、監視映像表示方法及びそのプログラムを記録した記録媒体
JP2002157599A (ja) * 2000-11-17 2002-05-31 Nippon Telegr & Teleph Corp <Ntt> 物体検出認識方法,物体検出認識プログラムを記録した記録媒体および物体監視追跡装置
JP2004078762A (ja) * 2002-08-21 2004-03-11 Telecommunication Advancement Organization Of Japan 映像検索装置および映像検索方法
JP2010166288A (ja) * 2009-01-15 2010-07-29 Hitachi Ltd 映像出力方法、映像出力装置、及び監視映像出力システム
JP2014110582A (ja) * 2012-12-04 2014-06-12 Fujitsu Ltd 映像編集装置および映像編集方法並びに映像編集プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644470A (ja) 1992-07-24 1994-02-18 Ibiden Co Ltd セキュリティシステム
JP3758511B2 (ja) 2000-02-28 2006-03-22 株式会社日立国際電気 物体検出装置及び物体検出プログラム
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
JP2006202062A (ja) 2005-01-20 2006-08-03 Toshiba Corp 施設監視システム
KR101586700B1 (ko) 2009-07-03 2016-01-20 한화테크윈 주식회사 감지장치, 이벤트 감지방법 및 촬영시스템
JP5818445B2 (ja) * 2011-01-26 2015-11-18 京セラ株式会社 携帯端末装置
JP5738028B2 (ja) 2011-03-25 2015-06-17 セコム株式会社 映像処理装置
JP6332833B2 (ja) * 2012-07-31 2018-05-30 日本電気株式会社 画像処理システム、画像処理方法、及びプログラム
US9412025B2 (en) 2012-11-28 2016-08-09 Siemens Schweiz Ag Systems and methods to classify moving airplanes in airports
JP6171374B2 (ja) * 2013-02-06 2017-08-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
KR102070924B1 (ko) * 2014-01-20 2020-01-29 한화테크윈 주식회사 영상 기록 시스템
JP6074395B2 (ja) 2014-09-12 2017-02-01 富士フイルム株式会社 コンテンツ管理システム、管理コンテンツ生成方法、管理コンテンツ再生方法、プログラムおよび記録媒体
JP5999394B2 (ja) * 2015-02-20 2016-09-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US10219026B2 (en) * 2015-08-26 2019-02-26 Lg Electronics Inc. Mobile terminal and method for playback of a multi-view video
KR20180075506A (ko) * 2015-10-27 2018-07-04 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2017142143A1 (en) * 2016-02-19 2017-08-24 Samsung Electronics Co., Ltd. Method and apparatus for providing summary information of a video
US10301041B2 (en) 2016-06-09 2019-05-28 California Institute Of Technology Systems and methods for tracking moving objects
TW201904265A (zh) 2017-03-31 2019-01-16 加拿大商艾維吉隆股份有限公司 異常運動偵測方法及系統

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308042A (ja) * 1999-04-21 2000-11-02 Nippon Telegr & Teleph Corp <Ntt> 監視映像表示装置、監視映像表示方法及びそのプログラムを記録した記録媒体
JP2002157599A (ja) * 2000-11-17 2002-05-31 Nippon Telegr & Teleph Corp <Ntt> 物体検出認識方法,物体検出認識プログラムを記録した記録媒体および物体監視追跡装置
JP2004078762A (ja) * 2002-08-21 2004-03-11 Telecommunication Advancement Organization Of Japan 映像検索装置および映像検索方法
JP2010166288A (ja) * 2009-01-15 2010-07-29 Hitachi Ltd 映像出力方法、映像出力装置、及び監視映像出力システム
JP2014110582A (ja) * 2012-12-04 2014-06-12 Fujitsu Ltd 映像編集装置および映像編集方法並びに映像編集プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064878A (ja) * 2019-10-15 2021-04-22 水ing株式会社 水道施設を点検するシステム
JP7321050B2 (ja) 2019-10-15 2023-08-04 水ing株式会社 水道施設を点検するシステム

Also Published As

Publication number Publication date
US20230410510A1 (en) 2023-12-21
US11532160B2 (en) 2022-12-20
JPWO2018083793A1 (ja) 2019-10-03
US20190286913A1 (en) 2019-09-19
US20230103243A1 (en) 2023-03-30
JP6740539B2 (ja) 2020-08-19
US20230419665A1 (en) 2023-12-28
US20200074184A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
US20230410510A1 (en) Information processing apparatus, control method, and program
JP5227911B2 (ja) 監視映像検索装置及び監視システム
JP6814673B2 (ja) 移動経路予測装置、及び移動経路予測方法
WO2017159060A1 (ja) 情報処理装置、制御方法、及びプログラム
US8942510B2 (en) Apparatus and method for switching a display mode
KR101978299B1 (ko) 콘텐츠 서비스 시스템에서의 콘텐츠 서비스를 위한 장치
US10509957B2 (en) System and method for human pose estimation in unconstrained video
WO2014199505A1 (ja) 映像監視システム、監視装置
JP2019513275A (ja) 監視方法及び装置
JP2019200715A (ja) 画像処理装置、画像処理方法及びプログラム
WO2019021628A1 (ja) 情報処理装置、制御方法、及びプログラム
JP7052833B2 (ja) 情報処理装置、制御方法、及びプログラム
KR20170096838A (ko) Cctv 영상의 검색 장치 및 방법
JP2019125053A (ja) 情報端末装置、情報処理システムおよび表示制御プログラム
JP2021175153A (ja) 混雑情報報知システム
Chitra et al. Voice navigation based guiding device for visually impaired people
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
US20210209171A1 (en) Systems and methods for performing a search based on selection of on-screen entities and real-world entities
US11380187B2 (en) Information processing apparatus, control method, and program
WO2019207721A1 (ja) 情報処理装置、制御方法、及びプログラム
US20170078618A1 (en) Display control device, display control system, and display control method
KR102392867B1 (ko) 영상 검색 방법 및 장치
JP7371704B2 (ja) 流量情報出力装置、制御方法、及びプログラム
WO2021240581A1 (ja) 動線表示装置、動線表示方法、及びプログラム
JP5849762B2 (ja) 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16920561

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018548529

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16920561

Country of ref document: EP

Kind code of ref document: A1