WO2017099037A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2017099037A1
WO2017099037A1 PCT/JP2016/086070 JP2016086070W WO2017099037A1 WO 2017099037 A1 WO2017099037 A1 WO 2017099037A1 JP 2016086070 W JP2016086070 W JP 2016086070W WO 2017099037 A1 WO2017099037 A1 WO 2017099037A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
video
predetermined
predetermined object
information processing
Prior art date
Application number
PCT/JP2016/086070
Other languages
English (en)
French (fr)
Inventor
北野 宏明
俊一 笠原
康二郎 柏
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2017099037A1 publication Critical patent/WO2017099037A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 the person is identified by collating the face area of the person in the image captured by the camera with the face image of the user registered in advance, and the identified person is A technique for displaying a captured image on a portable terminal is described.
  • Patent Document 1 By the way, if it is assumed that the technique described in Patent Document 1 is applied to a scene where an image is taken in an area having a path where a person can move, the technique described in Patent Document 1 depends on the path in the area. Instead, the process is performed in a fixed manner.
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of controlling transmission of a control signal adapted to a route in a region where imaging is performed.
  • the position information of a predetermined object included in any one of videos acquired by a plurality of imaging devices located in an area having a predetermined path on which a human can move, and the predetermined A process for controlling transmission of a control signal based on the position information, the path information, and the predetermined object to the terminal associated with the area; and an information acquisition unit that acquires path information associated with the path And an information processing apparatus including the unit.
  • the position information of a predetermined object included in any one of videos acquired by a plurality of imaging devices located in an area having a predetermined path that a human can move The processor controls the acquisition of route information associated with a predetermined route, and transmission of the position information, the route information, and a control signal based on the predetermined object to the terminal associated with the region. And an information processing method is provided.
  • an information acquisition unit that acquires route information associated with the predetermined route, and a control signal based on the position information, the route information, and the predetermined object with respect to the terminal associated with the region.
  • FIG. 5 is a diagram showing an example in which a plurality of environmental cameras 20 are installed in an area 80.
  • FIG. It is the functional block diagram which showed the structural example of the server 10 by the embodiment. It is the figure which showed the specific example of the movement path
  • 10 is a flowchart showing a part of the flow of processing according to application example 1.
  • 10 is a flowchart showing a part of the flow of processing according to application example 1. It is the flowchart which showed the flow of the whole process by the application example 2 of the embodiment.
  • 12 is a flowchart showing a flow of “shooting process of video of suspicious person” according to an application example 2;
  • 12 is a flowchart illustrating a flow of “video reproduction processing” according to an application example 2.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • a plurality of configurations having substantially the same functional configuration are distinguished as the environmental camera 20a and the environmental camera 20b as necessary.
  • the environmental camera 20a and the environmental camera 20b are simply referred to as the environmental camera 20 when it is not necessary to distinguish them.
  • the information processing system can be applied in an area 80 having a predetermined route that a human can move.
  • the information processing system is a system for managing objects (people and things) located in the area 80.
  • the area 80 may be, for example, a commercial building, a condominium, a hotel, a station, an airport, a building such as a theme park, a parking lot, a park, or the whole city.
  • the area 80 is not limited to a building, but a predetermined site around the building (for example, a site managed by the manager of the building, or a wireless LAN installed in the building) (Such as a communication area of (Local Area Network)).
  • the predetermined route is, for example, a corridor, a stairs, an escalator, or a road.
  • the example in which the area 80 is a predetermined building will be mainly described.
  • a control room 90 can be installed in the region 80.
  • the present invention is not limited to this example, and various devices in the area 80 (for example, the environmental camera 20 and the second display device 32 described later) and the control room 90 can be communicated with each other via the communication network 24, for example.
  • the control room 90 may be installed outside the area 80.
  • the example in which the control room 90 is installed in the region 80 will be mainly described.
  • FIG. 2 is a schematic view showing the inside of the control room 90.
  • the first display device 30 can be installed in the control room 90.
  • the first display device 30 is an example of a display device according to the present disclosure.
  • the first display device 30 includes, for example, a display such as a liquid crystal display (LCD) or an organic light emitting diode (OLED).
  • LCD liquid crystal display
  • OLED organic light emitting diode
  • one or more videos 40 corresponding to videos taken by the environmental camera 20 and the user camera 22 can be displayed on the first display device 30 under the control of the server 10.
  • the monitor 4 located in the control room 90 monitors the inside of the area 80 by viewing the plurality of videos 40 displayed on the first display device 30. For example, the monitor 4 monitors whether or not a predetermined object exists in the area 80 by watching the plurality of videos 40.
  • the predetermined object includes, for example, a person who has a high possibility of crime (such as a person with a criminal history or a suspect), a person with a suspicious behavior (such as a sudden illness or drunk person), a supporter, a lost child, or a lost child. This may include looking parents, suspicious objects, dangerous materials (such as firearms or kerosene tanks), lost items, and the like.
  • the predetermined object may include a person who possesses a suspicious object or a dangerous object.
  • monitoring in the area 80 for example, monitoring whether a predetermined object exists in the area 80, whether a predetermined event has occurred in the area 80, etc.
  • All of the monitoring personnel 4 may perform, all of the servers 10 to be described later may perform, or the server 10 and the monitoring personnel 4 may cooperate.
  • the predetermined event may be, for example, the occurrence of a crime or the occurrence of a sudden illness.
  • FIG. 3 is a diagram showing an example of the appearance of the guard 2.
  • the guard 2 can wear the user camera 22 on the head.
  • the user camera 22 may include a plurality of cameras 220 arranged so as to be able to capture an image of the entire periphery (around 360 degrees) of the guard 2.
  • the user camera 22 can capture a spherical image.
  • the user camera 22 is not limited to the shape shown in FIG. 3, For example, you may have one or more fisheye cameras.
  • an image of the entire periphery of the guard 2 can be taken with the one or more fisheye cameras.
  • the user camera 22 may be a camera that can capture only a specific direction (such as behind the guard 2) such as a rear camera.
  • the user camera 22 is an example of an imaging device according to the present disclosure.
  • the user camera 22 can transmit the captured video to the server 10 via the communication network 24 described later.
  • the server 10 can transmit the image
  • the other guard 2b can visually recognize the video around the corresponding guard 2a, and can watch around the corresponding guard 2a.
  • the user camera 22 is, for example, a sensor for sensing three-dimensional information (for example, a depth sensor or a range finder) (hereinafter referred to as a three-dimensional information sensor), a position information receiver, an acceleration sensor, a gyroscope, or You may further have other kinds of sensors, such as a microphone.
  • the position information receiver may include a receiver that receives a positioning signal from a positioning satellite such as GPS (Global Positioning System) or GLONASS (Global Navigation Satellite System).
  • the position information receiver may further include a receiver that receives position information from the area 80 such as a Bluetooth (registered trademark) access point or a Wi-Fi (registered trademark) access point.
  • the guard 2 can wear a second display device 32 such as an optical see-through HMD (Head Mounted Display).
  • the second display device 32 includes an image projection device (not shown), a left-eye lens 34a, and a right-eye lens 34b.
  • the image projection device projects an image using at least a part of each of the left-eye lens 34a and the right-eye lens 34b as projection surfaces.
  • the second display device 32 may include a goggle-type lens that covers both eyes of the user instead of the left-eye lens 34a and the right-eye lens 34b.
  • the image projection device can project an image using at least a partial region of the goggle lens as a projection plane.
  • the left-eye lens 34a and the right-eye lens 34b can be formed of a transparent material such as resin or glass.
  • the second display device 32 may be a video see-through HMD.
  • the second display device 32 includes a camera installed on the second display device 32 so as to be able to photograph the scenery in front of the guard 2, and a display unit that displays an image captured by the camera. Can have. Then, the second display device 32 can sequentially display images captured by the camera on the display unit. Thereby, the guard 2 can see the scenery ahead of the guard 2.
  • the display unit may be configured to include, for example, an LCD or an OLED. Note that the second display device 32 is an example of a display device according to the present disclosure.
  • the second display device 32 may be a predetermined portable device having a display such as an LCD or an OLED.
  • the second display device 32 may be a mobile phone such as a smartphone, a tablet terminal, or a portable music player.
  • the second display device 32 will be mainly described as an example of a wearable device.
  • the security guard 2 wears both the user camera 22 and the second display device 32.
  • the security guard 2 is not limited to this example, and some of the security guards in the area 80 2 may be equipped with only one of the user camera 22 and the second display device 32.
  • the user camera 22 and the second display device 32 are not limited to examples configured as separate devices, and may be configured integrally.
  • the environmental camera 20 can be, for example, an omnidirectional camera.
  • the environment camera 20 may further include a three-dimensional information sensor and a position information receiver (similar to the user camera 22).
  • the environmental camera 20 does not have a three-dimensional information sensor, and for each environmental camera 20, there is, for example, one three-dimensional information sensor at a location associated with the environmental camera 20 (for example, the vicinity of the environmental camera 20). You may install in the area
  • Individual environmental cameras 20 can sequentially transmit sensed information (video and three-dimensional information) to the server 10 via the communication network 24.
  • the environmental cameras 20 may be fixed in the area 80, or some of the environmental cameras 20 are movable bodies (for example, drones, cleaning robots, or , A movement support device, etc.).
  • the environmental camera 20 is an example of an imaging device according to the present disclosure.
  • the environmental camera 20 and the user camera 22 may be collectively referred to as “in-area cameras”.
  • the first display device 30 and the second display device 32 may be collectively referred to as an “in-region display device”.
  • the server 10 is an example of an information processing device according to the present disclosure.
  • the server 10 performs various processes based on information (videos and the like) sensed by the plurality of environment cameras 20 and the plurality of user cameras 22 located in the region 80.
  • the server 10 receives images captured by each of the plurality of environment cameras 20 and the plurality of user cameras 22 via the communication network 24, and each of the images in the region 80 is based on the received plurality of images.
  • Control the operation of the device For example, the server 10 recognizes whether or not a predetermined object exists in the area 80 based on the received plurality of videos, and performs various processes for each device in the area 80 based on the recognition result. Control.
  • the server 10 can generate a free viewpoint video related to the region 80 based on the plurality of received videos. Further, the server 10 can transmit the free viewpoint video to one or more of the first display device 30 and the plurality of second display devices 32 to display them.
  • the communication network 24 is a wired or wireless transmission path for information transmitted from a device connected to the communication network 24.
  • the communication network 24 may include a public line network such as a telephone line network, the Internet, a satellite communication network, various LANs including Ethernet (registered trademark), a WAN (Wide Area Network), and the like.
  • the communication network 24 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).
  • the server 10 is a position of a predetermined object included in any one of the images acquired by the plurality of environment cameras 20 and the plurality of user cameras 22 located in the region 80.
  • Information and route information associated with the region 80 are acquired, and transmission of a control signal based on the position information, the route information, and the predetermined object to the terminal associated with the region is transmitted. It is possible to control. For this reason, the server 10 can perform the optimal control according to the position information of the predetermined object and the route in the area 80 for the corresponding terminal, for example.
  • FIG. 5 is a functional block diagram showing a configuration example of the server 10 according to the present embodiment.
  • the server 10 includes a control unit 100, a communication unit 120, and a storage unit 122.
  • Control unit 100 may include a processing circuit such as a CPU 150 or a GPU (Graphics Processing Unit) described later.
  • the control unit 100 comprehensively controls the operation of the server 10.
  • the control unit 100 includes an image recognition unit 102, a determination unit 104, an information acquisition unit 106, a video generation unit 108, and a processing unit 110.
  • the image recognition unit 102 performs various types of recognition processing on each of the videos received from the plurality of environment cameras 20 and the plurality of user cameras 22. For example, the image recognizing unit 102 displays, for example, a machine attribute or the like (eg, type, shape, size, etc.) of an object included in each received video, the movement of the object, or an event occurring within the video shooting range. Recognize using learning (eg deep learning). As an example, machine learning using history data of events that occurred in the past as a teacher may be performed in advance. In this case, the image recognition unit 102 recognizes the attribute and movement of the object included in each received video based on the result of the machine learning.
  • a machine attribute or the like eg, type, shape, size, etc.
  • the image recognition unit 102 recognizes the presence or absence of a person from each received video, and recognizes whether or not the person is performing a predetermined operation (such as a predetermined movement) with respect to each recognized person. To do.
  • a predetermined operation such as a predetermined movement
  • entering a prohibited area entering through an emergency exit and going straight to the normal floor without depending on the floor for the worker, roughing the car in the parking lot, stealing goods, assaulting others And kidnapping and the like.
  • the image recognition unit 102 recognizes the tendency of body movement (for example, walking speed) for each person recognized from each received video.
  • the image recognition unit 102 when the image recognition unit 102 recognizes that a person has fallen in each received video, the image recognition unit 102 further recognizes how the person falls.
  • Determination unit 104 (2-1-3-1. Determination of a predetermined object) -Judgment example 1
  • the determination unit 104 determines whether or not a predetermined object is included in each received video based on the recognition result by the image recognition unit 102. For example, when the image recognition unit 102 recognizes that an object included in one or more received videos is performing a predetermined operation, the determination unit 104 determines that the object is a predetermined object. Is determined.
  • the object performing the predetermined action is a person who is given a high degree of freedom with respect to entering and exiting the area 80 such as the guard 2. Therefore, when the image recognition unit 102 recognizes that the object is such a specific person, or when it is confirmed from the entry history information (for example, entry ID or entry / exit time), For example, the monitor 10 in the server 10 and the control room 90 may cancel the monitoring of the person corresponding to the object.
  • the entry history information for example, entry ID or entry / exit time
  • the determination unit 104 can also determine whether the object is a predetermined object based on the size or shape of the object in the received video recognized by the image recognition unit 102. . For example, based on the size or shape of the object in the video, the determination unit 104 identifies a person who is more likely to be a criminal (for example, a person with a large baggage), a parent and child family, or the like.
  • the determination unit 104 may determine that the object is a predetermined object. This means, for example, that a person has left after putting his belongings on the floor, that a person has removed goods from the product shelf (theft), that the parent and child who were with them have left, and kidnapping Can be detected.
  • the determination unit 104 displays the two objects. It may be determined that each object is a predetermined object. In this case, the server 10 (determination unit 104) can further continue monitoring by associating the two objects.
  • the determination unit 104 can also determine whether the person is a predetermined object based on the recognition result of the body movement tendency of each person recognized by the image recognition unit 102. For example, the determination unit 104 determines a person (for example, a suspicious person or a person who needs support) from which a predetermined movement tendency is recognized as a predetermined object.
  • a person for example, a suspicious person or a person who needs support
  • the determination unit 104 collates each person recognized by the image recognition unit 102 with images of a plurality of target persons stored in the target person DB 124 described later, so that the person is a predetermined object. It is determined whether or not. For example, when the similarity between the image of the person recognized by the image recognition unit 102 and the image of any one of the target persons stored in the target person DB 124 is equal to or greater than a predetermined threshold, the determination unit 104 It is determined that the person is a predetermined object.
  • the target person may be, for example, a person with a criminal history or a suspect.
  • the target person DB 124 is a database in which target person information is stored.
  • the target person DB 124 stores images of each target person (such as face images and whole body images).
  • identification information (name and the like) of the target person, crime history and suspect information related to the target person, and the like may be stored in association with each other.
  • the subject DB 124 can be stored in the storage unit 122, for example.
  • the determination unit 104 can estimate whether or not a predetermined event has occurred in the region 80 and information on the generated event based on the recognition result by the image recognition unit 102. For example, when the image recognition unit 102 recognizes that a person in the area 80 has fallen, the determination unit 104 determines the degree and type of injury of the person based on the recognition result of how the person falls. Or, the disease that the person is affected is estimated.
  • the determination unit 104 can predict a place or time at which an event is highly likely to occur based on the recognition result obtained by the image recognition unit 102. Further, the determination unit 104 determines the priority of monitoring for each place where the possibility of occurrence of an event is high, or an in-region camera that is a moving body (for example, a camera mounted on an autonomous mobile robot). And a plan for the placement of security guards 2. For example, the determination unit 104 determines the guard 2 to be moved from among the plurality of guards 2, and determines the movement time, the movement location, and the moving means of the guard 2.
  • the determination unit 104 predicts the movement of people in the area 80 (movement direction, congestion situation, etc.) when each event occurs.
  • the determination unit 104 determines a response method (for example, a device to be controlled) of the event when the event occurs in the area 80. For example, if it is determined that a person having a criminal history or a person such as a suspect (hereinafter referred to as a suspicious person) exists in the area 80, the determination unit 104 first tracks the suspicious person. (Drone etc.) or one or more guards 2 are selected, and it is determined that the selected robot or guard 2 is to track the suspicious person in real time.
  • a response method for example, a device to be controlled
  • the determination unit 104 first selects a robot (such as a drone) to be moved to the place of the suddenly ill person, one or more guards 2 or medical staff, etc. Then, it is determined that the selected robot or person (such as the guard 2 or medical staff) is moved to the location of the suddenly ill person.
  • a robot such as a drone
  • the determination unit 104 plans evacuation guidance for people such as general customers when a crime or disaster occurs based on the images received from the plurality of environmental cameras 20 and the plurality of user cameras 22. For example, the determination unit 104 estimates, for example, the congestion situation of people for each point in the region 80 or a point where evacuation can be delayed based on the received plurality of videos. Further, the determination unit 104 determines a route to be avoided (or passed) during evacuation and a position of an emergency exit.
  • the determination unit 104 determines, for example, a region in which no video is captured in the region 80 (for example, a region outside the photographing range of the plurality of environment cameras 20 and the plurality of user cameras 22). Based on this, it may be further determined whether the number of viewpoints (for example, the environmental camera 20 or the user camera 22) or the number of depth sensors should be increased.
  • the determination unit 104 may attach more lenses with respect to some or all of the environmental cameras 20 and the user cameras 22 based on, for example, images received from the multiple environmental cameras 20 and the multiple user cameras 22. Further, it may be further determined to replace the camera with a high-performance camera (such as a high-sensitivity or high-resolution camera).
  • a high-performance camera such as a high-sensitivity or high-resolution camera.
  • the determination unit 104 may determine that an object determined to be a predetermined object (for example, a suspicious person) is not subject to monitoring when a predetermined condition is satisfied. For example, the determination unit 104 may determine that the object is not a predetermined object thereafter.
  • a predetermined object for example, a suspicious person
  • Information acquisition unit 106 ⁇ (2-1-4-1. Acquisition of location information) Based on the determination result by the determination unit 104, the information acquisition unit 106 acquires position information of a predetermined object and route information associated with a predetermined route in the area 80. For example, the information acquisition unit 106 captures information related to the environmental camera 20 or the user camera 22 (for example, position information at the time of imaging, a shooting direction, a zoom rate, and the like) that captured a video including a predetermined object, and the video. Based on this, position information of a predetermined object is acquired.
  • information related to the environmental camera 20 or the user camera 22 for example, position information at the time of imaging, a shooting direction, a zoom rate, and the like
  • the information acquisition unit 106 can acquire the position information of the predetermined object by specifying the position information of another object recognized by the image recognition unit 102 from the video including the predetermined object. For example, for each region 80, a map (such as a floor plan) of each floor of the region 80 can be prepared in advance and stored in the region information DB 126 described later. In this case, the information acquisition unit 106 specifies the position information of the other object based on the other object recognized from the video including the predetermined object and the map of each floor in the corresponding area 80.
  • the region information DB 126 is a database in which route information (for example, a map) of each floor in the region 80 is stored for each region 80.
  • the area information DB 126 can be stored in the storage unit 122.
  • the information acquisition unit 106 acquires the route information of the corresponding region 80 by extracting the route information associated with the corresponding region 80 from the region information DB 126.
  • the information acquisition unit 106 further acquires information on the movement path of the predetermined object based on the information about the predetermined object obtained from the recognition result by the image recognition unit 102 and the acquired route information, for example. Is possible. For example, the information acquisition unit 106 recognizes the movement path of the predetermined object based on at least one of the speed, acceleration, and movement direction of the predetermined object recognized by the image recognition unit 102 and the acquired path information. The information on the movement route is acquired by specifying.
  • FIG. 6 shows an example in which a suspicious person 50 (an example of a predetermined object) is located at a point “A” in “2F” in the region 80.
  • the information acquisition unit 106 first moves the suspicious person 50 based on the recognition result of the image recognition unit 102 with respect to the video including the suspicious person 50 (the direction indicated by the dashed arrow in FIG. 6). Is identified. Then, the information acquisition unit 106, based on the identified moving direction, the current position information of the suspicious person 50, and the route information “2F” of the area 80 extracted from the area information DB 126, It is specified that a part of the 50 moving paths is the passage 800a shown in FIG. Then, the information acquisition unit 106 acquires the passage 800a as a part of the travel route information.
  • the information acquisition unit 106 may predict a route along which the predetermined object will move in the future, and may further acquire a video in which the predicted route is captured as part of the information on the movement route. That is, the movement route information may further include a video that is currently captured by at least one of the plurality of environment cameras 20 and the plurality of user cameras 22 and does not include the predetermined object.
  • Video generation unit 108 uses at least one of the first display device 30 and the plurality of second display devices 32 based on video and three-dimensional information received from the plurality of environment cameras 20 and the plurality of user cameras 22. Generate video to be displayed by one or more. For example, the video generation unit 108 generates a free viewpoint video related to the region 80 based on the video and the three-dimensional information received from the plurality of environment cameras 20 and the plurality of user cameras 22.
  • the video generation unit 108 first has a point cloud corresponding to the region 80 (for example, in the region 80 based on the video and the three-dimensional information received from the plurality of environment cameras 20 and the plurality of user cameras 22. Point cloud of each floor). Then, the video generation unit 108 generates a free viewpoint video related to the region 80 based on the generated point cloud.
  • generation part 108 uses the image
  • free viewpoint video presents video from a free viewpoint position based on data sensed from a plurality of viewpoints (such as a plurality of environment cameras 20 and a plurality of user cameras 22) arranged in the region 80. It may be data for For example, a three-dimensional virtual space can be constructed by integrating data sensed from each of the plurality of viewpoints inside the region 80. In this case, the free viewpoint video may be data presenting video of the virtual space from the viewpoint when the viewpoint is virtually moved freely in the three-dimensional virtual space.
  • a plurality of viewpoints such as a plurality of environment cameras 20 and a plurality of user cameras 22
  • the monitor 4 when the free viewpoint video is displayed on the first display device 30 and the monitor 4 performs an operation for moving the viewpoint (for example, an operation on a predetermined input device or a voice command). Can be displayed on the first display device 30 from the viewpoint after movement based on the operation. In this way, the monitor 4 can watch the free viewpoint video by freely moving the viewpoint.
  • an operation for moving the viewpoint for example, an operation on a predetermined input device or a voice command.
  • the free viewpoint video may include 3D information and color information indicating individual real objects in the region 80.
  • the free viewpoint video includes, for each real object, position information and color information of each point included in the virtual object corresponding to the real object in the above-described three-dimensional virtual space.
  • the free viewpoint video may further include sound information such as sound collected in the region 80, for example.
  • Processing unit 110 controls transmission of a control signal acquired by the information acquisition unit 106 based on the position information of the predetermined object and the route information to the terminal associated with the region 80. For example, the processing unit 110 first performs, for example, display control, movement control, shooting control, or communication control on the terminal based on the predetermined object, the position information, and the route information. Control signal is generated. Then, the processing unit 110 causes the control signal to be transmitted to the communication unit 120 described later to the terminal.
  • the terminal is one or more of a plurality of environmental cameras 20, one or more of a plurality of user cameras 22, one of a first display device 30 or a plurality of second display devices 32. This can be the case.
  • control signal may include a signal for controlling display on at least one of the first display device 30 and the plurality of second display devices 32.
  • control signal causes a guide associated with a predetermined object to be displayed on at least one of the plurality of second display devices 32 in association with position information and route information of the predetermined object.
  • a signal may be included.
  • the control signal marks the predetermined object in the video in which the predetermined object is captured (for example, the predetermined object is framed).
  • a signal for displaying the video on at least one of the plurality of second display devices 32 in a state of being surrounded and displayed) may be included.
  • the control signal may be any one of a plurality of paths in the area 80 (in order for a guard 2 to track the suspicious person). May include a signal for causing the second display device 32 worn by the guard 2 to display a tracking guide indicating whether or not to move. Thereby, the guard 2 can track a suspicious person more efficiently. Further, even if the security guard 2 does not know a suspicious person (for example, a suspect), the suspicious person can be reliably traced.
  • the control signal provides an evacuation guidance guide for a security guard 2 to evacuate people such as general customers in the area 80.
  • a signal for displaying on the second display device 32 worn by the guard 2 may be included.
  • the evacuation guide may be, for example, a guide that is estimated by the determination unit 104 and that indicates a route or an emergency exit position that should be avoided (or should be passed) during evacuation.
  • the guard 2 can guide the general customer to evacuate more safely and more quickly.
  • the tracking guide or the evacuation guide described above may be an image indicating a direction (for example, an arrow) or a map object (for example, a map including the corresponding route).
  • control signal may be sent to, for example, an evacuation guide to a predetermined portable terminal held by a general user in the area 80 (for example, a terminal that has downloaded a predetermined application in advance). It may be a signal for display. Thereby, even if it is a case where the guard 2 is not near, it can evacuate appropriately with respect to a general user.
  • control signal is a signal for causing the second display device 32 attached to the guard 2 to display an image captured by the user camera 22 worn by the guard 2 for each guard 2.
  • the control signal is a video of the security camera 2 shooting a range outside the field of view of the security guard 2 (for example, rearward or upward) by the user camera 22 worn by the security guard 2.
  • a signal for displaying on the second display device 32 to be mounted may be included.
  • the processing unit 110 responds to the abnormality by the user camera 22 worn by the guard 2.
  • a signal for causing the second display device 32 worn by the security guard 2 to display the video of which the range has been photographed is generated as the control signal.
  • the guard 2 can quickly notice an abnormality occurring outside the field of view (for example, the presence of a suspicious person) and can be alert.
  • the control signal is a signal for simultaneously displaying a plurality of videos taken by the plurality of environment cameras 20 and the plurality of user cameras 22 on the first display device 30 as shown in FIG. May be included.
  • the control signal may include a signal for controlling display on the first display device 30 so that only a part or all of the plurality of videos are rotated on the display screen.
  • the control signal gives priority to a video obtained by photographing a predetermined object, a periphery of the predetermined object, a moving object, and / or a periphery of the moving object among the plurality of videos over other videos.
  • a signal for rotating the first display device 30 (for example, extending the display time of the video per rotation) may be included.
  • the monitoring person 4 in the control room 90 can monitor all the predetermined objects on the same screen even when, for example, a plurality of predetermined objects are detected. Then, the monitor 4 can instruct the guard 2 or the drone at an appropriate timing to track the suspicious person or rescue the suddenly ill person.
  • the plurality of videos may include predetermined objects different from each other, or some of the plurality of videos may include the same predetermined object.
  • the control signal is captured by a plurality of environment cameras 20 and a plurality of user cameras 22. Signals for causing the plurality of second display devices 32 and the first display device 30 to display the images of the plurality of escape routes that have been performed may be included. Thereafter, when a security guard 2 selects any one of the plurality of escape routes, the processing unit 110 displays only the video of the escape route other than the selected escape route. A control signal for displaying on the second display device 32 other than the second display device 32a to be mounted on the display device or on the first display device 30 may be further generated.
  • the security guard 2 selects by a line-of-sight operation or a voice command on the second display device 32, or one of the plurality of escape routes. For example, the guard 2 actually moves.
  • the processing unit 110 displays the video of the selected escape route in a display mode different from the images of other escape routes (for example, with a check or displayed in grayout). You may further generate
  • FIG. According to these examples, when a security guard 2a chooses to track one suspicious person, he or she leaves the suspicious person to be traced to the security guard 2a and other security guards 2b to the suspicious person. It is possible to guide the person not to be tracked. Therefore, all the guards 2 in the area 80 can be guarded more efficiently.
  • control signal causes a virtual object or an effect corresponding to the orientation of the video displayed on the plurality of second display devices 32 to be displayed on at least one of the plurality of second display devices 32.
  • a signal may be included.
  • the processing unit 110 first guides the guard 2 who wears each second display device 32 so that each of the plurality of second display devices 32 faces in a different direction within the region 80.
  • a guide object (for example, a virtual object such as an arrow) is determined.
  • the processing unit 110 generates, for each second display device 32, a signal for causing the second display device 32 to display the guide object determined with respect to the second display device 32 as the control signal. Also good.
  • control signal is an area that is not easily monitored in the free viewpoint video generated with respect to the area 80 (for example, an area in which no video is captured in the area 80 by the plurality of environment cameras 20 and the plurality of user cameras 22, etc.) ) May be included on each of the second display devices 32.
  • the guard 2 can be guided to move to a region where the monitoring is not easy.
  • the monitoring person 4 and the plurality of guards 2 in the control room 90 can monitor a wider area in the region 80, and the monitoring accuracy can be improved.
  • control signal is an image captured by at least two of the plurality of environmental cameras 20 and the plurality of user cameras 22, and is at least one of the first display device 30 or the plurality of second display devices 32. And a signal for controlling the display so that the visibility of at least one of the images captured by the two intra-area cameras is changed.
  • one of the images taken by the two cameras in the area is an image including a predetermined object or an image on a path related to the predetermined object (hereinafter, collectively referred to as “attention”
  • the other video out of the video captured by the two in-region cameras may be a video other than the video of interest.
  • the control signal may include a signal for further emphasizing the target video among the videos captured by the two intra-area cameras and causing the display in the corresponding intra-area display device 30 to display.
  • the control signal includes a signal for increasing the display size of the target video, changing the color of the target video, or changing the luminance of the target video to be displayed on the display device in the corresponding area. But you can.
  • control signal may include a signal for controlling display of the video so that the visibility of the video other than the video of interest is reduced among the video shot by the two in-region cameras.
  • control signal may include a signal for hiding a video other than the video of interest or for displaying the video on a display device in a corresponding area that is translucent. Thereby, the visibility of an attention image can be improved relatively.
  • control signal includes a current image including a predetermined object, which is captured by a certain camera 20a among the plurality of environment cameras 20 and the plurality of user cameras 22, and another camera 20b (or the same camera 20a).
  • the first display device 30 or a signal for causing the second display device 32 to display the past video that has been imaged by the above and does not include the predetermined object may be included.
  • the certain camera 20a is an example of a third imaging device according to the present disclosure.
  • Another camera 20b (or a camera 20a) is an example of a fourth imaging device in the present disclosure.
  • the current video and the past video can be simultaneously displayed on one intra-area display device, so that it is possible to reduce the communication amount of data relating to imaging (for example, video).
  • the current video and the past video can be continuously displayed on the first display device 30.
  • the monitoring accuracy can be further improved.
  • control signal represents an image indicating an area in which an image is not captured in the area 80 (for example, an area that is outside the imaging range of the plurality of environment cameras 20 and the plurality of user cameras 22).
  • a signal for displaying on at least one of the display device 30 or the plurality of second display devices 32 may be included.
  • the monitoring staff 4 can change the area in which the video is not captured by any one of the user cameras 22.
  • the guard 2 wearing the user camera 22 can be instructed to move.
  • the second display device is configured such that an area where the video is not captured is captured by the user camera 22. The movement can be guided to the guard 2 wearing 32.
  • the control signal may include a signal for displaying a predetermined image on, for example, digital signage located in the vicinity of the child.
  • the predetermined image may be, for example, an image of a staff member at the child-care center, an image including the parent of the child, or an image of a character popular with children.
  • the processing unit 110 has the child.
  • a parent can be notified of the position of a lost child.
  • control signal guides a movement with respect to the target guard 2 which the said plan shows to the place which the said plan shows on the date which the plan regarding the arrangement
  • a signal for causing the second display device 32 worn by the security guard 2 to display a guide display for this purpose may be included.
  • the control signal may include a signal for moving a predetermined moving device that can move in the region 80 to a position where the predetermined object is recognized or a destination of the predetermined object.
  • the predetermined moving device may be various types of robots (for example, a drone, a wheelchair robot, a bed type transporter, a medical robot, or the like) or a vehicle (such as a segway or an autonomous driving vehicle).
  • the drone may be equipped with, for example, a camera, an AED (Automated External Deflator), or a network for capturing criminals.
  • the medical robot can be configured to be operable by a doctor from a remote location, for example, a patient can be diagnosed from a remote location.
  • the medical robot may include an emergency box, an operation kit, and the like.
  • the processing unit 110 moves, for example, a drone equipped with an AED or a bed-type transport machine to the position indicated by the position information of the suddenly ill person.
  • a signal is generated as the control signal.
  • the processing unit 110 causes the drone equipped with a camera or a network for capturing criminals to track the suspicious person or the suspicious person, for example.
  • a signal for controlling the camera to shoot around is generated as the control signal.
  • control signal includes an area in which no video is shot in the area 80 (for example, an area outside the shooting range of the plurality of environment cameras 20 and the plurality of user cameras 22) in the area where the moving body is present.
  • a signal for moving the in-region camera so as to be imaged by a camera for example, a drone equipped with a camera may be included.
  • control signal automatically sends the target device (for example, a drone equipped with a camera) indicated by the plan to the location indicated by the plan at the date and time indicated by the plan related to device arrangement created by the determination unit 104.
  • a signal for human deployment of the target device for example, a wheelchair or a walking aid.
  • control signal may include a signal for controlling imaging for at least one of the plurality of environment cameras 20 and the plurality of user cameras 22.
  • the control signal is generated so that a predetermined object continues to be located at the center of at least one of the plurality of environment cameras 20 and the plurality of user cameras 22 (or within a predetermined range from the center of the angle of view).
  • a signal for controlling the operation of the camera in response to a change in position information of a predetermined object may be included.
  • the control signal includes a plurality of environment cameras 20 and a plurality of user cameras 22 in accordance with a detection result of a change in position information of the predetermined object or a prediction result of a change in position information by the determination unit 104.
  • a signal for changing at least one of the angle of view and the shooting direction may be included.
  • the control signal is displayed on the environmental camera 20 or the user camera 22 that is closest to the predetermined object so that the predetermined object is photographed following the change in position information of the predetermined object.
  • a signal for changing the angle or the shooting direction may be included. Accordingly, it is possible to continue photographing the predetermined object following the movement of the predetermined object.
  • control signal increases the amount of data processed by the environmental camera 20 (hereinafter referred to as “environment camera on the first path”) located on the first path in the traveling direction of the predetermined object.
  • the signal may be included.
  • the advancing direction of the predetermined object may be the current advancing direction of the predetermined object, or a future progress (for example, specified based on information on a moving path of the predetermined object). It may be a direction.
  • the first route can be specified based on, for example, information on the moving route of the predetermined object.
  • the environmental camera on the first path is an example of the first imaging device in the present disclosure.
  • control signal increases the imaging frequency of the environmental camera on the first path (in comparison with the normal imaging frequency) or displays an image with a higher resolution (compared to the normal resolution) in the first path.
  • a more accurate image is taken with respect to the first route, so that the server 10 (determination unit 104) or the monitor 4 can monitor the predetermined object with higher accuracy.
  • the control signal is a signal for reducing the amount of data to be processed by the environmental camera 20 located on the second path outside the first path (hereinafter referred to as “environment camera on the second path”).
  • the second route can be specified based on, for example, information on the moving route of the predetermined object and route information (associated with the region 80).
  • the environmental camera on the second path is an example of the second imaging device according to the present disclosure.
  • the control signal may reduce the imaging frequency of the environmental camera on the second path (compared to the normal imaging frequency) or the second image with a lower resolution (compared to the normal resolution).
  • You may include the signal for making the environmental camera on a path image.
  • the control signal may reduce the imaging frequency of the environmental camera on the second path than the environmental camera on the first path, or may display an image having a lower resolution than the environmental camera on the first path.
  • a signal for causing the environmental camera on two paths to capture an image may be included.
  • the control signal includes a signal for controlling the environmental camera on the second path to capture an image but not to communicate with another device (for example, not to transmit the captured image to another device). But you can. As a result, it is possible to reduce the amount of data communication (related to the environmental camera on the second path) and suppress power consumption while maintaining the monitoring accuracy related to the predetermined object.
  • control signal may include a signal for changing the transmission rate of the video captured by at least one of the plurality of environment cameras 20 and the plurality of user cameras 22 to the server 10, for example, to the corresponding camera.
  • control signal may include a signal for causing the corresponding camera to change the tracking rate of a predetermined object by at least one of the plurality of environment cameras 20 and the plurality of user cameras 22.
  • the processing unit 110 notifies the emergency center (for example, using SMS (Short Message Service) or an e-mail), and contacts the police.
  • the control signal may be generated as a signal for automatically or manually (for example, the monitor 4) to communicate with other parties concerned.
  • the processing unit 110 causes the communication unit 120 to transmit a video based on imaging by at least one of the plurality of environment cameras 20 and the plurality of user cameras 22 to a predetermined terminal.
  • the predetermined terminal may be a terminal having an access right to the area 80 or at least one of the plurality of environment cameras 20 and the plurality of user cameras 22.
  • the predetermined terminal includes a terminal that stores an entrance ID of the area 80, a ticket ID of a sightseeing ticket that permits access to the entire area 80, the first display device 30, and a plurality of second terminals.
  • a display device 32 and the like are included.
  • the predetermined terminal may be, for example, a mobile terminal possessed by a user such as a general customer in which the application related to the area 80 described above is installed.
  • the processing unit 110 responds to position information and route information of the predetermined object, a specific environment camera 20 or a user camera 22 (for example, the environment camera 20 or the user camera 22 that captured the predetermined object).
  • the displayed video is displayed on the first display device 30 or one or more second display devices 32.
  • the video may include, for example, a video taken by the intra-region camera in a direction different from the moving direction of the intra-region camera that is a moving body.
  • the video may include a video in which the entire periphery of the in-region camera is captured.
  • one or more guards 2 located in a distant place can confirm, for example, a video of the entire periphery of the environmental camera 20 or the user camera 22 that captured the predetermined object.
  • a predetermined object for example, a suspicious person or dangerous article
  • the above security guards 2 can share at the same time and be alerted immediately.
  • the monitor 4 can confirm in detail the situation of the place where the danger is detected.
  • the processing unit 110 can cause the communication unit 120 to transmit the free viewpoint video generated by the video generation unit 108 to the first display device 30 or one or more second display devices 32. .
  • the processing unit 110 causes the first display device 30 to display a free viewpoint video corresponding to a result of tracking a predetermined object in real time.
  • the monitor 4 can monitor the movement of a suspicious person or the like in real time.
  • the processing unit 110 controls the terminals associated with the region 80 (for example, a plurality of environment cameras 20, a plurality of user cameras 22, a first display device 30, or a plurality of second display devices 32). It is also possible to dynamically change the signal based on a predetermined condition. For example, the processing unit 110 dynamically changes a control signal for at least one of the plurality of environment cameras 20 and the plurality of user cameras 22 based on the information on the movement route acquired by the information acquisition unit 106. Is possible. As an example, the processing unit 110 dynamically changes control signals for a plurality of environmental cameras 20 existing on the movement route indicated by the movement route information based on a predetermined condition.
  • the processing unit 110 dynamically changes the shooting direction, the angle of view, and the like of each of the plurality of environmental cameras 20 existing on the movement path based on, for example, a detection result of position information of a predetermined object.
  • the control signal for the plurality of environmental cameras 20 is dynamically changed.
  • the processing unit 110 uses a control signal for one or more environmental cameras 20 in a stopped state among the plurality of environmental cameras 20 present on the movement route, for example, based on a detection result of position information of a predetermined object. Change dynamically.
  • the processing unit 110 causes the one or more environmental cameras 20 in the stopped state to dynamically supply power based on the detection result of the position information of a predetermined object.
  • the control signal for is dynamically changed.
  • the processing unit 110 may change the imaging frequency of the one or more environmental cameras 20 in the stopped state dynamically based on the detection result of the position information of the predetermined object.
  • the control signal for is dynamically changed.
  • the communication unit 120 can be configured to include a communication device 162 described later, for example.
  • the communication unit 120 transmits and receives information to and from other devices.
  • the communication unit 120 receives captured images and sensed three-dimensional information from the plurality of environment cameras 20 and the plurality of user cameras 22.
  • the communication unit 120 transmits a control signal to the environmental camera 20, the user camera 22, the first display device 30, or the second display device 32 according to the control of the processing unit 110.
  • the storage unit 122 can be configured to include, for example, a storage device 160 described later.
  • the storage unit 122 stores various types of data and various types of software. For example, as illustrated in FIG. 5, the storage unit 122 stores a target person DB 124 and a region information DB 126.
  • the configuration of the server 10 according to the present embodiment is not limited to the above-described example.
  • one or more of the target person DB 124 and the area information DB 126 may be stored in another device (not shown) connected to the communication network 24 instead of being stored in the storage unit 122.
  • the plurality of environment cameras 20 and the plurality of user cameras 22 capture images, and transmit the captured images to the server 10 in real time, for example (S101).
  • the image recognition unit 102 of the server 10 performs image recognition for each of the received plurality of videos (S103). Then, the video generation unit 108 generates a three-dimensional virtual space corresponding to the region 80 based on the plurality of received videos (S105).
  • the determination unit 104 determines whether or not a predetermined object is recognized in at least one video based on the recognition result in S103 (S107). If the predetermined object is not recognized in all the videos (S107: No), the server 10 performs the process of S101 again.
  • the information acquisition unit 106 acquires position information of the predetermined object for each recognized predetermined object. Further, the information acquisition unit 106 acquires the route information associated with the region 80 from the region information DB 126 (S109).
  • the processing unit 110 is associated with the region 80 based on the position information, route information, and path information of the predetermined object acquired in S109.
  • a control signal for the above terminal is generated (S111).
  • the communication unit 120 transmits the generated control signal to the one or more terminals according to the control of the processing unit 110. Then, the one or more terminals perform processing according to the received control signal (S113).
  • FIG. 9 is an explanatory diagram showing an outline of the first application example.
  • Application Example 1 for example, it is recognized that a video shot by the user camera 22a worn by the security guard 2a is displayed on the first display device 30 and that a suspicious person 50 exists in the region 80. Assume that the scene was done. Further, as shown in FIG. 9, it is assumed that it is recognized that the suspicious person 50 has moved from the point “A” to the point “B”.
  • the server 10 tracks the suspicious person 50 based on the images taken by the plurality of environmental cameras 20. Thereafter, the server 10 continuously moved the viewpoint from the position of the user camera 22a (shown in FIG.
  • the server 10 displays the free viewpoint video in the control room 90 (first display device 30).
  • the supervisor 4 in the control room 90 wants to confirm the suspicious person 50 in more detail, and is imaged by the user camera 22b worn by the guard 2b located near the suspicious person 50.
  • the monitor 4 performs an input to switch the displayed video to the displayed video.
  • the server 10 switches the video displayed on the first display device 30 from the free viewpoint video to the video captured by the user camera 22b. Thereby, the supervisor 4 can confirm the suspicious person 50 in more detail.
  • the determination unit 104 determines whether or not a suspicious person is recognized in at least one video based on the recognition result in S203 (S207).
  • S207 the server 10 performs the process of S201 again.
  • the information acquisition unit 106 acquires position information of the suspicious person for each recognized suspicious person ( S209).
  • the processing unit 110 determines, for each recognized suspicious person, the current viewpoint position (for example, the viewpoint position corresponding to one image currently displayed on the first display device) and the suspicious person. A trajectory that continuously connects the current position is generated (S211).
  • the processing unit 110 generates a video when the viewpoint is continuously moved along the trajectory generated in S211 as a free viewpoint video in the virtual space generated in S205. Then, the processing unit 110 generates a control signal for causing the first display device 30 to display the free viewpoint video. Subsequently, the communication unit 120 transmits the control signal to the first display device 30 according to the control of the processing unit 110. Thereafter, the first display device 30 displays a free viewpoint video according to the received control signal (S213).
  • the control unit 100 of the server 10 switches the displayed video to the video captured by any one of the plurality of environment cameras 20 and the plurality of user cameras 22. Is determined by the monitor 4 (S221). If switching of the currently displayed video is not selected (S221: No), the process ends.
  • the processing unit 110 captures the free viewpoint video displayed on the first display device 30 by the selected camera.
  • a control signal for switching to the video that is being generated is generated.
  • the processing unit 110 first generates a transition video that continuously transitions the viewpoint position between the current viewpoint position (corresponding to the free viewpoint video) and the position of the selected camera. Then, the processing unit 110 displays the transition video, and then generates a control signal for causing the first display device 30 to display the video shot by the selected camera.
  • the supervisor 4 since the video which smoothly connects the viewpoint positions is displayed on the first display device 30, it is possible to prevent the supervisor 4 from knowing the positional relationship before and after the video switching.
  • the communication unit 120 transmits the control signal to the first display device 30 according to the control of the processing unit 110. Then, the first display device 30 displays the video imaged by the selected camera according to the received control signal (S223).
  • an image as if a drone flies and tracks a suspicious person without flying a drone equipped with a camera in the region 80 is presented to the monitor 4 (as a free viewpoint image). Can be done.
  • the environmental camera 20 or the user camera 22 located in the vicinity of the suspicious person is selected by the monitor 4 after the free viewpoint video is displayed, a pseudo-type of turning around the suspicious person.
  • the video can be presented to the monitor 4.
  • the speed at the time of movement from the current viewpoint position to the position of the suspicious person is not limited (for example, the playback speed of the free viewpoint video can be arbitrarily set), so the suspicious person Can be presented to the supervisor 4.
  • application example 2 will be described with reference to FIGS.
  • the server 10 saves a video image of a suspicious person or the like, and when the reproduction of the video is instructed by the monitoring person 4 in the control room 90, the stored video image is stored. Based on the free viewpoint video, the first display device 30 is displayed.
  • FIG. 12 is a flowchart showing the overall processing flow of the second application example.
  • the server 10 performs a “suspicious person video shooting process” (S301). Thereafter, when the supervisor 4 in the control room 90 gives an instruction to reproduce a past video (S303: Yes), the server 10 performs a “video reproduction process” to be described later (S305). Note that the monitor 4 can instruct the video to be reproduced by designating the area 80, the shooting date and time, for example.
  • the information acquisition unit 106 first acquires route information associated with the region 80. And the information acquisition part 106 acquires the information of the movement path
  • control unit 100 stores the information on the movement route of each suspicious person acquired in S407, the plurality of videos captured in S401, and the shooting date and time in the storage unit 122 (S409).
  • the information acquisition unit 106 extracts, from the storage unit 122, information on a moving path of a suspicious person and a plurality of captured videos based on a reproduction instruction in S ⁇ b> 303, for example. (S451).
  • the video generation unit 108 generates a three-dimensional virtual space based on the plurality of acquired videos (S453).
  • the processing unit 110 generates, as a free viewpoint image, a video when the viewpoint is continuously moved in accordance with the movement path indicated by the movement path information acquired in S451 in the generated virtual space. Then, the processing unit 110 generates a control signal for causing the first display device 30 to display the free viewpoint video. Note that the processing unit 110 slows the playback speed of the free viewpoint video (slow playback) at the timing when the suspicious person enters a predetermined place or recognizes that the suspicious person has moved, for example.
  • a signal for simultaneously displaying videos from a plurality of viewpoints on the first display device 30 may be generated as a part of the control signal.
  • the communication unit 120 transmits the control signal to the first display device 30 according to the control of the processing unit 110. Thereafter, the first display device 30 displays a free viewpoint video according to the received control signal (S455).
  • the monitoring person 4 in the control room 90 can confirm the video of the suspicious person photographed in the past in the area 80 at a desired timing, and the suspicious person's image can be confirmed. The behavior can be confirmed in detail.
  • the server 10 increases the playback speed at the timing when the suspicious person is recognized as not performing suspicious behavior, and the timing when the server 10 is recognized as performing suspicious behavior (for example, to a predetermined location).
  • the playback speed can be slowed in the case of entering). For this reason, the monitor 4 can confirm the scene where the said suspicious person is performing suspicious action efficiently and in detail.
  • the server 10 is the predetermined included in any one of the images acquired by the plurality of environment cameras 20 and the plurality of user cameras 22 located in the region 80.
  • the position information of the object and the path information associated with the area 80 are acquired, and the position information, the path information, and the control signal based on the predetermined object are associated with the area. Control transmission to the terminal.
  • the server 10 can perform the optimal control according to the position information of the predetermined object and the route in the area 80 for the corresponding terminal, for example.
  • the server 10 estimates the next video data to be reproduced in the corresponding terminal by using the route information, and based on the estimated result, the plurality of environment cameras 20 and the plurality of user cameras 22
  • the captured video can be acquired in advance or transmitted to the corresponding terminal in advance. As a result, it is possible to reproduce a video with little delay.
  • the server 10 includes a CPU 150, a ROM (Read Only Memory) 152, a RAM 154, a bus 156, an interface 158, a storage device 160, and a communication device 162.
  • the CPU 150 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the server 10 according to various programs. Further, the CPU 150 realizes the function of the control unit 100 in the server 10.
  • the CPU 150 is configured by a processor such as a microprocessor.
  • the ROM 152 stores programs used by the CPU 150 and control data such as calculation parameters.
  • the RAM 154 temporarily stores, for example, a program executed by the CPU 150 and data in use.
  • the bus 156 includes a CPU bus and the like.
  • the bus 156 connects the CPU 150, the ROM 152, and the RAM 154 to each other.
  • the interface 158 connects the storage device 160 and the communication device 162 to the bus 156.
  • the storage device 160 is a data storage device that functions as the storage unit 122.
  • the storage device 160 includes, for example, a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, or a deletion device that deletes data recorded on the storage medium.
  • the communication device 162 is a communication interface composed of a communication device (for example, a network card) for connecting to the communication network 24, for example. Further, the communication device 162 may be a wireless LAN compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a wire communication device that performs wired communication. This communication device 162 functions as the communication unit 120.
  • a communication device for example, a network card
  • LTE Long Term Evolution
  • the information processing system has been described as an example configured as a management system (for example, a security system) for the area 80, but the present disclosure is not limited to such an example.
  • the information processing system may be configured as a system for sightseeing in the region 80, walking in the region 80, or virtual shopping in the region 80.
  • the server 10 is generated based on videos (for example, the shot video itself or the shot video) corresponding to the videos shot by the plurality of environment cameras 20 and the plurality of user cameras 22 in the region 80. Free viewpoint video or the like) may be displayed on a terminal used by a user such as a general customer.
  • the terminal may be, for example, a terminal in which a predetermined application is mounted in advance. According to this modification, the user can experience the experience of actually visiting the area 80, sightseeing in the area 80, shopping, etc. by browsing the video.
  • the said terminal may be mobile phones, such as HMD and a smart phone, or a tablet terminal, for example.
  • the server 10 may generate a video of the application by using a video currently captured by a plurality of environment cameras 20 and a video captured in the past, for example.
  • the video of the application may be generated using only video shot in the past.
  • the configuration of the information processing system according to the above-described embodiment is not limited to the example illustrated in FIG.
  • the staff in the area 80 may wear one or more small cameras.
  • the staff in the area 80 may wear a plurality of small cameras around the torso, such as a scarf, and be able to photograph the entire circumference (360 degrees).
  • the staff in the region 80 may further wear a position information receiver such as a GPS receiver or a depth sensor.
  • the server 10 further receives a video shot by the small camera worn by the staff in the area 80, and the video shot by the environmental camera 20 or the user camera 22 and the small camera. By using the image together, it is possible to execute each function described above. Thereby, the area
  • FIG. 1 shows an example in which the server 10 is installed outside the area 80, but the present invention is not limited to this example, and the server 10 may be installed in the area 80 (for example, in the control room 90). Good. Further, the server 10 and other devices (for example, the first display device 30 and the like) may be configured integrally.
  • FIG. 1 only one server 10 is illustrated, but the present invention is not limited to this example, and the functions of the server 10 according to the present embodiment are realized by a plurality of computers operating in cooperation. Also good.
  • the information processing apparatus may be a general-purpose PC (Personal Computer), a tablet terminal, a game machine, a mobile phone such as a smartphone, a portable music player, or a robot.
  • PC Personal Computer
  • the information processing apparatus may be a general-purpose PC (Personal Computer), a tablet terminal, a game machine, a mobile phone such as a smartphone, a portable music player, or a robot.
  • each step in the processing flow of the above-described embodiment does not necessarily have to be processed in the order described.
  • the steps may be processed by changing the order as appropriate.
  • Each step may be processed in parallel or individually instead of being processed in time series. Further, some of the described steps may be omitted, or another step may be further added.
  • Position information of a predetermined object included in any one of a plurality of images acquired by a plurality of imaging devices located in an area having a predetermined path on which a human can move, and a path associated with the predetermined path An information acquisition unit for acquiring information; A processing unit for controlling transmission of a control signal based on the position information, the route information, and the predetermined object to a terminal associated with the region; An information processing apparatus comprising: (2) The information acquisition unit further acquires information on a movement path of the predetermined object based on at least one of the speed, acceleration, and movement direction of the predetermined object and the path information.
  • the information processing apparatus wherein the control signal is a signal based on information on the movement route.
  • the information on the movement path is the information processing apparatus according to (2), including a video that is acquired by at least one of the plurality of imaging apparatuses and does not include the predetermined object.
  • the terminal is a predetermined moving device capable of moving in the area;
  • the control signal includes any one of (1) to (4), including a signal for moving the predetermined moving device to a position where the predetermined object is recognized or a destination of the predetermined object.
  • the terminal is a display device;
  • the control signal includes a signal for displaying a guide associated with the predetermined object on the display device in association with the position information and the path information.
  • the information processing apparatus according to item.
  • the terminal is at least one of the plurality of imaging devices;
  • the control signal is generated in accordance with a change in position information of the predetermined object so that the predetermined object continues to be positioned within a predetermined range from the center of at least one of the plurality of imaging devices.
  • the information processing apparatus including a signal for controlling the operation of (8)
  • the terminal is a terminal having access rights to at least one of the area or the plurality of imaging devices
  • the processing unit further controls transmission of the video corresponding to the position information and the route information acquired by at least one of the plurality of imaging devices to the terminal.
  • the information processing apparatus according to any one of claims.
  • At least one of the plurality of imaging devices is a moving body
  • the information processing apparatus according to (8), wherein the video is a video in a direction different from a moving direction of the moving body.
  • At least one of the plurality of imaging devices is a moving body
  • the control signal includes a signal for causing a virtual object or an effect to be displayed on at least one of the plurality of terminals according to the orientation of the video displayed by the plurality of terminals.
  • the information processing apparatus according to 9).
  • the terminal has a display capable of simultaneously displaying images acquired by at least two of the plurality of imaging devices;
  • the control signal includes a signal for controlling display such that at least one of the images acquired by the at least two imaging devices changes according to the change in the position information.
  • the information processing apparatus according to any one of (10) to (10).
  • a first route in a traveling direction of the predetermined object is identified based on the position information and the route information;
  • the plurality of imaging devices include a first imaging device located on the first path,
  • the information processing apparatus according to any one of (1) to (11), wherein the control signal includes a signal for increasing a data amount to be processed by the first imaging apparatus.
  • the control signal includes a signal for increasing an imaging frequency of the first imaging apparatus.
  • a second route outside the first route is identified based on the location information and the route information;
  • the plurality of imaging devices further include a second imaging device located on the second path,
  • the terminal is a display device;
  • the plurality of imaging devices include a third imaging device and a fourth imaging device,
  • the control signal includes a current video including the predetermined object acquired by the third imaging device, and a past video including the predetermined object acquired by the fourth imaging device.
  • the information processing apparatus according to any one of (1) to (15), including a signal to be displayed on the display apparatus.
  • the information processing apparatus further includes a determination unit that determines, as the predetermined object, an object that has performed a predetermined movement in a video acquired by the plurality of imaging devices.
  • the information processing apparatus according to claim 1.
  • the information processing apparatus further includes a determination unit that determines whether the object is the predetermined object based on the size or shape of the object in the video acquired by the plurality of imaging devices.
  • the information processing apparatus according to any one of 1) to (16).
  • (21) Computer Position information of a predetermined object included in any one of a plurality of images acquired by a plurality of imaging devices located in an area having a predetermined path that a human can move, and a path associated with the predetermined path
  • server 20 environmental camera 22 user camera 24 communication network 30 first display device 32 second display device 100 control unit 102 image recognition unit 104 determination unit 106 information acquisition unit 108 video generation unit 110 processing unit 120 communication unit 122 storage unit 124 Target DB 126 Area information DB

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】撮像が行われる領域内の経路に適応した制御信号の送信を制御することが可能な、情報処理装置、情報処理方法、およびプログラムを提案する。 【解決手段】人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得する情報取得部と、前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信を制御する処理部と、を備える、情報処理装置。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 従来、カメラにより撮影された映像に基づいて機器の動作を制御するための技術が各種提案されている。
 例えば、下記特許文献1には、カメラにより撮像された画像内の人物の顔領域と、予め登録されているユーザの顔画像とを照合することにより当該人物を特定し、そして、特定した人物が撮像された画像を携帯端末に表示させる技術が記載されている。
特開2013-207356号公報
 ところで、人物が移動可能な経路を有する領域内で撮像が行われる場面に特許文献1に記載の技術を適用することを想定すると、特許文献1に記載の技術では、当該領域内の経路によらずに、固定的に処理を行ってしまう。
 そこで、本開示では、撮像が行われる領域内の経路に適応した制御信号の送信を制御することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得する情報取得部と、前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信を制御する処理部と、を備える、情報処理装置が提供される。
 また、本開示によれば、人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得することと、前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信をプロセッサが制御することと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得する情報取得部と、前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信を制御する処理部、として機能させるための、プログラムが提供される。
 以上説明したように本開示によれば、撮像が行われる領域内の経路に適応した制御信号の送信を制御することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態による情報処理システムの構成例を示した説明図である。 同実施形態による管制室90の内部を示した概略図である。 同実施形態による警備員2の外観の一例を示した図である。 領域80内に複数の環境カメラ20が設置されている例を示した図である。 同実施形態によるサーバ10の構成例を示した機能ブロック図である。 同実施形態による不審な人物50の移動経路の特定例を示した図である。 警備員2aが装着するユーザカメラ22により撮像されている映像を、離れた地点に位置する複数の警備員2が同時に視聴する例を示した概略図である。 同実施形態による処理の流れを示したフローチャートである。 同実施形態の適用例1の概要を示した説明図である。 適用例1による処理の流れの一部を示したフローチャートである。 適用例1による処理の流れの一部を示したフローチャートである。 同実施形態の適用例2による全体的な処理の流れを示したフローチャートである。 適用例2による「不審な人物の映像の撮影処理」の流れを示したフローチャートである。 適用例2による「映像の再生処理」の流れを示したフローチャートである。 本実施形態によるサーバ10のハードウェア構成例を示した説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて環境カメラ20aおよび環境カメラ20bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、環境カメラ20aおよび環境カメラ20bを特に区別する必要が無い場合には、単に環境カメラ20と称する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.情報処理システムの構成
 2.実施形態の詳細な説明
 3.ハードウェア構成
 4.変形例
<<1.情報処理システムの構成>>
 まず、本開示の実施形態による情報処理システムの構成例について、図1を参照して説明する。
 図1に示すように、本実施形態による情報処理システムは、人間が移動可能な所定の経路を有する領域80において適用され得る。例えば、当該情報処理システムは、領域80内に位置するオブジェクト(人や物)を管理するためのシステムである。
 ここで、領域80は、例えば商業ビルディング、マンション、ホテル、駅、空港、またはテーマパークなどの建物、駐車場、公園、または、街全体であってもよい。また、図1に示したように、領域80は、建物だけでなく、当該建物の周囲の所定の敷地(例えば当該建物の管理者が管理する敷地、または、当該建物内に設置された無線LAN(Local Area Network)の通信圏内など)も含み得る。また、所定の経路は、例えば、廊下、階段、エスカレータ、または、道路などである。なお、以下では、領域80が所定の建物である例を中心として説明を行う。
 また、図1に示したように、領域80内には、管制室90が設置され得る。但し、かかる例に限定されず、領域80内の各種装置(例えば、後述する、環境カメラ20や第2の表示装置32など)と管制室90とが例えば通信網24を介して通信可能に構成される場合には、管制室90は、領域80外に設置されてもよい。なお、以下では、領域80内に管制室90が設置される例を中心として説明を行う。
 <1-1.管制室90>
 図2は、管制室90の内部を示した概略図である。図2に示したように、管制室90には、第1の表示装置30が設置され得る。ここで、第1の表示装置30は、本開示における表示装置の一例である。第1の表示装置30は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、OLED(Organic Light Emitting Diode)などのディスプレイを有する。詳細については後述するが、(後述する)環境カメラ20やユーザカメラ22により撮影された映像に応じた一以上の映像40が、サーバ10の制御により第1の表示装置30に表示され得る。
 また、管制室90に位置する監視員4は、第1の表示装置30に表示される複数の映像40を見ることにより、領域80内を監視する。例えば、監視員4は、複数の映像40を見ることにより、所定のオブジェクトが領域80内に存在するか否かを監視する。ここで、所定のオブジェクトは、例えば、犯罪の可能性が高い人(犯罪履歴のある者や、容疑者など)、挙動の怪しい人物(急病人、酔っ払いなど)、要サポート者、迷子、迷子を探している親、不審物、危険物(例えば銃器や灯油タンクなど)、落し物などを含み得る。さらに、所定のオブジェクトは、不審物や危険物を所持している人物を含んでもよい。
 なお、詳細については後述するが、領域80内の監視(例えば領域80内に所定のオブジェクトが存在するか否かや、領域80内で所定の事象が発生したか否かなどの監視)は、監視員4が全て行ってもよいし、後述するサーバ10が全て行うことも可能であるし、または、サーバ10と監視員4とが協同して行ってもよい。ここで、所定の事象は、例えば犯罪の発生や、急病人の発生などであり得る。
 <1-2.警備員2>
 {1-2-1.ユーザカメラ22}
 また、図1に示したように、領域80内には、複数の警備員2が位置する。警備員2は、領域80の警備を行う。図3は、警備員2の外観の一例を示した図である。図3に示したように、警備員2は、ユーザカメラ22を頭部に装着し得る。ここで、ユーザカメラ22は、図3に示したように、警備員2の例えば全周囲(周囲360度)の映像を撮影可能に配置された複数のカメラ220を有し得る。例えば、ユーザカメラ22は、全天球映像を撮影可能である。なお、ユーザカメラ22は、図3に示した形状に限定されず、例えば一以上の魚眼カメラを有してもよい。この場合、当該一以上の魚眼カメラにより警備員2の全周囲の映像が撮影可能であり得る。あるいは、ユーザカメラ22は、例えば背面カメラなど、特定の方向(警備員2の後方など)のみを撮像可能なカメラであってもよい。なお、ユーザカメラ22は、本開示における撮像装置の一例である。
 例えば、ユーザカメラ22は、撮影した映像を、後述する通信網24を介してサーバ10へ送信し得る。そして、サーバ10は、ユーザカメラ22から受信された映像を、例えば別の警備員2bが装着する、後述する第2の表示装置32へ伝送し得る。これにより、当該別の警備員2bは、該当の警備員2aの周囲の映像を視認することができ、該当の警備員2aの周囲を警戒することが可能となる。
 また、ユーザカメラ22は、例えば、三次元情報をセンシングするためのセンサ(例えばデプスセンサやレンジファインダーなど)(以下、三次元情報センサと称する)、位置情報受信機、加速度センサ、ジャイロスコープ、または、マイクロフォンなどの他の種類のセンサをさらに有してもよい。ここで、位置情報受信機は、例えばGPS(Global Positioning System)やGLONASS(Global Navigation Satellite System)などの測位衛星から測位信号を受信する受信機を含み得る。また、位置情報受信機は、領域80内の例えばBluetooth(登録商標)アクセスポイントやWi-Fi(登録商標)アクセスポイントなどから位置情報を受信する受信機をさらに含んでもよい。
 {1-2-2.第2の表示装置32}
 また、図3に示したように、警備員2は、例えば、光学シースルー型のHMD(Head Mounted Display)などの第2の表示装置32を装着し得る。例えば、第2の表示装置32は、画像投影デバイス(図示省略)、左目用レンズ34a、および、右目用レンズ34bを有する。この場合、当該画像投影デバイスは、左目用レンズ34aおよび右目用レンズ34bのそれぞれ少なくとも一部の領域を投影面として映像を投影する。なお、第2の表示装置32は、左目用レンズ34aおよび右目用レンズ34bの代わりに、ユーザの両目を覆う、ゴーグル型のレンズを有してもよい。この場合、当該画像投影デバイスは、当該ゴーグル型レンズの少なくとも一部の領域を投影面として映像を投影し得る。また、左目用レンズ34aおよび右目用レンズ34b(またはゴーグル型レンズ)は、例えば樹脂やガラスなどの透明材料により形成され得る。
 あるいは、第2の表示装置32は、ビデオシースルー型のHMDであってもよい。この場合、第2の表示装置32は、警備員2の前方の風景を撮影可能なように第2の表示装置32に設置されたカメラと、当該カメラにより撮影される映像を表示する表示部とを有し得る。そして、第2の表示装置32は、当該カメラにより撮影される映像を当該表示部に逐次表示し得る。これにより、警備員2は、警備員2の前方の風景を見ることができる。なお、当該表示部は、例えばLCDまたはOLEDなどを含んで構成され得る。なお、第2の表示装置32は、本開示における表示装置の一例である。
 (変形例)
 なお、変形例として、第2の表示装置32は、例えばLCDやOLEDなどのディスプレイを有する所定の携帯型の装置であってもよい。例えば、第2の表示装置32は、スマートフォンなどの携帯電話、タブレット型端末、または、携帯型音楽プレーヤーなどであってもよい。なお、以下では、第2の表示装置32が装着型の装置である例を中心として説明を行う。
 また、図3では、警備員2が、ユーザカメラ22および第2の表示装置32の両方を装着する例を示しているが、かかる例に限定されず、領域内80内の一部の警備員2は、ユーザカメラ22および第2の表示装置32のうちいずれか一方のみを装着していてもよい。また、ユーザカメラ22と第2の表示装置32とは別々の装置として構成される例に限定されず、一体的に構成されてもよい。
 <1-3.環境カメラ20>
 また、領域80内には、例えば図4に示したように一定の間隔で、複数の環境カメラ20が設置され得る。環境カメラ20は、例えば全天球カメラであり得る。また、環境カメラ20は、(ユーザカメラ22と同様に)三次元情報センサや位置情報受信機をさらに有してもよい。
 あるいは、環境カメラ20は三次元情報センサを有さず、かつ、環境カメラ20ごとに、当該環境カメラ20と関連付けられた場所(例えば、環境カメラ20の近辺など)に三次元情報センサが例えば一つずつ領域80内に設置されてもよい。
 個々の環境カメラ20は、センシングした情報(映像および三次元情報)を、通信網24を介してサーバ10へ逐次送信し得る。
 なお、全ての環境カメラ20は、領域80内に固定されていてもよいし、または、一部の環境カメラ20は、領域80内を移動可能な移動体(例えばドローン、掃除用のロボット、または、移動支援機器など)に搭載されていてもよい。なお、環境カメラ20は、本開示における撮像装置の一例である。また、以下では、環境カメラ20およびユーザカメラ22を総称して「領域内カメラ」と称する場合がある。また、第1の表示装置30および第2の表示装置32を総称して「領域内表示装置」と称する場合がある。
 <1-4.サーバ10>
 サーバ10は、本開示における情報処理装置の一例である。サーバ10は、領域80内に位置する複数の環境カメラ20および複数のユーザカメラ22によりセンシングされた情報(映像など)に基づいて各種の処理を行う。例えば、サーバ10は、複数の環境カメラ20および複数のユーザカメラ22の各々により撮影された映像を通信網24を介して受信し、そして、受信した複数の映像に基づいて、領域80内の各装置の動作を制御する。例えば、サーバ10は、受信した複数の映像に基づいて、所定のオブジェクトが領域80内に存在するか否かを認識し、そして、認識結果に基づいて、領域80内の各装置に対して各種の制御を行う。
 また、サーバ10は、受信した複数の映像に基づいて、領域80に関する自由視点映像を生成することが可能である。さらに、サーバ10は、当該自由視点映像を、第1の表示装置30や、複数の第2の表示装置32のうち一以上へ送信し、表示させることが可能である。
 <1-5.通信網24>
 通信網24は、通信網24に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網24は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN、WAN(Wide Area Network)などを含んでもよい。また、通信網24は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 <1-6.課題の整理>
 以上、本実施形態による情報処理システムの構成について説明した。ところで、領域80内で所定オブジェクトが検出された場合には、当該所定オブジェクトの現在位置、および、移動している方向に応じて、例えば警備や救護などの対応が適切に行われることが望まれる。
 後述するように、本実施形態によるサーバ10は、領域80内に位置する、複数の環境カメラ20および複数のユーザカメラ22により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、当該領域80に関連付けられた経路情報とを取得し、そして、当該位置情報、当該経路情報、および、当該所定のオブジェクトに基づいた制御信号の、当該領域に関連付けられた端末に対する送信を制御することが可能である。このため、サーバ10は、例えば所定のオブジェクトの位置情報、および、領域80内の経路に応じた最適な制御を該当の端末に対して行うことができる。
<<2.実施形態の詳細な説明>>
 <2-1.構成>
 次に、本実施形態によるサーバ10の構成について詳細に説明する。図5は、本実施形態によるサーバ10の構成例を示した機能ブロック図である。図5に示すように、サーバ10は、制御部100、通信部120、および、記憶部122を有する。
 {2-1-1.制御部100}
 制御部100は、例えば、後述するCPU150やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。制御部100は、サーバ10の動作を統括的に制御する。また、図5に示すように、制御部100は、画像認識部102、判断部104、情報取得部106、映像生成部108、および、処理部110を含む。
 {2-1-2.画像認識部102}
 画像認識部102は、複数の環境カメラ20および複数のユーザカメラ22から受信された映像の各々に対して各種の認識処理を行う。例えば、画像認識部102は、受信された各映像内に含まれるオブジェクトの属性(例えば種類、形状、サイズなど)、オブジェクトの動き、または、当該映像の撮影範囲内で生じた事象などを例えば機械学習(例えばディープラーニングなど)を用いて認識する。一例として、過去に発生した事象の履歴データを教師とした機械学習が予め行われ得る。この場合、画像認識部102は、受信された各映像内に含まれるオブジェクトの属性や動きを、当該機械学習の結果に基づいて認識する。
 例えば、画像認識部102は、受信された各映像から人物の有無を認識し、そして、認識された各人物に関して、当該人物が所定の動作(所定の移動など)をしているか否かを認識する。ここで、所定の動作は、例えば立ち入り禁止エリアに入ること、非常口から入って業務員用フロアによらずに通常フロアに直行すること、駐車場の車上荒らし、商品の窃盗、他人への暴行、および、誘拐などを含み得る。
 また、画像認識部102は、受信された各映像から認識された各人物に関して、身体の動きの傾向(例えば歩く速度など)を認識する。
 また、画像認識部102は、受信された各映像において人物が倒れたことを認識した場合には、当該人物の倒れ方をさらに認識する。
 {2-1-3.判断部104}
 (2-1-3-1.所定のオブジェクトの判定)
 ‐判定例1
 判断部104は、画像認識部102による認識結果に基づいて、受信された映像の各々の中に所定のオブジェクトが含まれているか否かを判定する。例えば、受信された一以上の映像に含まれる、あるオブジェクトが所定の動作を行っていることが画像認識部102により認識された場合には、判断部104は、当該オブジェクトが所定のオブジェクトであると判定する。
 なお、当該所定の動作を行っているオブジェクトが例えば警備員2など、領域80への出入りに関して高い自由度を与えられている人物である場合も想定される。そこで、当該オブジェクトがこのような特定の人物であることが画像認識部102により認識された場合、または、入館の履歴情報(例えば入館IDや入退出の時刻など)から確認された場合には、例えばサーバ10および管制室90内の監視員4は、当該オブジェクトに対応する人物に対する監視を解除してもよい。
 ‐判定例2
 また、判断部104は、画像認識部102により認識された、受信された映像内のオブジェクトのサイズまたは形状に基づいて、当該オブジェクトが所定のオブジェクトであるか否かを判定することも可能である。例えば、判断部104は、当該映像内のオブジェクトのサイズまたは形状に基づいて、犯罪可能性のより高い人物(例えば大きな荷物を持っている人など)や、親子連れなどを特定する。
 また、受信された動画像内のオブジェクトのサイズが所定の閾値以上変化したと判定された場合には、判断部104は、当該オブジェクトが所定のオブジェクトであると判定してもよい。これにより、例えば、ある人物が、持っていた荷物を床に置いた後立ち去ったこと、ある人物が商品棚から商品を持ち去ったこと(窃盗)、一緒にいた親子が離れたこと、および、誘拐などの発生を検知することができる。
 また、同じ映像中で一つのオブジェクトが二つに分割されたこと(例えば一緒にいた親子が離れた場合など)が画像認識部102により認識された場合には、判断部104は、当該二つのオブジェクトがそれぞれ所定のオブジェクトであると判定してもよい。また、この場合、サーバ10(判断部104)は、さらに、当該二つのオブジェクトを関連付けて監視を継続することが可能である。
 ‐判定例3
 また、判断部104は、画像認識部102により認識された各人物の身体の動きの傾向の認識結果に基づいて、当該人物が所定のオブジェクトであるか否かを判定することも可能である。例えば、判断部104は、所定の動きの傾向が認識された人物(例えば、不審者や要サポート者など)を所定のオブジェクトと判定する。
 ‐判定例4
 また、判断部104は、画像認識部102により認識された各人物と、後述する対象者DB124に格納されている複数の対象者の画像とを照合することにより、当該人物が所定のオブジェクトであるか否かを判定する。例えば、画像認識部102により認識された人物の画像と、対象者DB124に格納されているいずれかの対象者の画像との類似度が所定の閾値以上である場合には、判断部104は、当該人物が所定のオブジェクトであると判定する。ここで、対象者は、例えば犯罪履歴のある人物や、容疑者などであり得る。
 ‐‐対象者DB124
 対象者DB124は、対象者の情報が格納されているデータベースである。例えば、対象者DB124では、各対象者の画像(顔画像や全身の画像など)が格納される。また、対象者DB124では、対象者ごとに、当該対象者の識別情報(名前など)、および、当該対象者に関する犯罪履歴や容疑情報などがさらに関連付けて格納されてもよい。なお、対象者DB124は、例えば記憶部122に記憶され得る。
 (2-1-3-2.発生した事象に関する推定)
 また、判断部104は、画像認識部102による認識結果に基づいて、領域80内で所定の事象が発生したか否かや、発生した事象に関する情報を推定することが可能である。例えば、領域80内である人物が倒れたことが画像認識部102により認識された場合には、判断部104は、当該人物の倒れ方の認識結果に基づいて、当該人物の負傷の程度や種類、または、当該人物が罹患している病気などを推定する。
 (2-1-3-3.事象の発生の予測)
 また、判断部104は、画像認識部102による認識結果に基づいて、事象の発生の可能性が高い場所や時間などを予測することが可能である。また、判断部104は、事象の発生の可能性が高い各場所に関して、監視の優先順位を判断したり、移動体である領域内カメラ(例えば、自律移動型のロボットに搭載されたカメラなど)や警備員2の配置に関する計画を作成する。例えば、判断部104は、複数の警備員2の中から移動対象の警備員2を決定したり、また、警備員2の移動時刻、移動場所、および、移動手段などを判断する。
 また、判断部104は、各事象が発生した際の、領域80内の人々の移動(移動方向や混雑状況など)を予測する。
 (2-1-3-4.事象の発生時の対応の判断)
 また、判断部104は、領域80内で事象が発生した際の当該事象の対応方法(例えば制御対象の装置など)を判断する。例えば、犯罪履歴のある人物や容疑者などの人物(以下、不審な人物と称する)が領域80内に存在すると判断した場合には、判断部104は、まず、当該不審な人物を追跡させるロボット(ドローンなど)または一以上の警備員2を選択し、そして、選択したロボットまたは警備員2に当該不審な人物をリアルタイムに追跡させることを判断する。また、急病人が領域80内に存在すると判断した場合には、判断部104は、まず、当該急病人の場所へ移動させるロボット(ドローンなど)、一以上の警備員2または医療スタッフなどを選択し、そして、選択したロボットや人物(警備員2や医療スタッフなど)を当該急病人の場所へ移動させることを判断する。
 また、判断部104は、複数の環境カメラ20および複数のユーザカメラ22から受信された映像に基づいて、犯罪や災害等の発生時における例えば一般顧客などの人々の避難誘導を計画する。例えば、判断部104は、受信された複数の映像に基いて、領域80内の地点ごとの例えば人々の混雑状況を推定したり、避難が遅れ得る地点を推定する。さらに、判断部104は、避難時に避けるべき(または通るべき)経路や非常口の位置を判断する。
 (2-1-3-5.その他)
 なお、判断部104は、例えば、領域80内で映像が撮影されていない領域(例えば、複数の環境カメラ20および複数のユーザカメラ22の撮影範囲外となっている領域)などを特定した結果に基づいて、視点(例えば、環境カメラ20またはユーザカメラ22など)の数や、デプスセンサの数を増やすべきか否かをさらに判断してもよい。
 また、判断部104は、例えば、複数の環境カメラ20および複数のユーザカメラ22から受信された映像などに基づいて、一部または全部の環境カメラ20やユーザカメラ22に関してより多くのレンズを取り付けたり、性能の高いカメラ(高感度や高解像度のカメラなど)に取り換えることをさらに判断してもよい。
 また、判断部104は、所定のオブジェクト(例えば不審な人物など)であると判定したオブジェクトに関して、所定の条件が満たされた場合には、以後当該オブジェクトを監視対象外と判断してもよい。例えば、判断部104は、当該オブジェクトが以後所定のオブジェクトではないと判断してもよい。
 {2-1-4.情報取得部106}
 (2-1-4-1.位置情報の取得)
 情報取得部106は、判断部104による判断結果に基づいて、所定のオブジェクトの位置情報と、領域80内の所定の経路に関連付けられた経路情報とを取得する。例えば、情報取得部106は、所定のオブジェクトを含む映像を撮像した、環境カメラ20またはユーザカメラ22に関する情報(例えば撮像時の位置情報、撮影方向、および、ズーム率など)と、当該映像とに基づいて、所定のオブジェクトの位置情報を取得する。
 また、情報取得部106は、所定のオブジェクトを含む映像から画像認識部102により認識された他のオブジェクトの位置情報を特定することにより、所定のオブジェクトの位置情報を取得することも可能である。例えば、領域80ごとに、当該領域80の各フロアの地図(間取り図など)が予め用意され、かつ、後述する領域情報DB126に格納され得る。この場合、情報取得部106は、所定のオブジェクトを含む映像から認識された他のオブジェクトと、該当の領域80の各フロアの地図とに基づいて、当該他のオブジェクトの位置情報を特定する。ここで、領域情報DB126は、領域80ごとに、当該領域80内の各フロアの経路情報(例えば地図など)が格納されているデータベースである。例えば、領域情報DB126は記憶部122に記憶され得る。
 (2-1-4-2.経路情報の取得)
 また、情報取得部106は、該当の領域80に関連付けられている経路情報を領域情報DB126から抽出することにより、該当の領域80の経路情報を取得する。
 (2-1-4-3.移動経路の情報の取得)
 また、情報取得部106は、例えば画像認識部102による認識結果から得られる、所定のオブジェクトに関する情報と、取得した経路情報とに基づいて、当該所定のオブジェクトの移動経路の情報をさらに取得することが可能である。例えば、情報取得部106は、画像認識部102により認識された、所定のオブジェクトの速度、加速度、および移動方向のうち少なくとも1つと、取得した経路情報とに基づいて、当該所定のオブジェクトの移動経路を特定することにより、当該移動経路の情報を取得する。
 ここで、図6を参照して、上記の機能についてより詳細に説明する。図6では、(所定のオブジェクトの一例である)不審な人物50が、領域80内の「2F」における地点「A」に位置している例を示している。この場合、情報取得部106は、まず、不審な人物50を含む映像に対する、画像認識部102による認識結果に基づいて、不審な人物50の移動方向(図6において破線の矢印で示した方向)を特定する。そして、情報取得部106は、特定した移動方向と、不審な人物50の現在の位置情報と、領域情報DB126から抽出された、領域80の「2F」の経路情報とに基づいて、不審な人物50の移動経路の一部が、図6に示した通路800aであることを特定する。そして、情報取得部106は、通路800aを移動経路の情報の一部として取得する。
 なお、情報取得部106は、当該所定のオブジェクトが今後移動する経路を予測し、そして、予測した経路が撮影された映像を、当該移動経路の情報の一部としてさらに取得してもよい。すなわち、当該移動経路の情報は、複数の環境カメラ20および複数のユーザカメラ22のうち少なくとも1つにより現在撮像された、当該所定のオブジェクトを含まない映像をさらに含んでもよい。
 {2-1-5.映像生成部108}
 映像生成部108は、複数の環境カメラ20および複数のユーザカメラ22から受信された映像や三次元情報に基づいて、第1の表示装置30、または、複数の第2の表示装置32のうち少なくとも一以上により表示される映像を生成する。例えば、映像生成部108は、複数の環境カメラ20および複数のユーザカメラ22から受信された、映像および三次元情報に基づいて、領域80に関する自由視点映像を生成する。
 一例として、映像生成部108は、まず、複数の環境カメラ20および複数のユーザカメラ22から受信された、映像および三次元情報に基づいて、領域80に対応するポイントクラウド(例えば、領域80内の各フロアのポイントクラウドなど)を生成する。そして、映像生成部108は、生成したポイントクラウドに基づいて、領域80に関する自由視点映像を生成する。
 (2-1-5-1.変形例)
 なお、複数の環境カメラ20および複数のユーザカメラ22により過去に撮影された映像が保存されている場合では、映像生成部108は、現在撮影された映像と当該過去に撮影された映像とを併用して、ポイントクラウドや自由視点映像を生成することも可能である。これにより、自由視点映像や仮想空間の生成時における遅延を防止することができる。また、例えばポイントクラウドなどの生成時において、領域80内で現在映像が撮影できていない領域を、当該過去に撮影された映像を用いることにより補完することができる。
 (2-1-5-2.自由視点映像)
 ここで、自由視点映像は、領域80内に配置された複数の視点(複数の環境カメラ20および複数のユーザカメラ22など)からセンシングされたデータに基いた、自由な視点位置からの映像を提示するためのデータであり得る。例えば、領域80の内部が当該複数の視点の各々からセンシングされたデータが統合されることにより三次元の仮想空間が構築され得る。この場合、自由視点映像は、当該三次元の仮想空間において、視点を仮想的に自由に動かした際の当該視点からの当該仮想空間の映像を提示するデータであり得る。
 例えば、第1の表示装置30に自由視点映像が表示されており、かつ、視点を移動させるための操作(例えば、所定の入力デバイスに対する操作や音声コマンドなど)を監視員4が行った場合には、当該操作に基づく移動後の視点からの映像が第1の表示装置30に表示され得る。このように、監視員4は、視点を自由に移動させて当該自由視点映像を視聴することができる。
 また、自由視点映像は、領域80内の個々の実オブジェクトを示す三次元情報および色情報を含み得る。例えば、自由視点映像は、個々の実オブジェクトに関して、前述した三次元の仮想空間における、当該実オブジェクトに対応する仮想オブジェクトが有する各点の位置情報および色情報を含む。また、自由視点映像は、例えば領域80内で収音された音声などの音情報をさらに含んでもよい。
 {2-1-6.処理部110}
 処理部110は、情報取得部106により取得された、所定のオブジェクトの位置情報と、経路情報とに基づいた制御信号の、領域80に関連付けられた端末に対する送信を制御する。例えば、処理部110は、まず、当該所定のオブジェクト、当該位置情報、および、当該経路情報に基づいて当該端末に対する例えば表示の制御、移動の制御、撮影の制御、または通信の制御などを行うための制御信号を生成する。そして、処理部110は、当該制御信号を当該端末へ、後述する通信部120に送信させる。ここで、当該端末は、複数の環境カメラ20のうちの一以上、複数のユーザカメラ22のうちの一以上、第1の表示装置30、または、複数の第2の表示装置32のうちの一以上などであり得る。
 (2-1-6-1.表示制御)
 ‐制御例1
 例えば、当該制御信号は、第1の表示装置30、および、複数の第2の表示装置32のうち少なくとも1つに対する表示を制御するための信号を含み得る。一例として、当該制御信号は、所定のオブジェクトに関連付けられたガイドを、当該所定のオブジェクトの位置情報、および、経路情報に関連付けて、複数の第2の表示装置32のうち少なくとも1つに表示させるための信号を含み得る。
 例えば、所定のオブジェクトが不審な人物や危険物などである場合には、当該制御信号は、当該所定のオブジェクトが撮影された映像において、当該所定のオブジェクトをマーキング(例えば、所定のオブジェクトを枠で囲って表示するなど)させた状態で当該映像を当該複数の第2の表示装置32のうち少なくとも1つに表示させるための信号を含んでもよい。
 また、所定のオブジェクトが不審な人物などである場合には、当該制御信号は、(ある警備員2が当該不審な人物を追跡するために)領域80内の複数の経路のうちのいずれの経路を移動するべきかを示す追跡ガイドを、当該警備員2が装着する第2の表示装置32に表示させるための信号を含んでもよい。これにより、警備員2は、不審な人物をより効率的に追跡することができる。また、当該警備員2が不審な人物(例えば容疑者など)を知らない場合であっても、当該不審な人物を確実に追跡することができる。
 また、所定のオブジェクトが不審な人物や危険物などである場合には、当該制御信号は、領域80内の例えば一般顧客などの人々を、ある警備員2が避難誘導するための避難誘導ガイドを、当該警備員2が装着する第2の表示装置32に表示させるための信号を含んでもよい。ここで、避難誘導ガイドは、例えば判断部104により推定された、避難時に避けるべき(または通るべき)経路や非常口の位置を示すガイドであってもよい。これにより、犯罪が生じる可能性が高い場合や、犯罪または災害が発生した際などに、警備員2は、一般顧客をより安全、かつ、より迅速に避難誘導することができる。なお、前述した追跡ガイドまたは避難誘導ガイドは、方向を示す画像(例えば矢印など)であってもよいし、または、マップオブジェクト(例えば、該当の経路を含む地図など)を含んでもよい。
 ‐‐変形例
 なお、変形例として、当該制御信号は、例えば避難誘導ガイドを、領域80内の一般ユーザが所持する所定の携帯端末(例えば、所定のアプリケーションを予めダウンロードしている端末など)に表示させるための信号であってもよい。これにより、仮に警備員2が近くにいない場合であっても、一般ユーザに対して適切に避難誘導することができる。
 ‐制御例2
 また、当該制御信号は、警備員2ごとに、当該警備員2が装着するユーザカメラ22により撮影されている映像を、当該警備員2が装着する第2の表示装置32に表示させるための信号を含み得る。例えば、当該制御信号は、警備員2ごとに、当該警備員2が装着するユーザカメラ22が当該警備員2の視界外の範囲(例えば後方や上方)を撮影した映像を、当該警備員2が装着する第2の表示装置32に表示させるための信号を含んでもよい。一例として、当該警備員2の視界外の範囲における異常の発生が判断部104により判定された場合には、処理部110は、当該警備員2が装着するユーザカメラ22により、当該異常に対応する範囲が撮影された映像を、当該警備員2が装着する第2の表示装置32に表示させるための信号を当該制御信号として生成する。これにより、警備員2は、視界外において発生している異常(例えば不審な人物が存在していることなど)に迅速に気づくことができ、そして、警戒することができる。
 ‐制御例3
 また、当該制御信号は、複数の環境カメラ20および複数のユーザカメラ22により撮影された複数の映像を、例えば図2に示したように、第1の表示装置30に同時に表示させるための信号を含んでもよい。または、当該制御信号は、当該複数の映像の全部または一部のみを表示画面においてローテーション表示させるように、第1の表示装置30に対して表示を制御するための信号を含んでもよい。例えば、当該制御信号は、当該複数の映像のうち、所定のオブジェクト、所定のオブジェクトの周辺、移動オブジェクト、および/または、当該移動オブジェクトの周辺が撮影された映像を他の映像よりも優先して第1の表示装置30にローテーション表示させる(例えば、一回のローテーション当たりの当該映像の表示時間をより長くするなど)ための信号を含んでもよい。これらの例によれば、管制室90内の監視員4は、例えば所定のオブジェクトが複数検出された場合であっても、全ての所定のオブジェクトを同じ画面内で監視することができる。そして、監視員4は、不審な人物の追跡や急病人の救助などを例えば警備員2やドローンなどに対して適切なタイミングで指示することができる。なお、当該複数の映像はそれぞれ互いに異なる所定のオブジェクトを含んでもよいし、または、当該複数の映像の一部は、同一の所定のオブジェクトを含んでもよい。
 ‐制御例4
 また、複数の警備員2に不審な人物を追跡させる場合で、かつ、推定される逃走経路が複数存在する場合には、当該制御信号は、複数の環境カメラ20および複数のユーザカメラ22により撮影された当該複数の逃走経路の映像を、複数の第2の表示装置32および第1の表示装置30に表示させるための信号を含んでもよい。その後、ある警備員2が当該複数の逃走経路のうちのいずれか一つを選択した場合には、処理部110は、当該選択された逃走経路以外の逃走経路の映像のみを、当該警備員2が装着する第2の表示装置32a以外の第2の表示装置32、または、第1の表示装置30に表示させるための制御信号をさらに生成してもよい。なお、警備員2による逃走経路の選択方法の例としては、第2の表示装置32に対する視線操作や音声コマンドにより警備員2が選択すること、または、当該複数の逃走経路のうちのいずれかに警備員2が実際に移動することなどが挙げられる。
 または、この場合、処理部110は、当該選択された逃走経路の映像を、他の逃走経路の映像とは異なる表示態様(例えば、チェックを付けて表示したり、グレーアウトで表示するなど)で、当該警備員2が装着する第2の表示装置32a以外の第2の表示装置32、または、第1の表示装置30に表示させるための制御信号をさらに生成してもよい。これらの例によれば、ある警備員2aが一人の不審な人物の追跡を選択した場合には、当該不審な人物の追跡を当該警備員2aに任せ、かつ、他の警備員2bに当該不審な人物を追跡させないように誘導することができる。従って、領域80内の全警備員2に、より効率的に警備させることが可能となる。
 ‐制御例5
 また、当該制御信号は、複数の第2の表示装置32が表示している映像の向きに応じた、仮想オブジェクトまたはエフェクトを、当該複数の第2の表示装置32のうち少なくとも1つに表示させるための信号を含み得る。例えば、処理部110は、まず、当該複数の第2の表示装置32の各々が、領域80内で互いに異なる方向を向くように、個々の第2の表示装置32を装着する警備員2を誘導するためのガイドオブジェクト(例えば矢印などの仮想オブジェクト)を決定する。そして、処理部110は、第2の表示装置32ごとに、当該第2の表示装置32に関して決定したガイドオブジェクトを当該第2の表示装置32に表示させるための信号を当該制御信号として生成してもよい。
 または、当該制御信号は、領域80に関して生成された自由視点映像において、監視が手薄な領域(例えば、複数の環境カメラ20および複数のユーザカメラ22により領域80内で映像が撮影されていない領域など)を個々の第2の表示装置32に表示させるための信号を含んでもよい。これにより、監視が手薄な領域への移動を警備員2に誘導することができる。その結果、例えば、管制室90内の監視員4および複数の警備員2は、領域80内のより広範囲を監視することができ、監視の精度を向上させることができる。
 ‐制御例6
 また、当該制御信号は、複数の環境カメラ20および複数のユーザカメラ22のうち少なくとも2台により撮影された映像を第1の表示装置30、または、複数の第2の表示装置32のうち少なくとも1つに表示させ、かつ、当該2台の領域内カメラにより撮影された映像のうち少なくとも1つの視認性が変化するように表示を制御するための信号を含み得る。
 ここで、当該2台の領域内カメラにより撮影された映像のうちの一方の映像は、所定のオブジェクトを含む映像、または、所定のオブジェクトに関連する経路上の映像(以下、総称して「注目映像」と称する場合がある)であり、かつ、当該2台の領域内カメラにより撮影された映像のうちのもう一方の映像は、注目映像以外の映像であり得る。この場合、当該制御信号は、当該2台の領域内カメラにより撮影された映像のうち注目映像をより強調して該当の領域内表示装置30に表示させるための信号を含んでもよい。例えば、当該制御信号は、注目映像の表示サイズを大きくしたり、注目映像の色を変化させたり、または、注目映像の輝度を変化させて該当の領域内表示装置に表示させるための信号を含んでもよい。
 または、当該制御信号は、当該2台の領域内カメラにより撮影された映像のうち、注目映像以外の映像の視認性が低下するように当該映像の表示を制御するための信号を含んでもよい。例えば、当該制御信号は、当該注目映像以外の映像を非表示にさせたり、または、半透明で該当の領域内表示装置に表示させるための信号を含んでもよい。これにより、注目映像の視認性が相対的に向上し得る。
 ‐制御例7
 また、当該制御信号は、複数の環境カメラ20および複数のユーザカメラ22のうちの、あるカメラ20aにより撮像された、所定のオブジェクトを含む現在の映像と、別のカメラ20b(または同じカメラ20a)により撮像された、当該所定のオブジェクトを含まない過去の映像とを、第1の表示装置30、または、複数の第2の表示装置32のうちのいずれかに表示させるための信号を含み得る。ここで、あるカメラ20aは、本開示における第3の撮像装置の一例である。また、別のカメラ20b(または、あるカメラ20a)は、本開示における第4の撮像装置の一例である。
 これにより、現在の映像と過去の映像とが一つの領域内表示装置に同時に表示され得るので、撮像に関するデータ(例えば映像など)の通信量を削減することができる。また、自由視点映像が例えば第1の表示装置30に表示される場面では、現在の映像と過去の映像とを第1の表示装置30に連続的に表示させることができる。その結果、監視の精度をさらに向上させることができる。
 ‐制御例8
 また、当該制御信号は、領域80内で映像が撮影されていない領域(例えば、複数の環境カメラ20および複数のユーザカメラ22の撮影範囲外となっている領域)を示す画像を、第1の表示装置30、または、複数の第2の表示装置32のうち少なくとも一つに表示させるための信号を含んでもよい。これにより、例えば、当該画像が第1の表示装置30に表示される場合では、監視員4は、当該映像が撮影されていない領域が、いずれかのユーザカメラ22により撮影されるように、当該ユーザカメラ22を装着する警備員2に対して移動するように指示することができる。また、当該画像が複数の第2の表示装置32のうち少なくとも一つに表示される場合では、当該映像が撮影されていない領域がユーザカメラ22により撮像されるように、当該第2の表示装置32を装着する警備員2に対して移動を誘導することができる。
 ‐制御例9
 また、前述したように、同じ映像中で一つのオブジェクトが二つに分割されたことが認識された場合において、当該二つのオブジェクトが人間であり、かつ、当該二つのオブジェクトのうち一方が子どもである場合には、当該制御信号は、所定の映像を例えば当該子どもの近隣に位置するデジタル・サイネージなどに表示させるための信号を含んでもよい。ここで、所定の映像は、例えば、迷子相談所のスタッフの映像、当該子どもの親を含む映像、または、子どもに人気のあるキャラクターの映像などであり得る。これにより、当該子どもの関心を引き付けることができ、その場に留まるように当該子どもを誘導することができる。
 また、当該二つのオブジェクトのうち他方の人物(例えば親など)が、例えば領域80に関する所定のアプリケーションが実装されている携帯端末を所持している場合には、処理部110は、当該子どもが居る場所を示す表示(例えば映像や地図など)を当該携帯端末に表示させるための制御信号をさらに生成してもよい。これにより、迷子の子どもの位置を親に知らせることができる。
 ‐制御例10
 また、当該制御信号は、判断部104が作成した、警備員2の配置に関する計画が示す日時に、当該計画が示す場所へ、当該計画が示す、対象の警備員2に対して移動を誘導するためのガイド表示を、当該警備員2が装着する第2の表示装置32に表示させるための信号を含んでもよい。
 (2-1-6-2.移動制御)
 また、当該制御信号は、当該所定のオブジェクトが認識された位置または当該所定のオブジェクトの移動先へ、領域80内を移動可能な所定の移動装置を移動させるための信号を含み得る。ここで、所定の移動装置は、各種のロボット(例えばドローン、車椅子ロボット、ベッド型輸送機、医療ロボットなど)や乗り物(セグウェイや自動運転車など)であり得る。なお、ドローンは、例えば、カメラ、AED(Automated External Defibrillator)、または、犯人捕獲用の網などを搭載し得る。また、医療ロボットは、例えば遠隔地から患者を診断可能であるなど、遠隔地から医者が操作可能に構成され得る。また、医療ロボットは、救急箱や手術キットなどを備えてもよい。
 例えば、急病人が発生したことが認識された際には、処理部110は、当該急病人の位置情報が示す位置へ、例えばAEDを搭載したドローンや、ベッド型輸送機などを移動させるための信号を当該制御信号として生成する。また、不審な人物が存在することが認識された際には、処理部110は、例えば、カメラや犯人捕獲用の網を搭載したドローンに、当該不審な人物を追跡させたり、当該不審な人物を回り込んで撮影させるように制御するための信号を当該制御信号として生成する。
 また、当該制御信号は、領域80内で映像が撮影されていない領域(例えば、複数の環境カメラ20および複数のユーザカメラ22の撮影範囲外となっている領域)が、移動体である領域内カメラ(例えばカメラを搭載したドローンなど)により撮像されるように、当該領域内カメラを移動させるための信号を含んでもよい。
 また、当該制御信号は、判断部104が作成した、装置の配置に関する計画が示す日時に、当該計画が示す場所へ、当該計画が示す対象の装置(例えばカメラを搭載したドローンなど)を自動的に移動させたり、または、対象の装置(例えば車いすや歩行補助具など)を人的に配備させるための信号を含んでもよい。
 (2-1-6-3.撮像制御)
 ‐制御例1
 また、当該制御信号は、複数の環境カメラ20および複数のユーザカメラ22のうち少なくとも1つに対する撮像を制御するための信号を含み得る。例えば、当該制御信号は、複数の環境カメラ20および複数のユーザカメラ22のうち少なくとも1つの画角中央(または当該画角中央から所定の範囲内)に所定のオブジェクトが位置し続けるように、当該所定のオブジェクトの位置情報の変化に応じて当該カメラの動作を制御するための信号を含み得る。
 一例として、当該制御信号は、当該所定のオブジェクトの位置情報の変化の検出結果、または、判断部104による当該位置情報の変化の予測結果に応じて、複数の環境カメラ20および複数のユーザカメラ22のうち少なくとも1つの画角や撮影方向を変化させるための信号を含んでもよい。例えば、当該制御信号は、当該所定のオブジェクトの位置情報の変化に追従して当該所定のオブジェクトが撮影されるように、当該所定のオブジェクトの最も近くに位置する環境カメラ20またはユーザカメラ22に画角や撮影方向を変化させるための信号を含んでもよい。これにより、所定のオブジェクトの移動に追従して当該所定のオブジェクトを撮影し続けることができる。
 ‐制御例2
 また、当該制御信号は、当該所定のオブジェクトの進行方向上の第1経路上に位置する環境カメラ20(以下、「第1経路上の環境カメラ」と称する)に処理させるデータ量を増加させるための信号を含み得る。ここで、所定のオブジェクトの進行方向は、当該所定のオブジェクトの現在の進行方向であってもよいし、または、(例えば当該所定のオブジェクトの移動経路の情報に基づいて特定される)将来の進行方向であってもよい。また、第1経路は、例えば、当該所定のオブジェクトの移動経路の情報に基づいて特定され得る。なお、第1経路上の環境カメラは、本開示における第1の撮像装置の一例である。
 例えば、当該制御信号は、第1経路上の環境カメラの撮像頻度を(通常の撮像頻度よりも)増加させたり、または、(通常の解像度と比較して)より解像度の高い画像を第1経路上の環境カメラに撮像させるための信号を含んでもよい。これにより、第1の経路に関してより精度の高い画像が撮像されるので、サーバ10(判断部104)または監視員4は、当該所定のオブジェクトをより精度高く監視することができる。
 また、当該制御信号は、当該第1経路外にある第2経路上に位置する環境カメラ20(以下、「第2経路上の環境カメラ」と称する)に処理させるデータ量を減少させるための信号を含み得る。ここで、第2経路は、例えば、当該所定のオブジェクトの移動経路の情報と、(領域80に関連付けられる)経路情報とに基づいて特定され得る。なお、第2経路上の環境カメラは、本開示における第2の撮像装置の一例である。
 例えば、当該制御信号は、第2経路上の環境カメラの撮像頻度を(通常の撮像頻度よりも)減少させたり、または、(通常の解像度と比較して)より解像度の低い画像を、第2経路上の環境カメラに撮像させるための信号を含んでもよい。または、当該制御信号は、第2経路上の環境カメラの撮像頻度を、第1経路上の環境カメラよりも減少させたり、または、第1経路上の環境カメラよりも解像度の低い画像を、第2経路上の環境カメラに撮像させるための信号を含んでもよい。または、当該制御信号は、第2経路上の環境カメラに撮像はさせるが、他の装置と通信させない(例えば、撮像された画像を他の装置へ送信させない)ように制御するための信号を含んでもよい。これにより、所定のオブジェクトに関する監視の精度を維持しながら、(第2経路上の環境カメラに関する)データ通信量を削減したり、消費電力を抑制することができる。
 ‐制御例3
 また、当該制御信号は、複数の環境カメラ20および複数のユーザカメラ22のうち少なくとも1つにより撮像される映像の、例えばサーバ10への送信レートを該当のカメラに変更させるための信号を含んでもよい。また、当該制御信号は、複数の環境カメラ20および複数のユーザカメラ22のうち少なくとも1つによる、所定のオブジェクトのトラッキングレートを、該当のカメラに変更させるための信号を含んでもよい。
 (2-1-6-4.その他の制御)
 なお、変形例として、例えば所定のオブジェクトが認識された場合などに、処理部110は、(例えばSMS(Short Message Service)や電子メールなどを用いた)救急センターへの手配連絡、警察への連絡、または他の関係者への連絡を自動的、または、手動で(例えば監視員4などに)行わせるための信号を当該制御信号として生成してもよい。
 (2-1-6-5.映像の送信制御)
 ‐制御例1
 また、処理部110は、複数の環境カメラ20および複数のユーザカメラ22のうち少なくとも1つによる撮像に基づいた映像を所定の端末へ通信部120に送信させる。ここで、所定の端末は、領域80、または、複数の環境カメラ20および複数のユーザカメラ22のうちの少なくとも一つに対するアクセス権を有する端末であり得る。例えば、所定の端末は、領域80の入館IDや、領域80全体へのアクセスを許可する観光チケットのチケットIDなどを記憶している端末、第1の表示装置30、および、複数の第2の表示装置32などを含む。また、所定の端末は、例えば、前述した、領域80に関するアプリケーションが実装されている、一般顧客などのユーザが所持する携帯端末であってもよい。
 例えば、処理部110は、当該所定のオブジェクト、特定の環境カメラ20またはユーザカメラ22(例えば、当該所定のオブジェクトを撮影した環境カメラ20またはユーザカメラ22など)の位置情報、および、経路情報に応じた映像を、第1の表示装置30、または、一以上の第2の表示装置32に表示させる。ここで、当該映像は、例えば、移動体である領域内カメラの移動方向とは異なる方向が、当該領域内カメラにより撮影された映像を含んでもよい。一例として、当該映像は、当該領域内カメラの全周囲が撮影された映像を含んでもよい。
 これにより、当該所定のオブジェクトを撮影した環境カメラ20またはユーザカメラ22の例えば全周囲の映像を、(領域80内の)離れた地点に位置する一以上の警備員2が確認することができる。例えば、図7に示したように、所定のオブジェクト(例えば不審な人物や危険物など)が検知された場所の付近に位置する警備員2aの全周囲の視界を、離れた地点に位置する一以上の警備員2が同時に共有し、即時に警戒することができる。また、第1の表示装置30に当該映像が表示される場合では、監視員4は、危険が検知された場所の状況を詳細に確認することができる。
 ‐制御例2
 また、処理部110は、映像生成部108に生成された自由視点映像を、第1の表示装置30、または、一以上の第2の表示装置32へ通信部120に送信させることが可能である。例えば、処理部110は、所定のオブジェクトがリアルタイムにトラッキングされた結果に応じた自由視点映像を第1の表示装置30に表示させる。これにより、監視員4は、不審な人物などの移動をリアルタイムに監視することができる。
 (2-1-6-6.動的な制御)
 また、処理部110は、領域80に関連付けられた端末(例えば、複数の環境カメラ20、複数のユーザカメラ22、第1の表示装置30、または、複数の第2の表示装置32など)に対する制御信号を所定の条件に基づいて動的に変更することも可能である。例えば、処理部110は、情報取得部106により取得された移動経路の情報に基づいて、複数の環境カメラ20および複数のユーザカメラ22のうちの少なくとも1つに対する制御信号を動的に変更することが可能である。一例として、処理部110は、当該移動経路の情報が示す移動経路上に存在する複数の環境カメラ20に対する制御信号を所定の条件に基づいて動的に変更する。
 例えば、処理部110は、当該移動経路上に存在する複数の環境カメラ20の各々の撮影方向や画角などを、例えば所定のオブジェクトの位置情報の検出結果に基づいて動的に変更させるように、当該複数の環境カメラ20に対する制御信号を動的に変更する。また、処理部110は、当該移動経路上に存在する複数の環境カメラ20のうち、停止状態にあった一以上の環境カメラ20に対する制御信号を、例えば所定のオブジェクトの位置情報の検出結果に基づいて動的に変更する。例えば、処理部110は、当該停止状態にあった一以上の環境カメラ20に対して、所定のオブジェクトの位置情報の検出結果に基づいて動的に給電させるように、当該一以上の環境カメラ20に対する制御信号を動的に変更する。または、処理部110は、当該停止状態にあった一以上の環境カメラ20の撮像頻度を所定のオブジェクトの位置情報の検出結果に基づいて動的に変化させるように、当該一以上の環境カメラ20に対する制御信号を動的に変更する。
 (2-1-6-7.変形例)
 なお、変形例として、複数の環境カメラ20および複数のユーザカメラ22により撮影された、例えば不審な人物を含む複数の映像が一般公開される場合には、処理部110は、公開前に、当該複数の映像の一部に対してモザイク処理などの画像処理を行うことも可能である。
 {2-1-7.通信部120}
 通信部120は、例えば、後述する通信装置162を含んで構成され得る。通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、撮影された映像や、センシングされた三次元情報を、複数の環境カメラ20および複数のユーザカメラ22から受信する。また、通信部120は、処理部110の制御に従って、環境カメラ20、ユーザカメラ22、第1の表示装置30、または、第2の表示装置32へ制御信号を送信する。
 {2-1-8.記憶部122}
 記憶部122は、例えば、後述するストレージ装置160を含んで構成され得る。記憶部122は、各種のデータ、および、各種のソフトウェアを記憶する。例えば、図5に示したように、記憶部122は、対象者DB124および領域情報DB126を記憶する。
 なお、本実施形態によるサーバ10の構成は、前述した例に限定されない。例えば、対象者DB124および領域情報DB126のうちの一以上は、記憶部122に記憶される代わりに、通信網24に接続された他の装置(図示省略)に記憶されてもよい。
 <2-2.処理の流れ>
 以上、本実施形態の構成について説明した。次に、本実施形態による処理の流れの一例について、図8を参照して説明する。
 図8に示したように、まず、複数の環境カメラ20および複数のユーザカメラ22は映像を撮影し、そして、撮影した映像を例えばリアルタイムにサーバ10へ送信する(S101)。
 その後、サーバ10の画像認識部102は、受信された複数の映像の各々に対して画像認識を行う(S103)。そして、映像生成部108は、受信された複数の映像に基づいて、領域80に対応する三次元の仮想空間を生成する(S105)。
 続いて、判断部104は、S103の認識結果に基づいて、少なくとも一つの映像内に所定のオブジェクトが認識されたか否かを判定する(S107)。全ての映像内で所定のオブジェクトが認識されなかった場合には(S107:No)、サーバ10は、再びS101の処理を行う。
 一方、少なくとも一つの映像内に所定のオブジェクトが認識された場合には(S107:Yes)、情報取得部106は、認識された所定のオブジェクトごとに、当該所定のオブジェクトの位置情報を取得する。また、情報取得部106は、領域80に関連付けられている経路情報を領域情報DB126から取得する(S109)。
 続いて、処理部110は、認識された所定のオブジェクトごとに、S109で取得された当該所定のオブジェクトの位置情報、経路情報、および、当該所定のオブジェクトに基づいた、領域80に関連付けられた一以上の端末に対する制御信号を生成する(S111)。
 その後、通信部120は、処理部110の制御に従って、生成された制御信号を当該一以上の端末へ送信する。そして、当該一以上の端末は、受信した制御信号に従って、処理を行う(S113)。
 <2-3.適用例>
 以上、本実施形態の処理の流れについて説明した。次に、本実施形態の適用例について、「2-3-1.適用例1」~「2-3-2.適用例2」において説明する。
 {2-3-1.適用例1}
 (2-3-1-1.概要)
 まず、適用例1について説明する。図9は、適用例1の概要を示した説明図である。適用例1では、例えば、警備員2aが装着するユーザカメラ22aで撮影された映像が第1の表示装置30に表示されており、かつ、領域80内に不審な人物50が存在することが認識された場面を想定する。また、図9に示したように、不審な人物50が地点「A」から地点「B」へと移動したことが認識されたとする。この場合、サーバ10は、複数の環境カメラ20により撮影された映像に基づいて不審な人物50をトラッキングする。その後、サーバ10は、例えば領域80に対応する三次元の仮想空間内で、(図9に示した)ユーザカメラ22aの位置から、不審な人物50の現在の位置まで視点を連続的に動かした際の当該視点からの映像を自由視点映像として生成する。そして、サーバ10は、当該自由視点映像を管制室90(第1の表示装置30)に表示させる。
 その後、管制室90の監視員4が、不審な人物50をより詳細に確認することを望み、そして、不審な人物50の近くに位置する警備員2bが装着しているユーザカメラ22bにより撮像されている映像に、表示中の映像を切り替えるための入力を監視員4が行ったとする。この場合、サーバ10は、第1の表示装置30に表示される映像を当該自由視点映像から、ユーザカメラ22bにより撮像されている映像へと切り替える。これにより、監視員4は、不審な人物50をより詳細に確認することが可能となる。
 (2-3-1-2.処理の流れ)
 次に、図10~図11を参照して、本適用例1の処理の流れについて説明する。なお、図10に示したS201~S205は、図8に示したS101~S105と同様である。
 図10に示したように、S205の後、判断部104は、S203の認識結果に基づいて、少なくとも一つの映像内で不審な人物が認識されたか否かを判定する(S207)。全ての映像内で不審な人物が認識されなかった場合には(S207:No)、サーバ10は、再びS201の処理を行う。
 一方、少なくとも一つの映像内で不審な人物が認識された場合には(S207:Yes)、情報取得部106は、認識された不審な人物ごとに、当該不審な人物の位置情報を取得する(S209)。
 続いて、処理部110は、認識された不審な人物ごとに、現在の視点位置(例えば、第1の表示装置に現在表示されている一つの映像に対応する視点位置)と、当該不審な人物の現在位置とを連続的につなぐ軌跡を生成する(S211)。
 続いて、処理部110は、S205で生成された仮想空間において、S211で生成された軌跡に沿って視点を連続的に移動させた際の映像を自由視点映像として生成する。そして、処理部110は、当該自由視点映像を第1の表示装置30に表示させるための制御信号を生成する。続いて、通信部120は、処理部110の制御に従って、当該制御信号を第1の表示装置30へ送信する。その後、第1の表示装置30は、受信された制御信号に従って、自由視点映像を表示する(S213)。
 ここで、図11を参照して、S213より後の処理の流れについて説明する。図11に示したように、S213の後、サーバ10の制御部100は、複数の環境カメラ20および複数のユーザカメラ22のうちのいずれかにより撮像されている映像へ、表示中の映像を切り替えることが監視員4により選択されたか否かを判定する(S221)。表示中の映像を切り替えることが選択されなかった場合には(S221:No)、当該処理は終了する。
 一方、表示中の映像を切り替えることが選択された場合には(S221:Yes)、処理部110は、第1の表示装置30に表示されている自由視点映像を、当該選択されたカメラにより撮影されている映像に切り替えるための制御信号を生成する。例えば、処理部110は、まず、(当該自由視点映像に対応する)現在の視点位置と、当該選択されたカメラの位置との間で視点位置を連続的に遷移させる遷移映像を生成する。そして、処理部110は、当該遷移映像を表示させ、その後、当該選択されたカメラにより撮影されている映像を第1の表示装置30に表示させるための制御信号を生成する。これにより、視点位置を滑らかにつなぐ映像が第1の表示装置30に表示されるので、映像の切り替え前後で監視員4が位置関係が分からなくなることを防止することができる。
 その後、通信部120は、処理部110の制御に従って、当該制御信号を第1の表示装置30に送信する。そして、第1の表示装置30は、受信した制御信号に従って、当該選択されたカメラにより撮影されている映像を表示する(S223)。
 (2-3-1-3.効果)
 この適用例1によれば、カメラを搭載したドローンを領域80内で飛行させることなく、あたかもドローンが飛行して不審な人物を追跡するような映像が(自由視点映像として)監視員4に提示され得る。また、自由視点映像の表示後に、不審な人物の近辺に位置する環境カメラ20およびユーザカメラ22のいずれかが監視員4により選択されると、当該不審な人物に対して回り込むような擬似的な映像を監視員4に提示することができる。
 また、実際のドローンとは異なり、現在の視点位置から不審な人物の位置までの移動時の速度が制限されない(例えば、自由視点映像の再生速度を任意に設定可能である)ので、不審な人物を高速に追跡するような映像を監視員4に提示することができる。
 また、領域80内でドローンを飛行させる必要がないので、領域80内の一般顧客などの人々に影響を与えることがない。
 {2-3-2.適用例2}
 次に、適用例2について、図12~図14を参照して説明する。この適用例2では、サーバ10は、不審な人物などを撮影した映像を保存しておき、そして、管制室90の監視員4により映像の再生が指示された際に、保存している映像に基づいた自由視点映像を第1の表示装置30に表示させる。
 (2-3-2-1.全体的な処理の流れ)
 図12は、本適用例2の全体的な処理の流れを示したフローチャートである。図12に示したように、まず、サーバ10は、後述する「不審な人物の映像の撮影処理」を行う(S301)。その後、管制室90内の監視員4により過去の映像の再生の指示がなされた場合には(S303:Yes)、サーバ10は、後述する「映像の再生処理」を行う(S305)。なお、監視員4は、例えば領域80や撮影日時などを指定することにより、再生対象の映像を指示することができる。
 一方、過去の映像の再生が指示されない場合には(S303:No)、当該処理は終了する。
 (2-3-2-2.不審な人物の映像の撮影処理)
 ここで、図13を参照して、S301における「不審な人物の映像の撮影処理」の流れについて説明する。なお、図13に示したS401~S403は、図10に示したS201~S203と同様である。また、図13に示したS405は、図10に示したS207と同様である。
 図13に示したように、S405において、全ての映像内で不審な人物が認識されなかった場合には(S405:No)、サーバ10は、再びS401の処理を行う。
 一方、少なくとも一つの映像内で不審な人物が認識された場合には(S405:Yes)、情報取得部106は、まず、領域80に関連付けられている経路情報を取得する。そして、情報取得部106は、S403で認識された不審な人物ごとに、当該不審な人物の移動経路の情報を取得する。例えば、情報取得部106は、認識された不審な人物ごとに、S403で認識された、当該不審な人物の速度、加速度、および移動方向のうち少なくとも1つと、当該不審な人物の位置情報と、取得された経路情報とに基づいて、当該不審な人物の移動経路を逐次的に特定することにより、当該不審な人物の移動経路の情報を取得する(S407)。
 その後、制御部100は、S407で取得された各不審な人物の移動経路の情報、S401で撮影された複数の映像、および、撮影日時を関連付けて記憶部122に保存する(S409)。
 (2-3-2-3.映像の再生処理)
 次に、図14を参照して、S305における「映像の再生処理」の流れについて説明する。図14に示したように、まず、情報取得部106は、例えばS303における再生の指示に基づいて、不審な人物の移動経路の情報、および、撮影された複数の映像を記憶部122から抽出する(S451)。
 続いて、映像生成部108は、取得された複数の映像に基づいて三次元の仮想空間を生成する(S453)。
 その後、処理部110は、生成された仮想空間において、S451で取得された移動経路の情報が示す移動経路に応じて視点を連続的に移動させた際の映像を自由視点映像として生成する。そして、処理部110は、当該自由視点映像を第1の表示装置30に表示させるための制御信号を生成する。なお、処理部110は、当該不審な人物が例えば所定の場所へ入ったり、不審な動きをしたことが認識されたタイミングでは、当該自由視点映像の再生速度を遅くしたり(スロー再生)、または、複数の視点からの映像を同時に第1の表示装置30に表示させるための信号を当該制御信号の一部として生成してもよい。
 続いて、通信部120は、処理部110の制御に従って、当該制御信号を第1の表示装置30へ送信する。その後、第1の表示装置30は、受信された制御信号に従って、自由視点映像を表示する(S455)。
 (2-3-2-4.効果)
 この適用例2によれば、領域80内で過去に撮影された不審な人物の映像を、管制室90内の監視員4は所望のタイミングで確認することができ、かつ、当該不審な人物の行動を詳細に確認することができる。
 また、サーバ10は、当該不審な人物が不審な行動をしていないと認識されるタイミングでは再生速度を速くし、かつ、不審な行動をしていると認識されるタイミング(例えば所定の場所へ入った場合など)では再生速度を遅くすることが可能である。このため、当該不審な人物が不審な行動をしている場面を、監視員4は効率的、かつ、詳細に確認することができる。
 <2-4.効果>
 以上説明したように、本実施形態によれば、サーバ10は、領域80内に位置する、複数の環境カメラ20および複数のユーザカメラ22により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、当該領域80に関連付けられた経路情報とを取得し、そして、当該位置情報、当該経路情報、および、当該所定のオブジェクトに基づいた制御信号の、当該領域に関連付けられた端末に対する送信を制御する。このため、サーバ10は、例えば所定のオブジェクトの位置情報、および、領域80内の経路に応じた最適な制御を該当の端末に対して行うことができる。
 例えば、サーバ10は、経路情報を用いることにより、該当の端末において次に再生される映像のデータを推定し、そして、推定した結果に基づいて、複数の環境カメラ20および複数のユーザカメラ22により撮像されている映像を事前に取得したり、または、事前に該当の端末へ送信することができる。これにより、遅延の少ない映像の再生を実現できる。
<<3.ハードウェア構成>>
 次に、本実施形態によるサーバ10のハードウェア構成について、図15を参照して説明する。図15に示すように、サーバ10は、CPU150、ROM(Read Only Memory)152、RAM154、バス156、インターフェース158、ストレージ装置160、および通信装置162を備える。
 CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ10内の動作全般を制御する。また、CPU150は、サーバ10において制御部100の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
 ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
 RAM154は、例えば、CPU150により実行されるプログラムや、使用中のデータなどを一時的に記憶する。
 バス156は、CPUバスなどから構成される。このバス156は、CPU150、ROM152、および、RAM154を相互に接続する。
 インターフェース158は、ストレージ装置160、および、通信装置162を、バス156と接続する。
 ストレージ装置160は、記憶部122として機能する、データ格納用の装置である。ストレージ装置160は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
 通信装置162は、例えば通信網24などに接続するための通信デバイス(例えばネットワークカードなど)等で構成された通信インターフェースである。また、通信装置162は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置162は、通信部120として機能する。
<<4.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <4-1.変形例1>
 例えば、前述した実施形態による情報処理システムは、領域80の管理システム(例えばセキュリティシステム)として構成される例について説明したが、本開示はかかる例に限定されない。例えば、当該情報処理システムは、領域80内の観光、領域80内の散策、または、領域80におけるバーチャルショッピングのためのシステムとして構成されてもよい。この場合、サーバ10は、領域80内の複数の環境カメラ20および複数のユーザカメラ22により撮影された映像に応じた映像(例えば撮影された映像自体や、撮影された映像に基づいて生成される自由視点映像など)を、一般顧客などのユーザが利用する端末に表示させてもよい。ここで、当該端末は、例えば、所定のアプリケーションを予め実装している端末などであり得る。この変形例によれば、当該ユーザは当該映像を閲覧することにより、あたかも実際に領域80内に居て領域80内を観光したり、買い物などを行うような体験をすることができる。なお、当該端末は、例えば、HMD、スマートフォンなどの携帯電話、または、タブレット端末などであってもよい。
 なお、バーチャルショッピングなどのアプリケーションでは、例えば複数の環境カメラ20などにより現在撮像されている映像を当該アプリケーションの映像の全てに用いる必要がない。そこで、サーバ10(映像生成部108)は、例えば複数の環境カメラ20などにより現在撮像されている映像と、過去に撮影された映像とを用いることにより当該アプリケーションの映像を生成してもよいし、または、過去に撮影された映像のみを用いて当該アプリケーションの映像を生成してもよい。
 <4-2.変形例2>
 また、前述した実施形態による情報処理システムの構成は、図1に示した例に限定されない。例えば、領域80のスタッフ(例えば清掃員や受け付けの人など)が小型カメラを一以上装着してもよい。一例として、領域80のスタッフは、例えばスカーフのように、胴体の周囲に複数の小型カメラを装着し、そして、全周囲(360度)を撮影可能としてもよい。また、領域80のスタッフは、さらに、例えばGPS受信機などの位置情報受信機や、デプスセンサ―をさらに装着してもよい。この場合、サーバ10は、当該領域80のスタッフが装着する小型カメラにより撮影された映像をさらに受信し、そして、環境カメラ20やユーザカメラ22により撮影された映像と、当該小型カメラにより撮影された映像とを併用することにより、前述した各機能を実行することが可能である。これにより、領域80内で映像が撮影されない領域を減らすことができる。
 また、図1では、サーバ10が領域80の外部に設置される例を示しているが、かかる例に限定されず、サーバ10は領域80内(例えば管制室90内など)に設置されてもよい。また、サーバ10と他の装置(例えば第1の表示装置30など)とは一体的に構成されてもよい。
 また、図1では、サーバ10が一台だけ図示されているが、かかる例に限定されず、複数台のコンピュータが協同して動作することにより、本実施形態によるサーバ10の機能が実現されてもよい。
 <4-3.変形例3>
 また、前述した実施形態では、本開示における情報処理装置がサーバ10である例について説明したが、かかる例に限定されない。例えば、当該情報処理装置は、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、または、ロボットなどであってもよい。
 <4-4.変形例4>
 また、前述した実施形態の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
 また、前述した実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、前述した実施形態によるサーバ10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記録媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得する情報取得部と、
 前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信を制御する処理部と、
を備える、情報処理装置。
(2)
 前記情報取得部は、前記所定のオブジェクトの速度、加速度、および移動方向のうち少なくとも1つと前記経路情報とに基づいて、前記所定のオブジェクトの移動経路の情報をさらに取得し、
 前記制御信号は、さらに、前記移動経路の情報に基づいた信号である、前記(1)に記載の情報処理装置。
(3)
 前記移動経路の情報は、前記複数の撮像装置のうち少なくとも1つにより取得される、前記所定のオブジェクトを含まない映像を含む、前記(2)に記載の情報処理装置。
(4)
 前記端末は、前記移動経路上に位置する前記複数の撮像装置のうち少なくとも1つである、前記(2)または(3)に記載の情報処理装置。
(5)
 前記端末は、前記領域内を移動可能な所定の移動装置であり、
 前記制御信号は、前記所定のオブジェクトが認識された位置または前記所定のオブジェクトの移動先に前記所定の移動装置を移動させるための信号を含む、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
 前記端末は表示装置であり、
 前記制御信号は、前記所定のオブジェクトに関連付けられたガイドを、前記位置情報および前記経路情報に関連付けて前記表示装置に表示させるための信号を含む、前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
 前記端末は前記複数の撮像装置のうち少なくとも1つであり、
 前記制御信号は、前記複数の撮像装置のうち少なくとも1つの画角中央から所定の範囲内に前記所定のオブジェクトが位置し続けるように、前記所定のオブジェクトの位置情報の変化に応じて当該撮像装置の動作を制御するための信号を含む、前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
 前記端末は、前記領域、または、前記複数の撮像装置のうち少なくとも1つに対するアクセス権を有する端末であり、
 前記処理部は、さらに、前記複数の撮像装置のうち少なくとも1つが取得した、前記位置情報および前記経路情報に応じた映像の、前記端末に対する送信を制御する、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記複数の撮像装置のうち少なくとも1つは移動体であり、
 前記映像は、前記移動体の移動方向とは異なる方向の映像である、前記(8)に記載の情報処理装置。
(10)
 前記複数の撮像装置のうち少なくとも1つは移動体であり、
 前記制御信号は、複数の前記端末が表示している映像の向きに応じた、仮想オブジェクトまたはエフェクトを前記複数の端末のうち少なくとも1つに表示させるための信号を含む、前記(8)または(9)に記載の情報処理装置。
(11)
 前記端末は、前記複数の撮像装置のうち少なくとも2つにより取得された映像を同時に表示可能なディスプレイを有し、
 前記制御信号は、前記位置情報の変化に応じて、前記少なくとも2つの撮像装置により取得された映像のうち少なくとも1つの視認性が変化するように表示を制御するための信号を含む、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
 前記所定のオブジェクトの進行方向上の第1経路が、前記位置情報および前記経路情報に基づいて特定され、
 前記複数の撮像装置は、前記第1経路上に位置する第1の撮像装置を含み、
 前記制御信号は、前記第1の撮像装置に処理させるデータ量を増加させるための信号を含む、前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
 前記制御信号は、前記第1の撮像装置の撮像頻度を増加させるための信号を含む、前記(12)に記載の情報処理装置。
(14)
 前記第1経路外にある第2経路が、前記位置情報および前記経路情報に基づいて特定され、
 前記複数の撮像装置は、前記第2経路上に位置する第2の撮像装置をさらに含み、
 前記制御信号は、前記第2の撮像装置に処理させるデータ量を前記第1の撮像装置よりも減少させるための信号を含む、前記(12)または(13)に記載の情報処理装置。
(15)
 前記制御信号は、前記第2の撮像装置の撮像頻度を前記第1の撮像装置よりも減少させるための信号を含む、前記(14)に記載の情報処理装置。
(16)
 前記端末は表示装置であり、
 前記複数の撮像装置は、第3の撮像装置および第4の撮像装置を含み、
 前記制御信号は、前記第3の撮像装置により取得された、前記所定のオブジェクトを含む現在の映像と、前記第4の撮像装置により取得された、前記所定のオブジェクトを含まない過去の映像とを前記表示装置に表示させるための信号を含む、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
 前記情報処理装置は、前記複数の撮像装置により取得される映像内の、所定の移動を行ったオブジェクトを前記所定のオブジェクトとして判定する判断部をさらに備える、前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
 前記情報処理装置は、前記複数の撮像装置により取得される映像内のオブジェクトのサイズまたは形状に基づいて、前記オブジェクトが前記所定のオブジェクトであるか否かを判定する判断部をさらに備える、前記(1)~(16)のいずれか一項に記載の情報処理装置。
(19)
 前記オブジェクトのサイズが所定の閾値以上変化したと判定された場合には、前記判断部は、前記オブジェクトを前記所定のオブジェクトとして判定する、前記(18)に記載の情報処理装置。
(20)
 人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得することと、
 前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信をプロセッサが制御することと、
を含む、情報処理方法。
(21)
 コンピュータを、
 人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得する情報取得部と、
 前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信を制御する処理部、
として機能させるための、プログラム。
10 サーバ
20 環境カメラ
22 ユーザカメラ
24 通信網
30 第1の表示装置
32 第2の表示装置
100 制御部
102 画像認識部
104 判断部
106 情報取得部
108 映像生成部
110 処理部
120 通信部
122 記憶部
124 対象者DB
126 領域情報DB

Claims (21)

  1.  人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得する情報取得部と、
     前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信を制御する処理部と、
    を備える、情報処理装置。
  2.  前記情報取得部は、前記所定のオブジェクトの速度、加速度、および移動方向のうち少なくとも1つと前記経路情報とに基づいて、前記所定のオブジェクトの移動経路の情報をさらに取得し、
     前記制御信号は、さらに、前記移動経路の情報に基づいた信号である、請求項1に記載の情報処理装置。
  3.  前記移動経路の情報は、前記複数の撮像装置のうち少なくとも1つにより取得される、前記所定のオブジェクトを含まない映像を含む、請求項2に記載の情報処理装置。
  4.  前記端末は、前記移動経路上に位置する前記複数の撮像装置のうち少なくとも1つである、請求項2に記載の情報処理装置。
  5.  前記端末は、前記領域内を移動可能な所定の移動装置であり、
     前記制御信号は、前記所定のオブジェクトが認識された位置または前記所定のオブジェクトの移動先に前記所定の移動装置を移動させるための信号を含む、請求項1に記載の情報処理装置。
  6.  前記端末は表示装置であり、
     前記制御信号は、前記所定のオブジェクトに関連付けられたガイドを、前記位置情報および前記経路情報に関連付けて前記表示装置に表示させるための信号を含む、請求項1に記載の情報処理装置。
  7.  前記端末は前記複数の撮像装置のうち少なくとも1つであり、
     前記制御信号は、前記複数の撮像装置のうち少なくとも1つの画角中央から所定の範囲内に前記所定のオブジェクトが位置し続けるように、前記所定のオブジェクトの位置情報の変化に応じて当該撮像装置の動作を制御するための信号を含む、請求項1に記載の情報処理装置。
  8.  前記端末は、前記領域、または、前記複数の撮像装置のうち少なくとも1つに対するアクセス権を有する端末であり、
     前記処理部は、さらに、前記複数の撮像装置のうち少なくとも1つが取得した、前記位置情報および前記経路情報に応じた映像の、前記端末に対する送信を制御する、請求項1に記載の情報処理装置。
  9.  前記複数の撮像装置のうち少なくとも1つは移動体であり、
     前記映像は、前記移動体の移動方向とは異なる方向の映像である、請求項8に記載の情報処理装置。
  10.  前記複数の撮像装置のうち少なくとも1つは移動体であり、
     前記制御信号は、複数の前記端末が表示している映像の向きに応じた、仮想オブジェクトまたはエフェクトを前記複数の端末のうち少なくとも1つに表示させるための信号を含む、請求項8に記載の情報処理装置。
  11.  前記端末は、前記複数の撮像装置のうち少なくとも2つにより取得された映像を同時に表示可能なディスプレイを有し、
     前記制御信号は、前記位置情報の変化に応じて、前記少なくとも2つの撮像装置により取得された映像のうち少なくとも1つの視認性が変化するように表示を制御するための信号を含む、請求項1に記載の情報処理装置。
  12.  前記所定のオブジェクトの進行方向上の第1経路が、前記位置情報および前記経路情報に基づいて特定され、
     前記複数の撮像装置は、前記第1経路上に位置する第1の撮像装置を含み、
     前記制御信号は、前記第1の撮像装置に処理させるデータ量を増加させるための信号を含む、請求項1に記載の情報処理装置。
  13.  前記制御信号は、前記第1の撮像装置の撮像頻度を増加させるための信号を含む、請求項12に記載の情報処理装置。
  14.  前記第1経路外にある第2経路が、前記位置情報および前記経路情報に基づいて特定され、
     前記複数の撮像装置は、前記第2経路上に位置する第2の撮像装置をさらに含み、
     前記制御信号は、前記第2の撮像装置に処理させるデータ量を前記第1の撮像装置よりも減少させるための信号を含む、請求項12に記載の情報処理装置。
  15.  前記制御信号は、前記第2の撮像装置の撮像頻度を前記第1の撮像装置よりも減少させるための信号を含む、請求項14に記載の情報処理装置。
  16.  前記端末は表示装置であり、
     前記複数の撮像装置は、第3の撮像装置および第4の撮像装置を含み、
     前記制御信号は、前記第3の撮像装置により取得された、前記所定のオブジェクトを含む現在の映像と、前記第4の撮像装置により取得された、前記所定のオブジェクトを含まない過去の映像とを前記表示装置に表示させるための信号を含む、請求項1に記載の情報処理装置。
  17.  前記情報処理装置は、前記複数の撮像装置により取得される映像内の、所定の移動を行ったオブジェクトを前記所定のオブジェクトとして判定する判断部をさらに備える、請求項1に記載の情報処理装置。
  18.  前記情報処理装置は、前記複数の撮像装置により取得される映像内のオブジェクトのサイズまたは形状に基づいて、前記オブジェクトが前記所定のオブジェクトであるか否かを判定する判断部をさらに備える、請求項1に記載の情報処理装置。
  19.  前記オブジェクトのサイズが所定の閾値以上変化したと判定された場合には、前記判断部は、前記オブジェクトを前記所定のオブジェクトとして判定する、請求項18に記載の情報処理装置。
  20.  人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得することと、
     前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信をプロセッサが制御することと、
    を含む、情報処理方法。
  21.  コンピュータを、
     人間が移動可能な所定の経路を有する領域内に位置する複数の撮像装置により取得される映像のうちいずれか一つに含まれる所定のオブジェクトの位置情報と、前記所定の経路に関連付けられた経路情報とを取得する情報取得部と、
     前記位置情報、前記経路情報、および、前記所定のオブジェクトに基づいた制御信号の、前記領域に関連付けられた端末に対する送信を制御する処理部、
    として機能させるための、プログラム。
PCT/JP2016/086070 2015-12-09 2016-12-05 情報処理装置、情報処理方法、およびプログラム WO2017099037A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562265149P 2015-12-09 2015-12-09
US62/265,149 2015-12-09

Publications (1)

Publication Number Publication Date
WO2017099037A1 true WO2017099037A1 (ja) 2017-06-15

Family

ID=59013149

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/086070 WO2017099037A1 (ja) 2015-12-09 2016-12-05 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2017099037A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087114A (ja) * 2017-11-09 2019-06-06 富士ゼロックス株式会社 ロボット制御システム
JP2019195175A (ja) * 2019-04-29 2019-11-07 株式会社センシンロボティクス 飛行体の制御に関する情報表示方法
JP2019198000A (ja) * 2018-05-09 2019-11-14 株式会社クリューシステムズ 映像監視システム及びその方法と撮像装置
WO2020189223A1 (ja) * 2019-03-15 2020-09-24 ソニー株式会社 動画配信システム、動画配信方法、及び表示端末
WO2023157489A1 (ja) * 2022-02-21 2023-08-24 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
CN117579791A (zh) * 2024-01-16 2024-02-20 安科优选(深圳)技术有限公司 具有摄像功能的信息显示系统及信息显示方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273689A (ja) * 1991-02-28 1992-09-29 Hitachi Ltd 監視装置
JP2000207665A (ja) * 1999-01-18 2000-07-28 Matsushita Electric Works Ltd 転倒検知装置
JP2006146378A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 複数カメラを用いた監視システム
JP2006148327A (ja) * 2004-11-17 2006-06-08 Olympus Corp 画像生成装置
JP2009017416A (ja) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp 監視装置及び監視方法及びプログラム
JP2010124023A (ja) * 2008-11-17 2010-06-03 Hitachi Kokusai Electric Inc 監視システム
JP2011128911A (ja) * 2009-12-17 2011-06-30 Glory Ltd 対象者検出システム、対象者検出方法、対象者検出装置および移動式情報取得装置
JP2013207356A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報処理装置、情報処理方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273689A (ja) * 1991-02-28 1992-09-29 Hitachi Ltd 監視装置
JP2000207665A (ja) * 1999-01-18 2000-07-28 Matsushita Electric Works Ltd 転倒検知装置
JP2006146378A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 複数カメラを用いた監視システム
JP2006148327A (ja) * 2004-11-17 2006-06-08 Olympus Corp 画像生成装置
JP2009017416A (ja) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp 監視装置及び監視方法及びプログラム
JP2010124023A (ja) * 2008-11-17 2010-06-03 Hitachi Kokusai Electric Inc 監視システム
JP2011128911A (ja) * 2009-12-17 2011-06-30 Glory Ltd 対象者検出システム、対象者検出方法、対象者検出装置および移動式情報取得装置
JP2013207356A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報処理装置、情報処理方法およびプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087114A (ja) * 2017-11-09 2019-06-06 富士ゼロックス株式会社 ロボット制御システム
JP2019198000A (ja) * 2018-05-09 2019-11-14 株式会社クリューシステムズ 映像監視システム及びその方法と撮像装置
WO2020189223A1 (ja) * 2019-03-15 2020-09-24 ソニー株式会社 動画配信システム、動画配信方法、及び表示端末
US11972547B2 (en) 2019-03-15 2024-04-30 Sony Group Corporation Video distribution system, video distribution method, and display terminal
JP7505483B2 (ja) 2019-03-15 2024-06-25 ソニーグループ株式会社 動画配信システム、及び動画配信方法
JP2019195175A (ja) * 2019-04-29 2019-11-07 株式会社センシンロボティクス 飛行体の制御に関する情報表示方法
WO2023157489A1 (ja) * 2022-02-21 2023-08-24 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
CN117579791A (zh) * 2024-01-16 2024-02-20 安科优选(深圳)技术有限公司 具有摄像功能的信息显示系统及信息显示方法
CN117579791B (zh) * 2024-01-16 2024-04-02 安科优选(深圳)技术有限公司 具有摄像功能的信息显示系统及信息显示方法

Similar Documents

Publication Publication Date Title
WO2017099037A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230300466A1 (en) Video surveillance system and video surveillance method
US9796093B2 (en) Customer service robot and related systems and methods
US10370102B2 (en) Systems, apparatuses and methods for unmanned aerial vehicle
US20190073193A1 (en) System and method for providing mobile personal security platform
US11365014B2 (en) System and method for automated tracking and navigation
US20150268338A1 (en) Tracking from a vehicle
US11017537B2 (en) Image monitoring system
EP2553924B1 (en) Effortless navigation across cameras and cooperative control of cameras
JP6402219B1 (ja) 防犯システム、防犯方法、及びロボット
US20210256823A1 (en) Video surveillance system and video surveillance method
US10187611B2 (en) Video surveillance system with aerial camera device
US20160027290A1 (en) Systems and methods for providing emergency resources
CN103731659B (zh) 头戴式显示设备
KR20190100085A (ko) 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법
EP3252714A1 (en) Camera selection in positional tracking
JP2017028561A (ja) 画像監視システム
US11156844B2 (en) Information processing apparatus, information processing method, and program
KR20200060361A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
KR20240046287A (ko) 가상 현실 및 증강 현실 경로 관리를 위한 시스템 및 방법
JP2008117132A (ja) 防犯ロボットシステム及び防犯ロボットによる監視方法、警告方法
JP2017152964A (ja) 監視装置および監視装置用プログラム
US11508084B2 (en) Information processing apparatus and information processing method for accurately estimating a self location
CN105916760A (zh) 可穿戴式信令系统和方法
KR20200071560A (ko) 체험농장 안전관리 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16872935

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16872935

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP